Cookie Hinweis

Suche

Tendenz

Das Magazin der Bayerischen Landeszentrale für neue Medien

Die Geister,
die wir riefen…
zur Übersicht aller ArtikelAlle Artikel zur Übersicht aller AusgabenAlle Ausgaben

Die Geister, die wir riefen…

Künstliche Intelligenz (KI) lässt die Konturen zwischen Wahrhaftigkeit und konstruierter Wirklichkeit verschwimmen. KI kann selbst lernen, programmieren und Entscheidungen treffen. Wo müssen Mensch und Gesellschaft der maschinellen Intelligenz durch eine verantwortungsvolle Regulierung Grenzen setzen?

Text: Matthias Kurp

Machen wir doch einmal ein kleines Experiment und fragen den von OpenAI entwickelten Bot ChatGPT, worin Künstliche Intelligenz (KI) dem Menschen unterlegen ist. Die Antwort kommt prompt in fünf Punkten: Genannt werden erstens Schwierigkeiten, Emotionen und soziale Signale zu erkennen und zu verstehen. Zweitens sei KI nicht imstande, kreative Ideen und Lösungen zu finden, wie es Menschen tun. Drittens gebe es Schwierigkeiten, mit unvorhergesehenen Umständen umzugehen. Viertens sei KI nicht in der Lage, ethische und moralische Entscheidungen zu treffen. Und fünftens habe KI keine Fähigkeit, auf ihre Intuition zu vertrauen.

Wer sich Gedanken macht, welche Rolle KI in unserer Gesellschaft – zum Beispiel in Bereichen wie Bildung, Arbeitswelt, Recht oder Medizin – spielen soll, dem gibt die generative KI von ChatGPT erste Hinweise: Wenn eine Maschine nicht fähig ist, soziale und moralische Entscheidungen zu treffen, menschliche Lösungen zu entwickeln und auf komplexe aktuelle Probleme kreativ und human zu reagieren, ergeben sich eine Reihe von Wirkungen und Nebenwirkungen Künstlicher Intelligenz, die diskutiert und gesellschaftlich flankiert werden müssen.

Artificial Intelligence Act der EU

Erste regulatorische Debatten stieß in Deutschland die vom Bundestag 2018 eingesetzte Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ an, als sie vor drei Jahren einen mehr als 800-seitigen Abschlussbericht vorlegte. Unterschiedliche Projektgruppen empfahlen damals Monitoring, weitere Forschung und Aufklärung, aber kaum konkrete gesetzgeberische Maßnahmen.

Ganz anders die Europäische Kommission: Nach drei Jahren Vorbereitung legte sie im April 2021 ihren Vorschlag für einen Artificial Intelligence Act (AI Act) vor, der als Verordnung für den Umgang mit KIeinen verbindlichen Rahmen schaffen soll. Als Künstliche Intelligenz gilt in diesem Rahmen ein maschinenbasiertes System, wenn es autonom Prognosen, Empfehlungen oder Entscheidungen produziert, welche die physische und virtuelle Umwelt beeinflussen können. Im vergangenen Dezember entschied der Rat der Europäischen Union, den Entwurf der Kommission mit kleineren Modifikationen anzunehmen. Auf großes öffentliches Interesse aber stieß das Thema erst, als mit dem ChatGPT-Boom wenig später klar wurde, welch disruptive Effekte die generative KI auslöst.

Plötzlich erwies sich der Ansatz der EU-Kommission, KI-Programme nach unterschiedlichen Risikoniveaus einzustufen, nur noch als bedingt geeignet. Generative KI kann nämlich auf Basis von Machine Learning und neuronalen Netzwerken (vgl. Artikel „Das Dilemma des Zauberlehrlings“ in Tendenz 2/2018, S. 8-11) aus riesigen Datenmengen vermeintlich selbständig Bilder, Texte und Software erzeugen. Die Ergebnisse reichen von der schwachen KI, die zur Lösung fest umrissener Probleme eingesetzt wird, bis zur starken KI, die eigenständig komplexe Aufgabenbündel übernehmen kann. Mit präzise formulierten ChatGPT-Prompts lassen sich auch von Laien Codes zur Erkennung einfacher Muster ebenso leicht programmieren wie die Herstellung digitaler Inhalte oder die Steuerung komplexer maschineller Abläufe.

Dabei wirken die Ergebnisse fast immer „echt“ oder „wahrhaftig“, sind aber oft nur Artefakte. So verblüfft das Sprachmodell von ChatGPT zwar mit semantischer Brillanz, „schöpft“ aber häufig vermeintliche Fakten und Quellen, die als Halluzinationen bezeichnet werden. Bekannt sind etwa erfundene Gerichtsurteile oder Quellenangaben nicht existenter wissenschaftlicher Quellen sowie falsche journalistische Meldungen. Weil ChatGPT als generative KI sein „Wissen“ aus dem Internet bezieht, gehören dazu auch Fake News und Desinformationen aller Art. Um gegenzusteuern und das Modell mit moralischen Werten zu „füttern“, werden die Codes von Menschen „trainiert“. Aber nach welchen Prinzipien? Werden die entsprechenden Grundsätze demokratisch ausgehandelt?

Modell abgestufter Risiken

Als sich im Juni 2023 das Europäische Parlament mit 499 zu 23 Stimmen bei 93 Enthaltungen auf eine Position zur Regulierung von Künstlicher Intelligenz einigte, ging der Beschluss über den AI-Act-Entwurf der Kommission hinaus. Grundsätzlich wird das Modell der Risikoklassen weiterverfolgt. Es sieht für niedrige, begrenzte und hohe Risiken unterschiedlich strenge Auflagen vor und lehnt inakzeptable Risiken ab. Entscheidend für die Einordnung eines Risikos soll aber nicht mehr allein sein, in welchem Bereich die KI abstrakt eingesetzt wird, sondern welche Aufgaben sie konkret erfüllen soll. KI-Systeme, die zur biometrischen Gesichtserkennung im öffentlichen Raum in Echtzeit eingesetzt werden können, sollen ebenso verboten sein wie KI-Systeme, die Menschen nach ihrem sozialen Verhalten oder ethnischen Merkmalen klassifizieren (Social Scoring, Profiling).

Zur Kategorie mit hohen Risiken gehören KI-Systeme, die in Bereichen wie Bildung, kritische Infrastruktur, öffentliche Leistungen, Migration, Rechtspflege oder Strafverfolgung zum Einsatz kommen. Entsprechende Anwendungen erfordern rechtliche Auflagen, die vor der Inbetriebnahme umgesetzt und ständig auf ihre Einhaltung überwacht werden sollen. Bestehen nur niedrige oder begrenzte Risiken, sollen die Projekte nationalen Behörden gemeldet werden, die binnen drei Monaten das Risiko einschätzen und gegebenenfalls eine Art Unbedenklichkeit bescheinigen. Das Problem dabei: Lässt sich die Eintrittswahrscheinlichkeit möglicher Gefahren überhaupt voraussagen, wenn selbstlernende, nicht transparente KI-Modelle zum Einsatz kommen? Das Europäische Parlament hat zwar beschlossen, dass Betreiber von risikoreichen KI-Systemen verpflichtet werden sollen, eine Folgenabschätzung durchzuführen. Aber reichen die Vorgaben des AI Acts, mit dem Europa weltweit zum Vorreiter werden will, wirklich zur Risikoabschätzung aus?

Rechtliche und ethische Probleme

Unternehmerverbände, einige Politiker und manche Wissenschaftler warnen davor, Europa verspiele mit zu strengen Regeln seine Wettbewerbsfähigkeit in dem von US-amerikanischen und chinesischen Firmen dominierten KI-Sektor. So äußerte Prof. Dr. Peter Buxmann beim KI-Symposium der Bayerischen Landeszentrale für neue Medien (BLM) im April die Sorge: „Die Innovation passiert in den USA und wir teilen KI in fünf Risikoklassen ein.“ Andere wiederum kritisieren, der geplante Regulierungsrahmen gehe nicht weit genug.

In jedem Fall müssen eine Reihe rechtlicher Regelungen an die Folgen von KI-Prozessen angepasst werden: Das Spektrum reicht vom Urheberrecht über den Daten-, Verbraucher- und Jugendschutz bis hin zum Persönlichkeitsrecht. Im Rahmen des Symposiums der BLM und des Instituts für Urheber- und Medienrecht (IUM) wurde deutlich, dass auch der Medienstaatsvertrag und das Netzwerkdurchsetzungsgesetz tangiert werden. Außerdem müssten eventuell Anpassungen des im August in Kraft getretenen Digital Services Act der EU sowie des geplanten European Media Freedom Act (EMFA) diskutiert werden. Unklar ist noch, was künftig auf nationaler und was auf EU-Ebene reguliert und kontrolliert wird. Bei der Europäischen Datenschutzgrundverordnung beispielsweise musste die EU-Kommission lernen, dass deren Umsetzung in den einzelnen Mitgliedstaaten mit sehr unterschiedlicher Stringenz erfolgte.

Rechtlich wie ethisch bringen KI-Systeme eine Reihe von Herausforderungen mit sich. Selbst OpenAI-Chef Sam Altman und Meta-Gründer Mark Zuckerberg fordert staatliche Regulierung, weil sie erkannt haben, dass KI als neutrale Technologie wirken mag, ihre Auswirkungen aber nicht neutral sein können. Wenn KI selbst lernen kann, ist sicherzustellen, dass sich automatisierte Prozesse an menschlichen Werten orientieren. Andernfalls droht ein Kontrollverlust, der manchen KI-Schöpfer mit Goethes Zauberlehrling zaudern lassen könnte: „Die ich rief, die Geister, werd ich nun nicht los.“

Wer übernimmt die Verantwortung?

Was passiert, wenn aus großen, grob automatisch kuratierten Datenmengen die falschen Schlüsse gezogen werden? Und wer legt die Rationalität fest, nach der KI-Systeme Aufgaben lösen? Was ist, wenn verzerrte Weltbilder demokratische Willensbildungsprozesse oder politische Entscheidungen manipulieren? Und wer übernimmt die Verantwortung für unbeabsichtigte Nebenwirkungen? Wie solche Fragen bei den Trilog-Verhandlungen zwischen Parlament, Rat und Kommission geklärt werden können, bleibt offen. Sollten bis zum Jahresende Kompromisse ausgehandelt werden, könnte der AI Act noch vor der Europawahl am 9. Juni 2024 in Kraft treten. Ob das funktioniert, lässt sich zurzeit auch mit KI-Modellen kaum vorhersagen.
 

Illustration: rosepistola.de / midjourney
 

Bild Dr. Matthias Kurp
Dr. Matthias Kurp ist Professor im Fachbereich Journalismus/Kommunikation der HMKW Hochschule für Medien, Kommunikation und Wirtschaft in Köln. Zuvor arbeitete er freiberuflich als Medienforscher und Journalist (Print, Online, TV, Hörfunk).
zur Übersicht aller AusgabenAlle Ausgaben zur Übersicht aller ArtikelAlle Artikel

Artikel teilen

Aufnahme in den Verteiler

TENDENZ als pdf

  • TENDENZ 2/23
  • (PDF, 5 MB)

Info

Bildnachweis 1/23