Cookie Hinweis
Zurück zur vorherigen Seite

Positionen & Reden

Archiv / Suche:

Zurück zur vorherigen Seite

Grußwort von BLM-Präsident Siegfried Schneider zur Veranstaltung „Algorithmen transparent machen“ am 28. Februar 2018 in Berlin

28.02.2018 | P&R / 2018

Anrede,

Algorithmen sind längst überall. Sie beeinflussen unsere Medienwahrnehmung. Sie kennen unsere Vorlieben. Sie empfehlen uns Nachrichten, Bücher oder Videos. Sie informieren uns über Wichtiges und weniger Wichtiges. Sie lenken unsere Aufmerksamkeit, unser Kaufverhalten und sogar unsere Autos.

Tatsache ist: In den vergangenen Jahren haben Computer nicht nur sehen, hören und sprechen gelernt. Sie haben auch denken gelernt: In Saudi-Arabien erhielt unlängst [Ende Oktober 2017] Sophia, ein von Künstlicher Intelligenz [kurz KI] gesteuerter Roboter, erstmals die Staatsangehörigkeit. Ihr Entwickler, der Däne David Hanson, geht davon aus, dass sie in fünf Jahren ein Bewusstsein entwickelt haben wird. Ob es nun fünf oder zehn Jahre dauert – Forscher auf der ganzen Welt arbeiten daran, das menschliche Gehirn zu entschlüsseln und es mit Algorithmen nachzubauen. Schon bald, meinen einige Wissenschaftler, werden sich KI-Programme ohne Zutun des Menschen fortpflanzen. Künstliche Intelligenz werde dann eine eigene Evolution begründen… Klingt wie Science-Fiction, könnte aber in Kürze Realität sein.

Meine Damen und Herren, mit diesen Tatsachen müssen und wollen wir uns auseinandersetzen! Deshalb freue ich mich sehr über Ihr Interesse an unserer Veranstaltung „Algorithmen transparent machen". Ich begrüße Sie hier in der Bayerischen Vertretung ganz herzlich. Hinweisen möchte ich auf die ausliegende aktuelle Ausgabe der Tendenz, des Medien-Fachmagazins der Bayerischen Landeszentrale für neue Medien (BLM), mit dem Schwerpunkthema „Die Macht der Algorithmen". Bitte mitnehmen oder online unter www.blm.de reinklicken!

Die BLM hat Sie heute in Kooperation mit den Medienanstalten Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen eingeladen. Gemeinsam wollen wir thematisieren, welche Lehren wir aus dem Projekt „Hashtag Datenspende: Google und die Bundestagswahl 2017" für die Zukunft ziehen sollten.

Die Informatik-Professorin Dr. Katharina Zweig von der TU Kaiserslautern hat im Auftrag der genannten Medienanstalten eine Datenanalyse durchgeführt; die Daten dafür hat die gemeinnützige Initiative Algorithm Watch eingesammelt. An dieser Stelle herzlichen Dank für Ihr Kommen, Frau Prof. Zweig! Ich bin schon gespannt auf Ihren Vortrag.

Ohne zu viel vorwegnehmen zu wollen: Überrascht hat uns, dass die Google-Suche nach Politikern allen Nutzern annähernd die gleichen Ergebnisse liefert. Das Forschungsprojekt misst kaum Anzeichen für Personalisierung. Doch auch wenn das eine Momentaufnahme ist und es heute schon wieder ganz anders aussehen kann: die Studie relativiert einmal mehr die Vorstellung, dass wir uns alle in einer „Filterblase" bewegen.

Was aber aus meiner Sicht noch entscheidender als dieses Ergebnis ist: Das Setup der Studie zeigt, wie man Kontrolle leisten kann – ohne dass Anbieter rechtlich dazu ver-pflichtet werden, Codes komplett transparent zu machen. Das wiederum könnte nämlich zu Manipulation einladen…

Wie unser Studiendesign ausgesehen hat, und welche Schlüsse sie aus den Ergebnissen zieht, wird uns Frau Prof. Zweig gleich selbst erläutern.

Eine Demokratie muss sich in digitalen Zeiten Transparenz darüber verschaffen können, in welchem Ausmaß Suchmaschinen oder andere Intermediäre meinungsrelevante Auswahlentscheidungen vorwegnehmen. Nur so können wir gegensteuern, etwa wenn Algorithmen die Verbreitung von Falschmeldungen oder Hetze fördern.

Algorithmen überprüfbar zu machen, ist übrigens auch als Ziel im neuen Koalitionsvertrag festgeschrieben – zunächst mit Blick auf den digitalen Verbraucherschutz. Denn ganz gleich, ob Online-Suchmaschine oder Vergleichsplattform im Internet: dahinter stecken Algorithmen. Erst einmal sind das nur Handlungsvorschriften, die für Computer in eine Programmiersprache übersetzt werden. So können Maschinen Aufgaben beliebig oft automatisch erledigen. Ein Tool, ohne das wir angesichts der Informationsflut im globalen Internet gar nicht mehr klarkämen.

Doch was auf den ersten Blick nüchtern, neutral und objektiv wirkt, kann auf den zweiten Blick durchaus problematisch sein. Und zwar weil Menschen algorithmische Entschei-dungsprozesse programmieren. Deshalb sind Algorithmen – genau wie jeder von uns – nicht unfehlbar. Sie können beispielsweise rassistisch, sexistisch oder einfach nur idiotisch sein. Für Algorithmen gilt daher in einer Demokratie dasselbe wie für Menschen mit Macht: man muss sie kontrollieren können.

Wer bestimmt eigentlich die Regeln, nach denen Nachrichten gesucht, gefiltert, sortiert und individuell kuratiert werden? Wie transparent und nachvollziehbar sind die Kriterien, mit denen Algorithmen darüber entscheiden, was relevant ist und was nicht? Und was überhaupt ist Relevanz? Das sind Fragen, auf die wir Antworten finden müssen. Im Inte-resse des Verbraucherschutzes. Im Interesse des Persönlichkeitsschutzes. Oder – und das ist vorderstes Anliegen der Medienanstalten – im Interesse der Medien- und Meinungsvielfalt in unserer Informationsgesellschaft.

Deshalb begrüßen es die Medienanstalten sehr, dass Bestimmungen zur Regulierung von Informationsintermediären in den 22. Rundfunkänderungsstaatsvertrag aufgenommen werden sollen. Um uns hier fundiert einzubringen, haben wir auf der letzten DLM-Klausurtagung im Oktober 2017 eine „AG Intermediäre" ins Leben gerufen. Ein Positionspapier dieser AG haben wir in unserer Januar-Sitzung diskutiert. Es schlägt Mindeststandards zur Schaffung von Transparenz und Sicherstellung der Diskriminierungsfreiheit vor. Uwe Conradt wird uns davon sicher gleich noch ausführlich berichten.

Lassen Sie mich eines ganz deutlich sagen: Die Medienanstalten sind bereit, in dem Bereich Verantwortung zu übernehmen! Die Elemente der Transparenz, Kennzeichnung und Nutzerautonomie kennen wir bereits aus der Werbe- oder Plattformregulierung. Wir sind also fachlich gut aufgestellt. Darüber hinaus sind die Medienanstalten unabhängige, mit behördlichen Exekutivbefugnissen ausgestattete Institutionen. Daher sind die Medienan-stalten grundsätzlich geeignet, Aufsicht [inkl. Bußgeldvorgaben] zu übernehmen. Eine Selbstkontrolle kann – wie es im Jugendschutz der Fall ist – vorgelagert sein. Ein „Algorithmus-TÜV" allein reicht aber wegen der hohen Bedeutung für den wichtigen Prozess der freien Meinungsbildung nicht aus.

Meine Damen und Herren, Konsens ist: Ohne menschliche Kontrollinstanz wird Künstliche Intelligenz zur Black Box und damit zum Risiko – auch und gerade für die freie Meinungsbildung. Deshalb müssen wir uns möglichst zeitnah darauf verständigen, welche Macht wir neuen Gatekeepern wie Google, Facebook oder Twitter künftig einräumen wollen. Schließlich leben wir in Zeiten, in denen das Internet und vor allem Social Media – laut der aktuellen MedienGewichtungsStudie der Medienanstalten – bei den Jüngeren bereits ungleich bedeutender als das Fernsehen ist… Wenn Algorithmen, die dem Ziel der Gewinnmaximierung global agierender Unternehmen dienen, die Aufmerksamkeit der nächsten Generationen steuern, kann das zu einer Gefahr für das demokratische System werden.

Aus diesen Gründen sollte alles daran gesetzt werden, Mindeststandards für die Regulie-rung von Intermediären im 22. Rundfunkänderungsstaatsvertrag auch wirklich zu verankern.

Ich wünsche Ihnen eine interessante Veranstaltung und danke für Ihre Aufmerksamkeit.