Cookie Hinweis

Archiv / Suche:

Zurück zur vorherigen Seite

Transparenzforderung gesetzlich festlegen - Diskussion über Regulierungskonsequenzen für Intermediäre aus Projekt #Datenspende

01.03.2018 | 19 / 2018

Wenn Mediennutzer - insbesondere in sozialen Medien – immer ähnliche Meinungen präsentiert bekommen, ist schnell von „Filterblase“ die Rede. Offenbar etwas zu schnell, so ein Resümee von Prof. Dr. Katharina Zweig aus dem Forschungsprojekt #Datenspende, das gestern in Berlin präsentiert wurde. Die Bayerische Landeszentrale für neue Medien hatte mit ihren Projektpartnern - fünf Medienanstalten, Spiegel online und AlgorithmWatch –unter dem Titel „Algorithmen transparent machen – Google und die Bundestagwahl – Lehren aus dem Projekt #Datenspende“ zur Diskussion über die Frage eingeladen, wie wir Einsicht in gesellschaftliche Algorithmen nehmen können. Denn es mache einen Unterschied, nach welchen Kriterien Informationen durch Intermediäre (soziale Medien und Suchmaschinen) präsentiert werden, begründete Dr. Anja Zimmer, Direktorin der Mediananstalt Berlin-Brandenburg (mabb), die Motivation der beteiligten Medienanstalten, die Studie zu finanzieren.

„Algorithmen lenken zunehmend unsere Aufmerksamkeit, beeinflussen unsere Medienwahrnehmung und kennen unsere Vorlieben“, hatte BLM-Präsident Siegfried Schneider die Bedeutung dieser automatischen Entscheidungsprozesse zum Auftakt der Veranstaltung verdeutlicht. Deshalb wäre es so wichtig, nach ihrer Wirkung zu fragen. Nur wenn wir Transparenz schafften und dieser Punkt auch gesetzlich festgeschrieben werde, lasse sich aus Sicht der Medienanstalten gegensteuern, betonte Schneider. Diese Transparenzforderung ist eine von drei Mindeststan­dards für Informationsintermediäre, die laut Uwe Conradt, Direktor der Landesmedienanstalt Saarland, medienrechtlich festgeschrieben werden sollten. Transparenz bedeute im engeren Sinne, die Kriterien zur Aggregation, Selektion und Präsentation von Inhalten zur Verfügung zu stellen und Angaben über den Einfluss personenbezogener Daten und des vorangegangenen Nutzungsverhaltens zu bekommen.

Ob sich als Regulierungsinstrument eher eine medienrechtliche oder eine kartellrechtliche Lösung eigne, darüber waren sich die Diskussions­teilnehmer nicht ganz einig. So verdeutlichte Thomas Jarzombek, Sprecher der CDU/CSU-Bundestags­fraktion für die Digitale Agenda, mit einem Vergleich die Gefahr, wenn zum Beispiel Facebook die Timeline so steuere, dass immer die Emotionen bedient würden: „Irgendwann habe ich in meiner Timeline nur noch intellektuelle Süßigkeiten und die drögen Sachnachrichten nehme ich nicht mehr wahr.“ Die Macht von Facebook & Co ist seiner Ansicht nach jedoch eher über das Kartellrecht zu begrenzen.

Dass die Gesellschaft personalisierte Algorithmen untersuchen kann, habe das Forschungsprojekt #Datenspende am Beispiel der Google-Suche nach Personen und Parteien im Vorfeld der Bundestagswahl 2017 gezeigt. 4.384 Teilnehmer hatten, unterstützt durch AlgorithmWatch und Spiegel online, knapp sechs Millionen Ergebnislisten als Daten gespendet, erläuterte die Informatikerin Zweig von der Technischen Universität Kaiserslautern die Rahmendaten der Studie.

Entgegen der Vermutung in der Filterblasentheorie von Eli Pariser ist die Personalisierung von Suchergebnissen auf Google aber weit geringer als erwartet. Zumindest mit Blick auf Google sei die Filterblase geplatzt, lautet für die Informatikerin Zweig eine Lehre aus dem Projekt #Datenspende. Der Bedarf nach Transparenz in den Codes sei nicht notwendig, solange kein Verdachtsmoment bestehe. Allerdings verdeutlichte sie im Rahmen der Podiumsdiskussion, dass die Studie eine Momentaufnahme sei und nur einen kleinen Themenausschnitt behandele. Jan Kottmann, Leiter Medienpolitik von Google Germany, betonte auf dem Podium mehrfach Googles transparente Informationspolitik. Im Bereich Rasse, politische und sexuelle Orientierung gebe es keine Personalisierung. Genau das sei schon immer Googles Standpunkt gewesen.

Heißt das also, weiter so? Nein, so das Fazit auf dem Podium. Zum einen sind andere soziale Medien wie beispielsweise Facebook eben nicht so zugänglich in puncto Algorithmen, und zum anderen geht es darum, die Mediennutzer und -nutzerinnen aufzuklären, wie Daten unser Informationsverhalten steuern.

Das Forschungsprojekt #Datenspende wurde finanziert von den Landesmedien­anstalten Bayern (BLM), Berlin-Brandenburg (mabb), Hessen (LPR Hessen), Rheinland-Pfalz (LMK), Saarland (LMS) und Sachsen (SLM) und durchgeführt in Kooperation mit der gemeinnützigen Initiative für die Kontrolle algorithmischer Entscheidungsfindung AlgorithmWatch sowie der TU Kaiserslautern.

Die Präsentationen aus der Veranstaltung finden Sie hier.

Kontakt:
Bettina Pregel
Tel.: (089) 63808-318
bettina.pregel@blm.de