Cookie Hinweis

Suche

Tendenz

Das Magazin der Bayerischen Landeszentrale für neue Medien

Es gibt keine einfachen Antworten
zur Übersicht aller ArtikelAlle Artikel zur Übersicht aller AusgabenAlle Ausgaben

Es gibt keine einfachen Antworten

Welche Rolle spielen Algorithmen im Internet für die öffentliche Meinungsbildung? Die Informatikerin Katharina Zweig setzt sich seit Jahren mit den Wirkungen und gesellschaftlichen Nebenwirkungen von Algorithmen auseinander. Zurzeit erforscht sie im Rahmen des von Landesmedienanstalten finanzierten Projektes #Datenspende unter anderem den Google-Algorithmus.
INTERVIEW Matthias Kurp

Tendenz:  Google, Facebook & Co. sagen immer, sie seien im Grunde nur eine Art digitaler Dienstleister. Sind deren Algorithmen eigentlich immer neutral?

Prof. Dr. Katharina Zweig: Algorithmen können natürlich neutral sein, zum Beispiel wenn sie den kürzesten Weg zwischen Hamburg und München ermitteln sollen. Bei der Auswahl von Nachrichten ist die Sache hingegen komplizierter. Als Kriterium dafür nennen die meisten Firmen Relevanz. Bei einer Definition von Relevanz ist es wahrscheinlich kaum möglich, eine Definition für eine objektive und neutrale Nachrichtenauswahl zu formulieren, der jeder zustimmen würde.

Welche Rolle spielen Algorithmen für digitale Geschäftsmodelle im Internet?

Da gibt es unterschiedliche Modelle: Einige basieren darauf, Kunden etwas zu empfehlen. Andere bieten eine Art Vorfilterung oder -selektion von großen Informationsmengen.

Und wie funktioniert das?

Algorithmen können bei großen Datenmengen nach Zusammenhängen, Strukturen oder Regeln suchen, aber auch nach Zielgruppen für bestimmte Inhalte.

Wie aber finden die Algorithmen jeweils das, was für den einzelnen Nutzer wirklich am relevantesten ist?

Wie die Firmen das genau machen, wissen wir nicht. Problematisch aber ist, dass alles, was wir anklicken, interpretiert wird als etwas, das für den einzelnen Nutzer relevant ist. Aber das muss natürlich so nicht sein. Vieles nehme ich auch als relevant wahr, ohne es anzuklicken. Das gilt zum Beispiel für Artikel-Überschriften. So etwas aber können die Firmen noch gar nicht erfassen.  

Gibt es noch andere Methoden, mit denen Algorithmen auf die Interessen von Nutzern schließen?

Das geht zum Beispiel durch die Auswertung angeklickter Texte auf bestimmte Schlüsselwörter oder dadurch, dass nach anderen Nutzern gesucht wird, die ähnliche Dokumente gelesen haben. Ähnliche Schlüsse lassen sich auch aus den Beziehungen in sozialen Online-Netzwerken ziehen. Algorithmen „vergesellschaften“ also einzelne Nutzer, um deren Bedürfnisse zu errechnen.

Können bei solchen Mechanismen Algorithmen auch „falsche“ Ergebnisse liefern?

Das kommt auf die Definition von „falsch“ an. Die Wahrscheinlichkeit von physischen Rechenfehlern ist natürlich extrem gering. Fehler können aber bei der Interpretation von Daten auftreten, wenn zum Beispiel das zukünftige Verhalten eines Menschen aus Wahrscheinlichkeiten abgeleitet werden muss.

Ist bei Google eigentlich gewährleistet, dass unterschiedliche Nutzer identische Antworten auf dieselbe Suchanfrage erhalten, oder drohen Filter-Bubble- bzw. Echokammer-Effekt?

Im Rahmen unseres Datenspende-Projektes werten wir gerade für 16 Suchbegriffe aus, was mehrere hundert Nutzer für Ergebnisse angezeigt bekamen. Wir haben festgestellt, dass für die meisten Leute zu demselben Zeitpunkt fast dieselben Ergebnisse erscheinen. So waren etwa bei Politiker-Namen achtzig bis neunzig Prozent der angezeigten Links gleich. Bei Parteinamen wichen die Ergebnisse ein wenig stärker voneinander ab, aber nur deshalb, weil viele Nutzer lediglich regional relevante Links bekamen, zum Beispiel zu einem Ortsverein der Partei.

Und was wissen wir über den Facebook-Algorithmus?

Facebook ist da wenig transparent. Prinzipiell aber könnten wir mehr über das System erfahren, wenn uns Bürger ähnlich wie bei der Google-Datenspende Ausschnitte aus ihrer Timeline zur Verfügung stellen würden. Private Nachrichten wären dabei natürlich ausgenommen. Aber wir könnten prüfen, ob alle die gleichen News erhalten.

Im Bundestagswahlkampf spielte ja auch das Thema Social Bots eine Rolle...

Social Bots sind meist recht einfach gestrickt, können in Online-Foren aber mit aus fremden Quellen zusammengebauten Texten den Eindruck erwecken, es handle sich um menschliche Meinungsäußerungen. So können Online-Debatten verzerrt werden.

Ließe sich nicht einfach ein Algorithmus programmieren, der Social Bots identifiziert und ausfiltert?

Natürlich versuchen das viele längst. Aber dann könnten auch Beiträge von Menschen mit Bots verwechselt werden. Wer solche Beiträge versehentlich löscht, bekommt Ärger mit den Nutzern. Besser wäre es wahrscheinlich, einerseits „gutartige“ Bots, wie sie bereits im Kunden-Service eingesetzt werden, zu kennzeichnen. Bei solchen Bots ließe sich das vielleicht durchsetzen, und wir würden sensibler mit Bots umgehen. Andererseits könnte darauf aufmerksam gemacht werden, wenn beispielsweise eine einzige Quelle binnen drei Monaten 30.000 Twitter-Nachrichten verschickt hat. So etwas kann eigentlich nur ein Bot leisten.

Benötigen wir am Ende einen ethischen Algorithmen-Kodex?

Wir brauchen sicher bei den Nutzern mehr Medienkompetenz. Aber das allein hilft nicht. Wir benötigen auch Transparenz und Spielregeln. Es gibt außerdem den neuen Beruf des Data Scientist. Wir müssen diese Experten darin ausbilden, die Auswirkungen von Algorithmen bewerten zu können. Und wir müssen uns beim Thema Algorithmen noch an vielen Stellen in der Gesellschaft darüber einig werden, wann und wie wir sie einsetzen wollen.

Ist nicht unsere Datengläubigkeit generell zu groß, fehlt uns das richtige Zahlenverständnis?

Wir Menschen haben bei Statistiken grundsätzlich oft Probleme damit, sie zu verstehen. Zahlreiche Probleme resultieren daraus, dass wir erwarten, viele verschiedene menschliche Eigenschaften auf eine Zahl runterbrechen zu können. Im Grunde brauchen wir kein neues Zahlenverständnis, wenn uns klar ist, dass es keine einfachen Antworten auf komplizierte Fragen geben kann.

Foto: iStock.com/charles taylor
Porträt: privat

Bild Dr. Matthias Kurp
Dr. Matthias Kurp ist Professor im Fachbereich Journalismus/Kommunikation der Hochschule für Medien, Kommunikation und Wirtschaft (HMKW) in Köln. Zuvor arbeitete er freiberuflich als Medienforscher und Journalist (Print, Online, TV, Hörfunk).
zur Übersicht aller AusgabenAlle Ausgaben zur Übersicht aller ArtikelAlle Artikel

Artikel teilen

E-Paper 2/17

TENDENZ als pdf

  • TENDENZ 2/17
  • (PDF, 4 MB)

Info

Bildnachweis 2/17