Cookie Hinweis

Suche

Tendenz

Das Magazin der Bayerischen Landeszentrale für neue Medien

Langfristiger Nutzen statt kurzfristiger Klicks
zur Übersicht aller ArtikelAlle Artikel zur Übersicht aller AusgabenAlle Ausgaben

Langfristiger Nutzen statt kurzfristiger Klicks

Wie lässt sich der demokratische Diskurs im Netz schützen, wenn Algorithmen, Künstliche Intelligenz, Soziale Medien und Videoplattformen zunehmend den Informationskonsum bestimmen? Torben Klausa von Agora Digitale Transformation plädiert dafür, nicht bei der Verantwortung für die Inhalte anzusetzen, sondern die Empfehlungssysteme auf einen längerfristigen demokratischen Nutzen zu optimieren.
 

Ein Gastbeitrag von Torben Klausa

Wie viel Hugo Egon Balder hält eine Demokratie aus? Nach 40 Jahren privatem Rundfunk in Deutschland ist es an der Zeit, solche wirklich wichtigen Fragen zu stellen. Denn aus den Sorgen vor Balders „Tutti Frutti“ von damals lässt sich viel über die Misere der Medienregulierung von heute lernen. Und die beginnt mit der steten Angst vor dem demokratischen Niedergang, die neuen Medien anscheinend innewohnt. Bemerkenswert ist aus heutiger Sicht: Mit dieser Angst vor Hugo Egon Balder und dem Privatfernsehen wurde damals deutlich konstruktiver umgegangen als mit der heutigen Sorge vor Elon Musk und digitalen Plattformen. Doch der Reihe nach.

Als vor mehr als vier Jahrzehnten die Debatte aufkam, neben den öffentlich-rechtlichen Sendern auch privaten Rundfunk zu erlauben, wurden schnell Bedenken laut: Private Radio- und Fernsehsender einfach zulassen? Die Gefahr der Meinungsmacht der Sender schien viel zu groß. Was, wenn die Privaten mit „Tutti Frutti“ in Dauerschleife jegliches Interesse der Bürgerinnen und Bürger an politischer Bildung erstickten? Oder, noch schlimmer, sie einseitig beeinflussten? Die demokratische Meinungsbildung stand potenziell auf dem Spiel. Und das Bundesverfassungsgericht schob diesem Risiko einen Riegel vor: mit Regulierung auf Verdacht.

Zwar sei es ungewiss, ob privater Rundfunk sich wirklich zum Risiko für die demokratische Meinungsbildung entwickele, so das Gericht im Jahr 1981 in seiner Dritten Rundfunkentscheidung. Doch solange sich dieses Risiko „nicht mit letzter Gewissheit“ ausschließen lasse, müsse zumindest „eine hinreichende Wahrscheinlichkeit bestehen“, dass mit Hilfe von Regulierung auch die Privaten für Meinungsvielfalt sorgen. (vgl. BVerfGE 57, 295 (323 f.). In anderen Worten: Die Wirkung eines Mediums auf die Demokratie ist unklar? Dann muss der Staat einen Rahmen schaffen, der das Risiko minimiert.

Neue Form der Medienregulierung: Risiken belegen

40 Jahre später hat unsere Demokratie nicht nur „Tutti Frutti“ überstanden, sondern sieht sich inzwischen einer neuen Herausforderung gegenüber, die unsere Meinungsbildung in unklarem Ausmaß gefährdet. Von Google und Facebook über YouTube und TikTok bis zum KI-Tool ChatGPT: Unser Informationskonsum wird zunehmend durch digitale Technologien wie Soziale Medien, Videoplattformen und Künstliche Intelligenz (KI) bestimmt. Wie schon beim privaten Rundfunk, so ist auch bei den genannten digitalen Technologien nicht sicher, ob diese Entwicklung zugunsten oder zulasten der demokratischen Meinungsbildung beiträgt. Soweit die Parallelen.

Die Unterschiede hingegen liegen in unserer Reaktion auf die technologischen Trends. Zwar hat der Gesetzgeber auch in jüngerer Vergangenheit mit diversen Maßnahmen auf den digitalen Medienwandel reagiert – vom einstigen Netzwerkdurchsetzungsgesetz (NetzDG) auf Bundesebene über den Medienstaatsvertrag der Länder (MStV) bis zu den Europäischen Rahmenwerken Digital Services Act (DSA), Digital Markets Act (DMA) und AI Act (Artificial Intelligence Act). Diese neuen Regelwerke verpflichten die digitalen Intermediäre aber gerade nicht dazu, die demokratische Meinungsbildung zu fördern. Stattdessen fordern sie von den neuen Machthabern des digitalen Informationszeitalters in erster Linie Transparenz. Die Idee dahinter heißt „evidenzbasierte Regulierung“: Wer Risiken per Gesetz einhegen möchte, muss zunächst belegen, wo und wie genau sie entstehen.

Kein Zweifel: Es steht einer Demokratie gut zu Gesicht, nicht einfach auf Verdacht die regulatorische Axt zu schwingen. Zu viel Zurückhaltung ist jedoch ebenfalls riskant. Denn wenn wir an die Regulierung unbekannter Technologien zu hohe Anforderungen stellen, kommen wir möglicherweise zu spät, warnt ein Forscherteam um den MIT-Informatiker Stephen Casper (vgl. Literaturtipps). Im schlimmsten Fall gingen wir dabei sogar den Gefährdern auf den Leim. Die Forscher nennen als Beispiele die Gesundheitsgefahren des Rauchens und der menschengemachte Klimawandel. In beiden Fällen war die Forderung „evidenzbasierter Regulierung“ eine beliebte (und erfolgreiche) Strategie, um die Dringlichkeit von Maßnahmen herunterzuspielen, die Regulierung zu verzögern und die Interessen der Industrie zu schützen.

Demokratischen Diskurs im Netz schützen, aber wie?

Das Problem: Uns läuft die Zeit davon. Denn am Beispiel der USA sehen wir, wie schnell es gehen kann, demokratische Prozesse und Errungenschaften auszuhöhlen und zu Fall zu bringen – auch und gerade mit der Unterstützung großer Digitalplattformen. Wenn wir also zu lange überlegen, wie genau wir den demokratischen Diskurs im Netz schützen können, ist er möglicherweise schon weg. Die erste Erkenntnis aus 40 Jahren Privatsender für die Regulierung von Algorithmen und Künstlicher Intelligenz lautet somit: Wir müssen überdenken, wie wir regulieren.

Die zweite Erkenntnis hat damit zu tun, was wir regulieren, oder besser: wo wir Regulierung ansetzen. Ein Beispiel: Die Forderung, dass Plattformen genauso wie Presse und Rundfunk für Inhalte haften sollen. Damit könnten Facebook, YouTube und Co. etwa für strafbare Inhalte Dritter stärker zur Verantwortung gezogen werden, so eine der Ideen dahinter. Doch eignen sich Inhalte als Anknüpfungspunkt für Regulierung?

Tatsächlich sind schon in der Presse- und Rundfunkregulierung der eigentliche Anker nicht die Inhalte. Das Medienrecht schreibt vielmehr vor, „mit der nach den Umständen gebotenen Sorgfalt […] zu prüfen“ (§ 6 Abs. 1 MStV). Mit anderen Worten: Wenn Redaktionen bei einer Recherche alle Sorgfaltspflichten einhalten, haben Journalisten und Journalistinnen auch bei einer Falschberichterstattung (außer einer Korrektur) nichts zu befürchten. Das Medienrecht knüpft hier an mediale Abläufe an, nicht an die Inhalte.

Empfehlungssysteme auf längerfristigen demokratischen Nutzen optimieren

Vor diesem Hintergrund wirkt es etwas anachronistisch, nun digitale Plattformen für Inhalte haften zu lassen, auf die sie noch dazu keinen Einfluss haben. Für bessere Regeln müssen wir uns stattdessen fragen: Über welche Mechanismen nehmen Plattformen Einfluss auf die Meinungsbildung? Dabei spielen weniger die Inhalte eine Rolle, als vielmehr ihre Auswahl und Zusammenstellung.

Derzeit optimieren Plattformen ihre Empfehlungssysteme überwiegend auf kurzfristige Klicks und Likes – und gerade nicht auf langfristigen demokratischen Nutzen. Dabei wäre das durchaus möglich. So schlägt ein Forschungsteam der Georgetown University in einem aktuellen Bericht eine Reihe entsprechender Maßnahmen vor. Darunter etwa: Sortier-Algorithmen zur Auswahl zu stellen, die sich am längerfristigen Nutzen der Rezipierenden orientieren statt an schneller Interaktion. Auch sogenannte „Bridging Algorithms“ sind eine Option. Diese priorisieren Inhalte, die in Online-Diskussionen verschiedene Positionen konstruktiv verbinden und Gräben überbrücken, statt den Konflikt anzuheizen.

Vor diesem Hintergrund können wir es uns nicht leisten, überkommene Regulierungsvorstellungen ins Internet zu übertragen. Vielmehr müssen wir an jenen Mechanismen ansetzen, mit denen digitale Plattformen unsere Meinungsbildung prägen – und sie zur Stärkung der Demokratie verpflichten. Denn was und wie wir regulieren, muss sich an den aktuellen Herausforderungen orientieren, nicht an Lösungen der Vergangenheit. Dann können wir auch Algorithmen und KI als Demokratie souverän begegnen – so wie wir das einst bei Hugo Egon Balder taten.

Zur Haftung der Plattformen für Inhalte vgl. auch die Position von BLM-Präsident Dr. Thorsten Schmiege: Linkedin

Bild Torben Klausa
Dr. Torben Klausa arbeitet an der Schnittstelle von Medien, Digitalisirung und Politik. Er ist Innovation Lead bei Agora Digitale Transformation, einem ThinkTank für Updates der Demokratie. Klausa arbeitete zuvor als freier Journalist und Moderator in der Digitalwirtschaft.
zur Übersicht aller AusgabenAlle Ausgaben zur Übersicht aller ArtikelAlle Artikel

Artikel teilen

Aufnahme in den Verteiler

Bestellung

TENDENZ als pdf

  • TENDENZ 1/25
  • (PDF, 27 MB)

Info

Bildnachweis 2/24