Cookie Hinweis

Suche

Tendenz

Das Magazin der Bayerischen Landeszentrale für neue Medien

Für Transparenz und Meinungsvielfalt
zur Übersicht aller ArtikelAlle Artikel zur Übersicht aller AusgabenAlle Ausgaben

Für Transparenz und Meinungsvielfalt

Unter Aufsicht: neue Regeln für die digitale Plattformwelt

Im Internet liegt ein enormer Einfluss auf die öffentliche Meinung in den Händen weniger Digitalkonzerne. Wenn Rundfunk also strenge Regulierungsvorgaben hat, warum dann nicht die digitale Plattformwelt? Um die Medien- und Meinungsvielfalt zu sichern, formuliert der Medienstaatsvertrag erstmals Regeln zu Transparenz und Diskriminierungsfreiheit für Google, Facebook und Co.

Text Torben Klausa

„Ich bin kein Fan von Donald Trump, aber…“ Dieser Halbsatz ist nicht nur ein Warnsignal für jedes Stammtischgespräch. Er war, zur Überraschung vieler, im vergangenen Jahr auch ein Kernsatz deutscher Medienregulierung. Denn er markiert den Einstieg in eine ihrer zentralen Fragen: Wer entscheidet, welche Inhalte wir online zu sehen bekommen und welche nicht? Und, so viel sei vorweggenommen: Die bisherige Antwort bereitet nicht nur Donald Trump Kopfzerbrechen, sondern auch der deutschen Medienregulierung.

Rückblick in den Januar 2021: Innerhalb einer Woche verbannten Twitter, Facebook und YouTube den damaligen US-Präsidenten Donald Trump von ihren Plattformen und zogen damit der enormen Reichweite Trumps auf sozialen Medien von heute auf morgen den Stecker. Kurz zuvor hatte ein gewalttätiger Mob das Kapitol in Washington, D.C., gestürmt – angestachelt nicht zuletzt von Trumps Online-Ego. Mit dem Hinweis auf die „Gefahr weiterer Anstiftung zur Gewalt“ sperrte Twitter später das Konto des bereits abgewählten Präsidenten, andere Plattformen zogen nach.

Trumps „Deplatforming“ markierte den Höhepunkt einer öffentlichen Debatte zwischen jenen, die das Ende der Meinungsfreiheit im Netz durch Privatzensur der großen Tech-Konzerne gekommen sahen, sowie denjenigen, die angesichts zahlreicher fremden-, frauen- und demokratiefeindlicher Beiträge des US-Präsidenten der Meinung waren, Trump hätte schon viel früher von den Plattformen verbannt werden sollen. Über einen Aspekt jedoch herrschte Konsens: Dass Trump im Handstreich einen Großteil seines digitalen Publikums verlor, war keine Entscheidung staatlicher Behörden oder durch Gesetze begründet. Es geschah allein auf Entschluss einiger privater Unternehmen.

Reichweite im Netz: Sollten darüber Digitalkonzerne entscheiden?

So geschmacklos und möglicherweise gefährlich man Trumps Inhalte in sozialen Medien auch finden mag: Die Entscheidung, welche Inhalte im Netz Reichweite erhalten und welche nicht, exklusiv einer Handvoll Digitalkonzernen zu überlassen, löst Unbehagen aus. Gesetzgeber beim Bund, in den Ländern und der Europäischen Union hatten sich schon länger Gedanken dazu gemacht, wie Online-Plattformen reguliert werden können.

Das Unbehagen rührt vor allem daher, dass im Internet ein enormer Einfluss auf die öffentliche Meinung in nur wenigen Händen liegt. Bei der Informationsbeschaffung über soziale Netzwerke, Messenger und Suchmaschinen entfallen ca. 78 Prozent Marktanteil auf Google, Facebook, YouTube, Instagram, WhatsApp und Twitter. Das hat die Gewichtungsstudie der Medienanstalten zur Relevanz der Medien für das erste Halbjahr 2021 herausgefunden.

Entsprechend groß ist die Bedeutung, die diese Unternehmen für unsere Wahrnehmung der Welt haben. Wie die Messung von Meinungsmacht und Vielfalt im Internet zukünftig funktionieren kann, damit beschäftigt sich ein Pilotprojekt des Bayerischen Forschungsinstituts für Digitale Transformation, das in Kooperation mit der Bayerischen Landeszentrale für neue Medien entwickelt wurde.

Die Macht der Plattformen

Hinzu kommt: Welche Inhalte erlaubt und verboten sind, das entscheiden die Unternehmen Google (u.a. Google und YouTube) und Meta (u.a. Facebook, Instagram, WhatsApp) nach selbstgemachten Regeln, ihren eigenen „digitalen Hausordnungen“. Was diese Regeln genau beinhalten, ist oft nicht leicht zu verstehen. Wie sie zustandekommen und durchgesetzt werden, noch viel weniger. Damit vereint eine Handvoll Plattformen nicht nur eine enorme Reichweite auf sich. Ihre Algorithmen entscheiden auch, welchen Inhalten diese Reichweite in der Praxis zuteil wird, ob ein Post also zehn oder zehntausend Mal angezeigt wird.

Die Algorithmen steuern also die Auswahl von Inhalten bei YouTube, Facebook und Co. Sie sind allerdings nicht auf Meinungsvielfalt und Qualität des öffentlichen Diskurses optimiert, sondern auf die kommerziellen Interessen der Unternehmen. Das macht aus Anbietersicht Sinn, stellt jedoch für die demokratische Meinungsbildung eine Herausforderung dar: Da die Unternehmen ihr Geld mit Werbung verdienen, haben sie ein großes Interesse daran, die Nutzenden möglichst lange auf ihren Seiten zu halten. Und das funktioniert am besten mit Aufreger-Inhalten, die das Publikum emotional berühren. Infolgedessen tendieren die Algorithmen eher zu extremen Meinungen als zum ausgleichenden Kompromiss.

Zwar müssen sich die Unternehmen auch an geltendes Recht halten. Doch deutsche Gesetze spielen online faktisch nur die zweite Geige. Ein Beispiel: Von den rund 240 Inhalten, die YouTube im Schnitt nach eigenen Angaben jeden Tag in Deutschland entfernt, löscht das Unternehmen nur acht (!) wegen eines Verstoßes gegen deutsches Recht in Form des Netzwerkdurchsetzungsgesetzes (NetzDG). Das muss per se nicht schlecht sein, im Zweifel kennen die Plattformen ihre User schließlich selbst am besten. Außerdem sind die Hausordnungen zentraler Teil des Geschäftsmodells. Auf einer Plattform für Hundefans etwa klingt ein Verbot von Katzenfotos erst einmal unproblematisch.

Und doch stellt sich die Frage: Sollten einige wenige Unternehmen, die drei Viertel des Online-Informationsmarktes kontrollieren, nach Belieben bestimmte Inhalte verbieten dürfen? Wer als Gesetzgeber hier Grenzen setzen will, steht vor dem regulatorischen Spagat, bessere Regeln für die digitale Informationswelt zu finden, ohne Innovation abzuwürgen oder sich selbst dem Vorwurf der Online-Zensur auszusetzen.

Mammut-Reform des Medienrechts: der Medienstaatsvertrag

Der jüngste Versuch eines solchen Spagats ist der Medienstaatsvertrag (MStV) der Länder, eine Mammut-Reform des Medienrechts, seit November 2020 in Kraft. Zwei Begriffe stellt der MStV mit Blick auf die Online-Welt in den Mittelpunkt: Transparenz und Diskriminierungsfreiheit. Hintergrund dieses Begriffspaares ist die Erkenntnis, dass Digitalunternehmen selbst am besten wissen, welche Inhaltsregeln für sie am meisten Sinn machen. Der MStV enthält deshalb keine Regeln für Inhalte, sondern verpflichtet die Unternehmen dazu, ihre eigenen Hausordnungen klar und verständlich zu veröffentlichen (Transparenz) und nicht zulasten bestimmter Inhalte-Anbieter davon abzuweichen (Diskriminierungsfreiheit). Auf diese Weise sollen Facebook und Co einerseits genügend Beinfreiheit bekommen, um ihre Produkte weiterzuentwickeln, andererseits aber den Nutzenden gegenüber stärker verpflichtet werden.

Dabei gelten die neuen Regeln nicht für alle Online-Angebote gleichermaßen. Vielmehr unterscheidet der Medienstaatsvertrag drei Typen digitaler Dienste: Medienintermediäre, Medienplattformen und Benutzeroberflächen. Wie sich Medienintermediäre und Plattformen abgrenzen lassen, haben die Medienanstalten in einem Merkblatt resümiert (vgl. S. 10).

  • Medienintermediäre sind solche Dienste, die „auch journalistisch-redaktionelle Angebote Dritter“ verarbeiten und präsen­tieren, „ohne diese zu einem Gesamtangebot zusammenzufassen“. 


Soziale Netzwerke wie Instagram und Suchmaschinen wie Google oder Bing gehören in diese Kategorie: Dort können Nutzende etwa Links zu Pressetexten oder Nachrichtenvideos teilen („journalistisch-redaktionelle Angebote Dritter“). Allerdings bieten Google und Facebook keinen festen Kanon entsprechender journalistischer Angebote, sondern arbeiten mit den Inhalten, die sie von ihren Usern bekommen (kein festes „Gesamtangebot“).

  • Eine Medienplattform hingegen bietet ein solches festes „Gesamtangebot“ journalistischer Medien. Beispiele sind Online-Fernseh-Angebote, bei denen User aus einem festen Set an Sendern auswählen können, etwa Zattoo und Magenta TV, oder eine Sammlung ausgewählter Presseangebote wie Google News Showcase.

  • Benutzeroberflächen bezeichnen die Auswahloberflächen für Rundfunk und andere journalistische Medien, etwa das Interface eines modernen SmartTVs, aber auch Audioassistenten wie Amazon Alexa oder Google Nest, über die beispielsweise Nachrichtensendungen ausgewählt werden können.

Mit dieser Unterscheidung definiert der MStV die unterschiedlichen Bedeutungen dieser Dienstetypen für die Meinungsfreiheit. Kern des Geschäftsmodells der Medienintermediäre ist die Bewertung und Sortierung von (auch) journalistischen Angeboten aufgrund ihrer Relevanz, weshalb sie zumindest die Kriterien der Relevanzbewertung transparent machen und sich daran halten müssen. Medienplattformen und Benutzeroberflächen hingegen bewerten weniger die Relevanz ständig wechselnder, nutzergenerierter Inhalte, sondern stellen vielmehr eine fixe Auswahl medialer Angebote wie etwa Fernsehsender dar, die in der Regel nicht ständig neu sortiert wird.

Wieso die Auffindbarkeit der medialen Angebote so wichtig ist

Die Anordnung dieser Fernsehsender spielt dadurch aber eine umso größere Rolle. So macht es beispielsweise einen Unterschied, ob ein Sender auf Kanalnummer 1 oder 274 eingespeichert ist. Mit anderen Worten: Die Entscheidung über die voreingestellte Sender-Reihenfolge eines Fernsehgeräts oder darüber, welche Inhalte als Reaktion auf „Alexa, spiele die Nachrichten“ abgespielt werden, hat einen enormen Einfluss auf Bekanntheit und Nutzerzahlen der jeweiligen Medienangebote. Aus diesem Grund ist die Regulierung von Plattformen und Benutzeroberflächen im MStV noch einmal strenger.

Ihr Ziel: Nutzende sollen möglichst frei zwischen Medienangeboten wählen können, damit letztlich Medienvielfalt und Meinungsfreiheit gewährleistet sind. Deshalb sind Plattformen nicht nur, wie Medienintermediäre, zu Transparenz und Diskriminierungsfreiheit verpflichtet. Vielmehr müssen sie dafür sorgen, dass Angebote, die einen besonderen Wert für die Meinungsbildung haben, auch besonders „leicht auffindbar“ sind.

Das betrifft sowohl die öffentlich-rechtlichen Sender als auch andere Programme, „die in besonderem Maß einen Beitrag zur Meinungs- und Angebotsvielfalt im Bundesgebiet leisten“ (Anbieter mit so genanntem „Public Value“-Status). Mit anderen Worten: Wenn der Hersteller eines SmartTVs das ZDF auf dem hintersten Kanalplatz versteckt, verstößt er gegen den Medienstaatsvertrag. Welche privaten Anbieter den Public Value-Status bekommen, haben die Medienanstalten Anfang Juni beschlossen. Sobald die Bescheide rechtskräftig sind, veröffentlichen sie die entsprechenden Listen.

Die Regeln sind auch deshalb interessant, weil sie einen neuen Regulierungsansatz in die Praxis übertragen, der die Aufmerksamkeit nicht auf die Online-Inhalte, sondern auf die Prozesse lenkt. Statt etwa sozialen Medien vorzuschreiben, nach welchen Kriterien sie die Inhalte für ihre User sortieren sollen, lässt der MStV ihnen freie Hand – zwingt sie aber dazu, den Prozess der Sortierung transparent zu machen.

Durchgesetzt werden die Vorgaben des MStV zu Intermediären und Plattformen von den Medienanstalten. Entscheidend dafür ist der Sitz des Zustellungsbevollmächtigten. Damit liegt beispielsweise die Aufsicht über Google und Facebook bei der Medienanstalt Hamburg / Schleswig-Holstein (MA HSH), während die Bayerische Landeszentrale für neue Medien (BLM) für Amazon (z.B. Prime Video und Alexa), Apple (z.B. Apple TV und App Store), Microsoft (Suchmaschine Bing), LinkedIn, Twitch, Twitter und Yahoo zuständig ist.

Gleichzeitig betont der MStV die Bedeutung des Journalismus für die Meinungsbildung. Denn nicht jeder kann sich etwa über Diskriminierung durch eine Suchmaschine bei der Medienaufsicht beschweren. Das ist Anbietern journalistisch-redaktioneller Inhalte vorbehalten. Dieses Journalismus-Privileg verbindet der MStV allerdings mit einer entsprechenden Verantwortung.

Journalistische Sorgfaltspflichten gelten auch online 

Die neuen Regeln schreiben auch online besondere journalistische Sorgfaltspflichten vor – und zwar nicht nur für die Online-Presse und Online-Fernsehsender, sondern auch für „andere geschäftsmäßig angebotene, journalistisch-redaktionell gestaltete Telemedien, in denen regelmäßig Nachrichten oder politische Informationen enthalten sind“. Das bedeutet: Auch wer in einem kleinen YouTube-Channel wöchentlich Neuigkeiten aus seiner Heimatstadt berichtet, ist zu sorgfältiger Recherche verpflichtet – genauso wie ein Influencer, der wie „Rezo“ mit politischen Beiträgen ein Millionenpublikum erreicht.

Die Kontrolle dieser Sorgfaltspflicht obliegt den Medienanstalten. Kriterien dafür sind u.a. ein Mindestbestand an Beweistatsachen, die klare Kennzeichnung von Zitaten und korrekte Quellenangaben. Warum die Einhaltung dieser Kriterien so wichtig sind, begründet Wolfgang Kreißig, Vorsitzender der Direktorenkonferenz der Medienanstalten, folgendermaßen: „Bürgerinnen und Bürger sollen redaktionellen Informationen im Netz vertrauen können. Wer geschäftsmäßig journalistisch-redaktionelle Inhalte im Netz bereitstellt, hat sich selbstverständlich an journalistische Spielregeln zu halten (…). Wird das missachtet, droht eine Destabilisierung demokratischer Kommunikationsprozesse. Dies darf eine Gesellschaft nicht hinnehmen.“

Dass die Medienanstalten es mit der Überprüfung der Sorgfaltspflicht ernst meinen, zeigen erste Verfahren in diesem Bereich. So verschickten die Aufseher bereits Anfang 2021 elf Hinweisschreiben an unterschiedliche Online-Veröffentlichungen, darunter die publizistischen Rechtsausleger KenFM, Deutschland-Kurier und Flinkfeed. Dort seien Quellen für Behauptungen nicht genannt worden und Bilder aus dem Kontext gerissen worden, hieß es damals.

Und auch mit Blick auf das Diskriminierungsverbot sind bereits erste Verfahren im Gang. Die MA HSH kreidete beispielsweise eine Kooperation zwischen der Suchmaschine Google und dem Bundesgesundheitsministerium an, durch die bestimmte Inhalte stets neben den ersten Suchergebnissen angezeigt wurden. Der Fall liegt inzwischen beim Verwaltungsgericht Schleswig, die entsprechende Kooperation ist allerdings bereits beendet.

Europäische Regulierung von Online-Plattformen

Doch nicht nur die Länder haben die Herausforderungen der digitalen Medienwelt erkannt. Auch die Europäische Union (EU) steht vor der Verabschiedung mehrerer grundsätzlicher Reformen. Digital Services Act (DSA), Digital Markets Act (DMA) und European Media Freedom Act (EMFA) heißen die Gesetzesvorhaben, die auf europäischer Ebene der neuen Macht digitaler Vermittler und Onlineplattformen begegnen sollen. Auf die Entwurfsfassungen von DSA und DMA haben sich das Europäische Parlament und die Mitgliedsstaaten bereits geeinigt.

Mit dem DSA etwa widmet sich die EU der einflussreichen Stellung digitaler Intermediäre und verfolgt einen ähnlichen Ansatz wie der MStV: Transparenz und Diskriminierungsfreiheit sind Teil des DSA, daneben aber auch Beschwerdemöglichkeiten für User sowie das Verbot manipulativer Design-Entscheidungen (vgl. S. 26-27).

Die neuen Regeln der EU sind breiter gefasst als die Medienregulierung der Länder. Denn die Europäische Union blickt, ihrer Gesetzgebungskompetenz entsprechend, aus der Perspektive des europäischen Binnenmarkts auf die Digitalkonzerne. Doch zahlreiche Schnittstellen mit dem Medienrecht der Länder zeichnen sich bereits ab, ebenso wie erste Hinweise, dass sich diese Schnittstellen bald zu Konfliktpunkten entwickeln könnten. Die Medienanstalten haben bereits „erhebliche Webfehler in der Exekutivstruktur“ kritisiert. Und obwohl die Europäische Kommission bei der Verabschiedung des MStV keine formellen Einwände hatte: Aus Sicht einiger Expertinnen und Experten verletzt der Staatsvertrag bereits heute europäisches Recht.

Meinungsbildungsmacht der Plattformen bereits spürbar

Unabhängig von konkreten juristischen Fragen: Die Aufmerksamkeit der Gesetzgeber für die neuen Machtverhältnisse im Netz ist gewachsen. Es kommt Bewegung in die Medienregulierung – und das gerade rechtzeitig. Denn auch wenn wir gerade erst beginnen, das Zusammenspiel von digitalen Plattformen und Meinungsbildung besser zu verstehen: Ihre, ihre Auswirkungen werden bereits heute offenbar. So schrumpfte etwa die Menge an Desinformation auf sozialen Medien nach Donald Trumps Plattformsperre teils um 73 Prozent.

Keine Frage: Desinformation, Hassrede und gesellschaftliche Konflikte gibt es auch ohne Online-Plattformen. Doch digitale Technologien können durch ihre Reichweite das Risiko für den demokratischen Diskurs gefährlich verstärken, wie Medienethikerin Johanna Haberer im Interview mit tendenz hervorhebt (vgl. S. 22-24). Ob und wie wir dieses Risiko begrenzen wollen, das sollte daher der demokratische Gesetzgeber und nicht eine Handvoll Unternehmen entscheiden. Und für diese Einsicht muss man nicht einmal Fan von Donald Trump sein. 


Bild Franziska Mozart

Torben Klausa forscht, schreibt und moderiert zum Thema Plattformregulierung. Er ist Doktorand an der Fakultät für Rechtswissenschaft an der Universität Bielefeld und schreibt als freier Journalist u.a. für den Tagesspiegel und Blogs.

zur Übersicht aller AusgabenAlle Ausgaben zur Übersicht aller ArtikelAlle Artikel

Artikel teilen

E-Paper 1/22

TENDENZ als pdf

  • TENDENZ 1/22
  • (PDF, 7 MB)

Info

Bildnachweis 1/22