Kommentar

01. März 2021

Anders als analog: Wir brauchen eine maßgeschneiderte Plattform-Regulierung

Bild
Bild: Grafische Illustration eines Schwertes dessen Spitze in einen Stift übergeht
Lizenz
Alle Rechte vorbehalten

Ist Twitter wie eine Zeitung? Wenn ja: Müsste es dann nicht für alle Beiträge haften, so wie eine Zeitung für Leserbriefe haftet? Ist YouTube wie ein Fernsehsender? Und wenn Facebook wie eine Kneipe ist, dann ist es doch in Ordnung, dass sie Leute, die sich nicht benehmen, rausschmeißen dürfen, oder?



Es bedurfte des Sturms gewalttätiger Anhänger und Anhängerinnen Donald Trumps auff das Kapitol in Washington und der anschließenden Sperrung der Social-Media-Konten des damaligen US-Präsidenten, um allen, die noch zweifelten, klarzumachen, dass es eindeutiger Regeln für große digitale Plattformen bedarf.



Für ein gutes kollektives Gedächtnis spricht das nicht. Denn online organisierte, gewaltbereite Mobs sind in vielen Ländern der Welt seit Langem zu beobachten, und Diskriminierungen und Hetze sind für viele Menschen, gerade aus marginalisierten Gruppen, trauriger Alltag im Netz.



Auch die Willkür, mit der Accountsperrungen vorgenommen – oder vermieden – werden, ist nichts Neues. Traurigerweise mussten wohl erst Kongress und Präsident des reichsten Landes der Welt betroffen sein, damit schwierige Fragen zur Macht großer Plattformen ernsthaft diskutiert werden.



Damit rückt eine Debatte in den Fokus, die seit Jahren von Fachleuten aus Forschung und Zivilgesellschaft sowie Betroffenen von algorithmischer Diskriminierung geführt wird. In der EU gewinnt diese Diskussion aufgrund einiger großer Gesetzesvorhaben der Europäischen Kommission ebenfalls an Bedeutung. Für die jetzt anlaufenden regulatorischen Diskussionen wird es wichtig sein, die Eigenheiten und die besondere Rolle sozialer Netzwerke, Suchmaschinen, Videoportale und anderer digitaler Plattformen anzuerkennen und für sie maßgeschneiderte Ansätze zu entwickeln. Es reicht nicht, altbekannte Lösungsansätze auf digitale Plattformen anzuwenden.



In den USA dreht sich viel um jahrzehntealte Haftungsregeln für Plattformen. Es wird gestritten, ob eine längst gestrichene (und umstrittene) Doktrin des Fernsehrechts wiederbelebt werden sollte.



In Deutschland wird mit dem gerade verabschiedeten Medienstaatsvertrag das Rundfunkrecht um Regeln für soziale Netzwerke und Videoportale erweitert, beaufsichtigt von Medienanstalten, die in den 1980er Jahren für Fernseh- und Radiosender geschaffen wurden. In China nimmt der Parteiapparat eine Zensur vor, wie es bisher schon für traditionelle Medien der Fall war.

Bedingt vergleichbar

Diese Vergleiche mit analogen Medien und Öffentlichkeiten helfen jedoch nur begrenzt weiter, wie die Kontosperrung Trumps gezeigt hat. Das irritierende Gefühl, diese Entscheidung gleichzeitig richtig und falsch zu finden, rührt auch daher, dass eine solche Entscheidung keine Entsprechung in der analogen Welt hat.



Wenn Twitter einem Staatsoberhaupt den Account sperrt, ist das etwas anderes, als wenn eine Zeitung nicht mehr über bestimmte Politikerinnen oder Politiker berichtet. Wenn von Menschen gemachte Algorithmen bei Facebook Inhalte nach vermutetem Interesse und „Engagement“ sortieren und priorisieren, ist das selbstverständlich eine Art der Redaktion und nicht nur eine Technologie, die völlig neutral Inhalte bereitstellt (wie das Unternehmen lange behauptet hat). Aber es ist eben keine Redaktion im Sinne einer TV-Nachrichtensendung.



Diese Eigenheiten digitaler Plattformen erfordern auch einen eigenen Umgang mit ihnen. Es hilft, bei der Regelsetzung einen Blick auf bekannte Politikfelder zu werfen, aber schlussendlich sind völlig andere Ansätze nötig: Es müssen neue Regeln für digitale Kommunikations- und Informationsräume entwickelt werden, genauso wie für Fernsehen und Radio eigene Regeln und Aufsichtsstrukturen gefunden wurden. So lohnt es sich etwa, die positiven Erfahrungen der deutschen Medienregulierung zu berücksichtigen: die Idee einer von Industrie und Politik unabhängigen, pluralistischen Aufsicht mit Expertenwissen, die nicht vornehmlich einzelne Inhalte kontrolliert, sondern Medienunternehmen gewisse Standards abverlangt.



Eine solche Aufsicht ist auch für soziale Netzwerke dringend nötig. Aber: Muss diese Aufgabe unbedingt in das jahrzehntealte Korsett des deutschen Rundfunkrechts gepresst werden, wie es der Medienstaatsvertrag vorsieht? Und auf Länder- statt auf Bundesebene durchgeführt werden? Zudem können in Deutschland geltende Transparenzverpflichtungen für große Plattformen aus dem vier Jahre alten Netzwerkdurchsetzungsgesetz als Vorbild dienen. Aber muss dann nicht auch die Behörde, die diese Verpflichtungen beaufsichtigt, komplett neu aufgestellt werden, wenn sie sich bisher etwa um Auslandsadoption und die „Schlichtungsstelle Luftverkehr“ gekümmert hat?



Es ist vielversprechend, dass die Europäische Kommission jüngst unter anderem verpflichtende Prüfungsverfahren (Audits) und Risikobewertungen für große Plattformen vorgeschlagen hat. Aber wo sind in diesem Gesetzentwurf die kreativen Ansätze etwa gegen irreführende Plattform-Designs, die Menschen dazu verleiten, Dinge zu kaufen, die sie sonst gar nicht wollen, oder auf Downloadportalen und in sozialen Netzwerken persönliche Daten preiszugeben? Diese so genannten „dark patterns“ dienen in erster Linie den Plattformen, können aber der persönlichen Gesundheit und dem gesellschaftlichen Diskurs schaden: das endlose Scrollen in Nachrichtenfeeds, die versteckten Privatsphäreeinstellungen, die undurchsichtigen Empfehlungsalgorithmen, die emotionalisierte, quantifizierte Kommunikation über „Likes“ und „Shares“. All das hat zur Verbreitung von Lügen und zur Radikalisierung im Netz beigetragen, nicht erst im Vorfeld des Sturms auf das Kapitol. So gibt es Hinweise, dass die automatisch empfohlenen Videos auf YouTube schnell zu Verschwörungsmythen leiten und dass der Fokus auf messbarem „Engagement“ der Nutzenden bei Facebook die Verbreitung von Desinformation begünstigt.



Spätestens also, wenn es um Design- und Anreizstrukturen von Plattformen geht, sollte klar werden, dass die Regulierung großer digitaler Informations- und Kommunikationsräume andere Fragen aufwirft als die Regelsetzung für andere Unternehmen und Branchen. Wie können Erkenntnisse aus der Psychologie dabei helfen, die „dark patterns“ zu umgehen? Welche Art von Transparenz- und Rechenschaftspflichten sind für Plattformen geeignet? Was ist nötig, um Empfehlungsalgorithmen zu verstehen und zu bewerten? Die Beantwortung dieser Fragen bedarf spezieller Kenntnisse und Fähigkeiten, die in bestehenden Behörden nicht unbedingt vorhanden sind. Deshalb ist der Aufbau neuer Teams und Aufsichtsstrukturen notwendig.



Selbst eine solche neue, maßgeschneiderte Regulierung, die Transparenz- und Rechenschaftspflichten umfasst und sich mit Plattform-Design auseinandersetzt, wird für sich genommen nicht Trump-ähnliche Zustände im Netz und auf der Straße verhindern. Das kann auch gar nicht der Anspruch sein. Das Ziel muss es sein, solche Entwicklungen früher erkennen zu können, besser mit ihnen umzugehen und sich nicht darauf verlassen zu müssen, dass Tech-CEOs in ihrem Urlaub auf Privatinseln im Pazifik von einer Handvoll Mitarbeitenden zu richtigen Einzelfallentscheidungen gedrängt werden.

 

Dr. Julian Jaursch ist Projektleiter bei der Stiftung Neue Verantwortung und befasst sich dort unter anderem mit Desinformation und Plattform-Regulierung.

Für Vollzugriff bitte einloggen.
Bibliografische Angaben

Internationale Politik 2, März/April 2021, S. 110-111

Teilen

Mehr von den Autoren

0

Artikel können Sie noch kostenlos lesen.

Die Internationale Politik steht für sorgfältig recherchierte, fundierte Analysen und Artikel. Wir freuen uns, dass Sie sich für unser Angebot interessieren. Drei Texte können Sie kostenlos lesen. Danach empfehlen wir Ihnen ein Abo der IP, im Print, per App und/oder Online, denn unabhängigen Qualitätsjournalismus kann es nicht umsonst geben.