IP

01. Nov. 2020

Eine 
Ordnung 
fürs virtuelle Haus

Europa steht vor der Aufgabe, Regeln für digitale Plattformen zu entwickeln. Dabei gilt es, Meinungsfreiheit und weitere Menschenrechte zu schützen – auch in Abgrenzung zu Regulierungsansätzen konkurrierender Mächte.

Bild
Bild: Blick auf die Speichereinheiten im Google Data Center
Superspeicher (nicht nur) für Suchen: Im Inneren des Google Data Centers, Berkeley County, South Carolina.
Lizenz
Alle Rechte vorbehalten

Im Pandemie-Sommer 2020 wurde ein Video millionenfach in sozialen Netzwerken und auf Videoportalen angeklickt, in dem Ärzte behaupteten, es gebe bereits ein Heilmittel gegen Covid-19, nämlich Hydroxychloroquin; Mund-und-Nase-Masken seien daher unnötig. Beide Aussagen sind falsch. Facebook sorgte innerhalb einiger Stunden dafür, dass das Video der „Frontline Doctors“ von der Plattform verschwand und und war zerknirscht ob dieser langen Verzögerung. Auch nach der Löschung des Originals tauchten immer wieder Varianten des Videos auf. In der Zwischenzeit hatten sowohl der Präsident der USA als auch sein Sohn Donald Trump jr. das Video mit Millionen Menschen im Netz geteilt.



Diese Episode offenbart einige wichtige Facetten der digitalen Medien- und Kommunikationsräume, die große Plattformen wie Facebook und YouTube bereitstellen. Welche Regeln für solche Plattformen in Europa gelten sollen, ist schon seit längerer Zeit Gegenstand heftiger Debatten auf nationaler und auf EU-Ebene. Es ist nicht mehr die Frage, ob die EU regulieren wird, sondern wie. Bei der Beantwortung dieser Frage lohnt sich ein Blick auf das Frontline-Doctors-Video. Daran zeigt sich, dass erstens Online-Inhalte reale Konsequenzen wie Gesundheitsschäden nach sich ziehen können, dass zweitens dennoch der Fokus von Regulierung nicht allein auf einzelnen Inhalten liegen sollte und dass drittens die Grenzen der Plattformregulierung anerkannt werden müssen.

 

Risiken und Nebenwirkungen

Zum ersten Punkt: Das Beispiel verdeutlicht, dass falsche oder irreführende Informationen wie im Frontline-Doctors-Video Schäden anrichten können: Selbst wenn von den 20 Millionen Menschen, die das Video allein innerhalb der ersten 24 Stunden auf Facebook sahen, nur ein kleiner Teil es zu Ende gesehen und die Aussagen für bare Münze genommen hat, kann das erhebliche gesundheitliche Folgeschäden haben. Nicht nur für den Einzelnen ergeben sich Risiken, sondern auch für die öffentliche Gesundheit, etwa wenn in bestimmten Situationen kein Abstand eingehalten oder keine Maske getragen wird.



Neben solchen Risiken für die öffentliche Gesundheit ist hinlänglich bekannt, dass große soziale Medien, aber auch kleinere, teils radikalere Angebote wie 4chan und Gab, noch andere Gefahren bergen: 2018 untersuchten die Vereinten Nationen die Ursachen des Genozids in Myanmar. Dabei attestierten die Forscher den sozialen Netzwerken, allen voran Facebook, eine problematische Rolle, weil online menschenrechtswidrige Inhalte rasch verbreitet worden seien. Zudem sei auf diesem Weg zu Gewalt aufgerufen worden.



In Großbritannien haben sich mehrere parlamentarische Untersuchungsausschüsse damit beschäftigt, wie Desinformation und Hetze gesellschaftliche Spaltungen vertiefen und für einige Menschen lebensbedrohlich werden können. Der Bericht des Sonderermittlers Robert Mueller zur US-Präsidentschaftswahl 2016 offenbart, wie leicht es ausländischen Akteuren, in diesem Fall Russland, fiel, über Plattformen wie Facebook, Instagram und Twitter Menschen zu radikalisieren und Misstrauen gegeneinander, aber auch in demokratische Prozesse zu säen. In Deutschland zeigte eine Studie der Stiftung Neue Verantwortung, dass im Bundestagswahlkampf 2017 rechtspopulistische, menschenfeindliche Desinformation im Umlauf war, wenn auch nicht in dem Ausmaß wie in den USA und nicht mit russischem Ursprung.



Europa, und besonders Deutschland, hat sich lange sehr stark auf diesen Teil der Plattformregulierung konzentriert – auf die Moderation und Löschung einzelner Inhalte. Die kontroversen Diskussionen zum Urheberrecht auf deutscher und europäischer Ebene sind hierfür ein Beispiel. Exemplarisch ist aber auch das Netzwerkdurchsetzungsgesetz in Deutschland. Es schreibt sozialen Medien unter anderem vor, strafrechtlich relevante Inhalte binnen 24 Stunden nach einer Beschwerde zu löschen. Zu solchen Inhalten zählen Volksverhetzung, Beleidigung oder Kinderpornografie. In eine ähnliche Richtung geht das Vorhaben der EU, terroristische Inhalte binnen einer Stunde nach Meldung einer nationalen Behörde löschen zu lassen.



So richtig es ist, rechtswidrige Inhalte und solche wie das Frontline-Doctors-Video, das falsch und gefährlich, wenn auch nicht illegal ist, zu löschen: Die Durchsetzung dieser Idee anhand klarer Definitionen ist schwierig. Was Kinderpornografie ist, lässt sich noch sehr eindeutig bestimmen, bei Terrorismus wird es bereits schwammiger und bei Desinformation ist die Linie zu erlaubten Meinungsäußerungen, inklusive Lügen, kaum klar zu ziehen. Inhaltemoderation und -löschung sind als Regulierungsansatz also heikel und werfen zwangsläufig Fragen zur Meinungsfreiheit auf. Dennoch erfreut sich dieser Ansatz großer Beliebtheit, weil es so offensichtlich und simpel klingt: Was schlecht ist im Netz, muss weg. Dabei wird die Art und Weise der Inhalteverbreitung über digitale Plattformen zu wenig beleuchtet.

 

Plattformen beaufsichtigen

Die Besonderheiten digitaler Plattformen bei der Inhalteverbreitung zeigen sich, zweitens, ebenfalls im Frontline-Doctors-Video. Es verbreitete sich rasend schnell, wurde von Medien aufgegriffen und in privaten Online-Gruppen und über Messengerdienste geteilt. Die Macher des Videos hatten es mit der Aufmachung, den seriös anmutenden Protagonisten und der Zusammenarbeit mit einschlägigen Blogs als Veröffentlichungsorganen darauf ausgelegt, „viral zu gehen“. Was aufregt oder Angst macht und was die Aufmerksamkeit der Menschen auf sich zieht, wird unabhängig vom Thema von den Algorithmen der Plattformen nach oben gespült. Daher ist es wichtig, digitale Plattformen auch unabhängig von den jeweiligen Inhalten und der Frage, ob diese gesundheitliche oder gesellschaftliche „Schäden“ mit sich bringen, als Regulierungsziel zu betrachten.



Wenn hier von digitalen Plattformen die Rede ist, geht es hauptsächlich um Angebote, die über das Internet Kommunikations- und Medienräume zur Verfügung stellen: Facebook, YouTube, Snapchat oder TikTok. Solche digitalen Kommunikationsräume sind riesig, meist global verfügbar und ermöglichen sofortige Interaktion mit Inhalten. Das unterscheidet sie von klassischen journalistischen Medien.



Eine weitere Besonderheit sozialer Medien: Es sind algorithmische Kommunikationsräume, ausgestattet mit den persönlichen Verhaltensdaten von Abermillionen von Menschen. Vor diesen Räumen stehen keine Redaktionen als Gatekeeper wie bei einer Zeitung, die bestimmen, welche Nachrichten die Leser zu sehen bekommen. Vielmehr machen die Plattformen ihre Algorithmen und auch ihre Nutzenden zu Gatekeepern.



Das ist erst mal einfach nur anders als zuvor, nicht an sich besser oder schlechter. Es darf aber nicht verkannt werden, dass die angebotenen Kommunikationsräume als Ort für politische Debatten und Meinungsbildung gesellschaftliche Zwecke erfüllen. Die Raumgestaltung bedarf daher einer demokratischen Kontrolle, die weder allein den Wünschen einer Regierung noch allein den wirtschaftlichen Interessen von Unternehmen folgt. Im ersten Fall käme es leicht zu staatlicher Zensur, im zweiten bliebe es dabei, dass Algorithmen auf größtmögliches „Engagement“ getrimmt sind, auf Klicks, Verweildauer und auf das Ausbeuten der Aufmerksamkeit der Menschen, um ihnen Werbung zu zeigen.



Auch Rundfunk und Presse sind auf die Aufmerksamkeit der Bürger aus. Gerade die Klatschpresse ließe sich als Vergleich heranziehen: Sie ist wie die großen Plattformen werbefinanziert und will mit sensationalistischen Beiträgen Menschen anlocken. Aber bei digitalen Plattformen ist die Art und Weise der Werbeausspielung völlig anders. Nie zuvor haben sich Anbieter so auf Werbung verlassen und nie war diese Werbung je so zielgerichtet und so stark an persönliche Verhaltensdaten angepasst. Im vergangenen Jahr machte bei Google/YouTube Werbung 83 Prozent des Gewinns aus, bei Facebook/Instagram waren es 98 Prozent (im „News Media“-Segment von Axel Springer machten die Werbeerlöse rund 44 Prozent des Umsatzes aus). Digitale Plattformen registrieren und überwachen das Surfverhalten der Menschen im Internet und leiten daraus Profile mit Interessen, Vorlieben und Ängsten ab, die einer traditionellen Zeitung und einem Fernsehsender schlicht nicht zur Verfügung stehen. Mithilfe dieser Daten und der algorithmischen Systeme der Plattformen lässt sich erkennen, welche Inhalte am ehesten geklickt, kommentiert und geteilt werden. Und das sind meist Inhalte, die kontrovers sind, Angst oder Wut hervorrufen und eigene Sichtweisen bestätigen.



An dieser Stelle, bei der Architektur der Plattformen, ihrer Geschäftslogik und der daraus resultierenden Inhalteverbreitung, setzt bisher wenig Regulierung an. Bestehende Regelwerke, etwa im Datenschutz- und Wettbewerbsrecht und in der Medienregulierung, befassen sich jeweils nur mit Teilaspekten dieser Problematik. Zudem gibt es Schwächen bei der Rechtsdurchsetzung, gerade beim Datenschutz. Freiwillige Selbstverpflichtungen der Plattformunternehmen auf EU-Ebene, etwa zu Hassrede im Internet und zu Desinformation, sind keine ausreichenden Alternativen. Ein ganzheitlicher, gesetzlich verankerter und europäisch koordinierter Kontrollmechanismus, wie es ihn etwa für die Finanz-, Pharma- und Lebensmittelbranchen gibt, fehlt.



Doch in der EU wächst der Wille, das zu ändern. Als großangelegte Reform einer 20 Jahre alten Richtlinie für den Online-Handel soll das Digitale-Dienste-Gesetz („Digital Services Act“, DSA) entstehen. Ob und wie Plattformen für Inhalte haften, welchen Transparenzregeln sie folgen sollen, welche Grundsätze für die Inhaltemoderation gelten müssen und wie eine mögliche Aufsichtsbehörde aussehen kann – all das sind Fragen, die im Zuge der DSA-Diskussionen aufkommen werden.



Anhaltspunkte, wie diese Fragen beantwortet werden können, gibt es bereits. Forschende und Fachleute aus der Zivilgesellschaft arbeiten seit Jahren auf diesem Gebiet, und auch die Plattformen selbst haben erkannt, dass sie offener sein und ihre Arbeitsweise erklären müssen. Zudem gibt es in bestehenden Gesetzen geeignete Ansätze, die ausgebaut werden können. Ein Beispiel ist das besagte Netzwerkdurchsetzungsgesetz. Neben den Löschpflichten, die vielfach als problematisch angesehen wurden, führte das Gesetz eine Transparenzpflicht ein, die grundsätzlich positiv bewertet wurde: Plattformbetreiber müssen vor Ort Zustellungsbevollmächtigte benennen und alle sechs Monate einen Bericht abliefern, wie ihre Inhaltemoderation abläuft.



Ähnlich verfährt die europäische „Platform-to-Business-Regulation“ (P2B-Richtlinie), die kürzlich in Kraft getreten ist. Sie gilt zwar für Plattformen, die Online-Marktplätze oder Preisvergleichsportale anbieten und somit nicht für die oben erwähnten digitalen Kommunikationsräume, aber einige der Vorschriften sind auch mit Blick auf soziale Netzwerke interessant. So fordert die P2B-Richtlinie verständliche AGB, die Einrichtung von Beschwerdeverfahren und eine Erklärung darüber, wie Inhalte sortiert und auffindbar gemacht werden, etwa die Suchergebnisse auf einer Shoppingseite oder eines Reiseportals. Übertragen auf soziale Medien hieße das unter anderem: Transparenz- und Rechenschaftspflichten über die Funktionsweise und Auswirkungen der Algorithmen, die bestimmen, welche Inhalte Millionen Menschen sehen. Neue Transparenz- und Sorgfaltspflichten führt in Deutschland der Medienstaatsvertrag ein, wenn auch noch mit sehr zaghaften Schritten. Erstmals bezieht sich Medienregulierung in Deutschland damit nicht mehr nur auf den Rundfunk, sondern auch auf Suchmaschinen, Videoportale und soziale Netzwerke.



Hieran wird zweierlei deutlich: Zum einen gibt es bereits Bestrebungen, Regulierung nicht auf die Inhaltemoderation und -löschung zu beziehen, sondern grundsätzlich zu entscheiden, welche unternehmerische Verantwortung für Konzerne wie Facebook und Google mit der Bereitstellung von Kommunikationsräumen einhergeht und welcher Aufsicht solche Konzerne unterliegen.



Zum anderen wird klar, dass es sehr viele sich überschneidende, teils konkurrierende Regeln auf unterschiedlichen politischen Ebenen gibt. Der DSA wird beide Punkte angehen müssen: Neben dem Aufbau einer Branchenaufsicht wird es auch um eine Konsolidierung europäischer Regelwerke gehen müssen.

 

Grenzen der Regulierung

Aber können solche Regeln überhaupt dafür sorgen, dass nicht mehr nur die lautesten, privilegierten Stimmen Gehör finden? Der US-Präsident teilte das Frontline-Doctors-Video kurz nach dessen Erscheinen und kommentierte es später, als es längst für falsch befunden war, live im Fernsehen. Selbst wenn solch gesundheitsschädliche Inhalte noch schneller von Plattformen verschwänden und sinnvolle Transparenz- und Rechenschaftspflichten dafür sorgten, dass Plattformen weniger Anreize hätten, polarisierende Clickbaiting-Inhalte zu verbreiten – der Nährboden für die Erstellung und den Konsum solcher Desinformation wird dadurch nicht weniger fruchtbar. Das ist der dritte Aspekt zur Plattformregulierung, den das Video aufzeigt: ihre Grenzen.



Während sich Fragen zur Inhaltemoderation um Zensur drehen und Fragen zur Inhalteverbreitung das Geschäftsmodell digitaler Plattformen berühren, geht es bei Plattformregulierung auch um ganz grundsätzliche Fragen demokratischer Debatten und Prozesse. Was ist die Motivation für die Produktion solcher Videos? Warum treffen sie bei vielen Menschen in aller Welt offenbar einen Nerv? Wie kann es sein, dass wissenschaftliche Diskussionen, für die sich sonst die wenigsten interessieren, politisiert werden? Warum schaffen es viele Menschen nicht, Informationsquellen sicher zu bewerten?



Das sind Fragen, bei denen europäische Regeln für digitale Plattformen an ihre Grenzen stoßen. Sie bedürfen eines Verständnisses für gesellschaftliche Trends und Spaltungen, die den Kern von Desinformation und Hetze im Netz ausmachen. Dagegen hilft keine Plattformregulierung allein, sondern politische Bildung, die Förderung digitaler Nachrichtenkompetenz aller Altersgruppen sowie die Unterstützung von unabhängigem Journalismus. Bildungsmaßnahmen sind eine zwingend nötige Ergänzung zur europäischen Regulierung von Plattformen.



Die EU sollte trotz der Grenzen regulatorischer Maßnahmen aktiv werden, um Regeln für digitale Plattformen zu entwickeln. Andere Akteure kommen derzeit kaum dafür infrage: In den USA wird zwar mittlerweile über eine Reform des Laissez-faire-Ansatzes für Silicon-Valley-Konzerne nachgedacht, etwa in Form eines Datenschutzgesetzes auf Bundesebene. Doch selbst mit einem anderen Präsidenten  dürfte es schwierig bleiben, solche Vorhaben durchzusetzen. Wettbewerbsrechtliche Verfahren werden sich ebenfalls hinziehen.



Die chinesische Regierung zeigt sich im Gegensatz dazu sehr gewillt, regulierend in das Geschäft digitaler Plattformen einzugreifen, allerdings geschieht dies oft mit dem Ziel der Zensur und des Machterhalts der dortigen Kommunistischen Partei. Auf Ebene der UN gibt es zahlreiche Diskussionsformate zum Thema Internetregulierung; doch bedeutsame globale Entwicklungen sind in nächster Zeit unrealistisch.



Daher hat die EU nun die große Chance und Verantwortung, neue Regeln für digitale Plattformen zu entwickeln, die weltweit Strahlkraft entfalten könnten. Ein Fall wie der der „Frontline Doctors“ ist zwar auch mit passender EU-Regulierung nicht ausgeschlossen. Aber Nichtstun ist angesichts der zentralen Rolle der digitalen Kommunikationsräume, die von großen Plattformen bereitgestellt werden, und des fehlenden oder fehlgeleiteten Regulierungswillens in anderen Teilen der Welt für Europa schon lange keine Option mehr.

 

Dr. Julian Jaursch ist Projektleiter bei der Stiftung Neue Verantwortung und befasst sich dort unter anderem mit Desinformation und Plattformregulierung.

Bibliografische Angaben

Internationale Politik, Special, Digitales Europa, November 2020, S. 38-43

Teilen