Titelthema

24. Juni 2024

Gesellschaft des Misstrauens

Was ist zu tun gegen Miss- und Desinformation, für Medienvielfalt und Zusammenhalt? Eine Antwort. 

Bild
Bild: Zwei Männer, die diskutieren
Wenn Medien auf Polarisierung setzen, treibt das eh schon fragmentierte Gesellschaften weiter auseinander. Es gilt, mit Fakten der Desinformation den Nährboden zu entziehen.
Lizenz
Alle Rechte vorbehalten

 

Man kann sich dem Thema Falsch­information von zwei Seiten annähern. Auf der einen, der schaurig-alarmschlagenden, mangelt es nicht an drastischer Sprache und düsteren Szenarien. Dort warnen Experten vor einer Welt der künstlich verfälschten oder gänzlich fabrizierten Ton-, Bild- und Textdokumente, die täuschend echt daherkommen, skalieren und deshalb das Ende des Konzepts Vertrauenn oder gleich der Wahrheit einläuten.

Auf der anderen, der nüchtern-akademischen, bemühen sich Forscher, das prognostizierte Drama im Lichte des Jetzt zu spiegeln. Mit Blick auf die Datenlage argumentieren sie: Abgesehen von seit jeher üblicher politischer Propaganda, die sich vom Wahlplakat über den Tweet bis zum Politikerinterview zieht, seien verhältnismäßig wenige Menschen überhaupt solchen Desinformationsattacken ausgesetzt. Es handele sich um ein „Heavy User“-Phänomen, das sich womöglich weniger auf alltägliches Verhalten auswirke, als die Alarmschlagenden dies vermuteten. „Desinformation ist ein begrenztes Problem mit begrenzter Reichweite in der Öffentlichkeit“, schrieben Andreas Jungherr und Ralph Schroeder 2021. Die Prominenz des Themas in der öffentlichen Debatte lasse sich am besten mit dem Begriff „moralische Panik“ erklären.   

Welcher dieser Seiten man sich zugetan fühlt, hängt stark vom Menschenbild ab. Wer bevorzugt denjenigen folgt, die Schlimmes befürchten, traut seinen Mitmenschen – und womöglich sich selbst – wenig zu. Er hält sie in der Mehrzahl für unaufmerksam, gutgläubig, leicht beeinfluss- und verführbar. Sowohl die historische Erfahrung mit Diktaturen als auch Forschung zur Manipulierbarkeit des Gehirns unterstützen diese Einschätzung. Von einem solchen skeptischen Standpunkt her muss es das strategische Ziel sein, Formen der Desinformation – manche sprechen von Fake News – so weit es geht zu unterbinden. Als Schuldige werden häufig die digitalen Plattformen mit ihren auf Reichweite optimierten Geschäftsmodellen identifiziert, die es zu regulieren gelte.


Eine Frage des Menschenbilds 

Wer eher an die Urteilskraft, Lernfähigkeit und Kapazität von Menschen glaubt, sich frei zu entscheiden, betrachtet die Lage gemeinhin entspannter. Die Nutzer von digitalen und anderen Angeboten würden künftig schlicht mehr Skepsis walten lassen, statt alles blind zu glauben, was sich in Text, Bild und Ton über sie ergießt. Diejenigen, denen ein solches Menschenbild stärker zusagt, fühlen sich womöglich Erik Roose zugetan, dem Intendanten des öffentlich-rechtlichen Senders von Estland. Der sagte kürzlich in einem Interview: „Damals zu Sowjetzeiten wusste man: Was in der Zeitung steht, ist zu 100 Prozent Desinformation. Man musste zwischen den Zeilen lesen.“ 

Diese Fähigkeit beherrschen nicht alle Menschen, aber offensichtlich dennoch ein großer Teil der Bevölkerung. Das zeigte sich zum Beispiel in der Covid-19-Pandemie. Die Weltgesundheitsorganisation hatte schon vor einer „infodemic“ gewarnt, bevor sie das Virus im März 2020 zu einer weltweiten Gefahr erklärt hatte. Tatsächlich aber verhielten sich viele Menschen mustergültig und informierten sich bei traditionellen Medienmarken; das Vertrauen in Medien war 2020 sprunghaft gestiegen. 

Allerdings sorgen sich auch eher optimistische Beobachter, dass exponentiell wachsende Desinformation das generelle Vertrauen in Informationen zerstören könnte. Frei nach Hannah Arendt heißt dies: Wenn man annimmt, alles könnte manipuliert sein, glaubt man gar nichts mehr. Ohne eine gesunde Skepsis mündiger Bürgerinnen und Bürger würde Demokratie nicht funktionieren, aber der Übergang kritischer Beobachtung zur Misstrauensgesellschaft ist potenziell fließend. Schon jetzt zeigt sich, dass junge Menschen, die in einer unübersichtlichen Medienwelt aufgewachsen sind, dem, was sie sehen, hören und lesen, weniger vertrauen als frühere Generationen.


Macht der Multiplikatoren

Traditionelle Medien prägen diese Debatte stärker, als sie dies womöglich einräumen würden. Je ausführlicher und drastischer sie über all die Möglichkeiten berichten, mit denen sich Informationen, Dokumente und Medienprodukte verfälschen lassen, umso misstrauischer werden die Nachrichtenkonsumenten. 

Insbesondere Multiplikatoren – zum Beispiel politische Entscheidungsträger und Regulierungsbehörden –, die ihr Profil schärfen wollen, greifen solche Debatten gerne auf. In den vergangenen Jahren ließ kaum eine Grundsatzrede zum Zustand der Demokratie das Thema Fake News unerwähnt. Auf diese Weise beeinflusst das Narrativ der Desinformation das Maß, in dem sich Bürger davon bedroht fühlen. Politiker mit entsprechenden Instinkten erspüren dies. Der Weg von der Sonntagsrede zum Gesetz kann deshalb kurz sein.  

Gleichzeitig wurden Begriffe wie Fake News und Desinformation von politischen Kräften instrumentalisiert, um die Arbeit von seriösen Journalisten und Medien zu diskreditieren. Dahinter steckt Eigennutz: Manches, was recherchiert und publiziert wird, passt ihnen nicht. Vor allem autoritäre und zu autoritärem Gebaren neigende Politiker verwenden Fake News seit ­Jahren als Kampfbegriff gegen die Presse, allen voran der ehemalige US-Präsident Donald Trump. 2019 beklagte der Herausgeber der New York Times, A.G. Sulzberger, dass binnen weniger Jahre mehr als 50 Regierungschefs und Staatspräsidenten auf fünf Kontinenten den Begriff Fake News genutzt hätten, um gegen Medien vorzugehen. 

Der Begriff der Desinformation wurde von politischen Kräften instrumentalisiert, um seriösen Journalismus zu diskreditieren 

Das Thema Falschmeldungen hat in den vergangenen Jahren eine solche Wucht bekommen, dass sich daraus eine Art Desinformations-Bekämpfungs-Komplex entwickelt hat: ein Zusammenspiel von Medien, Geldgebern und Regulierungsorganen, das sich nicht nur positiv auswirkt. So missbrauchen Regierungen die entsprechende Regulierung zuweilen dazu, Presse- und Meinungsfreiheit oder gar Grundrechte einzuschränken.

Zu diesem Schluss kommt eine Studie des Center for News, Technology and Innovation aus Anlass der weltweit 50 Wahlen in diesem Jahr. Bei der Förderung von Medienangeboten fixieren sich große Geldgeber häufig dermaßen auf den Kampf gegen Desinformation, dass Redaktionen Ressourcen für jene Recherchen fehlen, die etwas noch Wichtigeres vollbringen müssen: erst einmal Fakten und Informationen heranzuschaffen, bevor es an das Verifizieren und Entkräften von Falsch­meldungen geht. Bei einem Round-Table zu Desinformation im Ukraine-Krieg 2022 waren sich Teilnehmende sowohl aus der Ukraine als auch aus Russland einig, dass eine unklare Informationslage eine weitaus größere Herausforderung in der Kriegsberichterstattung sei als Falsch­meldungen.


Fake News haben politische Wurzeln

Der Kampf gegen Desinformation setzt zudem häufig an der falschen Stelle an, weil die Kritiker oft Ursache mit Wirkung verwechseln. Das Phänomen Fake News hat politische Wurzeln, die weit in die Zeit vor Social Media zurückreichen. Die sozialen Netzwerke und Tech-Plattformen sind demzufolge keine alleinigen Verursacher gesellschaftlicher Spaltung, sondern vor allem nützliche und wirkmächtige Instrumente, um sie zu verstärken.

Das Ringen um eine vielfältige, von Wissens- und Erkenntnisdurst bestimmte Informationslandschaft muss deshalb auch und insbesondere bei den Ursachen ansetzen, nicht erst bei der Symptombekämpfung. Nur – dem stehen mächtige Interessen entgegen.

Dass Desinformation in der gegenwärtigen Welt zumindest ausreichend Abnehmer findet, hat in erster Linie fünf Ursachen: 

Erstens, politische Polarisierung. Diese ist nicht erst durch die sozialen Netzwerke entstanden, sondern hat ihre Wurzeln in den Protestbewegungen der zweiten Hälfte des vergangenen Jahrhunderts. In dem Maße, in dem Frauen, ethnische Minderheiten und andere benachteiligte Gruppen nach Positionen von Einfluss und Macht griffen, die ihnen vorenthalten wurden, verstärkte sich in den gesellschaftlich dominierenden Schichten die Angst vor dem Bedeutungs- und Kontrollverlust.

Gegenüber denjenigen, die mit neuem Selbstbewusstsein nach Teilhabe riefen, versammelten sich diejenigen, die um ihre Privilegien fürchteten und fortan versuchten, diese zu zementieren. Religiöse Konflikte und Wirtschaftslobbys mit Interesse am Zurückdrängen von Klimapolitik reicherten dieses Gebräu an. Soziale Netzwerke, angetrieben von Geschäftsmodellen der Aufmerksamkeits­ökonomie, erleichterten es den jeweiligen Gruppen, Gleichgesinnte zu finden und Ideologie-Cluster zu bilden.

Verursacht aber hat „Big Tech“ die Spaltung nicht. Eine Arbeit des Berkman Klein Center for Internet & Society an der Har­vard University zeigt, dass zum Beispiel bei der US-Wahl 2016 in erster Linie polarisierende Politiker und traditionelle Medien Desinformation betrieben haben, nicht etwa soziale Netzwerke oder sogenannte Troll-Fabriken, in denen Auftragsarbeiter bewusst Falschmeldungen fabrizieren.

Soziale Netzwerke und Tech-Plattformen sind ­keine alleinigen Verursacher 
gesellschaftlicher Spaltung, sondern wirkmächtige
In­strumente der Verstärkung

Für Osteuropa kommen Vaclav Stetka und Sabina Mihelj in ihrem Buch „The Illiberal Public Sphere. Media in Polarized Societies“ zu einem ähnlichen Schluss: Traditionelle Medien, oft von politischen Interessen korrumpiert, seien die primären Kanäle der Desinformation.         

Zweiter Grund, eine komplexer werdende, sich rasant wandelnde Welt. Diese sogenannte VUCA-Umgebung – kurz für volatile, uncertain, complex, ­ambiguous (flüchtig, unsicher, komplex, mehrdeutig) – gibt Populisten Auftrieb, die mit knackigen Botschaften einfache Lösungen versprechen. Die Kriege in der Ukraine und in Gaza, politische Repression, Fluchtbewegungen, wirtschaftliche Unsicherheit und Klimawandel verängstigen Menschen. Manche sprechen von Polykrisen, ein Konzept, das von dem britischen Historiker Adam Tooze popularisiert wurde. Die neuen Möglichkeiten durch generative KI dürften viele Branchen, Job-Profile und das Bildungssystem verändern und damit noch mehr Menschen verstören. Als Konsequenz sucht manch einer Halt bei charismatischen Führungspersönlichkeiten, Ideologien oder Institutionen, die Stabilität und klare Strukturen versprechen.

Drittens, hybride Kriegsführung mit „information operations“. Dass moderne Kriege nicht nur mit Waffen an der Front, sondern auch über digitale Informationskampagnen mit dem Ziel ausgefochten werden, Gesellschaften zu destabilisieren, ist fast schon Allgemeingut. Insbesondere der Angriff Russlands auf die Ukraine und das weitere Erstarken Chinas haben die geopolitische Polarisierung vorangetrieben.

Das Ausmaß der digitalen Beeinflussung von Wahlen in einem Jahr, in dem fast die halbe Weltbevölkerung in verschiedenen Formen an die Urnen geht, ist derzeit nicht abzuschätzen. Es wäre allerdings verfehlt, die Verantwortung für politische Machtverschiebungen oder das Erstarken bestimmter Kräfte in erster Linie externen Einflüssen zuzuschreiben. Innenpolitische Machtstrukturen oder deren Auflösung dürften Wahlen in weitaus größerem Maße beeinflussen. 

Viertens, die unübersichtliche Nachrichtenvermittlung. Das Erstarken der Online-Plattformen hat das Medien­system aus den Angeln gehoben und die Möglichkeiten des Nachrichtenkonsums von Orten, Zeiten und festen Formaten gelöst. Die Angebote sind deshalb heute zwar vielfältiger als zu Zeiten des linearen Fernsehens und Radios und der Zeitung auf Papier – vom stundenlangen Podcast bis TikTok ist alles dabei. Dafür fühlen sich die Nutzenden aber zunehmend ­verwirrt.

Studien wie „Use the News“ oder „Next Gen News“ belegen dies gerade für die junge Generation. Die informiert sich vor allem in den sozialen Netzwerken, und dort lässt sich im ständigen Fluss von Meldungen zuweilen schwer zuordnen, ob die Nachricht aus einer seriösen Quelle stammt, eine Meinungsbekundung oder womöglich eine Werbebotschaft ist.

Es gibt zwar bislang keine Belege dafür, dass dies junge Menschen anfälliger für Desinformation macht. Im Gegenteil, ältere Generationen, die nicht so versiert im Umgang mit digitalen Angeboten sind, scheinen sich leichter täuschen zu lassen. Aber für Ungeübte ist im Informationsstrom schwer zu erkennen, was glaubwürdiger Journalismus ist. Manche bezweifeln auch, dass man ihn überhaupt braucht. Zudem können Satire oder andere humoristische Formate leicht als Desinformation wahrgenommen werden, wenn sie nicht klar gekennzeichnet sind.

Die Angebote sind im Vergleich zur linearen Zeit so vielfältig, dass die Nutzer zunehmend verwirrt sind 

Fünftens, die technischen Möglichkeiten durch Künstliche Intelligenz. Für diejenigen, die bewusst Desinformationen fabrizieren, sind die derzeit sich wie durch Zellteilung vermehrenden Tools der generativen KI nützliche Werkzeuge. In Sekunden und Minuten lassen sich Videos lippensynchron mit anderen Tonspuren hinterlegen, Pornos mit Gesichtern von Prominenten ausstaffieren, geklonte Stimmen für politische Botschaften einsetzen, bewegte und statische Bilder zu jedem erdachten Inhalt fabrizieren. Der Sicherheitsexperte Jean-Marc Rickli vom Geneva Centre for Security Policy spricht von „Weapons of Mass Disinformation“, analog zu „Weapons of Mass Destruction“. 

Ob Menschen solche Desinformation strategisch im Auftrag anderer oder aus Spaß und Langeweile fabrizieren, ist natürlich politisch relevant. In beiden Fällen ist aber die genaue Wirkung kaum absehbar. Zu den gefürchteten „Deep Fakes“ kommen auch noch die „Cheap Fakes“: nachlässig veränderte Inhalte, die man bei genauerem Hinsehen als solche enttarnen könnte, es aber nicht tut, weil man das, was man sieht, glauben will.

Forschung zufolge nutzen Menschen in sozialen Netzwerken sogar mehr Informationsquellen als ihre Zeitgenossen, die sich traditionell informieren. Nur filtert das Gehirn die Informationen oft so, dass sie zum Weltbild passen. Das Grundproblem liegt also nicht in der KI, sondern im Kopf.


KI braucht Regeln

Dem Problem der Desinformation wird man nur begegnen können, wenn man an allen fünf Punkten ansetzt. Von hinten aufgerollt heißt das: Natürlich brauchen KI-Anwendungen Regeln. Der European AI Act, der im Mai 2024 vom European Council verabschiedet wurde, ist ein sinnvoller erster Schritt. Er teilt KI-Tools in Risikoklassen ein, reguliert dementsprechend ihren Einsatz, und verlangt Transparenz. KI hilft auch denen, die Gutes im Sinn haben: Die Verifizierung von Inhalten wird einfacher – wenngleich Sicherheitsexperten vor einer asymmetrischen Entwicklung warnen. Medienforscher um Felix Simon hingegen argumentierten in einer Analyse 2023, dass Ängste übertrieben ­seien, generative KI würde die Desinformation auf eine neue Stufe heben. Nach wie vor konsumiere nur ein kleiner Anteil der Bevölkerung in großem Maße Falschmeldungen. Vielerorts gebe es demgegenüber ein funktionierendes Mediensystem, das Menschen ermögliche, sich zuverlässig und hochwertig zu informieren. 

Polarisierung und Konflikt statt Konsens war für Medien lange ein lukratives Geschäftsmodell. Statt aber den Zusammenhalt zu stärken, trugen sie zur Spaltung bei

Allerdings ist dieses System angeschlagen. Die früher lukrativen, anzeigenbasierten Geschäftsmodelle funktionieren in der digitalen Welt nur noch bedingt, und die Nachrichtennutzer sind in der Mehrzahl nicht bereit, diesen finanziellen Einbruch aus eigener Tasche auszugleichen. KI-basierte Suchmaschinen lassen zudem befürchten, dass Quellen ­unsichtbar ­werden. Gleichzeitig fühlen sich viele Menschen von einem immer schnelleren und schrilleren Informationsangebot überfordert oder schlicht nicht angesprochen. Besonders Medienhäuser überschätzen oft, wie viel Interesse an Nachrichten in der breiten Öffentlichkeit besteht. Die Nachrichtenmüdigkeit und -abstinenz nimmt zu (s. dazu auch die Grafik auf S. 43).


Stärkung der Medienvielfalt

Gesellschaftliche, politische und wirtschaftliche Akteure müssen deshalb dazu beitragen, den Journalismus, die Medienvielfalt und die Pressefreiheit auf verschiedenen Wegen zu stärken. Menschen brauchen verlässliche, unabhängige Informationen, um gute Entscheidungen treffen zu können. Viele Medienhäuser müssen dazu allerdings umdenken. Für sie war Polarisierung lange ein lukratives Geschäftsmodell. Konflikte verkauften sich besser als Konsens, steile Thesen besser als Nuancen. Statt den Zusammenhalt zu stärken, trugen sie zur Spaltung bei. Im Ringen um eine vertrauenswürdige Informationslandschaft dürfte ein Journalismus, der Menschen zuhört und sich an ihren Bedürfnissen orientiert, wichtiger sein als die besten Fact-Checking-Tools. 

Den anderen hier skizzierten Ursachen für Desinformation – Krieg, Polarisierung, allgemeine Überforderung – lässt sich nur politisch begegnen. Es gilt, Aggressoren zurückzudrängen und politische Konflikte, wo es möglich ist, diplomatisch zu lösen. Die Institutionen von Demokratie und Gesellschaft müssen daran arbeiten, Menschen mit Fakten kompetent zu machen, ihnen nahezubringen, was sie verbindet und so den Zusammenhalt und ihre Resilienz zu stärken. Nur so lässt sich Desinformation der Nährboden ­entziehen.      

Für Vollzugriff bitte einloggen.
Bibliografische Angaben

Internationale Politik 4, Juli/August 2024, S. 18-24

Teilen

Themen und Regionen

Prof. Dr. Alexandra Borchardt ist Journalistin, unabhängige Beraterin, Autorin und Medienwissenschaftlerin. 

0

Artikel können Sie noch kostenlos lesen.

Die Internationale Politik steht für sorgfältig recherchierte, fundierte Analysen und Artikel. Wir freuen uns, dass Sie sich für unser Angebot interessieren. Drei Texte können Sie kostenlos lesen. Danach empfehlen wir Ihnen ein Abo der IP, im Print, per App und/oder Online, denn unabhängigen Qualitätsjournalismus kann es nicht umsonst geben.