Titelthema

24. Juni 2024

Gegen den Strich: Künstliche Intelligenz und Wahlen

„Is this the real life / Is this just fantasy?“: Die Frage, die Freddy Mercury und Queen 1975 in ihrem Song „Bohemian Rhapsody“ aufgeworfen haben, beschäftigt die ­Menschen heute erst recht; gerade zu Wahlzeiten. Ist das Video echt, das Bild gefakt, stammt der Kommentar in den sozialen Medien von einem Menschen oder einer ­Maschine? Viel Unsicherheit, wenig Klarheit: Sechs Thesen auf dem Prüfstand. 

Bild
Bild: Ein Narendra-Modi-Avatar
„Neue Normalität“ in Indien: Bevor ein Narendra-Modi-Avatar über WhatsApp auf den Mobilgeräten der Wahlberechtigten erscheinen kann, muss zunächst das Gesicht des Premierministers analysiert werden.
Lizenz
Alle Rechte vorbehalten

 

„Nur Autokratien setzen Künstliche Intelligenz in Wahlkämpfen ein“ 

Weit gefehlt. KI hat Einzug in fast alle Lebensbereiche gehalten. Wahlkämpfe bilden da keine Ausnahme, im Gegenteil. In politischen Kampagnen beobachten wir eine Innovationsfähigkeit, die der Politik ansonsten abgeht. Umfangreiche Datenanalysen, das Zuschneiden der Kommunikation auf kleinste Zielgruppen (Mikrotargeting), Phänomene wie Deepfakes (Fotos, Videos oder Audiodateien, die mit KI-­Unterstützung manipuliert werden) oder Social Bots (Programme, die wie Menschen in sozialen Netzwerken interagieren): All das ist im Superwahljahr 2024 präsenter als je zuvor. 

Der Einsatz von KI hat das Potenzial, Wahlkämpfe auf meh­reren Ebenen zu revolutionieren und die Art der Wähleransprache grundlegend zu verändern. Welche Auswirkungen diese „KI-­Revolution“ auf demokratische Willensbildungsprozesse haben wird, ist noch offen. 

Denn unsere neuen KI-Fähigkeiten ermöglichen den Parteien ein ganz neues Level der Datenauswertung, der Zielgruppenanalyse und der personalisierten Kommunikation. Wahlkämpfe werden deutlich effizienter, aber auch anfälliger für Manipulation und Desinformation.

Bisher nutzen die meisten Parteien in Deutschland Künstliche Intelligenz in erster Linie für die Datenanalyse im Hintergrund. Dabei werden riesige Mengen an Wähler- und Verhaltensdaten ausgewertet. So lassen sich detaillierte Wählerprofile erstellen und ein Mikrotargeting betreiben, das so bisher nicht möglich war. Dazu gehört auch die Analyse von Inhalten durch KI-Bilderkennungssysteme, die öffentlich geteilte Inhalte nach kampagnenrelevanten Informationen durchsuchen, um noch genauere Präferenzen- und Meinungsbilder zu erstellen. 

Zur Generierung von Inhalten dagegen werden KI-Modelle derzeit in nur vergleichsweise geringem Umfang genutzt. Das wird sich aber aller Voraussicht nach ändern, und es betrifft vor allem sogenannte synthetische Inhalte, auch Softfakes genannt – Bilder, Videos, Audios und Texte, die vollständig für Wahlkampagnen generiert werden. Ganz unbedenklich ist das natürlich nicht – der leichte Zugang zu KI-Modellen kann auch genutzt werden, um potenzielle Wählerinnen durch gezielte Desinformation oder Propaganda strategisch zu beeinflussen.

In Indien haben wir zuletzt erlebt, wie im Wahlkampf in einem bisher ungekannten Ausmaß mit KI experimentiert wurde. Alle Parteien setzten massiv auf KI-Tools und Softfakes, um die Wähler zu manipulieren. Zum einen wurden hochrealistische, aber gefälschte Audio-, Video- und Bilddateien von Politikern erstellt, um sie in falsche Kontexte zu setzen. Verstorbene Führungspersönlichkeiten wurden durch KI-generierte Aufnahmen „wiederbelebt“ und warben für bestimmte Kandidaten. 

Vor allem wurde KI genutzt, um hyperpersonalisierte Videos und Sprachnachrichten für fast eine Milliarde Wählerinnen zu erstellen. Die New York Times berichtete in diesem Zusammenhang über ein Start-up, das KI-generierte Avatare unter anderem von Premierminister Narendra Modi erstellte und trainierte. Dieser Avatar sprach die Wähler direkt mit Namen an und erschien über WhatsApp in mehr als zehn Amtssprachen direkt auf den Mobilgeräten der Wahlberechtigten. 

Es ist die „neue Normalität“, dass Parteien in Indien KI-Systeme nutzen, um persönliche Videobotschaften und Anrufe durch computergesteuerte Chatbots zu versenden. Diese Avatare sind zum Teil so gut trainiert, dass die Angerufenen sich der Tatsache oft gar nicht bewusst sind, dass sie gerade mit einem KI-Avatar sprechen. 

Der technische Ablauf ist denkbar einfach: Aus wenigen Minuten Ausgangsmaterial werden mit Hilfe von KI-Modellen detailgetreue digitale Kopien einer Person inklusive Stimme erstellt, aus denen ein KI-Avatar generiert wird. Mit Hilfe dieses Avatars können bis zu 10 000 personalisierte Videos produziert und direkt über WhatsApp verschickt werden. 

Eine technische Revolution, die es bestimmten Akteuren ermöglicht, in kürzester Zeit Millionen von Menschen gezielt anzusprechen und so die Realität und die Wahrnehmung der Wähler in industriellem Maßstab zu manipulieren.


„Künstliche Intelligenz ist also Gift für die politische Teilhabe in einer Demokratie“

Nicht unbedingt. In vielen Fällen kann KI sogar dazu beitragen, mehr politische Partizipation zu ermöglichen. Mit ihrer Hilfe lassen sich Teile des demokratischen Prozesses inklusiver und zugänglicher machen – vorausgesetzt, das geschieht seriös und im Interesse der Gemeinschaft.

So kann Künstliche Intelligenz bei der Überwindung von Sprach- und Kommunikationsbarrieren helfen. In der Europäischen Union gibt es offiziell 24 Amtssprachen. Auf EU-Ebene könnten KI-Übersetzungssysteme den Zugang zu politischen Informationen und Debatten für Menschen mit unterschiedlichen Muttersprachen erleichtern. Darüber hinaus lassen sich durch Echtzeitübersetzungen, Untertitel oder Sprachsteuerung Barrieren für Menschen mit Seh- oder Hörbehinderungen abbauen.

Einer größeren politischen Teilhabe können auch KI-gestützte Bürgerbeteiligungsplattformen dienen. Mit ihrer Hilfe wird es noch einfacher, Meinungen, Kommentare und Vorschläge zu politischen Themen und Gesetzesinitiativen in den Diskurs einzubringen. 

Wenn diese digitalen Diskussionsforen klug genutzt und ausgewertet werden, ist es möglich, Prioritäten und Trends für Entscheidungsträger so aufzubereiten, dass die politische Meinungsbildung und Entscheidungsfindung stärker an den Präferenzen der Bürgerinnen und Bürger ausgerichtet werden.

Ein weiterer wichtiger Ansatzpunkt für mehr politische Partizipation durch KI ist die Informationsvermittlung. Komplexe politische Themen und Wahlprogramme lassen sich dank KI in verständlicher Sprache und in multimedialen Formaten für breitere Bevölkerungsschichten aufbereiten. Chatbots können Fragen zu politischen Themen beantworten und so den Dialog zwischen Wählern und Politikerinnen fördern. 

Indem sie Diskurse, Entscheidungsprozesse und die Folgen politischen Handelns nachvollziehbar macht, schafft die Technologie mehr Transparenz. So kann ein KI-basierter Wahl-O-Mat potenzielle Koalitions­bildungen simulieren, die möglichen Auswirkungen von Wahlentscheidungen auf Wirtschaft, Politik, Freiheit und Klima modellieren und so für ein tiefergehendes Verständnis der politischen Landschaft sorgen.

Ähnliches gilt für vertrauensbildende Maßnahmen rund um Wahlen. Wenn Wählerinnen sicher sein können, dass die Informationen, auf die sie zugreifen, verlässlich sind, steigt die Wahrscheinlichkeit, dass sie sich am politischen Prozess beteiligen.

Gegen Desinformationskampagnen im Zusammenhang mit Wahlen hilft der Einsatz spezifischer KI, die erhebliche Mengen an Online-Inhalten in kürzester Zeit auf ihre Echtheit prüft. Dabei werden Sprachmuster, Quellen und Verbreitungsgeschwindigkeit von Nachrichten analysiert und gekennzeichnet. 

KI kann darauf trainiert werden, Unregelmäßigkeiten in Bildern oder Videos zu erkennen, die für das menschliche Auge schwer wahrnehmbar sind. Gleichzeitig kann sie dazu beitragen, vertrauenswürdige Informationsquellen herauszustellen und die Öffentlichkeit über die Gefahren von Desinformation aufzuklären. Medienkompetenzprogramme lassen sich durch interaktive Lernmodule, personalisierte Empfehlungen und spielerische Ansätze optimieren. 


„Der Einsatz von KI zur personalisierten Wähleransprache führt zu einer Fragmentierung der öffentlichen Debatte“

Das lässt sich nicht bestreiten. Eine der vermeintlichen Stärken von KI-Systemen im Wahlkampf ist die Möglichkeit, Wähler durch fortgeschrittene Analyse­verfahren in immer kleinere Zielgruppen zu unterteilen und mit immer präziser maßgeschneiderten Botschaften anzusprechen. Dabei handelt es sich um eine besonders effektive Art des Mikrotargetings. Die Kehrseite: Unterschiedlichen Wählergruppen wird eine unterschiedliche Realität präsentiert.

Statt einen gemeinsamen Diskurs über die zentralen Wahlkampfthemen zu fördern, erhalten die Wählerinnen nur noch hyperpersonalisierte Narrative und Positionen. Diese Art der politischen Kommunikation, die dank KI auch noch in erheblichem Maße skalierbar ist, ist darauf ausgelegt, bereits bestehende Meinungen und Überzeugungen zu verstärken. Dass so der Austausch unterschiedlicher Argumente und Positionen zu kurz kommt, versteht sich von selbst.

Es droht eine weitere Fragmentierung der öffentlichen Meinungsbildung, was dem Grundprinzip der Demokratie – pluralistische Debatte auf Augenhöhe – widerspricht. Auf ­Social-Media-Plattformen ist dieser Trend gut zu beobachten. Algorithmisch erzeugte Echokammern unterstützen die Tendenz, den einzelnen Nutzer in seiner ideologischen Blase gefangen zu halten. 

Die Folgen beobachten wir bereits heute: Die Polarisierung wird stärker, die Gesellschaft driftet auseinander. Um dem entgegenzuwirken, müssen Rahmenbedingungen geschaffen werden, die eine gemeinsame Debattenkultur auch im Zeitalter von KI ermöglichen. 


„KI-Bots werden künftige Wahlen im großen Stil manipulieren“

Zweifelsohne. Ein wesentlicher Bestandteil der Strategien zur Manipulation des Informationsraums sind Bots – Computerprogramme, die automatisiert und ohne menschliche Kontrolle bestimmte Aufgaben in Online-Netzwerken ausführen. Sie basieren auf maschinellem Lernen, einer Art KI, und können Inhalte verbreiten, mit anderen Nutzern interagieren oder Daten sammeln. Je nach Programmierung sind sie ein perfektes Werkzeug, um den Informationsraum effizient zu schwächen.

Die Manipulation von Wahlen ist eine erhebliche Bedrohung des demokratischen Prozesses. Es hat sich gezeigt, dass gezielte Falschinformationen zu einer Schwächung unseres gesamten Informationsraums führen können. Für den durchschnittlichen Internetnutzer wird es immer schwieriger, vertrauenswürdige Informationen von manipulierten Inhalten zu unterscheiden. In der Flut an Desinformation, die häufig genug bewusst auf Emotionen und Ängste abzielt, verlieren Fakten und seriöse Quellen an Gewicht. Ein Problem, das gerade bei Wahlen entscheidend sein dürfte. 

Dieser Vertrauensverlust kann gravierende ­Konsequenzen haben: Wenn die informierte Meinungsbildung und die kritische Auseinandersetzung mit Themen massiv erschwert werden, können sich Falschinformationen ungehindert verbreiten und gezielt zur Manipulation von Stimmungen und zur Lenkung von Diskursen eingesetzt werden. 

Koordinierte Einflusskampagnen, die professionell und über einen längeren Zeitraum hinweg durchgeführt werden und dabei mit Bots arbeiten, sind kein neues Phänomen; allein im vergangenen halben Jahr hat das Auswärtige Amt 50 000 Fake-Accounts identifiziert, die die Ampelregierung delegitimieren und die Unterstützung für die Ukraine untergraben sollten. 

Die Nichtregierungsorganisation Reset hat im gleichen Zeitraum 240 000 Fake-Facebook-Seiten ausgemacht, die unter anderem prorussische Desinformation verbreiteten. Und unmittelbar nach dem Angriff der Hamas auf Israel Anfang Oktober 2023 waren nachweislich 40 000 Fake-Accounts aktiv, die die Hamas unterstützten. In den vergangenen Tagen hat Meta Hunderte von Fake-Accounts auf Facebook und Instagram entfernt, die mit einem israelischen Technologieunternehmen in Verbindung standen, das offenbar KI-generierte Kommentare gepostet hatte, um Israel zu loben und Antisemitismus an Universitäten zu kritisieren.

Bots spielen bei solchen Einflusskampagnen schon ­allein deshalb eine maßgebliche ­Rolle, weil ein Bot innerhalb von 48 Stunden bis zu 650 Posts erstellen und veröffentlichen kann. Da immer mehr Menschen Nachrichten vor allem über soziale Medien konsumieren und Bots gerade dort sehr aktiv sind, ist ihr Einfluss- und Bedrohungspotenzial entsprechend hoch. 

In Kombination mit generativen KI-Modellen wie ChatGPT wird dieses Potenzial noch größer. In Sicherheitskreisen betrachtet man das Aufkommen sogenannter GenAI-Bots, die Zugang zu generativen KI-Modellen haben, mit Sorge. Diese Bots könnten auf qualitativ hochwertigen und schnell erstellten KI-Content zurückgreifen. Sie sind noch nicht weit verbreitet, könnten aber unseren Informationsraum mit synthetischen Posts überschwemmen. 

Solche GenAI-Bots wären in der Lage, in kürzester Zeit nicht nur riesige Mengen an Inhalten zu generieren, sondern auch noch solche, die hyperpersonalisiert sind. Sie könnten sogar individuelle Beziehungen zu Nutzern aufbauen. Es ist erwiesen, dass Beeinflussung stark von zwischenmenschlichen Verbindungen und Emotionen abhängt – kein Wunder, dass Influencerinnen über ein so großes Mobilisierungspotenzial verfügen. 

Hinzu kommt, dass ein GenAI-Bot extrem schwer als Einflussfaktor zu erkennen ist, da das Gespräch nach kurzer Zeit über Direktnachrichten stattfindet. Ein solcher Bot könnte diese Beziehung nutzen, um subtil Ideen einzubringen, Themen zu lenken und Vorurteile zu schüren.

Solche hochentwickelten Bots sind zwar noch nicht für Einflusskampagnen eingesetzt oder entdeckt worden. Sie dürften aber künftig zu einem wichtigen Werkzeug von Akteuren werden, die langfristig Meinungen prägen wollen und bereits an der nächsten Eskalationsstufe der Wahl­manipulation arbeiten. In Zukunft wird die Herausforderung darin bestehen, ein solches Verhalten von GenAI-Bots frühzeitig zu erkennen und Gegenmaßnahmen zu entwickeln, um die Integrität demokratischer Wahlen auch im Zeitalter der Künstlichen Intelligenz zu schützen. 


„Wenn man nur genau hinschaut, lässt sich von Künstlicher Intelligenz generierter Content leicht von authentischen Inhalten unterscheiden“

Noch vor einem guten Jahr mag das so gewesen sein. Die rasante technologische Entwicklung der vergangenen Jahre hat jedoch eine Qualität hervorgebracht, die eine verlässliche Unterscheidung erschwert. Bei Textinhalten moderner Sprachmodelle wie ChatGPT ist es selbst für Experten kaum noch möglich, auf den ersten Blick den KI-Output von authentischem Inhalt zu unterscheiden. Auch bei KI-generierten Audio- und Videoinhalten wird das nicht leichter. Mit Deepfake-Technologien lassen sich bereits heute täuschend echt aussehende Mediendateien generieren, in denen Personen Dinge sagen oder tun, die in der Realität nie stattgefunden haben. Auch hier fällt sogar Experten eine Unterscheidung immer schwerer. 

Da eine einfache Prüfung also kaum mehr möglich ist, braucht es klare Transparenz- und Kennzeichnungspflichten im Umgang mit KI. Der kürzlich verabschie­dete EU AI Act beinhaltet eine solche Transparenzpflicht, nach der die erzeugten oder bearbeiteten Inhalte (Audios, Bilder, Videos) als solche gekennzeichnet werden müssen. Die Bundesregierung muss nun dieses weltweit erste KI-Gesetz in nationales Recht umsetzen. 

Darüber hinaus ist es wichtig, die Medienkompetenz in allen Bevölkerungsschichten gezielt zu stärken. Nur wenn ein grundsätzliches Bewusstsein für die Chancen und Risiken von KI-generierten Inhalten in der Gesellschaft verankert ist, können wir einen kritischen und wachsamen Umgang damit entwickeln. Daher sind Aufklärungskampagnen, Schulungen zur Erkennung von Deepfakes und generell ein stärkerer Fokus auf die Förderung von Quellenkritik und Medienkompetenz dringend erforderlich, um eine starke gesamtgesellschaftliche Resilienz gegenüber diesen neuen Bedrohungen zu entwickeln.


„Letztlich wird der Einfluss von KI und Desinformation als Problem größer gemacht, als es ist“

Ja, aber. Tatsache ist, dass die Bedrohung durch KI-generierte Fake-Inhalte wie Videos, Bilder und Texte zur Verbreitung von Desinformation real ist – auch wenn die potenzielle Reichweite und Wirkung solcher Kampagnen zuweilen übertrieben dargestellt werden. Bei der Desinformation im Rahmen von Einflusskampagnen muss man sehr genau zwischen primären und sekundären Zielen unterscheiden. Das primäre Ziel besteht darin, dass die Narrative der Desinformation für bare Münze genommen werden. Das sekundäre Ziel ist der allgemeine Vertrauensverlust in unsere Demokratie. 

Selbst wenn das Primärziel nicht erreicht wird und die gezielte Beeinflussung von Meinungen nicht gelingt, kann allein die Überflutung des Informationsraums mit Desinformation erhebliche Konsequenzen haben. Denn wenn es immer schwieriger wird, vertrauenswürdige Informationen zu finden, führt das nachweislich zu einem Vertrauensverlust der Bürgerinnen gegenüber Regierung, Medien und Institutionen. Indirekt schwächt Desinformation damit auch unsere Demokratie. 

Desinformation ist nicht immer erfolgreich; ihre tatsächliche Wirkung hängt von vielen Faktoren ab. Allerdings lässt sich beobachten, dass Desinformationskampagnen besonders effektiv zu wirken scheinen, wenn Influencer, Messenger-Dienste (z.B. WhatsApp) und klassische Medien maßgeblich zur Verbreitung solcher Narrative beitragen. 

Übertriebener Alarmismus ist also ebenso wenig hilfreich wie die Verharmlosung von Risiken. Stattdessen gilt es, faktenbasierte Urteile zu fällen, Desinformation konsequent zu bekämpfen und das Vertrauen der Öffentlichkeit in seriöse Informationsquellen zu stärken. Am Ende geht es vor allem darum, gesellschaftliche Resilienz aufzubauen.

Bibliografische Angaben

Internationale Politik 4, Juli/August 2024, S. 36-41

Teilen

Themen und Regionen

Dr. Katja Muñoz ist Research Fellow der DGAP im Zentrum für Geopolitik, Geoökonomie und Technologie. Sie erforscht im Rahmen ihrer Tätigkeit das Zusammenspiel zwischen sozialen Medien und Politik.