Online exklusiv

02. Nov. 2023

Warum KI das Wesen von Außenpolitik verändern wird

Wenn KI als außenpolitisches Werkzeug eingesetzt werden soll, ist eine ganze Reihe von Anwendungsfällen denkbar. Für einen sinnvollen und effektiven Einsatz braucht es allerdings klar definierte Zielvorstellungen.

Bild
Bild: Digitaler Globus
Lizenz
Alle Rechte vorbehalten

Die Diskussion, wie sich Künstliche Intelligenz (KI) auf die internationale Politik auswirken wird, ist oft holzschnittartig und von großen Begriffen geprägt. „Killerroboter“ oder „Killeralgorithmen“ würden die Kriege der Zukunft unberechenbar und unverantwortlich machen; die Technologie selbst stelle eine existenzielle Bedrohung für die Menschheit dar, vergleichbar nur mit Pandemien oder nuklearer Vernichtung; oder, ganz einfach, dass eine Führungsrolle in KI gleichzusetzen sei mit Weltherrschaft.

Natürlich ist all dies möglich, und die entsprechenden internationalen Bemühungen zum Eindämmen einer unkontrollierten Verbreitung von KI wie die gegenwärtige KI-Sicherheitskonferenz in Großbritannien sind nötig und unterstützenswert. Doch dürfen solche Szenarien nicht den Blick darauf verstellen, wie unmittelbar diese Technologie Außenpolitik verändert.

KI als außenpolitisches Werkzeug

Denn in dem Moment, in dem bislang zwischen Menschen ablaufende Prozesse wie Informations­gewinnung und Verhandlungen von trainierten Maschinen unterstützt oder gar gesteuert werden, verändert sich das Wesen von Diplomatie. Das betrifft somit die dritte Ebene der von der DiploFoundation entwickelten Einordnung von KI – als Gegenstand der internationalen Politik, als geopolitischen Einflussfaktor oder, hier, als außenpolitischem Werkzeug.

Als solches betrachtet ist KI zunächst einmal weder gut noch schlecht, aber eben auch nicht – so der Technikhistoriker Melvin Kranzberg – neutral, da die Entwicklung dieser Technologie von bestimmten menschlichen Annahmen geprägt ist. Außerdem bedingen sich diese drei Ebenen gegenseitig: Zum einen können das Verhandlungen zur Regulierung von KI in multilateralen Foren und Gesetzgebungen auf nationaler oder europäischer Ebene sein, zum anderen die Bedeutung von KI für die globale machtpolitische Konkurrenz beziehungsweise für das Streben nach „technologischer Souveränität“.

Wenn KI als außenpolitisches Werkzeug eingesetzt werden soll, ist eine ganze Reihe von Anwendungsfällen denkbar. Beispiele sind die Analyse und Auswertung von Informationsquellen wie Nachrichtenportalen und sozialen Medien einschließlich deren automatischer Übersetzung über Frühwarnsysteme für Krisen und Konflikte, Simulationssoftware für Cybersicherheit und internationale Verhandlungen oder eine Prozessautomatisierung bei Dokumenten und Verträgen.

Selbst wenn der Boom um ChatGPT jüngeren Datums ist, gibt es bereits eine Reihe von Praxisbeispielen. So analysiert der von der Wirtschafts- und Entwicklungskonferenz der Vereinten Nationen UNCTAD konzipierte Cognitive Trade Advisor bestehende Handelsverträge und macht außerdem Vorschläge für neue Abkommen. Ziel ist es, gleiche Voraussetzungen für Länder mit geringen personellen Ressourcen bei aufwändigen Verhandlungen zu gewährleisten. Ein auf „großen Sprachmodellen“ aufbauender und um individuelle Expertise ergänzter Speech Generator der erwähnten DiploFoundation wiederum entwirft auf Knopfdruck Texte und Reden zu internationalen Themen entlang individuell gewählter Voreinstellungen. Die Gesellschaft für Internationale Zusammenarbeit (GIZ) schließlich hat zusammen mit der Mozilla Stiftung offene Sprachdatensätze in Entwicklungsländern aufgebaut. Diese sollen KI-Innovationen in global wenig verbreiteten, aber regional von vielen Menschen genutzten Sprachen ermöglichen, zum Beispiel Kinyarwanda, Kiswahili und Luganda in Ostafrika.

Kontrollproblem

Gerade die sogenannten large language models (LLMs) mit ihrer ungeheuren Rechenleistung zum Verarbeiten von bis zu 1000 Milliarden Parametern stehen aktuell im Vordergrund der Debatte. Das Training mit riesigen Datenmengen und das selbständige „tiefe“ Maschinenlernen zwischen den unzähligen Knotenpunkten (nodes) schaffen neuronale Netzwerke mit eigenen Funktionslogiken. Das Ergebnis einer Dateneingabe kann daher niemand erklären, auch nicht die Programmierenden: Die KI wird zu einer „Black Box“ – oder zumindest zu einer dunkelgrauen.

Daraus ergibt sich ein Kontrollproblem. Denn es ist nicht klar, wie Menschen eine verlässliche, gerechte und sichere KI schaffen können, wenn sie die im Hintergrund laufenden Prozesse nicht verstehen und die Daten nicht nachvollziehen können, mit denen die Modelle trainiert wurden. Das schließt latente, erst nach längerer Anwendung zu Tage tretende Diskriminierung und die Verstärkung bestehender gesellschaftlicher Konfliktlinien ebenso ein wie die mögliche Fähigkeit einer KI, sich selbst zu replizieren oder ungefragt gefährliche Fähigkeiten einzusetzen.

Dies sind zwar nicht per se Probleme der Außenpolitik, sie werden auch von ihr nicht gelöst werden können. Doch muss sie sich dieser Herausforderung bewusst sein, wenn sie KI sinnvoll und effektiv einsetzen will. Es besteht die Gefahr, dass das technisch Machbare – und im kommerziellen Rahmen bereits Umgesetzte – die Diskussion bestimmt und letzteres nicht bei den Bedürfnissen ansetzt. Dabei sollte dieses ausschlaggebend sein dafür, was öffentliche Einrichtungen wie Ministerien zukünftig für hoheitliche Aufgaben entwickeln – anstatt dass Diplomatinnen und Diplomaten lediglich eine proprietäre Software nutzen, um Sachstände besser oder schneller zu verfassen beziehungsweise Sitzungen einfacher protokollieren zu können.

Wieso, weshalb, warum: KI-Tools richtig nutzen

Das setzt jedoch voraus, dass „die Außenpolitik“ definiert, was genau sie mit einem bestimmten KI-Tool erreichen möchte – also die zentralen Ministerien, relevante Thinktanks und Forschungseinrichtungen sowie zivilgesellschaftliche Akteure, aber auch ausgewählte Tech-Unternehmen. Denn das Übersetzen politischer Konzepte in eine IT-Anwendung erfordert ein intensives Nachdenken darüber, wie man was in welchen technischen Begriffen ausdrückt.

Um die wunderbare Welt der KI-Tools nutzen zu können, müssen Außenpolitikerinnen und Außenpolitiker bald bestimmte Inputs wie Strategien, Statistiken, Echtzeitdaten und Gesprächsprotokolle klar definieren und festlegen, wie diese verarbeitet werden sollen, um einen sinnvollen Output zu erzielen. Vor diesem Hintergrund war es keineswegs zu früh, dass das Data Innovation Lab des Auswärtigen Amts in Berlin im Oktober zu einem ganztägigen Workshop „KI und Außenpolitik“ einlud, um mögliche konkrete Anwendungsfälle von KI zu skizzieren. Die Ergebnisse dieser ersten Runde im Kreis deutschsprachiger Expertinnen und Experten werden derzeit in einer Diplomacy AI Challenge weiterentwickelt und dann 2024 mit internationalen Partnern diskutiert.

Das Zerlegen von Strategien und Politiken in definierbare und ausführbare Teile für die Nutzung von KI wird die Art und Weise, wie Diplomatie betrieben wird, in den kommenden Jahren grundlegend verändern. Nur dann kann diese Technologie dazu beitragen, die Außenpolitik zu verbessern – und diese wiederum die vom KI-Einsatz ausgehenden potenziellen Gefahren für die Menschheit abwenden.

Bibliografische Angaben

Internationale Politik, online exklusiv, 01. November 2023

Teilen

Themen und Regionen

Mehr von den Autoren

Dr. Cornelius Adebahr ist selbständiger politischer Analyst und Berater in Berlin und Rom. Als Policy Fellow der Alfred Herrhausen Gesellschaft seit 2019 hat er das Erstellen eines Online-Toolkits „Democracy by Design“ für die Fortbildung zu ethischer KI in Tech-Start-ups und IT-Firmen begleitet.