Weltspiegel

14. Febr. 2024

KI-Strategie? Fehlanzeige

Die deutsche Politik rätselt, wie Mensch und Maschine effektiv zu kombinieren seien. Dabei ist die dritte Revolution in der Waffentechnologie längst da – und viel Konkurrenz.

Bild
Bild:Bei einer Übung mit dem deutschen Abwehrsystem Patriot testen Soldaten einen Störsender, der Drohnen ausschalten soll.
Welche Leitlinien gelten für die Beziehung Mensch–Maschine in der Waffentechnologie? Bei einer Übung mit dem deutschen Abwehrsystem Patriot testen Soldaten einen Störsender, der Drohnen ausschalten soll.
Lizenz
Alle Rechte vorbehalten

Der Einsatz von Künstlicher Intelligenz (KI) war eines der heiß diskutierten Themen im vergangenen Jahr. Ob der Hype um ChatGPT oder autonom fahrende Autos – KI-Spezialisten jeder Couleur haben viele, viele Seiten gefüllt (siehe auch das Titel­thema der IP 6/2023). Nur ein Thema bleibt seltsam ausgeblendet, obwohl es ebenfalls uns alle betreffen wird: der Einsatz von KI in Waffensystemen. Die Politik schenkt der dritten Revolution in der Waffentechnologie – nach der Erfindung des Schießpulvers und der Atombombe – wenig Beachtung. Ist das Ignoranz? Oder schlicht Unwissen? „Uns fehlt die Fachexpertise“, bekennt der CDU-Verteidigungsexperte Roderich Kiesewetter, der im Auswärtigen Ausschuss sitzt. Oder vielleicht die Ahnung, dass man mit diesem Thema politisch beim Wähler nicht punkten kann? „Wir stehen da noch ganz am Anfang“, sagt Wolfgang Hellmich, Obmann der SPD-Fraktion im Verteidigungsausschuss.

Während andere Nationen, allen voran die USA, China, aber auch Frankreich, bereits seit Jahren KI-Strategien speziell für den militärischen Bereich entwickelt haben, steht Deutschland blank da. „Das war bislang etwas für Nerds im Elfenbeinturm“, sagt ein hochrangiger Beamter aus dem Bundesverteidigungsministerium. Die Enquetekommission Künstliche Intelligenz des Bundestags hingegen erwartete bereits in der letzten Legislaturperiode von der Politik: „Die Bundesregierung muss ein sicherheitspolitisches Leitlinien­dokument zum militärischen Einsatz von KI erarbeiten, wie es andere Staaten bereits haben. Hier sollten die Grundsätze und die Grenzen für die Mensch-­Maschine-Interaktion festgeschrieben werden. Dazu muss auch eine breite gesellschaftliche Debatte zum Einsatz von KI in der Sicherheits- und ­Verteidigungspolitik angestoßen und gefördert werden.“

Von einer „breiten gesellschaftlichen Debatte“ allerdings kann auch heute keine Rede sein. Immerhin hat sich ein Bündnis aus Rüstungsindustrie und Forschung Mitte 2023 mit einem Appell an die Politik gewandt. Der 2020 gegründete Arbeitskreis KI & Verteidigung, dem Vertreter des Bundesverbands der Deutschen Sicherheits- und Verteidigungsindustrie (BDSV) sowie Wissenschaftler eines Instituts der Fraunhofer-Gesellschaft und der Universität der Bundeswehr München angehören, forderte in einem Impulspapier: „Die Politik muss eine nationale militärische KI-Strategie liefern, die angesichts der aktuellen Technologieentwicklung einerseits und der Bedrohungslage für Landes- und Bündnisverteidigung andererseits unerlässlich erscheint.“ Allerdings, so Hans Christoph Atzpodien, Hauptgeschäftsführer des BDSV und einer der Autoren des Dokuments, sei das Papier „weitgehend ungehört verhallt“. 


„Ethik kann man nicht nachrüsten“

Dabei sei die Definition des Verhältnisses Mensch-Maschine, so Mitautor Wolfgang Koch, Professor am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie, entscheidend für eine KI-Regelung. Zwei Fragen stehen im Vordergrund: Wann ist die Maschine leistungsfähiger als der Mensch? Und wo muss die menschliche Kontrolle ansetzen: „Wir müssen das tun, bevor wir etwas entwickeln. Ethik kann man nicht nachrüsten.“ Dies sei auch wichtig für die Soldaten und Soldatinnen: „Sie müssen in der Lage sein, Verantwortung tragen zu können, auch in autonomen Waffensystemen. Dazu brauchen sie eine Grundlage.“ 

Die meisten Wissenschaftler, die zum Einsatz von KI in Waffensystemen forschen, sind sich schon länger einig: „Deutschland braucht dringend eine militärische KI-Strategie, um sowohl die positiven als auch die negativen Konsequenzen des Einsatzes neuer Technolo­gien bestimmen zu können“, sagt Vanessa Vohs, wissenschaftliche Mitarbeiterin im Projekt AI For Defense an der Universität der Bundeswehr München. Gerade eine deutsche KI-Strategie ist wichtig für die zukünftige Interoperabilität in der NATO, aber nicht nur das: „Die Bundesrepublik riskiert, den Anschluss zu verlieren und setzt somit ihre Verteidigungsfähigkeit aufs Spiel.“

Geschehen ist bislang nicht viel. Um nicht zu sagen: politisch fast nichts. Eine Umfrage unter den Fraktionen im Bundestag zeigt: Das Thema KI im militärischen Bereich spielt keine nennenswerte Rolle. Es fehlt vor allem an Expertise und Fachleuten. Zuletzt gab es Anfang 2020 im Bundestag eine Debatte über den Einsatz von autonomen Waffen. Im November 2020 beschäftigte sich der Unterausschuss Bildung, Forschung und Technologiefolgenabschätzung mit dem Thema. Fragt man bei einzelnen Abgeordneten nach, sprechen viele sofort von der Ächtung sogenannter „lethal autonomous weapons“ (LAWS), also tödlichen Systemen, die komplett ohne menschliche Kontrolle funktionieren. In den letzten drei Koalitionsverträgen wurde der deutsche Einsatz von LAWS ausgeschlossen. Im Koalitionsvertrag der jetzigen Ampelregierung heißt es: „Letale autonome Waffensysteme, die der Ver­fügung des Menschen entzogen sind, lehnen wir ab.“

Innerhalb der Wissenschaft aber ist die politische Fokussierung auf die LAWS umstritten. Ob sie schon zum Einsatz gekommen sind, darüber sind sich die Experten uneins. Deshalb spricht man in Fachkreisen lieber von einer „Autonomie in Waffensystemen“. Die allerdings hat sich durch den russischen Angriffskrieg in der Ukraine rasant weiterentwickelt, so die Drohnen-Expertin Ulrike Franke vom European Council on Foreign Relations: „Künstliche Intelligenz zur Lageerkennung oder Bild­analyse und auch im Bereich Autonomie ist in der Ukraine längst im Einsatz.“ Interessant seien Drohnen, die in Schwärmen fliegen können. „­Momentan heißt ‚Schwarm‘ aber in der Regel nur eine Masse an Drohnen. Echte Schwärme sind Formationen, in denen einzelne Drohnen miteinander kommunizieren und sich Aufgaben teilen oder übergeben können. Aber auch das steht bevor.“ Für KI-Forscherin Anja Dahlmann vom Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg bedeutet das: „Deutschland braucht eine klare Leitlinie, zum Beispiel eine Position des Bundestags oder des Verteidigungsministeriums: Was sind die roten Linien? Was sind die rechtlichen und ethischen Standards und wie sollen die umgesetzt werden?“


„Leitplanken ja, Feinregulierung nein“

Die Bundestagsfraktionen der Ampel sind sich aber über die Bedeutung einer solchen KI-Strategie uneinig. „Wir haben den militärischen Teil bislang einfach ausgeblendet“, bekennt der SPD-Verteidigungspolitiker Hellmich. „Aber eine solche Strategie ist notwendig, weil wir in Deutschland eine Parlamentsarmee haben.“ Entscheidend sei, dass man sich auf parlamentarischer Ebene „ein Lagebild“ über den Stand des Einsatzes von KI in Waffensystemen verschaffen müsse. Seit Ende 2023 befasst sich die AG Sicherheit und Verteidigung in der Fraktion mit diesen Fragen, auch mit Hilfe externer Expertinnen und Experten. „Es gibt da einen großen Erkenntnisbedarf“, so Hellmich, „sowohl was die technologische Entwicklung betreffe als auch die ethischen Fragen.“

 

Impulse für eine KI-Strategie kann der Bundestag ­setzen. Noch wichtiger sind internationale Regeln

 

Für die stellvertretende Fraktionsvorsitzende der Grünen Agnieszka Brugger steht fest: „Das Parlament muss sich auch jenseits der Fachexpertise einzelner Mitglieder intensiv und vor allem kontinuierlich mit dem Thema auseinandersetzen.“ Allerdings macht sie auch deutlich: „Das Parlament kann hier Impulse setzen – was wir aber brauchen, sind internationale ­Regeln.“ 

Bei der FDP ist man skeptisch, was eine deutsche KI-Strategie für den Militärbereich bringen soll. „Wir brauchen eine europaweit abgestimmte Regelung“, erklärt Alexander Müller, verteidigungspolitischer Sprecher der FDP-Bundestagsfraktion. Der Informatiker befürchtet, dass mögliche zu enge Regeln die Forschung einschränken könnten. Alle bislang bekannten Systeme, die mit KI arbeiten, wie das Flugabwehrraketensystem Patriot oder das Waffenleitsystem einer Fregatte, funktionieren ohne Regulierung. „Ich würde gern ein System kennen, wo konkret Regeln nötig wären. Leitplanken ja, Feinregulierung nein.“

Mit der Entwicklung des Future Combat Air System (FCAS) jedoch, dem größten europäischen Rüstungsprojekt mit vor allem deutscher und französischer Beteiligung, wird die Frage nach der Rolle von KI in den Waffensystemen der Zukunft zunehmend virulent. Weite Teile dieses hochkomplexen „system of systems“ benötigen klare Anforderungsprofile an das ethische Design, also die Frage nach der Definition des Verhältnisses von Mensch und Maschine. 

Aus diesem Grund fordert die Industrie, wie im Impulspapier des Arbeitskreises KI & Verteidigung dargelegt wird, eine tragfähige Leitlinie. Hier gehe es auch um Wettbewerbsfähigkeit, so BDSV-Haupt­geschäftsführer Atzpodien: „Bei uns sind internationale Konzerne organisiert, die längst an KI-gestützten Systemen ­arbeiten. Wir wollen wissen, was wir weiter entwickeln dürfen, vor allem aber auch in der Lage sein, weiterhin das entwickeln zu dürfen, was unsere Streitkräfte für ihren durchweg defensiven Auftrag benötigen.“

Für den CDU-Außenpolitiker Kiese­wetter besteht deshalb dringender Handlungsbedarf, wobei auch er selbstkritisch einräumt, dass „wir bislang andere Schwerpunkte hatten“. Das soll sich ändern. Seit Ende Januar ist der CSU-Abgeordnete Reinhard Brandl, promovierter Informatiker, damit beauftragt, die Unions­fraktion zum Thema KI und Waffensysteme auf den letzten Stand zu bringen. Kiesewetter sieht die Gefahr, dass „wir ähnlich wie bei der Diskussion über die Bewaffnung von Drohnen, die zehn Jahre gedauert hat, der technischen Entwicklung politisch hinterherlaufen“. Die Ampelregierung müsse deshalb eine KI-Strategie entwickeln, auch als logische Fortsetzung der Nationalen Sicherheitsstrategie, die zwar die Ächtung der LAWS erwähnt, aber keine weitere Regelung. 

Wie wichtig eine parlamentarische Ini­tiative für eine militärische KI-Strategie wäre, erklärt KI-Expertin Vohs: „Diese könnte den Druck auf das Verteidigungsministerium erhöhen. Bislang wurde das Ministerium nicht tätig und beabsichtigt nicht, dies zeitnah zu tun, obwohl andere Partner wie die USA, Frankreich oder die Niederlande längst eine solche Strategie besitzen.“ Auch in der Bundeswehr gibt es einzelne Überlegungen, allerdings keine umfassende, verbindliche Leitlinie, die die Beziehung Mensch–Maschine definieren würde. Das Amt für Heeresführung hat 2019 das Konzeptpapier „Künstliche Intelligenz in den Landstreitkräften“ herausgegeben. Darin steht: „Der Mensch muss die Entscheidungsgewalt über Leben und Tod behalten. Es gilt das Prinzip wirksamer menschlicher Kontrolle.“ Was daraus resultiert, bleibt unklar. 

Dabei könnte der Blick auf andere europäische Länder helfen, die längst eine KI-Strategie für ihre Waffensysteme haben oder daran arbeiten. So verfügt Frankreich seit 2019 über eine nationale KI-Strategie für den Verteidigungsbereich. Wie ein ­roter Faden zieht sich das Prinzip der „meaningful human control“ als Anforderung an neue Technologien durch das Konzept. Überprüft wird dies durch eine extra eingerichtete Ethikkommis­sion des Verteidigungsministeriums. Der französische Ansatz einer Priorisierung von ethischen Aspekten hat viele Experten überrascht. „Ich hätte aufgrund der strategischen Kultur Frankreichs und des Stellenwerts militärischer Macht nicht mit einem so prominenten Fokus gerechnet“, erklärt Heiko Borchert, Ko-Leiter des Defense AI Observatory (DAIO) an der Helmut-Schmidt-Universität/Universität der Bundeswehr Hamburg. In einer Studie zu KI-Strategien im militärischen Bereich, die das DAIO für mehrere europäische Staaten veröffentlicht hat, wird Frankreich als führende „AI nation“ in Europa bezeichnet.

 

Ethik im Vordergrund: 
Das zeigt auch ein Blick nach Frankreich, Finnland oder in die Niederlande

 

Finnland, als neues Mitglied der NATO, verfügt zwar seit 2017 über eine innovative nationale KI-Strategie, die jedoch nicht speziell auf den militärischen Bereich abgestimmt ist. Ähnlich wie in Deutschland nimmt das Thema KI in Waffensystemen erst jetzt Fahrt auf. Dabei spielt das Bekenntnis zur menschlichen Kontrolle zwar eine Rolle, folgt aber einem pragmatischen Ansatz. In Finnland ist KI im zivilen Sektor und auch in der Ausbildung sehr ­wichtig, und so steht die Beschäftigung mit KI schon seit Längerem auf dem Lehrplan der Nationalen Verteidigungsuniversität. Die Führungsakademie der Bundeswehr in Hamburg plant dies erst für dieses Jahr. 

Wie in Deutschland steht auch für die Niederlande die ethische Frage beim Einsatz von KI im Vordergrund. „Die Einführung neuer Technologien in der Verteidigung bietet Chancen, birgt aber auch Risiken. Wie können KI-gesteuerte Systeme unter menschlicher Kontrolle bleiben?“ Unter dieser Überschrift beschäftigt sich das „Elsa Lab Defence“ mit der Implementierung eines ethischen Designs in autonomen Waffensystemen. Im Unterschied zu Deutschland arbeiten hier – staatlich finanziert – Verteidigungsministerium, Streitkräfte, Universitäten und Thinktanks eng zusammen. In sogenannten „use cases“ wird der Einsatz von KI durchgespielt. Eine der ersten Studien untersuchte die Rolle von Emotionen beim Einsatz von KI. 

Stichwort Emotionen: Ein Grund, warum viele Parlamentarier mit dem Thema KI im militärischen Bereich fremdeln, mag vielleicht auch an der Stimmung in der Gesamtbevölkerung liegen. „Es spielt bei mir im Wahlkreis keine Rolle“, ist eine gängige Antwort. Und wenn, dann schwinge bei KI oft die Vorstellung mit, außer Kontrolle geratene „Killerroboter“ à la Terminator wollten die Menschheit vernichten. Deshalb hat die Enquetekommission Künstliche Intelligenz schon 2020 deutlich gemacht: „Einer Emotionalisierung der Diskussion im Bereich Verteidigung in Richtung ‚Mensch oder KI?‘ sollte mit sachlichen Argumenten entgegengewirkt werden. Vielmehr muss es darum gehen, wie eine möglichst effektive Kombination von Mensch und KI gelingt“. Denn eines ist sicher: Die dritte Revolution in der Waffentechnologie hat längst begonnen.

Für Vollzugriff bitte einloggen.
Bibliografische Angaben

Internationale Politik 2, März/April 2024

Teilen

Nana Brink ist freie Autorin und Moderatorin, sie schreibt u.a. über Sicherheitspolitik und transatlantische Beziehungen.


 

0

Artikel können Sie noch kostenlos lesen.

Die Internationale Politik steht für sorgfältig recherchierte, fundierte Analysen und Artikel. Wir freuen uns, dass Sie sich für unser Angebot interessieren. Drei Texte können Sie kostenlos lesen. Danach empfehlen wir Ihnen ein Abo der IP, im Print, per App und/oder Online, denn unabhängigen Qualitätsjournalismus kann es nicht umsonst geben.