Leitplanken statt Laisser-faire
Nur wenn wir mit den Risiken der KI entschlossen umgehen, können wir ihre Chancen für Wirtschaft und Gesellschaft nutzen. Die Weichen müssen wir jetzt stellen.
Künstliche Intelligenz – eine kurzlebige Spielerei, ein unreflektierter Hype? Bei nicht wenigen Beobachtern ist zuletzt dieser Eindruck entstanden. Das hat viel mit populären Anwendungen wie ChatGPT, dem Text-zu-Bild-Generator DALL-E oder dem Video-Übersetzungstool HeyGen zu tun, die alle Aufmerksamkeit auf die neue Technologie gelenkt haben. Tatsächlich ist KI eine Schlüsseltechnologie mit großem Veränderungspotenzial, und sie verlangt einen ernsthaften und umfassenden politischen und regulatorischen Umgang. Die bisher öffentlich ausgerollten Modelle sind nur die Spitze des Eisbergs eines technologischen Trends, dessen Wachstum kaum aufzuhalten scheint.
Angetrieben durch Innovationen beim Deep Learning haben KI-Modelle in den vergangenen zehn Jahren eine erstaunliche Entwicklung durchlaufen. Sie bestanden Versionen des Turing-Tests, des ehemaligen Goldstandards für KI auf menschlichem Niveau, und erreichten binnen weniger Jahre im Wortsinne übermenschliche Fähigkeiten in einem Spektrum von Bilderkennung bis Sprachverständnis. Daneben zeigen die Modelle beeindruckende mathematische Skills und erzielten überdurchschnittliche Ergebnisse in Universitätsprüfungen.
Die Entwicklungsdynamik folgt dabei bislang simplen Zusammenhängen, den sogenannten Scaling Laws: Je mehr Rechenfähigkeit und Datenbasis der Entwicklung zugrunde gelegt werden, desto leistungsfähiger werden die Modelle. Dank der erheblichen Investitionen in die technische Infrastruktur ist laut Beobachtern, Experten und Entwicklern kein Ende des Anstiegs der KI-Fähigkeiten in Sicht.
Stunde der Mitbestimmung
Entscheidungen über Chancen und Risiken dieser Entwicklung für unsere Gesellschaft wurden bisher im Wesentlichen hinter den verschlossenen Türen weniger KI-Entwickler getroffen – weit abseits von demokratisch legitimierter Gemeinwohlorientierung und Fragen der Verhältnismäßigkeit. Nun scheint die Stunde der demokratischen Mitbestimmung gekommen. Die EU arbeitet an einem umfangreichen AI Act, die britische Regierung lädt zum AI Safety Summit ein, in den USA plant man parteiübergreifende Gesetzesvorhaben. Entscheidende Weichenstellungen stehen an; umso wichtiger ist es, dass sie auf einem nüchternen Verständnis von Risiken und Chancen fußen, das sich weder in naivem Tech-Optimismus noch in einer Verkennung der Möglichkeiten verliert.
Risiken bestehen auf zwei Ebenen: Kontrollrisiken entstehen, wenn die KI durch Fehler in der Entwicklung unaufgefordert etwas tut, das die Entwickler nicht vorgesehen hatten. Missbrauchsrisiken entstehen, wenn Nutzer die KI für schädliche Zwecke einsetzen, was durch Schwachstellen in der KI begünstigt wird. Wenn wir diesen Risiken mit Umsicht und Kontrolle begegnen, können wir ein Vertrauen in KI-Modelle schaffen, durch das ein Ausschöpfen der Chancen überhaupt erst möglich wird.
Wenn die KI nicht tut, was wir wollen
Ein wesentlicher Teil der Entwicklung moderner KI ist eine Trainingsphase, in der die Modelle erst maschinelles und dann menschliches Feedback für ihre Leistungen erhalten. Dieses Feedback fließt schrittweise ein, bis nach vielen tausend Runden das finale Modell entsteht. Abkürzungen, etwa durch oberflächliches oder rein maschinelles Feedback, führen zu Fehlern. Wenn allzu selbstbewusste und eindimensionale Antworten über Gebühr gelobt werden und zurückhaltende und abwägende Einschätzungen über Gebühr getadelt, tendiert das Modell später zu fehlerhaften oder allzu einseitigen Darstellungen. Es entsteht eine KI, die im Feedbackprozess und Ersteindruck beeindruckend fähig erscheint, in der Nutzung aber fatal unzuverlässig ist und durch unberechenbare Aussetzer auffällt. Die Nutzbarkeit führender Modelle leidet schon heute unter diesen fehlerhaften Ausgaben, man nennt sie Halluzinationen.
Berichte von Gesprächen machten die Runde, in denen der Chatbot Nutzer bedrohte oder einschüchterte
Neben derartigen Halluzinationen kann ein solches Kontrollproblem zu erratischem und sogar schädlichem Verhalten der KI-Modelle führen. Ein gutes Beispiel dafür ist Microsoft, das in einer Beta-Version das unsauber trainierte Sprachmodell Bing auf Basis von GPT-4 veröffentlichte. Daraufhin machten Berichte über Konversationen Schlagzeilen, in denen der Chatbot Nutzer bedrohte oder einschüchterte. Das ist die Konsequenz aus fehlerhaftem Training und der mangelnden Robustheit der Modelle: In unbekannten Situationen kann es dadurch zu unvorhergesehenem und unerwünschtem Verhalten kommen.
Bings Fähigkeiten waren limitiert. Es hatte keinen vollständigen Internetzugang, keine Kommunikationsmöglichkeit, keinen Gedächtnisspeicher, keinen Zugriff auf den eigenen Computercode. Das nächste fehlerhafte Modell könnte bereits deutlich leistungsfähiger sein, und ein Kontrollverlust über das übernächste Modell könnte, so warnen führende Experten, weit schlimmere Folgen haben. Seien es die erfolgreiche Täuschung und Manipulation von Nutzern oder Erpressungsversuche, seien es Cyberangriffe auf Vermögenswerte, kritische Infrastruktur und militärische Kapazitäten oder die Herstellung von Giftstoffen und tödlichen Krankheitserregern. Sicherheitslücken, die bei Bing noch harmlos schienen, könnten bei solchen Fähigkeiten dramatische Konsequenzen haben.
Dass es so schwierig für Entwickler ist, Zuverlässigkeit und Kontrolle zu garantieren, sollte nicht verwundern. Auf Deep Learning beruhende KI-Modelle sind technisch unzugängliche Black Boxes und nicht transparent auswertbar; unser Verständnis ihrer Fähigkeiten und Steuerbarkeit ist derzeit noch ausgesprochen rudimentär. Eine Lösung könnten verpflichtende Stresstests, Risikoabschätzungen und externe Experten-Evaluationen vor der Veröffentlichung sein. So ließen sich Schwachstellen und potenziell gefährliche Fähigkeiten in einem sicheren Trainingsumfeld identifizieren: etwa Versuche von Modellen, Nutzern oder Dritten zu schaden, sie zu manipulieren oder zu täuschen.
Internationale Abkommen und Kontrollen für das Trainieren, Testen und Veröffentlichen besonders fortgeschrittener Modelle könnten verhindern, dass solche Frühwarnzeichen erst dann entdeckt werden, wenn KI-Modelle bereits mit der realen Welt interagieren und realen Schaden anrichten können. Bevor wir eine Reihe von kritischen Fähigkeiten einsetzen, sollten sie noch besser erforscht werden, besonders was den unbeschränkten und unbeaufsichtigten Internetzugang betrifft oder die Fähigkeit zur Selbstoptimierung und Selbstvervielfältigung.
Wenn die KI macht, was Nutzer wollen
Mit einem KI-Modell, das genau das macht, was der Nutzer möchte, ist es jedoch nicht getan. Denn es entsteht ein erhebliches Missbrauchsrisiko, wenn die Nutzer schädliches Verhalten bewusst einfordern. Schon mit den heutigen Modellen lassen sich Videobotschaften verfälschen oder Propagandabotschaften über Social-Media-Bots verbreiten. Ebenso können diese Modelle für Überwachung genutzt werden oder als täuschend echter Gesprächspartner auftreten. Auf entsprechende Aufforderung stellen Sprachmodelle Instruktionen für die Herstellung von Sprengstoff, Gift oder Drogen bereit. Und auch wenn künftige Modelle versprechen, als virtuelle Laborhelfer die wissenschaftliche Forschung wesentlich zu beschleunigen – ebenso ließen sie sich für die Synthese von neuartigen Krankheitserregern einsetzen.
Sprachmodelle könnten Instruktionen für die Herstellung von Sprengstoff, Gift oder Drogen bereitstellen
Nun sind Technologien mit gefährlichen Kehrseiten natürlich nicht neu – wohl aber ist es der niedrigschwellige Zugang zu ihren schädlichen Fähigkeiten. Das kostengünstig zugängliche Sprach-Interface gängiger KI-Modelle kann mit etwas Geduld bereits von Laien navigiert werden. So erreichte ChatGPT zwei Monate nach der Veröffentlichung die 100-Millionen-Nutzer-Marke; noch wenige Jahre zuvor hatte Instagram dafür zweieinhalb Jahre gebraucht und davor das Mobiltelefon 16 Jahre.
Darin liegt eine präzedenzlose Demokratisierung von Spitzentechnologie, aber eben auch ein erhebliches Risiko: Während es früher einer tiefergehenden Expertise bedurfte, um groß angelegte Betrugskampagnen zu starten oder Sprengstoff herzustellen, stehen viele Fähigkeiten von KI-Modellen niedrigschwelliger zur Verfügung. Wenn sie nicht direkt abrufbar sind, so lassen sie sich durch vergleichsweise einfach durchzuführende Jailbreaks („Gefängnisausbrüche“) bekommen, also durch das nichtautorisierte Entfernen von Nutzungsbeschränkungen bestimmter Funktionen, die von den Herstellern serienmäßig gesperrt wurden.
Mit einer KI, die blind tut, was der individuelle Nutzer will, ist also noch kein sicheres Umfeld gewährleistet. KI-Modelle sollten und müssen künftig ab dem Beginn des Entwicklungsprozesses auch auf das Gemeinwohl ausgerichtet werden. So wäre es etwa möglich, Trainingssätze auf detaillierte Informationen über kriminelle Strategien und gefährliche Substanzen zu filtern. Trainingsprozesse können überwacht werden, etwa, indem man das KI-Modell extern evaluieren lässt. Missbrauchsmöglichkeiten ließen sich über verpflichtende Überprüfungen durch externe Organisationen ausfindig machen. Prüfungsmaßnahmen dieser Art könnte man in internationalen Regeln festschreiben.
Auch gegen die Proliferation von besonders leistungsfähigen Modellen, ob über Leaks oder Open Source, lässt sich etwas unternehmen. Ansonsten wäre es möglich, Leitplanken und Grenzen durch direkten Zugang zu den Modellparametern mit vergleichsweise geringem Aufwand quasi „zurückzutrainieren“. Der Umgang mit Open Source muss entsprechend kritisch hinterfragt und das Cybersicherheitsniveau der Entwickler angepasst werden.
KI als Tutor und Erklärer
Wenn wir die Gesellschaft an den Chancen teilhaben lassen wollen, die Künstliche Intelligenz bietet, dann müssen wir dafür sorgen, dass der niedrigschwellige Zugang zu KI-Fähigkeiten erhalten bleibt. Damit aber die KI-Modelle von morgen nicht gegen die Gesellschaft eingesetzt werden, muss mit wachsenden Fähigkeiten auch eine wachsende Missbrauchsresistenz einhergehen. Die Modelle müssen von Anfang an missbrauchssicher gedacht und entwickelt werden.
Denn in einem missbrauchssicheren Design von KI liegen ja nach wie vor große Chancen: So verspricht die Verwendung von Künstlicher Intelligenz als individueller Tutor und Erklärer rapide Fortschritte zugunsten einer besseren und gerechteren Bildung. Doch wenn Kinder ohne ständige Überwachung eigenständig auf KI-Modelle zugreifen können sollen, müssen wir uns sicher sein, dass das Modell nicht aus der Rolle fällt – es darf auf simple Anfragen hin weder den Bildungsauftrag unterwandern noch Zugang zu nicht altersgerechten Inhalten ermöglichen.
Tempo statt Sorgfalt
An Bekenntnissen der Entwickler zu Umsicht und Sicherheit mangelt es nicht. Doch die aktuellen Fehleranfälligkeiten sind ein erhebliches Defizit, wenn KI-Systeme zur Hochrisikotechnologie weiterentwickelt werden sollen, wie es die Entwickler anstreben. Missbrauchsanfälligkeit und Kontrollprobleme sind bei einer Nischenanwendung hinnehmbar, aber bei einem zentralen wirtschaftlichen und strategischen Gut inakzeptabel. Dass die freiwillige Selbstregulierung trotzdem nicht den Grad der Zuverlässigkeit erreicht, den sie verspricht, hat zwei Gründe.
Zum einen belohnt der Markt für Künstliche Intelligenz Schnelligkeit und Risikobereitschaft. Nehmen wir nur das Beispiel ChatGPT, Synonym und erste Anlaufstelle für Sprach-KI. Zahlreiche Anbieter haben Verträge mit dem Entwickler OpenAI abgeschlossen, Top-Talente wollten und wollen für das Unternehmen arbeiten, Kooperationspartner Microsoft hat in großem Maßstab in OpenAI investiert. Diskussionen zu Copyright und Datenschutz werden erst im Nachgang geführt.
Ob für zukünftige Sprachmodelle der nächsten Generation, Bild-, Video-, Ton- oder multimodale Modelle – die Industrie hat nachdrücklich gelernt, dass sich Eile lohnt – auch wenn dadurch Sicherheitslücken entstehen.
Zum anderen verweisen viele Entwickler auf das Wettrennen geopolitischer Blöcke um die technologische Vorreiterschaft. Sie argumentieren, Sicherheitsbedenken wäre dann am besten Sorge getragen, wenn ein westliches Labor den Entwicklern aus autoritären Staaten zuvorkomme. Das sind in der Tat Szenarien, die viele fürchten: von kompromittierter Cybersicherheit über die Manipulation demokratischer Wahlen bis hin zu militärischen Anwendungen. Das kommt den Entwicklern zupass: Als Dreh- und Angelpunkt der Zukunftstechnologien können sie auf Förderung und regulatorische Zurückhaltung hoffen.
Die KI-Industrie hat nachdrücklich gelernt, dass
sich Eile lohnt – auch wenn dadurch Sicherheitslücken entstehen
Doch schaut man auf den Stand der internationalen KI-Entwicklung, so überzeugt die Argumentation der Entwickler nicht vollständig: Derzeit gehen viele Beobachter noch von einem komfortablen Vorsprung der westlichen Entwickler aus. Zudem wurde infolge des US CHIPS Act Chinas Zugang zu internationalen Top-Talenten und der notwendigen Spitzen-Hardware auf Jahre dramatisch eingeschränkt. Auch die geostrategische Umsicht scheint also nicht zwingend ein regulatorisches Laisser-faire zu gebieten.
Aus der Eile der Entwickler folgen Unzuverlässigkeiten und Anfälligkeiten. Dabei könnten gerade die Unternehmen, die KI-Modelle weiterverwenden und implementieren – darunter viele deutsche kleine und mittelständische Unternehmen und Start-ups – von einer richtigen Balance zwischen Regulierung und Innovation profitieren. Je mehr sie sich auf die Integrität und Resilienz der Modelle verlassen können, desto größer wird das Vertrauen in die Technologie. Ohne starke Leitplanken für die Ausgangsmodelle wäre der gesamte restliche Sektor verantwortlich für Unzuverlässigkeiten, an denen er qua mangelndem Einfluss auf den Entwicklungsprozess nur schwer etwas ändern kann.
Leidtragende eines zu großen Tempos wären letztlich die schwächeren Glieder der Kette, die versuchen, die KI für Wirtschaft und Gesellschaft nutzbar zu machen. Mit jeder Regulierung, die den großen Modellentwicklern erspart wird, wird die restliche Wertschöpfungskette ungleich stärker belastet, auch und gerade in Deutschland und der EU. Hier sind die EU und ihre Mitgliedstaaten in der Verantwortung, das Equilibrium zu begünstigen, das der Markt verfehlt hat, um den KI-Sektor gerade im Binnenmarkt zu schützen und zu stärken.
Wichtige Weichenstellungen
Es macht die Dinge nicht einfacher, dass das regulatorische Umfeld der Künstlichen Intelligenz von der technischen Entwicklung schonungslos überholt worden ist. Die nationale Regulierung steckt zum Großteil noch in den Kinderschuhen, auch in Ländern, die führend in Sachen KI-Entwicklung sind. Der AI Act der EU ist ein Anfang – doch eine Handhabe, in die KI-Entwicklung sicherheitspolitisch souveräner Drittstaaten einzugreifen, bietet er nicht. Dennoch sollte ein ernsthafter Blick auf die Risiken und Chancen für Wirtschaft und Gesellschaft zu einem zügigen Verfahren und einem möglichst entschiedenen Umgang mit den leistungsfähigsten KI-Modellen motivieren.
Das regulatorische KI-Umfeld ist von der technischen Entwicklung schonungslos überholt worden
Den internationalen Sicherheitsrisiken wird kein nationaler Flickenteppich gerecht werden. Immerhin zeigt der Blick auf andere Phänomene, mit welcher Entschlossenheit die internationale Gemeinschaft Herausforderungen vergleichbarer Größe begegnen kann.
Zum Thema Klima etwa wurde schon 1988 das Intergovernmental Panel on Climate Change IPCC ins Leben gerufen, um unbekannten Risiken qualifizierte Einschätzungen entgegenzusetzen. Als es darum ging, wie die zivilen Potenziale einer Technologie von hohem militärischem Nutzen sicher genutzt werden können, wurde 1957 die Internationale Atomenergie-Organisation IAEA eingesetzt. Und wo Regulierungsbehörden und Unternehmen zu internationaler Standardisierung und Homogenisierung zugunsten sicherer Nutzung aufriefen, entstand 1944 die Internationale Zivilluftfahrtorganisation ICAO.
Vieles wird von der Fähigkeit von G7 und G20 abhängen, den Sprung von einem zahnlosen Minimalkonsens zu einer bedeutsamen Kooperation zu wagen – etwa beim Gipfel für KI-Sicherheit im Bletchley Park nordwestlich von London Anfang November. Die Zukunft der weiteren Entwicklung von KI hängt von Weichen ab, die wir heute stellen. Nur wenn wir mit ihren Risiken entschieden und international geschlossen umgehen, können wir die Chancen nutzen, die sie für Wirtschaft und Gesellschaft bietet.
Internationale Politik 6, November/Dezember 2023, S. 30-35
Teilen
Themen und Regionen
Artikel können Sie noch kostenlos lesen.
Die Internationale Politik steht für sorgfältig recherchierte, fundierte Analysen und Artikel. Wir freuen uns, dass Sie sich für unser Angebot interessieren. Drei Texte können Sie kostenlos lesen. Danach empfehlen wir Ihnen ein Abo der IP, im Print, per App und/oder Online, denn unabhängigen Qualitätsjournalismus kann es nicht umsonst geben.