Der Transformer-Moment
Die Entwicklung Künstlicher Intelligenz macht rapide Fortschritte. Kann die globale Regulierung Schritt halten?
Die Technologie besaß revolutionäres Potenzial. Bereits in den ersten Jahren hatte sich angedeutet, dass sie der Menschheit völlig neue Pfade eröffnen würde. Pfade, die in den zivilisatorischen Fortschritt, aber auch in gefährliche Sackgassen führen konnten. An deren Ende der Sieg über Krankheiten und Hunger wartete; oder aber irreparabler Schaden für Menschheit und Umwelt. Die etwa 150 Wissenschaftler und Regierungsvertreter, die sich im kalifornischen Pacific Grove versammelt hatten, standen unter Druck. Am Ende eines einjährigen Entwicklungsmoratoriums galt es, nicht nur ethische Fragen zu klären, sondern auch konkrete technische Sicherheitsvorkehrungen zu verankern. Selbst verfeindete Staaten hatten deshalb Vertreter geschickt. Am Ende ging die Asilomar-Konferenz von 1975 in die Geschichtsbücher ein: Den Biologinnen und Biologen gelang es, einen Rahmen für die Gentechnik zu setzen. Sie erklärten, welche Forschung erlaubt sein sollte und welche nicht, und sie führten für Gen-Experimente eine vierstufige Sicherheitsskala ein.
Der Asilomar-Schlussbericht wurde zur Blaupause, nach der viele Länder ihre eigenen Sicherheitsregeln für die Gentechnik entwickelten. Zugleich ebnete er der Biotechnologie den Weg, global ein führender Forschungs- und Wirtschaftszweig zu werden.
Die Parallelen zur Gegenwart scheinen auf der Hand zu liegen. Die sogenannte „generative KI“, die in Text-zu-Bild-Generatoren wie Stable Diffusion oder Chatbots wie ChatGPT zum Einsatz kommt, führt der Welt seit 2022 das Potenzial selbstlernender Systeme deutlich vor Augen. Künstliche Intelligenz ist kein Zukunftsversprechen mehr, das seine Gegenwart in der Nische fristet. Sondern eine Technologie, die mit Macht in unseren Alltag drängt – und dabei, wie einst die Gentechnik, Projektionsflächen für zivilisatorische Prognosen bietet.
Da wären die Versprechen der neuen KI-Modelle: neue Medikamente und Behandlungsmethoden in der Medizin, dauerhafte Produktionssteigerungen, Effizienz im Kampf gegen die Klimakrise und persönliche Entlastung durch allwissende Assistenzsysteme.
Auf der anderen Seite die Gefahren: Massenarbeitslosigkeit durch Automatisierung, eine Flut synthetisch erzeugter Desinformation, undurchsichtige und diskriminierende KI-Entscheidungen, eine Weltwirtschaft in der Hand weniger Digitalkonzerne. Und, im Fokus der medialen Aufmerksamkeit: zivilisatorische Gefahren von Cyberbedrohungen über todbringende automatische Waffensysteme bis zu einem System, das sich gegen seine menschlichen Schöpfer wendet. „Gott rette uns, wenn wir gottgleiche Kräfte erhalten, um das Rote Meer zu teilen“, sinnierte der Metaphern-Freund Tom Friedman, „es aber nicht schaffen, dabei die zehn Gebote durchzusetzen.“
Tatsächlich wird derzeit auf der Weltbühne diskutiert, wie eine länderübergreifende KI-Regulierung aussehen könnte und welche Institutionen dafür geeignet wären. Die Vereinten Nationen? Eine Form von internationaler KI-Behörde, ähnlich der Atomenergiebehörde IAEA? Ein Multi-Stakeholder-Ansatz wie das Internet Governance Forum? Noch hat sich kein Modell herauskristallisiert, zu unterschiedlich sind die Interessen. Dabei trifft die Weltgemeinschaft das Thema nicht unerwartet. Im Gegenteil: Seit Mitte der 2010er Jahre beschäftigen sich Regierungen und internationale Organisationen weltweit damit. An Arbeitsgruppen, Anhörungen und Strategiepapieren mangelte es nicht.
Eine unvollständige Aufzählung: Die Empfehlungen des amerikanischen National Science and Technology Council zur Vorbereitung auf das KI-Zeitalter (2016), Chinas „Entwicklungsplan für eine neue Generation Künstlicher Intelligenz“ (2017), die OECD-Empfehlungen des Rates für Künstliche Intelligenz (2019), die KI-Strategien von Bundesregierung (2018) und Europäischer Kommission (2020), parlamentarische Findungsmissionen zu den Auswirkungen Künstlicher Intelligenz in Frankreich (2018) und Deutschland (2018–2020), Japans „Soziale Prinzipien für menschenzentrierte KI“ (2019), Dubais „Prinzipien und Richtlinien der KI-Ethik“ (2019). Auch in Asilomar trafen sich übrigens wieder Wissenschaftler (2017) – dieses Mal, um Leitsätze für nutzbringende KI zu verabschieden. Die Liste ließe sich fortsetzen. Die dort festgelegten Prinzipien ähneln sich: KI soll dem Menschen dienen, Risiken müssen minimiert werden, Entscheidungen der Systeme kontrollier- und nachvollziehbar bleiben. Doch wenn es konkret wird, wenn es um eine verbindliche und flächendeckende Umsetzung geht, steht die Weltgemeinschaft noch ziemlich am Anfang.
Das liegt vor allem daran, dass sich die technischen Grundlagen in der KI seit 2017 massiv verändert haben. Damals stellten Forscher von Google mit ihrem Papier „Attention is all you need“ („Aufmerksamkeit ist alles, was nötig ist“) eine neue Architektur für das Training neuronaler Netze vor. Vereinfacht gesagt können die neuen „Transformer“-Modelle den Kontext von Wörtern besser erkennen und alle Datenpunkte parallel statt abgestuft verarbeiten. Das macht die neuronalen Netze leistungsstärker, effizienter und in verschiedensten Feldern anwendbar. Die vielleicht wichtigste Konsequenz aber: Die „Foundation Models“ genannten Systeme lassen sich immer weiter vergrößern und mit wachsenden Datenmengen füttern – vorausgesetzt, man wendet genügend Rechenkraft auf. Allerdings, das zeigen die „Halluzinationen“ genannten Falschaussagen dieser Modelle, macht das Hochrüsten die Modelle nicht unbedingt verlässlicher, sicherer oder nachvollziehbarer.
Mit solchen neuen Anwendungs- und Problemfeldern hat die Realität die Vorschläge, ihrer Herr zu werden, überholt. Als die EU-Kommission im April 2021 einen ersten Entwurf für den „AI Act“ vorstellte, fehlten Verweise auf Foundation Models oder generative KI wie GPT-N. Die Anwendungen waren damals schlicht noch zu unbekannt. Das hat sich inzwischen geändert: Microsoft-Gründer Bill Gates stellt KI-Modelle auf Transformer-Basis auf eine Stufe mit der Erfindung des Mikroprozessors, des Internets und des Smartphones. „Sie werden verändern, wie wir arbeiten, lernen, reisen, medizinisch behandelt werden und miteinander kommunizieren“, so Gates’ Ausblick.
Die Geschwindigkeit der Adaption scheint ihm recht zu geben. Denn anders als die Gentechnik Anfang der 1970er Jahre ist die Transformer-KI kein Laborversuch. Sondern verbreitet sich unter den Bedingungen von Software im Zeitalter globaler Konnektivität: direkt, viral und mit rasender Geschwindigkeit. Selbst Facebook benötigte einst noch viereinhalb Jahre, um erstmals 100 Millionen Nutzer zu erreichen. OpenAIs generativer KI ChatGPT gelang das innerhalb von gut zwei Monaten. Technologisch lässt sich der Fortschritt gerade eher in Tagen als Monaten messen. Und mit 40 Milliarden US-Dollar allein im ersten Halbjahr 2023 fließen Rekordsummen von Risikokapital in das Feld.
Die Gesellschaft kommt mit dem Anpassen ihrer Strukturen dem Tempo der Technik kaum noch hinterher
Die technischen Grundlagen unserer Gesellschaft scheinen sich also einmal mehr schneller zu verändern, als wir unsere Strukturen anpassen könnten. Als würde man einen Hochgeschwindigkeitszug an sich vorbeirasen sehen, während man noch durch das labyrinthartige Bürokratiegeflecht des Ticketing-Systems navigiert. Ökonomen und Soziologen beschreiben diesen „Lag“, die verzögerte Anpassung an technologische Entwicklungen, bereits seit Anfang des 20. Jahrhunderts. Der US-Ökonom Thorstein Veblen hatte den Siegeszug von Telegraf, Eisenbahn, Elektrizität und die Frühphase des modernen Finanzkapitalismus hautnah miterlebt. Und erkannte darin ein Spannungsfeld: Technologischer Fortschritt trieb die Veränderung der Gesellschaft voran, während die Institutionen dieser Gesellschaften dazu neigten, den Status quo zu erhalten.
Zeiten fehlender Regeln
Veblens Zeitgenosse, der Soziologe William Fielding Ogburn, stellte fest: Diese konservativen Bemühungen sind in der Regel vergeblich. Die nichtmaterielle Kultur (Gesetze, Überzeugungen, Institutionen) passt sich zu langsam an die technologischen Veränderungen an. Das führe zu einer längeren Phase, in der die Gesellschaft Schwierigkeiten habe, die neue Technologie effektiv zu bewältigen: dem sogenannten „Culture Lag“, der in der Regel auch ein „Law Lag“ ist – also eine Zeit der fehlenden Regeln.
Die Digitalisierung scheint Ogburns These zu untermauern. Zwischen der Gründung von Facebook und dem Inkrafttreten der europäischen Datenschutz-Grundverordnung (DSGVO) lagen zwölf Jahre. Der „Digital Services Act“, der Internetplattformen in Europa Vorgaben zum Umgang mit illegalen Inhalten macht, ging erst 2023 online.
Institutionen tun sich noch offensichtlich schwer damit, die Regulierung der neuen Digitaltechnologien korrekt zu kalibrieren
Vor allem aber zeigt sich, dass sich Institutionen schwertun, die Regulierung der neuen Digitaltechnologien korrekt zu kalibrieren: So wissen europäische Nutzer trotz DSGVO weiterhin nicht, wie genau die amerikanischen Tech-Firmen ihr Verhalten überwachen und die entstehenden Daten verarbeiten. Start-ups wiederum kritisieren, dass die Regulierungsdichte inzwischen zu einem Marktvorteil für die US-Digitalkonzerne mit ihren XXL-Rechtsabteilungen geworden sei. Entsprechend stoßen aktuelle Forderungen der KI-Anbieter, sich regulieren lassen zu wollen, auf Misstrauen: „Wenn diese Technologie schiefgeht, kann sie ziemlich schiefgehen“, hatte OpenAI-Chef Sam Altman in einer Anhörung vor dem amerikanischen Senat im Mai gesagt. „Wir möchten mit der Regierung zusammenarbeiten, um das zu verhindern.“ Er habe auch kein Problem damit, durchgehend Regierungsbeamte in den OpenAI-Büros zu beherbergen.
Ein ernsthaftes Angebot? Das Publikum einer Start-up-Konferenz in Los Angeles antwortete im September mit einem Sprechchor, den der Investor Bill Gurley angestimmt hatte: „Regulierung bevorzugt die etablierten Firmen!“ Das Phänomen heißt „Regulatory Capture“; dabei versuchen Unternehmen, einen bestehenden technischen Vorsprung zu zementieren, indem sie den Gesetzgeber zu Regulierungen ermuntern, die Eintrittsschwellen für Wettbewerber erhöhen.
Das Echo dieses Schlachtrufs ist auch aus der europäischen Digitalbranche zu hören: Denn anders als die USA gibt es dort bislang noch kein einziges KI-Unternehmen, das global wettbewerbsfähig ist.
Vor den finalen Trilog-Verhandlungen des AI Act werden deshalb Warnungen laut, die neue Regulierung könnte den gesamten Sektor sowie den Einsatz von KI auf dem Kontinent insgesamt abwürgen. Zum Beispiel, wenn die Foundation Models grundsätzlich als Hochrisiko-KI eingestuft werden – und Anbieter damit alle denkbaren Nutzungsszenarien ihrer Kunden vorhersehen müssten, um Haftungsansprüche auszuschließen. Auf der anderen Seite kritisieren zivilgesellschaftliche Organisationen, dass der neuen Technologie zu viel Spielraum gelassen wird. Entwickler dürfen laut Entwurf des AI Act zum Beispiel das Risiko herkömmlicher KI-Systeme per Selbstauskunft festlegen. Das sei nicht unbürokratisch, sondern ein inakzeptables Schlupfloch, so die Kritik – es brauche eine objektive, rechtlich sichere Risikoklassifikation.
Dieser Konflikt zeigt nur eines der Spannungsfelder der KI-Kontrolle. Wie im Datenschutz hat Europa den horizontalen Weg gewählt – ein Regelwerk für KI, das über sämtliche Felder hinweg gilt. Überprüft werden soll es weitestgehend durch nationale KI-Behörden. Wobei es durchaus einen Unterschied machen dürfte, ob ein EU-Land diese Aufsicht beim obersten Datenschützer oder im Wirtschaftsministerium ansiedelt.
China setzt in der Digitalisierung auf Kontrolle und im Zweifel auch auf Abschottung
Global aber setzt sich von China bis Großbritannien ein vertikaler Ansatz durch, also die Ergänzung einzelner Felder wie Arbeits-, Gesundheits- oder Medienrecht um KI-Aspekte. Selbst der prominente amerikanische Kartellrechtler Tim Wu, der Unterstützung von Big Tech unverdächtig, gab jüngst zu Protokoll, dass eine nationale KI-Behörde wettbewerbsrechtlich eher schade als helfe. Deshalb ist unklar, ob mit dem AI Act erneut der „Brüssel-Effekt“ eintritt, bei dem Europas Gesetzgebung qua Marktgröße zum Vorbild für weitere Weltregionen wird. Denn derzeit buhlen fast alle Weltregionen darum, KI-Standort der Zukunft zu werden und richten ihre Regulierung dementsprechend aus.
Die Golfstaaten locken Firmen und Entwickler mit Milliardeninvestitionen und laxen Regeln. Abu Dhabi zeigte jüngst mit „Falcon 180B“, dem bislang größten Sprachmodell auf Open-Source-Basis, dass man zur Weltspitze in Forschung und Entwicklung aufschließen möchte. Japans Regierung hingegen überlegt, das Urheberrecht für das Training von KI-Modellen auszusetzen: Dies könnte Firmen aus dem Westen anziehen, die sich nicht mit Kreativschaffenden auseinandersetzen möchten, die für die Nutzung ihrer Werke zu Software-Trainingszwecken entschädigt werden wollen.
Die amerikanische Politik wiederum hat die KI-Branche bereits lange als staatlicher Auftragnehmer gefördert – eine Firma wie Palantir hätte es ohne Kunden wie Militär und CIA deutlich schwerer gehabt. Und der US-Kongress begnügt sich, trotz anderslautender Rhetorik, in Regulierungsfragen absehbar vorwiegend mit freiwilligen Selbstverpflichtungen.
China dagegen strebt explizit die „KI-Dominanz“ an. Mit Peking und Schanghai weist man die Städte mit der größten Konzentration an KI-Fachkräften weltweit auf. Die Firma „SenseTime“ gilt als weltweit führend in Sachen Gesichtserkennung, einer Technologie, die die Kommunistische Partei zur Weiterentwicklung des allwissenden Leviathans nutzt. So wie das Land insgesamt seine Strategie beibehält, in der Digitalisierung auf Kontrolle und im Zweifel auch auf Abschottung zu setzen. „Regierung und Firmen begegnen sich nicht auf Augenhöhe“, analysierte die China-Kennerin Karen Hao, „es gibt eine Menge Reibungsverluste im System.“
So stehen die wichtigsten KI-Entwicklungszentren des Landes, Alibabas DAMO-Akademie und Tencents AI Lab, unter deutlichem Einfluss der Regierung. Die erließ außerdem ein Verbot für generative KI, „jede Form von Inhalt auszugeben, die staatliche Macht untergräbt, den Umsturz des sozialistischen Systems befürwortet, die Teilung des Landes vorantreibt oder die nationale Einheit beschädigt“.
Die nationalen Bedingungen und Interessen sind also denkbar unterschiedlich. Wie sich unter diesen Voraussetzungen eine globale Form von Regulierung herausbilden soll, ist derzeit unklar. UN-Generalsekretär António Guterres brachte deshalb die Einrichtung einer UN-Agentur für Künstliche Intelligenz ins Spiel, für die er vor dem Zukunftsgipfel im September 2024 um Zustimmung wirbt.
Begrenztes Vertrauen in die UN
Allerdings ist das Vertrauen in die Handlungsfähigkeit der Vereinten Nationen überschaubar, zumal der Diskussionsprozess über einen Teilaspekt, den Umgang der Weltgemeinschaft mit autonomen Waffensystemen, schon länger keine Fortschritte macht. Zivilgesellschaftliche Vertreter fürchten zudem, anders als bei Prozessen wie dem Internet Governance Forum von wichtigen Beratungen ausgeschlossen zu werden.
Ein anderes Vorbild wiederum hat durch einen popkulturellen Erfolg Zuspruch erhalten: Teile der KI-Szene interpretierten Christopher Nolans Film „Oppenheimer“ als Warnung für die Gegenwart. Sie halten deshalb eine Organisation nach dem Vorbild der IAEA für notwendig, um Regeln für KI zu entwickeln und zu überprüfen.
Allerdings gibt es einen Unterschied zu Atom- und Genlaboren: Der Zugang zu digitalen Ressourcen ist praktisch unmöglich zu kontrollieren. Paul Scharre vom Thinktank „Center for A New American Century“ argumentiert dennoch, dass es ein Äquivalent zu waffenfähigem Uran und Plutonium gebe: die Hardware, die für die benötigten Großrechenzentren zur KI-Entwicklung notwendig ist. „Von allen technischen Eingaben – Algorithmen, Daten und Computerhardware – ist die Hardware am besten kontrollierbar. Im Gegensatz zu Daten und Algorithmen sind Chips eine physische Ressource, die kontrolliert werden kann.“ Indirekt wenden die USA diese Strategie bereits an, indem sie im geopolitischen Konflikt mit China Exportkontrollen im Zusammenhang mit High-End-Chips verhängt haben.
Statt eines Moratoriums erscheint derzeit am wahrscheinlichsten die Einsetzung eines wissenschaftlichen Beratungsgremiums
Freiwillige Selbstbeschränkungen in der KI-Entwicklung, und das global: Derzeit klingt das noch nach Science-Fiction. Ein Moratorium, wie es bei der Gentechnik verfügt wurde und wie es auch mehr als 1000 Wissenschaftler im März forderten, erscheint unrealistisch. Am wahrscheinlichsten erscheint die Einsetzung eines wissenschaftlichen Beratungsgremiums, über das beim internationalen KI-Sicherheitsgipfel der britischen Regierung Anfang November beraten werden soll.
Allerdings warnen nicht nur berufsmäßige Technologiekritiker wie Tristan Harris davor, dass ein Kontrollverlust droht. „Ein paar wenige Leute glaubten daran, dass dieses Zeug einmal schlauer als der Mensch sein wird. Aber die meisten dachten, das wäre noch lange hin“, erzählte im April Geoffrey Hinton, der „Pate des Deep Learnings“, der New York Times. „Ich habe auch geglaubt, dass das noch 30 bis 50 Jahre oder länger dauern könnte. Offenkundig glaube ich das nicht mehr.“
„Alignment Problem“ nennt sich die Herausforderung, die sich so übersetzen lässt: KI soll das tun, was wir wollen, aber auch das, was wir meinen. Damit ist nicht unbedingt die Sorge vor einer sich verselbständigenden Künstlichen Allgemeinen Intelligenz gemeint, die den Menschen bekämpft. Vielmehr tauchen schon jetzt in jedem Update der Transformer-Modelle Verhaltensweisen und Fähigkeiten auf, die vorher nicht prognostiziert werden konnten – ungefähr das Gegenteil dessen, was sich hinter Forderungen wie „Verlässlichkeit“ oder „Nachvollziehbarkeit“ verbirgt.
Der ehemalige KI-Unternehmer Charles Hennigs schlägt deshalb drastische Schritte vor: „Wir müssen Schlüsselbereiche der KI verstaatlichen“, forderte er in einem Beitrag für Politico. Die US-Regierung solle die wichtigsten KI-Bereiche einem unabhängigen Gremium, der noch zu gründenden „Humane AI Commission“ unterstellen. Und so weltweit Standards für die Entwicklung sicherer und menschenzentrierter KI setzen. Dass den USA eine Schlüsselrolle zukommt, steht angesichts der sich abzeichnenden Marktdominanz amerikanischer KI-Unternehmen außer Frage. Mitte September trafen sich deshalb Dutzende Senatoren hinter verschlossenen Türen mit Vertretern der Zivilgesellschaft und den Chefs der wichtigsten KI-Konzerne, von Sam Altman bis Mark Zuckerberg.
Der gewitzte KI-Beobachter Zvi Mowshowitz notierte danach in seinem Newsletter: „Alle waren da. Alle sind sich einig, dass etwas getan werden muss. Sie können sich jedoch nicht darauf einigen, was genau zu tun wäre.“
Internationale Politik 6, November/Dezember 2023, S. 18-24
Teilen
Themen und Regionen
Artikel können Sie noch kostenlos lesen.
Die Internationale Politik steht für sorgfältig recherchierte, fundierte Analysen und Artikel. Wir freuen uns, dass Sie sich für unser Angebot interessieren. Drei Texte können Sie kostenlos lesen. Danach empfehlen wir Ihnen ein Abo der IP, im Print, per App und/oder Online, denn unabhängigen Qualitätsjournalismus kann es nicht umsonst geben.