Titelthema

30. Okt. 2023

„KI ist ein sehr konservatives Instrument“

Alte Daten werden in die Zukunft fortgeschrieben; Unternehmen werfen unreife Technologien auf den Markt, ohne neu entstehende Probleme zu beachten: ­Risiken und Chancen der Grundlagentechnologie.

Bild
Bild: Portät von Judith Simon
Prof. Dr. Judith Simon ist Inhaberin des Lehrstuhls für Ethik in der Informationstechnologie an der Universität Hamburg. Sie beschäftigt sich mit der Verschränkung ethischer, erkenntnistheoretischer und politischer Fragen im Kontext von Big Data, Künstlicher Intelligenz und Digitalisierung im Allgemeinen. Prof. Simon ist auch Mitglied des Deutschen Ethikrats.
Lizenz
Alle Rechte vorbehalten

IP: Frau Professorin Simon, Künstliche Intelligenz findet derzeit so viel Aufmerksamkeit wie nie zuvor. Warum?

Judith Simon: Das liegt vor allem an ChatGPT. Dies hat der Entwicklung allgemein und generativer Künstlicher Intelligenz (KI) insbesondere einen Schub gegeben. Mit ChatGPT war plötzlich ein Tool auf dem Markt, das täuschend echt Text und Bilder produziert und welches man leicht und sehr breit anwenden kann, genauso simpel wie eine Suchmaschine. Schulen und Universitäten waren direkt betroffen, in Form von neuen Betrugsmöglichkeiten, sowie viele Menschen, die besorgt auf ihre berufliche Zukunft blicken. Auch wurde gleich mit visuellen Deepfakes, also mit realistisch wirkenden Medieninhalten, experimentiert. So etwas greifen dann auch Medien gern auf und fungieren als Debattenbeschleuniger. Und auf einmal haben alle KI als KI verwendet.



Natürlich ist KI-Nutzung nichts Neues, denn Künstliche Intelligenz ist ja schon länger eingebettet zum Beispiel in Suchmaschinen oder in Empfehlungssoftware, aber da wurde sie nicht so stark als KI wahrgenommen. ChatGPT hingegen produziert Sprache und Bilder, es interagiert mit einem – und erscheint dabei „intelligent“. Das erinnert an den Turing-Test, entworfen 1950 von dem britischen Informatiker Alan Turing, der Künstliche Intelligenz daran festmachte, dass menschliche Nutzer nicht mehr unterscheiden können, ob sie mit einem Menschen oder einer Maschine interagieren.

 

Wer sind denn die Treiber dieser Entwicklung – die Unternehmen oder eher die Politik?


Ganz klar die Unternehmen – vor allem amerikanische Unternehmen, aber nicht nur. Den KI-Bildgenerator „Stable Diffusion“ haben beispielsweise Robin Rombach und das Team um Björn Ommer von der Ludwig-Maximilians-­Universität München entwickelt. Und auch andere technologische Grundlagen werden häufig per Open Source zur Verfügung gestellt. Zur Vermarktung bringen sie dann aber oft US-Unternehmen.



Wir sehen hier vor allen Dingen einen kommerziellen Push – einen Wettbewerb, an dem auch große Unternehmen wie ­Google beziehungsweise Alphabet und Microsoft beteiligt sind, unter anderem darum, wer wann mit seinen großen Sprachmodellen an die Öffentlichkeit tritt. Man kann es mit einem Fehlstart bei ­einem Rennen vergleichen: ChatGPT ist schonmal losgesprintet …



… nach dem alten Facebook-Motto „Move fast and break things“? Man bringt neue, potenziell disruptive An­gebote auf den Markt, ohne auf die ­Folgen zu schauen?

Meiner Meinung nach ist das das Hauptproblem der Entwicklung. Ich habe weniger Sorge, dass sich KI irgendwie selbstständig entwickelt. Meine Sorge sind Leute, die aus Geschäftsinteressen unreife Technologien auf den Markt werfen, dann die Sekundäreffekte outsourcen und sagen: „Da kümmert man sich später drum“ oder „Da kümmern sich andere drum“.



Das ist besonders ärgerlich, wenn dann Personen wie Sam Altman, der CEO von OpenAI, das ChatGPT auf den Markt gebracht hat, zeitgleich einen Moratoriumsaufruf unterschreibt und auf einmal so tut, als sei Künstliche Intelligenz eine Naturgewalt und nicht etwa ein Produkt seiner Firma, für das er Verantwortung trägt.



Was die Bewertung von ChatGPT selbst angeht, schwanke ich, ehrlich gesagt, in meiner Einschätzung. Die Entwicklung hat mich selbst überrollt – und ich war auch ein bisschen irritiert, dass es mich so überrollt hat, obwohl ich mich ziemlich intensiv damit beschäftige. Andererseits ging es vielen meiner Informatik-Kolleginnen und -Kollegen genauso. Grund für die massiven Veränderungen war ja nicht, dass es so große Fortschritte in den technologischen Grundlagen gegeben hätte, sondern die massive Nutzung durch den freien Zugang übers Internet. Und das war eben eine wirtschaftliche Entscheidung – zu sagen: Wir bieten dieses Tool an, obwohl wir wissen, dass es bestimmte Probleme gibt, vor allem rund um systematische Verzerrungen, sogenannten Biases.



ChatGPT erlaubt nun nicht nur, es mit allem Möglichen zu füttern, man kann es dann auch gleich wieder ausspucken. So könnte das ganze Web mit falsch generiertem Content vollgemüllt werden. Unternehmerisch scheint mir das kein sehr weitblickendes oder vertrauenswürdiges Agieren.



Sie sprachen schon davon: Dieses Jahr gab es zwei Aufrufe, das Training von KI-Systemen für mindestens sechs Monate auszusetzen, der zweite unterzeichnet auch von führenden Köpfen der Entwicklung wie Altman. Wie schätzen Sie diese Aufrufe ein?

Ich bin sehr gespalten. Beim ersten Aufruf vom 22. März hatte ich auch das Gefühl: Die Entwicklung überrennt uns. Einen Pausenknopf zu drücken, ob realistisch oder nicht, wäre eine gute Sache. Das klingt vielleicht naiv, aber das war mein erster Impuls. Ich kannte einige der ersten Unterzeichnerinnen und Unterzeichner aufgrund gemeinsamer Forschung. Auf der anderen Seite waren auch viele nicht gerade vertrauenswürdige Unterzeichner dabei – Elon Musk beispielsweise, der sein eigenes KI-Projekt verfolgt und bestimmte Interessen hat.



Inhaltlich teilen viele bestimmte Sorgen, wenn es um Datenschutz, Voreingenommenheit („bias“) und Diskriminierung geht. Das im Aufruf enthaltene Zukunftsszenario, dass KI die Weltherrschaft übernehmen könnte, teilen allerdings viele nicht und ich auch nicht. Bei diesem ersten Moratorium ging also vieles durcheinander – viele unterschrieben, um ein Zeichen zu setzen, selbst wenn sie diese endzeitlichen Befürchtungen nicht haben.



Der zweite Moratoriumsaufruf von Ende Mai war dann nur noch ein großes Ärgernis: Die Leute, die ChatGPT gepusht und auf den Markt geworfen haben, taten nun so, als hätten sie damit nichts zu tun, als sei es nicht eine Technologie, für die sie selbst teilweise verantwortlich waren. Das war einfach absurd.



Wie, denken Sie, wird denn KI die Politik verändern, mit Blick auf das nächste Jahr und die Präsidentschaftswahlen in den USA?

Ich kann da nur spekulieren. Natürlich kann man KI zur Wahlbeeinflussung nutzen, Deepfakes erwähnten wir ja schon. Nationale oder auch internationale Akteure könnten damit das Web fluten. Allerdings stellt sich mir die Frage, wie wirksam das wäre. Man lässt sich meistens in die Richtung beeinflussen, in die man ohnehin schon denkt. Dennoch könnte es diesen schon vorhandenen Trend verstärken.



Die zweite Frage wäre, in welcher Art und Weise KI für politische Entscheidungen eine Rolle spielt. Damit verbunden ist dann die Diskussion, auf welche Länder man sich verlässt, wenn es um die technische Infrastruktur, um die Software und die Hardware geht, und in welchen Abhängigkeitsverhältnissen man sich möglicherweise befindet. Und es wird ja ein Wettkampf zwischen China und den USA heraufbeschworen – Europa ist da ein bisschen dahinter. Was man dabei aus dem Blick verliert, ist natürlich der ganze Rest der Welt: Auch dort gibt es massive Machtkämpfe, die gerade um Technolo­gien geführt werden.

„Die deutsche Öffentlichkeit, die Politik und auch die Wissenschaft waren viel zu naiv, was die Forschungszusammenarbeit mit China angeht“



Das geht einher – angetrieben von der Erfahrung der Corona-Pandemie und Russlands Überfall auf die Ukraine – mit einer stärkeren Fokussierung darauf, wie man lokal weniger abhängig werden kann. Prinzipiell ist es auch sehr sinnvoll, dass man resilienter wird durch eine Reduzierung von Abhängigkeiten. Aber dies führt zumindest in der Wissenschaftspolitik zu einer starken Abgrenzung von Interak­tion mit anderen Ländern. Und an diesem Punkt bin ich mir nicht so sicher: Ist das ein Trend, also die Abkehr von internationalen Vernetzungen, auf den man wirklich so einfach aufspringen sollte? Die deutsche Öffentlichkeit, die Politik und auch die Wissenschaft waren viel zu naiv, was die Forschungszusammenarbeit mit China angeht. Und jetzt wird stark auf die Bremse getreten. Aber nicht mehr miteinander zu reden oder zusammenzuarbeiten, kann ja auch nicht die Lösung sein.



Beim KI-Wettrennen zwischen China und den USA geht es ja vor allem um die militärische Anwendung von KI …

Man muss sich klarmachen: Künstliche Intelligenz ist eine Grundlagentechnologie. Wenn wir über KI reden, reden wir vor allem über den Umgang mit gigantisch großen Datenmengen – zu analytischen Zwecken, zur Klassifikation, zur Prognose. Klar ist auch: Das kann man nicht nur für die Wettervorhersage nutzen, sondern auch in allen möglichen militärischen Kontexten, bis hin zu Drohnen, automatischen Waffensystemen und ähnlichem. KI ist sozusagen ein Multi-­Purpose-Tool. Gesichtserkennungssoftware kann man einsetzen, um am Flughafen die Abfertigung von Reisenden zu beschleunigen, aber auch, um Dissidenten aufzuspüren.



Damit will ich sagen: KI ist sehr breit einsetzbar, und das macht sie sehr nützlich, aber auch sehr gefährlich. Und wenn man zwei sehr große Länder hat, die in einem strategischen Wettbewerb miteinander stehen, ist das beunruhigend. Aktuell versucht man zu verhindern, dass der andere eine Vormachtstellung erringt, und bestimmte technologische Ressourcen spielen dabei eine große Rolle. Deswegen gibt es da auch diese Entscheidungen, dem anderen den Zugriff zu erschweren. Wie realistisch das ist, dafür fehlt mir ­ehr­licherweise der Einblick.



Inwiefern lässt sich KI überhaupt regulieren? Die EU geht mit ihrem „Artificial Intelligence Act“ voran, es gibt weitere Initiativen. Wie beurteilen Sie solche Bemühungen?

Es ist wichtig, im Kopf zu behalten: Man reguliert nicht die KI, sondern man reguliert die Leute, die KI einsetzen oder entwickeln. Man reguliert, indem man Anreize oder Strafen setzt für Personen, dass sie bestimmte Dinge tun oder unterlassen. Und das kann man sehr gut. Allerdings müssen die Strafen so hoch sein, dass sie auch wehtun, wenn man sich nicht an die Vorgaben hält. Deswegen ist es wichtig, sich auf europäischer Ebene zusammenzutun; ein einzelnes Land ist nicht aus­reichend relevant. Letztendlich bedürfte es aber einer globalen Übereinkunft.



Die EU spielt jedoch schon eine Rolle. Die europäische Datenschutz-Grundverordnung ist, bei aller Kritik, zumindest ein Hebel, der beispielsweise gegenüber ChatGPT und generativer KI auch genutzt wurde, beispielsweise in Italien. So konnte man dem Unternehmen erst einmal Einhalt gebieten.

Bietet KI mehr Vor- oder mehr Nachteile – wenn man auf Individuen, Gesellschaften, politische Systeme beziehungsweise die Welt insgesamt schaut?

Meine Antwort ist eine doppelte: Als Grundlagentechnologie mit sehr weitgefächerten Einsatzmöglichkeiten bietet Künstliche Intelligenz sehr viele Chancen, aber eben auch Risiken. Dabei sind die Risiken am größten für diejenigen, die in der Gesellschaft ohnehin schon benachteiligt sind.



Das liegt daran, dass wir es, bevor wir überhaupt von generativer KI sprechen, mit datenbasierten Systemen zu tun haben. Künstliche Intelligenz wird eingesetzt, um Vorhersagen zu treffen, ob jemand beispielsweise kreditwürdig ist oder ob jemand straffällig wird; ­letzteres heißt „predictive policing“. In dieser Art von Entscheidungsunterstützung diskriminieren diese Systeme, weil sie auf Daten trainiert sind, die diese Ungleichheit und Ungerechtigkeiten ab­bilden und dementsprechend in die Zukunft fortführen.



Und das halte ich für die größte Gefahr: KI ist so gesehen ein sehr konservatives Instrument, weil man aus der Vergangenheit gewonnene, alte Daten in die Zukunft fortschreibt. Wenn man nicht aktiv dagegenwirkt, auch technisch, ist sie eine Technologie mit inhärentem Konservatismus.



Die Fragen stellten Martin Bialecki, Uta Kuhlmann und Henning Hoff.

Bibliografische Angaben

Internationale Politik 6, November Dezember 2023, S.25-29

Teilen