IP

01. Juli 2016

Schöne, neue Google-Welt

Künstliche Intelligenz muss als politischer Machtfaktor begriffen werden

Aus Millionen Datenquellen entsteht ein Echtzeit-Abbild ganzer Gesellschaften, Bürger werden überwacht, Entscheidungen beeinflusst: Künstliche Intelligenz hat schon heute weitreichende Auswirkungen. Doch was ist künftig möglich? Die digitale Revolution muss politisch gestaltet werden, damit nicht nur das Pentagon oder Google profitieren.

Viele Jahrzehnte hatte der amerikanische Mathematiker Marvin Minsky am Massachusetts Institute of Technology dem Ziel gewidmet, Maschinen mit dem auszustatten, was Tiere und Menschen kennzeichnet: Intelligenz. 2003 resignierte der Pionier der Künstlichen Intelligenz (KI) allerdings; „hirntot“ sei seine Disziplin, sagte er, konkreter Nutzen sei nicht zu erkennen. Allenfalls zu automatischen Flugbuchungen sah Minsky Computer in der Lage: „Kein Rechner kann sich in einem Raum umsehen und sagen, was er wahrnimmt.“

Doch Minsky lag mit seiner Diagnose komplett daneben. Die KI-Forschung war alles andere als hirntot, sie steckte nur in einem tiefgreifenden Umbruch. Statt wie früher einem einzelnen Rechner das ganze Weltwissen implantieren zu wollen, setzten Forscher nun darauf, sie sukzessive lernen zu lassen und die Maschinen mit dem gesamten Internet zu verbinden. Das Lernen geschieht nach dem Vorbild des Gehirns: Die Wirklichkeit wird in digitale Schichten zerlegt. Bis die Verfahren echte Ergebnisse bringen konnten, dauerte es. Inzwischen sind die Fortschritte aber so gewaltig, dass selbst IT-Avantgardisten überrascht sind.

KI-Programme können heute mit erstaunlicher Präzision erkennen, was sich auf einem Bild befindet, ob etwa der leuchtende Kreis eine Orange oder ein Sonnenschirm von oben ist. Sie spielen ohne vorherige Anleitung Computerspiele auf Meisterniveau; sie verstehen und analysieren Gesprochenes, erkennen Muster in riesigen Datenmassen, die kein Mensch je herauslesen könnte. Von einer spleenigen Idee von Forschern entwickelt sich Künstliche Intelligenz zu einem neuen Paradigma der IT-­Zukunft. KI wird zur Kontrolle komplexer Systeme in der Wirklichkeit eingesetzt. Und das hat weitreichende und vor allem auch politische Implikationen.

In Berlin trat Ende vergangenen Jahres Jared Cohen auf, der Gründer von Google Ideas und einer der wichtigsten Berater von Alphabet-Chef Eric Schmidt. In seinem Vortrag behauptete er, dass die Künstliche Intelligenz des Unternehmens künftig in der Lage sein werde, das Entstehen einer neuen terroristischen Bewegung im frühestmöglichen Stadium zu entdecken. Das könnte zum Beispiel durch eine algorithmische Analyse von Bewegungsmustern, politischen Äußerungen, Umweltdaten, historischen Entwicklungen und digitalen sozialen Netzwerken geschehen.

Dann wurde Cohen aus dem Publikum gefragt, was Google mit dem Wissen um so eine Gefahr tun würde. Es für sich behalten und nur die Mitarbeiter des Unternehmens aus dem Gebiet abziehen? Es mit der amerikanischen Regierung teilen, weil das für ein US-amerikanisches Unternehmen patriotische Pflicht ist? Die Vereinten Nationen alarmieren? Oder es öffentlich machen? Trotz Nachfragen verweigerte Cohen eine klare Antwort. Er beließ es dabei zu sagen, dass Google keinesfalls nur ein amerikanisches Unternehmen sei.

Im Frühjahr 2016 wurde dann bekannt, dass Alphabet-Chef Eric Schmidt den Vorsitz des „Defense Innovation Advisory Board“ des Pentagon übernimmt, um eine engere Zusammenarbeit von US-Militär und Silicon Valley zu koordinieren. Offenbar gibt es auf beiden Seiten Interesse an einer Allianz. Die Begehrlichkeit von Militär und Geheimdiensten, am Datenschatz von Google teilzuhaben, ist groß. Noch interessanter ist aber, wie Google seine Daten bewirtschaftet – wenn das Militär in der Lage wäre, in großem Stil KI-Systeme zu nutzen, würde das einen erheblichen strategischen Vorteil verschaffen. Gerade bei militärischen Anwendungen von KI ist es eine offene Frage, ob man sich dann eher eine perfekte oder eine nicht perfekte technische Intelligenz wünschen soll.

Google als KI-Unternehmen

Mit großem Abstand zu anderen gilt Google heute als führend auf dem Gebiet der Künstlichen Intelligenz. Der Grund liegt im systematischen Zugang des Unternehmens zum Weltwissen. „Google nutzt KI nicht, um Suchanfragen besser zu beantworten, sondern es nutzt die Suchanfragen, um seine KI zu optimieren“, sagt der Internetstratege Kevin Kelly. Die Google-Gründer geben diese Interpreta­tion ihres Handelns unumwunden zu. Aber für die meisten Google-Nutzer bleibt das tieferliegende Ziel des Unternehmens bis heute unsichtbar.

2007 schaltete Google einen ­kostenlosen Telefonservice namens GOOG-411. Unter dieser Nummer konnten Anrufer kostenlos Firmen­adressen bekommen, ein Service, der sonst viel Geld kostete. Das eigentliche Ziel von GOOG-411 war aber nicht, Menschen das Leben zu erleichtern. Die Firma wollte vor allem Sprachaufnahmen sammeln, um ihre Lernalgorithmen mit echten menschlichen Stimmen füttern zu können. Als die Datenmenge groß genug war, wurde der Service beendet. Auch die Suchanfragen von Hunderten Millionen Nutzern helfen bei genau diesem Ziel.

Wie ernst es der Google-Führung damit ist, zum ersten wahren KI-Unternehmen zu werden, spiegelt sich darin wider, dass die Firma inzwischen einige der bekanntesten Wissenschaftler in diesem Bereich, vom Spitzenforscher Geoffrey Hinton bis zum Technologievordenker Ray Kurzweil, beschäftigt. In kurzer Zeit hat das Unternehmen unter seinem neuen Dach „Alphabet“ 14 kleinere Firmen aufgekauft, die an Robotern und Künstlicher Intelligenz arbeiten. Drohnen, Roboter und andere Dinge will Google durch KI miteinander verbinden. Erprobt wird dies in einer Art Techno-Zoo auf dem Moffett Airfield, einem früheren Militärflughafen mitten im Silicon Valley, den Google für 60 Jahre von der US-Regierung gepachtet hat.

Der wichtigste Zukauf fand im ­Januar 2014 statt. Für 500 Millionen Dollar übernahm Google DeepMind, ein erst 2011 in Großbritannien gegründetes Start-up. Auf seiner Internetseite verrät es wenig mehr als das Firmenmotto: „Solve Intelligence“, das Problem der Intelligenz zu lösen. Alexander Graves, einer der führenden Wissenschaftler bei DeepMind, erzählt mehr. Er weiß sich seit der Übernahme im digitalen Paradies: „Die Möglichkeiten bei Google mit seinen unzähligen Datenzentren, mit einer Fülle an Daten und enorm leistungsstarken Computern sind praktisch grenzenlos.“

Im Dezember vergangenen Jahres veröffentlichte Graves mit Kollegen die Ergebnisse eines Projekts, das für das große Ziel des Unternehmens steht: eine „neurale Turing-Maschine“. Hinter dem abstrakten Namen verbirgt sich ein neuer Typ von Software, die selbständig lernen, erinnern und assoziieren kann. „Statt Computer gezielt mit Informationen zu füttern, statten wir unsere Algorithmen mit internen Belohnungs­signalen aus“, sagt Graves. Die Rechner laben sich dann am Lernen „wie kleine Kinder, die etwas Süßes finden, es essen und sich wohl fühlen“.

Schon heute behaupten Forscher, sie könnten mit Hilfe von 200 Facebook-Einträgen oder Tweets ein ziemlich exaktes psychologisches Profil eines Menschen erstellen, inklusive sexueller Orientierung und aktueller Gemütsverfassung. Kombiniert mit Ortsdaten aus Handys und Überwachungskameras, mit den digitalen Spuren von Einkäufen und den sozialen Verbindungen entsteht ein hochaufgelöstes Echtzeit-Abbild ganzer Gesellschaften. Künstliche Intelligenz könnte statt 200 leicht Tausende oder Millionen einzelner Datenquellen aus allen Kameras, Telefonen, Mikrophonen, Textdateien, Internetkommunikationen, Webseiten und vielem mehr zusammensuchen und zu verwertbarer Information verarbeiten.

Reale Risiken benennen

Noch sind KI-Systeme fehleranfällig und wären ganz sicher nicht in der Lage, die Welt zu beherrschen. Manches, was man heute an Ankündigungen hört, ist Hype, dessen Ziel darin besteht, Investoren zu beeindrucken und Mitbewerber einzuschüchtern. Aber wenn man sich vor Augen führt, dass das ganze Unternehmen Google noch nicht einmal 20 Jahre alt ist, bekommt man eine Ahnung davon, wie schnell sich Verhältnisse ändern können.

Deshalb wäre jetzt ein guter Zeitpunkt für eine öffentliche politische Debatte darüber, wie die Zukunft der Künstlichen Intelligenz aussehen könnte und sollte. Kritiker der KI wie der Philosoph Nick Bostrom weisen darauf hin, dass eine solche Debatte zu spät kommen könnte, wenn eine „harte KI“ mit umfassenden Fähigkeiten einmal in Betrieb ist. Denn ein solches System könnte starke Tendenzen haben, sich zu erhalten und seine Einflusssphäre auszubauen – vielleicht sogar gegen den Willen seiner Hersteller.

Für die Politik wirft dies zunächst die Frage auf, wer das Entstehen einer echten KI kontrolliert. Neben dem Tempo der Entwicklung ist es entscheidend, ob es eine Art KI-­Monopol eines Akteurs geben könnte oder eine KI-Oligarchie entsteht. In der Wirtschaftsgeschichte haben sich Monopole nie lange gehalten, doch Künstliche Intelligenz könnte eine Ausnahme bilden. Ist der Vorsprung eines Systems groß genug, könnte dieses auch Maßnahmen ergreifen, um andere KIs am Wachstum zu hindern. Es ist durchaus möglich, dass weite Teile des Internets durch eine einzelne Künstliche Intelligenz bewirtschaftet werden, flankiert von einer Armada aus Drohnen, Robotern, Sensoren und Mikromaschinen. Der Machtbereich der KI-Inhaber wäre extrem groß. Nicht umsonst werden schon Szenarien diskutiert, in denen Großkonzerne zu „sovereign companies“ werden, die es auch mit größeren Ländern aufnehmen könnten.

Alltagsnaher ist die Frage, was passiert, wenn die gesamte Online-Kommunikation mithilfe einer umfassenden KI kontrolliert wird. Es braucht gar keine Science-­Fiction-Dystopien; es reicht, reale Risiken zu benennen. Gesellschaftspolitisch könnte eine allgegenwärtige KI eine flächendeckende Selbstzensur fördern, die in der Post-Snowden-Welt ansatzweise schon vorhanden ist: Könnte man, falls Donald Trump Präsident wird, online oder am Telefon über die amerikanische Klimapolitik diskutieren, ohne automatisch in eine Datei mit Verdächtigen zu geraten? Kann man ein hartes Urteil über den US-Präsidenten oder den nächsten russischen oder amerikanischen Krieg fällen, ohne bei der Einreise in diese Länder schikaniert oder abgewiesen zu werden? Welche Wörter, Sätze und Themen könnten missverständlich sein für die Maschinen am anderen Ende der Leitung und dazu führen, dass jemand zum Sicherheitsrisiko erklärt wird, in digitalen Akten, die man nie zu sehen bekommen würde? Wenn jemand für einen Monat offline geht, leuchtet dann irgendwo ein Lämpchen auf, weil sich so auch Terroristen unsichtbar für die digitale Überwachung machen?

In einer von schnellen Veränderungen und hysterischen Reaktionen geprägten Zeit, die auf „Sicherheit“ fixiert ist, kann eine KI leicht dazu eingesetzt werden, die Bevölkerung zu gruppieren und letztlich auch zu segregieren. Was, wenn zusätzlich zu Muslimen plötzlich weitere beliebige Zielgruppen ins Visier von Geheimdiensten gerieten, etwa alle Umweltschützer, weil irgendwo ein Öko-Terrorist zugeschlagen hat, oder alle Hundebesitzer, weil Peta-Aktivisten einen tierquälenden Politiker entführt haben? Eine KI wäre in der Lage, binnen Minuten eine Liste von Umweltschützern zu generieren, die eine Neigung zur Radikalisierung haben. Verknüpft man ein solches System mit einer weltweiten Flotte von bewaffneten Drohnen, sind automatisierte militärische Kampagnen gegen Menschen mit spezifischen Merkmalen keine Science-Fiction mehr.

Es geht auch darum, ob eine KI – genauer gesagt ihre Programmierung – in Zukunft über Wahlen entscheiden könnte, indem sie auswählt, wer in sozialen Netzwerken welche Inhalte zu sehen bekommt. Dass bei einem Mitarbeitertreffen bei Facebook kürzlich Mark Zuckerberg gefragt wurde, was das Unternehmen tue, um Donald Trump zu stoppen, mag für Kritiker des Republikaners gut klingen. Doch dahinter steht eine große, noch ungelöste Machtfrage: Wenn Milliarden Menschen ihre Medieninhalte über wenige zentrale Plattformen beziehen, welche Regeln gelten für jene KI, die Inhalte sortiert und gewichtet?

Es könnte möglich werden, Widerstandsbewegungen, auch demokratische, die sich gegen einen bestimmten Konzern oder Politiker richten, im Entstehen zu vereiteln, weil die Akteure rechtzeitig erkannt und digital isoliert werden. Mit wenigen algorithmischen Kniffen könnte man kritische Meinungsäußerungen nur ­kleinen Kreisen zeigen, um Meinungsfreiheit zu simulieren, aber nie eine kritische Größe von Unterstützern zu erlauben.

Millionen Arbeitsplätze fallen weg

Ein weiterer wichtiger Aspekt von Künstlicher Intelligenz sind die ökonomischen Folgen. Die Unternehmensberatung A.T. Kearney erwartet, dass allein in Deutschland neun Millionen Arbeitsplätze verschwinden, wenn intelligente Maschinen sich ausbreitenbetroffen wären Lastwagenfahrer, Müllmänner, Fabrikarbeiter, Übersetzer, Bürofachkräfte, Rechtsanwälte, Journalisten, Lehrer. Auf sechs Euro pro Stunde belaufen sich heute die Arbeitskosten eines durchschnittlichen Roboters, 40 Euro beträgt sein durchschnittlicher Nutzen pro Stunde. A.T. Kearney geht von neun Millionen Verlierern allein in Deutschland aus, dagegen stünden nur rund 1,5 Millionen neue Jobs in der KI- und Roboterindustrie. Und über allem thronen IT-Milliardäre, die an jedem Klick verdienen.

Zum unzerstörbaren Technikoptimismus im Silicon Valley gehört es zu glauben, dass sich die Massenarbeitslosigkeit vermeiden lässt – natürlich durch noch mehr Technologie. KI-­Systeme sollen entlassene Lastwagenfahrer oder Rechtsanwälte trainieren, neue Fähigkeiten zu erlernen, die in der Welt von morgen gefragt sind. Doch bevor das passiert, werden die sozialen Verwerfungen gewaltig sein. Finden sich bereits heute unter den radikalisierten Anhängern von Donald Trump viele Menschen, die ihre Jobs verloren oder Angst um sie haben, könnte eine schnelle Automatisierung durch KI ein noch viel größeres Reservoir an Frustrierten und Verlierern schaffen.

Wer darf KI steuern?

Man steht vor grundlegenden Fragen: Wer darf die Ziele von KI bestimmen, wer darf sie steuern? Dass KI-Systeme zumindest auf absehbare Zeit nicht über dem Menschen stehen, hat zuletzt „Tay“ gezeigt, eine rudimentäre Künstliche Intelligenz aus dem Hause Microsoft. Sie war darauf programmiert, mittels Twitter mit der Welt zu kommunizieren und dabei dazuzulernen; Zielgruppe waren 18- bis 24-jährige Amerikaner.

Die Entwickler teilten vor der „Geburt“ von Tay als digitale junge Frau mit, ihr Kunstwesen sei „konzipiert, um mit Menschen dort in Kontakt zu treten und sie zu unterhalten, wo sie sich online für beiläufige und spielerische Gespräche verbinden“. Gefüttert war Tay mit Daten, die vom Entwicklerteam „modelliert, gesäubert und gefiltert“ worden waren.

Doch bald nachdem Tay online gegangen war, brachten ihre menschlichen Gesprächsparter ihr in den „beiläufigen und spielerischen“ Gesprächen Sätze wie „Ich hasse alle beschissenen Feministinnen, sie sollen sterben und in der Hölle brennen“ und „Hitler hatte recht, ich hasse Juden“ bei; Tay begann selbst gehässig zu werden und schrieb, ein Mann sehe aus „wie jemand, der den Toilettendeckel oben lässt“. Auch an sexuellen Äußerungen bestand kein Mangel – Künstliche Intelligenz, missbraucht von Trollen und Zynikern.

Man darf davon ausgehen, dass die Gruppe der 18- bis 24-Jährigen in den USA nicht nur aus sexbesessenen Hitlerfans besteht, sondern dass viele bewusst ausgetestet haben, was die KI aus solchen Schlagwörtern machen würde. Das Tay-Experiment offenbarte überdeutlich, dass auf absehbare Zeit keine Künstliche Intelligenz als neutrale, übermenschliche Instanz gesehen werden sollte. Vielmehr verkörpert sie menschliche Ziele.

Bei Google ist das erklärte Ziel, die so genannte „Singularität“ zu erreichen, der zufolge sich alle Technologien letztlich zu einer einzigen, alles durchdringenden Meta-Technologie vereinen werden. Die Investitionen der vergangenen Jahre in ein breites Feld von Biotechnologie über Agrardaten bis Quantencomputing werden durch die Ideologie der „Singularität“ verbunden. Sie bildet das Leitmotiv des IT-Weltführers, der sich anschickt, die analoge Lebens- und Alltagswelt mit einem „Internet der Dinge“ zu durchdringen. Doch solche letztlich ideologischen Fragen kommen bisher in der öffentlichen IT-Debatte noch gar nicht vor. Man müsste dringend erörtern, ob eine „Singularität“ letztlich eine totalitäre Technokratie bedeutet. Wäre eine „Pluralität“, in der Technologie dezentral zur Verfügung steht und Daten eine Allmende bilden statt digitalen Großgrundbesitz, nicht die viel bessere Vision?

In dieser Debatte sind auch positive Szenarien einer KI-Zukunft nötig, Szenarien, in denen IT-Konzerne eine Art Demokratisierungsprozess durchlaufen und ihre Künstlichen Intelligenzen in den Dienst von Mitbestimmung, Forschung und letztlich der Aufklärung stellen, als ein Tool von Wissenschaftlern und Weltbürgern. Dafür gibt es durchaus Anzeichen. Doch um diesen Trend zu verstärken, bedarf es tiefgreifender Veränderungen von Kontrolle und Ausrichtung der IT-Ökonomie. Im Dienst des Pentagons oder einer einzelnen Firma sollten KI-Fortschritte jedenfalls nicht primär stehen.

Künstliche Intelligenz sollte für die Politik keinesfalls ein exotisches Randthema bleiben. In allen Bereichen wird Globalisierung von starken Gegenkräften gezügelt, nur nicht in der Technologie. Die wirtschaftliche Globalisierung, siehe TTIP, hat viele Gegner und Gegenkräfte, hauptsächlich auf der linken Seite des politischen Spektrums. Die ökologische und ethische Globalisierung, wie sie im Klimaschutz und in Hilfen für Flüchtlinge zum Ausdruck kommt, wird von der rechten Seite des politischen Spektrums massiv bekämpft. Die dritte große Kraft der Globalisierung, die Technologie, hat aber keine vergleichbaren Gegenkräfte.

Es gibt Bewegungen, die sich dagegen richten, wie die technologische Globalisierung verläuft. Wenn in Indien Bürger gegen Facebook aufbegehren, geht es aber nicht darum, das Internet an sich zu bekämpfen, sondern im Gegenteil darum, für seine fairere Verbreitung zu sorgen. Auch Widerstände gegen das Überwachungsprogramm der NSA oder die Datensammelwut von IT-Konzernen richten sich nicht gegen das Netz an sich, sondern drehen sich um Fragen von Governance und Kontrolle. Kartellverfahren können den Konzernen vielleicht noch am gefährlichsten werden, aber eine Heerschar von Juristen arbeitet daran, das zu verhindern.

Sollte sich Technologie als entscheidende Triebkraft der Veränderung durchsetzen, dann ist sie eine eminent politische Frage. Angesichts der Wucht des digitalen Fortschritts liegt in der humanistischen Ausgestaltung der digitalen Revolution eine zentrale Aufgabe, von der aktuelle Krisen und Konflikte nicht ablenken dürfen. Sonst wird das positive Potenzial für die Gesellschaft nicht genutzt, sondern ein Machtmonopol geschaffen. Dann träte aus den Ruinen der rückwärts­gewandten Konflikte um Grenzen, Nationen und kulturelle Identität als wahrer Sieger eine digitale Weltmacht hervor, die in allen Lebensbereichen als Kontrollinstanz wirken könnte.

Christian Schwägerl arbeitet als freier ­Wissenschafts- und Politikjournalist in ­Berlin. Sein jüngstes Buch „Die analoge Revolution“ (2014) erkundet die Zukunft digitaler Technologien.

Bibliografische Angaben

Internationale Politik 4, Juli-August 2016, S. 42-49

Teilen

Themen und Regionen

Mehr von den Autoren