Der schwarze Spiegel
Digitale Auferstehung und unkontrollierbare Kampfroboter – die TV-Serie „Black Mirror“ schaut in die Zukunft der KI. Spoilerwarnung: Gut enden wird es nicht
Verfügen Maschinen über Handlungsspielräume, die vom Menschen und seinen kognitiven Fähigkeiten abgeleitet sind? Zumindest der Begriff der Künstlichen Intelligenz unterstellt das. Er ruft ein Bild vom menschenähnlichen, eben intelligenten Roboter hervor. Dabei bezweifeln viele Philosophen und KI-Experten, dass Maschinen jemals so etwas wie das menschliche Bewusstsein entwickeln werden. Sie können es höchstens mit reiner Rechenleistung imitieren. Trotzdem wird das, was derzeit unter dem Begriff KI entwickelt wird oder schon im Einsatz ist, die Welt und den Menschen, der sich in den Maschinen so gerne wiederzuerkennen versucht, in den kommenden Jahrzehnten maßgeblich verändern.
Die britische Anthologie-Fernsehserie „Black Mirror“ von Charlie Brooker, die in Deutschland beim Streamingdienst Netflix zu sehen ist, greift diese Debatte auf. Dabei geht es auch um die Suche des Menschen nach sich selbst in dieser neuen, digitalen Welt: Denn der „Black Mirror“, der „schwarze Spiegel“ – das ist der dunkle Bildschirm all der Smartphones, Tablets und Computer, in denen sich der Mensch selbst sehen kann.
Pöbelnder Cartoon-Bär auf Stimmenfang
Der Umgang mit Künstlicher Intelligenz ist in „Black Mirror“ stets eine ethische Frage. Es geht in der Serie, wie in der aktuellen Debatte um die Einsatzmöglichkeiten und Gefahren von KI, eher um den Menschen als um Maschinen. Nicht alle guten und schlechten Entwicklungen der digitalen Welt in „Black Mirror“ haben mit KI zu tun, auch wenn es oft so scheint. Etwa in der Episode „The Waldo Moment“ (2013), die inzwischen fast wie eine Vorwegnahme des Wahlerfolgs von Donald Trump wirkt. Hier tritt ein blauer Cartoon-Bär in einem lokalen Wahlkampf an und treibt die anderen Kandidaten mit schmutzigen Witzen und Beleidigungen vor sich her. Das zeigt vor allem, wie mit billigen Mitteln und dem richtigen Medieneinsatz politische Prozesse beeinflusst werden können.
Doch Waldo ist kein Programm. Er wird von einem Menschen kontrolliert. Anders wäre sein Erfolg nach aktuellem Stand der Technik gar nicht möglich, denn noch gibt es keine KI, die zuverlässig den Turing-Test bestehen würde. Der geht auf den Computerpionier Alan Turing zurück und besagt, dass eine Maschine dem Menschen ebenbürtiges Denkvermögen besitze, wenn sie in einem Dialog nicht mehr von dem realen Menschen zu unterscheiden wäre.
Ähnliches gilt für die Killerroboter-Debatte, die im Kontext der KI-Entwicklung immer wieder geführt wird. Die derzeit im Einsatz befindlichen Drohnen sind, was die Waffentechnik angeht, etwa auf dem Entwicklungsstand Waldos, denn sie müssen noch immer von einem Menschen kontrolliert werden. Viele Staaten arbeiten aber bereits an vollständig autonomen Waffensystemen. Die Firma iRobot etwa, die vor allem für ihre Staubsaugerroboter bekannt ist, stellt mit Kameras und verschiedenen Werkzeugen ausgestattete Roboter für den militärischen Einsatz her. Auch diese müssen noch von Menschen kontrolliert werden, aber es ist möglich, dass in sehr naher Zukunft Maschinen zum Einsatz kommen, die selbstständig entscheiden, wann sie eine Rakete auf ein Ziel abfeuern – und auch, was überhaupt ein Ziel ist.
In der „Black-Mirror“-Episode „Metalhead“ (2017) wird diese unheimliche Entwicklung mit einer These des KI-Theoretikers Nick Bostrom vermischt. Bei Bostrom ist es die Herstellung von Büroklammern, die eine KI so zielstrebig betreibt, dass sie am Ende alle Menschen und die Erde zu Büroklammern verarbeitet hat und beginnen muss, die Ressourcen auf anderen Planeten abzubauen. In „Metalhead“ wird eine Gruppe von Menschen gnadenlos von einem Killerroboter gejagt, den nichts von seiner Mission abbringen kann. Die Maschine jagt die Menschen, weil sie versucht haben, in ein Lagerhaus einzubrechen, das zu bewachen dem Roboter wohl befohlen wurde. Auch bei dem Killerroboter handelt es sich streng genommen nicht um eine KI. Aber die Vehemenz, mit der er sein Ziel verfolgt, obwohl das Lagerhaus schon lange nicht mehr vor den vermeintlichen Einbrechern geschützt werden müsste, erinnert an Bostroms „Büroklammern-Argument“ – an die Warnung vor einer KI, die, einmal mit einer Aufgabe betraut, alles tun wird, um diese zu erfüllen.
Die Diskussion über autonome, aber nicht unbedingt intelligente Waffensysteme erfordert letztlich ähnliche Konsequenzen wie die um die Kontrolle einer möglichen künftigen KI. Einige KI-Theoretiker wie der Software-Entwickler und Physiker Jaan Tallinn meinen, man müsse der KI humanistische Werte beibringen, stellen aber zugleich die Frage, wie genau das aussehen könnte. Denn solche Werte variieren von Kulturkreis zu Kulturkreis.
Die Fragen beginnen schon bei Alltäglichem wie Verwaltungsaufgaben oder im Straßenverkehr mit selbstfahrenden Autos. Dazu kommen rechtliche und staatstheoretische Fragen. Wie bringt man den Robotern die Gesetze bei, die auch für sie gelten müssen? Ihre Auslegung ist oft eine Deutungs- und Abwägungsfrage. Die Debatte wird zu einer philosophischen, wenn es darum geht, wie sich eine KI zum Staat und dessen Werten verhalten soll. Ist für sie das Gemeinwohl das höchste Gut oder doch das Recht und das Wohlergehen des Einzelnen? Philosophen wie Julian Nida-Rümelin bezweifeln, dass sich moralische Fragen immer algorithmisch lösen lassen – besonders, wenn es um Dilemmata gehe, in denen keine klaren richtigen oder falschen Entscheidungen möglich seien. Und die Maßstäbe für eine Handlung hängen immer vom subjektiven, menschlichen Standpunkt ab. Was moralisch ist oder nicht, wird nicht nur unterschiedlich beurteilt, es spielt für manche Menschen schlicht keine große Rolle. Das kann im Umgang mit einer Technologie wie KI zum großen Problem werden.
In der BM-Episode „USS Callister“ (2017) erschafft ein genialer Programmierer mithilfe von DNA-Proben digitale Abbilder seiner Kolleginnen und Kollegen. Mit diesen bewussten und fühlenden Kopien bevölkert er eine an „Star Trek“ angelehnte virtuelle Realität, in der er die komplette Kontrolle über sie hat. Neben den moralischen Fragen beschreibt die Folge in nur leicht übertriebener Form eine Theorie, die tatsächlich als Möglichkeit, eine Künstliche Intelligenz zu erschaffen, diskutiert wird: Ein existierendes menschliches Bewusstsein wird digitalisiert. In der Serie geschieht es über die DNA, ohne dass die Betroffenen etwas davon mitbekommen. Im Prinzip handelt es sich um Klone, nur eben in rein digitaler Form. Die Erinnerungen, die sie in der virtuellen Realität haben, sind allerdings nach aktuellem Stand der Wissenschaft nicht genetisch gespeichert – hier nimmt sich die Serie eine dramaturgische Freiheit.
Die reale Methode zur Erschaffung einer KI wäre schon heute theoretisch machbar. Dazu müsste per Bildgebungsverfahren ein Scan des Gehirns vorgenommen werden. Nach derzeitigem Stand der Technik ginge das, wegen der Zugänglichkeit zum Gehirn und des Verfahrens, das zur Stabilisierung des Gewebes nötig ist, nur bei einem toten Menschen. Ein Computer müsste die Bilder wieder zu einem dreidimensionalen Modell des Gehirns zusammensetzen, das dann tatsächlich, wie die Klone in der Serie, in einem virtuellen Raum existieren würde. Ein Computer mit sehr hoher Rechenleistung würde anschließend, ausgehend von diesem digitalen Modell des Gehirns, das entsprechende neuronale Netzwerk simulieren. Auch Nick Bostrom beschreibt dieses Verfahren in seinem Buch „Superintelligenz“. Ihm zufolge könnten so der Intellekt, die Erinnerung und die Persönlichkeit eines Menschen digital erhalten werden.
Digitale Auferstehung
Was die Folge nicht behandelt, ist die Frage, inwieweit man aber bei einem solchen simulierten Bewusstsein noch die Parallele zum Menschen ziehen kann – und ob in einem solchen Kurzschluss nicht eine große Gefahr liegen könnte. Auch diese Frage wird von „Black Mirror“ in der Folge „Be right back“ (deutsch „Wiedergänger“, 2013) verhandelt. Marthas Freund Ash stirbt bei einem Autounfall; sie trauert um ihn. Eine neue Technologie verspricht Linderung, denn sie kann aus den Spuren, die Ash in der digitalen Welt, in seinen E-Mails, Videos und Beiträgen aus sozialen Netzwerken hinterlassen hat, sein digitales Abbild erschaffen. Zunächst lässt sich mit Ashs digitaler Kopie nur chatten, aber bald gibt es eine Version, mit der man sprechen kann. Schließlich entwickelt die Firma einen ganzen Roboter, der aussieht wie Ash und auf dem seine digitale Simulation läuft. Obwohl viele Details nicht passen, lässt sich Martha auf die Maschine ein und geht sogar mit ihr ins Bett. Bald aber überwiegen der Zweifel und der Grusel.
Der Fachbegriff für dieses Gefühl lautet „Uncanny Valley“– das „unheimliche Tal“, das in grafischen Darstellungen einen Einbruch in der Kurve der Vertrautheit gegenüber sehr, aber noch nicht ausreichend menschenähnlichen Robotern beschreibt. Martha verbannt die Maschine schließlich auf den Dachboden, um sie nur bei Bedarf zu sehen. Am Ende der Folge steht sie am Fuß der Leiter zum Speicher, während ihre Tochter, die sie mit Ash zu Lebzeiten gezeugt hatte, mit der KI-Version ihres Vaters spricht.
Viele Theoretiker warnen vor einer solchen Projektion menschlicher Parameter auf Maschinen. Egal wie menschenähnlich diese auch erscheinen mögen – sie sind und bleiben doch Maschinen. Den digitalen Entitäten fehlten grundsätzliche lebensweltliche Bezugspunkte der Menschen, argumentiert die Wirtschaftsinformatik-Professorin Sarah Spiekermann. Das Digitale sei grundsätzlich unvollständig; die Lücken würden vom Menschen in einer Art „Autovervollständigungsmodus“ ausgefüllt. Das wird dann gefährlich, wenn es, wie in der Episode, menschliche Emotionen gegenüber einer Maschine hervorruft, wenn wir uns vielleicht sogar in die Maschine verlieben. Emotionen können von der Maschine nie empfunden, nur simuliert werden. Im Angesicht der Maschine muss der Mensch verhindern, dass er im schwarzen Spiegel nur sich selbst sieht: Das ist die zentrale These von „Black Mirror“ im Umgang mit Künstlicher Intelligenz. Am Ende der Folge steigt Martha dann, nachdem sie kurz gezögert hat, doch nach oben auf den Dachboden, zu ihrer Tochter – und der Ash-Maschine.
Nicolas Freund ist Redakteur im Feuilleton der Süddeutschen Zeitung, wo er vor allem über Digitalthemen, Film und Literatur schreibt.
Internationale Politik 4, Juli/August 2019, S. 36-39