01. Mai 2013

Drohne, „BigDog“, Killer-Roboter

Kostenlos

Über 8000 „Unmanned Aerial Systems“ und weitere 12 000 unbemannte Landsysteme gehören zum Arsenal allein der amerikanischen Streitkräfte. Dabei ist die US-Army nicht die einzige Armee, die unbemannte Systeme einsetzt: Unbewaffnet und rein zur Aufklärung, wie die Drohne RQ 11 Raven (Bild 1), und (potenziell) bewaffnet wie die Drohnen „Predator“ (Bild 2), „Reaper“ (Bild 3), „Global Hawk“ (Bild 4) oder die israelische „Heron“ (Bild 5), an deren Erwerb die Bundeswehr interessiert ist. Roboter können als Lastenträger dienen wie „BigDog“, an dem Boston Dynamics im Auftrag der amerikanischen Defense Advanced Research Projects Agency (DARPA) arbeitet (Bild 13), als Bergungshilfe auch in schwierigem Gelände für verwundete Soldaten wie der „X-RHex“ (Bild 9), der Battlefield Extraction-Assist Robot (BEAR), der seit 2010 in Fort Benning im US-Bundesstaat Georgia getestet wird (Bild 10), oder der „Talon“ (Bild 6), der aber gleichzeitig zum Bombenentschärfer (Bild 8) umgebaut werden kann. Die israelischen Streitkräfte lassen ihre Grenze zu Gaza von einem unbemannten Vehikel überwachen, das dementsprechend „Guardium“ genannt wurde (Bild 11). „Remus“ wiederum, dessen Aussehen an ein Torpedo erinnert, ist ein unbemanntes Unterwasser-Aufklärungssystem (Bild 7). 

Noch existiert kein System, das ohne menschliche Steuerung auskäme. Aber wie lange noch? Die Fortschritte im Bereich „Künstliche Intelligenz“ – also der Fähigkeit einer Maschine, aufgrund ausreichender Speicher- und Verarbeitungskapazitäten etwas Komplexes erfassen und dementsprechende Entscheidungen treffen zu können – sind geradezu atemberaubend. Hugo de Garis, einer der führenden Forscher in diesem Bereich, geht davon aus, dass es „innerhalb einer Generation möglich sein wird, ein Bit Information auf einem Atom zu speichern“. Oder auch eine Quadrillon (1 mit 24 Nullen) Bit Information auf einem Objekt von der Größe einer CD. Dementsprechend betitelte de Garis einen seiner Artikel: „Bauen wir Götter oder unsere potenziellen Vernichter?“

Der Einsatz autonom handelnder „Kampfmaschinen“ müsse unterbunden werden, noch bevor diese Realität seien, fordert die Menschenrechtsorganisation Human Rights Watch (HRW) in ihrem Bericht „Losing humanity: the case against killer robots“, den sie im November 2012 vorlegte. Autonome Waffensysteme würden gegen das Völkerrecht verstoßen und seien eine „inakzeptable Gefahr für Zivilisten“. Im Februar 2013 kündigte HRW eine weltweite Kampagne gegen „Killerroboter“ an, die ebenso verboten werden sollten wie Streubomben oder Landminen. Deren Vorsitzender ist Noel Sharkey, Professor für Robotik und künstliche Intelligenz an der Universität Sheffield. „Das Kriegsvölkerrecht kennt das Recht, sich zu ergeben; Rechte von Kriegsgefangenen; das Anrecht, dass ein Mensch Kollateralschäden in Augenschein nimmt“, so Sharkey im Guardian. Noch wichtiger aber sei, dass Menschen eben nicht nur Informationen verarbeitende, sondern mitfühlende Wesen seien: „Wenn ein Roboter Fehler macht, wer ist dann verantwortlich?“  

Bibliografische Angaben

Internationale Politik 3, Mai/Juni 2013, S. 22-25

Teilen