Der Blechsoldat des in London gegründeten Netzwerks Campaign to Stop Killer Robots sieht eher harmlos aus, doch er symbolisiert eine tödliche Gefahr.

Autonome Waffen

Das Problem Killerroboter: Maschinen mit tödlichen Absichten

Anzeige

Es scheint, als könnte die düstere Zukunftsvision des US-Regisseurs James Cameron vorzeitig wahr werden. Im SciFi-Kassenhit „Terminator“ (1984) gerät ein autonomes Verteidigungssystem namens „Skynet“ außer Kontrolle und führt im Jahr 2029 auf einer verwüsteten Erde einen Krieg gegen die Menschen mit Hilfe von hochgerüsteten und überlegenen Cyborgs. Wir schreiben das Jahr 2019, und die intelligenten Killerroboter haben bereits ihre ersten Schritte gemacht – noch unter der Aufsicht der Militärs und bislang getarnt als konventionelle Waffen.

Die Atommächte USA, China und Russland, aber auch Länder wie Israel setzen verstärkt auf die Entwicklung von Kampfmaschinen, die ihre Ziele selbstständig identifizieren, selektieren und angreifen sollen. Zwar sind die stählernen Soldaten längst nicht so weit, um die gesamte Zivilisation zu bedrohen. Manche Experten für Künstliche Intelligenz (KI) sehen allerdings die Welt an der Schwelle einer Revolution in der Kriegsführung, die langfristig die Sicherheits- und Verteidigungspolitik vieler Staaten radikal verändern könnte. Doch es gibt auch einen Hoffnungsschimmer am Horizont: Eine Gruppe aus namhaften Wissenschaftlern und Bürgerrechtlern hat sich vorgenommen, den Vormarsch der „autonomen Waffen“ zu stoppen – und kann mit ihrer Kampagne bereits einige Erfolge verbuchen.

Auch ein BNN-Redakteur hat eine Meinung zur Entwicklung der autonomen Waffen. Lesen Sie hier den Kommentar.

Ethische Probleme einer tödlichen Technologie

Noel Sharkey trägt gerne dunkle Farben. Im Erscheinungsbild des beleibten Manns mit weißem Zopf, Brille und Bart erinnert sonst nichts an den verwegenen Filmhelden John Connor, der die Welt vor der tödlichen Tyrannei der Terminatoren erlöst. Wie der Widerstandskämpfer Connor könnte jedoch der Sprecher der Campaign to Stop Killer Robots den Tötungsmaschinen einen Strich durch die Rechnung machen, indem er und seine Mitstreiter die Regierungen dazu zwingen, bei Aufrüstung Farbe zu bekennen und über ethische und rechtliche Grenzen einer tödlichen Technologie zu verhandeln.

Warnung vor „dummen“ Computern

„Ich habe große Angst“, sagt Sharkey, als er Ende Januar 2019 in Berlin eine Konferenz der Heinrich-Böll-Stiftung zu autonomen Waffensystemen eröffnet. Der Professor für KI an der Universität Sheffield kennt sich mit Robotern bestens aus. Schließlich lebt er zu Hause mit einigen Dutzend Maschinen, die er allesamt für nicht sehr intelligent hält. „Sie könnten nicht ein Auto von einem Lebewesen unterscheiden, geschweige denn, verschiedene Menschen auseinanderzuhalten oder zu beurteilen, was sie vorhaben“, sagt Sharkey. In Berlin warnt er mit Nachdruck vor „dummen“ Computern, die auf Basis von fehleranfälligen Sensormessungen unkontrolliert und wahllos Kombattanten wie Zivilisten töten könnten.

Hier sehen Sie den Vortrag von Noel Sharkey auf der Konferenz in voller Länge:

Flugzeuge mit KI und unbemannte Superpanzer

Er finde bei dem Gedanken an die unbemannte Version des russischen Superpanzers Armata nachts keinen Schlaf, gesteht der Brite. Als „furchterregend“ bezeichnet er das neue amerikanische Roboterflugzeug X-47B, einen Bomber mit einer enormen Reichweite von 4 000 Kilometern, der bald von Flugzeugträgern starten soll. China arbeite an einem U-Boot-Jäger ohne Besatzung und einer fliegenden Kampfmaschine mit dem Namen „Unsichtbares Schwert“. Und Israel habe ein „schlaues Fahrzeug“ namens Guardium für Patrouillen entwickelt. „Der nächste Schritt für die Militärs ist ein intelligenter Schwarm von fliegenden Waffen, den ein Operator lenken soll“, sagt Sharkey und zeigt zugleich ein Grundproblem auf: Wie soll ein Mensch gleichzeitig 100 Entscheidungen zur Bewertung und möglicher Vernichtung von verschiedenen Zielen machen können?

Maschinen nicht zu „menschlichen Urteilen“ fähig

Der Informatiker sieht keinen Weg, um den Killer-Robotern die Genfer Konventionen beizubringen. Selbst mit viel besseren Sensoren würden die Maschinen in Kampfeinsätzen nicht zu „menschlichen Urteilen“ fähig sein. „Man muss zum Beispiel seinen Feind nicht immer töten, vor allem wenn er verwundet ist. Die Roboter würden aber keinen Grund sehen, Gefangene zu nehmen“, erklärt Sharkey im Gespräch mit den BNN.
Der Politologe Frank Sauer hat einen anderen Grund zur Sorge: „Die Geschwindigkeit der Kriegsführung könnte durch die autonomen Waffen derart zunehmen, dass sie niemand mehr zu kontrollieren imstande wäre.“ Ein ungelöstes Problem sei ferner die mögliche Weiterverbreitung der Tötungsmaschinen, die in die Hände von Terroristen gelangen könnten, warnt der Forscher der Münchner Bundeswehr-Universität im Gespräch mit unserer Zeitung.

Roboter-Schlachten im noch nie erlebten Tempo

„Noch unklar weil nicht ausreichend erforscht ist die Frage, wie man die Rüstungskontrolle in diesem Bereich wirksam verifiziert, da vollautonome Waffensysteme sich heute äußerlich nicht von anderen Systemen unterscheiden“, sagt Sauer weiter. Er hält es für unmöglich, die Künstliche Intelligenz zu verbieten. „Es gilt stattdessen zu regeln, wie wir sie nutzen wollen. Wir müssen festschreiben, bis zu welchen Punkt Autonomie in Waffen zulässig ist, und ab wann der Mensch übernehmen muss.“

28 Regierungen gegen die Nutzung von autonomen Waffen

Seit 2012 macht die Initiative gegen Killerroboter Druck auf die Weltgemeinschaft, die dritte Revolution in der Kriegsführung zu verhindern. Die 100 Aktivisten aus 54 Ländern haben erreicht, dass sich 28 Regierungen explizit gegen die Nutzung von autonomen Waffen ausgesprochen haben. Zudem verhandeln seit Jahren 88 Staaten der UN-Konvention über bestimmte konventionelle Waffen (CCW), wie ein Regelwerk für autonome Waffen aussehen könnte. Die Gespräche in Genf kommen allerdings seit Jahren kaum voran.

Viele Staaten bremsen bei Verhandlungen in Genf

„Die Teilnehmer sind sich nicht einmal über eine Definition der autonomen Waffen einig“, sagt den BNN die Rüstungsexpertin Ulrike Franke von der Denkfabrik European Council on Foreign Relations (ECFR). Eine weitere Hürde: „Auch bereits existierende KI-Waffensysteme, etwa in der Luftabwehr, könnten in Zukunft verboten werden, das wollen aber viele Staaten nicht“.

Deutschland noch nicht eindeutig positioniert

Deutschland hat sich im Streit bislang nicht eindeutig positioniert. Auf einer Konferenz des Auswärtigen Amtes vor einer Woche nannte Bundesaußenminister Heiko Maas (SPD) mögliche Kriege mit Killerrobotern eine „erschreckend reale Perspektive“ und einen „Angriff auf die Menschlichkeit selbst“. Experten wie Ulrike Franke weisen jedoch darauf hin, dass das Bundesverteidigungsministerium heute die autonomen Waffen nicht komplett ablehnt. Der Münchner Politologe Frank Sauer begrüßt die Mittlerrolle der Bundesregierung in den Genfer Gesprächen. Allerdings warnt er auch, dass die deutsche „Politik der kleinen Schritte“ vielleicht zu spät zum Ziel führen werde. Denn die Forschung an Killerrobotern schreite schnell voran.