Rückt ein Verbot von „Killer Robots“ näher?

Vereinte Nationen beschließen Expertenkommission zu letalen autonomen Waffensystemen – schwerste Arbeit steht noch bevor

5. Überprüfungskonferenz der UN-Waffenkonvention vom 12.-16.12 in Genf (Foto: Campaign to Stop Killer Robots)
5. Überprüfungskonferenz der UN-Waffenkonvention (Convention on Certain Conventional Weapons, CCW) Photo: Campaign to Stop Killer Robots, December 2016

von Niklas Schörnig

Trotz Bangen war am Ende allen zum Feiern zumute: Am 16. Dezember 2016 fasste die fünfte Überprüfungs­konferenz  der UN-Waffen­konvention (Convention on Certain Conventional Weapons, CCW) unter pakista­nischem Vorsitz den Beschluss, im nächsten Jahr eine offizielle Expertenkommission einzusetzen, die sich mit letalen autonomen Waffensystemen (Lethal Autonomous Weapons Systems, LAWS) befassen soll. Diese Group of Governmental Experts (GGE) wird unter indischem Vorsitz „open-ended“ tagen und 2017 zu zwei je fünftägigen Treffen zusammenkommen. 

Von den Nichtregierungs­organisationen, die die Überprüfungskonferenz beobachteten, wurde diese Entscheidung einmütig begrüßt. Seit einigen Jahren fordern mehr als 60 NGOs, die sich in der Campaign to Stop Killer Robots zusammengeschlossen haben und der u.a. Human Rights Watch oder Amnesty International angehören, ein Verbot letaler autonomer Waffensysteme. Die Forderung eines Verbots solcher „Killer Robots“ wird von vielen Wissenschaftlerinnen und Wissenschaftlern, aber auch von IT-Unternehmern geteilt. Mit der Entscheidung der CCW wurde ein wichtiges Etappenziel erreicht. Die schwierigsten Aufgaben stehen allerdings noch bevor. Doch worum geht es überhaupt inhaltlich? 

Unter autonomen Waffensystemen sind nach einer Definition des Pentagon zunächst Waffensysteme zu verstehen, bei denen die Zielauswahl und die Entscheidung über einen Angriff ohne menschliche Bestätigung in einem System vereint werden. Dem Menschen wird in diesem Szenario bestenfalls die Möglichkeit zum Abbruch eingeräumt, wobei aber auch Situationen denkbar sind, in denen der Mensch keinerlei Einfluss mehr nehmen kann. Richtet sich dieser Angriff gegen Menschen mit dem Ziel, diese zu töten, handelt es sich um letale autonome Waffensysteme –  so genannte „LAWS“. Aus Sicht der Kritiker werfen solche tödlichen Systeme sehr ernste rechtliche, ethische und auch sicherheits­politische Probleme auf. 

Nichtregierungs­organisationen bestehen deshalb darauf, dass alle zukünftigen Waffensysteme über „meaningful human control“, also eine „bedeutungsvolle menschliche Kontrolle“ verfügen sollen. Sie fordern ein umfassendes Verbot der Entwicklung, der Produktion und des Einsatzes von Systemen, in denen eine solche Kontrolle nicht gewährleistet ist. Die nun eingesetzte Expertenkommission könnte einen Vorschlag für ein solches Verbot machen, über den dann die in der CCW vertretene Staatengemeinschaft abstimmen müsste.

Ob die CCW tatsächlich ein Mandat für eine Expertengruppe erteilen würde, stand bis zuletzt auf der Kippe. Russland hatte wiederholt zu Protokoll gegeben, dass es den Zeitpunkt für verfrüht hält, um in einer Expertengruppe über Beschränkungen oder gar ein mögliches Verbot letaler autonomer Waffensysteme zu diskutieren. da die technologische Entwicklung noch nicht abzusehen sei. Trotz dieser Bedenken erklärte Russland schließlich, einer Expertengruppe nicht im Wege stehen zu wollen und machte so den Weg für die GGE frei. 

Die Entscheidung vom 16. Dezember ist umso bedeutender, als das Thema „Autonome Waffensysteme“ erst seit wenigen Jahren auf der internationalen Agenda steht. Ab 2009 nahmen sich NGOs dem Thema an, 2013 veröffentliche der UN Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns, einen Report in dem er ein Moratorium forderte. 2014 gab es das erste informelle Expertentreffen  in Genf im Rahmen der CCW unter französischer Leitung, dem 2015 und 2016 zwei weitere informelle Treffen, diesmal unter deutscher Leitung, folgten. Im Rahmen dieser drei Treffen konnten NGOs bzw. viele den NGOs nahestehende Experten auf die Bedeutung des Themas hinweisen. Aber auch Staatenvertreter kamen zu Wort. Während sich praktisch kein Staat klar für letale autonome Waffensysteme positionierte und auch nur relativ wenige Staaten eine klare Gegenposition bezogen, zeigten sich die meisten Staaten zumindest an einer Fortsetzung der Diskussion interessiert, was durch die Entscheidung der Überprüfungs­konferenz am 16.12.2016 zum Ausdruck gebracht wurde.

Für die CCW beginnt damit aber erst der eigentlich schwierige Teil. Denn jetzt rücken Detailfragen in den Blick, die 2017 im Zentrum des Expertentreffens stehen dürften, bislang aber nur randständig behandelt wurden. So ist trotz der oben genannten Definition des Pentagon die Frage, was genau unter einem (letalen) autonomen Waffensystem zu verstehen ist, noch nicht eindeutig geklärt. Dazu ist die Definition zu breit und zu abstrakt. Auf konkrete Waffensysteme lässt sie sich nur schwer anwenden. Auch wenn es aus der Wissenschaftsgemeinschaft verschiedene Ansätze der Definition oder der Klassifizierung in unterschiedlichen Fortschritts­stufen gab, gilt es hier intensiv weiterzuarbeiten.

Auch haben einige Staaten, darunter die USA, zu verstehen gegeben, dass sie das Konzept der „meaningful human control“ für unklar und schwer zu greifen erachten. In vielen militärischen Kontexten unterstützen schon heute Maschinen und Computeralgorithmen die Soldatinnen und Soldaten in erheblichem Maße und der Schritt, die letztendliche Entscheidung über einen Waffeneinsatz auch noch dem Computer zu überlassen, wird kontinuierlich kleiner. Wie viel Entscheidungsraum dem Menschen tatsächlich noch bleibt, selbst wenn er formal in die Entscheidungskette eingebunden ist, ist fraglich.

Eine zentrale Frage, die in der Debatte bislang nur am Rande diskutiert wurde, ist die, wie eine mögliche Regulierung oder gar ein Verbot verifiziert werden kann. Im Gegensatz zur klassischen Rüstungskontrolle, bei der es um – relativ – leicht zu überprüfende Quantitäten geht, manifestiert sich der „Autonomiegrad“ eines Waffensystems im Software-Code und nicht in der physischen Hardware. Im Rahmen einer solchen qualitativen Rüstungskontrolle Lösungen zu finden, denen alle beteiligten Akteure Vertrauen entgegenbringen können, wird die Expertinnen und Experten sicherlich noch vor Herausforderungen stellen – auch wenn es dazu schon erste Überlegungen gibt. Diese Problematik beschränkt sich allerdings nicht nur auf autonome Waffensysteme. In fast jeder militärischen Hardware gibt die Software inzwischen die Leistungsfähigkeit des Systems vor. Im Cyberbereich ist es praktisch die Software alleine, die Fähigkeiten und Verwundbarkeiten bestimmt. Diese Frage dürfte die Rüstungskontrolle also noch in größerem Maß beschäftigen.

Die schwierigste Hürde wird allerdings sein, die Zustimmung zu Restriktionen oder einem Verbot von LAWS von den technologisch fortgeschrittenen Staaten zu bekommen, die sich bislang neutral positioniert haben. Denn, und das darf man nicht vergessen, bislang haben sich erst 19 Staaten eindeutig gegen letale autonome Waffensysteme und für ein Verbot positioniert. Darunter ist kein Staat, der im militärtechnologischen Bereich international zu den Innovatoren gezählt werden könnte. Anders ausgedrückt: Die Staaten, die bislang am meisten in fortschrittliche Waffensysteme investiert haben, müssen noch von einem Verbot überzeugt werden. Zwar hat sich auch kein technologisch fortgeschrittener Staat für autonome Waffensysteme ausgesprochen und China hat sich auf der aktuellen Überprüfungskonferenz sogar für ein „legally binding protocol related to the use of LAWS“ ausgesprochen. Allerdings dürfte die Unterstützung dieser Staaten zu einer Restriktion oder gar einem Verbot stark von der Lösung des oben angesprochenen Verifikations­problems abhängen.

Auf die Wissenschaftsgemeinschaft, die NGOs und die von den Staaten nach Genf zur GGE entsandten Experten kommt 2017 also viel Arbeit zu. Für alle Aktivisten heißt es nun, den bisherigen Kampagnen­modus hinter sich zu lassen und die Sicherheitsbedenken der einem Verbot kritisch gegenüberstehenden Staaten ernst zu nehmen. Die Erfahrung vergangener Aushandlungsprozesse bestehender Rüstungskontrollabkommen hat gelehrt, dass der Teufel oft im Detail, ja in einzelnen Worten steckt. Der Prozess kann sich also hinziehen. Es ist gut, dass die Überprüfungskonferenz durch das bewusst offene Ende des GGE-Prozesses unnötigen Druck vermieden hat. 

Auch wenn ein Erfolg der GGE also keineswegs garantiert ist und sich noch hohe Hürden auftun, ist der Prozess aus Sicht der Rüstungskontrolle insgesamt bislang nur zu begrüßen und kann durchaus als Motivationsschub in anderen, festgefahrenen Bereichen dienen. Denn obwohl fast alle Rüstungskontroll­experten der Meinung sind, die Rüstungskontrolle an sich befinde sich aktuell in einer Krise, zeigt das jüngste Ergebnis in der CCW, ebenso wie die aufkommende Diskussion über ein Verbot von Nuklearwaffen, dass das Ideal, Waffen zu reglementieren oder ganz auf bestimmte Waffen zu verzichten, immer noch von der ganz überwiegenden Mehrzahl der Staaten geteilt wird.  

Dr. Niklas Schörnig (Foto: HSFK)

Kontakt

Dr. Niklas Schörnig
Senior Researcher und Projektleiter

schoernig @hsfk .de

 

 

Auch lesenswert

Zeitschrift "Aus Politik und Zeitgeschichte"

Automatisierte Kriegsführung – Wie viel Entscheidungs­raum bleibt dem Menschen? 
Ein Beitrag von Niklas Schörnig in der Zeitschrift "Aus Politik und Zeitgeschichte"

HSFK-Standpunkt 8/13: "Keine Macht den Drohnen!"

Keine Macht den Drohnen!
Warum Deutschland sich jetzt gegen autonom tötende Militärsysteme einsetzen muss.

HSFK-Standpunkt von Niklas Schörnig und Christian Weidlich