Automatische Waffensysteme
Automatische Waffensysteme

Stoppt die Killerroboter!

In Genf diskutieren die Vertragsstaaten der UN-Waffenkonvention derzeit über eine mögliche Ächtung automatischer Waffensysteme. Kommt diese nicht, droht eine Zukunft, in der jeder Krieg eine anonyme Tötungsmaschinerie in Gang setzt.

Waffen, die selbstständig handeln, gibt es schon seit Jahrzehnten. Allerdings sind sie bisher in der Regel stationär und dienen der Verteidigung, etwa zur Abwehr von Raketen, wenn für menschliches Eingreifen die Zeit fehlt. Systeme wie die israelische Raketenabwehr Iron Dome funktionieren automatisch, wiederholen also nur programmierte, eng definierte Aktionen.

Als autonom bezeichnet man dagegen komplexere Waffensysteme, die sich über Stunden, Tage oder sogar Wochen in einer unbekannten Umgebung bewegen, ohne dass der Mensch steuern muss. Die Orientierung läuft über Sensoren, die Entscheidungen treffen Algorithmen – und zwar nicht mehr nur über den Abschuss einer anfliegenden Mörsergranate, sondern auch über einen Angriff auf Menschen oder belebte Ziele. Das britische Unternehmen BAE Systems und der US-amerikanische Rüstungskonzern Northrop Grumman etwa arbeiten jeweils an autonomen Kampfdrohnen.

Befürworter autonomer Waffen versprechen sich eine wirksamere und kostengünstigere Kriegsführung. Roboterwaffen sollen nicht nur Personal sparen, sondern vor allem schnellere Entscheidungen treffen. Anders als die aktuellen unbemannten Systeme müssen sie nämlich nicht mehr mit einer Kontrollstation verbunden sein. Diese Verbindung ist anfällig für Störungen und Missbrauch und verzögert die Ausführung von Befehlen. Der bei Verteidigungssystemen wie einer automatischen Raketenabwehr so wichtige Zeitvorteil wäre aber auch im Angriff taktisch wertvoll.

Können Maschinen zwischen Zivilisten und Kämpfern unterscheiden?

Zugleich erhoffen sich Politiker und Militärs ausgerechnet von bewaffneten Robotern, dass sie den Krieg menschlicher machen und unnötiges Leid vermeiden.  Menschen machen Fehler, vor allem wenn sie im Gefecht unter Stress stehen, Maschinen nicht, so die Hoffnung. Die neuen technologischen Möglichkeiten der Robotik sind in der Tat beeindruckend, doch die daran geknüpften Hoffnungen für die Kriegsführung gehen in die Irre.

Fachleute bezweifeln, dass der Einsatz von autonomen Waffen überhaupt mit dem Kriegsvölkerrecht vereinbart werden kann. Die Vorstellung, dass Maschinen zwischen Zivilisten und Kämpfern unterscheiden und über eine angemessene Gewaltanwendung entscheiden können, kritisieren Völkerrechts- und Robotikexperten als naive Technikgläubigkeit. Auf absehbare Zeit wird es nicht möglich sein, Entscheidungen im Krieg, die immer auf einer vielschichtigen Abwägung von Kosten und Nutzen beruhen, völkerrechtskonform in Computerprogrammen abzubilden.

Zudem bezieht sich das gesamte Völkerrecht auf menschliches Handeln: Es ist unklar, wer die rechtliche Verantwortung zu tragen hätte, wenn Menschen – insbesondere Zivilisten – von autonomen Waffen irrtümlich verletzt oder getötet würden. Wer wäre haftbar für einen unvorhergesehenen Schaden durch die Maschine? Ihr Hersteller, ihr Programmierer, der Kommandant, der den Einsatz geführt hat, oder vielleicht das Oberhaupt des Staates, dessen Militär die Maschine benutzt hat? Völkerrechtler diskutieren diese Frage kontrovers.

Noch fragwürdiger sind autonome Waffen aus ethischer Sicht. Dass Maschinen selbstständig über den Einsatz von Gewalt gegen Menschen entscheiden sollen, verstößt gegen die Grundsätze der Humanität und ist somit per se inakzeptabel. Es mag verstörend klingen, aber die Kriegsführung ist mittlerweile technisch so weit, dass man tatsächlich auf einer Mindestanforderung für das Auslöschen menschlichen Lebens bestehen muss: Es sollte wenigstens ein anderer Mensch mit dem Töten sein Gewissen belasten müssen – und im Falle eines Verstoßes gegen Kriegsvölkerrecht auch zur Rechenschaft gezogen werden können.

Glücklicherweise regt sich Widerstand gegen die Automatisierung des Krieges. Einer repräsentativen Umfrage in den USA zufolge lehnt dort die Mehrheit der Bevölkerung (55 Prozent) militärische Roboter aus humanitären Gründen ab. Im April 2013 formierte sich die internationale Kampagne gegen Killerroboter mit dem Ziel, präventiv ein weltweites Verbot von autonomen Waffen durchzusetzen. 52 Organisationen aus 24 Ländern haben sich inzwischen der Kampagne angeschlossen.

Die Kampagne war auch bei einem Expertentreffen mit Wissenschaftlern und Vertretern von 87 Staaten Mitte Mai im Rahmen der UN-Konvention über bestimmte konventionelle Waffen dabei. Im Rahmen der Konvention wurden bereits fünf Protokolle verabschiedet, die etwa den Einsatz von Brandwaffen oder Sprengfallen regeln. Zudem ächtet die Konvention Laserwaffen zum Blenden des Gegners auf dem Schlachtfeld; sie hat damit einen Präzedenzfall für präventive Rüstungskontrolle geschaffen. Die Kampagne gegen Killerroboter hofft nun, ein sechstes Protokoll zur Ächtung von autonomen Waffen  erwirken zu können.

Bundesregierung: Autonome Waffen international ächten

Erfreulich ist, dass viele Staaten, darunter Deutschland, in Genf deutlich gemacht haben, dass sie die menschliche Kontrolle über den Einsatz von Waffengewalt bewahren möchten. In Deutschland herrscht parteiübergreifend Konsens, dass autonome Waffen international geächtet werden müssen – trotz der Meinungsunterschiede zwischen Regierung und Opposition zur Anschaffung von ferngesteuerten Kampfdrohnen. Im November werden die Vertragsparteien der UN-Waffenkonvention entschieden, ob und wie sich die Staatengemeinschaft im Rahmen der UN-Konvention mit autonomen Waffensystemen weiter befassen wird. Die Bundesregierung muss ihren Worten Taten folgen lassen und sich noch stärker als bisher für eine Zukunft ohne Killerroboter einsetzen.

Die Robotik ist im Begriff, zu einer der Schlüsseltechnologien des 21. Jahrhunderts zu werden. Sie birgt enorme Chancen, aber auch große Risiken. Roboter können unser Leben bereichern und erleichtern. Auch die friedliche Nutzung von Robotern, etwa auf dem Arbeitsmarkt oder bei der Pflege von alten und kranken Menschen, enthält Risiken und wirft ethische Fragen auf. Doch diese Risiken sind nichts im Vergleich zu dem düsteren Ausblick, der sich bietet, wenn die militärische Nutzung nicht reguliert und begrenzt wird: eine Zukunft, in der jeder Krieg eine anonyme, menschenverachtende Tötungsmaschinerie in Gang setzt.

erschienen in Ausgabe 9 / 2014: Atomwaffen: Abrüstung nicht in Sicht

Neuen Kommentar schreiben