Krieg der Automaten

Selbstständig fliegende Aufklärungsflugzeuge, Kriegsschiffe, die ohne Besatzung fahren – solche Maschinen sind längst keine Fantasie mehr. Sie werden heute schon auf vielen Schlachtfeldern eingesetzt, besonders von technologisch weit entwickelten Staaten wie den USA oder Israel. Andere Länder holen auf, es droht ein Rüstungswettlauf bei Roboterwaffen. Das wird das Bild des Krieges verändern.
Mitte Juni kam es zu einem bemerkenswerten Disput zwischen republikanischen Kongressabgeordneten und US-Präsident Barack Obama: Die Abgeordneten kritisierten, das amerikanische Militär beteilige sich nun schon mehr als sechzig Tage an den Militäraktionen gegen Libyen, ohne dazu vom Kongress ermächtigt worden zu sein. Die Reaktion Obamas und seiner Rechtsberater ließ aufhorchen: Sie argumentierten, der Einsatz sei bislang für die amerikanischen Streitkräfte so risikolos, dass man nicht von einem Krieg sprechen könne und er deshalb auch nicht unter die so genannte „War Powers Resolution“ falle. Dieses Gesetz regelt, unter welchen Bedingungen der Präsident Soldaten in den Krieg schicken darf. Obamas Leute verwiesen unter anderem auf den Einsatz ferngesteuerter Kampfdrohnen: Diese attackierten die libyschen Streitkräfte, ohne dass eigene Piloten gefährdet seien.
 

Autor

Niklas Schörnig

ist wissenschaftlicher Mitarbeiter der Hessischen Stiftung Friedens- und Konfliktforschung sowie Lehrbeauftragter an der Goethe-Universität Frankfurt am Main. Seine Forschungsschwerpunkte sind unter anderem die Technisierung westlicher Streitkräfte und der Wandel des Krieges.

Bislang ist nicht abzusehen, ob die Republikaner bereit sind, diese Argumentation zu akzeptieren. Doch die Anekdote zeigt zweierlei: Erstens nehmen robotische Kampfmaschinen schon heute in der Kriegsführung gerade westlicher Staaten eine wichtige Rolle ein. Zweitens verändert der Einsatz unbemannter Waffen das Bild des Krieges und das Verhältnis der Menschen zu ihm mit Folgen, die noch nicht abzusehen sind.

Oft wird bei intelligent agierenden Militärrobotern noch an Science-Fiction gedacht, doch aktuelle Entwicklungen haben die Fiktionen an vielen Stellen bereits ein- oder sogar überholt. Es sind vor allem technologisch fortgeschrittene westliche Staaten wie die USA oder Israel, die den Trend zum Einsatz unbemannter Systeme vorantreiben. Doch andere Staaten wie China holen schnell auf. Die Palette der bislang entwickelten Waffen ist breit: Unter militärischen Robotern versteht man zum Beispiel ferngesteuerte Kettenfahrzeuge, die Sprengfallen entschärfen, unbemannte Fluggeräte oder Drohnen, die manchmal so klein sind wie ein Insekt, manchmal so groß wie ein Flugzeug, sowie Boote auf und unter Wasser, die ohne Besatzung fahren. Aus militärischer Sicht bieten diese Maschinen viele Vorteile: Sie sind ausdauernder als der Mensch (einige Drohnen können mehrere Tage in der Luft bleiben), unempfindlicher gegen Einflüsse wie Temperatur oder Strahlung und können auch in gefährlichsten Situationen ohne Einschränkungen eingesetzt werden. Außerdem wird ihnen nicht langweilig wie Soldaten, die während ihrer Einsätze oft lange und von Monotonie geprägte Wartezeiten hinter sich bringen müssen.

Die Zahl von Robotern in militärischen Beständen weltweit steigt schnell: 2003 besaßen die US-Streitkräfte laut dem Experten Peter Singer nur „eine Handvoll“ Drohnen, 2009 waren es schon mehr als 7000. Schon heute bilden die USA mehr Drohnen-Piloten aus, die ihre Flugroboter vom Boden aus kontrollieren, als „echte“ Piloten. Noch schneller lief die Entwicklung bei den unbemannten Fahrzeugen, wie zum Beispiel bei ferngesteuerten Robotern zur Entschärfung von Sprengfallen, von denen Washington 2009 bereits 12.000 zur Verfügung hatte. Bis 2015 soll laut einem Kongressbeschluss mindestens ein Drittel aller Bodenfahrzeuge des Militärs unbemannt sein. Das Beispiel der USA macht Schule: Fachleute schätzen, dass inzwischen mindestens 43 Länder weltweit über Drohnen oder eine eigene Drohnenproduktion verfügen, Tendenz stark steigend.

In zwei Bereichen werden Roboterwaffen immer leistungsfähiger: „Intelligenz“ und Bewaffnung. Bislang wurden viele Systeme vom Menschen ferngesteuert, mittlerweile übernehmen Mikroprozessoren immer mehr Aufgaben. Moderne Drohnen können eine vorgegebene Route autonom abfliegen, auf unerwartete Einflüsse (Wind, Wetter) angemessen reagieren und auch schwierige Manöver wie Start und Landung (inzwischen sogar auf einem Flugzeugträger) ohne Eingriffe von Menschen absolvieren. Da die Systeme immer schneller und präziser agieren, wird der Mensch zunehmend in die Aufseherrolle gedrängt. In den Vereinigten Staaten ist es nichts Besonderes mehr, dass ein Drohnen-Pilot von seiner Bodenstation aus zwei oder mehr Drohnen gleichzeitig überwacht und nur dann eingreift, wenn die Software mit der Situation überfordert ist. Regierungen versprechen sich von einer solchen Automatisierung, Personal und damit auch Geld zu sparen.

US-Drohneneinsätze in Pakistan haben über 2200 Todesopfer gefordert

Bei Angriffen von US-Drohnen im Grenzgebiet von Afghanistan und Pakistan wurden vermutlich weitaus mehr Menschen getötet als bislang bekannt. Laut einer…

Der zweite große Fortschritt aus militärischer Sicht ist, dass Aufklärungsdrohnen heute bewaffnet werden und Angriffe fliegen können. Sie müssen nicht mehr wie früher zur Auswertung der von ihnen aufgenommenen Bilder zur Basis zurückkehren, sondern übertragen sie per Funk oder Satellit dorthin. Der Angriff kann also unmittelbar erfolgen und muss nicht erst umständlich koordiniert werden. Auch kann aufgrund der längeren Ausdauer der Drohne gegenüber bemannten Flugzeugen ein günstiger Moment für den Angriff abgepasst werden, ohne dass sich der Feind am Boden der Bedrohung überhaupt bewusst ist.

Die ersten Drohnen-Angriffe auf Ziele in Afghanistan und im Jemen flogen die USA bereits 2002. Doch erst seit den sich häufenden Attacken gegen vermutete Taliban-Verstecke im pakistanischen Grenzgebiet zu Afghanistan seit 2006 sind die „Killer-Roboter“ ins Blickfeld der Weltöffentlichkeit geraten. Vor fünf Jahren flogen US-amerikanische Kampfdrohnen drei Angriffe auf pakistanischem Gebiet, im vergangenen Jahr waren es nach Angaben des amerikanischen „Long War Journals“ mindestens 117. Für dieses Jahr wurden bis Mitte Juli immerhin schon 43 Angriffe verzeichnet.

Befürworter argumentieren, Verluste unter der Zivilbevölkerung – verharmlosend als „Kollateralschaden“ bezeichnet – würden beim Einsatz von Drohnen klein gehalten, weil diese länger als ein bemanntes Flugzeug kreisen und einen geeigneten Moment zum Angriff abwarten könnten. Das ist jedoch unter Experten umstritten, und die Zahlen zu zivilen Opfern von Drohnenangriffen schwanken erheblich. Dass es immer wieder zivile Opfer gibt, hat mehrere Gründe: Erstens erfolgen viele Angriffe aufgrund von Hinweisen lokaler Informanten, die nicht immer verlässlich sind. Zweitens ist es selbst am Boden oft schwer, aufständische Taliban von Zivilisten zu unterscheiden. Es darf bezweifelt werden, dass dies auf einem aus der Luft aufgenommenen Videobild besser gelingt. Drittens werden zivile Opfer vor allem dann vermieden, wenn man sich beim Drohneneinsatz die erforderliche Zeit zur Planung nimmt, Sicherheitsvorkehrungen beachtet und einen Angriff im Zweifel auch einmal abbricht. Die Erfahrung zeigt aber, dass gerade dann, wenn eigene Einheiten gefährdet sind, zugunsten eines Angriffs entschieden wird und zivile Tote in Kauf genommen werden.

Drohnenangriffe sind aber nicht nur aus humanitären Gründen fragwürdig. Viele Experten sind sich einig, dass bewaffnete Roboter-Krieger es politischen Entscheidungsträgern erleichtern, militärische Mittel einzusetzen. Die Forschung zeigt, dass besonders westliche Demokratien darauf bedacht sind, die Risiken für ihre Soldatinnen und Soldaten möglichst klein zu halten, da gefallene Soldaten die öffentliche Meinung zu einem Militäreinsatz erheblich beeinflussen. Kann man statt Menschen Roboter an die Front schicken, mindert das die Gefahr, aufgrund hoher eigener Verluste bei den nächsten Wahlen abgestraft zu werden. Die Debatte um den Libyen-Einsatz der USA zeigt, wie schnell militärische Angriffe mit bewaffneten Drohnen von Entscheidungsträgern nicht mehr als Krieg wahrgenommen werden, solange zumindest auf der eigenen Seite niemand zu Schaden kommt.

Die zunehmende Leistungsfähigkeit unbemannter Waffen wirft zudem Probleme auf, vor denen die Militärs im US-Verteidigungsministerium, dem Pentagon, bislang die Augen verschließen. Denn will man die militärischen Vorteile einer bewaffneten Drohne vollständig nutzen, muss man die Entscheidung über den Waffeneinsatz den in Millisekunden reagierenden Maschinen überlassen und nicht dem „langsamen“ Menschen. Zwar wiegelt das Pentagon ab und sagt, man bestehe auch künftig darauf, dass Menschen über einen Waffeneinsatz entscheiden. Es sind aber Zweifel angebracht, dass diese Position lange Bestand haben wird. Stünden sich zwei mit Drohnen und Robotern bewaffnete Staaten in einem Konflikt gegenüber, wäre der Anreiz wohl zu stark, sich den entscheidenden Zeitvorteil zu verschaffen, indem man den Maschinen die Entscheidung über Leben und Tod überlässt.

Manche Fachleute würden allerdings mehr Autonomie für Roboter-Waffen begrüßen. Ihr Argument: Maschinen handelten möglicherweise sogar menschlicher als der Mensch. Die Geschichte des Krieges zeige, dass Menschen immer wieder zu Gräuel und Kriegsverbrechen fähig seien, während Maschinen emotionslos über den Waffeneinsatz entscheiden, so die Befürworter. Kritiker hingegen monieren, eine Software, die der Maschine diese Entscheidung überlässt, sei zu kompliziert und zu anfällig für Programmierfehler. Griffe zum Beispiel eine amerikanische Drohne aufgrund eines Softwarefehlers chinesische Einheiten an, könnte dies der Auftakt zu einem „Krieg aus Versehen“ sein, der aufgrund des autonomen Verhaltens der Waffensysteme eskalieren könnte. Zudem stellt sich die Frage, wie eine computergesteuerte Maschine mit den Unschärfen des humanitären Völkerrechts umgehen soll, etwa der Frage nach der Verhältnismäßigkeit der Mittel oder der Unterscheidung von Zivilisten und Kombattanten.

Das Hauptproblem ist aber, dass die Debatte über Gefahren und sinnvolle Grenzen der Aufrüstung von Streitkräften mit Roboter-Waffen der technologischen Entwicklung weit hinterherhinkt. Getrieben von dem Glauben, man müsse auf den technologischen Zug aufspringen, um nicht ins Hintertreffen zu geraten, schauen selbst sonst eher bedachte Staaten wie Deutschland nur auf die vermeintlichen Vorteile und ignorieren die offenkundigen Risiken. Der amerikanische Rüstungsexperte Peter Singer vom Brookings-Institut in Washington sieht sogar Parallelen zum Bau der Atombombe: Auch bei dieser Waffe sei man sich erst hinterher der fundamentalen Gefahren bewusst geworden und versuche nun seit über sechzig Jahren, den Geist wieder in die Flasche zu bekommen.

Allerdings hinkt der Vergleich in einem wichtigen Punkt: Da Drohnen und Roboter im Wesentlichen auf ziviler Technologie beruhen, verbreiten sie sich viel schneller als die Atombombe. Noch hat der Westen einen technologischen Vorsprung. Vielleicht sieht das aber in zehn Jahren ganz anders aus. Deshalb wäre es gut, schon frühzeitig internationale Normen und Regeln zu formulieren, die den Einsatz von Roboterwaffen regeln. Aber danach sieht es derzeit nicht aus.

 

Literatur:
Jan Helmig, Niklas Schörnig (Hg.): Die Transformation der Streitkräfte im 21. Jahrhundert. Militärische und politische Dimensionen der aktuellen „Revolution in Military Affairs“, Campus, 2008.
erschienen in Ausgabe 9 / 2011: Rüstung: Begehrtes Mordgerät

Neuen Kommentar schreiben