Töten ohne Knopfdruck – kritische Überlegungen zum Einsatz autonomer Waffen

Das was früher nur aus Science-Fiction-Filmen, wie zum Beispiel Terminator oder Stealth bekannt war, scheint zunehmend in die Realität umgesetzt zu werden. Die Entwicklung von Drohnen – auch für den militärischen Einsatz – und anderen autonomen (Waffen-)Systemen und Robotern schreitet unablässig voran; mittlerweile arbeiten ca. 60 Länder an der Entwicklung solcher LAWS (Lethal autonomous weapon systems). Jüngst berichtete beispielsweise das US-Militär über einen erfolgreich verlaufenen Test aus dem Jahr 2016 mit 103 mittels künstlicher Intelligenz gesteuerter Minidrohnen vom Typ Perdix, die ohne menschliches Eingreifen als eigenständiger Schwarm agierend mehrere Flugmissionen absolvierten. Als vorgesehene Einsatzbereiche hierfür werden vor allem Überwachungs- und Erkundungsmissionen genannt. Vorläufer war übrigens das bereits in den 1990er Jahren entwickelte Low Cost Autonomous Attack System (LOCAAS) genannte Drohnensystem. Einen ähnlichen Schwarm wie den Perdix-Schwarm hat der chinesische Drohnenspezialist China Electronics Technology Group Corporation (CETC) bereits vorgestellt. Auch die derzeit weltweit größte Kampfdrohne, die Ch-5 kommt aus China und ist bereits in mehrere Länder exportiert worden. Die USA agieren hinsichtlich des Exports von derlei Militärtechnik zurückhaltender, erregten aber kürzlich mit dem Programm Royal Wingman neue Aufmerksamkeit: Hierbei wurden alte F-16 Kampfjets zu autonomen, bewaffneten Drohnen umgerüstet, die bemannte Tarnkappenjets begleiten und unterstützen sollen. Im Rahmen des Demonstrationsflugs Have Raider II konnte ein erfolgreicher Luft-Bodenangriff durch solch einen autonomen Wingman als Begleitung eines bemannten Kampfjets gezeigt werden.

Ähnliche Fortschritte sind auch hinsichtlich der Entwicklung von Robotern, wie z.B. dem im Auftrag der DARPA entwickelten Atlas-Roboter, sowie unbemannter ferngesteuerter U-Boote, Helikopter, Schiffe, Panzer u.Ä. zu verzeichnen. Interessant ist in diesem Zusammenhang auch der am 30.September 2017 erfolgte Kampf zwischen zwei Kampfrobotern, dem amerikanischen Megabot und dem japanischen Kuratas der Firma Suidobashi – beide jeweils dieselbetrieben und von einem innenliegenden Cockpit aus von einem Menschen gesteuert –, die erahnen lassen, in welche Richtung die Entwicklung zukünftig gehen könnte. Dass derlei in Zukunft vermutlich nicht nur für ein „sportliches“ Kräftemessen und Wettkämpfe weiterentwickelt und eingesetzt wird, ist naheliegend. Zurückkommend auf die zuvor genannten ferngesteuerten Waffensysteme reichen deren mögliche Einsatzbereiche von Aufklärungs-, Erkundungs- und Überwachsmissionen über die Luftnahunterstützung durch Drohnen, bis hin zu Transport und Verwundetenevakuierung; zunehmend rückt aber auch der Einsatz als autonomes Waffensystem in den Fokus.

Erste Ansätze hierzu sind bereits sichtbar bei der viel diskutierten Praxis des targeted killing. Diese ist bereits seit den 1970er Jahren Teil der israelischen Sicherheits- und Verteidigungspolitik, wird jedoch seitens der USA nach dem 11. September 2001 im Kampf gegen den Terrorismus angewandt, um Al-Qaida und Taliban-Kämpfer in Afghanistan, Pakistan und im Jemen, und mittlerweile auch IS-Kämpfer in Syrien, Libyen und dem Irak, durch selbständig navigierende Drohnen, wie zum Beispiel die Predator oder die Reaper, die auch in anderen Armeen eingesetzt werden, zu töten. Aufsehen erregt hat hierbei auch die Tatsache, dass mit Samir Khan und Anwar al-Awlaki und seinen beiden Kindern auch amerikanische Staatsbürger – ohne vorheriges Gerichtsverfahren – auf diese Weise getötet wurden. Erweitert wurde dies um sogenannte signature strikes, d.h. Einsätze, die sich nicht gegen eine spezifische Person richten, sondern die auf Basis einer Wahrscheinlichkeitsrechnung, die anhand bestimmter Verhaltensmuster ein Bedrohungsrisiko ableitet,  Personengruppen attackiert; eine Praxis, die – vor allem aufgrund der höheren Gefahr von Kollateralschäden – nicht weniger umstritten ist.

Schon dieses derzeit gängige Anwendung der targeted killings wirft viele Fragen auf, die kontrovers diskutiert werden, zum Beispiel im Hinblick auf die Frage der Vereinbarkeit mit dem Völkerrecht, aber auch hinsichtlich der Transparenz und der Überprüfung bzw. der Überprüfbarkeit der zugrunde liegenden „Auswahlkriterien“ und der Begründung von derlei Tötungsentscheidungen, sowie deren Verhältnismäßigkeit; von Falschinformationen, Missverständnissen und Verwechslungen, durch die unbeteiligte Zivilisten völlig gesetzeswidrig getötet werden, einmal ganz zu schweigen.

Kritiker warnen darüber hinausgehend angesichts der Entwicklung und des Einsatzes unbemannter Flugmaschinen, Panzer, Schiffe und Mehrzweck-Radfahrzeuge, wie das Multi-Mission Unmanned Ground Vehicle von Rheinmetall oder der RoBattle von IAI, dass diese Systeme in Zukunft auch für das gänzlich autonome Töten von Menschen eingesetzt werden könnten. Dies, die Entwicklung von automatischen Systemen, die noch menschlicher Kontrolle unterliegen, hin zu autonomen Systemen, die ohne menschlichen Einfluss agieren, ist gemäß der Unmanned Integrated Sytems Roadmap auch erklärtes Ziel des Pentagon („beyond autonomous mission execution to autonomous mission performance“).

Noch ist die Entwicklung nicht ausgereift bzw. noch werden Waffen, die technologisch bereits über das Potenzial zum autonomen Einsatz verfügen, nicht gänzlich autonom eingesetzt; momentan trifft immer der Mensch die letzte Entscheidung.

Experten schätzen jedoch, dass binnen weniger Jahre bis eines Jahrzehnts die Entwicklung autonomer Waffensysteme – auch vollautonomer Kampf-Roboter – dahingehend fortgeschritten sein könnte, und bezeichnen dies – im Anschluss an Schießpulver und Atomwaffen – als sogenannte „dritte Revolution der Kriegsführung“. Diese Fachleute, darunter Stephen Hawking, Elon Musk und Steve Wozniak, warnten bereits 2015 in einem offenen Brief, der von 2000 weiteren Forschern unterzeichnet wurde, vor den Gefahren, die mit dieser neuen, mit künstlicher Intelligenz ausgestatteten Waffentechnologie verbunden sind, und fordern ein entsprechendes Verbot. Erneut mahnte Elon Musk zusammen mit 100 weiteren Wissenschaftlern und CEOs  von Robotik- und KI-Unternehmen in einem weiteren offenen Brief im August 2017 vor einem Wettrüsten mit autonomen Waffensystemen:

“Lethal autonomous weapons threaten to become the third revolution in warfare. Once developed, they will permit armed conflict to be fought at a scale greater than ever, and at timescales faster than humans can comprehend. These can be weapons of terror, weapons that despots and terrorists use against innocent populations, and weapons hacked to behave in undesirable ways. We do not have long to act. Once this Pandora’s box is opened, it will be hard to close. We therefore implore the High Contracting Parties to find a way to protect us all from these dangers.”

Ähnlich argumentieren auch Vertreter der Campaign to stop killer robots sowie Human Rights Watch als Mitbegründer dieses Bündnisses, die – nach dem Vorbild des Verbots von Antipersonenminen und  Laser-Blendwaffen – ein präventives Verbot solcher vollständig autonomen Waffen im Rahmen der UN-Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können (engl. Convention on prohibitions or restrictions on the use of certain conventional weapons which may be deemed to be excessively injurious or to have indiscriminate effects; kurz: CCW) fordern. Denn einige Fragen, die im Hinblick auf die Praxis des targeted killings diskutiert werden, stellen sich erst recht im Hinblick auf autonome Waffen(-systeme), die selbständig, ohne direkte menschliche Kontrolle oder Eingreifen, Ziele auswählen und die Entscheidung zu töten treffen.

Abgesehen von der Frage, inwieweit dies mit dem Völkerrecht vereinbar ist, auf die an dieser Stelle nicht ausführlicher eingegangen werden soll, müssen auch ethische Aspekte beleuchtet werden. So stellt sich insbesondere die Frage der Verantwortung: Bei Tötungsentscheidungen muss es immer einen Verantwortlichen geben, der im Zweifel auch zur Rechenschaft gezogen werden kann. Im Falle autonomer Waffensysteme ist genau diese Frage jedoch nicht eindeutig zu beantworten: Liegt die Verantwortung beim Programmierer, beim Bediener, beim Hersteller oder beim Befehlsgeber? Diesbezüglich ist anzumerken, dass bei solchen LAWS die Entscheidung lediglich vorverlagert wird, insofern diese im Vorfeld programmiert und auf dieser Basis später von Maschinen ausgeführt wird. Auf die mögliche Fehlerhaftigkeit der zugrunde liegenden Algorithmen weisen Informatiker wie zum Beispiel Prof. Hans-Jörg Kreowski hin.

Weiterhin argumentieren Befürworter eines präventiven Verbots autonomer letaler Waffensysteme, dass es unethisch sei und die Menschwürde, verletzt wird, wenn Tötungsentscheidungen nicht mehr von einem Menschen getroffen, sondern an Maschinen delegiert werden.

Im Gegensatz dazu argumentieren Befürworter mit den Vorteilen solch autonomer Waffensysteme: Aus ihrer Sicht können diese in Kriegen sogar ethischer agieren, als Menschen, weil aufgrund ihrer größeren Präzision, Effizienz, Reaktionsschnelligkeit und der Fähigkeit zur Verarbeitung großer Datenmengen in kurzer Zeit – im Vergleich zu menschlichen Soldaten – Kollateralschäden deutlich reduziert werden können. Zudem gibt es keine Einschränkungen mehr durch menschliche Bedürfnisse, Erschöpfung, Krankheit und Schmerz; außerdem kennen diese Maschinen keine Emotionen oder Rachegefühle, was wiederum die Gefahr für Zivilisten reduzieren soll. Vor diesem Hintergrund erscheint auch die Gefahr für Soldaten deutlich geringer und es wird als ein ethisches Gebot betrachtet, diese neuen Technologien zur Verfügung zu stellen, um Soldaten und Soldatinnen keiner unnötigen Gefahr auszusetzen.

Somit legen letztlich sowohl Gegner als auch Befürworter autonomer Waffensysteme in ihrer Argumentation den Fokus auf den Schutz von Menschenleben und die Sicherheit der Zivilbevölkerung, verfolgen hinsichtlich der Umsetzung jedoch unterschiedliche Ansätze.

In diesem Zusammenhang stellt sich nebenbei bemerkt jedoch die Frage, ob es bei dieser Argumentation letztlich nicht hauptsächlich um die Vermeidung von Verlusten auf Seiten westlicher Länder bzw. westlicher Opfer geht, die Martin Shaw in seinem Buch „The New Western Way of War“  aufgeworfen hat, in dem er die Kriegsführung westlicher Demokratien als Risikotransferkriege beschreibt.

Zudem ist bei den angeführten Pro-Argumenten stets auch die Kehrseite der Medaille zu betrachten: Solche eine Maschine bzw. solch ein autonomes Waffensystem mag zwar keine Rachegefühle haben, es kann jedoch auch keine Empathie empfinden, die – zusammen mit dem Gewissen – eigentlich „Kontrollinstanz“ bei der Tötungsentscheidung und die Grundvoraussetzung, für eine ethisch fundierte verantwortungsbewusste Entscheidung ist. Zudem fehlt autonomen Waffen (derzeit) die Fähigkeit zur flexiblen Reaktion auf bzw. zur Anpassung an unvorhergesehene kontextbezogene Änderungen, zur  Improvisation in komplexen, unüberschaubaren Situationen sowie zu einer (Menschen vergleichbaren) Einschätzung von Absichten. Dies ist zum Beispiel relevant im Hinblick auf die im humanitären Völkerrecht zentrale Unterscheidung zwischen Kombattanten und Nicht-Kombattanten, die aus meiner Sicht zum derzeitigen Stand von Maschinen in uneindeutigen Situation nicht zuverlässig getroffen werden kann, z.B. wenn sich jemand mit feindlicher Uniform ergeben will oder wenn Zivilisten als menschliche Schutzschilde missbraucht werden. In solchen Situationen ist eine Einschätzung und die Abwägung (der Verhältnismäßigkeit) der Mittel für autonome Maschinen deutlich schwieriger, weil vieles situations- und kontextabhängig ist und diese „Zwischentöne“ und Uneindeutigkeiten für autonome Maschinen nach derzeitigem Entwicklungsstand schwieriger (bzw. unmöglich) sind, als für Menschen, die derlei eher einordnen können und eine größere Bandbreite an Reaktionsmöglichkeiten haben (auch wenn Maschinen vielleicht mehr Daten in kürzerer Zeit verarbeiten können).

Weiterhin ist das Waffensystem zwar nicht limitiert durch körperliche Erschöpfungs- oder Schmerzzustände, jedoch stellt sich hier in anderer Weise die Frage der Energieversorgung und der sicheren Kommunikationswege bzw. Datenübertragung. Weiterhin äußern zum Beispiel Vertreter von Human Rights Watch aber auch Informatik-Experten wie Prof. Hans-Jörg Kreowski große Zweifel daran, dass es gelingt, einen hinreichenden ethischen und die Wahrung des Völkerrechts sicherstellenden Code für solche autonomen Waffensysteme zu programmieren. Diesbezüglich ist anzumerken, dass derzeit noch nicht absehbar ist, was die in Zukunft alles möglich ist; immerhin steht die Entwicklung künstlicher Intelligenz ja noch ziemlich am Anfang. Aber es muss betont werden, dass die autonomen Waffensystemen zugrunde liegenden programmierten Algorithmen, auf deren Basis die Maschine die Tötungsentscheidung fällt und ausführt, laut Kreowski „fast immer fehlerhaft sind“ und somit mit dem Einsatz solcher Systeme „fehlerhaftes Töten explizit in Kauf genommen“ wird; von der Frage, was passiert, wenn solche Systeme gehackt und manipuliert werden, einmal ganz abgesehen. Derlei Fragen und Schwierigkeiten lassen sich gemäß Befürwortern und Robotik-Experten wie Prof. Ronald Arkin durch entsprechende Sicherheitsmaßnahmen regeln.

Experten wie z.B. Frank Sauer mahnen jedoch außerdem, dass aufgrund der sicheren Distanz, aus der heraus aufgrund autonomer Waffensysteme und Kampfroboter agiert werden kann, die Hemmschwelle zum Einsatz sinken (was mit Blick auf die Zustimmung zu humanitären Einsätzen auch als Pro-Argument verstanden werden kann) und eine Ausweitung des Gefechtsfelds die Folge sein könnte; zudem berge diese größere Distanz zum Töten bzw. zu den Getöteten auch die Gefahr einer ethischen Desensibilisierung und – mit den Worten von Jonathan Adams – einer Art „Playstation Mentalität“. Diesbezüglich stellt sich aus meiner Sicht jedoch die Frage, ob dieses Argument nicht auch auf andere Formen des remote killing, wie zum Beispiel mittels einer ferngesteuerten Rakete, die ebenfalls aus gebührender Distanz zum Ziel ohne direkte Gefahr für das eigene Überleben abgefeuert wird, übertragbar ist.

Noch interessanter ist aus meiner Sicht in diesem Zusammenhang allerdings, inwieweit angesichts dieser sicheren Distanz noch ein Angriff gerechtfertigt werden kann: Laut Kriegsvölkerrecht ist ein Angriff nur zum Zweck der Selbstverteidigung im Fall eines unmittelbaren bewaffneten Angriffs erlaubt, bei dessen Abwehr die Verhältnismäßigkeit zu wahren ist. Demnach ist die Ausübung tödlicher Gewalt nicht legitim, wenn zur Abwehr einer solchen Bedrohung bzw. eines Angriffs die Gefangennahme von Personen ausreichend ist. Letztere ist jedoch mithilfe autonomer Waffensysteme, die lediglich beobachten oder töten können, nicht möglich. Daher stellt sich die Frage, inwieweit ein (tödlicher) Angriff noch mit dem Recht auf Selbstverteidigung rechtfertigt werden kann, wenn aufgrund der Distanz, aus der heraus getötet wird, eigentlich keine unmittelbare Gefährdung vorliegt. Dieser Aspekt der Distanz kann übrigens auch im Hinblick auf die Distanz hinsichtlich der Konsequenzen dieses Handelns, auf die Distanz zum aufgrund dieser Entscheidung Getöteten, bezogen werden, die beim Einsatz autonomer Waffen verstärkt gegeben ist. Zugegeben stellen sich diese Fragen der Notwendigkeit, der Verhältnismäßigkeit und der Entkopplung vom Tötungsgeschehen auch schon im Hinblick auf das targeted killing; auch hier argumentieren die USA mit einem weit ausgelegten und aus diesem Grund nicht unumstrittenen Recht auf Selbstverteidigung.

In Bezug auf die o.g. Argumente hinsichtlich möglicher Risiken letaler autonomer Waffensysteme erklärt Prof. Ronald Arkin, dass diese grundsätzlich durch entsprechende Programmierung, z.B. mithilfe des von ihm entwickelten ethischen Regulators, und hinreichende Testläufe reduziert und solche Systeme dahingehend sicher gemacht werden können. Abgesehen von dem nachdrücklichen Hinweis des IT-Experten  Kreowski, der die Fehlerhaftigkeit von Algorithmen betont, frage ich mich jedoch, wie diese Tests umsetzbar sein sollen: In welcher Umgebung, wie und wo soll solch eine Erprobung, ein 100%-iger realistischer Life-Test dieser letalen autonomen Waffensysteme gefahrlos möglich sein? In dem Moment, in dem in einem solchen realitätstreuen Test ein Fehler zutage tritt, den es zu korrigieren gilt, sind unter Umständen schon Unschuldige zu Schaden bzw. zu Tode gekommen. Immerhin geht es um Waffen. Es steht zu befürchten, dass die eigentliche Erprobung solch neuer Waffen – wie schon im Falle anderer Waffentests – letztlich erst auf dem realen Schlachtfeld stattfindet und erst danach eine abschließende Beurteilung und ggf. Korrektur der eingetretenen Fehler – falls möglich – erfolgen kann. Zu diesem Zeitpunkt sind jedoch bereits Menschen Opfer dieser Waffensysteme geworden. Dies gilt bspw. für ABC-Waffen oder auch Landminen, die ebenfalls erst nach ihrem Einsatz auf dem Schlachtfeld verboten wurden.

Auch im Jugoslawienkrieg haben sich 52 % der eingesetzten experimentellen Waffen (u.a. Lenkraketen) als fehlerhaft erwiesen und in der Folge als Blindgänger ein massives Risiko auch für Zivilisten dargestellt und mussten im Nachhinein aufwendig geräumt werden. Nicht umsonst wurden weiterhin z.B. der von Israel an der Grenze zum Gazastreifen eingesetzte Guardium  aber sowie das israelische Sentry Tech-Waffensystem (das von einigen als automatisches, von anderen als autonomes Waffensystem eingestuft wird) oder auch der SGR-A1 von Samsung, der erste vollautomatische Kampfroboter der Welt, der u.a. testweise von Südkorea an der Grenze zum Nachbarland eingesetzt wurde wieder aus dem Verkehr gezogen, u.a. aufgrund einer zu hohen Fehler- bzw. Fehlentscheidungsquote. Der Nachfolger, der 4 Meter große Method-2 des koreanischen Unternehmens Hankook Mirae, der zukünftig für die Überwachung der südkoreanischen Grenze vorgesehen ist, lernt gerade laufen.

Unabhängig von der Frage, wie diese Forderung der Befürworter nach ausreichender Testung und Sicherheit als Voraussetzung für den Einsatz dieser LAWS wirklich umgesetzt werden soll und inwieweit die Programmierung eines zuverlässigen ethischen Codes für diese Maschinen realistisch ist, lässt sich nach meiner Meinung die Entwicklung in diesem Bereich letztlich nicht mehr aufhalten. Selbst im Falle eines Verbots solcher Waffen würde die Entwicklung der damit verbundenen Technik weiter voranschreiten. Da es sich hierbei um Dual-Use-Technologien handelt, deren Entwicklung für den zivilen Bereich (wie zum Beispiel Pflegeroboter, autonome Fahrzeuge o.Ä.) auf jeden Fall voranschreiten wird, besteht grundsätzlich immer die Möglichkeit, dass diese – unabhängig eines Verbots – von verschiedenen Kräften auch für militärische Zwecke genutzt werden. Hierbei muss bedacht werden, dass solche Technologien bzw. Waffen auch von anderen Kräften, wie zum Beispiel Terrororganisationen wie dem IS – eingesetzt werden könnten (was eigentlich ein Argument für solch ein grundsätzliches Verbot wäre), und dies wiederum auch zum Nachteil derer werden könnte, die sich auf entsprechende Beschränkungen hinsichtlich der Entwicklung und des Einsatzes solcher Systeme verständigt haben.

Auch aus diesem Grund erscheint mir nach derzeitigem Kenntnisstand ein generelles präventives Verbot dieser Waffen wenig realistisch. Auch Peter W. Singer äußert sich in einer ARD-Reportage zum Thema Killer-Roboter wenig optimistisch was eine grundsätzliche Ächtung bzw. ein Verbot solcher Waffen betrifft. Nach seiner Einschätzung müssen für solch ein Verbot drei Kräfte ausgeschaltet werden: Wissenschaft, Kapital und der Krieg selbst; ein sehr unwahrscheinliches Szenario.

Daher bleibt mir nur, für den Einbau hinreichender und wirksamer Kontroll- und Sicherheitsmechanismen zu plädieren: Denkbar wären hier beispielsweise eine Art Selbstzerstörungmodus, z.B. im Fall eines Absturzes, um zu vermeiden, dass die Maschine oder Teile davon von feindlichen Kräften nachgebaut werden kann, der Einbau eines Fail-Safe-Mechanismus, der dafür sorgt, dass sich die Maschine selbst abschaltet, bevor sie (z.B. aufgrund eines Programmierungsfehlers oder einer Manipulation von außen ungewollt Schaden anrichtet sowie eine Art (ferngesteuertes) Not-Aus, z.B. in Form eines Schalters, mithilfe dessen im Ernstfall der Speicher gelöscht, die Energiezufuhr gekappt oder die Maschine/der Roboter kampfunfähig gemacht werden kann. Andernfalls bliebe zum Beispiel bei außer Kontrolle geratenen (Kampf-)Robotern als letzte Möglichkeit nur noch der Einsatz spezieller Waffen, um diese Maschinen außer Gefecht zu setzen, wie zum Beispiel EMP-Waffen (Pinch) bzw. Teslaspulen, was jedoch mit anderen Herausforderungen und Nachteilen verbunden ist; zudem kann diese Technik natürlich auch von Gegnern eingesetzt werden. Der Forderung, gemeinsam eine reifliche Abwägung der (zum jetzigen Zeitpunkt noch nicht vollständig absehbaren) potentiellen Vorteile und Risiken solcher Waffensysteme und Roboter vorzunehmen und sich auf entsprechende Schritte zu verständigen, kann ich mich vor diesem Hintergrund nur anschließen. Das auf November 2017 verschobene Treffen der Expertengruppe zu diesem Thema, deren Einsatz durch die CCW-Konferenz im Dezember 2016 beschlossen wurde, wird hier vielleicht neue Erkenntnisse und Ergebnisse bringen.