Captain America gegen automatische Drohnen

Zweifel hatte der Vorzeige-Amerikaner Steve Rogers (alias Captain America) als ihm Nick Fury, Chef der Geheimdienstorganisation S.H.I.E.L.D, seinen Plan in The Return of the First Avenger beichtet. Fury wusste, dass Rogers nicht leicht vom tödlich-autonomen Waffen System zu überzeugen sei. Darum geht es nämlich, wenn man fliegende Flugzeugträger mit Biosensoren und Boardkanonen ausstattet, die jeden «Terroristen» sofort und automatisch abknallen, wenn er «aus seiner Spinnenhöhle kriecht».

Also was spricht dagegen? Vor allem jetzt nach Paris 2015 klingt so eine Lösung gar nicht so schlecht. Auf Non-Fiction umgemünzt würde das z.B. heißen, Drohnen mit Gesichtserkennung über Syrien fliegen zu lassen und bei einer Übereinstimmung mit bekannten Terroristen automatisch drauf los schießen. Es geht also nicht mehr um einen Film, sondern um eine aktuelle, derzeit aber noch inoffizielle Auseinandersetzung mit solchen «Lethal Autonomous Weapon Systems».

Auf der Mittagsdiskussion am 19. November 2015 der COMECE in Brüssel haben sich Bernhard Koch und Niklas Schörnig dem Thema angenommen. Zwischen Terrorwarnstufen, belgischen Soldaten und belegten Brötchen kam heraus, dass Captain America seine ethischen Hausaufgaben (MEMO 1 von Justitia et pax Europa) gemacht hat:

  • Auch Steve Rogers hat seinen Vorgesetzten darüber informiert, dass zuerst die Straftat kommt, dann die Verhandlung und dann die Strafe. Auch wenn wir gezielte Tötungen ohne Verhandlungen schon als «normal» sehen, moralisch vertretbarer werden sie nicht.
  • Wer hätte gedacht, dass sich hinter dem US Vorzeigegeheimdienst S.H.I.E.L.D doch die böse, nationalsozialistische Hydra Organisation versteckt? Dieses kleine Geheimnis führt dazu, dass diese fliegenden Kampfschiffe plötzlich in die falschen Hände geraten und darauf programmiert werden, alle potentiellen Gutmenschen dieser Erde mittels Big Data über den Haufen zu schießen. Das meint Bernhard Koch mit «Die Risiken, die mit den „autonomen Waffensystemen“ einhergehen, sind unabsehbar.»
  • Wer übernimmt zum Beispiel die Verantwortung wenn sich Ethan Hunt mit seiner high-tech Gesichtsmaske als Terrorist verkleidet, auf eine Mission Impossible begibt und aufgrund einer Gesichtserkennung von einer automatisch abgefeuerten Rakete zerfetzt wird? Wer rechtfertigt sich vor all den Tom Cruise Fans, dessen kleines Idol in noch kleinere Stücke zerrissen wurde?

Es ist fraglich ob ethische Einwände dieses autonome Waffensystem verhindern können. Am Ende ist es jedoch eine politische Entscheidung, die man am besten mit Rücksicht auf den Zweiten Weltkrieg beantwortet: Wollen wir «Robotersoldaten» dessen einzige moralische Reflexion darin besteht, nur Befehle zu befolgen?

Nahezu alle europäischen Militärs arbeiten seit Jahren an einem Soldatentyp, der im Hinblick auf schwerste Menschenrechtsverletzungen Befehle aus ethischen Gründen verweigert. Wollen wir diese Menschen durch Maschinen ersetzen, die das schlichtweg nicht können?