Ethisches Horrorszenario
11. Juni 2014Es ist längst keine ferne Science Fiction: Erfahrungen mit modernen Drohnen deuten darauf hin, dass bewaffnete Konflikte der Zukunft von autonomen Kampfrobotern ausgetragen werden könnten. Die Entwicklung der ferngesteuerten Waffensysteme ist rasant - und lässt sie immer unabhängiger von menschlicher Kontrolle agieren. Der Gedanke, dass eigenständige Kampfmaschinen im Krieg über Leben und Tod von Menschen entscheiden könnten, ist ein völkerrechtliches und ethisches Horrorszenario.
Der Streit um den Einsatz von Distanzfeuerwaffen ist Jahrhunderte alt: Schon Papst Innozenz II. ächtete im 12. Jahrhundert die Armbrust, da keine Ritterrüstung mehr gegen die neue Waffe Schutz bot. Zumindest sollte deren Verwendung unter Christen verboten sein. Gegen Heiden und Andersgläubige fiel die Beschränkung wiederum weniger strikt aus. Die Reichweite und Perfektion der Schusswaffen wurde in den folgenden Jahrhunderten immer größer.
Neue Qualität von Distanzwaffen
Die ethische Diskussion um die Legitimation solcher Distanzwaffen riss nie ab. "Selbst Waffen, die völkerrechtlich als unproblematisch gelten, wie zum Beispiel das Scharfschützengewehr oder der Scharfschütze an sich, sind unter ethischen Gesichtspunkten sehr lange im Militär umstritten gewesen", sagt Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung. "Gerade das Töten eines Menschen, der sich im Moment nicht bewusst ist, dass er ein Ziel ist, war für viele Soldaten extrem schwer. Oft wurden solche Menschen in der Armee von ihren Kameraden negativ beäugt."
Der Einsatz von Drohnen im 21. Jahrhundert ist unter militärtechnischen Gesichtspunkten nicht neu, ist es doch eine Distanzwaffe wie viele andere auch. Aber diese moderne Technologie hat eine neue Qualität. Der Drohnen-Pilot steuert das Fluggerät aus der Kaserne - er muss kein Flugzeug, kein U-Boot, kein Schiff mehr besteigen, das ihn an den Kriegsschauplatz heranrückt. "Dadurch dass sich diese Systeme sehr lange über dem Kriegsschauplatz aufhalten können, kann man dauerhaft im Schichtbetrieb bestimmte Areale überwachen und sie einsetzen", sagt Frank Sauer, Politologe an der Universität der Bundeswehr in München. "Das ist so noch nie da gewesen."
Computer entscheiden über Leben und Tod
Schon heute können diese Waffensysteme auch autonom handeln. Die US-amerikanische Reaper-Drohne etwa fliegt automatisch weiter, wenn in engen Tälern der Kontakt zur tausende Meilen entfernten Basis abreißt. Rüstungsexperten sind sich sicher: der nächste Schritt zu völlig autonomen Waffensystemen ist nicht mehr weit. Schon heute etwa kreisen israelische Drohnen über dem Einsatzgebiet und stürzen sich automatisch auf gegnerische Radarstellungen - ohne dafür von einem Menschen zuvor einen Befehl zu erhalten. Die Gefahr, dass solche autonomen Waffensysteme nicht mehr kontrollierbar werden, steigt. Zwar können Drohnen zur Überwachung eine Black Box mit sich führen; doch diese werden erst relevant, wenn sie bespielsweise unschuldige Zivilisten getötet hat - also, im zynischen Militärjargon gesprochen, ein "Kollateralschaden" entstanden ist.
Für Niklas Schörnig ist das die zentrale Streitfrage: "Das bedeutet, dass die Drohne, der Roboter, der Computer Entscheidungen über Leben oder Tod treffen muss. Dass Computer tatsächlich Tötungsentscheidungen treffen, halte ich aus rechtlicher und auch aus ethischen Gründen für extrem problematisch." Außerdem könnte der Einsatz autonomer Waffensysteme zu einer kaum vorstellbaren Beschleunigung des Kriegsgeschehens führen. "In Zukunft wird das System entscheidend sein, das wenige Millisekunden vor dem anderen System handelt“, so Schörnig.
Befürworter der modernen Waffensysteme halten dagegen, dass man in die Steuerungsalgorithmen ja Stoppmechanismen - so genannte "ethische Regulatoren" ("ethical governors") - hineinprogrammieren könnte. Kritiker befürchten, dass sich solche Tötungshemmungen im Konfliktfall auch "stumm" schalten lassen.
Fehlende völkerrechtliche Regelungen
Völkerrechtlich gesehen stellt sich noch eine weitere ungelöste Frage: Im Kriegsfall ist ein Einsatz von Waffen nur gegen Soldaten und kriegführende Kombattanten erlaubt. Wie soll aber ein Roboter zweifelsfrei erkennen, ob er nun auf einen Soldaten zielt, der sich vielleicht gerade ergeben möchte?
Noch unterstehen Drohnen und Roboter menschlicher Kontrolle. Die nächste Generation aber könnte schon voll autonom handeln und töten - und womöglich auch von feindlichen Hackern manipuliert werden. Für den evangelischen Militärdekan Hartwig von Schubert besteht hier dringender Klärungsbedarf: "Der Bereich des militärischen Datenschutzes ist ein Riesenkapitel. Wie können wir sicherstellen, dass gegnerische Kräfte nicht unsere eigenen Netze okkupieren oder ausspionieren?"
Verbot autonomer tödlicher Waffensysteme?
Wenig umstritten sind andere Einsatzgebiete für ferngesteuerte Roboter, zum Beispiel wenn es um die Rettung von Verwundeten vom Schlachtfeld geht. Derartige Assistenzsysteme hält der Militärdekan für durchaus sinnvoll - sofern sie unbewaffnet seien. Aus christlicher Sicht müsse es in jedem Falle klare Rechtsregelungen geben.
Auch bei den Vereinten Nationen hat man das Problem erkannt und mit der Suche nach Lösungen begonnen: Mitte Mai dieses Jahres trafen sich hier internationale Experten, die für ein generelles Verbot tödlicher autonomer Waffensysteme eintraten. Der Hamburger Militärdekan hofft sehr, dass die Weltgemeinschaft einen Krieg solcher Kampfroboter verbietet, bevor er jemals ausbricht.