Killer-Roboter haben weiter freien Lauf
17. November 2017"Man sollte die Sache nicht dramatisieren. Roboter werden nicht die Welt übernehmen", sagte Indiens Abrüstungsbotschafter bei den Vereinten Nationen, Amandeep Gill. Unter seinem Vorsitz hatten diese Woche Regierungsvertreter aus rund 100 Ländern in Genf darüber beraten, ob und wie sogenannte Killer-Roboter als Kriegsmaschinen überwacht und reglementiert werden sollen.
Am Ende verständigten sie sich im Prinzip nur auf eine Fortsetzung ihrer Beratungen im nächsten Jahr. Menschenrechtler und Experten künstlicher Intelligenz hatten dringend dazu aufgerufen, schleunigst Regeln zu schaffen, bevor solche tödlichen autonomen Waffensysteme einsatzbereit sind.
Erhöhtes Kriegsrisiko
Aktivisten und Experten sowie blockfreie Staaten fordern ein Verbot solcher Waffen. Sie befürchten, dass die Risiken für das Auslösen eines Krieges wesentlich höher liegen, wenn Maschinen das Feuer eröffnen. Zudem drohten Kriege grausamer zu werden und länger zu dauern. Als brisant dürfte sich auch eine strafrechtliche Verfolgung von Kriegsverbrechen erweisen. Denn wer soll verurteilt werden, wenn Killer-Roboter ein Massaker an Zivilisten verüben?
Lezte Entscheidung trifft ein Mensch?
Vor allem waffenproduzierende Länder wollen aber keine Auflagen, die die Zukunftsentwicklungen behindern könnten. Frankreich und Deutschland hatten bei der Genfer Konferenz als Kompromiss eine politische Erklärung vorgeschlagen, in der Länder sich einigen, dass Menschen die letzte Entscheidung über den Einsatz tödlicher Waffen behalten.
Auch interessant: Moralisches Dilemma Tötungsroboter
Die Fortschritte bei der Entwicklung künstlicher Intelligenz und von Algorithmen, die in den vergangenen Jahren im militärischen, aber auch im zivilen Bereich erzielt wurden, machen die Existenz von Killerrobotern erst möglich. Sie werden an bestimmten Stellen fest verankert, zum Beispiel auf Kriegsschiffen, entlang von Grenzen oder zum Schutz gefährdeter Einrichtungen wie Atomanlagen oder Staudämme. Roboter der Firma Samsung beispielsweise bewachen bereits seit einigen Jahren die Grenze Südkoreas zu Nordkorea. Informationen über mögliche Opfer der südkoreanischen Roboter liegen nicht vor.
Roboter entscheiden über Angriff
Mobile Systeme hingegen setzen sich selbst in Marsch oder werden in Marsch gesetzt. Dieser Marschbefehl stammt im Extremfall von anderen Robotern. Einen Grenzfall stellen Drohnen dar, also unbemannte Fluggeräte, die bei der Bekämpfung von Terroristen zum Einsatz kommen. Solange Menschen diese Drohnen steuern und Ziele angreifen, handelt es sich noch nicht um Killerroboter. Autonom attackierende Drohnen sind Killerroboter - und zwar besonders gefährliche.
Rüstungsexperten der Menschenrechtsorganisation Human Rights Watch gehen davon aus, "dass die Vereinigten Staaten, Großbritannien, China, Israel, Russland und Südkorea Waffensysteme entwickeln, die in zunehmenden Maße autonom sind". Einzelheiten geben die Militärs nicht preis. Die meisten Projekte sind streng geheim.
uh/stu (dpa, epd)