Autonome Waffensysteme sind nach den Worten des Friedensaktivisten Marius Pletsch von der Deutschen Friedensgesellschaft noch fehleranfällig. Sie könnten in näherer Zukunft nicht so weit verbessert werden, dass man sie ohne humanitäre Folgen einsetzen könnte, sagte er dem Evangelischen Pressedienst (epd).
Pletsch wandte sich gegen die Argumentation, dass Künstliche Intelligenz (KI) auf dem Schlachtfeld unnötige Opfer sogar reduzieren könne, weil präzise Angriffe Flächenbombardements ersetzten. Autonome Systeme generierten oft eine solche Menge an Zielen, dass die genaue Prüfung dieser Ziele durch Menschen unmöglich sei. „Der Effekt am Boden ist dann ähnlich schlimm wie bei einem Flächenangriff“, sagte er.
Den Weg einer internationalen Regulierung autonomer Waffensysteme hält Pletsch für noch nicht zu Ende gegangen. Anstatt wie bislang in gesonderten Gesprächen im Rahmen der Konvention über konventionelle Waffen in Genf solle man es in der Generalversammlung der Vereinten Nationen versuchen, sagte er. Denn in Genf hätten militärisch starke Staaten gebremst, und in der Generalversammlung könnten sich kleinere Staaten besser einbringen. „Ich würde dafür werben, die Foren zu nutzen, die wir haben, um Rüstungskontrollinstrumente zu stärken“, sagte Pletsch. „119 Staaten unterstützen Verbote und Regulierungen von Autonomie in Waffensystemen.“
Pletsch bedauerte, dass Ethik in der Frage um den Einsatz von KI in Waffensystemen kaum noch eine Rolle spiele. „Man muss schon sehen, dass der russische Krieg gegen die Ukraine die Debatte unheimlich verändert hat“, sagte er. Dennoch müsse auch Ethik beim Versuch einer internationalen Einhegung eine Rolle spielen. „Um zum Kern des Problems vorzudringen, reicht eine rein völkerrechtliche Betrachtung nicht aus“, sagte er. „Wir müssen uns mit der Frage auseinandersetzen, ob wir wollen, dass Menschen zu Datenpunkten reduziert und mit einem Zielprofil abgeglichen werden und dann eine Maschine über Leben und Tod entscheiden kann.“ (1581/16.07.2024)