Seit Beginn des russischen Angriffskriegs in der Ukraine sind die sozialen Medien voll von kurzen Videoschnipseln, die Drohneneinschläge aufgezeichnet haben. Sie zeigen, wie die bewaffneten Flugobjekte Panzer oder Soldatengruppen treffen und explodieren. Wer sich diese Videos anschaut, braucht manchmal starke Nerven.
Manche der in der Ukraine eingesetzten bewaffneten Drohnentypen suchen ihre Ziele ohne menschliches Zutun. Um bewaffnete Drohnen und Autonomie in Waffensystemen gab es vor einigen Jahren eine intensive ethische Debatte. Sie ist, bis auf einzelne Stimmen, längst verstummt. Im Oktober 2020 hatte die Wiesbadener Martin-Niemöller-Stiftung noch erklärt, bewaffnete Kampfdrohnen seien „nicht verantwortungsfähig“. Zuletzt hatte Papst Franziskus beim G7-Gipfel in Apulien Mitte Juni gesagt: „Keine Maschine darf jemals die Wahl treffen können, einem Menschen das Leben zu nehmen.“
Die Realität ist darüber hinaus. Schon 2020 waren Drohnen – auch autonome – ein wesentlicher Faktor für den Sieg Aserbaidschans über Bergkarabach. Im Ukraine- und im Gaza-Krieg analysiert Künstliche Intelligenz (KI), beispielsweise das israelische Habsora-System, gesammelte Daten und destilliert aus ihnen mögliche Angriffsziele.
Laut Marius Pletsch von der in Stuttgart ansässigen Deutschen Friedensgesellschaft hat sich in jüngster Zeit viel verändert. „Die Systeme hatten früher begrenzte Einsatzzwecke und Einsatzradien“, erklärt er, beispielsweise zur Flugabwehr. Nun aber gebe es durch den KI-Boom neue Einsatzmöglichkeiten, etwa bei der Erkennung von Objekten oder Individuen, und die Systeme würden mobiler.
Das allerdings führt zu neuen Risiken, wie der Politologe Frank Sauer erklärt, Forschungsleiter des Metis Instituts für Strategie und Vorausschau der Münchener Bundeswehr-Universität. Es mehrten sich Sorgen vor sogenannten flash wars, sagt er: Kriege, die aus dem Nichts heraus entstehen, von Maschinen ausgelöst.
Ein Szenario könnte so gehen, schildert Sauer: Eine US-Flugzeugträgergruppe im Südchinesischen Meer wird von einem Schwarm aus autonomen Systemen geschützt. Aufgrund eines Sensorfehlers melden diese einen chinesischen Angriff und beginnen zu feuern. Die Chinesen beziehungsweise deren autonome Systeme schössen dann zurück. „Dann hätten wir einen heißen Krieg, den kein Mensch wollte, blitzschnell ausgelöst von Algorithmen“, erklärt Sauer. „Und es kann sein, dass richtig viel Schaden angerichtet ist, bevor es den Menschen gelingt, den Stecker zu ziehen.“
Eine umfassende Regulierung autonomer Waffensysteme ist auf internationaler Ebene bislang gescheitert. Friedensaktivist Pletsch hält diesen Weg aber noch nicht für zu Ende gegangen. Anstatt wie bislang in gesonderten Gesprächen im Rahmen der Konvention über konventionelle Waffen in Genf solle man es in der Generalversammlung der Vereinten Nationen versuchen, sagt er. Denn in Genf hätten militärisch starke Staaten gebremst, in der Generalversammlung könnten sich kleinere Staaten besser einbringen.
Und dort müsse auch Ethik eine Rolle spielen. „Um zum Kern des Problems vorzudringen, reicht eine rein völkerrechtliche Betrachtung nicht aus“, sagt Pletsch. „Wir müssen uns mit der Frage auseinandersetzen, ob wir wollen, dass Menschen zu Datenpunkten reduziert und mit einem Zielprofil abgeglichen werden, und dann eine Maschine über Leben und Tod entscheiden kann.“
Von ethischen Debatten erwartet der Politologe Sauer hingegen nicht viel: „Wir sehen ja, was Russland sich darum schert.“ Allerdings seien nicht nur Russland oder China unwillig, sich in die Entwicklung dieser Systeme reinreden zu lassen. Auch bei manch westlichen Mächten treffe man auf Unverständnis, wenn man ethisch gegen ein System argumentiere, das militärisch effektiver sei als jeder Mensch. „Und schwarz-weiß ist die Diskussion eben auch nicht“, sagt Sauer. Denn militärische Effektivität könne auch bedeuten, dass Zivilisten weniger statt mehr zu Schaden kommen.
„Rüstungskontrolle mache ich nicht mit einem Freund, sondern mit meinem Feind“, sagt Sauer. „Damit wir beide überleben und uns nicht aus Versehen gegenseitig in die Luft sprengen.“ Anstatt Ethik sei daher die Sorge um die Sicherheit der Hebel, um autonome Waffen unter Kontrolle zu halten.