Seit etwa zehn Jahren wird die Kriegsführung zunehmend von neuen Technologien geprägt. Das zeigt ein Blick auf aktuelle Kriegsschauplätze: So nutzt die israelische Armee im Krieg gegen die Hamas das Entscheidungshilfesystem „Gospel“, um mittels Künstlicher Intelligenz (KI) Angriffsziele in Gaza auszumachen. Das System unterstützt die Armee bei der Datenverarbeitung und der Zielauswahl, doch es sind nach wie vor Soldatinnen und Soldaten, die die Ziele bestätigen und bekämpfen.
Im russischen Angriffskrieg gegen die Ukraine entpuppte sich zu Beginn der Kämpfe im Frühjahr 2022 die türkische Kampfdrohne Bayraktar als besonders kostengünstige und effektive Waffe der Ukraine, um sich gegen russische Panzer und Patrouillenboote zu verteidigen. Angeblich soll sie sogar für die Versenkung des russischen Flaggschiffs Moskwa genutzt worden sein. Die Popularität der ferngesteuerten Drohne erreichte mit einem von ukrainischen Soldaten komponierten Lied zur Lobpreisung der Bayraktar ihren Höhepunkt. Allerdings sind die Bestände der türkischen Drohne mittlerweile fast vollständig von russischer Seite zerstört worden, sodass die verbliebenen Fluggeräte nur noch zu Aufklärungszwecken verwendet werden.
Auch Aserbaidschan nutzte 2020 hochmoderne Drohnen und Raketensysteme aus Israel und der Türkei im Krieg mit Armenien um die Exklave Bergkarabach, welche im September 2023 von Aserbaidschan militärisch eingenommen wurde. Insbesondere die umgangssprachlich sogenannten Kamikaze-Drohnen (englisch „loitering munition“), die nach ihrem Start eine Weile in der Luft „herumhängen“, bevor sie sich auf ihre Ziele hinabstürzen und explodieren, erweckten 2020 öffentliche Aufmerksamkeit.
Weit mehr als „Killerroboter“
In all diesen Beispielen sind aber noch keine im eigentlichen Sinn autonomen Waffensysteme zum Einsatz gekommen. Diese zeichnen sich dadurch aus, dass sie ihr Ziel ohne menschliches Zutun auswählen und bekämpfen. In den beschriebenen Fällen geht es um die Fernsteuerung von Waffen, um Soldaten zu unterstützen, nicht darum, sie zu ersetzen. Deswegen erscheint es sinnvoll, von „Autonomie in Waffensystemen“ anstatt von „autonomen Waffensystemen“ zu sprechen. Diese Terminologie zeigt außerdem, dass es um weit mehr als die von Science-Fiction geprägten Szenarien von „Killerrobotern“ geht.
Autorin
Vanessa Vohs
ist wissenschaftliche Mitarbeiterin im EU-Projekt AI For Defense (AI4DEF) und Doktorandin am Lehrstuhl für Internationale Politik an der Universität der Bundeswehr München. Zuvor war sie bei der Stiftung Wissenschaft und Politik in einem Projekt zur Regulierung autonomer Waffensysteme (iPRAW) tätig.Nichtsdestotrotz hat sich der Begriff der „Letalen Autonomen Waffensysteme“ (LAWS) mit den seit 2014 laufenden UN-Gesprächen darüber etabliert. Die zivilgesellschaftliche Kampagne gegen Killerroboter hatte durch die geweckte öffentliche Aufmerksamkeit die Genfer Gespräche 2013 angestoßen. Seit 2017 finden diese Gespräche in einer Gruppe von Regierungsexpertinnen und -experten (GGE) im Rahmen der Konvention über bestimmte konventionelle Waffen statt. Zwei Jahre später hat sich die Gruppe auf elf Leitprinzipien zum Umgang mit LAWS geeinigt, beispielsweise auf den Verzicht auf Anthropomorphisierung, also Waffensystemen menschliche Eigenschaften zuzusprechen, wie etwa Urteilskraft oder Würde.
Seit der Verabschiedung dieser rechtlich unverbindlichen Prinzipien hat die Gruppe jedoch keine Fortschritte erzielt, im Gegenteil: Die Gespräche der letzten Jahre waren geprägt von einer Blockadehaltung einiger weniger Staaten, die sogar den erreichten Status quo von 2019 teilweise wieder hinterfragen. Das gilt vor allem für Russland, das seit dem Angriffskrieg gegen die Ukraine im Bereich der Rüstungskontrolle auf Blockade setzt.
Verbot qua Völkerrecht oder Verhaltenskodex?
Aber auch andere Staaten sind uneins darüber, ob es verbindliches neues Völkerrecht zu einem Verbot von LAWS braucht (gefordert vor allem von Staaten des globalen Südens), ob ein unverbindlicher Verhaltenskodex reicht (unter anderem gefordert von den USA, Großbritannien und Japan) oder ob man fortschreitende Entwicklungen abwarten und erst dann regulatorisch tätig werden soll (Türkei und Israel unter anderem). Deutschland verfolgt zusammen mit Frankreich den sogenannten „two tier approach“, welcher vollkommen autonom agierende Systeme verbieten und andere regulieren soll.
Erst im November wurde bei der Überprüfungskonferenz der Konvention über bestimmte konventionelle Waffen vereinbart, dass die Expertengruppe weiterhin bis 2026 für jeweils zehn Tage pro Jahr in Genf zusammenkommen wird. Aufgrund des Konsensprinzips in der Gruppe ist es jedoch unwahrscheinlich, dass eine Einigung zustande kommen wird, Verhandlungen zu beginnen, zum Beispiel über ein neues Zusatzprotokoll zu LAWS zur Konvention über bestimmte konventionelle Waffen.
Doch nicht nur unterschiedliche Positionen der Staaten bezüglich der völkerrechtlichen Verbindlichkeit erschweren das. Es ist besonders komplex, Autonomie in Waffensystemen zu regulieren, da im Unterschied zum Kalten Krieg nicht mehr nukleare Sprengköpfe und Trägersysteme gezählt werden müssen, sondern vielmehr die Mensch-Maschine-Interaktion im gesamten Lebenszyklus eines Waffensystems betrachtet werden muss, die nicht quantifizierbar ist. Dieser Lebenszyklus beginnt bereits bei der Entwicklung von LAWS: Es stellen sich zum Beispiel Fragen, wie Ingenieure mit Ethik arbeiten oder welche Rolle der Mensch beim Training mit den Systemen spielt.
Nicht per se gut oder böse
Eine Einigung über die Regulierung wird zudem dadurch schwieriger, dass Autonomie in Waffensystemen nicht per se gut oder böse ist; es kommt vielmehr auf die Rolle des Menschen und den Kontext an. Sinnvolle Anwendungen sind das deutsche Flugabwehrsystem Patriot oder der israelische Iron Dome, die die Bevölkerung vor Luftangriffen schützen, ohne dass der Mensch beim Zielabschuss noch eingreift. Abschreckende Beispiele hingegen wären bisher noch nicht existente, aber potenziell mögliche Drohnenschwärme, die aufgrund biometrischer Daten im Gefechtsfeld Menschen als Ziele auswählen und angreifen könnten. Hier ist das Risiko einer Fehleinschätzung schlichtweg zu groß, da KI kein Kontextverständnis hat, welches relevant ist für humanitär-rechtliche und ethische Erwägungen.
Viele Staaten sind aufgrund der rasanten technologischen Entwicklung unzufrieden mit den Genfer Gesprächen, weshalb andere Foren außerhalb der GGE gesucht werden und im vergangenen Jahr vorangetrieben wurden. So widmete sich im Februar 2023 der von den Niederlanden organisierte Gipfel von Politikern, der Industrie und zivilgesellschaftlichen Akteuren zum verantwortungsvollen Einsatz von KI in militärischen Systemen, kurz REAIM, neben den problematischen auch den nützlichen Aspekten militärischer KI. Dieser Gipfel soll in diesem Jahr auf Einladung des südkoreanischen Außenministeriums wiederholt werden.
Im Frühjahr 2023 wiederum haben lateinamerikanische Staaten in Costa Rica das Belén-Communiqué verabschiedet, das einen völkerrechtlich verbindlichen Vertrag zu LAWS fordert. Neben diesen und weiteren Konferenzen hat die UN-Generalversammlung im vergangenen Jahr erstmals eine Resolution zu LAWS verabschiedet, in der 164 Staaten eine gemeinsame Haltung finden möchten. Die von Österreich und 43 weiteren Staaten, darunter Deutschland, auf den Weg gebrachte Resolution erkennt die schnellen technischen Entwicklungen in der Kriegsführung durch KI an und sieht humanitäre, rechtliche, technologische und ethische Fragen im Zentrum der Debatte, ohne jedoch auf konkrete Maßnahmen einzugehen.
Breit verstandene menschliche Kontrolle vonnöten
Eine internationale Regulierung von autonomen Waffen ist derzeit nicht in Sicht. Stattdessen gehen einige Staaten eigene Wege. Die USA zum Beispiel haben ihre Strategie im Umgang mit Autonomie in Waffensystemen von 2012 im letzten Jahr auf den aktuellen Stand der Entwicklungen gebracht. Das Vereinigte Königreich hat seine Strategie zu KI-basierten Verteidigungstechnologien im vergangenen Jahr verabschiedet. Deutschland hingegen hat bisher kein Dokument zum Umgang mit KI im militärischen Kontext verabschiedet, obwohl die Enquete-Kommission Künstliche Intelligenz aus der vorherigen Legislaturperiode des Bundestages empfohlen hat, ein sicherheitspolitisches Richtliniendokument für den militärischen Einsatz von Künstlicher Intelligenz zu erstellen. Der Koalitionsvertrag der Ampel-Regierung hält lediglich fest: „Letale Autonome Waffensysteme, die vollständig der Verfügung des Menschen entzogen sind, lehnen wir ab. Deren internationale Ächtung treiben wir aktiv voran.“
Ein mögliches internationales Verbot autonomer Waffensysteme steht demnach in weiter Ferne. Außerdem ist fraglich, inwiefern ein Verbot wirklich sinnvoll wäre, da solche Waffen bereits existieren und zum Schutz von Soldatinnen und Soldaten sowie der Zivilbevölkerung durchaus sinnvoll sein können. Deshalb wäre es besser, kein Verbot anzustreben, sondern ein Gebot der „bedeutsamen menschlichen Kontrolle“ im Umgang mit KI und Autonomie in Waffensystemen. Diese Kontrolle sollte möglichst breit verstanden werden und sich sowohl auf das Design, also die Entwicklung der LAWS, als auch auf den Einsatz der Waffensysteme beziehen.
Bedeutsame menschliche Kontrolle zielt darauf ab, den Menschen nicht bloß als formalen letzten Entscheider zu halten, der bloß bestätigt, was die Technologie vorgibt. Vielmehr muss der Mensch die gesamte Entscheidungsfindung genügend verstehen und beobachten und im Notfall eingreifen können. Menschen sollten nicht von der KI auf einzelne Datenpunkte reduziert werden. Soldatinnen und Soldaten müssen verantwortlich Entscheidungen über Leben und Tod treffen und dürfen diese Verantwortung nicht abgeben. Verantwortungsbewusste demokratische Staaten wie Deutschland sollten mit gleichgesinnten Partnern an einer ausgewogenen Strategie zu KI in der Kriegsführung arbeiten, die sowohl nützliche als auch problematische Elemente berücksichtigt und technologische Innovation im erwünschten Rahmen vorantreibt.
Neuen Kommentar hinzufügen