Jump directly to page content

Das Scheitern der VN-Expertengespräche zu Autonomen Waffensystemen

Alternative Formate rücken in den Fokus

SWP-Aktuell 2022/A 36, 07.06.2022, 8 Pages

doi:10.18449/2022A36

Research Areas

Die Group of Governmental Experts (GGE) diskutiert seit 2017 im Rahmen des Waffen­übereinkommens der Vereinten Nationen (VN) über Autonome Waffensysteme (AWS). Russland hat die jüngste Verhandlungsrunde im März in Genf boykottiert. Grund für dieses Verhalten Russ­lands ist sein seit dem 24. Februar 2022 dauernder Angriffskrieg gegen die Ukraine. Eine Regulierung von AWS ist damit in noch weitere Ferne gerückt. Staaten sprechen mit vorgehaltener Hand bereits von einem Scheitern der Genfer Ver­handlungen. Deutschlands Ankündigung im Koalitionsvertrag, die Ächtung von AWS aktiv voran­zutreiben, scheint nun zur Mammutaufgabe zu werden. Da die GGE auf dem Konsens­prinzip beruht und eine konstruktive Zusammenarbeit mit Russland in naher Zukunft nicht zu erwar­ten ist, müssen andere Foren für eine internationale Debatte zu AWS gefunden werden. Deutschland muss sich auf Optionen innerhalb der Nato, der Euro­päischen Union (EU) und der VN vorbereiten. Klar ist, dass nur ein kohärentes Vor­gehen mit den Nato-Bünd­nis­partnern auf sämtlichen Ebenen ziel­führend ist. Um dies zu erreichen, be­darf es einer klaren nationalen Positionierung Deutschlands zum Umgang mit AWS.

Im März fand in Genf die erste von zwei GGEs zu AWS in diesem Jahr statt. Russland nutzte das Forum als Bühne für die Recht­fertigung seines völkerrechtswidrigen An­griffs­krieges gegen die Ukraine. Zahl­reiche Staaten, darunter Deutschland, haben die russische Invasion aufs Schärfste verurteilt; während der Schlusssätze der russischen Delegation am Ende der GGE verließen die meisten Delegierten demons­t­rativ den Saal.

Das angespannte Klima in­mitten bestehen­der Großmachtrivalitäten, das seinen trau­rigen Höhepunkt in Putins Angriffskrieg gegen die Ukraine gefunden hat, hat schon jetzt zu einem faktischen Scheitern der Genfer Verhandlungen ge­führt, obwohl die Gruppe im Juli erneut für fünf Tage zusam­menkommen wird. Ohne russische Beteili­gung ist eine Regulierung von AWS in der GGE nicht möglich, da Ent­scheidun­gen nur konsensual getroffen werden kön­nen. An der GGE können alle 125 Vertragsstaaten der Konvention über bestimmte konventionelle Waffen (Conven­tion on Certain Con­ven­tional Weapons, CCW) teil­nehmen und auch Unterzeichnerstaaten, wie beispielsweise Ägypten, haben ein Rede­recht. De facto beteiligen sich aber nur rund 80 Staaten an der GGE.

Inhaltliche Verwerfungslinien innerhalb der GGE

Inhaltliche Verwerfungen in der Expertengruppe zeichneten sich bereits vor dem russischen Angriffskrieg ab; sie machten eine baldige inhaltliche Einigung schon damals unwahrscheinlich.

Zum einen hat die GGE bislang keine gemeinsame Definition von AWS gefunden. Die meisten Staaten bevorzugen den Vor­schlag des Internationalen Komitees vom Roten Kreuz (IKRK), wonach ein AWS ein Waffensystem ist, das sowohl die Ziel­auswahl als auch den Angriff ohne mensch­liches Handeln vornehmen kann. Doch nicht alle Staaten unterstützen diesen Vor­schlag. China versteht unter AWS nur sol­che Systeme, die imstande sind, eine strate­gische Mission selbstständig abzu­ändern oder zu ergänzen. Andere Staaten wieder­um halten es nicht für erforderlich, AWS überhaupt zu definieren. Viel wich­tiger sei es, die notwendige Mensch-Maschine-Inter­aktion ins Zentrum zu stellen.

Frankreich hat 2021 die Initiative ergriffen und eine eigene Definition von AWS in der GGE präsentiert, die auch Deutschland unterstützt. Die beiden Länder unter­scheiden zwischen vollautonomen (Fully Autono­mous Lethal Weapon Systems, LAWS) und teilautonomen (Partially Autono­mous Lethal Weapon Systems, PLAWS) Waffensystemen. Vollautonome Waffensysteme seien solche, die ohne menschliches Zutun im­stande sind, die Zielauswahl und die Ent­scheidung zum Angriff vorzunehmen. Ferner seien sie in der Lage, die strategische Mis­sion ab­zuändern. Diese Art Waffensysteme sollten nach Ansicht Deutschlands und Frankreichs gänzlich verboten werden. Teil­autonome Waffensysteme seien hin­gegen solche, die innerhalb eines durch den Men­schen vor­gegebenen Handlungsrahmens Ziele selbst­ständig auswählen und attackie­ren können, aber keinesfalls dar­über hin­ausgehende, eigenständige Entscheidungen treffen können. Derartige Waffensysteme müssten entsprechend reguliert werden, um zu gewährleisten, dass sie im Einklang mit rechtlichen und ethischen Prinzipien ein­gesetzt würden. Unter ande­rem Japan hat bereits Interesse gezeigt, die Diskussion über diesen Defini­tionsvorschlag zu ver­tiefen.

Zum anderen herrscht keine Einigkeit dar­über, welcher Begriff geeignet ist, das not­wendige Ausmaß menschlicher Steue­rungs­kompetenz über Maschinen zu bezeich­nen. Während ein signifikanter Anteil an Staa­ten innerhalb der GGE den Begriff der »menschlichen Kontrolle« (human control) bevorzugt, ziehen zum Beispiel die USA das Konzept der »angemessenen menschlichen Beurteilung« (human judgment) vor. Die USA ver­stehen das Kon­zept der menschlichen Kont­rolle als direk­ten, manuellen Eingriff in ein Waf­fen­system; jedoch wollen sie in erster Linie die Effekte von AWS kontrollieren und weniger das Waffensystem selbst. Ver­fechter des Konzepts der menschlichen Kont­rolle da­gegen wollen ein Waffensystem und nicht nur dessen Effekte kontrollieren.

Eine weitere Verwerfungslinie ist der Rüstungs­wettlauf zwischen den USA, Russ­land und China, der sich insbesondere auf dem Gebiet der neuen Tech­nologien abzeich­net. Vor allem China hat die Modernisierung seiner Landesverteidigung durch einen mas­siven Anstieg seiner Militärausgaben in den Fokus gerückt und verkündet, bis spä­testens 2030 die weltweite Supermacht im Bereich der künstlichen Intelligenz (KI, engl. AI) sein zu wollen. Zwar spricht sich China für eine Regulierung von AWS in der GGE aus, doch die enge chine­sische Defi­ni­tion von AWS lässt befürchten, dass China – womöglich aufgrund seiner macht­politi­schen Bestrebun­gen – diese nicht wirklich einer Regu­lierung unterwerfen möchte.

Die momentan wohl stärksten Spannungen bestehen allerdings zwischen den USA (beziehungsweise den Nato-Staa­ten) und Russland. Wenngleich Russ­land einen aus­reichenden menschlichen Einfluss über AWS für unverzichtbar erklärt hat, ist es gegen eine weiterführende völkerrechtliche Regu­lierung, die über den existierenden Rechts­rahmen hinausgeht. An diesem Standpunkt hält Russland vehement fest, sodass eine Eini­gung in der GGE nur schwer vorstellbar ist. Deswegen wird schon jetzt überlegt, ob nicht andere Foren geeigneter wären, die Diskussion voranzubringen. Deutschland sollte sich auf solche Szenarien vor­bereiten. Zum Beispiel könnte das Bun­des­ministe­rium der Ver­teidigung feder­füh­rend im Zusam­menspiel mit dem Aus­wär­tigen Amt eine nationale Positionierung zu AWS ver­abschieden.

Nationale Positionierung Deutschlands zu AWS

Anders als Frankreich hat Deutschland bis­lang keine nationale Positionierung zu AWS vorgelegt. Die KI-Strategie der Bun­des­regierung von 2018 befasst sich nur unzu­reichend mit der militärischen Nut­zung von KI. Daher bleibt es lediglich bei der Äuße­rung im Koalitionsvertrag, die Äch­tung letaler autonomer Waffensysteme, »die vollständig der Verfügung des Men­schen entzogen sind«, aktiv voran­zu­treiben. Grund für die feh­lende nationale Positionsbestimmung könnten einerseits unter­schied­liche Auf­fassungen zwischen Außen- und Verteidigungsministerium zu AWS sein. Andererseits möchte man nicht ohne vor­herige Abstimmung mit Bünd­nis­part­nern wie den USA, Frankreich und den Niederlanden agieren. Zwar haben sowohl die USA als auch Frankreich bereits natio­nale Positionierungen zu AWS ver­abschie­det; doch es scheint, dass Deutschland die kom­menden Monate und insbesondere die wei­tere Entwicklung des Krie­ges in der Ukraine abwarten möchte.

Eine nationale Positionierung könnte unter anderem die im Rahmen der Genfer Verhandlungen 2021 von Frankreich und Deutschland getroffene Unterscheidung zwischen voll- und teilautonomen Waffen­systemen enthalten. Allerdings ist kritisch anzumerken, dass sowohl Frankreich als auch Deutschland nach wie vor lediglich von »letalen« Waffensystemen sprechen. Diese Eingrenzung ist aus zweierlei Grün­den problematisch: Erstens können auch nichttödliche Waffen großes Leid für feind­liche Kombattanten und die Zivil­bevöl­ke­rung verursachen. Zweitens ist eine klare Abgrenzung zwischen tödlichen und nicht­tödlichen Waffen schwierig.

Eine nationale Positionierung sollte außer­dem darlegen, anhand welcher Para­meter der Einsatz teilautonomer Waf­fen­systeme gestattet werden soll. Sie muss sich deshalb auch mit dem notwendigen Aus­maß der Mensch-Maschine-Interaktion bezie­hungs­weise mit dem Konzept der mensch­lichen Kontrolle befassen. Die Vor­arbeiten des Inter­national Panel on the Regulation of Autonomous Weapons (iPRAW), in dem die Autorinnen federführend mitarbeiten, könn­ten diesbezüglich wertvolle Anhaltspunkte liefern: iPRAW versteht unter menschlicher Kontrolle die Fähigkeit des Menschen, über ausreichendes Situationsverständnis (situa­tional aware­ness) und ent­sprechende Ein­griffsmöglichkeiten (options for intervention) zu verfügen. Beide Elemente müssen einer­seits durch das Design des Waffensystems gewährleistet werden (control by design), ande­rerseits während dessen Nutzung im­ple­mentierbar sein (control in use). Das kon­krete Ausmaß menschlicher Kontrolle hängt aber vom jeweiligen Einsatzkontext ab.

Das heißt, eine natio­nale Positionierung sollte die verschiedenen möglichen Szena­rien, in denen AWS eingesetzt werden könn­ten, aufgreifen und entsprechende rote Linien identifizieren. Der Einsatz von AWS in einem urba­nen Umfeld könnte beispiels­weise stren­geren Anforderungen unter­liegen als in einem rein militärischen Um­feld. In städti­schen Gebieten könnte der Mensch ver­pflichtet werden, den Einsatz eines AWS zu überwachen und gegebenenfalls in die Operation einzugreifen. Beim Einsatz autonomer U‑Boote wäre eine Inter­vention durch den Menschen indes weniger relevant.

In Anbetracht der aktuellen weltpolitischen Entwicklungen sollte sich Deutschland aber auch offen gegenüber technolo­gi­scher Innovation zeigen und die militärischen Vorteile von Autonomie in Waffen­systemen in seiner nationalen Posi­tions­bestim­mung berücksichtigen. Schnelligkeit, Zielgenauigkeit und der Schutz eigener Soldaten und Soldatinnen sind einige Bei­spiele, die mitunter für den Einsatz von AWS sprechen.

Die »Zeitenwende« und ihr Ein­fluss auf die nationale Positio­nierung zu AWS

Die Forderung nach einer nationalen Posi­tionierung Deutschlands muss auch im Kontext der »Zeiten­wende« gesehen werden: Bun­deskanzler Olaf Scholz verkündete in seiner Regierungserklärung vom 27. Feb­ruar 2022, man werde »von nun an Jahr für Jahr mehr als zwei Prozent des Brutto­inlandsprodukts« für Verteidigungsausgaben ver­wenden. Das ebenfalls an­gekündigte Sondervermögen über 100 Mil­liarden Euro für die Bundeswehr hat der Bundestag kürz­lich beschlossen. Diese Neuerungen haben im Wesent­lichen zwei Auswirkungen auf eine natio­nale Positionierung zu AWS:

Zum einen wird Offenheit gegen­über be­stehenden Rüstungs­projekten, wie dem Future Combat Air System (FCAS), signalisiert. FCAS ist ein Systemverbund (system of systems) verschiedener militärischer Wirk­einheiten der Luftstreitkräfte; Teile von FCAS sollen auch mit autonomen Funk­tio­nen ausgestattet sein. Dies steht in keinem Widerspruch zu dem im Koalitions­vertrag abgegebenen Ver­sprechen, Waffen­systeme, die vollständig der Verfügungs­gewalt des Menschen ent­zogen sind, zu ächten. Denn im Rahmen von FCAS wurde eine Arbeitsgruppe (AG) zu Technikverantwortung geschaffen, die einen verantwortungsvollen Einsatz des Luft­kampfsystems gewährleisten soll. Einer der zentralen Diskussionspunkte innerhalb der AG ist das Konzept und die konkrete Ope­rationalisie­rung menschlicher Kon­trolle.

Zum anderen ist im Hinblick auf die von Olaf Scholz verkündete Zeitenwende genau zu überlegen, welche Anschaffungen inner­halb des deutschen Militärs in Zukunft tat­säch­lich notwendig und sinnvoll sind. Um Personal­kosten zu sparen, mag sich der Einsatz neuer Technologien, beispielsweise in Form von KI-basierten Datenauswertungs­systemen, lohnen. Hierbei handelt es sich indes nicht um AWS – doch die Fragen, die die zu­nehmende Nutzung von KI auf­wirft, ähneln sich, unabhängig davon, wo und wofür sie eingesetzt wird.

Die Zeitenwende bedeutet daher nicht, dass die im Koalitionsvertrag formulierte Ächtung von AWS mit einer generellen Ablehnung technologischer Innovation im militärischen Bereich verbunden wäre. Im Gegenteil, eine nationale Positionierung zu AWS sollte ein klares Bekenntnis zur Not­wendigkeit von Forschung und Entwicklung zu Militärtechnologien ent­halten sowie deren Vorteile benennen. Denn erst eine entsprechend differenzierte nationale Posi­tionierung wird es Deutschland ermög­li­chen, in den künftigen Verhandlungen aktiv und in Abstimmung mit den Bündnis­partnern mitzuwirken.

Alternative Foren zur Regulierung von AWS

Vor allem die Nato, die EU und die VN kommen als alternative Foren für eine Regulierung von AWS in Betracht (vgl. Grafik). Überdies ist denkbar, dass andere Staaten einen Prozess initiieren, der an keine Institution angeschlossen ist.

Nato – Entwicklung einer gemein­samen transatlantischen Linie

Auch wenn eine Regulierung von AWS nicht in den Kompetenzbereich der Nato fällt, könnte sie zumindest ein geeignetes Forum sein, um eine inhaltliche Annäherung zwischen den einzelnen Nato-Partnern in Bezug auf AWS zu erzielen, sodass diese eine stärkere Position in anderen Foren ver­treten könnten, etwa im Rahmen der VN.

Die Nato hat im Herbst 2021 eine Strategie zu KI veröffentlicht, die sechs Leitprinzipien enthält, die auch für AWS relevant sind: Rechtmäßigkeit; Verantwortlichkeit und Rechenschaftspflicht; Erklär­bar­keit und Nachverfolgbarkeit; Verlässlichkeit;

Grafik

Regierbarkeit; Vermeidung von jeglicher Form der Voreingenommenheit. Über die konkret geforderte Mensch-Maschine-Inter­aktion liefert sie allerdings kaum Anhaltspunkte. Im Herbst 2022 wird die Nato den »Auto­nomy Implementation Plan« vor­stel­len. Es steht zu erwarten, dass dieses Stra­tegie­papier deutlicher auf die Mensch-Maschine-Interaktion eingehen wird. Frag­lich ist, ob der Autonomy Implementation Plan in erster Linie die US-amerikanischen Stand­punkte reflektieren oder auch die An­sichten anderer Nato-Staaten ausreichend be­rück­sichtigen wird. Die USA plä­dieren grund­sätz­lich für ein breiter gefass­tes Ver­ständnis vom Grad der Autonomie, der in Waffensystemen erlaubt sein soll. Dies hebt auch ein Papier zu Good Practices im Um­gang mit AWS hervor, das die USA bei der GGE im März eingebracht haben. Daran betei­ligt haben sich allerdings nur die Nato-Part­ner Kanada und Großbritan­nien sowie Austra­lien, Japan und Südkorea.

2020 hat die Nato eine AG zur Kontrollierbarkeit intelligenter Systeme (Human Systems Integration for Meaningful Human Control over AI-based Systems) ins Leben gerufen. Die aus ver­schiedenen Wissenschaftlern und Wissenschaftlerinnen zusam­mengesetzte AG vertritt jedoch keine staatlichen Positionen, sondern erarbeitet Standpunkte aufgrund ihrer Erfahrung im Hinblick auf die Operationalisierung und Implementierung menschlicher Kontrolle über AWS. Schwierigkeiten ergeben sich für die AG beispielsweise dadurch, dass sie selbst den Begriff der »ausreichenden menschlichen Kontrolle« verwendet, den vor allem die USA ablehnen.

Die AG könnte einen positiven Beitrag leisten, in­dem sie neben »ausreichender menschlicher Kont­rolle« noch andere Begriffe erwägt, sofern sich die inhaltliche Debatte dadurch nicht zu stark verändert und alte Konfliktlinien wieder aufbrechen. Dies könnte den USA die Möglichkeit geben, sich mit Nato-Part­nern begrifflich zu einigen. Sogar das IKRK weicht in seinem Positionspapier zu AWS aus dem Jahr 2021 seine bisherige Terminologie auf und spricht nun von »mensch­licher Kont­rolle« und »menschlicher Beurtei­lung«. Die Position des IKRK könnte den Auftakt dazu bilden, die inhalt­liche Dis­kussion auszuweiten, um für ver­schiedene Begriffsvarianten offen zu sein – voraus­gesetzt, man ist sich über das Kon­zept der notwendigen Mensch-Maschine-Inter­aktion einig.

Schließlich darf nicht außer Acht gelas­sen werden, dass nicht alle euro­päischen Staaten auch Nato-Mitglieder sind; so sind Österreich und Irland nicht Teil derselben. Beide Länder bringen sich aber intensiv in die GGE-Ver­hand­lungen in Genf ein und beteiligen sich an der Partnership for Peace (PfP) der Nato. Über letzteres Format könn­ten sie in die inhaltliche Diskussion zu AWS eingebunden werden. Russland parti­zipiert ebenfalls an der PfP, indes ist seine inhalt­liche Beteiligung in naher Zukunft nicht zu erwarten und in Anbetracht aktueller Geschehnisse wohl auch nicht erwünscht.

Ein offener, wenn­gleich formloser Aus­tausch zwischen Nato-Staaten wäre eine gute Möglichkeit, die inhaltliche Debatte über AWS zumindest aufrechtzu­erhalten. Doch ebenso eine Diskussion mit Nato-Staaten und gesprächs­bereiten Nicht-Nato-Staaten hätte schon einen positiven Effekt und könnte dazu beitragen, sich auf eine einheitliche Linie zu verständigen. Der Nach­teil bestünde darin, dass die Nato wohl nicht mit sämt­lichen Staaten in einen Dia­log zu AWS träte, sondern Kooperation mit Dritt­staaten schwerpunktmäßig festlegen würde.

EU – Der »Brüssel-Effekt«

Darüber hinaus sollte Deutschland auf eine stärkere inhalt­liche Diskussion zu AWS innerhalb der EU drängen. Zurzeit diver­gie­ren die Auf­fassungen zu AWS in der EU noch leicht; wenn sich die Mitgliedstaaten auf eine ge­mein­same Position einigen, könnte die EU damit zum Vorreiter inter­nationaler Stan­dards werden und gemäß dem »Brüssel-Effekt« weitere Nachahmer finden – so wie es im Cyber­bereich bereits geglückt ist. Das Europäische Parlament hat sich schon mehr­fach mit der Thematik be­fasst und vor allem eine rechtlich verbind­liche Regulierung von AWS gefordert, wäh­rend der Euro­päische Verteidigungsfonds nur Rüs­tungsprojekte fördert, die wirk­samer menschlicher Kont­rolle unterliegen.

Eine verstärkte inhaltliche Auseinandersetzung und die Entwicklung einer einheit­lichen euro­päischen Linie wäre insbesondere im Rahmen der Ständigen Strukturierten Zu­sammenarbeit (Permanent Structured Cooperation, PESCO) sinn­voll, die 2017 ins Leben gerufen worden ist. PESCO dient als Forum bereitwilliger Staa­ten, Aktivitäten und Pläne für die Zukunft im Bereich der Gemeinsamen Außen- und Sicherheitspolitik (GASP) zu koordinieren. Die 25 PESCO-Staaten haben sich bereits im Rahmen gemeinsamer Rüstungsprojekte mit auto­nomen Funktionen von Waffensystemen beschäftigt. Zum Beispiel soll als Teil eines Pro­jektes unter estnischer Führung, an dem Deutsch­land sowie neun andere EU-Mit­glieds­länder mitwirken, ein un­bemann­tes Bodensystem (unmanned ground system) ent­wickelt werden. Ähnliche Projekte, oft­mals mit deutscher Beteiligung, gibt es in der Marine und bei den Luft­streitkräften. So wird unter der Leitung Portugals an einem unbemannten Anti-U‑Boot-System (unmanned anti-submarine-system) gearbeitet, das mittels KI in einem etwaigen U‑Boot-Krieg einge­setzt werden soll.

Aus den öffentlich zugänglichen Daten geht nicht klar hervor, inwieweit diese Waffen­systeme mit auto­nomen Funktionen aus­gestattet sein werden. Doch ein genaue­rer Blick auf diese Waffensysteme sowie das Zu­sammenspiel zwischen Mensch und Ma­schine könnte wert­volle Erkenntnisse lie­fern, die wieder­um in Diskussionen in anderen Foren ein­fließen könnten. Selbst wenn im Rahmen von PESCO Rüstungs­projekte im Mittelpunkt stehen, ist es den­noch denk­bar und vor allem sinnvoll, auch inhalt­liche Dis­kussionen zu führen, die in weiterer Folge andere Prozesse, etwa in der Nato und den VN, positiv beeinflussen könnten.

Vereinte Nationen – die norma­tive Kraft von Resolutionen

Wenngleich die GGE bislang das zent­rale Forum für eine inhaltliche Auseinander­setzung mit AWS war, ist nicht auszu­schlie­ßen, dass der Prozess künftig in ande­ren Institutionen inner­halb der VN fort­geführt wird. Schon jetzt spricht sich die zivil­gesell­schaftliche Organisation »Campaign to Stop Killer Robots« für eine Ver­lagerung des Prozesses aus: In einem State­ment vom März 2022 hat sie die GGE explizit für ge­scheitert erklärt und dazu auf­gerufen, andere Foren in Betracht zu ziehen. Auch die Staaten der G13, einer überregionalen Gruppe aus lateinamerikanischen, afrika­nischen und asiatischen Ländern, visieren die Befassung anderer Insti­tutionen inner­halb der VN an. Deutsch­land muss sich daher auf diese Eventualität ein­stellen und sich über­legen, ob und unter welchen Vor­aussetzungen es an einem sol­chen Prozess teilnehmen wird. Realistischer­weise kom­men zwei VN-Foren als Alternative für Debatten über AWS in Frage:

An erster Stelle steht der Unterausschuss der VN-Generalversammlung (GV) zu Ab­rüstung und Internationaler Sicherheit, das sogenannte Erste Komitee der GV (GV1). Resolutionen im Unterausschuss werden üblicherweise im Konsensverfahren be­schlossen – genau wie im Rahmen der GGE. Unwillige Staaten könnten also die Ent­schei­dungsfindung blockieren. Aller­dings können vorbereitende, nicht kon­sensual abgestimmte Arbeitsprozesse der GV1 als Vor­lage für weitergehende Dis­kus­sionen in der GV dienen oder sogar dazu, dass die GV eine Resolution zu AWS ver­abschieden kann. Denn die GV ist das zweite VN-Forum, in dem AWS dis­kutiert werden könnten. Dort herrscht in der Regel das Mehrheitsprinzip, sodass sie auch Resolutionen gegen den Wil­len be­stimmter Staaten beschließen kann.

Erfahrungen aus den vergangenen GGE-Gesprächen zeigen zwar, dass die Mehr­heit der Staaten eine Regulierung von AWS befür­wortet. Sogar China hat sich letz­ten Herbst in einem Positions­papier noch­mals explizit dafür eingesetzt. Herausgestellt hat sich aber ebenso, dass eine Eini­gung nicht an mangelndem Inter­esse schei­tert, son­dern vielmehr daran, dass sich die Staaten bis­lang nicht darauf ver­stän­digen konnten, wie die Mensch-Maschine-Inter­aktion aus­ge­staltet werden soll. Ein Mehr­wert der Be­fas­sung mit AWS durch die GV könnte in der großen politi­schen Signal­wirkung von GV-Resolu­tionen liegen, ob­wohl das reale Risiko besteht, dass auch im Rahmen der GV keine sub­stan­tiel­len inhalt­lichen Fort­schritte erzielt werden.

Damit eine Reso­lution der GV hohe poli­tische Signal­wirkung entfaltet, bedarf es eines entsprechend großen Zuspruchs und eines damit einhergehenden positiven Abstimmungsverhaltens innerhalb der GV. Gerade Letzteres könnte sich in Anbetracht aktueller Konfliktlinien als schwierig er­weisen. China könnte beispielsweise die Zu­stimmung zu einer Resolution verweigern, wenn Russland ihr nicht zustimmt. Die Unterstützung einer etwaigen Resolution zu AWS durch militärische Großmächte wäre aber erforderlich, um den Einsatz von AWS glaub­haft und vor allem nachhaltig zu regulieren.

Handlungsempfehlungen für Deutschland

Es ist sehr wahrscheinlich, dass die GGE spätestens nach Ende des zweiten diesjäh­rigen Treffens im Juli aufgrund des rus­si­schen Boy­kotts offiziell als gescheitert gelten wird. Deutschland muss folglich bereits jetzt an einer Strategie für eine Zeit nach der GGE arbeiten, um seinem Vor­haben aus dem Koalitionsvertrag, an einer Ächtung von AWS aktiv mitzuwirken, nachzukommen.

Dafür braucht es eine nationale Positionie­rung zu AWS, die sowohl zwischen voll- und teilautonomen Waffensystemen unter­scheiden als auch konkrete Anhaltspunkte zur notwendigen Mensch-Maschine-Inter­aktion geben sollte. Jedoch wäre es sinn­voll, wenn sich die Definition nicht auf letale Waffensysteme beschränkt. Nachdem sich unter anderem die USA wei­gern, den Begriff »menschliche Kon­trolle« zu akzep­tie­ren, könnte sich Deutschland dem Ansatz des IKRK anschließen, von »menschlicher Kontrolle« und »menschlicher Be­ur­tei­lung« zu sprechen. Zudem könnte die ge­plante Nationale Sicherheitsstrategie (NSS) einen Abschnitt zu AWS und neuen Waffen­technologien enthalten. Vorbild für diesen Teil der NSS könnte eine jüngst von der Schweiz verabschiedete Strategie zu Rüs­tungskontrolle und Abrüstung sein.

Der russische Angriffskrieg gegen die Ukraine scheint einen Paradigmenwechsel im Bereich Rüstungskontrolle zu markieren: Universelle Foren treten zunehmend in den Hintergrund, regionale Institutionen, wie Nato und EU, gewinnen an Bedeu­tung. In regionalen Foren lassen sich Fragen zu AWS aber nicht abschließend und schon gar nicht inklusiv klären. Ihre Diskussion inner­halb von Nato und EU könnte aber zumin­dest bewirken, dass Bündnispartner ihre Standpunkte stärker aufeinander abstimmen und mittel- wie auch längerfristig mit ge­ein­ter Stimme in weitere Verhandlungen gehen.

Deutschland sollte sich darüber hinaus auf eine inhaltliche Diskussion über AWS in der GV1 vorbereiten, da vor allem die G13-Staaten einen derartigen Prozess initi­ieren könnten. Ein koordiniertes Vorgehen der Nato-Partner und der EU-Mitglieder könnte dazu beitragen, breite Mehrheiten in den einzelnen Institutionen der VN zu finden.

Keines der in Betracht zu ziehenden Foren garantiert angesichts der aktuellen Umstände Erfolg. Es wäre allerdings nicht zielführend, deshalb die Diskussion über AWS zum Erliegen kom­men zu lassen. Gerade der Einsatz neuer Technologien im Krieg in der Ukraine zeigt deutlich, dass Autonomie in Waffensystemen eine immer größere Rolle spielt. Die angekündigte Zeiten­wende sollte Anlass sein, die Kom­plexität von Autonomie in Waffensystemen zu reflektieren, unter anderem mit einer entsprechenden nationalen Positionierung zu AWS. So könnte Deutschland der Welt signalisieren, dass es seine im Koalitionsvertrag gemachten Versprechen auch in die Tat umsetzt.

Dr. Elisabeth Hoffberger-Pippan ist Wissenschaftlerin der Forschungsgruppe Sicherheitspolitik und leitet dort das Projekt »The International Panel on the Regulation of Autonomous Weapons« (iPRAW). Vanessa Vohs und Paula Köhler sind Forschungsassistentinnen der Forschungsgruppe Sicherheitspolitik und für iPRAW. iPRAW wird aus Mitteln des Aus­wärtigen Amtes finanziert, ist ein unabhängiges Gremium und setzt sich aus Forscherinnen und Forschern aus verschie­denen Fachdisziplinen zusammen.

© Stiftung Wissenschaft und Politik, 2022

SWP

Stiftung Wissenschaft und Politik

ISSN (Print) 1611-6364

ISSN (Online) 2747-5018