Lesezeit ca. 7 Min.
arrow_back

Reißen opake autonome Waffensysteme eine Verantwortungslücke?


Logo von WeltTrends
WeltTrends - epaper ⋅ Ausgabe 184/2022 vom 01.02.2022

Sogenannte Killerroboter und autonome Waffensysteme sind nicht mehr nur Themen der Science-Fiction. Ihre Fortentwicklung und Einsätze drohen. Auch im Militärwesen ist die Künstliche Intelligenz auf dem Vormarsch. Dies wirft etliche kriegsethische Fragen auf. Einer dieser Fragen widmet sich der vorliegende Beitrag: Wenn opake autonome Kriegswaffen, die nicht kontrolliert werden können, ungewollt schwerste Schäden anrichten, ist dann jemand dafür verantwortlich?

Man nehme Folgendes an: Wir schreiben das Jahr 2028. Staat A und Staat B befinden sich im Krieg. Jede diplomatische Bemühung, den kriegsbedingenden Konflikt zwischen A und B zu schlichten, schlug fehl. Staat A setzt ausschließlich solche Waffensysteme ein, die – einmal in das Kriegsgebiet transportiert – nicht mehr unmittelbar von Menschen gelenkt und kontrolliert werden und die selbständig agieren, ohne dass ihre Tätigkeit vollständig ...

Artikelbild für den Artikel "Reißen opake autonome Waffensysteme eine Verantwortungslücke?" aus der Ausgabe 184/2022 von WeltTrends. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.
Soldaten verwenden Drohne während einer militärischen Operation
Weiterlesen
epaper-Einzelheft 3,49€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von WeltTrends. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1050 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 184/2022 von Der Konflikt um die Ukraine und die deutschen Interessen. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Der Konflikt um die Ukraine und die deutschen Interessen
Titelbild der Ausgabe 184/2022 von Russlands Interessen und deutsche Verantwortung. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Russlands Interessen und deutsche Verantwortung
Titelbild der Ausgabe 184/2022 von Russland und die NATO: Aufbruch zum Dialog. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Russland und die NATO: Aufbruch zum Dialog
Mehr Lesetipps
Blättern im Magazin
Künstliche Intelligenz – was sie ist und politisch bedeutet
Vorheriger Artikel
Künstliche Intelligenz – was sie ist und politisch bedeutet
Wie vertrauenswürdig ist Künstliche Intelligenz?
Nächster Artikel
Wie vertrauenswürdig ist Künstliche Intelligenz?
Mehr Lesetipps

... analysiert und nachvollzogen werden kann. Staat A entsendet also keine Soldatinnen und Soldaten in das Kriegsgebiet und macht keinen Gebrauch von automatisierten oder semi-automatisierten Waffen, sondern von opaken autonomen Waffensystemen. Diese Systeme sind hinsichtlich ihrer Wirkungsweise „undurchsichtig“ (= opak), d. h. man weiß (zumindest in vielen Fällen) nicht genau, warum welche Inputs, z. B. bestimmte Umgebungsdaten, zu bestimmten Outputs, z. B. dem Abfeuern eines Schusses, führen; diese Systeme können sich an Umgebungen anpassen und teils maschinell lernen sowie „selbstbestimmt“ (= autonom) agieren. Die Regierung und die Militärführung des Staates A dürfen angesichts dieses Einsatzes gesichert davon ausgehen, dass keine eigenen Soldatinnen und Soldaten im Kriegsgebiet ums Leben kommen; sie hoffen vermutlich, dass die Kriegsführung mit diesen Waffensystemen effizient und zielgerichtet ist; sie gehen womöglich auch davon aus, taktisch schwerlich ausrechenbar zu sein.

Die opaken autonomen Waffensysteme wurden so entwickelt, dass sie Kombattanten und strategische Ziele des Staates B identifizieren können und eigentlich niemanden und nichts sonst attackieren sollten, kurzum: Sie wurden von Entwicklerinnen und Entwicklern so gut es eben geht und, wie es landläufig heißt, „nach bestem Wissen und Gewissen“ gemäß den Vorgaben des humanitären Völkerrechts zu programmieren und anzulernen versucht. Nun geschieht aber dies: Das opake autonome Waffensystem Z des Staates A feuert Geschosse auf Gebäude im Staat B ab, die nicht zu vorab festgelegten und humanitär-völkerrechtlich gedeckten strategischen Zielen gehören und um die herum ausschließlich Kinder (die keine Kindersoldaten und eindeutig, auch aus der Ferne, als Kinder zu erkennen sind) spielen. Die Attacke ist nicht verhältnismäßig und mit ihr werden ausschließlich Nichtkombattanten zu Opfern. Dennoch: Z schießt. Durch die Attacke von Z kommen Hunderte Kinder zu Tode. Wohlgemerkt: Keine Soldatin hat Z gelenkt; kein Soldat hat Z kontrollieren können; keine Soldatin hat Z mittels Knopfdruck sozusagen den Befehl erteilt (aufgrund eines übergeordneten Befehls), auf diese Gebäude zu feuern und die Kinder zu verletzen oder zu töten. Die geschilderte Konstellation ist keine, wie man sie aus kriegskritischen Spielfilmen wie dem britischen „Eye in the Sky“ (2015) kennt: der Kriegs-und Waffeneinsatz, der wie im Computerspiel vom Bildschirm aus und mit einem Joystick dirigiert wird. Höchst technisiert haben wir mit dem skizzierten Gedankenexperiment derlei als Szenario der Vergangenheit hinter uns gelassen; die autonome Maschine ist (gewollt) außer Kontrolle und richtet (ungewollt) kriegsethisch schwerstwiegende Schäden an.

Keine Zukunftsmusik

Angesichts der rasanten Fortentwicklung Künstlicher Intelligenz ist das Gedankenexperiment eigentlich keines mehr: Denn es ist kein unwahrscheinliches Szenario (auch nicht im naheliegenden Jahr 2028). 1 Von sogenannten Killerrobotern und letalen autonomen Waffensystemen, die das Verständnis der Kriegsführung grundlegend verändern könnten, wird seit geraumer Zeit gesprochen. Jürgen Altmann schrieb 2017: „Die Einführung autonomer Waffensysteme würde eine neue Ära der Kriegsführung einleiten. Kampfentscheidungen würden immer schneller getroffen werden (müssen), menschliche Steuerung würde immer mehr zurückgehen.“ Nicht wenige Beobachterinnen und Beobachter fürchten, dass opake autonome Waffensysteme zum letztlich unkontrollierbaren Einsatz gebracht und eine besondere Herausforderung für das humanitäre Völkerrecht und dessen Achtung sein werden; andere begrüßen die Möglichkeit des Einsatzes, weil sie sich durch ihn u. a. eine Humanisierung des Krieges durch Technik (weniger Kriegsverbrechen, weniger menschliche Opfer, weniger Traumatisierungen etc.) erhoffen. Weil diese Systeme derart neu und als autonome Artefakte außergewöhnlich sind, stellen sich mit ihnen neue und bislang nicht vollends beantwortete Fragen der (weltweiten) Regulierung ihrer Entwicklung, ihrer Produktion und ihres Einsatzes.

Autonome Waffensysteme werden eine Herausforderung für das Völkerrecht sein.

Einer kriegsethischen Herausforderung – neben anderen – müssen sich die Befürworterinnen und Befürworter des Einsatzes opaker autonomer Waffensysteme angesichts des zuvor skizzierten Szenarios stellen: In der Fachdebatte – die in ihren Verästelungen hier selbstverständlich nicht einmal annähernd referiert und analysiert werden kann – wird in diesem Zusammenhang von dem Problem der Verantwortungslücke (Responsibility Gap) gesprochen. 4 Damit ist dies gemeint: Verantwortlich (in einem normativ gehaltvollen Sinn) ist niemand für das, was in dem Gedankenexperiment passiert, und für das, was das Resultat ist – nämlich der Beschuss der Gebäude und infolgedessen der Tod der Kinder. Aus dem Einsatz der opaken autonomen Waffensysteme resultiert ein kriegsethisch unerwünschtes Ergebnis, aber für das Ergebnis ist niemand wirklich verantwortlich. Warum? Weil keine Regierung, keine Militärführung und keine Soldatinnen und Soldaten unmittelbar kausal verantwortlich sind für das, was das opake autonome Waffensystem „von sich aus“ tut. Die Waffe hätte nicht tun sollen, was sie getan hat, aber niemand hat sie gesteuert; niemand hat sie gelenkt. Vereinfachend gesagt: Einmal zum Einsatz gebracht, agiert sie eben autonom. Wer oder was sollte für die „Taten“ eines autonomen Systems verantwortlich sein und konsequenterweise dann zur Verantwortung gezogen werden? Ein solches System kann nicht vor ein Kriegsgericht gestellt werden – bzw. es könnte vor ein Gericht gestellt werden, aber dies würde einem absurden Theaterstück ähneln und nicht einem Prozess, in dem ein plausibles Urteil gesprochen werden soll.

Wer oder was sollte für die „Taten“ eines autonomen Systems verantwortlich sein?

Mit Lücke oder lückenlos?

Aber ist es so, dass wir in einem Szenario wie dem zuvor geschilderten von einer Verantwortungslücke sprechen sollten? Für bestimmte Taten und Ergebnisse, die ansonsten als Kriegsverbrechen bezeichnet werden würden, würde es dann keine Anzuklagenden geben. In der Fachliteratur wird seit nunmehr knapp 20 Jahren darüber gestritten, ob es eine Verantwortungslücke gibt oder ob es sie nicht gibt. 5 Vier Thesen können vorgebracht werden, um auf diese Frage zu reagieren. Die erste These besagt, dass nichts und niemand für den Beschuss und den Tod der Kinder politisch-moralisch verantwortlich ist. Die zweite These besagt, dass das opake autonome Waffensystem Z für den Beschuss und den Tod der Kinder politisch-moralisch verantwortlich ist. Die dritte These besagt, dass jemand, also ein Mensch oder eine bestimmte Gruppe von Menschen, für den Beschuss und den Tod der Kinder politisch-moralisch verantwortlich ist. Die vierte These besagt, dass das opake autonome Waffensystem Z und jemand für den Beschuss und den Tod der Kinder politisch-moralisch verantwortlich sind.

Das Waffensystem ist ein Artefakt und kein Naturereignis.

Meines Erachtens ist die erste These u. a. deswegen falsch, weil wir es, wenn wir von einem opaken autonomen Waffensystem sprechen, nicht mit einem Naturereignis wie einem Erdbeben zu tun haben. Im Fall des Erdbebens lässt sich grundsätzlich nichts und niemand als verantwortlich bezeichnen. Das Waffensystem ist jedoch ein Artefakt und kein Naturereignis. Angesichts des Wesens des opaken autonomen Waffensystems mussten die Entwickelnden und Nutzenden wissen, worauf sie sich mit ihm einlassen. Es ist Gemachtes; und die Herstellenden und Einsetzenden hatten es in der Hand, das kaum zu Kontrollierende herzustellen oder es nicht herzustellen, es einzusetzen oder es nicht einzusetzen. Für das dann sich Ereignende sind sie nicht in jeder Phase kausal, aber politisch-moralisch verantwortlich. Meines Erachtens ist die zweite These deswegen falsch, weil das opake autonome Waffensystem nicht politisch-moralisch verantwortlich sein kann: Es kennt keinen Begriff der Verantwortung und kann sich nicht vernünftig entscheiden, verantwortlich oder nicht verantwortlich handeln zu sollen; es ist in einem technisch-prozeduralen Sinn autonom, nicht aber vernünftig, selbstbestimmend und (normativ) selbstgesetzgebend. Die Rede von der Autonomie des Systems verwirrt bisweilen den Geist, weil menschliche Autonomie eine andere als die des Artefakts ist. Meines Erachtens ist die vierte These ebenfalls falsch, weil die zweite These falsch ist; sie scheidet damit aus.

Meines Erachtens ist die dritte These richtig. An dieser Stelle kann die Argumentation für diese Einschätzung nur angedeutet werden: Kausal unmittelbar ist kein menschlicher Akteur (keine Systementwicklerin, keine Generälin, kein Politiker) für den Beschuss und den Tod der Kinder verantwortlich; kausal mittelbar allerdings schon, weil (selbstverständlich) das opake autonome Waffensystem nicht entstanden und eingesetzt worden wäre, hätte es keine menschlichen Akteure gegeben, die es gutgeheißen, „in die Welt“ und zum Einsatz gebracht hätten. Angesichts dessen, dass das System nicht oder kaum kontrollierbar und selbst nicht politisch-moralisch verantwortlich ist, sind diejenigen menschlichen Akteure politisch-moralisch verantwortlich für die Taten und Resultate, die in Kenntnis der Ungewissheit („Wir können eigentlich nicht abschätzen und nicht kontrollieren, ob das opake autonome Waffensystem ungewollte und schwerste Übel anrichten wird, aber wir setzen es dennoch ein“) das System entwickeln ließen und zum kriegerischen Einsatz brachten. Bei einer Technikfolgenabschätzung mussten sich die Beteiligten – die politisch und militärisch Entscheidenden – der Besonderheit und Einzigartigkeit dieses Artefakts bewusst sein. Angesichts dessen sind sie politisch-moralisch verantwortlich und juristisch verantwortlich (und haftbar) zu machen.

Verantwortung, prinzipiell

Derjenige, der behauptet, dass opake autonome Waffensysteme im Krieg nicht eingesetzt werden dürfen, weil mit ihrem Einsatz eine (auch humanitär-völkerrechtlich relevante) Verantwortungslücke gerissen wird, irrt; diejenige, die behauptet, dass opake autonome Waffensysteme eingesetzt werden sollten, weil ihr Einsatz zu weniger Opfern, Toten, Versehrten und Traumatisierten führen könnte, irrt möglicherweise – es ist eine empirische Frage, ob die Behauptende Recht oder Unrecht hat. Ob man bereit sein darf oder gar bereit sein sollte, den Einsatz zu wagen und somit den menschlichen Faktor auch in Angelegenheiten der Kriegsführung mehr und mehr zurückzudrängen, ist eine politisch-normative Frage. Verantwortung lässt sich nicht aussetzen – so oder so.

Dr. Christoph Sebastian Widdau geb. 1983, Lehrkraft für besondere Aufgaben am Bereich Philosophie der Otto-von-Guericke-Universität Magdeburg christoph.widdau@ovgu.de

1 Politisch wird seit Längerem – national wie international – über die Entwicklung und Regulierung letaler autonomer Waffensysteme diskutiert. Offenkundig gibt es sicherheits- und verteidigungspolitischen Orientierungs- und Debattenbedarf; siehe etwa den Bericht des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung (18. Ausschuss) gemäß § 56a der Geschäftsordnung: Technikfolgenabschätzung (TA) Autonome Waffensysteme. Drucksache 19/23672 (21.10.2020). dserver.bundestag.de/btd/19/236/1923672.pdf (Zugriff am 02.01.2022).

2 Altmann, Jürgen (2017): Zur ethischen Beurteilung automatisierter und autonomer Waffensysteme. In: Werkner, Ines- Jacqueline / Ebeling, Klaus (Hrsg.): Handbuch Friedensethik. Springer, S. 793–804, hier: S. 802.

3 Siehe Müller, Vincent C. (2016): Autonomous Killer Robots are Probably Good News. In: Di Nucci, Ezio / Santoni de Sio, Filippo (Hrsg.): Drones and Responsibility: Legal, Philosophical and Socio-Technical Perspectives on the Use of Remotely Controlled Weapons. Ashgate, S. 67–81.

4 Siehe die Pionierarbeit Matthias, Andreas (2004): The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. In: Ethics and Information Technology 6, S. 175–183.

5 Siehe z. B. Champagne, Marc / Tonkens, Ryan (2015): Bridging the Responsibility Gap in Automated Warfare. In: Philosophy & Technology 28, S. 125–137; Himmelreich, Johannes (2019): Responsibility for Killer Robots. In: Ethical Theory and Moral Practice 22, S. 731–747.

6 Die im Folgenden skizzierte Argumentation verfolge ich mit Carlos Zednik ausführlich in Widdau, Christoph Sebastian / Zednik, Carlos (2022; im Erscheinen): Opake Systeme künstlicher Intelligenz und das Problem der Verantwortungslücke. In: Verständig, Dan u. a. (Hrsg.): Algorithmen und Autonomie: Interdisziplinäre Perspektiven auf das Verhältnis von Selbstbestimmung und Datenpraktiken. Verlag Barbara Budrich.