Sind wir bereit für die Killer-Roboter?

Kleiner Sprung von Drohnen zu Killer-Roboter

Schon seit über 10 Jahren warnen verschiedenste Akteur*innen vor der Entwicklung und dem Einsatz von «Killer-Robotern» oder im Fachjargon: «autonomen Waffensystemen». Diese Maschinen werden als die dritte Revolutionierung der Kriegsführung gehandelt. Nichtsdestotrotz blieben bis anhin alle Versuche für ein Verbot oder eine stärkere verbindliche Regulierung dieser Waffensysteme erfolglos. Grosse Militärmächte stellen sich quer, ihre Partnerstaaten kuschen und stellen sich auf den Standpunkt, dass die bestehenden Regeln und unverbindliche Standards reichen, um diese Waffen zu regulieren. Auch die Schweiz muss da dazugerechnet werden. Doch ist diese Position glaubhaft? Sind wir mit den bestehenden Normen tatsächlich bereit für die Killer-Roboter? Von Samuel Tscharner

Die Gefahr: Autonome Waffensysteme

«Die Killer-Roboter kommen!». Das ist nicht der abgedroschene Titel eines unbekannten B-Movies, sondern eine Warnung, die mittlerweile von mehreren NGOs, darunter auch Human Rights Watch oder Amnesty International, bereits seit einigen Jahren verkündet wird.[1] Obschon der Begriff «Killer-Roboter» den meisten Leuten wahrscheinlich eher Bilder aus dem Science-Fiction-Bereich in den Kopf wirft, ist die Bedrohung, die durch diese Organisationen angesprochen wird, nicht mehr bloss reine Fiktion.

Freilich scheint die Entwicklung von Robotern, die Terminatoren, Zylonen oder Kampfdroiden gleichen, noch nicht direkt bevorzustehen. Nichtsdestotrotz schreitet die Entwicklung von sogenannten «autonomen Waffensystemen», kurz AWS, rasch und stetig voran. Unter AWS versteht man Waffensysteme, die ihre militärische Aufgabe nach ihrer Aktivierung eigenständig erledigen; Sie sammeln selbst Daten über ihre Umgebung, bewegen sich selbstständig fort, erkennen und visieren mögliche feindliche Ziele an und könnten im Endeffekt sogar alleine die Entscheidung fällen, tödliche Gewalt gegen diese Ziele anzuwenden.[2] Die erzielten Resultate bei der laufenden Entwicklung solcher Waffen und die Reaktionen darauf lassen die Gefahren solcher Maschinen erahnen.

Bereits 2015 sprachen sich Expert*innen aus dem Bereich der Robotik und der künstlichen Intelligenz gemeinsam mit namhaften Personen wie Stephen Hawking, Daniel Dennett, Frank Wilczek, Noam Chomsky, Lisa Randall, Barbara Simons, Elon Musk, Steve Wozniak oder Jaan Tallinn in einem offenen Brief für ein Verbot solcher Waffen aus und warnten vor einem möglichen Wettrüsten.[3] Im Jahr 2017 wandten sich die CEOs von führenden Robotik- und AI-Unternehmen in einem offenen Brief an die jährliche Versammlung der Vertragsparteien zur UN-Konvention bezüglich bestimmter konventioneller Waffen (CCW). Diese Versammlung hatte im Jahr zuvor eine Regierungsexpertengruppe ins Leben gerufen, um einen institutionalisierten Rahmen zu bieten, in dem die Staaten den internationalen Umgang mit AWS aushandeln können.[4] In diesem Brief bringen die CEOs ihre Sorge über die Entwicklung und den Einsatz solcher Waffen zum Ausdruck. Sie sprechen von einer dritten Revolutionierung der Kriegsführung, bezeichnen die Entwicklung solcher Waffen als Büchse der Pandora und bitten die Staaten darum, Wege zu finden, um «uns alle vor diesen Gefahren zu schützen».[5] Im selben Jahr soll der russische Präsident, Vladimir Putin, bei einer Rede vor Studierenden gesagt haben, dass die Zukunft der künstlichen Intelligenz gehöre und dass derjenige die Welt beherrschen werde, der in diesem Bereich die Führung übernehme.[6]

Seither scheinen Staaten sich eindringlicher mit dem Versprechen Putins auseinandergesetzt zu haben, als mit den Warnrufen der Expert*innen. So konnten sie sich bisher bloss auf eine Handvoll Grundprinzipien einigen, die sie formal als «Elemente einer möglichen Basis für konsensuelle Empfehlungen» behandeln.[7] Von der Einigung auf ernsthafte, neue bindende Regulierungen blieb man bisweilen weit entfernt.

Die Interessen: Zögernde Politik

Zwar wurde im Oktober diesen Jahres an der UNO-Generalversammlung ein Statement im Namen von rund 70 Staaten durch den österreichischen UNO-Botschafter verlesen, in dem der Konsens über die Gefährlichkeit dieser Waffen und die damit einhergehenden Herausforderungen aus legaler, ethischer, sicherheitspolitischer und technologischer Perspektive zum Ausdruck gebracht wurde.[8] Dennoch kann auch dieses Statement nicht darüber hinwegtäuschen, dass die Positionen selbst unter diesen 70 Staaten noch weit auseinanderliegen. Es ist durchaus plausibel, das Statement in erster Linie als politisches Manöver zu verstehen, um die Diskussion um AWS weiterhin allein im Rahmen der CCW-Versammlungen weiterzuführen, nachdem nun vermehrt Bestrebungen auftauchen, verbindliche Regulierungen alternativ über die UNO-Generalversammlung anzustossen.[9] 

Beschaut man sich das Protokoll der Regierungsexpertenversammlung aus dem Jahr 2020, scheinen sich lediglich einige Staaten Süd- und Zentralamerikas explizit für ein mögliches Verbot von autonomen Waffen auszusprechen.[10] Auch das IKRK spricht sich mittlerweile explizit für neue bindende Regeln für AWS aus.[11] Die Schweiz als Depositarstaat der Genfer Konventionen belässt es dagegen bis anhin dabei, auf die bestehenden Verpflichtungen unter dem internationalen Kriegsrecht hinzuweisen und spricht sich nicht explizit für zusätzliche bindende Regulierungen oder Verbote aus.[12] Währenddessen setzen sich die grossen Militärnationen standhaft gegen neue bindende Regulierungen ein und es darf wohl auch davon ausgegangen werden, dass sie gleichzeitig die Entwicklung dieser Waffen mit Hochdruck vorantreiben.

Nun sind das alles bloss politische Schlagabtausche und manche vermuten oder hoffen vielleicht, dass man hier lediglich einen Teufel an die Wand malt, dessen Existenz womöglich in einer weitentfernten oder vollkommen unwahrscheinlichen Zukunft liegt. Diese Vermutungen kann man entkräften, die Hoffnungen muss man enttäuschen. In einer kürzlich bei «NZZ Format» erschienen Dokumentation von Andrea Hauner[13] wird ein imposanter Eindruck von der tatsächlichen Entwicklung dieser Waffensysteme vermittelt. Des Weiteren kommen bereits erste autonome Waffensysteme zum Einsatz. Loitering munitions, zu Deutsch ungefähr «herumlungernde Munition», sind Drohnen, die selbstständig ein definiertes Gebiet abfliegen und Ziele erfassen. Letztlich stürzen sie sich auf das Ziel und explodieren. Solche Waffen wurden angeblich im Ukraine-Konflikt eingesetzt[14], spielten aber auch nachweislich in der bewaffneten Auseinandersetzung um Nagorno-Karabach zwischen Aserbaidschan und Armenien eine bedeutende Rolle.[15] Auch an der Grenzen Südkoreas sollen bereits seit mehreren Jahren autonome Geschütze von Samsung – ja, Samsung stellt nicht nur Unterhaltungselektronik her – die demilitarisierte Zone zwischen Süd- und Nordkorea überwachen.[16]

Viele Staaten, die mutmasslich die Gunst der mächtigen Militärstaaten nicht verspielen wollen, vertreten in der Öffentlichkeit die Position – wenn auch stets verklausuliert –, dass die Regeln des bestehenden Kriegsvölkerrechts und gewisse unverbindliche Prinzipien und «Good Practice»-Bestimmungen ausreichen sollten, um den Einsatz von AWS einzuschränken. Die Schweiz reiht sich weitestgehend in den Reihen dieser Staaten ein, wobei das auch als diplomatisches Kalkül interpretiert werden kann. Schliesslich könnte man aus einer vermittelnden Position herausfallen, wenn man sich zu eindeutig in den Reihen von Befürwortenden neuer Regulierungen platzieren würde.[17]

Argumente: Diskrepanz zwischen Theorie und Anwendung

Es sei hier nicht abgestritten, dass die aktuell geltenden Normen, d. h. die Reglungen des Kriegsvölkerrechts und ihre moralische Untermauerung durch die kriegsethische Position des Traditionalismus, in der Theorie potenziell reichen könnten, wenn man sie in der Praxis restriktiv auslegen und handhaben würde. Das Problem ist lediglich, dass die tatsächlich vorherrschende Interpretation und Anwendung dieser Normen in jeder Hinsicht ungenügend sind, um der Herausforderung der AWS zu begegnen. Die Normen sind in ihrer Kodifizierung zu vage, um das gewünschte Ziel zu erreichen. In Tat und Wahrheit kann beobachtet werden und muss auch in Zukunft davon ausgegangen werden, dass im Zusammenhang mit bewaffneten Konflikten realistischerweise jede Uneindeutigkeit zum eigenen Vorteil ausgenutzt wird und gerade stärkere Militärnationen kein Interesse an einer restriktiveren Auslegung der Normen haben. Es verwundert daher nicht, dass sich auf Basis der bestehenden Normen stets Einwände vorbringen lassen, welche die drei am häufigsten formulierten Argumente gegen den legitimen Einsatz von AWS scheinbar entkräften können. Besagte drei Argumente behaupten grob umrissen Folgendes: 

  1. AWS sind nicht in Übereinstimmung mit dem Kriegsvölkerrecht einsetzbar.[18]
  2. AWS lassen eine Verantwortungslücke entstehen, sodass niemand für von AWS begangenen Kriegsverbrechen verantwortlich gemacht werden könnte.[19]
  3. AWS führen zu einer ethisch problematischen Dehumanisierung des Krieges.[20]

Gegen das erste Argument kann vorgebracht werden, dass die Vertreter*innen dieses Arguments die Bedingungen für den legitimen Einsatz von AWS oft zu anspruchsvoll interpretieren. Sie argumentieren, dass man Maschinen unmöglich befähigen könne, sich an die komplexen Regeln des Völkerrechts zu halten und allein in Übereinstimmung mit diesen Gewalt anzuwenden. Angenommen diese Aussage sei wahr, so verhindert dieser Umstand jedoch keineswegs den legitimen Einsatz von AWS. Wenn die Personen, welche das AWS einsetzen, sicherstellen können, dass die Gewaltanwendung des AWS nicht in einem Verstoss gegen das Kriegsvölkerrechts mündet, reicht das völlig aus. Ausserdem scheitert das Argument schlicht und ergreifend an der legeren Handhabung der bestehenden Normen.

Ein Beispiel dafür bildet das Verbot unterschiedsloser Angriffe, dass sich im ersten Zusatzprotokoll zu den Genfer Konventionen findet. Dort steht in Art. 51(4)[21]:

„Unterschiedslose Angriffe sind verboten. Unterschiedslose Angriffe sind

a) Angriffe, die nicht gegen ein bestimmtes militärisches Ziel gerichtet werden,

b) Angriffe, bei denen Kampfmethoden oder ‑mittel angewendet werden, die nicht gegen ein bestimmtes militärisches Ziel gerichtet werden können, oder

c) Angriffe, bei denen Kampfmethoden oder ‑mittel angewendet werden, deren Wirkungen nicht entsprechend den Vorschriften dieses Protokolls begrenzt werden können

und die daher in jedem dieser Fälle militärische Ziele und Zivilpersonen oder zivile Objekte unterschiedslos treffen können.“

Erstes Zusatzprotokoll zu den Genfer Konventionen, Art. 51(4)

Eine strenge Auslegung dieses Absatzes könnte reichen, um autonome, ihre Ziele eigenständig aufsuchende und eliminierende Waffen weitestgehend zu verbieten. Man könnte argumentieren, dass «ein Kampfmittel gegen ein bestimmtes militärisches Ziel richten» bedeutet, dass man das in der Welt individuierte Ziel, das getroffen werden soll, im Vornherein des Angriffs eindeutig bestimmt haben muss. Man dürfte demgemäss keine autonomen Waffen losschicken, die frei nach Panzern suchen und diese zerstören, sondern man müsste im Vornherein bestimmen können, welcher individuelle Panzer das Ziel der Maschine sein soll.

Diese Interpretation scheint allerdings nicht die vorherrschende zu sein. Vielmehr scheint es auszureichen, wenn man sicherstellen kann, dass die Waffe ausschliesslich Panzer oder ein anderes eindeutig militärisches Ziel trifft, unabhängig davon, ob man das letztlich getroffene Individuum im Voraus kennt. Das lässt sich daraus erkennen, dass der Einsatz von Loitering Munition – wenn diese ausschliesslich militärische Ziele selbstständig auswählt und angreift – in der öffentlichen Debatte nie ernsthaft als Kriegsverbrechen in Betracht gezogen worden ist. Würde man den Einsatz von autonomen Waffen derart beschränken, wären sie letztlich nicht mehr als präzisere Raketen. Schränkten die jetzigen Normen den Gebrauch dieser Waffensysteme ausdrücklich in dieser Weise eins, würden die Militärmächte wahrscheinlich nicht Unmengen an Geld in den Bau und die Erforschung solcher Waffen stecken und die Diskussionen darüber wären nicht derart lebhaft.

Das zweite Argument ist aus der Warte des laxen Traditionalisten einer Kombination von begrifflichen und praktischen Gründen im Hinblick auf die aktuellen Reglungen nicht überzeugend. Aus begrifflicher Warte ist unklar, wie eine Verantwortungslücke genau zu bestimmen ist. Die Behauptung müsste sein, dass der Einsatz von AWS in keinem Fall zulässt, dass jemand für ihre Gewaltanwendungen verantwortlich gemacht werden kann. Das ist in praktischer Hinsicht unglaubwürdig, sind sich doch die Staaten zumindest gemäss ihren offiziellen Angaben weitestgehend einig, dass es beim Einsatz von AWS nicht zu Verantwortungslücken kommen darf. Dass also aufgrund der bereits geltenden Normen Bedingungen formuliert werden können, unter denen der Einsatz von AWS als unangemessen gilt und die befehlshabende Person dafür zur Rechenschaft gezogen werden kann, ist keineswegs ausgeschlossen. Auf der anderen Seite könnte argumentiert werden, dass Vorfälle, in denen die Verantwortung für schreckliche Ereignisse nicht eindeutig zu eruieren ist, in bewaffneten Konflikten keine Seltenheit sind. Die Argumentation, dass der Einsatz von AWS illegitim sei, weil er solche Vorfälle überhaupt zulässt, würde einen Massstab ansetzen, der für andere Methoden und Mittel der Kriegsführung ebenfalls nicht eingehalten werden kann.

Das dritte Argument besagt, dass der Einsatz von AWS die bewaffneten Konflikte auf ethisch problematische Weise dehumanisieren würde. Einerseits weil dadurch die menschliche Komponente am Abzug fehle; Eine Maschine ist unfähig, Mitleid zu empfinden und potenzielle Ziele zu verschonen, wo ein Mensch dies tun könnte.[22] Zudem kann sie sich Befehlen nicht verweigern. Andererseits degradiere der Einsatz von AWS die Ziele ihrer Attacken zu reinen Datenpunkten in der Berechnung eines Computerprogramms. Dies widerspreche der Achtung der Würde des Menschen.[23] Aus der Perspektive des lockeren Traditionalismus und der entsprechenden Auslegung des aktuellen Rechts lässt sich darauf erwidern, dass diese Punkte auch auf unzählige andere Methoden und Mittel der modernen Kriegsführung zutreffen. Es wäre daher unangemessen, nun im Hinblick auf AWS plötzlich komplett andere Massstäbe anzusetzen.

Notwendigkeit: Neue Regulierungen

An diesem Punkt könnte man nun folgern, dass der Einsatz von AWS unproblematisch ist und unsere Normen ausreichen, um ihren Einsatz zu regulieren und zu legitimieren. Das wäre allerdings eine verquere Konklusion. Sie gleicht folgendem Fall: Ein Haus wird nach einem Plan gebaut, aus dem logisch gefolgert werden kann, dass das Dach undicht sein wird und immer wieder lebensgefährliche Teile aus der Decke fallen. Sobald das Haus steht, sind genau diese Dinge im Geschehen begriffen. Das erste Wasser tropft durch das Dach und einige Bewohner sind bisher nur haarscharf von den herunterfallenden Deckenteilen verschont geblieben. Bei den einberufenen Diskussionen, ob man das Haus renovieren soll, argumentieren nun manche, dass das Haus keiner Renovation bedürfe, weil die Löcher im Dach und die aus der Decke fallenden Teile ja logischer Bestandteil des Bauplanes sei. Das Haus müsse also in Ordnung sein. Offenkundig ist diese Schlussfolgerung völlig irrwitzig, doch sie ist analog zur Konklusion über die Legitimität von AWS auf Basis der bestehenden Normen.

Vielmehr ist der umgekehrte Schluss angesagt! Der Bauplan muss angepasst werden. Die jetzigen Normen, ihre Auslegung und Umsetzung, haben nicht gereicht, um die Dehumanisierung des Krieges aufzuhalten, obschon sie auch genau dafür aufgestellt wurden. Sie vermögen es nicht, Waffengattungen zu bannen, deren Einsatz eine existenzielle Bedrohung für die Menschen darstellen und bewaffnete Konflikte grundlegend in unbekanntem Ausmass verändern können. Das haben sie weder in der Vergangenheit getan, noch tun sie es gerade im Zusammenhang mit AWS. Ausserdem verlässt man sich dabei weiterhin auf eher vage und interessengetriebene Reglungen bezüglich der Eruierung von Verantwortlichkeit.

Ethische Überlegungen ausserhalb des traditionalistischen Rasters und kritische Betrachtungen des internationalen Kriegsrechtsapparates mahnen deshalb unbestreitbar, dass wir einer Renovierung im Bereich des Kriegsrechts und der vorherrschenden Kriegsethik bedürfen. Die jetzigen Normen vermögen der modernen Kriegsführung nicht gerecht zu werden und bedürfen Ergänzungen sowohl in den kodifizierten Regeln als auch in ihrer Umsetzung. Die Schweiz sollte sich diesbezüglich in ihrer humanitären Tradition unbedingt deutlicher positionieren und darin mindestens den Empfehlungen des IKRK entsprechen. Mit den bestehenden Normen sind wir nämlich keineswegs bereit für das, was noch kommen wird – und genaugenommen auch nicht für das, was bereits existiert.

Bild: Pixabay License

Ähnlicher Text von Samuel Tscharner: „Der Gute Mensch“


Bemerkungen:

[1] Siehe Human Rights Watch & Human Rights Watch (HRW) & International Human Rights Clinic (IHRC) (2012) oder (2018). HRW widmet den Killer-Robotern auch einen eigenen Platz auf ihrer Webseite: https://www.hrw.org/topic/arms/killer-robots.

Siehe auch einen Artikel bei Amnesty International: https://www.amnesty.ch/de/themen/ueberwachung/dok/2021/autonome-waffen-muessen-verboten-werden#

Siehe weitere Kampagnen anderer NGOs gegen Killer-Roboter: https://www.stopkillerrobots.org/.

[2] Für ausführliche Charakterisierungen dieser Waffensysteme siehe bspw: Boulanin & Verbruggen (2017) oder Williams (2015).

[3] Der Brief findet sich hier: https://futureoflife.org/open-letter/open-letter-autonomous-weapons-ai-robotics/.

[4] Vgl. https://www.un.org/disarmament/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/.

[5] Der Brief findet sich hier: https://futureoflife.org/open-letter/an-open-letter-to-the-united-nations-convention-on-certain-conventional-weapons-german/.

[6] Vgl. Vincent (2017).

[7] Vgl. Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System (GGE-LAWS) (2021), para. 15.

[8] Vgl. https://www.stopkillerrobots.org/news/70-states-deliver-joint-statement-on-autonomous-weapons-systems-at-un-general-assembly/.

[9] Vgl. Nadibaidze (2022).

[10] GGE-LAWS (2021). Siehe Fn.8.

[11] Das Statement findet sich hier: https://www.icrc.org/en/document/autonomous-weapons-icrc-calls-states-towards-treaty-negotiations.

[12] Siehe auch den Bericht von SRG: https://www.srf.ch/news/international/autonome-waffensysteme-die-schweiz-lehnt-ein-verbot-von-killerrobotern-ab oder die Stellungnahme der Schweiz im Dokument der GGE-LAWS in Fn. 8. Ebenfalls interessant in diesem Zusammenhang ist die Antwort des Bundesrates auf die Interpellation 21.3223: 21.3223 | Lethal Autonomous Weapon System. Welche Position vertritt der Bundesrat auf internationaler Ebene? | Geschäft | Das Schweizer Parlament.

[13] Die Doku findet sich hier: https://www.nzz.ch/panorama/drohnen-werden-immer-intelligenter-und-autonomer-werden-algorithmen-bald-ueber-leben-und-tod-entscheiden-ld.1708937?reduced=true.

[14] Vgl. Trager & Luca (2022) oder die Stellungnahme von «Stop  Killer Robots»: https://www.stopkillerrobots.org/news/autonomous-weapon-systems-used-in-ukraine/.

[15] Vgl. Atherton (2021).

[16] Vgl. Crootof (2015).

[17] Vgl. die Einschätzungen von Fredy Gsteiger, SRG-Experte für internationale Beziehungen, in einem Beitrag von 10vor10 aus dem Jahr 2018: https://www.srf.ch/play/tv/10-vor-10/video/autonome-waffensysteme—wenn-maschinen-krieg-fuehren?urn=urn:srf:video:051534f0-225e-41ca-a9de-4b2506b28e88.

[18] Vgl. Miller (2016), 272ff.

[19] Vgl. Sparrow (2007).

[20] Vgl. Leveringhaus (2016), 89ff.

[21] Zitiert aus der Rechtssammlung des Bundes: https://www.fedlex.admin.ch/eli/cc/1982/1362_1362_1362/de.

[22] Vgl. Leveringhaus (2016), siehe Fn.21.

[23] Vgl. Heyns (2017).

Literatur:

– Atherton, K. (2021). Loitering munitions preview the autonomous future of warfare. Ein Artikel in Brookings TechStream, publiziert am04.08.2021.

Link: https://www.brookings.edu/techstream/loitering-munitions-preview-the-autonomous-future-of-warfare/.

– Boulanin, V. & Verbruggen, M. (2017). Mapping the Development of Autonomy in Weapon Systems. Solna, Sweden: Stockholm International Peace Research Institute (SIPRI).

– Crootof, R. (2015) The Killer Robots Are Here: Legal and Policy Implications. In Cardozo Law Review 36, S.1837ff. Link: https://ssrn.com/abstract=2534567.

– Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System. (2021). Chairperson’s Summery (Mr. Ljupčo Gjorgjinski) of the Conference from 2020, mandated in the context of the objectives and purposes of the Convention on Certain Conventional Weapons (CCW). UN document: CCW/GGE.1/2020/WP.7.

Link: https://documents-dds-ny.un.org/doc/UNDOC/GEN/G21/090/11/PDF/G2109011.pdf.

– Heyns, C. (2017). Autonomous weapons in armed conflict and the right to a dignified life: an African perspective. In South African Journal on Human Rights, 33(1), S.46-71.

– Human Rights Watch (HRW) & International Human Rights Clinic (IHRC). (2012). Losing Humanity. The Case against Killer Robots, USA: Human Rights Watch.

Link: https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots.

– Human Rights Watch (HRW) & International Human Rights Clinic (IHRC). (2018). Heed the Call. A Moral and Legal Imperative to Ban Killer Robots, USA: Human Rights Watch.

Link: https://www.hrw.org/report/2018/08/21/heed-call/moral-and-legal-imperative-ban-killer-robots.

– Leveringhaus, A. (2016). Ethics and Autonomous Weapons. London, UK: Palgrave Macmillan.

– Miller, S. (2016). Shooting to Kill. The Ethics of Police and Military Use of Lethal Force, New York, USA: Oxford University Press.

– Nadibaidze, A. (2022). Regulation and Prohibition of Autonomous Weapon Systems: A Future Outside the CCW? Ein Artikel in Autonorms, publiziert am 03.11.2022.

Link: https://www.autonorms.eu/regulation-and-prohibition-of-autonomous-weapons-systems-a-future-outside-the-ccw/.

– Sparrow, R. (2007). Killer Robots. In Journal of Applied Philosophy, 24(1), S.62-77.

– Trager, R.F. & Luca, L.M. (2022). Killer Robots Are Here – and We Need to Regulate Them. Ein Artikel in ForeignPolicy, publiziert am 11.05.2022.

Link: https://foreignpolicy.com/2022/05/11/killer-robots-lethal-autonomous-weapons-systems-ukraine-libya-regulation/.

– Vincent, J. (2017). Putin says the nation that leads in AI “will be the ruler of the world”. Ein Artikel in The Verge, publiziert am 04.09.2017.

Link: https://www.theverge.com/2017/9/4/16251226/russia-ai-putin-rule-the-world.  

– Williams, A. P. (2015). Defining Autonomy in Systems: Challenges and Solutions. In Williams, A. P. & Scharre, P. D. (eds.), Autonomous Systems. Issues for Defence Policymakers. The Hague, Netherlands: NATO Communications and Information Agency. S.27-62.

Kommentar verfassen