Das „Terminator“ Szenario verhindern – Die ethische Dimension des automatisierten Tötens

von Christian Weidlich

Die Ethik der Drohnen

Teil II unserer Artikelserie zur Ethik der Drohnen
Bild: Drone, Green Light von Truthout.org unter CC BY-NC-SA 2.0

„Ich befürchte, dass die Maschinen der Moral um einige Jahrhunderte voraus sind, und wenn die Moral sie eingeholt haben wird, werden wir beide nicht mehr benötigen.“
Harry S. Truman

Die Vorstellung, dass Roboter in einem Krieg Menschen töten ist schon lange keine Science Fiction mehr. Die robotische Revolution ist in vollem Gange – vor allem in der Luft. Die aktuelle Generation von Drohnen ist dass bisher am weitesten entwickelte robotische Waffensystem. Sie kann bereits weitgehend selbständig starten und landen, sich in der Luft halten, Ziele erkennen und verfolgen, benötigt aber bislang noch menschlichen Input beim Waffeneinsatz. Allein dies birgt umfangreiche Gefahren. So wird oft kritisiert, dass das ferngesteuerte Töten per Drohne einem Computerspiel gleichkomme und von Regierungen und Militärs systematisch bagatellisiert werde. Aber auch die aktuelle Drohnengeneration stellt nur eine Momentaufnahme auf dem Weg zu autonomen Waffensystemen dar.

Generell unterscheidet man zwischen drei Arten von robotischen Waffen, abhängig vom menschlichen Einfluss:

  • In-the-loop Systeme: Die Zielauswahl und der Waffeneinsatz erfolgen durch den Menschen;
  • On-the-loop Systeme: Die Zielauswahl und der Waffeneinsatz erfolgen durch das Waffensystem. Dies geschieht unter menschlicher Aufsicht mit der Möglichkeit, jede Entscheidung des Systems zu korrigieren;
  • Out-of-the-loop Systeme: Die Zielauswahl und der Waffeneinsatz erfolgen durch den Roboter ohne menschliche Einflussmöglichkeiten.

Mit jeder neuen Drohnengeneration steigt der Grad an Autonomie unaufhörlich. Bereits heute agieren die „Piloten“ oft nur noch „on-the-loop“. Die Gründe für die weitere Autonomisierung von Waffensystemen erscheinen dabei fast zwingend. Erstens ist es nicht (ökonomisch) effizient, dass jeder Vorschlag für ein potenzielles Ziel von einem Menschen geprüft wird. Zweitens besteht jederzeit die Möglichkeit des Abbruchs der Kommunikationsverbindung zwischen der Basis und dem Waffensystem. Drittens ist die Reaktionsgeschwindigkeit der Maschinen größer als die der Menschen. Während ein Drohnenpilot fast eine halbe Sekunde benötigt, um auf einen Reiz zu reagieren, benötigt der Computer hierfür nur eine Millionstel Sekunde. Auch die eingehenden Daten können Maschinen viel schneller verarbeiteten als das menschliche Gehirn. Zusammengenommen wird der Mensch mehr und mehr zum Schwachpunkt bei der Bedienung von robotischen Waffen und es liegt geradezu auf der Hand, ihn aus der Entscheidungsverantwortung über Leben und Tod zu nehmen. Es ist also nur noch eine Frage des wann und nicht des ob die Entscheidung über den Einsatz von tödlicher Gewalt vom Menschen auf die Roboter übertragen wird.

Die ethische Dimension des automatisierten Tötens

Das Grundproblem von autonomen Waffensystemen liegt nicht nur darin, dass Maschinen Menschen töten, sondern dass sie darüber hinaus auch die Entscheidung über Leben und Tod eigenständig treffen. Wie kann dies verhindert werden? Neben humanitär-völkerrechtlichen Argumenten (Unterscheidungsgebot zwischen Zivilisten und Kombattanten, Proportionalität von militärischer Gewalt, militärische Notwendigkeit sowie Verantwortlichkeit) sind hier vor allem ethische Überlegungen relevant.
Jeder, der den Film „I, Robot“ gesehen hat, kennt sie: die Drei Gesetze der Robotik. Aufgestellt wurden Sie von Isaac Asimov, dem literarischen Vater der Roboter, im Jahre 1942 in seiner Kurzgeschichte „Herumtreiber“ (Runaround):

  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum Ersten Gesetz.
  3. Ein Roboter muss seine Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

Obwohl es sich bei den Drei Gesetzen der Robotik nur um Science Fiction handelt, sind sie der Referenzpunkt für die ethische Diskussion von Kampfrobotern geworden. Doch es ist offensichtlich, dass militärische Roboter diesen Gesetzen niemals folgen würden, denn das Militär will explizit Maschinen die töten können, ihre Befehle nicht von jedem Menschen entgegennehmen und sich keine Gedanken über ihre eigene Existenz machen. Man muss aber nicht in der Science Fiction suchen, sondern findet auch im menschlichen Moralsystem einige gute Gründe, die gegen die Entwicklung und den Einsatz von Maschinen sprechen, die über Leben und Tod von Menschen entscheiden.

  1. Unabhängig davon wie intelligent (und wie viel intelligenter als Menschen) Maschinen eines Tages sein werden, sie werden niemals menschlich sein. Menschen haben immer ein besseres Verständnis dafür, wann und welche Situation den Einsatz von Gewalt in einer Kampfsituation rechtfertigt. Wir würden nicht einfach den Abzug betätigen, nur weil dies uns ein Algorithmus befiehlt.
  2. Roboter sind keine moralischen Wesen, weil sie keine Verantwortung für ihre Taten übernehmen können. Sie können nicht für etwas „schuldig“ sein und nicht bestraft werden, weil sie unter einer Strafe nicht leiden können. Selbst wenn autonome Kampfroboter von ethischen Regeln geleitet handelten, würde dies sie nicht zu moralischen Wesen machen. Software ist keine Moral und der Binärcode hat keine zu Grunde liegende ethische Bedeutung.
  3. Maschinen wird es immer an einer fundamentalen menschlichen Eigenschaft fehlen, der Empathie. Sie ist eine der stärksten Hemmnisse in Bezug auf das Töten – oft so schwerwiegend, dass die meisten Menschen eher selbst sterben, als einen anderen Menschen töten würden. Ein Roboter wird kein Mitgefühl entwickeln und selbst ein Kind, wenn es eine Waffe auf ihn richtet, erschießen.
  4. Selbst für das intelligenteste Waffensystem ist es unmöglich zu verstehen, was es heißt, ein menschliches Leben zu beenden – gerade wenn es selbst nicht „sterben“ kann. So ist es doch vor allem die menschliche Sterblichkeit, die unserem Leben eine Bedeutung verleiht und uns zu moralischen Wesen macht. Ohne die Möglichkeit zu „sterben“ kann es auch keine Befähigung zu ethischem Verhalten im Krieg geben.

Gerade aus ethischer Perspektive gibt es also verschiedene Gründe, die dagegen sprechen, Maschinen die Fähigkeit zu verleihen, über Leben und Tod von Menschen zu entscheiden. Killer-Roboter und die Automatisierung des Tötungsakts sind nicht mit unseren moralischen Vorstellungen vereinbar.

Die Alternative: Eine Konvention gegen autonome Kampfroboter

Diese Argumente verdeutlichen, warum der Akt des Tötens niemals an eine Maschine übertragen werden darf. Wir müssen keine Gesetze für Roboter schaffen, sondern Gesetze für Menschen, damit es nicht dazu kommt, dass Roboter über Leben und Tod entscheiden. Das Ziel muss es dabei sein, sicherzustellen, dass die Zielauswahl und der Waffeneinsatz ausschließlich dem Menschen vorbehalten ist, der auch jederzeit „in-the-loop“ sein muss. Es ist an der Zeit eine internationale Konvention zu verhandeln, die die Entwicklung, die Produktion, den Test und den Einsatz von autonomen Waffensystemen präventiv verbietet.

7 Kommentare

  1. […] Eigentlich stimme ich Christian in seiner Problematisierung und seiner Schlussfolgerung bezüglich der internationalen Regulierung autonomer Kampfsystem vollständig zu. Aber weil es jetzt langweilig wäre, einfach nur zuzustimmen, will ich als Advocatus Diabolo gegen Christians moralische Einwände zur Verknüpfung von menschlichem Moralsystem und maschinellen Moralsystemen argumentieren. 🙂

    Denn ich denke, dass es zwar leicht fällt (und meistens auch richtig ist) die moralische Überlegenheit des Menschen zu proklamieren, aber das das Bild vielleicht auch nicht ganz so schwarz-weiß ist. Mein Argument ist, dass a) der Mensch nicht prinzipiell und a priori immer die besseren moralischen Entscheidungen trifft und b) dass künstliche Intelligenzen, im Gegensatz zu der Argumentation im Artikel, theoretisch sehr wohl dem Menschen überlegene moralischen Entscheidungen treffen können. Das Problem ist, dass es nicht sehr wahrscheinlich ist, dass das eintreffen wird. Kurz, der moralische Terminator ist möglich, aber nicht wahrscheinlich […]

    (Den Beitrag hatte ich ursprünglich als Comment auf Christians Beitrag angefangen, aber er wurde dann zu lang für ein einfachen Kommentar. Daher habe ich ihn kurzerhand aufs Blog gepackt.)

  2. Lieber Felix,

    vielen Dank für den Kommentar und auch hier für alle Leserinnen und Leser noch mal der Verweis auf den Bretterblog mit Felix Betirag in voller Länge…

    http://bretterblog.wordpress.com/2013/03/21/der-moralische-terminator-ist-moglich-aber-nicht-wahrscheinlich/

    …sowie einem weiteren (älteren) blog zum Thema von Christian Weidlich

    http://bretterblog.wordpress.com/2013/02/06/druckeberger-vom-dienst-das-bmvg-und-die-bagatellisierung-bewaffneter-drohnen/http://bretterblog.wordpress.com/2013/02/06/druckeberger-vom-dienst-das-bmvg-und-die-bagatellisierung-bewaffneter-drohnen/

    Christian kann Dir termilich bedingt wahrscheinlich erst nach Ostern anworten.

    LG, Stefan

  3. Lieber Felix, danke für Deinen Kommentar und eigenen Beitrag zur Debatte. Der Mensch trifft natürlich nicht a priori „bessere“ Entscheidungen als eine Maschine – hier stimme ich Dir voll zu, betrachtet man lediglich eine Art Ursache-Wirkungsbeziehung. Wir treffen vielleicht hin und wieder Entscheidungen, deren Ergebnisse sich zu unserem Nachteil (oder dem Nachteil anderer) auswirken –Entscheidungen, die eine Maschine vielleicht nicht oder anders getroffen hätte. Was uns aber unterscheidet ist, dass wir möglicherweise eine Handlung bereuen, uns für sie schämen oder uns genötigt fühlen, etwas wieder „gut“ zu machen – basierend auf einem Normen- und Wertesystem das über Nullen und Einsen hinausgeht. Daher bin ich davon überzeugt, dass künstliche Intelligenz – unabhängig davon, wie weit entwickelt – keine moralischen Entscheidungen werden treffen können, weil sie keine moralischen Wesen, eben nicht menschlich sind. Bezogen auf die Übertragung auf militärischer Roboter glaube ich, dass die menschliche Entscheidung über den Einsatz von Waffengewalt in einer Kriegs- oder Konfliktsituation ebenso auf einer komplexen legalen sowie ethisch-moralischen Abwägungsentscheidung basiert, die meiner Meinung nach nicht konstruiert werden kann. Natürlich könnten verschiedene handlungsanleitende Regeln programmiert werden, die eine Maschine anschließend befolgt (oder nicht befolgt – Stichwort ‚Autonomie’), aber dadurch erhalten Handlungen einer Maschine keine moralische Qualität.

  4. Ein neuer Beitrag von Christian zum Thema ist heute im Bretterblog erschienen. Thema: Der Start der „International Campaign to Stop Killer Robots“.

    http://bretterblog.wordpress.com/2013/05/08/rage-against-the-machines-die-international-campaign-to-stop-killer-robots/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.