Ethik für Maschinen: Befehl verweigert? Test bestanden!

Isaac Asimov im Europäischen Parlament

In der Politik ist man sich längst der Tatsache bewusst, dass hier staatliches Handeln erforderlich ist. Als Beispiel sei auf einen Entschluss des Europäischen Parlaments verwiesen, der «Zivilrechtliche Regelungen im Bereich Ro­botik» behandelt. Die Entschliessung geht aus von der «Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen künstlicher Intelligenz anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, und es daher für Gesetzgeber von entscheidender Bedeutung ist, sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen».
Der Text ist nicht nur auf der Höhe der Zeit. Er ist aufgrund seines breiten Ansatzes auch äusserst interessant zu lesen. In der Einleitung bezieht sich der Entschluss unter Punkt T auf die Robotergesetze von Science-Fiction-Autor Isaac Asimov. Diese lauten:
  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Später hat Asimov seinen drei Robotergesetzen noch ein nulltes Gesetz vorangestellt: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
Vorschläge des Beschlusses des EU-Parlaments sind etwa:
  • Einführung eines EU-Registrierungssystems für fortschrittliche Roboter im Rahmen des EU-Binnenmarkts.
  • Grundsatz der Transparenz: Entscheide, die ein KI-System getroffen hat, sollen nachzuvollziehbar sein.
  • Ausstattung mit einer Blackbox, die alle Tätigkeiten des Roboters protokolliert, ähnlich wie in einem Flugzeug.
  • Die Errichtung einer Europäischen Agentur für Robotik und künstliche Intelligenz.
  • Einführung eines Versicherungssystems für Roboter, möglicherweise verknüpft mit einem speziellen recht­lichen Status für Robotersysteme, über den sich eventuelle Haftungsfragen klären lassen.

Angeklagt: Roboter 08/15

Solche Haftungsfragen stehen im Mittelpunkt des Beschlusses: Denn wenn Maschinen selbstständig entscheiden und danach handeln, wer haftet dann für einen eventuellen Schaden? Bevor derartige Fragestellungen nicht abschliessend geklärt sind, ist eine wirtschaftliche Nutzung von Robotern auf breiter Basis so gut wie ausgeschlossen. Im Hintergrund dieser Entschliessung dürfte die Automobilindustrie kräftig mitgearbeitet haben. Denn in dieser Branche besteht momentan das grösste Interesse daran, autonom agierende Maschinen auf die Menschheit loszulassen. Die Überlegungen in der Entschliessung gehen beispielsweise so weit, sogar eine eigene Art von juristischer Person für autonome Roboter zu erfinden.
Diese Art von juristischer Person wäre natürlich ein reines juristisches Konstrukt. Es würde gar nichts darüber aussagen, ob der Roboter eine echte «Person» ist. Natürlich ist er es nicht, so wenig wie eine GmbH eine Person ist. Aber für juristische Zwecke wäre es praktisch. Man könnte dann beispielsweise alle juristischen Personen dieser Art dazu verpflichten, sich bei einer speziellen Behörde zu registrieren, sich speziell zu versichern und so weiter. Was die Tests auf korrekte Implementierung des Ethik­rahmens betrifft, kann man nahtlos an bestehende Regelungen anknüpfen. Die Maschinenrichtlinie der EU schreibt beispielsweise vor, dass man für jede Maschine, die jemand in der EU in Verkehr bringt, zunächst eine Risikobeurteilung erstellen muss. Anschliessend soll die Maschine entsprechend den Erkenntnissen aus dieser Risikobeurteilung konstruiert und gebaut werden.
Übrigens, in der Anlage zur erwähnten EU-Entschlies­sung befindet sich ebenfalls ein «Ethischer Verhaltens­kodex für Robotikingenieure». Dieser enthält dementsprechend auch diesen Satz: «Der Betrieb eines Robotiksystems sollte grundsätzlich auf eine umfassende Risikobeurteilung gestützt werden, die auf den Grundsätzen der Vorsorge und der Verhältnismässigkeit beruhen sollte.» Und wie man solche Risikobeurteilungen vornimmt und die Umsetzung  empfohlener Schutzmassnahmen im Rahmen von Akzeptanztests prüft, das gehört zum Repertoire jedes Maschinenbauingenieurs, sollte es jedenfalls.

Befehlsverweigerung als Roboterpflicht

Den Artikel möchte ich mit einem Zitat von Oliver Bendel abschliessen. Bendel ist Professor am Institut für Wirtschaftsinformatik und Ethik an der Fachhochschule Nordwestschweiz. In seinem Beitrag «Überlegungen zur Disziplin der Maschinenethik» schreibt er unter anderem über Pflege­roboter. Bendel diskutiert hier das Problem, dass Pflege­roboter im Prinzip in der Lage sein könnten, einen Patienten zu töten, und betont: «Wer das für Science-Fiction hält, sollte sich unterschiedliche Typen von Pflegerobotern anschauen. Solche, die etwas transportieren, solche, die uns informieren, und solche, die Hand an uns legen. Manche sehen aus wie ein Mensch oder ein Tier, andere wie Kooperations- und Kollaborationsroboter aus der Industrie. Diese haben meist einen Arm, mehrere Achsen und zwei bis drei Finger. Man kann sie trainieren, indem man ihren Arm und ihre Finger bewegt oder ihnen einfach etwas vormacht, während sie mit ihren Sensoren und Systemen alles verfolgen und verarbeiten. Im Prinzip kann man ihnen beibringen, uns zu erwürgen [...]. Eine Aufgabe der Maschinenethik wäre es eben, den Roboter mit einer Form der Befehlsverweigerung vertraut zu machen, die moralisch begründet wäre.»
Kleines Maschinenethik-Glossar
Trolley Case: Der klassische Fall einer Dilemma-Situation. Dieses Gedankenexperiment gibt es in verschiedenen Varianten. Es wurde ursprünglich von der Philosophin Phi­lip­­pa Foot (1920–2010) ­erdacht. Eine Variante hat diese Form: Angenommen, eine Strassenbahn (englisch: trolley) ist ausser Kontrolle geraten und droht, fünf Leute zu überfahren. Ein unbeteiligter Mann steht neben der Bahn. Wenn man diesen Mann vor die Bahn schubsen würde, dann würde die Bahn gestoppt, der Mann wäre tot, aber die fünf Leute wären gerettet. Wäre das erlaubt?
Utilitarismus: Jeremy Bentham (1748–1832) und John Stuart Mill (1806–1873) gelten als geistige Väter des Utilitarismus. Bentham brachte die Grundidee auf den Punkt mit dem Slogan: «Das grösste Glück der grössten Zahl ist der Massstab für richtig und falsch.» In dem oben genannten Trolley Case müssten Utilitaristen den Mann auf die Gleise schubsen, denn dann stirbt nur einer und fünf überleben.
Moralphilosophie nach Immanuel Kant: Gegenspieler zum Utilitarismus. Für Kant ist der gute Wille allein entscheidend, nicht die Folgen der Handlung. Kants kategorischer Imperativ sieht vor, dass die Grundsätze, nach denen jemand handelt, stets auch die Grundlagen einer Gesetzgebung sein könnten. Menschen dürfen niemals nur als Mittel zum Zweck verwendet werden. Nach Kant darf man den Mann nicht auf die Gleise schubsen, denn ein Mensch darf nicht als Mittel zum Zweck verwendet werden.
Tugendethik: Vielschichtige Strömung, die aus der Antike stammt. Im Zentrum steht die charakterliche Bildung der einzelnen Person und die Einbettung dieses Verhaltens in die jeweilige Gesellschaft. Die Tugendethik ist weniger gut geeignet für das Herausbilden allgemein gültiger Grundsätze. Sie hat keine klare Meinung zum Trolley Case.
Singularität: Spekulative Vorstellung einer «Intelligenzexplo­sion». Diese soll sich ab dem Umschlagpunkt abspielen, ab dem Maschinen intelligenter als Menschen sind und in Eigenregie immer noch intelligentere Maschinen entwickeln könnten. In deren Folge könnte eine sogenannte Hyper-Intelligenz entstehen, die am Ende sogar die Weltherrschaft übernimmt.


Das könnte Sie auch interessieren