Hintergrund 04.12.2019, 15:30 Uhr

Ethik für Maschinen: Befehl verweigert? Test bestanden!

Handeln Systeme mit künstlicher Intelligenz autonom, kann das gehörig schiefgehen. Um dem vorzubeugen, braucht es eine Maschinenethik. Diese soll Roboter mit einer Form der Befehlsverweigerung vertraut machen, die moralisch begründet ist.
Damit intelligente Maschinen und Menschen partnerschaftlich zusammenarbeiten können, müssen im Vorfeld ethische Fragen diskutiert und geklärt werden. Auf den Antworten werden künftig Richtlinien etwa für einen Roboter-TÜV aufbauen
(Quelle: Shutterstock / Willyam Bradberry)
Wie kann man die Entscheidungen eines autonom handelnden Roboters, der mit künstlicher Intelligenz (KI) ausgestattet ist, so steuern, dass dessen Entscheidungen ethisch vertretbar sind? In der aktuellen Diskussion um künstliche Intelligenz ­gehen die Meinungen darüber auseinander, was darunter ­eigentlich zu verstehen sei. An den Beginn möchte ich daher eine Definition von künstlicher Intelligenz setzen. Ich schliesse mich der Definition an, die Max Tegmark, Physikprofessor am MIT, in seinem Buch «Leben 3.0» vorschlägt. Auf Seite 80 des Buches definiert er Intelligenz zunächst als die «Fähigkeit, komplexe Ziele zu erreichen». Anwendungen der künstlichen Intelligenz bieten dementsprechend Werkzeuge, mit denen sich komplexe Ziele erreichen lassen.

KI als erweiterter Schraubenzieher

Aus der Definition resultiert zunächst: KI ist ein Werkzeug. So ähnlich wie ein Schraubenzieher. Wer als Ziel hat, eine Schraube zu entfernen, nimmt als Werkzeug einen Schraubendreher. Dieser eignet sich also für ein einzelnes, sehr spezielles Ziel. Wer ein komplexes Ziel hat, verwendet Anwendungen der künstlichen Intelligenz.
Komplexe Ziele können etwa sein: Analysiere ein Röntgenbild. Formuliere zu einem Foto eine passende Bild­beschreibung in finnischer Sprache. Verabreiche einem Patienten das erforderliche Medikament. Vermiete meine Wohnung. Finde den passenden Bewerber für die offene Stelle. Handle mit meinen Aktien. Finde einen Lebenspartner für mich. Mach mich reich. Mach mich glücklich. Komplexe Ziele können aber auch sein: Finde den Menschen, von dem ich dir jetzt drei Fotos zeige, und bringe ihn um. Streue in den sozialen Netzwerken üble Verleumdungen zu allen Personen, die der Partei XYZ nahestehen. Töte alle meine Feinde.
An welcher Stelle kommt hier nun die Maschinenethik ins Spiel? Schraubenzieher und KI sind gleichermas­sen Werkzeuge. Ist ein Schraubendreher gut oder böse? Vielleicht gut, denn er kann ja Schrauben drehen, und das ist kreative Handwerksarbeit. Oder böse, denn jemand hat seinem Chef mit einem Schraubenzieher auf den Kopf gehauen. Natürlich weder noch, weil ein Werkzeug an sich weder gut noch böse ist. Die Handlung, die jemand mit einem Werkzeug ausführt, kann gut oder böse sein, aber nicht das Werkzeug selbst.
Das führt zu folgender Erkenntnis: Weil KI auch nur ein Werkzeug ist, lässt sie sich sowohl für gute Zwecke («Heile diese Krankheit») als auch für übelste Verbrechen einsetzen. Diese Erkenntnis mag trivial erscheinen. Sie ist es aber nicht. In der öffentlichen Diskussion werden dem Werkzeug KI oft genug auch moralische Eigenschaften zugeschrieben, die der KI einfach nicht zukommen. Da wird schon mal darum geworben, man möge doch «Vertrauen in künstliche Intelligenz» haben. Appelle dieser Art sind ungefähr so sinnvoll wie: Habt Vertrauen in Schraubenzieher! In Backöfen! In Maschinengewehre! Denn das sind doch alles gute Sachen, oder etwa nicht?
Hier ist offensichtlich nicht das Einsatzgebiet der Maschinenethik. Hier ist das Einsatzgebiet der Ethik. Hier muss sich der Mensch fragen: Darf ich dieses oder jenes tun oder lassen? Darf ich dieses oder jenes komplexe Ziel überhaupt verfolgen? Fragen dieser Art werden bereits seit Jahrtausenden in allen Weltkulturen intensiv und kontrovers diskutiert.



Das könnte Sie auch interessieren