Ethik für Maschinen

Befehl verweigert? Test bestanden!

von - 29.01.2020
Roboter und Mensch
Foto: Willyam Bradberry / shutterstock.com
Handeln Systeme mit Künstlicher Intelligenz autonom, kann das auch gehörig schiefgehen. Deshalb ist es wichtig, für die Maschinen einen bestimmten Ethikrahmen abzustecken.
Wie kann man die Entscheidungen eines autonom handelnden Roboters, der mit Künstlicher Intelligenz (KI) ausgestattet ist, so steuern, dass dessen Entscheidungen ethisch vertretbar sind?
Zunächst einmal sollte man definieren, was KI eigentlich genau ist. Künstliche Intelligenz lässt sich dabei mit einem Werkzeug vergleichen, ähnlich einem Schraubendreher. Wer als Ziel hat, eine Schraube zu entfernen, nimmt als Werkzeug einen Schraubendreher. Dieser eignet sich also für ein einzelnes, sehr spezielles Ziel. Wer ein komplexes Ziel hat, verwendet Anwendungen der Künstlichen Intelligenz, etwa zur Analysiere eines Röntgenbilds.
Komplexe Ziele können aber auch Folgendes sein: Finde den Menschen, von dem ich dir jetzt drei Fotos zeige, und bringe ihn um. Streue in den sozialen Netzwerken üble Verleumdungen zu allen Personen, die der Partei XYZ nahestehen. Töte alle meine Feinde.
An welcher Stelle kommt hier nun eine Maschinenethik ins Spiel? Schraubendreher und KI sind gleichermaßen Werkzeuge. Ist ein Schraubendreher gut oder böse? Vielleicht gut, denn er kann ja Schrauben drehen. Oder böse, denn jemand hat seinem Chef mit einem Schraubendreher auf den Kopf gehauen. Natürlich weder noch, weil ein Werkzeug an sich weder gut noch böse ist. Die Handlung, die jemand mit einem Werkzeug ausführt, kann gut oder böse sein, aber nicht das Werkzeug selbst. Das führt zu folgender Erkenntnis: Weil KI auch nur ein Werkzeug ist, lässt sie sich sowohl für gute Zwecke als auch für übelste Verbrechen einsetzen. Diese Erkenntnis mag trivial erscheinen, sie ist es aber nicht. In der öffentlichen Diskussion werden dem Werkzeug KI oft genug auch moralische Eigenschaften zugeschrieben, die der KI einfach nicht zukommen. Da wird schon mal darum geworben, man möge doch „Vertrauen in Künstliche Intelligenz“ haben. Appelle dieser Art sind ungefähr so sinnvoll wie: Habt Vertrauen in Schraubendreher.

Schraubendreher mit Willen

Ein Werkzeug kann an sich also weder gut noch böse sein, sondern nur der Verwendungszweck. Trifft das auch auf KI wirklich zu? Wenn man Leuten zuhört, die mit KI arbeiten, dann gibt es immer wieder Erzählungen, in denen es um den Eigenwillen, und speziell den völlig unvorhergesehenen Eigenwillen von KI geht.
Jürgen Schmidhuber etwa entwickelt am Schweizer Labor IDSIA lernende neuronale Netze. In einem Interview wurde er gefragt: „Was geschieht, wenn die Maschinen eines Tages merken, dass es rationaler wäre, nicht mehr von Menschen gesetzten Regeln, sondern ihren eigenen zu folgen?“ Seine Antwort lautete: „Das ist schon längst passiert. Mein Kollege Mike Mozer baute in den 1990ern ein ‚neuronales‘ Haus, das alle Geräte im Haus steuerte und lernte, Energie zu sparen, etwa durch Rollläden statt Klimaanlage, wenn es zu heiß war. Wenn das Haus etwas tat, das Mike nicht behagte, konnte er es durch einen Knopf bestrafen. Das Haus fand einen Weg, dieser Bestrafung zu entgehen: Als er mal weg war, sperrte es ihn aus.“ Das System sperrt seinen eigenen Schöpfer aus - aus Sicht der Maschine kann das vernünftig sein. Aber will man sich darauf einlassen?
Ein weiteres Beispiel: der Moment, in dem das KI-System AlphaGo von Google DeepMind 2016 Lee Sedol schlug, den weltbesten Go-Spieler. Interessant ist, wie dem System dieser Sieg gelang. Entscheidend war ein bestimmter Spielzug, den alle Beteiligten als revolutionär ansahen. Züge auf der dritten Linie des Go-Spielbretts bieten traditionell einen kurzfristigen taktischen Vorteil und Züge auf der vierten Linie einen längerfristigen strategischen Vorteil. Doch im 37. Zug des zweiten Spiels schockierte AlphaGo die Go-Welt, indem er diese alte Weisheit ignorierte und auf der fünften Linie spielte, als sei er in seiner Fähigkeit, langfristig zu planen, sogar noch souveräner als ein Mensch. Und dieser allseits unvorhergesehene Zug führte schließlich zum Sieg von AlphaGo gegen den Weltmeister im Go-Spiel.
Go ist nur ein Spiel: Wie die Maschine spielt, hat weiter keinen Einfluss auf das Weltgeschehen. Problematisch wird es dann, wenn man Maschinen nicht nur rechnen, sondern sie auch nach ihren eigenen Berechnungen handeln lässt.
Verwandte Themen