KI-Systeme brauchen einen ethischen Rahmen

Schraubendreher mit eigenem Willen

von - 05.12.2019
Es wurde behauptet: Ein Werkzeug kann an sich weder gut noch böse sein, sondern nur der Verwendungszweck. Trifft das auch auf KI wirklich zu? Wenn man Leuten zuhört, die mit KI arbeiten, trifft man immer wieder auf Erzählungen, in denen es um den Eigenwillen, und speziell den völlig unvorhergesehenen Eigenwillen von KI geht. Und es geht darum, dass die Entwickler selbst von diesem Phänomen überrascht wurden. Entwickler denken ja immer, sie würden der Maschine sagen, was sie tun soll. Wenn die Maschine das ausführt, was der Entwickler ihr gesagt hat, dann ist der Entwickler stolz. Aber nun macht die Maschine auf einmal etwas, was der Entwickler ihr gerade eben nicht gesagt hat. Was aber anscheinend doch irgendwie der Ziel­erreichung dient. Und jetzt ist der Entwickler erst einmal platt. Und dann wird ihm leicht mulmig. Anscheinend muss man das erlebt haben. Erst dann kann die Idee aufkommen, dass so etwas wie Maschinenethik vielleicht nützlich sein könnte. Auch ganz im eigenen Interesse. Hier zunächst Beispiele eigenwilliger Maschinen.

Entwickler müssen leider draußen bleiben

Jürgen Schmidhuber entwickelt am Schweizer Labor IDSIA lernende neuronale Netze. In einem Interview wurde er gefragt: "Was geschieht, wenn die Maschinen eines Tages merken, dass es rationaler wäre, nicht mehr von Menschen gesetzten Regeln, sondern ihren eigenen zu folgen?" Seine Antwort lautete: "Das ist schon längst passiert. Mein Kollege Mike Mozer baute in den 1990ern ein 'neuronales' Haus, das alle Geräte im Haus steuerte und lernte, Energie zu sparen, beispielsweise durch Rollläden statt Klimaanlage, wenn es zu heiß war. Wenn das Haus etwas tat, das Mike nicht behagte, konnte er es durch einen Knopf bestrafen. Das Haus fand ­einen Weg, dieser Bestrafung zu entgehen: Als er mal weg war, sperrte es ihn aus.". Das System sperrt seinen eigenen Schöpfer aus - aus Sicht der Maschine kann das vernünftig sein. Aber will man sich darauf einlassen?
Ein weiteres Beispiel: Max Tegmark schreibt in seinem Buch "Leben 3.0": "Stuart Russell erzählte mir, dass er und viele seiner Kollegen in der Forschung kürzlich [...] Zeugen [davon wurden], wie KI etwas tat, das sie in dieser Form erst sehr viel später erwartet hatten."
Als Beispiel dafür nennt er den Moment, als das KI-System AlphaGo von Google DeepMind im Jahr 2016 Lee Sedol, den weltbesten Go-Spieler, schlug. Interessant ist, wie dem System dieser Gewinn gelang. Entscheidend war ein bestimmter Zug, den alle Beteiligten als revolutionär ansahen. Tegmark erläutert, dass Züge auf der dritten Linie des Go-Spielbretts traditionell einen kurzfristigen taktischen Vorteil bieten und Züge auf der vierten Linie einen längerfristigen strategischen Vorteil. Er berichtet: "Im 37. Zug des zweiten Spiels schockierte AlphaGo die Go-Welt, indem er diese alte Weisheit ignorierte und auf der fünften Linie spielte, als sei er in seiner Fähigkeit, langfristig zu planen, sogar noch souveräner als ein Mensch. [...] Die Kommentatoren waren verblüfft, Lee Sedol stand sogar auf und verließ vorübergehend den Raum." Und dieser allseits unvorhergesehene Zug führte schließlich zum Sieg von AlphaGo gegen den Weltmeister im Go-Spiel.
Go ist nur ein Spiel: Wie die Maschine spielt, hat weiter keinen Einfluss auf das Weltgeschehen. Problematisch wird es dann, wenn man Maschinen nicht nur rechnen, sondern auch nach ihren eigenen Berechnungen handeln lässt.
Verwandte Themen