Hintergrund

KI-Systeme brauchen einen ethischen Rahmen

von - 05.12.2019
Mensch und Maschine
Foto: Shutterstock / Willyam Bradberry
Handeln Systeme mit künstlicher Intelligenz autonom, kann das gehörig schiefgehen. Um dem vorzubeugen, braucht es eine Maschinenethik. Diese soll Roboter mit einer Form der Befehlsverweigerung vertraut machen, die moralisch begründet ist.
In der aktuellen Diskussion um Künstliche Intelligenz (KI) ­gehen die Meinungen über ethische Grundsätze der Maschinen sowie eine entsprechende Definition dafür weit auseinander. Max Tegmark, Physikprofessor am MIT, schreibt dazu in seinem Buch "Leben 3.0": "Intelligenz ist die Fähigkeit, komplexe Ziele zu erreichen". Anwendungen der künstlichen Intelligenz bieten dementsprechend Werkzeuge, mit denen sich komplexe Ziele erreichen lassen.

KI als erweiterter Schraubenzieher

Aus der Definition resultiert zunächst: KI ist ein Werkzeug. So ähnlich wie ein Schraubenzieher. Wer als Ziel hat, eine Schraube zu entfernen, nimmt als Werkzeug einen Schraubendreher. Dieser eignet sich also für ein einzelnes, sehr spezielles Ziel. Wer ein komplexes Ziel hat, verwendet Anwendungen der Künstlichen Intelligenz.
Komplexe Ziele können etwa sein: Analysiere ein Röntgenbild. Formuliere zu einem Foto eine passende Bild­beschreibung in finnischer Sprache. Verabreiche einem Patienten das erforderliche Medikament. Vermiete meine Wohnung. Finde den passenden Bewerber für die offene Stelle. Handle mit meinen Aktien. Finde einen Lebenspartner für mich. Mach mich reich. Mach mich glücklich. Komplexe Ziele können aber auch sein: Finde den Menschen, von dem ich dir jetzt drei Fotos zeige, und bringe ihn um. Streue in den sozialen Netzwerken üble Verleumdungen zu allen Personen, die der Partei XYZ nahestehen. Töte alle meine Feinde.
Schraubenzieher und KI sind gleichermaßsen Werkzeuge. Ist ein Schraubendreher gut oder böse? Vielleicht gut, denn er kann ja Schrauben drehen, und das ist kreative Handwerksarbeit. Oder böse, wenn er als Waffe eingesetzt wird. Die Antwort lautet allerdings weder noch. Die Handlung, die jemand mit einem Werkzeug ausführt, kann gut oder böse sein, nicht jedoch das Werkzeug selbst.
Das führt zu folgender Erkenntnis: Weil KI auch nur ein Werkzeug ist, lässt sie sich sowohl für gute Zwecke  als auch für übelste Verbrechen einsetzen. Diese Erkenntnis mag trivial erscheinen. Sie ist es aber nicht. In der öffentlichen Diskussion werden dem Werkzeug KI oft genug auch moralische Eigenschaften zugeschrieben, die der KI einfach nicht zukommen. Da wird schon mal um das "Vertrauen in Künstliche Intelligenz" geworben. Appelle dieser Art sind ungefähr so sinnvoll wie: Habt Vertrauen in Schraubenzieher!
Hier muss sich der Mensch fragen: Darf ich dieses oder jenes tun oder lassen? Darf ich dieses oder jenes komplexe Ziel überhaupt verfolgen? Fragen dieser Art werden bereits seit Jahrtausenden in allen Weltkulturen intensiv und kontrovers diskutiert.
Verwandte Themen