Algorithmen müssen gezähmt werden

Im Gespräch mit Marion A. Weissenberger-Eibl vom Fraunhofer ISI

von - 23.03.2020
Marion A. Weissenberger-Eibl: Leiterin des Fraunhofer-Instituts für System- und Innovationsforschung ISI.
(Quelle: Fraunhofer ISI )
Bewusstsein für die Risiken, Transparenz und Nachvollzieh­barkeit sind drei Faktoren, die Diskriminierung eindämmen können. com! professional spricht mit Marion A. Weissenberger-Eibl vom Fraunhofer-Institut für System- und Innovationsforschung ISI darüber, wie komplex das Thema ist.
com! professional: Ist es möglich, dass Algorithmen bestimmte Personengruppen aufgrund von Merkmalen wie Geschlecht, Alter, Wohnort oder Hautfarbe diskriminieren?
Marion A. Weissenberger-Eibl: Auch wenn wir viel Hoffnung in die Neutralität und Objektivität von Algorithmen legen, trifft Künstliche Intelligenz (KI) immer wieder diskriminierende Entscheidungen. So haben Algorithmen beispielsweise im amerikanischen Strafjustizsystem diskriminiert, indem Risikobewertungssysteme bestimmte Personengruppen systematisch benachteiligt haben.
Mittlerweile hat sich ein Bewusstsein für die ethischen und rechtlichen Herausforderungen im Umgang mit Algorithmen und KI entwickelt. Das ist ein sehr wichtiger Schritt, da Künstliche Intelligenz bereits Einzug in unser Leben gehalten hat.
com! professional: Sind diskriminierende Entscheidungen eine Frage der zugrunde liegenden Daten oder der Programmierung des Algorithmus?
Weissenberger-Eibl: Eine grundsätzliche Erwartung ist zunächst, dass es keine Diskriminierungsabsichten gibt. Das heißt, dass Menschen beispielsweise keine Algorithmen programmieren, die vorsätzlich bestimmte Personengruppen benachteiligen oder dass Programmierer und Programmiererinnen Algorithmen bewusst mit Trainingsdaten füttern, die Diskriminierung erzeugen oder fortschreiben.
Dennoch sollten wir uns immer wieder vor Augen führen, dass Algorithmen und KI nicht per se neutral oder objektiv sind. Sie unterliegen Bias, sprich Verzerrungen, die in ihren Code einprogrammiert wurden, beziehungsweise in den Daten, auf die sie zurückgreifen. Bei lernenden Systemen kann es dazu kommen, dass Daten generiert werden, die nachträglich Fehler oder Diskriminierung zur Folge haben.
com! professional: Wie lassen sich solche Diskriminierungen verhindern?
Weissenberger-Eibl: Ich würde mir wünschen, dass diese Frage einfacher zu beantworten wäre. Die Annahme, datenbasierte Entscheidungen seien neutral und objektiv, ist falsch und gefährlich. Sich dies bewusst zu machen, ist ein wichtiger Schritt, um Diskriminierung durch Künstliche Intelligenz zu verhindern. Wir brauchen also Awareness bei den Entscheidungsträgern in Politik, Wirtschaft und Gesellschaft.
Um Diskriminierung zu vermeiden, sind vor allem auch die Entwickler und Entwicklerinnen gefragt, die in der Praxis sensibel mit dem Thema umgehen müssen. Gleiches gilt für diejenigen, die KI anwenden.
Zudem müssen wir größtmögliche Transparenz und Nachvollziehbarkeit schaffen, die Neutralität der Daten gewährleisten, das Weiterlernen des Algorithmus kontrollieren und Verantwortlichkeiten regeln.
com! professional: Ist ein Algorithmen-TÜV oder ein Gütesiegel Ihrer Meinung nach sinnvoll?
Weissenberger-Eibl: Künstliche Intelligenz gehört wie gesagt längst zu unserem Leben und daher ist das „Wie“ und „Wie viel“ der Bereich, auf den wir uns fokussieren müssen. Die KI-Strategie der Bundesregierung sieht ein deutsches Observatorium für die Anwendungen von Künstlicher Intelligenz vor. Es soll die mit KI verbundenen Auswirkungen auf Gesellschaft und Arbeit analysieren sowie Handlungsempfehlungen und Maßnahmen zu deren Gestaltung entwickeln.
Daneben könnte ich mir durchaus ein Gütesiegel oder eine TÜV-Zertifizierung vorstellen, die offenlegt, wie der Algorithmus funktioniert. Beispielsweise sollte es damit möglich sein, nach bestimmten Vorgaben zu überprüfen, wie hoch das Diskrimi­nierungspotenzial eines Algorithmus ist. Auf diese Weise könnte ein Standard für vertrauenswürdige Künstliche Intelligenz geschaffen werden.
Verwandte Themen