Wenn Algorithmen Vorurteile ausspucken

Auf die Trainingsdaten kommt es an

von - 24.06.2019
Trainiere man den Algorithmus mit diesen historischen Daten, suche er die Kandidaten eben auch entsprechend aus. Auch bei der Gesichtserkennung, die schwarze und asiatisch aussehende Menschen diskriminierte, liegt die Vermutung nahe, dass das Problem nicht beim Algorithmus. Fragwürdig war wohl vielmehr die Auswahl der Bilder, mit der die Maschine trainiert wurde.
Dem Anspruch, Probleme wie oder besser als Menschen zu lösen, wird Künstliche Intelligenz in vielen Fällen also noch nicht gerecht. Dehmel kann den Ergebnissen etwas Positives abgewinnen: Die Technologien hielten der Gesellschaft einen Spiegel vor, und zeigten, wie akut Diskriminierung noch sei. Suchmaschinenanbietern nun einen erzieherischen Auftrag zu erteilen, möglichst diskriminierungsfreie Inhalte auszuspucken, findet Dehmel falsch. Sie filterten nach Relevanz, Ergebnisse ergäben sich aus dem, was Leute anklicken. "Die Anforderung würde die Funktion überfrachten."
Dass Google durchaus in die Präsentation der Ergebnisse eingreift, zeigen verschiedene Beispiele, etwa das der US-amerikanischen Professorin Safiya Umoja Noble. In ihrem 2018 erschienenen Buch "Algorithms of Oppression" kritisierte sie unter anderem rassistische und stereotype Vorschläge für die Autovervollständigung des englischen Satzes "Warum sind schwarze Frauen so". Wer heute den Satz in die Suchmaschine tippt, bekommt keine Ergänzungen mehr vorgeschlagen.
Große Aufmerksamkeit erfuhr in Deutschland 2015 auch der Streit zwischen Bettina Wulff und Google über die Kombination ihres Namens mit ehrabschneidenden Begriffen in der Autocomplete-Funktion. Der Konzern lenkte ein und entfernte die Ergänzungen zur Frau des damaligen Bundespräsidenten.

Keine unfairen Vorurteile bei Google

Unabhängig davon hat Google im Juni 2018 angekündigt, künftig ein besonderes Augenmerk darauf zu legen, dass Software keine "unfairen Vorurteile" aufweist oder nach Hautfarbe, Geschlecht, sexueller Orientierung oder Einkommen diskriminiert.
Eine, die die Dinge selbst in die Hand nehmen wollte, ist Johanna Burai. Die Designerin aus Schweden hat sich an Suchergebnissen bei der Recherche nach Fotos von Händen gestört. Burai fand bei Google hauptsächlich Bilder von weißen Händen. 2015 hat sie darum eine Kampagne mit dem Titel "World White Web" ins Leben gerufen, um gegen "die weiße Norm" im Netz vorzugehen. Auf einer Website hat sie seither zahlreiche Fotos von Händen unterschiedlichster Hautfarben hochgeladen, damit andere sie teilen können, und will so auf lange Sicht andere Bilder ins System spülen.
Doch wie kann sichergestellt werden, dass auch KI-Technologien künftig klügere und fairere Entscheidungen treffen? Rechtlichen Handlungsbedarf sieht Expertin Dehmel nicht. "Es ist ein Kompetenzproblem. Erst wenn man versteht, wie die Technologie funktioniert, kann man auch Diskriminierung sorgfältig entgegentreten", meint Dehmel. Dass es nicht ausreicht, Angaben zu Gender und Hautfarbe aus den Datensätzen zu nehmen, haben Beispiele aus der Vergangenheit gezeigt. Algorithmen fanden Stellvertreter-Variabeln in den historischen Daten und kamen so zu den gleichen diskriminierenden Ergebnissen. Dehmel schlägt darum diverse Datensätze, eine sorgfältige Konzeption der Trainings sowie Testläufe vor.
Jaume-Palasí fordert vor allem kontinuierliche Kontrolle der algorithmischen Systeme. Hinter KI müsse mehr als ein Entwickler und ein Datenwissenschaftler stehen. Für die Kontrolle "braucht man Soziologen, Anthropologen, Ethnologen, Politologen. Leute, die die Ergebnisse in dem jeweiligen Sektor, in dem die Technologie angewendet wird, besser kontextualisieren können", sagt die Datenethikerin. "Wir müssen endlich abkommen von dem Glauben, dass KI ein informatisches Thema ist. Es sind soziotechnische Systeme und die Berufsprofile, die wir da brauchen, sind wesentlich vielfältiger."
Verwandte Themen