Verständnis schafft Vertrauen und Akzeptanz

Im Gespräch mit Thomas Liebig von Materna

von - 06.04.2020
Thomas Liebig
Thomas Liebig: Head of Data Analytics & AI bei Materna
(Quelle: Materna )
Thomas Liebig, Head of Data Analytics & AI beim Dortmunder IT-Dienstleister Materna, erklärt im Interview, welche Bedeutung erklärbare KI hat und wie es zu Diskriminierungen kommt.
com! professional: Wie können Big Data und KI transparent gestaltet werden?
Thomas Liebig: Letztendlich geht es darum, dass sich das Verfahren in all seinen Facetten erklären lässt. Man kann mitunter sogar schon bevor man das Verfahren verwendet etwas darüber aussagen, wie gut es funktionieren wird.
Wenn ich schlechte Daten habe, dann kommt auch kein tolles Ergebnis dabei he­raus. Man hat viel über Diskriminierung durch KI gelesen. Es sind aber nicht die Methoden, die diskriminieren, sondern die verwendeten Datensätze. Deswegen gibt es Bestrebungen zum Beispiel vom Kompetenzzentrum Maschinelles Lernen Rhein Ruhr, dass man eine Art Waschzettel für solche Algorithmen erstellt. Das betrifft dann nicht nur den Algorithmus selbst, sondern auch dessen Implementierung. Da steht dann etwa „Dieser Datensatz funktioniert gut, wenn die Daten die folgende Verteilung haben“. Der Vorteil solcher Waschzettel wäre, dass man die Eigenschaften verifizieren kann, bevor man das Verfahren anwendet.
com! professional: Welche Methoden gibt es noch?
Liebig: Eine weitere Methode ist zum Beispiel eine Perturbation Analysis, wobei man die Daten leicht modifiziert und kleine Schwankungen dazugibt. Dann trainiert man sein Modell neu und schaut, wie stabil das Ergebnis ist, wie sich diese kleinen Störungen auswirken. Dann kann man bestimmte Schranken definieren, wie stark die Auswirkungen sein dürfen, und daraus Erklärmodelle entwickeln. Es gibt Arbeiten in Berlin, die Ergebnisse von neuronalen Netzen zurückpropagieren, um durch eine Art Rückwärts-Ansatz zu Erklärmodellen zu kommen.
Es geht bei KI aber nicht nur um Prognosen und das Clustern von Gruppen. Es gibt auch Planung und Suche, Schlussfolgern und Wissensrepräsentation. Das sind Aspekte, die häufig unter den Tisch fallen. Bei Planung und Suche etwa geht es darum, kürzeste Wege zu finden oder Stundenpläne auszurechnen. Auch so etwas muss erklärbar sein.
com! professional: Wie kommt es zu Diskriminierung und Fehlurteilen?
Liebig: Es gibt für ein Bias verschiedene Ursachen. Es kann ein systematisches Bias sein. Die Auswahl der Daten spielt eine wichtige Rolle. Wenn Sie einen Datensatz haben über Bewerber, dann sollten Sie wahrscheinlich persönliche Daten weglassen wie das Geschlecht und das Alter. Sie trainieren ein Modell und gelangen zu einer Entscheidung. Wenn Sie dieses Modell analysieren, dann ist es mit hoher Wahrscheinlichkeit so, dass es Frauen diskriminiert - obwohl sie das Merkmal Geschlecht weggelassen haben. Das liegt einfach daran, dass etwa die Zeiten des Mutterschutzes im Lebenslauf enthalten sind und das Weglassen der diskriminierenden Eigenschaft das Problem eher verschlimmert. Da Sie die Spalte weggelassen haben, können Sie nicht überprüfen, ob das Modell fair ist oder nicht. Man braucht folglich Verfahren, die in der Lage sind, mögliche Probleme während des Trainierens zu erkennen und gegenzusteuern. Vieles ergibt sich nicht automatisch aus den Daten, muss aber berücksichtigt werden.
com! professional: Sollten Algorithmen Open Source sein oder zertifiziert werden?
Liebig: Ich höre immer wieder, man müsse Algorithmen zerti­fizieren. Als Informatiker juckt es mich dann unter den Finger­nägeln. Eine Zertifizierung von Algorithmen halte ich nicht für sinnvoll. Dazu kommt: Fast alle Verfahren werden bereits als Open Source veröffentlicht, da sie aus wissenschaftlichen Arbeiten hervorgehen. Open-Source-Implementierungen im öffentlichen Bereich könnten sinnvoll sein. Wenn es aber um Unternehmen geht - dort besteht der berechtigte Wunsch, eigene Systeme nicht als Open Source zu veröffentlichen. Was ich gut finde, ist, wenn man Daten Open Source stellt, um Innovationen zuzulassen und Diskriminierung in den Daten offenzulegen.
com! professional: Werden wir eines Tages eine empathische oder emotionale KI erleben?
Liebig: An der TU Darmstadt wird eine Moral-Choice-Machine entwickelt. Es  werden viele Textdokumente und Frage-Antwort-Listen maschinell verarbeitet und daraus wird eine empathische KI gebaut. Menschliche Werte wurden so in das System übernommen. Die KI lernte im Experiment etwa, dass man Menschen nicht töten sollte, es aber in Ordnung ist, Zeit totzuschlagen. Man sollte auch lieber eine Scheibe Brot toasten als einen Hamster.
Verwandte Themen