NextGen Analytics - Vorsprung mit KI

Im Gespräch mit Stefan Herbert von IBM

von - 07.02.2020
Stefan Herbert
Stefan Herbert: Manager Technical Sales Data Science & AI bei IBM
(Quelle: IBM )
Erklärbare KI-Modelle sind kein abstraktes Konstrukt mehr. IBM hat sein KI-System
Watson um eine Erklärungskomponente erweitert. com! professional spricht darüber mit Stefan Herbert, Manager Technical Sales Data Science & AI bei IBM.
com! professional: Warum ist ethische und erklärungsfähige KI ein Thema für IBM?
Stefan Herbert: Aus mehreren Gründen. Erstens erzeugen ML-Modelle oft ein Bias. In den USA wurden Frauen beispielsweise bei Bewerbungen durch ungünstig gebaute ML-Modelle benachteiligt. Auch juristische Urteile über Schwarze wurden aufgrund von ML zu deren Ungunsten beeinflusst.
Zweitens hat IBM schon vor drei oder vier Jahren Projekte zum Thema Predictive Policing durchgeführt - also zur Vorhersage von Straftaten. Auch damals wollte man schon verstehen, wie ein ML-Modell zu den entsprechenden Erkenntnissen kommt.
com! professional: Spielt die DSGVO bei diesem Bemühen um Erklärbarkeit auch eine Rolle?
Herbert: Ja. Laut DSGVO hat jeder Unternehmenskunde das Recht zu erfahren, wie Entscheidungen getroffen wurden beziehungsweise welche Logik zu der Entscheidung geführt hat. Das betrifft natürlich auch Entscheidungen, die eine Maschine gefällt hat. Deshalb müssen auch aus juristischer Sicht Maschinen ihre Entscheidungen begründen können. Aus all diesen Gründen beschäftigt sich IBM schon seit längerer Zeit mit dem Thema - und seit zwei Jahren sehr verstärkt.
com! professional: Wie haben Sie bei iBM das Thema technisch bewältigt?
Herbert: Wir haben Explainable AI mit Watson Open Scale eingeführt. Das System ist in der Lage, KI-Entscheidungen nachvollziehbar zu machen, indem es darlegt, welche Daten dafür zugrunde gelegt wurden.
Zusätzlich bietet das System auch die Möglichkeit, den Einfluss der Daten auf die Modelle automatisch zu erkennen, und macht Verbesserungsvorschläge. Auf dieser Basis kann dann das Modell so gestaltet werden, dass sich keine Verzerrungen in die eine oder andere Richtung ergeben.
com! professional: Betrifft das ausschließlich neuronale Netze?
Herbert: Nein. Wir analysieren generell alle ML-Modelle. Dabei erkennen wir über Standard-Kennzahlen und Standard-Verfahren, die wir im Vorfeld schon durchrechnen, dass eine Beeinflussung in die eine oder andere Richtung vorliegen könnte. Mit Mechanismen wie zum Beispiel Perturbation und kontrastierende Analyse lässt sich dann ein faireres Modell vorschlagen.
com! professional: Wie tief geht diese Einsicht in die KI-Modelle?
Herbert: Das geht herunter auf die einzelnen Merkmale. Es analysiert, welche Merkmale eine mögliche Beeinflussung enthalten können.
com! professional: Können Sie das Vorgehen an einem praktischen Beispiel erläutern?
Herbert: Bei einem Modell für die Kreditvergabe kann unsere Lösung zum Beispiel erkennen, ob Frauen benachteiligt werden. Wir analysieren das, indem wir die Geschlechterverteilung umdrehen und überprüfen, ob sich dann im Modell etwas ändert. Sollte dies der Fall sein, dann liegt hier mit hoher Wahrscheinlichkeit eine Verzerrung vor.
Unsere Lösung nutzt die Erkenntnis dann, um automatisch ein verbessertes Modell ohne Verzerrungen, die sogenannten Bias, zu erzeugen.
Verwandte Themen