Verständnis schafft Vertrauen und Akzeptanz

Algorithmen als Open Source

von - 06.04.2020
Angesichts der drohenden Gefahren durch Manipulation oder fehlerhafte Daten werden Stimmen laut, KI restriktiv zu handhaben. Die US-amerikanische KI-Forscherin Kate Crawford etwa fordert, kritischen Einrichtungen den Einsatz von Blackbox-Algorithmen zu untersagen. Andere regen an, alle Algorithmen als Open Source zu veröffentlichen. 
Data Scientist Julian Mehne meint dazu: „In kritischen Anwendungsfällen muss die Qualität der eingesetzten KI-Lösungen gewährleistet sein. Dafür gibt es sicher viele Wege. Open-Source-Algorithmen können hierfür ein Baustein sein, der aber alleine noch keine Qualität garantiert.“
Im KI-Kontext ist für eine volle Transparenz über den Quellcode hinaus der Trainingsdatensatz interessant, da er Rückschlüsse auf das Modellverhalten erlaubt. Und die Trainingsdatensätze sind häufig nicht einsehbar. Wenn also eine vollständige Transparenz erreicht werden soll, dann reicht der Algorithmus nicht aus, sondern die Datensätze müssten ebenfalls offengelegt werden.
„Entscheidungen insbesondere öffentlicher Institutionen, die den Menschen direkt betreffen, sollten grundsätzlich nicht als Ergebnis einzig von Blackbox-Algorithmen getroffen werden“, so Adesso-Manager Marco Peisker. Eine KI, die etwa über die Gewährung bestimmter staatlicher Leistungen entscheide, werde selbst bei objektiv korrekter Entscheidung im Fall einer Ablehnung zu einer fehlenden Akzeptanz bei dem Entscheidungsempfänger führen. Wenn ein Blackbox-Algorithmus Entscheidungen treffe, werde dem Einzelnen zudem die Möglichkeit eines begründeten Einspruchs genommen.
„Alternativ sollten Entscheidungen in Zusammenarbeit zwischen einer Maschine, die die Vorentscheidungen trifft, und einem Menschen zur Entscheidungskon­trolle und ge­gebenenfalls Begründung getroffen werden. Anders sehe ich die Situation bei Entscheidungen durch Blackbox-KI, wenn diese im Zusammenhang mit innerinstitutioneller Prozess­optimierung getroffen werden“, fährt Peisker fort. Öffentliche Einrichtungen empfangen postalisch und elektronisch Unmengen an Schreiben. KI könne hier effizient eingesetzt werden, um die Eingangsdokumente automatisiert zu analysieren, relevante Metadaten zu ex­trahieren und diese strukturiert dem richtigen Sachbearbeiter zur Verfügung zu stellen. „Begründungen oder Erklärungen für die jeweiligen Entscheidungen der KI sind hier nicht notwendig. Mögliche Fehler haben keinen direkten gravierenden Einfluss auf einzelne Individuen. Hier können natürlich Blackbox-Algorithmen verwendet werden.“

Empathische KI

Neue Buzzwords sind Empathical oder sogar Emotional AI. Schon heute können Algorithmen rudimentäre Emotionen klassifizieren, zum Beispiel durch Gesichtserkennung oder Textanalyse.
Für Data Scientist Julian Mehne ist es gut vorstellbar, dass eines Tages Künstliche Intelligenz menschliche Gefühle zumindest grundlegend verstehen und in die Entscheidungsfindung ein­fließen lassen kann. „Bis wir aber Liebesbeziehungen mit unserem virtuellen Assistenten eingehen wie vor einiger Zeit in dem Spielfilm „Her“ zu sehen, ist es sicher noch ein weiter Weg.“
Kay Knoche
Kay Knoche
Principal Solution Consultant bei Pegasystems
www.pega.com/de
Foto: Pegasystems
„Das verständliche Bedürfnis nach trans­parenter KI bedeutet nicht, dass sie per se die bessere KI ist, denn intransparente KI kann zutreffendere Ergebnisse liefern.“
Marco Peisker ist da zuversichtlich: Eine Empathical AI könne Texte, Bilder oder auch biometrische Daten analysieren und dann die Entscheidung treffen. Nüchtern betrachtet unterscheide sich eine solche Empathische KI kaum von klassischen Künstlichen Intelligenzen. Nach Emotionen klassifizierte Datensätze werden analysiert und Muster trainiert. Für Systeme, die tatsächlich in der Lage seien, auf menschliche Emotionen zu reagieren, gebe es Unmengen von Einsatzmöglichkeiten. Ein Beispiel sei KI, die zur Verbesserung der Kundenzufriedenheit eingesetzt wird. Die KI schätze bei Texten anhand von Wortwahl, Formulierungen und Satz- oder Sonderzeichen Stimmungslagen ein und untersuche bei Telefonaten Stimmfarbe und die Betonung von Wörtern. „Das ermöglicht die zu der Gefühlslage passende Bearbeitung des Anliegens und erlaubt es den Verantwortlichen, effiziente Strategien und Maßnahmen zur Zufriedenheitsoptimierung zu definieren.“
„In den Bereichen Online-Handel oder Kundenservice sollte Empathische KI weitaus mehr als nur ein Buzzword sein“, findet Pegasystems-Mann Kay Knoche. „Denn Kunden bevorzugen es nach wie vor, persönlich mit einem Berater zu sprechen. Und ein wesentlicher Grund dafür sind die fehlenden empathischen Fähigkeiten der KI.“
Verwandte Themen