com!-Academy-Banner
Dr. Leibrock von THI im Gespräch

AI im Risikomanagement ist keine Magie

von - 10.10.2018
Roboter
Foto: Phonlamai Photo / Shutterstock.com
KI-basierte Lösungen ermöglichen ein automatisiertes Risikomanagement, das ständig akkurater und performanter arbeitet. Dr. Leibrock von THI beschreibt im Gespräch das Potenzial intelligenter Algorithmen im Praxiseinsatz.
Dr. Edeltraud Leibrock ist Senior Partner bei THI - The Huehn Initiative - einer Strategie- und General Management-Beratung in Hamburg. Die promovierte Naturwissenschaftlerin  und Tech-Pionierin, hat den „Utopischen Salon“, mitbegründet, einen privaten Think Tank, der sich mit den gesellschaftlichen Implikationen von Digitalisierung, Virtualisierung und Künstlicher Intelligenz auseinandersetzt. Im Interview erklärt sie, warum KI-basiertes Risikomanagement keine Magie ist, sondern ein technisches Tool.

com! professional: Was kann AI-basiertes Risikomanagement leisten, was "normales" Software-gestützes Risikomanagement nicht schaffen kann?
Dr. Edeltraud Leibrock
Dr. Edeltraud Leibrock ist Senior Partner bei THI - The Huehn Initiative.
(Quelle: THI)
Dr. Edeltraud Leibrock: Das ist beim Risikomanagement nicht anders als in allen anderen Anwendungsfeldern von AI. AI basiert, anders als "normale" Risikomodelle, nicht auf statischen Ablaufplänen, die ein vorgegebenes Set an Kriterien abprüfen, sondern auf dynamischen und lernenden Algorithmen. Jeder, der mit Kredit- oder Marktrisikomodellen im Banking zu tun hat, weiß, welchen Aufwand es bedeutet, beispielsweise neue regulatorische Vorschriften abzubilden oder Negativzinsen. Das sind oft außerordentlich komplexe Großprojekte, da man bildlich gesprochen jedes Mal in den "genetischen Code" des Modells eingreift. Da tauchen dann plötzlich Fehler an anderen Stellen auf, mit denen keiner gerechnet hat.
Anders bei AI: hier wird der Algorithmus nicht umcodiert, wenn sich etwas ändert, sondern er lernt auf der Basis neuer Daten und neu hinzugefügter Wissensbausteine dazu und wird so immer besser. Stephen Hawking, der selbst AI durchaus kritisch sah, hat immer wieder die Definition verwendet "Intelligenz ist die Fähigkeit, sich dem Wandel anzupassen" - das gilt für menschliche genauso wie für künstliche Intelligenz.
 
com! professional: Eines der wahrscheinlich besten Anwendungsbeispiele von AI im Risikomanagement ist die Aufdeckung von Betrugsfällen. Algorithmen können durch die Nutzung verschiedener stochastischer Modellierungstechniken, Kodierungen und Datenprüfungen geschrieben werden. Oder ist Ihrer Meinung nach ein anderes Szenario relevanter?
 
Dr. Leibrock: Betrugsaufklärung und -prävention bietet sich für eine AI-Anwendung geradezu an: die Zielfunktion ist einfach und mathematisch formulierbar, es gibt genügend gute Daten mit bereits vorhandener Zielstruktur (Klassifizierung in "Betrugsfall" oder "kein Betrugsfall"), und neue Daten können einfach integriert werden. Daneben werden immer mehr Bereiche des Risikomanagements für AI zugänglich wie Risikoprüfungen im Kredit- und Investmentbereich, das wirft natürlich auch für die Finanzaufsicht ganz neue Fragen auf. Darüber hinaus ist die Detektion und Abwehr von Cyber-Angriffen ein riesiges Feld - quasi als Erweiterung von Fraud Detection. Die Angriffe werden, unter anderem durch den Einsatz von AI immer vielfältiger, schneller, adaptiver und schwerer zu erkennen - keine Chance, dagegen allein konventionell, ohne AI schnell genug und flächendeckend agieren zu können.
 
com! professional: Zu einer offensichtlichen Herausforderung für KI werden Daten, die entweder unbekannt und/oder unstrukturiert sind. Wie lässt sich dieses Problem lösen?
 
Dr. Leibrock: Unstrukturierte Daten sind generell eine Herausforderung, AI macht unstrukturierte Daten überhaupt erst zugänglich. Datenbasiertes Machine Learning kennt verschiedene Disziplinen, je nachdem, welche Daten in welcher Form vorliegen. Während Supervised Learning einigermaßen strukturierte Daten als Input benötigt und neue Daten ebenfalls nach dieser Struktur sortiert, bedient sich das Unsupervised Learning Algorithmen wie  KMeans, die unstrukturierte Daten in Cluster einteilen und diese Klassifizierung optimieren, also sie finden Struktur selbst in scheinbar unstrukturierten Daten. KMeans hat als Zielfunktion "Welche Datenpunkte gehören zusammen?" und kann beispielsweise verwendet werden, um Verbindungen in sozialen Netzwerken aufzuspüren.
Reinforced Learning wiederum basiert nicht primär auf Training mittels vorhandener Daten, sondern auf einer definierten Erfolgsfunktion - der Algorithmus muss wissen, wenn er etwas "gut" gemacht hat. So kannte Alpha Go Zero anfangs nur die Spielregeln von Go, keine Züge vergangener Partien. Durch wiederholtes Ausprobieren lernt der Algorithmus, welche Spielzüge wann sinnvoll sind, weil er ja eine definierte Erfolgsfunktion hat, nämlich "Gewinnen". Die Kernfrage bei allen AI-Disziplinen ist die Definition der Zielfunktion: wann ist ein Algorithmus überhaupt gut, was will ich finden? Fazit: AI ist keine Magie, die man auf beliebige Daten werfen kann, um ein gutes Ergebnis zu bekommen, es muss erst einmal klar sein, was "gut" bedeutet.
 
com! professional: Auch wenn KI in puncto Raffinesse immer reifer und ausgeklügelter wird, kommt sie voraussichtlich nie ohne menschliches Eingreifen aus - vor allem wenn es letztendlich um die Interpretation der Daten und deren Auswirkungen auf ein Unternehmen geht. Was ist Ihre Empfehlung für den Umgang mit KI?
 
Dr. Leibrock: Ehrlich gesagt sehe ich nicht, warum Menschen auf längere Sicht Daten und ihre Implikationen besser interpretieren können sollten als Algorithmen, vor allem, wenn man bedenkt, wie schnell verfügbare Rechenpower und Datenmenge steigen. Bei spezifischen Fragestellungen oder repetitiven Prozessen ist das ja heute schon nicht mehr der Fall. Dennoch denken viele Menschen, dass Maschinen niemals wirklich wichtige Entscheidungen treffen können, denn diese haben ja auch eine ethische Dimension, und davon haben Algorithmen ja nun wirklich keine Ahnung – oder?
Aber: vorausgesetzt wir fänden einen Weg, Ethik „maschinenlesbar“ zu machen, dann würde die Maschine gerade in Krisensituationen ethischer und besser handeln als ein durchschnittlicher Mensch, der im Zweifelsfall vielleicht doch egoistisch entscheidet. Algorithmen werden immer exakt das tun, was wir ihr beigebracht haben, das gilt im Guten genauso wie im Schlechten. Daher müssen wir die Fragen nach Ethik und Moral schon uns selber stellen, da führt kein Weg drum herum, es gibt keine Ausrede.
Verwandte Themen