NextGen Analytics - Vorsprung mit KI

Demokratisierung von KI

von - 07.02.2020
Gartner verwendet den Begriff Augmented Analytics in einem erweiterten Sinn und bezieht ihn auch auf normale Nutzer. Laut Gartner-Analystin Rita Sallam wird Augmented Analytics das dominierende Thema für Unternehmen werden: „Es geht darum, die Analytik zu demokratisieren.“
Die Demokratisierung von Technologie bedeutet allgemein, Menschen einen einfachen Zugang zu technischem oder wirtschaftlichem Fachwissen ohne umfangreiche oder kostspielige Schulungen zu ermöglichen. Beispielsweise würde die Demokratisierung es Entwicklern, aber auch ganz normalen Anwendern, erlauben, Datenmodelle zu generieren, ohne über die Fähigkeiten eines Datenwissenschaftlers zu verfügen.
Sogenannte Full-Cycle-Plattformen vereinfachen Analysen, die früher nur von Datenwissenschaftlern ausgeführt werden konnten, erheblich. Die neuen Daten- und Analysetechnologien werden einen dramatischen Einfluss darauf haben, „wie wir Daten und Analytikinhalte erstellen und wer sie erstellt, wer Zugang zu Erkenntnissen aus Augmented Analytics hat, wie Menschen mit Daten und Analytik interagieren und welche Arten von Analysen wir durchführen können“, erklärt Rita Sallam.
Jim Hare, ebenfalls Analyst bei Gartner, prognostiziert, dass von den heutigen Daten- und Analysetrends Augmented-Analytics-Tools langfristig die größten Auswirkungen auf Unternehmen haben werden. Die fortschreitende Demokratisierung werde zu neuen Anwendungsfällen führen, die den Bedürfnissen von Geschäftsanwendern näherkommen, und eine schnellere Markteinführung von KI-Anwendungen im Unternehmen ermöglichen.
Rita Sallam
Rita Sallam
Research Vice President bei Gartner
www.gartner.com
Foto: Gartner
„Es geht darum, die Analytik zu demokratisieren.“
Eine zentrale Rolle im Demokratisierungsprozess von KI und Analytics wird Natural Language Processing (NLP) spielen. Mit NLP erhalten Computer die Fähigkeit, menschliche Sprache zu verstehen - getippt oder gesprochen. Dies wird als zentraler Pfeiler der erweiterten Analytics gesehen. NLP-fähige Analytics-Tools ermöglichen es Benutzern, einen interaktiven Dialog zu führen, und so die benötigten Informationen schnell abzurufen. Das mühsame Durchklicken durch Analyse-Dashboards oder BI-Berichte entfällt damit.
Der Wunsch, Analytics für jeden im Unternehmen zugänglich zu machen, treibt die Akzeptanz dieser Technologie immer stärker voran. Gartner prognostiziert, dass NLP bis 2021 die Mitarbeiterakzeptanz von Analysen und Business Intelligence von 35 Prozent auf über 50 Prozent steigert - einschließlich neuer Benutzergruppen aus der Geschäftswelt.
Bereits heute erweitern immer mehr BI- und Analytics-Anbieter ihre Produkte um NLP-Funktionen. Tableau hat in seine BI-Software beispielsweise ein Feature namens Ask Data integriert. Dies ermöglicht es Benutzern, Fragen in natürlicher Sprache zu Umsatz, Rentabilität und so weiter zu stellen und auch eine Antwort in natürlicher Sprache zu erhalten. Qlik will mit seinem KI-Chatbot CrunchBot Benutzern helfen, Einblicke in ihre Daten per Textabfrage schneller und einfacher zu erhalten.
Damit lassen sich zum Beispiel Fragen stellen wie: „Wie viele Produkte habe ich in Berlin verkauft?“ Bei komplexeren Fragen scheitern die Systeme meist noch. Eine Herausforderung bei der weiteren Entwicklung von NLP ist, auch die Intention zu erfassen - die Absichten, die Menschen im Sinn haben, wenn sie kommunizieren. Was die Leute sagen oder tippen, ist nicht unbedingt das, was sie meinen.

Fazit & Ausblick

In Sachen KI und Analytics wird sich in den kommenden Jahren in jedem Fall eine Menge tun. Das aktuelle Top-Thema in der KI - dem Gartner für die nächsten Jahre die höchste Relevanz bescheinigt - ist erklärbare KI. Der Hintergrund: Zwar haben KI-Programme einen hohen wirtschaftlichen Nutzen, dieser wird jedoch überschattet von der Undurchsichtigkeit der Technologie. Wie beispielsweise ein Deep-Learning-Modell zu seinen Ergebnissen kommt, ist nicht nachvollziehbar. Das Resultat hochkomplexer Modelle kann zwar beobachtet, nicht aber verstanden werden. Diese Undurchsichtigkeit führt dazu, dass intelligente Systeme vor ihrem produktiven Einsatz nicht hinreichend validiert werden können und daher nicht angenommen werden.
„Komplexe KI-Modelle produzieren Ergebnisse, die oft schwer nachvollziehbar sind“, betont Frank Köhne von der Kölner Unternehmensberatung Viadee. „Menschen akzeptieren dies zu Recht nicht. Kein Arzt würde einen Patienten operieren, bloß weil ein Kollege dies unbegründet als beste Therapie angibt. Zumindest würde der Arzt verstehen wollen, welcher Gedankengang der Prognose zugrunde liegt und auf welchen Symptomen die Empfehlung basiert. So ist es die Aufgabe von KI-Experten, Systeme zu entwickeln, die das eigene Agieren nach außen hin transparent machen und die Blackbox öffnen.“ Diese Transparenzanforderungen haben zum Aufstieg der sogenannten Explainable Artificial Intelligence geführt. Sie will transparente Einblicke in Machine-Learning-Modelle ermöglichen und damit ein Verständnis von deren Funktionsweise. Aktuell befindet sich Explainable AI noch weitgehend im Forschungsstadium, es gibt jedoch erste Lösungsansätze.
„Neben Transparenz sind Fairness und Verantwortlichkeit Schlüsselfaktoren für Kunden und Unternehmen, um Entscheidungen der KI zu akzeptieren“, unterstreicht PwC-Experte Hendrik Reese. Eine zentrale ethische Herausforderung sei es auch, die Maschinen so zu gestalten, dass sie mit unseren Gesellschafts-, Rechts- und Wertevorstellungen kompatibel sind, heißt es im Papier „Maschinelles Lernen“ der Fraunhofer-Gesellschaft: „Diese gesellschaftliche Debatte muss jetzt beginnen.“
Verwandte Themen