Adaptive Machine Learning, Continuous Intelligence, ...

NextGen Analytics - Vorsprung mit KI

von - 07.02.2020
Analytics
Foto: Griboedov / shutterstock.com
Innovative Verfahren heben die Datenanalyse auf eine neue Stufe. KI kann ein nützliches Mittel sein, muss aber unbedingt erklärbar bleiben. Blackboxes sind nicht gewünscht.
Emerging Technologies
Hype Cycle for Emerging Technologies: Viele KI- und Analytics-Technologien sieht Gartner noch als Innovationen.
(Quelle: Gartner (August 2019))
Die Möglichkeiten von Künstlicher Intelligenz und Analytics verbessern sich dank neuer Konzepte und Algorithmen rasant. Aktuelle Errungenschaften im Bereich des maschinellen Lernens und analytischer Verfahren lassen einen enormen Fortschritt erkennen. Die Entwicklung und Anwendung von KI-Systemen wird weiter vereinfacht und beschleunigt - wovon nicht nur Experten, sondern auch End­anwender profitieren.
Das bestätigen die Analysten von Gartner, die im vergangenen Jahr auf dem „Gartner Data & Analytics Summit“ in Sydney und dem IT-Symposium in Orlando/Florida einen Blick auf die wichtigsten Daten- und Analytics-Trends geworfen haben, „die Ihr Unternehmen verändern werden“. Hier fielen Schlagwörter wie Transfer Machine Learning, Edge AI oder Explainable AI - Techniken, die im Bereich Analytics die Zukunft bestimmen sollen. Doch viele der Technologien sind noch Zukunftsmusik - sie werden entsprechend im Gartner Hype Cycle der ersten der fünf Phasen zugeordnet und gelten daher noch als Innovation. Aber das wird nicht so bleiben. Denn in wenigen Jahren sollen diese Technologien die IT maßgeblich bestimmen.
Die technologischen Trends im Bereich Analytics und Künstliche Intelligenz lassen sich grob in drei Blöcke einteilen: Erstens werden aktuell und in den nächsten Jahren die Fähigkeiten von Machine-Learning-Verfahren verbessert. Zweitens werden Datenbereitstellung, Datennutzung und Datenökonomie optimiert. Und der dritte Bereich umfasst Bestrebungen für eine bessere Akzeptanz und Anwendbarkeit von KI/Analytics.

Machine Learning

Maschinelles Lernen (ML) ist derzeit die KI-Kerndisziplin und durchdringt jetzt schon viele wirtschaftliche Bereiche. In Expertenkreisen wird ML als Schlüsseltechnologie für moderne KI-Techniken gesehen. Entsprechend gibt es hier viele neuere Entwicklungen, die jetzt und in den nächsten Jahren relevant werden.
Adaptive Machine Learning: Adaptive Lernverfahren könnten eine Art Standard beim maschinellen Lernen werden. Beim üblichen Machine Learning werden neuronale Netze in einem aufwendigen Prozess anhand der Daten trainiert, sind dann fertig und werden nicht mehr modifiziert. Adaptive Machine Learning verändert hingegen die Algorithmen während der Laufzeit - also dem Inferencing mit neuen Daten - und passt sie an.
Bei adaptiven Lernverfahren gibt es also keine strikte Unterscheidung zwischen Entwicklungszeit und Laufzeit. Stattdessen lernen die Systeme während ihrer Anwendung. Ein adaptives System wird - wie beim klassischen Reinforcement Learning - angelernt und modifiziert dann im laufenden Betrieb fortfährend die Parameter seines Algorithmus. Somit wird ein adaptives System immer besser und kommt immer genauer an das Zielkriterium heran. Ganz neu ist dieses Verfahren allerdings nicht. „Die meisten modernen ML-Ansätze sind bereits adaptiv“, erklärt Matthias Peissner, Instituts­direktor und Projektleiter des KI-Fortschrittszen­trums beim Fraunhofer Institut für Arbeitswirtschaft und Organisation (IAO).
Transfer Learning: Das zweite ML-Verfahren, dem unter anderem auch Gartner ein hohes Potenzial einräumt, ist Transfer Learning. Diese Methode reduziert den hohen Zeit- und Rechenaufwand beim Trainieren von neuronalen Netzen. Beispielsweise kann das Trainieren von Modellen mit Deep Learning und Millionen von Bildern durchaus mehrere Wochen dauern. Um den Aufwand zu verringern, ist es deshalb sinnvoll, auf den bereits gelernten Funktionen eines fertig trainierten Netzes aufzubauen. Genau dies macht Transfer Learning. Es überträgt ein Modell, das für eine bestimmte Aufgabenstellung schon trainiert wurde, auf eine andere Aufgabe. Ein Modell, das bereits weiß, aus welchen Strukturen ein Gesicht prinzipiell besteht, kann sehr viel schneller darauf trainiert werden, ein ganz bestimmtes Gesicht zu erkennen. Solche vortrainierten Modelle müssen dank Transfer Learning nur noch auf bestimmte Merkmale hin trainiert werden.
Hendrik Reese, Director Trust in AI und Responsible AI bei PwC Deutschland, sieht im Transfer Learning ebenfalls Potenzial - warnt aber vor Risiken. „Transfer Learning kann die KI-Skalierung positiv beeinflussen, wenn das Grundkonzept effektiv umgesetzt werden kann, vortrainierte Modelle zur Lösung neuer Probleme zu nutzen. Eine Kernvoraussetzung dafür ist jedoch, dass die Anfangs- und Zielprobleme ähnlich genug sind. Hier sind die Varianz der Trainingsdaten, mögliches Overfitting sowie auch ein möglicher negativer Transfer reale potenzielle Risiken.“
Hendrik Reese
Hendrik Reese
Director Trust in AI und Responsible AI bei PwC Deutschland
www.pwc.de
Foto: PwC
„Neben Transparenz sind Fairness und Verantwortlichkeit Schlüsselfaktoren für Kunden und Unternehmen, um Entscheidungen der KI zu akzeptieren.“
Federated Learning: Aktuell wird Machine Learning mit großen zentralisierten Trainingsdaten auf einer leistungsfähigen Maschine oder im Rechenzentrum durchgeführt. Das erweist sich im Umfeld von IoT und kleinen vernetzten Geräten vor Ort als nachteilig. Federated Learning oder föderiertes Lernen ermöglicht es Endgeräten, gemeinschaftlich zu lernen - wobei alle Trainingsdaten auf dem Gerät vor Ort verbleiben.
Federated Learning kann man sich als eine Art verteiltes Lernen vorstellen: Das Device in der Fertigung oder im Verkaufsraum lädt das aktuelle Modell herunter und verbessert es, indem es von den Daten auf dem lokalen Gerät lernt. Die Änderungen werden dann in einem kleinen Update zusammengefasst. Anschließend wird nur dieses Update verschlüsselt an die Cloud geschickt. Dort wird es sofort mit anderen Aktualisierungen gemittelt, um das gemeinsame Modell zu verbessern.
KI- und Analytics-Verfahren, die vor Ort ausgeführt werden, beseitigen ein grundlegendes IoT-Problem. Die Datenmengen am Ort der Entstehung sind in der Regel zu groß,
um schnell zur Auswertung über die schmalen Cloud-Bandbreiten verschickt zu werden. Zudem sind die Latenzzeiten im Cloud-Umfeld viel zu hoch - womit Echtzeit-Anwendungen von vornherein ausgeschlossen sind. Ein autonomes Auto muss aber sofort reagieren, wenn ein Kind auf die Fahrbahn rennt. Derartige Entscheidungen lassen sich nicht in die Cloud auslagern.
KI und Analytics werden deshalb zunehmend dezentral ausgeführt. Daten und Rechenintelligenz bleiben dabei möglichst nahe am Objekt, ein großer Teil der IoT-Informationen wird lokal verarbeitet und ausgewertet, allenfalls der vor Ort nicht behandelbare Daten-Part wird in die Cloud weitergereicht. Dabei dürfte künftig nicht nur das Inferencing am Edge betrieben werden. Auch KI-Trainingsdurchläufe können sich im Edge-Computing etablieren - mit dem erwähnten Federated Learning.
Verwandte Themen