Data Science als strategisches Projekt

Die strategische KI-Roadmap

von - 16.04.2020
Mit großen Datenmengen umzugehen und aus ihnen durch geeignete Analysen wertvolle Erkenntnisse abzuleiten, ist keine triviale Aufgabe. Ein Data-Science-Projekt braucht einiges an Ressourcen und Investitionen. Ohne eine passende Strategie und einen sinnvollen Fahrplan werden die großen Datenmengen, die zu verarbeiten sind, für die Organisation eher zur Belastung als zur Chance. Besonders effektiv ist es, nutzerzentriert von Anwendungsfällen auszugehen und diese in verschiedenen Geschäftsbereichen zu bündeln. Dies lässt sich mit einem vielfältigen Portfolio an KI-Projekten kombinieren, von Wachstumsinitiativen für das Front Office bis hin zu Projekten für die Risikominimierung oder die Effizienzsteigerung im Back Office.

Technologische Komplexität in den Griff bekommen

Die Tools und die Hardware für ein Data-Science-Projekt erfordern nicht nur ein initiales Investment, sondern benötigen auch noch erhebliche Ressourcen, nachdem sie eingerichtet sind. Schon allein dem beachtlichen Speicherbedarf für all die Daten zu genügen und eine Daten-Infrastruktur zu schaffen, die den Bedarf in Zukunft noch erfüllt, ist eine erhebliche Aufgabe. Dies gilt nicht zuletzt vor dem Hintergrund, dass der Platz in den Data-Centern vieler Finanzinstitute recht beschränkt ist. Es ist eben nicht damit getan, einen hochqualifizierten Datenwissenschaftler mit Doktortitel einzustellen und die moderne große Datensoftware zu implementieren. Data-Science-Projekte haben einen anhaltend hohen Bedarf an Infrastruktur-Ressourcen. Zudem entfalten sie disruptives Potenzial und stellen besondere Anforderungen an Sicherheit, Datenschutz und Verfügbarkeit.

Saubere Daten als unverzichtbare Grundlage

Für den reibungslosen Workflow in Data-Science-Prozessen stellt es oft die größte Herausforderung dar, unvollständige und unsaubere Datensätze aufzubereiten. Schon die Informationen aus einem Klientenprofil weisen oft erhebliche Lücken auf. Dass hier Daten fehlen, ist keine Seltenheit, besonders dann, wenn Informationen im Free-Text-Format erfasst sind. Größere Organisationen, auch im Bereich der Finanzdienstleistung, haben darum in den vergangenen Jahren oft schon erheblich investiert, um Datensilos aufzulösen, Systeme zu konsolidieren und Daten aus verschiedensten Quellen sinnvoll zusammenzuführen. Innovative Technologie kann hier entscheidend helfen und die Datenqualität sichern. So dienen Methoden des Machine Learnings dazu, Entitäten auf effiziente Weise aufzulösen und Datensätze miteinander zu verknüpfen.

Machine Learning im Branchenmaßstab

Um gute Ergebnisse zu bringen, benötigen Machine Learning-Technologien wie Deep Learning bzw. tiefe neuronale Netze oft sehr viele verschiedene Trainingsdaten. Ein Open-Banking-Ansatz und ein großes Ökosystem können wesentlich dabei helfen, die Prognosefähigkeiten von Machine Learning zu steigern. Denn ein relativ neues Konzept namens Federated (bzw. Collaborative) Learning, das auch Technologiegiganten wie Google und Apple nutzen, ermöglicht es, Algorithmen auf einer großen Basis von Trainingsdaten zu verbessern - ohne dabei den Erfordernissen des Datenschutzes zu widersprechen.
Verwandte Themen