Systematisch auswerten
So geht Datenanalyse von morgen
von
Konstantin
Pfliegl - 14.09.2020

Foto: theromb / shutterstock.com
Die Corona-Pandemie verändert vieles - auch den Bereich Business Intelligence. Daten müssen jetzt besonders schnell gefunden und Prozesse noch transparenter werden.
Datenbasierte Fakten statt Bauchgefühl. Immer mehr Unternehmenslenker verlassen sich bei ihren Entscheidungen nicht mehr nur auf ihre Intuition und Erfahrung, sondern setzen auf belastbare Informationen. Unternehmen sammeln entsprechende Daten aus internen Systemen und externen Quellen, bereiten sie für die Analyse vor und erstellen daraus Berichte und Datenvirtualisierungen, anhand deren möglichst die richtigen Entscheidung getroffen werden sollen.
Der Begriff Business Intelligence (BI) ist dabei in den vergangenen Jahren zu einem beliebten Buzzword für die Datenanlayse in Unternehmen geworden. Was nur wenige wissen: BI ist eigentlich ein alter Hut. Den Begriff benutzte bereits der deutsche IBM-Informatiker Hans Peter Luhn Ende der 1950er-Jahre. Etabliert haben Business Intelligence dann vor allem die Analysten von Gartner in den 90er-Jahren. Irgendwann kam dann noch das Schlagwort Big Data hinzu, als in einer Welt exponentiellen Datenwachstums neue Anwendungsfelder in der Finanzindustrie, Mobilfunk, Verkehr oder Internet of Things (IoT) neue Architekturen mit sich brachten, um riesige Datenmengen verarbeiten zu können. Der Begriff Big Data sagt jedoch laut Marcus Giehrl, Senior Business Development Manager Germany bei beim IT-Dinstleister NTT, zunächst noch nichts über die Verwendung der Daten aus, „sondern beschreibt nur, dass die Datenmenge zu groß, zu komplex, typischerweise schlecht strukturiert und gegebenenfalls auch zu kurzlebig ist, um mit traditionellen Methoden Mehrwert aus den Daten zu ziehen.“
Business Intelligence steht laut Jörg Schmidt füreinen hingegen für einen gesamtheitlichen Prozess, in welchem ein Unternehmen oder Unternehmensbereich alle verfügbaren Datenquellen systematisch speichert und analytisch aufbereitet, und diese für alle relevanten Geschäftsprozesse in geeigneter Visualisierung zur Verfügung stellt. „Basierend auf einem strukturierten Datenbestand können somit Auswertungen zur Unterstützung unternehmerischer Entscheidungen führen“, wie der Senior Consultant Business Intelligence beim Anylatics-Unternehmen TIQ Solutions zusammenfasst.
„Heute ist Business Intelligence jedoch schärfer umrissen als noch vor fünf Jahren“, ergänzt Robert Ruf, Customer Advisory Lead bei SAS, einem Anbieter von Analyse-Tools. Für ihn sei BI primär für die Darstellung und Weitergabe von Informationen zuständig, „das ist im Wesentlichen die Visualisierung von Daten, aber auch Reporting.“ Mit BI könnten Anwender die Informationen sehen, nach individuellem Bedarf darstellen und damit optimal für ihre Aufgaben nutzen. Die Analyse und die eigentliche Datenverarbeitung - auch im Big-Data-Kontext - seien heute weitgehend eigene Technologiefelder.
Dr. Boris Michel, Leiter Technischer Vertrieb bei dem Analytics-Unternehmen INFORM DataLab fasst Business Intelligence wie folgt zusammen: „Summa summarum ist Business Intelligence Teil der Wertschöpfungskette im Rahmen von ‚Big Data’-Projekten, nämlich der Teil, der die Schnittstelle zwischen Entscheidern und den Daten herstellt.“
Status quo in Sachen BI
Die Technologien für das Business Intelligence sind bereits seit mehreren Jahrzehnten verfügbar und haben bereits einen hohen Reifegrad erreicht. Die entsprechenden Techniken wie Online Analytical Processing (OLAP), eine hypothesengestützte Analysemethode, werden daher für das BI in ähnlicher Art und Weise von eine Vielzahl an BI-Tools unterstützt.
Das zwingt die Software-Hersteller dazu, sich durch neue Technologien und Möglichkeiten zu differenzieren. Ein Trend ist zum Beispiel der Einsatz von Künstlicher Intelligenz (KI) in Verbindung mit analytischen Anwendungen. In der Regel ist damit die Nutzung von Machine-Learning-Algorithmen gemeint, die durch Training mathematische Modelle bilden, die dann zur Vorhersage oder Entscheidungsfindung genutzt werden.
Darüber hinaus gibt es viele interessante Ansätze wie neue Visualisierungstechniken (Advanced Data Visualization) oder sogenannte Storytelling-Komponenten, die die Interpretation von Daten unterstützen. Die Nutzung von Geodaten (Location Intelligence) ermögicht neue Anwendungsfälle vom Lademanagement elektronischer Fahrzeuge bis hin zur Landwirtschaft oder der Auswertung von Drohnendaten. Für Anwendungen im Geschäftsalltag sind Fortschritte im Bereich Text (Document Analytics) interessant, da nach wie vor zahlreiche Daten in unstrukturierter Form vorliegen und auf ihre Aufbereitung und Auswertung warten.
Nach Erfahrung von Robert Ruf von SAS bewegen sich die Unternehmendarüber hinaus weg von starren, einheitlichen BI-Werkzeugen hin zu offeneren Architekturen und Bereitstellungsmodellen. „Derzeit sehen wir einen klaren Trend hin zu Cloud-Services, die zwar standardisiert sind, aber gleichzeitig modular genutzt werden können.“ Das ebne auch den Weg für eine Dezentralisierung der BI: Künftig sei nicht mehr die Unternehmens-IT als Zentralstelle zuständig. Stattdessen stellten sich die Fachabteilungen selbst BI-Services ganz nach ihrem Bedarf zusammen. „Durchgesetzt hat sich ganz klar das Self-Service-Prinzip für die Fachabteilungen“, betont Ruf.
Den Trend zu Self-service-Tools für die Datenanalyse bestätigt auch Dr. Michel: „Viele Unternehmen setzen auf moderne Self-Service-BI-Tools, mit denen sich schnell Diagramme, Tabellen und andere Grafiken erzeugen lassen.“ Er beobachten jedoch, dass nur wenige Mitarbeiter diese Möglichkeiten auch tatsächlich einsetzen würden. Der Grund hierfür liege im mangelhaften Training sowie Sensibilisierung und vor allem darin, dass zu wenig Raum zum Experimentieren mit Daten geboten werde. „Daher würden wir Self-Service-BI der Schublade ‚Work in Progress’ zuordnen.“