com!-Academy-Banner
Marktüberblick

Nur gute Daten liefern auch gute Ergebnisse

von - 01.04.2020
Analyse von Big Data
Foto: Big Data Analytics / shutterstock.com
Viele Unternehmen tun sich schwer, die nötige Datenqualität zu gewährleisten. Unsere Marktübersicht stellt einige nützliche Tools vor, die dabei behilflich sein können.
Gartner Magic Quadrant Data-Quality-Tools
Gartner Magic Quadrant: Die Analysten ordnen die Hersteller von Data-Quality-Tools in die vier Kategorien „Challengers“, „Leaders“, „Visionaries“ und „Niche Players“ ein.
(Quelle: Gartner )
Heute werden in einer Woche mehr Daten produziert als in den zurückliegenden 2.000 Jahren Menschheitsgeschichte zusammengenommen. Schätzungen gehen von knapp drei Milliarden GByte pro Tag aus. Jede E-Mail, jede Business-Anwendung, jede Websuche, jeder Security-Scan und jeder Cloud-Service erzeugt jede Menge Daten.
Angesichts dieser Tatsachen setzt sich in den Unternehmen allmählich die Einsicht durch, dass sich Daten zum eigenen Vorteil nutzen lassen. Die Erkenntnisse, die man aus den Daten gewinnen kann, sind allerdings nur so gut wie die Daten selbst. Die englische Redewendung „Garbage in - Garbage out“ bringt das auf den Punkt: Ohne sinnvolles Qualitäts­management führen Big-Data-Technologien lediglich zu einer schnelleren Analyse des Datenmülls. Die Business-Anwendungen werden zwar immer ausgefeilter, doch das grundlegende Problem der Datenqualität wird dabei allzu oft vernachlässigt. Dabei gilt: Die intelligenteste CRM-Software, das beste ERP-System und die smarteste BI-Anwendung - sie alle entfalten ihr wahres Potenzial erst bei einer entsprechenden Datenqualität. Die mangelnde Datenqualität hat Folgen: Wenn mehrere Studien zu dem Schluss kommen, dass ungefähr die Hälfte der Digitalisierungsprojekte nicht den gewünschten Nutzen erbringen, dann hängt das nicht nur, aber auch damit zu­sammen.

Gute Daten, schlechte Daten

Für die Qualität von Daten lassen sich eine Reihe von Indikatoren benennen:
Vollständigkeit: Ist ein Maß dafür, ob die vorhandene Datenmenge ausreicht, um Schlussfolgerungen zu ziehen.
Konsistenz: Gewährleistet, dass die Daten in allen Systemen eines Unternehmens synchronisiert sind und dieselben Informationen widerspiegeln.
Genauigkeit: Fordert, dass die Daten in der notwendigen Exaktheit vorliegen, etwa mit Nachkommastellen.
Aktualität: Nichts ist so alt wie die Zeitung von gestern - veraltete Daten liefern keinerlei Erkenntnisgewinn.
Einzigartigkeit: Unternehmen müssen sicherstellen, dass keine Duplikate vorhanden sind. Wenn ein Kundenkonto mehrfach auftaucht und der Kunde deshalb mehrfach kontaktiert wird, wirkt sich das meist nicht positiv auf seine Meinung über das Unternehmen aus.
Plausibilität: Daten müssen plausibel sein. Eine Bestell­menge kleiner als null ergibt zum Beispiel keinen Sinn.

Auswirkungen schlechter Daten

Schlechte Daten können sich massiv auswirken: Mehrere Versionen eines Sachverhalts verhindern zunächst einmal, dass Unternehmen Vorschriften einhalten und eine einheitliche Sicht auf Kunden, Produkte, Konten oder Standorte erreichen. Und das Vertrauen in Informationen wird untergraben, wenn verschiedene Informationsquellen abweichende Antworten auf dieselbe Frage liefern.
Wenn Daten über mehrere Datenbanken und Anwendungen verteilt liegen, engt das zudem häufig den Handlungsspielraum in Bezug auf Konsistenz oder Genauigkeit ein. Allein schon die Datenflut verhindert, dass Mitarbeiter und Systeme Daten priorisieren und differenzieren. Die Unfähigkeit, Informationen aus verschiedenen Quellen effizient zu standardisieren, zusammenzuführen und zu korrigieren, verzögert aber die Einführung neuer Geschäftsanwendungen, und mangelhafte Daten, die eng an bestimmte Anwendungen und Prozesse gekoppelt sind, führen nicht zuletzt auch zu Problemen bei der Flexibilität und Agilität in der Entwicklung. 
Verwandte Themen