Marktüberblick
Nur gute Daten liefern auch gute Ergebnisse
von
Andreas
Dumont - 01.04.2020
Foto: Big Data Analytics / shutterstock.com
Viele Unternehmen tun sich schwer, die nötige Datenqualität zu gewährleisten. Unsere Marktübersicht stellt einige nützliche Tools vor, die dabei behilflich sein können.
Gartner Magic Quadrant: Die Analysten ordnen die Hersteller von Data-Quality-Tools in die vier Kategorien „Challengers“, „Leaders“, „Visionaries“ und „Niche Players“ ein.
(Quelle: Gartner )
Angesichts dieser Tatsachen setzt sich in den Unternehmen allmählich die Einsicht durch, dass sich Daten zum eigenen Vorteil nutzen lassen. Die Erkenntnisse, die man aus den Daten gewinnen kann, sind allerdings nur so gut wie die Daten selbst. Die englische Redewendung „Garbage in - Garbage out“ bringt das auf den Punkt: Ohne sinnvolles Qualitätsmanagement führen Big-Data-Technologien lediglich zu einer schnelleren Analyse des Datenmülls. Die Business-Anwendungen werden zwar immer ausgefeilter, doch das grundlegende Problem der Datenqualität wird dabei allzu oft vernachlässigt. Dabei gilt: Die intelligenteste CRM-Software, das beste ERP-System und die smarteste BI-Anwendung - sie alle entfalten ihr wahres Potenzial erst bei einer entsprechenden Datenqualität. Die mangelnde Datenqualität hat Folgen: Wenn mehrere Studien zu dem Schluss kommen, dass ungefähr die Hälfte der Digitalisierungsprojekte nicht den gewünschten Nutzen erbringen, dann hängt das nicht nur, aber auch damit zusammen.
Gute Daten, schlechte Daten
Für die Qualität von Daten lassen sich eine Reihe von Indikatoren benennen:
Vollständigkeit: Ist ein Maß dafür, ob die vorhandene Datenmenge ausreicht, um Schlussfolgerungen zu ziehen.
Konsistenz: Gewährleistet, dass die Daten in allen Systemen eines Unternehmens synchronisiert sind und dieselben Informationen widerspiegeln.
Genauigkeit: Fordert, dass die Daten in der notwendigen Exaktheit vorliegen, etwa mit Nachkommastellen.
Aktualität: Nichts ist so alt wie die Zeitung von gestern - veraltete Daten liefern keinerlei Erkenntnisgewinn.
Einzigartigkeit: Unternehmen müssen sicherstellen, dass keine Duplikate vorhanden sind. Wenn ein Kundenkonto mehrfach auftaucht und der Kunde deshalb mehrfach kontaktiert wird, wirkt sich das meist nicht positiv auf seine Meinung über das Unternehmen aus.
Plausibilität: Daten müssen plausibel sein. Eine Bestellmenge kleiner als null ergibt zum Beispiel keinen Sinn.
Auswirkungen schlechter Daten
Schlechte Daten können sich massiv auswirken: Mehrere Versionen eines Sachverhalts verhindern zunächst einmal, dass Unternehmen Vorschriften einhalten und eine einheitliche Sicht auf Kunden, Produkte, Konten oder Standorte erreichen. Und das Vertrauen in Informationen wird untergraben, wenn verschiedene Informationsquellen abweichende Antworten auf dieselbe Frage liefern.
Wenn Daten über mehrere Datenbanken und Anwendungen verteilt liegen, engt das zudem häufig den Handlungsspielraum in Bezug auf Konsistenz oder Genauigkeit ein. Allein schon die Datenflut verhindert, dass Mitarbeiter und Systeme Daten priorisieren und differenzieren. Die Unfähigkeit, Informationen aus verschiedenen Quellen effizient zu standardisieren, zusammenzuführen und zu korrigieren, verzögert aber die Einführung neuer Geschäftsanwendungen, und mangelhafte Daten, die eng an bestimmte Anwendungen und Prozesse gekoppelt sind, führen nicht zuletzt auch zu Problemen bei der Flexibilität und Agilität in der Entwicklung.