Coverstory 21-09 MAG 21-09

Inkonsistente Daten kosten schlicht Geld

Interview: Inkonsistente Daten kosten schlicht Geld
Interview: Inkonsistente Daten kosten schlicht Geld

Unternehmensdaten können das neue Gold sein. In jedem Fall verursacht schlechtes Daten-management hohe Kosten – unabhängig davon, ob ein S/4-Releasewechsel ansteht oder nicht. Stefan Riess und Hendrik Becker über Datenqualität und was Unternehmen tun können, um sie zu sichern.

E-3: Alle reden von Datenqualität, aber was ist das eigentlich genau?

Hendrik Becker, KPMG: Datenqualität bedeutet, zu jeder Frage eine richtige Antwort zu erhalten. Das setzt voraus, dass Daten ständig auf Fehlerhaftigkeit, Redundanz und Nutzbarkeit geprüft werden. Neben der Vermeidung von Fehlern und Lücken geht es also auch darum, Daten verschiedenen Adressaten in einheitlicher Weise zur Verfügung zu stellen und sie möglichst einfach nutzbar zu machen.

E-3: An welchen Parametern kann man Datenqualität festmachen?

Becker: Datenqualität kann anhand von Merkmalen beurteilt werden. Zu diesen Merkmalen zählen die intrinsische Datenqualität – beispielsweise Glaubhaftigkeit, Genauigkeit, Objektivität, Reputation –, die kontextuelle Datenqualität – beispielsweise Mehrwert, Relevanz, Zeitnähe, Vollständigkeit, Datenmenge –, die repräsentative Datenqualität – etwa Interpretierbarkeit, Verständlichkeit, Konsistenz der Darstellung, Prägnanz – sowie die Zugriffsqualität – zum Beispiel Verfügbarkeit, Zugriffssicherheit.

E-3: Welchen Einfluss hat die fortschreitende Digitalisierung?

Stefan Riess, KPMG: Mit der Digitalisierung hat sich das unternehmerische Handeln in den letzten Jahren deutlich gewandelt. So sind mittlerweile viele zukunftsweisende Geschäftsmodelle wie E-Commerce, Onlinebanking oder E-Procurement entstanden. Doch auch in den Unternehmen selbst hat die Digitalisierung zu tiefgreifenden Veränderungen geführt.

Eine stärkere interne und externe Vernetzung, neue Arbeitsmodelle oder wachsende Investitionen in Data Analytics sind nur einige Beispiele dafür. Die Grundlage all dieser Entwicklungen sind Daten. Ohne sie kann der Einkauf keine digitalen Lieferantenlisten führen, das Marketing keine digitalen Kampagnen planen und das Unternehmen keine Datenanalysen durchführen oder Prozesse digitalisieren. Aufgrund dieses enormen Einflusses ist auch die Qualität der genutzten Daten von hoher Bedeutung.

E-3: Was hat das Ganze mit Stammdaten zu tun?

Becker: Ob digitalisierte Geschäftsprozesse im Einkauf, in der Produktion oder im Vertrieb – Stammdaten sind relevant für alle Unternehmensbereiche. Ein wirksames Stammdatenmanagement ist die Basis für Digitalisierungsinitiativen in jeder Organisation. Gute Stammdatenqualität ist dabei kein Selbstzweck, sondern ermöglicht es dem Unternehmen, effizienter zu wirtschaften und Ressourcen wirksamer einzusetzen.

E-3: Welche typischen Probleme hat schlechte Datenqualität zur Folge?

Riess: Inkonsistente Daten kosten schlicht Geld. Wenn beispielsweise ein Kunde oder ein Lieferant im System mehrfach vorhanden ist und verschiedene Konditionen hinterlegt sind, kann man sich die Folgen leicht vorstellen. Schlechte Datenqualität bindet zudem interne Ressourcen und verlangsamt Prozesse.

Unplausible Daten müssen regelmäßig aufs Neue überprüft werden, von dieser Überprüfung sind häufig mehrere Abteilungen betroffen, wie Vertrieb, Procurement, Finance sowie IT, und dennoch ist die finale Klärung oft nicht möglich. Unzuverlässige Datenquellen können des Weiteren zu fehlerhaften Managemententscheidungen oder Markteinschätzungen und damit zum Verlust von Marktanteilen führen. Schließlich besteht bei unzureichender Datenqualität ein erhöhtes Compli-ance-Risiko durch die mangelhafte Erfüllung regulatorischer Anforderungen oder die unzureichende Transparenz und Rückverfolgung operativer Prozesse.

Grafik_zu_Master_Data_Excellende_3140x1930px_DE_cmyk
Die Roadmap zu Master Data Excellence, MDE: Letztendlich unterliegt die Qualitätssicherung des Master Data Management einem Continuous Improvement. Konsistente Daten sind keine Momentaufnahme, sondern fortlaufendes Bemühen, um Kosten zu minimieren.

E-3: Was sind aus Ihrer Sicht wichtige Vorteile einer hohen Datenqualität?

Becker: Eine hohe Datenqualität sichert durch automatisierte Workflows und Informationsflüsse eine schnellere Datenbereitstellung für die Geschäftsbereiche. Unternehmen verfügen über verlässliche operative Prozesse und eine gesicherte Grundlage für geschäftliche Entscheidungen.

Durch die Harmonisierung von Prozessen und Schnittstellen lassen sich manuelle und nachträgliche Fehlerbereinigungen in Stammdatensätzen langfristig reduzieren. Das gilt ebenso für bilateralen Abstimmungsaufwand im Rahmen der internen und externen Datenübermittlung. Last but not least ist eine hohe Datenqualität eine wichtige Voraussetzung für erfolgreiche Digitalisierungsinitiativen.

E-3: Worin liegen die Gründe für unzureichende Datenqualität?

Becker: Das Problem beginnt schon damit, dass oft keine Transparenz hinsichtlich der tatsächlichen Datenqualität vorhanden ist. Die Gründe für unzureichende Datenqualität sind zahlreich. Einerseits steigt der Umfang der Datensätze immer weiter -– beispielsweise hat ein Produkt in der Lebensmittelindustrie bis zu 450 Attribute, etwa zu Inhaltsstoffen, Allergenen, Preisempfehlungen und Logistikinformationen –, gleichzeitig nimmt die Anzahl der Quellen und Verantwortungsbereiche für Daten stetig zu.

Andererseits führt dies zu Abteilungen mit abweichenden Interessen an gleichen Datenobjekten, zu viele „Entscheider“ werden eingebunden, es gibt „gefühlte“ Vetorechte im Dateneingabeprozess. Das Berechtigungskonzept ist entweder lückenhaft oder gar nicht erst vorhanden, es fehlen klare Verantwortlichkeiten und Eskalationsstufen. Die manuelle Datenpflege und der manuelle Datenaustausch führen zu inkonsistenten, fehlerhaften oder unzureichenden Informationen.

E-3: Welche Voraussetzungen müssen erfüllt sein, um eine hohe Datenqualität zu etablieren?

Riess: Zunächst muss man sich darüber im Klaren sein, dass Datenqualität kein rein technisches Problem ist, sondern vor allem ein organisatorisches und prozessuales. Durch den bereichs- und systemübergreifenden Charakter von Daten bedarf es einer übergeordneten und transparenten Verantwortlichkeit für Datenqualität, beispielsweise in Form einer Data Governance.

Klare Governance-Strukturen mit definierten Rollen und Verantwortlichkeiten sowie eine Eskalationsfunktion im Datenmanagement sind für die effiziente Datengenerierung und -nutzung durch unterschiedliche Interessengruppen unabdingbar. Darüber hinaus bedarf es wirksamer, „gelebter“ Datenmanagement-Prozesse, möglichst getrennt von den operativen Prozessen und technisch unterstützt durch beispielsweise Workflows oder MDM-Tools.

Schließlich kann Datenqualität flankiert werden von einem einmaligen Data Clean-sing, gegebenenfalls Tool-unterstützt. Langfristig muss es aber organisational in Angriff genommen werden.

E-3: Womit sollten Unternehmen bei einer Stammdateninitiative starten?

Becker: Zur Analyse des Ist-Zustands empfiehlt sich die Durchführung einer Reifegradanalyse. Mithilfe von standardisierten Fragebögen und Workshops können sich die Verantwortlichen zunächst einen Überblick über den Status quo verschaffen und Verbesserungsansätze erkennen. Diese Bestandsaufnahme kann mit einem systemgestützten Datenqualitätscheck kombiniert werden, der ein Benchmarking ermöglicht.

E-3: Welchen Beitrag können Softwarelösungen für das Stammdatenmanagement leisten?

Becker: In der Stammdatenpflege ist das richtige Gleichgewicht zwischen Komplexität und Effizienz entscheidend. Prozesse zur Anlage, Änderung und Deaktivierung von Stammdaten sind so einfach und schlank wie möglich, aber so komplex wie nötig zu gestalten, um entsprechende Datenqualität sicherzustellen. MDM-Tools können hierbei auf vielfältige Art und Weise unterstützen.

E-3: Wie können Lösungen für mehr Datenqualität beispielhaft aussehen?

Riess: Der Weg zu mehr Datenqualität führt über Zentralisierung, Standardisierung und externe Prüfservices, um den internen und externen Anforderungen an Stammdaten zu begegnen. Ein Beispiel für Produktstammdaten ist die Einführung eines zentralisierten und automatisierten Produktstamms. Hierdurch lassen sich manuelle und nachträgliche Ressourcenaufwände zur Pflege der Produktstammdaten erheblich reduzieren. Das Ergebnis: die zentrale Bereitstellung verschiedener Daten aus multiplen und oft auch globalen Quellen und unterschiedlichen Verantwortungsbereichen.

E-3: Was bringt Stammdatenmanagement in Zahlen?

Becker: Als Anhaltspunkte können hierzu die Ergebnisse eines Beispielprojekts von KPMG in Deutschland aus dem Jahr 2020 herangezogen werden. Danach verfügte das beteiligte Unternehmen über ein verbessertes Datenmodell, nachdem 68 Prozent der fehlerhaften, veralteten und doppelten Dateneinträge korrigiert werden konnten.

Die Effizienz des Datenmanagement-Prozesses konnte um 50 Prozent gesteigert werden, während die Anzahl von Personen, die in den Stammdatenprozess involviert sind, von mehr als 1000 auf nur noch 50 reduziert wurde. Eine fest verankerte Data Governance sichert darüber hinaus die Daten- und Prozessqualität dauerhaft.

E-3: Datenqualität ist kein statischer Zustand. Wie kann Datenqualität gemessen und dauerhaft gesichert werden?

Riess: Zunächst – Datenqualität kann nicht eindimensional gemessen werden. Hier bietet es sich zum Beispiel an, einen multidimensionalen Kennzahlenbaum – ähnlich den (Finanz-)Controllinginstrumenten – zu nutzen. Er berücksichtigt zunächst die Ausprägungen der Datenqualität und bricht sie auf einzelne Kennzahlen herunter, darunter Anzahl der Dubletten, Anzahl der Inkonsistenzen und Anzahl der nicht gefüllten Datenfelder.

Diese Informationen werden multidimensional mit weiteren Informationen zur Ursachenanalyse verknüpft. Weitere Dimensionen sind beispielsweise der Unternehmensbereich, in dem der Fehler entstanden ist, das betroffene Datenobjekt, das System oder der Prozess, in dem die Daten angelegt oder verwendet werden. Auch der Aufbau eines zentralen Stammdatenmanagement-Systems sollte überlegt werden.

Transparenz hierbei schafft eine Informationslandkarte, mit der die Datenlandschaft und Speicherorte abgebildet werden. Mit modernen Datenmanagement-Systemen sind regelmäßige Daten- und Prozessqualitätsanalysen vorprogrammiert. Sie lassen sich mit den vorhandenen Business-Intelligence-Systemen verbinden und werden so zum festen Bestandteil des Unternehmenscontrollings.

E-3: Danke für das Gespräch.

Download Coverstory

Über den Autor

Hendrik Becker KPMG

Hendrik Becker, Manager, Consulting CISA Digital Finance bei der KPMG

Über den Autor

Stefan Riess KPMG

Stefan Riess, Senior Manager Digital Finance bei der KPMG

Über den Autor

E-3 Magazin

Information und Bildungsarbeit von und für die SAP-Community.

Hinterlassen Sie einen Kommentar