Datenfundamenten fehlt es an Qualität

Wenn ausgerechnet die Deutsche Bahn zum ersten deutschen Kongress in Sachen Information Quality Management einlädt, mag das manchen spötteln lassen. Doch mangelhafte Datenqualität ist ein ungelöstes und gravierendes Grundübel der IT, nur die meisten Unternehmen verschweigen oder ignorieren es lieber.

Michael Mielke vom Dienstleistungszentrum der Deutschen Bahn AG ist die treibende Kraft hinter der Veranstaltung in Frankfurt am Main zur Informationsqualität. Er schildert ein Beispiel aus seinem Erfahrungshorizont. Dabei geht es um den Rollout eines neuen Trading-Systems einer deutschen Bank an rund 5000 Firmenkunden. Die Klienten mussten Zugriff erhalten und zwar auf einer technisch sicheren Basis. Offenbar wurde das Projekt als überschaubar eingestuft; denn, so Mielke, „Man dachte: die Vertriebsleute machen das schon.“

Doch das System entpuppte sich als komplexer wie ursprünglich angenommen. Nicht nur eine Verschlüsselungs- und Autorisierungsinfrastruktur musste her und der Kunde auf dem System geschult werden. Der Implementierungsprozess beinhaltete auch etwa die Vertragsvereinbarungen, also die Rahmenverträge inklusive Nutzen und Risiken. Zudem waren Nutzungsberichte gefragt etwa über den Status und die Akzeptanz des neuen Systems. Zwar hatte jeder Verantwortliche für seinen Bereich eigene Auswertungen, vom Excel-Sheet bis zur Ad-hoc-Analyse, doch gab es keine gemeinsame Datenbasis. Der Prozess blieb hochgradig manuell.

Hier klicken für Großansicht

Martin Eppler, Professor an der Universität Lugano, kategorisiert in seinem Buch „Managing Information Quality“ die verschiedenen Probleme und ihre Erscheinungsweisen. Ursache und Wirkung ändern sich im Prozess von der Datenerhebung bis zur Auswertung. Hier klicken

Irgendwann geriet das Rollout außer Kontrolle: Tippfehler und die Missachtung von Abhängigkeiten im Prozess waren an der Tagesordnung bis ein eigenes Team endlich den Workflow, Abhängigkeiten und Zuständigkeiten definierte, die Daten zentral zusammenfasste und zugänglich machte. Welche Unkosten bis dahin aufgelaufen waren, kann Mielke nicht beziffern. Doch kann er die Kosten für eine falsche Adresse oder einen falschen Namen benennen. Solche Fehler schlugen mit rund 120 Euro pro Client zu Buche. In dem Beispiel betrugt die Fehlerquote rund 10 Prozent, 5 Prozent mehr als normal.

Das Data Warehouse Institute schätzt, dass Verwaltungen und Unternehmen in den USA jährlich rund 600 Milliarden Dollar wegen schlechter Datenqualität verlieren. Fred Steingraber, CEO beim Beratungshaus A.T. Kearney, beziffert den Schaden durch schlechte Datenqualität auf 25 bis 40 Prozent der gesamten operativen Kosten. Angesichts der Aussagen zahlreicher Analystenhäuser, das Information heute das wertvollste Asset eines jeden Unternehmens ist, scheint es geradezu unverantwortlich, Datenqualität unter ferner liefen auf der Prioritätenskala einzuordnen.

Themenseiten: IT-Business, Strategien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Datenfundamenten fehlt es an Qualität

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *