Categories: Unternehmen

Datenfundamenten fehlt es an Qualität

Michael Mielke vom Dienstleistungszentrum der Deutschen Bahn AG ist die treibende Kraft hinter der Veranstaltung in Frankfurt am Main zur Informationsqualität. Er schildert ein Beispiel aus seinem Erfahrungshorizont. Dabei geht es um den Rollout eines neuen Trading-Systems einer deutschen Bank an rund 5000 Firmenkunden. Die Klienten mussten Zugriff erhalten und zwar auf einer technisch sicheren Basis. Offenbar wurde das Projekt als überschaubar eingestuft; denn, so Mielke, „Man dachte: die Vertriebsleute machen das schon.“

Doch das System entpuppte sich als komplexer wie ursprünglich angenommen. Nicht nur eine Verschlüsselungs- und Autorisierungsinfrastruktur musste her und der Kunde auf dem System geschult werden. Der Implementierungsprozess beinhaltete auch etwa die Vertragsvereinbarungen, also die Rahmenverträge inklusive Nutzen und Risiken. Zudem waren Nutzungsberichte gefragt etwa über den Status und die Akzeptanz des neuen Systems. Zwar hatte jeder Verantwortliche für seinen Bereich eigene Auswertungen, vom Excel-Sheet bis zur Ad-hoc-Analyse, doch gab es keine gemeinsame Datenbasis. Der Prozess blieb hochgradig manuell.



Martin Eppler, Professor an der Universität Lugano, kategorisiert in seinem Buch „Managing Information Quality“ die verschiedenen Probleme und ihre Erscheinungsweisen. Ursache und Wirkung ändern sich im Prozess von der Datenerhebung bis zur Auswertung. Hier klicken

Irgendwann geriet das Rollout außer Kontrolle: Tippfehler und die Missachtung von Abhängigkeiten im Prozess waren an der Tagesordnung bis ein eigenes Team endlich den Workflow, Abhängigkeiten und Zuständigkeiten definierte, die Daten zentral zusammenfasste und zugänglich machte. Welche Unkosten bis dahin aufgelaufen waren, kann Mielke nicht beziffern. Doch kann er die Kosten für eine falsche Adresse oder einen falschen Namen benennen. Solche Fehler schlugen mit rund 120 Euro pro Client zu Buche. In dem Beispiel betrugt die Fehlerquote rund 10 Prozent, 5 Prozent mehr als normal.

Das Data Warehouse Institute schätzt, dass Verwaltungen und Unternehmen in den USA jährlich rund 600 Milliarden Dollar wegen schlechter Datenqualität verlieren. Fred Steingraber, CEO beim Beratungshaus A.T. Kearney, beziffert den Schaden durch schlechte Datenqualität auf 25 bis 40 Prozent der gesamten operativen Kosten. Angesichts der Aussagen zahlreicher Analystenhäuser, das Information heute das wertvollste Asset eines jeden Unternehmens ist, scheint es geradezu unverantwortlich, Datenqualität unter ferner liefen auf der Prioritätenskala einzuordnen.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Recall: Microsoft stellt KI-gestützte Timeline für Windows vor

Recall hilft beim Auffinden von beliebigen Dateien und Inhalten. Die neue Funktion führt Microsoft zusammen…

11 Stunden ago

Windows 10 und 11: Microsoft behebt Problem mit VPN-Verbindungen

Es tritt auch unter Windows Server auf. Seit Installation der April-Patches treten Fehlermeldungen bei VPN-Verbindungen…

18 Stunden ago

Portfoliomanagement Alfabet öffnet sich für neue Nutzer

Das neue Release soll es allen Mitarbeitenden möglich machen, zur Ausgestaltung der IT beizutragen.

21 Stunden ago

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

5 Tagen ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

5 Tagen ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

5 Tagen ago