Sicherung der Datenqualität bekommt Priorität

Die Nutzer sind sich des Problems durchaus bewusst. Immerhin nennen sie genau diese beiden Aspekte – nämlich höhere Kosten und uneinheitliche Datenqualität – am häufigsten bei der Frage nach den negativen Konsequenzen der Datenautonomie. Aber auch unklare Verfahren zur Reduzierung der Fehlerquote werden von der überwiegenden Mehrheit der Unternehmen genannt, die eine restriktive Politik zur dezentralen Datenhaltung praktizieren. Nach Meinung von 46 Prozent der Befragten lassen sich keine gemeinsamen Werkzeuge zur automatisierten Datenpflege einsetzen.

„Werden alle Änderungen zentral zusammengeführt, verbessert sich auch die Aktualität deutlich“, gibt Kraus zu bedenken. Die Daten sind dann nicht nur verlässlicher, sondern auch relevanter. In seinen Augen stehen die Unternehmen deshalb vor der Notwendigkeit, im Interesse der Datenqualität erstens eine Konsolidierung der gesamten Kundendaten in einer zentralen Datenbank vorzunehmen und zweitens Abläufe zu entwickeln, die anschließend ein einheitlich hohes Qualitätsniveau über alle bestehenden Datenbanken hinweg gewährleisten.

An allen Stellen, an denen Daten erfasst, überspielt, geändert, ergänzt oder aktualisiert werden, sind Kontroll- und Bereinigungs-Mechanismen nötig. Also muss die Datenqualitätssicherung in die Prozesse integriert sein. Omikron selbst bietet mit dem Data-Quality-Server eine entsprechend in Prozesse integrierte Datenbankplattform mit geeigneten Werkzeugen an. Der Server führt die im Unternehmen vorhandenen Datenbanken an zentraler Stelle zusammen und sorgt für die Einhaltung der Richtlinien für die Datenqualität bereits in den Firmenabläufen. Die Nutzer können auf dieser Basis eigene Werkzeuge einsetzen.

Der Server unterstützt zudem sämtliche Omikron-Werkzeuge, etwa FACT-Finder, eine fehlertolerante Suche, die in über 800 Online-Shops zum Einsatz kommt. Dadurch werden Kundendaten auch gefunden, wenn sich ein Mitarbeiter bei der Eingabe vertippt. Diese Einbindung in die elektronischen Geschäftsprozesse des Unternehmens verhindert Dubletten und sichert die Qualität der Daten für die zukünftigen Prozesse.

Andere Firmen, etwa Oracle und SAP, bieten Sofware und Funktionen für das Management der Datenqualität als Teil ihrer Standardsoftware oder – wie Informatica – als Teil einer breiteren Palette von Werkzeugen zum Datenmanagement an. Manche Kunden befürchten jedoch, sich dadurch zu sehr an einen Hersteller zu binden. Die Lücke besetzen Firmen wie Datras, die entsprechende Software zum Beispiel speziell für SAP-Umgebungen anbietet.

Andere offerieren Data Quality als Dienstleistung. Dazu gehört Uniserv aus Pforzheim. Der Ansatz hat seine Vorteile: Statt sich auf einen Anbieter von Standardsoftware zu konzentrieren, verspricht Uniserv mit den relevantesten am Markt arbeiten zu können. Und indem der IT-Abteilung die Vorbereitung und Durchführung abgenommen wird, lässt sich das Projekt – gerade bei Firmen mit einem Mangel an Fachkräften – schneller und mit weniger Auswirkungen auf den laufenden Betrieb durchführen.

Außerdem gibt es Open-Source-Werkzeuge für Datenqualität. Zwar bietet Pentaho solche an, vor allem ist aber Talend in diesem Bereich aktiv. Das Unternehmen sieht Ansatzpunkte für ein Projekt zur Verbesserung der Datenqualität, wenn eine Datenmigration notwendig ist, Regeln zur Einhaltung von Richtlinien eingeführt werden oder CRM- beziehungsweise ERP-Projekte anstehen. In jedem Fall sollten die Tage, in denen mangelnde Datenqualität zu unzuverlässigen Prozessen, Bilanzen und Suchergebnissen geführt hat, gezählt sein.

Themenseiten: Big Data, Business Intelligence, Compliance, Datenschutz, IT-Business, Mittelstand, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Sicherung der Datenqualität bekommt Priorität

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *