Kosten sparen und Gewinne steigern durch professionelles Datenqualitätsmanagement

Unsere Erfahrung aus zahlreichen BI-Projekten zeigt:

Die frühzeitige Herstellung von Datenqualität im Rahmen dieser Projekte kostet bedeutend weniger als die qualitativen und quantitativen Kosten der nachfolgenden Auswirkungen von fehlender Datenqualität.

BI Projekte scheitern oft an der Akzeptanz der gelieferten Aussagen. Dies liegt überwiegend an mangelhafter Datenqualiät in den Vorsystemen.

Die Tragweite der Problematik der Datenqualität ist erst mit dem Aufbau von BI-Anwendungen richtig ans Tageslicht gekommen. Denn im Data Warehouse werden die Daten nicht mehr nur in einzelnen Datensätzen betrachtet, sondern vom ersten bis zum letzten Datensatz. Sie werden nicht isoliert innerhalb der einen oder anderen Anwendung verwendet, sondern im unternehmensweiten Zusammenhang. Daher kommen die erfolgreichen analytischen Meßmethoden für Datenqualität auch von den BI Architekten und weniger von Softrware- oder IT Architekten.

Datenqualität liefert Indikatoren bezüglich Korrektheit der Datenwerte und Eignung der Daten für einen bestimmten Verwendungszweck.

Warum ist Datenqualität und deren Management so wichtig für die anstehende digitale Transformation und Industrie 4.0?

  • Bereits in den operativen Systemen hat eine mangelhafte Datenqualität Auswirkungen auf die Geschäftsprozesse.
  • Für alle Steuerungs- und Informationssysteme entlang einer modernen Wertschöpfungskette ist eine qualitativ hochwertige Datenbasis essentiell.
  • Niedrige Datenqualität hat teure Bereinigungs- und Korrekturmaßnahmen zur Folge.
  • Datenqualität beeinflusst maßgeblich Kundenzufriedenheit und Unternehmensimage.
  • BI - und DWH Projekte scheitern häufig an der niedrigen Datenqualität der Vorsysteme
  • nach einer Studie des TDWI haben erst 36 % der Unternehmen Strategien und Maßnahmen zur dauerhaften Datenqualitätssicherung

Konsequenzen unzureichender Datenqualität

  • Digitale Transformation wird erschwert oder sogar verhindert
  • Erhöhte Prozesskosten und Ressourceneinsatz entlang der digitalen Supply Chain
  • Einschränkung bei der Einbindung innovativer Partner in die Supply Chain
  • Kundenunzufriedenheit
  • Lieferantenunzufriedenheit
  • Probleme bei Erfüllung gesetzlicher Auflagen
  • Ertragsverluste

Wie misst man Qualität? - Etwas Theorie

Eigenschaften von Qualität teilen wir in folgende Bereiche auf

  1. Verfügbarkeit
  2. Vollständigkeit
  3. Konsistenz
  4. Zeitnähe
  5. Glaubwürdigkeit

Ein Qualitätskriterium repräsentiert eine fachliche Definition für eine qualitativ bewertbare Eigenschaft des Datenbestandes.

Das kann sein:

  • Korrekte Eingabe eines Datenwertes (Wertebereich, Syntax, ...)
  • Fachlich korrekte Erfassung eines Sachstandes
  • Systemübergreifende Konsistenz eines fachlichen Zustandes

Qualtitätsmerkmale

Interpretierbarkeit

Semantik: Beschreibung von Entitäten, Beziehungen und Attributen

Identifizierbarkeit: bzgl. Informationsobjekte

Synonyme: bekannt und dokumentiert

Zeitlicher Bezug: Abbildung zu jedem Objekt

Repräsentation fehlender Werte: NULLs abbildbar

Nützlichkeit

Vollständigkeit: Aufgabenangemessen erfasst

Erforderlichkeit: Ausweis von Pflicht- und Kannfeldern

Granularität: Erforderlicher Detaillierungsgrad

Präzision der Wertebereichsdefinition: sinnvolle Werte

Qualtitätsmerkmale bezogen auf Datenwerte

Glaubwürdigkeit

Korrektheit, auch syntaktisch: Daten entsprechen Definition

Datenherkunft, Vollständigkeit, Zuverlässigkeit

Widerspruchsfreiheit: bzgl. Integritätsregeln, Bereichsdef.

Zeitlicher Bezug

Aktualität, zeitliche Konsistenz

Nicht-Volatilität: permanent und reproduzierbar abrufbar

Verfügbarkeit

zeitliche Verfügbarkeit: rechtzeitig verfügbar

Systemverfügbarkeit, Transaktionsverfügbarkeit

Zugriffsrechte

 

Leistungsmerkmale des time2QUALITY Systems

  • Fit für Industrie 4.0 - vorgefertigte Lösung mit kombinierten Beratungs- und Servicepaket für die Sicherung eines gleichbleibend hohen Stammdatenniveaus entlang ihrer gesamten digitalen Wertschöpfungskette
  • Standard BI & DWH Technologien sowie modernste Analytics Methoden vs. klassischen SW Produkt
  • Datenqualitätsabgleich zwischen Lieferantendaten und Händlerdaten konform zum GS1 Data Quality Framework
  • Vorentwickeltes Kernsystem senkt Implementierungsaufwand für diesen wichtigen Prozess innerhalb ihrer digitalen Supply Chain deutlich
  • Entwicklung der Stammdatenqualität durch integrierte Historisierung nachverfolgen (Compliance, Revision, Basis für Lieferanten SLA Vereinbarungen etc.)
  • Integration in ihren Data Governance Workflow
  • Schnelles Reagieren  auf neue gesetzliche Bestimmungen
  • Wir betrachten ein MDM Projekt nicht isoliert von Organisation, Prozesse und IT und stellen die Integration und Abbildung des Qualitätsprozesses auf den gewünschten Anwenderbereich sicher
  • Effektives Management ihrer Stammdaten und Sicherung der gewünschten Datenqualität bei Integration zusätzlicher und/oder Austausch von bestehenden Lieferanten
  • Qualitätskennzahlen beliebig kategorisierbar
    • Gesamt
    • Bereich / Unterbereich
    • Artikel
    • Lieferant
    • Entwicklung über die Zeit
    • etc.

time2QUALITY bietet Lösungen für folgende Fragestellungen

Wenn sie im Unternehmen eine oder mehrere der folgenden Fragestellungen auf der Agenda stehen haben, empfehlen wir Ihnen einen unverbindlichen Präsentationstermin unseres time2QUALITY Datenqualitätsmanagementsystems:

  • Die Digitalisierung der Wertschöpfungskette erfodert den Aufbau einer entsprechenden Data-Governance-Organisation inklusive der Zuweisung klar definierter Verantwortungen. Wie kann BI uns hier verlässliche Informationen als Grundlage für die kontinuierlichen Verbesserungen der Datenqualität liefern?
  • Wie gut ist meine Stammdatenqualität und damit meine Effektivität davon abhängiger Geschäftsprozesse?
  • Erfüllt der potentielle Lieferant / Zulieferer unsere Data Quality Anforderungen?
  • Halten unsere Lieferanten / Zulieferer unsere Data Quality Anforderungen ein (Datenqualitäts-SLA)?
  • Welcher Bereich verursacht die Datenqualitätsmängel?
  • Führen meine Datenqualitätsmaßnahmen zum Erfolg?
  • Wir erfassen unsere Stammdaten dezentral -woher wissen wir, daß diese alle die gleichen Aussagen liefern?
  • Wie schaut der Vergleich der Erfassungsqualität zu anderen Bereichen aus? (Benchmark)
  • Wie performt im Datenmanagement-Prozess ein Mitarbeiter / Bereich  im Vergleich zum früher verantworteten Bereich? (Identifikation von Prozess- und Strukturproblemen)

time2BI besitzt Kompetenz zum Thema Datenqualität aus zahlreichen BI- und DWH Projekten und unterstützt Ihr Unternehmen in allen Phasen eines DQM Projekts

  • Analyse und Konzeption der Qualitätskriterien
  • Konzeption und Aufbau des DQM-Datastore
  • Extraktion, Transformation und Laden der Daten
  • Vergleich mit dem Referenz-Datenpool
  • Erstellung und Verteilung von kundenspezifischen Prüfberichten
  • optionales Zurückschreiben in das Quellsystem (Closed-Loop)