Best Practices für bessere Datenqualität im Business Intelligence

Business Intelligence setzt sich in deutschen Unternehmen immer weiter durch. Das Thema Datenqualität spielt dabei eine zentrale Rolle. Wir präsentieren fünf Best Practices, wie Business-Entscheider die Qualität ihrer Daten optimieren können.

Business-Intelligence– und Analytics-Anwendungen sind stark im Kommen. Sie helfen Unternehmen jeder Branche und Größe dabei, die Bedürfnisse ihrer Kunden besser zu verstehen, die passenden Produkte zu entwickeln und sich damit erfolgreich am Markt zu positionieren. Gerade hierzulande vertrauen immer mehr Unternehmen auf Datenanalysen. So treffen drei von vier deutschen Unternehmen ihre Entscheidungen zunehmend auf Basis von Analysen ihrer Datenbestände. Das hat die repräsentative Umfrage „Mit Daten Werte schaffen – Report 2015“ ergeben, die die Wirtschaftsprüfungs- und Beratungsgesellschaft KPMG und der Branchenverband Bitkom unter mehr als 700 Firmen durchgeführt haben.

Wie die Studie zeigt, steigt die Bedeutung von Daten immer weiter an. Mehr als die Hälfte der befragten Unternehmen bezeichnete die Datenanalyse als entscheidenden Baustein für die Wertschöpfung und die Geschäftsmodelle im eigenen Unternehmen. Zudem sucht jedes zweite Unternehmen eigenen Angaben zufolge aktiv nach Chancen, die sich durch umfassende Analysen von Daten bieten könnten, so die Studie weiter.


Hohe Datenqualität ist Pflicht

Doch ohne eine optimale Datenqualität kann es schnell zu Abweichungen oder Fehlern in zentralen Geschäftsprozessen kommen. Das erklärt der international agierende IT-Dienstleister CGI Deutschland. Eine hohe Datenqualität ließe sich nur durch ein systematisches und im idealen Fall unternehmensweites Vorgehen erzielen. Ziel einer Qualitätssteigerung sei es, so die CGI-Experten, die relevanten Daten aus den unterschiedlichen Quellen möglichst effizient zur Optimierung von Entscheidungs- und Geschäftsprozessen und letztlich zur Steigerung der Wettbewerbsfähigkeit eines Unternehmens einzusetzen.

Eine der wichtigsten Voraussetzungen dafür sei eine kontinuierlich hohe Datenqualität und -Integrität. „Unternehmen können das Thema Datenqualität nicht mehr länger aufschieben. In vielen stark regulierten Branchen ergibt sich die Einhaltung einer hohen Datenqualität aus immer mehr gesetzlichen Vorschriften. An der Etablierung eines unternehmensweiten Datenqualitäts-Managements führt damit kein Weg vorbei“, sagt Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI in Sulzbach bei Frankfurt”.

Welche Maßnahmen Unternehmen umsetzen sollten, um die Qualität ihrer Daten im Bereich Business Intelligence zu verbessern, zeigt CGI anhand von fünf Best Practices, die wir Ihnen im Folgenden vorstellen werden.

1. Prioritäten für Optimierungsmaßnahmen setzen

Wie die CGI-Experten erklären, bietet es sich In vielen Fällen an, in den Fachabteilungen eine Bestandsaufnahme der aktuellen Probleme vorzunehmen. Die Mitarbeiter kennen die Abläufe am besten und wissen, wo die Schwachpunkte der abteilungsübergreifenden Geschäftsprozesse liegen. So sind beispielsweise Kundendatensätze in den einzelnen Abteilungen unterschiedlich aufgebaut, Daten sind unvollständig, es gibt abweichende Bezeichnungen für Artikel oder in der Materialdatenbank fehlen einzelne Teilenummern.

Alle diese Mängel hätten laut CGI unterschiedliche finanzielle Auswirkungen. In einem Projekt zur Verbesserung der Datenqualität empfehlen die IT-Spezialisten aus Frankfurt, dort anzusetzen, wo die Kosten zur Beseitigung am niedrigsten und die monetären Prozessverbesserungen möglichst schnell erreichbar sind.

2. Datenverfügbarkeit maximieren

In vielen Geschäftsprozessen – oder auch für Big-Data-Anwendungen – werden Daten aus mehreren Quellen benötigt. Meist werden sie automatisiert über individuelle Datenimporte oder sogenannte ETL-Prozesse (“Extract, Transform, Load”) mit Daten versorgt. Je mehr Schnittstellen vorhanden sind, desto höher sind Wartungsaufwand und Fehleranfälligkeit. Hier sollten Unternehmen deshalb im Einzelfall prüfen, ob ein Data Warehouse, vereinheitlichte Datentöpfe oder eine logische beziehungsweise virtuelle Datenintegration die bessere Lösung bieten.

3. Verantwortlichkeiten definieren

Eine nachhaltige Verbesserung der Datenqualität erfordert Änderungen und Maßnahmen in den Bereichen Technologie, Organisation und Mitarbeiter, so die CGI-Berater. Oft gibt es in den Fachbereichen bereits Mitarbeiter, die „ihre“ geschäftsprozessrelevanten Daten bis ins Detail kennen und bei Datenqualitätsproblemen konsultiert werden.

Um die Qualität der Daten zu steigern, reicht es oft nicht aus, mit technischen Mitteln Dubletten zu beseitigen oder Lücken in den Datensätzen aufzuspüren und zu schließen. In der Rolle eines “Data Steward” stellen die Fachexperten geschäftsprozessbezogene Regeln dafür auf, wie die Daten erzeugt und gepflegt werden sollten. Sie sind zudem für die Umsetzung und Einhaltung der Vorgaben verantwortlich und passen die Verfahren kontinuierlich an neue Anforderungen an. 

4. Metriken für die Auswertung der Datenqualität aufbauen

Ein weiterer Erfolgsfaktor bei einer effektiven Qualitätsprüfung im Bereich Business Intelligence sind nach Angaben von CGI spezifische Metriken, anhand derer sich die Qualität bestimmter Daten auswerten lässt. Als Beispiele dafür nennen die Experten: Maximal drei Prozent Fehler in den Kunden- und Artikeldatensätzen, höchstens zwei Prozent in den Adressdaten, nicht mehr als ein Prozent in den Materialdaten oder maximal drei Prozent in Rechnungsrückläufen.

Entscheidend sei vielmehr, dass die Kennzahlen transparent, messbar und überprüfbar sind, damit die Prozessverantwortlichen Rechenschaft über ihre Aktivitäten ablegen können oder im anderen Fall Maßnahmen zur Abhilfe eingeleitet werden und deren Effekt überprüft werden kann.


Prozesse zur kontinuierlichen Verbesserung etablieren

“Die Einführung von Datenqualitäts-Management ist kein einmaliges Projekt, vielmehr müssen die Abläufe, Prozesse und Ergebnisse fortlaufend analysiert und verbessert werden”, so Veltjens. Im Idealfall sollte die Aufgabe dem Regelkreislauf „Plan, Do, Check und Act“ folgen. Damit ließe sich sicherstellen, so Veltjens weiter, dass die Prozesse zur Sicherung des Datenqualitäts-Managements und zur Einhaltung der Datenintegrität einem kontinuierlichen Verbesserungsprozess unterliegen. Dabei soll es in erster Linie darum gehen, ob interne und externe Regeln sowie Vorschriften tatsächlich umgesetzt und neue Anforderungen berücksichtigt werden.