07.08.2022 – Kategorie: Management
Datenqualität: Datenbereinigung für die intelligente Produktion
Ähnlich wie das Fundament beim Hausbau stimmen muss, ist die Datenqualität entscheidend in der Fertigungsindustrie. Was muss geschehen, damit auch die intelligente Produktion sicher fußt?
Unvollständige, redundante oder fehlerhafte Daten verursachen Kosten. Wer jedoch mit einem unternehmensweiten Datenqualitätsmanagement dafür sorgt, dass Mitarbeiter Stamm- und Bewegungsdaten durchgängig sauber generieren und fehlerfrei verwalten, sichert nicht nur seine Wettbewerbsfähigkeit. Er ebnet zugleich den Weg für effiziente Daten-Auswertungen und Mehrwert-Services. Der Ansatz „Clean Data“ bildet das Fundament für einen korrekten Datenbestand mit hoher Datenqualität und ist damit auch Voraussetzung für die smarte Fabrik. Hier wird bereits deutlich, dass dieses Fundament eben nicht wie bei einem Gebäude einmal gelegt und auf ewig unangetastet bleiben kann.
Clean Data als strategisches Ziel
Vielmehr ist es unerlässlich, dass kontinuierlich ein Bewusstsein für das Thema Datenqualität und Daten als Unternehmens-DNA auf allen Ebenen geschaffen wird. Erst, wenn das Management sich darüber im Klaren ist, dass Business Intelligence ohne Clean Data nicht funktioniert, kann es das strategische Ziel der sauberen Datenhaltung erfolgreich ins Unternehmen tragen. Die Treffsicherheit fundierter Entscheidungen steigt mit der Prüfung und Qualitätssicherung von Daten aus unterschiedlichen Quellen und der Bereitstellung über Vertriebscockpits, Dashboards und Reports.
Wie lässt sich Datenqualität (DQ) messen?
In einem Datencheck erstellen beispielsweise ERP-Hersteller wie Proalpha einen Report, der dem Kunden DQ-Kennzahlen für bereitgestellte Daten dokumentiert und Hinweise für Verbesserungen gibt. Am Anfang eines jeden DQ-Projektes sollten die Verantwortlichen außerdem die zur Verfügung stehenden Datenbestände anhand gezielter Fragestellungen durchgehen.
Um die Mitarbeiter zusätzlich für das Potenzial einer hohen Datenqualität zu sensibilisieren, hilft es, konkrete Zielsetzungen für das Daten-Qualitätsmanagement zu formulieren. Etwa die Verbesserung der Transparenz und Entscheidungsfindung im Unternehmen oder eine Stabilisierung der Kundenbeziehungen. Auch den Lagermitarbeitern muss bewusst sein, welche Auswirkungen vermeintlich kleine Ungenauigkeiten bei der Datenerfassung auf die Kosten haben. Business Intelligence beginnt bereits auf der Ebene der operativen Logistiker und zieht sich durch das gesamte Unternehmen.
Für eine umfassende Beurteilung der vorhandenen Datenbestände ist es wesentlich, dass nicht nur die IT-Abteilung eines Unternehmens eine Analyse durchführt. Auch die jeweilige Fachabteilung, in denen die Daten entstehen und genutzt werden, sollten in die Erstellung der Analysen eingebunden sein. Denn die täglichen Anwender kennen ihre Daten und haben eine besondere Sicht auf sie.
Vor dem Migrationsprojekt
Spätestens wenn gewünschte Kennzahlen umgesetzt oder eine Migration vorbereitet wird, ist eine Datenbereinigung angezeigt. Dazu ist das Wissen um die tatsächliche Datenqualität ein entscheidender Ausgangspunkt. Um diesen Ist-Zustand zu erfassen und abzubilden, gibt es geeignete Analysetools und -verfahren. Mit Ihnen können die Verantwortlichen mit einem überschaubaren Aufwand die vorliegenden Probleme identifizieren und die Fehlerhäufigkeit benennen. Typischerweise kommen dadurch redundante Stammdaten, unvollständige Datensätze und fehlerhaft erfasste Daten an die Oberfläche. Auch Widersprüche zwischen verschiedenen Datenbeständen fallen nun auf.
Vor einer Datenmigration ist beispielsweise eine Kompatibilitätsanalyse für die Struktur des neuen Systems wesentlich. So lassen sich Inkompatibilitäten in Formaten und Wertelängen früh erkennen und Informationen ergänzen oder Datenobjekte bestimmen, die nicht mehr in das neue System übernommen werden müssen. Nun am Ende dieses Analyseprozesses liegt wie oben bereits erwähnt der am Bedarf orientierte Report vor, der DQ-Kennzahlen dokumentiert und Hinweise für eine Verbesserung der Datenqualität gibt. Ein solcher Report beinhaltet unter anderem fehlerhafte Einträge wie Dubletten, Schreibweisen, Formatinkonsistenzen und Plausibilitätsprüfungen.
Der Report ist ein wichtiger Indikator für ein Datenqualitätsprojekt. Auf seiner Basis können Regeln ausgearbeitet werden, die klare Richtlinien vorgeben. Welche Daten sind relevant und wie hat ein sauberer sowie vollständiger Datensatz auszusehen?
Ein unternehmensweites Glossar sollte den Inhalt und die Metrik der Dateninhalte beschreiben und für alle Mitarbeiter nachvollziehbar machen. Mit diesen Merkmalen ist es möglich, den Datenbestand zu bewerten und festzulegen, was mit fehler- oder lückenhaften Daten geschehen soll.
Datenqualität: Ein Praxisbeispiel
Die Ringele AG ist ein Schweizer Systemlieferant von Lösungen in Blech, der insbesondere nach Deutschland, Österreich und in die Schweiz liefert. Für die jeweilige Schlussbaugruppe sind die komplexen Systeme von strategischer Bedeutung – sei es als glänzende Front an einer exklusiven Kaffeemaschine oder beim Sterilisationsbehälter im Krankenhaus, der regulatorischen Vorgaben gerecht werden muss.
Damit die Datenqualität – von Grunddaten über Preise und Bearbeitungszeiten bis hin zu Mitarbeitermeldungen – stimmt, nutzt die Ringele AG eine ERP-Lösung von Proalpha. Urs Leuenberger, Mitinhaber und verantwortlich für die Gesamtlogistik bei Ringele, kommentiert: „ERP ist bei uns an oberster Stelle im Management angesiedelt, weil es der Lebensnerv für unser Geschäft ist. Daher arbeiten wir mit verbindlichen Standards für alle Datentypen und Bereiche, die wir kontinuierlich weiterentwickeln. Diese können nur die Standardverantwortlichen erstellen und freigeben. Die Mitarbeiter, die Daten eingeben, schulen wir entsprechend.“
Alle vier Jahre nimmt Ringele den Versionswechsel des ERP-Systems zum Anlass, die Daten gründlich zu bereinigen. Ziel ist, die Lösung so schlank wie möglich zu halten. Der Proalpha-Migrationsmanager hilft dabei, die Stamm- und Bewegungsdaten zu korrigieren und fehlerfrei zu übernehmen. „Im Vergleich zur letzten Migration konnten wir unsere aktiven Artikel durch systematische Archivierung von rund 70.000 auf 20.000 reduzieren. Das spart enorm viel Zeit bei der Suche“, erklärt Leuenberger.
Resümee
Das Beispiel zeigt: Mit einem einmaligen Datentuning ist es nicht getan. Denn sowohl Stamm- als auch Bewegungsdaten ändern sich kontinuierlich. Das beginnt bei Serien- und Chargennummern von Teilen und endet bei Angebots- und Bestellinformationen. Auch die Kommunikationskanäle der Kunden verändern sich laufend und neue Ansprechwege kommen hinzu. Die entscheidenden kontinuierlichen Fragestellungen sind: Wie lässt sich Datenqualität langfristig sicherstellen? Was ist für unsere Produktion ein guter Datensatz und wo müssen wir qualitativ nacharbeiten?
Zum Datenmanagement stellt Proalpha kostenfrei eine Checkliste mit den rund 30 häufigsten Fragen für saubere Daten bereit, die eine kompakte Übersicht zum diesem Thema vermitteln.
Der Autor Gunnar Schug ist Managing Director der Business Unit Advanced Analytics bei Proalpha.
Lesen Sie auch: Industrielle Produktentwicklung und HPC: Die große Expertenumfrage
Teilen Sie die Meldung „Datenqualität: Datenbereinigung für die intelligente Produktion“ mit Ihren Kontakten: