04.08.2016 – Kategorie: Fertigung & Prototyping, Hardware & IT

Industrial Analytics: Big Data wird in der industriellen Fertigung zunehmend wichtiger

bigdata

Durch die intelligente Vernetzung von Maschinen entlang der gesamten Produktionskette entstehen in der Fertigungsindustrie immer größere Datenmengen. Für Unternehmen bergen diese Daten ein immenses Potenzial zur Optimierung der eigenen Produktionsprozesse – man muss sie allerdings zu händeln wissen. Um aus Big Data Smart Data zu machen und das Beste aus den Daten herauszuholen, sind fachkundige Dienstleister gefragt.

 Durch die intelligente Vernetzung von Maschinen entlang der gesamten Produktionskette entstehen in der Fertigungsindustrie immer größere Datenmengen. Für Unternehmen bergen diese Daten ein immenses Potenzial zur Optimierung der eigenen Produktionsprozesse – man muss sie allerdings zu händeln wissen. Um aus Big Data Smart Data zu machen und das Beste aus den Daten herauszuholen, sind fachkundige Dienstleister gefragt.

Ein geflügeltes Wort wird zur Gewissheit: Daten sind die Rohstoffe des 21. Jahrhunderts. Aber wie jeder Rohstoff entfalten sie ihren vollen Wert erst, wenn sie fachmännisch verarbeitet werden. Das gilt auch für die Produktionsindustrie: Längst sind nahezu alle Maschinen mit intelligenten Sensoren und IT-Komponenten ausgestattet und liefern kontinuierlich präziseste telemetrische Daten – aber nur die wenigsten Unternehmen wissen bislang mit diesem Rohstoff etwas anzufangen. Denn die Datenmengen sind inzwischen nicht nur unüberschaubar groß, sondern auch völlig heterogen: So werden in der industriellen Fertigung zum Beispiel Temperatur, Stromverbrauch und Druck gemessen, Leistungsdaten von Motoren und Dicken von Lackschichten erfasst. Hinzu kommen die Log-Dateien der jeweiligen Fertigungskomponenten zu anderen Maschinen in der Prozesskette und Umgebungsdaten wie Luftfeuchtigkeit und Raumtemperatur.

Big Data als Entscheidungsgrundlage zur Prozessoptimierung

Unternehmen, die diese Daten systematisch auszulesen wissen, verschaffen sich damit entscheidende Marktvorteile: Sie erhalten valide Entscheidungsgrundlagen zur Optimierung ihrer Fertigungsprozesse und können die Produktivität in ihren Werken immens steigern – zum Beispiel, indem sie ihre Arbeitsprozesse an die Umgebungstemperatur anpassen, da durch eine Analyse der Daten ein Effekt auf das Produkt festgestellt wurde. Oder indem sie die optimale Lackdicke von Karosserieteilen berechnen, die eine möglichst niedrige Fehleranfälligkeit und zugleich einen möglichst geringen Lackverbrauch aufweist.

Mitunter entstehen für Unternehmen aus dem systematischen Auslesen von Daten sogar neue Geschäftsmodelle. So könnte ein Automobilhersteller die in seinen Fahrzeugen verbauten Wettersensoren beispielsweise nutzen, um einen eigenen Wetterdienst ins Leben zu rufen. Allerdings liegt das große Potenzial der fast beiläufig erhobenen Messwerte in vielen Industrieunternehmen bislang einfach brach: Sie sammeln alle anfallenden Daten gleich welchen Typs in einem zentralen Data Lake, ohne sie sinnvoll aufzubereiten. Doch erst mithilfe entsprechender Data-Analytics-Methoden entsteht aus Big Data ein wirklicher Mehrwert.

Der Reifegrad der Data-Analytics-Technologie ist in den letzten Jahren sprunghaft gestiegen: Noch vor wenigen Jahren konnte man Messdaten in der Fertigung allenfalls im Nachhinein betrachten und rückblickend beschreiben, dass ein Fehler passiert oder eine Maschine ausgefallen war – Descriptive Analytics nennt sich dieses Verfahren. Durch die Kombination verschiedener Messwerte ließ sich schließlich auch eruieren, warum eine Maschine ausgefallen ist, zum Beispiel weil der Schwellenwert für die Temperatur einer bestimmten Maschine überschritten wurde. Man spricht hier von Diagnostic Analytics.

 

(Bildquelle: Freudenberg IT / Pierre Audoin Consultants)

 

Inzwischen sind allerdings selbst so genannte Predictive Analytics möglich: vorhersagende Analysen, die die anfallenden Daten nicht mehr rückblickend betrachten, sondern bereits zum Zeitpunkt ihrer Erhebung Vorhersagen für die Zukunft treffen: Wann wird diese Maschine ausfallen? Wann muss ich sie warten, damit eben das nicht passiert? Die Königsklasse der Data Analytics sind schließlich Prescriptive Analytics: Dabei wird nicht nur analysiert, was in Zukunft passieren wird, sondern der Maschine auch direkt konkrete Lösungsvorschläge gegeben, so dass sie autonom entscheidet, was als nächstes passieren soll.

Immense Kosteneinsparungen durch Predictive Maintenance

Solche präskriptiven Verfahren sind zum jetzigen Zeitpunkt in der Fertigung freilich noch weitestgehend Zukunftsmusik. An der Vorstufe, den Predictive Analytics, führt inzwischen aber kein Weg mehr vorbei. Mit ihrer Hilfe können Industrieunternehmen Predictive Maintenance betreiben, sprich: ihre Maschinen vorausschauend warten, und zwar genau dann, wenn es auch nötig ist. Durch speziell programmierte Logarithmen, die über die entstehenden Daten gelegt werden, lässt sich exakt berechnen, wann der Verschleiß einer Maschine so hoch ist, dass bestimmte Komponenten ausgetauscht werden müssen.

Durch dieses Verfahren müssen Maschinen nicht mehr auf Verdacht gewartet werden, sondern haben mitunter sogar längere Laufzeiten als vermutet. Und statt während bestimmter Wartungsfenster ein ganzes Werk stilllegen zu müssen, kann jede einzelne Maschine bedarfsgenau gewartet werden. Die Kosteneinsparungen durch Predictive Maintenance sind enorm: Wenn durch das neue Verfahren allein ein Prozent Verbesserung erreicht wird, liegen die Einsparungen bei einem Automobilhersteller mit mehreren Fertigungswerken beispielsweise bereits bei einem mittleren einstelligen Millionenbetrag.

Es liegt auf der Hand, dass Industrieunternehmen sich dieses Optimierungspotenzial nicht entgehen lassen sollten. Allerdings birgt das Thema durchaus einige Herausforderungen. So ist es mit dem Sammeln der Daten nicht einfach getan. Vielmehr gilt es genau hinzuschauen, welche Daten überhaupt benötigt werden, um eine solide Entscheidungsgrundlage zu schaffen. Oft werden in einem Fertigungswerk mehrere Hundert verschiedene Messwerte und Businessdaten automatisiert erhoben, von denen letztlich nur ein Sub-Set von vielleicht zwanzig Datensätzen überhaupt benötigt würde, um die angedachte Aufgabenstellung zu bewältigen. Sie sinnvoll auszuwählen und zusammenzuführen, ist der wohl erfolgskritischste Punkt im Predictive-Maintenance-Umfeld und sollte deshalb Aufgabe eines ausgewiesenen Data-Science-Experten sein.

Wahl des passenden Analytics-Tool erfordert hohe Fachkenntnis

Eine weitere nicht zu unterschätzende Herausforderung ist die Wahl des richtigen Analytics-Tools, mit dem die erhobenen Daten ausgewertet werden sollen. Denn die Tool-Landschaft wird von Tag zu Tag größer und die verschiedensten Anbieter stellen inzwischen Lösungen bereit, die sich in Reifegrad und Usability allerdings noch sehr stark unterscheiden. Einsteiger in das Big-Data-Thema brauchen eine anwenderfreundliche Out-of-the-box-Lösung, Unternehmen, die schon tiefer im Thema stecken, suchen vielleicht eher nach einem Tool-Set, das sie präzise an ihre Use-Cases anpassen können. In beiden Fällen darf auch die Infrastruktur im Unternehmen nicht vergessen werden: Viele Analytics Tools wie Microsoft Azure und IBM Watson Analytics sind nämlich Cloud-Lösungen – und gerade in der Automobilindustrie, aber auch in anderen Branchen sind nicht in allen Werken die entsprechenden Voraussetzungen für einen reibungslosen Cloud-Betrieb gegeben, sondern die Daten müssen vor Ort ausgelesen werden. Die richtige Software zu finden, erfordert also eine gute Marktkenntnis.

Vor dem Hintergrund dieser Herausforderungen ist es für Fertigungsunternehmen, die mehr aus ihren Daten machen wollen, unverzichtbar, auf das Know-how eines versierten Dienstleisters zu setzen. Denn nur mit Big-Data-Fachwissen, Branchenkompetenz und dem richtigen Projektansatz lässt sich das Beste aus den Möglichkeiten von Industrial Analytics herausholen. Die Zusammenarbeit sollte in jedem Fall mit einem allgemeinen Anforderungsworkshop starten, um zunächst einmal die genaue Fragestellung herauszuarbeiten, die mithilfe von systematischen Datenanalysen beantwortet werden soll.

Durch die gemeinsame Evaluierung mit dem Kunden können sinnvolle Lösungsansätze identifiziert werden. Statt für teures Geld beispielsweise eine umfassende Predictive-Maintenance-Lösung für eine Maschine zu entwickeln, deren Ausfall keine sonderlich hohen Kosten verursacht, gilt es so genannte Quick-Wins zu finden: schnell umsetzbare Lösungen mit möglichst hohem Optimierungspotenzial für den laufenden Betrieb.

Strukturierter Projektansatz inklusive Lifecycle-Management ist gefragt

Ist die Aufgabenstellung bzw. der jeweilige Use Case präzise umrissen, geht es in die Explorationsphase: Hier analysiert der Dienstleister, welche Daten überhaupt vorliegen und welche benötigt werden. In einer anschließenden Evaluationsphase muss dann noch einmal kritisch überprüft werden, ob die ausgewählten Daten tatsächlich valide sind und die gewünschten Ergebnisse bringen. Erst wenn das sichergestellt ist, geht es in die Deploymentphase, bei der die passenden Tools aufgesetzt und angepasst werden. Wichtig ist in diesem Zusammenhang, dass der Dienstleister einen lösungs- und herstellerunabhängigen Ansatz verfolgt, um eine unabhängige Beratung sicherzustellen und Daten zu schöpfen.

Autoren: Oliver Bischoff & Frank Oltmanns-Mack, Competence Team Industrial Solutions von Cancom Didas

(jm)


Teilen Sie die Meldung „Industrial Analytics: Big Data wird in der industriellen Fertigung zunehmend wichtiger“ mit Ihren Kontakten:

Zugehörige Themen:

Big Data, Digitale Fabrik

Scroll to Top