17.01.2022 – Kategorie: Hardware & IT

Machine-Learning-Modelle: Wie Prozessentwicklung ohne Data-Science-Experten funktioniert

Machine-Learning-ModelleQuelle: Weidmüller

Digitalisierung und Datenanalyse sind als Themen in der Industrie angekommen und die Menge an gesammelten Daten nimmt kontinuierlich zu. Bisher wird davon allerdings nur ein Bruchteil gezielt ausgewertet, zumal oft das Expertenwissen fehlt. Ein neues Tool von Weidmüller befähigt Unternehmen, Machine-Learning-Modelle einzig auf Basis des Domänenwissens zu erzeugen.

Machine-Learning-Modelle: Ziel der Datenanalyse ist es, die Qualität von Produkten zu verbessern, Prozessabläufe zu optimieren oder den Zustand der Maschine kontinuierlich zu überwachen. Dabei beschreiben die gewonnenen Produktdaten die Informationen rund um das Produkt, während die Prozessdaten den Fertigungsverlauf beschreiben.

Machine-Learning-Modelle: Mehrwert für Unternehmen

Erfolgreich werden zukünftig Unternehmen sein, denen es gelingt, Mehrwert aus diesen Daten zu generieren. Ein Mehrwert der Datenanalyse erschließt sich beispielsweise bei der zustandsbasierten Wartung. Vereinfacht ausgedrückt meldet die Maschine selbständig, wann voraussichtlich ein kritischer Verschleißzustand erreicht wird. So können Maschinenbauer und Anlagenbetreiber zukünftig neue, datengetriebene Services anbieten, während produzierende Unternehmen ihre Produktqualität erhöhen und Kosten reduzieren.

Aber wie lassen sich bisher unerschlossene Daten verknüpfen und unbekannte Zusammenhänge identifizieren? Und wie können Unternehmen dafür eigenständig die Methoden des Machine Learning (ML) nutzen?

Der klassische Weg ist kompliziert

Die schlechte Nachricht vorweg: die Erstellung von ML-Modellen ist in der Regel zeitaufwändig und kostenintensiv in der Umsetzung. Denn bei der klassischen Herangehensweise ist ein komplexer und manueller Prozess zu durchlaufen, der über verschiedene Prozessschritte zum ML-Modell führt. Zur Anwendung ist allerdings tiefgreifendes Wissen im Bereich Data Science notwendig. Darüber hinaus muss der Data Scientist immer noch mit dem Applikationsexperten sprechen, um die gefundenen Zusammenhänge in den Daten ingenieurmäßig bezüglich des Maschinenverhaltens oder des Produktionsprozesses zu interpretieren. Zudem werden die Möglichkeiten des ML mit dem immer breiter werdenden Spektrum größer – das macht es nicht gerade einfacher, ohne spezifische Data-Science-Kenntnisse die bestmögliche Erstellung und Implementierung sowie die operative Anwendung von ML zu erreichen.

Machine-Learning-Modelle eigenständig erstellen

Und nun die gute Nachricht: Mit dem Industrial Auto-ML-Tool befähigt Weidmüller die Domänenexperten auf Basis ihres Applikationswissens eigenständig ML-Modelle zu erstellen und so die gesammelten Daten in einen Mehrwert zu überführen – und zwar ohne eigene Experten im Bereich Data Science. Bei dem Softwaretool werden die notwendigen Schritte zur Erstellung von ML-Modellen für verschiedenste ML-Algorithmen automatisiert durchlaufen. Anschließend wird automatisch bestimmt, welche Machine-Learning-Modelle relevante Maschinenzustände oder Prozesskriterien am robustesten Erkennen. Die ML-Automatisierung betrifft dabei vor allem folgende Schritte: Datenimport, Datenanreicherung, automatisierte Modellerstellung und Modell-Deployment.

Machine-Learning-Modelle
Der mit dem Applikationswissen angereicherte Datensatz ist die Eingangsgröße für das anschließende, automatisierte Generieren der ML-Modelle. Bild: Weidmüller

Für die eigenständige, einfache Ausarbeitung von ML-Modellen führt das Software-Tool den Anwender durch den Prozess der Modellentwicklung, weshalb Weidmüller hier auch von „Guided Analytics“ spricht. Die Software hilft bei der Übersetzung und Archivierung des komplexen Applikationswissens in eine verlässliche ML-Anwendung. Dabei fokussiert sich der Experte auf sein Wissen zum Maschinen- und Prozessverhalten und verknüpft dieses mit den im Hintergrund ablaufenden ML-Schritten. Durch diese ML-Automatisierung ergibt sich eine hohe Zeitersparnis für die Erstellung und den Vergleich von Modellen und Ergebnissen, die Time-to-Market wird verkürzt. Gleichzeitig profitiert der Nutzer auch von den jeweils jüngsten Entwicklungen aus dem ML-Umfeld, die kontinuierlich in das Tool einfließen. Vor allem aber bietet das Tool einen entscheidenden Vorteil: die Analyse der Daten, die in der Regel vom einem Data Scientisten eines externen Partners oder aus dem eigenen Unternehmen durchgeführt werden muss, liefert das Tool. Es wird „lediglich“ gefüttert mit dem Applikations-Knowhow des Experten.

Mit anderen Worten: das Knowhow über die Maschine und deren Anwendung fließt unmittelbar in die Modellbildung ein. Die Hoheit über Daten und Modelle bleibt im eigenen Unternehmen. Für die einfache Anwendung des Industrial Auto-ML-Tools spricht auch, dass der Nutzer die Ergebnisse aus dem Algorithmus gut nachvollziehen kann, denn es ist keine Blackbox, die scheinbar willkürliche Ergebnisse ausspuckt, sondern gibt Feedback zur Relevanz der ausgewählten Features. So lassen sich die Modelle und damit die Ergebnisse über die Zeit durch neuen Input weiter optimieren, beispielsweise das Hinzufügen neuer Annotationen (Modellweiterentwicklung). Die Symbiose aus Fachexpertise zur Maschine und Data Science Knowhow – die das Tool mitbringt – liefert so schnell und einfach Ergebnisse. Ohne Schulung. Ohne Zukauf von Knowhow.

ML-Modelle mit dem Model-Builder erstellen

Für den Anwender stellt die Software zwei Module zur Verfügung: Mit dem Auto-ML-Model-Builder kann der Domänenexperte Machine-Learning-Modelle zur Anomalieerkennung und Klassifikation erzeugen. Entscheidend hierbei ist das Wissen der Applikationsexperten, denn sie haben die Erfahrung, wie das reguläre oder das anormale Verhalten ihrer Maschinen aussieht. Die Experten erkennen direkt in der Darstellung der Daten Abweichungen vom “normalen” Verhalten, können diese detektieren und labeln und so für die Modellbildung anreichern. Der so angereicherte Datensatz ist die Eingangsgröße für das anschließende, automatisierte Generieren der ML-Modelle. Dem Anwender werden mehrere Modelle vorgeschlagen, die auf unterschiedlichen Algorithmen und Werteparametern beruhen.

Ziel ist es, im Optimierungsraum der ML-Möglichkeiten, automatisiert die vielversprechendsten Pipelines und Modelle zu finden, etwa durch unterschiedliche Kombinationen von Features und Auswahl der passenden Algorithmen und Optimierung von deren Hyperparametern. Dazu fragt die Software an dezidierten Stellen das Wissen der Domainexperten ab und bringt es als Input für die Modellbildung mit ein. Am Ende wählt der Nutzer das für seine Applikation am besten geeignete ML-Modell nach bestimmten Kriterien aus. Es kann exportiert und in die Ausführungsumgebung überführt werden (Deployment).

Machine-Learning-Modelle mit der Model-Runtime ausführen

Sind die Modelle ausgewählt, folgt die Ausführung. Dies kann an der Maschine on premise oder in der Cloud passieren. In der Auto-ML-Model-Runtime, also der Laufzeitumgebung, konfigurieren, betreiben und bewerten Anwender die eigenen ML-Modelle. Die Model-Runtime basiert auf Docker Containern, in denen die wesentlichen Elemente zur Ausführung der ML-Modelle miteinander verbunden werden: Definition der Maschinen, Anbindung der Datenquellen, auszuführende Modelle, Konfiguration der Modellausführung. Die erstellten ML-Modelle werden importiert und der jeweiligen Maschine zugeordnet. Die Konfiguration der Model-Runtime erfolgt mithilfe der bereitgestellten Schnittstellen. Die Modellresultate werden ebenfalls über definierte Schnittstellen zur Verfügung gestellt und können so in den betrieblichen Ablauf einfließen, etwa zum Auslösen von Meldungen über den jeweiligen Maschinenzustand.

Die Autorin Dipl.-Ing. Silke Lödige ist Referentin Fachpresse bei der Weidmüller Interface GmbH & Co. KG.

Lesen Sie auch: Embedded Machine Learning: Welche Rolle spielt die Cloud noch?


Teilen Sie die Meldung „Machine-Learning-Modelle: Wie Prozessentwicklung ohne Data-Science-Experten funktioniert“ mit Ihren Kontakten:


Scroll to Top