Neue Disziplin im PLM-System: Data Science & Engineering

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Neue Disziplin im PLM-System: Data Science & Engineering

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
Digitalisierung birgt große Geschäftspotenziale durch die zielgerichtete Nutzung von Daten. Jedoch erfordert die Erstellung von Vorhersagemodellen im industriellen Umfeld viel Erfahrung und ein systematisches Vorgehen. Fehler können gravierende Auswirkungen haben. Abhilfe schafft ­ Data Science & Engineering – als eigenständige Disziplin im PLM.
PLM-System

Digitalisierung verändert unsere Lebens- und Arbeitswelt in großen Schritten. Die zunehmende Verfügbarkeit von Daten, in Verbindung mit wachsenden Speicher­kapazitäten und Rechenleistung, ermöglicht daten­basierte Produkte und Lösungen. Diese schaffen Transparenz über operative Abläufe und generieren einen erheblichen Mehrwert für Unternehmen. Eine erfolgreiche Implementierung von einem solchen PLM-System erfordert eine systematische Vorgehensweise bei der Datenerhebung und -analyse. Dies wird jedoch von heutigen PLM-Prozessen selten abgedeckt.

PLM-System: Hohe Anforderung an die Zuverlässigkeit

Motiviert von beeindruckenden Ergebnissen in einzelnen Anwendungsfeldern, zum Beispiel Hautkrebsscreening, Sprach­erkennung oder autonomes Fahren, vertraut man derzeit in vielen Unternehmen auf die Leistungsfähigkeit moderner Daten­analyse-Technologien. Dabei stützt man sich nicht selten auf Daten, die „gerade verfügbar“ sind und missachtet, dass die Daten selbst der entscheidende Schlüssel zum Erfolg sind. Sie müssen geeignet sein, die zu beurteilende ­Situation maßgeblich zu beschreiben, und der Umfang und die Signifikanz der Daten müssen ausreichen, um den hohen Anforderungen im industriellen Umfeld bezüglich der Zuverlässigkeit und Präzision gerecht zu werden.

Die spezifische Herausforderung bei der Entwicklung digitaler Produkte und Lösungen liegt also nicht nur in der Anwendung der Datenanalyse-Technologien, sondern beginnt bereits in der Phase der Produktdefinition und lässt sich nur in enger Zusammen­arbeit mit Systemingenieuren und Domänen-Experten meistern. Führt man sich zudem vor Augen, dass datenbasierte Vorhersagemodelle auch nicht im herkömmlichen Sinne testbar sind, da ein solcher Test wiederum auf Datenanalysen basiert, dann wird es umso deutlicher, dass es einer systematischen Vorgehensweise bedarf. Erst dadurch können erfolgversprechende digi­tale Produkte und Lösungen die in sie gesteckten Erwartungen erfüllen.

Was uns die Geschichte lehrt

Noch in den 1970er Jahren wurden Softwarekomponenten industrieller Produkte typischerweise von Hardware-Ingenieuren anhand der gängigen Prozesse entwickelt. Als dann in den 1980ern Jahren die Softwarefunktionalität deutlich zunahm, scheiterten viele dieser Projekte oder überstiegen wesentlich ihre Budget- und Zeitrahmen. Ein Weckruf war das Gepäck­automatisierungssystem des neuen inter­nationalen Flughafens in Denver. Die enormen Probleme mit der Steuerungssoftware führten zu einer Verzögerung der Inbetriebnahme des ansonsten fertigen Flughafens um 16 Monate, bis man ihn schließlich 1995 mit eingeschränkter Funktionalität eröffnen konnte.

In dieser Zeit reifte das Bewusstsein, dass die Entwicklung qualitativ hochwertiger Software auch entsprechende Prozesse, ­Methoden und Qualifikationen erfordert. Das Erstellen von Software entwickelte sich in dieser Zeit zu einer eigenständigen Engineering-Disziplin, geleitet von der gleichen Professionalität wie in den etab­lierten Branchen des Maschinenbaus, der Elektrotechnik und des Bauingenieurwesens.

Ähnliche Situation bei digitalen Produkten

Heute erleben wir eine ähnliche Situation bei der Entwicklung digitaler Produkte und Lösungen. Im Kern verarbeiten diese Systeme eine große Menge Daten, um basierend auf Vorhersage­modellen einen Mehrwert zu schaffen. Diese Modelle werden in Software implementiert, was eine Realisierung im Rahmen der Software-Disziplin – unter Anwendung spezifischer Datenanalyse-Technologien – zunächst naheliegend erscheinen lässt.

Der Blick in die Geschichte zeigt jedoch, dass eine erfolgreiche Entwicklung – neben der Wahl adäquater Technologien – stark auf dem Einsatz geeigneter Prozesse, Methoden und Qualifikationen beruht. Daher ist es sinnvoll, eine Engineering-Disziplin im Produktlebenszyklus zu etablieren, die den spezifischen Herausforderungen der Entwicklung digitaler Produkte und Lösungen gerecht wird.

PLM-System
Abbildung 1: Integration von Data Science & Engineering in den PLM-Prozess. Bild: Siemens Advanta Consulting

Kein vollumfängliches Framework

In den vergangenen Jahrzehnten hat man im industriellen und wissenschaftlichen Umfeld zahlreiche Methoden entwickelt, um spezielle Fragestellungen im Zusammenhang mit der Verarbeitung und Analyse von Daten zu adressieren. Weit verbreitet sind beispielsweise Six Sigma, CRISP-DM, JDM Standard, DMM-Modell des CMMI und KDD-Prozess. Alle diese ­Ansätze beschreiben wichtige Prinzipien und leisten damit einen wertvollen Beitrag für den Umgang mit Daten. Keine dieser Methoden stellt jedoch ein vollumfängliches Framework dar, das sämtliche Aufgaben, Tätigkeiten und Verantwortlichkeiten beschreibt, die zur Entwicklung digitaler Produkte und Lösungen notwendig sind.

Neue Disziplin im PLM-System

Siemens Advanta hat die bestehenden Ansätze als wertvollen Input genutzt und ein solches Framework für die neue Disziplin Data Science & Engineering im PLM-System aufgebaut. Das Framework und seine Integration in das PLM-System ist in Abbildung 1 skizziert. Es bietet eine strukturierte Zusammenstellung von Best Practices zur Erfassung, Verarbeitung und Auswertung von Daten, und beschreibt die spezifischen Rollen, Fähigkeiten, Aufgaben, Tätigkeiten, Methoden, Technologien und Tools, die für die Entwicklung digitaler Produkte und Lösungen notwendig sind.

Die Disziplin „Data Science & Engineering“ adressiert die spezifischen Herausforderungen der Entwicklung digitaler Produkte und Lösungen. Stärker noch als bei den etablierten Engineering-Disziplinen, werden die Artefakte von Data Science & Engineering in einem iterativen, zyklischen Vorgehen entwickelt. Die Aufgaben und Tätigkeiten lassen sich in sechs Workflows mit unterschiedlicher Zielsetzung strukturieren (siehe Abbildung 2). Diese werden parallel im Produktlebenszyklus bearbeitet – jedoch mit unterschiedlicher Intensität in den einzelnen Phasen des PLM-Prozesses.

PLM-System
Abbildung 2: Die sechs Workflows für Data Science & Engineering im Detail. Bild: Siemens Advanta Consulting

Die kommenden Jahre werden geprägt sein von einer neuen Generation digitaler Produkte und Lösungen, bei deren Entwicklung völlig neue Herausforderungen zu meistern sind. Dabei stehen neben technologischen Anforderungen auch grundsätzliche Fragen bezüglich Machbarkeit, Zuverlässigkeit und Risiken der Datenauswertung im Mittelpunkt. Die Verantwortlichen in der frühen Phase der Produktentstehung haben weder die Erfahrung noch die Systematik, um die Realisierbarkeit konkreter Anforderungen und Erwartungen der Kunden einschätzen zu können. Ein professionelles Data Science & Engineering ist deshalb entscheidend für die Vermeidung von teuren Fehlentwicklungen.

Die Autoren Dr. Peter Louis, Dr. Ralf Russ und Rainer Blessing sind Experten für PLM bei Siemens Advanta und unterstützen Unternehmen bei der digitalen Transformation.

Lesen Sie auch: Fertigungsstrategie: Verpackungsmaschinen mit CAM-Softwares

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Wer stundenlang am Rechner sitzt oder viele SMS/Whatsapps tippt, verspannt sich den Nacken und manchmal sogar den Daumen. Saarbrücker Informatiker von der Universität des Saarlandes haben ein Verfahren entwickelt, das naturgetreu simuliert, welche Muskeln und Gelenke von IT-Geräten besonders beansprucht werden. Zugleich zeigt es, wie schnell und präzise ein Nutzer ein Gerät bedienen kann.

Top Jobs

Redaktionsbrief

Tragen Sie sich zu unserem Redaktions-Newsletter ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: App SIMATIC Robot Integrator VON SIEMENS

Roboter schnell und einfach integrieren

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.