20 Jahre Digital Engineering: Wir fragen in unsere Branchen - was war, was ist und sein wird

Nicht nur das Digital Engineering Magazin hat sich in den letzten 20 Jahren verändert und weiterentwickelt, auch die Branchen, über die wir berichten. Wir haben einige Begleiter befragt, was sich getan hat und wohin die Reise geht.

Google steckte in den Kinderschuhen, Helmut Kohl übergab die Kanzlerschaft an Gerhardt Schröder und wir bezahlten noch mit der D-Mark. Aber nicht nur wir und die Welt haben sich in den letzten 20 Jahren weitentwickelt, sondern auch die Branchen, über die wir berichten. Ein großer Teil des Wandels geht neben welt- sowie klimapolitischen Ereignissen und Veränderungen sicher auf das Konto sich stark weiterentwickelnder Computertechnik und Vernetzung.

Die Computertechnik

Dell brachte 1997 seine erste Precision Workstation für Ingenieure heraus. „Mit einer nach heutigen Maßstäben überschaubaren Leistungsfähigkeit und einem stolzen Preis von 12.000 US-Dollar blieb der erste Erfolg zunächst aus“, wie Peter Beck, Field Product Marketing Manager Workstation & Rugged bei Dell, heute zugibt. Die erste Generation war noch mit magerem Pentium-2-Prozessor ausgestattet.

Zur Ehrenrettung muss man sagen, dass Dell schnell nachgelegt hat. Bereits im Jahr 2000 kam mit der Precision 220 eine robuste Dual-Prozessor-Workstation mit zwei Pentium-III-Prozessoren heraus. Und: „Innerhalb der vergangenen 21 Jahre hat sich allerdings einiges getan. Die neuesten Tower-Workstations rechnen 32.000-mal schneller als damals, bringen 2.800-mal mehr Grafikleistung und kosten nur einen Bruchteil der ersten Workstation”, wie Peter Beck ergänzt.

Was sich natürlich auch verändert hat, sind die Vernetzungsarchitekturen der Rechner untereinander, wie Matthias Roese, Chief Technologist, Manufacturing, Automotive & IoT bei Hewlett Packard Enterprise, ausführt: „Auf das Client-Server-Zeitalter folgte das Zeitalter der Cloud und des Mobile Computing. Das war ein Motor dessen, was wir heute als ‚Digitalisierung‘ bezeichnen.“

Und mit dieser Entwicklung nicht am Ende, stehen wir heute wieder vor einem neuen IT-Zeitalter. Denn Fahrzeuge, Maschinen und Anlagen erzeugen gigantische Datenmengen. Alle zwei Jahre verdoppelt sich die Gesamtdatenmenge auf der Erde. „Das ist ein riesiger Schatz, der unzählige Möglichkeiten birgt, Geschäftsprozesse zu verbessern und neue Geschäftsmodelle zu schaffen“, wie Matthias Roese folgert. „Allerdings wird aktuell nur ein Bruchteil dieser Daten nutzbringend verwertet. Um den Schatz zu heben, brauchen wir neue, dezentrale IT-Architekturen.“ Womit er auf die Idee des Edge Computing anspielt, bei dem die Computer dort stehen, wo die Daten anfallen und wo sie direkt ausgewertet werden können, ohne sie über lange Wege in Rechenzentren zu senden.

Additive Fertigung

Das Thema 3D-Druck nahm in den 90er Jahren zunächst verhalten Fahrt auf. Man sprach noch oft vom Rapid Prototyping, dem auch andere Verfahren zugeordnet waren. „Bei ehrlicher Betrachtung hat sich danach, bis auf etwas Modelpflege und Verfeinerung des eigentlichen Prozesses, bis Ende der 2000er Jahre technisch nicht viel bewegt“, wie Daniel Cohn, Geschäftsführer des weltweit aktiven Fertigungsdienstleisters Protolabs in Deutschland, erläutert. „Erst in den letzten Jahren kommen immer mehr neue Verfahren auf den Markt, die den 3D-Druck insbesondere auf Kosten und Prozessseite noch mit kleinen Schritten Richtung Industrialisierung bewegen.“

Wenn man sich die Anwender- und Technologie-Berichte der letzten Zeit anschaut, scheint tatsächlich der nächste Schritt für den 3D-Druck jener hin zur Industrialisierung zu sein.

„Gerade im Bereich der additiven Fertigung gibt es aktuell immer wieder prägende Neuerungen, sei es die Produktion mit neuen Materialien oder die immer schnellere Produktionsgeschwindigkeit moderner Maschinen“, wie Cohn erklärt. „Dadurch wurden bereits wichtige Branchen wie die Medizintechnik revolutioniert, indem es Ärzten und Chirurgen mithilfe der additiven Fertigung beispielsweise möglich ist, Prothesen und maßgeschneiderte Implantate herzustellen.“

Additive Fertigung hat also für die Zukunft durchaus das Potential, weitere Branchen nachhaltig zu prägen.

Antriebstechnik

Prägend waren die letzten 20 Jahre auch für die Antriebstechnik. Maschinen beispielsweise liefen noch häufig mit einem Hauptantrieb und teils gewagten Riemenkonstruktionen vom Band, um diverse Hilfsachsen im Gleichtakt (oder einer gewissen meist festen Übersetzung) zu bewegen.

Ein Trend, den Patrick Hantschel, Leiter Digitalization Center bei Wittenstein so beschreibt: „Mehr und mehr verringerte sich der Anteil der mechanischen Teile in den Antriebssträngen. Gleichzeitig gewann die Notwendigkeit der elektrischen Vernetzung an Bedeutung.“

Weniger Mechanik bedeutet mehr elektrische Antriebstechnik und da sollte Michael Burghardt, Head of Product Marketing bei Danfoss Drives Deutschland, zu Wort kommen: „Immer mehr Frequenzumrichter kamen auf den Markt. Ein Treiber ist hierbei das große Potential zur Energieeinsparung. Die Vernetzung via Feldbus bis hin zum Einsatz von Industrial Ethernet haben diese Entwicklung weiter verstärkt.“

Aktuell treiben die Antriebstechniker die Themen Industrie 4.0 und die Standardisierung der Kommunikation, beispielsweise mit OPC/UA sowie TSN, voran. „Innerhalb dieses Komplexes hat der Aspekt Security hohe Priorität“, wie Michael Burghardt von Danfoss bemerkt. Da Danfoss selbst Leistungshalbleiter für seine Umrichter herstellt, misst das Unternehmen auch Grundlagenforschung und Detailverbesserungen hohe Bedeutung zu.

Auch Wittenstein arbeitet weiter an der mechanischen Güte und dem Wirkungsgrad seiner Antriebskomponenten – wie das spezielle Konzept des Galaxy-Getriebes zeigt, mit beachtlichen Erfolg. Zudem möchte der Antriebstechniker seine Antriebskomponenten mit Sensoren intelligent ausstaffieren und sieht Plattformen im Kommen. Patrick Hantschel von Wittenstein erklärt das Ziel: „Mit dem aus Daten gewonnenen wertvollen Wissen werden sich neue Services und sogar neue Geschäftsmodelle bilden.“

Automatisierung

„1998 herrschte eine große Verunsicherung über die Zukunft der Automatisierung“, erklärt Thomas Fechner, Senior Vice President Product Area New Business bei der Bosch Rexroth AG. „Große Steuerungsanbieter hatten versucht, proprietäre und teilweise zentrale Systeme zu etablieren.“

Rexroth ist damals gegen den Strom geschwommen und hat auf verteilte Intelligenz und offene Standards gesetzt. „Aus heutiger Sicht die einzig richtige Entscheidung“, glaubt Thomas Fechner. Schon fast radikal klingen seine Ideen zur Fabrik der Zukunft: Alle Maschinen sind demnach mobil und tauschen drahtlos Informationen aus. Sie stellen sich selbstständig auf die zu fertigenden Produkte ein und formieren sich flexibel zu optimierten Fertigungszellen. „Auf dem Weg dorthin werden Themen wie Prozessflexibilisierung, Robotik, künstliche Intelligenz und Datensicherheit stark an Bedeutung gewinnen“, wie er betont.

Eine wirtschaftspolitische Sicht nimmt Frank Maier, Innovationsvorstand (CTO) von Lenze, ein. Für ihn waren die letzten Jahrzehnte geprägt von zwei enormen Wachstumsphasen, unterbrochen „durch eine tiefe Zäsur, die Finanzkrise 2008/09.“ Diese habe gezeigt, dass die Bäume auch in der Automation nicht in den Himmel wachsen. „Die schnelle Erholung danach beweist aber auch, dass der langjährige Trend des stetig steigenden Bedarfs nach mehr Automatisierung ungebrochen ist.“ Als technologisch treibend sieht Frank Maier den exponentiellen Anstieg der Rechenleistung: „Dies führte zu dem Quantensprung der Buskapazität über die Real-Time Ethernet Busse und viele neue Möglichkeiten in der Software. Alles Voraussetzungen für das, was wir heute Industrie 4.0 nennen.“

Technisch möchte Lenze demnach auf dem Weg „Industrie 4.0“ weitergehen, hin zu vernetzten, intelligenten, adaptiven Maschinen. Gemeinsam mit den Anwendern „wollen wir Lösungen schaffen, die über vorgefertigte Bausteine und einen digitalen Engineering-Prozess die Komplexität der Technik beherrschbar halten“, schließt Maier.

CAM-Lösungen

Die Metallbearbeitung war und ist – allen neueren Verfahren wie der additiven Fertigung zum Trotz – nach wie vor eines der verbreitetsten Herstellungsverfahren in der deutschen Industrie. Die Entwicklung der letzten 20 Jahre, die auch die CAM-Systeme begleitet haben, ist geprägt von vielen Detailverbesserungen. Eine Supernova war aber sicher eine davon: Vor 20 Jahren wurde die 5-Achs-Technologie im Bereich Werkzeug- und Formenbau eingeführt. Dr. Josef Koch, CTO bei der Open Mind Technologies AG, erinnert sich: „Damals haben wir als erster CAM-Hersteller die Chance ergriffen, die 5-Achs-Simultanbearbeitung für diesen Industriezweig nutzbar zu machen.“

In den letzten 5 bis 10 Jahren folgte die Entwicklung neuer Werkzeugformen. Auch an den neuen Werkzeugen haben CAM-Anbieter mitentwickelt, etwa dem Tonnenfräser. Diese Fräser ermöglichen neue Bearbeitungsstrategien, mit denen 2.5D- und 3D-Aufgaben jetzt deutlich effizienter 5-achsig simultan gefertigt werden können.

Heute hat Dr. Josef Koch von Open Mind insbesondere sichere und effiziente Prozesse durch NC-Code–basierte Simulationslösungen im Blick, die zusätzlich eine Vernetzung von Maschine und CAM-System bieten.

Auch für Andreas Seum, General Manager DACH bei Vero Software, brachte die Entwicklung im Fertigungsumfeld der letzten Jahre neue Bearbeitungsverfahren und immer besser darauf abgestimmte Softwarelösungen und effizientere Werkzeuge hervor. Auch die Mehrachsbearbeitung ist bei Vero natürlich ein Thema.

Ein weiterer Aspekt, der die CAM-Anbieter bewegt, ist HSC, also Verfahren für besonders schnellen Spanabtrag. Andreas Stute, Geschäftsführer von Intercam erläutert: „Vor gut 14 Jahren ging es um die bessere Auslastung von Maschinen. HSC und dynamische Bearbeitungsstrategien kamen hinzu, um ein Optimum an Verfahrbewegungen zu erreichen.“

Die Verbreitung sowohl von HSC als auch der Mehrachsbearbeitung wurde begünstigt durch schnellere Antriebe, intelligente Maschinenkonzepte und die Steigerung der Genauigkeiten der Maschinenkomponenten, wie Andreas Seum von Vero Software feststellt.

Als besonders wichtigen (und wie wir finden, sehr zukunftweisenden) Teil seiner Arbeit sieht es Intercam-Chef Stute, junge Menschen frühzeitig für das Thema Zerspanung zu begeistern.

Product Lifecycle Management

Der Produktentstehungsprozess (PEP) und dessen digitale Umsetzung haben sich in den letzten 20 Jahren komplett verändert, diese Meinung vertritt Andreas Schäfer, Senior Director Marketing Germany bei Siemens PLM Software, und er führt aus: „Ausgehend von einer erheblichen Skalierung der Performance von Hardware und Softwarepaketen sind Engineering-, Manufacturing- und Datenmanagement-Tools weit verbreitet und verknüpfen von der ersten Idee bis zum Recycling alle Aspekte des Produktlebenszyklus.“

Für Dr. Roland Drewinski, Leiter Marketing bei Contact Software, gilt indes nach wie vor: „Die Idee hinter PLM ist eigentlich ganz einfach: eine einzige verbindliche Quelle ‚Single Source of Truth‘ für alle Aspekte entlang des Lebenszyklus eines Produkts im Unternehmen nutzen zu können.“

Wichtig sei die Frage, wie einfach der Anwender seine Aufgaben erledigen könne. Dazu möchte Contact Software dem Anwender Werkzeuge bereitstellen „ die die Komplexität der Zusammenhänge beherrschen lässt.“

Insbesondere System-Offenheit ist Andreas Schäfer von Siemens PLM Software wichtig, denn sie „ erleichtert die Interoperabilität von PLM, MES und ERP. So wurden erhebliche Fortschritte bei Time to Market, Effizienz und Produktivität erzielt.“

Für den PLM-Anbieter Dassault Systèmes war 1998 ein lokaler Meilenstein mit der Eröffnung des ersten deutschen Büros in Stuttgart, wie sich Klaus Löckel, Geschäftsführer Zentraleuropa bei Dassault Systèmes, erinnert. Seitdem hat das Unternehmen sein Angebotsportfolio stetig weiterentwickelt und ist strategische Partnerschaften eingegangen, beispielsweise mit Boeing. „Der wichtigste und visionärste Schritt war aber mit Sicherheit die Einführung der 3DExperience-Plattform“, wie Löckel analysiert.

Damit könnte der Geschäftsführer Zentraleuropa von Dassault Systèmes durchaus recht haben, denn Plattformen sind heute in aller Munde und auch Siemens PLM und Contact Software sprechen im Zusammenhang mit dem digitalen Zwilling und IIoT zunehmend von Plattformen: „Das Industrial Internet of Things (IIoT) wird zum ‚Enabler‘ für neue Geschäftsmodelle und Plattformen, neue Dienste ziehen in die digitale Fabrik ein. Dem After-Sales- und Service-Bereich kommt dadurch künftig eine noch größere Bedeutung zu“, erklärt Andreas Schäfer von Siemens PLM.

Die maschinelle Analyse der Betriebsdaten für die automatische Zustandsüberwachung ist auch für Dr. Roland Drewinski von Contact Software ein gutes Beispiel: „Dabei werden jene Unternehmen besonders erfolgreich sein, die neue Inseln vermeiden und ihre IT wie ERP und PLM mit den operativen Technologien im Feld verbinden, also IT und OT integrieren. Der Schlüssel dafür sind offene Plattformen und Open-Source-Technologien, die helfen, agile Infrastrukturen aufzubauen und zu betreiben.“

Simulation

Die Simulation hat in den letzten Jahren einige gravierende Entwicklungen mitgemacht. Im Grunde ist sie treibende Kraft und Getriebene ihrer Anwenderbranchen. Eine bekannte CAE-Software-Suite ist Hyperworks von Altair. Sie umfasst heute über 50 Produkte und Technologien für Design und Optimierung. Darunter Werkzeuge für Strukturanalyse, Optimierung, Mehrkörpersimulation, EM- und EMV-Anwendungen, Systemsimulation, multiphysikalische Analysen, Datenmanagement, HPC und IoT.

Doch die Simulation abgekoppelt von Ihren Anwendern darzustellen, ist schwierig: „Aufgrund der wachsenden Komplexität von Produkten muss Simulation immer neue Bereiche erschließen, die weit über die reine Produktentwicklung hinausgehen, beispielsweise in Form von digitalen Zwillingen, die Daten aus dem Betrieb des Produkts in die Entwicklung künftiger Produkte einfließen lassen können oder dabei helfen, Wartungsvorhersagen zu treffen“, gibt Markus Haller, Deputy Managing Director bei Altair Engineering, zu bedenken.

Dabei sind die einzelnen Bereiche der Simulation keineswegs einheitlich entwickelt. Während es Software für die Strukturmechanik bereits seit 50 Jahren gibt, existiert auch weniger abgesichertes Terrain, wie Gerard Hegemans, Geschäftsführer von Comsol Multiphysics, ausführt: „Software für Mehrkörperdynamik, Strömungen und Wärmeübertragung gibt es noch nicht ganz so lange, daher sind noch viele spannende Neuentwicklungen zu erwarten. Noch jünger sind die Bereiche Akustik oder Elektromagnetismus, in denen man relativ spät mit numerischen Berechnungen begonnen hat – hier ist noch viel zu entdecken.“

Wenn es darum geht, Neues zu entdecken, kann Dr. Tarik El Dsoki, Geschäftsführer von MSC.Software, nicht weit sein. Der CAE-Pionier hat die zum Teil drastischen Änderungen der letzten Jahrzehnte miterlebt. Doch die Zukunft und Gegenwart gehören für ihn dem Digital Twin und der künstlichen Intelligenz: „Die Kopplung von Hardware mit Software (Hardware in the Loop – HIL) wird immer bedeutender. Ganz allgemein wird Virtual Reality sehr viel dominanter im Vergleich zu klassischen experimentellen Untersuchungen“, so Dr. El Dsoki.

Für Christoph Müller, Geschäftsführer von CADFEM, hat sich weniger an der Simulation selbst etwas Grundsätzliches verändert. „Die große Änderung sehen wir in der Leistungsfähigkeit der Simulationslösungen und in den deutlich vereinfachten Workflows, so dass die Simulation nicht nur den Expertenbereich, sondern auch den Konstruktionsbereich abdeckt.“

Damit könnte Simulation bald absolut zum Standard in jedem Entwicklungsprozess gehören.

0
RSS Feed

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags