IT für das Internet der Dinge: Industrie 4.0 braucht Edge Computing

Echtzeit- und Sicherheitsanforderungen lösen eine neue Welle der IT-Dezentralisierung aus. Beim Edge Computing werden Daten dort verarbeitet, wo sie entstehen – in Produkten, Maschinen oder Fabriken. Das reduziert Latenzzeiten, bringt Datenhoheit und schafft die Voraussetzung für eine intelligente horizontale Integration. Von Matthias Roese

Ein zentrales Ziel von Industrie 4.0 ist die horizontale Integration von ­Firmen, Fabriken, Maschinen und Produkten, die unter anderem durch digitale Branchen-Plattformen ermöglicht wird. Ein Beispiel dafür ist Krea­tize ­(kreatize.de). Das ist – salopp formuliert – eine Dating-Plattform für Maschinenbauer und Fertigungsdienstleister. Der Kunde, zum Beispiel ein Medizintechnikunternehmen, lädt ein CAD-Modell eines technischen Sonderbauteils auf die Plattform, und diese findet automatisch das passende Fertigungsverfahren, den richtigen Werkstoff und geeignete Fertigungspartner.

Während sich Kreatize auf eine spezifische Aufgabe konzentriert, fungiert eine Plattform wie Virtual Fort Knox (VFK, ­virtualfortknox.de) als übergreifender ­Aggregator von Diensten und als Vernetzungszentrale. VFK wurde von Hewlett Packard Enterprise (HPE) und dem Fraunhofer-Institut für Produktionstechnik und Automatisierung mit Förderung des Landes Baden-Württemberg aufgebaut. VFK stellt für kleine und mittelgroße Fertigungsfirmen eine Industrie-4.0-Plattform in Form einer Community Cloud bereit. Sie ist ein Manufacturing App Store und zugleich Schaltstelle für die firmenübergreifende ­Integration von Produktionsabläufen.

Edge Computing: IT muss näher an die Dinge ran

Plattformen wie VFK oder Kreatize werden künftig ein vielfältig verschachteltes Ökosystem bilden. Dabei wäre es aber ein Irrtum zu vermuten, dass sich die IT im Zuge der Digitalisierung der Fertigung mehr und mehr in die zentralen Plattformen verlagert. Im Gegenteil: Die IT muss näher an die Maschinen und Produkte heran. Grund dafür sind Anforderungen, was Latenz, Steuerung und Sicherheit anbelangt. Die Marktforscher von IDC rechnen damit, dass in zwei Jahren 45 Prozent der im Internet der Dinge generierten Daten direkt vor Ort verarbeitet, analysiert und in Steuerungsimpulse übersetzt werden – ohne Umweg über einen Zentralrechner. 

Das Ökosystem der Plattformen kann nur mit einer intelligenten Peripherie funktionieren. Das leuchtet ein, wenn man den Kreislauf von Sensorik, Analytik und Aktorik betrachtet. Dieser Prozess kann innerhalb der Maschinen und Produkte ablaufen oder den Umweg über einen Zentralrechner (Rechenzentrum, Cloud, IoT-Plattform) nehmen. Dabei werden in den Produkten oder Maschinen (Operations Technology) die Daten gesammelt und aggregiert – die Analyse erfolgt dagegen außerhalb der Maschinen: einfache Analysen auf maschinennahen Rechnern und tiefergehende Analysen auf fernen, leistungsstarken Rechnern im Rechenzentrum oder in der Cloud.

Dies ist aber aus mindestens drei Gründen nicht nachhaltig: einmal wegen der Echtzeitanforderungen der Produkte und Maschinen – etwa bedingt durch die Taktfrequenzen der Systembusse oder durch den Produktionsablauf. Das zweite Problem ist die limitierte Kapazität und nicht ausreichende Zuverlässigkeit der Datenübertragungswege. Schon die räumliche Entfernung eines Zentralrechners bringt eine Latenz in den Prozess, die in vielen Fällen nicht tolerierbar ist. Zudem führt die ungefilterte Übertragung von Daten aus Produkten und Maschinen zu einer Überlastung der Netzwerke. Drittens erhöht dieser Prozess das Sicherheitsrisiko.

Lösen des Latenzproblems 

Das bedeutet, man muss einen Großteil der IT und Analytik in oder nahe an die „Dinge“ verlagern, wenn man eine tragfähige Struktur für Industrie-4.0-Szenarien schaffen möchte. Dieser Ansatz löst das Latenzproblem durch extrem kurze Übertragungswege. Er löst auch das Bandbreitenproblem, weil man keine Rohdaten, sondern nur noch ausgewählte Analyse-Ergebnisse an Zentralrechner übertragen muss – etwa auffällige Abweichungen von historischen Durchschnittswerten. Damit erhöht dieser Ansatz die Datenhoheit und Datensicherheit.

Dafür braucht es eine neue Kategorie von Rechnern: konvergente IoT-Systeme, die extrem leistungsfähige Rechner, Speicher und Analytik in sich vereinen – in kleinen Formfaktoren und mit robusten Außenhüllen. Damit sind diese Systeme vor Schmutz, Feuchtigkeit und Stößen geschützt. Ein Beispiel für ein solches System ist HPE Edgeline. Es lässt sich direkt in Produkte oder Maschinen einbauen oder in deren unmittelbarer Nähe betreiben – etwa in einem autarken Micro-Rechenzentrum in der Fabrikhalle oder auf einer Ölförderplattform.

Plattformen-Ökosysteme und Peripherien ersten bis n-ten Grades

Die digitalen Fertigungsökosysteme be­ruhen künftig auf einer mehrschichtigen ­Architektur:

  • den Plattform-Ökosystemen, also Cloud-Plattformen, die wiederum vielfältig miteinander verschachtelt sind
  • und den Peripherien ersten bis n-ten ­Grades: den Rechenzentren der Fertigungsfirmen, den Rechnern in den Fabrik­hallen und den Rechnern in oder an den Maschinen und Produkten

Ein Beispiel für eine solche Architektur ist das Zusammenspiel von Virtual Fort Knox, dem integrierten Fabriksystem HPE Converged Plant Infrastructure und HPE Edgeline.
HPE Converged Plant Infrastructure (CPI) ist eine Software-Hardware-Appliance, die als einheitliche Steuerungszentrale für alle am Produktionsprozess beteiligten Maschinen und IT-Systeme in einer Fabrik fungiert. Die Lösung ging aus der Entwicklung von Virtual Fort Knox hervor. VFK und CPI haben sehr ähnliche Architekturen, wobei CPI von HPE für den Einsatz in Fertigungsunternehmen vertrieben und vor Ort in Fabrik­hallen eingesetzt wird.

Das Zusammenspiel von VFK, CPI und ­Edgeline hat dabei eine entfernte Ähnlichkeit mit der Interaktion zwischen Smartphones und App Stores – mit dem Unterschied, dass sich verschiedene Instanzen der VFK-Apps auf mehrere Systeme verteilen lassen.

Eine Anwendungsinstanz kann auf konvergenten IoT-Systemen direkt an den ­Maschinen oder Produkten laufen, wo Echtzeit-Anforderungen herrschen. Tiefergehende Analysen werden mit einer Anwendungsinstanz auf einem nahen CPI-System gefahren, das außerdem das Zusammenspiel mit anderen Maschinen steuert und die Kommunikation mit der VFK-Plattform regelt. Auf dieser läuft schließlich eine dritte Instanz der Anwendung, die für die Vernetzung mit anderen Fabriken oder Anlagen zuständig ist. Erst mit solchen ­Architekturen entsteht die Durchgängigkeit, die man für anspruchsvolle horizontale Industrie-4.0-Szenarien wie der auftragsgesteuerten Produktion benötigt.

Autor: Matthias Roese, Domain Executive Technology Platforms, Hewlett Packard Enterprise.

Hewlett Packard Enterprise auf der CeBIT und Hannover Messe:

  • CeBIT (20. bis 24. März 2017): Halle 4, Stand A04
  • Hannover Messe (24. bis 28. April 2017): Halle 8, Stand A07
  • Das HPE Micro Datacenter wurde für das Edge Computing, also für den Einsatz in Fabriken oder Anlagen entwickelt. Es enthält eine komplette Rechenzentrumsausstattung inklusive IT, Management, Klimatisierung und Schutz vor Umwelteinflüssen wie Feuchtigkeit, Hitze oder Kälte. Daher kann das HPE Micro ­Datacenter auch im Freien stehen.
  • HPE Converged Plant Infrastructure (CPI) ist eine einheitliche Steuerungs- und Vernetzungszentrale für alle am Produktionsprozess beteiligten Maschinen und IT-Systeme.
0

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

RSS Feed

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags