08.09.2015 – Kategorie: Hardware & IT

High Performance Computing: Remote zum Konstruktionserfolg

de_2015_05_404_aerospace_-_view_01

Das Anwendungsspektrum für HPC-Lösungen ist größer denn je. Auch mittelständische Unternehmen können sie kostengünstig und prozessoptimierend nutzen, wie ein Beispiel aus dem CAE-Bereich zeigt. Von Dr. Oliver Tennert

Dass High-Performance-Computing-Anwendungen (HPC) im Trend liegen, ist keine Frage. Vor allem große Konzerne und Unternehmen oder Forschungsinstitute und Universitäten nutzen sie seit längerem. Aber auch in kleinen und mittelständischen Firmen nahezu jeder Branche wird der Einsatz zunehmen. Dafür gibt es zwei Gründe: zum einen ist die Nutzung von HPC-Applikationen nicht mehr mit extrem hohen Kosten verbunden, zum anderen wird die schnelle Auswertung großer Datenmengen zur Sicherung der Wettbewerbsfähigkeit für Unternehmen an Bedeutung gewinnen.
In der Vergangenheit erforderten HPC-Systeme den Einsatz von teuren Großrechnern und Supercomputern. Inzwischen nutzt man aber im HPC-Bereich verstärkt auch wesentlich kostengünstigere Cluster auf Basis standardisierter x86-Systeme. Auch kleine und mittlere Unternehmen können deshalb heute leistungsfähige HPC-Systeme problemlos betreiben. Natürlich gibt es HPC-Lösungen, die in Preiskategorien von 100.000 bis rund zwei Millionen Euro liegen. Allerdings geht es auch wesentlich günstiger: Eine Cluster-Lösung mit vier bis acht Knoten ist – abhängig von der konkreten Ausstattung – bereits ab 25.000 Euro erhältlich. Angesichts des hohen Nutzens von HPC sollte die Investition in einer solchen Größenordnung für die meisten Mittelständler keine Frage sein.
Die Datenvolumina wachsen in nahezu allen unternehmenskritischen Systemen dermaßen schnell an, dass konventionelle Rechnersysteme für deren Auswertung an ihre Grenzen stoßen. Die Gewinnung nutzbarer Erkenntnisse aus dieser Datenflut – Stichpunkt „Big Data“ – ist in Zukunft praktisch nur noch mit hochleistungsfähigen HPC-Systemen zu bewältigen und eine Grundvoraussetzung, um die Wettbewerbsfähigkeit und künftige Innovationskraft eines Unternehmens sicherzustellen. Das betrifft auch mittelständische Unternehmen, die in einem zunehmend globalisierten Markt einem immer höheren Konkurrenzdruck ausgesetzt sind.

Mittelstand zögert noch

Allerdings ist die Zurückhaltung gerade bei kleineren Unternehmen noch groß. Das hat auch eine aktuelle Umfrage des IT-Dienstleisters transtec ergeben. Dabei wurden 254 IT-Verantwortliche in technisch orientierten Unternehmen mit bis zu 1.000 Mitarbeitern befragt. Generelles Ergebnis: Gerade einmal fünf Prozent der mittelständischen Unternehmen nutzen HPC-Systeme.
Die Verwendung dieser Systeme hängt allerdings in hohem Maße von der jeweiligen Unternehmensgröße ab: Über neun Prozent der Unternehmen ab 201 Mitarbeitern gaben an, sie einzusetzen; diese Zahl reduziert sich auf rund drei Prozent bei Unternehmen mit elf bis 200 Mitarbeitern, und von den befragten Kleinstbetrieben bis zu zehn Mitarbeitern nutzte indes kein einziger eine HPC-Lösung.

Vielfältiges Anwendungsspektrum

Im industriellen Umfeld werden HPC-Systeme vor allem betrieben für die Entwicklung neuer und die Verbesserung vorhandener Produkte oder Produktkomponenten, die Optimierung von Produktionsprozessen und die Analyse großer Datenbestände. Konkrete Anwendungsbeispiele sind Crash-Simulationen bei Automobilherstellern, Fraud Detection bei Kreditkartentransaktionen in der Finanzdienstleistungsbranche oder die Berechnung des optimalen Energiemixes durch Stromanbieter. Auch bei akademischen Institutionen stehen rechenintensive Datenanalysen und Simulationen im Vordergrund. Das kann zum Beispiel Modellierungen in der Klima- oder Materialforschung, Dosismessungen für die Strahlentherapie oder Berechnungen in der Teilchenphysik betreffen.
Dass aber auch kleine und mittlere Unternehmen bereits auf HPC-Systeme setzen, zeigen zwei Beispiele: In der Automobilindustrie sind heute Hunderte von Ingenieurdienstleistern tätig, die den Herstellern HPC-gestützt zuarbeiten. So werden wichtige Kfz-Komponenten wie Bremsen, Sitze, Airbags, Einspritzpumpen oder Klimaanlagen und deren Verhalten tausendfach simuliert, bevor sie letztendlich in die Produktion gehen. Ein Beispiel aus der Molekularbiologie liefert die Genomanalyse. Auch hier führen Hunderte von kleinen und mittelgroßen privaten Laboren täglich Dutzende von Sequenzanalysen von Genom-Abschnitten durch. Durch Mustersuche in den sequenzierten Abschnitten lässt sich beispielsweise eine Generkrankung feststellen, bevor sie ausbricht, oder der Einfluss von Viren bei Krebserkrankungen kann ermittelt werden.

Grafik aus dem Rechenzentrum

Während in der Vergangenheit im HPC-­Bereich das Hauptaugenmerk auf der Hardware-Performance lag, geht es heute vor allem um Workflow-Optimierung. So liegt beispielsweise bei im CAE/CAD-­Bereich tätigen Unternehmen der Fokus auf der Effizienzsteigerung im Post-Processing von Simulationsergebnissen.
Lösungsansatz ist dabei, die Ergebnisdaten an dem Ort zu verarbeiten, an dem sie anfallen, das heißt auf dem HPC-Cluster. Dies ermöglicht eine Remote-Visualisierung, mit der die 3D-Grafik typischer OpenGL-Applikationen performant über das Netzwerk für Client-Systeme bereitgestellt wird.
Viele CAD-Abteilungen sind bisher von der Rechenzentrumsinfrastruktur unabhängig oder es werden lediglich der Fileserver und Standarddienste wie E-Mail- oder ERP-Systeme mitbenutzt. Die Gründe hierfür sind, dass die Einbindung der CAD-Hardware in das Rechenzentrum zum einen oft nur mit verhältnismäßig teuren Blade-Serverlösungen möglich war und zum anderem dabei auch Probleme bei ressourcenintensiven Grafikanwendungen auftraten.
Darüber hinaus ist zu beachten, dass heute in CAD-Projekten oft verschiedene Teams von unterschiedlichen Standorten aus zusammenarbeiten. Die Datenmengen der Projekte sind inzwischen sehr groß und aufgrund von Bandbreitenbeschränkungen lassen sich diese nicht einfach „über Nacht“ übertragen. Dies führt zunehmend zu Problemen.
Mit der Weiterentwicklung der NVIDIA-GRID-Architektur, die unter anderem eine Hardware-Virtualisierung des Grafikprozessors umfasst, und aktuellen Virtualisierungstechnologien, ist es heute dennoch möglich, umfangreiche Datenmengen wie komplexe 3D-Grafiken und Konstruktionszeichnungen zentral im Rechenzentrum vorzuhalten und sie im LAN oder über WAN-Strecken performant bereitzustellen. Dies erfolgt beispielsweise mit Hilfe der speziell im CAE/CAD-Umfeld häufig eingesetzten Software-Lösung NICE DCV. Im Hinblick auf den Virtualisierungs-Hypervisor hat sich in der Vergangenheit vor allem der Citrix XenServer angeboten, der die NVIDIA-Technologien und -Karten am besten unterstützte. Doch die Auswahl ist inzwischen größer geworden: Die neue VMware-vSphere-Unterstützung der NVIDIA-GRID-vGPU-Technologie wird dem Virtualisierungsthema im GPU-Computing-Kontext einen entscheidenden Wachstumsschub geben – angesichts der marktführenden Stellung von VMware im Bereich Virtualisierung. Auch im Blick auf die erforderliche Rechenzentrumshardware stehen heute ausreichend Lösungen zur Verfügung. Fast alle großen Hersteller bieten inzwischen in Zusammenarbeit mit NVIDIA zertifizierte Hardware für den Remote-Visualisierungseinsatz an.

Daten sicher im Rechenzentrum

Die Zentralisierung bietet die Möglichkeit, dass man remote immer auf einen aktuellen Datenbestand zugreifen kann. Dies ist ein großer Vorteil. Außerdem entfallen dadurch zeitaufwändige und kostenintensive Replikationen. Zudem können Konstruktionsabteilungen mit dem Ansatz „Grafik aus dem Rechenzentrum“ auch Remote-User wie Freelancer oder Praktikanten flexibel in den CAD-Bereich einbinden. Dabei liegen die Daten sicher im Rechenzentrum, wo man sie effektiv gegen Datendiebstahl und Datenverlust schützen kann.
Zur Realisierung einer solchen Lösung sollten Unternehmen auf einen Anbieter setzen, der sich auf den Bereich HPC spezialisiert hat und sich zudem mit klassischen Virtualisierungstechnologien auskennt und dafür ein vollständiges Portfolio an Hardware- und Software-Komponenten anbieten kann. Nur so lassen sich individuelle Kundenanforderungen erfüllen. Wichtig ist auch ein breit gefächertes Dienstleistungsangebot des HPC-Lösungspartners, das Leistungen wie Presales Consulting, Installation und Systemintegration sowie Service und Support entlang des kompletten Lebenszyklus der Lösung umfasst.rt |

Dr. Oliver Tennert ist Director HPC-Solutions bei transtec in Reutlingen.


Teilen Sie die Meldung „High Performance Computing: Remote zum Konstruktionserfolg“ mit Ihren Kontakten:

Zugehörige Themen:

Hardware, Rechenzentrum

Scroll to Top