Sechs Mythen rund um High Performance Computing

0

Heute können sich nicht mehr nur Unternehmen wie BMW, GE, GM, Ford, Siemens und andere große Industrie- und Automobilkonzerne Anschaffung und Einsatz von HPC-Systemen leisten. Auch Konsumgüterhersteller wie Procter & Gamble, Tetra Pak und Whirlpool setzen heute auf HPC als strategische Technologie, um ihre Wettbewerbsfähigkeit zu sichern und zu verbessern.
Ein Treiber dieses Trends ist die erschwingliche und leistungsfähige Hardware und so hält HPC nun auch allmählich Einzug in die mittelständischen Unternehmen. Dennoch gibt es noch falsche Vorstellungen und Bedenken, was HPC betrifft, die den verstärkten Einsatz auch in der Produktentwicklung verhindern. HPC könnte für einen hohen Return on Investment sorgen – wenn da nicht sechs hartnäckige Mythen wären.

HPC ist nur auf Supercomputern möglich

HPC ist im Laufe der Jahre zu einem Synonym für Supercomputing geworden. Früher hatten lediglich Supercomputer genügend Rechenleistung und Kapazität, um auch nur Routinesimulationen durchzuführen – und sie spielen zweifellos weiterhin eine führende Rolle dabei, die größten und schwierigsten Probleme in Wissenschaft und Technik zu lösen. Trotzdem ist HPC heute auf Computern aller Größenordnungen möglich, vom Tablet über Multicore-Laptops, Desktop-Computer, größere Workstations bis hin zu Computer-Clustern. Die Frage lautet immer: wie umfangreich sind die auszuführenden Simulationen? Bereits mit einer gängigen Desktop-Workstation sind beträchtliche HPC-Ressourcen verfügbar.

HPC ist nur für CFD-Simulation geeignet

Richtig ist, dass CFD-Simulationen sich wegen der Art der zugrunde liegenden numerischen Algorithmen besser auf viele Rechenkerne verteilen als strukturmechanische oder elektromagnetische Simulationen. Dies bedeutet aber nicht, dass strukturmechanische oder elektromagnetische Simulationen nicht für HPC-Lösungen geeignet seien. Beispielsweise skaliert der komplette Satz von Ansys-Benchmarks für die Strukturmechanik – einschließlich verschiedener Löser-Arten und Modellgrößen – auf 80 Kerne.

HPC bedeutet für meine Aufgabe keinen Zeitgewinn

Manche FEM-Anwender halten HPC für überflüssig, weil ihre kleinen (und gewöhnlich linearen) Simulationen „schnell genug“ auf einem oder zwei Rechenkernen laufen. Jedoch schränken sich diese Anwender durch ihre begrenzte aktuelle Rechenkapazität oft selbst ein. Beispielsweise antwortete in einer kürzlich von Ansys durchgeführten Umfrage etwa jeder Dritte der knapp 3.000 Teilnehmer, dass er die Größe oder Detailfülle für fast jedes verwendete Modell wegen der Rechenkapazität beziehungsweise der Durchlaufzeit begrenze. Weitere 57 Prozent gaben an, dass sie solche Einschränkungen mindestens für einige ihrer Modelle anwenden.
Größere/nichtlineare Simulationen, die genauere Einblicke liefern könnten, werden also vermieden. HPC könnte also ein tieferes Verständnis der realen Zusammenhänge schaffen.

Ohne internen Support ist die Einführung eines HPC-Clusters nicht möglich

Das Einrichten und Managen eines HPC-Clusters ist zweifellos nicht einfach, aber machbar. Es stimmt auch, dass Dimensionierung, Aufbau, Integration, Bereitstellung und Unterstützung einer Cluster-Infrastruktur hochspezialisiertes IT-Know-how erfordert, das den Anwendern technischer Simulationssoftware oft nicht in ausreichendem Maße zur Verfügung steht. In der oben erwähnten Umfrage gab etwa ein Drittel der Befragten an, dass der Mangel an Zeit und Know-how zum Spezifizieren von Hardware-Konfigurationen eine große Hürde für die Einführung oder den Ausbau der HPC-Ressourcen darstelle. Deswegen arbeiten entsprechende Simulationsanbieter oft mit strategischen HPC-Partnern – wie Intel, Nvidia, AMD, HP, IBM oder Fujitsu – zusammen, um Spezifikation und Einsatz von HPC für die Anwender zu erleichtern.

Jede Software kommt mit HPC-Systemen zurecht (parallele Skalierbarkeit)

Mancher Produktentwickler glaubt, dass sich alle HPC-Software-Lösungen mehr oder weniger gleichen und dass für die verschiedenen technischen Simulationstools in etwa die gleiche Skalierbarkeit gilt. Dies entspricht jedoch nicht den Tatsachen. Einige Hersteller haben sich sehr stark auf die Entwicklung von HPC-Software konzentriert und dadurch einzigartige Fähigkeiten auf der heute verfügbaren Hardware erreicht. Daher sind für jede Softwareversion umfangreiche und nachhaltige HPC-Softwareentwicklungen erforderlich, um die parallele Performance (parallele Skalierbarkeit, Robustheit und Konvergenzrate) dauerhaft zu gewährleisten.

HPC-Soft- und -Hardware sind teuer

Während die Kosten für HPC-Hardware wegen sinkender Fertigungskosten der eingesetzten Komponenten zurückgehen (Skaleneffekte auf dem Massenmarkt), gelten diese Mechanismen nicht für die technische Simulationssoftware. Vielmehr erfordert HPC besonders hohe Investitionen in die Softwareentwicklung. Diese entstehen durch die Notwendigkeit, mit der sich ständig verändernden Computing-Landschaft Schritt zu halten – und die Software an neue Prozessoren, Beschleuniger, Compiler und Interconnect-Technologien anzupassen.
Der Schlüssel liegt darin, die Kosten von HPC mit der möglichen Wertschöpfung zu vergleichen und entsprechend die Lösungen zu wählen, die den größtmöglichen Return on Investment bieten. Folgt man diesem Rezept, kann man schnell Früchte ernten, die die Investitionen rechtfertigen. Welche das sein könnten:
• Verbesserte Produktivität in der Entwicklung durch Beschleunigung des Simulationsdurchsatzes. Hierdurch können die Entwickler eine größere Zahl von Design­ideen überprüfen und auf der Grundlage verbesserter Kenntnisse effiziente Entscheidungen für die Produktentwicklung treffen.
• Realitätsgetreuere Erkenntnisse zur Produktleistung, die auf andere Weise nicht gewonnen werden können. HPC ermöglicht den Entwicklern die Simulation größerer und komplexerer Modelle, so dass genauere Designentscheidungen während des gesamten Entwicklungsprozesses getroffen werden können.
Während das zweite Argument des „Erkenntniswertes“ schwierig zu quantifizieren ist, ist das erste Argument einfach messbar. Dies bestätigt ein simples Beispiel zur Produktivität auf der HPC-Einstiegsebene: Durch zusätzliche Achtfach-Parallelverarbeitung wird der Durchsatz um den Faktor fünf bis sechs erhöht. Dank dieser Verbesserung in der Produktivität der Entwicklung können fünf- bis sechsmal mehr Designideen untersucht und alle Probleme/Kosten vermieden werden, die durch die Verfolgung eines schlechten Designkonzepts verursacht werden.

Fazit

HPC ist eine der großen Enabler-Technologien, um die Produktivität in der Entwicklung zu verbessern und realitätsgetreuere Erkenntnisse zur Produkt-Performance zu gewinnen. Jedoch werden die Einführung und Verbreitung von HPC weiterhin durch Mythen und falsche Vorstellungen behindert. Der vorliegende Beitrag überprüft und entlarvt sechs dieser Mythen in der Hoffnung, technische und kaufmännische Entscheidungsträger davon überzeugen zu können, HPC in ihren Produktentwicklungsprojekten einzusetzen.
Ansys wird jedenfalls weiterhin in HPC investieren und damit sicherstellen, dass die Produkte echte Höchstleistungen auf den neuesten HPC-Architekturen bieten mit einem stetig steigenden Grad an Parallelverarbeitung. jbi |

Wim Slagter ist Lead Product Manager bei Ansys.

  • So komplex kann HPC sein. Muss es aber nicht.
  • Einige Anwendungen laufen bereits auf einfachen Tablets und auch der Desktop-Rechner bietet schon beachtliche Möglichkeiten.
  • CFD-Simulation eignet sich besonders für die parallele Verarbeitung durch HPC, aber auch FEM und elektromagnetische Simulation können profitieren.
  • HPC-Technologie ermöglicht die Berücksichtigung aller notwendigen Details – die Einsichten des Ingenieurs in sein Produkt werden tiefer.
RSS Feed

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags