Für kürzere Entwicklungszyklen Strömungssimulation: Schneller durch GPU-Technologie

Von Dr.-Ing. Fabian Findeisen, Business Development Manager CFD, Cadfem Germany GmbH 4 min Lesedauer

Anbieter zum Thema

Die numerische Strömungssimulation hat sich als wichtiges Werkzeug in der Produktentwicklung vieler Industriezweige etabliert. Im Mittelpunkt einer aktuellen Transformation steht dabei die GPU-Technologie. Mit ihr lässt sich die digitale Produktentwicklung signifikant beschleunigen.

GPUs ermöglichen realitätsnahe Modelle durch detaillierte Physik und eine Erweiterung der Modellgrenzen bei gleicher Rechenzeit.(Bild: Cadfem/Ansys)
GPUs ermöglichen realitätsnahe Modelle durch detaillierte Physik und eine Erweiterung der Modellgrenzen bei gleicher Rechenzeit.
(Bild: Cadfem/Ansys)

Mit der numerischen Strömungssimulation können Produkte, Anlagen und Gesamtsysteme präzise am Bildschirm analysiert und optimiert werden. Dadurch lassen sich die Anzahl der Prototypen reduzieren und realitätsnahe Betriebsbedingungen darstellen, was die Entwicklung beschleunigt und kosteneffizienter macht. Mit der laufenden Weiterentwicklung von Hardware und Software eröffnen sich immer wieder neue Dimensionen in der Simulation. Die GPU-Technologie, also die Ausnutzung der Rechenleistung der Grafikkarte, steht dabei im Mittelpunkt einer aktuellen Transformation.

Kürzere Entwicklungszeiten durch GPU-Technologie

Lange galt die Strömungssimulation als sehr aufwändig, weshalb große und komplexe Modelle nur mit teurer Hardware und massiver Parallelisierung zu simulieren waren. Der Einsatz von GPU-Technologie ändert diese Situation: CFD-Simulationen, die früher Wochen dauerten, benötigen heute nur noch wenige Tage oder gar Stunden. Für Anwender und Unternehmen bedeutet das:

  • kürzere Entwicklungszyklen und damit Wettbewerbsvorteile und höhere Umsatzchancen durch früheren Marktzugang

  • produktivere Ingenieure und Entwickler, die den Fachkräftemangel abfedern,

  • mehr Variantenvergleiche, wodurch die Produktqualität und -sicherheit steigt.

Ansys als Technologie- und Marktführer im Bereich CFD treibt diese Entwicklung voran und kann dazu auf langjährige Erfahrung bei der Integration neuer Funktionen in die CFD-Software Ansys Fluent zurückgreifen. Cadfem als Ansys-Vertriebs- und Servicepartner unterstützt mit seinen IT- und CFD-Experten das Thema GPU mit besonderem Engagement, da es vor allem auch für kleine und mittlere Unternehmen eine bedeutende Chance darstellt.

Höhere Performance: High-End GPUs ersetzen Tausende CPU-Kerne

Dank des parallelen Rechenansatzes von GPUs können dieselben Berechnungen, die zuvor auf großen CPU-Clustern durchgeführt wurden, nun mit wenigen High-End-Grafikkarten in einem Bruchteil der bisherigen Zeit erledigt werden. Möglich macht dies ein Verfahren zur Verarbeitung großer Datenmengen namens "Streaming Computing". Dieses nutzt die Leistung der Grafikkarte mit ihren Hunderten bis Tausenden kleinerer GPU-Kerne und ihrer hohen Speicherbandbreite optimal aus.  

Der Geschwindigkeitsvorteil von GPUs gegenüber CPUs ist besonders bei großen Datenmengen enorm: Eine einzige Nvidia A100-Serverkarte berechnet die Außenumströmung eines Fahrzeugs beispielsweise fünfmal schneller als ein System mit 80 herkömmlichen CPU-Kernen. Mit acht GPU-Karten – ein sogenanntes Multi-GPU-Setup – wird diese Rechnung sogar 33-mal schneller, was 2640 CPU-Kernen entspricht.

Auch bei einfacheren Modellen ergeben sich schon signifikante Geschwindigkeitssprünge, wie hier anhand der Berechnung eines mit Wasser durchströmten Ventils illustriert wird. Wie Bild 1 zeigt, können Rechnungen, die früher Stunden gedauert haben, heute mit derselben Ergebnisqualität in Minuten abgeschlossen werden. Dabei bedarf es in vielen Fällen nicht einmal einer High-End Grafikkarte. Auch leistungsfähige Workstation-Karten reichen oft aus, wie die von Cadfem umfassend getestete Nvidia RTX A4000. Die Rechnung dauerte in diesem Fall mit GPU 24 Minuten, während sie auf der gleichen Workstation mit 30 CPU-Kernen über 2 Stunden beanspruchte. Zudem sind derartige Grafikkarten meist schon in leistungsfähigen Workstations von CAD-Arbeitsplätzen verbaut und damit schon in vielen Unternehmen vorhanden.

Komplexere Modelle: Genauere Abbildung der Realität

Auch bei kleineren Modellen bringen GPUs enorme Geschwindigkeitsvorteile: Die Berechnung eines Ventils dauerte mit einer Nvidia RTX A4000 nur 24 Minuten statt über 2 Stunden auf 30 CPU-Kernen. (Bild: Cadfem/Ansys)
Auch bei kleineren Modellen bringen GPUs enorme Geschwindigkeitsvorteile: Die Berechnung eines Ventils dauerte mit einer Nvidia RTX A4000 nur 24 Minuten statt über 2 Stunden auf 30 CPU-Kernen.
(Bild: Cadfem/Ansys)

Besonders bei komplexen Modellen ist die hohe Rechenzeit oft eine Einschränkung in der Produktentwicklung. GPUs erweitern hier den Spielraum, da sie die Möglichkeit bieten, realitätsnähere Modelle zu erstellen, bei gleichen oder sogar geringeren Rechenzeiten. Dies führt zu genaueren Vorhersagen und erlaubt es, komplexe physikalische Effekte zu modellieren, die früher oft vereinfacht dargestellt werden mussten.

Kosteneffizienz: Hohe Leistung bei geringerem Investitionsbedarf

GPU-basierte CFD-Systeme wie GPU-Workstations oder GPU-Server bieten auch Kostenvorteile. Im Vergleich zu CPU-Clustern sind die Anschaffungs- und Betriebskosten der Hardware deutlich niedriger. Besonders kleine und mittlere Unternehmen profitieren davon, da sie sich nun Rechenpower leisten können, die bisher nur Großunternehmen vorbehalten war.

So ist eine GPU-Workstation mit der oben genannten Nvidia RTX A4000 und unter Berücksichtigung der damit eingesparten Lizenzkosten für Software preislich ~70 Prozent günstiger als eine CPU-Workstation mit 32 Kernen und dennoch um ein Vielfaches schneller. Ein GPU-Server mit der Nvidia A100 kostet weniger als ein CPU-Server mit 128 Kernen, ist jedoch je nach Modell 1- bis 3,5-mal so schnell. Die neueste Generation von Nvidia-Server-Grafikkarten (H100) bietet bei einem um 15 Prozent höheren Investitionsvolumen nochmals deutlich mehr Leistung und auch Speicher. Ansys Fluent unterstützt GPUs von Nvidia und AMD.  

Energieeinsparung und Nachhaltigkeit

Ein weiterer Vorteil der GPU-Hardware ist der niedrigere Energieverbrauch. Ein GPU-Server mit zwei Nvidia A100-Grafikkarten benötigt nur ein Achtel der Energie eines CPU-Clusters mit vergleichbarer Rechenleistung, hier 1024 Intel Xeon Gold Cores. Dies reduziert nicht nur die Betriebskosten, sondern trägt auch zu den Nachhaltigkeitszielen von Unternehmen bei. Der Einsatz von GPUs in der CFD ist daher auch ein wichtiger Schritt, um die Produktentwicklung klimaschonender zu realisieren.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zusammen gefasst: Vorteile der GPU-Technologie

Der Einsatz der GPU-Technologie in der Strömungssimulation bietet die Chance, die digitale Produktentwicklung signifikant zu beschleunigen. Die heute enorme und stetig zunehmende Rechenleistung von GPUs markiert einen Technologiesprung, vergleichbar mit dem Fortschritt, den Parallel Computing in der CFD vor rund 20 Jahren gebracht hat. Ingenieure können Berechnungen nun deutlich schneller durchführen, was kürzere Entwicklungszyklen und schnellere Markteinführungen ermöglichen. Zudem erlauben GPUs die Erstellung detaillierter und komplexerer Modelle, was zu präziseren Ergebnissen, besseren Produkten und höherer Produktsicherheit führt.

Besonders für KMUs eröffnen sich durch die GPU-Hardware neue Möglichkeiten: Mit einem weitaus geringeren Hardware-Investment erreichen sie Leistungs- und Effizienzsteigerungen, die früher nur mit sehr großen und somit teuren CPU-Servern möglich waren.