Modellbildung und KI: Der Schlüssel zum Erfolg

Verantwortlicher Redakteur:in: Rainer Trummer 4 min Lesedauer

Anbieter zum Thema

Komplexe Systeme unter dem Einfluss unterschiedlicher Parameter mit Hilfe von datengetriebener Modellbildung zu verstehen, ist eine herausfordernde Aufgabe. Doch es gibt hierfür automatisierte, KI-basierte Lösungen.

(Quelle:)
(Quelle:)

In welchem konkreten Fall kann ein automatisiertes Fahrzeug in eine kritische Situation geraten und wie lässt sich dies verhindern? Bei welcher Einstellung produziert eine Windkraftanlage hohe Mengen an Energie, bei gleichzeitig niedrigem Verschleiß? Solche und ähnliche Fragen lassen sich durch datengetriebene Modellbildung beantworten.

Modellbildung ermöglicht kritischen Blick

Grundsätzlich werden dafür Experimente parametrisiert, während des Entwicklungsprozesses an digitalen Prototypen oder auch am physischen System durchgeführt werden. Die Ergebnisse der Messungen lassen sich mit den Eingangsdaten in Verbindung bringen. Auf diese Weise können Entwicklungsteams untersuchen, wie groß der Einfluss der unterschiedlichen Eingangsparameter ist. Zudem ermöglicht die Modellbildung weitere kritische Punkte zu prognostizieren. Mit solchen Voraussagen können, die eingangs gestellten Fragen beantwortet werden. Doch kann dies mitunter viele Ressourcen binden, selbst wenn die Tests virtuell jedoch händisch durchgeführt werden.

KI als Schlüssel zum Erfolg

Ein von IAV entwickelter Software-Ansatz kombiniert Algorithmen und KI, um zielgerichtet Testszenarien zu generieren und dahingehend zu überprüfen, ob ein spezifisches Ereignis oder ein bestimmter Systemzustand eintritt. Dieser Prozess läuft iterativ ab und passt sich auf das bisher unbekannte System und dessen Eigenschaften selbstständig an (Bild 1). Auf diese Weise ist der zu betrachtende Parameterraum eingrenzbar, der sich aus den Wertebereichen aller zu betrachteten Systemparameter ergibt. Die Software gibt zudem an, mit welcher Wahrscheinlichkeit ein Ereignis auftreten kann, und schafft somit zusätzlich eine messbare Grundlage für die Freigabeentscheidung sicherheitskritischer Systeme. Durch den Einsatz künstlicher Intelligenz geht die Methodik über die Ansätze der klassischen Optimierung und Versuchsplanung hinaus. Charakteristisch für diese Methode ist der Einsatz von probabilistischen Metamodellen und iterativer, adaptiver Versuchsplanung (Adaptive Importance Sampling) – siehe auch Bild 2.

Bild 1: Der Prozess läuft iterativ ab und passt sich auf das bisher unbekannte System und dessen Eigenschaften selbstständig an.()
Bild 1: Der Prozess läuft iterativ ab und passt sich auf das bisher unbekannte System und dessen Eigenschaften selbstständig an.
()

Anwendungsbeispiel: Automatisiertes Fahren

Beim automatisierten Fahren manövriert ein Fahrzeug selbständig durch eine Innenstadt. Dabei soll es eine Kollision mit Fußgängern oder anderen Verkehrsteilnehmern in unterschiedlichsten Situationen verhindern (Titelbild). Für solch ein Szenario lassen sich hier leicht 20 oder mehr Parameter definieren. Diese können beispielsweise Szenarien- oder Funktionsparameter sein. Szenarienparameter können unterschiedliche Geschwindigkeiten oder Abstände zu einzelnen Objekten sein. Unterschiedliche Sensorreichweiten oder Reaktionszeiten des automatisierten Fahrzeuges sind Beispiele für Funktionsparameter.

In einem ersten Schritt wird ein Versuchsplan erstellt, der im gesamten Versuchsraum konkrete Messpunkte verteilt. Der erste Batch an Versuchen wird an dem zu untersuchenden System durchgeführt. Für das genannte Beispiel erfolgt eine Parametrisierung der Simulation: Die Fahrzeuge fahren virtuell durch das geschaffene Szenario. Abschließend wird der Ausgang jedes konkreten Szenarios gespeichert. Diese Daten können im weiteren Verlauf zum Training probabilistischer Metamodelle und der Vorhersage unbekannter Szenario-Ausgänge genutzt werden. Basierend auf diesen Metamodellen, der Unsicherheit des erzeugten Modells und des Relevanzkriteriums, platziert die Software neue Punkte im Parameterraum an relevanten Stellen. So wird mit jeder Iteration die Modellqualität, also die Genauigkeit der vorausgesagten Ergebnisse, zielgerichtet verbessert.

Bei Punkten mit ähnlichen Messergebnissen und keinem weiteren Wissensgewinn führt die KI auch keine weiteren Tests durch. Verändert sich das Systemverhältnis jedoch schnell oder in kritische Richtungen, ist das für den Algorithmus ein Hinweis auf eine potenziell wichtige Situation – die Software sucht dann gezielt in diesem Wertebereich weiter und erhöht dadurch mit jeder Iteration das Verständnis vom Gesamtsystem.

Bild 2: Die Software generiert einen Versuchsplan, nach dem virtuelle Versuche an dem zu testenden System durchgeführt werden. Die Ergebnisse fließen gesammelt an die Software zurück. So lässt sich der iterative Prozess abbilden.()
Bild 2: Die Software generiert einen Versuchsplan, nach dem virtuelle Versuche an dem zu testenden System durchgeführt werden. Die Ergebnisse fließen gesammelt an die Software zurück. So lässt sich der iterative Prozess abbilden.
()

Übertragung auf andere Systeme

Entwickelt wurde das Verfahren ursprünglich für das automatisierte Fahren, da hier bis dato Methoden fehlten, um den für die Validierung zu betrachtenden Parameterraum einzugrenzen und gleichzeitig eine Aussage über die Restunsicherheiten zu geben, die für Freigaben erforderlich sind. Jedoch kann der Ansatz auch überall dort eingesetzt werden, wo zur Entwicklung oder Freigabe komplexer Systeme effiziente Methoden zur Modellbildung benötigt werden – zum Beispiel in der Energiebranche, der Robotik oder auch in der Luftfahrt.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Software birgt damit das Potenzial, Entwicklungsprozesse deutlich effizienter aufzustellen, und große Testumfänge zu reduzieren. Wenn die Entwickler*innen zum Beispiel 20 Parameter mit je drei Werten – dem höchsten, dem mittleren und dem kleinsten – unter Beachtung aller denkbaren Kombinationsmöglichkeiten überprüfen möchten, benötigten sie mehrere Milliarden Versuche. Auch der Versuch, manuell sinnvolle Testfälle auszuwählen, ist bei der hohen Anzahl an Einflussparametern in einem annehmbaren Zeitrahmen kaum realisierbar. Mithilfe der neuen Methodik lässt sich deutlich schneller ein Ergebnis erzielen.

Die IAV-Software konnte für ein komplexes Beispiel in einem Parameterraum mit 20 Parametern nach 5.000 Versuchen bereits 98 Prozent aller möglichen Versuche ausschließen – damit konzentriert sich die weitere Untersuchung auf die verbliebenen zwei Prozent des Parameterraums.

KI in der Modellbildung: Fazit

Die gezeigte KI-basierte Methode bietet neue Möglichkeiten, technische Systeme und auch Software auszulegen sowie deren Funktionssicherheit zu prüfen. Damit entlastet sie auch bei der Freigabe und Validierung eines finalen Systems effizient. Dazu müssen lediglich der zu testende Parameterraum und das Testziel definiert werden. Der Rest wird automatisiert und hocheffizient erledigt. Insofern ist die vorgestellte Methode ein essenzieller Baustein, um auch in Zukunft mit geringem zeitlichem und personellem Aufwand komplexe Systeme zu entwickeln und zu validieren.

Der Autor Mike Hartrumpf ist Product Owner im Team Simulation & Modeling bei IAV, Autor Dr. Roland Kallweit ist Head of
Automated Driving Function and Simulation bei IAV.

Lesen Sie auch: Time-to-Market: Der Weg zur schnelleren Markteinführung