Deep Learning: Wie selbstfahrende Autos Szenen besser verstehen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Deep Learning: Wie selbstfahrende Autos Szenen besser verstehen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
Neue, an der Universität Freiburg entwickelte Methoden des Deep Learning verbessern die Wahrnehmung der Umgebung in selbstfahrenden Autos.
Deep Learning verbessert Szenenverständnis von autonomen Fahrzeugen

Quelle: Dr. Abhinav Valada

  • Selbstfahrende Autos sollten die Pixel des aufgenommenen Bildes Personen und Objekten zuordnen können, um sicher unterwegs zu sein.
  • Die Aufgabe zum Szenenverständnis wird zumeist mit einer Technik des maschinellen Lernens gelöst, dem so genannten Deep Learning (DL).
  • Dr. Abhinav Valada von der Universität Freiburg und sein Team haben ein neuartiges Verfahren entwickelt, das mittels künstlicher Intelligenz (KI) und Deep Learning visuelle Szenen schneller und effektiver erkennt.

Neue, an der Universität Freiburg entwickelte Methoden des Deep Learning verbessern die Wahrnehmung der Umgebung in selbstfahrenden Autos.

Menschen, Fahrräder, Autos oder Straße, Himmel, Gras: Welche Pixel eines Bildes gehören zu Personen oder Objekten, die sich im Vordergrund der Umgebung eines selbstfahrenden Autos befinden, und welche Pixel repräsentieren die städtische Kulisse? Diese Aufgabe, die als panoptische Segmentierung bezeichnet wird, ist ein grundlegendes Problem zahlreicher Bereiche wie selbstfahrende Autos, Robotik, Augmented Reality und sogar in der biomedizinischen Bildanalyse. Dr. Abhinav Valada, Inhaber der Juniorprofessur für Robot Learning am Institut für Informatik der Universität Freiburg und Mitglied von BrainLinks-BrainTools, geht dieser Forschungsfrage nach. Nun hat er mit seinem Team das neuartige Modell „EfficientPS“ entwickelt, das mittels Künstlicher Intelligenz (KI) und Deep Learning visuelle Szenen schneller und effektiver erkennt.

Aufgabe zum Szenenverständnis mit Deep Learning gelöst

Die Aufgabe zum Szenenverständnis wird zumeist mit einer Technik des maschinellen Lernens gelöst, dem so genannten Deep Learning (DL). Bei diesem lernen künstliche neuronale Netze, die vom menschlichen Gehirn inspiriert sind, aus großen Datenmengen, erklärt der Freiburger Forscher. Öffentliche Benchmarks spielen eine wichtige Rolle bei der Messung des Fortschritts dieser Techniken. „Seit vielen Jahren konkurrieren Forschungsteams von Konzernen wie Google oder Uber um den Spitzenplatz bei diesen Benchmarks“, sagt Rohit Mohan aus Valadas Team. Die neue Methode der Freiburger Informatikerinnen und Informatiker erreichte nun jedoch den ersten Platz in Cityscapes, dem vermutlich einflussreichsten öffentlichen Benchmark für Methoden zum Szenen-Verständnis im autonomen Fahren. Auch bei anderen Benchmark-Datensätzen wie KITTI, Mapillary Vistas und IDD ist EfficientPS gelistet.

KI-Modell erkennt Szenen auch in Städten, die ihm nicht bekannt sind

Auf der Website des Projekts zeigt Valada Beispiele dafür, wie das Team verschiedene KI-Modelle auf verschiedenen Datensätzen trainiert hat. Die Ergebnisse werden dem jeweiligen mit der Kamera aufgenommenen Bild überlagert, wobei die Farben zeigen, welcher Objektklasse das Modell das jeweilige Pixel zuordnet. So sind zum Beispiel Autos blau, Menschen rot, Bäume grün und Gebäude grau markiert. Darüber hinaus zeichnet das KI-Modell auch einen Rahmen um jedes Objekt, das es als separate Einheit betrachtet. Den Freiburger Forschenden ist es gelungen, das Modell so zu trainieren, dass es die gelernten Informationen städtischer Szenen von Stuttgart nach New York City überträgt. Obwohl das KI-Modell nicht wusste, wie eine Stadt in den USA aussehen könnte, war es in der Lage, Szenen aus New York City genau zu erkennen.

Die meisten bisherigen Methoden, die sich diesem Problem widmen, benötigen große Datenmengen und sind für den Einsatz in realen Anwendungen wie der Robotik, die stark ressourcenbeschränkt sind, zu rechenintensiv, erklärt Valada: „Unser EfficientPS erreicht nicht nur eine hohe Ausgabequalität, es ist auch die rechnerisch effizienteste und schnellste Methode. Damit werden die Anwendungsbereiche, in denen EfficientPS eingesetzt werden kann, deutlich erweitert.“

Bild: Rot für Menschen, Blau für Autos: Eine neue Methode erkennt mittels Künstlicher Intelligenz (KI) visuelle Szenen schneller und effektiver. Bild: Abhinav Valada

Website mit Live-Demonstrationen unterschiedlicher KI-Modelle

Beispielvideo: Fahrt durch New York City

Plattform „Cityscapes“

Erfahren Sie hier mehr über autonomes Fahren in der Simulation.

Lesen Sie auch: „3D-Modelle: Wie Experten mit KI Problemstellen schneller aufspüren“

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Redaktionsbrief

Tragen Sie sich zu unserem Redaktions-Newsletter ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: Optimiertes Handling von 3D-CAD-Daten für AR und VR

Simplifier-Modul von 3D_Evolution

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

* Jederzeit kündbar

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.