Ein weitgehend autonomer Betrieb, wie er für PKW geplant ist, kann die Einsatzmöglichkeiten auch bei autonomen mobilen Robotern erweitern. Um den dazu notwendigen hohen Automatisierungsgrad zu erreichen, müssen die Herausforderungen bei anspruchsvollen Anwendungen mit mehreren Kameras bewältigt werden. Notwendig ist eine bessere Wahrnehmung der Umgebung durch Sensor-Kamera-Systeme. Wie dies sehr gelingen kann, zeigt ifm mit seiner O3R-Plattform.
(Quelle: ifm electronic)
Autonome Transportfahrzeuge kommen in der Intralogistik immer häufiger zum Einsatz. Diese können selbstständig Waren von Punkt A zu Punkt B transportieren. Die Vorteile liegen auf der Hand: Es wird weniger Personal benötigt und die Systeme können praktisch rund um die Uhr im Einsatz sein. In der einfachsten Version fahren sogenannte Automated Guided Vehicles (AGV) entlang fest definierter Wege, die beispielsweise durch optische, magnetische oder induktive Leitlinien im Boden definiert werden. Sensoren im AGV erkennen den Verlauf der Linie und der Steuerrechner sorgt dafür, dass sich das AGV entlang dieser Linie bewegt.
Roboter bieten mehr Flexibilität als autonome Transportfahrzeuge
AGV sind vergleichsweise einfach zu realisieren und schon seit Jahrzehnten in den unterschiedlichsten Anwendungen im Einsatz. Sie sind aber in ihren Möglichkeiten begrenzt und können beispielsweise keine alternativen Wege verwenden, die nicht mit entsprechenden Navigationslinien versehen sind. Eine deutlich höhere Flexibilität bieten sogenannte Autonome Mobile Roboter (AMR), deren Navigationsfähigkeiten wesentlich umfangreicher sind. Diese können alternative Fahrrouten nehmen und sind auch nicht an in den Boden eingelassene Linien gebunden.
Sicherheit ist ein Muss
Überall dort, wo AGV oder AMR zusammen mit Menschen gemeinsame Flächen benutzen, sind Sicherheitsvorkehrungen notwendig, die eine Gefährdung von Personen absolut zuverlässig verhindern. Hierzu sind praktisch in allen Fällen Sicherheits-Laserscanner in die Fahrzeuge integriert, die Hindernisse in Fahrtrichtung erkennen und das Fahrzeug sicher bis zum Stillstand abbremsen, um eine Kollision auszuschließen. Die Scanner sind so installiert, dass sie Hindernisse in rund 20 cm Höhe – also etwa auf Knöchelhöhe – erkennen.
Dies ermöglicht zwar einen sicheren Personenschutz, andere Hindernisse, die oberhalb oder unterhalb des Erfassungsbereichs des Scanners liegen, werden so aber nicht erkannt. Typische Kollisionen passieren daher zum Beispiel mit nicht vollständig geöffneten Rolltoren, Regalen, Absperrgittern, angehobene Zinken eines Gabelstaplers, Gitterboxen, Plattform-Steigern und ähnlichen Gegenständen, die oberhalb des Erkennungsbereichs liegen. Auch auf dem Boden befindliche Hindernisse werden nicht erkannt. Dies können beispielsweise Absätze und Stufen sein aber auch die bis zum Boden abgesenkten Zinken des Gabelstaplers oder eine leere Palette.
(Bildverarbeitung kann fahrerlose Transportfahrzeuge in der Intralogistik bei der Navigation unterstützen. Bild: ifm electronic)
3D-Kameras bieten enorme Vorteile
Weitere Sensoren, die im AGV oder AMR verbaut werden, können die Sicherheit gegenüber Kollisionen deutlich verbessern. Letztendlich geht es darum, die Wahrnehmungsfähigkeiten der Fahrzeuge zu verbessern. Gleichzeitig muss die Steuerungssoftware in der Lage sein, die Daten zu verarbeiten, um so die passenden Aktionen auszuführen. Es können verschiedene physikalische Sensor-Prinzipien wie Ultraschall oder Radar verwendet werden, Kameras spielen aber beim Wahrnehmen der Umgebung eine wichtige Rolle. Insbesondere 3D-Kameras, die mit dem TOF-Verfahren zu jedem Bildpunkt auch eine Abstandsinformation ermitteln, bieten enorme Vorteile. In der Vergangenheit waren solche Kameras vergleichsweise teuer, und die Software zur Bildverarbeitung war anspruchsvoll und verlangte entsprechendes Know-how während der Entwicklung.
AMR statt autonome Transportfahrzeuge: Gesamte Umgebung lückenlos erfassen
Einen neuen Ansatz bietet das Perception-System O3R von ifm. Das Unternehmen, das 20 Jahre Erfahrung in der Entwicklung von 3D-Kameras auf TOF-Basis hat, stellt damit eine Hardware-Plattform zur Verfügung, die auf einer zentralen Video Processing Unit (VPU) basiert. An diese lassen sich über FPD-Link bis zu sechs Kameraköpfe verbinden. Zusätzliche Sensoren beispielsweise Radar oder Lidar können über eine Gigabit-Ethernet-Schnittstelle angeschlossen werden. Die Kameraköpfe können im Fahrzeug flexibel eingebaut und angeordnet werden. Somit lässt sich die gesamte Umgebung lückenlos erfassen. Da die Rechenleistung überwiegend von der VPU zur Verfügung gestellt wird, können die Kameras entsprechend einfacher ausgelegt und damit kostengünstiger angeboten werden. ifm bietet die passenden Kameras, die 3D-Sensoren oder eine Kombination aus 3D- und 2D-Sensoren mit verschiedenen Öffnungswinkeln und Auflösungen.
(Auf der Hardware-Plattform O3R von ifm kann das Obstacle Detection System (ODS) sehr einfach über einen Wizard im Vision Assistant eingerichtet werden. Bild: ifm electronic)
O3R-Plattform einfach in Robotik-Applikationen integrierbar
Die VPU der O3R-Plattform ist ein auf NVIDIA basierendes leistungsfähiges Linux-System. Da die Leistungsfähigkeit skalierbar ist, kann sie auf die jeweilige Applikation angepasst werden. Die meisten der auf der Plattform laufenden Anwendungen verwenden die sogenannte Sensordatenfusion, bei der Informationen aus der Kombination der Daten verschiedener Sensoren gewonnen wird. Mit diesen Informationen können dann AGV und AMR optimiert betrieben werden. Mit den verfügbaren ROS2-Treibern lässt sich das System einfach in Robotik-Applikationen integrieren. Sowohl für die Vorentwicklung als auch die Serienentwicklung stellt ifm umfangreiche Software-Tools sowie Entwicklungsplattformen zur Verfügung. Zugang erhalten Entwickler über die O3R-Website O3R.ifm.com sowie über Github.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
System unterdrückt Artefakte
Um Anwendungen möglichst einfach umsetzen zu können, bietet ifm mit seinem Vision Assistant eine leistungsstarke Lösung, in der zahlreiche typische Aufgaben bereits fertig implementiert sind. Die Idee hinter dem Vision Assistant: möglichst viele Funktionen sollen durch einfache Parametrierung erledigt werden. Eine neue Funktion für die O3R-Plattform ist das Obstacle Detection System (ODS). Dieses erkennt Hindernisse, die sich auf dem Weg des AGV oder AMR befinden. Im Gegensatz zu einem einfachen Sicherheits-Laserscanner ist der Erfassungsbereich für autonome Transportfahrzeuge und Roboter aber nicht auf die Knöchelhöhe limitiert.
Der Algorithmus im ODS ist so konzipiert, dass er möglichst sicher und zuverlässig Objekte erkennt. Verwendet wird dabei ein sogenanntes Occupancy Grid, eine Art Schachbrettdarstellung der Umgebung mit Belegterkennung pro Schachfeld der Größe 5 x 5 cm, oder Zonen, in denen Bereiche in Form von Polygonen definiert werden können. Diese werden je nach Fahrtrichtung, Geschwindigkeit und Lenkbewegungen dynamisch angepasst, so wie man es etwa von Rückfahrkameras in PKW kennt.
Dazu ist eine Kommunikation zwischen O3R und der Fahrzeugsteuerung notwendig. Gleichzeitig wurde bei der Entwicklung Wert daraufgelegt, dass es möglichst nicht zu Fehlerkennungen kommt. Indem jedes Objekt mehrfach hintereinander erkannt werden muss, unterdrückt das System Artefakte, die durch Staub oder Dunst im Sichtfeld der Kamera entstehen könnten. Generell kann die Empfindlichkeit des Systems angepasst werden, um Fehlerkennungen zu vermeiden.
Der Autor Dr. Jörg Lantzsch ist Inhaber der Agentur Dr. Lantzsch in Wiesbaden.