AR-Objekt-Tracking Visometry launcht Model-Tracking-Lösung VisionLib 4.0

Quelle: Pressemitteilung 2 min Lesedauer

Anbieter zum Thema

Visometry hat seine Model-Tracking-Lösung VisionLib um fünf Funktionen erweitert. Dazu gehören das Feature „Stationäres Objekt“ und die Möglichkeit, individuelle Tracking-Referenzen wiederzuverwenden.

Visometry erweitert VisionLib, seine Objekt-Tracking-Lösung, in der Version 4.0 um fünf neue Funktionen. Diese ermöglichen eine noch schnellere und bessere Qualitätsprüfung. (Bild:  Visometry)
Visometry erweitert VisionLib, seine Objekt-Tracking-Lösung, in der Version 4.0 um fünf neue Funktionen. Diese ermöglichen eine noch schnellere und bessere Qualitätsprüfung.
(Bild: Visometry)

Den Mitarbeitern über Mixed und Augmented Reality (AR) wertvolle Zusatzinformationen zu realen Objekten bereitstellen: Sobald dies unter anspruchsvollen industriellen Bedingungen gefragt ist, gilt VisionLib laut Hersteller als erste Wahl. Mit VisionLib 4.0 hat Visometry die neueste Version seiner plattformübergreifenden, professionellen Model-Tracking-Lösung ausgerollt. Schon bisher war sie nach eigenen Angaben die führende Tracking-Bibliothek für alle, die ihre Mitarbeiter über Mixed und Augmented Reality mit entscheidenden digitalen Informationen zu realen Objekten unterstützen wollen: Denn die Lösung performt auch bei schlechten Lichtverhältnissen, dynamischen Szenen sowie bei wenig strukturierten oder beweglichen Objekten. „Mit VisionLib 4.0 bekommen alle User von uns gleich fünf weitere Pluspunkte on top – damit bauen wir den Wettbewerbsvorsprung weiter aus“, sagt Dr. Harald Wuest, CEO von Visometry. Bei der Model-Tracking-Lösung können sich industrielle Anwender – zum Beispiel Qualitätsprüfer – über die folgenden neuen Features freuen:

Erstens verbessert die Funktion „Stationäres Objekt“ die Tracking-Stabilität, insbesondere bei großen Bauteilen. Für diese weiter optimierte Nachverfolgung unbewegter Objekte hat der Hersteller die SLAM-basierte Kameraposition mit den modellbasierten Tracking-Ergebnissen noch enger verzahnt. Das hilft Nutzern besonders dann, wenn nur kleine Ausschnitte des Modells im Kamerabild sichtbar sind.

Zweitens ermöglicht es die neue Version, die Tracking-Anchor-Prefab-Erstellung einfach über das Kontextmenü zu erledigen. Konkret können Entwickler jetzt ein Referenzobjekt (den Tracking Anchor) direkt aus dem Unity-Kontextmenü als vordefiniertes digitales Objekt (Prefab) exportieren. Tracking-Setups können damit mühelos eingerichtet, effizient verwaltet und projektübergreifend wiederverwendet werden.

Die dritte Neuerung ist, dass sich benutzerdefinierte Tracking-Parameter in Unity noch einfacher und intuitiver festlegen lassen. Das beschleunigt den Entwicklungsprozess und minimiert Fehlerrisiken.

Die verbesserte Validierung von Parametern gilt als Vorteil Nummer vier: Parameter falschen Typs werden nicht länger automatisch konvertiert, was unerwartetes Verhalten reduziert und das Debugging vereinfacht. Das stellt Tracking-Konfigurationen sicher, die immer exakt wie gewünscht funktionieren.

Fünftens bietet die Lösung ihren Anwendern vereinfachte und optimierte Benutzeroberflächen und APIs: Dank verbesserter Konsistenz und Strukturen von Komponenten sowie Funktionen wird die Nutzung des Software Development Kit (SDK) deutlich erleichtert. Das macht die Entwicklung schlanker und bedienungsfreundlicher. Außerdem können sich User dadurch sicher sein, dass sie mit der aktuellsten, unterstützten Oberfläche arbeiten.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung