3D-Modell einer sich bewegenden Hand aus Webcam-Bild

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Die Bewegungen von Hand und Fingern innerhalb von Millisekunden zu erfassen, wird für viele Anwendungen immer wichtiger – angefangen bei virtueller Realität über Mensch-Maschine-Interaktion bis hin zu Industrie 4.0. Bisher war dafür hoher technischer Aufwand notwendig, was wiederum die Einsatzmöglichkeiten beschränkte. 

cebit_informatik_142995

Die Bewegungen von Hand und Fingern innerhalb von Millisekunden zu erfassen, wird für viele Anwendungen immer wichtiger – angefangen bei virtueller Realität über Mensch-Maschine-Interaktion bis hin zu Industrie 4.0. Bisher war dafür hoher technischer Aufwand notwendig, was wiederum die Einsatzmöglichkeiten beschränkte.

Informatiker des Max-Planck-Instituts für Informatik haben nun ein Softwaresystem entwickelt, das aufgrund des Zusammenspiels verschiedener künstlicher neuronaler Netze lediglich die eingebaute Kamera eines Laptops voraussetzt. Erstmals präsentieren die Forscher das Programm am Stand G75 in Halle 27 der Computermesse Cebit, die ab 11. Juni in Hannover stattfindet.
 
Hält die Informatikerin Franziska Müller ihre Hand vor die Laptop-Kamera, erscheint deren virtuelles Pendant auf dem Bildschirm. Sofort wird dieses von einem bunten, virtuellen Handknochen überlagert. Egal, welche Bewegungen Müllers Hand real vor der Webcam macht, die farbigen Fingerknochen des Modells tun es auch. Müller demonstriert die Software, die sie zusammen mit Professor Christian Theobalt und weiteren Forschern des Max-Planck-Instituts für Informatik in Saarbrücken, der US-amerikanischen Universität Stanford und der spanischen Universität Rey Juan Carlos entwickelt hat. Bisher kommt keine andere Software mit einer solch preiswerten Kamera aus. Da sie damit in nahezu jeder Art von gefilmter Szene funktioniert, ist sie überall einsetzbar und übertrumpft damit bisherige Ansätze, die eine Tiefenkamera oder mehrere Kameras voraussetzten.
 
Das Rechenverfahren, mit dem die Software die zweidimensionale Information des Videobildes in Echtzeit in das dreidimensionale Bewegungsmodell der Handknochen verwandelt, basiert auf einer speziellen Art von künstlichem neuronalen Netz, einem so genannten „convolutional neural network“, kurz CNN. Die Forscher haben es darauf trainiert, Handknochen zu erfassen. Die dafür notwendigen Trainingsdaten haben sie mit einem weiteren künstlichen neuronalen Netz generiert. Das Ergebnis: Die Software berechnet in Millisekunden die exakten 3-D-Posen der Fingerknochen. Selbst wenn einzelne davon durch einen in der Hand gehaltenen Apfel verdeckt werden, beeinträchtigt dies die Software nicht. Lediglich mehrere zusammenarbeitende Hände verwirren die Software bislang noch. Dies zu lösen, ist das nächste Ziel der Forscher.

Max-Planck-Institut für Informatik an der Messe CeBIT 2018: Stand G75 in Halle 27
 

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

avatar
  Abonnieren  
Benachrichtige mich bei

Andere Leser haben sich auch für die folgenden Artikel interessiert

Werbung

Redaktionsbrief

Tragen Sie sich zu unserem Redaktions-Newsletter ein, um auf dem Laufenden zu bleiben.

Aktuelle Ausgabe

Topthema: Kindgerechte Orthesen dank 3D-Druck & Simulation

ANDIAMO GARANTIERT PERFEKTEN SITZ MIT ALTAIR HYPERWORKS

Mehr erfahren

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.