Skip to content
Publicly Available Published by Oldenbourg Wissenschaftsverlag September 13, 2016

Erzeugung präziser Referenzdaten für die 3D-Kopfposenschätzung

Creating precise reference data for 3D head pose estimation
Sebastian Vater, Johannes Pallauf, Marian Hoffmann, Thorsten Stein and Fernando Puente León
From the journal tm - Technisches Messen

Zusammenfassung

In dieser Arbeit wird eine Methode zur Erzeugung von Referenzdaten für die 3D-Kopfposenschätzung mit Hilfe eines Vicon MX Motion-Capture-Systems vorgestellt. Im Rahmen der Arbeit wurden jeweils 22 Videos von sechs Probanden mit einer handelsüblichen RGB-Kamera mit einer Frequenz von 30 Bildern pro Sekunde aufgenommen. Die Videosequenzen zeigen Szenarien, welche aus Drehbewegungen des Kopfes um die drei Raumachsen unter verschiedenen Beleuchtungsbedingungen bestehen. Die Videos wurden mit einer Auflösung von 800 × 600 Bildpunkten im RGB24-Format aufgenommen, welche eine weitere Bildverarbeitung zur Detektion charakteristischer Merkmale zulässt. Über die Referenzdaten der Kopfposition hinaus wurden Informationen über die Blickrichtung der Probanden aufgezeichnet, indem die Probanden aufgefordert wurden, Punkte bekannter Koordinaten auf einem Bildschirm zu verfolgen. Dieser Beitrag liefert eine detaillierte Beschreibung des Messaufbaus und der Durchführung. Ziel ist es eine Methode vorzustellen, um aus den 3D-Trajektorien der Marker des Motion-Capture-Systems Referenzdaten für den Zustandsvektor des Kopfes zu bestimmen. Darüber hinaus wird ein mit der vorgestellten Methode erzeugter Datensatz zur Validierung von erscheinungsbasierten Algorithmen zur Kopfposenschäztung bereitgestellt.

Abstract

This article presents a method for creating ground truth data for 3D head pose estimation utilizing a Vicon MX motion capture system. In the context of this work 22 video sequences of six individuals were captured using an off-the-shelf RGB camera with a rate of 30 frames per second. The sequences consist of scenarios that show head rotations with respect to each rotational axis undergoing different lighting conditions. The video data was captured at a resolution of 800 × 600 pixels in the RGB24 format, allowing for further image processing to detect characteristic features. In addition to the provided 3D head pose data, information about the gaze was recorded by requesting the user to follow points displayed on a screen. The article describes the measurement setup as well as the experimental procedure in detail. The goal is to show how the 3D trajectories of the markers of the motion capture system can be transformed into reference data for the state vector of the head. Furthermore, a dataset created with the proposed method is provided that allows a validation of appearance-based head pose estimation algorithms.

Erhalten: 2015-11-12
Revidiert: 2016-7-6
Angenommen: 2016-7-10
Online erschienen: 2016-9-13
Erschienen im Druck: 2016-9-28

©2016 Walter de Gruyter Berlin/Boston

Scroll Up Arrow