Jump to ContentJump to Main Navigation
Show Summary Details
More options …

tm - Technisches Messen

Plattform für Methoden, Systeme und Anwendungen der Messtechnik

[TM - Technical Measurement: A Platform for Methods, Systems, and Applications of Measurement Technology
]

Editor-in-Chief: Puente León, Fernando / Zagar, Bernhard


IMPACT FACTOR 2018: 0.594

CiteScore 2018: 0.54

SCImago Journal Rank (SJR) 2018: 0.261
Source Normalized Impact per Paper (SNIP) 2018: 0.563

Online
ISSN
2196-7113
See all formats and pricing
More options …
Volume 86, Issue s1

Issues

Fusion of range measurements and semantic estimates in an evidential framework / Fusion von Distanzmessungen und semantischen Größen im Rahmen der Evidenztheorie

Sven Richter
  • Corresponding author
  • Institut für Mess- und Regelungstechnik (MRT), Karlsruher Institut für Technologie (KIT), Engler-Bunte-Ring 21, Karlsruhe, Germany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Sascha Wirges / Hendrik Königshof / Christoph Stiller
  • Institut für Mess- und Regelungstechnik (MRT), Karlsruher Institut für Technologie (KIT), Engler-Bunte- Ring 21, Karlsruhe, Germany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
Published Online: 2019-08-27 | DOI: https://doi.org/10.1515/teme-2019-0052

Abstract

A detailed reconstruction of the environment is a crucial component of mobile robotic systems and enables higher level scene understanding. To achieve information redundancy heterogenous sensors need to be used with each sensor having specific strengths and weaknesses. Therefore, the goal of this work is to fuse information from multiple lidars, radars, a stereo camera and semantic camera information into one common scene representation. In contrast to past publications, we focus on the combination of distance measurements and semantic estimates in the image domain in one common evidential framework. Grid maps are used as common fusion structure which enable efficient data processing. The approach is validated on an automated driving plattform in real traffic scenarios. Experiments show that the scene reconstruction precision increases while still retaining the real-time capability.

Zusammenfassung

Eine präzise Rekonstruktion der Umgebung ist ein notwendiger Bestandteil mobiler automatisierter Systeme und ermöglicht abstrakteres Szenenverstehen. Um Informationsredundanz zu erhalten, müssen heterogene Sensoren verwendet werden, wobei jeder Sensor spezifische Stärken und Schwächen besitzt. Ziel dieser Arbeit ist es daher, Information von mehreren Lidar-, Radarund Stereokamerasensoren sowie semantische Kamerainformation in einer gemeinsamen Szenenrepräsentation zu fusionieren. Im Gegensatz zu bisherigen Arbeiten wird hier das Hauptaugenmerk auf die Kombination von Distanzmessungen und semantischen Informationen aus dem Bildbereich in einem gemeinsamen evidenztheoretischen Rahmen gelegt. Dabei werden Rasterkarten verwendet, welche eine effiziente Datenverarbeitung ermöglichen. Der Ansatz wird mit einem automatisierten Versuchsträger anhand eines echten Verkehrsszenarios validiert. Experimente zeigen, dass die Genauigkeit mit Hinzunahme von Sensoren erhöht werden kann ohne die Echtzeitfähigkeit zu verlieren.

Keywords: Sensor data fusion; evidence theory; grid maps

Schlüsselwörter: Sensordatenfusion; Evidenztheorie; Rasterkarten

About the article

Published Online: 2019-08-27

Published in Print: 2019-09-01


Citation Information: tm - Technisches Messen, Volume 86, Issue s1, Pages 102–106, ISSN (Online) 2196-7113, ISSN (Print) 0171-8096, DOI: https://doi.org/10.1515/teme-2019-0052.

Export Citation

© 2019 Oldenbourg Wissenschaftsverlag GmbH, Rosenheimer Str. 145, 81671 München.Get Permission

Comments (0)

Please log in or register to comment.
Log in