Skip to content
BY 4.0 license Open Access Published by Oldenbourg Wissenschaftsverlag January 10, 2020

Hochgenaue Kalibrierung eines holografischen Multi-Punkt-Positionsmesssystems

Highly accurate calibration of a holographic multipoint position measurement
Simon Hartlieb

Simon Hartlieb ist seit 2018 wissenschaftlicher Mitarbeiter am Institut für Technische Optik (ITO) der Universität Stuttgart. Von 2014 bis 2017 erlangte er den Abschluss M.Sc. in Maschinenbau mit Schwerpunkt auf Technische Optik und Mikrosystemtechnik an der Universität Stuttgart. Seine Hauptforschungsinteressen sind optische Positionsmessung, Bildverarbeitung und 3D Messtechnik.

EMAIL logo
, Michael Tscherpel

Michael Tscherpel hat Photonic Engineering an der Universität Stuttgart studiert. Er ist seit Mai 2019 als wissenschaftlicher Mitarbeiter am Institut für Technische Optik (ITO) in der Arbeitsgruppe ”3D-Messtechnik” angestellt.

, Flavio Guerra

Flavio Guerra received the M. Sc. degree in photonic engineering from the University of Stuttgart, Germany, in July 2017. In August 2017, he joined the Institute of Applied Optics, University of Stuttgart, Germany, where he currently works as a research scientist and PhD student. His work focuses on 3D optical metrology and the application of multipoint technique to large scale objects.

, Tobias Haist

Tobias Haist hat Physik an der Universität Stuttgart studiert und dort im Bereich Technische Optik promoviert. Er ist akademischer Oberrat am Institut für Technische Optik (ITO) und Gruppenleiter der Arbeitsgruppe ”3D Metrologie”. Seine Hauptforschungsinteressen sind räumliche Lichtmodulation, 3D Messtechnik sowie Bildverarbeitung.

, Wolfgang Osten

Prof. Dr. sc. nat. Wolfgang Osten war Direktor des Instituts für Technische Optik (ITO) der Universität Stuttgart u. a. mit den Hauptarbeitsgebieten: kohärente Optik, optische Messtechnik, digitale Bildverarbeitung, optische Sensorik für Produktionsautomatisierung, 3DOberflächenmesstechnik sowie kombinative optische Messverfahren.

, Michael Ringkowski

Michael Ringkowski received the B.Sc. and M.Sc. degrees in Engineering Cybernetics from the University of Stuttgart, Stuttgart, Germany, in 2014 and 2017, respectively. Since 2017 he has been a Research Assistant at the Institute for System Dynamics, University of Stuttgart, Germany. His current research interests include estimation and control of coordinate measuring machines, with a focus on increasing dynamics while maintaining precision.

and Oliver Sawodny

Oliver Sawodny received the Dipl.-Ing. degree in electrical engineering from the University of Karlsruhe, Karlsruhe, Germany, in 1991, and the Ph.D. degree from the Ulm University, Ulm, Germany, in 1996. In 2002, he became a Full Professor with the Technical University of Ilmenau, Ilmenau, Germany. Since 2005, he has been the Director of the Institute for System Dynamics, University of Stuttgart, Stuttgart, Germany. His current research interests include methods of differential geometry, trajectory generation, and applications to mechatronic systems.

From the journal tm - Technisches Messen

Zusammenfassung

Mit einem Multi-Punkt-Positionsmesssystem ist es möglich, Positionen und Orientierungen mit sehr hoher Genauigkeit bildbasiert zu messen. Das Messsystem besteht aus einem einfachen Kamerasystem, das um ein diffraktives optisches Element (DOE) erweitert wird. Durch die Multi-Punkt-Methode (MPM) werden Messunsicherheiten von deutlich unter 1/100 Pixel erzielt. Um dies in der Praxis anwenden zu können, ist eine entsprechend hochgenaue Kalibrierung nötig. In diesem Beitrag werden verschiedene Kalibrierverfahren und -funktionen vorgestellt und untersucht. Die Auswertung zeigt, dass sich zur Kalibrierung ein allgemeiner Polynomansatz zusammen mit der Nanomess- und Positioniermaschine NPMM-200 am besten eignet. Es werden Standardabweichungen des Restfehlers von 0,31 µm im Objektraum (etwa 6/1000 Pixel im Bildraum) auf einer Fläche von etwa 87mm×49mm erreicht (Polynomgrad = 9).

Abstract

A multipoint position measurement system is an image based measurement system to detect positions and orientations with very high accuracy. It consists of a simple camera system that is extended by a diffractive optical element (DOE) to reach accuracies of less than 1/100 pixel. To use this method in practice, an accurate calibration is necessary. In this artircle we will introduce different calibration methods and -functions and investigate them. It is to be seen that calibration with a general polynomial in combination with the Nanomeasurement- and positioning machine NPMM-200 provides the necessary means to reach standard deviations in reprojection error of 0,31 µm in object space (approximately 6/1000 pixel in image space) in an area of 87mm×49mm (polynomial order = 9).

1 Einleitung und Stand der Technik

1.1 Einleitung

In vielen industriellen Anwendungen spielt die hochgenaue Messung von Positionen eine bedeutende Rolle. Für Werkzeug- beziehungsweise Koordinatenmessmaschinen ist vor allem die Relativposition zwischen dem Bearbeitungskopf (TCP) und einem zu bearbeitenden Werkstück (WP) von Interesse. In der Regel werden in konventionellen Systemen die Positionen des TCP indirekt über Messsysteme in den Verfahrachsen (z. B. interferometrische Messung, Glasmaßstab) ermittelt. Dabei wird von ideal starren Körpern ausgegangen. Kurze Prozesszeiten haben oft hohe Beschleunigungen zur Folge, die in Kombination mit großen bewegten Massen zu einer Abweichung zwischen der von der Maschine ermittelten und der realen Relativposition führt.

In Abbildung 1 ist ein einfaches Verfahren zur direkten Messung der Relativposition dargestellt. Es werden sowohl am Werkzeug als auch am Werkstück Leuchtmarker platziert und über zwei Kamerasysteme abgebildet.

Abb. 1 Bildbasierte Messung der Relativposition zwischen Werkzeug (TCP) und Werkstück (WP) in einer Werkzeugmaschine.
Abb. 1

Bildbasierte Messung der Relativposition zwischen Werkzeug (TCP) und Werkstück (WP) in einer Werkzeugmaschine.

Abb. 2 Telezentrisches Linsensystem (L1 und L2) mit diffraktivem optischen Element (DOE) in der Blendenebene zur Erzeugung der Multispotmuster.
Abb. 2

Telezentrisches Linsensystem (L1 und L2) mit diffraktivem optischen Element (DOE) in der Blendenebene zur Erzeugung der Multispotmuster.

Somit kann im Bild die Relativposition zwischen beiden Leuchtmarkern direkt bestimmt werden. In der Praxis ist nach dieser Methode die Position eines Leuchtmarkers mit einer RMS-Abweichung (quadratischer Mittelwert) von etwa 1/100 Pixel detektierbar [1]. Für die Anwendung in einem Messsystem muss durch eine Kalibrierung der Zusammenhang zwischen dem Bildraum und dem Objektraum hergestellt werden. Mit einer Kalibrierung nach dem aktuellen Stand der Technik verringert sich die Genauigkeit der Positionsbestimmung je nach Kalibrierung auf etwa 0,05 Pixel, was im Objektraum etwa 3 µm entspricht (Abbildungsmaßstab =0,1 und Pixelgröße =5,86µm). Hochgenaue Bearbeitungs- und Messanwendungen wie beispielsweise die Präzisionsoberflächenbearbeitung von Optiken oder die Vermessung von Asphären verlangen jedoch deutlich geringere Messunsicherheiten. Die MPM zusammen mit einer entsprechend genauen Kalibrierung bietet die Möglichkeit, diese Genauigkeit erheblich zu verbessern.

Die Idee der MPM ist es, einen einzelnen leuchtenden Objektpunkt auf ein Muster von N Bildpunkten auf dem Kamerasensor abzubilden, um so durch anschließende Mittelung die Genauigkeit der Positionsdetektion zu steigern. Das vordefinierte Muster wird durch ein diffraktives optisches Element (DOE) erzeugt. In Abbildung 2 ist ein beidseitig telezentrisches Linsensystem mit einem DOE in der Blendenebene dargestellt. Ein einzelner Lichtpunkt wird in der Abbildung durch das DOE in ein Muster von N=21 Spots repliziert. Da Störeinflüsse wie Photonenrauschen, Diskretisierung oder Sensorrauschen zwischen den Replikationen unkorreliert sind, verbessert eine Mittelung über alle Spotschwerpunkte die Detektionsgenauigkeit im Idealfall um den Faktor N. Die RMS-Abweichung von der exakten Position konnte in experimentellen Untersuchungen von 0,01 Pixel auf 0,0028 Pixel für N=16 verbessert werden [2]. Für eine theoretisch ideale Kalibrierung wäre somit ein bildbasiertes Messsystem mit einer objektseitigen Genauigkeit von 0,164 µm möglich.

Die mit der MPM erzielbare extrem geringe (statistische) Messunsicherheit verlangt für absolut messende Anwendungen nach einer entsprechend genauen Kalibrierung. Gängige Kamerakalibrierungen (siehe z. B. [3], [4], [5], [6]) sind beim Stand der Technik nicht in diesem Genauigkeitsbereich realisiert.

Im Folgenden werden wir entsprechende Verzeichnungsmodelle darstellen und experimentelle Ergebnisse der hochgenauen Kalibrierung eines telezentrischen Objektivs mit der Nanomess- und Positioniermaschine NPMM-200 (siehe Abschnitt 4.1) vorstellen.

1.2 Telezentrisches Kameramodell

Typische beidseitig telezentrische Objektive bestehen in der Regel aus zwei Linsengruppen. Die Aperturblende ist in der gemeinsamen Brennebene der beiden Gruppen (siehe Abb. 2). Hierdurch wird sichergestellt, dass die Schwerstrahlen der Abbildung sowohl objektseitig wie auch bildseitig für alle Feldpunkte parallel zur optischen Achse verlaufen. Der Abbildungsmaßstab bleibt somit bei Objektverschiebung konstant (objektseitige Telezentrie) und die am Bildsensor ankommende Strahlungsverteilung ist für jeden Feldpunkt gleich orientiert (bildseitige Telezentrie). Dadurch nehmen die Mikrolinsen vor den Pixeln keinen Einfluss auf die Lichtverteilung auf dem Sensor. Im Umfeld der hochgenauen bildbasierten Messtechnik werden aus diesen Gründen häufig beidseitig telezentrische Objektive verwendet. Da in diesem Beitrag höchste Genauigkeiten angestrebt werden, wurde ein beidseitig telezentrisches Kamerasystem zur Abbildung gewählt. Es sei jedoch darauf hingewiesen, dass die MPM gleichfalls in entozentrischen Systemen einsetzbar ist [7].

Die gesamte verzeichnungsfreie telezentrische Abbildung eines Objektpunktes P=XWYWZWT vom Weltkoordinatensystem auf die unverzeichneten Bildkoordinaten [xu,yu] im Sensorkoordinatensystem ergibt sich zu [8]

(1)xuyu1=mdu0u00mdvv0001intrinsischr11r12r13txr21r22r23ty0001extrinsischXWYWZW1

Die extrinsische Kalibriermatrix beschreibt die Beziehung zwischen dem Welt- und dem Kamerakoordinatensystem, wobei R=rij die Rotationsmatrix und T=txtyT der Translationsvektor zwischen diesen Koordinatensystemen ist.

Die intrinsische Kameramatrix beschreibt die ideale Abbildung bzw. Projektion des Punktes P auf die Bildebene. Darin sind m die Vergrößerung und du, dv die Pixelgrößen in x- bzw. y-Richtung des Sensors. Der Versatz zwischen dem Sensorkoordinatenursprung und der Bildmitte wird durch u0 und v0 berücksichtigt. Da ein telezentrisches Objektiv im idealen Fall eine perfekte Parallelprojektion ausführt, besitzt die Tiefenkomponente ZW keinen Einfluss auf die Bildposition [9].

Ein reales telezentrisches Abbildungssystem besitzt eine Verzeichnung, welche durch Addition der Fehlerfunktionen δx,δy auf die unverzeichneten Koordinaten [xu,yu] berücksichtigt wird:

(2)xdyd=xuyu+δx(xu,yu)δy(xu,yu)

Bei einem Objektiv mit Telezentriefehler ergibt sich eine Variation der Parameter der intrinsischen Matrix und – in geringem Maß – der Verzeichnung, so dass Gleichungen (1) und (2) für geeignete Ebenen zu betrachten sind. Ein gängiges Verfahren um Verzeichnungen im Kamerasystem zu korrigieren besteht darin, sie durch ein passendes Verzeichnungsmodell in Form eines Polynoms anzunähern.

1.3 Kalibrierung und Verzeichnungsmodelle

Für eine Kamerakalibrierung wird häufig ein bekanntes, planares Kalibriertarget in unterschiedlichen Ausrichtungen und Positionen vom Kamerasystem aufgenommen [10], [11], [12], [13]. Die bekannte Geometrie des Targets wird durch das optische System fehlerbehaftet (“verzeichnet”) abgebildet. Eine Korrektur kann nach der Bildaufnahme durch geeignete Kalibrierfunktionen erreicht werden, wobei zwei unterschiedliche Modelle zur Anwendung kommen [14]. Im physikalischen Modell wird die Ursache der Verzeichnung untersucht und deren Auswirkungen durch speziell darauf angepasste Korrekturterme kompensiert. Im Gegensatz dazu wird im phänomenologischen Modell der Effekt der Verzeichnung unabhängig von dessen Ursache korrigiert [14]. Beide Modelle werden nachfolgend kurz vorgestellt.

Physikalisches Modell

Bei diesem Modell werden üblicherweise die Verzeichnungsterme der Radial- (δxr), Dezentrierungs- (δxd) und Prismenkeilverzeichnung (δxp) betrachtet [3], [4], [15], [16]. Die Fehler δx,δy aus Gleichung (2) ergeben sich folglich aus der Summe dieser Terme

(3)δx(xu,yu)=δxr+δxd+δxpδy(xu,yu)=δyr+δyd+δyp.

Drückt man die von Weng u. a. [15] beschriebenen Terme in kartesischen Koordinaten aus so erhält man für die radiale Verzeichnung

(4)δxr=k1xuxu2+yu2+k2xuxu2+yu22+δyr=k1yuxu2+yu2+k2yuxu2+yu22+.

Dabei sind k1,k2, die Koeffizienten der radialen Verzeichnung.

Die Prismenkeilverzeichnung kann durch eine Verkippung einzelner Linsen oder des Sensors beim Einbau verursacht werden. Mathematisch wird sie durch das Hinzufügen eines Prismenkeils modelliert. Es entstehen sowohl radiale als auch tangentiale Verzeichnungen, die Terme ergeben sich zu

(5)δxp=sinφ1i1xu2+yu2+i2xu2+yu22+δyp=cosφ1i1xu2+yu2+i2xu2+yu22+.

Der Winkel φ1 liegt zwischen der X-Achse des Kamerakoordinatensystems und der Achse maximaler tangentialer Verzeichnung; i1,i2 sind die Koeffizienten der Prismenkeilverzeichnung.

Die Terme der Dezentrierungsverzeichnung werden aus Platzgründen hier nicht aufgeführt, können jedoch in [15] nachgeschlagen werden.

Sowohl von Zollner u. a. [17] als auch von Salvi u. a. [18] wurden unterschiedliche physikalische Modelle untersucht und verglichen. Dabei schneidet die vorgestellte Methode nach Weng u. a. [15] mit einer Genauigkeit von 0,044 Pixel am besten ab. Sie wird z. B. in [4] angewendet, wobei eine Kalibriergenauigkeit von 0,052 Pixel erreicht wurde.

Phänomenologisches Modell

Die verzeichnete Position jedes Lichtpunktes wird bei diesem Ansatz durch eine Potenzreihe der Form

(6)xd=i=0norderj=0norderLijXWiYWjyd=i=0norderj=0norderMijXWiYWj

dargestellt. Dabei ist norder der Grad des Polynoms, Lij und Mij sind die Koeffizientenmatrizen der Potenzreihen für xd bzw. yd. Das Polynom ersetzt die externe und interne Kalibriermatrix aus Gleichung (1) und bildet die Lichtpunktposition direkt vom Weltkoordinatensystem auf den Bildsensor ab.

Tang u. a. haben in [5] den physikalischen und phänomenologischen Kalibrieransatz verglichen. Dabei ergab sich ein durchschnittlicher Restfehler von 0,03 Pixel für den physikalischen Ansatz und 0,04 Pixel für den phänomenologischen Ansatz (70 mm Objektiv, 9. Ordnung). In dem Artikel wird darauf hingewiesen, dass der Restfehler von 0,03 bis 0,04 Pixel etwa der Detektionsgenauigkeit von Eckpunkten entspricht. Somit liefern in diesem Genauigkeitsbereich beide Ansätze eine nahezu ideale Korrektur der untersuchten Objektive.

2 Kalibriermethode

Beim Stand der Technik werden heute Kamerakalibrierungen in der Regel mittels spezieller Kalibriertargets (z. B. Schachbrett) durchgeführt. Für die hier notwendige hochgenaue Kalibrierung sind entsprechende Standardverfahren nicht genau genug, da die Positionsbestimmung des einzelnen Kalibrierpunkts (z. B. Ecke Schachfeld) nicht die erforderliche Genauigkeit erzielt. Es ist also bereits bei der Kalibrierung die MPM anzusetzen und mit Lichtquellen zu arbeiten. Hierbei können entweder viele Quellen (z. B. Lochblendenarray) oder scannend eine Quelle verwendet werden.

2.1 Kalibriertarget

Als Kalibriertarget kann eine beleuchtete Lochmaske verwendet werden, deren Lochabstände so groß sind, dass sich die Multispotmuster auf dem Bildsensor nicht überlagern. Für die Beurteilung der Eignung dieser Methode werden folgende Fehlereinflüsse berücksichtigt und mit Hilfe von Simulationen untersucht:

  1. Beleuchtung der Lochmaske

  2. Toleranzen der Maskenlochposition

  3. Größe eines Maskenlochs

Als Simulationsmodell wird das Zemax®-Modell des im Messaufbau verwendeten telezentrischen Objektivs (DTCM110-150-AL) verwendet.

1. Beleuchtung: Eine generelle Herausforderung bei der Beleuchtung besteht darin, jeden Lichtpunkt der Lochmaske möglichst gleich auszuleuchten, um die mittels Grauwertschwerpunkt errechneten Positionen nicht zu verfälschen.

In Abbildung 3 sind drei mögliche Beleuchtungsarten dargestellt. Eine kollimierte Beleuchtung der lithografisch hergestellten Lochmaske wäre denkbar, ist jedoch sehr ineffizient, da ein Großteil des Lichts von der Maske reflektiert bzw. absorbiert wird. Ein Mikrolinsenarray vor der Lochmaske (vgl. Abb. 3 a)) verbessert die Lichtausbeute. Im Vergleich dazu, wird in Abb. 3 b) die Lochmaske in einem 2f-Aufbau mittels Streuscheibe beleuchtet. Die Streuscheibe wird gewählt, um eine möglichst gleichmäßige Abstrahlcharakteristik jedes Lichtpunktes auf der Lochmaske zu erzeugen. In der dritten Beleuchtungsvariante (Abb. 3 c)) wird jedes Maskenloch durch eine eigene Lichtquelle (z. B. LED) beleuchtet.

Abb. 3 Mögliche Beleuchtungen der Lochmaske. a) Kollimiert auf Mikrolinsenarray b) 2f-Aufbau mit Streuscheibe c) Lichtquelle direkt vor Maskenloch.
Abb. 3

Mögliche Beleuchtungen der Lochmaske. a) Kollimiert auf Mikrolinsenarray b) 2f-Aufbau mit Streuscheibe c) Lichtquelle direkt vor Maskenloch.

Durch die Simulation stellte sich heraus, dass bei den ersten beiden Varianten die Linse zur Beleuchtung des Mikrolinsenarrays bzw. der Lochmaske problematisch ist. Im Idealfall sollte so beleuchtet werden, dass an jedem Maskenloch der Hauptstrahl parallel zur optischen Achse austritt, um die Schwerpunktposition auf dem Sensor nicht zu verfälschen. Dies wird nur bei einer ideal kollimierten Beleuchtung erreicht. Bei Kataloglinsen führen Aberrationen dazu, dass die Hauptstrahlen im Feld nicht mehr parallel sind. Wie sich der Abstrahlwinkel Ψ auf die Spotposition y auswirkt, ist in Abbildung 4 dargestellt. In der Zemax®-Simulation wurde ein Maskenloch bei y=30mm mit paraxial kollimierten Lichtstrahlen unterschiedlicher Winkel Ψ beleuchtet. Die Spots der jeweiligen Strahlen werden durch das Simulationsmodell auf unterschiedliche Positionen y auf dem Detektor abgebildet. Die Auftreffpositionen schwanken über 6,5 µm. Zur Positionsmessung wird der Schwerpunkt dieser Verteilung auf dem Bildsensor ermittelt. Somit genügt ein Intensitätsunterschied von 1 % zwischen zwei Strahlbündeln die mit +5 mrad bzw. −5 mrad vom Maskenloch abstrahlen, um den Schwerpunkt auf dem Sensor um 13,4 nm zu verschieben. Bei einer Pixelgröße von 5,86 µm entspricht dies etwa 2/1000 Pixel. Dieser Fehlereinfluss würde somit bereits im Bereich der angestrebten Genauigkeit liegen. Ein aufwändiges telezentrisches Beleuchtungssystem könnte eingesetzt werden, vermeidet aber nicht die Problematik der Abhängigkeit von der räumlichen Abstrahlcharakteristik der Lichtquelle.

Abb. 4 Simulation des Zusammenhangs zwischen Hauptstrahlwinkel Ψ und Spotposition y′{y^{\prime }}.
Abb. 4

Simulation des Zusammenhangs zwischen Hauptstrahlwinkel Ψ und Spotposition y.

Die dritte Beleuchtungsvariante vermeidet diese Nachteile der beiden anderen Varianten. Allerdings ist sie sehr aufwändig in der Umsetzung, da jedes Maskenloch eine eigene aktive Lichtquelle benötigt, deren Ausrichtung, Abstrahlcharakteristik sowie Intensitätsverteilung möglichst gleich zu den anderen sein muss. Außerdem wirkt sich der Wärmeeintrag jeder Lichtquelle auf die Kalibriergeometrie aus. Es wurde ebenfalls die Verwendung eines Displays erwogen, auf dem die Lichtquellen der Lochmaske über einzelne leuchtende Pixel erzeugt werden. Aufgrund der Strahlvervielfältigung durch das Hologramm müsste in diesem Fall allerdings die Belichtungszeit der Kamera deutlich erhöht werden, wodurch sich das Signal-Rausch-Verhältnis verschlechtert und somit der Vorteil der MPM verloren geht.

2. Toleranzen: Die Positioniergenauigkeit einzelner Löcher in einer lithografisch geschriebenen Chrommaske liegt, für eine große Maske im Bereich 1 µm, was einem bildseitigen Fehler von 0,017 Pixel entspricht. Der Restfehler wird somit im Mittel selbst mit einer idealen Kalibrierfunktion immer von dieser Positionsgenauigkeit der einzelnen Maskenlöcher abhängen. Durch Messung der exakten Lage könnte dieser Wert weiter verbessert werden, der Aufwand hierfür wäre allerdings beträchtlich.

3. Größe: Um den Einfluss der Lochgröße auf den Schwerpunkt in der Sensorebene zu charakterisieren, muss die Lochmaske perfekt gleichmäßig ausgeleuchtet sein. Hierzu wurde in der Simulation das Maskenloch von einer kollimiert beleuchteten, nach dem Lambert-Gesetz streuenden Kreisfläche beleuchtet. Dies entspricht einer theoretisch perfekt gleichmäßigen Ausleuchtung. Um die Schwerpunktposition in dieser Genauigkeit angeben zu können, wurde Raytracing mit ≥ 106 Strahlen bei unterschiedlichen Größen der Lichtquelle durchgeführt. Die Abhängigkeiten des Schwerpunkts vom Lochradius sind in Tabelle 1 angegeben. Die Schwerpunktverschiebung zwischen den Lochradien 1 µm und 50 µm beträgt 12 nm, was ebenfalls etwa 2/1000 Pixel auf dem Sensor entspricht. Somit sollten die zur Kalibrierung und die zur Messung eingesetzte Lichtquelle möglichst die gleiche Größe haben. Die unterschiedliche Schwerpunktposition ist auf die Verzeichnung des Objektivs zurückzuführen. Je größer die Lichtquelle ist, desto unterschiedlicher sind die Wege der Randstrahlen durch das Objektiv, was zu unterschiedlichen Verzeichnungen führt.

Tab. 1

Schwerpunktposition y in Abhängigkeit der Maskenlochgröße bei y=30mm.

Radius RPosition yDifferenz zu R=1µm
1 µm3608,5834 µm
10 µm3608,5765 µm6,9 nm
50 µm3608,5714 µm12 nm

2.2 Positioniermaschine

Statt einer Lochmaske ist es ebenfalls möglich, jedes Maskenloch durch eine nacheinander an jede dieser Stellen positionierte Einzellichtquelle zu ersetzen. Zum Verfahren der Lichtquelle kann eine hochgenaue Positioniermaschine wie beispielsweise die Nanomess- und Positioniermaschine NPMM-200 [19] verwendet werden. Nachteilig an dieser Variante ist, dass keine “Single-Shot”-Kalibrierung möglich ist. Das mäanderförmige Positionieren der Lichtquelle benötigt Zeit, wodurch wechselnde Umgebungsbedingungen das Kalibrierergebnis verfälschen können. Weiterhin hängt das Kalibrierergebnis mitunter von der Genauigkeit der zur Verfügung stehenden Positioniermaschine ab.

Von Vorteil ist, dass zur Kalibrierung und in der Messanwendung dieselbe Lichtquelle eingesetzt werden kann. Positionsfehler auf dem Sensor, die durch unterschiedliche Abstrahlcharakteristik und Intensitätsverteilung auftreten, können so reduziert werden. Außerdem kann das Raster, auf dem die Lichtquelle verfahren wird, beliebig fein gewählt und so die Anzahl der Stützstellen für die Polynomoptimierung erhöht werden. Aufgrund der Untersuchungen des vorangegangenen Abschnitts wird zur Kalibrierung eine Positioniermaschine eingesetzt. Nachfolgend wird geklärt, welche Kalibrierfunktion zur Modellierung der Verzeichnung zu wählen ist.

3 Kalibrierfunktion

Um eine geeignete Kalibrierfunktion zu finden, wird mittels Raytracing ein einfaches telezentrisches Linsensystem (Objektfeld = 17,67 mm, NA = 0,00167, β = 0,1) untersucht. Um Fertigungsfehler zu simulieren wird die bildseitige Linse um 1 mm dezentriert und um 1° zur optischen Achse verkippt. Anschließend werden für 100×100 Punkte im Objektraum die dazugehörigen verzeichneten Bildpunkte der Hauptstrahlen bestimmt.

Beim physikalischen Ansatz entfällt das Optimierungsproblem bezüglich der Rotationsmatrix R und des Translationsvektors T ebenso wie die Verschiebung vom Bildkoordinatensystem in das Sensorkoordinatensystem u0 und v0, da in der Raytracing Software nicht zwischen dem Welt- und dem Kamerakoordinatensystem unterschieden wird. Das telezentrische Kameramodell aus Gleichung (1) vereinfacht sich zu

(7)xdyd1=m0δx0mδy001100001000001XWYWZW1.

Die intrinsischen Parameter sind δx(φ0,φ1,ii,ji,ki), δy(φ0,φ1,ii,ji,ki) sowie der Abbildungsmaßstab m.

Die Fehlerfunktion für die Least-Squares-Optimierung ergibt sich sowohl für das phänomenologische als auch das physikalische Modell zu

(8)F=i=1n|pip˜i|.

Dabei ist pi die Position des mittels Raytracing bestimmten Bildpunktes, p˜i die nach Gleichung (7) bzw. (6) berechnete Position desselben Bildpunktes.

Der durchschnittliche Restfehler in Abhängigkeit der Polynomordnung für beide Modelle ist in Abbildung 5 dargestellt. Mit den speziellen Korrekturtermen des physikalischen Modells lässt sich die anfängliche durchschnittliche Restverzeichnung bereits mit der ersten Ordnung aller drei Korrekturterme von 14,84 µm auf 0,516 µm korrigieren. Jedoch bringt eine weitere Erhöhung der Terme keine weitere Verbesserung. Bei einer Pixelgröße von 5,86 µm kann mit diesem Kalibrieransatz demnach das untersuchte System auf etwa 0,088 Pixel Restfehler kalibriert werden.

Mit dem allgemeinen Polynomansatz des phänomenologischen Modells korrigiert ein Polynom 3. Ordnung die durchschnittliche Verzeichnung bereits auf 98,79 nm. Ab der 5. Ordnung bereits auf 5,729 nm (etwa 1/1000 Pixel), wobei sich für höhere Ordnungen jedoch keine merkliche Verbesserung mehr ergibt. Die Positionsdaten in den Grid-Distortion-Tabellen werden auf fünf Nachkommastellen angegeben. Somit erfährt jeder Bildpunkt einen Rundungsfehler von durchschnittlich 2,5 nm, wodurch die weitere Korrektur der Verzeichnung limitiert wird.

Diese Art der Kalibrierung liefert somit eine theoretisch ausreichend genaue Verzeichnungskorrektur, selbst für ein stark verzeichnetes Ausgangssystem, wie es in dieser Simulation verwendet wurde.

Abb. 5 Durchschnittlicher Restfehler beider Korrekturfunktionen.
Abb. 5

Durchschnittlicher Restfehler beider Korrekturfunktionen.

4 Kalibriermessungen

In diesem Abschnitt wird der Kalibrieraufbau, die verwendeten Materialien und die Kalibrierergebnisse mit dem allgemeinen Polynomansatz beschrieben. Um das Multi-Punkt-Messsystem zu kalibrieren wird eine Lichtquelle im Objektraum mäanderförmig an M Messpunkte gefahren. Für das Bewegen der Lichtquelle wird die NPMM-200 genutzt.

4.1 Nanomess- und Positioniermaschine NPMM-200

Die NPMM-200 besteht aus einem dreiachsigen Positioniersystem mit Präzisionsführungen und -antrieben. Sie ist nach dem sogenannten Sample Scanning Mode konstruiert, bei dem das Messobjekt und nicht der Messsensor bewegt wird. Die Position des verfahrbaren Messobjektträgers wird über drei Interferometer bestimmt. Die Interferometer sind so angeordnet, dass sich der virtuelle Schnittpunkt ihrer Strahlen raumfest im Antastpunkt des Messsensors befindet. Der bewegliche Messobjektträger besitzt drei hochgenau vermessene spiegelnde Flächen [20], an denen die Interferometerstrahlen reflektiert werden. In Abbildung 6 ist der Messobjektträger und der metrologische Rahmen der NPMM-200 dargestellt.

Abb. 6 Bild der NPMM-200 mit metrologischem Rahmen aus Zerodur®, Messobjektträger und magnetischen Linearantrieben.
Abb. 6

Bild der NPMM-200 mit metrologischem Rahmen aus Zerodur®, Messobjektträger und magnetischen Linearantrieben.

Um höchste Positioniergenauigkeiten zu erreichen, arbeitet die Maschine in einer aktiv thermisch kontrollierten Vakuumkammer bei 1 mbar. Nach [19] können so Positionierunsicherheiten von weniger als 30 nm in einem Messvolumen von 200mm×200mm×25mm erreicht werden.

4.2 Messaufbau und Vorgehen

Das Multi-Punkt-Positionsmesssystem besteht aus einem modifizierten telezentrischen Objektiv (Vico DTCM110-150-AL, NA = 0,0085, β=0,11) und einer CMOS-Kamera (Ximea MC023MG-SY, Sensorauflösung: 1936×1216 Pixel, Pixelgröße: 5,86 µm, 8 Bit pro Pixel). In der Aperturebene des Objektivs ist das lithografisch hergestellte DOE zur Erzeugung der Spotmuster angebracht. Zur Kalibrierung des Systems wurde eine LED (SMB1N-700, λ=700nm, HWB = 21 nm, Strahlungsintensität = 40 mW/sr) mit unmittelbar davor angebrachter Kreisblende (D = 200 µm) mäanderförmig in der NPMM-200 an M Messpunkte verfahren. Der Durchmesser jedes Einzelspots auf dem Sensor betrug etwa 12 Pixel, wobei nur Intensitäten unterhalb einer rauschabhängigen Schwelle berücksichtigt wurden. An jedem Messpunkt wird sowohl die Position der NPMM-200 (XW, YW) als auch die gemittelte Position (xd, yd) des Spotmusters gespeichert. Die gemittelte Position des Spotmusters ergibt sich über eine Mittelung aller N Einzelschwerpunkte.

Aufgrund der Ausdehnung des Spotmusters kann nicht die gesamte Sensorfläche der Kamera zur Positionsmessung genutzt werden. Es wurden nur Messpunkte ausgewertet, deren gemittelte Position mindestens 150 Pixel vom Rand des Detektors entfernt sind. Im Objektraum entspricht dies einem Messbereich von etwa 87mm×49mm.

Bei den bisherigen Simulationen wurde von einer Verzeichnungsfunktion nach Gleichung (6) ausgegangen. Für die Anwendung als Messsystem ist jedoch der umgekehrte Weg nötig. Daher wurde für die folgenden Kalibriervorgänge die Position in Weltkoordinaten in Abhängigkeit von den gemessenen verzeichneten Koordinaten ausgedrückt

(9)X˜W=i=0nj=0nLijxdiydjY˜W=i=0nj=0nMijxdiydj

4.3 Ergebnisse

Die Kalibrierung wurde in 5 verschiedenen Z-Ebenen des NPMM-200-Koordinatensystems mit je M>500 Messpunkten durchgeführt. Die Ebenen liegen je 6 mm auseinander, beginnend bei 0,5 mm bis 24,5 mm. Die Fehlerfunktion für die Least-Squares-Optimierung der Koeffizientenmatrizen Lij und Mij ergibt sich aus dem Abstand zwischen den von der NPMM-200 gemessenen Koordinaten (XW, YW) und den durch das Polynom bestimmten Koordinaten (X˜W, Y˜W). Dieser Abstand entspricht auch dem Restfehler.

Die Verteilung des durchschnittlichen Restfehlers in der Ebene Z = 18,5 mm ist in Abbildung 7 dargestellt. Die Verzeichnung wird größtenteils gut durch das Polynom korrigiert. Lediglich im Zentrum des Sensors bleibt ein Bereich mit einem größeren Restfehler, der in allen 5 Z-Ebenen an derselben Stelle auftritt. Aktuell ist noch nicht abschließend geklärt, was zu diesem Fehlerbereich führt. Wir gehen davon aus, dass es sich um einen hochfrequenten Fehler handelt, der von einem Polynom 9. Ordnung nicht korrigiert werden kann. Als Fehlerquellen kommen unter anderem Schmutzpartikel auf dem Detektor oder Reflektionen zwischen den Objektivlinsen in Frage. Beide Einflüsse erzeugen eine Schwerpunktverschiebung und somit Sprünge in der Kalibrierlandschaft, die mit einer stetigen Funktion nur durch hohe Polynomordnungen erfasst werden können.

Abb. 7 Verteilung des absoluten Restfehlers im Objektraum bei Z = 18,5 mm, Ordnung = 9.
Abb. 7

Verteilung des absoluten Restfehlers im Objektraum bei Z = 18,5 mm, Ordnung = 9.

In Tabelle 2 sind die Restfehler im Objektraum für die Polynomordnungen 1 bis 9 in der Ebene Z = 18,5 mm aufgeführt. Die Ergebnisse können mit Hilfe der Objektivvergrößerung |β| = 0,11 in den Bildraum projiziert werden. Die Standardabweichungen der bildseitigen Restverzeichnung liegen demnach bei σx = 0,030 µm und σy = 0,034 µm, was in Pixeln ausgedrückt 5/1000 Pixel und 6/1000 Pixel. Diese Werte liegen erheblich unterhalb der beim Stand der Technik erzielten Kalibrierrestfehler (siehe Abschnitt 1.3).

Tab. 2

Restfehler im Objektraum in Ebene Z = 18,5 mm.

OrdnungRestfehler im Objektraum
MaximalDurchschn.σxσy
123,64 µm7,474 µm4,828 µm6,805 µm
33,198 µm0,985 µm0,671 µm0,890 µm
52,864 µm0,560 µm0,460 µm0,514 µm
72,341 µm0,370 µm0,334 µm0,371 µm
91,986 µm0,268 µm0,248 µm0,294 µm

5 Zusammenfassung

Wir haben gezeigt, dass für eine hochgenaue Kamerakalibrierung (< 1/100 Pixel) die gängigen Korrekturfunktionen nach dem physikalischen Modell nicht ausreichend genau sind. Der allgemeine Polynomansatz des phänomenologischen Modells lieferte in der Simulation eine erheblich bessere Korrektur des stark verzeichneten Linsensystems (etwa 1/1000 Pixel). Weitergehende Untersuchungen zur Kalibriermethode haben gezeigt, dass das oftmals verwendete Kalibriertarget nicht geeignet ist, da die zur Kalibrierung verwendete Lichtquelle der zur Messung eingesetzten in Größe und Abstrahlcharakteristik möglichst gleichen sollte. Die zur Kalibrierung benötigten Messdaten im Objekt- und Bildraum wurden mit Hilfe der NPMM-200 erstellt. Eine Einzellichtquelle wurde mäanderförmig im Objektraum in 5 Z-Ebenen verfahren und an jedem Messpunkt sowohl die Maschinenposition als auch die gemittelten Position des Spotmusters gespeichert. Für jede Z-Ebene wurden durch eine Least-Squares-Optimierung die Kalibrierkoeffizienten ermittelt. Der durchschnittliche Restfehler liegt in allen 5 Ebenen bei unter 0,324 µm, was im Bildraum einem Restfehler von unter 0,036 µm beziehungsweise 6/1000 Pixel entspricht.

Award Identifier / Grant number: OS 111/42-2

Award Identifier / Grant number: SA 847/16-2

Funding statement: Wir danken der Deutschen Forschungsgemeinschaft (DFG) für die finanzielle Unterstützung des Projekts “Dynamische Referenzierung von Koordinatenmess- und Bearbeitungsmaschinen” (OS 111/42-2 und SA 847/16-2).

Über die Autoren

Simon Hartlieb

Simon Hartlieb ist seit 2018 wissenschaftlicher Mitarbeiter am Institut für Technische Optik (ITO) der Universität Stuttgart. Von 2014 bis 2017 erlangte er den Abschluss M.Sc. in Maschinenbau mit Schwerpunkt auf Technische Optik und Mikrosystemtechnik an der Universität Stuttgart. Seine Hauptforschungsinteressen sind optische Positionsmessung, Bildverarbeitung und 3D Messtechnik.

Michael Tscherpel

Michael Tscherpel hat Photonic Engineering an der Universität Stuttgart studiert. Er ist seit Mai 2019 als wissenschaftlicher Mitarbeiter am Institut für Technische Optik (ITO) in der Arbeitsgruppe ”3D-Messtechnik” angestellt.

Flavio Guerra

Flavio Guerra received the M. Sc. degree in photonic engineering from the University of Stuttgart, Germany, in July 2017. In August 2017, he joined the Institute of Applied Optics, University of Stuttgart, Germany, where he currently works as a research scientist and PhD student. His work focuses on 3D optical metrology and the application of multipoint technique to large scale objects.

Tobias Haist

Tobias Haist hat Physik an der Universität Stuttgart studiert und dort im Bereich Technische Optik promoviert. Er ist akademischer Oberrat am Institut für Technische Optik (ITO) und Gruppenleiter der Arbeitsgruppe ”3D Metrologie”. Seine Hauptforschungsinteressen sind räumliche Lichtmodulation, 3D Messtechnik sowie Bildverarbeitung.

Wolfgang Osten

Prof. Dr. sc. nat. Wolfgang Osten war Direktor des Instituts für Technische Optik (ITO) der Universität Stuttgart u. a. mit den Hauptarbeitsgebieten: kohärente Optik, optische Messtechnik, digitale Bildverarbeitung, optische Sensorik für Produktionsautomatisierung, 3DOberflächenmesstechnik sowie kombinative optische Messverfahren.

Michael Ringkowski

Michael Ringkowski received the B.Sc. and M.Sc. degrees in Engineering Cybernetics from the University of Stuttgart, Stuttgart, Germany, in 2014 and 2017, respectively. Since 2017 he has been a Research Assistant at the Institute for System Dynamics, University of Stuttgart, Germany. His current research interests include estimation and control of coordinate measuring machines, with a focus on increasing dynamics while maintaining precision.

Oliver Sawodny

Oliver Sawodny received the Dipl.-Ing. degree in electrical engineering from the University of Karlsruhe, Karlsruhe, Germany, in 1991, and the Ph.D. degree from the Ulm University, Ulm, Germany, in 1996. In 2002, he became a Full Professor with the Technical University of Ilmenau, Ilmenau, Germany. Since 2005, he has been the Director of the Institute for System Dynamics, University of Stuttgart, Stuttgart, Germany. His current research interests include methods of differential geometry, trajectory generation, and applications to mechatronic systems.

Literatur

1. Shaoqiong Wang, Bixi Yan, Mingli Dong, Jun Wang, and Peng Sun. An improved centroid location algorithm for infrared led feature points. In Sixth International Symposium on Precision Mechanical Measurements. SPIE, 2013.Search in Google Scholar

2. Tobias Haist, Shihao Dong, Thomas Arnold, Marc Gronle, and Wolfgang Osten. Multi-image position detection. Optics express, 22:14450–14463, 06 2014.10.1364/OE.22.014450Search in Google Scholar PubMed

3. Damien Douxchamps and Kunihiro Chihara. High-accuracy and robust localization of large control markers for geometric camera calibration. IEEE Trans. Pattern Anal. Mach. Intell., 31(2):376–383, 2009.10.1109/TPAMI.2008.214Search in Google Scholar PubMed

4. Dong Li and Jindong Tian. An accurate calibration method for a camera with telecentric lenses. Optics and Lasers in Engineering, 51(5):538–541, 2013.10.1016/j.optlaseng.2012.12.008Search in Google Scholar

5. Zhongwei Tang, Rafael Grompone von Gioi, Pascal Monasse, and Jean-Michel Morel. A precision analysis of camera distortion models. Trans. Img. Proc., 26(6):2694–2704, June 2017.10.1109/TIP.2017.2686001Search in Google Scholar PubMed

6. Linshen Yao and Haibo Liu. A flexible calibration approach for cameras with double-sided telecentric lenses. International Journal of Advanced Robotic Systems, 13(3):82, 2016.10.5772/63825Search in Google Scholar

7. Flavio Guerra, Simon Hartlieb, Alexander Warsewa, Tobias Haist, Wolfgang Osten, and Oliver Sawodny. Deformation measurement of large buildings by holographical point replication. In Optics for Arts, Architecture, and Archaeology VII, volume 11058, pages 32–38. International Society for Optics and Photonics, SPIE, 2019.10.1117/12.2525815Search in Google Scholar

8. Z. Zhang. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330–1334, Nov 2000.10.1109/34.888718Search in Google Scholar

9. Richard Hartley and Andrew Zisserman. Multiple View Geometry in Computer Vision. Cambridge University Press, New York, NY, USA, 2 edition, 2003.10.1017/CBO9780511811685Search in Google Scholar

10. Guan Banglei, Linshen Yao, HaiBo Liu, and Yang Shang. An accurate calibration method for non-overlapping cameras with double-sided telecentric lenses. Optik - International Journal for Light and Electron Optics, 131, 11 2016.10.1016/j.ijleo.2016.11.156Search in Google Scholar

11. Junhua Sun, Xu Chen, Zheng Gong, Zhen Liu, and Yuntao Zhao. Accurate camera calibration with distortion models using sphere images. Optics & Laser Technology, 65:83–87, 2015.10.1016/j.optlastec.2014.07.009Search in Google Scholar

12. R. Usamentiaga, D. F. Garcia, C. Ibarra-Castanedo, and X. Maldague. Highly accurate geometric calibration for infrared cameras using inexpensive calibration targets. Measurement, 112:105–116, 2017.10.1016/j.measurement.2017.08.027Search in Google Scholar

13. R. Tsai. A versatile camera calibration technique for high-accuracy 3d machine vision metrology using off-the-shelf tv cameras and lenses. IEEE Journal on Robotics and Automation, 3(4):323–344, August 1987.10.1109/JRA.1987.1087109Search in Google Scholar

14. Wolfgang Förstner and Bernhard P. Wrobel. Photogrammetric Computer Vision: Statistics, Geometry, Orientation and Reconstruction. Springer Publishing Company, Incorporated, 1st edition, 2016.10.1007/978-3-319-11550-4Search in Google Scholar

15. Juyang Weng, Paul Cohen, Marc Herniou, et al. Camera calibration with distortion models and accuracy evaluation. IEEE Transactions on pattern analysis and machine intelligence, 14(10):965–980, 1992.10.1109/34.159901Search in Google Scholar

16. Kepeng Chen, Tielin Shi, Wang Xiao, Yichun Zhang, Hong Yuan, Qiang Liu, and Guanglan Liao. Calibration of telecentric cameras with an improved projection model. Optical Engineering, 57:1, 04 2018.10.1117/1.OE.57.4.044103Search in Google Scholar

17. Helmut Zollner and Robert Sablatnig. Comparison of methods for geometric camera calibration using planar calibration targets. In Digital Imaging in Media and Education, Proc. of the 28th Workshop, volume 179, page 237–244. Austrian Association for Pattern Recognition, 2004.Search in Google Scholar

18. Joaquim Salvi, Xavier Armangué, and Joan Batlle. A comparative review of camera calibrating methods with accuracy evaluation. Pattern Recognition, 35(7):1617–1635, 2002.10.1016/S0031-3203(01)00126-1Search in Google Scholar

19. Gerd Jäger, Eberhard Manske, Tino Hausotte, A. Müller, and F. Balzer. Nanopositioning and nanomeasuring machine NPMM-200—a new powerful tool for large-range micro- and nanotechnology. Surface Topography: Metrology and Properties, 4(3):034004, jul 2016.10.1088/2051-672X/4/3/034004Search in Google Scholar

20. Haifeng Xu. Hochpräzise Bestimmung der Form- und Orthogonalitätsabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen. PhD thesis, Ilmenau, Feb 2019.Search in Google Scholar

Erhalten: 2019-10-24
Angenommen: 2019-12-11
Online erschienen: 2020-01-10
Erschienen im Druck: 2020-07-26

© 2020 Hartlieb et al., publiziert von De Gruyter

This work is licensed under the Creative Commons Attribution 4.0 Public License.

Downloaded on 29.11.2022 from frontend.live.degruyter.dgbricks.com/document/doi/10.1515/teme-2019-0153/html
Scroll Up Arrow