Investigations of optical 2D/3D-imaging with different sensors and illumination configurations
Autoren
Mehr zum Buch
Optische 2D-Bildverarbeitssysteme sind heutzutage in den verschiedensten Industriezweigen etabliert. Allerdings liefern 2D-Kameras lediglich eine flache Abbildung der Szene. Auf der anderen Seite erzeugen die ebenfalls etablierten klassischen Abstandssensoren (z. B. Triangulatoren) keine räumlich und zugleich zeitlich zusammenhangenden Tiefenbilder. Während die letztgenannte Anforderung von optischen 3D-Kameras, die auf dem Phasenlaufzeitverfahren basieren, erfüllt wird, ist deren räumliche Auflosung gegenüber 2D-Sensoren um ein bis zwei Größenordnungen geringer und Farbinformationen sind nicht verfügbar. Die Fusion von 2D- und 3D-Sensoren hat sich jedoch in der jüngsten Vergangenheit als vielversprechend erwiesen, um die Vorteile beider Sensorarten zu vereinen. Im Allgemeinen wird dazu ein binokularer Aufbau mit zwei disjunkten Kameras verwendet. Daraus ergeben sich Parallaxeneffekte und die zeitliche Synchronisierung ist ungenau. Aus diesen Gründen wird in dieser Arbeit eine monokulare 2D/3D-Kamerasystemplattform mit einem Strahlteiler vorgestellt und systematisch untersucht. Diese Art von Aufbau schafft auf der einen Seite neue Möglichkeiten im Bereich dynamischer Anwendungen und Multi-Beleuchtungsszenarien und auf der anderen Seite werden einige Untersuchungen hinsichtlich systematischer Einflusse auf die Tiefenmessung wesentlich vereinfacht oder überhaupt erst ermöglicht. In dieser Arbeit wird zunächst der optische Aufbau insbesondere in Hinblick auf die Filtercharakteristika untersucht, woraus sich ein C-Mount-Aufbau mit Bauernfeind-Prisma als Optimum ergibt. Im nächsten Schritt werden die systematischen Messabweichungen untersucht, wobei das hier hergeleitete Modell so ausgelegt ist, dass es für Multi-Beleuchtungsszenarien ebenfalls verwendet werden kann. Eine nähere Untersuchung der räumlichen Registrierung zeigt, dass diese unabhängig von der Tiefe ist, was den Rechenaufwand und die Fehleranfälligkeit gegenüber binokularen Aufbauten signifikant reduziert. In Kombination mit der präzisen zeitlichen Synchronisierung auf Phasenbildebene ergibt dies Vorteile in dynamischen Umgebungen; so können die durch Bewegungen zwischen den Phasenbildern induzierten Bewegungsartefakte durch die Verwendung der zusätzlichen 2D-Daten erkannt und teilweise eliminiert werden. Durch den Austausch des 2D- durch einen weiteren 3D-Sensor ergibt sich eine monokulare 3D/3D-Kamera, die Bewegungsartefakte prinzipbedingt umgeht. Überschreitungen des dem Phasenlaufzeitverfahren inhärenten Eindeutigkeitsbereichs können mit Hilfe der hochaufgelösten Intensitätsbilder besser aufgelöst werden. Schließlich werden Möglichkeiten gezeigt, für bestimmte Anwendungsszenarien mit mehreren Laufzeitkameras bzw. mehreren modulierten Beleuchtungen bei Beachten einiger Restriktionen Reichweiten oder Sichtfelds-optimierte Ergebnisse zu erhalten.