text.skipToContent text.skipToNavigation

Technologien eines 3D-Sensors

Die dreidimensionale Erfassung von Objekten spielt in der Automatisierung eine zentrale Rolle, da die nachfolgende Verarbeitungsinstanz die Lage, Größe und Form kennen muss. Der Weg zu einer 3D-Punktewolke erfolgt über mehrere Schritte und kann mit verschiedenen Messtechniken gelöst werden.
 

Triangulation und strukturiertes Licht

Die Technik der Triangulation ist eine Methode, um Tiefeninformationen zu erhalten. Die Beleuchtungsquelle und die Kamera haben einen definierten Abstand und sind auf einen gemeinsamen Punkt ausgerichtet. Hierdurch bildet sich ein Dreieck mit einem sogenannten Triangulationswinkel. Durch diesen Triangulationswinkel kann die Tiefeninformation berechnet werden. Je größer der Winkel, desto besser können Tiefeninformationen erfasst werden. Durch den Triangulationswinkel erzeugen beleuchtete Objekte einen Schattenwurf (Verschattung) oder das Objekt verdeckt den Hintergrund und ist für die Kamera nicht mehr ersichtlich (Obstruktion). Nur bei Bereichen, die weder Verschattung noch Obstruktion aufweisen, können Tiefeninformationen ausgegeben werden. Ein 3D-Sensor von wenglor arbeitet mit strukturiertem Licht und Triangulation. Er besteht aus einer Beleuchtungsquelle und einer Kamera. Die Kamera und die Beleuchtungsquelle sind auf einen Punkt ausgerichtet und bilden ein Dreieck, die sogenannte Triangulation. Dadurch können Tiefeninformationen gewonnen werden. Durch die Projektion verschiedener Muster auf das Objekt kann eine 3D-Punktewolke erstellt werden.
Strukturiertes Licht ist eine Beleuchtungstechnik, bei der das Licht ein bekanntes Muster erzeugt, häufig Gitter oder Balken. Durch die Art der Verformung der Muster kann die Tiefen- und Oberflächeninformation der Objekte erkannt werden. Das strukturierte Licht ist ein Messverfahren mit hochgenauen Auflösungen von weniger als 10 µm. Das bedeutet, feinste Haarrisse in Objekten oder kleinste, für das menschliche Auge nicht zu erkennende Strukturen lassen sich damit identifizieren. 3D-Sensoren verwenden häufig Muster wie beispielsweise Binärbilder mit eigenen Bezeichnungen wie Gray-Code-Muster oder auch Phasenbilder.
Das Gray-Code-Muster besteht aus einer Sequenz von Streifen, die hell oder dunkel beleuchtet und immer feiner werden. Durch Verfolgung des Intensitätsverlaufs mit einer Kamera kann ein Muster erkannt und somit ein Tiefenbereich festgelegt werden. Phasenbilder hingegen sind Wellenmuster in Form von Sinuswellen, die auf ein Objekt projiziert werden. Für die Erzeugung der Muster kann beispielsweise ein Mikrospiegelaktor (Digital Micromirror Device) verwendet werden. Die Phase der Welle wird von Bild zu Bild verschoben. Durch den Phasenverlauf kann mit Hilfe einer Kamera die Tiefeninformation gewonnen werden. 

Passives Stereo

Bei diesem Verfahren betrachten zwei Kameras dasselbe Objekt unter einem Winkel. Durch die verschiedenen Betrachtungswinkel kann der Abstand eines Punktes ermittelt werden. Hierbei ist die Schwierigkeit, denselben Punkt mit beiden Kameras zu identifizieren. Wird beispielsweise eine kontrastarme Fläche wie eine weiße Wand betrachtet, so ist diese Methode suboptimal.

Aktives Stereo

Der Aufbau entspricht dem des passiven Stereos. Der einzige Unterschied ist, dass hier ein Muster (z. B. zufällig verteilte Punkte) auf das Objekt projiziert wird. Das erleichtert die Zuordnung eines Punkts beider Kameras.

Time of Flight

In diesem Verfahren wird der Abstand zwischen Objekt und Sensor anhand der Lichtlaufzeit bestimmt. Hierbei sendet der Sensor Lichtimpulse aus, die auf ein Objekt treffen. Der Gegenstand reflektiert diese Lichtimpulse. Abhängig von der Dauer der Reflexion der Lichtimpulse wird der Abstand ermittelt. Damit können Tiefeninformationen wie Strukturen oder Entfernungen von Gegenständen ermittelt werden.

3D-Technologien im Vergleich

Die Dreidimensionalität des 3D-Sensors

Die 3D-Sensoren projizieren mehrere Muster auf das zu vermessende Objekt und nehmen diese durch eine Kamera wieder auf. Das Objekt wird dadurch dreidimensional aufgenommen und in eine 3D-Punktewolke digitalisiert. Dabei befindet sich weder das Objekt noch der 3D-Sensor in Bewegung. Die Erfassung kann somit schnell und äußerst präzise erfolgen.

1) Hochauflösende Kamera
2) Lightengine
3) X, Y = Messbereich
4) Z = Arbeitsbereich

3D-Objektvermessung vereinfacht Automobilproduktion

Die Beleuchtung: Light Engines für die ideale Ausleuchtung

Die Beleuchtungsquelle kann ein Laser oder eine LED sein. Laser erzeugen Licht mit hoher zeitlicher und räumlicher Kohärenz. Das Spektrum ist schmalbandig. Das Licht, das durch einen Laser erzeugt wird, kann mittels Optik in eine bestimmt Form gebracht werden. Eine andere Art der Beleuchtung ist die Verwendung einer LED. Diese erzeugt im Vergleich zu einem Laser ein breitbandiges Licht und besitzt kaum Kohärenz. LEDs sind leichter in der Handhabung und generieren mehr Wellenlängen im Vergleich zu Laserdioden. Mittels der Digital Light Processing (DLP) Technik kann jedes Muster generiert werden. Die Kombination von LED und DLP bietet die Möglichkeit, schnell und effektiv verschiedene Muster zu erzeugen, wodurch diese optimal für die 3D-Technik des strukturierten Lichts geeignet sind. 

Die Bildaufnahme: Mit CMOS-Power zum perfekten Bild

Durch die Verwendung einer hochauflösenden Kamera wird das Objekt in zwei Dimensionen aufgenommen. Heutzutage besitzen Kameras typischerweise einen photosensitiven Halbleiterchip basierend auf CMOS- oder CCD-Technologie, wobei die CMOS-Technologie häufiger zum Einsatz kommt. Ein Chip besteht aus vielen einzelnen Zellen (Pixel). Moderne Chips haben mehrere Millionen von Pixeln, sodass eine zwei dimensionale Erfassung des Objekts möglich ist. Durch die bessere Performance der CMOS-Technologie wird diese bei den 3D-Sensoren eingesetzt.

Die 3D-Punktewolke: Von der Anwendung zum fertigen Bild

Die Mustersequenz des strukturierten Lichts wird von der Kamera aufgezeichnet. Das Paket, das alle Bilder beinhaltet, wird als Image Stack bezeichnet. Aus den Bildern der einzelnen Muster kann die Tiefeninformation jedes Punkts (Pixel) bestimmt werden. Da die Kamera mehrere Millionen Pixel besitzt und jedes Pixel Graustufen erkennt, werden in kurzer Zeit mehrere Megabyte an Datenmenge erzeugt. Die Datenmenge kann auf einem leistungsstarken Industrie-PC oder intern im Sensor mit einem FPGA verarbeitet werden. Der Vorteil der internen Berechnung ist die Geschwindigkeit, während die Berechnung auf dem PC eine größere Flexibilität erlaubt. Das Ergebnis der Berechnung ist eine 3D-Punktewolke.

Die Integration: Vom Sensor in die Anwendung

Die 3D-Punktewolke wird aus den aufgenommenen Bilder berechnet. Dies kann im Sensor, aber auch auf einem Industrie-PC erfolgen. Zur einfachen Integration werden Software Development Kits (SDK) des Herstellers oder standardisierte Schnittstellen wie GigE Vision verwendet. 

Verwendung einer monochromen Beleuchtung

Die Verwendung einer monochromen Beleuchtung erlaubt es, durch optische Filter effektiv störende Einflüsse von Fremdlicht zu unterdrücken. Auch kann die Beleuchtung auf maximale Effizienz und Beleuchtungsstärke optimiert werden.

Produktvergleich