text.skipToContent text.skipToNavigation

FAQ zu den 3D-Sensoren

Was ist strukturiertes Licht? Was ist eine 3D-Punkte Wolke? Wie funktioniert Triangulation? Auf dieser Seite wurden die häufig gestellten Fragen Rund um das Thema 3D-Sensoren sowohl für Experten als auch für Laien zusammengestellt. 

Eine 3D-Punktewolke ist eine Menge an Punkten, die über die drei Raumkoordinaten den Punkt im Raum definieren. 

Durch den Triangulationswinkel zwischen der Lichtquelle und der Kamera erzeugen beleuchtete Objekte einen Schattenwurf. Dabei wird das Licht durch das Objekt behindert und es entsteht die sogenannte Verschattung.

Wird der Hintergrund durch ein Objekt verdeckt, ist dieser für die Kamera nicht mehr ersichtlich. Das ist die sogenannte Obstruktion.

Nur bei Bereichen, welche weder Verschattung, noch Obstruktion aufweisen, können Tiefeninformationen ausgegeben werden. Je grösser der Triangulationswinkel, umso intensiver ist die Verschattung beziehungsweise Obstruktion.

Die Beleuchtung mittels LED kann bei hohen Lichtintensitäten gefährlich sein. Um die Sicherheit bzw. das Risiko zu bewerten gibt es die Risikogruppen. 


Freie Gruppe:
Leuchten stellen keine photobiologische Gefahr dar.

Risikogruppe 1:
Leuchten stellen aufgrund normaler Einschränkungen durch das Verhalten der Nutzer keine Gefahr dar.

Risikogruppe 2:
Leuchten stellen aufgrund der Abwendreaktionen von hellen Lichtquellen oder durch thermisches Unbehagen keine Gefahr dar.

Risikogruppe 3:
Leuchten stellen schon für flüchtige oder kurzzeitige Bestrahlung eine Gefahr dar. Eine Verwendung in der allgemeinen Beleuchtung ist nicht erlaubt.


ShapeDrive G4 ist mit der Risikogruppe 2 bewertet.
 

Strukturiertes Licht ist eine Beleuchtungstechnik, bei der das Licht ein definiertes Muster erzeugt, wie z.B. Streifen, Linien oder Gitter.

Die Triangulation ist eine Messmethode, bei der die Entfernung zum Objekt über die Winkelgeometrie ermittelt wird. Durch den bekannten Abstand zwischen Lichtquelle und Kamera (Basislänge) und dem Triangulationswinkel kann der Abstand des Objekts bestimmt werden.

LEDs sind hier am effizientesten und durch die kürzere Wellenlänge wird das Streuverhalten an metallischen Oberflächen verbessert.

In Werkshallen mit Standardbedingungen arbeitet der 3D-Sensor zuverlässig, jedoch kann Kaltlicht mit einer Farbtemperatur > 5500 K (z. B. Neonröhren) den Aufnahmeprozess stören und sollte vermieden werden.
Wir verwenden Filter, um möglichst viel Fremdlicht auszublenden. Für den Outdoor-Einsatz ist der 3D-Sensor allerdings nur eingeschränkt geeignet.

Die verwendete blaue Wellenlänge wird von roten und orangen Oberflächen wesentlich schlechter reflektiert als von den meisten anderen. Um das zu kompensieren, müssen entsprechende Einstellungen der Belichtungszeit, Gain und LED Power vorgenommen werden, bis ein geeignetes Setting gefunden ist.

SDK steht für Software Development Kit. Ein SDK ist eine Sammlung von Programmierbeispielen, Tools oder Bibliotheken, die die Integration bzw. Verwendung von Hardware vereinfacht.

GigE Vision ist ein Industriestandard für einen einheitlichen Datenaustausch zwischen Kameras und 3D-Sensoren. Der Standard wird von der Association for Advancing Automation (A3) definiert.

Der Sensor sollte fest montiert und keinen Vibrationen ausgesetzt sein. Direkte Sonneneinstrahlung ist zu vermeiden. Es sollten keine direkten Reflektionen von der Beleuchtung in die Kamera kommen.

Der Sensor sollte senkrecht auf das Objekt ausgerichtet und eine möglichst freie Sicht auf das Objekt haben. 

ShapeDrive bezeichnet die wenglor-Produktmarke für 3D-Sensoren. Der Zusatz G4 bezeichnet die hochperformante Hardwareplattform der neuesten Generation, welche die Grundlage für alle zukünftigen 2D/3D-Profilsensoren und 3D Sensoren bildet. Die 3D-Sensoren verfügen über folgende vier Performance-Features: 

1. Processing Unit: Zwei Dual Core Arm®-Prozessoren mit bis zu 1,3 GHz
2. Field Programmable Gate Array (FPGA)
3. Memory: Großer (4 GB) und schneller (19,2 Gbit/s) Speicher
4. Connectivity: integrierte Gigabit-Ethernet-Schnittstelle

Mehr Infos zu den Performance-Features hier.

Die angegebene Auflösung im Messbereich Z befindet sich in ähnlichen Bereichen. Die Auflösung im Messbereich X und Y wird zum Ende des Messvolumens hin geringer.

Ja, unsere 3D-Sensoren können mit GigE Vision betrieben werden und unterstützen Mono8, Mono16 und Coord3D_ABC32f für die Übertragung von Bild-, Helligkeits- und Rauminformationen.

Nein, in der entsprechenden Norm – Risikogruppe 2 (EN 62471) – sind keine Maßnahmen für die Kombination für Wellenlänge und Strahlungsintensität vorgesehen.

Ja, über GigE Vision oder SDK kann ein unkorrigiertes 2D-Bild zu Verfügung gestellt werden. 

Ja, das ist möglich. Die Schnittstelle passt sich der Geschwindigkeit der Gegenstelle an.

Ja, der Sensor ist industrietauglich und kann an beweglichen Komponeten eingesetzt werden.

Das maximale Messvolumen wird für jeden 3D-Sensor während der Kalibrierung festgelegt. Über die Funktion ROI kann aber das Messvolumen reduziert werden.

Nein, es ist keine Kompatibilität vorhanden.

Nein, das blaue Licht des ShapeDrives stellt keine Gefahr für das Augenlicht dar. Wir empfehlen trotzdem, nicht dauerhaft in die „Lightengine“ zu schauen.

Ja, es gibt ein SDK in C++.

Das Streifenlichtprojektionsverfahren (Streifenprojektionsverfahren) funktioniert hervorragend mit einer Kamera. Der Vorteil einer zweiten Kamera im Sensor, um Abschattungen zu vermeiden, hat sich in den meisten Anwendungen selten als notwendig dargestellt.

Ihre Frage konnte nicht beantwortet werden? Kein Problem!

Produktvergleich