Triangulación y luz estructurada
El patrón de código gris se compone de una secuencia de franjas que se iluminan de forma clara u oscura y se vuelven cada vez más finas. Mediante el seguimiento de la evolución de la intensidad con una cámara, se puede detectar un patrón y, por lo tanto, establecer un rango de profundidad. Por el contrario, las imágenes de fase son patrones de onda en forma de onda sinusoidal proyectados sobre un objeto. Por ejemplo, se puede utilizar un actuador de microespejo (Digital Micromirror Device) para crear patrones. La fase de la onda se desplaza de una imagen a otra. A partir del desarrollo de la fase, se puede obtener la información de profundidad con ayuda de una cámara.
Estéreo pasivo h4>
En este procedimiento, dos cámaras enfocan el mismo objeto bajo un ángulo. Los diferentes ángulos de enfoque permiten determinar la distancia de un punto. La dificultad reside en la identificación del mismo punto con ambas cámaras. Por ejemplo, para una superficie de bajo contraste como una pared blanca, este método no es el óptimo.
Estéreo activo h4>
La estructura se corresponde con la del estéreo pasivo. La única diferencia es que aquí hay un patrón (p. ej., puntos distribuidos aleatoriamente) sobre el objeto. Esto facilita la asignación de un punto a ambas cámaras.
Time of Flight (tiempo de vuelo) h4>
Mediante este procedimiento se determina la distancia entre el objeto y el sensor a partir del tiempo de recorrido de la luz. En este caso, el sensor emite pulsos de luz que alcanzan un objeto. El objeto refleja estos pulsos de luz. La distancia se determina en función de la duración de la reflexión de los pulsos de luz. De este modo, se puede determinar información de profundidad, como estructuras o distancias de objetos.
Comparación de tecnologías 3D
Luz estructurada | Estéreo pasivo | Estéreo activo | Time of Flight (tiempo de vuelo) | |
---|---|---|---|---|
Resolución | ||||
Exactitud | ||||
Luz externa | ||||
Velocidad de medición | ||||
Objetos de bajo contraste | ||||
Obstrucción/sombreado |
Resolución
|
|||
---|---|---|---|
Luz estructurada
|
Estéreo pasivo
|
Estéreo activo
|
Time of Flight (tiempo de vuelo)
|
Exactitud
|
|||
Luz estructurada
|
Estéreo pasivo
|
Estéreo activo
|
Time of Flight (tiempo de vuelo)
|
Luz externa
|
|||
Luz estructurada
|
Estéreo pasivo
|
Estéreo activo
|
Time of Flight (tiempo de vuelo)
|
Velocidad de medición
|
|||
Luz estructurada
|
Estéreo pasivo
|
Estéreo activo
|
Time of Flight (tiempo de vuelo)
|
Objetos de bajo contraste
|
|||
Luz estructurada
|
Estéreo pasivo
|
Estéreo activo
|
Time of Flight (tiempo de vuelo)
|
Obstrucción/sombreado
|
|||
Luz estructurada
|
Estéreo pasivo
|
Estéreo activo
|
Time of Flight (tiempo de vuelo)
|
La tridimensionalidad del sensor 3D
Los sensores 3D proyectan varios patrones sobre el objeto que se va a medir y lo registran con una cámara. De este modo, el objeto se registra tridimensionalmente y se digitaliza en una nube de puntos 3D. Ni el objeto ni el sensor 3D se mueven. De esta manera, el registro puede realizarse de forma rápida y extremadamente precisa.
1) Cámara de alta resolución
2) Lightengine
3) X, Y = rango de medición
4) Z = rango de trabajo
La medición de objetos en 3D simplifica la producción automovilística
La iluminación: Light Engines para una iluminación ideal h3>
La fuente de iluminación puede ser un láser o un LED. Los láseres generan luz con una alta coherencia temporal y espacial. El espectro presenta bandas estrechas. La luz generada por un láser puede transformarse en una forma determinada mediante la óptica. Otro tipo de iluminación es el uso de un LED. En comparación con un láser, este genera una luz de banda ancha y apenas tiene coherencia. Los LED son más fáciles de usar y generan más longitudes de onda en comparación con los diodos láser. Mediante la tecnología Digital Light Processing (DLP), se puede generar cualquier patrón. La combinación de LED y DLP ofrece la posibilidad de crear diferentes patrones de forma rápida y eficaz, lo que los hace óptimos para la tecnología 3D de la luz estructurada.
Toma de imágenes: con potencia CMOS para una imagen perfecta h3>
Al usar una cámara de alta resolución, el objeto se registra en dos dimensiones. Hoy en día, las cámaras suelen tener un chip semiconductor fotosensible basado en tecnología CMOS o CCD y la tecnología CMOS se usa con más frecuencia. Un chip está compuesto por muchas células individuales (píxeles). Los chips modernos tienen varios millones de píxeles, lo que permite registrar dos dimensiones del objeto. Como la tecnología CMOS tiene un mejor rendimiento, es la que se utiliza en los sensores 3D.
La nube de puntos 3D: de la aplicación a la imagen final
La cámara registra la secuencia de patrones de la luz estructurada. El paquete que contiene todas las imágenes se denomina grupo de imágenes (Image Stack). A partir de las imágenes de cada patrón, se puede determinar la información de profundidad de cada punto (píxeles). Dado que la cámara tiene varios millones de píxeles y que cada píxel detecta escalas de grises, se generan rápidamente varios megabytes de datos. Todos esos datos se pueden procesar en un potente PC industrial o en una FPGA en el interior del sensor. La ventaja del cálculo interno es la velocidad, mientras que el cálculo en el PC permite una mayor flexibilidad. El resultado del cálculo es una nube de puntos 3D.
La integración: del sensor a la aplicación h3>
La nube de puntos 3D se calcula a partir de las imágenes registradas. Esto se puede hacer en el sensor, pero también en un PC industrial. Los kits de desarrollo de software (SDK) del fabricante o las interfaces estandarizadas como GigE Vision se utilizan para facilitar la integración.
Uso de iluminación monocromática h3>
El uso de una iluminación monocromática permite suprimir eficazmente las influencias perturbadoras de la luz externa mediante filtros ópticos. La iluminación también se puede optimizar para obtener la máxima eficiencia y luminosidad.