text.skipToContent text.skipToNavigation

Tecnologías de un sensor 3D

El registro tridimensional de objetos desempeña un papel central en la automatización, ya que la siguiente entidad de procesamiento debe conocer la posición, el tamaño y la forma. El camino hacia una nube de puntos 3D se realiza en varios pasos y se puede resolver con diferentes técnicas de medición.
 

Triangulación y luz estructurada

La técnica de triangulación es un método para obtener información de profundidad. La fuente de iluminación y la cámara tienen una distancia definida y están orientadas hacia un punto común. De este modo, se forma un triángulo junto con el llamado ángulo de triangulación. Este ángulo de triangulación permite calcular la información de profundidad. Cuanto mayor sea el ángulo, mejor se podrá recopilar la información de profundidad. Debido al ángulo de triangulación, los objetos iluminados generan una proyección de sombra (sombreado) o el objeto cubre el fondo y ya no es visible para la cámara (obstrucción). Solo se puede emitir información de profundidad en áreas que no presenten sombreado ni obstrucción. Un sensor 3D de wenglor funciona con luz estructurada y triangulación. Se compone de una fuente de iluminación y una cámara. La cámara y la fuente de iluminación están orientadas hacia un punto y forman un triángulo llamado triangulación. De este modo, se puede obtener información de profundidad. Mediante la proyección de diferentes patrones sobre el objeto, se puede crear una nube de puntos 3D.
La luz estructurada es una tecnología de iluminación en la que la luz genera un patrón conocido, generalmente en forma de rejilla o de barras. La forma en la que se deforman los patrones permite detectar información acerca de la profundidad y superficie de los objetos. La luz estructurada es un método de medición con resoluciones muy precisas de menos de 10 μm. Esto significa que se pueden identificar las fisuras más finas en objetos o estructuras muy pequeñas, no detectables por el ojo humano. Los sensores 3D a menudo utilizan patrones como, por ejemplo, imágenes binarias con nombres propios, como patrones de código gris o imágenes de fase.
El patrón de código gris se compone de una secuencia de franjas que se iluminan de forma clara u oscura y se vuelven cada vez más finas. Mediante el seguimiento de la evolución de la intensidad con una cámara, se puede detectar un patrón y, por lo tanto, establecer un rango de profundidad. Por el contrario, las imágenes de fase son patrones de onda en forma de onda sinusoidal proyectados sobre un objeto. Por ejemplo, se puede utilizar un actuador de microespejo (Digital Micromirror Device) para crear patrones. La fase de la onda se desplaza de una imagen a otra. A partir del desarrollo de la fase, se puede obtener la información de profundidad con ayuda de una cámara. 

Estéreo pasivo

En este procedimiento, dos cámaras enfocan el mismo objeto bajo un ángulo. Los diferentes ángulos de enfoque permiten determinar la distancia de un punto. La dificultad reside en la identificación del mismo punto con ambas cámaras. Por ejemplo, para una superficie de bajo contraste como una pared blanca, este método no es el óptimo.

Estéreo activo

La estructura se corresponde con la del estéreo pasivo. La única diferencia es que aquí hay un patrón (p. ej., puntos distribuidos aleatoriamente) sobre el objeto. Esto facilita la asignación de un punto a ambas cámaras.

Time of Flight (tiempo de vuelo)

Mediante este procedimiento se determina la distancia entre el objeto y el sensor a partir del tiempo de recorrido de la luz. En este caso, el sensor emite pulsos de luz que alcanzan un objeto. El objeto refleja estos pulsos de luz. La distancia se determina en función de la duración de la reflexión de los pulsos de luz. De este modo, se puede determinar información de profundidad, como estructuras o distancias de objetos.

Comparación de tecnologías 3D

La tridimensionalidad del sensor 3D

Los sensores 3D proyectan varios patrones sobre el objeto que se va a medir y lo registran con una cámara. De este modo, el objeto se registra tridimensionalmente y se digitaliza en una nube de puntos 3D. Ni el objeto ni el sensor 3D se mueven. De esta manera, el registro puede realizarse de forma rápida y extremadamente precisa.

​​​1) Cámara de alta resolución
2) Lightengine
3) X, Y = rango de medición
4) Z = rango de trabajo

La medición de objetos en 3D simplifica la producción automovilística

La iluminación: Light Engines para una iluminación ideal

La fuente de iluminación puede ser un láser o un LED. Los láseres generan luz con una alta coherencia temporal y espacial. El espectro presenta bandas estrechas. La luz generada por un láser puede transformarse en una forma determinada mediante la óptica. Otro tipo de iluminación es el uso de un LED. En comparación con un láser, este genera una luz de banda ancha y apenas tiene coherencia. Los LED son más fáciles de usar y generan más longitudes de onda en comparación con los diodos láser. Mediante la tecnología Digital Light Processing (DLP), se puede generar cualquier patrón. La combinación de LED y DLP ofrece la posibilidad de crear diferentes patrones de forma rápida y eficaz, lo que los hace óptimos para la tecnología 3D de la luz estructurada. 

Toma de imágenes: con potencia CMOS para una imagen perfecta

Al usar una cámara de alta resolución, el objeto se registra en dos dimensiones. Hoy en día, las cámaras suelen tener un chip semiconductor fotosensible basado en tecnología CMOS o CCD y la tecnología CMOS se usa con más frecuencia. Un chip está compuesto por muchas células individuales (píxeles). Los chips modernos tienen varios millones de píxeles, lo que permite registrar dos dimensiones del objeto. Como la tecnología CMOS tiene un mejor rendimiento, es la que se utiliza en los sensores 3D.

La nube de puntos 3D: de la aplicación a la imagen final

La cámara registra la secuencia de patrones de la luz estructurada. El paquete que contiene todas las imágenes se denomina grupo de imágenes (Image Stack). A partir de las imágenes de cada patrón, se puede determinar la información de profundidad de cada punto (píxeles). Dado que la cámara tiene varios millones de píxeles y que cada píxel detecta escalas de grises, se generan rápidamente varios megabytes de datos. Todos esos datos se pueden procesar en un potente PC industrial o en una FPGA en el interior del sensor. La ventaja del cálculo interno es la velocidad, mientras que el cálculo en el PC permite una mayor flexibilidad. El resultado del cálculo es una nube de puntos 3D.

La integración: del sensor a la aplicación

La nube de puntos 3D se calcula a partir de las imágenes registradas. Esto se puede hacer en el sensor, pero también en un PC industrial. Los kits de desarrollo de software (SDK) del fabricante o las interfaces estandarizadas como GigE Vision se utilizan para facilitar la integración. 

Uso de iluminación monocromática

El uso de una iluminación monocromática permite suprimir eficazmente las influencias perturbadoras de la luz externa mediante filtros ópticos. La iluminación también se puede optimizar para obtener la máxima eficiencia y luminosidad.

Comparación de productos