text.skipToContent text.skipToNavigation

Inteligencia artificial en el procesamiento de imágenes

La inteligencia artificial (IA) revoluciona el procesamiento industrial de imágenes. La tecnología utiliza modelos de IA para distinguir, por ejemplo, objetos, desviaciones y caracteres, tolerando las variaciones naturales. Los sistemas de IA combinan las ventajas de la inspección visual humana con la robustez y velocidad de los sistemas informáticos.

¿Para qué se necesita la inteligencia artificial?

Los sistemas de procesamiento de imágenes tradicionales funcionan con algoritmos basados en reglas que ofrecen una alta fiabilidad para tareas repetitivas. Debido a que los pasos del proceso son siempre idénticos, solo se toleran pequeñas desviaciones. Tan pronto como la varianza de las imágenes aumenta, por ejemplo, debido a variaciones naturales del objeto, como matices de color, formas o condiciones ambientales cambiantes, como las condiciones de iluminación, la aplicación se vuelve cada vez más compleja y, en consecuencia, puede resultar poco rentable. De lo contrario, la varianza afectará directamente a la exactitud o al rendimiento del algoritmo. Esto da como resultado decisiones erróneas del sistema de procesamiento de imágenes basado en reglas como, por ejemplo, piezas buenas rechazadas (también llamadas pseudo-rechazos) o piezas defectuosas no detectadas (también llamadas deslizamientos). El procesamiento industrial de imágenes siempre tiene como objetivo minimizarlas.
 
Las tecnologías de IA amplían las posibilidades de uso de la visión artificial al tolerar las variaciones en los datos de imagen, lo que permite identificar de forma robusta, por ejemplo, errores aleatorios. Aumentan la rentabilidad gracias a unas tasas de detección más robustas con una alta variabilidad, y reducen la barrera de entrada a la visión artificial, ya que en parte ya no se requieren conocimientos profundos sobre algoritmos.

La inteligencia artificial es el término genérico para las tecnologías que permiten a las máquinas resolver tareas de forma autónoma, a menudo inspiradas en el pensamiento y el aprendizaje humanos. El aprendizaje automático es una parte de la IA en la que los algoritmos no se programan de forma rígida, sino que aprenden patrones y relaciones a partir de datos de ejemplo. En lugar de definir cada regla manualmente, el sistema “aprende” cómo traducir las entradas en salidas. Deep Learning es una forma especializada de aprendizaje automático basada en redes neuronales artificiales con muchas capas de procesamiento (“deep” = profundo). Esta arquitectura permite detectar patrones muy complejos y ofrecer resultados precisos incluso en condiciones variables.

Deep Learning
Aprendizaje automático
Inteligencia artificial

¿Cuáles son las ventajas de utilizar la IA en el control de calidad?

A pesar del procesamiento de imágenes basado en reglas disponible, el control de calidad en los procesos a menudo sigue siendo realizado manualmente por personas, ya que la gran varianza de los errores suele ser difícil o imposible de registrar. En este caso, sugerimos el uso de sistemas de procesamiento de imágenes asistidos por IA. 
Aspectos problemáticos del control manual Solución basada en las ventajas del procesamiento de imágenes asistido por IA
Evaluación inconsistente de la calidad Evaluación consistente y repetible basada en grandes conjuntos de datos
Margen de atención limitado Funcionamiento continuo permanente sin fatiga
Documentación costosa de las decisiones Almacenamiento automático de imágenes con representación de mapas de calor y valor de puntuación (Score) para una mayor transparencia y trazabilidad
Mayores costes de personal, escasez de personal y altos costes de formación Escalable independientemente de la disponibilidad de personal, baja barrera de entrada gracias a un menor esfuerzo de formación
Aspectos problemáticos del control manual
Evaluación inconsistente de la calidad
Margen de atención limitado
Documentación costosa de las decisiones
Mayores costes de personal, escasez de personal y altos costes de formación
Solución basada en las ventajas del procesamiento de imágenes asistido por IA
Evaluación consistente y repetible basada en grandes conjuntos de datos
Funcionamiento continuo permanente sin fatiga
Almacenamiento automático de imágenes con representación de mapas de calor y valor de puntuación (Score) para una mayor transparencia y trazabilidad
Escalable independientemente de la disponibilidad de personal, baja barrera de entrada gracias a un menor esfuerzo de formación

¿Sustituye la IA al procesamiento de imágenes basado en reglas?

La IA amplía las posibilidades del procesamiento industrial de imágenes, pero muy rara vez sustituye por completo a las soluciones basadas en reglas probadas. La combinación del procesamiento de imágenes basado en reglas y en la IA amplía la versatilidad de la visión artificial. La IA permite realizar tareas de inspección que serían demasiado laboriosas o poco rentables con una evaluación basada en reglas.

¿Cuándo se utilizan los sistemas de procesamiento de imágenes basados en reglas y cuándo los de IA ?

El enfoque basado en reglas de los sistemas de procesamiento de imágenes tradicionales sigue siendo una solución probada para las tareas de inspección visual. Las tecnologías de IA amplían las áreas de aplicación del procesamiento industrial de imágenes. A pesar de los diferentes algoritmos, existen numerosos solapamientos en las capacidades de ambas tecnologías.
Por lo general, se utiliza una combinación de herramientas basadas en reglas y en la IA. Por ejemplo: La localización basada en reglas con seguimiento de piezas y recorte del objeto a inspeccionar se combina con la clasificación de errores basada en IA. A continuación, se realiza la medición del error basada en reglas.

Ámbitos de aplicación típicos

Procesamiento de imágenes basado en reglas

Medición, tareas de medición
Lectura de códigos
Alineación y posicionamiento precisos (también Robot Vision, Robot Guidance)

Combinaciones y solapamientos

Inspección, detección de defectos
Identificación (lectura de códigos, OCR/reconocimiento de caracteres)
Localización de objetos y características (también Robot Vision, Robot Guidance)

Procesamiento de imágenes basadao en la IA

Detección de objetos muy variables o errores
OCR exigente (p. ej., mala calidad de impresión, fondos variables)
Localización de objetos con elevada varianza
Clasificación (p. ej. de materiales o texturas)

¿Qué tecnologías de IA se utilizan en el procesamiento de imágenes?

Clasificación

La clasificación asigna una imagen a una o más clases predefinidas. Se distingue entre Multi-Class y Multi-Label.

Multi-Class: una clase por imagen, p. ej., “tornillo”

o clasificación de fallos con clases mutuamente excluyentes: “OK” (sin defectos) o “NOK” (defectuoso). Queda excluida una clasificación simultánea en ambas clases. 

Multi-Label: posibilidad de varias clases por imagen, p. ej., “tornillo”, “clavo”

o clasificación de errores con etiquetas independientes: “abolladura” y “arañazo”. Un objeto puede tener una abolladura, un arañazo, ambos o ninguno de los dos, ya que estas clases no se excluyen mutuamente.

Detección de objetos

La detección de objetos localiza y clasifica varios objetos en la imagen mediante marcos delimitadores, los llamados Bounding Boxes. Para cada objeto encontrado, indica a qué clase pertenece y dónde se encuentra exactamente en la imagen. Hay que distinguir entre la detección de objetos “paralela a los ejes” (como se puede ver en la imagen) y la “orientada”. En la detección de objetos orientados, los cuadros delimitadores están alineados con el objeto y describen el Bounding Box más pequeño posible.

Segmentación

Asigna una clase a cada píxel individual de la imagen para la delimitación exacta de objetos (p. ej., clavo, tornillo, fondo) o defectos (p. ej., defectos de pintura). 

Nota: Además de los modelos de IA habituales, cada vez hay más modelos de IA entrenados para una aplicación específica, como Deep OCR. El reconocimiento óptico de caracteres con Deep OCR utiliza redes neuronales entrenadas en grandes cantidades de imágenes de texto para extraer letras y números. A diferencia del OCR clásico, permite la detección precisa de texto dinámico con tamaños de fuente variables y diferentes fondos, incluso con impresiones y etiquetas con un diseño específico.

¿Qué es un modelo de IA?

Los modelos de IA son modelos asistidos por ordenador inspirados en el cerebro humano. Se componen de neuronas artificiales que procesan información y están conectadas entre sí mediante ponderaciones. Una ponderación es un valor numérico que determina el grado en que una señal de entrada afecta a la neurona.
Un modelo de IA está estructurado en capas: La “Input Layer” recibe los datos sin procesar (p. ej., imágenes). En las “Hidden Layers” se detectan automáticamente las características, y la “Output Layer” toma una decisión basada en ellas. 
Durante el entrenamiento, el modelo de IA compara sus predicciones con la verdad fundamental y ajusta gradualmente las ponderaciones. Este proceso de aprendizaje se repite en muchos ejemplos hasta que el modelo de IA detecta patrones de forma fiable. 
 
Modelo de IA o red neuronal: ¿cuál es la diferencia?
No todos los modelos de IA son una red neuronal. El término “modelo de IA” es un término genérico para muchos tipos de algoritmos, incluidos árboles de decisiones, modelos estadísticos y redes neuronales. Estos últimos son una forma de modelos de IA especialmente adecuados para tareas complejas como el reconocimiento de imágenes o el procesamiento de voz. Sin embargo, los términos “red neuronal” y “modelo de IA” se utilizan a menudo como sinónimos. 
Input Layer
Hidden Layers
Output Layer

ONNX: el formato de intercambio universal

El software de procesamiento de imágenes uniVision 3 permite la integración perfecta de redes ONNX. A través de GitHub, también puede cuantificar su red ONNX para su uso en hardware wenglor.

wenglor AI Loop: cómo funciona la IA en el procesamiento industrial de imágenes

Rara vez se dispone de un conjunto de datos representativo y extenso de una aplicación desde el principio. Los modelos de IA altamente precisos y fiables se crean mediante la ampliación continua de los datos y la validación de las redes una vez creadas. Un enfoque centrado en los datos y los procesos permite optimizar sistemáticamente y mantener la precisión de un modelo de IA a lo largo de todo el ciclo de vida de un equipo de inspección. Los datos existentes se comprueban de nuevo o se registran y anotan nuevos datos. 
Crear y gestionar conjuntos de datos
Anotación de conjuntos de datos (etiquetado)
Entrenamiento y validación del modelo de IA
Despliegue y ejecución del modelo de IA
En el primer paso, el más importante para el enfoque centrado en los datos, se capturan imágenes que reproducen la aplicación de la forma más representativa posible. A lo largo del proceso, se añaden continuamente nuevas imágenes. 

¿Qué es importante a la hora de crear conjuntos de datos adecuados?

Entre 50 y 100 imágenes reales por clase pueden ser suficientes para obtener los primeros resultados prácticos. Los datos deben ser bien seleccionados, variados y coherentes. Muchos datos de imágenes no implican automáticamente mejores modelos. El objetivo es lograr toda la dispersión natural de lotes, colores, influencias de iluminación, etc. con pocas imágenes de alta calidad para crear una solución robusta y generalizable.
Un ejemplo: Si una fábrica solo registra imágenes de placas de circuito impreso defectuosas de una máquina bajo determinadas condiciones de iluminación, el modelo de IA podría aprender a relacionar los errores con las condiciones de fondo o iluminación específicas de esa máquina, en lugar de con las características reales de los errores. Esta distorsión podría hacer que el modelo clasifique los errores de otras máquinas incorrectamente o bajo otras condiciones de iluminación. Al incorporar múltiples imágenes de diferentes máquinas, condiciones de iluminación y ángulos de visión, el modelo de IA aprende las características reales de los errores, lo que garantiza una detección fiable en todos los escenarios de producción.
Una estrategia de iluminación dirigida reduce la varianza de la imagen, aumenta la precisión del modelo y reduce la necesidad de imágenes de entrenamiento. Por ejemplo, con solo una cuarta parte de la cantidad de imágenes se puede lograr la misma precisión mejorando significativamente la calidad de la imagen mediante la elección del principio de iluminación adecuado, el color de la luz (longitud de onda), una iluminación homogénea y filtros ópticos. 
Al igual que sucede con los sistemas de procesamiento de imágenes basados en reglas, también aquí se aplica lo siguiente: Unas imágenes deficientes reducen significativamente la precisión del modelo de IA. Asegúrese de obtener imágenes nítidas con suficiente profundidad de campo, elevado contraste y consistencia en la configuración (cámara, iluminación, óptica).

Una resolución más alta muestra más detalles, pero requiere más tiempo de entrenamiento y más recursos. Las imágenes del conjunto de datos se reducen a menudo, p. ej., a 320 × 320 píxeles (imagen de entrada de IA) para el entrenamiento.
Importante: La característica decisiva debe ser claramente detectable incluso con una resolución así de baja. Lo que es visible para el ojo humano también suele poder ser capturado por el modelo de IA.

Las imágenes deben ser reales y, a ser posible, se deben tomar en condiciones cercanas a las de la producción. Genere variaciones naturales, como cambios en el fondo, condiciones de luz ligeramente diferentes, polvo, ruido o ligeras desviaciones de posición para hacer que el conjunto de datos sea más robusto. No obstante, un mecanizado severo o unas piezas defectuosas producidas artificialmente podrían provocar patrones de aprendizaje poco realistas. También es importante evitar errores sistemáticos, como que cada pieza buena tenga una marca, pero no las piezas defectuosas. Asegúrese de que la configuración sea la misma para la cámara, la iluminación y la óptica.
Durante el entrenamiento, utilice únicamente el área de la imagen en la que se encuentra el objeto relevante o el lugar del error. Esto evita que el modelo de IA aprenda involuntariamente en segundo plano o que los detalles importantes estén relativamente subrepresentados. El cropping permite obtener detalles más relevantes a baja resolución y ahorrar tiempo de entrenamiento.
Se recomienda una representación igual de ponderada de todas las clases (p. ej., pieza correcta, pieza defectuosa). Un desequilibrio, como el 99 % OK y el 1 % NOK, conduce a modelos de IA distorsionados que a menudo pasan por alto errores en la aplicación. Una base de datos equilibrada evita el sesgo de selección del modelo de IA y mejora el rendimiento de la detección incluso en patrones de error raros.
Augmentation significa generación artificial de variantes mediante, por ejemplo, la rotación, el aumento (zoom), la distorsión, el ruido o el cambio de brillo. Esto permite ampliar los conjuntos de datos existentes y preparar el modelo de IA para dispersiones reales, lo que es especialmente importante con conjuntos de datos pequeños para lograr rápidamente una mayor exactitud.
Importante: La Augmentation debe seguir siendo realista y práctica, ya que su uso tiene una gran influencia a la hora de equilibrar la exactitud del modelo de IA. Un giro podría ser, por ejemplo, un caso de error y, por lo tanto, no es adecuado para todas las aplicaciones.
En el segundo paso se anotan o etiquetan las imágenes. Para cada imagen, el usuario especifica una denominada verdad básica, como, por ejemplo, si se trata de una pieza buena o una pieza mala. 

¿Cómo se puede minimizar el esfuerzo del proceso de etiquetado?

Para garantizar una anotación consistente, deberán implicarse en el proceso expertos en aplicaciones, por ejemplo, de producción y control de calidad.
La clasificación según “NOK” y “OK” puede ser subjetiva, por lo que se debe garantizar una delimitación clara de las clases antes de entrenar y seguir anotando.
Consejo: Las muestras límite deben marcarse específicamente como tales mediante etiquetas. De este modo, esta información se puede incluir en la posterior validación de la red.
Durante la evaluación de los datos de entrenamiento, es decisivo basarse exclusivamente en las imágenes, no en el objeto real. Incluso aunque un defecto se detecte más fácilmente en la pieza original, para el modelo de IA solo cuenta lo que se ve en la imagen. Si se incorporan conocimientos adicionales del objeto real se producen incosistencias, ya que más adelante el modelo de IA también funcionará solo con información de la imagen.
El mantenimiento de un catálogo de defectos con tipos de defectos claramente descritos e imágenes de ejemplo ayuda a definir los criterios de exclusión de una forma segura y comprensible. Si se actualiza regularmente, por ejemplo, en caso de nuevos errores o productos, facilitará la transferencia de conocimientos y la integración de etiquetadores adicionales.
Las etiquetas permiten añadir palabras clave, lo que hace que los registros de datos sean más claros y fáciles de clasificar. Mediante la asignación de etiquetas se puede hacer visible, por ejemplo, qué datos se han registrado en qué día del calendario y a qué hora del día o qué datos se consideran muestras límite.
En el siguiente paso se entrena (o se vuelve a entrenar) el modelo de IA. Existen diferentes enfoques, en los que un conjunto de datos siempre se divide en datos de entrenamiento y de prueba. 

¿Qué hay que tener en cuenta al entrenar un modelo de IA?

La selección de la arquitectura de red en un formato adecuado para el hardware de inferencia (por ejemplo, INT8) es fundamental para la latencia (velocidad de ejecución) y el equilibrio en la precisión del modelo de IA. En función del caso de aplicación, se puede optimizar pensando en la latencia o en la exactitud. 
Consejo: El entrenamiento repetido del modelo de IA con el mismo conjunto de datos puede dar lugar a diferentes valores de rendimiento. Unas diferencias superiores al 5 % indican un registro de datos inconsistente. 
En el entrenamiento se debe establecer una resolución para la imagen de entrada
Cuanto mayor sea la resolución,
  • mayor será el tiempo de evaluación,
  • mayores los requisitos de la memoria RAM para la interferencia (ejecución),
  • más larga la duración del entrenamiento
  • más datos de entrenamiento se necesita para lograr el mismo equilibrio en la exactitud.
A continuación, se valida el modelo de IA. La IA a menudo se considera una caja negra con entradas y salidas, pero sin información clara para validar el modelo de IA. El informe del modelo de IA proporciona información sobre las exactitudes equilibradas (Recall y Precision), las predicciones erróneas, el tiempo de inferencia previsto y, por lo tanto, ayuda a la trazabilidad.

Trucos y consejos para la transparencia del modelo de IA

La matriz muestra con qué frecuencia las predicciones de un modelo de IA coinciden con las clases reales y dónde se producen los errores.
Consejo: Los motivos más comunes de las predicciones erróneas son una anotación incorrecta o una muestra límite. En este caso, es necesario adaptar la anotación y repetir el entrenamiento. El objetivo es minimizar las predicciones erróneas.
El Heatmap (mapa de calor) muestra qué área de la imagen resultó decisiva para predecir el resultado. La vista detallada permite sacar conclusiones sobre los errores en la anotación o la distorsión de la muestra. Esto garantiza una mayor transparencia y trazabilidad de los patrones de datos. 
La predicción de un modelo de IA se basa en la denominada puntuación (Score), que indica lo seguro que está el modelo de IA a la hora de tomar una decisión. Lo decisivo no es obtener las puntuaciones más altas posibles en todos los casos, sino lograr una distinción clara entre casos seguros e inseguros: Las puntuaciones altas solo deben producirse en caso de resultados claros, mientras que unas puntuaciones deliberadamente más bajas tienen sentido en casos inseguros. De este modo, se evita que el modelo de IA decida “de forma incorrectamente segura” incluso en situaciones poco claras.
Tanto en el entrenamiento como en la inferencia del modelo de IA, la resolución de cada imagen de registro de datos se reduce antes de utilizarse como imagen de entrada de IA. Por tanto, compruebe si la característica relevante sigue siendo detectable. Si no es así, puede ser útil, por ejemplo, recortar más coherentemente o elegir una resolución más alta de la imagen de entrada de IA.
Existen diferentes métodos de validación para evaluar los modelos de IA. Normalmente, los registros se dividen en datos de entrenamiento, validación y prueba. 
  • Los datos de entrenamiento se utilizan para entrenar el modelo de IA, y suelen representar entre el 70 y el 80 % de los datos. 
  • Los datos de validación se utilizan durante el entrenamiento para ajustar las ponderaciones y comprobar si el modelo de IA está sobreentrenado (Overfitting). Suelen representar entre el 10 y el 20 % de los datos. 
  • Los datos de prueba solo se utilizan para evaluar la calidad final del modelo de IA, y representan entre el 10 y el 20 % de los datos. 
Comparación de dos métodos de validación comunes
 
CaracterísticaValidación del Hold-out (retención)Validación K-Fold-Cross (validación cruzada K-Fold)
DescripciónEl conjunto de datos se divide una sola vez, p. ej., 80 % de entrenamiento/20 % de pruebaEl conjunto de datos se divide en k partes, el modelo de IA se evalúa k veces con cada uno de los otros datos de prueba
Ventajas
  • Menor esfuerzo de cálculo
  • Evaluación fiable y estable de los resultados gracias a la dispersión
  • Otra calificación de la calidad del registro gracias a la desviación estándar
  • Mejor uso de conjuntos de datos pequeños
  • Reducción del riesgo de aparición de errores de evaluación aleatorios
Desventajas
  • Resultado muy dependiente de la división
  • Susceptible a distorsiones, especialmente en el caso de conjuntos de datos más pequeños
  • Mayor esfuerzo de cálculo
Nota: Especialmente para conjuntos de datos más pequeños, los usuarios se benefician de la robusta evaluación de la validación cruzada K-Fold. La elección de un método de validación inadecuado da lugar a evaluaciones poco fiables del modelo de IA.
El modelo de IA ya entrenado se transfiere del entorno de entrenamiento a la plataforma de inferencia. A menudo, también en más de una instalación al mismo tiempo. Esta puesta en marcha inicial se denomina Deployment (despliegue) del modelo de IA

¿Cómo se implanta la IA en la aplicación de procesamiento de imágenes?

La utilización de la IA de forma eficaz y eficiente requiere una experiencia adecuada; de lo contrario, su implantación será muy costosa. Con AI Lab, wenglor ofrece una plataforma de entrenamiento de uso intuitivo para crear modelos de IA que se pueden ejecutar sin problemas en el potente hardware de wenglor. weHub permite realizar ciclos de entrenamiento continuos y ampliar continuamente los conjuntos de datos con nuevos datos relevantes.



A la hora de crear un modelo de IA, el usuario elige en primer lugar una arquitectura de red adecuada. Sobre esta base se elige a continuación una plataforma de entrenamiento adecuada y las herramientas para su ejecución. El formato de intercambio universal Open Neural Network Exchange (ONNX) para redes de IA ofrece el uso multiplataforma de modelos de IA como estándar abierto. El software para visión artificial uniVision 3 permite la integración perfecta de modelos de IA en formato ONNX. Con GitHub también puede cuantificar su red ONNX para su uso en hardware wenglor.

  
 
Después de realizar la puesta en marcha pueden darse los siguientes motivos para repetir el entrenamiento :
  • Aparecen nuevas clases que deben detectarse.
  • Los valores de puntuación disminuyen, p. ej., debido a cambios de lote, contaminación o desgaste de los portapiezas o reducción de la potencia lumínica.
  • Los requisitos de equilibrio en la exactitud cambian. 
Si es necesario un nuvo entrenamiento, AI Loop se reinicia. 
En primer lugar, asegúrese de que la base de datos existente sea consistente y clara antes de grabar nuevos datos. Revise las predicciones incorrectas y vuelva a comprobar cada anotación si es necesario. Utilice herramientas de validación como el mapa de calor, los valores de puntuación y la matriz de confusión. A continuación, concéntrese en la clase con el peor rendimiento y proporcione unas 100 imágenes adicionales de esta clase, idealmente de variantes o productos en los que el modelo tenga un rendimiento especialmente bajo y el valor de puntuación sea reducido. Como alternativa, también se pueden añadir 50 imágenes nuevas por clase. 
Cuanto más valiosos sean los datos, más robusto será el modelo de IA. La calidad siempre prevalece sobre la cantidad. Mantener el foco en unos datos de alta calidad, equilibrados y realistas conduce a modelos de IA más fiables, reduce el riesgo de sobreajustes y aumenta la idoneidad para el día a día en la producción. Quien invierta tiempo en una selección inteligente de datos, ahorrará más tarde esfuerzo en la formación y alcanzará más rápidamente una alta precisión con resultados comprensibles al mismo tiempo.

Comparación de tres enfoques básicos para el entrenamiento de modelos de IA

Deep Learning utiliza redes neuronales complejas y es especialmente adecuado para aplicaciones con una alta variación de imágenes y requisitos de alta precisión. Para ello suele ser necesaria mucha potencia de cálculo y tiempos de entrenamiento más largos. El aprendizaje en el extremo también se basa en el Deep Learning, pero se diferencia por el hecho de que la formación se realiza directamente en el dispositivo en el extremo (Edge Device). Esto permite una implantación rápida y sencilla, aunque suele dar lugar a modelos de IA menos potentes, más adecuados para tareas de inspección sencillas.
Los principiantes en IA suelen utilizar el Edge Learning como una solución sencilla para tareas de procesamiento de imágenes, incluso allí donde las prácticas clásicas basadas en reglas son más adecuadas y han demostrado su eficacia durante años. El uso del Edge Learning conlleva riesgos, ya que la configuración sencilla de las soluciones Edge a menudo se hace a expensas de la solidez, la trazabilidad y la precisión de la detección. 
Comparación de productos