text.skipToContent text.skipToNavigation

Tecnologie di un sensore 3D

Il rilevamento tridimensionale degli oggetti svolge un ruolo centrale nell’automazione, poiché l’istanza di elaborazione successiva deve conoscerne la posizione, le dimensioni e la forma. Il percorso per ottenere una nuvola di punti 3D si articola in più fasi e può essere risolto con diverse tecniche di misurazione.
 

Triangolazione e luce strutturata

La tecnica della triangolazione è un metodo per ottenere informazioni sulla profondità. La sorgente di illuminazione e la telecamera hanno una distanza definita e sono allineate su un punto comune. Questo forma un triangolo con il cosiddetto angolo di triangolazione. Questo angolo di triangolazione consente di calcolare le informazioni sulla profondità. Maggiore è l’angolo, migliore sarà la raccolta delle informazioni sulla profondità. Con l’angolo di triangolazione, gli oggetti illuminati creano un’ombra (ombreggiamento) oppure l’oggetto oscura lo sfondo e non è più visibile alla telecamera (ostruzione). Solo per le aree che non presentano né ombreggiature né ostruzioni è possibile emettere informazioni sulla profondità. Un sensore 3D di wenglor funziona con luce strutturata e triangolazione. È composto da una sorgente di illuminazione e da una telecamera. La telecamera e la sorgente di illuminazione sono allineate su un punto e formano un triangolo, la cosiddetta triangolazione. Ciò consente di ottenere informazioni sulla profondità. Proiettando diversi modelli sull’oggetto, è possibile creare una nuvola di punti 3D.
La luce strutturata è una tecnica di illuminazione in cui la luce crea uno schema familiare, spesso griglie o barre. Il modo in cui i modelli vengono deformati consente di riconoscere le informazioni sulla profondità e sulla superficie degli oggetti. La luce strutturata è un metodo di misurazione con risoluzioni estremamente precise, inferiori a 10 μm. Ciò significa che è possibile identificare le più sottili crepe presenti negli oggetti o le più piccole strutture invisibili all’occhio umano. I sensori 3D utilizzano spesso modelli come le immagini binarie con le proprie denominazioni, come i modelli di codice Gray o anche le immagini di fase.
Il modello di codice Gray consiste in una sequenza di strisce illuminate in modo chiaro o scuro che diventano sempre più sottili. Tracciando l’andamento dell’intensità con una telecamera, è possibile rilevare un modello e quindi definire un intervallo di profondità. Le immagini di fase, invece, sono modelli d’onda sotto forma di onde sinusoidali proiettate su un oggetto. Per la creazione dei modelli, ad esempio, è possibile utilizzare un dispositivo digitale a microspecchi (Digital Micromirror Device). La fase dell’onda viene spostata da immagine a immagine. Le informazioni sulla profondità possono essere ottenute dalla curva di fase con l’ausilio di una telecamera. 

Stereo passivo

Con questo metodo, due telecamere riprendono lo stesso oggetto con un’unica angolazione. Grazie ai diversi angoli di osservazione, è possibile determinare la distanza di un punto. La difficoltà consiste nell’identificare lo stesso punto con entrambe le telecamere. Ad esempio, se si osserva una superficie a basso contrasto, come una parete bianca, questo metodo non è ottimale.

Stereo attivo

La struttura corrisponde a quella dello stereo passivo. L’unica differenza è che in questo caso un modello (ad es. punti distribuiti in modo casuale) viene proiettato sull’oggetto. Ciò facilita l’assegnazione di un punto di entrambe le telecamere.

Time of Flight

In questo metodo, la distanza tra l’oggetto e il sensore viene determinata in base al tempo di propagazione della luce. Il sensore emette impulsi luminosi che colpiscono un oggetto. L’oggetto riflette questi impulsi luminosi. La distanza viene determinata in base alla durata della riflessione degli impulsi luminosi. In questo modo è possibile determinare le informazioni sulla profondità, come le strutture o le distanze degli oggetti.

Tecnologie 3D a confronto

La tridimensionalità del sensore 3D

I sensori 3D proiettano diversi modelli sull’oggetto da misurare e li registrano nuovamente con una telecamera. L’oggetto viene quindi acquisito tridimensionalmente e digitalizzato in una nuvola di punti 3D. Né l’oggetto né il sensore 3D sono in movimento. In questo modo il rilevamento può essere eseguito in modo rapido ed estremamente preciso.

1) telecamera ad alta risoluzione
2) Light Engine
3) X, Y = campo di misurazione
4) Z = campo di lavoro

La misurazione di oggetti in 3D semplifica la produzione automobilistica

Illuminazione: Light Engine per un’illuminazione ideale

La sorgente di illuminazione può essere un laser o un LED. I laser generano luce con un’elevata coerenza temporale e spaziale. Lo spettro è a banda stretta. La luce generata da un laser può essere trasformata in una forma specifica per mezzo dell’ottica. Un altro tipo di illuminazione è l’uso di un LED. Rispetto a un laser, questo genera una luce a banda larga e presenta una scarsa coerenza. I LED sono più facili da gestire e generano più lunghezze d’onda rispetto ai diodi laser. Grazie alla tecnologia Digital Light Processing (DLP) è possibile generare qualsiasi modello. La combinazione di LED e DLP offre la possibilità di generare diversi modelli in modo rapido ed efficace, rendendoli ideali per la tecnica 3D della luce strutturata. 

Acquisizione delle immagini: con la potenza della tecnologia Power per un’immagine perfetta

Utilizzando una telecamera ad alta risoluzione, l’oggetto viene acquisito in due dimensioni. Le telecamere odierne dispongono in genere di un chip a semiconduttore fotosensibile basato sulla tecnologia CMOS o CCD, sebbene la tecnologia CMOS venga utilizzata più spesso. Un chip è composto da molte singole celle (pixel). I chip moderni hanno diversi milioni di pixel, per cui è possibile rilevare l’oggetto in due dimensioni. Grazie alle migliori prestazioni della tecnologia CMOS, questa viene impiegata nei sensori 3D.

Nuvola di punti 3D: Dall’applicazione all’immagine finita

La sequenza di pattern della luce strutturata viene registrata dalla telecamera. Il pacchetto che contiene tutte le immagini è chiamato Image Stack. Dalle immagini dei singoli modelli è possibile determinare le informazioni sulla profondità di ciascun punto (pixel). Poiché la telecamera ha diversi milioni di pixel e ogni pixel riconosce le sfumature di grigio, vengono generati diversi megabyte di dati in breve tempo. La quantità di dati può essere elaborata su un potente PC industriale o internamente al sensore con un FPGA. Il vantaggio del calcolo interno è la velocità, mentre il calcolo sul PC consente una maggiore flessibilità. Il risultato del calcolo è una nuvola di punti 3D.

Integrazione: dal sensore all’applicazione

La nuvola di punti 3D viene calcolata dalle immagini acquisite. Questo può avvenire nel sensore, ma anche su un PC industriale. Per facilitare l’integrazione, vengono utilizzati i Software Development Kit (SDK) del produttore o le interfacce standardizzate come GigE Vision. 

Utilizzo di un’illuminazione monocromatica

L’uso di un’illuminazione monocromatica consente di utilizzare filtri ottici per sopprimere efficacemente le influenze di disturbo provenienti dalla luce estranea. Anche l’illuminazione può essere ottimizzata per la massima efficienza e intensità luminosa.

Confronto dei prodotti