Triangolazione e luce strutturata
Il modello di codice Gray consiste in una sequenza di strisce illuminate in modo chiaro o scuro che diventano sempre più sottili. Tracciando l’andamento dell’intensità con una telecamera, è possibile rilevare un modello e quindi definire un intervallo di profondità. Le immagini di fase, invece, sono modelli d’onda sotto forma di onde sinusoidali proiettate su un oggetto. Per la creazione dei modelli, ad esempio, è possibile utilizzare un dispositivo digitale a microspecchi (Digital Micromirror Device). La fase dell’onda viene spostata da immagine a immagine. Le informazioni sulla profondità possono essere ottenute dalla curva di fase con l’ausilio di una telecamera.
Stereo passivo h4>
Con questo metodo, due telecamere riprendono lo stesso oggetto con un’unica angolazione. Grazie ai diversi angoli di osservazione, è possibile determinare la distanza di un punto. La difficoltà consiste nell’identificare lo stesso punto con entrambe le telecamere. Ad esempio, se si osserva una superficie a basso contrasto, come una parete bianca, questo metodo non è ottimale.
Stereo attivo h4>
La struttura corrisponde a quella dello stereo passivo. L’unica differenza è che in questo caso un modello (ad es. punti distribuiti in modo casuale) viene proiettato sull’oggetto. Ciò facilita l’assegnazione di un punto di entrambe le telecamere.
Time of Flight h4>
In questo metodo, la distanza tra l’oggetto e il sensore viene determinata in base al tempo di propagazione della luce. Il sensore emette impulsi luminosi che colpiscono un oggetto. L’oggetto riflette questi impulsi luminosi. La distanza viene determinata in base alla durata della riflessione degli impulsi luminosi. In questo modo è possibile determinare le informazioni sulla profondità, come le strutture o le distanze degli oggetti.
Tecnologie 3D a confronto
Luce strutturata | Stereo passivo | Stereo attivo | Time of Flight | |
---|---|---|---|---|
Risoluzione | ||||
Precisione | ||||
Luce estranea | ||||
Velocità di misurazione | ||||
Oggetti a basso contrasto | ||||
Ostruzione/ombreggiamento |
Risoluzione
|
|||
---|---|---|---|
Luce strutturata
|
Stereo passivo
|
Stereo attivo
|
Time of Flight
|
Precisione
|
|||
Luce strutturata
|
Stereo passivo
|
Stereo attivo
|
Time of Flight
|
Luce estranea
|
|||
Luce strutturata
|
Stereo passivo
|
Stereo attivo
|
Time of Flight
|
Velocità di misurazione
|
|||
Luce strutturata
|
Stereo passivo
|
Stereo attivo
|
Time of Flight
|
Oggetti a basso contrasto
|
|||
Luce strutturata
|
Stereo passivo
|
Stereo attivo
|
Time of Flight
|
Ostruzione/ombreggiamento
|
|||
Luce strutturata
|
Stereo passivo
|
Stereo attivo
|
Time of Flight
|
La tridimensionalità del sensore 3D
I sensori 3D proiettano diversi modelli sull’oggetto da misurare e li registrano nuovamente con una telecamera. L’oggetto viene quindi acquisito tridimensionalmente e digitalizzato in una nuvola di punti 3D. Né l’oggetto né il sensore 3D sono in movimento. In questo modo il rilevamento può essere eseguito in modo rapido ed estremamente preciso.
1) telecamera ad alta risoluzione
2) Light Engine
3) X, Y = campo di misurazione
4) Z = campo di lavoro
La misurazione di oggetti in 3D semplifica la produzione automobilistica
Illuminazione: Light Engine per un’illuminazione ideale h3>
La sorgente di illuminazione può essere un laser o un LED. I laser generano luce con un’elevata coerenza temporale e spaziale. Lo spettro è a banda stretta. La luce generata da un laser può essere trasformata in una forma specifica per mezzo dell’ottica. Un altro tipo di illuminazione è l’uso di un LED. Rispetto a un laser, questo genera una luce a banda larga e presenta una scarsa coerenza. I LED sono più facili da gestire e generano più lunghezze d’onda rispetto ai diodi laser. Grazie alla tecnologia Digital Light Processing (DLP) è possibile generare qualsiasi modello. La combinazione di LED e DLP offre la possibilità di generare diversi modelli in modo rapido ed efficace, rendendoli ideali per la tecnica 3D della luce strutturata.
Acquisizione delle immagini: con la potenza della tecnologia Power per un’immagine perfetta h3>
Utilizzando una telecamera ad alta risoluzione, l’oggetto viene acquisito in due dimensioni. Le telecamere odierne dispongono in genere di un chip a semiconduttore fotosensibile basato sulla tecnologia CMOS o CCD, sebbene la tecnologia CMOS venga utilizzata più spesso. Un chip è composto da molte singole celle (pixel). I chip moderni hanno diversi milioni di pixel, per cui è possibile rilevare l’oggetto in due dimensioni. Grazie alle migliori prestazioni della tecnologia CMOS, questa viene impiegata nei sensori 3D.
Nuvola di punti 3D: Dall’applicazione all’immagine finita
La sequenza di pattern della luce strutturata viene registrata dalla telecamera. Il pacchetto che contiene tutte le immagini è chiamato Image Stack. Dalle immagini dei singoli modelli è possibile determinare le informazioni sulla profondità di ciascun punto (pixel). Poiché la telecamera ha diversi milioni di pixel e ogni pixel riconosce le sfumature di grigio, vengono generati diversi megabyte di dati in breve tempo. La quantità di dati può essere elaborata su un potente PC industriale o internamente al sensore con un FPGA. Il vantaggio del calcolo interno è la velocità, mentre il calcolo sul PC consente una maggiore flessibilità. Il risultato del calcolo è una nuvola di punti 3D.
Integrazione: dal sensore all’applicazione h3>
La nuvola di punti 3D viene calcolata dalle immagini acquisite. Questo può avvenire nel sensore, ma anche su un PC industriale. Per facilitare l’integrazione, vengono utilizzati i Software Development Kit (SDK) del produttore o le interfacce standardizzate come GigE Vision.
Utilizzo di un’illuminazione monocromatica h3>
L’uso di un’illuminazione monocromatica consente di utilizzare filtri ottici per sopprimere efficacemente le influenze di disturbo provenienti dalla luce estranea. Anche l’illuminazione può essere ottimizzata per la massima efficienza e intensità luminosa.