Domande generali sul software Machine Vision
Il software Machine Vision viene utilizzato per risolvere i compiti di elaborazione delle immagini con i prodotti wenglor Machine Vision nel settore dell’elaborazione industriale delle immagini.
wenglor offre i seguenti software Machine Vision:
- Software wenglor uniVision 3
- Software wenglor Discovery Tool
- Software uniVision 2
- Software VisionApp 360
- Software VisionApp Demo 3D
- Software di supporto
Le nuove versioni software vengono messe a disposizione in caso di ampliamenti delle funzioni, ottimizzazioni delle prestazioni e bugfix.
Domande frequenti sulla wenglor uniVision 3
wenglor uniVision 3 è un software per l'impostazione di prodotti wenglor Machine Vision per la risoluzione di compiti nel settore dell’elaborazione industriale delle immagini. L’ambiente di sviluppo consente agli utenti di automatizzare l’analisi dei dati (ad es. valutazione delle immagini) tramite interfacce utente grafiche e la creazione di configurazioni al posto delle normali programmazioni. In questo modo wenglor uniVision 3 si qualifica come piattaforma a basso codice o senza codice.
Per gli utenti registrati, il software uniVision 3 può essere scaricato e installato gratuitamente dalla pagina dei dettagli del prodotto DNNF023.
wenglor uniVision 3 si basa sulla funzionalità di uniVision 2, ma include numerose nuove funzioni, ottimizzazioni e bugfix. Inoltre uniVision 2 e 3 supportano diversi apparecchi:
- uniVision 2: Smart Camera weQube B50, sensori di profilo 2D/3D, controller machine vision BB1C5
- uniVision 3: Smart Camera B60, controller Machine Vision MVC
Il software wenglor uniVision 3 è supportato dalla Smart Camera B60 e dal controller Machine Vision MVC. È il software standard per tutti i futuri dispositivi wenglor Machine Vision.
Nella wenglor uniVision 3 è disponibile una toolbox con numerosi moduli software che possono essere aggiunti al lavoro in modo flessibile e collegati tra loro a piacere.
I template sono lavori uniVision predefiniti per una determinata attività (ad es. lettura codice) che possono essere caricati sul prodotto uniVision. Nei template sono già salvati e collegati i moduli più importanti, in modo che debbano essere adattati solo pochi parametri.
Per l’utilizzo di wenglor uniVision 3 non sono necessarie conoscenze di programmazione, ma conoscenze di base nell’elaborazione industriale delle immagini e nelle nozioni di parametrizzazione
Il software wenglor uniVision 3 necessita di un PC con Windows 10 o Windows 11. I dettagli in merito sono riportati nei dati tecnici nella pagina dei dettagli del prodotto.
Gli aggiornamenti software e firmware per uniVision 3 vengono pubblicati più volte all’anno per ampliare la gamma di funzioni dei dispositivi uniVision e migliorarne costantemente la stabilità e le prestazioni.
Sì, se i dispositivi sono compatibili con uniVision 3, è possibile caricare nuovi aggiornamenti software e firmware sul dispositivo corrispondente in modo rapido e semplice tramite il sito web del dispositivo. Per una descrizione più dettagliata del processo di aggiornamento, consultare le istruzioni per l’uso del rispettivo dispositivo.
Il maggior parte dei moduli disponibili nel software wenglor uniVision 3 possono essere utilizzati più volte all’interno di un job e combinati a piacere. Fanno eccezione i moduli “Foglio di calcolo” e “Deep OCR immagine” (per la Smart Camera B60) e le interfacce, che possono essere utilizzate solo una volta per lavoro.
Sì, il software può essere ampliato anche in un secondo momento con pacchetti di licenze separati.
Sì, i profili possono essere letti offline in uniVision tramite Teach Plus o tramite la modalità di simulazione se sono in formato ply. In questo modo è possibile, ad esempio, salvare i profili nella VisionApp Demo 3D e simularli in uniVision 3.
Sì, in modalità Teach Plus i dati (immagini o profili) possono essere facilmente salvati, cancellati e caricati in uniVision tramite Image Container Viewer. Nella modalità di simulazione i dati (immagini o profili) vengono letti dal PC tramite un percorso di cartella non modificabile.
Nel prodotto software uniVision 3 DNNF023 è incluso un simulatore offline che può essere utilizzato gratuitamente e senza licenze. Solo attorno ai moduli
-
Codice 1D immagine
-
Codice 2D immagine
-
Immagine Deep OCR
-
Immagine confronto campione
-
HALCON Script
per poterlo utilizzare offline è necessaria la licenza DNNL022.
Il software wenglor uniVision 3 può essere utilizzato per la simulazione anche offline senza dispositivo in due modi diversi:
- Modalità Teach Plus
- Modalità di simulazione
La modalità Teach Plus consente, ad esempio, di ottimizzare i progetti con immagini buone e cattive acquisite con la camera. Inoltre, tramite gli esempi memorizzati nel software è possibile eseguire anche test rapidi per la valutazione del software. La modalità di simulazione offline consente di valutare il software con file di immagine o di profilo acquisiti con hardware di terzi o generati sinteticamente.
La visualizzazione di un lavoro può essere impostata in modo flessibile e libero. I risultati, ad esempio, possono essere visualizzati direttamente nell’immagine come sovrapposizione. La visualizzazione è basata sul web e utilizzabile su qualsiasi dispositivo con browser.
wenglor uniVision 3 supporta tutte le interfacce rilevanti per comandi e robot, in modo che i dispositivi uniVision possano essere integrati in modo rapido e semplice.
Con uniVision 3 è possibile creare per ogni istanza di processo un collegamento robotizzato per la saldatura o per la visione robotizzata. Con la Smart Camera B60 è quindi possibile un collegamento a un robot, mentre con il controller Machine Vision MVC sono possibili 16 collegamenti robotici individuali per la saldatura e/o la visione robotizzata.
Sì, in uniVision 3 esistono template per i tipi di giunzione più comuni che facilitano la configurazione del lavoro.
Per il controllo applicazione insegui giunto con uniVision 3 sono necessari, oltre a un robot, un sensore di profilo 2D/3D MLxL,un controller Machine Vision MVC e il pacchetto di licenza uniVision Robotics (incluso nella variante MVCV001 o con licenza aggiuntiva tramite il pacchetto di licenza DNNL026).
La calibrazione della camera e del robot con Robot Vision avviene mediante una calibrazione occhio-mano mediante un oggetto di calibrazione. La camera può essere montata staticamente o posizionata sull’effettore finale del robot. Gli oggetti di taratura professionali, rigidi e resistenti alla temperatura sono disponibili in diverse dimensioni. Per la routine di calibrazione è necessario inizializzare diverse posizioni in cui la camera vede l’oggetto di calibrazione per determinare la relazione tra camera e robot.
Il software uniVision 3 consente la comunicazione con robot del produttore. Tramite l’API Robot Vision aperta è possibile anche stabilire una connessione con robot il cui tipo non è ancora ufficialmente supportato.
Robot Vision è supportato in wenglor uniVision 3 dalla Smart Camera B60 e dal controller Machine Vision MVC con le videocamere Machine Vision della serie BBVK o BBZK.
Nelle applicazioni di misurazione, le piastre di calibrazione vengono utilizzate per eliminare la distorsione del sistema ottico e garantire una conversione precisa da pixel a millimetri. Ciò avviene nel software wenglor uniVision 3 tramite il modulo Image Calibration.
Inoltre, una piastra di calibrazione consente una taratura semplice e rapida nelle applicazioni Robot Vision. La corrispondenza delle coordinate avviene eliminando la distorsione causata dall’ottica. Per una calibrazione accurata, la piastra di calibrazione deve trovarsi completamente nel campo visivo della camera e coprire almeno la metà del campo visivo. Gli schemi di taratura stampati su carta determinano una taratura meno accurata. I pannelli opachi (ad es. ZVZJ001) sono adatti per applicazioni a luce incidente, quelli trasparenti (ad es. ZVZJ005) per applicazioni a luce trasmessa.
Se la relazione tra camera e robot non cambia, non è necessaria una nuova calibrazione.
Nel software wenglor uniVision 3 è anche possibile trovare i dati di più oggetti diversi con un’acquisizione delle immagini e inviarli al robot per ottimizzare il tempo ciclo per le attività Pick-and-Place. In questo modo, il robot deve entrare meno frequentemente nella capsula di rilevazione e può afferrare direttamente altri oggetti già rilevati.
Per il prelievo in applicazioni pick-and-place, nel software wenglor uniVision 3 è possibile configurare anche offset a piacere in x e y, in modo che l’oggetto possa ad esempio essere afferrato dalla punta.
Nell’applicazione Pick-and-Place è possibile configurare un’altezza dell’oggetto individuale per ogni tipo di oggetto, in modo da poter afferrare diversi tipi di oggetti a diverse altezze.
Nel software wenglor uniVision 3 è possibile inizializzare facilmente diversi tipi di oggetti. Il tipo di oggetto può quindi essere inviato direttamente al robot.
L'inizializzazione degli oggetti nella wenglor uniVision 3 avviene nel modo più semplice tramite i moduli Confronto campione e Localizzazione.
Il modulo “Dispositivo Robot Vision” nella wenglor uniVision 3 consente la comunicazione diretta tra camere 2D e robot.
Sì, l’esecuzione di script HALCON può anche essere associata a un dispositivo specifico. In questo modo è possibile evitare che un progetto con HALCON Script venga semplicemente copiato su altri dispositivi.
Gli script HALCON possono essere cifrati per evitare modifiche indesiderate allo script.
Nel dizionario HALCON è possibile memorizzare in modo permanente e indipendente dalla piattaforma dati come i modelli di contornitura acquisiti.
Sono disponibili numerosi esempi di script HALCON che mostrano facilmente quali tipi di dati sono supportati e come le applicazioni possono essere facilmente realizzate.
Il flusso di lavoro tipico per lavorare con gli script HALCON è il seguente:
- Registrazione di un file Teach+ con dati reali
- Creazione dello script HALCON con i dati acquisiti nel software HDevelop
- Caricamento dello script HALCON nel software wenglor uniVision 3 nel modulo HALCON Script
I dati delle immagini necessari per creare uno script HALCON vengono registrati in un file Teach+ con dati reali.
L’ecosistema uniVision consente uno scambio di dati flessibile tra tutti i moduli uniVision e il modulo HALCON Script. Numerose interfacce (ad es. PROFINET, EtherNet/IP) sono disponibili sul prodotto uniVision. I risultati del modulo HALCON Script possono quindi essere emessi direttamente e in modo flessibile tramite le interfacce uniVision. La visualizzazione flessibile basata sul web consente anche la visualizzazione flessibile e personalizzata dei risultati del modulo HALCON Script, anche direttamente nell’immagine!
Sì, HDevEngine è già in esecuzione su dispositivi uniVision. In questo modo gli script HALCON possono essere eseguiti direttamente su dispositivi uniVision. In questo modo si può concentrare l’attenzione sulla soluzione applicativa (software)!
Gli script HALCON possono essere creati anche con altre versioni di HALCON. È tuttavia necessario osservare le indicazioni sulla compatibilità con la versione HALCON 22.11 utilizzata sui dispositivi uniVision.
Sui dispositivi uniVision è in esecuzione la versione HALCON 22.11.
I seguenti tipi di dati possono essere trasmessi sia da moduli uniVision al modulo HALCON Script (input) sia dal modulo HALCON Script ad altri moduli uniVision (output):
- Variabili iconiche
- immagini
- Regioni
- XLDs
- Variabili di controllo
- Integro
- Reale
- Stringa
Sì, i moduli software standard nel software wenglor uniVision 3 possono essere combinati a piacere con gli script HALCON. Lo scambio di dati tra i moduli è possibile in modo flessibile!
In questo modo wenglor uniVision 3 consente una combinazione di parametrizzazione e programmazione:
- Parametrizzabile:
Le attività standard possono essere risolte facilmente con i moduli UniVision standard dalla toolbox uniVision - Programmazione: Le attività complesse possono essere risolte in HDevelop con script HALCON.
Gli script HALCON creati nel software HDevelop di MVTec possono essere caricati nel modulo HALCON Script nel software uniVision e caricati sul prodotto uniVision (ad es. B60). L’HDevEngine necessario a tale scopo è già preinstallato sul prodotto uniVision.
Domande frequenti sul software basato sull’IA
Sì, tutti i dati vengono memorizzati in Europa in conformità al GDPR. Nei piani di pagamento tutti i diritti rimangono a carico dell’utente. L’archiviazione nel cloud è certificata BSI C5 e i dati possono essere cancellati autonomamente al termine della pianificazione.
Tutti i dati sono crittografati tramite TLS e AES-256, memorizzati in modo ridondante più volte e protetti da backup automatici. In questo modo sono protetti dalla perdita e dall’accesso non autorizzato.
L’AI Lab supporta diversi formati (ad es. JPEG, BMP) e risoluzioni. Questi vengono adattati automaticamente. Per ottenere i migliori risultati possibili, tutte le immagini devono avere una qualità simile.
Un modello esistente non può essere riallenato: ogni allenamento si basa sempre sul set di dati completo.
Sì, più Smart Camera B60 possono caricare in parallelo nello stesso record di dati tramite weHub, purché il piano consenta l’utilizzo di “Connected Devices” liberi.
La suddivisione in dati di allenamento e test avviene automaticamente. Un allenamento con ≤ 500 immagini a 320 px dura generalmente circa 5 minuti. I risultati possono variare leggermente da un allenamento all’altro, poiché gli elementi casuali aumentano la robustezza.
La velocità di caricamento dipende dalla rete, dalle dimensioni dell’immagine e dal numero di dispositivi. Sono comuni più fotogrammi al secondo per dispositivo. Per la classificazione vale quanto segue: 1 credito = fino a 5.000 immagini, 2 crediti = fino a 10.000 immagini, poi altri crediti ogni 5.000 immagini.
Le immagini possono essere caricate a piena risoluzione, ma vengono scalate automaticamente alla dimensione di ingresso appropriata per l’allenamento e l’esecuzione. Nell’AI Lab, a seconda dell’hardware, possono essere selezionate solo dimensioni di modelli funzionanti. La dimensione del modello di IA deriva dalla dimensione dell’immagine di ingresso dell’IA e dall’architettura del modello di IA e influisce direttamente sulla velocità di inferenza.
Per impostazione predefinita, l’AI Lab genera reti quantificate, in quanto sono più veloci sulla Smart Camera B60. I modelli ONNX proprietari non quantificati possono essere utilizzati, ma sono generalmente meno performanti. Le dimensioni e le prestazioni dettagliate dei modelli ONNX sono disponibili su GitHub.
Non esiste un limite fisso per il numero di classi. Raccomandazioni: Il massimo necessario, il minimo possibile. È importante un rapporto il più possibile equilibrato tra le immagini per classe. Per ogni classe sono necessarie almeno 5 immagini, per risultati affidabili si consigliano almeno 50 immagini.
Il collegamento tra l’AI Lab e uniVison avviene tramite weHub, tramite il quale le immagini vengono caricate nell’AI Lab e i modelli di IA addestrati vengono ritrasmessi a uniVision.
Non è necessaria una connessione Internet permanente, poiché weHub memorizza i dati. Per l’inferenza, i modelli IA possono essere utilizzati esclusivamente con l’hardware wenglor. I dati di allenamento possono essere creati anche con dispositivi di terzi. AI Lab non è ottimizzato per smartphone o tablet.
L’AI Lab è destinato anche ai principianti dell’IA che desiderano creare i propri modelli di IA. Il modulo ONNX è destinato agli utenti esperti di IA con architetture di rete proprie o quando i dati di immagine non possono lasciare la rete aziendale. Sia il modulo “ONNX immagine” che l’AI Lab sono inclusi nel pacchetto di licenza “uniVision AI”.
La formazione dei modelli di IA nel cloud non richiede hardware o competenze specifiche. In questo modo si risparmiano investimenti e risorse. La formazione sul cloud offre prestazioni di elaborazione scalabili, accesso da qualsiasi luogo, backup dei dati e costi flessibili, a differenza della formazione su PC locali o dispositivi edge che non sono ottimizzati per questo scopo.
I modelli di IA addestrati sul cloud sono più complessi, più accurati e in grado di elaborare grandi quantità di dati prima di distribuirli ai dispositivi per l’inferenza. I modelli di IA edge sono più piccoli, più efficienti e forniscono risultati rapidi direttamente sul dispositivo, ma spesso raggiungono una precisione inferiore.
Il report di valutazione è disponibile per la verifica della qualità del modello di IA. Mostra i principali indicatori di precisione e funge da prova, ad es. per un Factory Acceptance.
I piani possono essere estesi tramite stacking: le stesse licenze aggiungono durata e crediti. Un piano in corso può essere sostituito in qualsiasi momento da un altro piano. Una volta raggiunti i limiti di memoria, utenti o crediti, è possibile riordinare o passare a un piano superiore.
Domande frequenti sul wenglor Discovery Tool
wenglor Discovery Tool è un software per la ricerca e l’individuazione di dispositivi wenglor Machine Vision nella rete. Il software consente inoltre di adattare la configurazione di rete dei dispositivi di elaborazione delle immagini in modo da adattarla alla configurazione di rete dell’impianto o del PC.
wenglor Discovery Tool deve essere disponibile come software standard per tutti i dispositivi wenglor Machine Vision. Attualmente sono supportati hardware la Smart Camera B60 e i sensori 3D della serie ShapeDrive G4 MLASx1x e MLBSx1x.
Il software Machine Vision wenglor Discovery Tool necessita, a livello di sistema, di un PC con Windows 10 o Windows 11. Per ulteriori dettagli sui requisiti di sistema per il funzionamento del software, consultare la sezione Dati tecnici nella pagina dei dettagli del prodotto del software wenglor Discovery Tool.
Sì, il software wenglor Discovery Tool trova tutti i dispositivi supportati, anche se si trovano in un’altra sottorete.
Il software wenglor Discovery Tool mostra lo stato di funzionamento normale, avviso o errore con l’indicazione del messaggio di avvertimento o di errore dettagliato.
Esempio:
La temperatura del dispositivo Machine Vision supera un valore critico.
Nel software viene visualizzato un messaggio di avviso con informazioni dettagliate “Temperatura troppo alta”.
Spesso le impostazioni di rete sono difficili da trovare nelle impostazioni del PC. Il software wenglor Discovery Tool visualizza direttamente le impostazioni di rete del PC senza dover accedere alle impostazioni dek PC.
Il passaggio al sito Web del dispositivo è semplice tramite il software wenglor Discovery Tool. Non è necessario registrare l’indirizzo IP dell’apparecchio.
Tramite il software wenglor Discovery Tool è possibile assegnare a ogni dispositivo un nome a piacere, in modo da poter distinguere facilmente più dispositivi.
Domande frequenti sul software weHub
weHub è un software per il riconoscimento e la gestione in rete dei dispositivi Machine Vision di wenglor. Consente di adattare la configurazione di rete, di caricare automaticamente le immagini nell’AI Lab e di scaricare i modelli di IA dall’AI Lab all’hardware Machine Vision di wenglor.
weHub sostituisce wenglor Discovery Tool: Offre le stesse funzioni di ricerca dei dispositivi e configurazione della rete per i dispositivi Machine Vision wenglor e inoltre la funzione bridge per collegare l’AI Lab basato su cloud ai dispositivi offline.
weHub è un software standard per tutti i dispositivi Machine Vision wenglor. Attualmente l’hardware supporta le Smart Camera B60, il controller Machine Vision MVC e i sensori 3D della serie ShapeDrive G4.
Per l’utilizzo di weHub è necessario un PC con sistema operativo Windows 10 o Windows 11. Per ulteriori dettagli sui requisiti di sistema per il funzionamento del software, consultare l’area “Dati tecnici” nella pagina dei dettagli del prodotto.
Sì, weHub trova tutti i dispositivi supportati, anche se si trovano in un’altra sottorete.
weHub mostra lo stato di funzionamento normale, avviso o errore con l’indicazione del messaggio di avvertimento o di errore dettagliato. Un esempio: La temperatura del dispositivo Machine Vision supera un valore critico. Nel software viene visualizzato un messaggio di avviso con informazioni dettagliate “Temperatura troppo alta”.
Spesso le impostazioni di rete sono difficili da trovare nelle impostazioni del PC. weHub visualizza direttamente le impostazioni di rete del PC senza dover richiamare le impostazioni del PC.
Il passaggio alla pagina web degli apparecchi è possibile facilmente tramite weHub. Non è necessario l’indirizzo IP dell’apparecchio.
Tramite weHub è possibile assegnare a ogni dispositivo un nome a piacere, in modo da poter distinguere facilmente più dispositivi.