text.skipToContent text.skipToNavigation

FAQ zu Machine Vision Software

Was ist Machine Vision Software? Welche Bildverarbeitungssoftware bietet wenglor an? Und welche Funktionen bieten die verschiedenen Softwarepakete? Auf dieser Seite wurden die häufig gestellten Fragen rund um das Thema Machine Vision Software übersichtlich zusammengestellt. 

Allgemeine Fragen zu Machine Vision Software

Machine Vision Software wird zur Lösung von Bildverarbeitungsaufgaben mit wenglor Machine Vision Produkten im Bereich der industriellen Bildverarbeitung eingesetzt.

wenglor bietet die folgenden Machine Vision Softwares an: 

  • Software wenglor uniVision 3
  • Software wenglor Discovery Tool
  • Software uniVision 2
  • Software VisionApp 360
  • Software VisionApp Demo 3D
  • Supportsoftware

Neue Software-Versionen werden bei Funktionserweiterungen, Performance-Optimierungen und Bugfixes zur Verfügung gestellt.

Häufige Fragen zur Software wenglor uniVision 3

wenglor uniVision 3 ist eine Software zum Einstellen von wenglor Machine Vision Produkten zur Lösung von Aufgaben im Bereich der industriellen Bildverarbeitung. Die Entwicklungsumgebung ermöglicht Benutzerinnen und Benutzern eine automatisierte Datenauswertung (z. B. Bildauswertung) über grafische Benutzeroberflächen sowie die Erstellung von Konfigurationen anstelle der herkömmlichen Programmierungen. Die wenglor uniVision 3 qualifiziert sich dadurch als Low-Code- beziehungsweise No-Code-Plattform.

Bei registrierten Nutzern kann die Software uniVision 3 kostenfrei über die Produktdetailseite DNNF023 heruntergeladen und installiert werden.

Die wenglor uniVision 3 baut auf der Funktionalität von uniVision 2 auf, beinhaltet aber zahlreiche neue Funktionen, Optimierungen und Bugfixes. Zudem unterstützen uniVision 2 und 3 unterschiedliche Geräte:

  • uniVision 2: Smart Camera weQube B50, 2D-/3D-Profilsensoren, Control Unit BB1C5
  • uniVision 3: Smart Camera B60, Machine Vision Controller MVC

Die Software wenglor uniVision 3 wird von der Smart Camera B60 und von dem Machine Vision Controller MVC unterstützt. Sie ist die Standard-Software für alle künftigen wenglor Machine Vision Geräte.

In der wenglor uniVision 3 gibt es eine Toolbox mit zahlreichen Softwaremodulen, die flexibel zum Job hinzugefügt und beliebig miteinander verknüpft werden können.

Templates sind vordefinierte uniVision-Jobs für eine bestimmte Aufgabe (z. B. Codelesen), die auf dem uniVision-Produkt geladen werden können. In den Templates sind bereits die wichtigsten Module hinterlegt und verknüpft, sodass nur wenige Parameter angepasst werden müssen.

Zur Bedienung der wenglor uniVision 3 werden zwar keine Programmierkenntnisse, aber Grundlagenkenntnisse in der industriellen Bildverarbeitung und Parametrierkenntnisse benötigt

Die Software wenglor uniVision 3 benötigt einen PC mit Windows 10 oder Windows 11. Details dazu finden Sie in den technischen Daten auf der Produktdetailseite

Software- und Firmware-Updates für uniVision 3 werden mehrmals pro Jahr veröffentlicht, um den Funktionsumfang von uniVision-Geräten zu erweitern, sowie deren Stabilität und Performance kontinuierlich zu verbessern.

Ja, sofern die Geräte mit uniVision 3 kompatibel sind, können neue Soft- und Firmwareupdates schnell und einfach über die Gerätewebsite auf das entsprechende Gerät geladen werden. Genauere Beschreibungen des Updateprozesses finden Sie in der Bedienungsanleitung des entsprechenden Geräts.

Die meisten in der Software wenglor uniVision 3 verfügbaren Module können innerhalb eines Jobs mehrfach verwendet und beliebig kombiniert werden. Ausnahmen sind die Module „Tabellenkalkulation“ und „Bild Deep OCR“ (für die Smart Camera B60), sowie die Schnittstellen, welche nur einmal pro Job verwendet werden können.

Ja, die Software kann auch später über separate Lizenzpakete erweitert werden.

Ja, Profile können über den Teach Plus oder über den Simulationsmodus offline in uniVision eingelesen werden, wenn sie im ply-Format sind. So können Profile beispielsweise in der VisionApp Demo 3D abgespeichert und in uniVision 3 simuliert werden.

Ja, im Teach Plus Modus können Daten (Bilder oder Profile) über den Image Container Viewer in uniVision einfach gespeichert, gelöscht und geladen werden. Im Simulationsmodus werden Daten (Bilder oder Profile) über einen unveränderbaren Ordnerpfad vom PC eingelesen. 

Im Produkt DNNF023 Software uniVision 3 ist ein offline Simulator enthalten, welcher weitestgehend kostenfrei und ohne Lizenzierungen genutzt werden kann. Lediglich um die Module

  • Bild Code 1D

  • Bild Code 2D

  • Bild Deep OCR

  • Bild Mustervergleich

  • HALCON Script

offline nutzen zu können, ist die Lizenz DNNL022 erforderlich.

Die Software wenglor uniVision 3 kann auch ohne Gerät offline auf zwei verschiedene Weisen zur Simulation verwendet werden:

  • Teach Plus Modus
  • Simulationsmodus

Mit dem Teach Plus Modus können beispielsweise Projekte mit Gut- und Schlechtbildern, die mit der Kamera aufgenommen wurden, optimiert werden. Zudem können über die in der Software hinterlegten Beispiele auch schnelle Tests zur Evaluierung der Software durchgeführt werden. Der offline Simulationsmodus ermöglicht die Evaluation der Software mit Bild- oder Profildateien, die mit Fremdhardware aufgenommen oder synthetisch erzeugt wurden.

Die Visualisierung eines Jobs kann flexibel und frei eingestellt werden. Dabei können Ergebnisse beispielsweise direkt im Bild als Overlay angezeigt werden. Die Visualisierung ist webbasiert und auf jedem Gerät mit Browser nutzbar.
 

Die wenglor uniVision 3 unterstützt alle relevanten Schnittstellen zu Steuerungen und Robotern, damit uniVision-Geräte schnell und einfach integriert werden können.

Mit uniVision 3 kann je Prozessinstanz eine Roboterverbindung zum Schweißen oder für Robotik Vision aufgebaut werden. Bei der Smart Camera B60 ist also eine Verbindung zu einem Roboter möglich, während beim Machine Vision Controller MVC 16 individuelle Roboterverbindungen zum Schweißen und / oder Robotik Vision möglich sind.

Ja, in uniVision 3 gibt es Templates für gängige Stoßarten, welche die Einrichtung des Jobs erleichtern.

Für die Schweißnahtführung mit uniVision 3 sind neben einem Roboter ein 2D/3D-Profilsensor MLxL, ein Machine Vision Controller MVC und das Lizenzpaket uniVision Robotics (enthalten bei der Variante MVCV001 oder über das Lizenzpaket DNNL026 nachlizensierbar) notwendig.

Die Kalibrierung von Kamera und Roboter mit Robot Vision erfolgt durch eine Hand-Auge Kalibrierung mittels eines Kalibrierobjekts. Dabei kann die Kamera statisch verbaut sein oder sich am Endeffektor des Roboters befinden. Professionelle, steife und temperaturbeständige Kalibrierobjekte sind in verschiedenen Größen verfügbar. Für die Kalibrierroutine müssen verschiedene Positionen eingelernt werden, in denen die Kamera das Kalibrierobjekt sieht, damit die Beziehung zwischen Kamera und Roboter ermittelt wird.

Die Software uniVision 3 ermöglicht die Kommunikation mit Robotern verschiedener Hersteller. Über die offene Robot Vision API kann auch eine Verbindung zu Robotern hergestellt werden, deren Typ noch nicht offiziell unterstützt wird.

Robot Vision wird in wenglor uniVision 3 von der Smart Camera B60 und von dem Machine Vision Controller MVC mit den Machine Vision Cameras der BBVK- oder BBZK-Serie unterstützt.

In Messapplikationen werden Kalibrierplatten eingesetzt, um die Verzerrung der Optik zu bereinigen und eine präzise Umrechnung von Pixel- in Millimeter-Werte zu gewährleisten. Dies erfolgt in der Software wenglor uniVision 3 durch das Modul Image Calibration.
Weiterhin ermöglicht eine Kalibrierplatte bei Robot-Vision-Anwendungen eine einfache und schnelle Kalibrierung. Dabei findet ein Koordinatenabgleich statt, wobei die durch die Optik entstehende Verzerrung eliminiert wird. Für eine präzise Kalibrierung sollte die Kalibrierplatte komplett im Sichtfeld der Kamera sein und mindestens die Hälfte des Sichtfelds abdecken. Auf Papier gedruckte Kalibriermuster resultieren in einer ungenaueren Kalibrierung. Undurchsichtige Platten (z. B. ZVZJ001) eignen sich für Auflichtanwendungen, durchsichtige (z. B. ZVZJ005) für Durchlichtanwendungen.

Ändert sich die Beziehung zwischen Kamera und Roboter nicht, so ist keine erneute Kalibrierung notwendig.

In der Software wenglor uniVision 3 können auch die Daten von mehreren verschiedenen Objekten mit einer Bildaufnahme gefunden und an den Roboter geschickt werden, um die Taktzeit für Pick-and-Place Aufgaben zu optimieren. Somit muss der Roboter weniger häufig in die Detektionspose fahren und kann direkt weitere bereits gefundene Objekte greifen.
 

Für das Picken in Pick-and-Place Anwendungen können  in der Software wenglor uniVision 3 auch beliebige Offsets in x und y eingerichtet werden, damit das Objekt beispielsweise an der Spitze gegriffen werden kann.

In der Pick-and-Place Anwendung kann für jeden Objekttyp eine individuelle Objekthöhe eingerichtet werden, sodass verschiedene Objekttypen auf unterschiedlichen Höhen gegriffen werden können. 

In der Software wenglor uniVision 3 können verschiedene Objekttypen einfach eingelernt werden. Der Objekttyp kann anschließend direkt an den Roboter geschickt werden.

 

Das Einlernen von Objekten erfolgt in der wenglor uniVision 3 am einfachsten über die Module Mustervergleich und Lokalisierung. 

Das Modul „Gerät Robot Vision“ in der wenglor uniVision 3 ermöglicht die direkte Kommunikation zwischen 2D-Kameras und Robotern.

Ja, die Ausführung von HALCON-Scripten kann auch an ein spezifisches Gerät gebunden werden. Somit kann verhindert werden, dass ein Projekt mit HALCON-Script einfach auf andere Geräte kopiert wird.
 

HALCON-Scripte können verschlüsselt werden, um ungewollte Änderungen am Script zu verhindern.

Im HALCON-Dictionary können Daten wie eingelernte Konturmodelle dauerhaft und plattformunabhängig gespeichert werden.

Es sind zahlreiche Beispiele für HALCON-Scripte vohanden, die auf einfache Weise zeigen, welche Datentypen unterstützt werden und wie Anwendungen einfach realisiert werden können.

Der typische Workflow für die Arbeit mit HALCON-Scripten ist wie folgt:

  • Aufzeichnung einer Teach+-Datei mit realen Daten
  • Erstellung des HALCON-Scripts mit den aufgenommenen Daten in der Software HDevelop
  • Laden des HALCON-Scripts in der Software wenglor uniVision 3 im Modul HALCON Script

Die zur Erstellung eines HALCON-Scripts benötigten Bilddaten werden in einer Teach+-Datei mit realen Daten aufgezeichnet.

Das uniVision-Ökosystem ermöglicht einen flexiblen Datenaustausch zwischen allen uniVision-Modulen und dem Modul HALCON Script. Zahlreiche Schnittstellen (z. B. PROFINET, EtherNet/IP) sind auf dem uniVision-Produkt verfügbar. Die Ergebnisse vom Modul HALCON Script können somit über die uniVision-Schnittstellen direkt und flexibel ausgegeben werden. Die flexible webbasierte Visualisierung ermöglicht auch die flexbile und individuelle Anzeige von Ergebnisse aus dem Modul HALCON Script – sogar direkt im Bild!
 

Ja, die HDevEngine läuft bereits auf uniVision-Geräten. Somit können HALCON-Scripte direkt auf uniVision-Geräten ausgeführt werden. Somit kann der Fokus auf die Anwendungslösung (Software) gerichtet werden!
 

HALCON-Scripte können auch mit anderen HALCON-Versionen erstellt werden. Die Kompatibilitätshinweise mit der auf uniVision-Geräten verwendeten Version HALCON 22.11 müssen jedoch beachtet werden.
 

Auf uniVision-Geräten läuft die Version HALCON 22.11.

Folgende Datentypen können sowohl von uniVision-Modulen an das Modul HALCON Script übergeben werden (Inputs) als auch vom Modul HALCON Script an andere uniVision-Module zurückgegeben werden (Outputs):

  • Ikonische Variablen
    • Bilder
    • Regionen
    • XLDs
  • Kontrollvariablen
    • Integer
    • Real
    • String

Ja, die Standard-Softwaremodule in der Software wenglor uniVision 3 können beliebig mit HALCON-Scripten kombiniert werden. Der Datenaustausch zwischen den Modulen ist flexibel möglich!

Somit ermöglicht die wenglor uniVision 3 eine Kobination aus Parametrierung und Programmierung:

  • Parametrierung:
    Standardaufgaben können einfach mit den Standard-uniVision-Modulen aus der uniVision-Toolbox gelöst werden 
  • Programmierung: Komplexe Aufgaben können in HDevelop mit HALCON-Scripten gelöst werden.

HALCON ist die umfangreiche Programmbibliothek mit Bildverarbeitungsalgorithmen von MVTec. Die Entwicklungsumgebung für HALCON ist die Software HDevelop.


 

HALCON-Scripte, die in der Software HDevelop von MVTec erstellt werden, können im Modul HALCON Script in der uniVision-Software geladen und auf dem uniVision-Produkt (z. B. B60) ausgeführt werden. Die dafür notwendige HDevEngine ist auf dem uniVision-Produkt bereits vorinstalliert.

Häufige Fragen zu KI-gestützter Software

Ja, alle Daten werden in Europa nach DSGVO gespeichert. In Bezahlplänen bleiben alle Rechte beim Nutzer. Der Cloud-Speicher ist BSI C5-zertifiziert und Daten können nach Planende selbst gelöscht werden.

Alle Daten sind per TLS und AES-256 verschlüsselt, mehrfach redundant gespeichert und durch automatische Backups gesichert. So sind sie vor Verlust und unbefugtem Zugriff geschützt.

Das AI Lab unterstützt unterschiedliche Formate (z. B. JPEG, BMP) und Auflösungen. Diese werden automatisch angepasst. Für bestmögliche Ergebnisse sollten alle Bilder eine vergleichbare Qualität haben.

Ein bestehendes Modell lässt sich nicht nachtrainieren – jedes Training basiert immer auf dem vollständigen Datensatz.

Ja, mehrere Smart Cameras B60 können parallel über weHub in denselben Datensatz hochladen, solange der Plan freie „Connected Devices“ erlaubt.

Die Aufteilung in Trainings- und Testdaten erfolgt automatisch. Ein Training mit ≤ 500 Bildern bei 320 px dauert meist ca. 5 Minuten. Ergebnisse können zwischen verschiedenen Trainings leicht variieren, da Zufallselemente die Robustheit erhöhen.

Die Upload-Rate hängt von Netzwerk, Bildgröße und Gerätanzahl ab. Mehrere Bilder pro Sekunde pro Gerät sind üblich. Für die Klassifizierung gilt: 1 Credit = bis 5.000 Bilder, 2 Credits = bis 10.000 Bilder, danach weitere Credits pro 5.000 Bilder.

Bilder können in voller Auflösung hochgeladen werden, werden für das Training und die Ausführung jedoch automatisch auf die passende Eingangsgröße skaliert. Im AI Lab sind je nach Hardware nur lauffähige Modellgrößen auswählbar. Die KI-Modellgröße ergibt sich aus der KI-Eingangsbildgröße und der KI-Modellarchitektur und beeinflusst direkt die Inferenzgeschwindigkeit.

Standardmäßig erzeugt das AI Lab quantisierte Netze, da diese auf der Smart Camera B60 schneller laufen. Eigene nicht quantisierte ONNX-Modelle können zwar genutzt werden, sind aber meist weniger performant. Detaillierte Größen- und Performanceangaben für ONNX-Modelle finden sich auf GitHub.

Es gibt keine feste Begrenzung für die Anzahl der Klassen. Es wird empfohlen: so viele wie nötig, so wenige wie möglich. Wichtig ist ein möglichst ausgewogenes Verhältnis der Bilder pro Klasse. Pro Klasse sind 5 Bilder das Minimum, empfohlen werden mindestens 50 Bilder für zuverlässige Ergebnisse.

Die Verbindung zwischen dem AI Lab und uniVison erfolgt über weHub, worüber Bilder ins AI Lab hochgeladen und trainierte KI-Modelle zurück nach uniVision übertragen werden.

Eine permanente Internetverbindung ist nicht nötig, da weHub Daten puffert. Für die Inferenz sind KI-Modelle ausschließlich mit wenglor-Hardware nutzbar. Trainingsdaten können aber auch mit Fremdgeräten erstellt werden. Das AI Lab ist nicht für Smartphones oder Tablets optimiert.

Das AI Lab ist auch für KI-Einsteiger gedacht, die eigene KI-Modelle erstellen möchten. Das ONNX-Modul richtet sich an erfahrene KI-Nutzer mit eigenen Netzarchitekturen oder wenn Bilddaten das Firmennetzwerk nicht verlassen dürfen. Sowohl das Modul „Bild ONNX“ als auch das AI Lab sind im Lizenzpaket „uniVision AI“ enthalten.

Für das Training von KI-Modellen in der Cloud werden keine eigene Hardware oder Expertenwissen benötigt. Dies spart Investitionen und Ressourcen. Das Cloud-Training bietet eine skalierbare Rechenleistung, ortsunabhängigen Zugriff, Datensicherung sowie flexible Kosten – im Gegensatz zum Training auf lokalen PCs oder Edge-Geräten, die dafür nicht optimiert sind.

Cloud-trainierte KI-Modelle sind komplexer, genauer und können große Datenmengen verarbeiten, bevor sie zur Inferenz auf die Geräte verteilt werden. Edge-KI-Modelle sind kleiner, effizienter und liefern schnelle Ergebnisse direkt am Gerät, erreichen aber oft eine geringere Genauigkeit.

Für die Überprüfung der KI-Modellqualität steht der Evaluation Report zur Verfügung. Er zeigt die wichtigsten Kennzahlen zur Genauigkeit und dient als Nachweis, z. B. für eine Factory Acceptance.

Pläne können durch Stacking verlängert werden – gleiche Lizenzen addieren Laufzeit und Credits. Ein laufender Plan kann jederzeit durch einen anderen Plan ersetzt werden. Sind Limits wie Speicher, Nutzer oder Credits erreicht, kann entweder aufgeräumt oder auf einen höheren Plan gewechselt werden.

Häufige Fragen zum wenglor Discovery Tool

Das wenglor Discovery Tool ist eine Software zum Suchen und Finden von wenglor Machine Vision Geräten im Netzwerk. Die Software ermöglicht zudem auch die Anpassung der Netzwerkkonfiguration der Bildverarbeitungsgeräte, sodass sie zur Netzwerkkonfiguration der Anlage bzw. des PCs passen.

Das wenglor Discovery Tool soll als Standard-Software für alle wenglor Machine Vision Geräte verfügbar sein. Momentan werden hardwareseitig die Smart Camera B60 und die 3D-Sensoren der ShapeDrive G4-Serie MLASx1x und MLBSx1x unterstützt.

Die Machine Vision Sofware wenglor Discovery Tool benötigt systemseitig einen PC mit Windows 10 oder Windows 11. Bitte entnehmen Sie weitere Details zu den Systemvoraussetzungen für den Betrieb der Software dem Bereich Technische Daten auf der Produktdetailseite der Software wenglor Discovery Tool. 

Ja, die Software wenglor Discovery Tool findet alle unterstützen Geräte, auch wenn diese in einem anderen Subnetz sind.

Die Software wenglor Discovery Tool zeigt den Status Normalbetrieb, Warnung oder Fehler mit Angabe der detaillierten Warn- beziehungsweise Fehlermeldung an. 
Beispiel:
Die Temperatur des Machine Vision Geräts überschreitet einen kritischen Wert.
In der Software erscheint eine Warnmeldung mit Detailinformation „Temperatur ist zu hoch“.
 

In den Einstellungen Ihres PCs sind die Netzwerkeinstellungen oft nur schwer zu finden. Die Software wenglor Discovery Tool zeigt die Netzwerkeinstellungen des PCs direkt an, ohne dass die PC-Einstellungen aufgerufen werden müssen.

Der Absprung auf die Geräte-Webseite ist einfach über die Software wenglor Discovery Tool möglich. Ein Merken der IP-Adresse des Geräts ist nicht notwendig.
 

Über die Software wenglor Discovery Tool kann pro Gerät ein beliebiger Name vergeben werden, damit mehrere Geräte einfach unterschieden werden können.

Häufige Fragen zur Software weHub

weHub ist eine Software zur Erkennung und Verwaltung von wenglor Machine Vision Geräten im Netzwerk. Sie ermöglicht die Anpassung der Netzwerkkonfiguration, den automatisierten Upload von Bildern ins AI Lab sowie den Download von KI-Modellen vom AI Lab auf die wenglor Machine Vision Hardware.

weHub ersetzt das wenglor Discovery Tool: Es bietet dieselben Funktionen wie Gerätesuche und Netzwerk-Konfiguration für wenglor Machine Vision Geräte und zusätzlich die Brückenfunktion, um das cloudbasierte AI Lab mit den Offline-Geräten zu verbinden.

weHub ist eine Standard-Software für alle wenglor Machine Vision Geräte. Momentan werden hardwareseitig die Smart Camera B60, der Machine Vision Controller MVC und die 3D-Sensoren der ShapeDrive G4-Serie unterstützt.

Für die Nutzung von weHub wird ein PC mit dem Betriebssystem Windows 10 oder Windows 11 benötigt. Bitte entnehmen Sie weitere Details zu den Systemvoraussetzungen für den Betrieb der Software dem Bereich „Technische Daten“ auf der Produktdetailseite.

Ja, weHub findet alle unterstützen Geräte, auch wenn diese in einem anderen Subnetz sind.

weHub zeigt den Status Normalbetrieb, Warnung oder Fehler mit Angabe der detaillierten Warn- beziehungsweise Fehlermeldung an. Ein Beispiel: Die Temperatur des Machine Vision Geräts überschreitet einen kritischen Wert. Dann erscheint in der Software eine Warnmeldung mit der Detailinformation „Temperatur ist zu hoch“.

In den Einstellungen Ihres PCs sind die Netzwerkeinstellungen oft nur schwer zu finden. weHub zeigt die Netzwerkeinstellungen des PCs direkt an, ohne dass die PC-Einstellungen aufgerufen werden müssen.

Der Absprung auf die Geräte-Webseite ist einfach über weHub möglich. Die IP-Adresse des Geräts ist nicht notwendig.

Über weHub kann pro Gerät ein beliebiger Name vergeben werden, damit mehrere Geräte einfach unterschieden werden können.

Ihre Frage konnte nicht beantwortet werden? Kein Problem!

Produktvergleich