text.skipToContent text.skipToNavigation

Künstliche Intelligenz in der Bildverarbeitung

Künstliche Intelligenz (KI) revolutioniert die industrielle Bildverarbeitung. Die Technologie nutzt KI-Modelle, um beispielsweise Objekte, Abweichungen und Zeichen zu unterscheiden, wobei natürliche Variationen toleriert werden können. KI-Systeme vereinen die Vorteile der visuellen Prüfung durch Menschen mit der Robustheit und Geschwindigkeit computergestützter Systeme.

Wofür braucht man künstliche Intelligenz?

Herkömmliche Bildverarbeitungssysteme arbeiten mit regelbasierten Algorithmen, die eine hohe Zuverlässigkeit für sich wiederholende Aufgaben bieten. Aufgrund der immer identisch ablaufenden Prozessschritte werden dabei lediglich geringfügige Abweichungen toleriert. Sobald die Varianz der Bilder beispielsweise durch natürliche Variationen des Objektes, wie Farbnuancen, Formen oder wechselnde Umgebungsbedingungen wie Lichtverhältnisse, zunimmt, wird die Anwendung zunehmend komplexer abzubilden und kann in der Folge unwirtschaftlich werden. Andernfalls schlägt die Varianz direkt auf die Genauigkeit bzw. Leistungsfähigkeit des Algorithmus durch. Dies resultiert in Fehlentscheidungen des regelbasierten Bildverarbeitungssystems wie beispielsweise ausgeschleusten Gutteilen (auch genannt: Pseudo-Ausschuss) oder nicht erkannten Schlechtteilen (auch: Schlupf). Industrielle Bildverarbeitung hat stets zum Ziel, diese zu minimieren.
 
Glühbirne Icon
KI-Technologien erweitern die Einsatzmöglichkeiten von Machine Vision, indem sie Schwankungen in den Bilddaten tolerieren, wodurch z. B. auch unregelmäßige Fehler robust identifiziert werden können. Sie erhöhen die Wirtschaftlichkeit durch robustere Erkennungsraten bei hoher Varianz und reduzieren die Einstiegshürde in Machine Vision, da zum Teil kein tiefes Algorithmus-Wissen mehr erforderlich ist.

Was ist KI?

Künstliche Intelligenz ist der Oberbegriff für Technologien, die Maschinen in die Lage versetzen, Aufgaben eigenständig zu lösen – oft inspiriert vom menschlichen Denken und Lernen. Maschinelles Lernen ist ein Teilbereich der KI, bei dem Algorithmen nicht starr programmiert werden, sondern aus Beispieldaten Muster und Zusammenhänge lernen. Statt jede Regel manuell festzulegen, „lernt“ das System selbst, wie es Eingaben in Ausgaben übersetzt. Deep Learning ist eine spezialisierte Form des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit vielen Verarbeitungsschichten basiert („deep“ = tief). Diese Architektur ermöglicht es, sehr komplexe Muster zu erkennen und auch bei variierenden Bedingungen präzise Ergebnisse zu liefern.

Deep Learning
Maschinelles Lernen
Künstliche Intelligenz

Welche Vorteile hat die Nutzung von KI in der Qualitätskontrolle?

Trotz verfügbarer regelbasierter Bildverarbeitung wird die Qualitätskontrolle in Prozessen oftmals noch manuell durch Menschen durchgeführt, da die große Varianz der Fehler oft schwer oder nicht zu erfassen ist. Hier bietet sich der Einsatz von KI-gestützten Bildverarbeitungssystemen an. 
Problemfelder der manuellen Kontrolle Lösung durch Vorteile der KI-gestützten Bildverarbeitung
Inkonsistente Beurteilung der Qualität Konsistente und wiederholgenaue Beurteilung auf Basis großer Datensätze
Limitierte Aufmerksamkeitsspanne 24/7 im Einsatz ohne Ermüdung
Aufwendige Dokumentation der Entscheidungen Automatische Bildspeicherung mit Heatmap-Darstellung und Score-Wert zur Nachvollzieh- und Rückverfolgbarkeit
Höhere Personalkosten, Personalknappheit und hoher Schulungsaufwand Unabhängig von Personalverfügbarkeit skalierbar, niedrige Einstiegshürde dank geringerem Schulungsaufwand
Problemfelder der manuellen Kontrolle
Inkonsistente Beurteilung der Qualität
Limitierte Aufmerksamkeitsspanne
Aufwendige Dokumentation der Entscheidungen
Höhere Personalkosten, Personalknappheit und hoher Schulungsaufwand
Lösung durch Vorteile der KI-gestützten Bildverarbeitung
Konsistente und wiederholgenaue Beurteilung auf Basis großer Datensätze
24/7 im Einsatz ohne Ermüdung
Automatische Bildspeicherung mit Heatmap-Darstellung und Score-Wert zur Nachvollzieh- und Rückverfolgbarkeit
Unabhängig von Personalverfügbarkeit skalierbar, niedrige Einstiegshürde dank geringerem Schulungsaufwand

Ersetzt KI die regelbasierte Bildverarbeitung?

Glühbirne Icon
KI erweitert die Möglichkeiten industrieller Bildverarbeitung, löst dabei jedoch nur sehr selten bewährte regelbasierte Lösungen komplett ab. Die Kombination aus regelbasierter und KI-basierter Bildverarbeitung erweitert die Vielseitigkeit von Machine Vision. Mit KI lassen sich Inspektionsaufgaben umsetzen, die mit regelbasierter Auswertung zu aufwendig oder unwirtschaftlich wären.

Wann kommen regelbasierte, wann KI-Bildverarbeitungssysteme zum Einsatz?

Der regelbasierte Ansatz herkömmlicher Bildverarbeitungssysteme ist nach wie vor ein bewährter Lösungsweg für optische Inspektionsaufgaben. KI-Technologien erweitern die Anwendungsbereiche von industrieller Bildverarbeitung. Trotz verschiedener Algorithmen gibt es bei den Fähigkeiten beider Technologien zahlreiche Überschneidungen.
Glühbirne Icon
In der Regel kommt eine Kombination aus regelbasierter und KI-Tools zum Einsatz. Zum Beispiel: Die regelbasierte Lokalisierung mit Teilenachführung und Ausschneiden des zu prüfenden Objekts wird kombiniert mit KI-basierter Fehlerklassifizierung. Abschließend folgt die regelbasierte Vermessung des Fehlers.

Typische Anwendungsfelder

Regelbasierte Bildverarbeitung

Vermessung, Messaufgaben
Codereading
Präzise Ausrichtung, Positionierung (auch Robot Vision, Robot Guidance)

Kombinationen und Überschneidungen

Inspektion, Defekterkennung
Identifikation (Codereading, OCR / Zeichenerkennung)
Lokalisierung von Objekten und Features (auch Robot Vision, Robot Guidance)

KI-basierte Bildverarbeitung

Erkennung stark variierender Objekte oder Fehler
Herausforderndes OCR (z. B. schlechte Druckqualität, variierende Hintergründe)
Lokalisierung von Objekten mit hoher Varianz
Klassifzierung (z. B. von Materialien oder Texturen)

Welche KI-Technologien sind in der Bildverarbeitung im Einsatz?

Klassifizierung

Klassifizierung weist ein Bild einer oder mehreren vordefinierten Klassen zu. Man unterscheidet zwischen Multi-Class und Multi-Label.

Multi-Class: eine Klasse pro Bild, z. B. „Schraube“

oder Fehlerklassifizierung mit sich gegenseitig ausschließenden Klassen: „OK“ (mängelfrei) oder „NOK“ (defekt). Eine simultane Einordnung in beide Klassen ist ausgeschlossen. 

Multi-Label: mehrere Klassen pro Bild möglich, z. B. „Schraube“, „Nagel“

oder Fehlerklassifizierung mit unabhängigen Labels: „Beule“ und „Kratzer“. Ein Objekt kann eine Beule, einen Kratzer, beides oder keines von beidem haben, da sich diese Klassen nicht gegenseitig ausschließen.

Objekterkennung

Die Objekterkennung lokalisiert und klassifiziert mehrere Objekte im Bild mithilfe von Begrenzungsrahmen, sogenannten Bounding Boxes. Für jedes gefundene Objekt gibt sie an, zu welcher Klasse es gehört und wo genau es sich im Bild befindet. Es gilt, „achsparallele“ (wie im Bild zu sehen) und „orientierte“ Objekterkennung zu unterscheiden. Bei der orientierten Objekterkennung sind die Bounding Boxes mit dem Objekt ausgerichtet und beschreiben jeweils die kleinstmögliche Bounding Box.

Segmentierung

Weist jedem einzelnen Pixel im Bild eine Klasse für die exakte Abgrenzung von Objekten (z. B. Nagel, Schraube, Hintergrund) oder Defekten (z. B. Lackfehler) zu. 

Hinweis: Neben gängigen KI-Modellen gibt es zunehmend auf einen spezifischen Anwendungsfall trainierte KI-Modelle, wie z. B. Deep OCRDie optische Zeichenerkennung mittels Deep OCR nutzt neuronale Netze, die auf großen Mengen von Textbildern trainiert wurden, um Buchstaben und Zahlen zu extrahieren. Im Gegensatz zu klassischem OCR ermöglicht es die präzise Erkennung dynamischer Texte mit variabler Schriftgröße und unterschiedlichen Hintergründen, selbst bei spezifisch gestalteten oder beschädigten Aufdrucken und Labels.

Was ist ein KI-Modell?

KI-Modelle sind rechnergestützte Modelle, die vom menschlichen Gehirn inspiriert sind. Sie bestehen aus künstlichen Neuronen, die Informationen verarbeiten und die durch Gewichte miteinander verbunden sind. Ein Gewicht ist ein Zahlenwert, der bestimmt, wie stark ein Eingangssignal das Neuron beeinflusst.
Der Aufbau eines KI-Modells erfolgt in Layern: Der „Input Layer“ erhält die Rohdaten (z. B. Bilder). In „Hidden Layers“ werden automatisch Merkmale erkannt und der „Output Layer“ trifft darauf basierend eine Entscheidung. 
Beim Training vergleicht das KI-Modell seine Vorhersagen mit der Grundwahrheit und passt die Gewichte schrittweise an. Dieser Lernprozess wiederholt sich über viele Beispiele hinweg, bis das KI-Modell Muster zuverlässig erkennt. 
 
KI-Modell oder neuronales Netz – was ist der Unterschied?
Nicht jedes KI-Modell ist ein neuronales Netz. Der Begriff „KI-Modell“ ist ein Überbegriff für viele Arten von Algorithmen, darunter Entscheidungsbäume, statistische Modelle und neuronale Netze. Letztere sind eine Form von KI-Modellen, die sich besonders für komplexe Aufgaben wie beispielsweise Bilderkennung oder Sprachverarbeitung eignen. Die Begriffe „neuronales Netz“ und „KI-Modell“ werden jedoch häufig synonym verwendet. 
Input Layer
Hidden Layers
Output Layer

ONNX – das universelle Austauschformat

Die Bildverarbeitungssoftware uniVision 3 ermöglicht die nahtlose Einbindung von ONNX-Netzen. Über GitHub können Sie Ihr ONNX-Netz zudem für die Nutzung auf wenglor-Hardware quantisieren.

Der wenglor AI Loop – wie KI in der industriellen Bildverarbeitung funktioniert

Selten liegt zu Beginn ein repräsentativer und umfangreicher Datensatz einer Anwendung vor. Hochpräzise und zuverlässige KI-Modelle entstehen durch die kontinuierliche Datenerweiterung und Validierung der einmal erstellten Netze. Mit einem daten- und prozesszentrierten Ansatz lässt sich die Genauigkeit eines KI-Modells über den gesamten Lebenszyklus einer Prüfanlage hinweg systematisch optimieren und beständig halten. Bestehende Daten werden nochmals geprüft oder neue Daten aufgenommen und annotiert. 
Datensatz erstellen und verwalten
Datensatz annotieren (labeln)
KI-Modell trainieren und validieren
KI-Modell deployen und ausführen
Im ersten und für den datenzentrierten Ansatz wichtigsten Schritt werden Bilder aufgenommen, die die Anwendung so repräsentativ wie möglich abbilden. Im weiteren Verlauf werden neue Bilder kontinuierlich ergänzt. 

Worauf kommt es bei der Erstellung geeigneter Datensätze an?

50 bis 100 echte Bilder pro Klasse können bereits genügen, um erste praxistaugliche Ergebnisse zu erzielen. Die Daten müssen gut gewählt, variantenreich und konsistent sein. Viele Bilddaten bedeuten nicht automatisch bessere Modelle. Ziel ist es, mit wenigen aber hochwertigen Bildern die gesamte natürliche Streuung von Chargen, Farben, Beleuchtungseinflüssen etc. abzubilden und so eine robuste und generalisierbare Lösung zu schaffen.
Ein Beispiel: Wenn eine Fabrik nur Bilder von fehlerhaften Platinen aus einer Maschine unter bestimmten Lichtverhältnissen erfasst, könnte das KI-Modell lernen, Fehler mit den besonderen Hintergrund- oder Lichtverhältnissen dieser Maschine in Verbindung zu bringen, anstatt mit den tatsächlichen Fehlermerkmalen. Diese Verzerrung könnte dazu führen, dass das Modell Fehler aus anderen Maschinen oder unter anderen Lichtverhältnissen falsch klassifiziert. Durch die Einbeziehung vielfältiger Bilder aus verschiedenen Maschinen, Lichtverhältnissen und Blickwinkeln lernt das KI-Modell die tatsächlichen Fehlermerkmale kennen und gewährleistet so eine zuverlässige Erkennung in allen Produktionsszenarien.
Eine gezielte Beleuchtungsstrategie senkt die Bildvarianz, erhöht die Modellgenauigkeit und reduziert den Bedarf an Trainingsbildern. So lässt sich z. B. mit nur einem Viertel der Bildmenge die gleiche Genauigkeit erreichen, indem die Bildqualität durch die Wahl des richtigen Beleuchtungsprinzips, der Lichtfarbe (Wellenlänge), einer homogenen Ausleuchtung und optischen Filter deutlich verbessert wird. 
Wie bei regelbasierten Bildverarbeitungssystemen gilt auch hier: Schlechte Bilder führen zu signifikant schlechteren Genauigkeiten des KI-Modells. Achten Sie auf scharfe Bilder mit ausreichend Tiefenschärfe, Kontrastreichtum und Konsistenz im Setup (Kamera, Beleuchtung, Optik).

Eine höhere Auflösung zeigt mehr Details, erfordert jedoch längere Trainingszeiten und einen höheren Ressourcenbedarf. Die Datensatzbilder werden für das Training oft verkleinert, z. B. auf 320 × 320 Pixel (KI-Eingangsbild).
Wichtig: Das entscheidende Merkmal muss auch in dieser reduzierten Auflösung noch klar erkennbar sein. Was für das menschliche Auge sichtbar ist, kann in der Regel auch vom KI-Modell erfasst werden.

Bilder sollten real und möglichst unter produktionsnahen Bedingungen aufgenommen werden. Sorgen Sie für natürliche Variationen, wie Hintergrundwechsel, leicht unterschiedliche Lichtverhältnisse, Staub, Rauschen oder leichte Positionsabweichungen, um den Datensatz robuster zu machen. Starke Bearbeitung oder künstlich produzierte Schlechtteile können jedoch zu unrealistischen Lernmustern führen. Wichtig ist auch, systematische Fehler zu vermeiden, wie z. B., dass jedes Gutteil eine Markierung hat, Schlechtteile aber nicht. Achten Sie bei Kamera, Beleuchtung und Optik auf ein gleichbleibendes Setup.
Nutzen Sie beim Training nur den Bildbereich, in dem sich das relevante Objekt oder die Fehlerstelle befindet. Das vermeidet, dass das KI-Modell ungewollt aus dem Hintergrund lernt oder wichtige Details verhältnismäßig unterrepräsentiert sind. Cropping sorgt dafür, mehr relevante Details bei niedriger Auflösung zu erhalten und Trainingszeit zu sparen.
Eine gleich gewichtete Repräsentation aller Klassen (z. B. Gutteil, Schlechtteil) ist zu empfehlen. Ein Ungleichgewicht, wie beispielsweise bei 99 % OK und 1 % NOK, führt zu verzerrten KI-Modellen, die in der Anwendung Fehler oft übersehen. Eine ausgeglichene Datenbasis verhindert die Stichprobenverzerrung des KI-Modells und verbessert die Erkennungsleistung auch auf seltenen Fehlerbildern.
Augmentation bedeutet die künstliche Erzeugung von Varianten durch beispielsweise Drehung, Vergrößerung (Zoom), Verzerrung, Rauschen oder Helligkeitsveränderung. Hierdurch können vorhandene Datensätze erweitert und das KI-Modell auf reale Streuungen vorbereitet werden, was besonders bei kleinen Datensätzen wichtig ist, um schnell höhere Genauigkeiten zu erreichen.
Wichtig: Die Augmentation muss realistisch und anwendungsnah bleiben, denn der Einsatz hat großen Einfluss auf die ausgewogene Genauigkeit des KI-Modells. Eine Drehung könnte z. B. ein Fehlerfall sein und ist daher nicht für jede Anwendung geeignet.
Im zweiten Schritt werden die Bilder annotiert bzw. gelabelt. Dabei gibt der Anwendende für jedes Bild eine sogenannte Grundwahrheit vor, wie z. B., ob es sich um ein Gut- oder um ein Schlechtteil handelt. 

Wie kann der Aufwand des Label-Prozesses minimiert werden?

Um eine konsistente Annotation zu gewährleisten, sollten Anwendungs-Experten, z. B. aus Produktion sowie Qualitätskontrolle, in den Prozess einbezogen werden.
Die Einstufung nach „NOK“ und „OK“ kann subjektiv ausfallen, weshalb auf eine klare Abgrenzung von Klassen geachtet werden sollte, bevor trainiert und weiter annotiert wird.
Tipp: Grenzmuster sollten gezielt mithilfe von Tags als solche markiert werden. Somit kann diese Information bei der späteren Validierung des Netzes mit einbezogen werden.
Bei der Bewertung von Trainingsdaten ist es entscheidend, sich ausschließlich auf die Bilder zu stützen, nicht auf das reale Objekt. Auch wenn ein Defekt am Originalteil besser erkennbar ist, zählt für das KI-Modell nur das, was im Bild sichtbar ist. Wird zusätzlich Wissen aus dem realen Objekt einbezogen, entstehen Inkonsistenzen, da das KI-Modell später ebenfalls nur mit Bildinformationen arbeitet.
Die Pflege eines Defektkatalogs mit klar beschriebenen Fehlarten und Beispielbildern hilft, Ausschlusskriterien sicher und nachvollziehbar zu definieren. Wird dieser regelmäßig aktualisiert, z. B. bei neuen Fehlern oder Produkten, erleichtert dies den Wissenstransfer sowie die Einbindung zusätzlicher Labeller.
Tags ermöglichen die Ergänzung von Schlagwörtern, wodurch Datensätze übersichtlicher und besser sortierbar werden. Durch das Zuweisen von Tags kann z. B. sichtbar gemacht werden, welche Daten an welchem Kalendertag und zu welcher Tageszeit aufgenommen wurden oder welche Daten als Grenzmuster gelten.
Im nächsten Schritt wird das KI-Modell trainiert bzw. nachtrainiert. Es gibt hierbei verschiedenste Ansätze, wobei ein Datensatz stets in Trainings- und Testdaten aufgeteilt wird. 

Worauf ist beim Training eines KI-Modells zu achten?

Die Auswahl der Netzarchitektur in einem für die Inferenz-Hardware geeigneten Format (z. B. INT8) ist ausschlaggebend für die Latenz (Ausführgeschwindigkeit) und ausgewogene Genauigkeit des KI-Modells. Je nach Anwendungsfall kann in Richtung Latenz oder Genauigkeit optimiert werden. 
Tipp: Mehrmaliges Training des KI-Modells mit dem identischen Datensatz kann zu unterschiedlichen Performance-Werten führen. Differenzen von über 5 % deuten auf einen inkonsistenten Datensatz hin. 
Für das Training muss für das Eingangsbild eine Auflösung festgelegt werden. 
Je höher die Auflösung, desto
  • höher ist die Auswertezeit,
  • höher sind die Anforderungen an den Arbeitsspeicher zur Interferenz (Ausführung),
  • länger dauert das Training,
  • mehr Trainingsdaten werden benötigt, um dieselbe ausgewogene Genauigkeit zu erzielen.
Nun folgt die Validierung des KI-Modells. KI gilt oft als Blackbox mit Input und Output, aber ohne klare Informationen, um das KI-Modell zu validieren. Der Bericht des KI-Modells gibt Aufschluss über ausgewogene Genauigkeiten (Recall und Precision), falsche Vorhersagen, voraussichtliche Inferenzzeit und hilft damit bei der Nachvollziehbarkeit.

Tipps und Tricks zur Nachvollziehbarkeit des KI-Modells

Die Matrix zeigt, wie oft die Vorhersagen eines KI-Modells mit den tatsächlichen Klassen übereinstimmen und wo Fehler auftreten.
Tipp: Die häufigsten Gründe für Fehlvorhersagen sind eine falsche Annotation oder Grenzmuster. In diesem Fall gilt es, die Annotation anzupassen und neu zu trainieren. Ziel ist es, falsche Vorhersagen zu minimieren.
Die Heatmap macht sichtbar, welcher Bildbereich für die Vorhersage des Ergebnisses ausschlaggebend war. Der detaillierte Einblick ermöglicht Rückschlüsse auf Fehler in der Annotation oder eine Stichprobenverzerrung. Dies sorgt für mehr Transparenz und Nachvollziehbarkeit der Datenmuster. 
Die Vorhersage eines KI-Modells basiert auf dem sogenannten Score, der angibt, wie sicher sich das KI-Modell bei seiner Entscheidung ist. Entscheidend ist nicht, in allen Fällen möglichst hohe Scores zu erzielen, sondern eine klare Unterscheidung zwischen sicheren und unsicheren Fällen zu erreichen: Hohe Scores sollten nur bei eindeutigen Ergebnissen auftreten, während bei unsicheren Fällen bewusst niedrigere Scores sinnvoll sind. So wird verhindert, dass das KI-Modell auch bei unklaren Situationen „fälschlich zu sicher“ entscheidet.
Sowohl beim Training als auch bei der Inferenz des KI-Modells wird die Auflösung jedes Datensatzbildes reduziert, bevor es als KI-Eingangsbild verwendet wird. Prüfen Sie daher, ob das relevante Merkmal nach wie vor erkennbar ist. Falls nicht, können beispielsweise konsequenteres Cropping oder die Wahl einer höheren Auflösung des KI-Eingangsbildes helfen.
Es gibt verschiedene Validierungsmethoden zur Bewertung von KI-Modellen. In der Regel werden Datensätze in Trainings-, Validierungs- und Testdaten aufgeteilt. 
  • Trainingsdaten werden verwendet, um das KI-Modell zu trainieren, und machen typischerweise 70 bis 80 % der Daten aus. 
  • Validierungsdaten werden während des Trainings verwendet, um Gewichte abzustimmen und zu prüfen, ob das KI-Modell übertrainiert (Overfitting). Sie machen typischerweise 10 bis 20 % der Daten aus. 
  • Testdaten werden nur verwendet, um die finale Qualität des KI-Modells zu bewerten, und machen 10 bis 20 % der Daten aus. 
Zwei gängige Validierungsmethoden im Vergleich
 
MerkmalHold-out ValidierungK-Fold-Cross Validierung
BeschreibungDatensatz wird einmalig, z. B. 80 % Training / 20 % Test, aufgeteiltDatensatz wird in k Teile geteilt, KI-Modell wird k-mal mit je anderen Testdaten evaluiert
Vorteile
  • Geringerer Rechenaufwand
  • Zuverlässige und stabile Ergebnisbewertung dank Streuung
  • Weiterer Gütewert für die Datensatzqualität dank Standardabweichung
  • Bessere Nutzung kleiner Datensätze
  • Reduzieren des Risikos zufälliger Fehlerbewertungen
Nachteile
  • Ergebnis stark von der Aufteilung abhängig
  • Anfällig für Verzerrungen insbesondere bei kleineren Datensätzen
  • Höherer Rechenaufwand
Hinweis: Besonders bei kleineren Datensätzen profitieren Nutzende von der robusten Bewertung der K-Fold-Validierung. Die Wahl einer unpassenden Validierungsmethode führt zu unzuverlässigen Bewertungen des KI-Modells.
Das fertig trainierte KI-Modell wird von der Trainingsumgebung auf die Inferenz-Plattform übertragen. Oftmals auch gleichzeitig auf mehr als eine Anlage. Diese Erstinbetriebnahme wird als Deployment des KI-Modells bezeichnet. 

Wie gelingt die Implementierung von KI in die Bildverarbeitungsanwendung?

KI effektiv und effizient zu nutzen, bedingt eine entsprechende Expertise, andernfalls wird die Implementierung sehr aufwendig. Mit dem AI Lab bietet wenglor eine intuitiv nutzbare Trainingsplattform zur Erstellung von KI-Modellen, welche nahtlos auf der leistungsstarken wenglor-Hardware ausgeführt werden können. Durch weHub können kontinuierlich Trainingszyklen durchlaufen und Datensätze fortlaufend mit relevanten neuen Daten erweitert werden.



Bei der Erstellung eines KI-Modells entscheidet sich der Anwendende zunächst für eine geeignete Netzarchitektur. Darauf aufbauend fällt anschließend die Wahl auf eine geeignete Trainingsplattform sowie das Tooling für die Ausführung. Das universell einsetzbare Austauschformat Open Neural Network Exchange (ONNX) für KI-Netze bietet als offener Standard die plattformübergreifende Nutzung von KI-Modellen. Die Machine Vision Software uniVision 3 ermöglicht die nahtlose Integration von KI-Modellen im ONNX-Fomat. Mit GitHub können Sie zudem Ihr ONNX-Netz für die Nutzung auf wenglor-Hardware quantisieren.

  
 
Nach erfolgter Inbetriebnahme kann es folgende Gründe geben, nachzutrainieren:
  • Es treten neue Klassen auf, die erkannt werden sollen.
  • Die Score-Werte verringern sich, z. B. durch Chargenänderungen, Verschmutzung bzw. Abnutzung von Werkstückträgern oder verringerte Lichtleistung.
  • Die Anforderungen an die balancierte Genauigkeit ändern sich. 
Ist ein erneutes Training erforderlich, startet der AI Loop erneut.
Stellen Sie zunächst sicher, dass die vorliegende Datenbasis konsistent und eindeutig ist, bevor neue Daten aufgenommen werden. Gehen Sie falsche Vorhersagen durch und prüfen Sie gegebenenfalls jede Annotation nochmals. Nutzen Sie Validierungs-Tools, wie die Heatmap, Score-Werte und die Konfusionsmatrix. Konzentrieren Sie sich anschließend auf die Klasse mit der schlechtesten Performance und stellen Sie etwa 100 zusätzliche Bilder dieser Klasse bereit  idealerweise von Varianten oder Produkten, bei denen das Modell besonders schwach abschneidet und der Score-Wert entsprechend gering ist. Alternativ können auch 50 neue Bilder pro Klasse ergänzt werden. 
Glühbirne Icon
Je hochwertiger die Daten sind, desto robuster ist das KI-Modell. Dabei gilt stets Qualität vor Quantität. Der Fokus auf qualitativ hochwertige, ausgewogene und realitätsnahe Daten führt zu verlässlicheren KI-Modellen, reduziert das Risiko von Overfitting und steigert die Alltagstauglichkeit in der Produktion. Wer Zeit in eine clevere Datenauswahl investiert, spart später Aufwand beim Training und erreicht schneller hohe Genauigkeiten bei gleichzeitig nachvollziehbaren Ergebnissen.

Drei grundsätzliche Vorgehensweisen für das Training von KI-Modellen im Vergleich

Deep Learning nutzt komplexe neuronale Netze und eignet sich besonders für Anwendungen mit hoher Bildvarianz und hohen Genauigkeitsanforderungen. Dafür sind meist viel Rechenleistung und längere Trainingszeiten notwendig. Edge Learning basiert ebenfalls auf Deep Learning, unterscheidet sich jedoch dadurch, dass das Training direkt auf dem Endgerät (Edge Device) erfolgt. Das ermöglicht eine schnelle und einfache Implementierung, führt aber in der Regel zu weniger leistungsfähigen KI-Modellen, die sich eher für einfache Prüfaufgaben eignen.
Glühbirne Icon
Edge Learning wird öfters von KI-Einsteigern als einfache Lösung für Bildverarbeitungsaufgaben eingesetzt, auch dort, wo sich klassische, regelbasierte Verfahren besser eignen und bereits seit Jahren bewährt haben. Der Einsatz von Edge Learning birgt Risiken, da die einfache Einrichtung von Edge-Lösungen oft auf Kosten von Robustheit, Nachvollziehbarkeit und Erkennungsgenauigkeit erfolgt. 
Produktvergleich