In der Bildverarbeitung werden in den letzten Jahren vermehrt Machine Learning Ansätze angewendet. Deep Convolutional Neural Networks (tiefe CNN) eignen sich mit am besten für die Klassifizierung und Erkennung von Bildinhalten. Zu den großen Durchbrüchen gehörten zu Beginn die zuverlässige Erkennung von handgeschriebenen Postleitzahlen und später die Erkennung von Gesichtern oder Kfz-Kennzeichen.

Aktuell werden mächtige und echtzeitfähige Netzwerke verwendet, die multiple Klassen in Bildern erkennen können, um beispielsweise in Echtzeit Personen, Fahrzeuge, Hindernisse und Verkehrsschilder, sowie deren Positionen zu erkennen. Ein CNN wird nach der Erkennungsrate beurteilt. Idealerweise erhöhen Erweiterungen die Geschwindigkeit und Genauigkeit, die benötigt werden, um den Bildinhalt richtig zu bestimmen.


Deep Learning für visuelle Sensordatenanalyse in komplexen Szenarien

Deep Learning hat bedeutende Erfolge in einer Vielzahl an Anwendungsgebieten erzielen können, besonders in der Klassifizierung von Bildinhalten.

Der Fokus dieses Projekts liegt darin, zu erforschen, welche tiefen Lernansätze sich für verschiedene Erkennungsaufgaben wie Klassifizierung, Detektion und Segmentierung eignen. Dies ist von entscheidender Bedeutung in Anwendungsgebieten wie Überwachung oder fortgeschrittenen Fahrerassistenzsystemen und autonomen Fahren.

Auch wenn der Anreiz von Deep Learning-Verfahren das Ende-zu-Ende Lernen ist, ohne das mühsame Finden und Definieren von selbstbestimmten Merkmalen, gibt es gewisse Herausforderungen. Es besteht die Anforderung an einen umfangreichen Trainingsdatensatz, der außerdem noch annotiert werden muss. Dies wiederum motiviert die Möglichkeit der Verwendung von schwach überwachten Methoden und außerdem die Verwendung von simulierten oder synthetischen Bildern für das Lernen. In üblichen Anwendungsgebieten sind die aufgezeichneten visuellen Daten meist von Kompression und Rauschen behaftet und dadurch in ihrer Qualität gemindert. Dies führt typischerweise zu einer ebenfalls verminderten Qualität in der Erkennungsleistung des Netzwerks, weshalb Methoden benötigt werden, die das Netzwerk dahingehend robuster machen.


Automatisierte visuelle Funktionsanalyse für virtuelle Instrumententafeln in Automobilen

Automobile stellen heutzutage bei Weitem nicht mehr nur einen fahrbaren Untersatz dar. Neue Fahrzeuge sind meist mit Infotainment-Systemen ausgestattet, die eine Vielfalt an Funktionen bieten. Dazu gehören sowohl Funktionen, die zur Unterhaltung dienen, als auch solche, die den Fahrer und die Insassen über den aktuellen Fahrzeugstatus aufklären sollen. Durch den rasanten Fortschritt und immer neue Funktionen steigt auch die Anzahl an Konfigurationsmöglichkeiten und Komponenten, die aufeinander abgestimmt werden müssen.

Um ein stabiles und fehlerfrei-laufendes Infotainment-System zu garantieren kommen manuelle Tests aufgrund ihres Umfangs nicht mehr in Frage. Automatisierte Tests sind daher besser geeignet, um die Bildschirminhalte über eine ausreichende Zeitspanne analysieren zu können.

Um die Analyse zu automatisieren müssen alle Fehler, die vorkommen können bekannt sein, um diese detektieren zu können. Da jedoch auch Fehler auftreten können, die vorher nicht bekannt sind, ist es sinnvoller, zu erlernen, welche Bildinhalte normal sind, um ungewöhnliches Verhalten zu erkennen. Um dem lernenden System Informationen über den Bildschirminhalt zu vermitteln, wird ein CNN verwendet, das in der Lage ist, angezeigte Inhalte zu klassifizieren und die Positionen der angezeigten Elemente zu analysieren. Diese Informationen können anschließend mit einer Novelty Detection unterschieden werden und geben Aufschluss über die verschiedenen Fehler, die bei der Analyse aufgetreten sind. Dabei werden alle Detektionen auf eine Ebene projiziert, auf der eine Entscheidungsgrenze berechnet wird. Sämtliche Punkte, die innerhalb dieser Entscheidungsgrenze liegen, stellen normales Verhalten dar, wobei außenliegende Punkte Neuheiten oder Fehler darstellen. Diese Informationen werden dann in Form eines Updates für das Infotainment-System verarbeitet.

 

 


Einsatz von Methoden der Künstlichen Intelligenz für die Qualitätssicherung in der Produktionstechnik

Der steigende Grad der Automatisierung wirkt sich auf alle Bereiche unseres Lebens aus. Ein Themenfeld das diesem Wandel jedoch besonders unterliegt ist die maschinelle Produktion. Moderne Fertigungsstarßen arbeiten bereits jetzt weitgehend ohne menschliche Eingriffe, durch die bevorstehenden Änderung im Rahmen von Industrie 4.0 wird dieses Phänomen jedoch noch deutlich ausgeprägter werden. Um die Qualität der so produzierten Werkstücke garantieren zu können ist es notwendig eine abschließende Sichtkontrolle durchzuführen. Aktuell wird diese in vielen Bereichen immer noch manuell durchgeführt, da es sich dabei jedoch um eine monotone und anstrengende Arbeit handelt, wird auch hierfür nach einer automatisierten Lösung gesucht.

Es existieren bereits seit einigen Jahren solch automatische optische Prüfsysteme, diese bedienen sich bisher jedoch klassischen Bildverarbeitungsmethoden, die es erforderlich machen vor Beginn der Prüfung die jeweiligen Toleranzbereiche und Prüfkriterien für das aktuelle Werkstück festzulegen. Gerade im Kontext von Industrie 4.0 mit häufig wechselnden Prüfaufgaben und Kleinserien ist dieses Vorgehen zunehmend ineffizient. Alternativ hierzu soll ein neuer Ansatz entwickelt werden, der mittels maschinellen Lernens entscheidet, welche Werkstücke in Ordnung sind, und welche Werkstücke fehlerhaft sind. Das typische Vorgehen zur Lösung dieses Problems wäre, eine Vielzahl an Aufnahmen von einwandfreien und beschädigten Werkstücken zu nutzen und diese Aufnahmen dann zum Training eines neuronalen Netzes zu verwenden. Hierbei besteht jedoch das große Problem, dass eine entsprechend große Anzahl an Werkstücken erst einmal erstellt werden muss. Weiterhin müssen genügend fehlerhafte Werkstücke enthalten sein, um ein verlässliches Training zu gewährleisten.

Gerade in Hinblick auf eine schnelle Anpassbarkeit der Produktion und der individuellen Herstellung von Werkstücken ist dieses Vorgehen nicht geeignet. Um die Herstellung von Werkstücken und anschließende Begutachtung zur Erstellung von Trainingsdaten für das neuronale Netz zu vermeiden, wird hier ein neuer Ansatz verfolgt. Hierbei werden die Trainingsdaten nicht mit einer Kamera aufgenommen, sondern simuliert. Das bedeutet, ausgehend von einem Modell des zu produzierenden Werkstücks werden die Bilder simuliert, die später in der Produktion während der Qualitätsprüfung aufgenommen werden. Das damit trainierte neuronale Netz wird anschließend auf tatsächlichen Aufnahmen der zu prüfenden Werkstücke angewendet. Hiermit erfolgt dann eine Klassifikation nach fehlerfreien und fehlerhaften Werkstücken.