Besuchen Sie uns auf

Vertikale Suche nach Plato

Künstliche Intelligenz

KI-Sichtprüfung zur Fehlererkennung in der Fertigung

Fehlererkennung künstliche Intelligenz
Abbildung: © IoT für alle

Künstliche Intelligenz in der Fertigung ist ein Trendbegriff. Bei der Beschreibung von KI-basierten Fehlererkennungslösungen geht es oft um visuelle Inspektionstechnologie, die auf Deep Learning und Computer Vision basiert.

Was ist Deep Learning bei einer visuellen Inspektion?

Deep Learning ist ein Aspekt der maschinellen Lerntechnologie, die auf künstlichen neuronalen Netzen basiert. Das Funktionsprinzip der Deep-Learning-Technologie besteht darin, Maschinen das Lernen durch Vorbild beizubringen. Durch Bereitstellung eines neuronalen Netzwerks mit gekennzeichneten Beispielen für bestimmte Datentypen ist es möglich, gemeinsame Muster zwischen diesen Beispielen zu extrahieren und sie dann in eine mathematische Gleichung umzuwandeln. Dies hilft, zukünftige Informationen zu klassifizieren.

Mit der visuellen Inspektionstechnologie ermöglicht die Integration von Deep-Learning-Algorithmen die Unterscheidung von Teilen, Anomalien und Zeichen, die eine menschliche visuelle Inspektion imitieren, während ein computergestütztes System ausgeführt wird. 

Also, was bedeutet es genau? Nehmen wir ein Beispiel:

Wenn Sie eine visuelle Inspektionssoftware für die Automobilherstellung erstellen möchten, sollten Sie einen auf Deep Learning basierenden Algorithmus entwickeln und ihn mit Beispielen für Fehler trainieren, die er erkennen muss. Mit genügend Daten erkennt das neuronale Netz schließlich Defekte ohne zusätzliche Anweisungen.

Deep-Learning-basierte visuelle Inspektionssysteme sind gut darin, Fehler zu erkennen, die komplexer Natur sind. Sie adressieren komplexe Oberflächen und kosmetische Mängel und verallgemeinern und konzeptualisieren die Oberflächen der Teile.

So integrieren Sie ein KI-Sichtprüfungssystem

1. Nennen Sie das Problem

Die Entwicklung der visuellen Inspektion beginnt oft mit einer betriebswirtschaftlichen und technischen Analyse. Das Ziel hier ist es zu bestimmen, welche Art von Fehlern das System erkennen soll.

Weitere wichtige Fragen, die Sie sich stellen sollten, sind:

  • Was ist die Umgebung des visuellen Inspektionssystems?
  • Soll die Inspektion in Echtzeit oder aufgeschoben erfolgen? 
  • Wie gründlich soll das visuelle Inspektionssystem Fehler erkennen und nach Art unterscheiden?
  • Gibt es eine vorhandene Software, die die visuelle Inspektionsfunktion integriert, oder erfordert sie eine Neuentwicklung?
  • Wie soll das System den/die Benutzer über erkannte Mängel informieren?
  • Soll das visuelle Inspektionssystem Statistiken zur Fehlererkennung aufzeichnen?
  • Und die Kernfrage: Existieren Daten für die Entwicklung von Deep-Learning-Modellen, einschließlich Bildern von „guten“ und „schlechten“ Produkten und den verschiedenen Arten von Fehlern?

Data Science-Ingenieure wählen die optimale technische Lösung und den optimalen Ablauf, um basierend auf den erhaltenen Antworten fortzufahren.

2. Daten sammeln und vorbereiten

Data Science-Ingenieure müssen Daten sammeln und vorbereiten, die zum Trainieren eines zukünftigen Modells erforderlich sind, bevor die Entwicklung von Deep-Learning-Modellen beginnt. Für Fertigungsprozesse ist es wichtig, IoT-Datenanalysen zu implementieren. Bei der Diskussion von visuellen Inspektionsmodellen handelt es sich bei den Daten häufig um Videoaufzeichnungen, bei denen Bilder, die von einem visuellen Inspektionsmodell verarbeitet werden, Videoframes enthalten. Es gibt mehrere Möglichkeiten zur Datenerfassung, die häufigsten sind jedoch:

  1. Aufnahme einer bestehenden Videoaufzeichnung eines Kunden
  2. Aufnahme von Open-Source-Videoaufzeichnungen für definierte Zwecke
  3. Erfassen von Daten von Grund auf gemäß den Anforderungen des Deep-Learning-Modells

Die wichtigsten Parameter sind hier die Qualität der Videoaufzeichnung. Höhere Datenqualität führt zu genaueren Ergebnissen. 

Sobald wir die Daten gesammelt haben, bereiten wir sie für die Modellierung vor, bereinigen sie, prüfen auf Anomalien und stellen ihre Relevanz sicher.

Werbung. Scrollen Sie, um weiterzulesen.

3. Entwicklung eines Deep-Learning-Modells

Die Auswahl eines Deep-Learning-Modellentwicklungsansatzes hängt von der Komplexität einer Aufgabe, der erforderlichen Lieferzeit und den Budgetbeschränkungen ab. Es gibt mehrere Ansätze:

Verwenden eines Deep-Learning-Modellentwicklungsdienstes (z. B.: Google Cloud ML Engine, Amazon ML usw.)

Dieser Ansatz ist sinnvoll, wenn die Anforderungen an die Fehlererkennungsfunktionen mit den von einem bestimmten Dienst bereitgestellten Vorlagen übereinstimmen. Diese Dienste können sowohl Zeit als auch Budget sparen, da keine Modelle von Grund auf neu entwickelt werden müssen. Sie müssen Daten hochladen und Modelloptionen entsprechend den jeweiligen Aufgaben einstellen. 

Was ist der Haken? Diese Arten von Modellen sind nicht anpassbar. Die Fähigkeiten der Modelle sind auf Optionen beschränkt, die von einem bestimmten Dienst bereitgestellt werden.

Verwenden von vortrainierten Modellen

Ein vortrainiertes Modell ist ein bereits erstelltes Deep-Learning-Modell, das Aufgaben erfüllt, die denen ähnlich sind, die wir ausführen möchten. Wir müssen kein Modell von Grund auf neu erstellen, da es ein trainiertes Modell verwendet, das auf unseren Daten basiert.

Ein vortrainiertes Modell erfüllt möglicherweise nicht alle unsere Aufgaben zu 100 %, bietet aber erhebliche Zeit- und Kosteneinsparungen. Durch die Verwendung von Modellen, die zuvor mit großen Datensätzen trainiert wurden, können wir diese Lösungen an unser Problem anpassen. 

Deep Learning-Modellentwicklung von Grund auf neu

Diese Methode ist ideal für komplexe und sichere visuelle Inspektionssysteme. Der Ansatz mag zeit- und arbeitsintensiv sein, aber die Ergebnisse sind es wert. 

Bei der Entwicklung benutzerdefinierter visueller Inspektionsmodelle verwenden Data Scientists einen oder mehrere Computer Vision-Algorithmen. Dazu gehören Bildklassifizierung, Objekterkennung und Instanzsegmentierung.

Viele Faktoren beeinflussen die Wahl eines oder mehrerer Deep-Learning-Algorithmen. Diese beinhalten:

  • Geschäftsziele
  • Objektgröße/Fehler 
  • Lichtverhältnisse
  • Anzahl der zu prüfenden Produkte
  • Arten von Defekten
  • Auflösung der Bilder

Ein Beispiel für Fehlerkategorien:

Nehmen wir an, wir entwickeln ein visuelles Inspektionsmodell zur Qualitätsbewertung in Gebäuden. Das Hauptaugenmerk liegt auf der Erkennung von Mängeln an den Wänden. Um genaue visuelle Inspektionsergebnisse zu erhalten, ist ein umfangreicher Datensatz erforderlich, da die Fehlerkategorien unglaublich unterschiedlich sein können, von abblätternder Farbe und Schimmel bis hin zu Wandrissen. Der optimale Ansatz wäre hier, ein auf der Instanzsegmentierung basierendes Modell von Grund auf neu zu entwickeln. In einigen Fällen ist auch ein vortrainierter Modellansatz praktikabel.

Werbung. Scrollen Sie, um weiterzulesen.

Ein weiteres Beispiel ist eine visuelle Inspektion für die pharmazeutische Herstellung, bei der Sie Luftblasen von Partikeln in Produkten wie hochviskosen Elternlösungen unterscheiden möchten. Das Vorhandensein von Blasen ist hier die einzige Fehlerkategorie, sodass der erforderliche Datensatz nicht so umfangreich ist wie im obigen Beispiel. Der optimale Ansatz für die Deep-Learning-Modellentwicklung könnte darin bestehen, einen Modellentwicklungsdienst zu verwenden, anstatt einen von Grund auf neu zu entwickeln.

4. Trainieren und bewerten

Der nächste Schritt nach der Entwicklung des visuellen Inspektionsmodells besteht darin, es zu trainieren. In dieser Phase validieren und bewerten Datenwissenschaftler die Leistung und Ergebnisgenauigkeit des Modells. Hier ist ein Testdatensatz hilfreich. Ein visuelles Inspektionssystem kann ein Satz von Videoaufzeichnungen sein, die entweder veraltet sind oder denen ähnlich sind, die wir nach der Bereitstellung verarbeiten möchten.

5. Bereitstellen und verbessern

Bei der Bereitstellung eines visuellen Inspektionsmodells ist es wichtig zu berücksichtigen, wie Software- und Hardwaresystemarchitekturen einer Modellkapazität entsprechen.

Software 

Der Aufbau einer visuellen Inspektions-basierten Software basiert auf der Kombination von Weblösungen für die Datenübertragung und einem Python-Framework für die Verarbeitung neuronaler Netze. 

Der Schlüsselparameter ist hier die Datenspeicherung. Es gibt drei gängige Möglichkeiten zum Speichern von Daten: auf einem lokalen Server, einem Cloud-Streaming-Dienst oder einer serverlosen Architektur. 

Ein visuelles Inspektionssystem beinhaltet die Speicherung von Videoaufzeichnungen. Die Wahl einer Datenspeicherlösung hängt oft von einer Deep-Learning-Modellfunktionalität ab. Wenn beispielsweise ein visuelles Inspektionssystem einen großen Datensatz verwendet, kann die optimale Auswahl ein Cloud-Streaming-Dienst sein.

Hardware

Abhängig von der Branche und den Automatisierungsprozessen können folgende Geräte zur Integration des visuellen Inspektionssystems erforderlich sein:

  • Kamera: Die wichtigste Kameraoption ist Echtzeit-Videostreaming. Einige Beispiele sind IP und CCTV.
  • Tor: Sowohl dedizierte Hardwaregeräte als auch Softwareprogramme eignen sich gut für ein visuelles Inspektionssystem.
  • CPU / GPU: Wenn Echtzeit-Ergebnisse benötigt werden, wäre eine GPU die bessere Wahl als eine CPU, da erstere bei bildbasierten Deep-Learning-Modellen eine schnellere Verarbeitungsgeschwindigkeit aufweist. Es ist möglich, eine CPU für den Betrieb des visuellen Inspektionsmodells zu optimieren, jedoch nicht für das Training. Ein Beispiel für eine optimale GPU könnte die Jetson Nano
  • Fotometer (optional): Abhängig von den Lichtverhältnissen der Umgebung des visuellen Inspektionssystems können Photometer erforderlich sein.
  • Kolorimeter (optional): Bei der Erkennung von Farbe und Luminanz in Lichtquellen haben bildgebende Kolorimeter eine konstant hohe räumliche Auflösung, die detaillierte visuelle Inspektionen ermöglicht. 
  • Wärmebildkamera (optional): Bei der automatisierten Inspektion von Dampf-/Wasserleitungen und -anlagen ist es sinnvoll, Thermografie-Kameradaten zu haben. Die Daten der Thermografiekamera liefern wertvolle Informationen für die Erkennung von Wärme-/Dampf-/Wasserleckagen. Die Daten der Wärmebildkamera sind auch für die Inspektion der Wärmedämmung nützlich.
  • Drohnen (optional): Die automatisierte Inspektion schwer zugänglicher Bereiche ist heute ohne Drohnen nicht mehr wegzudenken: Gebäudeeinbauten, Gaspipelines, Tanker-Sichtkontrolle, Raketen-/Shuttle-Inspektion. Drohnen können mit hochauflösenden Kameras ausgestattet sein, die eine Fehlererkennung in Echtzeit durchführen können.

Deep-Learning-Modelle sind nach der Bereitstellung verbesserungsfähig. Ein Deep-Learning-Ansatz kann die Genauigkeit des neuronalen Netzes durch das iterative Sammeln neuer Daten und das erneute Trainieren des Modells erhöhen. Das Ergebnis ist ein „intelligenteres“ visuelles Inspektionsmodell, das durch die Erhöhung der Daten während des Betriebs lernt.

Anwendungsfälle für visuelle Inspektionen

Gesundheitswesen

Im Kampf gegen COVID-19 können die meisten Flughäfen und Grenzübergänge mittlerweile Passagiere auf Anzeichen der Krankheit überprüfen.

Baidu, das große chinesische Technologieunternehmen, hat ein groß angelegtes visuelles Inspektionssystem auf Basis von KI entwickelt. Das System besteht aus Computer-Vision-basierten Kameras und Infrarotsensoren, die die Temperaturen der Passagiere vorhersagen. Die Technik, betriebsbereit in Pekings Bahnhof Qinghe, kann bis zu 200 Personen pro Minute anzeigen. Der KI-Algorithmus erkennt jeden, der eine Temperatur über 37.3 Grad hat.

Werbung. Scrollen Sie, um weiterzulesen.

Ein weiterer Fall aus der Praxis ist das auf Deep Learning basierende System, das von der . entwickelt wurde Alibaba Gesellschaft. Das System kann das Coronavirus in Brust-CT-Scans mit einer Genauigkeit von 96 % erkennen. Mit Zugriff auf Daten von 5,000 COVID-19-Fällen führt das System den Test in 20 Sekunden durch. Darüber hinaus kann es zwischen gewöhnlicher viraler Lungenentzündung und Coronavirus unterscheiden.

Fluggesellschaften

Laut Boeing entfallen 70 % des 2.6 Billionen US-Dollar schweren Marktes für Luft- und Raumfahrtdienstleistungen auf Qualität und Wartung. 2018 führte Airbus ein neues automatisiertes, Drohnenbasiertes Flugzeuginspektionssystem das beschleunigt und erleichtert Sichtprüfungen. Diese Entwicklung reduziert die Ausfallzeiten von Flugzeugen und erhöht gleichzeitig die Qualität der Prüfberichte.

Automobilindustrie

Toyota stimmte kürzlich einer Einigung in Höhe von 1.3 Milliarden US-Dollar aufgrund eines Defekts zu, der dazu führte, dass Autos beschleunigt wurden, selbst wenn die Fahrer versuchten, langsamer zu werden, was zu 6 Todesfällen in den USA führte Cognex ViDikönnen Automobilhersteller Qualitätsprobleme viel genauer analysieren, erkennen und beheben, bevor sie auftreten.

Herstellung von Computerausrüstung

Die Nachfrage nach kleineren Leiterplattendesigns wächst. Fujitsu Laboratories hat die Entwicklung von KI-fähige Erkennungssysteme für die Elektronikindustrie. Sie berichten von erheblichen Fortschritten bei Qualität, Kosten und Lieferung.

Textil-

Die Implementierung einer automatisierten visuellen Inspektion und eines Deep-Learning-Ansatzes kann jetzt Textur-, Web-, Stick- und Farbabstimmungsprobleme erkennen.

Zum Beispiel, Das KI-System von Datacolor kann historische Daten vergangener Sichtprüfungen berücksichtigen, um benutzerdefinierte Toleranzen zu erstellen, die den Proben besser entsprechen.

Wir schließen mit einem Zitat des bereits erwähnten Geschäftsführers: „Es macht für mich keinen Unterschied, ob die vorgeschlagene Technologie die beste ist, aber es ist mir wichtig, wie gut sie meine Probleme löst.“

Solarplatten

Sonnenkollektoren leiden bekanntlich unter Staub und Mikrorissen. Die automatische Inspektion von Solarmodulen während der Herstellung sowie vor und nach der Installation ist eine gute Idee, um den Versand von fehlerhaften Solarmodulen zu verhindern und beschädigte Module in Ihrem Solarpark schnell zu erkennen. Zum Beispiel DJI Enterprise nutzt Drohnen zur Inspektion von Sonnenkollektoren.

Pipeline-Inspektion

Gas- und Ölpipelines haben bekanntlich eine enorme Länge. Die neuesten Daten aus dem Jahr 2014 geben insgesamt etwas weniger als 2,175,000 Meilen (3,500,000 km) Pipeline in 120 Ländern der Welt an. Gas- und Ölleckagen können durch chemische Verschmutzung, Explosionen und Brände zu massiven Schäden an der Natur führen.

Die Satelliten- und Drohneninspektion mit Hilfe von Computer-Vision-Techniken ist ein gutes Werkzeug zur Früherkennung und Lokalisierung einer Gas-/Ölleckage. Kürzlich DroneDeploy berichtet dass sie etwa 180 Meilen von Pipelines kartierten.

Werbung. Scrollen Sie, um weiterzulesen.

KI-Sichtprüfung: Wichtige Erkenntnisse

  1. Konzept: Die visuelle Inspektion basiert auf traditionellen Computer-Vision-Methoden und dem menschlichen Sehen.
  2. Wahl: Der Ansatz für die Entwicklung von Deep-Learning-Modellen hängt von der Aufgabe, der Lieferzeit und den Budgetgrenzen ab.
  3. Algorithmus: Deep-Learning-Algorithmen erkennen Fehler, indem sie eine menschliche Analyse imitieren, während ein computergestütztes System ausgeführt wird.
  4. Architektur: Software und Hardware sollten der Kapazität des Deep-Learning-Modells entsprechen.
  5. Hauptfrage: Bei der Einleitung einer Sichtprüfung lautet die Hauptfrage „Welche Mängel soll das System erkennen?“
  6. Verbesserungen: Nach der Bereitstellung wird das Deep-Learning-Modell durch Datenakkumulation „intelligenter“.

PlatonAi. Web3 neu erfunden. Datenintelligenz verstärkt.
Klicken Sie hier, um darauf zuzugreifen.

Quelle: https://www.iotforall.com/ai-visual-inspection-for-defect-detection-in-manufacturing

Geschrieben Von

Werbung

Ähnliche Streams

Startups

Je mehr Menschen in neue Ideen eintauchen und nach neuem Wissen suchen, desto mehr Möglichkeiten haben sie, zu wachsen und erfolgreich zu sein. Anlegereifer...

Blockchain

Kryptowährungsinvestoren verlieren immer wieder ihr Geld, weil ihnen einige der Grundlagen der Kryptoindustrie fehlen. Die Leute, denen es wichtig ist, zu helfen...

SaaS

Inhaltsverzeichnis 1. Einführung 2. Was ist Laravel? 3. Was ist SaaS? 4. Warum bevorzuge ich Laravel für SaaS...

Kode

Der größte Teil des Internetverkehrs besteht aus Bots. Laut einem Bericht der Sicherheitsfirma Imperva machten persistente Bots 57 % des Internetverkehrs aus. Die...