Zephyrnet-Logo

Schadensinspektion mit AI - Automatisierung der Schadenbearbeitung für Versicherungen

Datum:

Einleitung

In diesem Artikel erfahren Sie, wie Versicherungsunternehmen mithilfe künstlicher Intelligenz die Schadenbearbeitung automatisieren können, indem sie verschiedene Arten von Schäden automatisch erkennen - Mobiltelefone, Fahrzeuge, Dächer usw. Außerdem erfahren Sie, wie Sie einen einfachen binären Klassifikator erstellen, der Fahrzeugbilder klassifiziert in beschädigt oder nicht mit fast.ai.

Versicherungen sind eine der ältesten und traditionellsten Branchen und bis vor kurzem sehr widerstandsfähig gegen Veränderungen. Insurtech-Unternehmen konzentrieren sich auf die Wertschöpfung durch die Automatisierung von Aufgaben mit verschiedenen Methoden der künstlichen Intelligenz. Sie positionieren ihre Wertschöpfung in den Bereichen Verarbeitung natürlicher Sprache, Computer Vision und maschinelles Lernen. Verwendung allgegenwärtiger Daten aus verschiedenen Quellen, um ihren Kunden tiefere Einblicke in Daten und personalisierte Pläne zu bieten.


haben Sie einen Sichtprüfung Problem im Sinn? Möchten Sie automatisch erkennen, wo, wie und mit welcher Schwere ein Fahrzeug beschädigt ist? Gehe rüber zu Nanonetze und baue kostenlos benutzerdefinierte Modelle!


Automatisierung der Schadenbearbeitung

Die Schadenbearbeitung ist einer der Anwendungsfälle für die Automatisierung in der Versicherung, die bereits den großen Nutzen der Anwendung von Computer Vision sehen. Eine schnelle und effiziente Schadenbearbeitung ist für Versicherungsunternehmen von entscheidender Bedeutung für den Erfolg.

Die neuesten Fortschritte bei Computer-Vision-Algorithmen unter Verwendung von Deep Learning erzielen interessante Ergebnisse bei der Klassifizierung von Bildern, der Objekterkennung und der Bildsegmentierung. Die Anwendungen sind noch im Entstehen begriffen. Immer mehr Unternehmen betrachten diese Technologie als einen Weg, um Versicherungsabwicklungsprozesse als eine der größten Herausforderungen der Insurtech-Branche einfacher und effizienter zu gestalten.

Die Bearbeitung von Schadensfällen im Jahr 2030 bleibt eine Hauptaufgabe der Versicherungsträger, aber die Anzahl der mit manuellen Schadensfällen verbundenen Mitarbeiter ist im Vergleich zu 70 um 90-2018% reduziert. - - McKinsey-Forschung

Die manuelle Prüfung zur Bearbeitung von Ansprüchen ist nicht skalierbar und fehleranfällig. Die automatische Bewertung der Schäden durch Bildanalyse ist viel schneller und genauer und wird noch besser, da für jeden Anwendungsfall immer mehr Daten erfasst werden. Hier sind einige der zukünftigen Insurtech-Anwendungsfälle, die bereits heute erstellt werden.

Automatische Überprüfung von Fahrzeugschäden

Inspektionen sind oft der allererste Schritt im Kfz-Versicherungsfall. Mit Deep Learning können wir automatisch Kratzer, Dellen, Rost und Brüche erkennen. Wir können auch feststellen, welcher Teil des Fahrzeugs mit welcher Schwere beschädigt ist. Das Fahrzeug kann automatisch anhand von Bildern oder Video-Feeds überprüft werden, indem eine 360 ​​° -Übersicht erstellt wird. Nach der Inspektion kann der Bericht mit einer Liste von Schäden und geschätzten Reparaturkosten erstellt werden.


Erfahren Sie mehr über die Nanonets-Lösung zur automatischen Erkennung von Fahrzeugschäden hier


Drohnenbewertung für Dachversicherungen

Dachinspektion ist gefährliche und zeitaufwändige Arbeit. Messungen von Hand durchzuführen oder Schäden manuell abzuschätzen, war schon immer ein Teil dieser Art von Geschäft. Ein neuer Ansatz, bei dem Satellitenbilder von Luftdrohnen in Kombination mit einer wachsenden Anzahl anderer Datenattribute wie dem historischen Wetter verwendet werden, um die Eigenschaften und den Zustand eines Daches sowie das Risiko künftiger Versicherungsansprüche zu bestimmen. Die Computer Vision-Technologie erkennt automatisch Dachform, Material, Beschädigungen, Teiche und Rost. Versicherer finden die richtigen Deckungen und Preise für ihre Kunden.


Erfahren Sie mehr über die Nanonets-Lösung zur Beurteilung von Dachschäden hier


Inspektion von Schäden am mobilen Bildschirm

Die Handyversicherung ist im Wesentlichen eine Art Versicherungsschutz, der die mechanisch beschädigten Handys schützt. Unternehmen, die Handyversicherungen verkaufen, befassen sich mit Versicherungsansprüchen, wobei die meisten Fälle Bildschirmrisse oder Handyschäden sind. Durch die Automatisierung des größeren Volumens der Schadenbearbeitung über das Mobiltelefon werden enorme Kosten eingespart. Die Hauptidee besteht darin, Bilder von Mobiltelefonen in zwei Kategorien zu klassifizieren. Eine zeigt an, dass das Handy beschädigt ist und die andere ist unbeschädigt. Durch die Kombination dieses Ansatzes mit OCR zur Erkennung der Seriennummer des Telefons und zur Extraktion anderer wichtiger Daten können Ansprüche weiter beschleunigt werden.


Erfahren Sie mehr über die Nanonets-Lösung zur automatischen mobilen Schadenserkennung hier


Optical Character Recognition

Computer Vision-Aufgabe zum Konvertieren von Bildern mit Zeichen oder gescannten Dokumenten in maschinenlesbaren Text. Die Bearbeitung von Versicherungsansprüchen mit OCR ist eines der Produkte, die uns zuerst in den Sinn kommen. Im Wesentlichen müssen die Formulare und Dokumente automatisch ausgefüllt und digital verarbeitet und digital gespeichert werden.


Weitere Informationen zur Nanonets-Lösung für die Digitalisierung von Formularen mithilfe von OCR hier


Hier finden Sie eine kurze Übersicht über die beliebtesten Tools und Services, die für die Inspektion von Fahrzeugschäden verwendet werden können.

Amazon-Anerkennung erleichtert das Hinzufügen von Bild- und Videoanalysen zu Ihren Anwendungen. Die Verwendung erfordert kein tiefes Lernwissen. Die Erkennung basiert auf einer hoch skalierbaren Deep-Learning-Technologie, die von Amazon Computer Vision-Wissenschaftlern entwickelt wurde. Die Amazon-Plattform bietet Erkennung und Erkennung von Objekten, Ereignissen oder Aktivitäten. Es wird hauptsächlich zur Gesichtserkennung, -erkennung und -identifizierung verwendet. Die Erkennung hat aber kein Modell für die Schadensinspektion AWS-Marktplatz bietet verschiedene kuratierte Software und Services von Drittanbietern an, die Kunden benötigen, um Lösungen zu entwickeln und ihre Geschäfte zu betreiben. Es gibt keine einfache Lösung für die Erstellung eines Bildklassifizierungsmodells für unseren speziellen Anwendungsfall.

Google Cloud Vision-KI könnte in zwei größere Kategorien unterteilt werden, AutoML Vision und Vision API. Vision API ist eine API, die von vorgefertigten Google-Modellen angeboten wird, die Amazon Rekognition und Azure Machine Learning Studio ähneln. AutoML-Vision ist sehr interessant, da Sie Ihr benutzerdefiniertes Modell erstellen können, indem Sie an benutzerdefinierten Bildern trainieren. Modelle werden so trainiert, dass Bilder automatisch anhand der von Ihnen definierten Beschriftungen klassifiziert werden. Mit einem vorbereiteten Datensatz hochwertiger Bilder scheint dies der einfachste Weg zu sein, ein robustes Modell für die Inspektion von Fahrzeugschäden zu entwickeln. Bereiten Sie die Bilder von Fahrzeugen auf 2 Etiketten vor (beschädigt, nicht beschädigt) und befolgen Sie die Dokumentation.

AutoML-Plattform zum Erstellen benutzerdefinierter Etiketten und Trainingsmodelle [Youtube]

Azure Machine Learning Studio ist eine einfache browserbasierte, visuelle Drag-and-Drop-Authoring-Umgebung, in der keine Codierung erforderlich ist. Ein vollständig verwalteter Cloud-Service, mit dem Sie auf einfache Weise Predictive Analytics-Lösungen erstellen, bereitstellen und gemeinsam nutzen können. Ein interessanter Ansatz für die visuelle Skripterstellung der Modelle, aber dennoch Domänenkenntnisse des maschinellen Lernens sind erforderlich. Entwickler mit Fachwissen können mithilfe von Azure Machine Learning Studio oder Service effizienter arbeiten.

Vergleich von Cloud-APIs aus [mittlerer Artikel]

Inspektion von Fahrzeugschäden

Die Versicherer beginnen mit Deep Learning, um die betriebliche Effizienz zu verbessern, das Kundenerlebnis zu verbessern und gleichzeitig die Schadenregulierungszeit zu verkürzen. Vorhersagemodelle für Computer Vision und Deep Learning werden schneller und auch ohne Programmierkenntnisse entwickelt, da viele Unternehmen Cloud-Modellschulungen, Software-as-a-Service- oder Computer Vision-APIs anbieten. Technologiegiganten wie Google, Microsoft und Amazon investieren viel in die Entwicklung und Verbesserung komplexer Algorithmen, die sicher verborgene und aussagekräftige Informationen aus der Verarbeitung von Bildern in Millisekunden liefern.

Unternehmen meiden häufig AI-basierte Vision-Technologien aufgrund ihrer Komplexität und der Anforderungen von Entwicklern mit umfassendem Fachwissen. Modelle, die in der Produktion verwendet werden, erfordern ein umfangreiches Computertraining und im Allgemeinen viele Beispielbilder. Relevante Qualitätsdaten sind schwer zu erfassen und für einige Anwendungsfälle sind die Datensätze einfach nicht verfügbar.

Fahrzeugschadensprüfung zur Schadenbearbeitung - der Workflow [Altoros]

Die automatisierte Prüfung von Fahrzeugschäden ist eine wichtige Komponente für einen effizienten Emittenten von Kfz-Versicherungen. Wie würde der perfekte Ablauf für die Inspektion von Fahrzeugschäden aussehen?

  1. Der Client lädt klare Bilder hoch des versicherten Fahrzeugs an die Plattform zur Bearbeitung von Versicherungsansprüchen
  2. Die Plattform überprüft automatisch, ob Bilder vorhanden sind ausreichende Qualität für die Durchführung der Inspektion
  3. Benachrichtigung des Kunden wenn die Bilder erneut hochgeladen werden müssen.
  4. Führen Sie Modelle zur Inspektion von Fahrzeugschäden aus, bei denen Kisten um beschädigte Bereiche herum angebracht werden Welcher Teil des Fahrzeugs ist beschädigt? und was für ein Schaden Es könnte wie Rost, Dellen, Kratzer usw. sein.
  5. Der zweite Schritt könnte sein Weiterverarbeitung der beschädigten Fahrzeugbilder um einen detaillierteren Bericht über den Schaden zu erstellen, z. B. um festzustellen, welche Teile des Autos beschädigt wurden und wie schwer der Schaden ist.
  6. Baubericht Dadurch wird der Anspruch behoben oder ein Bericht erstellt, der vom manuellen Prüfer bei höherer Unsicherheit des Modells weiter geprüft werden muss

Wir werden nun einige der Herausforderungen der automatischen Schadensinspektion sehen und später ein einfaches Modell zur Fahrzeugschadensinspektion sehen, das mit gesammelten Daten als Basismodell verwendet werden kann.

Fahrzeugschaden-Datensatz

Die Hauptsache für den Beginn der Deep-Learning-Forschung ist ein qualitativ hochwertiger Datensatz mit vielen Bildern. Deep-Learning-Modelle funktionieren besser mit größeren, ausgewogeneren Datensätzen und können durch Hinzufügen des Datenerweiterungsprozesses weiter verbessert werden.

Datensätze für die automatische Fahrzeugschadensprüfung sind nicht öffentlich verfügbar. Versicherungsunternehmen, die an Kfz-Versicherungen beteiligt sind, sollten bereits eine Strategie zur Erfassung und Organisation der Datenerfassung von Fahrzeugbildern haben. Dieser Prozess des Sammelns und Speicherns von Daten sollte für alle Anwendungsfälle angewendet werden, die in Zukunft automatisiert werden könnten. Einige Beispiele wie mobile Schadensinspektion und Hausschaden wurden bereits erwähnt.

Filtern von Fahrzeugbildern, die mit der folgenden Methode erfasst wurden

Web Scraping ist eine Möglichkeit, ein Starter-Dataset zu generieren, um einige Basismodelle und Ideen zu erstellen. Dank an SchnellAI, PyImageSearch Sie könnten leicht eine anständige Anzahl von Bildern für jedes Klassifizierungsproblem erhalten. Schauen Sie sich diese Links an, um zu sehen, wie es möglich ist PymageSearch Artikel, Mittlerer Blog, Kursvideo von fastAI zur schrittweisen Erklärung. Ich werde einige Hinweise hinzufügen, die mir geholfen haben:

  • Deaktivieren Sie den Adblocker, wenn dies der Fall ist, da er die Methode zum Sammeln von URLs blockiert
  • Versuchen Sie, verschiedene Begriffe für die Suche im selben Datensatz zu verwenden
  • Speichern Sie alle URLs in einer Excel-CSV-Datei und entfernen Sie Duplikate
  • Nach dem Herunterladen des Filters zum Entfernen von Nichtbildern

Vorverarbeitungsansatz

Die Vorverarbeitung ist eine Methode zur Vorbereitung von Bildern für Modelle, um mit Computer-Vision-Modellen bessere Ergebnisse zu erzielen. Dies hängt stark von der Merkmalsextraktionsmethode und dem Eingabebildtyp ab. Einige der gängigen Methoden sind:

  • Bildentrauschung - Anwenden eines Gaußschen oder eines anderen Filters zum Entfernen von Bildrauschen
  • Bildschwelle - Methode zum Anwenden des Schwellenwerts für jedes Pixel. Wenn der Pixelwert kleiner als der Schwellenwert ist, wird er auf 0 gesetzt, andernfalls wird er auf einen Maximalwert gesetzt
  • Canny Edge-Detektor - Beliebtester Kantendetektor, der normalerweise mit dem Prozess der Umwandlung farbiger Bilder in Graustufenbilder gebündelt wird

Die am häufigsten verwendete Bibliothek für die Bildvorverarbeitung ist OpenCV. OpenCV (Open Source Computer Vision Library) ist eine Open Source-Softwarebibliothek für Computer Vision und maschinelles Lernen. OpenCV wurde entwickelt, um eine gemeinsame Infrastruktur für Computer-Vision-Anwendungen bereitzustellen und die Nutzung der Maschinenwahrnehmung in kommerziellen Produkten zu beschleunigen. Es verfügt über C ++ -, Python-, Java- und MATLAB-Schnittstellen und unterstützt Windows, Linux, Android und Mac OS. OpenCV tendiert hauptsächlich zu Echtzeit-Vision-Anwendungen und nutzt MMX- und SSE-Anweisungen, sofern verfügbar.

Das Problem bei der Vorverarbeitung besteht darin, dass es schwierig ist zu bewerten, welche Vorverarbeitungstechniken generisch einen Unterschied machen. Manchmal können Sie große Fortschritte bei Ihrem verwendeten Datensatz erzielen, dies ist jedoch nur für Teilmengen von Bildern von Vorteil. Der Prozess zur Bewertung des Genauigkeitsgewinns des verwendeten Vorverarbeitungsverfahrens ist langsam und kann zu falschen Schlussfolgerungen führen.

Canny Edge Detection für ein nicht beschädigtes Auto
Canny Edge Detection für ein beschädigtes Auto

Mangel an öffentlich verfügbaren Modellen

Auf dem Gebiet der Bildverarbeitung wird viel Forschung zur Erkennung von Herstellungsfehlern betrieben. Die für die Fertigungsindustrie entwickelten Techniken erfordern spezielle Geräte und Ansätze, aber das Fehlen öffentlich entwickelter Modelle erschwert es, auf Ideen anderer Forscher aufzubauen. Es ist nicht möglich, Leistungsunterschiede zu vergleichen und nützliche Diskussionen zu führen.


Code und Ergebnisse

Mit dem fast.ai-Framework konnte ich einen einfachen Klassifikator für beschädigte oder nicht beschädigte Fahrzeuge implementieren. Hier finden Sie das Notizbuch Github-Repository. Der Code verwendet eine resnet34-Architektur für die Klassifizierungsaufgabe und erreicht eine Genauigkeit von 80%, wenn er auf 60 Bildern beschädigter Autos und 79 Bildern nicht beschädigter Autos trainiert wird.

Wir benutzen die fast.ai Bibliothek da es eine großartige API bietet, um schnell Prototypen zu erstellen und verschiedene Modelle auszuprobieren. Fastai hat eine nette Klasse für alles, was mit den Eingabebildern für Sehaufgaben zu tun hat. Es wird genannt ImageDataBunch und hat unterschiedliche Funktionen, je nachdem, wie Daten dem Netzwerk präsentiert werden können. Da unsere Bilder in Ordnern abgelegt sind, deren Namen den Bildbeschriftungen entsprechen, verwenden wir die ImageDataBunch.fromfolder () Funktion zum Erstellen eines Objekts, das unsere Bilddaten enthält.

 # Create path to your image data path = Path('data/vehicle') # Define number of classes, they are called like a folder so it automatically maps from where to read classes = ['vehicle_damaged', 'vehicle_not_damaged'] # Setting up seed for repetability np.random.seed(42) # Create data loader, split images into 80% for training 20% for test and rescale images to 224x224 data = ImageDataBunch.from_folder(path, train='.', valid_pct=0.2, ds_tfms=get_transforms(), size=224, num_workers=4).normalize(imagenet_stats) # Verify dataset print(data.classes, data.c, len(data.train_ds), len(data.valid_ds)) # Model training learn = cnn_learner(data, models.resnet34, metrics=error_rate) # Train for 4 epochs learn.fit_one_cycle(4)

Das Modell für die Bildklassifizierung sollte für 4 Epochen trainieren, dh es durchläuft alle Bilder von Fahrzeugen viermal und verbessert gleichzeitig die Modellparameter. Wir können dies an der Ausgabe erkennen, da die Fehlerrate sinkt.

 # Save weights, so we don't need to retrain (this matters when training is time consuming) learn.save('stage-1') # Must be done before calling lr_find, because we need to unfreeze all layers of the pre-trained model learn.unfreeze() # Plot function for finding the best learning rate learn.lr_find() # Visualize graph where loss is depending on picked learning rate # The best tool to pick a good learning rate for our models # Here we are taking the value of learning rate with the biggest fall in loss # in this example it would be [1e-04, 1e-03] learn.recorder.plot()

Hier speichern wir das trainierte Modell, damit wir diesen ersten Vorgang nicht wiederholen müssen. Die Idee ist, die Methode lr_find () zu verwenden. Wir möchten die Lernrate wählen, die den Verlust am meisten verringert. Die Grafik zeigt, dass die Auswahl der Lernrate zwischen [1e-04, 1e-03] den Verlust am meisten verringert. Jetzt wollen wir nicht die Lernrate mit dem geringsten Verlust auswählen. Lesen Sie hier Weitere Informationen zu dieser Technik.

 # Training model 8 epochs more with learning rates ranging from 1e-04 to 1e-03 learn.fit_one_cycle(8, max_lr=slice(1e-4, 1e-3)) learn.save('stage-2') # Show results learn.show_results()

Nachdem wir den besten Lernratenbereich gefunden haben, trainieren Sie das Modell noch einige Zeit mit diesem neuen Lernratenbereich, den wir gefunden haben. Die Idee dabei ist, dass wir niedrigere Schichten des Modells mit niedrigeren Lernraten trainieren, da diese auf dem Imagenet vorab trainiert werden. Die höheren Schichten sollten mit einer höheren Lernrate trainieren, um das Klassifizierungsmodell für unseren Datensatz zu optimieren. Beachten Sie, dass Sie möglicherweise unterschiedliche Genauigkeitsstufen erhalten, die immer noch bei einer Genauigkeit von ca. 80% liegen.

Modellvorhersage aus einfachem Bildklassifizierungstraining an rund 140 Bildern

Es gibt natürlich eine viel bessere, einfachere und intuitivere Möglichkeit, dies zu tun.


Fahrzeugschadensprüfung mit Nanonets

Während wir die Schadenserkennung mithilfe der Bildklassifizierung erörtert haben, erfordert das Problem der Schadensinspektion viel mehr als nur Klassifizierungsmodelle. Mit den richtigen Modellen und Daten kann Inspektionskosten um 90% reduzieren.

Mithilfe der Bildklassifizierung, Objekterkennung und Bildsegmentierung können Sie genau herausfinden, welche Art von Schaden (z. B. Kratzer, Dellen, Rost, Bruch) an welcher Stelle (Informationen zum Begrenzungsrahmen) und wie schwerwiegend der Schaden ist.

Mit mehr Daten könnten Sie auch Modelle bauen, die automatisch erkennen, welche Teile des Autos (Windschutzscheibe, linke Tür, rechter Scheinwerfer?) Beschädigt sind.

Fahrzeugschadensprüfung mit Nanonets

Das Nanonets-API ermöglicht es Ihnen, mit Leichtigkeit Deep-Learning-Modelle zu erstellen. Sie können Ihre Daten hochladen und ein benutzerdefiniertes Modell trainieren, die JSON-Antworten jeder Vorhersage abrufen, um sie in Ihre Systeme zu integrieren, und Apps für maschinelles Lernen erstellen, die auf modernsten Algorithmen und einer starken Infrastruktur basieren, und zwar über eine browserbasierte Benutzeroberfläche, ohne eine zu schreiben einzelne Codezeile.

Im Folgenden finden Sie Informationen dazu, wie Sie mithilfe der Nanonets-API ein grundlegendes Bildklassifizierungsmodell erstellen können, um festzustellen, ob Ihr Fahrzeug beschädigt ist oder nicht.

Schritt 1: Klonen Sie das Repo, installieren Sie Abhängigkeiten

git clone https://github.com/NanoNets/nanonets-car-damage-classification.git
cd nanonets-car-damage-classification
sudo pip install nanonets

Schritt 2: Holen Sie sich Ihren kostenlosen API-Schlüssel
Holen Sie sich Ihren kostenlosen API-Schlüssel von http://app.nanonets.com/#/keys

API-Key-Screenshot

Schritt 3: Legen Sie den API-Schlüssel als Umgebungsvariable fest

export NANONETS_API_KEY=YOUR_API_KEY_GOES_HERE

Schritt 4: Laden Sie Bilder für das Training hoch
Die Trainingsdaten finden Sie in images

python ./code/training.py

Hinweis: Dadurch wird eine MODEL_ID generiert, die Sie für den nächsten Schritt benötigen

Schritt 5: Modell-ID als Umgebungsvariable hinzufügen

export NANONETS_MODEL_ID=YOUR_MODEL_ID

Hinweis: Sie erhalten YOUR_MODEL_ID aus dem vorherigen Schritt

Schritt 6: Modellstatus abrufen
Das Modell benötigt ca. 2 Stunden zum Trainieren. Sie erhalten eine E-Mail, sobald das Modell trainiert ist. In der Zwischenzeit überprüfen Sie den Status des Modells

python ./code/model-state.py

Schritt 7: Vorhersage machen
Sobald das Modell trainiert ist. Mit dem Modell können Sie Vorhersagen treffen

python ./code/prediction.py PATH_TO_YOUR_IMAGE.jpg

Beispielnutzung:

python ./code/prediction.py ./images/damaged-40.jpg

Quelle: https://nanonets.com/blog/damage-inspection-machine-learning/

spot_img

VC-Café

VC-Café

Neueste Intelligenz

spot_img