Zephyrnet-logo

AI's breken om ze beter te maken

Datum:

30 juni 2022 (Nanowerk Nieuws) Vandaag kunstmatige intelligentie systemen die worden gebruikt voor beeldherkenning zijn ongelooflijk krachtig en hebben een enorm potentieel voor commerciële toepassingen. Niettemin hebben de huidige kunstmatige neurale netwerken – de deep learning-algoritmen die beeldherkenning mogelijk maken – één grote tekortkoming: ze worden gemakkelijk verbroken door beelden die zelfs maar een klein beetje zijn aangepast. Dit gebrek aan ‘robuustheid’ is een belangrijke hindernis voor onderzoekers die betere AI’s willen bouwen. Waarom dit fenomeen precies optreedt, en de onderliggende mechanismen erachter, blijven echter grotendeels onbekend. Met het doel deze tekortkomingen ooit te overwinnen, hebben onderzoekers van de Faculteit Informatiewetenschappen en Elektrotechniek van de Kyushu Universiteit gepubliceerd in PLoS ONE (“Overdraagbaarheid van functies voor neurale netwerken die verband houden met vijandige aanvallen en verdedigingen”) een methode genaamd 'Raw Zero-Shot' die beoordeelt hoe neurale netwerken omgaan met elementen die ze niet kennen. De resultaten kunnen onderzoekers helpen gemeenschappelijke kenmerken te identificeren die AI ‘niet-robuust’ maken en methoden ontwikkelen om hun problemen op te lossen. AI's voor beeldherkenning zijn krachtig maar inflexibel en kunnen geen afbeeldingen herkennen tenzij ze zijn getraind op specifieke gegevens. In Raw Zero-Shot Learning geven onderzoekers deze beeldherkennings-AI's een verscheidenheid aan gegevens en observeren ze de patronen in hun antwoorden. Het onderzoeksteam hoopt dat deze methodologie de robuustheid van toekomstige AI kan helpen verbeteren. (Geïllustreerd door Hiroko Uchida) (klik op afbeelding om te vergroten) “Er is een reeks toepassingen in de echte wereld voor neurale netwerken voor beeldherkenning, waaronder zelfrijdende auto’s en diagnostische hulpmiddelen in de gezondheidszorg”, legt Danilo Vasconcellos Vargas uit, die het onderzoek leidde. . “Hoe goed de AI ook getraind is, hij kan falen bij zelfs maar een kleine verandering in het beeld.” In de praktijk worden AI's voor beeldherkenning 'getraind' op veel voorbeeldafbeeldingen voordat hen wordt gevraagd er een te identificeren. Als je bijvoorbeeld wilt dat een AI eenden identificeert, train je hem eerst op veel foto's van eenden. Niettemin kunnen zelfs de best opgeleide AI’s worden misleid. Onderzoekers hebben zelfs ontdekt dat een afbeelding zo kan worden gemanipuleerd dat – ook al lijkt het voor het menselijk oog onveranderd – een AI het niet nauwkeurig kan identificeren. Zelfs een verandering van één pixel in het beeld kan verwarring veroorzaken. Om beter te begrijpen waarom dit gebeurt, begon het team verschillende beeldherkennings-AI's te onderzoeken in de hoop patronen te identificeren in hoe ze zich gedragen wanneer ze worden geconfronteerd met monsters waarmee ze niet waren getraind, dat wil zeggen elementen die onbekend zijn bij de AI. “Als je een afbeelding aan een AI geeft, zal deze proberen je te vertellen wat het is, ongeacht of dat antwoord juist is of niet. Daarom hebben we de twaalf meest voorkomende AI's van vandaag genomen en een nieuwe methode toegepast, genaamd 'Raw Zero-Shot Learning'”, vervolgt Vargas. “Eigenlijk hebben we de AI’s een reeks afbeeldingen gegeven zonder hints of training. Onze hypothese was dat er correlaties zouden zijn in de manier waarop ze antwoordden. Ze zouden ongelijk hebben, maar op dezelfde manier verkeerd.” Wat ze vonden was precies dat. In alle gevallen zou de AI voor beeldherkenning een antwoord opleveren, en de antwoorden – ook al waren ze fout – zouden consistent zijn, dat wil zeggen dat ze zouden samenklonteren. De dichtheid van elke cluster zou aangeven hoe de AI de onbekende beelden verwerkte op basis van zijn fundamentele kennis van verschillende beelden. “Als we begrijpen wat de AI deed en wat hij leerde bij het verwerken van onbekende beelden, kunnen we datzelfde inzicht gebruiken om te analyseren waarom AI’s kapot gaan als ze worden geconfronteerd met beelden met veranderingen van één pixel of kleine aanpassingen”, zegt Vargas. “Het gebruik van de kennis die we hebben opgedaan bij het proberen een probleem op te lossen door deze toe te passen op een ander, maar gerelateerd probleem, staat bekend als overdraagbaarheid.” Het team constateerde dat Capsule Networks, ook bekend als CapsNet, de dichtste clusters produceerde, waardoor het de beste overdraagbaarheid tussen neurale netwerken bood. Ze denken dat dit komt door het dynamische karakter van CapsNet. “Hoewel de huidige AI’s nauwkeurig zijn, missen ze de robuustheid voor verder nut. We moeten begrijpen wat het probleem is en waarom het gebeurt. In dit werk hebben we een mogelijke strategie laten zien om deze kwesties te bestuderen”, besluit Vargas. “In plaats van ons uitsluitend op nauwkeurigheid te concentreren, moeten we manieren onderzoeken om de robuustheid en flexibiliteit te verbeteren.
spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?