Zephyrnet-logo

Hoe het spiegelen van de architectuur van het menselijk brein AI-leren versnelt

Datum:

Terwijl AI dat kan wat uitvoeren indrukwekkende prestaties wanneer getraind op miljoenen datapunten, kan het menselijk brein vaak leren van een klein aantal voorbeelden. Uit nieuw onderzoek blijkt dat ontlening architectonische principes uit de hersenen kan AI helpen dichter bij ons beeld te komen dapperheid.

De heersende wijsheid in deep learning-onderzoek is dat hoe meer gegevens je naar een algoritme gooit, hoe beter het zal leren. En in het tijdperk van Big Data is dat gemakkelijker dan ooit, vooral voor de grote datacentrische technologiebedrijven die veel van het allernieuwste AI-onderzoek uitvoeren.

Vandaag's grootste diepgaand leren modellen, zoals OpenAI's GPT-3 en Google's BERT, zijn getraind op miljarden datapunten, en nog bescheidener modellen vereisen grote hoeveelheden gegevens. Het verzamelen van deze datasets en het investeren van de rekenkracht om ze te doorzoeken is een groot knelpunt, vooral voor academische laboratoria met minder middelen.

Het betekent ook vandaag AI is veel minder flexibel dan natuurlijke intelligentie. Hoewel een mens slechts een handvol voorbeelden van een dier, een stuk gereedschap of een andere categorie objecten hoeft te zien om het er weer uit te kunnen pikken, moeten de meeste AI be getraind op veel voorbeelden van een object om het te kunnen herkennen.

Er is een actieve subdiscipline van AI-onderzoek gericht op wat bekend staat als "one-shot" of "few-shot" leren, waarbij algoritmen zijn ontworpen om te kunnen leren van zeer weinig voorbeelden. Maar deze benaderingen zijn nog grotendeels experimenteel, en dat kunnen ze niet kom dicht bij matchING de snelste leerling die we kennen: het menselijk brein.

This bracht een paar neurowetenschappers ertoe om te kijken of ze een AI konden ontwerpen die kon leren van enkele datapunten door principes te lenen van hoe we denken dat de hersenen dit probleem oplossen. In een papier in Grenzen in computationele neurowetenschappen, ze legde dat uit de aanpak sterk verbetert AI's vermogen om nieuwe visuele concepten te leren van enkele voorbeelden.

"Ons model biedt een biologisch plausibele manier voor kunstmatige neurale netwerken om nieuwe visuele concepten te leren van een klein aantal voorbeelden," Maximilian Riesenhuber, oppompen van Georgetown University Medical Center, said in een persbericht. "We kunnen computers veel beter laten leren van enkele voorbeelden door gebruik te maken van eerder geleerd werk op een manier waarvan we denken dat het een afspiegeling is van wat de hersenen aan het doen zijn."

Tientallen jaren van neurowetenschappelijk onderzoek suggereren dat het vermogen van de hersenen om zo snel te leren afhankelijk op zijn vermogen om voorkennis te gebruiken om nieuwe concepten te begrijpen op basis van weinig gegevens. Als het gaat om visueel begrip, kan dit berusten op overeenkomsten in vorm, structuur of kleur, maar de hersenen kunnen ook gebruik maken van abstracte visuele concepten waarvan wordt aangenomen dat ze zijn gecodeerd in een hersengebied dat de anterieure temporale kwab (ATL) wordt genoemd.

"Het is alsof je zegt dat een vogelbekdier een beetje lijkt op een eend, een bever en een zeeotter.id papier co-auteur Joshua Rule, van de University of California Berkeley.

De onderzoekers besloten om te proberen deze mogelijkheid opnieuw te creëren door vergelijkbare concepten op hoog niveau te gebruiken die door an AI om het te helpen snel eerder ongeziene categorieën afbeeldingen te leren.

Algoritmen voor diep leren werken door lagen van kunstmatige neuronen te krijgen om steeds complexere kenmerken van een afbeelding of ander gegevenstype te leren, die vervolgens worden gebruikt om nieuwe gegevens te categoriseren. Vroege lagen zullen bijvoorbeeld zoeken naar eenvoudige kenmerken zoals randen, terwijl latere naar complexere zoals neuzen, gezichten of zelfs meer kenmerken op hoog niveau kunnen zoeken.

Eerst trainden ze de AI op 2.5 miljoen afbeeldingen in 2,000 verschillende categorieën uit de populaire ImageNet-dataset. Vervolgens haalden ze functies uit verschillende lagen van het netwerk, inclusief de allerlaatste laag vóór de uitvoerlaag. Thoi verwijs naar deze als "conceptuele kenmerken" omdat dey zijn de functies op het hoogste niveau die zijn geleerd en die het meest lijken op de abstracte concepten die in de ATL kunnen worden gecodeerd.

Vervolgens gebruikten ze deze verschillende sets functies om de AI te trainen om nieuwe concepten te leren op basis van 2, 4, 8, 16, 32, 64 en 128 voorbeelden. Ze ontdekten dat de AI die de conceptuele functies gebruikte, veel betere prestaties opleverde dan degenen die waren getraind met functies op een lager niveau op een lager aantal voorbeelden, maar de kloof werd kleiner naarmate ze meer trainingsvoorbeelden kregen.

Terwijl de onderzoekers de uitdaging toegeven, stellen ze hun AI in waZe zijn relatief eenvoudig en beslaan slechts één aspect van het complexe proces van visueel redenerenid dat het gebruik van een biologisch plausibele benadering voor het oplossen van het few-shot-probleem veelbelovende nieuwe wegen opent in zowel de neurowetenschappen als AI.

"Onze bevindingen suggereren niet alleen technieken die computers kunnen helpen sneller en efficiënter te leren, ze kunnen ook leiden tot verbeterde neurowetenschappelijke experimenten om te begrijpen hoe mensen zo snel leren, wat nog niet goed wordt begrepen, "Riesenhuber said.

Zoals de onderzoekers opmerken, de het menselijke visuele systeem is nog steeds de gouden standaard als het gaat om het begrijpen van de wereld om ons heen. Lenen van de ontwerpprincipes kan een winstgevende richting blijken te zijn voor toekomstig onderzoek.

Krediet van het beeld: Gerd Altmann oppompen van Pixabay

Bron: https://singularityhub.com/2021/01/18/how-mirroring-the-architecture-of-the-human-brain-is-speeding-up-ai-learning/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?