Zephyrnet-logo

AGI blijft een verre droom ondanks de LLM-boom

Datum:

Kenmerk Een andere dag, een andere kop. Vorige week, een jaar oude startup trok $ 1.3 miljard aan investeerders inclusief Microsoft en Nvidia, waardeert Inflection AI op $ 4 miljard.

Bizarre waarderingen zoals deze wedijveren met waarschuwingen voor existentiële risico's, massaal banenverlies en killer drone doodsbedreigingen in de mediahype rond AI. Maar onder de krantenkoppen borrelt een debat over wie de baas wordt over het intellectuele landschap, waarbij 60 jaar wetenschappelijk onderzoek aantoonbaar onder het tapijt is geveegd. Op het spel staat wanneer het mensen zal evenaren met iets dat kunstmatige algemene intelligentie (AGI) wordt genoemd.

Betreed Yale School of Management, professor economie Jason Abaluck, die in mei nam naar Twitter om te verkondigen: "Als u het er niet mee eens bent dat AGI binnenkort komt, moet u uitleggen waarom uw mening beter geïnformeerd is dan deskundige AI-onderzoekers."

Het concept van AGI, ook wel sterke AI genoemd, bestaat al sinds 1980 als een middel om onderscheid te maken tussen een systeem dat resultaten kan produceren en een systeem dat dit kan doen door na te denken.

De recente piek in belangstelling voor het onderwerp komt voort uit OpenAI's GPT-4, een groot taalmodel dat vertrouwt op het kraken van enorme hoeveelheden tekst, waarbij associaties daartussen worden omgezet in vectoren, die kunnen worden opgelost in levensvatbare uitvoer in vele vormen, waaronder poëzie en computer code.

Na een reeks indrukwekkende resultaten – waaronder slagen voor een legaal Uniform Bar Exam – en gedurfde beweringen over de economische voordelen ervan – een stijging van £ 31 miljard ($ 39.3 miljard) in productiviteit in het VK, volgens KPMG – voorstanders worden brutaler.

OpenAI-topman Sam Altman vorige maand verklaard aan een publiek in India: “Ik ben opgegroeid met de impliciete gedachte dat intelligentie iets heel speciaals en een beetje magisch was. En ik denk nu dat het een soort fundamentele eigenschap van materie is...'

Microsoft, dat in januari 10 miljard dollar in OpenAI stopte, heeft zijn eigen experimenten met GPT-4 uitgevoerd. Een team onder leiding van Sebastien Bubeck, senior hoofdonderzoeksmanager bij de machine learning-stichtingen van de softwaregigant, gesloten [PDF] zijn "vaardigheden tonen duidelijk aan dat GPT-4 complexe concepten kan manipuleren, wat een kernaspect van redeneren is."

Maar wetenschappers denken al veel langer na over nadenken dan Altman en Bubeck. In 1960 richtten de Amerikaanse psychologen George Miller en Jerome Bruner het Harvard Center for Cognitive Studies op, een even goed uitgangspunt voor de geboorte van de discipline, hoewel bepaalde onderdelen teruggaan tot de jaren veertig. Degenen die deze wetenschappelijke erfenis hebben geërfd, zijn kritisch over de grootse beweringen van economen en computerwetenschappers over grote taalmodellen en generatieve AI.

Dr. Andrea Martin, Max Planck Research-groepsleider voor taal en berekening in neurale systemen, zei dat AGI een "rode haring" was.

“Mijn probleem is met het idee van algemene intelligentie op zich. Het is vooral voorspellend: de ene test voorspelt grotendeels hoe je scoort op een andere test. Dit gedrag of deze maatregelen kunnen in verband worden gebracht met enkele essentialistische eigenschappen [maar] daar hebben we heel weinig bewijs voor, 'vertelde ze Het register.

Martin is ook afwijzend tegenover het gebruik van de Turing-test - voorgesteld door Alan Turing, die een grondlegger speelde in de informatica, AI en cognitieve wetenschap - als een barrière voor AI om menselijk denken of intelligentie aan te tonen.

De test is bedoeld om te beoordelen of een machine mensen voor de gek kan houden door te denken dat het een mens is door middel van een vraag-en-antwoordsessie in natuurlijke taal. Als een menselijke beoordelaar de ongeziene machine niet op betrouwbare wijze kan onderscheiden van een ongeziene mens, via een tekstinterface, dan is de machine geslaagd.

Zowel ChatGPT als de AI van Google hebben de test doorstaan, maar om dit te gebruiken als bewijs van denkende computers is "gewoon een verschrikkelijke misinterpretatie van Turing", zei Martin.

"Zijn bedoelingen daar waren altijd een technisch of computerwetenschappelijk concept in plaats van een concept in de cognitieve wetenschap of psychologie."

Gary Marcus, emeritus hoogleraar psychologie en neurale wetenschappen aan de New York University, heeft dat had ook kritiek op de test als een middel om machine-intelligentie of cognitie te beoordelen.

Een ander probleem met de LLM-benadering is dat het alleen aspecten van taal vastlegt die statistisch worden aangestuurd, in plaats van te proberen de structuur van taal te begrijpen, of het vermogen ervan om kennis vast te leggen. “Dat is in wezen een technisch doel. En ik wil niet zeggen dat dit niet thuishoort in de wetenschap, maar ik denk gewoon dat het per definitie een ander doel is,' zei Martin.

Beweren dat LLM's intelligent zijn of kunnen redeneren, stuit ook op de uitdaging van transparantie in de methoden die voor ontwikkeling worden gebruikt. Ondanks zijn naam is OpenAI niet open geweest over hoe het trainingsgegevens of menselijke feedback heeft gebruikt om sommige van zijn modellen te ontwikkelen.

“De modellen krijgen veel feedback over wat de parametergewichten zijn voor bevredigende antwoorden die als goed worden gemarkeerd. In de jaren '90 en de jaren 'XNUMX zou dat niet zijn toegestaan ​​op cognitieve wetenschappelijke conferenties,' zei Martin.

Met het argument dat mensachtige prestaties in LLM's niet voldoende zijn om vast te stellen dat ze denken als mensen, zei Martin: "Het idee dat correlatie voldoende is, dat het je een soort betekenisvolle causale structuur geeft, is niet waar."

Desalniettemin kunnen grote taalmodellen waardevol zijn, zelfs als hun waarde wordt overschat door hun voorstanders, zei ze.

"Het nadeel is dat ze veel belangrijke bevindingen kunnen verdoezelen... in de filosofie van de cognitieve wetenschap kunnen we dat niet opgeven en kunnen we er niet onderuit."

Niet iedereen in de cognitieve wetenschap is het daarmee eens. Tali Sharot, hoogleraar cognitieve neurowetenschappen aan University College London, heeft een ander perspectief. "Het taalgebruik is natuurlijk erg indrukwekkend: het bedenken van argumenten en de vaardigheden zoals coderen", zei ze.

“Er is een soort misverstand tussen intelligentie en mens zijn. Intelligentie is het vermogen om goed te leren, kennis en vaardigheden op te doen.

“Deze taalmodellen zijn dus zeker in staat om te leren en kennis op te doen en vaardigheden op te doen. Als coderen bijvoorbeeld een vaardigheid is, dan is het in staat om vaardigheden te verwerven – dat betekent op geen enkele manier dat het menselijk is.”

Een belangrijk verschil is dat AI's geen keuzevrijheid hebben en LLM's niet op dezelfde manier over de wereld denken als mensen. “Ze reflecteren terug – misschien doen wij hetzelfde, maar ik denk niet dat dat waar is. Zoals ik het zie, denken ze helemaal niet na, 'zei Sharot.

Totale terugroepactie

Caswell Barry, professor aan de afdeling Cel- en Ontwikkelingsbiologie van de UCL, werkt aan het blootleggen van de neurale basis van het geheugen. Hij zegt dat OpenAI een grote gok heeft gewaagd op een benadering van AI waarvan velen in het veld niet dachten dat die vruchtbaar zou zijn.

Hoewel woordinbedding en taalmodellen in het veld goed werden begrepen, meende OpenAI dat door meer gegevens te verzamelen en "in wezen alles op te zuigen wat de mensheid ooit heeft geschreven dat je op internet kunt vinden, er iets interessants zou kunnen gebeuren", zei hij.

“Achteraf zegt iedereen dat het een beetje logisch is, maar wist eigenlijk dat het een enorme gok was, en het heeft veel van de grote spelers in de wereld van machine learning, zoals DeepMind, volledig omzeild. Ze volgden die onderzoeksrichting niet; de mening was dat we naar inspiratie uit de hersenen moesten kijken en dat was de manier waarop we bij AGI zouden komen, 'zei Barry, wiens werk gedeeltelijk wordt gefinancierd door de liefdadigheidsinstelling voor gezondheidsonderzoek Wellcome, DeepMind en Nvidia.

Hoewel OpenAI de industrie en de academische wereld misschien heeft verrast met het succes van zijn aanpak, zou het vroeg of laat de weg op kunnen raken zonder noodzakelijkerwijs dichter bij AGI te komen, betoogde hij.

“OpenAI zoog letterlijk een groot deel van de goed toegankelijke digitale teksten op internet naar binnen, je kunt niet zomaar 10 keer meer krijgen, want je moet het ergens vandaan halen. Er zijn manieren om te verfijnen en slimmer te worden over hoe je het gebruikt, maar in wezen mist het nog steeds enkele mogelijkheden. Er zijn geen solide aanwijzingen dat het abstracte concepten kan genereren en manipuleren.”

Ondertussen, als het doel is om naar AGI te gaan, wordt dat concept nog steeds slecht begrepen en moeilijk vast te pinnen, met een beladen geschiedenis gekleurd door eugenetica en culturele vooroordelen, zei hij.

In de papier [PDF], na te hebben beweerd dat het een "vroege (maar nog steeds onvolledige) versie van een kunstmatige algemene intelligentie (AGI)-systeem" had gemaakt, praat Microsoft meer over de definitie van AGI.

"We gebruiken AGI om te verwijzen naar systemen die blijk geven van brede capaciteiten van intelligentie, waaronder redeneren, plannen en het vermogen om te leren van ervaring, en met deze capaciteiten op of boven menselijk niveau", zegt de krant.

Abductief redeneren

Experts op het gebied van cognitiewetenschap en neurowetenschappen zijn niet de enigen die smeken om van mening te verschillen. Grady Booch, een software-engineer die bekend staat om het ontwikkelen van de Unified Modeling Language, heeft gesteund twijfelaars door op Twitter te verklaren dat AGI niet zal gebeuren tijdens ons leven, of kort daarna, vanwege een gebrek aan een “juiste architectuur voor de semantiek van causaliteit, abductief redeneren, gezond verstand redeneren, theory of mind en of self, of subjectief ervaring."

De paddenstoelenindustrie rond LLM's heeft op dit moment misschien grotere vissen om te bakken. OpenAI is geraakt met een class-action-pak voor het schrapen van auteursrechtelijk beschermde gegevens, terwijl er uitdagingen zijn voor de ethiek van de trainingsgegevens, met een studie blijkt ze herbergen tal van raciale en maatschappelijke vooroordelen.

Als LLM's geldige antwoorden kunnen geven op vragen en code die werkt, is dat misschien om de gedurfde beweringen van hun makers te rechtvaardigen - gewoon als een oefening in engineering.

Maar voor dr. Martin is de aanpak onvoldoende en mist hij de mogelijkheid om te leren van andere gebieden.

“Dat hangt ervan af of je geïnteresseerd bent in wetenschap of niet. Wetenschap gaat over het bedenken van verklaringen, ontologieën en beschrijvingen van fenomenen in de wereld die vervolgens een mechanistisch of causaal structuuraspect hebben. Engineering gaat daar in wezen niet over. Maar om [natuurkundige] Max Planck te citeren: inzicht moet komen vóór toepassing. Begrijpen hoe iets op zich werkt, kan ons leiden tot betere toepassingen.”

In een haast om toepassingen te vinden voor veel gehypte LLM-technologieën, is het misschien het beste om tientallen jaren cognitieve wetenschap niet te negeren. ®

spot_img

Laatste intelligentie

spot_img