Zephyrnet-logo

De AGI-horizon: hoe één grafiek onze AI-verwachtingen vormgeeft

Datum:

OpenAI's recente publicatie, “Let's Verify Step by Step,” (https://cdn.openai.com/improving-mathematical-reasoning-with-process-supervision/Lets_Verify_Step_by_Step.pdf) trok meteen mijn aandacht toen het op 31 mei werd uitgebracht, 2023. Centraal in dit artikel
De inhoud is een diagram op pagina zeven dat een tot nadenken stemmende veronderstelling suggereert – dat de mensheid de creatie van kunstmatige algemene intelligentie (AGI) dicht nadert.

Besteed bijzondere aandacht aan de ‘Process-Supervised RM’-curve, die voor de zorgvuldige waarnemer opvalt vanwege zijn voortdurende opwaartse stijging. In tegenstelling tot de verwachtingen dat dit uiteindelijk zou afvlakken, suggereert de curve dat door de rekenkracht te vergroten,
het percentage correct opgeloste wiskundige problemen kan blijven stijgen. Als er voldoende rekenkracht is, zou AI wiskundige uitdagingen op een ongekende schaal kunnen oplossen, en mogelijk zelfs een bijna perfecte nauwkeurigheid kunnen bereiken.

Laten we, voordat we dieper ingaan op de implicaties, eerst de reis volgen die ons naar dit kruispunt heeft gebracht en de betekenis ervan begrijpen.

De wortels van deze ontwikkeling zijn in 2021 gepubliceerd in een onderzoek met de titel 'Training Verifiers to Solve Math Word Problems'. Dit onderzoek evalueerde grote AI-taalmodellen, waaronder een enorm model van 175 miljard parameters, met behulp van een dataset voor wiskundige woordproblemen
bekend als GSM8K.

Een snackkraam voor carnaval verdiende $ 50 per dag met de verkoop van popcorn. Er werd drie keer zoveel suikerspin verkocht. Voor een activiteit van vijf dagen moet de stand $5 huur en $30 voor de kosten van de ingrediënten betalen. Hoeveel verdiende de stand gedurende 75 dagen na betaling van de
huur en de kosten van ingrediënten?

Voorbeeld vraag

Ondanks hun omvang vertoonden deze modellen aanvankelijk beperkt succes en losten ze slechts ongeveer 30% van de problemen correct op.

Om hun effectiviteit te vergroten, testten de onderzoekers een innovatieve techniek: ze ontwikkelden een 'verifier'-model specifiek om oplossingen te beoordelen die door het primaire model werden gegenereerd. Tijdens het testen heeft deze verificateur meerdere kandidaat-oplossingen geanalyseerd en geselecteerd
degene met de hoogste score. Deze strategie verbeterde de prestaties aanzienlijk, waardoor de AI resultaten kon behalen die bijna vergelijkbaar waren met die van een basismodel dat 30 keer groter was.

Niet alleen presteert een parameter van zes miljard beter dan een model van 175 miljard parameters, maar het blijkt dat het verificatormodel veel beter schaalt met meer gegevens dan op transformatoren gebaseerde taalmodellen.

Aanvankelijk werd de verificateur beloond voor het identificeren van een juist antwoord, zelfs als de redenering erachter gebrekkig was. Deze aanpak leidde af en toe tot nauwkeurige conclusies uit onjuiste methodologieën, een groot probleem. Onderzoekers draaiden zich om
van een resultaatgericht beloningsmodel naar een procesgestuurd beloningsmodel om dit probleem aan te pakken. Deze verschuiving betekende dat de verificateur zich nu concentreerde op de juistheid van het redeneerproces in plaats van alleen op het eindresultaat.

Zoals eerder vermeld, is dit geweldige resultaat gedocumenteerd in het opmerkelijke artikel 'Let's Verify Step by Step', maar het roept de vraag op waarom perfecte scores in de wiskunde zouden kunnen leiden tot kunstmatige algemene intelligentie.

Een nieuwe theorie van intelligentie

Voortbouwend op het onderzoek van Mountcastle stelt de nieuwste intelligentietheorie dat duizenden corticale kolommen in de hersenen modellen van complete objecten leren en construeren. Er wordt aangenomen dat deze kolommen de fundamentele eenheden van leren en verwerken zijn
in de hersenen, elk in staat een model te creëren van de wereld zoals hij die waarneemt. De werkelijke complexiteit en intelligentie van de hersenen komt echter voort uit de manier waarop deze individuele modellen worden gecombineerd en geïntegreerd.

Waarschijnlijk is het deze integratie die een genuanceerder en alomvattender begrip van de omgeving mogelijk maakt. Terwijl individuele corticale kolommen deels verschillende aspecten van een object of scène verwerken, werken ze vervolgens samen om een ​​uniforme perceptie te vormen.
het combineren van verschillende zintuiglijke input en ervaringen. Dit proces maakt niet alleen de herkenning van objecten mogelijk, maar ook het begrijpen van contexten, relaties en abstracte concepten.

Deze theorie strekt zich uit tot kunstmatige intelligentie, waarbij de integratie van meerdere modellen zou kunnen leiden tot meer geavanceerde, algemene vormen van AI die lijken op menselijke intelligentie. Door de strategie van de hersenen na te bootsen om talloze, uiteindelijk gespecialiseerde modellen, AI te combineren
systemen zouden potentieel een meer holistisch en genuanceerd begrip van de wereld kunnen ontwikkelen, een belangrijke stap in de richting van het bereiken van AGI.

De uitdaging ligt in het effectief repliceren van dit complexe samenspel van onafhankelijke maar onderling verbonden verwerkingseenheden. Net zoals de hersenen de input van talloze corticale kolommen naadloos integreren, zou een AGI-systeem diverse modellen moeten harmoniseren.
elk met zijn eigen gespecialiseerde kennis en perspectief, tot een coherente en samenhangende intelligentie.

Het vereist enige vooruitgang in de manier waarop individuele AI-modellen informatie leren en verwerken, maar, nog belangrijker, hoe ze die modellen integreren. Juist dit integratieproces vereist nauwkeurige wiskunde.

Gespecialiseerde cellen, namelijk raster- en plaatscellen, werken samen om een ​​complex netwerk te vormen voor ruimtelijk bewustzijn en navigatie, waardoor het positioneringssysteem van de hersenen wordt opgebouwd. Dit positioneringssysteem kan worden gezien als een virtueel coördinatensysteem over de werkelijkheid.
waar elke beweging of richtingsverandering wordt geregistreerd en gecodeerd in het model van elke corticale kolom.

Na enkele eeuwen lijkt de theorie van Immanuel Kant, zoals geïntroduceerd in zijn 'Critique of Pure Reason', nog steeds geldig te zijn. Hij stelde voor dat we ‘a priori’ kennis hebben over ruimte en tijd, wat suggereert dat er een aangeboren begrip van deze concepten bestaat
ervaring.

Deze modellen zijn geïntegreerd om één samenhangend model te vormen met behulp van positionele codering en gebruik van vectoroptelling, trigonometrische functies en differentiaal- en integraalrekening. Deze padintegratie is essentieel voor een uniforme en alomvattende vorm
van intelligentie.

Nauwkeurige wiskunde lijkt een cruciale basis te zijn voor de menselijke intelligentie, en we staan ​​mogelijk aan de vooravond van een doorbraak. Maar te midden van deze opwindende vooruitgang zit er een addertje onder het gras: het intensiveert de bestaande problemen dramatisch en werpt een schaduw van dilemma’s op.
over ons nieuwe pad.

Duurzame intelligentie: een heroverweging van de kosten van AI-vooruitgang

Met de aanpak om meerdere mogelijke antwoorden te genereren en een validator de juiste te laten kiezen, is er een substantiële verschuiving in de vraag naar rekenkracht van training, wat één keer gebeurt, naar gevolgtrekking, wat elke keer gebeurt als het systeem
is gebruikt. Telkens wanneer een dergelijk systeem wordt gebruikt, wordt er immers gevraagd om honderden of duizenden mogelijke oplossingen te genereren.

Zelfs als het taalmodel tot 30 keer kleiner is, gebruikt het nog steeds meer dan 33 keer de energie bij gevolgtrekking als het wordt gevraagd duizend mogelijke oplossingen te produceren (1000/30 = 33.3). Dat wil zeggen, zonder zelfs maar rekening te houden met de kosten van het validatormodel. Deze stijging van de rekenkracht
De vraag zou onvermijdelijk de toch al dringende zorgen over de computerkosten en de impact ervan op het milieu doen escaleren.

Het Bloom-model met slechts 176 miljard parameters verbruikte bijvoorbeeld het equivalent van de energie die nodig was om dertig huizen een jaar lang van stroom te voorzien, ondanks de nadruk op ethiek, transparantie en instemming. Het stootte 30 ton kooldioxide uit – een ecologische voetafdruk
vergelijkbaar met vijf keer met een auto de wereld rondrijden.

Bovendien zijn de financiële kosten van het gebruik van dergelijke geavanceerde AI-modellen enorm, waardoor slechts een beperkt aantal gebruiksscenario’s economisch haalbaar is. Deze economische barrière zou ertoe kunnen leiden dat een paar goed gefinancierde bedrijven deze technologieën mogelijk monopoliseren
transparantie en toegankelijkheid in gevaar brengen. De concentratie van de controle in de handen van enkelen zou bestaande problemen, zoals vooringenomenheid, verergeren, omdat deze entiteiten hun commerciële belangen voorrang zouden kunnen geven boven bredere ethische overwegingen. Wij zouden geconfronteerd worden
het risico van een technologielandschap waarin vooringenomenheid wordt bestendigd en mogelijk wordt versterkt.

De exclusiviteit van toegang tot geavanceerde AI zou de bestaande ongelijkheid in de technologiewereld verder kunnen verdiepen, waarbij kleinere entiteiten en onderzoekers steeds meer gemarginaliseerd worden.

Een dergelijke dystopische toekomst leidt tot een cruciale maatschappelijke vraag: kunnen we ons tegen die prijs zelfs AGI veroorloven?

Toereikendheid van AI: taakafstemming voor precisie en efficiëntie

Inspanningen om de toekomstige existentiële risico’s van AI aan te pakken zijn inderdaad belangrijk, maar kunnen soms de onmiddellijke, tastbare impact die AI-technologieën al hebben, overschaduwen. Deze gevolgen zullen waarschijnlijk nog groter worden naarmate we dichter bij de ontwikkeling van de ziekte komen
Kunstmatige algemene intelligentie.

De reis naar AGI gaat niet alleen over technologische vooruitgang, maar ook over het creëren van instrumenten om deze gevolgen te verzachten. Met één zo'n tool, de Diffusion Bias Explorer, kunnen gebruikers vooral de vooroordelen onderzoeken die inherent zijn aan modellen voor het genereren van afbeeldingen
in het kader van diverse beroepen.

Terwijl we blijven werken aan een hongerige, dwaze, mensgerichte samenleving, is het belangrijk dat we bijdragen blijven leveren die AI democratiseren door deze adequaat te maken. Dit bereiken wij door tools te ontwikkelen die het maken van taakspecifieke taken vereenvoudigen
AI-modellen. Deze tools maken gebruik van vooraf getrainde grote taalmodellen om nauwkeurigere, energie-efficiënte en kosteneffectievere taalmodellen te genereren die zijn afgestemd op specifieke taken.

https://cdn.openai.com/improving-mathematical-reasoning-with-process-supervision/Lets_Verify_Step_by_Step.pdf

spot_img

Laatste intelligentie

spot_img