Zephyrnet-logo

I kampen mellom Microsoft og Google er LLM våpenet for dødelig til å bruke

Dato:

Mening "Oppdagelser som folket i USA ikke er klar over kan påvirke velferden til denne nasjonen i nær fremtid."

Det er ikke åpningslinjen til åpent brev fra hundrevis av bransjeaktører forrige uke advarsel om "risikoen for menneskeheten" ved ukontrollert LLM AI/ML, men at Szilard-begjæring 80 år går, da nesten hundre forskere ved Manhattan-prosjektet tryglet president Truman om ikke å bombe Japan.

Det kan virke reneste hype å sammenligne stor språkmodell AI med atomteknologi – det er ikke som om ChatGPT kan ødelegge alt liv på en håndfull minutter. Likevel har den tidlige historien til kjernefysisk teknologi mange uhyggelige likheter med hvordan AI/ML utspiller seg, og parallellene er for sterke til å ignorere. Det er mange dårlige utfall enn planetarisk armageddon.

La oss rekapitulere de første årene av den kalde krigen. To rivaliserende ideologier, USA og deres allierte, og Sovjetunionen med deres, som begge så den andre som en eksistensiell trussel, hastet utviklingen og utplasseringen av teknologi med et fantastisk potensial på godt og vondt i bruk uten å trekke pusten. Det eneste som betyr noe er å ikke la den andre få overtaket. Desinformasjon, både bevisst og uvitende, fyller media. Hemmelighold overgår målt tilsyn, fart overgår sikkerhet, og vi lever med konsekvenser den dag i dag som ikke kan omgjøres.

Alle disse tingene har sitt ekko i vår tid. Microsoft og Google skynder seg ut rivaliserende LLM AI/ML-systemer som samhandler direkte med publikum, uten regulatorisk rammeverk innvendig eller utvendig – faktisk har Microsoft nettopp avviklet sitt AI Ethics and Society-team. Systemene er unektelig kraftige og unektelig feil, og det er ingen uavhengig regulering eller inspeksjon av enten eller beslutningene bak utplasseringen. Og alle som prøver å forstå medias storøyde rapportering fra den siste måneden eller så, vil ha sett mange påstander rapportert som ikke kan verifiseres.

Det blir verre. Ved ettertanke er det kanskje ikke så fantasifull at LLM-er kan redusere verden til radioaktiv aske. OpenAIs rapport om GPT-4s testing er påkrevd lesing, og lister opp 12 fareklasser testerne så etter – en av dem er å hjelpe spredere av kjemiske, biologiske eller kjernefysiske våpen. Kan du be GPT-4 om å hjelpe deg med å bygge en kjernefysisk enhet? Du kan, og en lettelse nevnt, at utdataene inneholder faktafeil som kan villede, ikke er rapportens eneste eksempel på utilsiktet mørk humor.

Denne rapporten beskriver ikke en sikker teknologi som kan distribueres til mange millioner brukere. Den beskriver atferd som går utover upålitelig eller villedende, men som er aktivt villedende – ber en TaskRabbit gig-arbeider om å bestemme en visuell Captcha for den med den begrunnelse at det er en synshemmet person. Den beskriver kvalitative og kvantitative testregimer som umulig kan sjekke for alt annet enn en delmengde av bruk i det virkelige liv, men som likevel avslører konsistente og angående klasser av dårlig oppførsel. Å teste AI-er er som det gamle ordtaket om at ingenting kan gjøres idiotsikkert, fordi idioter er så smarte.

Hvis dette bare var en teknologi som ikke klarte å oppfylle løftene, et prangende, men buggy produkt, ville tid og penger vært bortkastet, men det er ikke noe nytt innen IT. Som med den tidlige atomalderen, kunne imidlertid selv eliminering av teknologien over natten ikke tilbakekalle skaden den allerede har gjort. Vitenskapelige instrumenter er laget av metall gjenvunnet fra skipsvrak fra andre verdenskrig, fordi metall laget etter at atmosfærisk kjernefysisk testing startet er forurenset med radioisotoper nå i atmosfæren. ChatGPT og dets slektninger sår allerede det globale språklige korpuset med vorter og alt innhold, for ikke å si noe om domenespesifikke kunnskapssett. Å mate dette tilbake til språkmodelltrening vil ha ukjente effekter. Bør det være en bekymring? Ja.

Det er en rekke spesifikke tilfeller av dårlige ting som støtter ideen om å slå på bremsen. Nottingham Universitys utmerkede Computerphile YouTube-kanal har vært oppmerksom, med akademikere som rapporterer om både det bisarre – glitch tokens – og det dypt bekymringsfulle, som f.eks Bing Chat blir en narsissistisk mobber når det ble fortalt at det er feil årstall.

Vi vet hva kombinasjonen av paranoia, ny teknologi og ukontrollert beslutningstaking kan gi – noen veldig dårlige ideer. I kjernefysisk krigføring hadde Storbritannia Violet Club, en massivt bonkers flybombe som var bevæpnet i luften ved å fjerne en stopper og la kulelager renne ut. Den kunne ikke avvæpnes, og bombeflyet kunne heller ikke lande uten å slippe den etterpå. USA hadde Davy Crockett, atombazookaen som sannsynligvis inkluderte soldaten som avfyrte den i sprengningsområdet. Vi kjenner ikke AI/ML-ekvivalentene, men det vil være noen.

Det er ikke engang som om Microsoft og Google kan stole på å gjøre det rette. Denne uken er Microsoft rapportert å være på randen av en avtale med EU om å stoppe juks i skyen, Mens Googles påstander om gjennombrudd innen AI-vitenskap er under etterforskning. Vi kan ikke si at vi ikke ble advart.

Og det er ikke engang som om LLM ikke har en stor og viktig rolle å spille i fremtiden, akkurat som passende kjernefysisk teknologi har en essensiell rolle i kampen mot klimaendringer. Men det er ikke noe umiddelbar desperat behov for å presse LLM-er der ute uten regulering, åpenhet, avtalte sikkerhetsrammer og et megatonn mer forsiktighet rundt omkring.

Lek med det på laboratoriet. Utvikle testsystemer parallelt. Det vil være like konkurransevilkår og ingen konkurransefortrinn vil gå tapt. Men teknologikongenes egoer og den dødelige frykten for å tape kan ikke være hoveddriverne for å utsette oss, vårt digitale samfunn og dataøkosystemet vårt for kraftige, feilaktige, farlige eksperimenter. Det LLM-er gjør kan ikke tas tilbake. Tenk på det mens du går fremover. ®

spot_img

Hjemprodukt

VC kafé

Siste etterretning

spot_img