Logotip Zephyrnet

Koristni pomočniki, romantični partnerji ali prevaranti? Prvi del » Blog CCC

Datum:

CCC je podprl tri znanstvene seje na letošnji letni konferenci AAAS in v primeru, da se niste mogli udeležiti osebno, bomo povzeli vsako sejo. Ta teden bomo povzeli poudarke predstavitev panelistov na seji, “Veliki jezikovni modeli: koristni pomočniki, romantični partnerji ali prevaranti?” Ta panel, ki ga moderira Maria Gini, član sveta CCC ter profesor računalništva in tehnike na Univerzi v Minnesoti dr. Ece Kamar, generalni direktor AI Frontiers pri Microsoft Research, Dr. Hal Daumé III, profesor računalništva na Univerzi v Marylandu, in Dr. Jonathan May, profesor računalništva na Inštitutu za informacijske znanosti Univerze Južne Kalifornije.

Veliki jezikovni modeli so danes v ospredju pogovorov v družbi, žirija pa je izključena, če so v skladu z navdušenjem, ki jih obkroža. Panelisti te seje AAAS so obravnavali možnosti, izzive in potencial LLM.

Prvi panelist je bil dr. Ece Kamar (Microsoft Research). Trenutni status umetne inteligence je opisala kot »fazni prehod«. Zagotovila je edinstveno perspektivo kot nekdo, ki je videl spremembe v AI v industriji in eksponentno rast modelov globokega učenja, za katero je zelo malo ljudi pričakovalo, da se bo nadaljevala v letu 2024.

Rast je bila posledica povečanja količine podatkov, na katerih se usposabljajo LLM-ji, in večje arhitekture, imenovane transformatorji. Zanimiv vpogled, ki ga je dr. Kamar delil na grafu, je, da se modeli spreminjajo tako hitro, ker so bili na začetku samo usposobljeni za določeno nalogo; nalogo, ki bi jo lahko zanesljivo opravili. ChatGPT je pokazal, da bi lahko modeli začeli opravljati naloge s podobno zmogljivostjo kot model, ki je bil usposobljen za izrecno dokončanje istih nalog, če merite dovolj veliko, vključno s številom parametrov, ki jih model upošteva.

To je definicija faznega prehoda LLM: modelov ni več treba posebej usposabljati za določeno nalogo, lahko pa so splošno usposobljeni in nato izvajajo številne naloge. In ni znakov, da bi se rast teh zmogljivosti upočasnila.

Dr. Kamar je imela zgodnji dostop do GPT-4 in med njenim obsežnim preizkušanjem je bila navdušena nad njegovimi pomembnimi izboljšavami, ki so prišle z obsegom in podatki, ter dejstvom, da je lahko sinhrono opravljal različne naloge.

Kakšna je prihodnost teh LLM? Dr. Kamar predvideva, da bodo LLM presegli človeški jezik in se naučili strojnega jezika ter bili sposobni prevajati med obema jezikoma. To bi izboljšalo zmožnosti modalitet pri vnosu in izhodu, kar bi lahko pripeljalo do tega, da bi modeli lahko ustvarili ne le jezik, ampak tudi dejanja in napovedi v vedenju.

Nato je dr. Kamar razložil pomembne fazne prehode, ki se pojavljajo v računalništvu. Sistemi se danes razvijajo zelo različno in ta razvoj bo zahteval ustvarjanje nove računalniške paradigme, ki smo jo v tem trenutku le opraskali. Način naše interakcije z računalniki bo v prihodnjih letih videti precej drugačen, kar bo zahtevalo ponoven razmislek o interakciji človek-računalnik (HCI).

Druga sprememba je način, kako bodo ljudje delali naprej. Microsoft je izvedel študije, da se lahko produktivnost delavcev podvoji v smislu napisane vrstice kode, če mu pomaga umetna inteligenca. To je neverjeten podvig, vendar je način delovanja te tehnologije in od kod izvira njena inteligenca večinoma neznan, zato je na tem področju veliko raziskovalnih vprašanj.

Veliko je tudi vprašanj o morebitni zlorabi LLM, kot je ta. Obstajajo pomisleki glede pravičnosti, različnih demografskih tveganj in drugih še bolj drastičnih posledic. Medtem ko obstaja velika možnost za znanstveno odkritje, obstaja tudi velika možnost za škodo; na primer prepričevanje staršev, naj ne cepijo svojih otrok, otroka, da naredi nekaj slabega, ali prepričevanje nekoga, da je svet ploščat. Veliko varnostnih prizadevanj je bilo vloženih v razvoj LLM in odprta koda je lahko zelo koristna za napredek tudi na tem področju.  

Dr. Kamar je nato postavil vprašanja znanstveni skupnosti:

  • Kako se bo znanost spremenila z motnjami AI?
  • Ali delamo korake za spremembo načina izobraževanja in usposabljanja naslednje generacije?
  • Ali gradite tehnološko infrastrukturo, da bi izkoristili ta fazni prehod?
  • Ali pripravljamo prihodnje generacije na novi svet?

Na koncu je dr. Kamar poudaril, da je eden od ključnih vidikov faznega prehoda, ki je izjemen, hitrost, s katero se razvijajo LLM. Ti modeli se bistveno izboljšajo v zelo kratkem času in računalniški raziskovalci morajo še veliko nadoknaditi.

Drugi panelist, dr. Hal Daumé III (Univerza v Marylandu), je začel svoj govor z razlago, da je treba razviti modele AI, ki bodo ljudem pomagali delati stvari, ki jih želijo; povečati človeško delo, ne avtomatizirati. Ta vizija avtomatizacije je prežela družbo od 60. let prejšnjega stoletja. Namesto da bi pomagali ljudem pri boljšem igranju šaha, so znanstveniki oblikovali sistem, ki igra šah sam.

Ta filozofija ne pelje nikamor; Umetna inteligenca je danes še vedno vredna novic, ko je dovolj inteligentna, da opravi nalogo sama. To je globoko v krvi AI. Preden porabimo čas in denar za avtomatizacijo sistema, se moramo najprej ustaviti in vprašati, ali je to v našem interesu?

Dr. Daumé je spodbujal koncept povečanja: kako je mogoče AI uporabiti kot orodje? Sistemi, kot je Github copilot, povečajo produktivnost, vendar povečanje produktivnosti ni dovolj. Uporabnik sistema je vzkliknil, da jim je omogočil, da se osredotočijo na dele kodiranja, ki so bili zabavni, kar je veliko bolj v skladu s tem, kako naj bi bila zgrajena AI.

Raziskovalci AI ne bi smeli odstraniti delov dela osebe, ki so zabavni; prednost bi morali dati odstranitvi težkega dela. Izboljšati mora človeška življenja in ne samo izboljšati rezultat podjetja.

Dr. Daumé je bil soavtor prispevka, v katerem je izpostavil te točke, pojavil pa se je protiargument, da je s tehničnega vidika gradnjo sistemov, ki uporabljajo predvsem tehnologijo strojnega učenja, pogosto veliko lažje avtomatizirati kot nadgraditi. To je zato, ker je do podatkov, potrebnih za usposabljanje sistema, ki bo usposobil sistem, enostavno priti. Te informacije zagotavljamo z opravljanjem svojega dela in ML je enostavno usposobiti za posnemanje človeškega vedenja. Veliko težje je naučiti sistem, da nekomu pomaga dokončati nalogo. Te informacije so razpršene med pregledi literature iz NSF, zapisi programerja na kos papirja itd. Podatki, potrebni za pomoč človeku pri opravljanju nalog, niso zabeleženi.

Drugi ključni vidik gradnje koristnih sistemov je vprašanje uporabnika, kateri sistemi bi bili koristni za njegovo življenje. Potrebe slepih se na primer zelo razlikujejo od potreb videčih (ki se prav tako razlikujejo od potreb videčih mislim potrebe slepih so). Primer, ki ga je povedal dr. Daumé, je bil, da lahko vizualni sistem razkrije, da je predmet pločevinka soda, vendar lahko slepa oseba to običajno ugotovi sama. Sestavine sode bi jim bile veliko bolj uporabne. Obstaja ogromen razkorak med kakovostjo odzivov sistemov na preprosto razumevanje vprašanj in obravnavanjem vprašanj dostopnosti in ta razkorak se povečuje.

Dodaten primer, kako pomembno je najprej določiti potrebe skupnosti pred ustvarjanjem tehnologije, ki jim bo »pomagala«, je moderiranje vsebine. Številni prostovoljni moderatorji vsebin sodelujejo pri delu, ker želijo narediti svet boljši in pomagati zgraditi skupnost, za katero menijo, da je pomembna. Ko jih vprašajo, kakšno orodje želijo pomagati pri svoji vlogi, pogosto ne želijo, da bi bilo njihovo delo popolnoma avtomatizirano, želijo si le lažjih dolgočasnih delov, kot je iskanje zgodovine klepetov.

Dr. Daumé zaključi to razpravo s končnim primerom svoje mame ljubiteljice avtomobilov, ki obožuje avtomobile in noče voziti avtomatskih avtomobilov. Izbere ročni menjalnik in to izbiro ji je zelo pomembno. Ljudje bi morali imeti nadzor nad tem, ali želijo, da so njihove naloge avtomatizirane ali ne.

Dr. Daumé nadaljuje pogovor s ponudbo alternativ trenutnim pristopom k tehnologiji dostopnosti. Na primer, ko gradite orodje za prepoznavanje znakovnega jezika, namesto da brskate po internetu za videoposnetki ljudi, ki se podpisujejo (kar ima veliko pomislekov glede soglasja in zasebnosti, poleg tega je večina teh videoposnetkov profesionalnih in brez hrupa v ozadju/motečih dejavnikov, kar ni t realistično), stopite v stik s skupnostjo in sprožite projekt, ki jim omogoča pošiljanje videoposnetkov za usposabljanje orodij. Takšne strategije, ki so na prvem mestu skupnosti, so bolj etične in odgovorne ter dajejo uporabnikom več nadzora. 

Študije LLM in druga orodja je treba razviti tako, da dajejo prednost uporabnosti, ne inteligenci, zaključuje dr. Daumé. Bolj ko je uporaben, bolj lahko ljudem pomaga narediti nekaj, česar ne morejo ali nočejo, namesto da avtomatizira nekaj, kar ljudje že delajo dobro in uživajo.

Dr. Jonathan May (Inštitut za informacijske znanosti Univerze v južni Kaliforniji) je bil naslednji govornik in je svoj govor začel z razmišljanjem o temi konference: »K znanosti brez zidov«. Trdi, da medtem ko nedavni razvoj LLM za nekatere ljudi ruši zidove, za mnoge gradi zidove.

Najprej razpravlja o tem, kako je internet zmanjšal številne ovire za izvajanje raziskav; ko je imel 17 let, se je spraševal, zakaj imata Vojna zvezd in Gospodar prstanov zelo podoben zaplet, zato se je moral odpeljati v knjižnico in poiskati knjigo z odgovorom. Za svojo doktorsko disertacijo je opravil zahtevnejšo, a enako naporno raziskavo, toda do konca njegovega študija je bila na to temo ustvarjena stran na Wikipediji, nato iskanje po internetu in zdaj je raziskovanje brez avtomobila pravilo.

Dr. May je nadaljeval z besedami, da se počuti privilegiranega, da je v demografski skupini za ciljno občinstvo LLM. Ne kodira pogosto in nikoli se ni naučil veliko veščin kodiranja, ko pa jih potrebuje za svoje delo, lahko vpraša ChatGPT in odlično opravi svoje delo. 

Vendar pa obstaja veliko ovir, ki preprečujejo, da bi bili uporabni LLM-ji razširjeni:

  • Jezikovni zidovi: modeli delujejo bolje, na več podatkov se usposabljajo. Čeprav so današnji komercialni LLM večjezični, so močno usmerjeni v angleščino. Na primer, ChatGPT je usposobljen za 92% angleškega jezika. Poleg tega so podatki o navodilih, ki so "skrivna omaka" LLM-jev, v veliki večini angleški (na primer 96 % ChatGPT-jev). Trenutno je zelo malo prizadevanj za izboljšanje medjezikovne zmogljivosti teh modelov kljub sistemskim vrzeli v zmogljivosti na obstoječih testih, kar je smiselno zaradi splošnega soglasja, da je strojno prevajanje (MT) "rešeno", zato je treba prizadevanja usmeriti v druge naloge.
  • Zidovi identitete: če vprašate ChatGPT, kaj morate početi na božič, se osredotoča na različne dejavnosti in tradicije, v katere se lahko vključite; ne omenja, da bi lahko šel v službo. Izkazalo se je, da se LLM obnašajo drugače, ko opisujejo različne demografske skupine, izražajo več negativnih čustev in v nekaterih primerih celo neposredno strupenost. Obstajajo verjetnosti stereotipnih stavkov, ki lahko povzročijo škodo v skupnostih, kot sta LGBTQ+ ali judovska; povsod je veliko pristranskosti, kar ima posledice pri razporejenem odločanju. Vgrajenih je nekaj zaščitnih ukrepov in manj verjetno je, da bodo bolj eksplicitna poskusna vprašanja prejela strupene odgovore, vendar modeli verjetnostno dajejo prednost stereotipnim izjavam in izidom, in tu je škoda, zlasti pri uporabi modelov v zmogljivostih na nižji stopnji, kjer ne vidite rezultat (tj. upravičenost do posojila). Navedel je primer LLM-jev, ki kažejo pristranskost pri ustvarjanju obrazov posameznikov glede na njihovo službo; slabše plačana delovna mesta so prikazana kot ženske in manjšine, medtem ko so bolje plačana delovna mesta beli moški.
  • Okoljski zidovi (programska oprema): LLM-ji zahtevajo znatno količino energije za proizvodnjo in delovanje. Tudi najbolj “skromni” LM-ji porabijo 3x več energije na leto, kot jo porabi ena sama oseba. Obstaja tudi velika vrzel v podatkih za največje jezikovne modele, kot je ChatGPT, vendar podjetja, ki jih imajo v lasti, izrecno zavračajo dostop do njihove porabe energije.
  • Okoljski zidovi (strojna oprema): Za proizvodnjo čipov, ki jih potrebujejo vsi LLM, potrebujete "konfliktne materiale", kot sta tantal (kodiran v Kongu) in hafnij (kodiran v Senegalu in Rusiji). V ZDA naj bi podjetja poročala o količini konfliktnih mineralov, ki jih uporabljajo, vendar ZDA javno prikazujejo zmanjšanje uporabe teh materialov, kar pa ne more biti res. Poleg tega obstaja veliko socialno-političnih problemov, kot je Kitajska, ki omejuje germanij in galij kot povračilo na izvozne omejitve ZDA.

Dr. May pravi, da te kategorije razkrivajo nekatere od številnih težav na nižji stopnji za škodo, ki jo povzročajo LLM, in primere, ko ljudje nimajo koristi. Obstaja razlog za zaskrbljenost, vendar obstajajo tudi priložnosti za raziskave in/ali spremembe vedenja, ki bi ublažile nekatere od teh škod:

  • Jezik: namenite več sredstev za raziskave večjezičnosti (ne le hegemonnemu prevajanju v angleščino in iz nje).
  • Identiteta: raziskovanje od spodaj navzgor in vključujoče skupnosti. Modifikacija modela in testiranje pred uvedbo
  • Okolje: razvoj algoritmov, ki uporablja manj podatkov in spreminja manj parametrov (npr. LoRA, adapterji, ne-RL PO). Bodite vestni glede računalništva in vztrajajte pri odprtosti na regulativnih ravneh 

Dr. May je panel zaključil s ponovitvijo trditve dr. Dauméja, da je treba ljudem pri interakciji z LLM-ji koristiti tako, kot si želijo, in to mora biti na prvem mestu v fazi razvoja.

Najlepša hvala za branje in vas prosimo, da se jutri oglasite in preberete povzetek dela seje z vprašanji in odgovori.

spot_img

Najnovejša inteligenca

spot_img