Zephyrnet-logo

Nyttige assistenter, romantiske partnere eller svindlere? Del to » CCC-blogg

Dato:

CCC støttet tre vitenskapelige sesjoner på årets AAAS årlige konferanse, og i tilfelle du ikke var i stand til å delta personlig, vil vi oppsummere hver økt. I dag vil vi oppsummere høydepunktene i spørsmål og svar-delen av økten, "Store språkmodeller: hjelpsomme assistenter, romantiske partnere eller svindlere?” Dette panelet, moderert av Dr. Maria Gini, medlem av CCC Council og professor i informatikk og ingeniør ved University of Minnesota, omtalt Dr. Ece Kamar, administrerende direktør for AI Frontiers i Microsoft Research, Dr. Hal Daumé III, professor i informatikk ved University of Maryland, og Dr. Jonathan May, professor i informatikk ved University of Southern California Information Sciences Institute.

Nedenfor er det fascinerende sammendraget av spørsmål og svar-delen av "Store språkmodeller: hjelpsomme assistenter, romantiske partnere eller svindlere?"panel. Er AI i stand til å elske? Hva slags innvirkninger kan disse modellene ha på barn? Hvordan stabler USAs AI-evner seg? Finn ut nedenfor:

Spørsmål: Hvilken praksis bør vi gjøre når vi distribuerer AI-språkmodeller i flerspråklige og flerkulturelle sammenhenger?

Dr. May: Ved utvikling av teknologi og senking av vegger bør det gjøres lettere for folk å gjøre det de vil. Hva alle vil gjøre, i stedet for bare meg. Takk AI, flott å fokusere på meg, men vi bør ta hensyn til resten av verden generelt.

Spørsmål: Noen av disse generelle problemene – dette er ikke første gang de har blitt tatt opp. Det virker som samfunnet ikke kommer til å komme til disse av seg selv. Jeg lurer på om dere alle har ideer om hvordan man kan få disse samtalene til handling?

Dr. Kamar: Det er roller for mange forskjellige parter å spille. Evaluering betyr mye for å representere ulike kulturer og populasjoner. Når datasett ikke har mangfold i verdensrepresentasjon, er de resulterende systemene ikke representative. Det må gjøres mye arbeid for å utforme beste praksis for evaluering, forskrifter og etterlevelsestiltak. Det hvite hus har forpliktet seg, og Blueprint for en AI Bill of Rights starter. Det har vært prosesser implementert på tvers av industrien, med mange gode hoder som jobber sammen (ikke perfekt, men generalisering på tvers av industrien er det potensiale). Det er møter som skjer for å komme til konvergens om å starte som standard; muligens i fremtidig regulering. Hvordan gjør vi evalueringer, sikkerhetsanalyser osv.? Ingen av disse samtalene har det mangfoldet som må være i rommet. Tenk på hvem som må være i rommet når beslutninger tas.

Dr. Daumé: Jeg tror at når folk snakker om regulering, spesielt innen AI, tenker alle på straffebestemmelser. Men dette kan også virke stimulerende til regulering. Finansierende beslutningstakere og NSF kan fremme utviklingsverktøy som hjelper oss som nasjon og verden.

Spørsmål: Finansiering av kunstig intelligens er langt bak i USA sammenlignet med andre steder i verden. Den nye investeringen til NSF er på 20 millioner, noe som er peanøtter sammenlignet med industriinvesteringer. Den føderale regjeringen har gitt ut rapporter fra studier i årevis, og konklusjonen er at USA må komme i gang. Jeg elsker Eces faseendringsanalogi. Termodynamisk grense med tall vokser. Vi vil ha åpen AI, hvem skal betale for det? Det er ikke nok penger. Hva er dine forslag? Åpne AI? Men vi har ikke engang åpen tilgangspublisering. Vil du anbefale presidenten å ikke ha lovgivning?

Dr. May: Jeg tror det er penger; noen la merke til for meg at du har klart å overbevise regjeringen om å snurre partikler rundt, men har ikke vært i stand til å viderekoble det til oss.

Dr. Kamar: Grunnen til at selskaper som bygger disse modellene får disse resultatene, er gjennom sentralisering av ressurser. Det er mye du får ut av skala. Bør tenke på hvordan vi sentraliserer investeringer i akademia så vi får en delt ressurs i stedet for å ha masse forskjellige modeller. Vi ser at det ikke bare handler om skala. Ikke noe vi må gjøre akkurat nå, men dagens arkitektur er ikke bra. Å ha gode AI-egenskaper bør ikke bare handle om mer penger og mer kraft.

Spørsmål: Overrepresentasjonsskjevhet i svar. Vet vi hvor det kommer fra? Jeg er en matematikk fyr, og mine tanker går til det er en sammensetning av avrundingsfeil som legger til skjevhet? Hvis lik representasjon, ville jeg forestille meg at den ville gi lik representasjon, eller ville den fortsatt være der?

Dr. May: Mye handler om spikefunksjoner. Myk maksimum er en viktig del av treningen. Høyeste ønsker å være #1. Det er ikke slik at det er noe perfekt språkutgang, men vi ønsker å ha litt skjevhet. Vi ønsker bare å minimere skade på mennesker, og mange ganger gjenkjenner vi ikke disse. Utplassering uten forståelse er et problem. 

Dr. Daumé: En av utfordringene med disse modellene er at det ikke finnes noen smale AI-modeller lenger. De sier de kan gjøre hva som helst, så det er vanskelig å teste alt.

Spørsmål: Du nevnte at AI er et verktøy eller en erstatning, hvilken vei ser du at det går?

Dr. Daumé: Det går mer penger til erstatning.

Spørsmål: Tittelen nevnte romantisk AI. Jeg vil vite mer om det.

Dr. May: Det er ikke nok hensikter i modeller til at de skal være levedyktige romantiske erstatninger, men de er like gode som mennesker til å gjenkjenne mønstre selv når de ikke eksisterer.

Dr. Kamar: Jeg råder deg til å ikke tenke på AI som det det er akkurat nå. Prøv å projisere inn i fremtiden – forestill deg at om noen år vil disse systemene bli tilpasset deg. Hva er forholdet du vil ha til det systemet?

Dr. May: Men vil det elske deg?

Dr. Kamar: Den vil fortelle deg at den elsker deg.

Dr. May: Men er det nok?

Spørsmål: Jeg vil høre råd til folk som ikke er innen AI. Hvordan kan vi engasjere oss med disse verktøyene? Hva bør vi vite?

Dr. Daumé: Ved University of Maryland har vi disse samtalene mye. Det er lett for meg å si at journalistikken vil være annerledes om 5 år, og andre felt også. Det er ubehagelig å si at professorrollen vil være annerledes om 5 år, men det blir det. Jeg har kolleger som bruker forskjellige LLM-plugin-moduler for forslag og papirer; det skjer allerede. Jeg har jevnlig eksamensspørsmål skrevet av verktøy, men jeg må sjekke nøyaktigheten. Å skrive eksamensspørsmål gir meg ikke glede, så AI kan ta det av tallerkenen min. I høyere utdanning må vi tenke mer på det. Hvordan forandrer det jobbene våre? Det foregår mange diskusjoner på universitetene, men ikke massevis av ressurser.

Spørsmål: Hvor velkommen er AI å bli bedømt i fremtiden når man vurderer militære applikasjoner? Det har ikke vært nevnt noen militære søknader i denne sesjonen – jeg vet at hvis jeg leser folk halvveis riktig, er det uenighet om det emnet.

Dr. May: Forsvaret er bredt, mye av arbeidet mitt er sponset av forsvarsavdelingen. Vanskelig å svare spesifikt, generelt ser det ut til at forsvarsavdelingen (snakker ikke for dem) prioriterer sikkerheten og sikkerheten til USA, og vil fortsette å gjøre det og utnytte LLM-er og AI for å hjelpe USA til å være trygge.

Dr. Kamar: Vi må også snakke om dobbel bruk. Hvis du tar militært arbeid som foregår innen biologi eller cybersikkerhet, kan vi ta de svært lovende verktøyene vi har akkurat nå og bruke dem fordi vi vil ha sikre systemer og nye medikamenter. Men med hver god bruk vil du ha en dårlig bruk. Hvilke brukstilfeller vil vi ikke at AI skal brukes i? I open source-applikasjoner kan folk replikere disse modellene. Hvordan forhindrer vi at folk gjør skade i disse tilfellene?

Spørsmål: Når de samhandler med språkmodeller, forstår voksne at det ikke er levende/selvbevisst, men hva med flere generasjoner senere; barn som har hatt det siden de husker sosial omgang? De har en veileder eller lærer som er fullstendig AI; systemet er innebygd med en instruktør. De kan skape et bånd med instruksjonen, synes de har et godt forhold, og så blir programmet slettet. Hva er barnepsykologien til sosiale emosjonelle bånd med ikke-personlige enheter?

Dr. Kamar: Vi trenger forskning, tverrfaglig forskning, og vi trenger det raskt. Om 5 år vil vi kanskje få disse svarene, men på den tiden kan AI bli en stor del av livet til min 10 åring. Spørsmålet ditt er ekstremt viktig. Det er forskning som viser at selv uskyldige systemer kan ha bakdører. Vi må ha sikkerhetseksperter og barneutviklingsspesialister som har disse samtalene i dag.

Dr. Daumé: Jeg vet ikke om noen husker overvåkingen Barbie – det er et stort personvernproblem her. Det er et mer interessant samfunnsspørsmål. Svarene ble stilt inn til å være altfor positive. Barn ville si ting som at jeg er sint fordi Sally ikke lekte med meg, og det gir ikke sosialt passende forslag. Jeg er bekymret for veldig positive agenter, for positivitet er ikke alltid det rette svaret.

Tusen takk for at du leste, og følg med for oppsummeringen av vårt tredje og siste panel på AAAS 2024.

spot_img

Siste etterretning

spot_img