Zephyrnet-logo

Løfter og fallgruver Oppsummering – del fire » CCC-blogg

Dato:

CCC støttet tre vitenskapelige sesjoner på årets AAAS årlige konferanse. Denne uken vil vi oppsummere høydepunktene fra økten, "Generativ AI i vitenskap: løfter og fallgruver.” Dette panelet, moderert av Dr. Matthew Turk, president for Toyota Technological Institute i Chicago), omtalt Dr. Rebecca Willett, professor i statistikk og informatikk ved University of Chicago, Dr. Markus Buehler, professor i ingeniørfag ved Massachusetts Institute of Technology, og Dr. Duncan Watson-Parris, assisterende professor ved Scripps Institution of Oceanography og Halıcıoğlu Data Science Institute ved UC San Diego. I del fire oppsummerer vi spørsmål og svar-delen av panelet. 

En Q&A-sesjon fulgte panelistens presentasjoner, og Dr. Matthew Turk startet diskusjonen. «'Løfter og fallgruver' står i tittelen på dette panelet. Vi har diskutert mange av løftene, men vi har ikke tatt tak i mange av fallgruvene. Hva bekymrer deg om fremtiden til generativ AI?»

"Pliteligheten og påliteligheten til disse modellene er en stor bekymring", begynte Dr. Rebecca Wilett. «Disse modellene kan forutsi ting som er plausible, men som mangler viktige, fremtredende elementer; Kan jeg som menneske gjenkjenne at det er noe som mangler der?»

Dr. Markus Buehler la til at selve prediksjonen av en modell kan ta et sekund, men den eksperimentelle valideringsprosessen kan ta måneder eller et år, eller lenger. Så hvordan skal vi operere i mellomtiden når vi ikke har verifisert resultatene? "Vi må også utdanne neste generasjons generative AI-utviklere slik at de designer modeller som er pålitelige og verifiserbare, og at vi kan bruke fysikkbasert innsikt i vår konstruksjon av disse modellene."

Dr. Duncan Watson-Parris bygde på begge de foregående punktene, og sa "Fordi disse modellene er designet for å generere plausible resultater, kan vi ikke bare se på resultatene for å bekrefte nøyaktigheten. Generative AI-forskere må ha en dyp forståelse av hvordan disse modellene fungerer for å verifisere resultatene deres, og det er derfor det er så viktig å utdanne neste generasjon på riktig måte."

Publikumsmedlem: «I materialvitenskap vet vi retningen fremover for å studere noen materialer, men for andre, som superledere i romtemperatur, vet vi ikke hvordan vi skal gå videre. Hvordan tror du veien videre for å studere disse ukjente materialene vil se ut? Og hvordan skal denne typen forskning muliggjøres fra et regulatorisk ståsted?»

"Vel, jeg er ingen ekspert på superlederforskning," sa Dr. Buehler, "så jeg vil ikke snakke direkte til det, men jeg kan snakke generelt om hvordan vi gjør fremskritt innen materialvitenskap, spesielt innen mitt proteinområde. og utvikling av biomaterialer. Måten vi gjør fremskritt på er å ha evnen til å presse konvolutten. Vi kjører nye eksperimenter og tester merkelige ideer og teorier og ser hvilke som fungerer og hvorfor. Når det gjelder hvordan vi skal aktivere denne forskningen, trenger vi flere åpen kildekode-modeller med kollektiv tilgang. Jeg vil oppfordre politikere til ikke å overregulere disse teknologiene, slik at forskere og publikum får tilgang til denne typen modeller. Jeg tror ikke det er en god idé å hindre folk i å bruke disse modellene, spesielt når vi kan crowdsource ideer og utviklinger og introdusere kunnskap fra ulike felt av menneskelig aktivitet. For eksempel, da trykkpressen ble oppfunnet, prøvde myndighetene å begrense tilgjengeligheten til denne teknologien så få bøker kunne leses i massevis, men denne innsatsen mislyktes totalt. Den beste måten å beskytte publikum på er å lette tilgangen til disse modellene på en slik måte at vi kan utvikle, utforske og evaluere dem i stor utstrekning for maksimal nytte for samfunnet."

Publikumsmedlem: "De fleste generative AI-modeller i dag er regresjonsmodeller som fokuserer på å simulere eller emulere forskjellige scenarier. Oppdagelser i vitenskapen er imidlertid drevet av hypotesene og spådommene vi drømmer om. Så hvordan lager vi modeller som er ment å tenke nye spådommer i stedet for de nåværende modellene som mest brukes til eksperimentering?»

Dr. Buehler svarte først og sa: «Du har rett, de fleste tradisjonelle maskinlæringsmodeller er ofte regresjonsbaserte, men modellene vi snakket om i dag fungerer annerledes. Når du setter sammen multi-agent-systemer med mange funksjoner, begynner de faktisk å utforske nye scenarier og de begynner å resonnere og lage spådommer basert på eksperimentene de har kjørt. De blir mer menneskelige. Du, som forsker, ville ikke kjøre et eksperiment og bare være ferdig – du ville kjøre et eksperiment og deretter begynne å se på dataene og validere dem og lage nye spådommer basert på disse dataene, for å koble sammen prikkene og ekstrapolere ved å lage hypoteser og avbilde hvordan et nytt scenario ville utfolde seg. Du ville eksperimentere, samlet inn nye data, utviklet en teori og foreslått kanskje et integrert rammeverk om en bestemt sak av interesse. Deretter vil du forsvare ideene dine mot kollegenes kritikk og kanskje revidere hypotesen når ny informasjon brukes. Dette er hvordan nye multi-agent kontradiktoriske systemer fungerer, men de kompletterer selvfølgelig menneskelige ferdigheter med en langt større evne til å resonnere over enorme mengder data og representasjoner av kunnskap. Disse modellene kan allerede generere nye hypoteser som skyver rammen langt utover det som allerede er studert, og legger til den vitenskapelige prosessen med oppdagelse og innovasjon."

"Jeg vil komplettere det," sa Dr. Willett, "med området for fullføringsoppdagelse og symbolsk regresjon som et annet område mye mer målrettet mot hypotesegenerering. Det er mye pågående arbeid i dette området.»

Publikumsmedlem: "Hvordan øker vi tilgangen til denne typen modeller og overvinner hindringer, slik som at de fleste modellene er laget for engelsktalende?"

Dr. Rebecca Willett svarte og sa: «Mange mennesker har tilgang til å bruke disse modellene, men å designe og trene dem koster mange millioner dollar. Hvis bare et lite sett med organisasjoner er i stand til å sette opp disse modellene, er det bare et veldig lite sett med mennesker som tar beslutningene og prioriterer i det vitenskapelige samfunnet. Og ofte er prioriteringene til disse organisasjonene og individene profittdrevet. Når det er sagt, tror jeg det landskapet begynner å endre seg. Organisasjoner som NSF prøver å bygge infrastruktur som kan nås av det bredere vitenskapelige samfunnet. Denne innsatsen ligner den tidlige utviklingen av superdatamaskiner. I de første dagene måtte forskere sende inn lange forslag for å få tilgang til en superdatamaskin. Jeg tror vi kommer til å se lignende nye paradigmer innen AI og generativ AI."

"Jeg er enig," sa Dr. Watson-Parris. "I tillegg til det fra en regulatorisk side, tror jeg ikke vi bør regulere grunnforskning, kanskje søknadsområdet, men ikke selve forskningen."

Tusen takk for at du leste, og følg med for oppsummeringene av de to andre panelene våre på AAAS 2024.

spot_img

Siste etterretning

spot_img