Logo Zephyrnet

Assistenti utili, partner romantici o truffatori? Parte seconda » Blog CCC

Data:

CCC ha sostenuto tre sessioni scientifiche alla conferenza annuale dell'AAAS di quest'anno e, nel caso in cui non potessi partecipare di persona, ricapitoleremo ciascuna sessione. Oggi riassumeremo i punti salienti della parte di domande e risposte della sessione, "Grandi modelli linguistici: assistenti utili, partner romantici o truffatori?” Questo panel, moderato da Dott.ssa Maria Gini, membro del Consiglio CCC e professore di informatica e ingegneria presso l'Università del Minnesota Dottor Ece Kamar, Amministratore delegato di AI Frontiers presso Microsoft Research, Dottor Hal Daumé III, professore di informatica presso l'Università del Maryland, e Il dottor Jonathan May, professore di informatica presso l'Information Sciences Institute della University of Southern California.

Di seguito è riportato l'affascinante riepilogo della parte di domande e risposte del "Grandi modelli linguistici: assistenti utili, partner romantici o truffatori?"pannello. L’intelligenza artificiale è capace di amare? Che tipo di impatti potrebbero avere questi modelli sui bambini? Come si collocano le capacità di intelligenza artificiale degli Stati Uniti? Scoprilo qui sotto:

D: Quando si implementano modelli linguistici di intelligenza artificiale in contesti multilinguistici e multiculturali, quali pratiche dovremmo adottare?

Dr. May: Sviluppando la tecnologia e abbassando i muri, dovrebbe essere reso più facile per le persone fare ciò che vogliono. Quello che tutti vogliono fare, non solo io. Grazie AI, è bello concentrarsi su di me, ma dovremmo prestare attenzione al resto del mondo in generale.

D: Alcune di queste questioni generali non è la prima volta che vengono sollevate. Sembra che la comunità non arriverà a questi da sola. Mi chiedo se tutti voi avete idee su come trasformare queste conversazioni in azioni.

Dr. Kamar: Ci sono ruoli da svolgere per molte parti diverse. La valutazione conta molto nel rappresentare culture e popolazioni diverse. Quando i set di dati non presentano diversità nella rappresentazione del mondo, i sistemi risultanti non sono rappresentativi. C’è ancora molto lavoro da fare per definire le migliori pratiche di valutazione, le normative e le misure di conformità. La Casa Bianca ha preso degli impegni e il progetto per una Carta dei diritti dell’IA sta partendo. Ci sono stati processi implementati in tutto il settore, con molte grandi menti che hanno lavorato insieme (non perfetto, ma generalizzare in tutto il settore c’è del potenziale). Si stanno svolgendo incontri per arrivare alla convergenza sugli attuali standard iniziali; possibilmente in una futura regolamentazione. Come facciamo valutazioni, analisi di sicurezza, ecc.? Nessuna di queste conversazioni ha la diversità che deve essere presente nella stanza. Pensa a chi deve essere presente nella stanza quando vengono prese le decisioni.

Dr. Daumé: Penso che quando si parla di regolamentazione, soprattutto nel campo dell'intelligenza artificiale, tutti pensano a normative punitive. Ma questo può anche incentivare la regolamentazione. Il finanziamento dei decisori politici e della NSF potrebbe promuovere lo sviluppo di strumenti che ci aiutano come nazione e come mondo.

D: I finanziamenti per l’intelligenza artificiale sono molto indietro negli Stati Uniti rispetto ad altri posti nel mondo. Il nuovo investimento di NSF ammonta a 20 milioni e qualcosa, una nocciolina rispetto agli investimenti del settore. Il governo federale pubblica da anni rapporti di studi e la conclusione è che gli Stati Uniti devono andare avanti. Adoro l'analogia del cambiamento di fase di Ece. Il limite termodinamico con i numeri sta crescendo. Vogliamo un’intelligenza artificiale aperta, chi pagherà per questo? Non ci sono abbastanza soldi. Quali sono i tuoi suggerimenti? Aprire l'intelligenza artificiale? Ma non abbiamo nemmeno la pubblicazione ad accesso aperto. Consiglierebbe al presidente di non avere una legislazione?

Dr. May: Penso che ci siano soldi; qualcuno mi ha osservato che siete riusciti a convincere il governo a far girare le particelle, ma non siete riusciti a dirottarlo verso di noi.

Dr. Kamar: Il motivo per cui le aziende che stanno costruendo questi modelli ottengono questi risultati è attraverso la centralizzazione delle risorse. C'è molto che ottieni dalla scala. Dovremmo pensare a come centralizzare gli investimenti nel mondo accademico in modo da ottenere una risorsa condivisa invece di avere tanti modelli diversi. Stiamo vedendo che non si tratta solo di una questione di scala. Non è qualcosa che dobbiamo fare adesso, ma l’architettura attuale non è eccezionale. Avere buone capacità di intelligenza artificiale non dovrebbe significare solo più denaro e più potere.

D: Distorsioni da sovrarappresentazione nelle risposte. Sappiamo da dove viene? Sono un tipo da matematica e il mio pensiero va a una combinazione di errori di arrotondamento che aggiunge distorsioni? Se la rappresentazione fosse uguale, immagino che produrrebbe una rappresentazione uguale o sarebbe ancora lì?

Dr. May: Molto dipende dalle funzioni di picco. Il massimo morbido è una parte importante dell'allenamento. Il più alto vuole essere il numero 1. Non è che esista un risultato linguistico perfetto, ma vogliamo avere dei pregiudizi'. Vogliamo solo ridurre al minimo i danni alle persone e molte volte non ce ne rendiamo conto. La distribuzione senza comprensione è un problema. 

Dr. Daumé: Una delle sfide con questi modelli è che non esistono più modelli di intelligenza artificiale ristretti. Dicono che possono fare qualsiasi cosa, quindi è difficile testare tutto.

D: Hai menzionato l'intelligenza artificiale come uno strumento o un sostituto, in che modo vedi che andrà?

Dr. Daumé: Si spendono più soldi per la sostituzione.

D: Il titolo menziona l'intelligenza artificiale romantica. Voglio saperne di più.

Dr. May: I modelli non hanno abbastanza intenzione da renderli validi sostituti romantici, ma sono bravi quanto gli esseri umani nel riconoscere i modelli anche quando non esistono.

Dr. Kamar: Ti consiglio di non pensare all'intelligenza artificiale per quello che è adesso. Prova a proiettarti nel futuro: immagina che tra qualche anno questi sistemi saranno personalizzati per te. Che rapporto avrai con quel sistema?

Dr. May: Ma ti amerà?

Dr. Kamar: Ti dirà che ti ama.

Dr. May: Ma è sufficiente?

D: Desidero ricevere consigli da persone che non operano nel campo dell'intelligenza artificiale. Come possiamo interagire con questi strumenti? Cosa dovremmo sapere?

Dr. Daumé: All'Università del Maryland abbiamo spesso queste conversazioni. È facile per me dire che tra 5 anni il giornalismo sarà diverso, e anche altri campi. È scomodo dire che tra 5 anni il ruolo del professore sarà diverso, ma sarà così. Ho colleghi che utilizzano diversi plug-in LLM per proposte e documenti; sta già accadendo. Ho regolarmente domande d'esame scritte da strumenti, ma devo verificarne l'accuratezza. Scrivere domande d'esame non mi dà gioia, quindi l'intelligenza artificiale può togliermela dal piatto. Nell’istruzione superiore dobbiamo pensarci di più. Come sta trasformando il nostro lavoro? Ci sono molte discussioni in corso nelle università, ma non c’è molta condivisione delle risorse.

D: Quanto sarebbe gradito che l’intelligenza artificiale venisse giudicata in futuro quando si prenderanno in considerazione le applicazioni militari? Non si è parlato di applicazioni militari in questa sessione – so che se ho letto bene le persone c'è una divergenza di opinioni su questo argomento.

Dr. May: Il campo militare è ampio, gran parte del mio lavoro è sponsorizzato dal dipartimento della difesa. Difficile rispondere in modo specifico, in generale il dipartimento della difesa (non parlando a nome loro) sembra dare priorità alla sicurezza e alla protezione degli Stati Uniti, e continuerà a farlo e a sfruttare gli LLM e l’intelligenza artificiale per aiutare gli Stati Uniti a essere al sicuro.

Dr. Kamar: Dobbiamo parlare anche del duplice uso. Se prendiamo in considerazione il lavoro militare in corso nel campo della biologia o della sicurezza informatica, possiamo prendere gli strumenti molto promettenti di cui disponiamo in questo momento e usarli perché vogliamo sistemi sicuri e nuovi farmaci. Ma per ogni buon uso ne avrai un cattivo uso. Quali sono i casi d’uso in cui non vogliamo che venga utilizzata l’intelligenza artificiale? Nelle applicazioni open source, le persone possono replicare questi modelli. Come possiamo impedire alle persone di fare del male in questi casi?

D: Quando interagiscono con i modelli linguistici, gli adulti capiscono che non è vivo/consapevole di sé, ma che dire di diverse generazioni dopo? bambini che ce l'hanno da quando ricordano di aver socializzato? Hanno un tutor o un insegnante completamente AI; il sistema è integrato con un istruttore. Potrebbero creare un legame con l'istruzione, pensare di avere un ottimo rapporto e quindi il programma viene eliminato. Qual è la psicologia infantile dei legami socio-emotivi con entità non personali?

Dr. Kamar: Abbiamo bisogno di ricerca, di ricerca interdisciplinare e ne abbiamo bisogno rapidamente. Tra 5 anni potremmo ottenere queste risposte, ma in quel lasso di tempo l’intelligenza artificiale potrebbe diventare una parte importante della vita di mio figlio di 10 anni. La tua domanda è estremamente importante. Esistono ricerche che dimostrano che anche i sistemi più innocenti possono avere backdoor. Abbiamo bisogno che esperti di sicurezza e specialisti dello sviluppo infantile abbiano queste conversazioni oggi.

Dr. Daumé: Non so se qualcuno ricorda la sorveglianza di Barbie: qui c'è un grosso problema di privacy. È una questione sociale più interessante. Le risposte sono state calibrate per essere eccessivamente positive. I bambini direbbero cose del tipo Sono arrabbiato perché Sally non ha giocato con me e questo non dà suggerimenti socialmente appropriati. Sono preoccupato per gli agenti molto positivi, perché non sempre la positività è la risposta giusta.

Grazie mille per aver letto e restate sintonizzati per il riepilogo del nostro terzo e ultimo panel all'AAAS 2024.

spot_img

L'ultima intelligenza

spot_img