Logo Zephyrnet

Assistenti utili, partner romantici o truffatori? Prima parte »Blog CCC

Data:

CCC ha sostenuto tre sessioni scientifiche alla conferenza annuale dell'AAAS di quest'anno e, nel caso in cui non potessi partecipare di persona, ricapitoleremo ciascuna sessione. Questa settimana riassumeremo i punti salienti delle presentazioni dei relatori della sessione, “Grandi modelli linguistici: assistenti utili, partner romantici o truffatori?” Questo panel, moderato da Dott.ssa Maria Gini, membro del Consiglio CCC e professore di informatica e ingegneria presso l'Università del Minnesota Dottor Ece Kamar, Amministratore delegato di AI Frontiers presso Microsoft Research, Dottor Hal Daumé III, professore di informatica presso l'Università del Maryland, e Il dottor Jonathan May, professore di informatica presso l'Information Sciences Institute della University of Southern California.

I grandi modelli linguistici sono in prima linea nelle conversazioni nella società odierna, e non è ancora chiaro se siano all’altezza dell’hype che li circonda. I relatori di questa sessione AAAS hanno affrontato le possibilità, le sfide e il potenziale dei LLM.

Il primo relatore è stato il Dr. Ece Kamar (Microsoft Research). Ha descritto lo stato attuale dell’intelligenza artificiale come una “transizione di fase”. Ha fornito una prospettiva unica poiché ha visto i cambiamenti nell’intelligenza artificiale nell’industria e la crescita esponenziale dei modelli di deep learning che pochissime persone prevedevano sarebbe continuata nel 2024.

La crescita è stata causata da un aumento della quantità di dati su cui vengono addestrati gli LLM e dall'architettura più ampia chiamata trasformatori. Un'intuizione interessante condivisa dal dottor Kamar sul grafico è che i modelli si stanno espandendo così rapidamente perché inizialmente erano stati addestrati solo per un compito particolare; un compito che potrebbero eseguire in modo affidabile. ChatGPT ha dimostrato che se si aumenta abbastanza, incluso il numero di parametri presi in considerazione da un modello, i modelli potrebbero iniziare a completare le attività con prestazioni simili a quelle di un modello addestrato per completare specificamente le stesse attività.

Questa è la definizione di transizione di fase LLM: i modelli non necessitano più di essere addestrati specificamente per un compito specifico, ma possono essere addestrati in modo generale e quindi eseguire molti compiti. E non ci sono segnali che la crescita di queste capacità stia rallentando.

La dottoressa Kamar ha avuto accesso anticipato a GPT-4 e, durante il lungo periodo di prova, è rimasta colpita dai miglioramenti significativi apportati dalla scala e dai dati e dal fatto che poteva svolgere in modo sincrono compiti diversi.

Cosa riserva il futuro a questi LLM? Il dottor Kamar prevede che i LLM andranno oltre il linguaggio umano, impareranno il linguaggio macchina e saranno in grado di tradurre tra le due lingue. Ciò migliorerebbe le capacità delle modalità di input e output, il che potrebbe portare a modelli in grado non solo di generare linguaggio, ma anche azioni e previsioni nei comportamenti.

Successivamente, il Dr. Kamar ha approfondito la significativa transizione di fase che si verifica nel settore informatico. Oggi i sistemi vengono sviluppati in modo molto diverso e questo sviluppo richiederà la creazione di un nuovo paradigma informatico di cui al momento abbiamo solo scalfito la superficie. Il modo in cui interagiamo con i computer apparirà molto diverso nei prossimi anni e ciò richiederà un ripensamento dell’interazione uomo-computer (HCI).

Un altro cambiamento è il modo in cui gli esseri umani lavoreranno in futuro. Microsoft ha condotto studi secondo cui la produttività dei lavoratori può raddoppiare in termini di righe di codice scritte se assistite dall'intelligenza artificiale. Si tratta di un’impresa incredibile, ma il modo in cui funziona questa tecnologia e da dove provenga la sua intelligenza è in gran parte sconosciuto, quindi ci sono molte domande di ricerca in quest’area.

Ci sono anche molte domande sul potenziale uso improprio di LLM come questi. Ci sono preoccupazioni riguardo all’equità, ai diversi rischi demografici e ad altre conseguenze ancora più drastiche. Sebbene esista un grande potenziale di scoperta scientifica, esiste anche un grande potenziale di danno; per esempio convincere i genitori a non vaccinare i propri figli, un bambino a fare qualcosa di brutto o convincere qualcuno che il mondo è piatto. Sono stati compiuti molti sforzi in materia di sicurezza nello sviluppo di LLM e l’open source può essere molto utile per fare progressi anche in questo settore.  

Il Dr. Kamar ha poi posto delle domande alla comunità scientifica:

  • Come cambierà la scienza con l’interruzione dell’intelligenza artificiale?
  • Stiamo adottando misure per trasformare il modo in cui educhiamo e formiamo la prossima generazione?
  • Stai costruendo infrastrutture tecnologiche per beneficiare di questa fase di transizione?
  • Stiamo preparando le generazioni future per il nuovo mondo?

Infine, il Dr. Kamar ha sottolineato che uno degli aspetti fondamentali della transizione di fase che è notevole è la velocità con cui si stanno sviluppando gli LLM. Questi modelli stanno migliorando in modo significativo in un periodo di tempo molto breve e i ricercatori informatici hanno ancora molto da recuperare.

Il secondo relatore, il dottor Hal Daumé III (Università del Maryland), ha iniziato il suo intervento spiegando che i modelli di intelligenza artificiale dovrebbero essere sviluppati per aiutare le persone a fare le cose che vogliono fare; aumentare il lavoro umano, non automatizzare. Questa visione dell’automazione ha pervaso la società a partire dagli anni ’60. Invece di aiutare le persone a giocare meglio a scacchi, gli scienziati hanno progettato un sistema che gioca a scacchi da solo.

Questa filosofia non va da nessuna parte; L’intelligenza artificiale oggi fa ancora notizia una volta che è abbastanza intelligente da svolgere un compito da sola. Questo è nel profondo dell’intelligenza artificiale. Prima di spendere tempo e denaro per automatizzare un sistema, dovremmo prima fermarci e chiederci: è nel nostro interesse?

Il Dr. Daumé ha spinto il concetto di aumento: come può essere utilizzata l’intelligenza artificiale come strumento? Sistemi come Github Copilot aumentano la produttività, ma aumentare la produttività non è sufficiente. Un utente del sistema ha esclamato che permetteva loro di concentrarsi su parti della codifica che erano divertenti, il che è molto più in linea con il modo in cui dovrebbe essere costruita l'intelligenza artificiale.

I ricercatori di intelligenza artificiale non dovrebbero voler eliminare le parti divertenti del lavoro di una persona; dovrebbero dare la priorità alla rimozione del lavoro ingrato. Dovrebbe migliorare la vita umana anziché limitarsi a migliorare i profitti di un’azienda.

Il dottor Daumé è stato coautore di un articolo che solleva questi punti ed è emersa la controargomentazione secondo cui dal punto di vista tecnico, costruire sistemi che utilizzano la tecnologia di apprendimento automatico in particolare è spesso molto più facile da automatizzare che da potenziare. Questo perché i dati necessari per addestrare un sistema che addestrerà un sistema sono facili da ottenere. Forniamo queste informazioni svolgendo il nostro lavoro ed è facile addestrare il machine learning a emulare il comportamento umano. È molto più difficile insegnare a un sistema per aiutare qualcuno a completare un compito. Queste informazioni sono sparse tra le revisioni della letteratura della NSF, scritte su un pezzo di carta da un programmatore, ecc. I dati necessari per aiutare un essere umano a svolgere le attività non vengono registrati.

Un altro aspetto chiave della creazione di sistemi utili è chiedere all'utente quali sistemi sarebbero utili per la sua vita. Ad esempio, i bisogni dei ciechi sono molto diversi da quelli dei vedenti (che sono anche diversi da quelli dei vedenti) think i bisogni dei ciechi sono). Un esempio condiviso dal dottor Daumé è che un sistema visivo potrebbe rivelare che un oggetto è una lattina di soda, ma una persona cieca in genere può capirlo da sola. Gli ingredienti della soda sarebbero molto più utili per loro. Esiste un enorme divario tra la qualità delle risposte di un sistema alle domande di semplice comprensione e quelle relative all'accessibilità, e questo divario si sta ampliando.

Un ulteriore esempio dell’importanza di determinare innanzitutto i bisogni della comunità prima di creare la tecnologia per “aiutarli” è la moderazione dei contenuti. Molti moderatori di contenuti volontari si impegnano in questo lavoro perché vogliono rendere il mondo un posto migliore e contribuire a costruire una comunità che ritengono importante. Quando viene chiesto loro che tipo di strumento desiderano per supportare il loro ruolo, spesso non vogliono che il loro lavoro sia completamente automatizzato, vogliono solo che le parti noiose come la ricerca della cronologia della chat siano più facili.

Il dottor Daumé conclude questa discussione con un ultimo esempio di sua madre, amante delle auto, che ama le auto e si rifiuta di guidare quelle automatiche. Sceglie il cambio manuale ed è davvero importante per lei avere questa scelta. Le persone dovrebbero avere il controllo se desiderano che le loro attività siano automatizzate o meno.

Il dottor Daumé continua la conversazione offrendo alternative agli attuali approcci alla tecnologia dell'accessibilità. Ad esempio, quando si crea uno strumento per il riconoscimento della lingua dei segni, invece di cercare su Internet video di persone che firmano (il che comporta molti problemi di consenso e privacy, inoltre la maggior parte di questi video sono di professionisti e senza rumore di fondo/distrazioni, il che non è corretto). t realistico), contattare la comunità e avviare un progetto che consenta loro di inviare video per addestrare gli strumenti. Strategie comunitarie come queste sono più etiche e responsabili e offrono agli utenti un maggiore controllo. 

Gli LLM e altri strumenti dovrebbero essere sviluppati per dare priorità all’utilità, non all’intelligenza, conclude il dott. Daumé. Più è utile, più può aiutare le persone a fare qualcosa che non possono o non vogliono fare, piuttosto che automatizzare qualcosa che le persone già fanno bene e apprezzano.

Il dottor Jonathan May (University of Southern California Information Sciences Institute) è stato il relatore successivo e ha iniziato il suo intervento riflettendo sul tema della conferenza: “Verso la scienza senza muri”. Egli ipotizza che mentre il recente sviluppo del LLM abbatte i muri per alcune persone, sta costruendo muri per molti.

Innanzitutto discute di come Internet abbia abbassato molte barriere nella conduzione della ricerca; quando aveva 17 anni si chiese perché Star Wars e Il Signore degli Anelli avessero trame molto simili, e dovette andare in biblioteca e trovare un libro con la risposta. Ha svolto ricerche di alto livello ma altrettanto ardue per la sua tesi di dottorato, ma alla fine del suo periodo di studio è stata creata una pagina Wikipedia sull'argomento, quindi una ricerca su Internet e ora la ricerca senza auto è la norma.

Il dottor May ha continuato dicendo che si sentiva privilegiato di far parte del gruppo demografico target dei LLM. Non programma spesso e non ha mai imparato molte competenze di programmazione, ma quando ne ha bisogno per il suo lavoro può chiedere a ChatGPT e fa un ottimo lavoro. 

Tuttavia, ci sono molti ostacoli alla diffusione dell’utilità dei LLM:

  • Muri linguistici: i modelli funzionano meglio quanto più dati vengono addestrati. Sebbene i LLM commerciali di oggi siano multilingue, sono fortemente orientati all'inglese. Ad esempio, ChatGPT è addestrato al 92% in lingua inglese. Inoltre, i dati delle istruzioni, che rappresentano la “salsa segreta” dei LLM, sono in stragrande maggioranza inglese (ad esempio il 96% di ChatGPT). Attualmente ci sono pochissimi sforzi per migliorare le prestazioni multilinguistiche di questi modelli, nonostante le lacune sistemiche nelle prestazioni dei test esistenti, il che ha senso dato il consenso generale sul fatto che la traduzione automatica (MT) è “risolta” e gli sforzi dovrebbero essere concentrati su altri compiti.
  • Muri d'identità: se chiedi a ChatGPT cosa dovresti fare a Natale, si concentrerà su diverse attività e tradizioni in cui puoi impegnarti; non dice che potresti andare a lavorare. È stato dimostrato che gli LLM si comportano in modo diverso quando descrivono diversi gruppi demografici, esprimendo in alcuni casi un sentimento più negativo e persino una totale tossicità. È probabile che frasi stereotipate possano causare danni in comunità come quella LGBTQ+ o quella ebraica; a livello generale ci sono molti pregiudizi e questo ha conseguenze sul processo decisionale implementato. Ci sono alcune garanzie integrate e domande di indagine più esplicite hanno meno probabilità di ricevere risposte tossiche, ma i modelli probabilisticamente preferiscono affermazioni e risultati stereotipati, ed è qui che ci sono danni soprattutto quando si utilizzano modelli in capacità a valle in cui non si vede il produzione (ossia l'ammissibilità del prestito). Ha fornito un esempio di LLM che mostrano pregiudizi quando generano volti di individui in base al loro lavoro; i lavori meno retribuiti sono indicati per le donne e le minoranze, mentre i lavori più retribuiti sono destinati agli uomini bianchi.
  • Muri ambientali (software): gli LLM richiedono una quantità significativa di energia per produrre e funzionare. Anche i LM più “modesti” consumano 3 volte più energia annua rispetto a quella consumata da una singola persona. Esiste anche una lacuna significativa nei dati per i modelli linguistici più grandi come ChatGPT, ma le aziende che li possiedono negano esplicitamente l’accesso al loro consumo energetico.
  • Muri ambientali (hardware): per produrre chip, richiesti da tutti i LLM, sono necessari “materiali di conflitto” come il tantalio (estratto in Congo) e l’afnio (estratto in Senegal e Russia). Negli Stati Uniti, le aziende dovrebbero segnalare la quantità di minerali di conflitto che utilizzano, ma gli Stati Uniti mostrano pubblicamente una diminuzione nell’uso di questi materiali, il che non può essere vero. Oltre a ciò, ci sono molti problemi socio-politici come la Cina che limita il germanio e il gallio come ritorsione alle restrizioni sulle esportazioni statunitensi.

Il dottor May afferma che queste categorie rivelano alcuni dei numerosi problemi a valle relativi ai danni causati dagli LLM e ai casi in cui le persone non ne traggono beneficio. C’è motivo di preoccupazione, ma ci sono anche opportunità per la ricerca e/o cambiamenti comportamentali che potrebbero mitigare alcuni di questi danni:

  • Lingua: destinare maggiori finanziamenti alla ricerca sul multilinguismo (non solo sulla traduzione egemonica da e verso l’inglese).
  • Identità: ricerca dal basso verso l’alto e inclusiva nella comunità. Modifica e test del modello prima della distribuzione
  • Ambiente: sviluppo di algoritmi che utilizzano meno dati e modificano meno parametri (ad esempio LoRA, adattatori, PO non RL). Sii coscienzioso riguardo al computing e insisti sull’apertura a livello normativo 

Il dottor May ha concluso il panel ribadendo il punto del dottor Daumé secondo cui le persone dovrebbero essere avvantaggiate nel modo in cui desiderano essere avvantaggiate quando interagiscono con i LLM, e questo deve essere la massima considerazione nella fase di sviluppo.

Grazie mille per la lettura e vi invitiamo a sintonizzarvi domani per leggere il riepilogo della parte di domande e risposte della sessione.

spot_img

L'ultima intelligenza

spot_img