Logo Zephyrnet

Riepilogo delle promesse e delle insidie ​​– Parte quarta » Blog CCC

Data:

CCC ha sostenuto tre sessioni scientifiche alla conferenza annuale dell'AAAS di quest'anno. Questa settimana riassumeremo i punti salienti della sessione: “L'intelligenza artificiale generativa nella scienza: promesse e insidie.” Questo panel, moderato da Dottor Matthew Turk, presidente del Toyota Technological Institute di Chicago). La dottoressa Rebecca Willett, professore di statistica e informatica all'Università di Chicago, Dott. Markus Buehler, professore di ingegneria presso il Massachusetts Institute of Technology, e Dottor Duncan Watson-Parris, professore assistente presso lo Scripps Institution of Oceanography e l'Halıcıoğlu Data Science Institute dell'UC San Diego. Nella quarta parte, riassumiamo la parte del pannello dedicata alle domande e risposte. 

Alle presentazioni dei relatori è seguita una sessione di domande e risposte e il dottor Matthew Turk ha dato il via alla discussione. “'Promesse e trappole' è nel titolo di questo panel. Abbiamo discusso molte delle promesse, ma non abbiamo affrontato molte delle insidie. Cosa ti preoccupa riguardo al futuro dell’intelligenza artificiale generativa?”

"L'affidabilità e l'affidabilità di questi modelli rappresentano una grande preoccupazione", ha esordito la dott.ssa Rebecca Wilett. “Questi modelli possono prevedere cose che sono plausibili, ma mancano di elementi chiave e salienti; Come essere umano, posso riconoscere che manca qualcosa?”

Il Dr. Markus Buehler ha aggiunto che la previsione effettiva di un modello può richiedere un secondo, ma il processo sperimentale di validazione può richiedere mesi, un anno o anche di più. Allora come dovremmo agire nel frattempo se non abbiamo verificato i risultati? “Dobbiamo anche educare la prossima generazione di sviluppatori di intelligenza artificiale generativa in modo che progettino modelli affidabili e verificabili e che possiamo utilizzare intuizioni basate sulla fisica nella costruzione di questi modelli”.

Il Dr. Duncan Watson-Parris si è basato su entrambi i punti precedenti, affermando: “Poiché questi modelli sono progettati per generare risultati plausibili, non possiamo limitarci a guardare i risultati per verificarne l'accuratezza. I ricercatori dell’IA generativa devono avere una conoscenza approfondita di come funzionano questi modelli per verificarne i risultati, motivo per cui educare correttamente la prossima generazione è così importante”.

Membro del pubblico: “Nella scienza dei materiali, conosciamo la direzione da seguire per lo studio di alcuni materiali, ma per altri, come i superconduttori a temperatura ambiente, non sappiamo come andare avanti. Come pensi che sarà il percorso da seguire nello studio di questi materiali sconosciuti? E come dovrebbe essere abilitato questo tipo di ricerca dal punto di vista normativo?”

"Beh, non sono un esperto nella ricerca sui superconduttori", ha detto il dottor Buehler, "quindi non parlerò direttamente di questo, ma posso parlare in generale di come facciamo progressi nella scienza dei materiali, in particolare nella mia area delle proteine". e sviluppo di biomateriali. Il modo in cui facciamo progressi è avere la capacità di superare i limiti. Eseguiamo nuovi esperimenti e testiamo idee e teorie stravaganti e vediamo quali funzionano e perché. Per quanto riguarda il modo in cui dovremmo consentire questa ricerca, abbiamo bisogno di più modelli open source con accesso collettivo. Vorrei incoraggiare i politici a non regolamentare eccessivamente queste tecnologie, in modo tale che i ricercatori e il pubblico abbiano accesso a questo tipo di modelli. Non penso che sia una buona idea impedire alle persone di utilizzare questi modelli, soprattutto quando possiamo fare crowdsourcing di idee e sviluppi e introdurre conoscenze provenienti da diversi campi dell’attività umana. Ad esempio, quando fu inventata la macchina da stampa, le autorità cercarono di limitare la disponibilità di questa tecnologia in modo che pochi libri potessero essere letti in massa, ma questo sforzo fallì miseramente. Il modo migliore per proteggere il pubblico è facilitare l’accesso a questi modelli in modo tale da poterli sviluppare, esplorare e valutare ampiamente per il massimo beneficio della società”.

Membro del pubblico: “La maggior parte dei modelli di intelligenza artificiale generativa oggi sono modelli di regressione che si concentrano sulla simulazione o sull’emulazione di diversi scenari. Tuttavia, la scoperta scientifica è alimentata dalle ipotesi e dalle previsioni che elaboriamo. Quindi, come possiamo creare modelli destinati a concepire nuove previsioni invece dei modelli attuali che vengono utilizzati principalmente per la sperimentazione?

Il Dr. Buehler ha risposto per primo, dicendo: “Hai ragione, la maggior parte dei modelli tradizionali di machine learning sono spesso basati sulla regressione, ma i modelli di cui abbiamo parlato oggi funzionano in modo diverso. Quando metti insieme sistemi multi-agente con molte capacità, iniziano effettivamente a esplorare nuovi scenari e iniziano a ragionare e fare previsioni basate sugli esperimenti che hanno condotto. Diventano più umani. Tu, come ricercatore, non eseguiresti un esperimento e lo finiresti semplicemente: eseguiresti un esperimento e poi inizieresti a esaminare i dati, a convalidarli e a fare nuove previsioni basate su questi dati, per collegare i punti ed estrapolare in base a fare ipotesi e immaginare come si sarebbe svolto un nuovo scenario. Sperimenteresti, raccoglieresti nuovi dati, svilupperesti una teoria e proporresti forse un quadro integrato su una particolare questione di interesse. Quindi difenderesti le tue idee dalle critiche dei tuoi colleghi e forse rivedresti la tua ipotesi quando verranno utilizzate nuove informazioni. È così che funzionano i nuovi sistemi contraddittori multi-agente, ma ovviamente integrano le competenze umane con una capacità molto maggiore di ragionare su grandi quantità di dati e rappresentazioni della conoscenza. Questi modelli possono già generare nuove ipotesi che spingono i limiti ben oltre ciò che è già stato studiato, aggiungendosi al processo scientifico di scoperta e innovazione”.

“Io lo completerei”, interviene il dottor Willett, “con l’area della scoperta del completamento e della regressione simbolica come un’altra area molto più mirata alla generazione di ipotesi. C’è molto lavoro in corso in questo spazio”.

Membro del pubblico: "Come possiamo aumentare l'accesso a questi tipi di modelli e superare gli ostacoli, come la maggior parte dei modelli creati per chi parla inglese?"

La dottoressa Rebecca Willett ha risposto: “Molte persone hanno accesso all’utilizzo di questi modelli, ma progettarli e formarli costa molti milioni di dollari. Se solo un piccolo gruppo di organizzazioni è in grado di creare questi modelli, solo un gruppo molto ristretto di persone prenderà le decisioni e stabilirà le priorità nella comunità scientifica. E spesso le priorità di queste organizzazioni e individui sono orientate al profitto. Detto questo, penso che il panorama stia iniziando a cambiare. Organizzazioni come la NSF stanno cercando di costruire infrastrutture accessibili alla più ampia comunità scientifica. Questo sforzo ricorda lo sviluppo iniziale dei supercomputer. All’inizio i ricercatori dovevano presentare lunghe proposte per avere accesso a un supercomputer. Penso che vedremo paradigmi emergenti simili nell’intelligenza artificiale e nell’intelligenza artificiale generativa”.

"Sono d'accordo", ha detto il dottor Watson-Parris. "In aggiunta a ciò, dal punto di vista normativo, non penso che dovremmo regolamentare la ricerca di base, forse gli spazi applicativi, ma non la ricerca stessa."

Grazie mille per aver letto e restate sintonizzati per i riassunti degli altri due panel dell'AAAS 2024.

spot_img

L'ultima intelligenza

spot_img