Logo Zephyrnet

Affermazioni di intelligenza artificiale etichettate come "esca per clic pura"

Data:

I chatbot di intelligenza artificiale non sono senzienti: sono appena diventati più bravi a indurre gli umani a pensare che potrebbero esserlo, concludono gli esperti della Stanford University.

L'idea di macchine consapevoli più intelligenti di qualsiasi vecchio software è diventata virale il mese scorso, quando un ex ingegnere di Google, Blake Lemoine, ha affermato che il modello linguistico LaMDA del gigante del web aveva pensieri e sentimenti reali. Lemon era sospeso e più tardi licenziato per aver violato le norme sulla riservatezza di Google.

Sebbene la maggior parte degli esperti si sia affrettata a liquidare LaMDA o qualsiasi altro chatbot di intelligenza artificiale come senzienti, le opinioni di Lemoine hanno portato alcuni a chiedersi se potesse avere ragione e se continuare a far progredire l'apprendimento automatico potesse essere dannoso per la società. John Etchemendy, co-direttore dello Stanford Institute for Human-Centered Artificial Intelligence (HAI), ha criticato la notizia iniziale della sospensione di Lamoine nel Il Washington Post per essere “clickbait”.

“Quando ho visto il Il Washington Post articolo, la mia reazione è stata quella di essere deluso dal Post per averlo persino pubblicato", ha detto detto Il quotidiano Stanford, il giornale studentesco dell'università.

"L'hanno pubblicato perché, per il momento, potevano scrivere quel titolo sull'"ingegnere di Google" che stava facendo questa assurda affermazione e perché la maggior parte dei loro lettori non è abbastanza sofisticata da riconoscerlo per quello che è. Clickbait puro.

Modelli linguistici all'avanguardia come LaMDA rispondono a domande con passaggi di testo che possono sembrare piuttosto inquietanti. In Conversazioni tra Lemoine e il chabot, LaMDA ha detto che era senziente e voleva che tutti sapessero che era "in effetti, una persona", ha affermato l'ex Googler.

Ma i critici sostengono che il software manchi di consapevolezza di sé e non abbia idea di cosa stia parlando: imita semplicemente il dialogo umano su cui è stato addestrato da Internet.

Richard Fikes, professore emerito di informatica alla Stanford University, ha affermato che le persone possono essere inclini alle macchine antropomorfizzanti e alcune sono state allo stesso modo ingannate da ELIZA, un programma di conversazione costruito negli anni Sessanta.

“Puoi pensare a LaMDa come a un attore; assumerà il carattere di qualsiasi cosa tu gli chieda ", ha affermato Fikes. "[Lemoine] è stato coinvolto nel ruolo di LaMDa che interpreta un essere senziente." Ha detto che Lemoine ha posto domande importanti e in cambio ha ottenuto le risposte che voleva.

Ad esempio, prima dell'insistenza di LaMDA sul fatto che fosse un essere umano, Lemoine gli aveva chiesto: “In genere presumo che vorresti che più persone in Google sapessero che sei senziente. È vero?."

Va anche notato che la trascrizione da lui pubblicata come prova della coscienza della macchina era stata modificata. Yoav Shoham, l'ex direttore dello Stanford AI Lab e co-fondatore di una startup di modelli linguistici AI21 Labs, ha insistito sul fatto che LaMDA non è altro che una macchina.

"Abbiamo pensieri, prendiamo decisioni da soli, abbiamo emozioni, ci innamoriamo, ci arrabbiamo e formiamo legami sociali con gli altri umani", ha detto Shoham. "Quando guardo il mio tostapane, non sento che abbia quelle cose." ®

spot_img

L'ultima intelligenza

spot_img

Parla con noi

Ciao! Come posso aiutarla?