Logo Zephyrnet

I trend più importanti dell’AI nel 2024 – Blog IBM

Data:


I trend più importanti dell’AI nel 2024 – Blog IBM



Dirigere la sua squadra lungo il suo piano per il successo

Il 2022 è stato l’anno in cui l’intelligenza artificiale generativa (AI) è esplosa nella coscienza pubblica e il 2023 è stato l’anno in cui ha iniziato a mettere radici nel mondo degli affari. Il 2024 sarà quindi un anno cruciale per il futuro dell’intelligenza artificiale, poiché ricercatori e imprese cercheranno di stabilire come questo salto evolutivo tecnologico possa essere integrato nel modo più pratico nella nostra vita quotidiana.

L’evoluzione dell’IA generativa ha rispecchiato quella dei computer, anche se su una linea temporale notevolmente accelerata. I massicci computer mainframe gestiti centralmente da pochi attori hanno lasciato il posto a macchine più piccole ed efficienti accessibili alle imprese e agli istituti di ricerca. Nei decenni successivi, i progressi incrementali hanno prodotto computer domestici con cui gli hobbisti potevano armeggiare. Col tempo, potenti personal computer con interfacce intuitive senza codice divennero onnipresenti.

L’intelligenza artificiale generativa ha già raggiunto la sua fase “hobbista” e, come con i computer, ulteriori progressi mirano a ottenere prestazioni maggiori in pacchetti più piccoli. Il 2023 ha visto un’esplosione di sistemi sempre più efficienti modelli di fondazione con licenze aperte, a partire dal lancio della famiglia LlaMa di Meta di modelli linguistici di grandi dimensioni (LLM) e seguito da modelli del calibro di StableLM, Falcon, Mistral e lama 2. DeepFloyd e Stable Diffusion hanno raggiunto una relativa parità con i principali modelli proprietari. Migliorati con tecniche di messa a punto e set di dati sviluppati dalla comunità open source, molti modelli aperti possono ora sovraperformare tutti i modelli closed source, tranne i più potenti, sulla maggior parte dei benchmark, nonostante conteggi di parametri molto più piccoli.

Man mano che il ritmo del progresso accelera, le capacità in continua espansione dei modelli all’avanguardia attireranno la massima attenzione da parte dei media. Ma gli sviluppi di maggior impatto potrebbero essere quelli focalizzati su governance, middleware, tecniche di formazione e pipeline di dati che rendono l’IA generativa più efficace. affidabili sul mercato, sostenibile e accessibile, sia per le imprese che per gli utenti finali.

Ecco alcune importanti tendenze attuali dell’IA a cui prestare attenzione nel prossimo anno.

  • Controllo della realtà: aspettative più realistiche
  • IA multimodale
  • Modelli linguistici più piccoli e progressi open source
  • Carenze di GPU e costi del cloud
  • L'ottimizzazione del modello sta diventando più accessibile
  • Modelli locali personalizzati e pipeline di dati
  • Agenti virtuali più potenti
  • Normativa, diritto d'autore e preoccupazioni etiche sull'IA
  • Shadow AI (e policy aziendali sull'IA)

Controllo della realtà: aspettative più realistiche

Quando l’intelligenza artificiale generativa ha raggiunto per la prima volta la consapevolezza di massa, la conoscenza di un tipico leader aziendale proveniva principalmente da materiali di marketing e da una copertura giornalistica senza fiato. L'esperienza tangibile (se presente) si è limitata a scherzare con ChatGPT e DALL-E. Ora che le acque si sono calmate, la comunità imprenditoriale ha una comprensione più raffinata delle soluzioni basate sull’intelligenza artificiale.

L’Hype Cycle di Gartner posiziona l’intelligenza artificiale generativa esattamente al “picco delle aspettative gonfiate”, sull’apice di una scivolata verso il “fondo della disillusione”[I]– in altre parole, sul punto di entrare in un periodo di transizione (relativamente) deludente – mentre il rapporto “State of Generated AI in the Enterprise” di Deloitte del primo trimestre del 1 indicava che molti leader “si aspettano sostanziali impatti trasformativi a breve termine”.[Ii] La realtà probabilmente si troverà nel mezzo: l’intelligenza artificiale generativa offre opportunità e soluzioni uniche, ma non sarà tutto per tutti.

Il modo in cui i risultati del mondo reale si confrontano con l’hype è in parte una questione di prospettiva. Strumenti autonomi come ChatGPT sono in genere al centro dell'immaginazione popolare, ma un'integrazione fluida in servizi consolidati spesso garantisce una maggiore resistenza. Prima dell’attuale ciclo di hype, gli strumenti di machine learning generativi come la funzionalità “Smart Compose” lanciata da Google nel 2018 non erano stati annunciati come un cambiamento di paradigma, nonostante fossero precursori degli odierni servizi di generazione di testo. Allo stesso modo, molti strumenti di intelligenza artificiale generativa ad alto impatto vengono implementati come elementi integrati di ambienti aziendali che migliorano e completano, anziché rivoluzionare o sostituire, gli strumenti esistenti: ad esempio, le funzionalità “Copilot” in Microsoft Office, le funzionalità “Generative Fill” in Adobe Photoshop o agenti virtuali nelle app di produttività e collaborazione.

Il fatto che l’intelligenza artificiale generativa crei inizialmente slancio nei flussi di lavoro quotidiani avrà più influenza sul futuro degli strumenti di intelligenza artificiale rispetto all’ipotetico vantaggio di qualsiasi specifica capacità di intelligenza artificiale. Secondo un recente Sondaggio IBM condotto su oltre 1,000 dipendenti di aziende di scala aziendale, i tre fattori principali che guidano l’adozione dell’intelligenza artificiale sono stati i progressi negli strumenti di intelligenza artificiale che li rendono più accessibili, la necessità di ridurre i costi e automatizzare i processi chiave e la crescente quantità di intelligenza artificiale incorporata nelle applicazioni aziendali standard standard.

multimodale IA (e video)

Detto questo, l’ambizione di un’intelligenza artificiale generativa all’avanguardia è in crescita. La prossima ondata di progressi si concentrerà non solo sul miglioramento delle prestazioni all’interno di un dominio specifico, ma anche sul miglioramento delle prestazioni multimodale modelli che può richiedere più tipi di dati come input. Sebbene i modelli che operano su diverse modalità di dati non siano un fenomeno strettamente nuovo (modelli da testo a immagine come CLIP e modelli da parlato a testo come Wave2Vec esistono ormai da anni), in genere hanno operato solo in una direzione e sono stati addestrati a svolgere un compito specifico.

La nuova generazione di modelli interdisciplinari, che comprende modelli proprietari come GPT-4V di OpenAI o Gemini di Google, nonché modelli open source come LLaVa, Adept o Qwen-VL, può muoversi liberamente tra l'elaborazione del linguaggio naturale (NLP) e le attività di visione artificiale. Stanno portando anche nuovi modelli video nell'ovile: a fine gennaio, Google ha annunciato Lumiere, un modello di diffusione da testo a video che può anche eseguire attività di conversione da immagine a video o utilizzare immagini come riferimento di stile.

Il vantaggio più immediato dell’IA multimodale sono le applicazioni AI e gli assistenti virtuali più intuitivi e versatili. Gli utenti possono, ad esempio, chiedere informazioni su un'immagine e ricevere una risposta in linguaggio naturale, oppure chiedere ad alta voce istruzioni per riparare qualcosa e ricevere aiuti visivi insieme a istruzioni testuali passo passo.

A un livello superiore, l’intelligenza artificiale multimodale consente a un modello di elaborare input di dati più diversificati, arricchendo ed espandendo le informazioni disponibili per l’addestramento e l’inferenza. Il video, in particolare, offre un grande potenziale per l’apprendimento olistico. "Ci sono telecamere attive 24 ore su 7, XNUMX giorni su XNUMX, e catturano ciò che accade proprio mentre accade, senza alcun filtro, senza alcuna intenzionalità", afferma Peter Norvig, Distinguished Education Fellow presso lo Stanford Institute for Human-Centered Artificial Intelligence (HAI) .[Iii] “I modelli di intelligenza artificiale non avevano mai avuto questo tipo di dati prima. Quei modelli avranno semplicemente una migliore comprensione di tutto.

Modelli linguistici più piccoli e progressi open source

Nei modelli specifici del dominio, in particolare negli LLM, abbiamo probabilmente raggiunto il punto di rendimenti decrescenti derivanti da conteggi di parametri più ampi. Sam Altman, CEO di OpenAI (il cui modello GPT-4 si dice abbia circa 1.76 trilioni parametri), lo ha suggerito all'evento Imagination in Action del MIT lo scorso aprile: "Penso che siamo alla fine dell'era in cui ci saranno questi modelli giganti, e li miglioreremo in altri modi", ha previsto . "Penso che ci sia stata troppa attenzione al conteggio dei parametri."

I modelli enormi hanno dato il via a questa epoca d'oro dell'IA, ma non sono privi di inconvenienti. Solo le aziende più grandi hanno i fondi e lo spazio sui server per addestrare e mantenere modelli ad alto consumo energetico con centinaia di miliardi di parametri. Secondo una stima dell'Università di Washington, l'addestramento di un singolo modello di dimensioni GPT-3 richiede il annuale consumo di elettricità di oltre 1,000 famiglie; una giornata standard di query ChatGPT rivaleggia con il consumo energetico giornaliero di 33,000 famiglie statunitensi.[Iv]

I modelli più piccoli, nel frattempo, richiedono molte meno risorse. Un influente Documento di marzo 2022 di Deepmind ha dimostrato che l'addestramento di modelli più piccoli su più dati produce prestazioni migliori rispetto all'addestramento di modelli più grandi su meno dati. Gran parte dell’innovazione in corso negli LLM si è quindi concentrata sull’ottenimento di maggiori risultati con meno parametri. Come dimostrato dal recente progresso dei modelli nell’intervallo di parametri compreso tra 3 e 70 miliardi, in particolare quelli basati sui modelli di fondazione LLaMa, Llama 2 e Mistral nel 2023, i modelli possono essere ridimensionati senza grandi sacrifici in termini di prestazioni.

Il potere dei modelli aperti continuerà a crescere. Nel dicembre del 2023, Mistral ha pubblicato “Mixtral”, a miscela di esperti (MoE) modello che integra 8 reti neurali, ciascuna con 7 miliardi di parametri. Mistral afferma che Mixtral non solo supera la variante con parametro 70B di Llama 2 sulla maggior parte dei benchmark a velocità di inferenza 6 volte più elevate, ma che eguaglia o supera anche quella di OpenAI. lontano GPT-3.5 più grande sulla maggior parte dei benchmark standard. Poco dopo, Meta ha annunciato a gennaio di aver già iniziato la formazione dei modelli Llama 3 e ha confermato che saranno open source. Sebbene i dettagli (come le dimensioni del modello) non siano stati confermati, è ragionevole aspettarsi che Llama 3 segua la struttura stabilita nelle due generazioni precedenti.

Questi progressi nei modelli più piccoli hanno tre importanti vantaggi:

  • Aiutano a democratizzare l’IA: modelli più piccoli che possono essere eseguiti a costi inferiori su hardware più accessibili consentono a più dilettanti e istituzioni di studiare, addestrare e migliorare i modelli esistenti.
  • Possono essere eseguiti localmente su dispositivi più piccoli: ciò consente un’intelligenza artificiale più sofisticata in scenari come l’edge computing e l’Internet delle cose (IoT). Inoltre, l'esecuzione dei modelli localmente, come sullo smartphone di un utente, aiuta a eludere molti problemi di privacy e sicurezza informatica che derivano dall'interazione con dati personali o proprietari sensibili.
  • Rendono l’intelligenza artificiale più spiegabile: quanto più grande è il modello, tanto più difficile è individuare come e dove prende decisioni importanti. AI spiegabile è essenziale per comprendere, migliorare e avere fiducia nei risultati dei sistemi di intelligenza artificiale.

Carenze di GPU e costi del cloud

La tendenza verso modelli più piccoli sarà guidata tanto dalla necessità quanto dal vigore imprenditoriale, poiché i costi del cloud computing aumenteranno con la diminuzione della disponibilità dell’hardware.

"Le grandi aziende (e molte altre) stanno tutte cercando di portare internamente le funzionalità di intelligenza artificiale, e c'è una certa corsa alle GPU", afferma James Landay, vicedirettore e direttore della facoltà di ricerca, Stanford HAI. "Ciò creerà un'enorme pressione non solo per una maggiore produzione di GPU, ma anche per gli innovatori che troveranno soluzioni hardware più economiche e più facili da realizzare e utilizzare."1

Come spiega un rapporto O’Reilly di fine 2023, i fornitori di servizi cloud attualmente sopportano gran parte del carico informatico: sono relativamente pochi coloro che adottano l’intelligenza artificiale a mantenere la propria infrastruttura e la carenza di hardware non farà altro che aumentare gli ostacoli e i costi di configurazione dei server in sede. A lungo termine, ciò potrebbe esercitare una pressione al rialzo sui costi del cloud poiché i fornitori aggiornano e ottimizzano la propria infrastruttura per soddisfare in modo efficace la domanda di intelligenza artificiale generativa.[V]

Per le imprese, navigare in questo panorama incerto richiede flessibilità, sia in termini di modelli – appoggiandosi a modelli più piccoli ed efficienti dove necessario o a modelli più grandi e più performanti quando pratico – sia di ambiente di implementazione. "Non vogliamo limitare il luogo in cui le persone implementano [un modello]", ha affermato il CEO di IBM Arvind Krishna in a Intervista di dicembre 2023 con CNBC, in riferimento a IBM watsonx piattaforma. “Quindi [se] vogliono implementarlo su un grande cloud pubblico, lo faremo lì. Se vogliono implementarlo in IBM, lo faremo in IBM. Se vogliono farlo da soli e hanno abbastanza infrastrutture, lo faremo lì”.

L'ottimizzazione del modello sta diventando più accessibile

La tendenza verso la massimizzazione delle prestazioni di modelli più compatti è ben servita dai recenti risultati della comunità open source. 

Molti progressi chiave sono stati (e continueranno a essere) guidati non solo da nuovi modelli di base, ma da nuove tecniche e risorse (come set di dati open source) per l’addestramento, la messa a punto, la messa a punto o l’allineamento di modelli preaddestrati. Notevoli tecniche indipendenti dal modello che hanno preso piede nel 2023 includono:

  • Adattamento di basso rango (LoRA): Invece di mettere a punto direttamente miliardi di parametri del modello, LoRA prevede il congelamento dei pesi del modello pre-addestrato e l'inserimento di livelli addestrabili, che rappresentano la matrice delle modifiche ai pesi del modello come 2 più piccoli (rango inferiore) matrici: in ciascun blocco del trasformatore. Ciò riduce drasticamente il numero di parametri che devono essere aggiornati, il che, a sua volta, accelera notevolmente la messa a punto e riduce la memoria necessaria per archiviare gli aggiornamenti del modello.
  • Quantizzazione: Come abbassare il bitrate dell'audio o del video per ridurre le dimensioni del file e la latenza, la quantizzazione riduce la precisione utilizzata per rappresentare i punti dati del modello, ad esempio da virgola mobile a 16 bit a intero a 8 bit, per ridurre l'utilizzo della memoria e accelerare l'inferenza. QLoRA le tecniche combinano la quantizzazione con LoRA.
  • Ottimizzazione delle preferenze dirette (DPO): I modelli di chat in genere utilizzano apprendimento per rinforzo dal feedback umano (RLHF) per allineare gli output del modello alle preferenze umane. Sebbene potente, RLHF è complesso e instabile. Il DPO promette vantaggi simili pur essendo computazionalmente leggero e sostanzialmente più semplice.

Accanto ai progressi paralleli nei modelli open source nello spazio di parametri compreso tra 3 e 70 miliardi, queste tecniche in evoluzione potrebbero spostare le dinamiche del panorama dell’intelligenza artificiale fornendo agli attori più piccoli, come startup e dilettanti, sofisticate capacità di intelligenza artificiale che prima erano fuori portata.

Modelli locali personalizzati e pipeline di dati

Nel 2024 le imprese potranno quindi perseguire la differenziazione attraverso lo sviluppo di modelli su misura, piuttosto che costruire involucri attorno a servizi riconfezionati dalla “Grande IA”. Con il giusto quadro di dati e sviluppo, i modelli e gli strumenti di intelligenza artificiale open source esistenti possono essere adattati a quasi tutti gli scenari del mondo reale, dagli usi dell'assistenza clienti alla gestione della catena di fornitura all'analisi di documenti complessi.

I modelli open source offrono alle organizzazioni l’opportunità di sviluppare potenti modelli di intelligenza artificiale personalizzati, addestrati sui propri dati proprietari e ottimizzati per le loro esigenze specifiche, in modo rapido, senza investimenti infrastrutturali proibitivi e costosi. Ciò è particolarmente rilevante in settori come quello legale, sanitario o finanziario, dove vocabolario e concetti altamente specializzati potrebbero non essere stati appresi dai modelli di base nella pre-formazione.

Anche il settore legale, finanziario e sanitario sono ottimi esempi di settori che possono trarre vantaggio da modelli sufficientemente piccoli da poter essere gestiti localmente su hardware modesto. Mantenere la formazione, l'inferenza e l'intelligenza artificiale generazione aumentata di recupero (RAG) local evita il rischio che dati proprietari o informazioni personali sensibili vengano utilizzati per addestrare modelli closed source o passino altrimenti nelle mani di terze parti. Inoltre, l'utilizzo di RAG per accedere alle informazioni rilevanti anziché archiviare tutta la conoscenza direttamente all'interno del LLM stesso aiuta a ridurre le dimensioni del modello, aumentando ulteriormente la velocità e riducendo i costi.

Mentre il 2024 continua a livellare le condizioni di gioco, il vantaggio competitivo sarà sempre più guidato da pipeline di dati proprietari che consentono la migliore messa a punto del settore.

Agenti virtuali più potenti

Con strumenti più sofisticati ed efficienti e un anno di feedback di mercato a loro disposizione, le aziende sono pronte ad espandere i casi d'uso per agenti virtuali oltre il semplice semplice chatbot per l'esperienza del cliente.

Man mano che i sistemi di intelligenza artificiale accelerano e incorporano nuovi flussi e formati di informazioni, espandono le possibilità non solo di comunicare e seguire le istruzioni, ma anche di automatizzare le attività. “Il 2023 è stato l’anno in cui è stato possibile chattare con un’intelligenza artificiale. Diverse aziende hanno lanciato qualcosa, ma l'interazione consisteva sempre nel digitare qualcosa e l'altro in risposta", afferma Norvig di Stanford. “Nel 2024 vedremo la capacità degli agenti di fare cose per te. Effettua prenotazioni, pianifica un viaggio, connettiti ad altri servizi.

L’intelligenza artificiale multimodale, in particolare, aumenta significativamente le opportunità di interazione senza soluzione di continuità con gli agenti virtuali. Ad esempio, invece di chiedere semplicemente ricette a un bot, un utente può puntare una telecamera verso un frigorifero aperto e richiedere ricette che possono essere preparate con gli ingredienti disponibili. Be My Eyes, un'app mobile che mette in contatto persone non vedenti e ipovedenti con volontari per aiutarli con compiti rapidi, sta sperimentando strumenti di intelligenza artificiale che aiutano gli utenti a interagire direttamente con l'ambiente circostante attraverso l'intelligenza artificiale multimodale invece di attendere un volontario umano.

Esplora IBM watsonx™ Assistant: intelligenza artificiale conversazionale leader di mercato con integrazione perfetta per gli strumenti che potenziano il tuo business →

Normativa, diritto d'autore e preoccupazioni etiche sull'IA

Elevate capacità multimodali e minori barriere all’ingresso aprono anche nuove porte agli abusi: deepfake, problemi di privacy, perpetuazione di pregiudizi e persino l’evasione delle garanzie CAPTCHA possono diventare sempre più facili per i malintenzionati. Nel gennaio del 2024, un’ondata di deepfake espliciti di celebrità ha colpito i social media; una ricerca del maggio 2023 ha indicato che sono stati pubblicati online 8 volte più deepfake vocali rispetto allo stesso periodo del 2022.[Vi]

L’ambiguità del contesto normativo potrebbe rallentare l’adozione, o almeno un’implementazione più aggressiva, nel breve e medio termine. Esiste un rischio intrinseco a qualsiasi investimento importante e irreversibile in una tecnologia o pratica emergente che potrebbe richiedere una significativa riorganizzazione – o addirittura diventare illegale – a seguito di una nuova legislazione o di cambiamenti politici contrari nei prossimi anni.

Nel dicembre 2023 è nata l’Unione Europea (UE). accordo provvisorio sulla legge sull’intelligenza artificiale. Tra le altre misure, vieta lo scraping indiscriminato di immagini per creare database di riconoscimento facciale, sistemi di categorizzazione biometrica con potenziali pregiudizi discriminatori, sistemi di “punteggio sociale” e l’uso dell’intelligenza artificiale per la manipolazione sociale o economica. Cerca inoltre di definire una categoria di sistemi di IA “ad alto rischio”, con il potenziale di minacciare la sicurezza, i diritti fondamentali o lo stato di diritto, che saranno soggetti a ulteriore supervisione. Allo stesso modo, stabilisce requisiti di trasparenza per quelli che chiama sistemi di “AI per scopi generali (GPAI)” – modelli fondamentali – compresa la documentazione tecnica e i test contraddittori sistemici.

Ma mentre alcuni attori chiave, come Mistral, risiedono nell’UE, la maggior parte dello sviluppo innovativo dell’IA si sta verificando in America, dove una legislazione sostanziale sull’IA nel settore privato richiederà un’azione da parte del Congresso, cosa che potrebbe essere improbabile in un anno elettorale. Il 30 ottobre l’amministrazione Biden ha emesso un ordine esecutivo completo dettagliando 150 requisiti per l'uso delle tecnologie AI da parte delle agenzie federali; mesi prima, l'amministrazione si era assicurata impegni volontari da parte di importanti sviluppatori di intelligenza artificiale aderire a determinati guardrail per garantire fiducia e sicurezza. In particolare, sia la California che il Colorado stanno perseguendo attivamente la propria legislazione in materia di diritti alla privacy dei dati degli individui per quanto riguarda l’intelligenza artificiale.

La Cina si è mossa in modo più proattivo verso restrizioni formali sull’intelligenza artificiale, vietando la discriminazione dei prezzi da parte di algoritmi di raccomandazione sui social media e imponendo una chiara etichettatura dei contenuti generati dall’intelligenza artificiale. Le future normative sull’intelligenza artificiale generativa cercano di richiedere che i dati di addestramento utilizzati per addestrare gli LLM e il contenuto successivamente generato dai modelli debbano essere “veri e accurati”, cosa che gli esperti hanno adottato per indicare misure per censurare l’output LLM.

Nel frattempo, il ruolo del materiale protetto da copyright nella formazione dei modelli di intelligenza artificiale utilizzati per la generazione di contenuti, dai modelli linguistici ai generatori di immagini e ai modelli video, rimane una questione fortemente controversa. L'esito di alto profilo causa intentata dal New York Times contro OpenAI potrebbe influenzare in modo significativo la traiettoria della legislazione sull’IA. Strumenti contraddittori, come Glaze ed solano-entrambi sviluppati presso l'Università di Chicago-sono sorti in quella che potrebbe diventare una sorta di corsa agli armamenti tra creatori e sviluppatori di modelli.

 Scopri come IBM® watsonx.governance™ accelera flussi di lavoro AI responsabili, trasparenti e spiegabili →

Shadow AI (e policy aziendali sull'IA)

Per le aziende, questo potenziale crescente di conseguenze legali, normative, economiche o reputazionali è aggravato da quanto sono diventati popolari e accessibili gli strumenti di intelligenza artificiale generativa. Le organizzazioni non devono solo avere una politica aziendale attenta, coerente e chiaramente articolata sull’intelligenza artificiale generativa, ma devono anche diffidare IA ombra: l’uso personale “non ufficiale” dell’IA sul posto di lavoro da parte dei dipendenti.

Denominata anche "shadow IT" o "BYOAI", l'IA ombra si verifica quando dipendenti impazienti che cercano soluzioni rapide (o semplicemente vogliono esplorare nuove tecnologie più velocemente di quanto consentito da una cauta politica aziendale) implementano l'intelligenza artificiale generativa sul posto di lavoro senza passare attraverso l'IT per l'approvazione o la supervisione . Molti servizi rivolti al consumatore, alcuni gratuiti, consentono anche a persone non tecniche di improvvisare l’uso di strumenti di intelligenza artificiale generativa. In uno studio di Ernst & Young, il 90% degli intervistati ha affermato di utilizzare l’intelligenza artificiale al lavoro.[Vii]

Questo spirito intraprendente può essere eccezionale, nel vuoto, ma i dipendenti entusiasti potrebbero non avere informazioni o prospettive rilevanti in materia di sicurezza, privacy o conformità. Ciò può esporre le imprese a notevoli rischi. Ad esempio, un dipendente potrebbe inconsapevolmente fornire segreti commerciali a un modello di intelligenza artificiale rivolto al pubblico che si addestra continuamente sull’input dell’utente o utilizzare materiale protetto da copyright per addestrare un modello proprietario per la generazione di contenuti ed esporre la propria azienda ad azioni legali.

Come molti sviluppi in corso, ciò sottolinea come i pericoli dell’intelligenza artificiale generativa aumentino quasi linearmente con le sue capacità. Con un grande potere viene una grande responsabilità.

Andando avanti

Mentre attraversiamo un anno cruciale nel campo dell’intelligenza artificiale, comprendere e adattarsi alle tendenze emergenti è essenziale per massimizzare il potenziale, ridurre al minimo i rischi e ridimensionare in modo responsabile l’adozione dell’IA generativa.

Metti l'intelligenza artificiale generativa al lavoro con watsonx™ →

Scopri come IBM può consentirti di stare al passo con le tendenze dell'AI →


[I] “Gartner colloca l’intelligenza artificiale generativa al culmine delle aspettative gonfiate nel ciclo di hype del 2023 per le tecnologie emergenti”, Gartner, 16 agosto 2023

[Ii] "Rapporto sullo stato dell'intelligenza artificiale generativa di Deloitte nel primo trimestre delle imprese" Deloitte, gennaio 2024

[Iii] "Cosa aspettarsi dall'intelligenza artificiale nel 2024" Università di Stanford, 8 dicembre 2023

[Iv] "Domande e risposte: un ricercatore dell'UW discute della quantità di energia utilizzata da ChatGPT", Università di Washington, 27 luglio 2023

[V] “L’intelligenza artificiale generativa nell’impresa” O'Reilly, 28 novembre 2023

[Vi] "Deepfaking it: le elezioni americane del 2024 coincidono con il boom dell'intelligenza artificiale", Reuters, 30 maggio 2023

[Vii] "Come le organizzazioni possono impedire che l'aumento vertiginoso dell'uso dell'intelligenza artificiale non alimenti l'ansia" Ernst & Young, dicembre 2023

questo articolo è stato utile?

Non


Altro da Intelligenza artificiale




Creare esperienze eccezionali per i dipendenti

4 min leggere - Poiché il confine tra la vita personale e quella professionale dei dipendenti diventa più sfumato che mai, i dipendenti si aspettano un ambiente di lavoro più flessibile ed empatico, che tenga conto di sé stessi. Questo cambiamento nelle aspettative dei dipendenti sta avvenendo in un ambiente difficile, caratterizzato da rapidi progressi tecnologici, crescenti divari di competenze e problemi socioeconomici imprevedibili. E come se non bastasse, la natura stessa delle risorse umane resiste all’ottimizzazione, poiché le esperienze dei dipendenti sono difficili da quantificare e le organizzazioni sono difficili da cambiare. Nonostante queste sfide,…




6 modi in cui l'intelligenza artificiale generativa può ottimizzare la gestione delle risorse

3 min leggere - Ogni asset manager, indipendentemente dalle dimensioni dell'organizzazione, deve affrontare mandati simili: semplificare la pianificazione della manutenzione, migliorare l'affidabilità delle risorse o delle apparecchiature e ottimizzare i flussi di lavoro per migliorare la qualità e la produttività. In un recente studio condotto dall’IBM Institute for Business Value sui responsabili della supply chain, quasi la metà degli intervistati ha dichiarato di aver adottato nuove tecnologie in risposta alle sfide. C’è ancora più aiuto all’orizzonte con la potenza dei modelli di base dell’intelligenza artificiale generativa (AI), combinati con l’intelligenza artificiale tradizionale, per…




Come la Recording Academy utilizza IBM Watsonx per migliorare l'esperienza dei fan ai GRAMMYs®

3 min leggere - Attraverso i GRAMMY®, la Recording Academy® cerca di riconoscere l'eccellenza nelle arti e nelle scienze della registrazione e garantire che la musica rimanga una parte indelebile della nostra cultura. Quando le migliori star della registrazione mondiale attraverseranno il tappeto rosso alla 66esima edizione dei GRAMMY Awards, IBM sarà presente ancora una volta. Quest'anno, la sfida commerciale affrontata dai GRAMMY è stata parallela a quella di altri iconici eventi culturali, sportivi e di intrattenimento: nel panorama mediatico altamente frammentato di oggi, creare un impatto culturale significa promuovere contenuti accattivanti...




L'assistente AI per tutti: watsonx Orchestrate combina intelligenza artificiale generativa e automazione per aumentare la produttività

3 min leggere - Cosa accadrebbe se i dipendenti avessero la possibilità di delegare facilmente attività che richiedono molto tempo, accedere facilmente alle informazioni attraverso semplici richieste e affrontare progetti complessi all'interno di un'unica applicazione semplificata? Cosa accadrebbe se i clienti avessero accesso a un agente virtuale intelligente e amichevole per fornire risposte e consentire esperienze self-service 24 ore su 24? Questa rivoluzione tecnologica è ora possibile, grazie alle capacità innovative dell’automazione generativa basata sull’intelligenza artificiale. Con i progressi odierni nella tecnologia AI Assistant, le aziende possono ottenere risultati aziendali a una velocità senza precedenti, trasformando...

Newsletter IBM

Ricevi le nostre newsletter e aggiornamenti sugli argomenti che forniscono la leadership di pensiero più recente e approfondimenti sulle tendenze emergenti.

Iscriviti ora

Altre newsletter

spot_img

L'ultima intelligenza

spot_img