Logo Zephyrnet

L’aumento dell’uso dell’energia dell’intelligenza artificiale: un appello per l’innovazione sostenibile

Data:

AI | 7 marzo 2024

Freepik Sustainable AI - Aumento dell'uso dell'energia dell'IA: un appello per l'innovazione sostenibileFreepik Sustainable AI - Aumento dell'uso dell'energia dell'IA: un appello per l'innovazione sostenibile Immagine: Freepik

Il consumo energetico dell’intelligenza artificiale è su una traiettoria insostenibile e richiede misure urgenti di efficienza

Con l’evoluzione delle tecnologie di intelligenza artificiale (AI) e machine learning (ML), il loro consumo energetico è salito alle stelle, ponendo sfide significative in termini di sostenibilità. Questa tendenza, guidata dallo sviluppo di modelli più grandi e dalla ricerca di una maggiore precisione, solleva preoccupazioni sulla fattibilità a lungo termine dei progressi dell’intelligenza artificiale. Nell'articolo del Peterson Institute for International Economics I leader del settore lanciano l’allarme, sollecitando uno spostamento verso pratiche più efficienti dal punto di vista energetico per garantire che il futuro dell’intelligenza artificiale sia in linea con le capacità energetiche globali e gli obiettivi ambientali.

  • Il consumo energetico del machine learning è su una traiettoria insostenibile, minacciando di superare la produzione globale di energia. La richiesta di modelli più grandi e set di formazione estesi ha portato a un aumento esponenziale del consumo energetico, principalmente nei data center sia per le fasi di formazione che per quelle di inferenza. I dati forniti da Mark Papermaster, CTO di AMD, evidenziano la cruda realtà di Consumo energetico dei sistemi ML rispetto alla produzione energetica mondiale. L’industria tecnologica, storicamente guidata da innovazioni legate all’efficienza come la Legge di Moore, si trova ora ad affrontare un periodo di “anti-efficienza”, concentrandosi sulle prestazioni a scapito di un maggiore utilizzo di energia.

Vedi:  Sostenibilità: un must per la crescita del fintech

  • I ha portato alla ricerca di una maggiore precisione nelle applicazioni di intelligenza artificiale, come il riconoscimento vocale e vocale aziende a dare priorità ai risultati rispetto al consumo energetico. Questa attenzione alla redditività, tuttavia, trascura i potenziali impatti a lungo termine sulle risorse energetiche e sulla sostenibilità ambientale.
  • IA dipendenza dai data center contribuisce in modo significativo alla sua impronta di carbonio. Questi centri non solo consumano grandi quantità di elettricità ma richiedono anche un raffreddamento continuo tramite l’aria condizionata, che aumenta ulteriormente il consumo di energia. Man mano che l’intelligenza artificiale diventa più diffusa, il le emissioni di carbonio dai data center dovrebbero aumentare, aggravando l’impatto ambientale. Esiste una crescente pressione commerciale da parte dei consumatori per ridurre l’impronta di carbonio delle tecnologie di intelligenza artificiale. Le aziende che cercano soluzioni a zero emissioni di carbonio potrebbero trovare un vantaggio competitivo, poiché i consumatori preferiscono sempre più pratiche sostenibili dal punto di vista ambientale.
  • Il processo di formazione dei LLM, come GPT-3, è estremamente dispendioso in termini energetici. UN recente studio della Cornell University citato nell’articolo ha scoperto che l’addestramento di tali modelli può consumare elettricità equivalente a 500 tonnellate di carbonio, paragonabile a una centrale elettrica alimentata a carbone in funzione per quasi mezza giornata. Dato che questi modelli richiedono frequenti riqualificazioni per rimanere aggiornati, il consumo cumulativo di energia e le emissioni di carbonio sono sostanziali. Sebbene l'addestramento dei modelli di intelligenza artificiale sia noto per essere ad alta intensità energetica, il Il processo di inferenza (risposta alle domande) può consumare ancora più energia. Ciò è allarmante poiché non solo ci sono più utenti che interagiscono con gli LLM, ma stanno anche aumentando la loro dipendenza e utilizzo.

Vedi:  Le banche canadesi affrontano il controllo sulle dichiarazioni di sostenibilità

  • Oltre ai data center cloud, la proliferazione di dispositivo perimetrale intelligentes contribuisce in modo significativo al consumo energetico complessivo delle tecnologie di intelligenza artificiale. Questi dispositivi, parte integrante dell’Internet delle cose (IoT), si prevede che utilizzeranno più energia di quella che il mondo genera, evidenziando la necessità di soluzioni efficienti dal punto di vista energetico in tutti gli aspetti della diffusione dell’intelligenza artificiale.
  • C'è un mancanza di trasparenza da parte delle aziende di intelligenza artificiale relativi ai costi ambientali legati allo sviluppo e al funzionamento dei loro sistemi. Questa opacità rende difficile valutare l’intera portata dell’impronta di carbonio dell’IA e implementare normative efficaci per mitigarne l’impatto ambientale.

Modi per ridurre l'impronta di carbonio dell'intelligenza artificiale (secondo i ricercatori di Google)

Recenti ricerche di Google sulla riduzione dell’impronta di carbonio dell’IA suggerisce quattro pratiche chiave volte a ridurre al minimo l’impatto ambientale dei sistemi di intelligenza artificiale:

  • Ridurre il numero di parametri (precisione di lettura), questi modelli richiedono meno potenza di calcolo sia per l’addestramento che per l’inferenza, portando a un minor consumo di energia e, di conseguenza, a una ridotta impronta di carbonio.
  • Utilizzare processori specializzati progettati specificamente per attività di machine learning sono più efficienti dei processori generici. Questi processori specializzati possono gestire i carichi di lavoro dell’intelligenza artificiale in modo più efficace, riducendo la quantità di energia richiesta per l’addestramento e l’esecuzione dei modelli di intelligenza artificiale.

Vedi:  In che modo TinyML sta liberando la potenza dell'intelligenza artificiale nei dispositivi di uso quotidiano

  • Utilizza data center basati su cloud che sono generalmente più efficienti dal punto di vista energetico rispetto ai data center locali. Beneficiano di economie di scala e possono implementare tecnologie avanzate di raffreddamento e gestione dell’energia in modo più efficace. Inoltre, i fornitori di servizi cloud spesso investono in fonti di energia rinnovabile, riducendo ulteriormente l’impronta di carbonio delle operazioni di intelligenza artificiale ospitate nel cloud.
  • Ottimizza l'infrastruttura cloud per utilizzare le ubicazioni dei data center in base alla disponibilità di fonti energetiche più pulite. Scegliendo luoghi in cui l’energia rinnovabile è facilmente disponibile e conveniente, le aziende di intelligenza artificiale possono ridurre significativamente le emissioni di carbonio associate al consumo energetico dei loro data center.

Le prospettive per lo sviluppo sostenibile dell’IA

Il vasto utilizzo di energia da parte dell’intelligenza artificiale, guidato dallo sviluppo di modelli più grandi e dalla ricerca di una maggiore precisione, è in rotta di collisione con il gli obiettivi di sostenibilità ambientale ed energetica del pianeta. L’industria tecnologica, un tempo celebrata per le innovazioni orientate all’efficienza, ora deve affrontare la sfida di invertire la tendenza “anti-efficienza” che dà priorità alle prestazioni rispetto all’impatto ambientale.

Il costo ambientale della dipendenza dell’intelligenza artificiale dai data center, l’intenso fabbisogno energetico per l’addestramento di modelli linguistici di grandi dimensioni e il crescente consumo di energia per processi di inferenza evidenziare la natura sfaccettata dell’impronta di carbonio dell’intelligenza artificiale. Inoltre, la proliferazione di dispositivi smart edge minaccia di esacerbare questo problema, sottolineando la necessità di soluzioni complete ed efficienti dal punto di vista energetico in tutti gli aspetti dell’implementazione dell’intelligenza artificiale.

Vedi:  Il progetto energetico di Bitcoin per la rivoluzione dell’intelligenza artificiale

La ricerca di Google punta verso strategie attuabili per ridurre l’impatto ambientale dell’intelligenza artificiale, inclusa l’adozione di modelli sparsi, processori specializzati, data center basati su cloud e l’ottimizzazione della posizione di questi data center per sfruttare fonti di energia più pulite. Queste raccomandazioni offrono una tabella di marcia per l’industria dell’intelligenza artificiale per mitigare le proprie emissioni di carbonio e allinearsi agli sforzi di sostenibilità globale.


NCFA gennaio 2018 ridimensionamento - L'aumento dell'uso dell'energia dell'intelligenza artificiale: un appello per l'innovazione sostenibile

NCFA gennaio 2018 ridimensionamento - L'aumento dell'uso dell'energia dell'intelligenza artificiale: un appello per l'innovazione sostenibileI National Crowdfunding & Fintech Association (NCFA Canada) è un ecosistema di innovazione finanziaria che fornisce istruzione, informazioni di mercato, gestione del settore, opportunità e servizi di networking e finanziamento a migliaia di membri della comunità e lavora a stretto contatto con l'industria, il governo, i partner e gli affiliati per creare un settore fintech e di finanziamento vivace e innovativo. industria in Canada. Decentralizzata e distribuita, NCFA è impegnata con le parti interessate globali e aiuta a incubare progetti e investimenti nei settori fintech, finanza alternativa, crowdfunding, finanza peer-to-peer, pagamenti, risorse e token digitali, intelligenza artificiale, blockchain, criptovaluta, regtech e insurtech . Registrati Fintech & Funding Community del Canada oggi GRATIS! O diventare un membro contribuente e ottenere vantaggi. Per maggiori informazioni per favore visita: www.ncfacanada.org

Post correlati

spot_img

L'ultima intelligenza

spot_img