Logo Zephyrnet

La promessa dell'intelligenza artificiale edge e gli approcci per un'adozione efficace – KDnuggets

Data:

La promessa dell’Edge AI e gli approcci per un’adozione efficace
Immagine dell'editore
 

L’attuale panorama tecnologico sta vivendo uno spostamento cruciale verso l’edge computing, stimolato dai rapidi progressi nell’intelligenza artificiale generativa (GenAI) e nei carichi di lavoro dell’intelligenza artificiale tradizionale. Storicamente dipendenti dal cloud computing, questi carichi di lavoro di intelligenza artificiale stanno ora incontrando i limiti dell’intelligenza artificiale basata sul cloud, comprese le preoccupazioni sulla sicurezza dei dati, sulla sovranità e sulla connettività di rete.

Aggirando queste limitazioni dell’intelligenza artificiale basata sul cloud, le organizzazioni stanno cercando di abbracciare l’edge computing. La capacità dell’edge computing di consentire analisi e risposte in tempo reale nel punto in cui i dati vengono creati e consumati è il motivo per cui le organizzazioni lo considerano fondamentale per l’innovazione dell’intelligenza artificiale e la crescita del business.

Con la sua promessa di un’elaborazione più rapida con latenza da zero a minima, l’intelligenza artificiale edge può trasformare radicalmente le applicazioni emergenti. Sebbene le capacità di elaborazione dei dispositivi edge stiano migliorando sempre di più, esistono ancora limitazioni che possono rendere difficile l’implementazione di modelli di intelligenza artificiale altamente accurati. Tecnologie e approcci come la quantizzazione dei modelli, l’imitazione dell’apprendimento, l’inferenza distribuita e la gestione distribuita dei dati possono aiutare a rimuovere gli ostacoli a implementazioni di IA edge più efficienti ed economicamente vantaggiose in modo che le organizzazioni possano sfruttare il loro vero potenziale. 

L'inferenza dell'intelligenza artificiale nel cloud è spesso influenzata da problemi di latenza, che causano ritardi nello spostamento dei dati tra dispositivi e ambienti cloud. Le organizzazioni si stanno rendendo conto del costo dello spostamento dei dati tra regioni, nel cloud e avanti e indietro dal cloud all'edge. Può ostacolare applicazioni che richiedono risposte estremamente rapide e in tempo reale, come transazioni finanziarie o sistemi di sicurezza industriale. Inoltre, quando le organizzazioni devono eseguire applicazioni basate sull’intelligenza artificiale in località remote dove la connettività di rete non è affidabile, il cloud non è sempre a portata di mano. 

I limiti di una strategia di intelligenza artificiale “solo cloud” stanno diventando sempre più evidenti, soprattutto per le applicazioni basate sull’intelligenza artificiale di prossima generazione che richiedono risposte rapide e in tempo reale. Problemi come la latenza della rete possono rallentare gli insight e i ragionamenti che possono essere forniti all’applicazione nel cloud, portando a ritardi e maggiori costi associati alla trasmissione dei dati tra il cloud e gli ambienti edge. Ciò è particolarmente problematico per le applicazioni in tempo reale, soprattutto in aree remote con connettività di rete intermittente. Poiché l’intelligenza artificiale è al centro del processo decisionale e del ragionamento, la fisica dello spostamento dei dati può essere estremamente costosa, con un impatto negativo sui risultati aziendali. 

Gartner prevede che oltre il 55% di tutte le analisi dei dati da parte delle reti neurali profonde avverrà nel punto di acquisizione in un sistema edge entro il 2025, rispetto a meno del 10% nel 2021. L’edge computing aiuta ad alleviare la latenza, la scalabilità, la sicurezza dei dati, la connettività e nuove sfide, rimodellando il modo in cui viene gestita l’elaborazione dei dati e, di conseguenza, accelerando l’adozione dell’intelligenza artificiale. Lo sviluppo di applicazioni con un approccio offline-first sarà fondamentale per il successo delle applicazioni agili.

Con una strategia edge efficace, le organizzazioni possono ottenere più valore dalle proprie applicazioni e prendere decisioni aziendali più rapidamente.

Man mano che i modelli di intelligenza artificiale diventano sempre più sofisticati e le architetture applicative diventano più complesse, la sfida di implementare questi modelli su dispositivi edge con vincoli computazionali diventa più pronunciata. Tuttavia, i progressi tecnologici e le metodologie in evoluzione stanno aprendo la strada all’integrazione efficiente di potenti modelli di intelligenza artificiale all’interno del quadro dell’edge computing che vanno da: 

Compressione e quantizzazione del modello

Tecniche come la potatura e la quantizzazione dei modelli sono cruciali per ridurre le dimensioni dei modelli IA senza comprometterne significativamente l'accuratezza. L'eliminazione del modello elimina le informazioni ridondanti o non critiche dal modello, mentre la quantizzazione riduce la precisione dei numeri utilizzati nei parametri del modello, rendendo i modelli più leggeri e più veloci da eseguire su dispositivi con risorse limitate. La quantizzazione del modello è una tecnica che prevede la compressione di modelli AI di grandi dimensioni per migliorare la portabilità e ridurre le dimensioni del modello, rendendoli più leggeri e adatti alle distribuzioni edge. Utilizzando tecniche di perfezionamento, tra cui la quantizzazione post-allenamento generalizzata (GPTQ), l'adattamento di basso rango (LoRA) e loRA quantizzata (QLoRA), la quantizzazione del modello riduce la precisione numerica dei parametri del modello, rendendo i modelli più efficienti e accessibili per dispositivi edge come tablet, gateway edge e telefoni cellulari. 

Framework AI specifici per edge

Lo sviluppo di framework e librerie di intelligenza artificiale appositamente progettati per l’edge computing può semplificare il processo di distribuzione dei carichi di lavoro di intelligenza artificiale edge. Questi framework sono ottimizzati per le limitazioni computazionali dell'hardware edge e supportano l'esecuzione efficiente del modello con un sovraccarico prestazionale minimo.

Database con gestione distribuita dei dati

Con funzionalità come la ricerca vettoriale e l'analisi in tempo reale, aiuta a soddisfare i requisiti operativi dell'edge e supporta l'elaborazione dei dati locali, gestendo vari tipi di dati, come audio, immagini e dati dei sensori. Ciò è particolarmente importante nelle applicazioni in tempo reale come i software per veicoli autonomi, in cui vengono costantemente raccolti diversi tipi di dati che devono essere analizzati in tempo reale.

Inferenza distribuita

Posizionare modelli o carichi di lavoro su più dispositivi edge con campioni di dati locali senza un effettivo scambio di dati può mitigare potenziali problemi di conformità e privacy dei dati. Per le applicazioni, come le città intelligenti e l'IoT industriale, che coinvolgono molti dispositivi edge e IoT, è fondamentale tenere in considerazione la distribuzione dell'inferenza. 

Sebbene l’intelligenza artificiale sia stata elaborata prevalentemente nel cloud, trovare un equilibrio con l’edge sarà fondamentale per accelerare le iniziative di intelligenza artificiale. La maggior parte dei settori, se non tutti, hanno riconosciuto l’intelligenza artificiale e la GenAI come un vantaggio competitivo, motivo per cui la raccolta, l’analisi e l’acquisizione rapida di insight all’edge saranno sempre più importanti. Man mano che le organizzazioni evolvono il loro utilizzo dell’intelligenza artificiale, l’implementazione della quantizzazione dei modelli, delle capacità multimodali, delle piattaforme dati e di altre strategie edge contribuiranno a ottenere risultati aziendali significativi in ​​tempo reale.
 
 

Raul Pradhan è VP of Product and Strategy presso Couchbase (NASDAQ: BASE), fornitore di un database moderno e leader per applicazioni aziendali da cui dipende il 30% delle aziende Fortune 100. Rahul ha oltre 20 anni di esperienza nella guida e nella gestione di team di progettazione e di prodotto concentrati su database, archiviazione, reti e tecnologie di sicurezza nel cloud. Prima di Couchbase, ha guidato il team Product Management e Business Strategy per le divisioni Emerging Technologies e Midrange Storage di Dell EMC per portare sul mercato prodotti all-flash NVMe, Cloud e SDS.

spot_img

L'ultima intelligenza

spot_img