Logo Zephyrnet

La domanda di machine learning sta iniziando a superare la legge di Moore? – TechStartup

Data:

Muhammad Ali era campione del mondo dei pesi massimi da appena un anno quando Gordon Moore, co-fondatore e CEO di Intel, elaborò un postulato che divenne noto come Legge di Moore. Vale a dire, il numero di transistor su un circuito integrato (IC) raddoppierebbe circa ogni due anni.

Nel 1965 era una cosa inebriante: l'osservazione, fatta in un articolo su Rivista di elettronica, implicava che potevamo aspettarci che i nostri computer diventassero più veloci e più capaci a un costo inferiore nel tempo. Con il passare degli anni e dei decenni, la teoria di Moore è stata messa alla prova man mano che il tasso di cambiamento tecnologico ha accelerato. Per la maggior parte è vero. Tuttavia, i recenti progressi nel fiorente campo del Machine Learning (ML) rappresentano una sfida intrigante, se non una vera e propria minaccia, alla fattibilità della legge.

La sostenibilità della legge di Moore

La Legge di Moore è stata determinante nel guidare i progressi tecnologici per oltre mezzo secolo, diventando qualcosa di simile a una legge inviolabile. Tuttavia, mentre ci avviciniamo ai limiti atomici della miniaturizzazione dei circuiti, la sostenibilità dell’osservazione viene sottoposta ad un attento esame.

Le limitazioni fisiche dei circuiti restringenti stanno diventando evidenti. Nel 2015, la stessa Intel riconosciuto un rallentamento nella Legge di Moore, notando che la cadenza biennale era rallentata a circa 2.5 anni. Questo aumento del 25% è stato un chiaro segnale che ci stavamo avvicinando ai limiti fisici e pratici della moderna tecnologia dei semiconduttori. Inoltre, l'anno scorso il CEO di Intel Pat Gelsinger ha rivisto i suoi commenti precedenti, ammettendo che 2.5 anni sono diventati 3, promettendo allo stesso tempo di fare tutto il possibile per stare al passo con la Legge di Moore.

Niente di tutto ciò dovrebbe sorprendere; Lo stesso Moore ha sconfessato la sua stessa Legge, sostenendo che “nessun esponenziale come questo va avanti per sempre”. In effetti, sarebbe stato difficile per l’ingegnere prevedere le crescenti richieste del machine learning e di campi affini come l’intelligenza artificiale (AI), il cloud computing e l’Internet delle cose (IoT), che esercitavano una tale pressione sull’industria dei chip di silicio negli anni passati. metà degli anni sessanta.

Le richieste di machine learning stanno oggi superando il tasso di aumento della potenza di elaborazione, con un aumento della domanda di 10 volte rispetto a un aumento di 3 volte della potenza di elaborazione negli ultimi 18 mesi. Evidentemente, questa disparità presenta ostacoli significativi ai futuri progressi nel machine learning, portando potenzialmente a colli di bottiglia nell’innovazione e nell’applicazione.

I abisso sempre più ampio tra le esigenze computazionali del deep learning e la crescita della potenza di elaborazione potrebbe non essere stato facile da prevedere, eppure è qualcosa con cui i tecnologi moderni devono confrontarsi. La disparità non solo suggerisce potenziali limitazioni nella scalabilità delle app ML, in particolare quando i modelli diventano più complessi e ad alta intensità di dati, ma un generale rallentamento del tasso di cambiamento tecnologico.

Alcuni potrebbero sostenere che questa non è una cosa negativa: consentirà a tutti noi di riconnetterci con la natura e diventare più presenti nel momento. Ma il progresso umano non funziona proprio in questo modo: è impossibile rimettere il genio nella bottiglia quando è uscito. Una volta intrapresa la strada, dobbiamo procedere in modo ordinato – altrimenti andremo incontro a una regressione.

Una nuova soluzione al problema della legge di Moore

In questo contesto preoccupante, nuove soluzioni stanno arrivando sul mercato. Uno di questi, io.net, cerca di colmare il crescente divario facendo leva esistente Risorse di calcolo GPU per migliorare l'efficienza di elaborazione globale. Se il calcolo non riesce a tenere il passo con le richieste di machine learning, in altre parole, utilizziamo il calcolo per lavorare meglio.

io.netLa rete di infrastruttura fisica decentralizzata (DePIN) recentemente svelata è un pilastro fondamentale della sua proposta di valore. Sfruttando il potenziale non sfruttato di GPU e CPU sparse in tutto il mondo, il Rete DePIN offre una soluzione sostenibile e scalabile per soddisfare le crescenti richieste di ML. Il modello prevede di premiare coloro che contribuiscono/affittano la propria potenza GPU e CPU alla rete. Le startup AI e gli ingegneri ML, nel frattempo, ottengono l'accesso su richiesta al calcolo GPU necessario senza dover pagare i costi esorbitanti tipicamente associati a tali risorse.

Con la fornitura di accesso GPU/CPU on-demand e senza autorizzazione da una rete globale di utenti, io.net democratizza l'accesso alla potenza di elaborazione aggregata garantendo al tempo stesso un utilizzo efficiente delle risorse esistenti. Questa funzionalità si traduce in risparmi significativi sui costi di elaborazione, implementazione rapida di cluster cloud e prezzi equi.

Poiché il divario tra le esigenze del machine learning e la crescita della potenza di elaborazione si allarga, soluzioni innovative come io.net sarà essenziale.

Massimizzando l'efficienza e l'accessibilità delle risorse GPU e CPU esistenti, io.net non offre solo una soluzione alternativa alle limitazioni poste dal rallentamento della Legge di Moore; sta ponendo le basi per l'innovazione e il progresso continui in entrambi i campi.

Naturalmente altri fattori sono altrettanto importanti: gli investimenti di capitale sono uno di questi. Se si vuole che la potenza di calcolo dei chip raddoppi, è ovvio che i budget per la ricerca e lo sviluppo debbano aumentare di pari passo. Anche cose come i contributi pubblici, le fusioni industriali e le joint venture sono importanti.

Purtroppo, Gordon Moore è morto nel 2023, ma la sua omonima Legge è ancora più rilevante oggi di quanto lo fosse negli anni Sessanta.


spot_img

L'ultima intelligenza

spot_img