Logo Zephyrnet

Intervista al CEO: Patrick T. Bowen di Neurophos - Semiwiki

Data:

Patrick T. Bowen Neurofos

Patrick è un imprenditore con un background in fisica e metamateriali. Patrick stabilisce la visione per il futuro dell'architettura Neurophos e dirige il suo team nella ricerca e sviluppo, in particolare nella progettazione dei metamateriali. Ha conseguito un Master in sistemi micro-nano presso l'ETH di Zurigo e un dottorato di ricerca in ingegneria elettrica presso la Duke University, sotto la guida del Prof. David Smith. Dopo la laurea, Patrick ha cofondato Metacept con il Prof. Smith; Metacept è il principale centro di commercializzazione di metamateriali e società di consulenza al mondo.

Raccontaci di Neurophos. Quali problemi stai risolvendo?
Diciamo che esistiamo per portare il potere computazionale del cervello umano nell’intelligenza artificiale. Nel 2009 si è scoperto che le GPU sono molto più brave delle CPU nel riconoscere i gatti su Internet, ma le GPU non sono la risposta al futuro dei carichi di lavoro dell’intelligenza artificiale. Proprio come le GPU erano migliori delle CPU per le reti neurali, potrebbero esserci architetture migliori delle GPU per ordini di grandezza. Neurophos è ciò che verrà dopo le GPU per l’intelligenza artificiale.

I modelli linguistici di grandi dimensioni dell'intelligenza artificiale in generale sono stati limitati perché non avevamo abbastanza potenza di calcolo per realizzare appieno il loro potenziale. Le persone si sono concentrate principalmente sull'aspetto formativo, solo perché dovevi addestrare qualcosa di utile prima ancora di poter pensare di implementarlo. Questi sforzi hanno evidenziato l’incredibile potenza dei grandi modelli di intelligenza artificiale e con questa prova le persone stanno iniziando a concentrarsi su come implementare l’intelligenza artificiale su larga scala. La potenza di questi modelli di intelligenza artificiale significa che abbiamo milioni di utenti che li utilizzeranno ogni giorno. Quanta energia costa per utente? Quanto costa il calcolo per inferenza? Se non è abbastanza economico per inferenza, ciò può essere una cosa molto limitante per le aziende che desiderano implementare l'intelligenza artificiale.

Anche l’efficienza energetica è un grosso problema da risolvere. Se hai un server che brucia diciamo 6 kiloWatt e vuoi andare 100 volte più veloce ma non fare nulla per l'efficienza energetica fondamentale, allora quel server da 6 kiloWatt diventa improvvisamente un server da 600 kiloWatt. Ad un certo punto ti sbatti contro un muro; stai semplicemente bruciando troppa energia e non puoi aspirare il calore dai chip abbastanza velocemente. E naturalmente a tutto ciò si aggiungono i problemi legati al cambiamento climatico. Quanta energia viene consumata dall’intelligenza artificiale? Quanta energia aggiuntiva stiamo sprecando solo cercando di mantenere freschi i data center? Quindi, qualcuno deve prima risolvere il problema dell’efficienza energetica, e poi si potrà procedere abbastanza velocemente per soddisfare le esigenze delle applicazioni.

Le persone hanno proposto di utilizzare il calcolo ottico per l’intelligenza artificiale quasi da quando l’intelligenza artificiale esiste. Ci sono molte idee su cui lavoriamo oggi che sono anche vecchie idee degli anni '80. Ad esempio, le equazioni originali per il famoso “mantello dell’invisibilità dei metamateriali”, e altre cose come l’indice di rifrazione negativo, possono essere fatte risalire ai fisici russi degli anni ’60 e ’80. Anche se in un certo senso era stato pensato, in realtà è stato reinventato da David Smith e Sir John Pendry.

Allo stesso modo, gli array sistolici, che sono tipicamente ciò che le persone intendono quando dicono “processore tensore”, sono una vecchia idea della fine degli anni ’70. L’informatica quantistica è una vecchia idea degli anni ’80 che abbiamo resuscitato oggi. Anche l'elaborazione ottica è una vecchia idea degli anni '80, ma a quel tempo non avevamo la tecnologia per implementarla. Quindi, con Neurophos, siamo tornati a reinventare il transistor ottico, creando da zero l'hardware sottostante necessario per implementare le fantasiose idee del calcolo ottico di molto tempo fa.

Cosa spingerà i clienti a passare dall'utilizzo di una GPU Nvidia all'utilizzo della vostra tecnologia?
Quindi, la cosa numero uno a cui penso che la maggior parte dei clienti interessi davvero è quella metrica di dollari per inferenza, perché è la cosa che davvero crea o distrugge il loro modello di business. Stiamo affrontando questo problema con una soluzione che può davvero aumentare la velocità di elaborazione di 100 volte rispetto a una GPU all'avanguardia, il tutto all'interno dello stesso involucro di potenza.

Anche la preoccupazione ambientale è qualcosa a cui tengono le persone e stiamo fornendo una soluzione molto reale per mitigare in modo significativo il consumo di energia direttamente in una delle sue fonti più significative: i data center.

Se ti siedi e pensi alle dimensioni della situazione... qualcuno deve fornire una soluzione qui, che si tratti di noi o di qualcun altro. La larghezza di banda nel confezionamento dei chip è approssimativamente proporzionale alla radice quadrata dell'area e il consumo energetico nel confezionamento dei chip è generalmente proporzionale all'area. Ciò ha portato a tutti i tipi di modi contorti in cui cerchiamo di creare e confezionare sistemi.

Il packaging è una delle cose davvero rivoluzionarie per l'intelligenza artificiale in generale. Inizialmente si trattava di costi e di poter combinare chiplet provenienti da diversi nodi tecnologici e, soprattutto, di velocità di accesso alla memoria e larghezza di banda perché potevi integrarli con chip DRAM. Ma ora stai solo mettendo sempre più fiches lì dentro!

L'utilizzo dell'approccio di calcolo analogico ripristina il consumo energetico per il calcolo fino alla radice quadrata dell'area anziché proporzionale all'area. Quindi ora il modo in cui il calcolo e il consumo energetico si adattano allo stesso modo; li stai portando in equilibrio.

Riteniamo di aver sviluppato fino ad oggi l'unico approccio per l'elaborazione analogica in memoria in grado di scalare effettivamente fino a densità di elaborazione sufficientemente elevate da mettere in gioco queste leggi di scalabilità.

In che modo i clienti possono interagire con Neurophos oggi? 
Stiamo creando un programma per partner di sviluppo e fornendo un modello software del nostro hardware che consenta alle persone di caricare direttamente il codice PyTorch e compilarlo. Ciò fornisce al cliente parametri di throughput e latenza, quante istanze al secondo ecc. Ci fornisce inoltre dati su eventuali colli di bottiglia per la produttività del sistema, in modo che possiamo assicurarci di progettare l'intero sistema in un modo che sia davvero importante per i carichi di lavoro dei clienti.

Su quali nuove funzionalità/tecnologie stai lavorando?
Gli accademici sognano da molto tempo cosa potrebbero fare se avessero una metasuperficie come quella che stiamo costruendo a Neurophos, e ci sono molti articoli teorici là fuori... ma nessuno ne ha mai costruita una. Siamo i primi a farlo. Nella mia mente la maggior parte delle applicazioni interessanti riguardano in realtà le superfici dinamiche, non quelle statiche, e c'è altro lavoro in corso presso Metacept, Duke e presso società affiliate come Lumotive di cui io, e penso che il mondo, saremo piuttosto entusiasti .

Perché sei entrato a far parte dell'SC Incubator e quali sono gli obiettivi di Neurophos nel lavorare con la loro organizzazione nei prossimi 24 mesi?

Silicon Catalyst è diventato un prestigioso acceleratore per startup di semiconduttori, con un alto livello di ammissione. Siamo entusiasti di averli come partner. Le startup di hardware hanno un grande svantaggio rispetto alle startup di software a causa dei costi di demo/prototipo e dei tempi di progettazione più elevati, e questo è ancora più vero nelle startup di semiconduttori dove gli strumenti EDA, i costi di mascheramento e la vastità dei team di ingegneria possono essere proibitivi. costoso per un'azienda in fase di avviamento. Silicon Catalyst ha formato un ecosistema davvero incredibile di partner che forniscono un aiuto significativo nel ridurre i costi di sviluppo e accelerare il time-to-market.

Leggi anche:

Una chiacchierata sincera con Sean Redmond su ChipStart nel Regno Unito

Intervista al CEO: Jay Dawani di Lemurian Labs

Sette aziende produttrici di catalizzatori al silicio esporranno al CES, l'evento tecnologico più potente al mondo

Condividi questo post tramite:

spot_img

L'ultima intelligenza

spot_img