Zephyrnet-logotyp

Vd-intervju: Patrick T. Bowen från Neurophos – Semiwiki

Datum:

Patrick T. Bowen Neurophos

Patrick är en entreprenör med en bakgrund inom fysik och metamaterial. Patrick sätter visionen för framtiden för Neurophos-arkitekturen och leder sitt team inom forskning och utveckling, särskilt inom design av metamaterial. Han har en magisterexamen i mikronanosystem från ETH Zürich och doktorsexamen i elektroteknik från Duke University, under professor David Smith. Efter examen grundade Patrick Metacept tillsammans med Prof. Smith; Metacept är världens främsta kommersialiseringscenter och konsultföretag för metamaterial.

Berätta om Neurophos. Vilka problem löser du?
Vi säger att vi existerar för att föra den mänskliga hjärnans beräkningskraft till artificiell intelligens. Redan 2009 upptäcktes det att GPU:er är mycket bättre på att känna igen katter på internet än processorer, men GPU:er är inte svaret på framtiden för AI-arbetsbelastningar. Precis som GPU:er var bättre än CPU:er för neurala nätverk, kan det finnas arkitekturer som är bättre än GPU:er i storleksordningar. Neurophos är vad som kommer härnäst för AI efter GPU:er.

AI stora språkmodeller i allmänhet har varit begränsade eftersom vi inte har haft tillräckligt med datorkraft för att fullt ut förverkliga deras potential. Folk har fokuserat främst på träningssidan av det, bara för att du var tvungen att träna något användbart innan du ens kunde tänka på att implementera det. Dessa ansträngningar har belyst den otroliga kraften hos stora AI-modeller, och med det beviset börjar folk fokusera på hur man distribuerar AI i stor skala. Kraften i dessa AI-modeller innebär att vi har miljontals användare som kommer att använda dem varje dag. Hur mycket energi kostar det per användare? Hur mycket kostar beräkningen per slutledning? Om det inte är tillräckligt billigt per slutledning, kan det vara en mycket begränsande sak för företag som vill distribuera AI.

Energieffektivitet är också ett stort problem att lösa. Om du har en server som brinner säg 6 kilowatt, och du vill gå 100 gånger snabbare men inte göra något åt ​​den grundläggande energieffektiviteten, så blir den där 6 kilowatt-servern plötsligt en 600 kilowatt-server. Vid något tillfälle träffar du en vägg; du förbränner helt enkelt för mycket kraft och du kan inte suga ut värmen ur chipsen tillräckligt snabbt. Och naturligtvis finns det klimatförändringsfrågor i lager ovanpå det. Hur mycket energi förbrukas av AI? Hur mycket extra energi slösar vi bara på att försöka hålla datacenter svala? Så någon måste först lösa energieffektivitetsproblemet, och sedan kan du gå tillräckligt snabbt för applikationernas krav.

Människor har föreslagit att använda optisk beräkning för AI nästan lika länge som AI har funnits. Det finns många idéer som vi jobbar med idag som också är gamla idéer från 80-talet. Till exempel kan de ursprungliga ekvationerna för den berömda "metamaterialens osynlighetsmantel" och andra saker som det negativa brytningsindexet spåras tillbaka till ryska fysiker på 60- och 80-talen. Även om det var en slags tanke på det, uppfanns det verkligen på nytt av David Smith och Sir John Pendry.

På liknande sätt är systoliska arrayer, som vanligtvis är vad folk menar när de säger "tensorprocessor", en gammal idé från slutet av 70-talet. Quantum computing är en gammal idé från 80-talet som vi återupplivade idag. Optisk bearbetning är också en gammal idé från 80-talet, men på den tiden hade vi inte tekniken för att implementera den. Så med Neurophos gick vi tillbaka till att återuppfinna den optiska transistorn och skapade från grunden den underliggande hårdvaran som är nödvändig för att implementera de tjusiga optiska datoridéerna från länge sedan.

Vad får kunderna att byta från att använda en GPU från Nvidia till att använda din teknik?
Så det nummer ett som jag tror att de flesta kunder bryr sig om är att dollar per slutledningsmått, eftersom det är det som verkligen skapar eller bryter deras affärsmodell. Vi tar itu med det måttet med en lösning som verkligen kan öka beräkningshastigheten med 100x i förhållande till en toppmodern GPU, allt inom samma effektomgivning.

Miljöhänsyn är också något som människor bryr sig om, och vi tillhandahåller en mycket verklig lösning för att avsevärt minska energiförbrukningen direkt vid en av dess viktigaste källor: datacenter.

Om du lutar dig tillbaka och tänker på hur det här skalar ... någon måste leverera en lösning här, oavsett om det är vi eller någon annan. Bandbredden i chipförpackningar är ungefär proportionell mot kvadratroten av området och strömförbrukningen i chipförpackningar är i allmänhet proportionell mot arean. Detta har lett till alla möjliga förvrängda sätt på vilka vi försöker skapa och paketera system.

Förpackningar är en av de saker som verkligen har varit revolutionerande för AI i allmänhet. Inledningsvis handlade det om kostnad och att kunna blanda chiplets från olika teknologinoder, och framför allt om minnesaccesshastighet och bandbredd eftersom man kunde integrera med DRAM-chips. Men nu lägger du bara in fler och fler marker!

Genom att använda den analoga beräkningsmetoden återställs energiförbrukningen för beräkning ner till kvadratroten av arean istället för proportionell mot arean. Så nu går det sätt som din beräknings- och energiförbrukningsskala på samma sätt; du bringar dem i balans.

Vi tror att vi har utvecklat det enda tillvägagångssättet hittills för analog beräkning i minnet som faktiskt kan skalas till tillräckligt höga beräkningstätheter för att få dessa skalningslagar i spel.

Hur kan kunder samarbeta med Neurophos idag? 
Vi skapar ett utvecklingspartnerprogram och tillhandahåller en mjukvarumodell av vår hårdvara som gör det möjligt för människor att direkt ladda PyTorch-kod och kompilera den. Det ger genomströmnings- och latensmått och hur många instanser per sekund etc. till kunden. Det ger oss också data tillbaka om eventuella flaskhalsar för genomströmning i systemet, så att vi kan se till att vi utformar det övergripande systemet på ett sätt som verkligen har betydelse för kundernas arbetsbelastning.

Vilka nya funktioner/teknik arbetar du med?
Akademiker har länge drömt om vad de skulle kunna göra om de hade en metayta som vi bygger på Neurophos, och det finns många teoretiska artiklar där ute... men ingen har faktiskt byggt en. Vi är de första som gör det. I mina tankar är de flesta intressanta applikationerna egentligen för dynamiska ytor, inte för statiska, och det pågår annat arbete på Metacept, Duke och på systerföretag som Lumotive som jag, och jag tror att världen, kommer att vara ganska exalterade över .

Varför har du gått med i SC Incubator och vilka är Neurophos mål med att arbeta med deras organisation under de kommande 24 månaderna?

Silicon Catalyst har blivit en prestigefylld accelerator för startups av halvledarföretag, med en hög gräns för tillträde. Vi är glada över att ha dem som partner. Hårdvarustartuper har en stor nackdel jämfört med mjukvarustartuper på grund av deras högre demo-/prototypkostnad och tekniska cykeltid, och detta är ännu mer sant i halvledarstartups där EDA-verktygen och maskkostnaderna och den stora omfattningen av ingenjörsteamen kan vara oöverkomligt dyrt för ett fröstadieföretag. Silicon Catalyst har bildat ett ganska otroligt ekosystem av partners som ger betydande hjälp med att minska deras utvecklingskostnader och påskynda deras tid till marknaden.

Läs också:

En öppenhjärtig chatt med Sean Redmond om ChipStart i Storbritannien

Vd-intervju: Jay Dawani från Lemurian Labs

Sju Silicon Catalyst-företag kommer att ställa ut på CES, det mest kraftfulla tekniska evenemanget i världen

Dela det här inlägget via:

plats_img

VC Café

VC Café

Senaste intelligens

plats_img