Zephyrnet-logotyp

DoE tar leverans av Intels senaste hjärna i en låda

Datum:

Intel Labs avslöjade sin största neuromorfa dator på onsdagen, ett 1.15 miljarder neuronsystem, som det säger är ungefär analogt med en uggls hjärna.

Men oroa dig inte, Intel har inte återskapat Fallouts Robobrain. Istället för ett nätverk av organiska neuroner och synapser emulerar Intels Hala Point dem alla i kisel.

Med ungefär 20 W är våra hjärnor förvånansvärt effektiva på att bearbeta de stora mängderna information som strömmar in från vart och ett av sinnena vid varje givet ögonblick. Området neuromorphics, som Intel och IBM har ägnat de senaste åren åt att utforska, syftar till att efterlikna hjärnans nätverk av neuroner och synapser för att bygga datorer som kan bearbeta information mer effektivt än traditionella acceleratorer.

Hur effektivt? Enligt Intel kan dess senaste system, en 6U-box som är ungefär lika stor som en mikrovågsugn som förbrukar 2,600 15 W, enligt uppgift uppnå djupa neurala nätverkseffektiviteter så högt som 8 TOPS/W med 200-bitars precision. För att sätta det i perspektiv, Nvidias mest kraftfulla system, den Blackwell-baserade GB72 NVLXNUMX, som ännu inte ens har levererats, förvaltar bara 6 TOPS/W vid INT8, medan dess nuvarande DGX H100-system klarar cirka 3.1 TOPS/W.

Forskare vid Sandia National Labs tar emot Intels 1.15 miljarder neuron Hala Point neuromorfa dator

Forskare vid Sandia National Labs tar emot Intels 1.15 miljarder neuron Hala Point neuromorfa dator – klicka för att förstora

Denna prestanda uppnås med 1,152 2 av Intels Loihi 1.15-processorer, som är sammanfogade i ett tredimensionellt rutnät för totalt 128 miljarder neuroner, 140,544 miljarder synapser, 2,300 86 bearbetningskärnor och XNUMX XNUMX inbäddade xXNUMX-kärnor som hanterar de nödvändiga beräkningarna fortsätt att tjata på.

För att vara tydlig, det är inte typiska x86-kärnor. "De är väldigt, väldigt enkla, små x86-kärnor. De är inte något som våra senaste kärnor eller Atom-processorer, säger Mike Davies, chef för neuromorphic computing på Intel, till Registret.

Om Loihi 2 ringer en klocka beror det på att chippet har varit det knackar runt sedan ett tag tillbaka efter att ha gjort sin debut redan 2021 som en av de första chipsen som producerades med Intels 7nm-processteknik.

Trots sin ålder säger Intel att de Loihi-baserade systemen är kapabla att lösa vissa AI-inferens- och optimeringsproblem så mycket som 50 gånger snabbare än konventionella CPU- och GPU-arkitekturer samtidigt som de förbrukar 100 gånger mindre ström. De siffrorna verkar ha varit det uppnås [PDF] genom att lägga ett enda Loihi 2-chip till Nvidias lilla Jetson Orin Nano och en Core i9 i9-7920X CPU.

Släng inte ut dina GPU:er än

Även om det kan låta imponerande, medger Davies att dess neuromorfa acceleratorer inte är redo att ersätta GPU:er för varje arbetsbelastning ännu. "Det här är inte en allmän AI-accelerator på något sätt," sa han.

För en, utan tvekan AI:s mest populära applikation, de stora språkmodellerna (LLM) som driver appar som ChatGPT, kommer inte att köras på Hala Point, åtminstone inte ännu.

"Vi kartlägger inte någon LLM till Hala Point för närvarande. Vi vet inte hur man gör det. Helt ärligt, det neuromorfa forskningsfältet har inte en neuromorf version av transformatorn,” sa Davies och noterade att det finns en del intressant forskning om hur det kan uppnås.

Med det sagt har Davies team haft framgång med att köra traditionella djupa neurala nätverk, en flerlagersperceptron, på Hala Point med några förbehåll.

"Om du kan sparsifiera nätverksaktiviteten och konduktiviteten i det nätverket, det är då du kan uppnå riktigt, riktigt stora vinster," sa han. "Vad det betyder är att det måste bearbeta en kontinuerlig insignal ... en videoström eller en ljudström, något där det finns en viss korrelation från prov till prov till prov."

Intel Labs demonstrerade Loihi 2:s potential för video- och ljudbehandling i en tidning publicerade [PDF] i slutet av förra året. Vid testning fann de att chippet uppnådde betydande vinster i energieffektivitet, latens och genomströmning för signalbehandling, ibland överstigande tre storleksordningar, jämfört med konventionella arkitekturer. De största vinsterna kom dock på bekostnad av lägre noggrannhet.

Möjligheten att bearbeta realtidsdata med låg effekt och latens har gjort tekniken attraktiv för applikationer som autonoma fordon, drönare och robotik.

Ett annat användningsfall som har visat sig lovande är kombinatoriska optimeringsproblem, som ruttplanering för ett leveransfordon, som måste navigera i en livlig stadskärna.

Dessa arbetsbelastningar är oerhört komplexa att lösa eftersom små förändringar som fordonshastighet, olyckor och avstängningar av körfält måste beaktas i farten. Konventionella datorarkitekturer är inte väl lämpade för denna typ av exponentiell komplexitet, vilket är anledningen till att vi har sett så många kvantdatorleverantörer targeting optimeringsproblem.

Men Davies hävdar att Intels neuromorfa datorplattform är "mycket mer mogen än dessa andra experimentella forskningsalternativ."

Rum att växa

Enligt Davies finns det fortfarande gott om utrymme att låsa upp. "Jag är ledsen att säga att det inte ens har utnyttjats fullt ut till denna dag på grund av mjukvarubegränsningar," sa han om Loihi 2-chippen.

Att identifiera hårdvaruflaskhalsar och mjukvaruoptimeringar är en del av anledningen till att Intel Labs har distribuerat prototypen på Sandia.

"Att förstå begränsningarna, särskilt på hårdvarunivå, är en mycket viktig del av att få ut dessa system," sa Davies. "Vi kan fixa hårdvaruproblemen, vi kan förbättra det, men vi måste veta vilken riktning vi ska optimera."

Det här skulle inte vara första gången Sandia boffins har fått tag på Intels neuromorfa teknik. I ett papper publicerade i början av 2022 fann forskare att tekniken hade potential för HPC och AI. Dessa experiment använde dock Intels första generationens Loihi-chips, som har ungefär en åttondel av neuronerna (128,000 1 mot XNUMX miljon) av dess efterträdare. ®

plats_img

Senaste intelligens

plats_img