Zephyrnet-logotyp

Ett nytt fotoniskt datorchip använder ljus för att minska AI-energikostnaderna

Datum:

AI-modeller är power hogs.

I takt med att algoritmerna växer och blir mer komplexa, belastar de alltmer nuvarande datorchips. Flera företag har designat chips skräddarsydda för AI för att minska strömförbrukningen. Men de är alla baserade på en grundläggande regel - de använder elektricitet.

Den här månaden bytte ett team från Tsinghua University i Kina upp receptet. De byggde ett neuralt nätverkschip som använder ljus snarare än el för att utföra AI-uppgifter till en bråkdel av energikostnaden NVIDIAs H100, ett toppmodernt chip som används för att träna och köra AI-modeller.

Kallas Taichi, chippet kombinerar två typer av ljusbaserad bearbetning i sin interna struktur. Jämfört med tidigare optiska chips, Taichi är mycket mer exakt för relativt enkla uppgifter som att känna igen handskrivna siffror eller andra bilder. Till skillnad från sina föregångare kan chippet också generera innehåll. Det kan göra grundläggande bilder i en stil baserad på till exempel den holländska konstnären Vincent van Gogh, eller klassiska musiknummer inspirerade av Johann Sebastian Bach.

En del av Taichis effektivitet beror på dess struktur. Chipet är tillverkat av flera komponenter som kallas chiplets. I likhet med hjärnans organisation utför varje chiplet sina egna beräkningar parallellt, vars resultat sedan integreras med de andra för att nå en lösning.

Inför ett utmanande problem att separera bilder över 1,000 92 kategorier, var Taichi framgångsrik nästan XNUMX procent av tiden, matchade nuvarande chipprestanda, men minskade energiförbrukningen mer än tusen gånger.

För AI, "är trenden att hantera mer avancerade uppgifter oåterkallelig", skrev författarna. "Taichi banar väg för storskalig fotonisk [ljusbaserad] datoranvändning", vilket leder till mer flexibel AI med lägre energikostnader.

Chip på axeln

Dagens datorchips passar inte bra ihop med AI.

En del av problemet är strukturellt. Bearbetning och minne på traditionella chips är fysiskt åtskilda. Att skjuta data mellan dem tar upp enorma mängder energi och tid.

Även om den är effektiv för att lösa relativt enkla problem, är installationen otroligt krafthungrig när det kommer till komplex AI, som de stora språkmodellerna som driver ChatGPT.

Det största problemet är hur datorchips är uppbyggda. Varje beräkning bygger på transistorer, som slås på eller av för att representera nollorna och ettorna som används i beräkningarna. Ingenjörer har dramatiskt krympt transistorer under decennierna så att de kan tränga in allt mer på chips. Men nuvarande chipteknologi går mot en brytpunkt där vi inte kan bli mindre.

Forskare har länge försökt att förnya nuvarande chips. En strategi inspirerad av hjärnan bygger på "synapser" - den biologiska "dockan" som förbinder neuroner - som beräknar och lagrar information på samma plats. Dessa hjärninspirerade eller neuromorfa chips minskar energiförbrukningen och påskyndar beräkningarna. Men precis som nuvarande chips är de beroende av elektricitet.

En annan idé är att helt och hållet använda en annan beräkningsmekanism: ljus. "Photonic computing" är "attraherar ständigt växande uppmärksamhet", skrev författarna. Istället för att använda elektricitet kan det vara möjligt att kapa ljuspartiklar för att driva AI med ljusets hastighet.

Varde ljus

Jämfört med elbaserade chips använder ljus mycket mindre ström och kan samtidigt hantera flera beräkningar. Genom att utnyttja dessa egenskaper har forskare byggt optiska neurala nätverk som använder fotoner - ljuspartiklar - för AI-chips istället för elektricitet.

Dessa marker kan fungera på två sätt. I den ena sprider chips ljussignaler till konstruerade kanaler som så småningom kombinerar strålarna för att lösa ett problem. Kallas diffraktion, dessa optiska neurala nätverk packar artificiella neuroner tätt tillsammans och minimerar energikostnaderna. Men de kan inte enkelt ändras, vilket innebär att de bara kan fungera på ett enda enkelt problem.

En annan inställning beror på en annan egenskap hos ljus som kallas interferens. Liksom havets vågor kombineras ljusvågor och tar ut varandra. När de är inne i mikrotunnlar på ett chip kan de kollidera för att öka eller hämma varandra - dessa interferensmönster kan användas för beräkningar. Chips baserade på interferens kan enkelt konfigureras om med en enhet som kallas en interferometer. Problemet är att de är fysiskt skrymmande och förbrukar massor av energi.

Sedan är det problemet med noggrannhet. Även i de skulpterade kanalerna som ofta används för interferensexperiment, studsar och sprider ljus, vilket gör beräkningar opålitliga. För ett enda optiskt neuralt nätverk är felen tolererbara. Men med större optiska nätverk och mer sofistikerade problem ökar bruset exponentiellt och blir ohållbart.

Det är därför ljusbaserade neurala nätverk inte lätt kan skalas upp. Hittills har de bara kunnat lösa grundläggande uppgifter, som att känna igen siffror eller vokaler.

"Att förstora skalan av befintliga arkitekturer skulle inte proportionellt förbättra prestandan", skrev teamet.

Double Trouble

Den nya AI, Taichi, kombinerade de två egenskaperna för att driva optiska neurala nätverk mot verklig användning.

Istället för att konfigurera ett enda neuralt nätverk använde teamet en chipletmetod, som delegerade olika delar av en uppgift till flera funktionella block. Varje block hade sina egna styrkor: Ett sattes upp för att analysera diffraktion, vilket kunde komprimera stora mängder data på kort tid. Ett annat block var inbäddat med interferometrar för att ge störningar, vilket gör att chippet enkelt kan konfigureras om mellan uppgifter.

Jämfört med djupinlärning tog Taichi ett "grundt" tillvägagångssätt där uppgiften sprids över flera chiplets.

Med standardstrukturer för djupinlärning tenderar fel att ackumuleras över lager och tid. Den här installationen löser problem som kommer från sekventiell bearbetning i sin linda. När Taichi står inför ett problem fördelar Taichi arbetsbelastningen över flera oberoende kluster, vilket gör det lättare att ta itu med större problem med minimala fel.

Strategin gav resultat.

Taichi har en beräkningskapacitet på totalt 4,256 14 artificiella neuroner, med nästan 1,000 miljoner parametrar som efterliknar hjärnanslutningarna som kodar för inlärning och minne. När bilderna sorterades i 92 XNUMX kategorier var fotonchippet nästan XNUMX procent korrekt, jämförbart med "för närvarande populära elektroniska neurala nätverk", skrev teamet.

Chipet utmärkte sig också i andra standardtester för AI-bildigenkänning, som att identifiera handskrivna tecken från olika alfabet.

Som ett sista test utmanade teamet den fotoniska AI:n att förstå och återskapa innehåll i stil med olika artister och musiker. När den tränades med Bachs repertoar, lärde sig AI så småningom musikerns tonhöjd och övergripande stil. Likaså bilder från van Gogh eller Edvard Munch – konstnären bakom den berömda målningen, Skriket— Matas in i AI:n tillät den att generera bilder i liknande stil, även om många såg ut som ett litet barns rekreation.

Optiska neurala nätverk har fortfarande mycket längre att gå. Men om de används brett kan de vara ett mer energieffektivt alternativ till nuvarande AI-system. Taichi är över 100 gånger mer energieffektiv än tidigare iterationer. Men chippet kräver fortfarande lasrar för kraft- och dataöverföringsenheter, som är svåra att kondensera.

Därefter hoppas teamet kunna integrera lättillgängliga minilasrar och andra komponenter i ett enda, sammanhängande fotoniskt chip. Samtidigt hoppas de att Taichi kommer att "accelerera utvecklingen av mer kraftfulla optiska lösningar" som så småningom kan leda till "en ny era" av kraftfull och energieffektiv AI.

Image Credit: spainter_vfx / Shutterstock.com

plats_img

Senaste intelligens

plats_img