Zephyrnet-logotyp

Meta vänder fokus till GenAI-chips för bättre rekommendationer

Datum:

Meta har introducerade den senaste versionen av dess egenutvecklade chips dedikerade till AI-uppgifter. Meta Training and Inference Accelerator (MTIA) v2-kretsar, utvecklade internt, ger dubbelt så mycket processorkraft och minnesbandbredd jämfört med sina föregångare, v1-chipsen.

Dessa chips kommer att implementeras över Metas datacenter för att stödja AI-applikationer, särskilt för att förbättra rekommendationssystem för djupinlärning som ökar användarens engagemang på dess plattformar.

Meta har framhållit att dessa nya chips är skickliga på att hantera både enkla och komplexa ranknings- och rekommendationsalgoritmer, viktiga för annonsering på plattformar som Facebook och Instagram. Meta hävdar att genom att hantera både hårdvaru- och mjukvarukomponenter kan den överträffa vanliga kommersiella GPU:er när det gäller effektivitet.

"Vi ser redan de positiva resultaten av det här programmet eftersom det tillåter oss att dedikera och investera i mer datorkraft för våra mer intensiva AI-arbetsbelastningar", står det i Metas relaterade inlägg.

Meta lanserade sitt inledande proprietära chip i maj förra året, skräddarsytt specifikt för företagets unika beräkningskrav. I takt med att Meta intensifierar sitt fokus på AI-utveckling har behovet av specialiserad hårdvara växt. Företaget visade nyligen upp AI-infrastrukturen som det använder för att träna sina avancerade AI-modeller, såsom Llama 3, som för närvarande enbart förlitar sig på Nvidia komponenter.

Meta vänder fokus till GenAI-chips för bättre rekommendationer
MTIA-chippen är inställda på ytterligare utveckling, med Meta-planering för att förbättra hårdvaran för att stödja generativa AI-uppgifter (Bild kredit)

Enligt Omdia-undersökningar var Meta en av Nvidias stora kunder förra året och förvärvade en betydande volym H100 GPU:er för AI-modellträning. Meta har förtydligat att dess anpassade kiselinitiativ är utformat för att komplettera, snarare än att ersätta, den Nvidia-hårdvara som redan används inom dess befintliga system.

"Att uppfylla våra ambitioner för vårt anpassade kisel innebär att investera inte bara i datorkisel utan också i minnesbandbredd, nätverk och kapacitet, såväl som andra nästa generations hårdvarusystem," sa Meta.

MTIA-chippen är inställda på ytterligare utveckling, med Meta-planering för att förbättra hårdvaran för att stödja generativa AI-uppgifter. Introduktionen av MTIA v2 representerar Metas senaste satsning på anpassad chip-teknologi, som speglar en bredare branschtrend där stora teknikföretag skapar sina egna hårdvarulösningar.

"Vi har för närvarande flera program på gång som syftar till att utöka omfattningen av MTIA, inklusive stöd för GenAI-arbetsbelastningar. Och vi är bara i början av denna resa.”

-Meta

Till exempel, bara förra veckan, lanserade Google Cloud sin första armbaserade CPU under Google Cloud Next 2024-evenemanget. På liknande sätt har Microsoft utvecklat sina Maia- och Cobalt-processorer, och Amazon använder sina AWS-konstruerade Graviton- och Trainium-chipfamiljer för att underlätta generativa AI-applikationer.


Visad bildkredit: Laura Ockel/Unsplash

plats_img

Senaste intelligens

plats_img