Zephyrnet-logo

Meta vender fokus til GenAI-brikker for bedre anbefalinger

Dato:

Meta har introdusert den siste iterasjonen av sine proprietære brikker dedikert til AI-oppgaver. Meta Training and Inference Accelerator (MTIA) v2-brikkene, utviklet internt, gir dobbelt så mye prosessorkraft og minnebåndbredde som deres forgjengere, v1-brikkene.

Disse brikkene vil bli implementert på tvers av Metas datasentre for å støtte AI-applikasjoner, spesielt for å forbedre anbefalingssystemer for dyp læring som øker brukerengasjementet på plattformene.

Meta har fremhevet at disse nye brikkene er dyktige til å administrere både enkle og komplekse rangerings- og anbefalingsalgoritmer, avgjørende for annonsering på plattformer som Facebook og Instagram. Meta hevder at ved å administrere både maskinvare- og programvarekomponenter, kan den utkonkurrere standard kommersielle GPUer når det gjelder effektivitet.

"Vi ser allerede de positive resultatene av dette programmet ettersom det lar oss dedikere og investere i mer datakraft for våre mer intensive AI-arbeidsmengder," heter det i Metas relaterte innlegg.

Meta lanserte sin første proprietære brikke i mai i fjor, skreddersydd spesielt for selskapets unike beregningskrav. Etter hvert som Meta intensiverer fokuset på AI-utvikling, har behovet for spesialisert maskinvare økt. Selskapet viste nylig AI-infrastrukturen det bruker for å trene sine avanserte AI-modeller, som Llama 3, som for tiden utelukkende er avhengig av Nvidia komponenter.

Meta vender fokus til GenAI-brikker for bedre anbefalinger
MTIA-brikkene er klar for ytterligere utvikling, med Meta-planlegging for å forbedre maskinvaren for å støtte generative AI-oppgaver (Bilde kreditt)

I følge Omdia-undersøkelser var Meta en av Nvidias største kunder i fjor, og kjøpte et betydelig volum av H100 GPUer for AI-modellopplæring. Meta har klargjort at det tilpassede silisiuminitiativet er designet for å komplementere, snarere enn å erstatte, Nvidia-maskinvaren som allerede er i bruk i de eksisterende systemene.

"Å møte ambisjonene våre for vårt tilpassede silisium betyr å investere ikke bare i databehandlingssilisium, men også i minnebåndbredde, nettverk og kapasitet, så vel som andre neste generasjons maskinvaresystemer," sa Meta.

MTIA-brikkene er klar for ytterligere utvikling, med Meta-planlegging for å forbedre maskinvaren for å støtte generative AI-oppgaver. Introduksjonen av MTIA v2 representerer Metas siste forsøk på spesialtilpasset brikketeknologi, og speiler en bredere bransjetrend der store teknologiselskaper lager sine egne maskinvareløsninger.

"Vi har for tiden flere programmer på gang for å utvide omfanget av MTIA, inkludert støtte for GenAI-arbeidsmengder. Og vi er bare i begynnelsen av denne reisen.»

-Meta

For eksempel, bare forrige uke, lanserte Google Cloud sin første armbaserte CPU under Google Cloud Next 2024-arrangementet. Tilsvarende har Microsoft utviklet sine Maia og Cobalt interne CPUer, og Amazon bruker sine AWS-konstruerte Graviton- og Trainium-brikkefamilier for å lette generative AI-applikasjoner.


Utvalgt bildekreditt: Laura Ockel/Unsplash

spot_img

Siste etterretning

spot_img