Zephyrnet-logo

Meta richt de focus op GenAI-chips voor betere aanbevelingen

Datum:

Meta heeft geïntroduceerd de nieuwste versie van zijn eigen chips gewijd aan AI-taken. De intern ontwikkelde Meta Training and Inference Accelerator (MTIA) v2-chips bieden tweemaal zoveel verwerkingskracht en geheugenbandbreedte als hun voorgangers, de v1-chips.

Deze chips zullen in de datacenters van Meta worden geïmplementeerd om AI-toepassingen te ondersteunen, met name ter verbetering van deep learning-aanbevelingssystemen die de gebruikersbetrokkenheid op zijn platforms vergroten.

Meta heeft benadrukt dat deze nieuwe chips bedreven zijn in het beheren van zowel eenvoudige als complexe ranking- en aanbevelingsalgoritmen, essentieel voor adverteren op platforms als Facebook en Instagram. Meta beweert dat het, door zowel de hardware- als de softwarecomponenten te beheren, qua efficiëntie beter kan presteren dan standaard commerciële GPU's.

“We zien nu al de positieve resultaten van dit programma, omdat het ons in staat stelt meer rekenkracht in te zetten en te investeren voor onze intensievere AI-workloads”, luidt het gerelateerde bericht van Meta.

Meta lanceerde afgelopen mei zijn eerste eigen chip, speciaal afgestemd op de unieke computerbehoeften van het bedrijf. Naarmate Meta zijn focus op AI-ontwikkeling intensiveert, is de behoefte aan gespecialiseerde hardware gegroeid. Het bedrijf toonde onlangs de AI-infrastructuur die het gebruikt voor het trainen van zijn geavanceerde AI-modellen, zoals Llama 3, dat momenteel uitsluitend afhankelijk is van Nvidia componenten.

Meta richt de focus op GenAI-chips voor betere aanbevelingen
De MTIA-chips zijn klaar voor verdere ontwikkeling, waarbij Meta van plan is de hardware te verbeteren ter ondersteuning van generatieve AI-taken (Image credit)

Volgens onderzoek van Omdia was Meta vorig jaar een van Nvidia's grootste klanten en verwierf een aanzienlijk volume H100 GPU's voor AI-modeltraining. Meta heeft verduidelijkt dat zijn op maat gemaakte siliciuminitiatief is ontworpen om de Nvidia-hardware die al in zijn bestaande systemen wordt gebruikt, aan te vullen en niet te vervangen.

“Het verwezenlijken van onze ambities voor ons op maat gemaakte silicium betekent dat we niet alleen moeten investeren in computersilicium, maar ook in geheugenbandbreedte, netwerken en capaciteit, evenals in andere hardwaresystemen van de volgende generatie”, aldus Meta.

De MTIA-chips zijn klaar voor verdere ontwikkeling, waarbij Meta van plan is de hardware te verbeteren om generatieve AI-taken te ondersteunen. De introductie van de MTIA v2 vertegenwoordigt Meta's meest recente uitstapje naar aangepaste chiptechnologie en weerspiegelt een bredere trend in de sector waarin grote technologiebedrijven hun eigen hardwareoplossingen ontwikkelen.

“We hebben momenteel verschillende programma's lopen die gericht zijn op het uitbreiden van de reikwijdte van MTIA, inclusief ondersteuning voor GenAI-workloads. En we staan ​​nog maar aan het begin van deze reis.”

-Meta

Vorige week lanceerde Google Cloud bijvoorbeeld zijn inaugurele Arm-gebaseerde CPU tijdens het Google Cloud Next 2024-evenement. Op dezelfde manier heeft Microsoft zijn eigen Maia- en Cobalt-CPU's ontwikkeld, en Amazon gebruikt zijn door AWS ontworpen Graviton- en Trainium-chipfamilies om generatieve AI-toepassingen te faciliteren.


Uitgelicht beeldtegoed: Laura Ockel/Unsplash

spot_img

Laatste intelligentie

spot_img