Meta heeft geïntroduceerd de nieuwste versie van zijn eigen chips gewijd aan AI-taken. De intern ontwikkelde Meta Training and Inference Accelerator (MTIA) v2-chips bieden tweemaal zoveel verwerkingskracht en geheugenbandbreedte als hun voorgangers, de v1-chips.
Deze chips zullen in de datacenters van Meta worden geïmplementeerd om AI-toepassingen te ondersteunen, met name ter verbetering van deep learning-aanbevelingssystemen die de gebruikersbetrokkenheid op zijn platforms vergroten.
Meta heeft benadrukt dat deze nieuwe chips bedreven zijn in het beheren van zowel eenvoudige als complexe ranking- en aanbevelingsalgoritmen, essentieel voor adverteren op platforms als Facebook en Instagram. Meta beweert dat het, door zowel de hardware- als de softwarecomponenten te beheren, qua efficiëntie beter kan presteren dan standaard commerciële GPU's.
“We zien nu al de positieve resultaten van dit programma, omdat het ons in staat stelt meer rekenkracht in te zetten en te investeren voor onze intensievere AI-workloads”, luidt het gerelateerde bericht van Meta.
Meta lanceerde afgelopen mei zijn eerste eigen chip, speciaal afgestemd op de unieke computerbehoeften van het bedrijf. Naarmate Meta zijn focus op AI-ontwikkeling intensiveert, is de behoefte aan gespecialiseerde hardware gegroeid. Het bedrijf toonde onlangs de AI-infrastructuur die het gebruikt voor het trainen van zijn geavanceerde AI-modellen, zoals Llama 3, dat momenteel uitsluitend afhankelijk is van Nvidia componenten.
Volgens onderzoek van Omdia was Meta vorig jaar een van Nvidia's grootste klanten en verwierf een aanzienlijk volume H100 GPU's voor AI-modeltraining. Meta heeft verduidelijkt dat zijn op maat gemaakte siliciuminitiatief is ontworpen om de Nvidia-hardware die al in zijn bestaande systemen wordt gebruikt, aan te vullen en niet te vervangen.
“Het verwezenlijken van onze ambities voor ons op maat gemaakte silicium betekent dat we niet alleen moeten investeren in computersilicium, maar ook in geheugenbandbreedte, netwerken en capaciteit, evenals in andere hardwaresystemen van de volgende generatie”, aldus Meta.
De MTIA-chips zijn klaar voor verdere ontwikkeling, waarbij Meta van plan is de hardware te verbeteren om generatieve AI-taken te ondersteunen. De introductie van de MTIA v2 vertegenwoordigt Meta's meest recente uitstapje naar aangepaste chiptechnologie en weerspiegelt een bredere trend in de sector waarin grote technologiebedrijven hun eigen hardwareoplossingen ontwikkelen.
“We hebben momenteel verschillende programma's lopen die gericht zijn op het uitbreiden van de reikwijdte van MTIA, inclusief ondersteuning voor GenAI-workloads. En we staan nog maar aan het begin van deze reis.”
-Meta
Vorige week lanceerde Google Cloud bijvoorbeeld zijn inaugurele Arm-gebaseerde CPU tijdens het Google Cloud Next 2024-evenement. Op dezelfde manier heeft Microsoft zijn eigen Maia- en Cobalt-CPU's ontwikkeld, en Amazon gebruikt zijn door AWS ontworpen Graviton- en Trainium-chipfamilies om generatieve AI-toepassingen te faciliteren.
Uitgelicht beeldtegoed: Laura Ockel/Unsplash
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://dataconomy.com/2024/04/16/meta-turns-focus-to-genai-chips-for-better-recommendations/