Logo Zephyrnet

Meta si concentra sui chip GenAI per ottenere consigli migliori

Data:

Meta ha introdotto l'ultima iterazione dei suoi chip proprietari dedicati alle attività di intelligenza artificiale. I chip Meta Training and Inference Accelerator (MTIA) v2, sviluppati internamente, forniscono il doppio della potenza di elaborazione e della larghezza di banda della memoria rispetto ai loro predecessori, i chip v1.

Questi chip saranno implementati nei data center di Meta per supportare le applicazioni di intelligenza artificiale, migliorando in particolare i sistemi di raccomandazione del deep learning che aumentano il coinvolgimento degli utenti sulle sue piattaforme.

Meta ha sottolineato che questi nuovi chip sono in grado di gestire algoritmi di classificazione e raccomandazione sia semplici che complessi, essenziali per la pubblicità su piattaforme come Facebook e Instagram. Meta afferma che, gestendo sia i componenti hardware che software, può superare le GPU commerciali standard in termini di efficienza.

"Stiamo già vedendo i risultati positivi di questo programma poiché ci consente di dedicare e investire in maggiore potenza di elaborazione per i nostri carichi di lavoro IA più intensivi", si legge nel post correlato di Meta.

Meta ha lanciato il suo primo chip proprietario lo scorso maggio, realizzato su misura per le esigenze computazionali uniche dell'azienda. Man mano che Meta intensifica la propria attenzione allo sviluppo dell’intelligenza artificiale, è cresciuta la necessità di hardware specializzato. L'azienda ha recentemente mostrato l'infrastruttura IA che utilizza per addestrare i suoi modelli IA avanzati, come Llama 3, che attualmente si basa esclusivamente su Nvidia componenti.

Meta si concentra sui chip GenAI per ottenere consigli migliori
I chip MTIA sono destinati a un ulteriore sviluppo, con Meta che prevede di migliorare l'hardware per supportare le attività di intelligenza artificiale generativa (Immagine di credito)

Secondo una ricerca di Omdia, Meta è stato uno dei principali clienti di Nvidia lo scorso anno, acquisendo un volume sostanziale di GPU H100 per l'addestramento dei modelli AI. Meta ha chiarito che la sua iniziativa relativa al silicio personalizzato è progettata per integrare, piuttosto che sostituire, l'hardware Nvidia già in uso nei suoi sistemi esistenti.

"Soddisfare le nostre ambizioni per il nostro silicio personalizzato significa investire non solo nel silicio di elaborazione, ma anche nella larghezza di banda, nella rete e nella capacità della memoria, nonché in altri sistemi hardware di prossima generazione", ha affermato Meta.

I chip MTIA sono destinati a un ulteriore sviluppo, con Meta che prevede di migliorare l’hardware per supportare le attività di intelligenza artificiale generativa. L'introduzione di MTIA v2 rappresenta la più recente incursione di Meta nella tecnologia dei chip personalizzati, rispecchiando una tendenza del settore più ampia in cui le principali aziende tecnologiche stanno creando le proprie soluzioni hardware.

“Attualmente abbiamo diversi programmi in corso volti ad espandere la portata di MTIA, incluso il supporto per i carichi di lavoro GenAI. E siamo solo all’inizio di questo viaggio.”

-Meta

Ad esempio, proprio la scorsa settimana, Google Cloud ha lanciato la sua prima CPU basata su Arm durante l'evento Google Cloud Next 2024. Allo stesso modo, Microsoft ha sviluppato internamente le sue CPU Maia e Cobalt e Amazon sta utilizzando le famiglie di chip Graviton e Trainium progettate da AWS per facilitare le applicazioni di intelligenza artificiale generativa.


Credito immagine in primo piano: Laura Ockel/Unsplash

spot_img

L'ultima intelligenza

spot_img