Zephyrnet-Logo

Meta konzentriert sich für bessere Empfehlungen auf GenAI-Chips

Datum:

Meta hat eingeführt die neueste Version seiner proprietären Chips für KI-Aufgaben. Die intern entwickelten Meta Training and Inference Accelerator (MTIA) v2-Chips bieten doppelt so viel Rechenleistung und Speicherbandbreite wie ihre Vorgänger, die v1-Chips.

Diese Chips werden in den Rechenzentren von Meta implementiert, um KI-Anwendungen zu unterstützen und insbesondere Deep-Learning-Empfehlungssysteme zu verbessern, die das Benutzerengagement auf seinen Plattformen steigern.

Meta hat hervorgehoben, dass diese neuen Chips sowohl einfache als auch komplexe Ranking- und Empfehlungsalgorithmen verwalten können, die für Werbung auf Plattformen wie Facebook und Instagram unerlässlich sind. Meta behauptet, dass es durch die Verwaltung sowohl der Hardware- als auch der Softwarekomponenten handelsübliche GPUs hinsichtlich der Effizienz übertreffen kann.

„Wir sehen bereits die positiven Ergebnisse dieses Programms, da es uns ermöglicht, mehr Rechenleistung für unsere intensiveren KI-Arbeitslasten bereitzustellen und in diese zu investieren“, heißt es in dem entsprechenden Beitrag von Meta.

Meta brachte im vergangenen Mai seinen ersten proprietären Chip auf den Markt, der speziell auf die besonderen Rechenanforderungen des Unternehmens zugeschnitten ist. Da Meta seinen Fokus verstärkt auf die KI-Entwicklung legt, ist der Bedarf an spezieller Hardware gewachsen. Das Unternehmen stellte kürzlich die KI-Infrastruktur vor, die es zum Trainieren seiner fortschrittlichen KI-Modelle wie Llama 3 nutzt, auf das es derzeit ausschließlich setzt Nvidia Komponenten.

Meta konzentriert sich für bessere Empfehlungen auf GenAI-Chips
Die MTIA-Chips sollen weiterentwickelt werden, wobei Meta plant, die Hardware zu verbessern, um generative KI-Aufgaben zu unterstützen (Bildnachweis)

Laut Omdia-Recherchen war Meta im vergangenen Jahr einer der Hauptkunden von Nvidia und erwarb eine beträchtliche Menge an H100-GPUs für das KI-Modelltraining. Meta hat klargestellt, dass seine kundenspezifische Siliziuminitiative darauf ausgelegt ist, die Nvidia-Hardware, die bereits in seinen bestehenden Systemen verwendet wird, zu ergänzen und nicht zu ersetzen.

„Um unsere Ambitionen für unser kundenspezifisches Silizium zu erfüllen, müssen wir nicht nur in Rechensilizium investieren, sondern auch in Speicherbandbreite, Netzwerk und Kapazität sowie andere Hardwaresysteme der nächsten Generation“, erklärte Meta.

Die MTIA-Chips sollen weiterentwickelt werden, wobei Meta plant, die Hardware zu verbessern, um generative KI-Aufgaben zu unterstützen. Die Einführung des MTIA v2 stellt Metas jüngsten Vorstoß in die kundenspezifische Chip-Technologie dar und spiegelt einen breiteren Branchentrend wider, bei dem große Technologieunternehmen ihre eigenen Hardwarelösungen entwickeln.

„Derzeit laufen mehrere Programme, die darauf abzielen, den Umfang von MTIA zu erweitern, einschließlich der Unterstützung für GenAI-Workloads. Und wir stehen erst am Anfang dieser Reise.“

-Meta

Beispielsweise hat Google Cloud erst letzte Woche während der Google Cloud Next 2024-Veranstaltung seine erste Arm-basierte CPU vorgestellt. In ähnlicher Weise hat Microsoft seine Maia- und Cobalt-CPUs selbst entwickelt, und Amazon nutzt seine von AWS entwickelten Graviton- und Trainium-Chipfamilien, um generative KI-Anwendungen zu ermöglichen.


Ausgewählte Bildquelle: Laura Ockel/Unsplash

spot_img

Neueste Intelligenz

spot_img