Zephyrnet-Logo

Arm 2022 Neoverse Update, Roadmap

Datum:

Arm hat kürzlich sein jährliches Update zur Neoverse-Produktlinie veröffentlicht, das auf die Infrastruktur von der Cloud bis zur Kommunikation am Rand abzielt. Chris Bergey (SVP und GM für Infrastruktur) leitete das Update, beginnend mit einem schockierenden und ehrfürchtigen Pitch über die Neoverse-Bereitstellung. Er spielte damit, dass sich Arm-basierte Server jetzt in jeder größeren öffentlichen Cloud auf der ganzen Welt befinden. AWS natürlich, Google Cloud, Microsoft Azure, Alibaba und Oracle unterstützen alle Arm-basierte Instanzen. In 5G RAN kündigten Dell, Marvell, Qualcomm, Rakuten und HPE Partnerschaften an und schließen sich Nokia, Lenovo, Samsung und anderen in diesem Bereich an. NVIDIA kündigte seine Grace-Server-CPU und HPE seine ProLiant-Server an, ebenfalls Arm-basiert. Wie gesagt – Schock und Ehrfurcht.

Perspektiven von Cloud-Buildern, Cloud-Entwicklern

Das Cloud-/Rechenzentrums-Backbone war früher ausschließlich von x86-basierten Servern abhängig. Diese Server spielen weiterhin eine wichtige Rolle, aber jetzt müssen Clouds eine schnell wachsende Vielfalt von Workloads unterstützen. CPU-Typen wurden in x86-basierte versus ARM-basierte fragmentiert. GPUs sind häufiger für die Unterstützung der Videoverarbeitung, Spiele in der Cloud und KI-Training. Es sind spezialisierte KI-Plattformen wie die Google TPUs entstanden. Warme Speicherung hängt vom intelligenten Zugriff auf SSD über Arm-basierte Schnittstellen ab. Softwaredefinierte Netzwerkschnittstellen sind Arm-basiert. DPUs – Datenverarbeitungseinheiten – sind jetzt eine Sache, ein Deskriptor für viele dieser datenzentrischen Verarbeitungseinheiten. Anwendungsspezifische Plattformen für das Rechenzentrum, die alle auf SystemReady®-qualifizierten ARM-Plattformen aufbauen.

Microsoft Azure machte einen wichtigen Punkt, dass es beim Cloud-Spiel jetzt um den Gesamtdurchsatz bei niedrigsten Betriebskosten geht, nicht nur um die höchste Leistung. Leistung ist ein besonders wichtiger Faktor; Schon heute machen die Stromkosten in einem Rechenzentrum bis zu 40 % der Gesamtbetriebskosten aus. Die Reduzierung dieser Kosten muss alle Komponenten innerhalb des Zentrums betreffen, Recheninstanzen, Speicher, KI, Grafiken, Netzwerke, alles. Der Azure-Produkt-VP betonte, dass Arm mit ihnen an einer ganzheitlichen Betrachtung der Gesamtbetriebskosten arbeite und ihnen dabei helfe, die besten Lösungen im gesamten Zentrum zu definieren. Ich gehe davon aus, dass Arm ähnliche Programme mit anderen Cloud-Anbietern hat und sich zu einem Lösungspartner für diese Hyperskalaren entwickelt.

Arm ermöglicht Cloud-Unabhängigkeit

Ein Entwickler-Befürworter bei Honeycomb (das ein Analysetool für verteilte Dienste erstellt) machte einen weiteren interessanten Punkt: Die Allgegenwärtigkeit von Arm-basierten Instanzen in den großen Clouds bietet Entwicklern Cloud-Unabhängigkeit. Natürlich bieten x86-Plattformen die gleiche Unabhängigkeit. Ich denke, der Punkt hier ist, dass Arm einen Nachteil durch die Verfügbarkeit auf einer Vielzahl von Clouds eliminiert hat. Honeycomb hebt übrigens auch die Kosten- und Nachhaltigkeitsvorteile hervor; Arm nennt dies die kohlenstoffintelligente Wolke. Junge Entwicklungsteams mögen natürlich beides, aber sie haben auch die wahrscheinlich wachsenden Vorteile für ihre Unternehmen im Auge, wenn sie auf nachhaltigeren Plattformen bereitgestellt werden.

Produktaktualisierung

Zur Erinnerung: Die Neoverse-Familie gliedert sich in drei Klassen. Die V-Serie bietet höchste Leistung pro Thread – der wichtigste Faktor für Scale-up-Workloads, wie z. B. wissenschaftliche Berechnungen. Die N-Serie ist darauf ausgelegt, höchste Leistung pro Socket zu bieten – der wichtigste Faktor für Scale-out-Workloads, gut für (ich vermute) massive MIMO-Basisbänder. Die E-Serie ist für einen effizienten Durchsatz in Edge-to-Cloud-Anwendungen konzipiert; Denken Sie zum Beispiel an eine Power-over-Ethernet-Anwendung.

Die neueste Plattform der V-Serie ist die V2 mit dem Codenamen Demeter. Dies bietet eine verbesserte Ganzzahlleistung, einen privaten L2-Cache zur Verarbeitung größerer Arbeitsdatensätze und eine erweiterte Vektorverarbeitung und ML-Fähigkeit. Die Plattform unterstützt jetzt bis zu 512 MB Cache auf Systemebene, ein kohärentes Mesh-Netzwerk mit bis zu 4 TB Durchsatz (!) und CXL für Chiplet-Unterstützung. Unterstützung von kohärenten 2.5/3D-Designs. Nvidia Grace basiert auf der V2-Plattform, was interessant ist, da Grace eine Hälfte der Grace-Hopper-Plattform ist, in der Hopper eine fortschrittliche GPU ist.

Bei der N-Serie planen sie nächstes Jahr eine „N-Series Next“-Plattform mit weiter verbesserter Leistung pro Watt. Sie haben auch ein E2-Update für die E-Serie und eine „E-Series-Next“-Version, die nächstes Jahr geplant ist. Nicht viele Details hier.

Über den Wettbewerb

Mir scheint klar, dass Arm heutzutage, wenn er an Wettbewerb denkt, nicht über die Schulter schaut (RISC-V). Sie blicken auf x86-Plattformen voraus. Beispielsweise vergleicht Arm die Leistung beliebter Datenbankanwendungen zwischen Graviton2 (AWS) und Xeon-basierten Instanzen und misst, dass MongoDB 117 % schneller läuft als Intel. Sie maßen auch einen 80-prozentigen Vorteil gegenüber Intel beim Betrieb von BERT, einer führenden Plattform zur Verarbeitung natürlicher Sprache.

Ich bin mir sicher, dass Arm auch Schritte unternimmt, um sich gegen andere eingebettete Plattformen zu verteidigen, aber der Neoverse-Fokus liegt eindeutig nach vorne, nicht nach hinten. Sie können mehr lesen KLICKEN SIE HIER.

Teile diesen Beitrag über:

spot_img

Neueste Intelligenz

spot_img