ゼファーネットのロゴ

DoE がインテルの最新頭脳をボックスに納入

日付:

インテル研究所は水曜日、フクロウの脳にほぼ似ているという、1.15億XNUMX万個のニューロンシステムを備えた同社最大のニューロモーフィックコンピューターを発表した。

でも心配しないでください、インテルはフォールアウトのゲームを再現したわけではありません。 ロボブレイン。インテルの Hala Point は、有機的なニューロンとシナプスのネットワークの代わりに、それらをすべてシリコン内でエミュレートします。

私たちの脳は、およそ 20 W の電力で、あらゆる瞬間に各感覚から流れ込んでくる大量の情報を驚くほど効率的に処理します。 IntelとIBMが過去数年間研究に費やしてきたニューロモーフィクスの分野は、脳のニューロンとシナプスのネットワークをエミュレートして、従来のアクセラレータよりも効率的に情報を処理できるコンピュータを構築することを目的としている。

どのくらい効率的ですか? Intel によれば、同社の最新システムは、6 W を消費する電子レンジとほぼ同じサイズの 2,600U ボックスで、15 ビット精度で 8 TOPS/W ものディープ ニューラル ネットワーク効率を達成できると報告されています。それを大局的に考えると、Nvidia の最も強力なシステムである Blackwell ベースの GB200 NVL72 は、まだ出荷されていません。 管理する INT6 ではわずか 8 TOPS/W ですが、現在の DGX H100 システムは約 3.1 TOPS/W を管理できます。

サンディア国立研究所の研究者がインテルの 1.15 億 XNUMX 万ニューロンのハラポイント ニューロモーフィック コンピューターを納入

サンディア国立研究所の研究者がインテルの 1.15 億 XNUMX 万ニューロンの Hala Point ニューロモーフィック コンピューターを納入 – クリックして拡大

このパフォーマンスは、1,152 個のインテルの Loihi 2 プロセッサーを使用して達成されます。これらのプロセッサーは、合計 1.15 億 128 万個のニューロン、140,544 億個のシナプス、2,300 個のプロセッシング コア、および必要な補助計算を処理する 86 個の組み込み xXNUMX コアの XNUMX 次元グリッドに縫い合わされています。物事を続けてください。

明確にしておきますが、これらは典型的な x86 コアではありません。 「これらは非常にシンプルで小さな x86 コアです。これらは当社の最新コアや Atom プロセッサとはまったく異なります」とインテルのニューロモーフィック コンピューティング担当ディレクターのマイク デイビス氏は語った。 登録.

ロイヒ 2 がベルを鳴らした場合、それはチップが交換されたためです。 ノックする 2021年にIntelの7nmプロセス技術を使用して製造された最初のチップのXNUMXつとしてデビューして以来、しばらくの間。

Intelによれば、その古いシステムにもかかわらず、Loihiベースのシステムは、消費電力を50分の100に抑えながら、従来のCPUおよびGPUアーキテクチャよりもXNUMX倍も速く、特定のAI推論と最適化の問題を解決できるという。それらの数字は 達成 [PDF] 単一の Loihi 2 チップを Nvidia の小さな Jetson Orin Nano と Core i9 i9-7920X CPU に搭載します。

まだ GPU を捨てないでください

それは印象的に聞こえるかもしれないが、Davies 氏は、同社のニューロモーフィック アクセラレータがあらゆるワークロードの GPU を置き換える準備がまだできていないことを認めています。 「これは決して汎用の AI アクセラレータではありません」と彼は言いました。

まず、おそらく AI で最も人気のあるアプリケーションである ChatGPT などのアプリを動かす大規模言語モデル (LLM) は、少なくとも現時点では Hala Point では実行されません。

「現時点では、LLM をハラポイントにマッピングしていません。その方法がわかりません。率直に言って、ニューロモーフィック研究分野にはトランスフォーマーのニューロモーフィック版は存在しません」とデイビス氏は述べ、それをどのように達成するかについて興味深い研究があると指摘した。

そうは言っても、Davies のチームは、いくつかの注意点はありますが、Hala Point で従来のディープ ニューラル ネットワークである多層パーセプトロンを実行することに成功しました。

「ネットワークの活動とそのネットワーク内の伝導性を分散させることができれば、本当に、本当に大きな利益を達成できるでしょう」と彼は言いました。 「それが意味するのは、ビデオ ストリームやオーディオ ストリームなど、サンプル間で何らかの相関関係があるような連続入力信号を処理する必要があるということです。」

インテル研究所は、Loihi 2 のビデオおよびオーディオ処理の可能性を論文で実証しました 公表 [PDF] 昨年末。テストの結果、このチップは従来のアーキテクチャと比較して、信号処理のエネルギー効率、遅延、およびスループットにおいて大幅な向上を達成し、場合によっては 3 桁を超えることが判明しました。ただし、最大の利益は、精度の低下を犠牲にして実現されました。

低電力と遅延でリアルタイム データを処理できるため、この技術は自動運転車、ドローン、ロボット工学などのアプリケーションにとって魅力的なものになっています。

有望であることが示されているもう 1 つのユースケースは、混雑した市内中心部を移動する必要がある配送車両のルート計画など、組み合わせ最適化の問題です。

車の速度、事故、車線閉鎖などの小さな変化をその場で考慮する必要があるため、これらのワークロードを解決するのは非常に複雑です。従来のコンピューティング アーキテクチャは、この種の指数関数的な複雑さにあまり適していないため、非常に多くの量子コンピューティング ベンダーが登場しています。 ターゲット 最適化の問題。

しかし、Davies 氏は、Intel のニューロモーフィック コンピューティング プラットフォームは「これらの他の実験研究の代替手段よりもはるかに成熟している」と主張します。

成長の余地

デイヴィス氏によれば、まだ解放すべき余地がたくさんあるという。 「ソフトウェアの制限により、今日に至るまで十分に活用されていないのが残念です」と同氏はロイヒ 2 チップについて語った。

ハードウェアのボトルネックを特定し、ソフトウェアを最適化することが、Intel Labs がサンディアにプロトタイプを導入した理由の 1 つです。

「特にハードウェア レベルでの制限を理解することは、これらのシステムを世に送り出す上で非常に重要です」とデイビス氏は言います。 「ハードウェアの問題を修正し、改善することはできますが、どの方向に最適化するかを知る必要があります。」

サンディアの関係者がインテルのニューロモーフィック技術を手に入れるのはこれが初めてではない。ある論文で 公表 2022 年初頭、研究者らはこの技術に HPC と AI の可能性があることを発見しました。ただし、これらの実験ではインテルの第 128,000 世代 Loihi チップが使用されました。このチップには、後継チップの約 1 分の XNUMX (XNUMX 対 XNUMX 万) のニューロンが搭載されています。 ®

スポット画像

最新のインテリジェンス

スポット画像