ゼファーネットのロゴ

CEO インタビュー: Applied Brain Research Inc. の Chris Eliasmith 博士と Peter Suma 博士

日付:

ピーター・スマとクリス・エリアスミス博士
ピーター・スマとクリス・エリアスミス博士

Chris Eliasmith 教授 (右側) は、Applied Brain Research Inc. の共同 CEO 兼社長です。Chris は、Neural Engineering Framework (NEF)、Nengo ニューラル開発環境、および Semantic Pointer Architecture の共同発明者でもあります。 AI の効率と規模を向上させるために、脳に関する私たちの理解を活用することに専念しています。 彼のチームは、世界最大の脳機能シミュレーションである Spaun を開発しました。 彼はこの研究により、権威ある 2015 NSERC ポラニー賞を受賞しました。 Chris は 120 冊の本を出版し、8 以上のジャーナル記事と特許を所有しており、理論的神経科学のカナダ研究委員長を務めています。 彼は、哲学、システム デザイン エンジニアリングの各学部に共同で任命され、コンピュータ サイエンスにも相互任命されています。 Chris の Bacon-Erdos 数は XNUMX です。

Peter Suma (左) は、Applied Brain Research Inc. の共同 CEO です。ABR の前は、Peter はロボティクスと金融サービスの新興企業を率い、XNUMX つのシード ベンチャー キャピタル ファンドを管理していました。 Peter は、システム エンジニアリング、科学、法律、ビジネスの学位を取得しています。

ABRのビジョンは何ですか?
ABR のビジョンは、革新的なタイム シリーズ プロセッサ (TSP – https://appliedbrainresearch.com/products/tsp/) チップ。

民生用電子機器や自動車用アプリケーション向けの小型で低電力のチップで完全な音声および言語処理を実現する、レーダー信号をより高速かつ省電力で処理する、クラウド サイズの AI 信号処理をデバイスに導入する、または状況認識 AI を統合してロボットが複雑なコマンドを理解して応答し、自然で直感的な方法で人々と対話する能力を備えた当社の TSP チップ ファミリは、デバイスが感知して通信する方法に革命を起こす態勢を整えています。

ABR は 2012 年以来、米国国防総省、Intel、BMW、Google、Sony、BP などのクライアントに高度な AI R&D プロジェクトを提供してきました。 私たちの仕事の例としては、世界最大の脳機能シミュレーションの開発、米国空軍向けの自律型ドローン コントローラーの構築、自動車、電化製品、IoT デバイス用の小型で強力な音声制御システムの構築などがあります。 当社の TSP チップは最新のイノベーションであり、より多くのより優れた AI モデルをデバイスに適合させ、デバイスにより優れた人工の「頭脳」を提供するために取り組んでいます。

ABR はどのように始まったのですか?
ABR は、ウォータールー大学の理論神経科学センターにある Chris Eliasmith 博士の研究室から設立されました。 Applied Brain Research Inc. (ABR) は現在、脳に着想を得た AI エンジニアリング企業のリーダーです。 当社の AI エンジニアと神経科学者は、ラボでの AI と脳の研究に触発されて、AI を改善するための技術を開発しています。

あなたは共有すべきいくつかの最近の進展があると述べました。 彼らは何ですか?
ABR が、クラウド サイズの音声および信号 AI モデルの実行を可能にするエッジ AI チップの新しいタイム シリーズ プロセッサ (TSP) ファミリーの開発をサポートするため、ventureLab および Silicon Catalyst インキュベーター プログラムに承認されたことを発表できることを非常に嬉しく思います。低コスト、低消費電力、低遅延でエッジに。 55429 月 5 日から、ベネチアン エキスポ ホール D のカナダ オンタリオ ブースの CES ブース番号 XNUMX に出展します。th 8月XNUMX日までth、2023年、ラスベガス。 ABR は、CES イノベーション アワードの受賞者でもあります (https://appliedbrainresearch.com/press/2022-11-21-ces-innovation-awards/) 今年。

あなたが構築しているこれらの新しいチップについて教えてください。
ほとんどの電子機器は、市場のスマート機能に対応するために、すでに AI を利用しているか、まもなく利用する必要があります。 より強力な AI ネットワークは、より大規模な AI ネットワークです。 今日のエッジ プロセッサは小さすぎて、最新の可能な機能を提供するのに十分な大規模な AI モデルを実行できません。CPU と GPU は、多くの電子デバイスには高すぎます。 クラウド AI も高価であり、多くの製品では接続へのアクセスが保証されておらず、顧客が正しく構成していないことがよくあります。

デバイス メーカーが必要としているのは、製品がそれぞれの市場をリードできるようにするために、大規模な AI モデルを実行できる小型で安価な低電力チップです。 これを達成するための非常に効率的で経済的で低電力の方法は、大規模な AI モデルを圧縮し、これらの圧縮モデルを実行するコンピューター チップを設計することです。

ABR は、ルジャンドル メモリ ユニット (LMU) と呼ばれる特許取得済みの新しい AI 時系列圧縮アルゴリズムを使用して、まさにこれを実現しました。 この圧縮アルゴリズムを使用して、以前はクラウド サーバーが必要だったデバイスで音声、言語、および信号の推論 AI モデルを実行する、小さいながらも非常に強力な時系列処理 AI プロセッサのファミリを開発しました。

これにより、低消費電力でより強力でスマートなデバイスが可能になります。 バッテリーは長持ちし、デバイスは完全な自然言語の文章で会話し、センサーはより多くのイベントをより正確に処理します。 ABR は、革新的な低電力、低コスト、低遅延の強力な AI タイム シリーズ プロセッサ (TSP) を使用して、AI 音声、言語、および信号処理用の新世代のインテリジェント デバイスを実現します。

ABR TSP ファミリのチップは何ですか?
現在、ABR TSP ファミリには XNUMX つのチップがあります。 Chat-Chip TSP と Signal-TSP。

ABR チャットチップ TSP 世界初のオールインワン フルボイス ダイアログ インターフェイス、低消費電力チップです。 これまでの低コストで低電力の音声チップは、50 程度の単語の理解に限定されたキーワード スポッティング AI モデルに限定されていました。 これらのチップは、車、おもちゃ、その他の音声対応の、時には切断された、低 BOM コストのデバイスで、非常にイライラする音声インターフェイスを提供します。 ABR の Chat-Chip TSP は、これらのチップを同じコストで完全な自然言語体験に置き換えます。 顧客体験を劇的に向上させます。

ABR Chat-Chip は、ノイズ フィルタリング、音声認識 (ASR)、自然言語処理 (NLP)、ダイアログ管理、テキスト読み上げ (TTS) AI を含む、完全な自然言語音声アシスタントを 50 つのチップで実現します。 ABR Chat-Chip TSP は、クラウド サイズの音声および言語 AI モデルを XNUMX つのチップで実行でき、消費電力は XNUMX ミリワット未満です。 低コスト、低電力、大規模な音声および言語 AI モデル処理のこの組み合わせは、ABR Chat-Chip TSP が完全な Alexa のような自然言語ダイアログを、これまで完全な言語ダイアログを実装できなかったデバイスを含むすべてのデバイスにもたらすことを意味します。既存のチップを使用する場合、コスト、レイテンシ、およびモデル サイズの制限によるシステム。

カメラ、電化製品、ウェアラブル、ヒアラブル、ロボット、自動車はすべて、ユーザーとの複雑でリアルタイムの完全な言語対話を行うことができます。 イヤーピースのノイズ除去と注意を集中させる大規模な AI モデルにより、人々はよりよく聞こえるようになります。 人々は、ボタンに触れることなく、よりプライベートに、即座に、より衛生的にデバイスと対話できます。 現在および近い将来、私たちの生活に登場する多くのロボットは、クラウドに接続しなくても口頭で対話できます。 デバイスは、ユーザーに使用方法を説明したり、口頭でトラブルシューティングを行ったり、口頭でユーザー マニュアルを提供したり、衛生的なタッチレス インターフェイスやハンズフリー操作を提供したり、消費者に機能を売り込んだりすることもできます。 これらすべてにインターネット接続は必要ありませんが、存在する場合は利用できます。 ローカルで提供される音声インターフェイスは、録音した音声をクラウドに送信しないため、よりプライベートであり、バックグラウンド ノイズや感情的なコンテキストが漏れるリスクが排除されます。 同様に、クラウド ネットワークの遅延なしで、ローカル ダイアログ処理が高速になります。 ローカル ダイアログ処理は、音声インターフェイスに必要なクラウド処理の大部分を取り除き、最大 10 分の XNUMX のデバイス内プロセッサ コストでローカル処理を実行することにより、デバイス メーカーのデバイスあたりおよびクラウド内のコストを削減します。

ABRシグナル-TSP 大規模な AI モデルを実行することで、AI シグナル パターンと異常検出を実行します。既存の CPU や GPU よりも高速かつ省電力です。 一般に、大規模な AI モデルがはるかに正確な AI モデルである市場では、デバイス メーカーは、競合他社よりもスマートなデバイスを作成するために、安価で低電力の大規模な AI モデル プロセッサを必要としています。 ABR のタイム シリーズ プロセッサ (TSP) のコストはわずか数ドルですが、同じワークロードをリアルタイムで実行するために 30 ドルから 200 ドルの費用がかかるフル CPU または GPU を必要とする大規模な AI モデルを実行します。 ABR の Signal TSP は通常、機能的に同等の CPU または GPU と比較して、消費電力を 100 分の 10、遅延を 10 分の XNUMX、コストを XNUMX 分の XNUMX に削減します。

TSP チップはどのようにプログラムされていますか?
ABR は、NengoEdge (edge.nengo.ai) と呼ばれる API と AI ハードウェア展開 SaaS プラットフォームで TSP チップをサポートします。 AI モデルを TensorFlow からインポートし、NengoEdge を使用して TSP やその他のチップへの展開用に最適化できます。 NengoEdge を使用すると、ネットワークを選択し、さまざまなハードウェア対応の最適化を設定してから、NengoEdge にハードウェア固有の最適化を使用してネットワークをトレーニングおよび最適化させることができます。これには、TSP がターゲットである場合の LMU ファブリックなど、利用可能な AI アクセラレーション機能の量子化と利用が含まれます。 . その結果、AI ネットワークをターゲット チップに最適にパッキングして、選択したネットワークをターゲット ハードウェアに配信するための最速、低消費電力、最も経済的なソリューションを提供します。 各チップを購入してテストしたり、各チップの詳細を学習したりする必要はありません。 ユーザーは、音声アシスタントやレーダー処理 AI システムなど、すべての時系列ワークロードで TSP の輝きを確認できます。

LMU 圧縮アルゴリズムについて詳しく教えてください。
ルジャンドル メモリ ユニット (LMU) は、人間の脳内の時間セルで使用されるアルゴリズムをエミュレートすることによって設計されました。具体的には、時間セルがイベント シーケンスの学習と識別においてどのように効率的であるかを示します。 LMU は、すべての時系列およびシーケンスベースの AI モデルを推論するために、ABR TSP の効率、パフォーマンス、およびコストの大幅な向上を可能にします。 2019 年に世界中で LMU の特許を取得し、2019 年 2020 月にそれを NeurIPS として発表しました。その後、XNUMX 年に LMU のソフトウェア バージョンを Web サイトと GitHub で公開しました。現在、LMU を使用して最新の結果を時間通りに達成する多くの論文が公開されています。他のグループによる一連のワークロード。 ウェアラブル、医療機器、ドローン コントローラーなどのデバイスでの信号および音声処理のために、CPU、GPU、または MCU で実行される LMU ソフトウェアのライセンスを取得した多くのクライアントがいます。 それらの多くは現在、TSP チップへの移行を待っており、バッテリー寿命を延ばし、さらに大きなモデルをより低い電力、コスト、および遅延レベルでサポートしています。

TSP チップはいつ利用可能になりますか?
1 年第 2024 四半期までに、Chat-Chip と Signal の両方の設計に対応する最初のシリコン TSP チップを入手できるように取り組んでいます。現在、事前注文と設計 LOI に署名しています。 ABR の共同 CEO である Peter Suma にお問い合わせください。 Peter.suma@appliedbrainresearch.com または 1-416-505-8973 で、デバイスをクラスで最もスマートに充電する方法をご確認ください。

また読む:

CEO インタビュー: Codasip の Ron Black

CEO インタビュー: POLYN Technology の Aleksandr Timofeev

CEO インタビュー: Weebit Nano の Coby Hanoch

CEO インタビュー: Hyperstone の Jan Peter Berns

この投稿を共有する:

スポット画像

最新のインテリジェンス

スポット画像