ゼファーネットのロゴ

バックパックAIシステムは、視覚障害者が安全にナビゲートするのに役立ちます

日付:

自動運転車とロボットは、精巧なセンサーとカメラのスイートを使用して周囲の状況を把握しますが、視覚障害のある人は依然として杖や盲導犬を利用しています。 現在、エンジニアは、障害物をリアルタイムで追跡し、人の周囲を描写できる音声起動のウェアラブルシステムを開発しました。

この新しい視覚補助システムは、家を出るときにすでに着用しているよりもはるかにかさばることなく着用できるいくつかのコンポーネントで構成されています。 それはただのベストまたはファニーパック、バックパックとイヤホンのペアです。 チームは、電子機器を隠すことが重要な目標だったので、ユーザーは通りを歩いているサイボーグのようには見えないと言います。

ベストまたはファニーパックには、一連のカメラが詰め込まれています。色情報を提供する4Kカメラと、被写界深度をマッピングするステレオカメラのペアです。 この視覚的な情報は、バックパックに隠されて、手術の頭脳に送られます。

そこでは、ラップトップやRaspberry Piなどのコンピューティングユニットが、OpenCVの人工知能キットwith Depth(OAK-D)と呼ばれるAIインターフェイスを実行します。これは、ニューラルネットワークを使用して視覚データを分析します。 また、最大XNUMX時間使用できるポータブルバッテリーと、USB接続のGPSユニットが含まれています。

バックパックAIシステムのビュー
バックパックAIシステムのビュー

インテル

処理されたビジュアルデータは、Bluetoothを介してイヤホンのペアに中継され、ユーザーに周囲の状況を知らせます。 さまざまな形状、サイズ、タイプの障害物を警告し、正面、上部、下部、左、右、中央などの記述子を使用して、障害物がユーザーとの関係でどこにあるかを宣言できます。

したがって、たとえば、システムは、通りを歩いている人に、「下、左」のゴミ箱、または「上、中央」の垂れ下がった枝に近づいていることを通知できます。 縁石や階段などのつまずきの危険は、標高の変化として見つけることができ、システムは、一時停止の標識や横断歩道などの重要なものが角に近づくときにそれを認識することさえできます。

ユーザーは音声コマンドを発行して、詳細情報を要求することもできます。 「説明する」と言うと、システムは、「車、10時」、「人12時」、「信号機、1時」など、周囲の状況と場所のリストで応答します。

「場所を保存、コーヒーショップ」などのコマンドを使用して、後で参照できるように特定の場所を保存することもできます。 後でそこに戻りたいときに、ユーザーは「コーヒーショップを探す」と言うことができ、システムは道順を示し、それがどれだけ離れているかを言います。

視覚障害者のための他のハイテクエイズは、次のように出現しています。 レーザーレンジング杖 オブジェクトと地形の変化を感知し、 トヨタのガイドカラー 左側または右側でブーンという音がして、どちらの方向に曲がるかを人々に知らせます。 しかし、この新しいシステムははるかに詳細に見え、視力が限られている人々が独立して世界をナビゲートできる可能性があります。

まだ初期の段階ですが、チームはプロジェクトを非営利でオープンソースにすることでシステムを迅速に追跡したいと考えています。

このシステムは、以下のビデオで実際に動作しているのを見ることができます。

視覚障害者のための視覚支援システム

情報源: インテル

コインスマート。 BesteBitcoin-ヨーロッパのBörse
出典:https://newatlas.com/wearables/visually-impaired-blind-backpack-ai/

スポット画像

最新のインテリジェンス

スポット画像