ゼファーネットのロゴ

メタリサーチによりヘッドセットとメガネが家具を認識できるようになりました

日付:

Meta の最新の AI 研究システムにより、ヘッドセットとメガネが部屋のレイアウトと家具を理解できるようになります。

呼び出され シーンスクリプト, Metaによると、このシステムは大規模言語モデル(LLM)と同じ基盤技術を活用しているが、次の言語フラグメントを予測する代わりに、ヘッドセットがすでにキャプチャしているのと同じ種類の3D点群キャプチャ内の建築要素や家具要素を予測して、スタンドアロンの位置追跡を可能にする点が異なるという。 。

出力は、特定の家具または要素の基本境界を表す一連のプリミティブ 3D 形状です。

Meta の SceneScript の動作中

Quest 3 は部屋の生の 3D メッシュを生成でき、この 3D メッシュから壁、床、天井の位置を推測できます。ただし、ヘッドセットは現時点では、このメッシュ内のどの形状がドア、窓、テーブル、椅子、ソファなどのより具体的な要素を表すのかを認識していません。 Quest ヘッドセットでは、ユーザーが必要に応じてこれらのオブジェクトを単純な直方体として手動でマークアウトできますが、これはオプションであり、困難であるため、開発者はユーザーがそうすることに依存できません。

SceneScript のようなテクノロジーが Quest 3 の複合現実シーン セットアップに統合されていれば、開発者は特定の家具要素の上または周囲に仮想コンテンツを自動的に配置できるようになります。窓だけをポータルに置き換えたり、椅子を仮想座席に置き換えたり、ソファを砂袋のような位置に変更したりできます。これらのことは現在、ユーザーに家具のマークを手動で行うか、場合によってはシーン メッシュを解釈する手動アルゴリズムを使用することで可能ですが、SceneScript を使用すればそれをシームレスかつ自動化できる可能性があります。

Meta の SceneScript の動作中

SceneScript のようなテクノロジーは、将来のヘッドセットや AI アシスタントに大きな可能性をもたらす可能性があります。 最終的には AR メガネ。メタ氏は、「この机は私の寝室にフィットしますか?」といった質問の例を挙げています。 「この部屋をペイントするには何ポットのペンキが必要ですか?」などのコマンドや、「[AR/MR アプリ] を大きなテーブルに置いてください」などのコマンドも含まれます。

ただし、Meta は今のところ、SceneScript を単に研究として説明しており、短期的な製品機能の更新については説明していません。このテクノロジーは最終的に Quest 3 に採用される可能性がありますが、それが近いうちに実現するという示唆はありません。

スポット画像

最新のインテリジェンス

スポット画像