ゼファーネットのロゴ

米国 NIST、信頼できる AI 開発を促進するために AI 安全性コンソーシアムを発足

日付:

商務省傘下の米国国立標準技術研究所 (NIST) は、 撮影 人工知能安全性研究所コンソーシアム (「コンソーシアム」) の設立を通じて、人工知能 (AI) のための安全で信頼できる環境の育成に向けた大きな前進。 コンソーシアムの設立は、NIST が 2 年 2023 月 XNUMX 日に発行した通知で発表され、スケーラブルで実証済みの技術と指標を特定するための新しい測定科学を確立するための共同の取り組みを示しています。 これらの指標は、特に最も機能的な基盤モデルなどの高度な AI システムに関して、AI の開発と責任ある利用を促進することを目的としています。

コンソーシアムの目的と連携

コンソーシアムの主な目的は、AI テクノロジーによってもたらされる広範なリスクを回避し、革新的な AI テクノロジーの進歩を奨励しながら公衆を保護することです。 NIST は、信頼できる AI の責任ある使用と開発のための、実証済みでスケーラブルで相互運用可能な測定と方法論を特定することを目的として、より広範なコミュニティの関心と能力を活用することを目指しています。

共同研究開発 (R&D) への取り組み、共有プロジェクト、テスト システムとプロトタイプの評価は、コンソーシアムの主要な活動の 30 つです。 この共同の取り組みは、AI の安全性と信頼に関連する幅広い優先事項を強調した、2023 年 XNUMX 月 XNUMX 日付の「人工知能の安全、安心、信頼できる開発と使用」と題された大統領令に応えるものです。

参加と協力の呼びかけ

これらの目標を達成するために、NIST は、関心のある組織が AI リスク管理フレームワーク (AI RMF) を通じて技術的専門知識、製品、データ、モデルを共有できるように扉を開きました。 関心のある手紙の募集は、非営利団体、大学、政府機関、テクノロジー企業と協力する NIST の取り組みの一環です。 コンソーシアム内の協力活動は、十分な数の記入および署名済みの関心のある書簡が受信されれば、4 年 2023 月 XNUMX 日までに開始される予定です。 コンソーシアムの活動に貢献できるすべての組織が参加できますが、選ばれた参加者は NIST とコンソーシアム協力研究開発契約 (CRADA) を結ぶ必要があります。

AI の安全性の課題への対処

コンソーシアムの設立は、特にユーザーと国民のプライバシー、セキュリティ、予期せぬ結果の分野において、AI開発を管理する規制の制定において他の先進国に追いつくための前向きな一歩とみなされている。 この動きは、米国におけるAI管理のための特定の政策の採用に向けたジョー・バイデン大統領政権下でのマイルストーンを反映している。

コンソーシアムは、安全、安心、信頼できる方法で AI を開発または導入するための業界標準の進化を促進するための、新しいガイドライン、ツール、手法、ベスト プラクティスの開発に役立ちます。 AI技術者だけでなく社会にとっても重要な時期に、イノベーションを促進しながらAIを社会規範や価値観に確実に適合させる上で、重要な役割を果たす態勢が整っている。

画像ソース:Shutterstock

スポット画像

最新のインテリジェンス

スポット画像