ゼファーネットのロゴ

防衛のための責任ある AI 原則の運用化 – IBM ブログ

日付:


防衛のための責任ある AI 原則の運用化 – IBM ブログ



若い女性の背面図、フリーランスのデータサイエンティストは、ビッグデータマイニング、AIデータエンジニアリング、AIデータエンジニアリングのコーディングプログラミングを自宅でリモートで行い、IT技術者は人工知能プロジェクトに取り組んでいます。

人工知能 (AI) は、人間の性格そのものを含めて社会を変革しつつあります。 国際セキュリティー。これを認識し、国防総省 (DoD) は 2019 年に首席デジタル人工知能局 (CDAO) の前身である統合人工知能センター (JAIC) を立ち上げ、競争上の軍事的優位性と人類の生存条件を構築する AI ソリューションを開発しました。 AI の導入が中心であり、国防総省の運用の機敏性も重要です。しかし、国防総省における AI の拡張、導入、潜在能力の最大限の実現に対する障害は、民間部門における障害と同様です。

最近の IBM調査 AI 導入の成功を妨げる主な障壁として、限られた AI スキルと専門知識、データの複雑さ、倫理的懸念が挙げられます。さらに、によれば、 IBMビジネスバリュー研究所, 経営幹部の 79% が、AI 倫理は全社的な AI アプローチにとって重要であると述べていますが、AI 倫理の共通原則を運用しているのは 25% 未満です。 AI モデルの出力に対する信頼を獲得することは社会技術的な課題であり、社会技術的な解決策が必要です。

AI の責任あるキュレーションの運用に重点を置く防衛リーダーは、リスクを軽減する技術ソリューションやガードレールを実装する前に、まず共有語彙 (AI の安全で責任ある使用を導く共通の文化) に同意する必要があります。国防総省は、AI リテラシーを向上させ、信頼できる組織と提携して戦略的目標と価値観に沿ったガバナンスを開発することで、これを達成するための強固な基盤を築くことができます。

AI リテラシーはセキュリティのために必須です

組織の効率を向上させるために、担当者が AI を導入する方法を知っていることが重要です。しかし、AI のリスクと限界、および適切なセキュリティ対策と倫理ガードレールを実装する方法を深く理解していることも同様に重要です。これらは国防総省または政府機関にとって重要な賭け金です。

カスタマイズされた AI 学習パスは、ギャップや必要なトレーニングを特定するのに役立ち、担当者が特定の役割に必要な知識を得ることができます。偽情報やディープフェイクなど、急速に変化するウイルス性の危険な脅威を迅速に評価、説明し、対応するには、組織全体の AI リテラシーがすべての職員にとって不可欠です。 

必須のリテラシーの定義は個人の立場によって異なるため、IBM はカスタマイズされた方法で AI リテラシーを組織内に適用しています。

戦略的目標をサポートし、価値観と一致する

信頼できる人工知能のリーダーとして、IBM は、顧客組織の価値観に沿った AI の責任ある使用を導くガバナンス フレームワークの開発に経験を積んでいます。 IBM は、IBM 社内でも AI を使用するための独自のフレームワークを持っており、 政策ポジション 顔認識技術の利用など。

AI ツールは現在、国家安全保障に活用されており、 データ侵害 & サイバー攻撃。しかし、AI は国防総省の他の戦略目標もサポートしています。できる 労働力を増強する、それらをより効果的にするのに役立ち、彼らを助ける 再スキル。回復力を生み出すのに役立ちます サプライチェーン 戦闘、人道援助、平和維持、災害救援の役割を果たす兵士、船員、航空兵、海兵隊員を支援する。

CDAO には、責任、公平、追跡可能、信頼性、統治可能という 5 つの倫理原則がその方針の一部として含まれています。 責任ある AI ツールキット。米軍の既存の倫理枠組みに基づくこれらの原則は軍の価値観に基づいており、責任ある AI への取り組みを維持するのに役立ちます。

これらの原則を現実のものとするためには、モデルの機能要件と非機能要件、およびそれらのモデルの周りのガバナンス システムを考慮することで、協調的な取り組みが必要です。以下に、CDAO の倫理原則を運用するための広範な推奨事項を示します。

1.責任

「国防総省職員は、AI 機能の開発、展開、使用に対する責任を負いながら、適切なレベルの判断と注意を払います。」

AI モデルは注意深く思慮深い人材によって開発されるべきであるということには誰もが同意しますが、組織はこの仕事を行う人材をどのように育成できるのでしょうか?以下をお勧めします。

  • AI の課題の社会技術的な性質を認識する組織文化を育む。これは最初から伝える必要があり、パフォーマンスを監視するためにモデルとその管理に導入する必要がある実践、スキルセット、思慮深さを認識する必要があります。
  • ビジネス (またはミッション) 目標、データの準備とモデリング、評価と展開に対応する、AI ライフサイクル全体にわたる倫理実践の詳細を説明します。の クリスプDM ここでモデルが役に立ちます。 IBMの スケールされたデータサイエンス手法CRISP-DM の拡張機能である CRISP-DM は、データ サイエンティスト、産業組織心理学者、デザイナー、コミュニケーション スペシャリストなどからの共同入力に基づいて、AI モデルのライフサイクル全体にわたるガバナンスを提供します。この手法では、データ サイエンス、プロジェクト管理、設計フレームワーク、AI ガバナンスのベスト プラクティスが統合されています。チームは、ドキュメント、話し合う必要がある人や協力する必要がある人、次のステップなど、ライフサイクルの各段階の要件を簡単に確認して理解できます。
  • 解釈可能な AI モデルのメタデータを提供する (たとえば、 ファクトシート) 説明責任者、パフォーマンスベンチマーク (人間との比較)、使用したデータと方法、監査記録 (日付と誰による)、および監査の目的と結果を指定します。

注: これらの責任の尺度は、AI の専門家でない人でも (「数学的説明」なしで) 解釈できる必要があります。

2. 公平

「同省は、AI能力における意図しない偏りを最小限に抑えるために意図的な措置を講じる予定です。」

AI モデルの使用は公平であるべきであり、差別があってはならないことに誰もが同意しますが、これは実際にはどのように行われるのでしょうか?以下をお勧めします。

  • 確立する 中核的研究拠点 多様で学際的なチームに、潜在的な異種の影響を特定するための応用トレーニングのためのコミュニティを提供します。
  • 監査ツールを使用して、モデルに現れるバイアスを反映します。反映が組織の価値観と一致する場合、選択したデータと手法に関する透明性が重要です。その反省が組織の価値観と一致しない場合、これは何かを変える必要があるという合図です。バイアスによって引き起こされる潜在的な異質な影響を発見して軽減するには、モデルのトレーニングに使用されたデータを調べるだけでは十分ではありません。組織は、関係する人材とプロセスも調査する必要があります。たとえば、モデルの適切な使用と不適切な使用が明確に伝えられていますか?
  • 公平性の測定と公平性基準の作成 実用的 さまざまなレベルのサービスに対する機能要件と非機能要件を提供します。
  • 使い方 デザイン思考 AI モデルの意図しない影響を評価し、エンドユーザーの権利を決定し、原則を運用するためのフレームワーク。デザイン思考の実践には、さまざまな人生経験を持つ人々が参加することが不可欠です。多様であればあるほど良い.

3. 追跡可能

「同省の AI 機能は、関係者が透明性と監査可能な方法論、データ ソース、設計手順と文書化など、AI 機能に適用できるテクノロジー、開発プロセス、および運用方法を適切に理解できるように開発および展開されます。」

AI を使用してすべての担当者に明確なガイドラインを提供することで、トレーサビリティを運用します。

  • ユーザーが AI システムとやり取りするときは、常に明確にしてください。
  • AI モデルにコンテンツの基礎を提供します。ドメインの専門家が、モデルのトレーニングに使用される信頼できるデータ ソースを厳選および維持できるようにします。モデルの出力は、トレーニングされたデータに基づいています。

IBM とそのパートナーは、高リスクのユースケースに不可欠な基盤となる包括的で監査可能なコンテンツを備えた AI ソリューションを提供できます。

  • キャプチャ 主要なメタデータ AI モデルを透明化し、モデルのインベントリを追跡します。このメタデータが解釈可能であること、および適切な情報が適切な担当者に公開されていることを確認してください。データの解釈には訓練が必要であり、学際的な取り組みが必要です。 IBMでは、 AI 向けのデザイン このグループは、AI におけるデータの重要な役割 (基本事項の中でも特に) について従業員を教育することを目的としており、フレームワークをオープンソース コミュニティに寄付しています。
  • このメタデータを人々が (最終的には出力ソースで) 簡単に見つけられるようにします。
  • AI は人間を強化し、支援する必要があるため、人間を参加者に含めます。これにより、AI システムの動作時に人間がフィードバックを提供できるようになります。
  • モデルを導入または調達する前に、さまざまな影響と安全性のリスクを評価するためのプロセスとフレームワークを作成します。これらのリスクを軽減するために責任者を指名します。

4.信頼できる

「同省の AI 機能には、明示的かつ明確に定義された用途があり、そのような機能の安全性、セキュリティ、有効性は、ライフサイクル全体にわたって、定義された用途内でのテストと保証の対象となります。」

組織は、明確に定義されたユースケースを文書化し、コンプライアンスをテストする必要があります。このプロセスを運用し拡張するには、強力な文化的連携が必要です。これにより、実践者は、継続的な直接監督がなくても最高の基準を遵守できます。ベスト プラクティスには次のものが含まれます。

  • 常に再認識するコミュニティの構築 なぜ 公正で信頼性の高い成果物が不可欠です。多くの実践者は、単に最善の意図を持っているだけでは、異質な影響はあり得ないと真剣に信じています。これは見当違いです。人々に意見を聞いてもらっている、参加してもらっていると感じさせる、熱心なコミュニティリーダーによる実践的なトレーニングが重要です。
  • モデルのトレーニングで使用されるデータのガイドラインと標準に基づいて信頼性テストの理論的根拠を構築します。これを実現する最善の方法は、この精査が欠けている場合に何が起こるかの例を示すことです。
  • モデル開発へのユーザーのアクセスを制限しますが、プロジェクトの開始時に多様な視点を収集してバイアスの導入を軽減します。
  • AI ライフサイクル全体にわたってプライバシーとセキュリティのチェックを実行します。
  • 定期的にスケジュールされた監査に精度の測定を含めます。モデルのパフォーマンスが人間とどのように比較されるかについて、明確に率直に述べてください。モデルが正確な結果を提供できない場合は、そのモデルに対して誰が責任を負うのか、ユーザーがどのような手段をとっているのかを詳しく説明します。 (これはすべて、解釈可能で検索可能なメタデータに組み込まれている必要があります)。

5. 統治可能

「同省は、意図しない結果を検出して回避する能力と、意図しない動作を示す展開されたシステムを解除または無効化する能力を備えながら、意図した機能を果たす AI 機能を設計および設計します。」

この原則を運用するには次のことが必要です。

  • AI モデルへの投資は導入にとどまりません。モデルが期待どおりに動作し続けることを保証するためにリソースを投入します。導入後だけでなく、AI のライフサイクル全体を通じてリスクを評価し、軽減します。
  • ガバナンス業務を行うために資金提供を受けた責任ある当事者を指名する。彼らには力があるはずだ。
  • コミュニケーション、コミュニティ構築、教育に投資します。などのツールを活用する ワトソンx.ガバナンス 〜へ AIシステムを監視する.
  • 上で説明したように、AI モデルのインベントリを取得して管理します。
  • すべてのモデルにサイバーセキュリティ対策を導入します。

IBM は信頼できる AI の進化の最前線にいます

IBM は、AI システムの誕生以来、信頼できる AI の原則を推進する最前線に立ち、AI システムのガバナンスにおける思想的リーダーとしての役割を果たしてきました。当社は、AI の役割が人間の専門知識と判断力を代替するものではなく、強化するものであることを明確にする信頼と透明性に関する長年の原則に従っています。

2013 年、IBM は AI と機械学習における説明可能性と透明性を追求する旅に乗り出しました。 IBM は AI 倫理のリーダーであり、2015 年に AI 倫理のグローバル リーダーを任命し、2018 年に AI 倫理委員会を設立しました。これらの専門家は、当社の世界的なビジネス活動において当社の原則とコミットメントが確実に守られるよう支援しています。 2020 年、IBM は、公正、安全、信頼できる AI の未来の構築を支援するために、Responsible AI ツールキットを Linux Foundation に寄贈しました。

IBM は、責任ある AI と倫理的な AI の指標、標準、ベスト・プラクティスの未来を形作るための世界的な取り組みを主導しています。

  • バイデン大統領政権とAI大統領令の策定に関与
  • 責任あるAIに関する70件以上の特許を開示/出願
  • IBMのCEO、アルビンド・クリシュナ氏は、世界経済フォーラム(WEF)が立ち上げたグローバルAIアクション・アライアンス運営委員会の共同議長を務めている。
  • アライアンスは、包括的で透明性があり、信頼できる人工知能の世界的な導入を加速することに焦点を当てています。
  • 価値の解放と安全なシステムとテクノロジーの開発に関する Generative AI に関する 2 つの論文を共著し、WEF によって出版されました。
  • Trusted AI 委員会の共同議長 Linux Foundation AI
  • NIST AI リスク管理フレームワークに貢献しました。 AIの指標、標準、テストの分野でNISTと連携する

責任ある AI のキュレーションは、人間の価値観がテクノロジーに確実かつ一貫して反映されることが求められるため、多面的な課題です。しかし、努力する価値は十分にあります。上記のガイドラインは、国防総省が信頼できる AI を運用し、その使命を達成するのに役立つと信じています。

IBM がどのように支援できるかについて詳しくは、次のサイトをご覧ください。 AIガバナンスコンサルティング | IBM

総合的な AI ガバナンス アプローチを作成する

より多くのリソース:

この記事は役に立ちましたか?

有りいいえ


人工知能の詳細




データの収益化を通じて経済的メリットを引き出す

6 分読みますデータの収益化により、組織はデータ資産と人工知能 (AI) 機能を活用して目に見える経済的価値を生み出すことができます。この価値交換システムは、市場の需要に応じてデータ製品を使用してビジネスのパフォーマンスを向上させ、競争上の優位性を獲得し、業界の課題に対処します。財務上の利点には、隣接業界のビジネス モデルの構築による収益の増加、新しい市場へのアクセスによるより多くの収益源の確立、既存の収益の拡大などが含まれます。コストの最適化は、生産性の向上、インフラストラクチャなどを組み合わせることで実現できます。




AI を活用した自動検査で欠陥とダウンタイムを削減

3 分読みます年間数百万台の車両の生産を担当する大手多国籍自動車メーカーは、IBM と提携して、リアルタイム データと人工知能 (AI) を活用したシームレスな自動検査により製造プロセスを合理化しました。自動車メーカーとして、お客様には高品質な製品を提供するという当然の義務があります。理想的には、自動車が消費者に届くかなり前に欠陥を発見し、修正する必要があります。これらの欠陥は多くの場合高価で、特定が難しく、顧客満足度に無数の重大なリスクをもたらします。




watsonx Orders の背後にある革新的な AI テクノロジーを明らかにする

4 分読みますあなたはフライドポテトとチーズバーガーを買うためにお気に入りのドライブスルーに向かいます。注文は簡単で、入ってみると、それほど行列ができていないことがわかります。何が問題になる可能性がありますか?多くの。レストランは、轟音を立てた交通騒音が響く交通量の多い高速道路の近くにあり、近くの空港に近づく飛行機が頭上を低く飛んでいます。風が強いです。あなたの後ろの車ではステレオが大音量で鳴り響き、隣の車線の顧客は次の店で注文しようとしています。

IBM ニュースレター

最新の思想的リーダーシップと新たなトレンドに関する洞察を提供するニュースレターとトピックの最新情報を入手してください。

今すぐ会員登録します。

その他のニュースレター

スポット画像

最新のインテリジェンス

スポット画像