0.1 C
ニューヨーク

生成型 AI ガバナンスの習得: 安全な導入のための重要なステップ

日付:

ほとんどの人にとって、生成AI(gen AI)の出現は、2022年XNUMX月にXNUMX日間でXNUMX万人のユーザーを獲得したChatGPTの立ち上げと密接に関連しています。1消費者の間での ChatGPT の急速な普及は、企業がジェネレーティブ AI テクノロジーの可能性を理解し実現しようとしている中で、企業にも反映されています。簡単に言えば、「2023 年が世界がジェネレーティブ AI を発見した年であったとすれば、2024 年は組織が真にこの新しいテクノロジーを使用し、ビジネス価値を引き出し始めた年です」2マッキンゼー・アンド・カンパニーの調査によると、平均的な組織は現在、65つのビジネス機能で生成AIを使用しており、「回答者のXNUMX%が、組織が定期的に生成AIを使用していると報告しており、これはわずかXNUMXか月前の前回の調査のほぼXNUMX倍の割合です」2企業がプロセスを再考し、ジェネレーションAIテクノロジーの結果として新たな価値を提供しようとしているため、組織はジェネレーションAIソリューションへの投資を増やすことが期待されています。調査回答者の67%は、組織が今後数年間でAIへの追加投資を行うと予想しています。2.

ジェネレーションAIは組織に多大な価値をもたらすことが期待されているが、この価値は新たなリスクや情報セキュリティの課題とバランスが取れている。ジェネレーションAIテクノロジーの導入を目指す組織は、AIモデルの不正確さ、サイバーセキュリティ、規制遵守、知的財産の懸念、偏見の潜在的な影響などのリスクに取り組んでいる。2ジェネレーションAIテクノロジーはまだ開発の初期段階にあるが、それに伴うリスクは現実的な懸念事項であり、すでにいくつかの事例で実現している。マッキンゼーの調査では、回答者の44%が、自社がジェネレーションAIに関連する少なくともXNUMXつの悪影響を経験したと回答している。2当然のことながら、規制当局はAI技術に興味を持っています。例えば、2024年22月、連邦取引委員会(FTC)は、Automators LLCという会社に対して、消費者を誤解させたとして訴訟を起こしました。「AI機械学習」を使用して「収益を最大化」し、消費者にXNUMX万ドル以上の損害を与えたという主張は、現在、法的手続きを通じて精査されています。3ジェネレーションAIに関連するリスクにもかかわらず、ジェネレーションAIのリスクを特定し、軽減するための明確なプロセスを確立している組織は1社中4社未満であり、ガバナンスのギャップが明らかである。2AI 対応システムを責任を持って実用的な方法で構築するために、組織は、世代別 AI に関連するリスクを特定し、状況に応じて対応し、対処するための明確なプロセスを開発する必要があります。

AIの世界は一枚岩ではありません。分析AIと生成AIなど、AIの基礎機能には大きなばらつきがあり、商用製品とオープンソース製品のバランスが取れており、通常は事前トレーニング済みでビジネスニーズに合わせてカスタマイズできる基礎AIモデルが多数あります。組織がさらされるリスクの種類は、AIの想定されるユースケースに大きく依存しており、業界によって大きく異なることがよくあります。OpenAIやAnthropicなどのAIテクノロジーを開発する組織のリスクの範囲と利用可能な主題の専門知識は、AIテクノロジーを活用しようとしている一般的な組織とは大きく異なります。McKinseyは、AIの状況を理解するためのシンプルな3つのバケットモデルを説明しています。「テイカー」は既製のソリューションを活用し、「シェイパー」は独自のデータとシステムを使用してAIソリューションをカスタマイズし、最後に「メーカー」は独自の基礎モデルをゼロから開発します。2.

以下のガイダンスは「テイカー」を対象としており、「シェイパー」には役立つ可能性がありますが、他のグループには当てはまらないさまざまな新しいリスクに直面する「メーカー」向けではありません。約50%の組織が「既製の公開モデルやツールをほとんどカスタマイズせずに利用している」こと、そしてこれらの組織が社内に十分なAIの専門知識を持っている可能性が大幅に低いことを考慮すると、以下のガイダンスはAIガバナンスとリスク管理の強力な基盤を提供します。2.

以下は、gen AI テクノロジーの合理的なガバナンス監視とリスク管理を確保するためのベスト プラクティスです。

生成AIの使用に関する明確なポリシーを確立する

このポリシーでは、AI システムの使用に関する原則を明確に示す必要があります。これは通常、既存のビジネス目標の推進とコストの合理化を目的としています。このポリシーでは、組織が許容できないほどリスクが高い、または不適切であると見なすユース ケースを明確に示し、潜在的に高リスクのユース ケースのレビュー プロセスを確立し、gen AI システムの使用と設計に関する要件を確立する必要があります。適切な行動を指示するために、社内のデータ分類システムを活用することを検討してください。機密性の高いデータを含むすべてのデータを生成 AI システムに提供できるかどうか、または特定のデータ要素とカテゴリを gen AI テクノロジーで利用する前に明示的なレビューと承認が必要かどうかを検討してください。

レビュープロセス

最も重要なのは、リスクが高い可能性のあるユースケースをレビューするための繰り返し可能なプロセスを開発することです。このプロセスは、設計および開発プロセスのできるだけ早い段階で実行し、技術専門家、法務チームのメンバー、情報セキュリティおよびコンプライアンス担当者、および特定のレビューに必要と思われるその他のすべての人を含める必要があります。レビューを実施する個人には、組織に許容できないリスクをもたらすと思われるユースケースを拒否する権限を与える必要があり、高リスクの AI ユースケースを承認または拒否する根拠は、一貫した方法で徹底的に文書化する必要があります。

トレーニング

ジェネレーション AI テクノロジーに特化したトレーニング マテリアルを開発し、継続的なトレーニング アクティビティに組み込む必要があります。これらのマテリアルでは、ポリシーの重要な側面を繰り返し説明し、レビューのために質問をどこに送ればよいかを示す必要があります。ビジネスで受け入れられないと見なされるジェネレーション AI の使用例を強調することが重要であり、組織は社内のデータ分類システムを使用して、ジェネレーション AI システムに入力できるデータと入力できないデータ、およびその条件を示す必要があります。

社内ポリシーと要件に関するトレーニングに加えて、関連する技術担当者には、gen AI テクノロジーと、gen AI 対応システムの開発に関するベスト プラクティスを理解するためのトレーニング オプションも提供される必要があります。技術リソースがより多くの情報に基づいた意思決定を行えるようにすることは、gen AI システムの開発と利用に関連するリスクを軽減するためのシンプルですが効果的な制御です。

承認済みまたは優先ベンダーを検討する

世代 AI 製品と関連ベンダーは数多くありますが、少数のベンダーと連携するとデューデリジェンスを実施し、適切なセキュリティ制御を実装しやすくなります。クラウド サービス プロバイダーと同様に、堅牢なセキュリティおよびコンプライアンス プログラムを備えている可能性が高い業界リーダーを活用することが、企業にとって最も理にかなっている場合がよくあります。OpenAI や Anthropic などの主要な世代 AI プロバイダーに対して徹底的なデューデリジェンスを実施し、これらのベンダーを世代 AI のニーズの大部分に活用することを検討してください。

コントロールと構成オプションを理解するs

多くの組織が既製のAI製品をほとんどカスタマイズせずに利用していることを考えると、第一の防御線として組み込みの制御および構成オプションを理解することが不可欠です。たとえば、OpenAIは「すべての人のためにモデルを改善する」オプションをオフにする機能を提供しており、これによりChatGPTによるプロンプトと変換がなくなり、基盤となるモデルのトレーニングに使用されなくなります。11OpenAIは「データのエクスポート」オプションも提供しており、会話やプロンプトをエクスポートして電子メールで受信することができます。12エクスポートされたデータを定期的に検査して、企業ポリシー違反や高リスクアクティビティの兆候がないか確認することは、セキュリティとコンプライアンスのプロセスとして役立ちます。

マーケティングの主張に注意し、透明性を重視する

前述のように、消費者を不公正で欺瞞的な行為から保護するという FTC の義務は、AI ベースの製品やサービスを提供しているとされる組織の主張やビジネス慣行にすでに及んでいます。一般向けの主張が誇張されたり、証明されなかったり、特定の条件にのみ適用されるものでないことを確実にすることが重要です。組織はまた、透明性を重視し、データの取得方法や使用方法について消費者を誤解させないようにする必要があります。

ベストプラクティスのリソースに注意する

ジェネレーション AI テクノロジーの基本機能からセキュリティや開発のベスト プラクティスまで、あらゆることに関する洞察を提供するさまざまなベスト プラクティス リソースがあります。大手テクノロジー企業は、ジェネレーション AI 関連のさまざまなトピックに関する記事を公開しています。NIST AI リスク管理フレームワークや大規模言語モデルの OWASP Top 10 などのリソースは、ジェネレーション AI に関連するリスクとセキュリティの影響を考慮する上で不可欠なリソースです。

 

参考情報

1パット・ローラー、ジェリー・チャン。「ジェネレーティブ AI の台頭: 画期的なイノベーションのタイムライン」 ワイヤレステクノロジーとイノベーション、2 年 2024 月 2024 日、www.qualcomm.com/news/onq/02/XNUMX/the-rise-of-generative-ai-timeline-of-breakthrough-innovations。

2 Singla、Alex、他「2024 年初頭の AI の現状: Gen AI の導入が急増し、価値を生み出し始める」 マッキンゼーアンドカンパニー、マッキンゼー・アンド・カンパニー、30年2024月XNUMX日、www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai。

3ロビンス、コリーン、クリストファー E. ブラウン。 連邦取引委員会対オートメーターズLLC、8年2023月1日、www.ftc.gov/system/files/ftc_gov/pdf/XNUMX-complaint.pdf。

4OpenAI。データコントロールに関する FAQ、help.openai.com/en/articles/7730893-data-controls-faq。2 年 2024 月 XNUMX 日にアクセス.

関連記事

スポット画像

最近の記事

スポット画像