ゼファーネットのロゴ

AI規制 – 世界的な総まとめ

日付:

人工知能は指数関数的な速度で進歩しており、あらゆる分野で私たちの周囲の世界を急速に変えています。関連するリスクを認識しているため、世界中の国々は、
AI システムが安全、安心、信頼できるものであること。大手テクノロジー企業、政府、政策立案者も、信頼できる方法で高度な AI システムを開発するための標準化された世界的なフレームワークを求めています。この記事では、
さまざまな地域で新たに登場するさまざまな規制、差し迫った課題、とりわけそれが投資セクターをどのように形成するかなどです。

AI規制に対する私たちの視点

  AI 規制全体で浮上している共通のテーマには、AI の使用における公平性、説明責任、透明性に関する要件があります。政策立案者やその他の規制当局は、プロバイダーに対し、保護のために責任ある AI を提供するよう求めています。
イノベーションのための健全な環境を促進しながら、個人の基本的権利を保護します。米国と英国は規制草案を作成しているが、EUははるかに進んで23年2025月に規制を最終決定し、XNUMX年までに発効する可能性がある。
EUは集中的かつ広範で規範的なリスクベースのアプローチを採用しているが、英国は英国政府がこれ以上の規制を避けたいため、特定のセクターベースの規制を策定するために既存の規制当局に依存する、より分散化されたモデルを採用している。
新たな分野横断的な規制当局の創設による混乱。英国は、基礎となるテクノロジーにデフォルトリスクを適用するのではなく、より結果ベースのリスクアプローチを採用する予定です。

  米国はまた、いくつかの連邦機関がそれぞれの分野に対して独自の原則を策定する分散型アプローチを採用しています。 FTC、CFPB など。SEC も金融推奨アルゴリズムの原則を策定する可能性があります。
投資家の最大の利益のために。 EU の基準は非常に広範かつ厳格ですが、米国の政府機関は遅れをとっています。 EU は電子商取引、ソーシャル メディア、オンライン プラットフォームにも注力しており、幅広い分野をカバーしていますが、米国はまだ
これらの問題について立法すること。

世界中の規制 – スナップショット

世界中の規制の現状を簡単にまとめてみると、ヨーロッパと中国を除いて、大多数の国がまだ規制の策定過程にあるか、あるいは草案段階にある可能性が高いことがわかります。いくつかの国は好きです
メキシコにはこれまでのところ規制草案はなく、近い将来制定される予定もありません。主要な地域に対する規制案の概要を見てみましょう。

US  

米国は、2022 年 XNUMX 月に AI 権利章典を発表したり、人工知能の安全、安心、信頼できる使用に関する米国政府の大統領令を発表したりするなど、信頼できる AI のための複数のガイドラインを打ち出してきました。米国政府
は最近、以下の取り組みに重点を置いた大統領令を可決しました。

  • AI の開発と研究: この命令は、連邦政府機関に対し、AI の研究開発に投資し、AI 研究を一般の人々がより利用しやすくするよう指示しています。
  • 政府における AI の使用: この命令は、透明性、説明責任、公平性の要件を含む、政府における AI の使用に関する基準を設定します。
  • AI 労働力の開発: この命令は、連邦政府機関に対し、アメリカの労働力の AI の訓練とスキルアップのためのプログラムを開発および実施するよう指示しています。
  • AI の国際協力: この命令は、AI に関する国際協力を調整するための新しい国家 AI イニシアティブ オフィスを設立します。

 この命令には、次のような多くの具体的な取り組みも含まれています。

  • AI 権利章典の作成: この命令は、国立標準技術研究所に対し、AI の文脈における個人の権利と保護の概要を示す AI 権利章典を作成するよう指示しています。
  • AI サイバーセキュリティにおけるセンター オブ エクセレンスの設立: この命令は、AI システムを保護するためのベスト プラクティスを開発および推進するために、AI サイバーセキュリティにおける新しいセンター オブ エクセレンスを設立します。
  • National AI Research Cloud の立ち上げ: この命令により、新しい National AI Research Cloud が立ち上げられ、研究者は AI アルゴリズムを開発およびテストするための強力なコンピューティング リソースにアクセスできるようになります。

  AI 権利章典は、AI を管理するためのさらなる規制を確立しようとする世界的な動きが続く中、ホワイトハウス科学技術政策局 (OSTP) によって作成された、人工知能の責任ある設計と使用に関する一連のガイドラインです。
正式には AI 権利章典の青写真と呼ばれるこの文書は、2022 年 XNUMX 月に発行され、OSTP、学者、人権団体、一般大衆、さらには Microsoft や Google などの大企業との協力の成果です。

カナダ

 人工知能データ法(AIDA)は、デジタル憲章実施法の法案 C-27 の一部として、消費者プライバシー保護法(CPPA)と並行してカナダ政府によって導入されています。、2022、 カナダ初の試みです
人工知能(AI)を規制する。ケベック州とオンタリオ州も、信頼できる AI を構築するためのフレームワークの開発を検討しています。 2024年までに発効する可能性が高い。

ヨーロッパ 

EU 人工知能法は、2021 年 22 月に欧州委員会によって初めて公布され、23 年 XNUMX 月に欧州連合理事会によって採択されました。 EU は XNUMX 年 XNUMX 月に人工知能法を承認し、XNUMX 年から施行される可能性があります。
2025.規制草案からの重要なポイントのいくつかを以下で説明します。

現在の規制は、企業が EU 内で活動しているか EU 外で活動しているかに関係なく、EU 内で使用されている AI システムまたはアプリケーションに適用されます。この規制はリスクベースのアプローチの採用を目指しており、AI の使用をリスクレベルごとに分類しています。
(許容できない、高い、限定的な、リスクが最小限またはまったくない) ものであり、AI システム開発者と導入者に監査、文書化、およびプロセス要件を課します。したがって、AI システムを開発または導入する企業は、ユースケースを文書化してレビューし、特定する必要があります。
適切なリスク分類。

  • AI 法は、公共の場所での生体認証や顔認識システムを含む「許容できないリスク」システムの使用を禁止しています。個人の健康、安全、健康に「重大なリスク」をもたらす場合、そのシステムは高リスクとみなされます。
    または基本的権利。
  • 高リスクの AI システムは、導入前の適合性評価、適切な適合性文書の入手可能性、結果のトレーサビリティ、透明性、人間による監視、正確性、セキュリティの対象となります。
  • 基礎モデルのサブカテゴリである生成 AI に対しては、より厳格な透明性義務が提案されており、そのようなシステムのプロバイダーは、コンテンツが AI によって生成されたときにユーザーに通知することが求められます。
  • 議会の提案により、AI 法違反に対する罰則が強化される可能性があります。禁止された慣行に違反した場合は、40万ユーロから最大7万ユーロ、または企業の全世界年間収益の30%のいずれか高い方の罰金が科せられます。
    または世界の年間収益の 6% に相当します。

UK 

  英国政府は 23 年 XNUMX 月に発表した白書で、AI の XNUMX つの基本原則 (安全性、透明性、公平性、説明責任、異議申し立て可能性) を定義しています。このアプローチは、機能を活用するアジャイルかつプロのイノベーション モデルに基づいています。
AI に特化した分野横断的な新しい規制当局ではなく、既存の規制当局のスキルを強化します。

中国

         中国の AI に関する上位 2021 つの規制は、推奨アルゴリズムに関する 2022 年規制、深層合成 (合成によって生成されるコンテンツ) に関する 2023 年規則、および生成 AI に関する XNUMX 年規則草案です。これらの規制は推奨アルゴリズムを対象としています
コンテンツ、合成的に生成された画像やビデオ、OpenAI の ChatGPT などの生成 AI システムの配布用。このルールにより、アルゴリズムの構築と展開方法、および AI 開発者がどのような情報を開示する必要があるかについて、新たな要件が作成されます。
政府も国民も。生成 AI 規制草案では、必要なプロバイダーに対し、既存のアルゴリズム レジストリに申請書を提出することが義務付けられています。また、トレーニング データと生成されたコンテンツに関するいくつかの新しい要件も含まれており、これらは非常に困難であることが判明する可能性があります。
プロバイダーが出会うために。

実装の課題

 地理的に矛盾する一連のルールは、グローバル AI プロバイダーにとって、他のさまざまな地域で展開される可能性がある一方で、それぞれの管轄区域の規制を採用するという大きな課題を引き起こします。さらに、
AI ガイドラインは、法律を時代遅れにする可能性のあるさまざまな AI モデルの出現ほど急速ではありません。 EU を除いて、他の地域のほとんどが自主的な導入を行っているため、そのような枠組みを強制するという課題は依然として残っています。

 地球規模での AI システムの定義については、明確な世界的コンセンサスはありません。 EU AI 法では、ソリューションの開発に使用される著作権で保護された素材をプロバイダーに開示することが義務付けられており、所有者は著作権で保護されたデータをオプトアウトできます。
トレーニング データセットから除外されているため、AI ベンダーにとって EU はあまり望ましくない選択肢となっています。他の地域では、著作権で保護された素材をトレーニング データセットとして使用することに対する特別な規制はなく、慎重であることは個々のプロバイダーの特権です。
著作権で保護された素材の。

規制が専門分野を超えた影響を与えることを考慮すると、共通の規定と枠組みについて合意するには、法律、倫理、IT、金融、その他の専門家などのさまざまな分野からのコンセンサスが必要です。

特定の AI リスクに対処するために設計された規制は、他の強制できない結果をもたらす可能性があり、潜在的な AI イノベーション、研究、または有益な製品を妨げる可能性があります。イノベーションの促進とリスクに対する防御のバランスをとることは非常に困難です
政府にとっては、AIのスタートアップや資金提供も制限される可能性があるためだ。

次のステップ

EU AI法はすでに議会で承認されており、2025年までにAI規制の世界標準となる可能性が高いが、米国と英国は自主的な一連のガイドラインと枠組みを持っており、セクター全体にわたる一元的な見解がなく、遅れている。
施行日の点でEUより遅れている。各規制 (米国、EU、中国) は、それぞれの社会構造と国家の優先事項を反映しています。その結果、企業が複数の企業間で相互運用するためのより複雑な規制環境が生まれることになります。
地理。新たな規制枠組みに準拠するには、透明性、説明可能性、リスク分類 (組織、ユースケース、モデル/データ レベルで) が鍵となります。

 金融サービス分野では、一般的な AI/ML テクノロジーの一部が投資調査、ロボアドバイザー、リスク評価、AML チェックなどに使用されています。AI と機械学習によって促進されるこれらのサービスにより、金融機関はカスタマイズされたサービスを提供できるようになります。
多様な製品をコスト効率の高い方法で顧客に提供します。ジェネレーティブ AI の導入の拡大には、財務リスクへの懸念の高まりも伴います。 EU は投資保護のために厳格な措置と罰則を設けていますが、SEC は
とFCAはガイドラインを策定するために慎重なアプローチをとっている。

課題にもかかわらず規制を導入する企業の準備は、世界的なコンプライアンスに向けた重要な一歩です。企業が規制を遵守する準備は、さまざまな地域をまたいだ統合 AI 資産カタログをリスト化することから始める必要があります。
規制、影響を受けるユーザーと製品、社内で使用されるさまざまな AI アプリケーションのリスク分類など。企業は、データ管理などのさまざまなコンポーネントが組み込まれた総合的なフレームワークで構成される、明確に定義された AI ワークベンチを構築することが不可欠です。
イノベーション、ガバナンス、ポリシーの遵守など、関連する AI システムの信頼性を示します。

標準化された世界的な AI 規制の草案を作成するために、さまざまな政策立案者、大手テクノロジー企業、その他の関係者の間で業界全体の協力が行われるかどうかはまだわかりません。 G7首脳はまた、生成的政策に関する議論も呼びかけている。
AI は、テクノロジーの責任ある使用のための世界的な標準と規制を確立することを目的としています。

スポット画像

最新のインテリジェンス

スポット画像