ゼファーネットのロゴ

ヨーロッパは、信頼と取り込みを高めるためのリスクベースのAIルールの計画を策定します

日付:

欧州連合の議員は彼らの リスクベースの提案 ブロックの単一市場内での人工知能の高リスクアプリケーションを規制するため。

この計画には、中国式の社会信用スコアリングシステムやAI対応の行動操作技術など、人の安全やEU市民の基本的権利にとって危険すぎると考えられる少数のユースケースの禁止が含まれています。害。 公共の場所での法執行機関による生体認証の使用にも制限がありますが、非常に広範囲の免除があります。

AIのほとんどの使用は、提案の下で規制(禁止は言うまでもなく)に直面することはありません。 しかし、いわゆる「高リスク」用途のサブセットは、市場に投入する前(前)と事後(後)の両方で、特定の規制要件の対象となります。

チャットボットやディープフェイクなど、AIの特定のユースケースには透明性の要件もあります。EUの議員は、人工的なものとやり取りしていることをユーザーに通知することで潜在的なリスクを軽減できると考えています。

計画されている法律は、EUを拠点とする企業や個人だけでなく、EUにAI製品またはサービスを販売するすべての企業に適用されることを目的としています。したがって、EUのデータ保護体制と同様に、その範囲は治外法権になります。

EU議員の包括的な目標は、テクノロジーの普及を促進するためにAIがどのように実装されているかについての国民の信頼を育むことです。 委員会の高官は、ヨーロッパの価値観に沿った「卓越したエコシステム」を開発したいと話します。

「今日、私たちは、安全で信頼できる人間中心の人工知能の開発とその使用において、ヨーロッパを世界クラスにすることを目指しています」と、マルグレーテベスタガー委員会のEVPは述べています。 発表 記者会見での提案の採択。

「一方で、私たちの規制は、AIの特定の使用に関連する人的および社会的リスクに対処しています。 これは信頼を築くことです。 一方、私たちの調整された計画は、加盟国が投資と革新を後押しするために取るべき必要なステップを概説しています。 卓越性を保証するため。 これはすべて、ヨーロッパ全体でAIの普及を確実に強化するためです。」

この提案では、必須要件はAIのアプリケーションの「高リスク」カテゴリに関連付けられています。 明確な安全上のリスクを提示するか、衝突する恐れがあります EU基本権 (無差別の権利など)。

最高レベルの使用規制の対象となるリスクの高いAIのユースケースの例は、規制の付録3に記載されています。委員会は、委任された行為によって拡大する権限があると述べています。 AIは発展を続け、リスクは進化しています。

現在引用されている高リスクの例は、次のカテゴリに分類されます。自然人の生体認証と分類。 重要なインフラストラクチャの管理と運用。 教育と職業訓練; 雇用、労働者管理および自営業へのアクセス。 重要な民間サービスおよび公共サービスと利益へのアクセスと享受。 法執行機関; 移住、庇護および国境管理の管理。 正義と民主的プロセスの管理。

規制はブロックの内部市場に焦点を合わせているため、AIの軍事的使用は特に範囲から除外されます。

高リスクアプリケーションのメーカーは、製品を市場に出す前に遵守する一連の事前義務を負います。これには、AIのトレーニングに使用されるデータセットの品質や、設計だけでなく使用に対する人間による監視のレベルも含まれます。システムの概要—および継続的な事後要件(市販後調査の形で)。

その他の要件には、コンプライアンスチェックを可能にし、ユーザーに関連情報を提供するためにAIシステムのレコードを作成する必要性が含まれます。 AIシステムの堅牢性、精度、セキュリティも規制の対象となります。

委員会の関係者は、AIのアプリケーションの大部分がこの高度に規制されたカテゴリから外れることを示唆しました。 これらの「低リスク」AIシステムのメーカーは、使用時に(法的拘束力のない)行動規範を採用するように奨励されるだけです。

特定のAIユースケース禁止に関する規則に違反した場合の罰則は、世界の年間売上高の最大6%または30万ユーロ(いずれか大きい方)に設定されています。 高リスクのアプリケーションに関連するルールの違反は、最大4%(または20万ユーロ)まで拡大する可能性があります。

施行には、各EU加盟国の複数の機関が関与します。この提案では、製品安全機関やデータ保護機関などの既存の(関連する)機関が監視を実行することを意図しています。

AIルールの取り締まりで直面する追加の作業と技術的な複雑さを考えると、それは国の機関の適切なリソースに関する即時の疑問を提起します。 また、特定の加盟国で施行のボトルネックを回避する方法についても説明します。 (特に、EUの一般データ保護規則は加盟国レベルでも監視されており、 均一に強力な執行の欠如に苦しんでいる.)

また、ブロックに実装された高リスクシステムの登録簿を作成するためにEU全体のデータベースが設定されます(これは委員会によって管理されます)。

欧州人工知能委員会(EAIB)と呼ばれる新しい組織も、GDPRの適用に関するガイダンスを提供する欧州データ保護委員会と同様に、規制の一貫した適用をサポートするために設立されます。

AIの特定の使用に関する規則に沿って、この計画には、規制サンドボックスの確立やテストと実験への共同出資など、EUの2021年調整計画の2018年の更新の下で、AI開発に対するEU加盟国のサポートを調整するための措置が含まれています。スタートアップとSMEがAIを活用したイノベーションを開発し、加速するのを支援する施設。 また、中小企業や行政がこの分野での競争力を高めるのに役立つ「ワンストップショップ」として意図されたヨーロッパのデジタルイノベーションハブのネットワークを確立することによって、そして自国のAIをサポートするための対象を絞ったEUの資金提供の見通しを通じて。

内部市場委員のティエリー・ブルトン氏は、投資は計画の重要な部分であると述べた。 「私たちのデジタルヨーロッパとホライゾンヨーロッパプログラムの下で、私たちは年間20億ユーロを解放するつもりです。 それに加えて、私たちは今後140年間で年間19億ユーロの民間投資とEU全体の投資を生み出したいと考えています。これは、私たちが呼んでいる「デジタルXNUMX年」です」と彼は本日の記者会見で述べました。 「また、次世代EU [COVID-XNUMX回復基金]の下でのデジタル投資に資金を提供し、一部はAIに投資するXNUMX億ユーロが必要です。」

AIのルールの形成は、2019年末に就任したEUのウルズラフォンデアライエン委員長にとって重要な優先事項でした。ホワイトペーパーが発行されました。 昨年、次の 2018 AI forEU戦略 —そしてベスタガーは、今日の提案はXNUMX年間の作業の集大成であると述べました。

ブルトンは、AIを適用するためのガイダンスを企業に提供することで、企業に法的確実性とヨーロッパの優位性を与えることを提案しました。

「信頼…私たちが望む人工知能の開発を可能にするために非常に重要だと私たちは考えています」と彼は言いました。 [AIのアプリケーション]は、信頼でき、安全で、差別的でない必要があります。これは絶対に重要ですが、もちろん、これらのアプリケーションがどのように機能するかを正確に理解できる必要もあります。」

「私たちに必要なのは、ガイダンスを持つことです。 特に新しいテクノロジーでは…私たちは、ガイドラインを提供する最初の大陸になります。「ねえ、これは緑、これは濃い緑、これは少しオレンジ色で、これは禁止されています」と言います。 。 だから今、あなたが人工知能アプリケーションを使いたいなら、ヨーロッパに行ってください! あなたは何をすべきかを知っているでしょう、あなたはそれを行う方法を知っているでしょう、あなたはかなりよく理解しているパートナーを持っているでしょうそしてところであなたはあなたが地球上で作成された最大量の産業データを持っている大陸にも来るでしょう次のXNUMX年間。

「人工知能はデータに関するものなので、ここに来てください。ガイドラインを提供します。 また、それを実行するためのツールとインフラストラクチャも用意されます。」

今日の提案のバージョン 先週リーク —につながる 計画を強化するためのMEPによる呼びかけ、 といった 公共の場所での遠隔生体認証監視を禁止することによって。

最終提案が遠隔生体認証監視をAIの特にリスクの高いアプリケーションとして扱っている場合、法執行機関による公の場での技術の使用は原則として禁止されています。

ただし、有効な法的根拠と適切な監視を条件として、法執行機関が引き続き使用できる場合を除いて、使用は完全に禁止されていません。

弱すぎるとして攻撃された保護

委員会の提案に対する反応には、法執行機関による遠隔生体認証監視(顔認識技術など)の使用に対する過度に広範な免除に対する多くの批判、およびAIシステムの識別のリスクに対処するための規制の措置がほとんど行われないという懸念が含まれていました十分に遠い。

刑事司法NGOの公正な裁判は、規制が刑事司法に関連して意味のある保障措置を含むためには根本的な改善が必要であると述べた。 声明のコメント、 NGOの法務および政策担当官であるGriffFerrisは、次のように述べています。EUの提案は、刑事司法の結果における差別のハードワイヤリングを防ぎ、無罪の推定を保護し、確実にするために根本的な変更を必要としています 刑事司法におけるAIの意味のある説明責任。 

「法律には差別に対する保護手段が欠けていますが、「公安の保護」に対する広範な免除は、刑事司法に関連して存在するほとんどの保護手段を完全に下回っています。 フレームワークには次のものが含まれている必要があります 差別を防ぎ、公正な裁判を受ける権利を保護するための厳格な保護措置と制限。 これには、人々のプロファイルを作成し、犯罪のリスクを予測しようとするシステムの使用を制限することを含める必要があります。」 

欧州市民自由連合(Liberties)も、EU加盟国がAIの問題のある使用の禁止を回避することを許可するとNGOが述べた抜け穴にぶつかりました。

「犯罪を予測するためのアルゴリズムの使用や、国境管理下にある人々の感情状態をコンピューターに評価させるなど、許可されているテクノロジーの問題のある使用法が多すぎます。どちらも深刻な人権リスクを構成し、脅威をもたらします。 EUの価値観に」と、上級擁護責任者のOrsolyaReichは声明の中で警告した。 「私たちはまた、警察が私たちの基本的な権利と自由を危険にさらすような方法で顔認識技術を使用する可能性があることを懸念しています。」

ドイツの海賊MEPであるPatrickBreyerは、この提案は「ヨーロッパの価値観」を尊重するという主張された基準を満たすには不十分であると警告した。 MEPは、委員会への手紙に署名した40人のうちのXNUMX人でした。 先週 リークされたバージョンの提案は、基本的権利を保護するのに十分に進んでいないことを警告します。

「私たちは、欧州連合に倫理的要件と民主的価値観に沿った人工知能をもたらす機会をつかむ必要があります。 残念ながら、委員会の提案は、顔認識システムや他の種類の大量監視などを通じて、ジェンダーの正義とすべてのグループの平等な扱いの危険から私たちを保護することはできません」とブレイヤーは今日の正式な提案に反応した声明で述べました。

「私たちの公共空間における生体認証および大量監視、プロファイリング、行動予測技術は、私たちの自由を損ない、開かれた社会を脅かしています。 欧州委員会の提案は、私たちの大多数の人々の意志に反して、公共の場での自動顔認識のリスクの高い使用を欧州連合全体にもたらすでしょう。 提案された手続き上の要件は、単なる煙幕です。 これらのテクノロジーによる特定のグループの人々の差別や無数の個人の誤った犯罪を許すことはできません。」

欧州のデジタル著作権グループであるEdriも、「差別的および監視技術」に関する提案の中で「心配のギャップ」と呼んでいるものを強調しました。 「この規制では、AIから利益を得る企業による自主規制の範囲が広すぎます。 企業ではなく人がこの規制の中心である必要があります」と、EdriのAIのシニアポリシーリーダーであるSarahChanderは声明の中で述べています。

アクセスナウは、 初期反応提案された禁止事項は「制限が多すぎる」と述べ、法的枠組みは「社会の進歩と基本的権利を大幅に損なうAIの多数のアプリケーションの開発または展開を阻止するものではありません」と述べています。

しかし、デジタル著作権グループは、公的にアクセス可能な高リスクシステムのデータベースなどの透明性対策が確立されることを歓迎しました。規制にはいくつかの禁止事項が含まれています(ただし、十分に進んでいないとのことです)。

消費者権利の傘下グループであるBEUCも、この提案に迅速に批判的でした。委員会の提案は、「非常に限られた範囲のAIの使用と問題」の規制に焦点を当てているため、消費者保護に弱いとして攻撃しました。

「欧州委員会は、消費者が日常生活でAIを信頼できるようにすることにもっと重点を置くべきでした」と、Beucの事務局長であるMonique Goyensは、声明の中で述べています。 「高リスク」、「中リスク」または「低リスク」。 EUは、消費者が強制力のある権利を持ち、何か問題が発生した場合の救済や救済へのアクセスを確保するために、さらに多くのことをしなければなりません。」

新しいルール 機械 AIを燃料とする変更を考慮に入れることを目的とした、適合した安全規則を備えた立法パッケージの一部でもあります(委員会は、AIを機械に統合している企業は、フレームワークに準拠するためにXNUMXつの適合性評価を実行するだけでよいと述べています) 。

テクノロジー業界グループのドットヨーロッパ(旧エディマ)—そのメンバーにはAirbnb、Apple、Facebook、Google、Microsoft、その他のプラットフォームの巨人が含まれます— 歓迎 委員会のAI提案の発表ですが、執筆時点ではまだ詳細な発言をしておらず、その立場を策定していると述べています。

スタートアップ擁護団体であるAlliedFor Startupsは、提案の詳細を検討する時間も必要だと語ったが、EUの政策責任者であるBenedikt Blomeyerは、スタートアップに負担をかける潜在的なリスクについて警告した。 「私たちの最初の反応は、間違って行われた場合、これはスタートアップに課せられる規制上の負担を大幅に増加させる可能性があるということです」と彼は言いました。 「この提案の重要な問題は、AIがもたらす潜在的なリスクに比例するかどうかであり、ヨーロッパの新興企業もその潜在的なメリットを活用できるようにすることです」。

他の技術ロビーグループは、AIを包む特注の官僚的形式主義の見通しで攻撃を続けるのを待ちませんでした—規制はワシントンとブリュッセルを拠点とする技術のXNUMXつとして「歩くことを学ぶ前にEUの初期のAI産業をひざまずく」と主張しましたポリシーシンクタンク(データイノベーションセンター)はそれを置きました。

CCIA業界団体はまた、「開発者とユーザーにとって不必要な官僚的形式主義」に対してすぐに警告し、次のように付け加えました。 規制 単独ではEUをリーダーにすることはできません AI.

本日の提案は、EUの共同立法過程の下で多くの議論の始まりを開始し、EU理事会を介した欧州議会と加盟国は草案について意見を述べる必要があります。つまり、EU機関が合意に達する前に多くのことが変わる可能性があります。汎EUAI規制の最終的な形。

コミッショナーは、他のEU機関が直ちに関与することを望んでおり、プロセスをできるだけ早く行うことができると述べただけで、今日法案が採択される可能性のある時間枠を与えることを拒否した。 それにもかかわらず、規制が批准されて施行されるまでには数年かかる可能性があります。

このレポートは、委員会の提案に対する反応で更新されました

コインスマート。 BesteBitcoin-ヨーロッパのBörse
出典:https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

スポット画像

最新のインテリジェンス

スポット画像