ゼファーネットのロゴ

AI規制がやってくる  

日付:

AIを統治するために新たに提案された法律は、米国とヨーロッパで楽しまれています。中国は政府初のアプローチを採用しています。 (クレジット:ゲッティイメージズ)  

AIトレンドスタッフ別 

新しい法律は、企業がAIをどのように使用するかをまもなく形作るでしょう。   

米国のXNUMX大連邦金融規制当局は最近、銀行がAIをどのように使用しているかについての情報の要求を発表し、金融ビジネスに新しいガイダンスが来ることを示しています。 その後まもなく、米国連邦取引委員会はAIの「真実、公平性、公平性」に関する一連のガイドラインを発表し、AIの違法な使用を、「善よりも害をもたらす」行為として定義しました。 ハーバード·ビジネス·レビュー  

そして21月XNUMX日、欧州委員会はAIの規制に関する独自の提案を発表しました(参照 AIトレンド、22年2021月XNUMX日)  

Andrew Burt、マネージングパートナー、bnh.ai

これらの規制で何が許可されるかはわかりませんが、「XNUMXつ 中心的な傾向は、AIに関する現在および提案されているほぼすべての法律を統合します。つまり、システムが既存および将来の法律や規制に違反しないようにするために、企業が現在実行できる具体的なアクションがあります」と記事の著者であるAndrewBurt氏は述べています。のマネージングパートナー bnh.ai、AIと分析に焦点を当てたブティック法律事務所。  

まず、 AIリスクの評価を実施する。 取り組みの一環として、リスクがどのように最小化または解決されたかを文書化します。 これらの「アルゴリズムの影響評価」または「IAforAI」を参照する規制の枠組みが利用可能です。  

たとえば、バージニア州の最近通過した 消費者データ保護法、特定のタイプの高リスクアルゴリズムの評価が必要です。 

EUの新しい提案では、各AIシステムの「予測可能な意図しない結果とリスクの原因」を概説した高リスクAIシステムの2019部構成の技術文書を完成させる必要があるとバート氏は述べています。 EUの提案は、XNUMX年に米国議会で提出されたアルゴリズム的説明責任法に類似しています。 法案はどこにも行きませんでしたが、再導入される予定です。  

第二に、 説明責任と独立性。 この提案は、AIシステムを評価するデータサイエンティスト、弁護士、その他の人々は、最前線のデータサイエンティストとは異なるインセンティブを持っているということです。 これは、AIが最初に開発した技術者とは異なる技術者によってテストおよび検証されていること、または組織がAIシステムを評価するために外部の専門家を雇うことを選択する可能性があることを意味します。   

「明確なプロセスが開発者とシステムのリスクを評価する開発者との間に独立性を生み出すことを保証することは、AIに関するほぼすべての新しい規制フレームワークの中心的なコンポーネントです」とBurt氏は述べています。  

第三に、 継続的なレビュー。 AIシステムは「脆弱であり、障害の発生率が高い」ため、リスクは時間とともに増大および変化するため、ある時点でリスクを軽減することは困難です。 「立法者と規制当局は同様に、リスク管理は継続的なプロセスであるというメッセージを送っています」とバートは述べました。  

米国、ヨーロッパ、中国でのアプローチは異なります  

AI規制に対する米国、ヨーロッパ、中国間のアプローチは、最近の報告によると、アプローチが異なります。 評決、ロンドンに拠点を置くデータ分析およびコンサルティング会社であるGlobalDataによる分析に基づいています。 

「欧州は規制のメリットについてより楽観的であるように見えますが、米国は過剰規制の危険性について警告しています」とアカウントは述べています。 一方、「中国は引き続き政府主導のアプローチを採用している」ため、AI技術を使用して市民を監視していることで広く批判されています。 アカウントは、人々の「信頼価値」を決定するためのAIベースのクレジットスコアリングシステムの昨年のTencentによる展開、およびCOVID-19の発生後に課された検疫を監視するための人々の家の外への監視カメラの設置の例を指摘しました。 。 

米国のハイテク産業主導の取り組み、中国の政府初のアプローチ、またはヨーロッパのプライバシーと規制主導のアプローチが今後の最善の方法であるかどうかはまだ分からない」と述べた。 

米国では、多くの企業がイノベーションを阻害する可能性のある新しいAI規制のリスクと、デジタル経済で成長する能力を認識していると示唆しています。 最近の報告 多国籍の専門サービス会社であるpwcから。   

規制に先立って、データ、ガバナンス、出力、レポート、機械学習、AIモデルに関連するリスクに取り組むことは企業の利益になります」とpwcアナリストは述べています。 彼らは、ビジネスリーダーが組織全体から人々を集めて、テクノロジーの説明責任とガバナンスを監督し、ビジネス、IT、および専門のAIスキルを持つメンバーを含む多様なチームから監督することを推奨しました。  

ヨーロッパのAI法の批評家はあまりにも多くの灰色の領域を引用します 

欧州委員会が提案したAI法は、あまりにも多くの灰色の領域を残していると主張する人もいますが、t欧州委員会の希望は、提案されたAI法が、AIを追求したい企業にガイダンスを提供し、ある程度の法的確実性を提供することです。   

ティエリー・ブルトン、欧州域内市場委員

「信頼…私たちは、人工知能に必要な開発を可能にするために極めて重要だと考えています」と、欧州域内市場担当委員のティエリー・ブルトンは次のように述べています。 TechCrunchの。 AIアプリケーションは、「信頼性が高く、安全で、差別的でない必要があります。これは絶対に重要ですが、もちろん、これらのアプリケーションがどのように機能するかを正確に理解できる必要もあります。」 

「私たちに必要なのは、ガイダンスを持つことです。 特に新しいテクノロジーでは…私たちは、ガイドラインを提供する最初の大陸になります。「ねえ、これは緑、これは濃い緑、これは少しオレンジ色で、これは禁止されています」と言います。 。 だから今、あなたが人工知能アプリケーションを使いたいなら、ヨーロッパに行ってください! あなたは何をすべきかを知っているでしょう、あなたはそれを行う方法を知っているでしょう、あなたはかなりよく理解しているパートナーを持っているでしょうそしてところであなたはあなたが地球上で作成された最大量の産業データを持っている大陸にも来るでしょう今後XNUMX年間。」 

「だから彼女が来るe—人工知能はデータに関するものであるため—ガイドラインを提供します。 それを実行するためのツールとインフラストラクチャも用意されます」とBreton氏は提案しました。 

もうXNUMXつの反応は、委員会の提案には、法執行機関が顔認識技術を含む遠隔生体認証監視を使用するなど、過度に広範な免除があり、差別のリスクに対処するには不十分であるというものでした。 

委員会の提案に対する反応には、法執行機関による遠隔生体認証監視(顔認識技術など)の使用に対する過度に広範な免除に対する多くの批判、およびAIシステムの識別のリスクに対処するための規制の措置がほとんど行われないという懸念が含まれていました十分に遠い。 

「法律には差別に対する保障措置が欠けているが、「公安の保障措置」に対する広範な免除は、刑事司法に関連するわずかな保障措置を完全に下回っている」と、世界の犯罪者である公正な裁判の法務および政策責任者であるグリフ・フェリスは述べた。ロンドンを拠点とする正義の番犬。 「この枠組みには、差別を防ぎ、公正な裁判を受ける権利を保護するための厳格な保護措置と制限が含まれている必要があります。 これには、人々のプロファイルを作成し、犯罪のリスクを予測しようとするシステムの使用を制限することを含める必要があります。」  

これを達成するために、彼は提案しました、 「EUの提案は、刑事司法の結果における差別のハードワイヤリングを防ぎ、無罪の推定を保護し、刑事司法におけるAIの有意義な説明責任を確保するために根本的な変更を必要としています。  

ソース記事と情報を読む in ハーバード·ビジネス·レビューで 評決 または TechCrunchの. 

コインスマート。 BesteBitcoin-ヨーロッパのBörse
出典:https://www.aitrends.com/data-privacy-and-security/here-come-the-ai-regulations/

スポット画像

最新のインテリジェンス

スポット画像