ゼファーネットのロゴ

AI の規制: 適切に対処することが難しい (しかし重要である) 理由を専門家が説明

日付:

偽の写真 ドナルド・トランプ氏がニューヨーク市警察に逮捕される様子をチャットボットに伝え、 非常に生きていたコンピューター科学者が悲劇的に亡くなった、新世代の生成人工知能システムが、説得力があるが架空のテキストや画像を作成できる能力は、詐欺や偽情報に対するステロイドの警鐘を鳴らしています。 実際、人工知能の研究者と業界関係者のグループは、22 年 2023 月 XNUMX 日に業界に対し、次のように呼びかけました。 それ以上のトレーニングを一時停止する 最新の AI テクノロジーの導入、あるいはそれを除けば政府による「一時停止の発動」。

これらのテクノロジー – 画像ジェネレーターなど DALL-E, ミッドジャーニー & 安定拡散、および次のようなテキストジェネレーター 吟遊詩人, AI言語モデルを活用してコードのデバッグからデータの異常検出まで、, チンチラ & ラマ – 現在では何百万人もの人々が利用できるようになり、使用するのに技術的な知識は必要ありません。

テクノロジー企業がこれらの AI システムを展開し、一般向けにテストする際に広範囲に被害が及ぶ可能性を考えると、政策立案者は新興テクノロジーを規制するかどうか、またどのように規制するかを決定するという課題に直面しています。 会話 テクノロジー政策の専門家 XNUMX 人に、AI の規制がなぜこれほど難しいのか、また規制を正しく行うことがなぜそれほど重要なのかを説明してもらいました。


人間の弱点と動く標的

S・シャム・サンダー

AIを規制する理由は、テクノロジーが制御不能になったからではなく、人間の想像力が釣り合わなくなったからです。 大量のメディア報道が勢いを増した AI の能力と意識についての不合理な信念。 そのような信念は「自動化バイアス」あるいは、機械がタスクを実行しているときに警戒を緩める傾向があります。 例としては、 パイロットの警戒心の低下 航空機が自動操縦で飛行しているとき。

私の研究室での数多くの研究により、人間ではなく機械がインタラクションのソースとして認識されると、ユーザーの心の中に「マシンヒューリスティック」 この近道は、機械は正確で、客観的で、偏りがなく、間違いがないと信じることです。 これはユーザーの判断を鈍らせ、ユーザーがマシンを過度に信頼する結果になります。 しかし、単に AI の無謬性を人々に否定するだけでは十分ではありません。なぜなら、テクノロジーがそれを保証していない場合でも、人間は無意識のうちに有能であると想定することが知られているからです。

研究はまたそれを示した 人々はコンピューターを社会的存在として扱います 会話言語の使用など、機械が人間らしさを少しでも見せたとき。 このような場合、人々は礼儀正しさや互恵性などの人間関係の社会的ルールを適用します。 したがって、コンピューターが知覚力を持っているように見えると、人々はそれを盲目的に信頼する傾向があります。 AI 製品がこの信頼に値し、悪用されないようにするには、規制が必要です。

従来のエンジニアリング システムとは異なり、設計者は AI システムがどのように動作するかを確信できないため、AI には特有の課題が生じます。 従来の自動車が工場から出荷されるとき、エンジニアはそれがどのように機能するかを正確に知っていました。 しかし、自動運転車の場合、エンジニアはどのように運転するのかまったくわかりません。 斬新な状況でパフォーマンスを発揮します.

最近、世界中の何千人もの人々が、GPT-4 や DALL-E 2 などの大規模な生成 AI モデルがプロンプトに応じて生成するものに驚嘆しています。 これらの AI モデルの開発に携わるエンジニアの中で、モデルが何を生成するかを正確に伝えることができる人はいません。 問題を複雑にしているのは、そのようなモデルは、より多くの相互作用に応じて変化し、進化することです。

これはすべて、失火の可能性が十分にあることを意味します。 したがって、多くのことは、AI システムがどのように展開されるか、そして人間の感性や福祉が傷つけられた場合にどのような救済措置が用意されているかに依存します。 AI は高速道路のようなインフラストラクチャです。 集団における人間の行動を形作るように設計することはできますが、スピード違反などの虐待や、事故などの予測不可能な出来事に対処するためのメカニズムが必要になります。

AI 開発者は、システムがどのように動作するかを想像し、社会基準や責任に対する潜在的な違反を予測する際に、非常に創造性を発揮する必要もあります。 これは、AI の結果と製品の定期的な監査と取り締まりに依存する規制またはガバナンスの枠組みが必要であることを意味しますが、これらの枠組みでは、システムの設計者が常に事故の責任を負えるわけではないことも認識する必要があると私は考えています。


「ソフト」アプローチと「ハード」アプローチの組み合わせ

カソン・シュミット

AIの規制は難しい。 AI を適切に規制するには、まず AI を定義し、予想される AI のリスクと利点を理解する必要があります。 AI を法的に定義するには、法の対象となるものを特定することが重要です。 しかし、AI テクノロジーは依然として進化しているため、安定した法的定義を特定することは困難です。

AI のリスクと利点を理解することも重要です。 優れた規制は公共の利益を最大化する必要がありますが、 リスクを最小化する。 ただし、AI アプリケーションはまだ出現しつつあるため、将来のリスクやメリットがどのようなものになるかを知ることや予測することは困難です。 このような未知の要素により、AI などの新興テクノロジーは非常に高度なものになります。 規制するのが難しい 従来の法律や規制との併用。

議員は 適応するには遅すぎることが多い 急速に変化するテクノロジー環境に対応します。 いくつかの 新しい法律 制定されるまでに時代遅れになっている、あるいは 導入。 新しい法律や規制当局がなければ 古い法律を使わなければならない アドレスへ 新しい問題。 場合によってはこれが原因となる 法的障壁 for 社会的便益 or 法的な抜け穴 for 有害な行為.

ソフトロー」は、特定の違反を防止することを目的とした従来の「厳格な法律」アプローチに代わる法律です。 ソフトローアプローチでは、民間団体が 規則または基準 業界関係者向け。 これらは従来の法律制定よりも急速に変化する可能性があります。 これにより、 有望なソフトロー 新しいテクノロジーは新しいアプリケーションやリスクにすぐに適応できるためです。 しかし、 ソフトローはソフトエンフォースメントを意味する.

ミーガン・ドーア, ジェニファー・ワーグナーそして私は XNUMX 番目の方法を提案します。 Trusted Enforcement (CAITE) を備えたコピーレフト AI。 このアプローチは、知的財産における XNUMX つのまったく異なる概念、つまりコピーレフト ライセンスとパテント トロールを組み合わせたものです。

コピーレフト ライセンスでは、オープンソース ソフトウェアなど、ライセンス条項に基づいてコンテンツを簡単に使用、再利用、または変更できます。 CAITE モデルは、コピーレフト ライセンスを使用して、偏見の影響の透明性のある評価など、特定の倫理ガイドラインに従うことを AI ユーザーに要求します。

私たちのモデルでは、これらのライセンスは、ライセンス違反を強制する法的権利も信頼できる第三者に譲渡します。 これにより、倫理的な AI 基準を施行するためだけに存在し、非倫理的行為による罰金によって資金の一部を賄うことができる施行機関が創設されます。 この組織は、政府機関ではなく民間組織であり、他者から収集した法的知的財産権を執行することで自らを維持しているという点で、特許トロールに似ています。 この場合、企業は営利目的の強制ではなく、ライセンスに定義されている倫理ガイドラインを強制する、つまり「善のための荒らし」です。

このモデルは柔軟で、変化する AI 環境のニーズを満たすことができます。 また、従来の政府規制当局のような実質的な執行オプションも可能になります。 このようにして、ハード ロー アプローチとソフト ロー アプローチの最良の要素を組み合わせて、AI 特有の課題に対処します。


尋ねるべき XNUMX つの重要な質問

ジョン・ヴィラセナー

  最近の驚くべき進歩 大規模言語モデルベースの生成 AI では、AI に特化した新しい規制を創設するという声が高まっています。 対話を進める際に尋ねるべき XNUMX つの重要な質問は次のとおりです。

1) AI に特化した新たな規制は必要か? AI システムから生じる潜在的に問題のある結果の多くは、既存のフレームワークによってすでに対処されています。 銀行がローン申請を評価するために使用する AI アルゴリズムが人種差別的なローン決定につながる場合、それは公正住宅法に違反することになります。 無人運転車の AI ソフトウェアが事故を引き起こした場合、製造物責任法により、 救済策を追求するための枠組み.

2) 急速に変化するテクノロジーを時間のスナップショットに基づいて規制することにはどのようなリスクがありますか? この典型的な例は次のとおりです。 ストアド通信法、電子メールのような当時目新しいデジタル通信技術に対処するために 1986 年に制定されました。 SCA の制定に際し、議会は 180 日を超えた電子メールのプライバシー保護を大幅に緩和しました。

その論理は、ストレージ容量が限られているため、人々は新しいメッセージのためのスペースを確保するために古いメッセージを削除して受信トレイを常に整理していることを意味するというものでした。 その結果、180 日を超えて保存されたメッセージはプライバシーの観点から重要度が低いと判断されました。 このロジックがこれまで意味をなしていたかどうかは明らかではありません。また、電子メールやその他の保存されたデジタル通信の大部分が 2020 か月以上前のものである XNUMX 年代では、明らかに意味がありません。

ある時点の単一のスナップショットに基づいてテクノロジーを規制することに対する懸念に対する一般的な反論は、「法律や規制が古くなったら、それを更新する」というものです。 しかし、これは言うは易く行うは難しです。 ほとんどの人は、SCA が数十年前に時代遅れになったことに同意しています。 しかし、議会は180日の規定をどのように修正するかについて具体的に合意できていないため、制定からXNUMX分のXNUMX世紀以上が経過した今もなお検討中である。

3) 潜在的な予期せぬ結果は何ですか? の 2017 年オンライン性的人身売買法と戦うことを国家と被害者に許可する 2018年に可決され、改正された法律でした セクション230 性的人身売買と闘うことを目的とした通信品位法。 性的人身売買が減少したという証拠はほとんどありませんが、 非常に問題のある影響 危険な顧客に関する情報を交換するために、FOSTA-SESTA によってオフラインにされたウェブサイトに依存していたセックスワーカーたちです。 この例は、提案された規制の潜在的な影響を幅広く検討することの重要性を示しています。

4) 経済的および地政学的な影響は何ですか? もし米国の規制当局がAIの進歩を意図的に遅らせるような行動をとれば、投資とイノベーション、そしてその結果としての雇用創出が他国に押しやられるだけだ。 新たな AI は多くの懸念を引き起こす一方で、教育、 , 製造業, 輸送の安全性, 農業, 天気予報, 法的サービスへのアクセス、 等です。

上記の XNUMX つの質問を念頭に置いて起草された AI 規制は、AI の利点へのアクセスを確保しながら、AI の潜在的な害にうまく対処できる可能性がより高いと私は信じています。


この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著 by S・シャム・サンダージェームズ P. ジミロ メディア効果教授、メディア効果研究所共同所長、社会的責任 AI センター所長、 ペンシルベニア州立大学; カソン・シュミット、公衆衛生学助教授、 テキサスA&M大学, ジョン・ヴィラセナー、電気工学、法学、公共政策、経営学の教授、 カリフォルニア大学ロサンゼルス校.

スポット画像

最新のインテリジェンス

スポット画像