ゼファーネットのロゴ

AI のリスクと強力な AI 規制の緊急性を強調するテクノロジー リーダー

日付:

AI のリスクと強力な AI 規制の緊急性を強調するテクノロジー リーダー
AI の成長と進歩はここ数年で急激に進んでいます。 統計レポート 世界の AI 市場は、2024 年の 3000 億ドルと比較して、126 年までに約 2015 億ドルという驚異的な収益を生み出すと考えられています。しかし、テクノロジーのリーダーたちは現在、AI のさまざまなリスクについて私たちに警告しています。
特に最近の波は、 generative AI ChatGPT のようなモデルは、医療、教育、医療など、データに敏感なさまざまな分野に新しい機能を導入しました。 ファイナンスこれらの AI 支援の開発は、悪意のあるエージェントによって暴露される可能性のある AI の多くの欠点により脆弱です。
AI の専門家が最近の動向について何と言っているかを議論し、AI の潜在的なリスクに焦点を当てましょう。 これらのリスクを管理する方法についても簡単に説明します。

テクノロジーリーダーと AI のリスクに関する懸念

ジェフリーヒントン

ジェフリー・ヒントン – 有名な AI 技術リーダー (そしてこの分野のゴッドファーザー) ですが、最近 Google を辞めました。 彼の懸念を表明した AI の急速な発展とその潜在的な危険性について。 ヒントン氏は、AIチャットボットが人間の知能を超えた場合、「非常に恐ろしい」ものになる可能性があると考えている。
ヒントンはこう言います。
「現在、私たちが目にしているのは、GPT-4 が人間の持つ一般知識の量をはるかに超えているということです。 推論に関しては、それほど優れているわけではありませんが、簡単な推論はすでに実行されています。 そして、進歩の速度を考えると、状況はかなり早く改善されると予想されます。 したがって、私たちはそれについて心配する必要があります。」
さらに、彼は、ロボットにサブ目標を持たせるなど、「悪者」が AI を「悪いこと」に利用できると考えています。 ヒントン氏は懸念をよそに、AIは短期的な利益をもたらす可能性があるが、AIの安全性と制御にも多額の投資をすべきだと信じている。

イーロン·マスク

イーロン・マスクの AI への関与は、への初期投資から始まりました。 ディープマインド 2010年に共同設立者に就任 OpenAI そしてテスラの自動運転車にAIを組み込むことだ。
彼は AI に熱心ですが、AI のリスクについて頻繁に懸念を表明しています。 マスク氏は、強力なAIシステムは文明にとって核兵器よりも危険である可能性があると述べている。 でのインタビューで フォックスニュース 2023年XNUMX月、彼はこう語った。
「AI は、たとえば、管理が不適切な航空機の設計や生産保守、粗悪な自動車生産よりも危険です。 可能性があるという意味では――ただし、その可能性は小さいと考える人もいるかもしれないが――しかし、それは自明ではなく、文明を破壊する可能性を秘めている。」
さらにマスク氏は、潜在的なリスクからの安全を確保するためにAIに関する政府の規制を支持しているが、「それはあまり楽しいことではない」としている。

巨大なAI実験の一時停止:数千人のAI専門家が支持する公開書簡

Future of Life Institute が公開書簡を公開 この書簡は、22年2023月XNUMX日に、XNUMXヶ月間の一時停止を求めている。 AIシステム開発がさらに進化 より GPT-4。 著者らは、AIシステムの開発のペースが深刻な社会経済的課題を引き起こしていることについて懸念を表明している。
さらに書簡では、AI開発者は政策立案者と協力してAIガバナンスシステムを文書化する必要があると述べている。 2023 年 31,000 月の時点で、この書簡には XNUMX 人を超える AI 開発者、専門家、技術リーダーが署名しています。 著名な署名者には、イーロン・マスク、スティーブ・ウォズニアック (Apple 共同創設者)、エマド・モスタク (Stability AI CEO)、ヨシュア・ベンジオ (チューリング賞受賞者) などが含まれます。

AI開発中止に対する反論

XNUMX 人の著名な AI リーダー、 アンドリュー・ン、ヤン・ルカン、先進的なAIシステムの開発をXNUMXか月間禁止することに反対し、一時停止は悪い考えだと考えている。
AI にはバイアスや権力の集中などのリスクはあるものの、教育、医療、レスポンシブ コーチングなどの分野で AI が生み出す価値は計り知れないと Ng 氏は言います。
Yann LeCun 氏は、エンドユーザーに届く AI 製品は規制される可能性があるが、研究開発は停止されるべきではないと述べています。

AI の潜在的な危険性と差し迫ったリスクとは何ですか?

1. 離職

AI 専門家は、インテリジェント AI システムが認知タスクや創造タスクを置き換えることができると信じています。 投資銀行ゴールドマン・サックスは、およそ 300百万の仕事 生成AIによって自動化されます。
したがって、AIの開発が深刻な経済不況を引き起こさないように、AIの開発には規制が必要です。 この課題に対処するために、従業員のスキルアップと再スキル化のための教育プログラムが必要です。

2. 偏った AI システム

バイアス 性別、人種、肌の色について人間の間で蔓延している情報が、AI システムのトレーニングに使用されるデータに誤って浸透し、結果的に AI システムに偏りが生じる可能性があります。
たとえば、求人採用の文脈では、偏った AI システムが特定の民族的背景を持つ個人の履歴書を無視し、雇用市場で差別を生み出す可能性があります。 の 法執行機関、偏った予測ポリシングは、特定の近隣地域や人口統計グループを不均衡にターゲットにする可能性があります。
したがって、AI のリスク、特にバイアスに対処する包括的なデータ戦略を立てることが不可欠です。 AI システムは、公平性を保つために頻繁に評価および監査される必要があります。

3. 安全性が重要な AI アプリケーション

自動運転車、医療診断と治療、航空システム、原子力発電所の制御などはすべて、安全性が重要な AI アプリケーションの例です。 これらの AI システムは、たとえ軽微なエラーでも人命や環境に重大な影響を与える可能性があるため、慎重に開発する必要があります。
例えば、AIソフトの誤作動。 操縦特性補助システム(MCAS) 原因の一部は、最初は737年2018月、次に2019年346月に起きたXNUMX機のボーイングXNUMX MAXの墜落に起因すると考えられています。悲しいことに、XNUMX回の墜落によりXNUMX人が死亡しました。

AI システムのリスクをどのように克服できるでしょうか? – 責任あるAI開発と規制遵守

責任ある AI (RAI) これは、プライバシーを確​​保し、法的規制や社会規範に従う、公正、説明責任、透明性、安全性の高い AI システムを開発および展開することを意味します。 AI システムが広範かつ急速に発展していることを考えると、RAI の実装は複雑になる可能性があります。
ただし、大手テクノロジー企業は次のような RAI フレームワークを開発しました。
  1. Microsoft の責任ある AI
  2. GoogleのAI原則
  3. IBMの信頼できるAI
世界中の AI ラボは、これらの原則からインスピレーションを得たり、独自の責任ある AI フレームワークを開発して、信頼できる AI システムを作成したりできます。

AI の規制遵守

データは AI システムの不可欠なコンポーネントであるため、AI ベースの組織や研究室は、データのセキュリティ、プライバシー、安全性を確保するために次の規制に準拠する必要があります。
  1. GDPR(一般データ保護規則) – EU によるデータ保護フレームワーク。
  2. CCPA(カリフォルニア州消費者プライバシー法) – プライバシー権と消費者保護に関するカリフォルニア州法。
  3. HIPAA(医療保険の相互運用性と説明責任に関する法律) – 患者の医療データを保護する米国の法律。
  4. EUAI法, 信頼できる AI のための倫理ガイドライン – 欧州委員会の AI 規制。
国民を保護するために、さまざまな国でさまざまな地域法や現地法が制定されています。 データに関する法規制の遵守を確保できない組織は、厳しい罰則を科される可能性があります。 たとえば、GDPR では次の罰金が設定されています。 20万ユーロまたは年間利益の4% 違法なデータ処理、証明されていないデータの同意、データ主体の権利の侵害、国際機関への保護されていないデータ転送などの重大な侵害に対して。

AIの開発と規制 – 現在と未来

月が経つごとに、AI の進歩は前例のないレベルに達しています。 しかし、それに伴うAI規制やガバナンスの枠組みは遅れている。 より堅牢かつ具体的なものにする必要があります。
テクノロジーリーダーやAI開発者らは、適切に規制されていない場合のAIのリスクについて警鐘を鳴らしている。 AI の研究開発は多くの分野でさらなる価値をもたらす可能性がありますが、現在では慎重な規制が不可欠であることは明らかです。

リンク: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

出典: https://www.unite.ai

スポット画像

最新のインテリジェンス

スポット画像