ゼファーネットのロゴ

トップテックタレントがオープンレターで人間の存在に対するAIの脅威を警告

日付:

CEO のイーロン マスク、Apple の共同創設者であるスティーブ ウォズニアック、政治家のアンドリュー ヤンなど、1,000 人を超えるテクノロジ業界のトップ スターが、AI のパイオニアたちに AI 開発競争にブレーキをかけるよう求める公開書簡に署名しました。人類。

「強力な AI システムは、その効果がプラスになると確信した後にのみ開発されるべきです。 リスクは管理可能になります」と、フューチャー・オブ・ライフ・インスティテュートのサイトに公開された公開書簡の一部は述べています。 「したがって、すべての AI ラボに対して、GPT-6 よりも強力な AI システムのトレーニングを少なくとも 4 か月間直ちに一時停止するよう求めます。」

書簡で概説されているように、大規模な学習モデル (LLM) のチェックされていないトレーニングの潜在的な危険性は、人間がよりインテリジェントな AI システムに完全に取って代わられることに他なりません。 

現実のスカイネット? AI の人類への危険性を解析する

「現代の AI システムは現在、 一般的なタスクで人間と競争できる、そして私たちは自分自身に問いかけなければなりません:私たちは機械が私たちの情報チャネルをプロパガンダと虚偽であふれさせるべきですか?」 手紙は尋ねます。 「充実した仕事も含めて、すべての仕事を自動化する必要がありますか? 私たちは、最終的に数を上回り、賢く、時代遅れになり、私たちに取って代わる可能性のある人間以外の心を開発する必要がありますか? 私たちの文明の制御を失う危険を冒すべきですか?」

高度な AI による害の可能性は、その支持者にとっても懸念事項です。OpenAI を作成した ChatGPT の CEO である Greg Brockman 氏は、最近 SXSW で聴衆に向けて、AI が偽情報を拡散し、偽情報を広める能力について懸念していると語りました。 サイバー攻撃を開始する. しかし、それらの心配は恐れとはかけ離れています。 AIは知覚できるようになる可能性がある.

明確にするために言うと、XNUMXか月の一時停止は、政策立案者とAIの安全性研究者に、技術に関する安全パラメータを設定する時間を与えることを目的としている、と書簡は説明した. の Giant AI Experiments レターの一時停止 このグループは、すべての AI 開発の停止を求めているのではなく、潜在的な害を完全に理解せずに新しい機能を急いで展開するのをやめるよう開発者に求めていることを強調しています。

それでも、懐疑的な人はマスクのような CEO に目を向けるかもしれません。 OpenAIによるGPT-5の開発、そして一時停止 AI オープン レターを広報の策略に過ぎないとして却下します。

Cado Security の CTO である Chris Doman 氏は、次のように述べています。ダークリーディングへ。 「率直に言って、GPT-4 よりも強力な AI システムを現在トレーニングしている唯一の企業は、現在 GPT-5 をトレーニングしているため、OpenAI である可能性があります。」

「AI の一時停止」の公開状は何か効果がありますか?

Abnormal Security の研究者である Dan Shiebler 氏によると、著名人の名前だけでなく、署名者のさまざまな背景や公共の視点が、この手紙を真剣に受け止める価値があると述べています。 実際、署名者には、プリンストン大学の名誉教授で連想ニューラル ネットワークの発明者であるジョン ホップフィールド氏や、MIT の人工知能および基本的相互作用センターの物理学教授であるマックス テグマーク氏など、AI 分野で最も優秀な学識者が含まれています。 .

この手紙の興味深い点は、署名者とその動機がいかに多様であるかということです」と、シーブラーはダーク・リーディングへの声明で述べました. 「イーロン・マスクは、[人工知能] (コンピューターが自分自身をより良くする方法を見つけ出し、その結果、能力が爆発的に増加する) は差し迫った危険であると信じているとかなり声高に主張してきましたが、ゲイリー・マーカスのような AI 懐疑論者は明らかにこの手紙に別角度。」 

しかし、あなたは最終的に、シーブラー氏は、この書簡が AI の開発を遅らせることになるとは予測していません。

猫はこれらのモデルで袋から出しています」とシーブラーは言いました. 「それらを生成する際の制限要因はお金と時間であり、これらは両方とも急速に低下します。 企業がこれらのモデルを安全かつ確実に使用できるように準備する必要があり、開発の時計を止めようとするのではありません。」

それでも、Netenrich の主任脅威ハンターである John Bambanek 氏によると、安全性と倫理上の考慮事項に光を当てることは良いことです。

「何かを一時停止する人がいるとは思えませんが、AI プロジェクトの倫理的影響についての検討が、開発のスピードに大きく遅れをとっていることに気づきつつあります」と彼は電子メールで述べました。 「私たちが行っていることと、それがもたらす深刻な影響を再評価することは良いことだと思います。」

スポット画像

最新のインテリジェンス

スポット画像