ゼファーネットのロゴ

動物の知覚の研究が知覚 AI の倫理的パズルの解決にどのように役立つか

日付:

人工知能 の進歩はあまりにも急速であるため、多くの重要な開発に責任を負っている科学者の中には、変化のペースに悩まされている人もいます。 今年の初めに、AI に携わる 300 人以上の専門家やその他の関係する著名人が、 率直な警告 テクノロジーがもたらす危険性について、パンデミックや核戦争のリスクと比較して説明します。

こうした懸念の表面のすぐ下に、機械の意識の問題が潜んでいます。 たとえ今日の AI の内部に「誰も家にいない」としても、研究者の中には、いつか AI がかすかな意識を示すのではないか、あるいはそれ以上の意識を示すのではないかと考える人もいます。 もしそうなった場合、多くの道徳的および倫理的な懸念が生じるだろう、と言う ジョナサン・バーチ、ロンドン・スクール・オブ・エコノミクス・アンド・ポリティサイエンスの哲学教授。

AI テクノロジーが飛躍的に進歩するにつれて、人間と AI の相互作用によって引き起こされる倫理的な問題が新たな緊急性を帯びてきました。 「彼らを道徳の輪に加えるべきか、それとも排除すべきか、私たちは知りません」とバーチ氏は言う。 「結果がどうなるかは分かりません。 そして私はそれを、私たちが話し合うべき真のリスクとして真剣に受け止めています。 そうじゃない、と思うから AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 はそのカテゴリーに入るけど、今後10年、20年で何が起こるか分からないからね。」

それまでの間、動物の心など、人間以外の心を研究するのもよいかもしれない、と彼は言う。 バーチ氏は大学を率いる 動物の感覚の基礎プロジェクトバーチ氏によれば、この取り組みは欧州連合が資金提供しており、「動物の知覚という大きな問題について何らかの進歩を遂げることを目的としている」という。 「動物の意識体験を科学的に研究するためのより良い方法を開発するにはどうすればよいでしょうか? そして、より良い政策、法律、動物の世話の方法を設計するために、動物の知覚に関する新たな科学をどのように活用できるでしょうか?」

インタビューはZoomと電子メールで行われ、長さと明瞭さのために編集されています。

(この記事は、最初に公開された Undark。 読む 原著.)

アンダーク: AIが意識を持つことができるのか、それとも感覚を持つことができるのかについては、議論が続いている。 そして、AI ができるかどうかという問題も並行して存在しているようです。 思われる 知覚力を持つこと。 なぜその区別がそれほど重要なのでしょうか?

ジョナサン・バーチ: これは大きな問題であり、実際、私たちを非常に恐れさせるものだと思います。 現在でも、AI システムはユーザーにその感覚を納得させる能力を十分に備えています。 昨年、Google エンジニアのブレイク・ルモイン氏のケースでそれが分かりました。 確信した 彼が取り組んでいたシステムは知覚力を持っていた、そしてそれは出力が純粋にテキストである場合、そしてユーザーが高度なスキルを持った AI 専門家である場合に限ります。

AI が人間の顔と人間の声を制御できるが、ユーザーは経験が浅いという状況を想像してみてください。 AI はすでに、自分が感覚を持った存在であることを多くの人に簡単に納得させることができる立場にあると思います。 そして、これは大きな問題です。なぜなら、AIの福祉を求める運動をする人々が現れると思うからです。 AIの権利、などなど。

そして、私たちはこれについて何をすべきかわかりません。 なぜなら、私たちが望んでいるのは、彼らが話している AI システムが次のものであることを証明する、本当に強力なノックダウン議論だからです。 意識的。 そして、私たちにはそれがありません。 意識についての私たちの理論的理解は、意識が存在しないと自信を持って宣言できるほど成熟していません。

UD: ロボットや AI システムは、「やめてください、あなたは私を傷つけるのです」などと言うようにプログラムされる可能性があります。 しかし、そのような単純な宣言だけでは、感性を試すリトマス試験紙としては十分ではありません。

JB: インペリアル・カレッジ・ロンドンで開発された非常に単純なシステム (これらのような) を使用して、医師の研修を支援することができます。 人間の痛みの表現を模倣する。 そして、これらのシステムが知覚力を持っていると考える理由はまったくありません。 彼らは実際には痛みを感じていません。 彼らが行っているのは、非常に簡単な方法で入力を出力にマッピングすることだけです。 しかし、彼らが生み出す痛みの表現は非常にリアルです。

私たちは、ChatGPT のようなチャットボットとある程度似た立場にあると思います。チャットボットは XNUMX 兆ワードを超えるトレーニング データに基づいてトレーニングされ、人間の反応パターンを模倣し、人間が反応するような方法で応答します。

ですから、もちろん、人間が苦痛の表情を浮かべて反応するようなプロンプトを与えると、その反応を巧みに模倣することができるでしょう。

しかし、私たちがそのような状況であることを知っているとき、つまり、私たちが巧みな模倣に対処していることを知っているとき、その背後に実際の痛みの経験があると考える強い理由はないと思います。

UD: 医学生が訓練しているこの実体は、ロボットのようなものだと思いますか?

JB: そうです、そうです。 そこで、人間の顔をしたダミーのようなものを用意し、医師が腕を押すと、さまざまな程度の圧力に対して人間が示す表情を模倣した表情を得ることができます。 これは、医師が過度の痛みを引き起こすことなく患者に適切に技術を実行する方法を学ぶのに役立ちます。

そして、たとえその背後に本当の知性がまったくなかったとしても、何かが人間の顔を持ち、人間と同じような表情をするとすぐに、私たちは簡単に取り込まれてしまいます。

したがって、ChatGPT で見られる種類の AI と組み合わせられると想像すると、本当に非常に説得力のある一種の模倣が可能になり、多くの人を納得させるでしょう。

UD: 感覚とは、いわば、私たちが内側から知っているもののように思えます。 私たちは自分自身の感覚を理解していますが、AI や自分自身を超えた他の存在など、他人の感覚をどのようにテストしますか?

JB: 私たちは、信じられないほど豊富な証拠を持っているため、私たちと会話できる他の人間に対して非常に強い立場にあると思います。 そしてそれに対する最良の説明は、他の人間も私たちと同じように意識的な経験をしているということです。 したがって、哲学者が「最良の説明への推論」と呼ぶことがあるこの種の推論を使用することができます。

他の動物についてもまったく同じ方法でアプローチできると思います。他の動物は私たちに話しかけませんが、痛みなどの状態を帰属させることで非常に自然に説明できる行動を示します。 たとえば、犬が怪我をした後に傷を舐めたり、その部分を看護したり、怪我の危険がある場所を避けることを学んでいるのを見たら、痛みの状態を仮定することでこの行動パターンを自然に説明するでしょう。

そして、私たちとよく似た神経系を持ち、私たちと同じように進化した他の動物を相手にしているとき、そのような推論は完全に合理的だと思います。

UD: AI システムについてはどうですか?

JB: AIの場合は大きな問題があります。 まず第一に、次の問題があります。 基板 異なります。 意識経験が基質に敏感であるかどうかは、実際にはわかりません。意識経験には生物学的基質、つまり神経系や脳が必要なのでしょうか? それとも、まったく異なる材料、つまりシリコンベースの基板で実現できるものなのでしょうか?

しかし、私が「ゲーム問題」と呼んだ問題もあります。システムが数兆ワードのトレーニング データにアクセスし、人間の行動を模倣することを目的としてトレーニングされている場合、システムが生成する行動パターンの種類は、それは本当に意識的な経験をしていることによって説明されるでしょう。 あるいは、その状況で人間がどのように反応するかという目標が設定されているということで説明できるかもしれません。

ですから、AI の場合、我々は問題に陥っていると本当に思います。なぜなら、我々が見ているもの、つまり AI が意識を持っているということが明らかに最善の説明になる状況に我々がいることは考えにくいからです。 もっともらしい別の説明が常に存在します。 そしてそれは抜け出すのが非常に難しい束縛です。

UD: 実際に意識があるものと、単に意識を持っているだけの存在を区別するための最善策は何だと思いますか? 外観 知覚力の?

JB: 最初の段階は、これが非常に深くて難しい問題であると認識することだと思います。 第 XNUMX 段階は、他の動物の事例からできる限り多くのことを学ぼうとすることです。 犬や他の哺乳類など、進化の観点から見て私たちに非常に近い動物を研究するとき、意識経験が哺乳類の脳に特有の非常に特殊な脳機構に依存しているのかどうか、常に確信が持てないと思います。

それを乗り越えるためには、できるだけ幅広い動物を観察する必要があります。 そして、私たちは特に、タコや昆虫のような無脊椎動物について考える必要があります。無脊椎動物は、意識経験の別の独立して進化した例である可能性があります。 タコの目が私たち自身の目とは完全に別々に進化してきたのと同じように、タコには類似点と相違点が混ざり合った魅力的なものがあるのですが、タコの意識体験もそのようなものになると思います。独立して進化し、ある点では似ていますが、ある点では非常に異なっています。他の方法。

そして、タコのような無脊椎動物の経験を研究することで、意識的な経験をサポートするために脳が持たなければならない本当に深い機能が何であるかをある程度把握し始めることができます。これは、単にこれらの特定の脳構造を持っているだけではなく、より深いものです。哺乳類ではそこにあります。 どのような種類の計算が必要ですか? どのような加工ですか?

そして、私はこれが長期的な戦略だと考えていますが、AI の事例に戻って、AI には哺乳類やタコのような意識のある動物に見られるような特殊な種類の計算機能があるのだろうか、と考えることができるかもしれません。

UD: いつか知覚を持った AI が開発されると思いますか?

JB: これに関しては50:50くらいです。 知覚力は生物学的な脳の特殊な機能に依存する可能性がありますが、それをテストする方法は明らかではありません。 したがって、AI には常に大きな不確実性が存在すると思います。 私はこれについてもっと自信を持っています:もし意識がそれができるなら 原則として コンピュータ ソフトウェアで実現できれば、AI 研究者はそれを実現する方法を見つけるでしょう。

画像のクレジット: キャッシュマカナヤ / Unsplash 

スポット画像

最新のインテリジェンス

スポット画像