ゼファーネットのロゴ

ChatGPT は人間の行動に関する研究で人間に取って代わられています - そしてそれは驚くほどうまく機能します

日付:

私はアンソニー・ボーディンの旅番組の大ファンです 部品不明. 各エピソードで、シェフは世界中の僻地の村を訪れ、寛大な心と精神で地域部族の生活、食べ物、文化を記録します。

このショーは人類の驚くべき多様性を垣間見ることができます。 社会科学者も、さまざまな人々、グループ、文化の行動を理解するという同様の目標を持っていますが、管理された状況ではさまざまな方法を使用します。 どちらにとっても、これらの追求の主役は人間です。

しかし、人間を AI チャットボットに置き換えたらどうなるでしょうか?

その考えはばかげているように思えます。 しかし、ChatGPT やその他の大規模言語モデル (LLM) の出現のおかげで、社会科学者たちは、これらのツールを使用して「シミュレートされた人間」の多様なグループを迅速に構築し、人間の代理として彼らの行動や価値観を調査する実験を実行するという考えに夢中になっています。それらの生物学的対応物。

デジタルで再現された人間の心を想像しているとしたら、そうではありません。 そのアイデアは、人間の反応を模倣するという ChatGPT の専門知識を活用することです。 モデルはブログ、Youtube のコメント、ファン フィクション、書籍などの膨大な量のオンライン データを収集するため、複数の言語の単語間の関係を容易に把握できます。 これらの洗練されたアルゴリズムは、あらゆる文化における人間のコミュニケーションの重要な側面である、皮肉、皮肉、比喩、感情的な調子など、言語の微妙な側面を解読することもできます。 これらの強みにより、LLM は幅広い信念を持つ複数の合成人格を模倣するようになります。

別のボーナス? 人間の参加者と比較して、ChatGPT やその他の LLM は疲れないため、科学者は前例のない速度でデータを収集し、人間の行動に関する理論をテストできます。

このアイデアは物議を醸しているものの、すでに支持されています。 最近の記事 この初期の分野を調査した結果、慎重に設計された特定のシナリオでは、ChatGPT の応答が人間の参加者のおよそ 95% の応答と相関していることがわかりました。

AIは「社会科学研究のあり方を変える可能性がある」 ウォータールー大学のイーゴリ・グロスマン博士は、最近、同僚とともに先取り記事を執筆しました。 科学。 使用するためのキー ホモシリカ 研究中? 慎重なバイアス管理とデータの忠実性についてチームは述べた。

人間の社会的精神を探る

社会科学とは一体何でしょうか?

簡単に言えば、人間が個人または集団として、さまざまな状況下でどのように行動するか、人間がどのように相互作用し、文化として発展するかを研究することです。 これは、経済学、政治学、人類学、心理学など、複数の分野を含む学術研究の包括的なものです。

この分野は、現在の時代精神で顕著な幅広いトピックに取り組みます。 ソーシャルメディアはメンタルヘルスにどのような影響を与えますか? 悪天候が増加する中、気候変動に対する現在の国民の態度はどうなっているのでしょうか? 異なる文化ではコミュニケーション方法がどのように評価され、何が誤解を引き起こすのでしょうか?

社会科学の研究は疑問と仮説から始まります。 私のお気に入りの XNUMX つは、文化によって体臭に対する許容度が異なるのでしょうか? (冗談じゃないよ、 トピック 検討されています かなりの量、そしてはい、 違いがある!)

次に科学者は、アンケート、行動テスト、観察、モデリングなどのさまざまな方法を使用して、自分たちのアイデアをテストします。 アンケートは、質問が厳密に設計および精査され、オンラインで配布すると幅広い人々に簡単に届くため、特に人気のあるツールです。 その後、科学者は書かれた回答を分析し、人間の行動についての洞察を導き出します。 言い換えれば、参加者の言語使用はこれらの研究にとって重要です。

では、ChatGPT はどのように適合するのでしょうか?

「ホモ・シリカス」

グロスマン氏にとって、ChatGPT や Google の Bard などのチャットボットの背後にある LLM は、社会科学の実験を再設計する前例のない機会を表しています。

LLM は大規模なデータセットでトレーニングされるため、「膨大な量の人間の経験や視点を表すことができる」と著者らは述べています。 モデルは、頻繁に海外旅行をする人々と同様に、インターネット上で国境なく自由に「歩き回る」ため、採用された人間の被験者と比較して、より幅広い反応を採用し、表示する可能性があります。

また、ChatGPT は研究の他のメンバーの影響を受けたり、疲れたりすることがないため、偏りの少ない応答を生成できる可能性があります。 これらの特性は、「リスクの高いプロジェクト」、たとえば、戦争中や困難な政権下に住む人々の反応をソーシャルメディアの投稿を通じて模倣する場合に特に役立つ可能性があります。 次に、その応答は現実世界の介入に情報を提供する可能性があります。

同様に、性同一性や誤った情報など、文化的にホットなトピックについて訓練を受けた LLM は、政策に情報を提供するために、さまざまな理論的またはイデオロギー的な思想を再現する可能性があります。 AI は、何十万人もの人間の参加者に丹念にアンケートを行うのではなく、オンラインの議論に基づいて迅速に回答を生成できます。

現実生活での潜在的な用途は別として、LLM は、ビデオ ゲームのノンプレイヤー キャラクター (NPC) に似た、社会科学実験で人間の参加者と対話するデジタル サブジェクトとしても機能します。 たとえば、LLM はさまざまな「個性」を採用し、テキストを使用してオンラインで世界中のボランティアと同じ質問をして対話することができます。 アルゴリズムはスリープしないため、24 時間年中無休で実行できます。 得られたデータは、科学者が多様な文化が同様の情報をどのように評価し、意見や誤った情報がどのように拡散するかを調査するのに役立つ可能性があります。

赤ん坊のステップ

研究において人間の代わりにチャットボットを使用するという考えはまだ主流ではありません。

しかし、それが機能する可能性があることを示す初期の証拠があります。 あ プレプリント研究 ジョージア工科大学、マイクロソフトリサーチ、オーリンカレッジから今月発表された論文では、悪名高い実験を含む数多くの古典的な心理学の実験において、LLMが人間の反応を再現していることが判明した。 ミルグラム衝撃実験.

しかし、これらのモデルは実際に人間の反応をどの程度正確に捉えることができるのでしょうか?という重要な疑問が残ります。

いくつかの障害があります。

XNUMX つ目は、アルゴリズムとトレーニング データの品質です。 ほとんどのオンライン コンテンツは、ほんの一握りの言語によって占められています。 これらのデータに基づいてトレーニングされた LLM は、それらの言語を使用する人々の感情、視点、さらには道徳的判断さえも簡単に模倣することができ、その結果、トレーニング データからバイアスを継承することになります。

「この偏りの再生産は、社会科学者が研究で明らかにしようと努めているまさに格差を増幅させる可能性があるため、大きな懸念となっている」とグロスマン氏は述べた。

一部の科学者は、LLM は単なるものであると懸念しています。 吐き戻す 彼らが言われたこと。 これは、多様で複雑な美しさのすべてにおいて人類を捉えることが主要なポイントである社会科学研究のアンチテーゼです。 一方、ChatGPT および同様のモデルは、「幻覚」と、もっともらしく聞こえるが虚偽の情報をでっち上げています。

今のところ、「大規模な言語モデルは人間の経験の『影』に依存している」とグロスマン氏は言う。 これらの AI システムは大部分がブラック ボックスであるため、特定の応答をどのように生成するのか、なぜ生成するのかを理解するのは難しく、行動実験で人間の代理として AI システムを使用する場合には少し問題になります。

制限はあるものの、「LLMにより、社会科学者は従来の研究手法から脱却し、革新的な方法で研究に取り組むことができる」と著者らは述べている。 最初のステップとして、ホモ・シリカスはブレインストーミングと迅速な仮説の検証に役立ち、有望な仮説はヒト集団でさらに検証される可能性があります。

しかし、社会科学が AI を真に歓迎するには、透明性、公平性、そしてこれらの強力なシステムへの平等なアクセスが必要です。 LLM はトレーニングが難しく、費用がかかるため、最近のモデルは高額なペイウォールの背後に閉ざされることが増えています。

「すべての科学モデルと同様に、社会科学 LLM がオープンソースであることを保証する必要があります。これは、そのアルゴリズムと理想的にはデータを誰もが精査、テスト、変更できることを意味します。」 研究著者、ウォータールー大学のドーン・パーカー博士。 「透明性と再現性を維持することによってのみ、AIを活用した社会科学研究が人間の経験の理解に真に貢献することを保証できます。」

画像のクレジット: ゲルトアルトマンPixabay

スポット画像

最新のインテリジェンス

スポット画像