ゼファーネットのロゴ

データ倫理学者に聞く: 説明できない AI を信頼できますか? – データバーシティ

日付:

先月に の項目に表示されます。, データと AI に関する「大きな質問」を読者に送ってほしいとお願いしました。今月の質問は、その要望に十分に応えました。これには、AI ツールと説明可能性における信頼性の膨大な領域が含まれます。

AI ツールがどのようにして答えにたどり着くのかが分からない場合、AI ツールが倫理的な結果をもたらしているかどうかをどうやって知ることができるのでしょうか?

質問に直接答える前に、まず触れておくべき重要な点がいくつかあります。

AI は 1 つではない

AI の傘下では、さまざまなテクノロジーが販売されています。ほんの数例を挙げると、コンピューター ビジョンを使用した顔認識テクノロジーから、レコメンデーション システム、ChatGPT などの大規模言語モデルのチャットボット タイプ ツールに至るまで、あらゆるテクノロジーが含まれています。これらのテクノロジーがどのように機能し、何に使用されるかは、説明可能性と信頼性の問題に関係します。一般に、機械学習には、結果や出力を生成するために、大量のデータからパターンを見つけることが含まれます。そのプロセスに関連する一般的な倫理的懸念が多数あります。ただし、この質問に完全に対処するには、どの AI ツールについて議論しているのかをできるだけ具体的にする必要があります。

文脈における倫理

AI という用語と同様に、倫理も幅広い問題をカバーしており、特定の状況に応じて、特定の倫理的懸念が多かれ少なかれ顕著になる可能性があります。極端な例を挙げると、生死にかかわる状況では、ほとんどの人は自分のプライバシーをあまり気にしないでしょう。行方不明者がいる場合、主な関心事は行方不明者の捜索です。これには、多くの個人情報をメディアに漏らすなど、あらゆる手段を使って彼らを見つけることが含まれる可能性があります。ただし、行方不明者が発見された場合、その状況はすべて報道されます。 削除する必要があります。現在、倫理的な問題は、この物語が被害者の一生を追って、偏見を持たれる可能性を招かないようにすることに焦点が当てられている。この例では、倫理的に行うべきことは、状況に応じて完全に変化します。

人間の主体性と説明

人が自らの主体性を行使し、責任を負うために 道徳的代理人、状況についてある程度の理解を持っていることが重要です。たとえば、銀行が融資を拒否した場合、その決定がどのように行われたのかを申請者に説明する必要があります。これにより、無関係な要素 (青い靴下を履いていた) や、差別的であることが判明する可能性のある個人の制御外の要素 (人種、年齢、性別など) に基づいていないことが保証されます。説明は、説明を必要とする人にとって合理的で理解できるものでなければなりません。したがって、素人に高度に専門的な説明をするだけでは不十分です。説明には人間の尊厳という側面もあります。人を尊重するということは、人を尊厳をもって扱うことを意味します。 

信頼の要素

信頼は多面的です。私たちの社会は、テクノロジーの使用に対する信頼を可能にするインフラストラクチャを構築してきました。たとえば、1850 年代には、 エレベーターが新しい技術だった頃、必ずしも安全とは限らない方法で設計されています。ケーブルとしてロープが使用されていたため、ほつれたり切れたりする可能性がありました。時間が経つにつれて、より良い設計が見られるようになり、エレベーターの動作を監視するプロセスも確立されました。定期的な安全検査を義務付ける法律があります。安全性チェックが完了したことはどのようにして確認できますか?私たちはコンプライアンスを義務付けるシステムを信頼しています。小さな金属製の箱に足を踏み入れる前に、77 階に安全に到着できるかどうかを心配する必要はもうありません。この場合の信頼とは、信頼性が高く安全に設計されたテクノロジーと、適切な監視およびガバナンスのシステムから構成されるものです。

私たちの質問に移りましょう…

これらの要素を念頭に置いて、質問に入りましょう。この質問に対する非常に短く、おそらく満足のいかない答えは、「確かなことはわかりません」です。ただし、より有用な応答を得るのに役立つツールとコンテキストに関する詳細をいくつか入力してみましょう。

私たちがエンドユーザーで、職場で行うプレゼンテーションのコンテンツ作成に生成 AI ツールを使用していると仮定しましょう。このような状況でこのツールを責任を持って使用できるように、適切な選択を行っていることを確認するにはどうすればよいでしょうか?

作り方の倫理

生成 AI には、エンドユーザーとして対処できない倫理的な問題があります。ほとんどの生成 AI は、 疑わしい入手データ インターネットから。偏ったデータや代表的ではないデータが含まれています。もあります 労働力のサプライチェーンの問題 および 環境問題 大規模な言語モデルのトレーニングに関連します。さらに、それは(現時点では)不可能です 解釈可能性 – 大規模な言語モデルの詳細な技術的理解。素人にとっては、大規模な言語モデルは確率的手法を使用して、もっともらしいと思われる次の単語を決定し、たとえ答えが正確でなくても常に答えを提供することを目的としているということを理解するのに十分な説明かもしれません。 

エンドユーザーとして、これらの倫理的問題には対処しません。あなたにできる最善のことは、そのツールがどのように作られたかを考慮して、そのツールをまだ使いたいかどうかを決めることです。時間が経てば、一部の企業がこれらの問題に対処する、より優れた、より責任を持って開発されたツールを設計するか、規制によってこれらの問題の修正が要求されるようになることが私の願いです。 

AI を責任を持って使用する

続行すると決めた場合、次のステップは結果に対して責任を持つことです。これは、生成 AI が何も理解できないことを知ることを意味します。このツールがどのように「幻覚を起こす」のか、そしてなぜこのツールを次のような一か八かの目的に使用すべきではないのかについては、多くの話があります。 法務。この情報を踏まえると、生成 AI ツールを使用する意味はどこにありますか?おそらくブレインストーミングに役立つでしょう。概要を作成したり、最初の草案を作成したりするのに役立つかもしれません。 

生成 AI の間には、多かれ少なかれ安全に使用できるかどうかの違いもあります。たとえば、ビジネスの範囲内で展開されるエンタープライズ ソリューションには、ChatGPT のような一般向けツールよりも多くのプライバシーやその他のガードレールがある可能性があります。エンタープライズ ツールを使用している場合は、ツールが採用される前にどのようなデュー デリジェンスが実施されたかについて会社の IT 部門に問い合わせることができます。 (ヒント: AI を調達している場合は、ベンダーに厳しい質問をし、デューデリジェンスを行う必要があります。) さらに、会社は次のことを行う必要があります。 ポリシーと手順 ユーザーの期待に沿ってツールを使用するための適切な場所にあります。

出力を再確認することもできます。他のソースを使用して情報を確認できます。イメージを生成する場合は、特定のプロンプトを使用して、表現の多様性を確実に高めることができます。なれ 固定観念を認識している そして、システムに次のようなイメージを生成するように要求していないことを確認してください。 著作権

最後に、この仕事にはどのような関係があるのでしょうか?それは社内プレゼンテーション用ですか、それとも生成されたコンテンツは全国的な広告キャンペーンで使用されますか?リスクが高くなるほど、より多くのデューデリジェンスとレビューを行う必要があります。これには、重大な影響を与える可能性のあるものについては外部の利害関係者の参加も含まれます。

質問を送ってください!

私はでしょう  データのジレンマや AI の倫理上の疑問や困難について聞きます。にメモを送ってください。 hello@ethallyalignedai.com またはで私と接続します LinkedIn。私はすべての問い合わせを機密として扱い、機密情報となる可能性のある情報はすべて削除します。そのため、内容も高レベルかつ匿名のままにしておいてください。 

スポット画像

最新のインテリジェンス

スポット画像