ゼファーネットのロゴ

AIワールドエグゼクティブサミット:適切な質問をすることが重要 

日付:

ジョンP.デズモンド、AIトレンドエディター 

特にパンデミックによって引き起こされたAIの採用が加速していることを考えると、AIの活動について正しい質問をすることが重要です。 具体的には、どの質問に答えるかを考えることは、マッキンゼーの最近の調査によると、企業でAIを採用することで管理しているAIの専門家や実務家の焦点です。 

AIの高性能企業の回答者のうち、75人% によると、パンデミックのために、ビジネス機能全体でのAI支出が増加したと報告しています。 Aに関するグローバル調査私は2020年にマッキンゼーから来ました。これらの組織はAIを使用して価値を生み出しており、それはますます新しい収益の形でもたらされています。  

XNUMX人の専門家が、この成長の影響について、AIトレンドとのインタビューで話し合いました。 AIワールドエグゼクティブサミット:AIの未来、 事実上14年2021月XNUMX日に開催される予定です。  

デビッドブレイ、 博士号は、非営利団体の初代所長です アトランティックカウンシルジオテックセンター、およびイベントプログラムへの貢献者。 

アンソニー・スクリフィニャーノ  博士号は、上級副社長兼チーフデータサイエンティストです。 ダン&ブラッドストリート; 

 ジョアン・ロー、博士号は、のCEOです エリシアンラボ。 

AIワールドエグゼクティブサミットで何を強調したいですか? 

アトランティックカウンシルジオテックセンターの初代所長、デビッドブレイ博士

デイビッド: 「AIは、答えを求めるべき質問を特定するのに役立つときに最高の状態になります。 私たちは急速に変化する世界に住んでいますが、いくつかの点で、これらの変化の完全な範囲をまだ認識していません - 特にCOVID-19パンデミックの間。 尋ねるべき正しい質問を知ることは、私たちがより良い世界に向けて取り組むのに役立ちます。 AIは、企業、政府、社会としての私たちの運営方法にデジタルミラーを保持するのに役立ちます  -  自分たちのより良いバージョンになるように努力します。」  

彼は、AIシステムが偏った結果を生み出す場合、次のように述べています。 解決策の一部は、公開されるデータを変更することです。」  

ジョアン: 「探したいものがおおよそわかっている場合、AIは質問を絞り込んでそこにたどり着くのに役立ちます。 オートコンプリートのスマートバージョンのように考えてください。 しかし、文を完成させる代わりに、それはアイデア全体を完成させることです。」 

例として、明日ドライブに行きたいとデジタルアシスタントに伝えてください。 あなたが好きなもの、あなたの歴史、そしてあなたの年齢層を知っていると、それはあなたが明日ビーチに行くという提案とともに戻ってきます。 「それが何を意味するのかを自問する必要があります。 あなたの意思決定プロセスは機械とのコラボレーションですか? その上でマシンをどれだけ使用しても構わないと思いますか? いくらあきらめますか? 答えは非常に個人的で状況に依存します。」  

彼女は次のように付け加えています。「マシンに最適な休暇の場所を教えてもらいたいのですが、マシンに子供の名前を選ばせたくない場合があります。 または多分私はします。 それはあなた次第です。 決定は個人的なものです, whichは、あなたが尋ねるべき質問は、あなたがどれだけ諦めても構わないと思っているかということを意味します。 あなたの境界は何ですか?」  

また、AIに回答を求める質問は、Googleにとって十分に単純ではない質問である必要があります。 「Googleは、子供を学校、言語イマージョンプログラム、数学イマージョンプログラム、またはSTEM研究プログラムのどこに送るべきかという質問に答えることができないと確信しています。それはあなた次第です。" 

 

倫理的なAIの追求で学んだ教訓 

ティムニットゲブルと彼女の上司であるマーガレットミッチェル(Googleを利用しなくなったAI倫理学者)の経験から、これまでにどのような教訓を学びましたか? 

Anthony Scriffignano、PhD、Dun&Bradstreetの上級副社長兼チーフデータサイエンティスト

アンソニー: 「まあ、業界が何かをしようとして主導権を握らなければ、規制当局はそうするでしょう。 業界が規制当局とうまく連携する方法は、自己規制することです。 倫理は取り組むべき巨大な分野であり、多くの定義が必要です。  

「OECD [アンソニーがAIの専門家を務める経済協力開発機構]は、AIと倫理の原則に取り組んでいます。 世界中の専門家が本当にこれに傾倒しています。 誰もが作りたいほど簡単ではありません。 今日よりも簡単になることは決してないので、私たちはそれに傾倒するほうがよいでしょう。」 

Loの考えを反映して、彼は次のように述べています。 Outlookが会議に行くように指示すると、私は行きます。 問題は、どれだけ諦めても構わないと思っているかということです。 AIが私にとってより良い決定を下すことができる、または私を他のことをするために解放する、または私自身の悪い決定から私を守ることができると思うなら、私はそう言う傾向があります。」 しかし、彼が倫理と疎外について考えなければならない場合、それはより複雑になります。   

彼はさらに次のように付け加えました。「将来的には、コンピューターに何をすべきかを教えてもらうことはできなくなります。 私たちはそれを扱う必要があります。 AIは、私たちが取る可能性が高いアドバイスに収束します。」 

デイビッド: 認識 多くの場合、問題の本当の懸念やニュアンスは詳細にカバーされていません、 彼  ですが、 「私たちは双方が伝えたいことを聞いています。」 今後は、社外の専門家によるある程度の参加や監視を期待しています。 「一般の人々がデータやAIにある程度参加していると感じない場合、人々は自分の偏見で空間を埋め、その周りに偽情報が存在することになります。 これは、企業がオンブズマンのような一般の人々をどのように巻き込むかについて最初から積極的に考える必要があることを示しています。 しゃっくりが起こったときに「カーテンの後ろで何が起こっているのかわからない」ではないように、人々とAIを行う方法を見つける必要があります。   

彼は次のようにアドバイスしています。 彼らをやる気にさせるインセンティブは、さまざまな場所にあるかもしれません。 誰もが自分たちが正しいことをしていると思うなら、データとAIを追跡するための構造的ソリューションをどのように作成し、構造システムの偏りが少なくなるという確信を人々に与えますか? データの信頼に向けて取り組むのは良いことです。 最初のステップは、データを選択して管理できる代​​理店があるように感じる必要があるということです。」  

「組織のビジネスが、所有するデータの排他性を中心に構築されている場合、「人と」対「人へ」のAIを行う未来をナビゲートするのが難しくなる可能性があります。 会社が言うなら、カーテンの後ろの魔法使いに注意を払わないでください、それは信頼を生み出すのを難しくします。」  

彼は、ヨーロッパ諸国がデータプライバシーやAIを含む他のデジタルトピックについてより厳しい基準を検討していると述べました。 「ヨーロッパの取り組みは意図されたものであり、バランスを取る必要があります。」 彼に助言されたヘルスケアデータに関するプライバシー基準を定義するヨーロッパの取り組みは、10年から15年の訴訟で解決され、それがヘルスケアの革新を抑制または阻止する可能性があるかどうかについて疑問が投げかけられます。 同時に、「中国のモデルは、あなたのデータが政府に属しているというものであり、それは米国もヨーロッパも追求したい未来ではありません。」   

「信頼を生み出す運用の一般原則を見つける必要があります。XNUMXつの方法は、人間の陪審員がAI活動をレビューすることかもしれません。」 

 

必要なAIの過誤を確認する方法 

AIの不正行為をレビューするための「AI審査員」のアイデアについて:  

Joanne Lo、PhDは、ElysianLabsのCEOです。

ジョアン: 「私にとって最も重要な教訓[から 最近のGoogleの倫理経験から学べることは、政府と政策立案が技術開発に遅れをとっているということです。 数十年とまではいかなくても数年。 私は規制を通過させることについて話しているのではなく、その前の一歩についてです。それは、テクノロジーが社会、具体的にはアメリカの民主主義にどのように影響するか、そして政府がそれについて何を言わなければならないかを理解することです。 その点に到達すれば、政策について話すことができます。」   

彼女は詳しく説明し、次のように述べています。「政府は、私たちの社会にテクノロジーがどのようなものであるかについての決心に遅れをとっています。 政府の理解のこの遅れは、国家安全保障の問題に発展しました。 Facebookとすべてのソーシャルメディアプラットフォームが政府の介入なしに開発した方法で開発されたときに何が起こるかは、最終的には敵対する郡が民主主義の基盤そのものを利用して攻撃できるプラットフォームになることです。」   

「政府はそれについて何をするつもりですか? 政府は、これは大丈夫ではない、政府に介入してもらいたい、内部告発者を保護するためのより良い法律、そして倫理をサポートするためのより良い組織を望んでいると言うエンジニアに立ち向かうつもりですか? 政府は実際に何かをするつもりですか?」 

アンソニー: "それは面白い。 特定の原則に同意することができ、AIがそれらの原則に違反していないことを証明するために、AIを監査可能にする必要があります。 AIが偏っていると非難すれば、それを証明または反証できるはずです - 人種的偏見なのか確証バイアスなのか, または経済的に別のグループよりもXNUMXつのグループを支持します。 AIには偏りがなかったと結論付けるかもしれませんが、データには偏りがありました。」 

「これは非常に微妙な違いです。 それが12人のピアの審査員だった場合、「ピア」は重要です。 彼らは同様に指示され、同様に経験されなければならないでしょう。 本当の陪審員はすべての人生の歩みから来ています。」  

詳細については、 AIワールドエグゼクティブサミット:AIの未来、これらの議論や他の人が続くところ。 

コインスマート。 BesteBitcoin-ヨーロッパのBörse
出典:https://www.aitrends.com/ai-world/ai-world-executive-summit-important-to-ask-the-right-questions/

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?