ゼファーネットのロゴ

Googleが継続的な反発に直面しているため、DeepMindの科学者は倫理的なAIを求めています

日付:

あなたの企業はAI採用曲線のどこに立っていますか? 私たちを取る AI調査 見つけ出す。


Google DeepMind の研究科学者、Raia Hadsell 氏は、「責任ある AI はすべての人の仕事である」と信じています。それが今日のバーチャル講演会での彼女の持論だった プライドサミットをテックするレズビアンそこで彼女は、現在この分野を悩ませている問題と、AI が倫理的に開発および展開されるようにするために必要と感じている行動について詳しく掘り下げました。

「AI は今後数年間で私たちの世界を変えるでしょう。しかし、これは非常に強力なテクノロジーであるため、その利点に伴う固有のリスク、特に偏見、害、社会的不平等の拡大につながる可能性のあるリスクを認識する必要があります」と彼女は述べた。 「コミュニティとして団結して、責任を持って AI を構築できることを願っています。」

AI アプローチはアルゴリズム的で汎用的であるため、本質的に多目的に使用できます。一方では病気を治し黄金の未来を開くという約束があり、他方では非倫理的なアプローチや 危険な使用例 すでに害を及ぼしているもの。多くのことが懸かっており、これらのテクノロジーにどのようにアプローチするかが明確になることはほとんどありません。

ハドセル氏は、規制当局、弁護士、倫理学者、哲学者が重要な役割を果たしている一方で、研究者や科学者が責任ある AI を構築するために積極的に何ができるかに特に関心があると強調しました。彼女はまた、研究コミュニティ内で遭遇した抵抗の一部と、これまでに彼女が実現に貢献してきた変化についても詳しく説明しました。

データ、アルゴリズム、アプリケーション

AI を悩ませている問題はよく知られていますが、ハドセル氏は、データ、アルゴリズム、アプリケーションにおけるその根源について概要を説明しました。

たとえば、データは現代の AI の生命線であり、そのほとんどは以下に基づいています。 機械学習。ハドセル氏は、数百万、あるいは数十億の人間のデータポイントに基づいて構築されたこれらのデータセットを使用する能力は「まさにエンジニアリングの偉業」だが、そこには落とし穴があると述べた。社会 バイアス そして、不平等は多くの場合データにエンコードされており、データセットでトレーニングされた AI モデルによって悪化します。プライバシーと同意の問題もあり、「若い博士課程の学生の無責任な熱意によって、それが損なわれることが多すぎる」と彼女は語った。

ハドセル氏はまた、ディープフェイクの問題と、ディープフェイクの作成に使用されたのと同じアルゴリズムが天気予報にも使用されていると述べた。 「AI 研究コミュニティの多くは基礎研究に取り組んでいますが、それはその研究を実際に現実世界に展開することとは別世界のように見えるかもしれません」とハドセル氏は述べた。彼自身の研究は現在、ロボット工学とロボット工学の根本的な課題の解決に焦点を当てている。他の制御システム。

文化を変える

イベント中、ハドセル氏は、新しいアルゴリズムについて論文を書いた同僚と話したことを思い出した。研究の将来の影響について話し合うように求められたとき、同僚は、彼らは科学者であり倫理学者ではないため、「将来について推測することはできない」と答えた。

「ちょっと待ってください。あなたの論文では、あなたのアルゴリズムが癌を治療し、気候変動を緩和し、平和と繁栄の新時代をもたらす可能性があると主張しています。少し誇張しているかもしれないが、これは将来について推測できることを証明していると思う」とハドセル氏は語った。

このやりとりは一度限りではありませんでした。ハドセル氏は、多くの研究者は悪影響について議論したくないだけだと述べ、言葉を切り詰めず、「彼らは社会に対するAIの広範な影響に対する責任や説明責任を拒否する傾向がある」と付け加えた。彼女が信じている解決策は、 研究文化を変える 抑制と均衡を確保するため。

NeurIPS での計算

NeurIPS は世界最大かつ最も権威のある AI カンファレンスですが、過去 2020 年間で参加者と提出された論文の数が急激に増加したにもかかわらず、XNUMX 年以前は著者に倫理ガイドラインが提供されていませんでした。さらに、論文は厳格に評価されていました。倫理的な問題を考慮せずに技術的なメリットを評価すること。

そこで、ハドセル氏が、予想される 10,000 件の論文の審査プロセスを設計する任務を負った XNUMX 人のプログラム委員長のうちの XNUMX 人として招待されたとき、 昨年、彼女は2つの変化を始めました。 1 つは、物議を醸していると思われる論文について情報に基づいたフィードバックを提供する倫理アドバイザーを募集することでした。もう 1 つは、すべての著者に対し、自分の作品について広範な影響声明を提出することを要求することであり、その声明では、潜在的な将来のプラスおよびマイナスの影響、および考えられる緩和策について議論する必要があります。

この影響ステートメントの考え方は新しいものではありません。実際、医学や生物学などの他の科学分野では一般的な要件です。しかし、この変更はすべての人に受け入れられたわけではありません。ハドセルさんは「友達があまりできなかった」と言い、涙を流す場面もあったが、後に何人かの著者が連絡をくれて、貴重な経験であり、研究の新たな方向性を刺激したとさえ言った。彼女は、そのような声明を要求する会議も増加していると付け加えた。

「数千の論文に広範な影響に関する声明を追加するだけでは、責任ある AI に向けた文化を変えるには十分ではありません。それはほんの始まりにすぎません」とハドセル氏は語った。彼女はまた、これらのレビューが、それぞれの新しい技術革新のリスクとメリットを誠実に検討するのではなく、「チェックボックス形式の手続き」になる危険性があるとも指摘した。 「そのため、私たちは整合性を保ち、より広範な影響に関する記述から責任ある AI までをさらに構築する必要があります。」

散歩を歩く

ハドセルの講演が始まる前から、部屋には象がいました。を所有していた Google 権威あるディープマインド研究所 2014 年以来、倫理 AI に関して最高の実績はありません。この問題は、Google が XNUMX 月に発表して以来、特に注目を集めています。 ティムニト・ゲブルを解雇は最も有名なAI研究者の1人であり、同社のAI倫理チームの共同リーダーであり、同社の従業員数千人が「報復解雇」と呼んだものである。 Gebru 氏は、大規模な言語モデルを導入するリスクに関する研究の取り消しを拒否したため、電子メールで解雇されたと述べています。倫理チームのもう一人の共同リーダーであるマーガレット・ミッチェルも同様に解雇された。

ハドセル氏の講演が始まるとすぐに、参加者はこのテーマに関する質問をチャットに投下した。 「AI 倫理や、Google の AI アルゴリズム研究 (Timnit Gebru など) の悪影響について語る声が拒否されたら、どうやって説明責任と責任の文化を構築できるでしょうか?」ある参加者に尋ねた。別の者は、ハドセル氏が会社の別の部門で働いていることを認めたが、それでも解雇についての考えを尋ねた。

ハドセル氏は、すでに公開されているもの以外に追加の情報や洞察はないと述べた。彼女はさらにこう付け加えた。「私が言いたいのは、ディープマインドでは、コミュニティ内や社内での声や、私たちが書いて発行する出版物が私たちの多様性とすべてを表現できるようにすることに真剣に取り組んでいるということです」 DeepMind のさまざまな声。 Google のアルゴリズムに関係なく、誰もが AI の倫理とリスクについて話す機会を持つことが重要だと信じています。」

VentureBeatの

VentureBeatの使命は、技術的な意思決定者が革新的なテクノロジーと取引についての知識を習得するためのデジタルタウンスクエアになることです。 私たちのサイトは、あなたが組織を率いるときにあなたを導くためのデータ技術と戦略に関する重要な情報を提供します。 以下にアクセスして、コミュニティのメンバーになることをお勧めします。

  • あなたが興味を持っている主題に関する最新情報
  • ニュースレター
  • ゲート付きのソートリーダーコンテンツと、次のような貴重なイベントへの割引アクセス 変換2021: もっと詳しく知る
  • ネットワーク機能など

会員になる


PlatoAi。 Web3の再考。 増幅されたデータインテリジェンス。

アクセスするには、ここをクリックしてください。

出典: https://venturebeat.com/2021/06/22/deepmind-scientist-calls-for-ethical-ai-as-google-faces-oncoming-backlash/

スポット画像

最新のインテリジェンス

スポット画像