ゼファーネットのロゴ

生成型人工知能の新たな倫理的意味 – KDnuggets

日付:

高度な AI 環境の進歩の速度は、ものすごい速さです。 しかし、それに伴うリスクも同様です。

専門家にとってリスクを予見することが困難な状況となっている。

ほとんどのリーダーはますます優先順位を付けていますが、 今後数か月にわたる GenAI アプリケーションまた、データ セキュリティへの懸念や偏った結果など、それに伴うリスクにも懐疑的です。

マーク・サズマンビル&メリンダ・ゲイツ財団の最高経営責任者(CEO)は、「このテクノロジーは科学の進歩を加速し、学習成果を高める画期的な進歩をもたらす可能性があるが、この機会にはリスクがないわけではない」と考えている。

 

生成型人工知能の新たな倫理的意味
著者による画像

データから始めましょう

これを考えてみましょう – 有名な生成 AI モデル作成者は次のように述べています。 個人情報を収集します ビジネス目的で必要な場合には、名前、電子メールアドレス、支払い情報など。」

最近、指針となるフレームワークがないとうまくいかない可能性が複数あることが明らかになりました。 

  • イタリアは懸念を表明 ユーザーから個人データを不法に収集していることについて、「法的根拠がない プラットフォームの動作の基礎となるアルゴリズムを「トレーニング」するための個人データの大量収集と保存を正当化するためです。」
  • 日本の個人情報保護委員会も 警告を出した 機械学習モデルをトレーニングするための最小限のデータ収集。
  • 業界のリーダー HBR データセキュリティ上の懸念と偏った結果をエコーする

生成 AI モデルはインターネットのほぼすべてからのデータでトレーニングされるため、私たちはそれらのニューラル ネットワーク層に隠された部分にすぎません。 これは、データプライバシー規制を遵守し、同意なしにユーザーのデータに基づいてモデルをトレーニングしない必要性を強調しています。

最近、ある企業がインターネットから自撮り写真を収集して顔認識ツールを構築したとして罰金を科され、プライバシー侵害と高額の罰金につながりました。

 

生成型人工知能の新たな倫理的意味
情報源: TechCrunchの
 

ただし、データ セキュリティ、プライバシー、バイアスはすべて、AI 生成以前の時代から存在していました。 では、Generative AI アプリケーションの登場で何が変わったのでしょうか?

そうですね、モデルのトレーニングとデプロイの規模を考慮すると、既存のリスクの一部はより危険になるだけです。 その方法を理解しましょう。

幻覚、即時注射、透明感の欠如

このような巨大なモデルの内部動作を理解し、その応答を信頼することがますます重要になっています。 Microsoft の言葉によれば、これらの新たなリスクは、LLM が「事実の正確さに固執するのではなく、一貫性があり文脈的に適切であるように見えるテキストを生成するように設計されている」ためです。 

その結果、モデルは、一般的に幻覚と呼ばれる、誤解を招く不正確な応答を生成する可能性があります。 これらはモデルの予測に自信がない場合に発生し、精度の低い情報や無関係な情報が生成される可能性があります。

さらに、プロンプトとは、言語モデルと対話する方法です。 現在、悪意のある者がプロンプトを挿入することで有害なコンテンツを生成する可能性があります。 

AIが失敗したときの責任は?

LLM を使用すると、すべての AI モデルに共通することですが、これらのモデルによって生成された出力と偏った出力に対する説明責任と責任について倫理的な問題が生じます。

医療分野などの高リスクのアプリケーションではリスクがさらに悪化します。誤った医療アドバイスが患者の健康と生命に及ぼす影響を考えてください。

肝心なのは、組織は生成 AI を開発および使用するための倫理的、透明性のある、責任ある方法を構築する必要があるということです。

生成 AI を適切に実現するのは誰の責任なのかについて詳しく知りたい場合は、読むことを検討してください。 この記事 これは、私たち全員がコミュニティとして団結して機能させる方法を説明しています。

著作権侵害

これらの大規模なモデルは世界中の素材に基づいて構築されているため、音楽、ビデオ、書籍などの創作物を消費した可能性が高くなります。

著作権で保護されたデータが必要な情報を取得せずに AI モデルのトレーニングに使用された場合 許可、クレジット、または補償 オリジナルの作成者にとって、それは著作権侵害につながり、開発者が深刻な法的問題に陥る可能性があります。

 

生成型人工知能の新たな倫理的意味
Image from 検索エンジンジャーナル

ディープフェイク、誤報、操作

大規模な騒動を引き起こす可能性が高いのはディープフェイクです。ディープフェイクの機能が私たちをどのような危険に陥らせるのか疑問に思いませんか?

これらは、テキスト、画像、ビデオなどの合成創作物であり、 顔の外観をデジタル的に操作する 深い生成手法を通じて。

結果? いじめ、誤報、デマ電話、復讐、詐欺など、豊かな世界の定義に当てはまらないもの。

この投稿は、AI が諸刃の剣であることをすべての人に認識してもらうことを目的としています。重要な取り組みにのみ機能する魔法がすべてではありません。 悪役もその一部です。

そこは私たちが警戒を強める必要があるところです。

政治的著名人の一人が次期選挙から撤退することを強調した偽ビデオの最新ニュースを考えてみましょう。

動機は何でしょうか? - あなたが考えるかもしれません。 まあ、そのような誤った情報はあっという間に火のように広がり、 選挙プロセスの方向性に重大な影響を与える.

では、このような偽情報の餌食にならないようにするにはどうすればよいでしょうか?

さまざまな防御線がありますが、最も基本的なものから始めましょう。

  • 自分の周りにあるものすべてに懐疑的で疑ってください
  • すべてを額面通りに受け取るのではなく、「それは真実ではないかもしれない」というデフォルトモードを変えてください。 要するに、自分の周りのすべてを疑ってください。
  • 複数のソースからの疑わしい可能性のあるデジタル コンテンツを確認する

ヨシュア・ベンジオ氏、スチュアート・ラッセル氏、イーロン・マスク氏、スティーブ・ウォズニアック氏、ユヴァル・ノア・ハラリ氏などの著名なAI研究者や業界専門家も懸念を表明し、そのようなAIシステムの開発を一時停止するよう求めている。 

生成 AI の優れた能力に匹敵する高度な AI の構築競争が急速に悪化し、制御不能になる可能性があるという大きな懸念が差し迫っています。 

Microsoft は最近、自社の AI 製品の購入者が、ガードレールとコンテンツ フィルターに準拠している限り、著作権侵害の影響から保護すると発表しました。 これは大きな安心であり、製品の使用による影響に対して責任を負うという正しい意図を示しています。これは倫理的枠組みの中核原則の XNUMX つです。

これにより、作者が自分の権利を管理し、創作物に対して公正な報酬を受け取ることが保証されます。

正しい方向への素晴らしい進歩です! 著者の懸念をどれだけ解消できるかが鍵となる。 

ここまで、テクノロジーを正しくするための重要な倫理的影響について説明してきました。 しかし、このテクノロジーの進歩をうまく活用することで生じるのは、離職のリスクです。

私たちの仕事のほとんどが AI に取って代わられるのではないかという不安を植え付ける感情があります。 マッキンゼーは最近、仕事の未来がどうなるかについてのレポートを共有しました。 

このトピックは、仕事に対する考え方の構造的な変化を必要とするため、別の投稿に値します。 それでは、次の投稿をお楽しみに。仕事の未来と、GenAI 時代を生き延びて成功するのに役立つスキルについて説明します。
 
 

ヴィディ・チュー スケーラブルな機械学習システムを構築するために、製品、科学、エンジニアリングの交差点で働く AI ストラテジストであり、デジタル トランスフォーメーションのリーダーです。 彼女は受賞歴のあるイノベーション リーダーであり、作家であり、国際的な講演者でもあります。 彼女は、機械学習を民主化し、誰もがこの変革に参加できるよう専門用語を打ち破ることを使命としています。

スポット画像

最新のインテリジェンス

スポット画像