ゼファーネットのロゴ

ベンダーが顧客データを使用して AI をトレーニングすることは企業リスクです

日付:

Zoom は最近、顧客データを使用して機械学習モデルをトレーニングする計画を立てたことで批判を受けました。 しかし現実には、このビデオ会議会社が同様の計画を立てるのは最初ではないし、最後でもない。

企業、特に社内で使用する AI ツールの統合に忙しい企業は、これらの潜在的な計画を、可能であれば新しいプロセス、監視、テクノロジー制御によって積極的に対処する必要がある新たな課題として捉える必要があります。

放棄された AI 計画

Zoomは今年初めに利用規約を変更し、自社のAIと機械学習モデルをトレーニングするために少なくとも一部の顧客コンテンツを使用する権利を自社に与えた。 XNUMX月上旬には、 会社はその変更を放棄した 音声、ビデオ、チャット、その他のコミュニケーションがこのように使用されることを懸念する一部の顧客からの反発を受けて。

この事件は、今のところハッピーエンドではあるものの、企業は、急速に台頭する AI 時代においてテクノロジーベンダーやその他のサードパーティが自社のデータをどのように利用するかについて、より細心の注意を払う必要があることを思い出させます。

Symmetry Systems のデータ セキュリティ担当チーフ エバンジェリストであるクロード マンディ氏は、「大きな間違いの XNUMX つは、テクノロジー企業が AI トレーニングのために収集するデータと、企業がサービスの使用に関して収集するデータとがそれほど変わらないと考えることです」と述べています。 「テクノロジー企業は、顧客のサービス利用に関するデータを長い間使用してきました」とマンディ氏は言います。 「ただし、これは通常、サービスによって生成または保存されるコンテンツやデータではなく、使用状況に関するメタデータに限定されています。」 本質的には、どちらも顧客データを必要としますが、データには大きな違いがあります。 顧客とデータ of 顧客です、と彼は言います。

明確な違い

この違いは、大手テクノロジー企業と消費者が関わるいくつかの訴訟ですでに注目を集めている。 そのうちの XNUMX つは、Google を何百万人もの消費者層と戦わせます。 サンフランシスコでXNUMX月に起こされた訴訟では、Googleが次のように非難されている。 公開データのスクレイピング 個人情報や職業情報、クリエイティブな作品や著作物、写真、電子メールなどをインターネット上で公開し、Bard 生成 AI テクノロジーのトレーニングにそれらを使用します。 「FTCの言葉を借りれば、ハイテク業界全体が『同じことをしようと全力で取り組んでいる』、つまり見つけられる限り多くのデータを吸い上げようとしている」と訴訟では主張されている。

別の集団訴訟 マイクロソフトを非難 ChatGPT や Dall.E や Vall.E などの他の AI ツールをトレーニングするためにまったく同じことを行うことになります。 XNUMX月にはコメディアンのサラ・シルバーマンとXNUMX人の作家が メタとマイクロソフトを告発 AI トレーニングを目的として、著作権で保護された素材を同意なく使用する行為。

訴訟には消費者も関与しているが、組織にとって重要なのは、テクノロジー企業が自社のデータに対して可能な限り同じことをしないようにする必要があるということだ。

「ユーザーエクスペリエンスを向上させるために顧客データを使用することと、AIのトレーニングに使用することは同等ではありません。 これはリンゴとオレンジだ」と Qrypt の共同創設者で米国諜報コミュニティの元メンバーであるデニス・マンディッチは警告する。 「AI には、個人や企業を危険にさらす個別の予測機能があるという追加のリスクがあります」と彼は指摘します。

例として、彼は、サードパーティの通信プラットフォームでビデオおよびファイル転送サービスを使用するスタートアップを挙げています。 このデータに基づいてトレーニングされた ChatGPT のような生成 AI ツールは、そのスタートアップの競合企業にとって優れた情報源になる可能性があるとマンディッチ氏は言います。 「ここでの問題はコンテンツに関するものであり、ビデオ/オーディオ品質、GUI などのユーザー エクスペリエンスではありません。」

監督とデューデリジェンス

もちろん大きな問題は、機密データが AI モデルの一部として扱われるリスクを軽減するために組織が具体的に何をできるかということです。

DoControl の共同創設者兼最高リスク責任者であるオムリ・ワインバーグ氏は、民間導入されていないすべての AI トレーニングおよび生成 AI 機能をオプトアウトすることが出発点になるだろうと述べています。 「この予防措置は、データの使用目的と潜在的なリスクを包括的に理解していない場合に、データの外部暴露を防ぐために重要です。」

Language I/O の CEO 兼創設者である Heather Shoemaker 氏は、企業データとその使用方法に関するテクノロジー ベンダーの利用規約に曖昧さがないかも確認してくださいと述べています。 「倫理的なデータの使用は、政策の透明性とインフォームドコンセントにかかっています」と彼女は指摘します。

さらに、AI ツールはトレーニングでの使用以外にも顧客情報を保存できるため、サイバー攻撃やデータ侵害の場合にデータが脆弱になる可能性があります。」

マンディッチ氏は、企業はテクノロジープロバイダーに対し、可能な限りエンドツーエンドの暗号化を使用するよう求めると主張している。 「第三者がデータマイニングに必要であり、会社が故意に許可することに同意した場合を除き、第三者によるアクセスを危険にさらす必要はありません」と彼は言います。 「これはEULAに明示的に詳述され、クライアントが要求する必要があります。」 理想は、すべての暗号化キーをプロバイダーではなく企業が発行、管理することだ、と同氏は言う。

スポット画像

最新のインテリジェンス

スポット画像