Facebook、Instagram、Tik Tok などのソーシャル メディア プラットフォームに自分の写真を投稿したことがありますか? もしそうなら、それらの投稿を再考する時かもしれません.
これは、新しい AI 画像生成技術により、ユーザーがあなたの写真やビデオ フレームを保存し、それを訓練して、あなたがまったく恥ずかしい位置、違法な位置、時には妥協する位置にある写真の「リアルな」偽物を作成できるようになったためです。
全員が危険にさらされているわけではありませんが、脅威は現実のものです。
写真は常に傾向がありますが 操作 フィルムをはさみで操作して貼り付けていた暗室の時代から、今日のピクセルのフォトショッピングまでの改ざん。
当時は困難な作業であり、ある程度の専門的なスキルが必要でしたが、最近では、説得力のある写真のようにリアルな偽物を作成するのが簡単になりすぎています。
まず、AI モデルは、ソフトウェアを介して 2D または 3D モデルから誰かの画像を写真にレンダリングまたは合成する方法を学習する必要があります。 画像が正常にレンダリングされると、画像は自然に技術者の遊び道具になり、無限の量の画像を生成する能力を持ちます。
AI モデルを共有することを選択すると、他の人も参加して、その人物の画像を作成し始めることができます。
ソーシャルメディアのケーススタディ
によって「勇敢」と評されたボランティア Ars Technicaの、最初は会社が彼の画像を使用して偽物を作成することを許可していた技術出版物は、心変わりしました。
これは、AI モデルからレンダリングされた画像の結果がすぐにあまりにも説得力があり、ボランティアの評判があまりにも悪くなったためです。
風評リスクが高いことを考えると、AI によって生成された架空の人物、ジョンが当然の選択となりました。
架空の男であるジョンは小学校の教師で、他の多くの人と同じように、仕事中、家でくつろいでいるとき、そのようなイベントで自分の画像を Facebook に投稿しています。
「ジョン」のほとんど不快感を与えない画像がレンダリングされ、それを使用して AI をトレーニングし、彼をより妥協的な位置に配置しました。
わずか XNUMX 枚の画像から AI を訓練して、あたかもジョンが二重の秘密の生活を送っているかのように見せる画像を生成することができます。 たとえば、彼は教室でセルフィーのためにヌードポーズを楽しんでいる人物として登場しました.
夜はピエロの格好をしたバーに行った。
週末には、彼は過激派の準軍事組織の一員でした。
AI はまた、彼が違法薬物の罪で刑務所に入れられたが、雇用主にはこの事実を隠していたという印象を与えました。
別の写真では、結婚しているジョンが、オフィスで妻ではない裸の女性の横でポーズをとっているのが見られます。
と呼ばれる AI 画像ジェネレーターを使用して 安定拡散 (バージョン 1.5) と Dreambooth と呼ばれる技術により、Ars Technica は AI をトレーニングして、ジョンの写真をあらゆるスタイルで生成することができました。 ジョンは架空の人物ですが、理論的には誰でも XNUMX つ以上の画像から同じ結果を得ることができます。 これらの画像は、ソーシャル メディアのアカウントから抽出したり、動画から静止画として取得したりできます。
ジョンの画像を作成する方法を AI に教えるプロセスは約 XNUMX 時間かかり、Google クラウド コンピューティング サービスのおかげで無料でした。
トレーニングが完了すると、画像の作成に数時間かかった、と出版物は述べています。 これは、画像の生成がやや遅いプロセスだったからではなく、多数の「不完全な画像」をくまなく調べ、「試行錯誤」のようなプロンプトを使用して最適な画像を見つける必要があったためです。
この研究では、Photoshop でゼロから「ジョン」の写真のようにリアルな偽物を作成しようとするよりも、はるかに簡単であることがわかりました。
テクノロジーのおかげで、ジョンのような人々は、違法行為を行ったかのように見せかけられたり、家を壊したり、違法薬物を使用したり、学生と裸でシャワーを浴びたりするなどの不道徳な行為を行ったように見せることができます。 AI モデルがポルノ用に最適化されていれば、ジョンのような人々はほぼ一夜にしてポルノスターになることができます。
飲酒を約束したときにバーで飲んでいるのが示されている場合、ジョンが一見無害なことをしているというイメージを作成することもできます。
それだけではありません。
人は、中世の騎士や宇宙飛行士として、より明るい瞬間に現れることもあります. 場合によっては、人々は老いも若きも、またはドレスアップさえすることができます.
ただし、レンダリングされた 画像 完璧には程遠いです。 よく見ると、偽物であることがわかります。
欠点は、これらの画像を作成する技術が大幅にアップグレードされ、合成された写真と実際の写真を区別できなくなる可能性があることです。
しかし、それらの欠陥にもかかわらず、偽物はジョンに疑いの影を落とし、彼の評判を損なう可能性があります.
最近では、多くの人がこれと同じ手法を (実在の人物に対して) 使用して、風変わりで芸術的な自分のプロフィール写真を作成しています。
また、商用サービスやアプリなど レンサ トレーニングを処理するマッシュルームがあります。
システムを教えてください。
トレンドを追っていない人にとって、ジョンの作品は注目に値するものに見えるかもしれません。 今日、ソフトウェア エンジニアは、想像できるあらゆるものの新しい写実的なイメージを作成する方法を知っています。
写真とは別に、AI は物議を醸すように、人々が既存のアーティストの作品を複製した新しいアートワークを許可なく作成することを可能にしました。
倫理上の懸念により中止
米国の技術弁護士であるミッチ・ジャクソン氏は、ディープフェイク技術が市場に蔓延していることに懸念を表明し、2023年のほとんどで技術の法的影響を研究する予定である.
「本物と偽物を区別することは、ほとんどの消費者にとって最終的には不可能になります。」
アドビは、Adobe VoCo と呼ばれるオーディオ技術をすでに開発しており、誰でも別の誰かとまったく同じように聞こえるようにします。 Adobe VoCo での作業は倫理的な懸念から中断されましたが、他の多くの企業がこの技術を完成させており、現在いくつかの代替案を提供しています. 自分で見て、聞いてください」ミッチャム と.
ディープ フェイク ビデオの写真とビデオ バージョンは、ますます良くなっている、と彼は言います。
「時には、偽のビデオと本物のビデオを見分けることが不可能な場合もあります」と彼は付け加えます。
Stable Diffusion は、ディープ ラーニングの画像合成モデルを使用します。このモデルは、テキストの説明から新しい画像を作成でき、Windows または Linux PC、Mac、またはレンタル コンピューター ハードウェアのクラウドで実行できます。
Stable Diffusion のニューラル ネットワークは、画像内のピクセルの位置間の一般的な統計的関連付けと、単語を関連付けるために習得された集中学習の助けを借りています。
このため、Stable Diffusion に「教室にいるトム ハンクス」などのプロンプトを表示すると、教室にいるトム ハンクスの新しいイメージがユーザーに表示されます。
トム ハンクの場合、Stable Diffusion のトレーニングに使用されるデータ セットに彼の何百枚もの写真が既に含まれているため、公園を散歩することになります。 しかし、ジョンのような人物の画像を作成するには、AI に少しの助けが必要です。
それがDreamboothがキックするところです。
Google の研究者によって 30 月 XNUMX 日に開始された Dreambooth は、特別な技術を使用して、「微調整」と呼ばれるプロセスを通じて Stable Diffusion をトレーニングします。
当初、Dreambooth は Stable Diffusion とは関係がなく、Google は悪用を恐れてそのソース コードを公開していませんでした。
すぐに誰かが Dreambooth の手法を Stable Diffusion で使用できるようにする方法を見つけ、そのコードをオープン ソース プロジェクトとして自由にリリースしたため、Dreambooth は AI アーティストが Stable Diffusion に新しい芸術的スタイルを教える方法として非常に人気のあるものになりました。
世界的な影響
世界中で推定 4 億人がソーシャル メディアを使用しています。 私たちの多くは自分の写真を数枚以上アップロードしているため、このような攻撃に対して脆弱になる可能性があります。
画像合成技術の影響は男性の視点で描かれてきましたが、女性もその影響を受けやすい傾向があります。
女性の顔や体がレンダリングされると、彼女の身元がいたずらにポルノ画像に挿入される可能性があります。
これは、AI トレーニングで使用されるデータ セットで見つかった膨大な数の性的な画像によって可能になりました。
言い換えれば、これは、AI がこれらのポルノ画像を生成する方法に精通していることを意味します。
これらの倫理的問題のいくつかに対処するために、Stability AI は最新の 2.0 リリースのトレーニング データ セットから NSFW の資料を削除することを余儀なくされました。
そのソフトウェア ライセンスは、人々が AI ジェネレーターを使用して許可なく人物の画像を作成することを禁じていますが、施行される可能性はほとんどまたはまったくありません。
また、子供たちは合成画像から安全ではなく、画像が操作されていない場合でも、この技術を使用していじめられる可能性があります.
私たちにできることはありますか?
やるべきことのリストは人によって異なります。 XNUMX つの方法は、イメージをオフラインですべて削除するという抜本的な措置を講じることです。
それは普通の人にはうまくいくかもしれませんが、有名人やその他の公人にとってはあまり解決策ではありません.
しかし、将来的には、技術的な手段によって写真の乱用から身を守れるようになるかもしれません。 将来の AI 画像ジェネレーターは、目に見えない透かしを出力に埋め込むことを法的に強制される可能性があります。
そうすれば、透かしを後で読むことができ、人々が偽物であることを簡単に知ることができます.
「幅広い規制が必要です。 操作されたコンテンツや偽のコンテンツは、映画と同様に目立つように文字や警告を表示する必要があります (G、PG、R、および X)。 たぶん、デジタルオルタードやDAのようなもの、 ミッチャムは言います。
Stability AI は今年、Stable Diffusion をオープンソース プロジェクトとして立ち上げました。
名誉なことに、Stable Diffusion はすでにデフォルトで埋め込まれた透かしを使用していますが、そのオープン ソース バージョンにアクセスする人々は、ソフトウェアの透かしコンポーネントを無効にするか、完全に削除することで回避する傾向があります。
軽減するMIT
これは完全に憶測にすぎませんが、個人の写真に自発的に追加された透かしは、Dreambooth のトレーニング プロセスを混乱させる可能性があります。 MITの研究者グループは次のように述べています。 フォトガード、目に見えない透かし方法を使用して小さな変更を加えることで、AIが既存の写真を合成するのを防ぎ、保護することを目的とした敵対的なプロセス。 ただし、これは AI 編集 (「修復」と呼ばれることが多い) のユースケースに限定されており、トレーニングや画像の生成が含まれます。
「文章も絵もAIが代行! ディープ フェイクはビデオを台無しにします。
良い。
それは、ライブパフォーマンスがより価値のあるものになることを意味します。 トレードショーは盛んになります。 人間は人間とビジネスをしたいのです。
ミートスペースは今でも最高のスペースです ジョナサン・ピッチャード と言います。
最近では、書き込みを行う AI テクノロジが急増しています。 詩、韻と歌。 そして、いくつかは マスタリング ゲーム。
批評家は技術の進歩を否定的に受け止めており、AI が人間の仕事を奪っていると信じています。
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- Platoblockchain。 Web3メタバースインテリジェンス。 知識の増幅。 こちらからアクセスしてください。
- 情報源: https://metanews.com/cartel-like-control-of-news-could-lead-to-partisan-media-coverage/?utm_source=rss&utm_medium=rss&utm_campaign=cartel-like-control-of-news-could-lead-to-partisan-media-coverage