ゼファーネットのロゴ

このAIが髪のバサバサを防ぎます

日付:

Louis BouchardHacker正午のプロフィール写真

@なにがルイ・ブシャール

人工知能の用語とニュースを専門家以外の人に説明します。

これはヘアスタイリストが切望してきた技術革新でしょうか? 私たちの大多数は、XNUMXつかXNUMXつの悪いヘアカットをしたと確信しています。 しかし、うまくいけば、このAIを使用すると、新しいヘアカットが二度とどのように見えるかを推測する必要がなくなります。

この AI は、新しいヘアスタイルや色をポートレートに転送して、変更をコミットする前にどのように見えるかを確認できます。 詳細については、以下をご覧ください。

ビデオを見る

参照:

►記事全文: https://www.louisbouchard.ai/barbershop/

►PeihaoZhuetal。、(2021)、理髪店、 https://arxiv.org/pdf/2106.01505.pdf

►プロジェクトリンク: https://zpdesu.github.io/Barbershop/

►コード: https://github.com/ZPdesu/Barbershop

ビデオトランスクリプト

00:00

この記事は、それ自体が新しいテクノロジーに関するものではありません。

00:03

代わりに、GANの新しくエキサイティングなアプリケーションについてです。

00:06

確かに、あなたはタイトルを見ました、そしてそれはクリックベイトではありませんでした。

00:10

この AI は、あなたの髪を転送して、コミットする前にどのように見えるかを確認できます。

00:15

変更します。

00:16

たとえあなたが望むとしてもあなたの髪型を変えるのは難しいかもしれないことを私たちは皆知っています。

00:19

まあ、少なくとも私にとっては、私は何年も同じヘアカットに慣れていて、美容師に言っています

00:24

「前回と同じ」 3 ~ 4 か月ごとに変更したくても

00:29

私はそれが奇妙で珍しいように見えるのではないかと恐れて、コミットすることができません。

00:33

もちろん、これはすべて私たちの頭の中にあります。私たちだけがヘアカットを気にかけているからですが、

00:38

このツールは、私たちの一部にとって真のゲームチェンジャーになる可能性があり、

00:43

それが私たちにどのように見えるかについて素晴らしい洞察を持っているそのような変化にコミットしないでください。

00:48

それにもかかわらず、推測する前に将来見ることができるこれらの瞬間はまれです。

00:53

完全に正確でなくても、このように優れた近似値が得られるのはかなりクールです。

00:57

新しいヘアカットのようなものがどのように見えるかについて、ストレスの一部を軽減します

01:02

エキサイティングな部分を保ちながら、何か新しいことに挑戦することです。

01:06

もちろん、ヘアカットは、より便利なアプリケーションと比較して非常に表面的なものです。

01:10

それでも、それはかなりクールなAIを使用した「未来を見る」ための一歩です。

01:17

確かに、この新しい技術は、たとえそれがただであっても、私たちが未来を予測することを可能にします

01:22

私たちの散髪の未来。

01:24

しかし、それがどのように機能するかを説明する前に、あなたがこれについてどう思うか知りたいです。

01:28

その他の分野:AIを使用して「調査する」ために他にどのようなアプリケーションを希望しますか

01:34

未来"?

01:38

それはあなたの髪のスタイルだけでなく、複数の画像の例からの色も変えることができます。

01:44

基本的に、アルゴリズムには次のXNUMXつのことを与えることができます。

01:47

あなた自身の写真あなたの髪型を持つ誰かの写真

01:51

髪の別の写真(または同じ写真)が欲しい

01:55

試してみたい色で、自分のすべてをリアルに融合させます。

01:59

結果は非常に印象的です。

02:02

私の芸術的判断に基づいて完全に理解できるように、あなたが私の判断を信頼しない場合、

02:06

スキル レベルに加えて、396 人の参加者を対象にユーザー調査も実施しました。

02:12

彼らの解決策は95%の確率で好まれました!

02:17

もちろん、この研究の詳細については、以下の参考文献を参照してください。

02:21

信じられないようです。

02:22

お察しのとおり、ここでは顔で遊んでいるので、非常によく似たプロセスを使用しています。

02:27

私がカバーした過去の論文のように、顔を漫画や他のスタイルに変えます

02:33

すべてGANを使用しています。

02:34

非常に似ているので、私が方法を説明した他のビデオを見てみましょう

02:39

GANは詳細に機能します。ここでは、この方法の新機能とその理由に焦点を当てます。

02:45

非常にうまく。

02:46

GANアーキテクチャは、画像の特定の機能やスタイルを転置することを学ぶことができます

02:52

別。

02:53

問題は、照明の違いやオクルージョンのために、非現実的に見えることが多いことです。

02:58

両方の写真で異なる頭の位置がある場合もあれば、単に頭の位置が異なる場合もあります。

03:04

これらの細部のすべてがこの問題を非常に困難にし、

03:09

生成された画像。

03:10

この問題をよりよく視覚化するための簡単な例を次に示します。

03:11

暗い部屋で撮った写真から、日光の下で外に出してみてください。

03:12

それがあなたの頭の上で完全に移調されたとしても、それはまだ奇妙に見えます。

03:13

通常、GANを使用するこれらの他の手法は、画像の情報をエンコードしようとします。

03:15

このエンコーディングで髪の属性に関連付けられている領域を明示的に識別します

03:21

それらを切り替えるには。

03:22

XNUMX つの写真を同じような条件で撮影するとうまくいきますが、実際には見えません。

03:27

ほとんどの場合、私が今述べた理由のためです。

03:30

次に、別のネットワークを使用して、再照明、穴、その他の奇妙なアーティファクトを修正する必要がありました。

03:36

併合が原因。

03:38

したがって、ここでの目標は、特定の写真の髪型と色をあなたの髪型に置き換えることでした

03:43

あなたの写真の照明と特性に従うように結果を変更しながら自分の写真

03:49

説得力があり現実的なものにするために、手順とエラーの原因を減らします。

03:55

この最後の段落が不明確な場合は、最後のビデオを見ることを強くお勧めします

03:56

この記事は、理解しやすい視覚的な例が他にもあるためです。

03:57

それを達成するために、Peihao Zhu et al. 欠落しているが必須のアライメント ステップを GAN に追加しました。

04:01

実際、単に画像をエンコードしてマージするのではなく、エンコードをわずかに変更します

04:07

異なるセグメンテーションマスクに従って、XNUMXつの画像からの潜在的なコードをさらに作成します

04:12

類似した。

04:13

前述のように、彼らは髪の構造とスタイルまたは外観を編集できます。

04:18

ここでの構造は、もちろん、髪の形状であり、巻き毛、波状、

04:24

またはストレート。

04:25

私の他のビデオを見たことがあれば、GANがを使用して情報をエンコードすることをすでに知っています

04:30

畳み込み。

04:31

これは、カーネルを使用して各層の情報を縮小し、より小さくすることを意味します。

04:37

より小さく、したがって、より多くの価値を与えながら、空間の詳細を繰り返し削除します

04:43

結果の出力に対する一般的な情報。

04:46

この構造情報は、いつものように、GANの初期の層から取得されます。

04:52

したがって、エンコードが一般的になりすぎて、空間を表現するにはエンコードが多すぎる前に

04:58

機能。

04:59

外観とは、髪の色、質感、照明など、深くエンコードされた情報を指します。

05:05

さまざまな画像から情報がどこから取得されているかはわかっていますが、今ではどのようにしていますか

05:10

この情報をマージして、以前のアプローチよりも現実的に見えるようにしますか?

05:15

これは、画像のセグメンテーションマップを使用して行われます。

05:18

より正確には、私たちの整列バージョンに基づいて、この必要な新しい画像を生成します

05:24

ターゲットと参照画像。

05:26

参照画像は私たち自身の画像であり、ターゲット画像は私たちが望む髪型です

05:31

が適用されます。

05:32

これらのセグメンテーション マップは、画像に何が含まれているか、どこにあるのか、髪、肌、目、などを教えてくれます。

05:38

鼻など

05:40

さまざまな画像からのこの情報を使用して、彼らは次のように頭を揃えることができます

05:44

を使用してエンコードするために画像をネットワークに送信する前のターゲット画像構造

05:49

変更されたStyleGAN2ベースのアーキテクチャ。

05:52

すでに何度も取り上げたもの。

05:55

この配置により、エンコードされた情報をはるかに簡単に比較および再構築できます。

06:00

次に、外観と照明の問題について、適切な混合物を見つけます

06:05

同じのターゲット画像と参照画像からのこれらの外観エンコーディングの比率

06:11

セグメント化された領域により、可能な限りリアルに見えます。

06:15

左の列に配置を配置しない場合の結果は次のようになります。

06:19

右側のアプローチ。

06:21

もちろん、このプロセスはもう少し複雑であり、すべての詳細は論文に記載されています

06:26

参考文献にリンクされています。

06:27

ほとんどのGAN実装と同様に、それらのアーキテクチャをトレーニングする必要があることに注意してください。

06:32

ここでは、FFHQデータセットでトレーニングされたStyleGAN2ベースのネットワークを使用しました。

06:38

次に、先ほど説明したように、多くの変更を加えたため、XNUMX番目のトレーニングを行いました。

06:42

髪型の転送として2ペアの画像を使用して、変更されたStleGAN198ネットワークの時間を計測します

06:50

外観混合比とモデルの決定を最適化する例

06:55

構造エンコーディング。

06:57

また、ご想像のとおり、これらのような欠陥がまだいくつかあります。

07:02

アプローチは、セグメンテーション マスクの位置合わせまたは顔の再構築に失敗します。それでも、結果は

07:08

非常に印象的であり、彼らが公然と制限を共有していることは素晴らしいことです。

07:13

彼らが論文で述べているように、彼らのメソッドのソースコードは後に公開されます

07:18

論文の最終的な出版。

07:21

公式のGitHubリポジトリへのリンクは、以下の参照にあります。

07:25

まもなくリリースされます。

07:27

ご清覧ありがとうございました!

タグ

ハッカー正午に参加

無料のアカウントを作成して、カスタムの読書体験のロックを解除します。

コインスマート。 BesteBitcoin-ヨーロッパのBörse
ソース:https://hackernoon.com/this-ai-prevents-bad-hair-days-uu6c37ei?source = rss

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?