Zephyrnet-logo

Deze AI voorkomt slechte haardagen

Datum:

Louis Bouchard Hacker Noon profielfoto

@wat zeg ikLouis Bouchard

Ik leg termen en nieuws over kunstmatige intelligentie uit aan niet-experts.

Zou dit de technologische innovatie kunnen zijn waar kappers naar op zoek waren? Ik weet zeker dat de meesten van ons wel eens een of twee slechte kapsels hebben gehad. Maar hopelijk hoef je met deze AI nooit meer te raden hoe een nieuw kapsel eruit zal zien.

Deze AI kan een nieuw kapsel en/of kleur overbrengen naar een portret om te zien hoe het eruit zou zien voordat de verandering wordt doorgevoerd. Lees er hieronder meer over!

Bekijk de video

Referenties:

►Het volledige artikel: https://www.louisbouchard.ai/barbershop/

►Peihao Zhu et al., (2021), Kapperszaak, https://arxiv.org/pdf/2106.01505.pdf

►Projectlink: https://zpdesu.github.io/Barbershop/

►Code: https://github.com/ZPdesu/Barbershop

Videotranscript

00:00

Dit artikel gaat niet over een nieuwe technologie op zich.

00:03

In plaats daarvan gaat het om een ​​nieuwe en opwindende toepassing van GAN's.

00:06

Inderdaad, je zag de titel, en het was geen clickbait.

00:10

Deze AI kan je haar overbrengen om te zien hoe het eruit zou zien voordat je je aan de

00:15

veranderen.

00:16

We weten allemaal dat het moeilijk kan zijn om je kapsel te veranderen, zelfs als je dat zou willen.

00:19

Nou ja, in ieder geval voor mezelf, ik ben jarenlang hetzelfde kapsel gewend, zeg ik tegen mijn kapper

00:24

"hetzelfde als de vorige keer" elke 3 of 4 maanden, zelfs als ik een verandering zou willen.

00:29

Ik kan me gewoon niet binden, bang dat het er raar en ongewoon uit zou zien.

00:33

Natuurlijk, dit alles in ons hoofd, want wij zijn de enigen die om ons kapsel geven, maar

00:38

deze tool kan voor sommigen van ons een echte game-changer zijn, en ons helpen beslissen of

00:43

om ons niet te binden aan zo'n verandering met geweldige inzichten over hoe het op ons zal lijken.

00:48

Desalniettemin zijn deze momenten waarop u in de toekomst kunt zien voordat u een gok neemt zeldzaam.

00:53

Zelfs als het niet helemaal nauwkeurig is, is het nog steeds best cool om zo'n uitstekende benadering te hebben

00:57

van hoe zoiets als een nieuw kapsel eruit zou kunnen zien, wat ons een deel van de stress zou verlichten

01:02

iets nieuws proberen terwijl het spannende deel behouden blijft.

01:06

Natuurlijk zijn kapsels erg oppervlakkig in vergelijking met meer nuttige toepassingen.

01:10

Toch is het een stap voorwaarts in de richting van "in de toekomst kijken" met behulp van AI, wat best cool is.

01:17

Deze nieuwe techniek stelt ons inderdaad in staat om de toekomst te voorspellen, ook al is het maar

01:22

de toekomst van ons kapsel.

01:24

Maar voordat ik inga op hoe het werkt, ben ik benieuwd wat jullie hiervan vinden.

01:28

In elk ander veld: welke andere toepassing(en) zou u willen zien dat AI gebruikt om "in te kijken"

01:34

de toekomst"?

01:38

Het kan niet alleen de stijl van je haar veranderen, maar ook de kleur van meerdere afbeeldingsvoorbeelden.

01:44

Je kunt in principe drie dingen aan het algoritme geven:

01:47

een foto van jezelf een foto van iemand met het kapsel dat jij bent

01:51

zou willen hebben en nog een foto (of dezelfde) van het haar

01:55

kleur die je zou willen proberen en het voegt alles realistisch op jezelf samen.

01:59

De resultaten zijn serieus indrukwekkend.

02:02

Als je mijn oordeel niet vertrouwt, zoals ik volledig zou begrijpen op basis van mijn artistieke

02:06

vaardigheidsniveau voerden ze ook een gebruikersonderzoek uit bij 396 deelnemers.

02:12

Hun oplossing had 95 procent van de tijd de voorkeur!

02:17

Natuurlijk kunt u meer details over deze studie vinden in de onderstaande referenties als dit:

02:21

lijkt te moeilijk om te geloven.

02:22

Zoals je misschien vermoedt, spelen we hier met gezichten, dus het gebruikt een zeer vergelijkbaar proces

02:27

zoals de eerdere kranten die ik heb behandeld, het gezicht veranderen in tekenfilms of andere stijlen die zijn

02:33

allemaal met behulp van GAN's.

02:34

Omdat het erg op elkaar lijkt, laat ik je mijn andere video's bekijken waarin ik heb uitgelegd hoe

02:39

GAN's werken diepgaand en ik zal me concentreren op wat er nieuw is aan deze methode hier en waarom het werkt

02:45

zo goed.

02:46

Een GAN-architectuur kan leren om specifieke kenmerken of stijlen van een afbeelding te transponeren naar

02:52

andere.

02:53

Het probleem is dat ze er vaak onrealistisch uitzien vanwege de lichtverschillen, occlusies

02:58

het kan hebben, of zelfs gewoon de positie van het hoofd die op beide foto's anders is.

03:04

Al deze kleine details maken dit probleem zeer uitdagend, waardoor artefacten in de

03:09

gegenereerde afbeelding.

03:10

Hier is een eenvoudig voorbeeld om dit probleem beter te visualiseren, als je het haar van iemand neemt

03:11

van een foto genomen in een donkere kamer en probeer deze buiten bij daglicht op jezelf te zetten,

03:12

zelfs als het perfect op je hoofd is getransponeerd, zal het er nog steeds raar uitzien.

03:13

Meestal proberen deze andere technieken die GAN's gebruiken om de informatie van de afbeeldingen te coderen en

03:15

identificeer expliciet de regio die is gekoppeld aan de haarkenmerken in deze codering

03:21

om ze te wisselen.

03:22

Het werkt goed als de twee foto's in vergelijkbare omstandigheden zijn gemaakt, maar het ziet er niet echt uit

03:27

meestal om de redenen die ik net noemde.

03:30

Daarna moesten ze een ander netwerk gebruiken om de herbelichting, gaten en andere rare artefacten te repareren

03:36

veroorzaakt door de fusie.

03:38

Dus het doel hier was om het kapsel en de kleur van een specifieke foto over te zetten naar je

03:43

eigen foto terwijl u de resultaten wijzigt om de belichting en eigenschappen van uw foto te volgen

03:49

om het tegelijkertijd overtuigend en realistisch te maken, waardoor de stappen en bronnen van fouten worden verminderd.

03:55

Als deze laatste alinea onduidelijk was, raad ik je ten zeerste aan om de video aan het einde van

03:56

dit artikel omdat er meer visuele voorbeelden zijn om te helpen begrijpen.

03:57

Om dat te bereiken, Peihao Zhu et al. een ontbrekende maar essentiële uitlijningsstap toegevoegd aan GAN's.

04:01

Inderdaad, in plaats van de afbeeldingen eenvoudigweg te coderen en samen te voegen, wordt de codering enigszins gewijzigd

04:07

een ander segmentatiemasker volgen om de latente code van de twee afbeeldingen meer te maken

04:12

vergelijkbaar.

04:13

Zoals ik al zei, kunnen ze zowel de structuur als de stijl of het uiterlijk van het haar bewerken.

04:18

Hier is de structuur natuurlijk de geometrie van het haar, die ons vertelt of het gekruld, golvend,

04:24

of rechtdoor.

04:25

Als je mijn andere video's hebt gezien, weet je al dat GAN's de informatie coderen met

04:30

windingen.

04:31

Dit betekent dat het kernels gebruikt om de informatie op elke laag te verkleinen en kleiner te maken

04:37

en kleiner, waardoor iteratief ruimtelijke details worden verwijderd terwijl er steeds meer waarde wordt gegeven aan

04:43

algemene informatie naar de resulterende output.

04:46

Deze structurele informatie wordt, zoals altijd, verkregen uit de vroege lagen van de GAN,

04:52

dus voordat de codering te algemeen wordt en, nou ja, te gecodeerd om ruimtelijk weer te geven

04:58

kenmerken.

04:59

Uiterlijk verwijst naar de diep gecodeerde informatie, inclusief haarkleur, textuur en verlichting.

05:05

Je weet waar de informatie uit de verschillende afbeeldingen is gehaald, maar hoe doen ze dat?

05:10

deze informatie samenvoegen en het er realistischer uit laten zien dan eerdere benaderingen?

05:15

Dit wordt gedaan met behulp van segmentatiekaarten uit de afbeeldingen.

05:18

En meer precies, het genereren van deze gewenste nieuwe afbeelding op basis van een uitgelijnde versie van onze of

05:24

doel en referentiebeeld.

05:26

De referentieafbeelding is onze eigen afbeelding en de doelafbeelding het kapsel dat we willen

05:31

zijn van toepassing.

05:32

Deze segmentatiekaarten vertellen ons wat de afbeelding bevat en waar deze zich bevindt, haar, huid, ogen,

05:38

neus, enz.

05:40

Met behulp van deze informatie uit de verschillende afbeeldingen kunnen ze de volgende koppen uitlijnen:

05:44

de doelafbeeldingsstructuur voordat de afbeeldingen naar het netwerk worden verzonden voor codering met behulp van

05:49

een aangepaste StyleGAN2-gebaseerde architectuur.

05:52

Eentje die ik al meerdere keren heb behandeld.

05:55

Deze uitlijning maakt de gecodeerde informatie veel gemakkelijker vergelijkbaar en reconstrueerbaar.

06:00

Vervolgens vinden ze voor het uiterlijk en het verlichtingsprobleem een ​​geschikt mengsel

06:05

verhouding van deze verschijningscoderingen van de doel- en referentiebeelden voor hetzelfde

06:11

gesegmenteerde regio's waardoor het er zo echt mogelijk uitziet.

06:15

Zo zien de resultaten eruit zonder de uitlijning in de linkerkolom en hun

06:19

rechts naderen.

06:21

Dit proces is natuurlijk een beetje ingewikkelder en alle details zijn te vinden in de krant

06:26

gekoppeld in de referenties.

06:27

Merk op dat, net als bij de meeste GAN-implementaties, hun architectuur moest worden getraind.

06:32

Hier gebruikten ze een StyleGAN2-basisnetwerk dat was getraind op de FFHQ-dataset.

06:38

Toen ze veel wijzigingen hadden aangebracht, zoals we zojuist hebben besproken, trainden ze een tweede

06:42

time hun gewijzigde StleGAN2-netwerk met 198 paar afbeeldingen als kapseloverdracht

06:50

voorbeelden om de beslissing van het model te optimaliseren voor zowel de verhouding tussen uiterlijk en

06:55

de structurele coderingen.

06:57

Ook zijn er, zoals je mag verwachten, nog steeds enkele onvolkomenheden zoals deze waar hun

07:02

benadering slaagt er niet in de segmentatiemaskers op één lijn te brengen of het gezicht te reconstrueren

07:08

zijn buitengewoon indrukwekkend en het is geweldig dat ze openlijk de beperkingen delen.

07:13

Zoals ze in de krant stellen, wordt de broncode voor hun methode later openbaar gemaakt

07:18

een eventuele publicatie van de krant.

07:21

De link naar de officiële GitHub-repo staat in de onderstaande referenties, in de hoop dat dit zal gebeuren

07:25

binnenkort worden vrijgelaten.

07:27

Bedankt voor het kijken!

Tags

Doe mee met Hacker Noon

Maak uw gratis account aan om uw persoonlijke leeservaring te ontgrendelen.

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://hackernoon.com/this-ai-prevents-bad-hair-days-uu6c37ei?source=rss

spot_img

Laatste intelligentie

spot_img