@wat zeg ikLouis Bouchard
Ik leg termen en nieuws over kunstmatige intelligentie uit aan niet-experts.
Zou dit de technologische innovatie kunnen zijn waar kappers naar op zoek waren? Ik weet zeker dat de meesten van ons wel eens een of twee slechte kapsels hebben gehad. Maar hopelijk hoef je met deze AI nooit meer te raden hoe een nieuw kapsel eruit zal zien.
Deze AI kan een nieuw kapsel en/of kleur overbrengen naar een portret om te zien hoe het eruit zou zien voordat de verandering wordt doorgevoerd. Lees er hieronder meer over!
Bekijk de video
Referenties:
►Het volledige artikel: https://www.louisbouchard.ai/barbershop/
►Peihao Zhu et al., (2021), Kapperszaak, https://arxiv.org/pdf/2106.01505.pdf
►Projectlink: https://zpdesu.github.io/Barbershop/
►Code: https://github.com/ZPdesu/Barbershop
Videotranscript
00:00
Dit artikel gaat niet over een nieuwe technologie op zich.
00:03
In plaats daarvan gaat het om een nieuwe en opwindende toepassing van GAN's.
00:06
Inderdaad, je zag de titel, en het was geen clickbait.
00:10
Deze AI kan je haar overbrengen om te zien hoe het eruit zou zien voordat je je aan de
00:15
veranderen.
00:16
We weten allemaal dat het moeilijk kan zijn om je kapsel te veranderen, zelfs als je dat zou willen.
00:19
Nou ja, in ieder geval voor mezelf, ik ben jarenlang hetzelfde kapsel gewend, zeg ik tegen mijn kapper
00:24
"hetzelfde als de vorige keer" elke 3 of 4 maanden, zelfs als ik een verandering zou willen.
00:29
Ik kan me gewoon niet binden, bang dat het er raar en ongewoon uit zou zien.
00:33
Natuurlijk, dit alles in ons hoofd, want wij zijn de enigen die om ons kapsel geven, maar
00:38
deze tool kan voor sommigen van ons een echte game-changer zijn, en ons helpen beslissen of
00:43
om ons niet te binden aan zo'n verandering met geweldige inzichten over hoe het op ons zal lijken.
00:48
Desalniettemin zijn deze momenten waarop u in de toekomst kunt zien voordat u een gok neemt zeldzaam.
00:53
Zelfs als het niet helemaal nauwkeurig is, is het nog steeds best cool om zo'n uitstekende benadering te hebben
00:57
van hoe zoiets als een nieuw kapsel eruit zou kunnen zien, wat ons een deel van de stress zou verlichten
01:02
iets nieuws proberen terwijl het spannende deel behouden blijft.
01:06
Natuurlijk zijn kapsels erg oppervlakkig in vergelijking met meer nuttige toepassingen.
01:10
Toch is het een stap voorwaarts in de richting van "in de toekomst kijken" met behulp van AI, wat best cool is.
01:17
Deze nieuwe techniek stelt ons inderdaad in staat om de toekomst te voorspellen, ook al is het maar
01:22
de toekomst van ons kapsel.
01:24
Maar voordat ik inga op hoe het werkt, ben ik benieuwd wat jullie hiervan vinden.
01:28
In elk ander veld: welke andere toepassing(en) zou u willen zien dat AI gebruikt om "in te kijken"
01:34
de toekomst"?
01:38
Het kan niet alleen de stijl van je haar veranderen, maar ook de kleur van meerdere afbeeldingsvoorbeelden.
01:44
Je kunt in principe drie dingen aan het algoritme geven:
01:47
een foto van jezelf een foto van iemand met het kapsel dat jij bent
01:51
zou willen hebben en nog een foto (of dezelfde) van het haar
01:55
kleur die je zou willen proberen en het voegt alles realistisch op jezelf samen.
01:59
De resultaten zijn serieus indrukwekkend.
02:02
Als je mijn oordeel niet vertrouwt, zoals ik volledig zou begrijpen op basis van mijn artistieke
02:06
vaardigheidsniveau voerden ze ook een gebruikersonderzoek uit bij 396 deelnemers.
02:12
Hun oplossing had 95 procent van de tijd de voorkeur!
02:17
Natuurlijk kunt u meer details over deze studie vinden in de onderstaande referenties als dit:
02:21
lijkt te moeilijk om te geloven.
02:22
Zoals je misschien vermoedt, spelen we hier met gezichten, dus het gebruikt een zeer vergelijkbaar proces
02:27
zoals de eerdere kranten die ik heb behandeld, het gezicht veranderen in tekenfilms of andere stijlen die zijn
02:33
allemaal met behulp van GAN's.
02:34
Omdat het erg op elkaar lijkt, laat ik je mijn andere video's bekijken waarin ik heb uitgelegd hoe
02:39
GAN's werken diepgaand en ik zal me concentreren op wat er nieuw is aan deze methode hier en waarom het werkt
02:45
zo goed.
02:46
Een GAN-architectuur kan leren om specifieke kenmerken of stijlen van een afbeelding te transponeren naar
02:52
andere.
02:53
Het probleem is dat ze er vaak onrealistisch uitzien vanwege de lichtverschillen, occlusies
02:58
het kan hebben, of zelfs gewoon de positie van het hoofd die op beide foto's anders is.
03:04
Al deze kleine details maken dit probleem zeer uitdagend, waardoor artefacten in de
03:09
gegenereerde afbeelding.
03:10
Hier is een eenvoudig voorbeeld om dit probleem beter te visualiseren, als je het haar van iemand neemt
03:11
van een foto genomen in een donkere kamer en probeer deze buiten bij daglicht op jezelf te zetten,
03:12
zelfs als het perfect op je hoofd is getransponeerd, zal het er nog steeds raar uitzien.
03:13
Meestal proberen deze andere technieken die GAN's gebruiken om de informatie van de afbeeldingen te coderen en
03:15
identificeer expliciet de regio die is gekoppeld aan de haarkenmerken in deze codering
03:21
om ze te wisselen.
03:22
Het werkt goed als de twee foto's in vergelijkbare omstandigheden zijn gemaakt, maar het ziet er niet echt uit
03:27
meestal om de redenen die ik net noemde.
03:30
Daarna moesten ze een ander netwerk gebruiken om de herbelichting, gaten en andere rare artefacten te repareren
03:36
veroorzaakt door de fusie.
03:38
Dus het doel hier was om het kapsel en de kleur van een specifieke foto over te zetten naar je
03:43
eigen foto terwijl u de resultaten wijzigt om de belichting en eigenschappen van uw foto te volgen
03:49
om het tegelijkertijd overtuigend en realistisch te maken, waardoor de stappen en bronnen van fouten worden verminderd.
03:55
Als deze laatste alinea onduidelijk was, raad ik je ten zeerste aan om de video aan het einde van
03:56
dit artikel omdat er meer visuele voorbeelden zijn om te helpen begrijpen.
03:57
Om dat te bereiken, Peihao Zhu et al. een ontbrekende maar essentiële uitlijningsstap toegevoegd aan GAN's.
04:01
Inderdaad, in plaats van de afbeeldingen eenvoudigweg te coderen en samen te voegen, wordt de codering enigszins gewijzigd
04:07
een ander segmentatiemasker volgen om de latente code van de twee afbeeldingen meer te maken
04:12
vergelijkbaar.
04:13
Zoals ik al zei, kunnen ze zowel de structuur als de stijl of het uiterlijk van het haar bewerken.
04:18
Hier is de structuur natuurlijk de geometrie van het haar, die ons vertelt of het gekruld, golvend,
04:24
of rechtdoor.
04:25
Als je mijn andere video's hebt gezien, weet je al dat GAN's de informatie coderen met
04:30
windingen.
04:31
Dit betekent dat het kernels gebruikt om de informatie op elke laag te verkleinen en kleiner te maken
04:37
en kleiner, waardoor iteratief ruimtelijke details worden verwijderd terwijl er steeds meer waarde wordt gegeven aan
04:43
algemene informatie naar de resulterende output.
04:46
Deze structurele informatie wordt, zoals altijd, verkregen uit de vroege lagen van de GAN,
04:52
dus voordat de codering te algemeen wordt en, nou ja, te gecodeerd om ruimtelijk weer te geven
04:58
kenmerken.
04:59
Uiterlijk verwijst naar de diep gecodeerde informatie, inclusief haarkleur, textuur en verlichting.
05:05
Je weet waar de informatie uit de verschillende afbeeldingen is gehaald, maar hoe doen ze dat?
05:10
deze informatie samenvoegen en het er realistischer uit laten zien dan eerdere benaderingen?
05:15
Dit wordt gedaan met behulp van segmentatiekaarten uit de afbeeldingen.
05:18
En meer precies, het genereren van deze gewenste nieuwe afbeelding op basis van een uitgelijnde versie van onze of
05:24
doel en referentiebeeld.
05:26
De referentieafbeelding is onze eigen afbeelding en de doelafbeelding het kapsel dat we willen
05:31
zijn van toepassing.
05:32
Deze segmentatiekaarten vertellen ons wat de afbeelding bevat en waar deze zich bevindt, haar, huid, ogen,
05:38
neus, enz.
05:40
Met behulp van deze informatie uit de verschillende afbeeldingen kunnen ze de volgende koppen uitlijnen:
05:44
de doelafbeeldingsstructuur voordat de afbeeldingen naar het netwerk worden verzonden voor codering met behulp van
05:49
een aangepaste StyleGAN2-gebaseerde architectuur.
05:52
Eentje die ik al meerdere keren heb behandeld.
05:55
Deze uitlijning maakt de gecodeerde informatie veel gemakkelijker vergelijkbaar en reconstrueerbaar.
06:00
Vervolgens vinden ze voor het uiterlijk en het verlichtingsprobleem een geschikt mengsel
06:05
verhouding van deze verschijningscoderingen van de doel- en referentiebeelden voor hetzelfde
06:11
gesegmenteerde regio's waardoor het er zo echt mogelijk uitziet.
06:15
Zo zien de resultaten eruit zonder de uitlijning in de linkerkolom en hun
06:19
rechts naderen.
06:21
Dit proces is natuurlijk een beetje ingewikkelder en alle details zijn te vinden in de krant
06:26
gekoppeld in de referenties.
06:27
Merk op dat, net als bij de meeste GAN-implementaties, hun architectuur moest worden getraind.
06:32
Hier gebruikten ze een StyleGAN2-basisnetwerk dat was getraind op de FFHQ-dataset.
06:38
Toen ze veel wijzigingen hadden aangebracht, zoals we zojuist hebben besproken, trainden ze een tweede
06:42
time hun gewijzigde StleGAN2-netwerk met 198 paar afbeeldingen als kapseloverdracht
06:50
voorbeelden om de beslissing van het model te optimaliseren voor zowel de verhouding tussen uiterlijk en
06:55
de structurele coderingen.
06:57
Ook zijn er, zoals je mag verwachten, nog steeds enkele onvolkomenheden zoals deze waar hun
07:02
benadering slaagt er niet in de segmentatiemaskers op één lijn te brengen of het gezicht te reconstrueren
07:08
zijn buitengewoon indrukwekkend en het is geweldig dat ze openlijk de beperkingen delen.
07:13
Zoals ze in de krant stellen, wordt de broncode voor hun methode later openbaar gemaakt
07:18
een eventuele publicatie van de krant.
07:21
De link naar de officiële GitHub-repo staat in de onderstaande referenties, in de hoop dat dit zal gebeuren
07:25
binnenkort worden vrijgelaten.
07:27
Bedankt voor het kijken!
Tags
Maak uw gratis account aan om uw persoonlijke leeservaring te ontgrendelen.
Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://hackernoon.com/this-ai-prevents-bad-hair-days-uu6c37ei?source=rss