Zephyrnet-logo

Machine learning versnelt kosmologische simulaties

Datum:

Met behulp van neurale netwerken kunnen onderzoekers nu universums simuleren in een fractie van de tijd, wat de toekomst van natuurkundig onderzoek bevordert

Credit: Credit: Y. Li et al./Proceedings van de National Academy of Sciences 2021

Een universum evolueert in de loop van miljarden tot miljarden jaren, maar onderzoekers hebben een manier ontwikkeld om in minder dan een dag een complex gesimuleerd universum te creëren. De techniek, gepubliceerd in deze week Proceedings van de National Academy of Sciences, brengt machine learning, high-performance computing en astrofysica samen en zal helpen om een ​​nieuw tijdperk van kosmologische simulaties met hoge resolutie in te luiden.

Kosmologische simulaties zijn een essentieel onderdeel van het ontrafelen van de vele mysteries van het universum, inclusief die van donkere materie en donkere energie. Maar tot nu toe hadden onderzoekers te maken met het algemene raadsel dat ze niet alles konden hebben - simulaties konden zich concentreren op een klein gebied met een hoge resolutie, of ze konden een groot volume van het universum omvatten met een lage resolutie.

Tiziana Di Matteo en Rupert Croft, natuurkundeprofessoren van de Carnegie Mellon University, Flatiron Institute Research Fellow Yin Li, Carnegie Mellon Ph.D. kandidaat Yueying Ni, University of California Riverside Professor of Physics and Astronomy Simeon Bird en University of California Berkeley Yu Feng loste dit probleem op door een machine learning-algoritme te leren op basis van neurale netwerken om een ​​simulatie te upgraden van lage resolutie naar superresolutie.

“Kosmologische simulaties moeten een groot volume beslaan voor kosmologische studies, terwijl ze ook een hoge resolutie vereisen om de fysica van de vorming van kleine melkwegstelsels op te lossen, wat ontmoedigende computationele uitdagingen met zich meebrengt. Onze techniek kan worden gebruikt als een krachtig en veelbelovend hulpmiddel om tegelijkertijd aan deze twee vereisten te voldoen door de kleinschalige fysica van melkwegstelsels te modelleren in grote kosmologische volumes, ”zei Ni, die de training van het model uitvoerde, de pijplijn bouwde voor testen en validatie. , analyseerde de data en maakte de visualisatie van de data.

De getrainde code kan full-scale modellen met een lage resolutie gebruiken en superresolutie-simulaties genereren die tot 512 keer zoveel deeltjes bevatten. Voor een gebied in het universum met een doorsnede van ongeveer 500 miljoen lichtjaar dat 134 miljoen deeltjes bevat, zouden de bestaande methoden 560 uur nodig hebben om een ​​simulatie met hoge resolutie uit te voeren met behulp van een enkele verwerkingskern. Met de nieuwe aanpak hebben de onderzoekers slechts 36 minuten nodig.

De resultaten waren nog dramatischer toen er meer deeltjes aan de simulatie werden toegevoegd. Voor een universum dat 1,000 keer zo groot is met 134 miljard deeltjes, kostte de nieuwe methode van de onderzoekers 16 uur op een enkele grafische verwerkingseenheid. Met de huidige methoden zou een simulatie van deze omvang en resolutie maanden in beslag nemen voor een speciale supercomputer.

Het verminderen van de tijd die nodig is om kosmologische simulaties uit te voeren "biedt het potentieel om grote vooruitgang te boeken in de numerieke kosmologie en astrofysica", zei Di Matteo. "Kosmologische simulaties volgen de geschiedenis en het lot van het universum, helemaal tot aan de vorming van alle sterrenstelsels en hun zwarte gaten."

Wetenschappers gebruiken kosmologische simulaties om te voorspellen hoe het universum eruit zou zien in verschillende scenario's, bijvoorbeeld wanneer de donkere energie die het universum uit elkaar trekt in de loop van de tijd varieert. Telescoopwaarnemingen bevestigen vervolgens of de voorspellingen van de simulaties overeenkomen met de werkelijkheid.

"Met onze eerdere simulaties hebben we laten zien dat we het universum konden simuleren om nieuwe en interessante fysica te ontdekken, maar alleen op kleine of lage resoluties", aldus Croft. "Door machine learning te integreren, kan de technologie onze ideeën inhalen."

Di Matteo, Croft en Ni maken deel uit van Carnegie Mellon's National Science Foundation (NSF) Planning Institute for Artificial Intelligence in Physics, dat dit werk ondersteunde, en leden van Carnegie Mellon's McWilliams Center for Cosmology.

"Het universum is de grootste dataset die er is - kunstmatige intelligentie is de sleutel tot het begrijpen van het universum en het onthullen van nieuwe fysica", zegt Scott Dodelson, professor en hoofd van de afdeling natuurkunde aan de Carnegie Mellon University en directeur van het NSF Planning Institute. "Dit onderzoek illustreert hoe het NSF Planning Institute for Artificial Intelligence de fysica vooruithelpt door middel van kunstmatige intelligentie, machine learning, statistiek en datawetenschap."

"Het is duidelijk dat AI een groot effect heeft op veel wetenschapsgebieden, waaronder natuurkunde en astronomie", zegt James Shank, programmadirecteur bij de afdeling Natuurkunde van NSF. “Ons AI Planning Institute-programma werkt eraan om AI te stimuleren om ontdekking te versnellen. Dit nieuwe resultaat is een goed voorbeeld van hoe AI de kosmologie transformeert. "

Om hun nieuwe methode te creëren, gebruikten Ni en Li deze velden om een ​​code te maken die neurale netwerken gebruikt om te voorspellen hoe de zwaartekracht donkere materie in de loop van de tijd beweegt. De netwerken nemen trainingsgegevens, voeren berekeningen uit en vergelijken de resultaten met het verwachte resultaat. Met bijscholing passen de netwerken zich aan en worden ze nauwkeuriger.

De specifieke benadering die de onderzoekers gebruiken, een generatief vijandig netwerk genoemd, plaatst twee neurale netwerken tegen elkaar. Eén netwerk gebruikt simulaties van het universum met lage resolutie en gebruikt deze om modellen met hoge resolutie te genereren. Het andere netwerk probeert die simulaties te onderscheiden van simulaties die met conventionele methoden zijn gemaakt. Na verloop van tijd worden beide neurale netwerken steeds beter, totdat uiteindelijk de simulatiegenerator wint en snelle simulaties creëert die er net zo uitzien als de langzame conventionele.

'We konden het twee jaar lang niet aan de praat krijgen', zei Li, 'en plotseling begon het te werken. We hebben mooie resultaten behaald die overeenkwamen met wat we hadden verwacht. We hebben zelf zelfs een aantal blinde tests gedaan, en de meesten van ons konden niet zeggen welke 'echt' en welke 'nep' was. ''

Ondanks dat ze alleen werden getraind in kleine ruimtes, repliceerden de neurale netwerken nauwkeurig de grootschalige structuren die alleen in enorme simulaties voorkomen.

De simulaties hebben echter niet alles vastgelegd. Omdat ze zich concentreerden op donkere materie en zwaartekracht, werden kleinschalige verschijnselen - zoals stervorming, supernovae en de effecten van zwarte gaten - weggelaten. De onderzoekers zijn van plan hun methoden uit te breiden met de krachten die verantwoordelijk zijn voor dergelijke verschijnselen, en hun neurale netwerken 'on the fly' te laten draaien naast conventionele simulaties om de nauwkeurigheid te verbeteren.

###

Het onderzoek werd mogelijk gemaakt door de Frontera-supercomputer in het Texas Advanced Computing Center (TACC), de snelste academische supercomputer ter wereld. Het team is een van de grootste gebruikers van deze enorme computerbron, die wordt gefinancierd door het NSF Office of Advanced Cyberinfrastructure.

Dit onderzoek werd gefinancierd door de NSF, het NSF AI Institute: Physics of the Future en NASA.

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://bioengineer.org/machine-learning-accelerates-cosmological-simulations/

spot_img

Laatste intelligentie

spot_img