Een nieuwe methode om het universum te simuleren is duizend keer sneller dan voorheen. Daardoor kunnen bepaalde simulaties nu worden uitgevoerd op een normale laptop. Geen supercomputer meer nodig dus.

Het probleem waar astronomen bij simulaties tegenaan lopen is dat het universum ontzettend complex is. Als je wilt begrijpen hoe sterrenstelsels zich gedragen en verspreiden, moet je ingewikkelde vergelijkingen oplossen die rekening houden met de zwaartekracht, donkere materie, donkere energie en nog veel meer. Deze berekeningen kosten normaal gesproken enorm veel rekenkracht en tijd.

De nieuwe methode pakt dit aan op twee manieren. Ten eerste hebben de onderzoekers een neuraal netwerk getraind. Dat is een vorm van kunstmatige intelligentie die patronen kan leren herkennen. Ze voerden het systeem 60.000 voorbeelden van kosmologische berekeningen, zodat het leerde hoe verschillende parameters van het universum het uiterlijk van de grootschalige structuren beïnvloeden.

De echte innovatie zit in de tweede stap. In plaats van het neurale netwerk blindelings de berekeningen te laten uitvoeren, hebben de wetenschappers eerst het probleem vereenvoudigd. Ze deden dat door met wiskundige trucjes bepaalde aspecten van de berekening al op voorhand uit te voeren. Hierdoor hoefde het neurale netwerk alleen nog de laatste, lastigste stukjes op te lossen. Deze aanpak wordt ook wel physics-informed machine learning genoemd: je combineert wat we al weten uit de natuurkunde met het leervermogen van AI.

Waarom is dit belangrijk?

De methode gaat binnenkort van pas komen. Telescopen waaronder het Dark Energy Spectroscopic Instrument (DESI) en de aankomende Euclid-satelliet verzamelen momenteel enorme hoeveelheden gegevens over het universum. Deze waarnemingen moeten ons helpen om fenomenen zoals donkere energie en donkere materie beter te begrijpen.

Om al die data te analyseren, moeten wetenschappers duizenden simulaties draaien waarin ze verschillende scenario’s uitproberen. Door hun modellen te vergelijken met waarnemingen in de echte wereld kunnen ze bepalen welke versie het beste klopt.
Met de oude methodes duurde zo’n analyse dagen of zelfs weken. Bovendien waren er supercomputers voor nodig. Met het nieuwe model kan hetzelfde werk volgens de onderzoekers in een handjevol uren worden gedaan. Dat kan bovendien op een normale laptop.

Gevalideerd met echte data

De onderzoekers hebben hun systeem grondig getest door de resultaten te vergelijken met die van bestaande software. Ook hebben ze het getest op de PT-challenge. Dat is een set van supernauwkeurige computersimulaties die speciaal zijn ontworpen om nieuwe methodes te valideren.

Ten slotte werd de methode toegepast op echte waarnemingen waarbij de posities van honderdduizenden sterrenstelsels werden gemeten. In alle gevallen kwamen de resultaten nauwkeurig overeen met die van de traditionele methodes, maar dan veel sneller.

Betere versie op komst

De onderzoekers zijn al bezig met een toekomstige versie die nog beter is. De huidige software, Effort.jl genaamd, is open source en nu al beschikbaar voor wetenschappers wereldwijd. De onderzoekers denken dat het een belangrijke rol zal gaan spelen bij de analyse van de enorme datasets die de komende jaren beschikbaar komen van missies zoals DESI en Euclid.