Hoe ruis orde creëert: Een universeel principe dat fysica en machine learning verbindt Ruis is meestal de vijand van structuur. Toch genereren in bepaalde systemen—van gescheurde colloïdale suspensies tot stochastische optimalisatie-algoritmen—ruisachtige lokale interacties paradoxaal genoeg langeafstand ruimtelijke orde. Dit fenomeen, hyperuniformiteit genoemd, onderdrukt dichtheidsfluctuaties op grote schalen, maar hoe het voortkomt uit puur lokale, ruisachtige dynamiek is al twee decennia een open vraag. Satyam Anand, Guanming Zhang en Stefano Martiniani bestuderen drie paradigmatische systemen: random organization (RO) en biased random organization (BRO) uit de zachte materiefysica, en stochastic gradient descent (SGD) uit de machine learning. Elk systeem heeft fundamenteel verschillende microscopische ruisbronnen—random kick richtingen in RO, random kick magnitudes in BRO, en random deeltjesselectie in SGD—toch ondergaan ze allemaal dezelfde absorptie-naar-actieve faseovergang naarmate de deeltjesdichtheid toeneemt. De belangrijkste bevinding: ondanks deze microscopische verschillen vertonen alle drie systemen identiek universeel langeafstandsgedrag, beheerst door een enkele parameter—de ruiscorrelatiecoëfficiënt c tussen deeltjesparen. Wanneer de paargewijze ruis ongecorreleerd is (c = 0), blijven de systemen ongeordend. Naarmate c nadert tot −1 (anti-gecorreleerde, momentum-behoudende kicks), divergeert de crossover lengte-schaal voor dichtheidsonderdrukking, en worden de systemen sterk hyperuniform. De auteurs ontwikkelen een fluctuerende hydrodynamische theorie die de structuurfactor kwantitatief voorspelt over alle systemen zonder vrije parameters. Misschien het meest opvallende is de verbinding met machine learning: dezelfde anti-gecorreleerde ruis die hyperuniformiteit produceert, biasert ook SGD naar vlakke gebieden van het energielandschap—dezelfde eigenschap die verband houdt met robuuste generalisatie in neurale netwerken. Lagere batchfracties en hogere leersnelheden, empirisch bekend om de generalisatie te verbeteren, produceren zowel sterkere langeafstandstructuur als vlakke minima in de deeltjesystemen. De implicatie is krachtig: de tendens van SGD om vlakke minima te vinden is geen eigenaardigheid van de verlieslandschappen van neurale netwerken, maar een universeel kenmerk van stochastische optimalisatie in hoog-dimensionale ruimtes—wat nieuwe wegen opent van het ontwerpen van hyperuniforme materialen tot het begrijpen waarom deep learning generaliseert. Paper: