Hur brus skapar ordning: En universell princip som länkar fysik och maskininlärning Ljud är vanligtvis strukturens fiende. Men i vissa system – från skjuvade kolloidala suspensioner till stokastiska optimeringsalgoritmer – genererar bullriga lokala interaktioner paradoxalt sett långdistans rumslig ordning. Detta fenomen, kallat hyperuniformitet, undertrycker täthetsfluktuationer på stora skalor, men hur det uppstår ur rent lokala, brusiga dynamiker har förblivit en öppen fråga i två decennier. Satyam Anand, Guanming Zhang och Stefano Martiniani studerar tre paradigmatiska system: slumpmässig organisation (RO) och snedvriden slumpmässig organisation (BRO) från mjuk materiefysik, samt stokastisk gradientnedstigning (SGD) från maskininlärning. Varje system har fundamentalt olika mikroskopiska bruskällor—slumpmässiga kickriktningar i RO, slumpmässiga kick-magnituder i BRO och slumpmässig partikelval i SGD—men alla genomgår samma absorptions- till aktiva fasövergång när partikeltätheten ökar. Den viktigaste slutsatsen: trots dessa mikroskopiska skillnader uppvisar alla tre systemen identiskt universellt långdistansbeteende, styrt av en enda parameter – bruskorrelationskoefficienten c mellan partikelpar. När parvis brus är okorrelerat (c = 0) förblir systemen oordnade. När c närmar sig −1 (anti-korrelerade, rörelsemängdsbevarande kickar), divergerar korslängdskalan för densitetssuppression och systemen blir starkt hyperuniforma. Författarna utvecklar en fluktuerande hydrodynamisk teori som kvantitativt förutsäger strukturfaktorn över alla system utan fria parametrar. Kanske mest slående är kopplingen till maskininlärning: samma antikorrelerade brus som ger hyperuniformitet snedvrider också SGD mot plattare delar av energilandskapet – just den egenskap som är kopplad till robust generalisering i neurala nätverk. Lägre batchfraktioner och högre inlärningshastigheter, som empiriskt är kända för att förbättra generalisering, ger både starkare långdistansstruktur och plattare minima i partikelsystem. Implikationen är kraftfull: SGD:s tendens att hitta platta minima är inte en egenhet i neurala nätverksförlustlandskap utan ett universellt kännetecken för stokastisk optimering i högdimensionella rum – vilket öppnar nya vägar från design av hyperuniforma material till att förstå varför djupinlärning generaliseras. Papper: