Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hvordan støy skaper orden: Et universelt prinsipp som knytter fysikk og maskinlæring sammen
Støy er vanligvis fienden til struktur. Likevel, i visse systemer—fra skjærte kolloidale suspensjoner til stokastiske optimaliseringsalgoritmer—genererer støyende lokale interaksjoner paradoksalt nok langtrekkende romlig orden. Dette fenomenet, kalt hyperuniformitet, undertrykker tetthetsvariasjoner på store skalaer, men hvordan det oppstår fra rent lokale, støyende dynamikker har vært et åpent spørsmål i to tiår.
Satyam Anand, Guanming Zhang og Stefano Martiniani studerer tre paradigmatiske systemer: tilfeldig organisering (RO) og skjev tilfeldig organisering (BRO) fra myk materiefysikk, og stokastisk gradientnedstigning (SGD) fra maskinlæring. Hvert system har fundamentalt forskjellige mikroskopiske støykilder—tilfeldige kickretninger i RO, tilfeldige kick-størrelser i BRO, og tilfeldig partikkelutvalg i SGD—men alle gjennomgår samme absorberende til aktive faseovergang når partikkeltettheten øker.
Hovedfunnet: til tross for disse mikroskopiske forskjellene viser alle tre systemene identisk universell langdistanseoppførsel, styrt av én enkelt parameter—støykorrelasjonskoeffisienten c mellom partikkelpar. Når parvis støy er ukorrelert (c = 0), forblir systemene uordnede. Når c nærmer seg −1 (anti-korrelerte, momentbevarende kicks), divergerer crossover-lengdeskalaen for tetthetsundertrykkelse, og systemene blir sterkt hyperuniforme.
Forfatterne utvikler en fluktuerende hydrodynamisk teori som kvantitativt forutsier strukturfaktoren på tvers av alle systemer uten frie parametere.
Kanskje mest slående er koblingen til maskinlæring: den samme antikorrelerte støyen som gir hyperuniformitet, skjevstiller også SGD mot flatere områder av energilandskapet—nettopp denne egenskapen knyttet til robust generalisering i nevrale nettverk. Lavere batchfraksjoner og høyere læringsrater, kjent empirisk for å forbedre generalisering, gir både sterkere langdistansestruktur og flatere minima i partikkelsystemer.
Implikasjonen er sterk: tendensen til SGD til å finne flate minima er ikke en særegenhet ved nevrale nettverkstaplandskap, men et universelt kjennetegn ved stokastisk optimalisering i høydimensjonale rom—og åpner nye veier fra design av hyperuniformt materiale til å forstå hvorfor dyp læring generaliserer.
Artikkel:

Topp
Rangering
Favoritter
