Come il rumore crea ordine: un principio universale che collega fisica e apprendimento automatico Il rumore è di solito il nemico della struttura. Eppure, in certi sistemi—dalle sospensioni colloidali sottoposte a taglio agli algoritmi di ottimizzazione stocastica—interazioni locali rumorose generano paradossalmente ordine spaziale a lungo raggio. Questo fenomeno, chiamato iperuniformità, sopprime le fluttuazioni di densità su larga scala, ma come emerga da dinamiche locali e rumorose è rimasta una questione aperta per due decenni. Satyam Anand, Guanming Zhang e Stefano Martiniani studiano tre sistemi paradigmatici: organizzazione casuale (RO) e organizzazione casuale biasata (BRO) dalla fisica della materia soffice, e discesa del gradiente stocastico (SGD) dall'apprendimento automatico. Ogni sistema ha fonti di rumore microscopico fondamentalmente diverse: direzioni di spinta casuali in RO, magnitudini di spinta casuali in BRO e selezione casuale di particelle in SGD—eppure tutti subiscono la stessa transizione di fase da assorbente ad attivo man mano che aumenta la densità delle particelle. La scoperta chiave: nonostante queste differenze microscopiche, tutti e tre i sistemi mostrano un comportamento universale a lungo raggio identico, governato da un singolo parametro—il coefficiente di correlazione del rumore c tra coppie di particelle. Quando il rumore tra coppie è non correlato (c = 0), i sistemi rimangono disordinati. Man mano che c si avvicina a −1 (spinte anti-correlate, conservazione del momento), la lunghezza di crossover per la soppressione della densità diverge, e i sistemi diventano fortemente iperuniformi. Gli autori sviluppano una teoria idrodinamica fluttuante che predice quantitativamente il fattore di struttura in tutti i sistemi senza parametri liberi. Forse la connessione più sorprendente è quella con l'apprendimento automatico: lo stesso rumore anti-correlato che produce iperuniformità biasa anche SGD verso regioni più piatte del paesaggio energetico—la stessa caratteristica legata alla robusta generalizzazione nelle reti neurali. Frazioni di batch più basse e tassi di apprendimento più elevati, noti empiricamente per migliorare la generalizzazione, producono sia una struttura a lungo raggio più forte che minimi più piatti nei sistemi di particelle. L'implicazione è potente: la tendenza di SGD a trovare minimi piatti non è una stranezza dei paesaggi di perdita delle reti neurali, ma un marchio universale dell'ottimizzazione stocastica in spazi ad alta dimensione—aprendo nuove strade dalla progettazione di materiali iperuniformi alla comprensione del perché l'apprendimento profondo si generalizza.