Comment le bruit crée de l'ordre : un principe universel liant la physique et l'apprentissage automatique Le bruit est généralement l'ennemi de la structure. Pourtant, dans certains systèmes—des suspensions colloïdales cisaillées aux algorithmes d'optimisation stochastique—des interactions locales bruyantes génèrent paradoxalement un ordre spatial à longue portée. Ce phénomène, appelé hyperuniformité, supprime les fluctuations de densité à grande échelle, mais la manière dont il émerge de dynamiques locales bruyantes reste une question ouverte depuis deux décennies. Satyam Anand, Guanming Zhang et Stefano Martiniani étudient trois systèmes paradigmes : l'organisation aléatoire (RO) et l'organisation aléatoire biaisée (BRO) de la physique des matières molles, et la descente de gradient stochastique (SGD) de l'apprentissage automatique. Chaque système a des sources de bruit microscopiques fondamentalement différentes : directions de coups aléatoires dans RO, magnitudes de coups aléatoires dans BRO, et sélection aléatoire de particules dans SGD—pourtant, tous subissent la même transition de phase de l'absorbant à l'actif à mesure que la densité des particules augmente. La découverte clé : malgré ces différences microscopiques, les trois systèmes affichent un comportement universel identique à longue portée, régi par un seul paramètre—le coefficient de corrélation du bruit c entre les paires de particules. Lorsque le bruit par paires est non corrélé (c = 0), les systèmes restent désordonnés. À mesure que c approche de −1 (coups anti-corrélés, conservant le moment), l'échelle de longueur de crossover pour la suppression de la densité diverge, et les systèmes deviennent fortement hyperuniformes. Les auteurs développent une théorie hydrodynamique fluctuante qui prédit quantitativement le facteur de structure à travers tous les systèmes sans paramètres libres. Peut-être le plus frappant est le lien avec l'apprentissage automatique : le même bruit anti-corrélé qui produit l'hyperuniformité biaise également la SGD vers des régions plus plates du paysage énergétique—la caractéristique même liée à une généralisation robuste dans les réseaux neuronaux. Des fractions de lot plus faibles et des taux d'apprentissage plus élevés, connus empiriquement pour améliorer la généralisation, produisent à la fois une structure à longue portée plus forte et des minima plus plats dans les systèmes de particules. L'implication est puissante : la tendance de la SGD à trouver des minima plats n'est pas une particularité des paysages de perte des réseaux neuronaux mais un trait universel de l'optimisation stochastique dans des espaces de haute dimension—ouvrant de nouvelles avenues allant de la conception de matériaux hyperuniformes à la compréhension de pourquoi l'apprentissage profond se généralise.