Cómo el ruido crea orden: Un principio universal que vincula la física y el aprendizaje automático El ruido suele ser el enemigo de la estructura. Sin embargo, en ciertos sistemas—desde suspensiones coloidales cortadas hasta algoritmos de optimización estocástica—interacciones locales ruidosas generan paradójicamente un orden espacial de largo alcance. Este fenómeno, llamado hiperuniformidad, suprime las fluctuaciones de densidad a gran escala, pero cómo emerge de dinámicas locales y ruidosas ha permanecido como una pregunta abierta durante dos décadas. Satyam Anand, Guanming Zhang y Stefano Martiniani estudian tres sistemas paradigmáticos: organización aleatoria (RO) y organización aleatoria sesgada (BRO) de la física de la materia blanda, y descenso de gradiente estocástico (SGD) del aprendizaje automático. Cada sistema tiene fuentes de ruido microscópico fundamentalmente diferentes—direcciones de patada aleatorias en RO, magnitudes de patada aleatorias en BRO y selección aleatoria de partículas en SGD—sin embargo, todos experimentan la misma transición de fase de absorbente a activa a medida que aumenta la densidad de partículas. El hallazgo clave: a pesar de estas diferencias microscópicas, los tres sistemas muestran un comportamiento universal de largo alcance idéntico, gobernado por un solo parámetro—el coeficiente de correlación de ruido c entre pares de partículas. Cuando el ruido por pares es no correlacionado (c = 0), los sistemas permanecen desordenados. A medida que c se aproxima a −1 (patadas anti-correlacionadas que conservan momento), la escala de longitud de cruce para la supresión de densidad diverge, y los sistemas se vuelven fuertemente hiperuniformes. Los autores desarrollan una teoría hidrodinámica fluctuante que predice cuantitativamente el factor de estructura en todos los sistemas sin parámetros libres. Quizás lo más sorprendente es la conexión con el aprendizaje automático: el mismo ruido anti-correlacionado que produce hiperuniformidad también sesga el SGD hacia regiones más planas del paisaje energético—la misma característica vinculada a la robusta generalización en redes neuronales. Fracciones de lote más bajas y tasas de aprendizaje más altas, conocidas empíricamente por mejorar la generalización, producen tanto una estructura de largo alcance más fuerte como mínimos más planos en los sistemas de partículas. La implicación es poderosa: la tendencia del SGD a encontrar mínimos planos no es una peculiaridad de los paisajes de pérdida de redes neuronales, sino un sello universal de la optimización estocástica en espacios de alta dimensión—abriendo nuevas avenidas desde el diseño de materiales hiperuniformes hasta la comprensión de por qué el aprendizaje profundo generaliza.