Como o ruído cria ordem: Um princípio universal que liga física e aprendizado de máquina O ruído geralmente é inimigo da estrutura. No entanto, em certos sistemas — desde suspensões coloidais cisalhadas até algoritmos de otimização estocástica — interações locais ruidosas geram paradoxalmente uma ordem espacial de longo alcance. Esse fenômeno, chamado hiperuniformidade, suprime flutuações de densidade em grandes escalas, mas como ele emerge de dinâmicas puramente locais e ruidosas permaneceu uma questão em aberto por duas décadas. Satyam Anand, Guanming Zhang e Stefano Martiniani estudam três sistemas paradigmáticos: organização aleatória (RO) e organização aleatória enviesada (BRO) a partir da física da matéria mole, e descida estocástica em gradiente (SGD) a partir do aprendizado de máquina. Cada sistema possui fontes de ruído microscópico fundamentalmente diferentes — direções aleatórias de kick em RO, magnitudes aleatórias de kick em BRO e seleção aleatória de partículas em SGD — mas todos passam pela mesma transição de fase absorvente para ativa à medida que a densidade de partículas aumenta. A principal descoberta: apesar dessas diferenças microscópicas, os três sistemas apresentam comportamento universal idêntico de longo alcance, governado por um único parâmetro — o coeficiente de correlação de ruído c entre pares de partículas. Quando o ruído par a par não está correlacionado (c = 0), os sistemas permanecem desordenados. À medida que c se aproxima de −1 (kicks anticorrelacionados que conservam o momento), a escala de comprimento de crossover para supressão de densidade diverge, e os sistemas tornam-se fortemente hiperuniformes. Os autores desenvolvem uma teoria hidrodinâmica flutuante que prevê quantitativamente o fator de estrutura em todos os sistemas sem parâmetros livres. Talvez o mais marcante seja a conexão com o aprendizado de máquina: o mesmo ruído anticorrelacionado que produz hiperuniformidade também enviessa a SGD para regiões mais planas do cenário energético — a característica ligada à generalização robusta em redes neurais. Frações em lote mais baixas e taxas de aprendizado mais altas, conhecidas empiricamente por melhorar a generalização, produzem tanto uma estrutura de longo alcance mais forte quanto mínimos mais planos em sistemas de partículas. A implicação é poderosa: a tendência do SGD de encontrar mínimos planos não é uma peculiaridade das paisagens de perda de redes neurais, mas uma marca universal da otimização estocástica em espaços de alta dimensão — abrindo novos caminhos, desde o design de materiais hiperuniformes até a compreensão por que o deep learning se generaliza. Papel: