Gürültü nasıl düzen yaratır: Fizik ile makine öğrenimini birbirine bağlayan evrensel bir ilke Gürültü genellikle yapının düşmanıdır. Ancak bazı sistemlerde—kesilen kolloidal süspansiyonlardan stokastik optimizasyon algoritmalarına kadar—gürültülü yerel etkileşimler paradoksal olarak uzun menzilli mekânsal düzen üretir. Bu olgu, hiperuniformite olarak adlandırılır ve büyük ölçeklerde yoğunluk dalgalanmalarını bastırır, ancak bunun tamamen yerel, gürültülü dinamiklerden nasıl ortaya çıktığı yirmi yıldır açık bir soru olarak kalmıştır. Satyam Anand, Guanming Zhang ve Stefano Martiniani, yumuşak madde fiziğinden rastgele organizasyon (RO) ve önyargılı rastgele organizasyon (BRO) ile makine öğreniminden stokastik gradyan iniş (SGD) olmak üzere üç paradigmatik sistemi inceler. Her sistemin temelde farklı mikroskobik gürültü kaynakları vardır—RO'da rastgele vuruş yönleri, BRO'da rastgele tekme büyüklükleri ve SGD'de rastgele parçacık seçimi—ancak hepsi parçacık yoğunluğu arttıkça aynı emilimden aktifliğe geçiş geçirir. Temel bulgu: bu mikroskobik farklılıklara rağmen, üç sistemin tamamı tek bir parametreyle yönetilen evrensel uzun menzilli davranış sergiler—parçacık çiftleri arasındaki gürültü korelasyon katsayısı c. İkili gürültü korelasyonsuz olduğunda (c = 0), sistemler düzensiz kalır. c −1'e yaklaştıkça (anti-korelasyonlu, momentum koruyan tekmeler), yoğunluk baskısı için geçiş uzunluğu ölçeği ayrılır ve sistemler güçlü bir şekilde hiperuniform hale gelir. Yazarlar, serbest parametreler olmadan tüm sistemler boyunca yapı faktörünü nicel olarak tahmin eden dalgalanan bir hidrodinamik teori geliştirirler. Belki de en çarpıcı olanı makine öğrenimiyle bağlantıdır: hiperuniformite üreten aynı anti-korelasyon gürültüsü, SGD'yi enerji manzarasının daha düz bölgelerine yöneltir—ki bu özellik sinir ağlarında sağlam genellemeye bağlıdır. Genelleştirmeyi artırdığı ampirik olarak bilinen düşük parti fraksiyonları ve yüksek öğrenme oranları, parçacık sistemlerinde hem daha güçlü uzun menzilli yapı hem de daha düz minimumlar oluşturur. İma çok güçlü: SGD'nin düz minimumları bulma eğilimi, sinir ağı kayıplarının bir tuhaflığı değil, yüksek boyutlu alanlarda stokastik optimizasyonun evrensel bir ayırt edici özelliğidir—hiperuniform materyaller tasarlamaktan derin öğrenmenin neden genelletildiğini anlamaya kadar yeni yollar açıyor. Makale: