Kuinka kohina luo järjestystä: universaali periaate, joka yhdistää fysiikan ja koneoppimisen Melu on yleensä rakenteen vihollinen. Kuitenkin tietyissä järjestelmissä—leikkauskolloidisista suspensioista stokastisiin optimointialgoritmeihin—meluisat paikalliset vuorovaikutukset tuottavat paradoksaalisesti pitkän kantaman avaruudellista järjestystä. Tätä ilmiötä, jota kutsutaan hypertasaisuudeksi, hillitsee tiheyden vaihtelut suurissa mittakaavoissa, mutta miten se syntyy puhtaasti paikallisesta, meluisasta dynamiikasta, on ollut avoin kysymys kahden vuosikymmenen ajan. Satyam Anand, Guanming Zhang ja Stefano Martiniani tutkivat kolmea paradigmaattista järjestelmää: satunnaista organisointia (RO) ja puolueellista satunnaista organisaatiota (BRO) pehmeän aineen fysiikasta sekä stokastista gradienttilaskua (SGD) koneoppimisesta. Jokaisella järjestelmällä on perustavanlaatuisesti erilaiset mikroskooppiset kohinalähteet—satunnaiset potkusuunnat RO:ssa, satunnaispotkujen suuruudet BRO:ssa ja satunnainen hiukkasvalinta SGD:ssä—mutta kaikki käyvät läpi saman absorboivasta aktiiviseksi vaihesiirtymän hiukkastiheyden kasvaessa. Keskeinen havainto: näistä mikroskooppisista eroista huolimatta kaikki kolme järjestelmää osoittavat identtistä universaalia pitkän kantaman käyttäytymistä, jota ohjaa yksi parametri—hiukkasparien kohinakorrelaatiokerroin c. Kun parikohina ei korreloi (c = 0), järjestelmät pysyvät epäjärjestyksessä. Kun c lähestyy −1:tä (antikorreloidut, liikemäärää säästävät potkut), tiheyden vaimennuksen crossover-pituusasteikko eroaa ja järjestelmät muuttuvat voimakkaasti hyperuniformiksi. Kirjoittajat kehittävät vaihtelevan hydrodynaamisen teorian, joka kvantitatiivisesti ennustaa rakennekerroin kaikissa järjestelmissä ilman vapaita parametreja. Ehkä kaikkein silmiinpistävin on yhteys koneoppimiseen: sama antikorreloituva kohina, joka tuottaa hyperuniformiteettia, myös vinoa SGD:tä kohti energian maiseman tasaisempia alueita—juuri tätä ominaisuus, joka liittyy vahvaan yleistykseen neuroverkoissa. Pienemmät eräosuudet ja korkeammat oppimisnopeudet, jotka tunnetaan empiirisesti yleistyksen parantajina, tuottavat sekä vahvemman pitkän kantaman rakenteen että litteämmät minimit hiukkasjärjestelmissä. Johtopäätös on voimakas: SGD:n taipumus löytää tasaisia minimejä ei ole neuroverkkohäviöiden erikoisuus, vaan universaali tunnusmerkki stokastisessa optimoinnissa korkean ulottuvuuden tiloissa – avaten uusia polkuja hyperyhtenäisten materiaalien suunnittelusta syväoppimisen yleistymisen ymmärtämiseen. Artikkeli: