Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. i fysik @UAM_Madrid | Professor. Projektledare för labbet för AI för material | Föreståndare för AI for Materials Lab.
Hur brus skapar ordning: En universell princip som länkar fysik och maskininlärning
Ljud är vanligtvis strukturens fiende. Men i vissa system – från skjuvade kolloidala suspensioner till stokastiska optimeringsalgoritmer – genererar bullriga lokala interaktioner paradoxalt sett långdistans rumslig ordning. Detta fenomen, kallat hyperuniformitet, undertrycker täthetsfluktuationer på stora skalor, men hur det uppstår ur rent lokala, brusiga dynamiker har förblivit en öppen fråga i två decennier.
Satyam Anand, Guanming Zhang och Stefano Martiniani studerar tre paradigmatiska system: slumpmässig organisation (RO) och snedvriden slumpmässig organisation (BRO) från mjuk materiefysik, samt stokastisk gradientnedstigning (SGD) från maskininlärning. Varje system har fundamentalt olika mikroskopiska bruskällor—slumpmässiga kickriktningar i RO, slumpmässiga kick-magnituder i BRO och slumpmässig partikelval i SGD—men alla genomgår samma absorptions- till aktiva fasövergång när partikeltätheten ökar.
Den viktigaste slutsatsen: trots dessa mikroskopiska skillnader uppvisar alla tre systemen identiskt universellt långdistansbeteende, styrt av en enda parameter – bruskorrelationskoefficienten c mellan partikelpar. När parvis brus är okorrelerat (c = 0) förblir systemen oordnade. När c närmar sig −1 (anti-korrelerade, rörelsemängdsbevarande kickar), divergerar korslängdskalan för densitetssuppression och systemen blir starkt hyperuniforma.
Författarna utvecklar en fluktuerande hydrodynamisk teori som kvantitativt förutsäger strukturfaktorn över alla system utan fria parametrar.
Kanske mest slående är kopplingen till maskininlärning: samma antikorrelerade brus som ger hyperuniformitet snedvrider också SGD mot plattare delar av energilandskapet – just den egenskap som är kopplad till robust generalisering i neurala nätverk. Lägre batchfraktioner och högre inlärningshastigheter, som empiriskt är kända för att förbättra generalisering, ger både starkare långdistansstruktur och plattare minima i partikelsystem.
Implikationen är kraftfull: SGD:s tendens att hitta platta minima är inte en egenhet i neurala nätverksförlustlandskap utan ett universellt kännetecken för stokastisk optimering i högdimensionella rum – vilket öppnar nya vägar från design av hyperuniforma material till att förstå varför djupinlärning generaliseras.
Papper:

107
Djupinlärning knäcker metalloproteindockning – en blind fläck inom läkemedelsupptäckt
Metalloproteiner finns överallt inom biologin – matrismetalloproteinaser vid cancer, superoxiddismutas vid neurodegeneration, endonukleaser vid virusreplikation. De är viktiga läkemedelsmål, men beräkningsverktyg har svårt med dem. Problemet: metalljoner antar olika koordinationsgeometrier med flexibla bindningspreferenser och starka polarisationseffekter som konventionella poängfunktioner inte kan fånga. De flesta dockningsverktyg ignorerar metaller helt eller är begränsade till system med enbart zink.
Hui Zhang och medförfattare introducerar MetalloDock, det första deep learning-dockningsramverket som byggts specifikt för metalloproteiner. Den viktigaste innovationen är en autoregressiv genereringsstrategi som börjar från metallens centrum, först förutsäger vilken ligandatom som koordinerar med metallen (donatoratomen), och sedan bygger resten av molekylen utåt enligt kovalent topologi. Fysikmedvetna begränsningar säkerställer realistiska koordinationsgeometrier genom hela serien.
På deras kuraterade benchmark med 8 836 metalloprotein-ligandkomplex som täcker Zn²⁺, Mg²⁺, Ca²⁺, Mn²⁺, Fe²⁺ och Co²⁺ uppnår MetalloDock 78,6 % dockningsframgång – vilket överträffar AlphaFold3, Glide och alla andra testade metoder. Den förutsäger donatoratomer med 88,9 % noggrannhet och återger koordinationsavstånd inom 0,12 Å från kristallstrukturer.
Det verkliga testet: prospektiva experiment. Virtuell screening mot PSMA identifierade två nya inhibitorer (IC₅₀ = 0,22–0,38 μM). Rationell design riktad mot influensa PA-endoklease – ett utmanande binukleärt manganenzym – gav hämmare med IC₅₀ så lågt som 191 nM.
Budskapet: metallkoordination har varit en ihållande blind fläck inom beräkningsläkemedelsupptäckt. Genom att bygga fysikpriorer direkt i arkitekturen kan djupinlärning äntligen ta itu med detta problem – öppna metalloenzymer för samma högkapacitetsscreening som har förändrat andra målklasser.
Papper:

127
En fysikinformerad GNN som lär sig Newtons lagar från data – och extrapolerar till system som är 35 × större
De flesta neurala nätverk för fysiksimulering är datakrävande och sköra. Träna dem på en konfiguration, och de faller isär när du ändrar randvillkoren, skalar upp systemet eller kör långa utrullningar. Det grundläggande problemet: dessa modeller lär sig korrelationer, inte bevarandelagar.
Vinay Sharma och Olga Fink tar en annan väg med Dynami-CAL GraphNet. Istället för att hoppas att nätverket upptäcker fysiken, bäddar de in den direkt i arkitekturen. Den viktigaste insikten: Newtons tredje lag garanterar att interna krafter bevarar linjär och vinkelrörelsemängdsmoment—även när energin försvinner genom friktion eller inelastiska kollisioner.
De uppnår detta genom en ny kantlokal referensram som är SO(3)-ekvivariant, translationsinvariant och antisymmetrisk under nodutbyte. Krafter som avkodas från kantinbäddningar är automatiskt lika och motsatta. Rörelsemängdsmoment behandlas på samma sätt: nätverket förutspår både interna vridmoment och kraftpunkten, och isolerar spinn från banens bidrag.
Resultaten är slående. Modellen tränas på endast fem banor med 60 kolliderande sfärer i en stillastående låda och extrapolerar till en roterande cylindrisk behållare med 2 073 partiklar – och upprätthåller stabila, fysiskt konsekventa utrullningar över 16 000 tidssteg. På begränsade N-kroppssystem, mänsklig rörelsefångst och proteinmolekylär dynamik överträffar den specialiserade baslinjer samtidigt som den kräver mindre data.
Budskapet: när du bygger in bevarandelagar i arkitekturen istället för förlustfunktionen, får du modeller som generaliserar över skalor, geometrier och randvillkor – eftersom de har lärt sig rätt induktiv bias från början.
Papper:

173
Topp
Rankning
Favoriter
