Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En fysikinformerad GNN som lär sig Newtons lagar från data – och extrapolerar till system som är 35 × större
De flesta neurala nätverk för fysiksimulering är datakrävande och sköra. Träna dem på en konfiguration, och de faller isär när du ändrar randvillkoren, skalar upp systemet eller kör långa utrullningar. Det grundläggande problemet: dessa modeller lär sig korrelationer, inte bevarandelagar.
Vinay Sharma och Olga Fink tar en annan väg med Dynami-CAL GraphNet. Istället för att hoppas att nätverket upptäcker fysiken, bäddar de in den direkt i arkitekturen. Den viktigaste insikten: Newtons tredje lag garanterar att interna krafter bevarar linjär och vinkelrörelsemängdsmoment—även när energin försvinner genom friktion eller inelastiska kollisioner.
De uppnår detta genom en ny kantlokal referensram som är SO(3)-ekvivariant, translationsinvariant och antisymmetrisk under nodutbyte. Krafter som avkodas från kantinbäddningar är automatiskt lika och motsatta. Rörelsemängdsmoment behandlas på samma sätt: nätverket förutspår både interna vridmoment och kraftpunkten, och isolerar spinn från banens bidrag.
Resultaten är slående. Modellen tränas på endast fem banor med 60 kolliderande sfärer i en stillastående låda och extrapolerar till en roterande cylindrisk behållare med 2 073 partiklar – och upprätthåller stabila, fysiskt konsekventa utrullningar över 16 000 tidssteg. På begränsade N-kroppssystem, mänsklig rörelsefångst och proteinmolekylär dynamik överträffar den specialiserade baslinjer samtidigt som den kräver mindre data.
Budskapet: när du bygger in bevarandelagar i arkitekturen istället för förlustfunktionen, får du modeller som generaliserar över skalor, geometrier och randvillkor – eftersom de har lärt sig rätt induktiv bias från början.
Papper:

Topp
Rankning
Favoriter
