Una GNN informada por la física que aprende las leyes de Newton a partir de datos—y extrapola a sistemas 35× más grandes La mayoría de las redes neuronales para simulación física son hambrientas de datos y frágiles. Entrénalas en una configuración, y se desmoronan cuando cambias las condiciones de contorno, escalas el sistema o realizas largas simulaciones. El problema fundamental: estos modelos aprenden correlaciones, no leyes de conservación. Vinay Sharma y Olga Fink adoptan un enfoque diferente con Dynami-CAL GraphNet. En lugar de esperar que la red descubra la física, la incorporan directamente en la arquitectura. La clave: la tercera ley de Newton garantiza que las fuerzas internas conservan el momento lineal y angular—incluso cuando la energía se disipa a través de la fricción o colisiones inelásticas. Logran esto a través de un novedoso marco de referencia local en los bordes que es SO(3)-equivariante, invariante a la traducción y antisimétrico bajo el intercambio de nodos. Las fuerzas decodificadas a partir de las incrustaciones de los bordes son automáticamente iguales y opuestas. El momento angular recibe el mismo tratamiento: la red predice tanto los torques internos como el punto de aplicación de la fuerza, aislando la rotación de las contribuciones orbitales. Los resultados son sorprendentes. Entrenado con solo cinco trayectorias de 60 esferas colisionando en una caja estacionaria, el modelo extrapola a un embudo cilíndrico rotatorio con 2,073 partículas—manteniendo simulaciones estables y físicamente consistentes durante 16,000 pasos de tiempo. En sistemas N-cuerpos restringidos, captura de movimiento humano y dinámica molecular de proteínas, supera a las líneas base especializadas mientras requiere menos datos. El mensaje: cuando incorporas leyes de conservación en la arquitectura en lugar de en la función de pérdida, obtienes modelos que generalizan a través de escalas, geometrías y condiciones de contorno—porque han aprendido el sesgo inductivo correcto desde el principio. Artículo: