一种物理信息化的GNN,从数据中学习牛顿定律——并外推到35倍大的系统 大多数用于物理模拟的神经网络都需要大量数据且脆弱。在一个配置上训练它们,当你改变边界条件、扩大系统规模或进行长时间的滚动时,它们就会崩溃。根本问题在于:这些模型学习的是相关性,而不是守恒定律。 Vinay Sharma和Olga Fink采用了不同的方法,使用Dynami-CAL GraphNet。与其希望网络发现物理规律,他们直接将其嵌入到架构中。关键的见解是:牛顿第三定律保证了内部力保持线性和角动量的守恒——即使在能量通过摩擦或非弹性碰撞耗散时也是如此。 他们通过一种新颖的边局部参考框架实现了这一点,该框架是SO(3)-等变的、平移不变的,并且在节点互换下是反对称的。从边嵌入解码的力自动相等且方向相反。角动量也得到了同样的处理:网络预测内部扭矩和力的施加点,将自旋与轨道贡献隔离开来。 结果令人瞩目。在仅用五条轨迹训练60个碰撞球体的静止箱子后,该模型能够外推到一个具有2073个粒子的旋转圆柱形料斗——在16000个时间步长内保持稳定、物理一致的滚动。对于受限的N体系统、人类运动捕捉和蛋白质分子动力学,它在需要更少数据的情况下超越了专业基准。 信息是:当你将守恒定律嵌入架构中而不是损失函数时,你会得到能够跨尺度、几何和边界条件进行泛化的模型——因为它们从一开始就学习到了正确的归纳偏差。 论文: