一個物理知識驅動的GNN,從數據中學習牛頓定律——並推斷出35倍更大的系統 大多數用於物理模擬的神經網絡都需要大量數據且不夠穩定。在一種配置上訓練它們,當你改變邊界條件、擴大系統或進行長時間的模擬時,它們就會崩潰。根本問題在於:這些模型學習的是相關性,而不是守恆定律。 Vinay Sharma和Olga Fink採取了不同的方法,使用Dynami-CAL GraphNet。與其希望網絡發現物理知識,他們將其直接嵌入到架構中。關鍵見解是:牛頓的第三定律保證內部力保持線性和角動量的守恆——即使能量因摩擦或非彈性碰撞而耗散。 他們通過一種新穎的邊緣局部參考框架來實現這一點,該框架是SO(3)-等變的、平移不變的,並且在節點互換下是反對稱的。從邊緣嵌入解碼的力自動相等且方向相反。角動量也得到了同樣的處理:網絡預測內部扭矩和力的施加點,將自旋與軌道貢獻隔離。 結果令人驚訝。該模型僅在五條60個碰撞球體的軌跡上訓練,便能推斷出一個擁有2,073個粒子的旋轉圓柱形料斗——在16,000個時間步內保持穩定且物理一致的模擬。在受限的N體系統、人類動作捕捉和蛋白質分子動力學中,它的表現超過了專門的基準,同時需要更少的數據。 信息是:當你將守恆定律嵌入架構中而不是損失函數時,你會得到能夠跨越尺度、幾何和邊界條件進行泛化的模型——因為它們從一開始就學會了正確的歸納偏見。 論文: