熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁

Jorge Bravo Abad
物理@UAM_Madrid教授 |教授。材料人工智慧實驗室 PI |材料人工智慧實驗室主任。
自主單分子化學:當深度強化學習一次打破一個鍵
在單一分子中打破特定的化學鍵——同時不影響其鄰近的鍵——是化學中最困難的事情之一。STM 錐尖可以通過將隧道電子注入精確位置來做到這一點,但這些實驗需要專家手動調整每次嘗試的錐尖位置、偏壓電壓和電流。太少則什麼都不會發生;太多則會摧毀分子。
Zhiwen Zhu 和合著者現在展示了一個完全自主的平台,能夠在沒有人工干預的情況下執行多步驟、選擇性打鍵反應。他們的系統是一種四溴化的卟啉 (TPP-Br₄) 在 Au(111) 上——四個等效的 C–Br 鍵圍繞著卟啉核心,沿著預定的路徑(鄰位、對位、鄰位*、鄰位-Z)通過不同的中間體依次解離。
該流程有三個階段。YOLOv7 關鍵點檢測和 U-Net 分割定位分子並確定方向。ResNet-18 分類器讀取每個溴位周圍的區域,將分子狀態編碼為 4 位二進制向量。然後,Soft Actor-Critic RL 代理決定錐尖的放置、電壓和電流。該代理通過 TCP 直接與 STM 互動,操縱、重新掃描並獲得分級獎勵——正獎勵用於正確的單鍵斷裂,負獎勵用於無反應、錯誤位置激活或降解。
為了應對數據稀缺——在 36 小時內僅有 948 次事件——他們通過不變變換經驗重播利用分子的 D₄ₕ 對稱性,生成等效的虛擬軌跡而無需額外實驗。
該代理發現了真實的物理學。最佳偏壓隨著每一步去溴化而增加(第一個鍵約 2.5 V,最後一個鍵約 3.2 V),反映了自由基中間體的電子結構的演變。它將錐尖定位於目標鍵上,與隧道電子激發的空間衰減一致,並實時適應錐尖條件的變化。單步成功率達到 50–79%,四步完整完成率為 29–35%——完全不需要人類指導。
從機器學習的角度來看,該算法在極端約束下運行:微小的成功區域、稀疏的噪聲獎勵、非平穩環境和不可逆的失敗模式。SAC 的熵正則化提供了探索平衡,而增強對稱的重播防止了策略崩潰。
這指向了能夠主動進行實驗的 AI 代理,從與物理系統的直接互動中學習最佳協議。
論文:

1
神經形態光子計算與類比記憶相遇:消除數據轉換瓶頸
大多數 AI 硬體運行在電子晶片上,計算是通過在晶體管中移動電子來進行的。但有一個日益增長的替代方案:使用光來執行神經網絡操作。在光子處理器中,矩陣乘法是通過將數據編碼為光信號並通過可調微型環共振器陣列來執行的,每個共振器充當突觸權重。光的物理特性使得大規模並行處理和超低延遲傳播成為可能,承諾提供電子設備無法匹敵的速度和能量效率。
然而,卻存在一個意外的平凡瓶頸:每個突觸權重都需要一個專用的數字-類比轉換器 (DAC) 來不斷驅動編碼器。對於大小為 n×n 的權重矩陣,這意味著需要 n² 個 DAC 不斷運行——不是為了計算,而只是為了保持電壓不變。數據在數字記憶體和類比計算之間的傳輸能量成本有可能抵消光子技術的優勢。
Sean Lam 和合著者們展示了一個優雅的解決方案:在每個光調製器上直接放置一個微小的電容器。一旦充電,它就能保持權重而不需要 DAC 持續運作。DAC 然後在列之間共享,僅在需要更新權重時啟動——其擴展為 n 而不是 n²。這一概念稱為動態電光類比記憶 (DEOAM),在標準的 90 nm 鑄造工藝中製造於單片矽光子晶片上,與傳統設計相比實現了超過 26 倍的功率節省。
實驗數據清晰地框定了權衡。寫入時間約為 40–50 ns,保持時間約為 0.83 ms,每次寫入能量約為 56 pJ,位精度約為 5.6 位。保持時間取決於入射光功率——更多的光意味著更多的洩漏——在信號質量和記憶體壽命之間創造了直接的緊張關係。
為了理解這些規格對實際工作負載的意義,作者們在 MNIST 上模擬了一個三層神經網絡。保持與網絡延遲的比率僅需 100 即可使推理準確率保持在 90% 以上。考慮到洩漏的網絡訓練變得更加穩健——這是一個硬體感知訓練獲得回報的生動例子。
驅動電子內存計算的相同原則——移動數據的能量成本高於用它進行計算——在這裡也適用於混合電光領域。當前大多數光子處理器只能對在 GPU 上離線訓練的權重進行推理。DEOAM 為片上在線訓練開辟了一條道路,讓網絡能夠不斷適應新數據和硬體漂移。
論文:

1
同時建模所有28,000個基因:單細胞轉錄組學的基礎模型
你身體中的每個細胞都攜帶相同的基因組,但神經元的外觀和行為與肝細胞完全不同。這種差異在於哪些基因被開啟或關閉——以及開啟的程度。單細胞RNA測序(scRNA-seq)讓我們能夠逐個細胞測量這種表達譜,揭示稀有細胞群體、基因調控和藥物反應,達到前所未有的解析度。
在數百萬個細胞上預訓練的基礎模型已成為分析這些數據的強大工具。但它們都有一個實際的妥協:將注意力機制限制在約2,000個高表達基因上,並丟棄剩餘的約26,000個。儘管這些被排除的基因表達量低,但它們作為調控開關、信號通路的微調器以及驅動特定情境反應(如免疫激活或藥物抗性)的因素,仍然扮演著重要角色。忽視它們意味著學習到的細胞圖像是不完整的。
丁白及其合著者通過scLong解決了這一問題,這是一個在4800萬個細胞上預訓練的十億參數模型,能夠對所有27,874個人類基因進行自我注意。為了使這一切可行,他們使用了雙編碼器:一個大型的表現者(42層)處理前4,096個高表達基因,而一個較小的(2層)則處理剩餘的約24,000個。兩者的輸出通過一個全長編碼器合併,捕捉跨組互動。scLong還通過圖卷積網絡整合基因本體知識,為每個基因嵌入其已知功能、過程和細胞定位的信息——這是僅靠表達數據無法提供的上下文。
結果一致且廣泛。在預測基因擾動的轉錄反應時,scLong在未見擾動上達到0.63的皮爾森相關性,而現有模型和GEARS的相關性為0.56–0.58。它在所有指標上超越了Geneformer、scGPT和DeepCE在化學擾動預測中的表現,對癌症藥物反應達到0.873的皮爾森相關性,並在基因調控網絡推斷中超越了Geneformer和DeepSEM。
更廣泛的觀點是:在生物基礎模型中,你選擇關注的內容塑造了你能學到的東西。通過包括低表達基因並將表示基於功能知識,scLong顯示出擴展上下文——而不僅僅是參數——是捕捉細胞調控全貌的關鍵。這一原則在長距離特徵依賴在生物學上有意義但計算上昂貴的模型中是相關的。
論文:

2
熱門
排行
收藏
