田淵棟:2025年年終總結(一)

田淵棟:2025年年終總結(一)

文章圖片

田淵棟:2025年年終總結(一)

文章圖片

田淵棟:2025年年終總結(一)



編輯:桃子
【新智元導讀】從救火Llama 4反被裁 , 再到如今下場自創業 , AI大佬田淵棟回顧了2025年一些重要時刻 。


最近太忙 , 只能把年終總結放到1月1日之后再寫了 , 不管怎樣 , 能開始動筆就是好事 。

關于被裁


在2025年1月底被要求加入Llama4救火的時候 , 作為一直以來做強化學習的人 , 我事先畫了一個2x2的回報矩陣(reward matrix) , 計算了一下以下四種可能(雖然在那時 , 因為來自上面的巨大壓力 , 不同意是幾乎不可能的):

當時想的是我們去幫忙的話 , 即便最后項目未能成功 , 也至少盡力而為 , 問心無愧 。 不過遺憾的是 , 最后發生的是沒在計算之內的第五種可能 , 這也讓我對這社會的復雜性有了更為深刻的認識 。
盡管如此 , 在這幾個月的努力過程中 , 我們還是在強化學習訓練的核心問題上有一些探索 , 比如說訓練穩定性 , 訓推互動 , 模型架構設計 , 和預訓練/中期訓練的互動 , 長思維鏈的算法 , 數據生成的方式 , 后訓練框架的設計等等 。
這個經驗本身是很重要的 , 對我的研究思路也帶來了不小的轉變 。
另外其實我也想過在公司十年多了 , 總有一天要離開 , 總不見得老死在公司里吧 , 但總是因為各種經濟上和家庭上的原因還是要待下去 。
最近一兩年的說話和做事方式 , 都是抱著一種「公司快把我開了吧」的心態 , 反而越來越放開 。
2023年年末我休第一個長假的時候 , 其實幾乎差點要走了 , 但最后沒簽字還是選擇待在公司繼續 , 所以說真要做出離開的決定也不容易 。 現在Meta幫我做了也挺好 。
這次波折和今年一年的起起落落 , 也為接下來的小說創作提供了非常多的新素材 。
所謂「仕途不幸詩家幸 , 賦到滄桑句便工」 , 生活太平淡 , 人生就不一定有樂趣了 。 還記得2021年年頭上的時候 , 因為在年末工作總結里面寫了幾句關于「為啥paper都沒中」的反思 , 喜提Meet Most , 有一種突然不及格的懵逼感 。
但想了想與其到處抱怨世道不公 , 不如就在大家面前裝成自己剛剛升職吧 , 結果半年后果然升了職 , 而那篇21年頭上無人問津的工作 , 在21年7月份中了ICML Best paper honorable mention , 成為一篇表征學習中還比較有名的文章 。
10月22號之后的一段時間 , 基本上我的各種通信方式都處于擠爆的狀態 , 每天無數的消息和郵件 , 還有各種遠程會議或者見面的邀請 , 實在是忙不過來了 。
一直到幾周之后才漸漸恢復正常 。 這兩個月非常感謝大家的關心和熱情 。 如果那時有什么消息我沒有及時回復 , 請見諒 。
雖然最后有不少offer , 大家能想到的知名公司也都聯系過我 , 但最后還是決定乘自己還年輕 , 去當一家新初創公司的聯合創始人 , 細節暫時不公開 , 先安靜地忙活一陣吧 。

一些研究的方向


2025年的主要方向 , 一個是大模型推理 , 另一個是打開模型的黑箱 。
自從2024年末我們的連續隱空間推理(coconut , COLM’25)工作公開之后 , 25年在這個研究方向上掀起了一股熱潮 。 大家探索如何在強化學習和預訓練中使用這個想法 , 如何提高它的訓練和計算的效率 , 等等 。
雖然我們組隨后就被拉去llama干活 , 沒能再繼續花很大力氣往下挖 , 但這個讓我覺得非常欣慰 。
盡管如此 , 我們還是在上半年發了一篇理論分析(Reasoning by Superposition , NeurIPS‘25)的文章 , 展示連續隱空間推理有優勢的地方究竟在哪里 , 獲得了不少關注 。
另外是如何提高大模型的推理效率 。 我們的Token Assorted(ICLR’25)的工作 , 先通過VQVAE學出隱空間的離散token , 再將所得的離散token和text token混在一起進行后訓練 , 減少了推理代價的同時提高了性能 。
我們的DeepConf通過檢測每個生成token的自信程度 , 來決定某條推理路徑是否要被提前終止 , 這樣推理所用的token減少了很多 , 但在majority vote的場景下性能反而更好 。
ThreadWeaver則是通過制造并行推理的思維鏈 , 并在其上做后訓練 , 來加快推理速度 。 另外我們也在dLLM上用RL訓練推理模型(Sandwiched Policy Gradient) , 也有在小模型上學習推理的嘗試(MobileLLM-R1) 。
在可解釋性方面 , Grokking(頓悟)這個方向我大概兩年前就在關注了 。 因為之前我做表征學習(representation learning)的分析 , 雖然能分析出學習的動力學過程 , 看到模型出現表征塌縮的原因 , 但究竟學出什么樣的表征 , 它們和輸入數據的結構有什么關系 , 能達到什么樣的泛化能力 , 還是個謎團 , 而通過分析Grokking這個特征涌現的現象 , 從記憶到泛化的突變過程 , 正好能解開這個謎團 。
一開始確實非常難做沒有頭緒 , 2024年先做了一篇COGS(NeurIPS‘25 , 見求道之人 , 不問寒暑(十)) , 但只能在特例上進行分析 , 我不是很滿意 。
在一年多的迷茫之后 , 在和GPT5大量互動之后 , 最近的這篇Provable Scaling Laws的文章應該說有比較大的突破 , 能分析出之前的線性結構(NTK)看不到的東西 , 并把特征涌現的訓練動力學大概講清楚了 。 雖然說分析的樣例還是比較特殊 , 但至少打開了一扇新的窗口 。 詳細解釋請看田淵棟 的想法 。
年末的這篇The path not taken我很喜歡 , 對于RL和SFT的行為為何會如此不一致 , 在權重的層面給出了一個初步的答案 。
SFT造成過擬合和災難性遺忘(catastrophic forgetting) , 其表層原因是訓練數據不夠on-policy , 而深層原因是權重的主分量直接被外來數據大幅修改 , 導致「根基」不穩 , 模型效果大降 。
而RL則因為用on-policy的數據進行訓練 , 權重的主分量不變 , 改變的只是次要分量 , 反而能避免災難性遺忘的問題 , 而改變的權重其分布也會較為稀疏(特別在bf16的量化下) 。

關于可解釋性的信念


很多人覺得可解釋性 , 或者「AI如何工作得那么好」這個問題不重要 , 但我卻覺得很重要 。 試想之后的兩種場景:

  • 場景一:如果我們僅僅通過Scaling就達到了AGI乃至ASI , 全體人類的勞動價值都降為零 , AI作為一個巨大的黑盒子幫我們解決了所有問題 , 那如何讓AI作為一個超級智能 , 一直行善 , 不欺騙不以隱秘的方式作惡 , 就是當務之急 , 要解決這個問題就要做可解釋性 。
  • 場景二:如果Scaling這條路最終失效 , 人類在指數增長的資源需求面前敗下陣來 , 必須得要尋求其它的方案 , 那我們就不得不去思考「模型為什么有效 , 什么東西會讓它失效」 , 在這樣的思考鏈條之下 , 我們就必須回歸研究 , 可解釋性就是目所能及的另一條路了 。


在這兩種情況下 , 最終都需要可解釋性來救場 。 就算最終AI是個全知全能全善的神 , 以人類好奇和探索的天性 , 必然還是會去研究AI為什么能做得好 。
畢竟「黑盒」就意味著猜疑鏈的誕生 , 在大模型技術爆炸 , 開始達到甚至超過人類平均水平的今天 , 《三體》中「黑暗森林」的規則 , 也許會以另一種方式呈現出來 。
目前打開訓練好模型的黑箱 , 去找到電路(circuit) , 還是處于比較初步的階段 。
可解釋性真正的難點 , 在于從第一性原理 , 即從模型架構、梯度下降及數據本身的固有結構出發 , 解釋為什么模型會收斂出這些解耦、稀疏、低秩、模塊化、可組合的特征與回路 , 為什么會有大量不同的解釋 , 這些涌現出來的結構和模型訓練的哪些超參數相關 , 如何相關 , 等等 。
等到我們能從梯度下降的方程里 , 直接推導出大模型特征涌現的必然性 , 可解釋性才算真正從生物式的證據收集走向物理式的原理推導 , 最終反過來指導實踐 , 為下一代人工智能的模型設計開辟道路 。
對比四百年前的物理學 , 我們現在有很多AI版的第谷(收集數據) , 一些AI版的開普勒(提出假說) , 但還沒有AI版的牛頓(發現原理) 。
等到那一天來臨的時候 , 我相信 , 世界一定會天翻地覆 。
參考資料:
https://zhuanlan.zhihu.com/p/1990809161458540818
【田淵棟:2025年年終總結(一)】注:本文授權轉載 , 若二次轉載請聯系原作者 。

    推薦閱讀