
文章圖片

文章圖片

文章圖片
如果多個大模型能讀懂彼此的想法 , 會發生什么?
在 NeurIPS 2025 的 Spotlight 論文 Thought Communication in Multiagent Collaboration 中 , 來自 CMU、Meta AI 和 MBZUAI 的研究者提出了一種全新的協作方式 , 讓模型不再僅僅依靠語言交流 , 而是直接共享「思維」 。
這項研究提出了 Thought Communication(思維溝通)的概念 , 讓智能體在內部層面傳遞潛在思維(latent thoughts) , 實現類似「心靈感應」的合作 。
理論上 , 研究者建立了首個針對多智能體系統的潛在思維可識別性理論 , 證明即使在非參數設定下 , 也能從模型狀態中恢復出共享與私有思維 。 實現上 , 他們據此提出了通用框架 ThoughtComm , 使模型能夠自動抽取、路由并注入這些潛在思維 , 從而實現超越語言的直接溝通 。
結果顯示 , 這種「思維層交流」不僅在理論上可行 , 在實踐中也顯著提升了模型的協作效率與推理能力 。
論文標題:Thought Communication in Multiagent Collaboration 論文鏈接:https://arxiv.org/pdf/2510.20733語言不是終點
語言讓人類能夠協作 , 但也帶著天然的限制 。 它是線性的、模糊的、不精確的 , 只能折射出思維的一部分 。 我們無法直接把腦海里的想法傳給別人 , 只能依賴詞語和句子 , 而這些總會損失細節與語義 。
機器則不同 , 它們沒有聲帶 , 也不受感官約束 。 理論上 , 它們可以擁有一種更高效、更直接的溝通方式 , 不再依賴語言 , 而在「思維層」實現連接 。
這一點在討論超級智能時尤為重要 。 人類的進步源于語言協作 , 而超人級智能的形成則需要超越語言的協調 。 個體的推理能力是一部分 , 群體的共思考能力才是未來智能的核心 。
然而 , 目前的大語言模型協作系統仍停留在「對話」層面 。 模型通過生成文本或 token 來交換信息 , 但這種溝通仍受制于語言的模糊與損耗 。 許多協作失敗 , 正是因為模型「聽到了話」 , 卻沒理解思維 。
于是問題變得清晰:
如果語言有天花板 , 機器之間該如何真正理解彼此?
思維溝通:從傳遞話語到傳遞想法
答案其實很自然:讓模型直接共享「思維」 。
最直接的溝通方式不是解釋「我說了什么」 , 而是傳遞「我在想什么」 。 就像人類的行為由心理狀態驅動一樣 , 大模型的行為也由內部的潛在表征控制 , 那些表征編碼著目標、假設和推理邏輯 。
如果能把這些潛在思維識別并共享出來 , 模型就能跳過語言的冗余與歧義 , 直接交換理解本身 。 思維溝通不依賴顯式 token , 而是傳遞意圖和理解的內在結構 。
在多智能體系統中 , 一些思維是共享的 , 另一些則是私有的 。 識別并結構化地共享這些思維 , 可以讓模型更快達成共識、發現分歧、整合多樣的推理思路 。
理論:讀出模型的「內心世界」
圖中展示了多智能體系統的思維生成過程 。 面對同一個問題 「去機場的最佳方式是什么?」 , 所有智能體都會考慮一組潛在思維 , 包括「是否帶行李」、「速度」和「準點性」等因素 。 這些思維經過生成函數映射 , 形成每個智能體特有的狀態 , 并最終導致不同的決策 。 比如 , Agent 1 更關注「行李」和 「速度」 , 因此選擇開車;而 Agent 2 更關注「速度」和「準點」 , 于是選擇乘火車 。 該示例體現了共享與私有思維如何共同決定智能體的行為 。
思維并不是模型某一層激活的直接結果 , 也不是觀測數據的簡單表征 。 它更像是隱藏在這些表征之下、驅動整個生成過程的深層因素 。 要讓模型真正理解彼此的思維 , 首先需要一個可靠的理論基礎 。
研究者將這一過程形式化:所有智能體在第 t 輪溝通前的狀態為 H_t , 這些狀態由一組潛在思維 Z_t 通過某個未知的生成函數 f 得到 , 即 。
為了確保模型能夠從狀態中恢復出真實的潛在思維 , 而不僅僅是外部世界的某種投影 , 研究者建立了嚴格的可識別性理論 。 他們通過數學證明 , 只要在系統中引入稀疏約束 , 即使在復雜的現實場景中 , 也能從模型的可觀測行為中穩定地恢復出這些隱藏的思維 。
更進一步 , 該理論不僅能夠識別出潛在思維的存在 , 還能區分哪些思維在模型之間是共享的 , 哪些屬于個體獨有 。 換句話說 , 研究者能夠重建每個模型的真實推理結構 , 并揭示模型之間的依賴關系 —— 誰在共享想法 , 誰在獨立思考 。
這意味著模型之間不再只是「聽見」彼此的回答 , 而是真正能夠「理解」對方的思維;它們清楚哪些內容值得交換 , 哪些應當保留 , 從而讓溝通變得更精準、更高效 。
框架:ThoughtComm
圖中概述了 ThoughtComm 的整體流程 。 在每一輪通信中 , 各個智能體將自身的模型狀態輸入到帶稀疏正則的自編碼器中 , 映射到一個共享潛在空間 , 得到潛在思維表示 。 系統根據恢復出的依賴結構 , 選擇性地將不同維度的思維路由給相關智能體 , 使其區分哪些思維是共享的、哪些是私有的 。 隨后 , 這些潛在思維通過前綴適配的方式注入回模型中 , 引導下一輪推理與生成 。 新的響應再作為下一輪輸入 , 從而實現超越語言消息交換的多智能體協作 。
基于這一理論 , 研究者設計了通用框架 ThoughtComm , 讓大模型能夠在「思維層」上溝通 。 整個系統分為三步:
1. 思維抽取
通過帶稀疏約束的自編碼器 , 從模型狀態中學習潛在思維表示 。 系統自動區分共享與私有思維 , 并恢復思維與智能體之間的結構關系 。
2. 思維路由
【讓大模型學會「心靈感應」:基于思維溝通的多智能體合作范式來了】根據共享結構決定哪些思維要傳播、哪些保留本地 , 并引入「同意度」機制來衡量共識程度 , 動態調整共享強度 。
3. 思維注入
最后 , 這些思維被重新注入模型 , 通過前綴適配的方式影響下一輪生成 。 模型因此不僅「看到」文本 , 還能感受到其他智能體的推理傾向 。
整個過程無需修改模型主干 , 只需輕量的適配模塊即可實現 , 具有良好的通用性與擴展性 。
實驗:讓模型真的「讀心」
實驗結果
研究者在多種復雜推理任務上測試了 ThoughtComm , 包括 MATH 與 GSM8K 。 這兩類任務包含復雜的數學問題 , 需要多步邏輯推理與精確的中間思考 , 能夠充分驗證「思維層溝通」的有效性 。
實驗覆蓋五種主流模型:Qwen3 0.6B / 1.7B、Phi-4-mini、Llama3 8B、DeepSeek-R1-distill-Llama-8B 。
結果顯示 , ThoughtComm 在所有模型和任務上都顯著優于單模型推理和傳統多智能體協作方法 。 以 Qwen3 1.7B 為例 , MATH 準確率達到 93.0% , 較基準模型大幅提升;在 GSM8K 上 , 思維溝通同樣帶來明顯收益 。
此外 , 實驗還發現模型之間的一致性提高 , 推理過程更穩定 。 這表明 , 當智能體能夠共享「思維」 , 協作不僅更高效 , 也更具穩健性 。
討論:通向真正的「集體智能」
思維溝通的核心 , 不只是提升性能 , 更在于開啟一種新的智能形態 。
當智能體能直接交流思維 , 它們之間的關系就從「對話」變成了「共思考」 。 語言溝通傳遞結果 , 而思維溝通傳遞原因 。 這讓信息傳遞更密、更準、更高效 , 也讓模型在協作中實現更深層次的理解與協調 。
這或許是多智能體智能演化的關鍵轉折點:從行為層的配合邁向認知層的協同 。 未來的集體智能 , 不再是多個模型簡單協作完成任務 , 而是形成真正的「心智共振」 。
總結
為了讓大模型學會通過「思維」進行溝通 , 研究者將多智能體協作建模為一個潛變量學習問題 , 提出了可識別的理論結果 , 并基于此構建了 ThoughtComm 框架 。 它使智能體直接共享、路由、注入潛在思維 , 從而實現超越語言的協作 。
這項工作揭示了一個更深層的方向:智能的核心不只是行為 , 而是思維 。
理解并共享思維 , 或許正是邁向真正人工集體智能的起點 。
推薦閱讀
- 蘋果太冷、華為太狠、小米太暖?直接讓我陷入思考
- 暢玩3A大作還能部署32B大模型——這套兩萬元的配置把體驗感拉滿
- OpenAI稀疏模型突破大模型黑箱困境,首次看清內部推理全過程
- 啊?微博7800美元訓的大模型,數學能力超了DeepSeek-R1
- 讓中端機的每顆鏡頭都很強,OPPO 是如何做到的?
- 我不在乎S26 Ultra,但我真的希望三星能讓S26 Plus變得更好
- 核心觀點 | 李彥宏:讓AI成為企業發展和個人成長的原生推動力
- 提示工程迎來協作提示新技術,讓AI成為你的合作伙伴
- 百分點科技發布業內首個數據治理大模型“百思”,開啟智理新范式
- 愛普生打印頭攜手瑞豐彩科技,讓個性化DIY觸手可及
