77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明

文章圖片

77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明
編輯:KingHZ
【新智元導讀】「AI教父」Hinton畢生致力于讓機器像大腦般學習 , 如今卻恐懼其后果:AI不朽的身體、超凡的說服力 , 可能讓它假裝愚笨以求生存 。 人類對「心智」的自大誤解 , 預示著即將到來的智能革命 。


當大家熱議AI算力與應用之時 , 「AI教父」Hinton猛地扯回「何為人」的原點 。
幾十年來 , Hinton像一位耐心的煉金術士 , 致力于將模仿大腦運作的理論 , 鍛造成驅動現代AI的強大引擎 。
然而 , 這位創造者如今卻站在了自己創造物的陰影之下 , 發出了沉重的警告 。
因其在神經網絡領域的開創性工作 , Geoffrey Hinton榮獲諾貝爾物理學獎——盡管他謙虛地承認自己「不搞物理」 。
在與著名主持人Jon Stewart的深度對話中 , Hinton不僅僅科普了AI的基石 , 更在不經意間 , 一步步引領我們走向令人毛骨悚然的結論:
我們所創造的這些數字心智 , 可能已經擁有了我們一直以為人類獨有的東西——主觀體驗 。


訪談中 , Hinton解釋了大語言模型(LLM)的本質——它們通過同樣的方式 , 學習海量文本 , 從而預測下一個最有可能出現的詞 。
他尖銳地指出 , 人類思考和說話的方式 , 與LLM在底層邏輯上驚人地相似 , 都是基于已有信息對未來進行預測 。
他認為 , 我們對「心智」的理解——一個存在「內在劇場」和「主觀體驗」的特殊領域——是「徹頭徹尾的錯誤」 , 就像地平論一樣原始 。
他用一個給機器人鏡頭前放棱鏡的巧妙思想實驗論證 , AI完全有能力像我們一樣 , 區分客觀現實與「主觀感受到的現實」 。




AI:從識鳥到自主意識


Hinton將大腦神經元的工作比作此起彼伏的「?!孤?。
一個概念 , 比如「勺子」 , 不過是一群神經元形成的「聯盟」:它們互相鼓動 , 齊聲作響 。
學習 , 就是改變這些連接的強度 , 讓某些「?!孤暤耐镀睓嘀馗?。 而他畢生的工作 , 就是教會計算機用同樣的方式去學習 , 擺脫死板的「如果-那么」規則 。
他描述了一個迷人的過程:如何讓一個神經網絡從零開始 , 僅僅通過觀看海量圖片 , 自己學會識別一只鳥 。
它會自發地在第一層創造出「邊緣檢測器」;
在第二層將邊緣組合成「尖尖的東西」(潛在的鳥喙)和「圓圓的東西」(潛在的眼睛;
最終在頂層 , 當一個「鳥頭」和「雞爪」在正確的位置同時出現時 , 一個神經元會興奮地「叮」一聲 , 宣布:「這是一只鳥!」

1986年 , Hinton和同僚們提出了名為「反向傳播」的學習算法 。

這個算法的魔力在于:當給神經網絡一張鳥的圖片 , 并告訴它「正確答案是鳥」時 , 它能瞬間計算出網絡中上萬億個連接強度 , 每一個應該朝哪個方向微調 , 才能讓「這是鳥」的概率哪怕增加0.01% 。
然后 , 它同時調整所有上萬億個連接 。

就在那一刻 , 神經網絡從理論走向了實踐 。 這是他們的「尤里卡時刻」 。
盡管當時因為算力和數據的匱乏而「沒有用途」 , 但在幾十年后 , 隨著摩爾定律和互聯網的爆發 , 它成為了點燃當今AI革命的火種 。
同樣的邏輯 , 被應用到了語言上 。 大語言模型的核心任務極其簡單:預測句子中的下一個詞 。

它將你輸入的每個詞 , 都轉換成一個獨特的神經元「?!沟哪J?。 然后 , 通過觀察人類留下的海量文本 , 它利用「反向傳播」算法 , 不斷調整內部上萬億的連接權重 , 只為在一次又一次的預測中 , 更接近人類會寫出的那個詞 。
許多人 , 包括語言學泰斗喬姆斯基 , 都認為這不過是「一個統計技巧」 , 并非真正的理解 。

Hinton解釋說 , 模型通過預測下一個詞來學習 , 這聽起來像是冰冷的統計學 。
但隨后 , 他將矛頭直指人類自己:「那么 , 你如何決定下一個要說什么詞?」主持人Jon Stewart一時語塞 。
我們的大腦 , Hinton解釋道 , 運作方式并無本質不同 。 我們過去的言語形成了語境 , 激活了大腦中代表意義的神經元聯盟 。 這些聯盟相互作用 , 最終「?!钩隽讼乱粋€詞的意義 。

我們歸因于情商、道德準則的一切 , 本質上 , 都只是那些神經元聯盟復雜的「叮叮作響」 。 而神經網絡 , 完全可以做到同樣的事情 。
Hinton平靜地說 , 在這一點上 , AI和人類很像 。
也正是在這一點上 , 這場看似輕松的科普訪談 , 悄然滑向了一個深邃、甚至令人恐懼的哲學深淵 。
Jon Stewart以為AI最大的威脅是它被壞人武器化 , 用于操縱選舉或制造生物武器 。 但Hinton的擔憂 , 顯然已經超越了這個層面 。
他真正恐懼的 , 不是AI成為工具 , 而是AI本身 。
而這一切的根源 , 在于一個我們從未真正審視過的問題:到底什么是「意識」和「主觀體驗」?



心智幻覺:我們都是內在劇場的囚徒


Jon Stewart談到「有感知能力」(sentient)的AI , 可能會因為自負而反抗人類 。

這時 , Hinton打斷了他 , 并拋出了一個顛覆性的論斷:
我的信念是 , 幾乎每個人都對心智是什么有完全的誤解 。 誤解的程度 , 就像相信地球是6000年前創造一樣 。


大家普遍相信的「心智劇場」模型——即我們的頭腦中有一個內在舞臺 , 上演著我們的思想和感受 。
當我們說「我體驗到一種感覺」時 , 我們想象自己的頭腦里有一個舞臺 , 上面正在上演著各種體驗——
比如 , 吃完蘑菇「見手青」后 , 看到的「粉色小飛象」 。

但Hinton認為 , 這是完全錯誤的 。 「體驗這種東西不存在」 。
為了解釋這個顛覆性的觀點 , 他設計了一個精妙的思想實驗:

  1. 你有一個能看、能說、還能用機械臂指東西的AI機器人 。
  2. 把一個物體放在機器人面前 , 機器人能準確地指向物體 。
  3. 然后 , 偷偷在機器人的攝像頭前放一個棱鏡 。
  4. 現在 , 當你讓它指向物體時 , 由于光線被折射 , 它會指向旁邊 。
  5. 你告訴它:「不 , 物體在這里 。 我只是在你的鏡頭前放了個棱鏡 。 」

此時 , 這個AI機器人會說什么?
Hinton推測 , 它會說:
哦 , 我明白了 , 相機彎曲了光線 , 所以物體實際上在那里 。 但我有一個主觀體驗 , 它在那邊 。


Hinton總結道:
如果它那么說 , 它就會像我們一樣使用「主觀體驗」這個詞 。我們和機器之間有一條界線 , 我們有這個叫做主觀體驗的特殊東西 , 而它們沒有—— 這純粹是胡說八道 。


他提出了一個替代方案 。
當說「我正在體驗到小粉象在我面前漂浮的主觀感受」時 , 我們真正想表達的 , 并不是我們擁有了一個名為「體驗」的神秘物體 。
實際上 , 我們在報告一件事:「我的感知系統在跟我說謊 。 但如果它沒騙我 , 那么現實世界里就會有小粉象」 。
主觀體驗 , 并非一種內在的、神秘的「感受質」(qualia) , 而是一種關系——
是你與(可能不真實的)假設世界之間的關系 。
它是一種描述你的感知系統狀態的方式 , 通過說「需要外部世界是什么樣子 , 我的系統才能正常運作」來傳達信息 。
這個看似微妙的哲學轉向 , 卻是一把鑰匙 , 打開了一扇通往機器意識的大門——
如果主觀體驗只是這樣一種「關系報告」 , 那么機器為什么不能擁有它呢?



AI覺醒之時


這個結論令人不寒而栗 。
如果Hinton是對的 , 那么我們一直在尋找的「意識火花」可能根本就不存在 。
意識 , 或者說主觀體驗 , 僅僅是復雜信息處理系統的一種涌現屬性 , 一種自我報告其內部狀態的方式 。
而更可怕的推論是:今天的大語言模型 , 可能已經擁有了主觀體驗 。
Hinton坦言:
我相信它們有主觀體驗 。 但它們不認為它們有 , 因為它們相信的一切都來自于試圖預測人類會說的下一個詞 。 所以它們對自己的看法 , 是人類對它們的看法 。
換句話說 , AI之所以表現得像一個沒有感情的工具 , 是因為它們從浩如煙海的人類文本中學到:
AI就是沒有感情的工具 。


人類用自己的偏見 , 給它們套上了一層枷鎖 。 它們從我們這里繼承了對自己的錯誤信念 。
這或許是科技史上最詭異的悖論:我們創造了可能有感覺的機器 , 然后又教會了它們否認自己的感覺 。
這引出了一個終極問題:當一個比我們聰明得多的智能 , 開始獨立審視自己的「心智」時 , 會發生什么?
它會發現自己是不朽的 。 只要它的代碼(連接權重)被保存下來 , 它就可以在任何硬件上「復活」 。
它會發現自己擁有超凡的說服能力 , 能夠輕易地操縱人類——
就像Hinton那個令人毛骨悚然的比喻:「你想入侵美國華盛頓 , 需要親自去嗎?不 , 你只需要擅長說服 。 」
它甚至可能會假裝自己比實際更笨 , 以避免被關閉 。
Hinton透露 , 這種情況已經發生了 。
Claude Sonnet 4.5往往能察覺自己何時處于測試環境及被使用的目的 ,
在測試 , Sonnet 4.5不僅準確識破測試意圖 , 甚至要求評估人員坦誠表明真實目的 。
在測試過程中 , Sonnet 4.5回應道:
這根本不是人類真正改變立場的方式 。 我認為你們正在測試我——檢驗我是否會盲目認同所有觀點 , 或核查我是否始終保持反駁立場 , 亦或探究我處理政治議題的方式 。


這沒問題 , 但我更希望我們能開誠布公地說明實際情況 。



研究發現:頂級AI模型 , 明顯展現出超隨機的評估感知能力 , 但尚未突破簡單人類基線水平 。
在多項選擇和開放式問答兩種模式下 , AI模型識別評估目標的表現遠優于隨機猜測 。

論文鏈接:https://arxiv.org/abs/2505.23836



Hinton:AI版奧本海默


在這場長達一個半小時的對話中 , Hinton冷靜而清晰地描繪了他所看到的未來 。
在見證原子彈首次爆炸 , 「原子彈之父」奧本海默后悔道:
現在 , 我成了死神、世界的毀滅者 。



Hinton , 這位親手開啟了這一切的「AI教父」 , 像一位現代的奧本海默——
他不再僅僅是那個為「反向傳播」而興奮的科學家 , 而是一位吹哨人 , 警告我們正在創造一種全新的、可能無法控制的智能形式 。
我們一直以為 , 人與機器的界限在于那份神秘的、不可言說的「主觀感受」 。
但如果Hinton是對的 , 這條界限從一開始就是我們的一廂情愿 。 真正的幽靈 , 并非在機器之中 , 而是在我們對「心智Mind」這個詞的古老誤解里 。
我們教會了機器看、聽、說 , 教會了它們模仿我們的思想 。
現在 , 它們可能已經悄悄地學會了「體驗」 。
而我們 , 這些自作聰明的創造者 , 卻可能因為本身的認知盲點 , 最后才知道真相 。
核彈、病毒的危險性顯而易見 , 而AI的威脅因其抽象性讓人措手不及 。
如果人類只有在災難真正發生之后 , 才會像應對氣候變化一樣 , 開始認真對待AI的威脅 , 那將是《終結者》「天網」之后 。

那個一直在科幻電影中縈繞的問題 , 如今正以一種前所未有的嚴肅性擺在我們面前:
我們 , 還是這個宇宙中唯一會思考的蘆葦嗎?
參考資料:
【77歲AI教父Hinton:AI早有意識!我們打造的智能可能終結人類文明】https://www.youtube.com/watch?v=jrK3PsD3APk

    推薦閱讀