山姆·奧特曼的炒作史

山姆·奧特曼的炒作史

文章圖片

山姆·奧特曼的炒作史

文章圖片

山姆·奧特曼的炒作史

文章圖片

山姆·奧特曼的炒作史

文章圖片

山姆·奧特曼的炒作史

文章圖片


(圖源:MIT TR)

本文為《麻省理工科技評論》“糾偏熱潮”(Hype Correction)專題系列的一部分 , 該系列旨在重置人們對 AI 的預期:AI 是什么、它能帶來什么、以及我們接下來該走向何處 。

每當你聽到一種近乎離奇的說法 , 描述 AI 將來能做什么 , 最后往往都會發現 , 即便山姆·奧特曼不是第一個提出這種說法的人 , 他也通常是背后最有說服力、影響力最大的那位推手 。

十多年來 , 他在硅谷一直以頂級募資高手和演說者著稱 。 OpenAI 在 2020 年前后的一系列早期發布 , 為大語言模型的狂熱鋪好了舞臺;而 2022 年 11 月 ChatGPT 的上線 , 則把奧特曼推上了全球舞臺 , 讓他得以拋出一套新的論點:這些模型映照著人類智能 , 并可能為一個更健康、更富足的技術烏托邦推開大門 。

從始至終 , 奧特曼的話語都在設定議程 。 他把未來的超級智能 AI 描繪成福報還是災難 , 往往取決于他當下想營造怎樣的效果、要為哪些事情募資 , 或是此刻哪家科技巨頭看起來最像他最棘手的對手 。

回顧奧特曼這些年的公開表態 , 會發現他的世界觀在一定程度上推動了今天的 AI 繁榮 。 即便在硅谷一眾鼓吹者之中 , 他也格外愿意把一些尚無定論的問題當作已經被解答了來談 , 比如大語言模型是否具備人類思維的要素 , 語言是否也能產生智能 。

他談論 AI 時所說的內容 , 往往很難在當下被驗證 , 但它會讓人相信一件事:我們走在 AI 這條路上 , 終點可能無比美好 , 也可能極其可怕 , 而 OpenAI 需要天文數字的資金 , 才能把它引向“正確的目的地” 。 從這個意義上說 , 他堪稱完美的“帶貨人” 。

為了理解他的聲音如何塑造我們對 AI 能力的認知 , 我們幾乎讀完了他關于這項技術說過的所有話(我們曾申請采訪奧特曼 , 但未能安排) 。

用他自己的話 , 就能看到我們如何走到今天 。


2014 年:傲慢是美德還是惡習?

2014 年時 , 奧特曼正領導創業加速器 Y Combinator , 但在硅谷之外幾乎無人知曉 。 在一篇回應《彭博商業周刊》關于硅谷傲慢現象的博文中 , 他同意傲慢確實可能走向過頭 。 “問題出在 , 有人在做某個東西時 , 它看起來仍像個玩具 , 卻宣稱這將改變世界 , ”奧特曼寫道 , “這只會把人惹毛 。 ”


2015 年:OpenAI 誕生于“布道式”狂熱

OpenAI 成立于 2015 年 , 公開目標是創造通用人工智能(AGI)以造福人類 。 創始團隊寫道:“具備人類水平的 AI 將給社會帶來多大益處令人難以想象;同樣地 , 如果它被錯誤地使用 , 對社會造成的傷害也同樣難以想象 。 ”奧特曼后來回憶 , 在早期階段 , OpenAI 的創始人們根本不知道自己未來會做出大語言模型 。 他們為了追求 AGI , 把各種方向都往“墻上扔” , 比如嘗試讓機器人解魔方 。

在當時 , 相信 AGI 的可能性仍是一種相當邊緣的觀點 。

他后來對《連線》說:“2015 年我們在招聘時 , 一名 AI 研究者如果說自己認真對待 AGI , 幾乎會被視為職業生涯的終結 。 但我就想要那些認真對待的人 。 ”

他在強調其威脅時 , 幾乎和強調其益處一樣直白 。 在 2015 年 2 月的一篇博文中 , 奧特曼寫道 , 盡管超級智能的實現還要很多年 , 但超越人類的機器智能“很可能是對人類持續存在的最大威脅” 。

同一篇文章里 , 奧特曼也對這樣一種想法感到驚奇:人類智能或許可以被歸結為一套需要理清的算法 。 “我們把當前的機器智能貶為廉價把戲 , ”他寫道 , “但也許我們自己的智能 , 不過是一堆廉價把戲涌現出來的組合 。 ”


2019 年:奧特曼給 AI 列了一份很長的“待辦清單”

在 OpenAI 的早期 , 奧特曼對 AI 的烏托邦愿景十分堅定 。 2019 年 2 月 , 他說:“我們有潛力消除貧困、解決氣候變化、治愈大量人類疾病 , 并以驚人的方式教育世界上的每一個人 。 ”在同一次采訪中 , 他還表示自己更愿意選擇 AI 放射科醫生而不是人類放射科醫生 , 并稱后者很快就會過時(這一點并未成為現實) 。

不過 , 盡管奧特曼相信“能造福人類的 AGI”不僅可能而且很可能實現 , 他對它會從哪種技術路徑中誕生并不預設 。 他也不假設追求 AGI 會如何賺錢 。 2019 年他接任 OpenAI CEO 時說:“我們完全不知道將來可能如何產生收入 。 ”


2020 年1 月:OpenAI 發表后來聲名大噪的“規模定律”論文

隨著大語言模型崛起 , 一切變得不再那么抽象 。 LLM 在 2017 年真正起步 , 而在 2020 年 1 月 OpenAI 發表了一篇后來廣為人知的論文 , 提出模型越大通常越聰明 , 這給 LLM 帶來了關鍵助推 。

2 月:奧特曼提前和未來“打起了嘴仗”

一個月后在一場“爐邊談話”中 , 奧特曼承認這種增長模式終會放緩 , 但他預測不久的將來會充斥著把 AI 稱作泡沫的人 , 而這些人終將被證明是錯的 。 “我們會在指數級進步曲線上上下起伏 , 會有下行階段 , 可能持續數月甚至數年 , ”他說 , “但人們太急著說它現在就要不靈了 , 過去八年一直如此 , 而進步卻像一部不停上行的電梯一樣 , 勢不可擋 。 ”


2021 年春:奧特曼開始談“財富再分配”

2021 年春天 , 在 OpenAI 發布了多個早期語言模型之后 , 奧特曼寫了一篇長博文 , 談技術進步將帶來的社會經濟沖擊 。 “這場技術革命無法阻擋 , ”他說 , “而當這些智能機器反過來幫助我們造出更智能的機器時 , 創新會進入遞歸循環 , 從而加速革命的速度 。 ”

奧特曼認為 , AI 帶來的生產率提升會讓勞動力和商品的價格斷崖式下跌 。 若要讓這種變化惠及全社會 , 我們就需要新的、激進的財富再分配方式 , 比如讓所有美國人都能獲得由政府發放的、美國最大企業的股份 。

他后來還暗示 , 促使這類變革發生的“無限智能”可能在 2030 年前后就會到來

6 月:隨著 GPT-3 推出 , 奧特曼開始把 LLM 直接等同于人類智能

在此之前 , 奧特曼通常不會直接宣稱“大語言模型將成為引發這些巨變的技術” 。 但 OpenAI 推出 GPT-3 后 , 這一點發生了變化 。 這似乎就是他開始更直接地把大語言模型與人類智能相提并論的時刻 。

他在接受《紐約時報》采訪時說:“一旦你擁有一個系統 , 能夠吸收對世界的觀察、學習理解這些觀察 , 而其中一種方法就是預測接下來會發生什么 , 我認為這已經非常接近智能了 。 ”

奧特曼說 , 在大語言模型中 , 我們能看到某種像人腦一樣運作的東西 。 “我的理解與信念是 , 你就是能量在神經網絡中流動 , ”他說 , “感知輸入進來 , 在你腦中的神經網絡里循環 , 然后你的一些肌肉就動起來 。 就是這樣 。 ”只不過 , 與大腦不同 , AI 可以被無限擴展、無限運行:“當你考慮把規模做大時 , 它能走到多遠并不存在上限 。 ”

在當時 , 科技圈之外幾乎沒人知道大語言模型是什么 。 在業內人士看來 , 它們的規模化確實令人印象深刻 , 但批評者認為 , 把它們視為人腦的模擬是站不住腳的 , 因為它們無法推理 。 它們令人興奮 , 但也只是 AI 技術自助餐中的一道菜 , 任何試圖構建 AGI 的專家都可能會取用其中若干種技術 。


2022 年2 月:奧特曼給出路線圖

在 2022 年 2 月的一場研討會上 , 奧特曼對大語言模型能否兌現烏托邦承諾給出了一些保留意見 , 但這些保留并不意味著技術存在明確上限 。 他只是說 , 不能只靠把模型做大 , 還需要更多東西 。 后來回看 , 他所說的內容幾乎就像 OpenAI 的路線圖 。

他說:“我認為 , 當我們創造出能做更多事情的模型時 , 我們就會更接近 AGI 。 這些模型可以處理不同模態、可以學習、可以在很長的時間跨度上運行、可以完成復雜目標、可以挑選它們需要的訓練數據來做出人類會做的事情 , 能讀某個興趣領域的書 , 能做實驗 , 或者能打給一個聰明朋友 。 我認為這會讓我們更接近某種讓人感覺像 AGI 的東西 。 ”

11 月:ChatGPT 上線 , 生成式 AI 的“大爆炸”

2022 年 11 月 , OpenAI 上線 ChatGPT 。 它用一個任何人都能對話的界面 , 把大語言模型帶進大眾視野 。

奧特曼把它視為通往他所憧憬的 AI 未來的一步 , 盡管他也意外于“推開大門”的竟然是大語言模型 。 他后來寫道:“我們一直在抽象意義上知道 , 某個時刻會出現一個拐點 , AI 革命將由此啟動 。 但我們不知道那會是哪一個時刻 。 令我們驚訝的是 , 結果就是這一刻 。 ”

12 月:回擊批評者

延續他此前對《紐約時報》那種把人類智能簡化描述的方式 , 奧特曼在這段時間開始為大語言模型辯護 , 反擊批評者 。 ChatGPT 發布后不久 , 他發帖寫道:“i am a stochastic parrot and so r u” , 用以嘲諷語言學家艾米莉·本德(Emily Bender)等人的批評 。 他們認為 , 大語言模型只是模仿人類語言 , 無法從中推理 , 因此無法發現訓練數據之外的任何東西 。 (2024 年 9 月 , 當 OpenAI 試驗推理模型來解決這一問題時 , 奧特曼又一次嘲諷了這一批評 , 寫道:“stochastic parrots can fly so high...”)


2023 年:奧特曼徹底轉向“末日敘事”

2023 年的大部分時間里 , 奧特曼都在全球巡回討論一個問題:AI 會不會殺死我們所有人?2023 年 1 月 , 他說:“我認為最糟糕的情況是 , 我們所有人都會面臨著終結 。 ”當時他開始與白宮和國會頻繁交流 , 討論如何防止 AI 引發災難(但并未提供任何證據證明 LLM 具備造成這種災難的能力) 。

奧特曼有時也會承認 , 人們對這項技術的期待過高 。 2023 年 3 月他對《紐約時報》說:“對這些系統的熱炒 , 即便從長期看我們希望的一切最終都對 , 但短期內已經完全失控 。 ”但即便這樣的讓步 , 也只是在談某個模型或某種實現的具體問題 , 從未承認大語言模型本身可能存在根本性限制 。


2024 年:商界全面“上頭”

2024 年 , 大語言模型的內在限制并沒有顯著刺破 AI 的熱潮 。 商界希望“萬物皆 AI” , 英偉達股價翻了三倍 , OpenAI 的營收也隨之上升 。 奧特曼預測 , 到 2025 年底 , AI 智能體可能會“加入勞動力大軍” , 并改變企業的產出 。


2025 年1 月:奧特曼宣稱大語言模型將帶來 AGI

在奧特曼看來 , 持續進步的大語言模型讓追求 AGI 變得更具體、更可觸 。 “我們現在有信心 , 知道如何構建我們傳統意義上理解的 AGI 。 ”他寫道 。

盡管如此 , 烏托邦式承諾仍然差那么一點才夠得著 。 他說:“我們喜歡我們目前的產品 , 但我們來這里是為了那個輝煌的未來 。 超級智能工具可以極大加速科學發現與創新 , 超越我們憑自身能力所能做到的程度 , 并進而大幅提升富足與繁榮 。 ”

9 月 , OpenAI 達成大量交易

如今 , 奧特曼把能源與芯片的供給視為 AI 驅動的烏托邦未來的主要限制因素 。

9 月 , 他表示按 AI 目前的發展軌跡 , 它很快可能既能治愈癌癥 , 也能為地球上每個學生提供定制化輔導 。 他寫道:“如果我們受限于算力 , 就必須在兩者之間選擇優先級 。 沒人想做這種選擇 , 所以我們去建吧 。 ”隨后 OpenAI 宣布與多家云計算公司達成多項合作 , 并啟動 Stargate 計劃 , 這是一項規模 5000 億美元的合資項目 , 旨在在美國各地建設新的 AI 數據中心 。

近期:AI 樂觀情緒

2025 年末 , 圍繞 AI 的整體情緒開始變化 , 對泡沫的擔憂也在上升 。 奧特曼則開始暗示 , 烏托邦式的未來或許并沒有那么遙遠 。 11 月 , OpenAI 發布了一些案例 , 展示頂尖大學的項目如何把 GPT-5 當作某種研究助理 , 用來提出想法并回顧已有發現 。 奧特曼稱其為“我們預計很快會看到更多類似事物的首次預覽” 。

這篇材料發表的前一個月 , 其中一位主要作者不得不收回一種說法 , 即 OpenAI 的模型攻克了被稱為“厄爾多什問題”(Erdos problems)的一些此前未解的數學難題 。 事實上 , 模型只是從網絡上一些不太為人所知的角落找到了已發表的解法 , 而這些解法并非人類普遍知曉 。

12 月 , 奧特曼又回到 AI 在醫療與教育上的承諾 , 稱人們正在把 ChatGPT 當作家教使用 , 也在用它幫助診斷自己的疾病 。

(他或許指的是一些口口相傳的成功案例 , 卻忽略了這樣的事件:有人聽從 AI 的醫療建議 , 因溴化物中毒險些喪命 。 )

總體而言 , 奧特曼并沒有欺騙世界 。 OpenAI 確實開啟了一場真實的技術革命 , 日益強大的語言模型吸引了數以百萬計的用戶 。 即便是懷疑者也會承認 , LLM 的對話能力令人驚嘆 。

但奧特曼的熱潮敘事 , 始終更依賴一種哲學層面的“明天”的到來 , 而不是關注在“今天”現有的能力本身 。 這種展望也非常順手地構成了爭取更多資本、爭取更友好監管的理由 。 早在大語言模型出現之前 , 他就設想過一種強大到需要財富再分配的 AI , 就像他也曾設想人類在其他星球殖民一樣 。 一次又一次 , 關于終點的承諾 , 關于富足、超級智能、更健康更富有的世界 , 總是先出現 , 證據后出現 。

即便 LLM 最終真的撞上天花板 , 也很難相信他對技術烏托邦未來的信念會因此動搖 。 畢竟 , 這種愿景從來就不真正取決于當下某個模型的具體細節 。

原文鏈接:
【山姆·奧特曼的炒作史】https://www.technologyreview.com/2025/12/15/1129169/a-brief-history-of-sam-altmans-hype/

    推薦閱讀