五角大樓的AI爭奪戰:Anthropic輸掉合同,OpenAI贏得了什么?

五角大樓的AI爭奪戰:Anthropic輸掉合同,OpenAI贏得了什么?

(來源:麻省理工科技評論)

2 月 28 日 , OpenAI 宣布與美國軍方達成協議 , 允許后者在涉密環境中使用其技術 。 首席執行官山姆·奧特曼(Sam Altman)表示 , 相關談判是在五角大樓公開批評 Anthropic 之后才開始推進的 , 整個過程“確實很倉促” 。

在公開聲明中 , OpenAI 費盡筆墨強調 , 公司并未向五角大樓讓步、允許其隨意使用自家技術 。 該公司發布博客文章 , 解釋說明協議中明確禁止將其技術用于自主武器和國內大規模監控 , 奧特曼也表示 , 公司并非簡單接受了 Anthropic 所拒絕的同等條款 。

從表面上看 , 你或許會認為 OpenAI 既拿下了合同 , 又占據了道德制高點 。 但細讀字里行間和法律措辭 , 另一番圖景便浮現出來:Anthropic 走的是道德路線 , 贏得了眾多支持者 , 但最終失??;OpenAI 走的是務實的法律路線 , 對五角大樓的約束實際上更為寬松 。

目前尚不清楚 , 在軍方于空襲伊朗期間急于推出一份政治化 AI 戰略之際 , OpenAI 能否真正落實其承諾的安全預防措施 , 也不清楚這份協議能否令那些希望公司采取更強硬立場的員工滿意 。 在這條鋼絲上行走 , 將會格外艱難 。 (OpenAI 未就其協議的補充信息請求立即作出回應 。 )

問題也藏在細節之中 。 奧特曼表示 , OpenAI 能夠在 Anthropic 折戟之處達成協議 , 原因與邊界劃定關系不大 , 關鍵在于方法的差異 。 “Anthropic 似乎更專注于在合同中設定具體禁止條款 , 而我們更傾向于援引適用法律 , 這讓我們感到更為自在 。 ”他寫道 。

OpenAI 表示 , 愿意與五角大樓合作的依據之一 , 僅僅是基于政府不會違法這一假設 。 該公司公開了合同的有限摘錄 , 其中援引了若干與自主武器和監控相關的法律法規 , 具體到五角大樓 2023 年發布的自主武器指令(該指令并未禁止自主武器 , 而是就其設計和測試發布了指導方針) , 宏觀到美國憲法第四修正案(該修正案為美國公民提供了反對大規模監控的保護) 。

然而 , 喬治華盛頓大學法學院政府采購法研究副院長杰西卡·蒂利普曼(Jessica Tillipman)寫道 , 公開的合同摘錄“并未賦予 OpenAI 像 Anthropic 那樣獨立禁止合法政府行為的權利” 。 它僅僅規定 , 五角大樓不得利用 OpenAI 的技術違反這些現行法律法規 。

Anthropic 在這場博弈中贏得眾多支持者(包括 OpenAI 的部分員工)的根本原因 , 在于這些人認為現有規則遠遠不足以阻止 AI 賦能的自主武器或大規模監控的出現 。 而以聯邦機構不會違法作為保證 , 對于那些還記得愛德華·斯諾登(Edward Snowden)所揭露的監控行為的人來說 , 幾乎毫無說服力——那些監控行為曾被內部機構認定為合法 , 直到經歷了漫長的法律斗爭才被裁定違法(更遑論當前法律框架下允許的、AI 可能進一步擴展的眾多監控手段) 。 在這一層面上 , 我們本質上回到了原點:允許五角大樓將 AI 用于任何合法目的 。

OpenAI 的國家安全合作負責人昨天寫道:如果你認為政府不會遵守法律 , 那么你同樣不應該相信它會尊重 Anthropic 所提出的紅線 。 但這并不是反對設定紅線的理由 。 執行不力并不意味著約束毫無意義 , 合同條款仍然會影響行為、監督機制和政治后果 。

OpenAI 還聲稱其擁有第二道防線 。 該公司表示 , 將繼續掌控模型安全規則的制定權 , 不會向軍方提供剝離了安全控制功能的 AI 版本 。 “我們可以將我們的紅線——禁止大規模監控、禁止在沒有人類介入的情況下指揮武器系統——直接嵌入模型行為之中 , ”奧特曼委托就此事發言的 OpenAI 員工博阿茲·巴拉克(Boaz Barak)在 X 上寫道 。
【五角大樓的AI爭奪戰:Anthropic輸掉合同,OpenAI贏得了什么?】
然而 , 該公司并未具體說明其針對軍方的安全規則與面向普通用戶的規則有何不同 。 執行層面的漏洞從來難以避免 , 而當 OpenAI 首次在涉密環境中部署這些保護措施 , 并被要求在短短六個月內完成時 , 執行漏洞尤其難以杜絕 。

這一切之下還有另一個問題:科技公司是否應該主動禁止那些合法、但在道德上引起反感的行為?政府顯然認為 Anthropic 拒絕扮演這一角色 。 美國對伊朗發動空襲前八小時的周五晚間 , 國防部長皮特·赫格塞斯(Pete Hegseth)在 X 上發表措辭強烈的批評 。 “Anthropic 上演了一堂傲慢與背叛的大師課 , ”他寫道 , 并響應特朗普總統的命令 , 宣布政府停止與 Anthropic 合作——此前 Anthropic 試圖阻止其模型 Claude 被用于自主武器或國內大規模監控 。 “戰爭部必須為每一項合法目的 , 擁有對 Anthropic 模型完整、不受限制的訪問權 , ”赫格塞斯寫道 。

除非 OpenAI 的完整合同能揭示更多內容 , 否則這家公司的立場很難不被解讀為:一方面承諾自己確實掌握籌碼 , 并將自豪地運用這些籌碼去做它認為正確的事 , 另一方面又將法律作為限制五角大樓使用其技術的主要底線 。

而這兩者之間 , 正構成一種搖擺不定的意識形態平衡 。

以下三個方面值得持續關注:

其一 , 這一立場能否令 OpenAI 內部最具批判性的員工接受 。 隨著 AI 公司在人才爭奪上投入巨大 , 不排除部分 OpenAI 員工將奧特曼的辯護視為一種不可原諒的妥協 。

其二 , 赫格塞斯誓言對 Anthropic 發動的“焦土行動” 。 他的舉措遠不止于取消政府與該公司的合同 , 還宣布將 Anthropic 列為供應鏈風險 , 并稱\"任何與美國軍方有商業往來的承包商、供應商或合作伙伴 , 均不得與 Anthropic 開展任何商業活動\" 。 關于這一致命一擊是否具有法律依據 , 各方存在重大爭議 , Anthropic 已表示若威脅付諸實施將提起訴訟 , OpenAI 也公開表態反對這一舉措 。

其三 , 在對伊朗空襲持續升級之際 , 五角大樓將如何處置 Claude?Claude 是目前五角大樓在涉密行動中唯一積極使用的 AI 模型 , 相關行動甚至涵蓋委內瑞拉的部分任務 。 赫格塞斯給予了六個月的過渡期 , 期間軍方將逐步引入 OpenAI 的模型以及馬斯克旗下 xAI 的模型 。

然而 , 據報道 , 禁令發布數小時后 , Claude 仍被用于對伊朗的空襲行動 , 這表明淘汰過渡絕非易事 。 即便 Anthropic 與五角大樓長達數月的對峙已告一段落(我對此持懷疑態度) , 我們如今看到的是:五角大樓的 AI 加速計劃正在向各公司施壓 , 迫使它們放棄曾經劃定的邊界 , 而中東地區的新一輪緊張局勢正成為這場博弈的首要試驗場 。

https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/

    推薦閱讀