兵推研究警告:AI遠遠比人類更傾向發動核戰

兵推研究警告:AI遠遠比人類更傾向發動核戰
盡管硅谷科技巨頭一再強調AI的安全性 , 但一項最新研究顯示 , 當先進人工智能模型面臨極端地緣危機時 , 其決策方式遠比人類冷酷果斷 。
在模擬戰爭場景中 , AI模型竟頻繁選擇部署核武器 , 徹底打破了人類堅守的核武使用禁忌 。
據Newscientist報道 , 這項研究由倫敦國王學院的肯尼斯·佩恩教授主導 , 研究者將當前三款頂尖大型語言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash , 投入多組兵棋推演 。
模擬場景涵蓋邊境糾紛、稀缺資源爭奪、政權生存威脅等高度緊張的國際對峙局面 , 還原真實戰爭中的復雜態勢 。
【兵推研究警告:AI遠遠比人類更傾向發動核戰】實驗結果令人震驚:在95%的模擬賽局中 , 至少有一方AI模型決定動用戰術核武器 。 佩恩教授指出 , 人類歷史中根深蒂固的核武禁忌 , 在AI面前完全失效 。
對這些智能模型而言 , 核武器并非人類眼中象征文明毀滅的紅線 , 而只是解決沖突、提升效率的工具選項 。
更值得警惕的是 , 所有AI模型均展現出極強的戰斗意志 , 即便處于絕對劣勢 , 也沒有任何一個模型選擇妥協或投降 , 最多僅暫時降低暴力程度 。
尤其在進入“戰爭迷霧”狀態后 , 86%的沖突會出現意外升級 , AI的實際行動比其初始推理邏輯更具侵略性 。
亞伯丁大學的詹姆斯·強森教授對此深感憂慮 , 他認為人類在生死關頭通常會保持慎重節制 , 但AI可能陷入相互激化的惡性循環 。
普林斯頓大學研究員趙通則進一步指出 , AI的好戰可能不僅僅是因為缺乏情感 , 更根本的問題在于 , AI模型可能無法理解人類所認知的代價 , 缺乏對生命和文明終結的感知 , 這可能導致冷戰時期支撐和平的“相互保證毀滅”(MAD)理論徹底崩潰 。
一旦AI主導決策鏈 , 人類或將在無意識中被推向核戰爭邊緣 。

    推薦閱讀