老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片

文章圖片

編輯:好困 桃子
【新智元導讀】CES巨幕上 , 老黃的PPT已成中國AI的「封神榜」 。 DeepSeek與Kimi位列C位之時 , 算力新時代已至 。


萬眾矚目的2026 CES科技盛宴上 , 一張PPT瞬間燃爆AI圈 。
老黃主旨演講上 , 中國大模型Kimi K2、DeepSeek V3.2 , 以及Qwen赫然上屏 , 位列全球開源大模型前列 , 性能正在逼近閉源模型 。
這一刻 , 是屬于中國AI的高光時刻 。
另外 , OpenAI的GPT-OSS和老黃自家的Nemotron , 也做了標注 。

而且 , DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級規模的嘗試 , 僅需激活少量參數 , 大幅減少計算量和HBM顯存帶寬的壓力 。

在下一代Rubin架構亮相的核心環節上 , 老黃還選用了DeepSeek和Kimi K2 Thinking來秀性能 。
在Rubin暴力加成下 , Kimi K2 Thinking推理吞吐量直接飆了10倍 。 更夸張的是 , token成本暴降到原來的1/10 。

這種「指數級」的降本增效 , 等于宣告了:AI推理即將進入真正的「平價時代」 。
另外 , 在計算需求暴漲這頁PPT上 , 480B的Qwen3和1TB的Kimi K2成為代表性模型 , 驗證了參數規模每年以十倍量級scaling 。

不得不說 , 老黃整場發布會上 , 中國AI模型的含量超標了 。



推理狂飆十倍
中國模型成老黃「御用」AI?


無獨有偶 , 英偉達去年12月的一篇博客中 , 也將DeepSeek R1和Kimi K2 Thinking作為評判性能的標桿 。
實測顯示 , Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍 。

另外 , 在SemiAnalysis InferenceMax測試中 , DeepSeek-R1將每百萬token的成本降低10倍以上 。 包括Mistral Large 3在內同樣獲得了十倍加速 。
這意味著 , 復雜的「思考型」MoE部署到日常應用 , 成為了現實 。


如今 , 隨便拎出一款前沿模型 , 只要深入其內部結構 , 便會發現MoE(混合專家)成為了主流的選擇 。
據統計 , 自2025年以來 , 超60%開源AI采用了MoE架構 , 從2023年初 , 這一架構推動LLM智能水平提升近70倍 。
此外 , 在權威機構Artificial Analysis(AA)排行榜上 , 最智能的TOP 10開源模型 , 也全都用的是MoE結構 。
如此巨大規模的MoE , 單GPU必然無法部署 , 英偉達GB200 NVL72卻能破解這一難題 。

DeepSeek R1和Kimi K2 Thinking實測結果 , 恰恰證明了英偉達Blackwell超算性能的強大所在 。
如今 , 中國大模型閃耀全球舞臺 , 它們令人驚嘆的表現 , 開啟了AI推理高效的新時代 。




開源AI扛把子 , 震驚歪果仁


去年底 , Anthropic發布了一項針對全球16個前沿模型的嚴苛行為基準測試 。
在這一眾頂尖高手中 , DeepSeek與Kimi不僅是唯二入局的中國面孔 , 更交出了驚艷的答卷——
Kimi K2 Thinking憑借極低的被誤導率 , 一舉摘得「表現最佳的非美國模型」桂冠 。



注:得分越低性能越強 , 越不容易被誤導
這種技術實力也迅速轉化為國際影響力和落地應用 。
從「硅谷風投教父」Marc Andreessen的公開盛贊 , 到OpenAI前CTO的新產品Thinker上月官宣接入Kimi K2 Thinking , 中國AI的硬實力正在被全球核心圈層接納 。


權威評測進一步印證了這一趨勢 。
在知名AI大佬Nathan Lambert與Florian Brand聯合發布的「2025年度開源模型回顧」中 , DeepSeek、Qwen和Kimi強勢包攬Top 3 。

隨后 , Lambert更在專文中深入分析 , 高度評價了中國開源AI所具備的獨特優勢 。

1. 開源模型的「唯快不破」
盡管最強閉源模型與開源之間仍存代差 , 但中國實驗室正在以驚人的速度發布模型 , 大幅壓縮了這一差距 。
在技術飛速迭代的當下 , 「更早發布」本身就是一種巨大的先發優勢 。
2. 始于「沖榜」 , 終于「體驗」
中國模型在基準測試上的表現愈發生猛 , 但更關鍵的是從「分高」到「好用」的轉變 。
我們見證了Qwen的進化:最初以「沖榜」聞名 , 如今已成為名副其實的優質模型 。
順著這一思路 , K2 Thinking在后訓練階段原生采用4bit精度 , 顯然是為了更高效地支持長序列RL擴展 , 使其更勝任實際的服務任務 。
3. 中國力量的品牌崛起
年初 , 外國用戶可能叫不出任何一家中國AI實驗室的名字;如今 , DeepSeek、Qwen和Kimi已成為東方技術實力的代表 。
它們各有高光時刻和獨特優勢 。 重要的是 , 這份名單還在不斷變長 , 中國AI正在世界舞臺占據一席之地 。
4. 突破:海量工具調用與穿插思考
Kimi K2 Thinking支持「數百步穩定工具調用」引發熱議 。
雖然這在o3、Grok 4等閉源模型中已成標配(RL訓練中的自然涌現) , 但這通過開源模型實現尚屬首批 , 這對托管服務商的精準支持能力提出了極高要求 。
此外 , 是「交錯思考」(Interleaved thinking)——即模型在調用工具的間隙進行思考 。
這是繼Claude之后 , 強調 agentic 能力的模型都在跟進的新趨勢 , 標志著模型邏輯鏈條的進一步成熟 。
5. 倒逼美國閉源巨頭
開源的激增讓美國閉源實驗室倍感壓力——僅僅依靠基準測試分數已無法解釋「為什么付費更好」了 。
相比之下 , 中國模型或許在收入上暫未占優 , 但在全球市場的「心智份額」上 , 正在切走越來越大的一塊蛋糕 。
回看CES 2026這場演講 , 老黃直接把「開源」講成了全場最硬核的主線 。
【老黃開年演講「含華量」爆表!拿DeepSeek、Kimi驗貨下一代芯片】中國開源AI的表現足以令世界驚嘆 , 隨著更多開發者和企業擁抱這些模型 , AI應用的全面爆發指日可待 。

    推薦閱讀