“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

文章圖片

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

文章圖片

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

文章圖片

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

文章圖片

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

文章圖片

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?

文章圖片

“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?


7 毛的電經過顯卡生成 Token 就能 18 塊賣給美國人?
沒錯 , 這段時間地球另一端的電腦里 , 國產 AI 大模型正在 OpenRouter 上大殺四方 。
要知道 , 這可是全球最大的 AI 模型聚合平臺 , 就像買游戲大家上 Steam , 買 Token 一般就選 OpenRouter 了 。

上面每天各種模型的使用量加起來超過 1 萬億 Token , 一直以來大半份額都被美國模型牢牢占據 。
但國產模型近期表現異常強勁 , 據每日經濟新聞統計 , 今年 2 月份 , 國產模型的調用量三周大漲 127% , 首次超越美國 。
尤其在 2 月 9 日至 15 日這周 , 國產模型以 4.12 萬億 Token 的驚人調用量 , 超越了同期美國模型的 2.94 萬億 Token , 實現了歷史性的趕超 。
這可是 AI 啊 , 這種在別人家最引以為傲的地盤上啪啪打人臉的新聞 , 聽起來確實帶派 。

而眾所周知 , AI 的盡頭是算力 , 算力的盡頭是電力 , 想滿足全球數十億人的需求 , 明顯需要非常龐大的電力 。
同樣的一度電 , 費勁吧啦的拉電網搞基建才能賣個幾毛 , 算進電解鋁冶煉里頂多賣兩塊 。
可換成 Token 出海直接就翻了幾十倍 , 妥妥的降維打擊 , 再加上光速運輸、超低損耗、無視關稅 , 一下子大家開始紛紛下場 , 把這 Token 背后燃燒的電力搬上臺來 。
看著 A 股一路飄紅的電力板 , 似乎借著 Token , 把中國的電賣給全世界真就指日可待了 。

那這波 Token 到底有沒有帶著電力一起出海呢?
翻完資料算完賬世超發現 , 前景確實誘人 , 條件嘛有待商榷 。
這波 Token 大賣其實最主要的原因就是那個攪動 AI 界的開源項目:OpenClaw 。
因為這只大龍蝦每次干活 , 就要消耗大量 Token , 連帶著全世界消費者的 Token 消耗量都一起蹭蹭漲 。
有網友就抱怨過 , 剛充的 20 刀 Token 余額 , 想著設定個小任務慢慢跑 , 結果第二天起床一看 , 花光了 。。。
【“養龍蝦”榨干了大家的 Token,結果電網成了最大贏家?】再加上項目前些天剛剛登頂 Github 星標榜歷史第一 , 眼看著要迎來更多新用戶 , 這 Token 開銷如流水的日子想必還要持續一段時間 。

這個時候 , 國產模型量大管飽的優點就凸顯出來了 , 比起美國那些用著肉疼的模型 , 咱這不僅價格便宜足足十幾倍 , 干起活兒來還沒差多少 , 那用腳投票都知道該選什么模型了 。
也就導致 OpenRouter 上的模型調用數據 , 前五個里住進了三個雷打不動的國產模型:MiniMax M2.5 , Kimi K2.5 和 DeepSeek V3.2 , 雖偶爾起伏 , 但始終在榜 。

這么一看 , Token 出海的市場表現是相當來勁兒 , 那伴隨著的 , 就是電力出海也有了充足的未來預期 。
世超是趕緊打開計算機搗鼓了起來 , 拿 DeepSeek V3.2 來舉例 , 之前就有人算過 , 每 Token 生成需要約 0.4 焦耳能量 , 那 7 毛一度的電 , 算上損耗 , 就能生成約 600 萬的 Token , 按市場價就是 18 塊錢吶 。
好家伙 , 25 倍的價差 , 這哪是充足的預期 , 這得給電力拉得起飛了啊 。
但再回想對比一下現在的這點兒聲量 , 明顯哪里不對啊 。
于是世超又繼續在 OpenRouter 官網扒拉了起來 , 這一扒拉 , 就發現了貓膩 。
原來模型是國產的沒錯 , 但產 Token 的電就說不準兒了 , 根據服務器地址統計 , 很多 Token 的算力來源其實是美國的機房 。

比如 MiniMax M2.5 的 Token 服務器 , 地址就基本以美國為主 。 而三個頭部國產模型 , 只有 DeepSeek 一家有一個明確的國內服務器 。
當然 , 不排除有一部分可能是中轉的國內算力 , 但更多的部分確實來自海外的供應商 。
所以簡單點說 , 現階段的 Token 出海一大部分是中國的模型外國的電 , 只能說是模型出海 , 距離算力出海和電力出海還有段距離 。
好家伙 , 規劃了半天出口中國電力 , 結果都沒咋用上 , 那還賣給全世界個錘子 , 敢情是“未來可欺”啊 。
但現在又有了個新問題 , 為啥這中國模型非得跑到美國去算 , 而不是帶著電力一起出海呢?
其實這事兒挺好解釋的 , 跟其他行業沒啥兩樣 。
就是法律合規、成本控制以及用戶體驗綜合起來的商業化原因 , 很現實 , 也很直接 。
美國那地兒 , 不說差友們也都清楚 , 總喜歡動不動拿數據安全來說事兒 , 放 AI 模型這兒也不例外 。
美國第 14117 號行政令的核心內容就是禁止或限制向“關注國家”(包括中國)傳輸批量敏感個人數據 , 包括基因、生物識別、個人健康、地理位置、金融數據等等 。

如果 AI 模型涉及處理這些敏感數據 , 且服務器位于中國 , 就會直接面臨被禁的風險 。
除了法律合規的需求 , 還有算力芯片的考量 , 由于國內難以獲得最高能效比的頂尖制程芯片 , 所以在推理效率上肯定要落后最新一代很多的 。
就比如英偉達 B200, 同等單位下推理能效足足有 H100 的 25 倍 , 既快又便宜 , 這差距一下就拉開了 。

所以如果面向全球市場 , 目前的標準操作模式是:
研發在國內(使用國產卡或存量卡)+ 推理在海外(租用海外算力)+ 運營主體隔離 。
比如拿海外成績非常亮眼的 Talkie 來說 , 定位是跟 AI 互動聊天的手機應用 , 用戶超五千萬 , 每天都需要消耗海量的 Token 。
他們用的是 MiniMax 自家訓練的模型 , 但推理的算力服務器是租自美國的供應商 , 如亞馬遜、谷歌或者微軟 , 數據同樣存在美國的服務器上 。
這樣一方面可以避免用戶跟 AI 交互時延遲過高 , 畢竟誰也不想說句話等半天才有回復;另一方面也符合美國的法規要求 。
至于日常運營 , 是在新加坡注冊的子公司負責 , 能規避更多的潛在風險 , 正符合這套標準的出海打法 。

也就是說 , 咱們默認的那種美國人電腦上敲個回車 , 中國這邊算力中心就庫庫耗電跑 Token , 跑好再賣到大洋那邊電腦上的場景基本不會發生 。
但是 , 事情并非沒有轉機 。。。
在繼續研究了一些資料后 , 世超發現 , 雖然現在條件欠妥 , 但在未來 , 通過賣 Token 實現電力出口的路 , 其實并沒被完全堵死 。
一方面 , 美國雖然缺電 , 但不是簡單的缺發電量 , 而是一種結構性缺電 。
像馬斯克那樣簡單的建幾個電廠能應付一時 , 但對于規劃里源源不斷的算力中心來說 , 仍然是杯水車薪 。

結構性缺電是美國幾十年來電力基礎設施老化的歷史遺留 , 疊加老美不像咱能集中力量辦大事兒的國情 , 這電力基建的差距 , 根本不是三兩年能追上的 。
另一方面 , 近些年國產 GPU 一直在迅速成長 , 無論是新上市的芯片四小龍 , 還是悶頭做事的帶頭大哥華為昇騰 , 都在悄悄搶占大模型在推理端的市場 。
據 IDC 2025 年的市場調研 , 國產 AI 芯片在英偉達的壟斷下增長到了 35% 左右的市場份額 , 早已不再是 PPT 里的備胎 , 而是真的能買來干活的主力 。
注:IDC稱 , 2025上半年中國加速芯片的市場規模達到190萬張 , 資料來源:《中國半年度加速計算市?。 ?025上半年)跟蹤》《財經》整理

再說了 , AI 大基建時代才剛剛開始 , 全世界都缺算力 。
閑置綠電這波雖然搭不上 Token 出海的快車 , 但我國幾十年積累的電力基建還是很能打的 。
隨著模型能力提升的速度逐漸放緩 , 當我們算力芯片的腳步跟上時 , 這便宜大碗的電力 , 可能真會成為劃分市場份額的關鍵一手 , 帶著國產模型一起去撬動更大的利潤 。

    推薦閱讀