買得到芯片的美國科技巨頭,買不到電了

買得到芯片的美國科技巨頭,買不到電了

文章圖片

買得到芯片的美國科技巨頭,買不到電了

文章圖片

買得到芯片的美國科技巨頭,買不到電了

文章圖片

買得到芯片的美國科技巨頭,買不到電了

文章圖片

買得到芯片的美國科技巨頭,買不到電了

文章圖片

買得到芯片的美國科技巨頭,買不到電了

文章圖片

買得到芯片的美國科技巨頭,買不到電了


馬上就要到年底了 , 回看這一年 , OpenAI 簡直是 AI 界的孔雀 , 瘋狂開屏 , 四處搞算力 。
先是答應甲骨文一起投 3000 億美元共建數據中心 , 又從英偉達那里拿了 1000 億美元買芯片 , 直到上個月 , 他們還在管 AMD 要股票掏芯片 。。。
在各大科技巨頭的齊心協力下 , AI 泡沫眼看靠著 GPU 的買賣越吹越大 。 但最近 , 微軟 CEO 薩蒂亞·納德拉突然在一場氣氛堪比《再見愛人》的三方會談里 , 殺出來潑了一盆冷水 。

別再盯著算力不放了 , 庫存里那么多芯片 , 都因為沒電用不上呢 。
缺電 , 正在卡著 AI 的脖子 。
那么問題來了 , 美國的電 , 到底都去哪了?
一方面 , 是 AI 自己確實太能吃了 。

美國能源部 2024 年 12 月發布的一篇報告顯示 , 2023 年 , 美國數據中心的總耗電量占全國總發電量的 4.4% , 達到 176 太瓦時 , 和馬來西亞全國一年總耗電量差不多 。 到了 2028 , 這個數字可能會翻倍 。
而且 AI 吃相還很難看 , 利用率極低 , 可以說是連吃帶拿 。
電能利用效率 PUE (Power Usage Effectiveness) , 是衡量數據中心能效的重要指標 。 它的計算方法很簡單 , 就是用數據中心總耗電量 , 除以服務器耗電量 。

2024 年 , 全球的平均 PUE 是 1.56 。 也就是說 , 只有三分之二的電能用在 GPU 計算上 , 三分之一消耗在了制冷、供電系統、和照明等等雜七雜八的地方 。
另一方面 , 是美國老舊的電力系統實在太完蛋 , 本來產的就不多 。 再擠一擠 , 基本民生都危險 。
從美國勞工統計局的統計圖就能看出來 , 2021 到 2022 電費飆升 。 訓練 GPT 的同時 , 正常居民用電已經被擠兌了 。
2000 至 2025 年美國電價趨勢

就這 , 特朗普還砍了海上風電的項目 , 取消了太陽能和風能的稅務減免 , 轉而大力發展費時費力費錢的核電 , 甚至不惜放松環境管制 。。。
這很難評 , 我只能祝他成功了 。
沒有電 , 科技巨頭搶購來再吊的 GPU , 也只能在機房落灰 。 而很快 , 它們面臨的困境 , 將是更致命的過期 。
芯片的保質期 , 會隨著下一代芯片大規模量產出貨逐漸來臨 。

比如 , 大伙兒對 AI 主流芯片的印象 , 可能還停留在前一陣子 , 你爭我搶的 H100 和 A100 。
但這幾款芯片說實話 , 都是 22 年以前發布的老東西 , 也就占了個產能的優勢 , 根本不是現在最好最新的芯片 。 它們的后面 , 還有 23 年的 H200 , 24 年的 B200 , 25 年的 B300 , 都等著上桌呢 。
而根據 TrendForce 咨詢公司今年 7 月的預估 , 2025 全年 , Blackwell 系列的出貨比例 , 將達到 NVIDIA 高階 GPU 總產量 80% 以上 , 產能大大提升 。

這意味著 , 如果 OpenAI 庫房里的 H100 還因為缺電遲遲跑不起來 , 它們可能會直接被 B200、B300 替代 , 永遠沒機會用上了 。
這帶來的不僅僅是浪費 , 還會影響AI 公司最在意的股價 。 要知道 , AI 公司的股價估值 , 一定程度就建立在 GPU 數量、GPU 需求量的基礎上 。
底層邏輯是 , 按照現在的大模型規模定律 , 你用的 GPU 越多 , 模型越大 , 越好用 , 在市場上越有優勢 。 這也是為啥一出買賣芯片的消息 , 幾家科技巨頭的股價就手拉手開漲 。

但要是很多芯片純買用不上 , 那它躺平的每一分每一秒 , 都在見證著 AI 泡沫的消亡 。
實在沒招了 , 科技公司只能紛紛走上 “ 自救 ” 的道路 。
畢竟芯片收購不能停 , 你不買有的是人買 , 但多余的電也是真沒有 。
良心點的做法 , 是到處修發電廠 。 像 OpenAI 和甲骨文在德州合建天然氣發電廠 , xAI 也在田納西大力基建 , 結果把發動機都給搞缺貨了 , 訂單直接排到 2029 年后 。

芯片和發電機哪一個會先到不說 , 這么干 , 有一定幾率會被環保部門 gank 。
于是還有一種死道友不死貧道的路子 —— 把數據中心搬到國外 。
墨西哥、智利還有一些南非國家 , 都成了 AI 發展的輸電泵 。 可這些地區電力供給本來就不發達 , 現在更是雪上加霜 。
在愛爾蘭 , 數據中心消耗了全國 20% 的電力 , 停電、耗水 , 都對當地居民生活和生態環境造成了影響 。

甚至更離譜的 , 地球資源已經不夠看了 。 最近 , 英偉達和谷歌都想把數據中心搬上太空 , 吃上天家飯 。。。
把芯片用衛星送上天 , 周邊圍上一圈太陽能電池板 , 就能獲得 24 小時不間斷的能源供給 。
散熱全靠真空熱輻射 , 也不用擔心水資源減少和環境變暖 , 聽起來還挺不錯 。

只不過實驗剛開始 , 不能保證效果好 。 電子器件會不會在太空加速老化 , 功率和散熱能不能達到預期 , 訓練完的數據怎么傳回地面 , 成本控制等等 , 都是問題 。
和匆匆忙忙的美國形成鮮明對比 , 我們的情況就要從從容容很多了 。
2024 年 , 我國數據中心總耗電量已經達到 166 太瓦時 , 占社會用電量約 2% 。
作為遠近聞名的基建狂魔 , 咱在保障大家生活的前提下 , 電力不止夠用 , 甚至還在追求綠電 , 降碳排 。

比起天天講環保 , 轉頭用天然氣發電 , 我們可是真把碳排當個事兒辦了 。
總的來說 , 盤完缺電的 AI , 原來科技的盡頭不是電子和計算機 , 而是物理、航天和土木工程啊 。
PPT 里芯片就是第一生產力 , 結果現實里是德州搶天然氣、墨西哥搶地皮、竄上天和衛星搶身位 。 電閘一拉 , 誰都害怕 。
照這么發展下去 , 未來高科技公司的衡量標準 , 也許不再是看誰芯片多 。
而是看誰能搶到最多的電 , 讓自家機房的燈能一直亮下去了 。
【買得到芯片的美國科技巨頭,買不到電了】

    推薦閱讀