GPU進基站?AI-RAN的真爭議

GPU進基站?AI-RAN的真爭議

文章圖片


過去一年 , 如果你關注通信行業的新聞 , 大概很難躲過“AI-RAN”這個詞 。 英偉達和軟銀牽頭成立的AI-RAN聯盟 , T-Mobile西雅圖的實驗室測試 , Indosat在印尼完成的AI通話演示——一連串的動態似乎在傳遞一個信號:GPU即將大規模進入基站 , AI正在從“網絡上層”下沉到“無線底層” 。
但如果你有機會和運營商的朋友聊一聊 , 會發現他們的態度遠沒有發布會舞臺上那么激動 。 興奮是有的 , 但更多的是審慎、觀望 , 甚至是一絲不易察覺的疑慮:基站里真的需要塞進一塊GPU嗎?這筆賬到底怎么算?AI-RAN究竟是一場技術革命 , 還是又一輪由芯片廠商主導的“競賽”?
01基站里的“聰明”與“不聰明”
要理解AI-RAN到底想做什么 , 得先回到無線接入網這個老問題上 。
通信行業一直有一個心照不宣的事實:在整個移動網絡里 , 無線接入網(RAN)是最“不聰明”的那一段 。 核心網早就虛擬化、云化了 , 各種開源平臺和通用服務器跑得風生水起 。 但走到基站這一層 , 情況完全不同——專用芯片、封閉接口、定制化硬件 , 像一個黑盒子 , 外面的人進不去 , 里面的數據出不來 。
這聽起來像個技術問題 , 但歸根結底是個經濟問題 。 基站部署量太大了 , 一個中等規模的運營商可能擁有幾十萬個站點 。 在這個量級上 , 任何一點成本波動都會被放大到驚人的數字 。 專用芯片雖然不夠靈活 , 但它的功耗、成本、穩定性經過了幾十年的極致優化 , 是運營商能夠接受的“最優解” 。
但問題也隨之而來 。 當AI開始滲透到網絡的每一個角落 , 當運營商希望通過智能化來優化覆蓋、提升容量、降低能耗時 , RAN成了那個最難下手的環節 。 你可以在核心網里隨便部署AI服務器 , 可以給運維中心配上一堆GPU來做網絡優化 , 但走到基站門口 , 路就斷了 。
AI-RAN的野心 , 就是想打通這最后一公里 。 但需要厘清的是 , AI與RAN的關系其實是雙向的 。 業界通常用兩個詞來定義這種關系:一個是“AI for RAN” , 即用AI來優化無線接入網的性能——信道估計、波束管理、負載均衡 , 這些都是AI賦能網絡的典型場景;另一個是“RAN for AI” , 即把基站本身變成AI算力的提供者 , 讓遍布各地的站點成為分布式推理的基礎設施 。 英偉達的邏輯很簡單:與其讓AI在基站外面轉悠 , 不如直接把它請進去 , 讓基站自己變聰明 。

聽起來很美好 。 但基站真的需要那么聰明嗎?
02GPU進基站 , 誰在買單
這就要算一筆賬了 。
先看成本 。 一塊適合基站的GPU , 價格不是小數 。 功耗也不是小數 。 如果要在幾十萬個基站里全部部署 , 那將是一筆天文數字的資本開支 。 而運營商現在的日子并不好過 , 流量增長但收入不增 , 是過去十年全球電信行業的普遍困境 。 在這種背景下 , 讓運營商掏錢給每個基站升級GPU , 難度可想而知 。
三星電子美國公司網絡事業部戰略與營銷副總裁Alok Shah表示:“業界正在謹慎評估與在基站中引入GPU相關的總擁有成本模型和商業案例 。 迄今為止 , 在站點層面全面轉向GPU計算在資本支出和運營成本上都面臨挑戰 , 但該領域的創新很活躍 。 我們可能會發現 , 在未來幾年內 , 會有一部分站點的部署在經濟賬上是可行的 。 ”換句話說 , 賬還沒算清楚 , 誰也不敢輕易拍板 。
再看必要性 。 基站真的需要GPU嗎?還是說 , 現有的CPU已經夠用了?這其實是一個被忽略的問題 。 新一代的x86 CPU , 性能早已不可同日而語 。 很多AI推理任務 , 尤其是輕量級的、對時延要求不高的任務 , CPU完全能應付 。 如果CPU能解決 , 為什么要多花一筆錢去買GPU?
一位國內運營商的專家說得更直白:如果說算力一定要放到基站里 , 而且一定要放GPU , 我打個問號 。 成本太高 , 運營商根本接受不了 。 而且 , 把算力鎖定在基站里 , 反而限制了對算力的靈活調度——邊緣節點、匯聚機房、中心云 , 算力應該是一個可以動態調配的資源池 , 而不是固化在每一個站點 。 但也有不同觀點認為 , 按演示數據推算 , 單站閑置算力若按云計算市場價的70%出租 , 五年內就能收回30%的基站建設成本 。
這些話背后 , 折射出一個更本質的分歧:AI-RAN究竟應該怎么部署 , 是“全量升級”還是“按需引入”?英偉達作為芯片廠商 , 當然希望GPU鋪得越廣越好 。 但運營商要考慮的是 , 到底哪些場景真正需要基站級別的AI能力 。
03哪些場景“非AI不可”
如果說5G時代 , AI還算是個“加分項” , 那么到了6G , 情況可能會發生變化 。 通信行業普遍認為 , 6G網絡將面臨一個根本性的挑戰:網絡的復雜程度將達到“超越人類規模”的閾值 , 人腦已經無法實時管理 。 屆時 , AI不再是可選項 , 而是必選項 。
這不是危言聳聽 。 5G時代 , 基站已經有了大規模MIMO天線 , 波束賦形的參數配置已經復雜到需要算法輔助 。 到了6G , 頻段更高、天線更多、業務更雜 , 靠人工腳本和預設策略去管理 , 幾乎不可能 。 換句話說 , 未來的網絡必須是“自智”的——自己感知、自己決策、自己優化 。
這就把問題倒過來了:不是“基站里為什么要放AI” , 而是“不放AI的基站還能不能跑得動” 。
具體到場景 , 有幾個方向已經比較清晰 。
一個是信道估計 。 無線信號在空中傳播 , 受到干擾、衰落、遮擋的影響 , 基站需要實時估計信道狀態 , 才能決定用什么樣的參數發送數據 。 傳統算法有局限 , 而AI可以通過學習歷史數據 , 更準確地預測信道變化 。 富士通旗下的一個團隊給出的數據是:用AI改善信道估計 , 可以把上行鏈路性能提升20% , 某些場景下甚至能達到50% 。
另一個是波束管理 。 大規模MIMO基站可以生成多個窄波束 , 覆蓋不同方向的用戶 。 但用戶是移動的 , 波束需要跟著人走 。 如果波束切換不及時 , 就會掉線 。 AI可以預測用戶的移動軌跡 , 提前把波束切過去 , 讓用戶的體驗更流暢 。
還有頻譜共享 。 傳統做法是 , 如果某個頻段受到干擾 , 系統干脆把整個頻段關掉 。 但AI可以做得更精細——識別出干擾源 , 只屏蔽受影響的頻率 , 其他部分照常使用 。 MITRE在2025年展示的一個應用 , 做的就是這件事 。
這些場景的共同點是:需要實時響應、需要本地決策、無法把所有數據都傳回中心處理 。 這正是基站級AI的意義所在 。
04基站“夜間兼職”
如果說“AI for RAN”是為了讓網絡跑得更順 , 那么“RAN for AI”則是在探索另一種可能性:基站能不能不只是花錢的基礎設施 , 還能成為賺錢的資產?
軟銀和諾基亞最近做了一個很有意思的試驗 。 他們在日本搭建了一套基于英偉達GPU的AI-RAN平臺 , 白天 , 基站的算力優先保障5G通信——處理用戶的語音、視頻、數據請求;到了夜間 , 當網絡流量大幅下降 , 這些原本閑置的GPU算力并沒有空轉 , 而是通過軟銀的AITRAS編排器自動切換成“算力供應商”模式 , 為第三方客戶運行AI推理任務 。
換句話說 , 同一個基站 , 白天是通信基站 , 晚上變成了邊緣AI服務器 。 諾基亞首席技術兼AI官Pallavi Mahajan對此評價:“隨著全球AI處理需求加速增長 , 這個項目展示了如何利用分布式網絡資源來提供可擴展、高效且可持續的AI服務 。 ”
軟銀先進技術研究所副總裁Ryuji Wakikawa則說得更直接:“在AI-RAN中 , 最大化計算資源的價值非常重要 。 我們增強了AITRAS編排器 , 使其能夠將資源分配給外部AI工作負載 , 從而將這些資源作為新的收入來源加以利用 。 ”
這種“基站夜間兼職”的模式 , 觸及了一個更深層的變革:基站正在從單純的“成本中心”向可能的“利潤中心”演進 。 當然 , 這還只是試驗 。 客戶畫像還不清晰——是賣給互聯網公司做邊緣推理?還是給工業企業做機器視覺?商業模式還在探索中 。 但它至少打開了一個想象空間:如果全城的基站都能在夜間貢獻算力 , 那將是一張多么龐大的分布式計算網絡 。
05兩條腿走路:GPU與CPU的長期共存
回到最初的問題:基站里到底需不需要GPU?
最可能的答案是:部分需要 , 部分不需要 。 就像今天的網絡設備 , 有的用專用芯片 , 有的用通用CPU , 有的用FPGA , 各取所需 。 未來的基站也不會是單一形態 , 而是根據場景和成本 , 靈活選擇計算架構 。
對于城市熱點、高流量區域 , 基站可能確實需要GPU來支撐復雜的AI任務;對于偏遠地區、低負載站點 , CPU就夠用了 , 沒必要多花錢 。 還有一種可能是 , GPU不是部署在每一個基站 , 而是部署在邊緣節點 , 覆蓋一片區域內的多個基站 , 兼顧算力供給和成本控制 。
英偉達自己也意識到了這一點 。 它的AI Aerial平臺 , 核心賣點之一就是“資源共享”——同一塊GPU , 可以動態分配給RAN任務和AI任務 , 忙時做通信 , 閑時做推理 , 提高利用率 , 攤薄成本 。 這其實是在回應運營商的成本顧慮:你可以不用為AI專門買一塊GPU , 它可以和RAN共用一塊 。
軟銀在日本做的試驗 , 就是這個思路 。 他們用一套系統同時跑5G和第三方AI應用 , 證明了兩者可以共存 , 且互不干擾 。 對于運營商來說 , 這提供了一種新的可能性:基站不再只是成本中心 , 還可以變成算力服務的輸出節點 , 創造新的收入來源 。
當然 , 這還只是試驗 。 從試驗到規?;逃?, 還有很長的路 。 標準怎么定、接口怎么統一、業務模式怎么設計 , 都是待解的難題 。 業內人士的回答是:“客戶畫像還不清晰 , 是賣給互聯網公司做邊緣推理?還是給工業企業做機器視覺?商業模式還在探索中 。 ”
06結語
站在2026年回望 , AI-RAN的討論已經從“要不要做”轉向了“怎么做” 。 英偉達用兩年時間 , 把一個概念做成了一個產業聯盟 , 從T-Mobile到軟銀 , 從諾基亞到思科 , 越來越多的大玩家加入其中 。 這本身就說明 , 方向是對的 。
但“方向對”不等于“落地快” 。 電信行業有其自身的節奏 , 幾億用戶的網絡不能隨便折騰 , 穩定可靠永遠是第一位的 。 “AI-RAN架構能否實現規模化商用 , 關鍵取決于其性能表現、成本控制與運行穩定性 。 今年MWC上的各類演示顯示 , 相關技術基礎正持續成熟 , 云計算、人工智能與通信基礎設施的融合 , 已從概念構想逐步進入可控驗證落地階段 。 ”
“AI進基站 , 不會是顛覆式的推倒重來 , 而是漸進式的滲透融合 。 ”這個過程可能需要五年、十年 , 但一旦完成 , 網絡將不再是今天的網絡 。
到那時 , 基站不僅是收發信號的鐵塔 , 還是感知世界的節點;網絡不僅是傳輸數據的管道 , 還是承載智能的基礎設施 。 而這一切的起點 , 正是今天這些充滿爭議、有待驗證的試驗和討論 。
【GPU進基站?AI-RAN的真爭議】想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀