2026年HBM市場的關鍵:HBM4

2026年HBM市場的關鍵:HBM4

文章圖片

2026年HBM市場的關鍵:HBM4

文章圖片

2026年HBM市場的關鍵:HBM4

本文由半導體產業縱橫(ID:ICVIEWS)綜合
到2025年 , HBM單位存儲容量的價格將上漲21% 。

全球規模最大的半導體存儲器和存儲技術盛會——未來存儲大會(FMS)于2025年8月5日至7日(美國時間)在美國加利福尼亞州圣克拉拉舉行 。 FMS內容包括主題演講、專題講座、展覽等 。 近日 , FMS官方網站已發布了主題演講視頻和全體會議報告的幻燈片 。 本文將提供市場研究公司TrendForce分析師Ellie Wang的演講概要 。
Ellie Wang的演講題目是“人工智能增長將如何推動2025年后的人腦模型需求:塑造產品演進和動態” 。 Wang將人腦模型市場分為三個方面進行解釋:“供應趨勢”、“需求趨勢”以及“平均售價(ASP)和收入趨勢” 。
SK海力士計劃在2026年前大幅提升HBM產能首先 , 來看一下供應趨勢 。 構成 HBM 的硅芯片具有一種稱為硅通孔 (TSV) 的特性 。 除 HBM 之外的其他 DRAM 硅芯片 , 例如 DDR 系統 , 則沒有 TSV 。 因此 , TrendForce 將帶有 TSV 工藝的晶圓的加工能力(月產量)視為 HBM 的產能 。
預計到2025年底 , 三大DRAM廠商的DRAM晶圓加工能力(月產量)分別為:三星電子65.5萬片 , SK海力士54.5萬片 , 美光科技34萬片 。 其中 , 采用TSV工藝(HBM)的晶圓加工能力(月產量)預計分別為:三星15萬片 , 占DRAM總產量的23%;SK海力士15萬片 , 占28%;美光5.5萬片 , 占16% 。

主要DRAM供應商的DRAM晶圓加工能力(月產量 , 單位:千片)和TSV工藝晶圓加工能力(月產量 , 單位:千片) 。 所有數據截至年底 。 來源:2025年FMS會議論文集 , TrendForce
預計到2026年底 , 三大DRAM廠商的DRAM晶圓加工能力(月產量)分別為:三星67萬片 , 同比增長1.5萬片;SK海力士 60萬片 , 同比增長5.5萬片;美光36萬片 , 同比增長2萬片 。 其中 , SK海力士的產能增長尤為顯著 。
預計到2026年底 , 三星的TSV工藝(HBM)晶圓加工能力(月產量)將與去年持平 , 為15萬片;SK海力士的產能將同比增長5萬片 , 達到20萬片;美光的產能將同比增長4.5萬片 , 達到10萬片 。 盡管SK海力士和美光都在積極擴張產能 , 但三星的擴張步伐卻顯得較為謹慎 , 這一點值得關注 。
仔細分析可知 , SK海力士DRAM產能增幅的90%以上將用于HBM 。 美光HBM產能增幅(4.5萬片晶圓)甚至超過了其DRAM整體產能增幅(2萬片晶圓) , 這造成了一種“不尋?!钡木置?。 這表明該公司正在調整生產線配置 , 優先生產HBM 。
當前 , 面向高端大規模算力場景的GPU(即標準 AI 處理器) , 普遍采用HBM 模塊與主芯片共封裝技術路線;其產品形態以 “GPU 芯片 + HBM 內存模塊” 集成方案對外交付 。 HBM的核心應用群體 , 聚焦于GPU廠商及 AI 處理器(模塊)廠商兩大陣營 。
DRAM行業共識顯示 , HBM的核心需求方為NVIDIA與AMD兩大GPU廠商 , 其中NVIDIA是商用數據中心AI加速芯片的領先供應商 , AMD亦為HBM的主要采購方 。 演講者展示了兩家企業數據中心級AI加速芯片及其配套HBM規格的公開季度路線圖 , 涵蓋DRAM堆疊層數、單模塊容量、芯片搭載模塊數量及總內存容量等關鍵指標 。
2024年上半年 , NVIDIA數據中心AI加速芯片的HBM總容量區間將達 80GB—144GB , 標配HBM3E 世代模塊 , 單模塊容量為16GB 或24GB , 均基于 8 層DRAM芯片堆疊工藝實現 。 到 2025 年下半年 , HBM3E 世代將推出 36GB 規格的升級模塊 , 采用8層 ×4.5GB DRAM 裸片的工藝方案;搭載該模塊的 AI 加速芯片總內存容量上限將達 288GB , 較 2024 年上半年的 144GB 上限實現翻倍 。
2026年 , 搭載 HBM4 世代模塊的 AI 加速芯片將正式量產出貨 。 相較于 HBM3E , HBM4 的 DRAM 堆疊層數仍為 8 層 , 單模塊容量升級至 48GB(8 層 ×6GB 裸片) , 同時數據傳輸速率較 HBM3E 提升超 50% , 成為新一代 AI 芯片的核心性能增量點 。

NVIDIA 和 AMD AI 芯片及 HBM 規格路線圖(2024 年第一季度至 2026 年第四季度) 。 來源:2025 年 FMS 會議論文集 , TrendForce
2024年上半年 , AMD AI芯片搭載的HBM內存方案為:128GB(HBM2E , 16GB 單模塊 ×8 層堆疊)與192GB(HBM3 , 24GB 單模塊 ×8 層堆疊);2024年下半年單卡升級為288GB HBM3E(36GB 單模塊 ×8 層堆疊) 。 2025年延續288GB HBM3E配置 , 進一步優化帶寬至8TB/s 。 2026年將升級為432GB HBM4(單模塊容量提升 , 配合12 層堆疊) , 內存帶寬達19.6TB/s , 滿足大規模AI訓練與分布式推理需求 。
到2025年 , HBM單位存儲容量的價格將上漲21%平均售價(ASP)是指HBM模塊每千兆比特的價格 。 HBM價格談判每年進行一次 。 2022年的平均售價為1.40美元 , 2023年略微下降至1.38美元 , 2024年回升至1.49美元 。 該年的價格上漲歸因于HBM3E一代產品出貨率的提高 。

平均售價 (ASP) 趨勢 (2022-2025) 。 來源:2025 年 FMS 會議論文集 , TrendForce
預計到2025年 , 平均售價將大幅上漲至1.80美元 。 隨著12 層HBM3E芯片開始量產 , 該芯片的比例將進一步增加 , 從而推高價格 。
*聲明:本文系原作者創作 。 文章內容系其個人觀點 , 我方轉載僅為分享與討論 , 不代表我方贊成或認同 , 如有異議 , 請聯系后臺 。
【2026年HBM市場的關鍵:HBM4】想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀