近三年HBM產能都將緊缺,三大廠之間互相競逐
根據TrendForce集邦咨詢資深研究副總吳雅婷表示,受惠于HBM銷售單價較傳統型DRAM(Conventional DRAM)高出數倍,相較DDR5價差大約五倍,加上AI芯片相關產品迭代也促使HBM單機搭載容量擴大,推動2023~2025年間HBM之于DRAM產能及產值占比均大幅向上。
產能方面,2023~2024年HBM占DRAM總產能分別是2%及5%,至2025年占比預估將超過10%。產值方面,2024年起HBM之于DRAM總產值預估可逾20%,至2025年占比有機會逾三成。
2024年HBM需求位元年成長率接近200%,2025年將再翻倍
吳雅婷指出,今年第二季已開始針對2025年HBM進行議價,不過受限于DRAM總產能有限,為避免產能排擠效應,供應商已經初步調漲5~10%,包含HBM2e,HBM3與HBM3e。而供應商議價時間提早于第二季發生有三大原因:
其一,HBM買方對于AI需求展望仍具高度信心,愿意接受價格續漲。
其二,HBM3e的TSV良率目前僅約40~60%,仍有待提升,加上并非三大原廠都已經通過HBM3e的客戶驗證,故HBM買方也愿意接受漲價,以鎖定質量穩定的貨源。
其三,未來HBM每Gb單價可能因DRAM供應商的可靠度,以及供應能力產生價差,對于供應商而言,未來平均銷售單價將會因此出現差異,并進一步影響獲利。
展望2025年,由主要AI解決方案供應商的角度來看,HBM規格需求大幅轉向HBM3e,且將會有更多12hi的產品出現,帶動單芯片搭載HBM的容量提升。根據TrendForce集邦咨詢預估,2024年的HBM需求位元年成長率近200%,2025年可望將再翻倍。
高帶寬內存成就AI芯片算力飛躍
在人工智能算力的競賽中,存儲技術的突破是決定性因素。作為新一代高性能存儲方案,高帶寬內存(HBM以其卓越的帶寬和容量優勢,成為AI芯片發展的重要推手。
HBM最大的亮點就是超高的存儲帶寬。以HBM3為例,其理論帶寬高達3.2TB/s,是當前主流GDDR6顯存的8倍以上。這意味著AI芯片可以更快地讀寫數據,大幅提升運算效率。HBM還可以通過堆疊設計實現TB級別的大容量,滿足AI算法對海量數據的需求。
正是憑借這些獨特優勢,HBM逐漸取代傳統顯存,成為AI加速卡的標配。英偉達旗艦AI芯片H100就采用了HBM3,使其顯存帶寬和容量分別比上一代提升43%和76%,算力也隨之大幅飆升。
業內預計,未來幾年HBM需求將快速增長,2023年全球需求量將增近六成。這主要得益于AI浪潮的推動,各大芯片廠商紛紛推出新一代AI加速卡,而HBM正是其中的核心配件。
HBM的制造工藝遠比傳統芯片復雜。它需要將多個存儲芯片堆疊在一起,對前后道制程的要求更加苛刻。關鍵的鍵合環節技術也有待進一步發展和突破。
三大原廠壟斷市場,開啟軍備競賽
圖形和服務器 DRAM 三大家壟斷程度高。未來 DRAM 制程演進需要使用 EUV 光刻技術,三星最早使用。 1)DRAM 制程:進入 10nm 級別制程后迭代速度放緩,使用 1x(16- 19nm)、1y(14-16nm)、1z(12-14nm)等字母表示,另外三星海力士使 用 1a(約 13nm)、1b(10-12nm)、1c(約 10nm),對應美光 1α、1β、 1γ。 2)三星在 1znm 就已使用 EUV 光刻技術。三星在 2020 年在 1znm DDR5 上采用 1 層 EUV,2021 年量產采用 5 層 EUV 的 DDR5,三星是首家在 DRAM 采用 EUV 光刻技術的廠商,也是在 DRAM 上使用 5 層 EUV 的 廠商。而海力士和美光在 1znm 仍然使用 ArF-i 光刻工藝,2021 年海力 士在 1anm 轉向使用 EUV,后續在 1bnm 繼續使用 EUV。而美光在 2023 年宣布開始在 1cnm(1γ制程)使用 EUV 光刻技術。EUV 技術,制程 更小、單位容量更大,成本更有優勢。
2024 年三大原廠將以迭代量產 1bnm(1β)為主,海力士和美光 HBM3E 將直接使用 1bnm,三星采用 1anm。 目前,DRAM 先進制程技術已發展至第五代 10nm 級別,美光稱之為 1 βnm DRAM,三星和海力士稱為 1bnm DRAM。美光最先量產 1bnm 級 別 DRAM。三星透露將于 2026 年推出 DDR6 內存,2027 年即實現原生 10Gbps的速度。據披露,三星正在開發行業內領先的 11nm 級 DRAM 芯片。
三星和海力士壟斷 9 成 HBM 市場,美光份額落后。HBM 市場壟斷效應 更強,2022 年海力士/三星份額為 50%/40%,美光份額僅 10%,海力士 HBM3 產品領先其他原廠,是英偉達 AI 芯片 HBM 的主要供應商,份額 最高,而三星著重滿足其他云端服務業者的訂單,在客戶加單下,預計 在 HBM3 與海力士的市占率差距會大幅縮小,2023~2024 年三星和海力 士市占率預估相當,合計擁 HBM 市場約 95%的市占率,不過因客戶組 成略有不同,在不同季度的出貨表現可能有先后。
美光因技術路線判斷失誤在 HBM 市場份額比較低,在追趕中。美光此 前在 HMC 投入更多資金,HMC(Hybrid Memory Cube,混合內存立方 體)將 DRAM 堆疊、使用 TSV 硅穿孔技術互連,DRAM 下方是一顆邏 輯芯片,從處理器到存儲器的通信是通過高速 SERDES 數據鏈路進行 的,該鏈路會連接到 DRAM 下面的邏輯控制器芯片,但不同于 HBM, HBM 是與 GPU 通過中介層互連。HMC 是與 HBM 競爭的技術,美光 2011 年推出 HMC,海力士 2013 年推出 HBM,HMC 與 HBM 開發時間 相近,但 HBM 未被大規模使用,美光 2018 年由 HMC 轉向 HBM。
2023 年主流需求自 HBM2E 轉向 HBM3,預計 2024 年轉向 HBM3 及 3E。隨著使用 HBM3 的 AI 訓練芯片陸續放量,2024 年市場需求將大幅 轉往 HBM3,而 2024 年將有望超越 HBM2E,比重預估達 60%,且受惠 于其更高的平均銷售單價,將帶動明年 HBM 營收顯著成長。
海力士是 HBM 先驅、技術最強,最早與 AMD 合作開發,三星緊隨其 后。 海力士在 2015 年首次為 AMD Fiji 系列游戲 GPU 提供 HBM,該 GPU 由 Amkor 進行 2.5D 封裝,隨后推出使用 HBM2 的 Vega 系列,但 HBM 對游戲 GPU 性能未產生太大改變,考慮沒有明顯的性能優勢和更高的成 本,AMD 在 Vega 之后的游戲 GPU 中重新使用 GDDR,目前英偉達和 AMD 的游戲 GPU 仍然使用更便宜的 GDDR。隨著 AI 模組中參數數量 的指數級增長,內存墻問題愈加突出,英偉達在 2016 年發布首款 HBM GPU P100,后續英偉達數據中心 GPU 基本都采用海力士 HBM。 海力士 22Q4 量產全球首款 HBM3,而三星由于此前降低 HBM 的投入 優先級,HBM3 較海力士晚推出一年。
三大原廠積極擴產 HBM 和推進產品迭代,預計 24H2 HBM3E 量產,未 來成為市場主流。 1)海力士:24 年 Capex 優先保障 HBM 和 TSV 產能,23 年 HBM 產能 已出售完、同時持續收到額外需求,預計 DDR5 和 HBM 產線規模將在 24 年增長 2 倍+。公司已從 2023 年 8 月開始提供 HBM3E 樣品,2024 年 1 月中旬結束開發,3 月開始量產 8 層 HBM3E,3 月底發貨。12 層 HBM3E已于 2 月送樣。 2)三星:計劃 24 年 HBM 產能提高 2.5 倍。23Q3 已量產 8 層和 12 層 HBM3,計劃 Q4 進一步擴大生產規模,并開始供應 8 層 HBM3E 樣品, 2024 年 2 月底發布 12 層 HBM3E ,預計 H1 量產。 3)美光:跳過 HBM3,直接做 HBM3E,2024 年 3 月宣布量產 8 層 HBM3E ,將用于英偉達 H200,3 月送樣 12 層 HBM3E。
國產HBM制造難關待解 美國管制增添阻力
雖然HBM在AI加速卡中大放異彩,但其制造工藝的復雜程度卻遠高于傳統芯片。HBM需要將多個存儲芯片堆疊在一起,對前后道制程環節的要求更加苛刻。
以光刻工序為例,HBM堆疊結構使得曝光面積大幅增加,對光刻機的成像質量和對準精度都提出了更高要求。在后道環節,HBM芯片需要進行減薄、切割等步驟,對設備的精度控制也是一大考驗。
而最關鍵的鍵合環節更是技術難題。目前主流是采用TCB壓合和MR兩種方案,但都存在一定缺陷。TCB壓合雖然成熟,但存在引線過長、信號衰減的問題;MR方案雖然線路短,但成本較高且良率較低。
混合鍵合或將成為主流方向。它結合了兩種方案的優點,有望進一步提高HBM的性能和可靠性。但這項技術目前仍處于起步階段,還需要大量研發投入。
除了技術難關,HBM產業還面臨著來自美國的管制威脅。美國政府最新修訂出口管制新規,進一步限制包括英偉達、AMD在內的AI芯片和半導體設備對華出口,以防中國獲取先進AI芯片技術。
這無疑將給中國HBM產業鏈帶來巨大沖擊。目前,中國HBM產能主要集中在長江存儲、華虹無錫等企業,但上游設備和關鍵工藝環節仍嚴重依賴進口。一旦美國"拉閘門",中國HBM產業發展將陷入停滯。
挑戰與機遇往往并存。美國管制措施無疑將加速中國半導體自主可控進程,從而推動HBM國產化替代步伐。中國企業也在加大HBM研發投入,期望在這場AI算力競賽中贏得主動權。
