訂閱
糾錯
加入自媒體

HBF、HMC等四大存儲,誰能力敵HBM

圖片

HBM(高帶寬內存)作為當前AI加速器GPU的核心配置,憑借垂直堆疊的薄DRAM芯片結構,以超高數據帶寬為AI訓練與推理提供了關鍵支撐,成為AI算力爆發的重要基石。

圖片

然而,HBM存在兩大顯著短板:一是成本居高不下,其價格較普通DDR內存高出一個數量級;二是容量增長受限,受限于DRAM內存密度縮放的技術瓶頸,即便如英偉達Blackwell GPU搭載8個24GB HBM3e芯片堆棧(總容量192GB),也難以滿足模型規模爆炸式增長、上下文長度拓展及AI視頻生成帶來的海量內存需求。在此背景下,開發成本更低、容量更大的替代技術成為產業共識,類HBM技術陣營加速崛起,推動AI存儲賽道進入多元化競爭時代。

01

SPHBM4:標準封裝重構HBM應用邊界

JEDEC固態存儲協會近期宣布,接近完成SPHBM4標準制定("SP"即"Standard Package"標準封裝)。作為HBM4的衍生技術,SPHBM4沿用了與HBM4完全一致的DRAM芯片與堆疊架構,在單堆棧容量上保持同等水平,核心差異在于接口基礎裸片(Interface Base Die)的設計優化——可直接搭載于標準有機基板,而非傳統HBM4依賴的硅基板,徹底改變了HBM的物理集成方式。

在性能參數方面,HBM4堆棧采用2048位接口,較此前1024位接口實現翻倍,這是自2015年HBM技術問世以來的最大突破;而SPHBM4則將單堆棧接口位數降至512位,通過提升工作頻率與采用4:1串行化技術,實現了與HBM4相當的數據傳輸速率,同時放寬了有機基板所需的凸點間距,降低了封裝難度。更重要的是,有機基板布線賦予SPHBM4更長的SoC到內存通道支持能力,使其能夠通過增加堆棧數量進一步提升總內存容量,為高容量需求場景提供了新的解決方案。

值得強調的是,SPHBM4絕非"低成本版HBM"或"降配替代方案",其存儲核心性能與HBM4一脈相承,核心價值在于打破了HBM"高價、僅限AI加速器專用"的應用局限。隨著標準落地,HBM技術有望拓展至CPU、網絡芯片、云端ASIC等更多場景,推動市場規模實現實質性擴容。對于SK海力士、三星電子、美光三大存儲巨頭而言,SPHBM4與現有HBM共用DRAM芯片的特性,使其能在保持高端技術競爭力的同時,收獲新增市場需求,而封裝制約的緩解也將讓大規模穩定供應能力轉化為新的競爭優勢。

02

HBF:高帶寬閃存開啟容量競賽新篇章

HBF(High Bandwidth Flash,高帶寬閃存)結構與堆疊DRAM芯片的HBM類似,是一種通過堆疊NAND閃存而制成的產品。與DRAM相比,NAND閃存的容量密度優勢顯著,相同占用空間下,NAND容量可達DRAM的10倍,這一特性完美契合AI場景對大容量存儲的迫切需求。HBF通過硅穿孔(TSV)技術實現多層NAND芯片垂直堆疊,采用先進3D堆疊架構與芯片到晶圓鍵合技術,構建了密集互連的存儲結構。

在性能與容量平衡上,HBF展現出突出優勢:每個封裝可堆疊多達16個NAND芯片,支持多NAND陣列并行訪問,帶寬可達1.6TB/s至3.2TB/s,與HBM3處于同一水平;同時,HBF以相近成本實現了遠超HBM的容量——單堆棧容量最高可達512GB,8個堆棧即可實現4TB總容量,是HBM的8-16倍。此外,HBF打破傳統NAND設計,實現獨立訪問的存儲器子陣列,超越傳統多平面方法,進一步提升了并行訪問能力與吞吐量。

不過,受限于NAND閃存的固有特性,HBF延遲高于DRAM,因此更適用于讀取密集型AI推理任務,而非延遲敏感型應用。盡管尚未量產,但HBF已吸引產業巨頭紛紛布局:2025年2月,SanDisk率先推出HBF原型并成立技術顧問委員會;同年8月,SanDisk與SK海力士簽署諒解備忘錄,推進規格標準化與生態建設,計劃2026年下半年交付工程樣品,2027年初實現商用;三星電子已啟動自有HBF產品的概念設計,Kioxia在2025年FMS上展示了單模塊容量5TB、帶寬64GB/s的原型產品;國產廠商亦不甘落后,目前也正在切入HBF市場,其產品契合AI"云-端協同"趨勢,為端側AI推理提供高帶寬、大容量支撐,助力AI終端應用落地。

03

HBS存儲:終端AI的低成本高性能選擇

在HBM主導數據中心AI場景的同時,SK海力士針對智能手機、平板電腦等終端設備的AI算力需求,正在研發高帶寬存儲(HBS)技術,旨在攻克終端AI的存儲性能瓶頸。HBS采用垂直導線扇出(VFO)封裝工藝,將最多16層DRAM與NAND芯片垂直堆疊,通過直線直接連接芯片的方式,替代傳統彎曲導線連接,大幅縮短了電信號傳輸路徑(僅為傳統內存的1/4以下),有效減少信號損耗與延遲,同時支持更多I/O通道。

性能層面,VFO封裝技術使HBS的能效提升4.9%,封裝厚度減少27%,僅增加1.4%的散熱量,實現了性能與形態的優化平衡;成本層面,HBS無需采用硅通孔(TSV)工藝,芯片制造無需穿孔,顯著提升了良率并降低了生產成本,為終端設備廠商的采用提供了便利。盡管SK海力士尚未公布HBS的具體量產時間表,但該技術有望為終端設備帶來更強大的本地AI處理能力,推動AI應用從云端向終端普及,重塑終端智能生態。

04

HMC存儲:經典技術的差異化回歸

HMC(Hybrid Memory Cube,混合內存立方體)由美光與英特爾聯合開發,最初旨在解決DDR3的帶寬瓶頸,其核心結構是通過3D TSV技術將4個DRAM Die連接到堆棧底層的邏輯控制芯片。與HBM相比,HMC省去了中介層(Interposer),直接通過ABF載板實現互聯,結構更簡潔,延遲更低,但帶寬能力通常弱于HBM,且對載板走線密度和系統級設計能力提出了更高要求。

在HBM推出并成為JEDEC行業標準后,HMC曾逐漸邊緣化,美光于2018年宣布放棄該技術并轉向HBM。然而,隨著AI存儲對成本與差異化的需求日益凸顯,HMC再次進入產業視野。成本與功耗維度上,HMC因無需中介層,規避了HBM因interposer和先進封裝帶來的良率壓力,制造成本更低,供應鏈可控性更強,盡管其極限帶寬和能效密度不及HBM,但功耗密度相對更高、系統設計復雜度上升的代價,在特定場景下可通過差異化優化彌補。未來,HMC有望在定制化AI系統中找到立足之地,成為算力、存儲與先進封裝深度融合的重要選項。

如今,AI產業正告別單一HBM主導的時代,邁入技術路線多元化的新階段。無論是英偉達推動的新型DRAM模組SOCAMM,還是以HBF為代表的3D NAND垂直堆疊架構,亦或是SPHBM4、HBS、HMC等差異化技術,AI存儲的競爭核心已從單一技術性能比拼,轉向成本、量產能力與系統級整體效率的綜合較量。

未來市場格局將呈現清晰的差異化分工:HBM仍將主導通用AI加速卡與高端HPC場景,憑借極致帶寬滿足核心算力需求;SPHBM4將拓展HBM的應用邊界,滲透至更多通用計算場景;HBF將在AI推理等大容量、高帶寬需求場景占據優勢;HBS將賦能終端AI設備,推動智能終端普及;HMC等定制化方案則將在特定AI系統中實現差異化落地。隨著各類技術的持續迭代與生態完善,AI存儲賽道將迎來更為激烈的競爭與創新,為AI產業的持續爆發提供堅實支撐。

       原文標題 : HBF、HMC等四大存儲,誰能力敵HBM

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號