華為直指AI存儲器市場,將發布自研AI SSD
華為定于8月27日召開「AI SSD,加速智能經濟涌現」新品發布會,劍指AI存儲器賽道,計劃以技術創新推出大容量AI SSD,突破傳統HBM的容量限制。
在當前的AI存儲器領域,HBM占據重要地位 —— HBM是一種通過3D堆疊和超寬接口,實現極高數據傳輸帶寬的先進內存技術,通常直接封裝在GPU卡中。問題在于,傳統HBM受容量制約,難以滿足AI大模型等場景需求,HBM犧牲容量換取極致帶寬和能效的策略導致現有算力卡上HBM的容量比較有限。
華為將發布的全新AI SSD產品,可以有效滿足AI訓練推理過程中的超大容量和超強性能的需求,助力AI訓練推理、大模型部署。此舉將進一步強化華為存儲器在AI時代的競爭力,推動國產存儲生態發展。
隨著全球AI算力需求以每年200%的速度激增,傳統存儲架構正面臨前所未有的挑戰。HBM雖以3.6TB/s的帶寬成為GPU黃金搭檔,但其單顆容量上限僅為24GB,且每GB成本高達DRAM的5倍,導致千億參數大模型訓練成本突破千萬美元。更致命的是,HBM需依賴TSV封裝技術,全球僅三星、SK海力士掌握核心工藝,供應鏈安全風險陡增。
華為即將發布的AI SSD新品是其“以存代算”技術理念的核心硬件載體,旨在通過存儲架構創新突破AI推理中的“內存墻”瓶頸,降低對HBM的依賴。“以存代算”是技術理念,AI SSD是落地載體,共同構成華為應對先進制程限制的系統性解決方案。該技術通過將AI推理所需的矢量數據從DRAM內存遷移至SSD閃存介質優化計算效率,核心價值在于緩解先進制程限制(如華為受7nm制程制約)、降低對HBM/GPU的過度依賴,其本質是存儲層擴展(從內存到SSD),而非DRAM的替代品。
· 存算一體架構:在SSD主控芯片集成AI加速單元,實現數據存儲與預處理同步完成,減少80%的數據搬運能耗;
· 36層DOB堆疊工藝:突破傳統16層限制,單芯片容量達36TB,單硬盤容量提升至256TB,單位成本降低40%;
· CXL 2.0互聯技術:直接擴展GPU顯存,解決"顯存墻"問題,使A100 GPU利用率提升35%。
這一技術組合使AI SSD在保持HBM級帶寬的同時,容量提升10倍以上,徹底改寫AI存儲的性價比公式。IDC預測,到2026年AI SSD將占據12%的NAND閃存市場份額,年復合增長率超60%。不過,這并非華為獨有技術,鎧俠、美光、英偉達等巨頭同步布局,華為因受美國制裁無法突破先進制程轉向系統級創新,是其布局該技術的特殊動因。
評論