• <li id="00i08"><input id="00i08"></input></li>
  • <sup id="00i08"><tbody id="00i08"></tbody></sup>
    <abbr id="00i08"></abbr>
  • 博客專欄

    EEPW首頁 > 博客 > AI服務器需求帶動存儲器出貨量,韓企廠商大吃紅利 | 百能云芯

    AI服務器需求帶動存儲器出貨量,韓企廠商大吃紅利 | 百能云芯

    發布人:百能云芯 時間:2023-04-18 來源:工程師 發布文章

     

    AI服務器出貨動能強勁帶動HBMhigh bandwidth memory高頻寬存儲器需求提升,預2023AI服務器出貨量年增15.4%


    伺服器.jpg

    TrendForce研究顯示,2022年三大原廠HBM市占率分別為SK海力士(SK hynix)50%、三星電子(Samsung)40%、美光科技(Micron)10%。此外,高級深度學習AI GPU的規格也刺激HBM產品更迭,2023下半年伴隨NVIDIA H100AMD MI300的搭載,三大原廠也已規劃相對應規格HBM3的量產。因此,在今年有更多客戶將導入HBM3的預期下,SK海力士作為目前唯一量產新世代HBM3產品的供應商,其整體HBM市占率可望此提升至53%,而三星、美光則預計陸續在今年底至明年初量產,HBM市占率分別為38%9%

     

    目前英偉達NVIDIA所定義的DL/ MLAI服務器平均每臺均搭載4張或8高級顯卡,搭配兩顆主流型號的x86服務器CPU,而主要拉貨力道來自于美系云端業者GoogleAWSMetaMicrosoft。據TrendForce統計,2022高級搭載GPGPU的服務器出貨量年增約9%,其中近80%的出貨量均集中在中、美系八大云端業者。展望2023年,微軟Microsoft臉書Meta百度字節跳動相繼推出基于生成式AI衍生的產品服務而積極加單,預估今年AI服務器出貨量年增率可望達15.4%2023~2027AI服務器出貨量年復合成長率約12.2%

     

    根據TrendForce調查,AI服務器可望帶存儲器需求成長,以現階段而言,Server DRAM普遍配置約為500~600GB左右,而AI服務器在單條模組上則多采64~128GB,平均容量可達1.2~1.7TB之間。以Enterprise SSD而言,由于AI服務器追求的速度更高,其要求往往優先DRAMHBM滿足,在SSD固態硬盤的容量提升上則呈現非必要擴大容量的態勢,但在傳輸界面上,則會為了高速運算的需求而優先采用PCIe 5.0。而相較于一般服務器而言,AI服務器多增加GPGPU的使用,因此以英偉達NVIDIA A100 80GB配置48張采計,HBM用量約為320~640GB。未來在AI模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動Server DRAMSSD以及HBM的需求成長。

     

    *免責聲明:文章來源于網絡,如有爭議,請聯系客服。


    *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。




    相關推薦

    技術專區

    關閉
    主站蜘蛛池模板: 图们市| 许昌县| 大关县| 汉川市| 合江县| 澄迈县| 常德市| 周宁县| 如东县| 商水县| 泉州市| 利辛县| 鄂托克旗| 新宁县| 鄱阳县| 清水河县| 文山县| 叙永县| 竹北市| 诏安县| 乐安县| 肃北| 龙海市| 庐江县| 新田县| 泸溪县| 靖边县| 麻江县| 上林县| 汕头市| 常州市| 新建县| 涿州市| 苗栗县| 徐闻县| 珲春市| 社会| 高阳县| 鞍山市| 博罗县| 华容县|