,AI 服務器出貨動能強勁帶動 HBM 需求提升,據 TrendForce 集邦咨詢研究顯示,2022 年三大原廠 HBM 市占率分別為 SK 海力士50%、三星(Samsung)約 40%、美光(Micron)約 10%。此外,高階深度學習 AI GPU 的規格也刺激 HBM 產品更迭,2023 下半年伴隨 NVIDIA H100 與 AMD MI300 的搭載,三大原廠也已規劃相對應規格 HBM3 的量產。因此,在今年將有更多客戶導入 HBM3 的預期下,SK 海力士作為目前唯一量產新世代 HBM3 產品的供應商,其整體 HBM 市占率有望藉此提升至 53%,而三星、美光則預計陸續在今年底至明年初量產,HBM 市占率分別為 38% 及 9%。(IT之家注:HBM 全稱 high bandwidth memory,新型 CPU / GPU 內存芯片,將多個 DDR 芯片堆疊在一起后和 GPU 封裝在一起,實現大容量,高位寬的 DDR 組合陣列)
預估 2023 年 AI 服務器出貨量年增 15.4%
目前 NVIDIA 所定義的 DL/ ML 型 AI 服務器平均每臺均搭載 4 張或 8 張高端顯卡,搭配兩顆主流型號的 x86 服務器 CPU,而主要拉貨力道來自于美系云端業者谷歌、AWS、Meta 與微軟。據 TrendForce 集邦咨詢統計,2022 年高端搭載 GPGPU 的服務器出貨量年增約 9%,其中近 80% 的出貨量均集中在中、美系八大云端業者。展望 2023 年,微軟、Meta、百度與字節跳動相繼推出基于生成式 AI 衍生的產品服務而積極加單,預估今年 AI 服務器出貨量年增率有望達 15.4%,2023~2027 年 AI 服務器出貨量年復合成長率約 12.2%。
AI 服務器刺激 Server DRAM、SSD 與 HBM 需求同步上升
根據調查,AI 服務器有望帶動存儲器需求成長,以現階段而言,Server DRAM 普遍配置約為 500~600GB 左右,而 AI 服務器在單條模組上則多采 64~128GB,平均容量可達 1.2~1.7TB 之間。以 Enterprise SSD 而言,由于 AI 服務器追求的速度更高,其要求優先滿足 DRAM 或 HBM 需求,在 SSD 的容量提升上則呈現非必要擴大容量的態勢,但在傳輸接口上,則會為了高速運算的需求而優先采用 PCIe 5.0。而相較于一般服務器而言,AI 服務器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8 張計算,HBM 用量約為 320~640GB。未來在 AI 模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動 Server DRAM、SSD 以及 HBM 的需求成長。
鄭重聲明:此文內容為本網站轉載企業宣傳資訊,目的在于傳播更多信息,與本站立場無關。僅供讀者參考,并請自行核實相關內容。
2023年2月15日,湯臣倍健與美團買藥在北京舉辦了2023
2021年收入增長目標應能確保實現,2022年收入增長預計將
具體來看,一是簡化業務流程和材料,便利北京冬奧會相關區域內境
炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛
,據索尼官方消息,新星粉,銀河紫,星光藍,三款全新配色Dua
,新氧數據顏究院發布《2021醫美行業白皮書》,白皮書顯示,