星期五, 25 4 月, 2025
22.4 C
Taipei

2022~2026年AI伺服器出貨量CAGR可達10.8%

TrendForce觀察到始自2018年新興應用題材的帶領下,包含自駕車、AIoT與邊緣運算,諸多大型雲端業者開始大量投入AI相關的設備建置。截至2022年為止,預估搭載GPGPU (General Purpose GPU)的AI伺服器年出貨量佔整體伺服器比重近1%,而2023年預估在ChatBot相關應用加持下,可望再度刺激AI相關領域的活絡,預估出貨量年成長可達8%;2022~2026年複合成長率(CAGR)將達10.8%。

 

2022~2026年全球AI伺服器出貨量及CAGR預估(單位:千台)。

(來源:TrendForce)

 

據TrendForce統計,2022年AI伺服器採購佔比以北美四大雲端業者Google、AWS、Meta、Microsoft合計佔66.2%為最,而中國近年來隨著國產化力道加劇下,AI建置浪潮隨之增溫,以ByteDance的採購力道最為顯著,年採購佔比達6.2%,其次緊接在後的則是Tencent、Alibaba與Baidu,分別約為2.3%、1.5%與1.5%。

 

2022年各業者AI伺服器採購量佔比。

(來源:TrendForce)

 

AI需求持續帶動HBM記憶體成長

在看好AI發展的前景下,Microsoft更是大舉投資OpenAI,除了於今年2月推出自家搜尋引擎Bing的強化版,其中融合ChatGPT技術以及與OpenAI合作開發大型語言模型「Prometheus」;Baidu亦於2023年2月宣布將推出相關服務「文心一言」(ERNIE Bot),初期將以獨立軟體呈現,後續也將導入搜尋引擎。

以運算規格來看,ChatGPT主要以NVIDIA A100為主,獨家使用Microsoft Azure雲端服務資源。若合併其他Microsoft應用而計,全年Microsoft AI伺服器年需求為25,000台。Baidu文心一言採用NVIDIA A800 (繼A100被美國商務部限制後的替代品),合併其他應用,Baidu AI伺服器年需求約為2,000台。TrendForce分析,以AI運算所需要的server GPU而言,其市場以NVIDIA H100、A100、A800 (滿足中國需求),以及AMD MI250、MI250X系列為主,而Nvidia與AMD的Server GPU佔比約8:2。

若聚焦於這些GPU規格,其中因應高頻寬運算而使用的HBM (High Bandwidth Memory)更受到市場矚目。以位元計算,HBM佔整個DRAM市場比重約1.5%,供應商以三星(Samsung)、SK海力士(SK Hynix)與美光(Micron)為主。但以Nvidia使用的HBM3,SK海力士是目前唯一量產的廠商,因此在該規格主導市場,由於生產技術門檻高,對原廠而言屬於高毛利產品。

2020~2021年疫情期間由於擔心供應鏈缺料,超額備料下使得HBM年需求成長率特別亮眼,而自2023年起需求成長率在物料調節下有所收斂。TrendForce預估,2023~2025年HBM市場CAGR可望成長至40~45%以上。整體而言,伴隨全球雲端業者逐年增加AI伺服器的投入,儘管大環境受高通膨、經濟增長放緩衝擊,企業、組織對於IT支出轉趨保守,但在ChatBot與搜尋引擎應用的帶動下,AI相關轉型布局仍被視為雲端業者投入資本支出的優先項目。

 

 

 

 

The post 2022~2026年AI伺服器出貨量CAGR可達10.8% appeared first on 電子工程專輯.

更多新闻