“過去一臺AI服務器裝四張顯卡,現在客戶要的都是能裝八張甚至十張顯卡的高端設備?!?2月18日,在2023?AI?Tech?Day暨首屆人工智能生態(tài)發(fā)展峰會現場,服務器廠商正展示全新升級的AI大模型服務器。中國證券報記者在現場了解到,AI大模型迭代速度越來越快,廠商對智能算力投入大幅增加,支持存儲和訓練的高端AI服務器的需求激增。不少AI服務器廠商今年訂單都集中在高端AI服務器上。?
業(yè)內人士表示,隨著AI大模型加速迭代,智能算力已成為稀缺資源。未來較長一段時間內,我國AI服務器市場維持供不應求狀態(tài),國產AI芯片市場規(guī)模增長迎來關鍵窗口期。?
高端AI服務器搶手?
當前,大模型廠商產品迭代如火如荼。據百川智能創(chuàng)始人、CEO王小川介紹,目前百川大模型保持每個月一次模型數據的迭代。?
AI大模型正帶動AI服務器算力需求持續(xù)擴張。安擎計算機相關負責人告訴記者,2023年,由于行業(yè)投資趨于謹慎,判別式AI應用場景收縮,AI服務器市場整體銷售臺數同比有所下降,但訂單金額同比將會呈現增長態(tài)勢。這是由于AI大模型算力需求集中爆發(fā),成為智能算力的最大需求方。?
“AI大模型廠商都在加快迭代速度,客戶根本等不起你去建機房,而是希望拎包入住?!兵櫜┕煞莞笨偛?、英博數科CEO周韡韡告訴記者,“我們現在都是找一些已經建好的機房,然后把設備放進去,快速組網,調試好后交付給客戶。AI大模型的發(fā)展讓人看到的不僅是效率提升,似乎全行業(yè)迭代周期都在縮短。”?
高端AI服務器設備十分緊俏?!按竽P陀柧毸钄祿ぴ?#xff0c;AI大模型廠商需要的是能夠支持存儲和訓練的高端AI服務器。因此各服務器廠商目前都在升級芯片規(guī)格、擴大卡組數量,向高端AI服務器方向升級?!鄙鲜霭睬嬗嬎銠C相關負責人稱。?
我國智能算力資源稀缺。艾瑞咨詢發(fā)布的《2023年中國智能計算中心行業(yè)發(fā)展白皮書》顯示,2022年,中國智能算力規(guī)模占全部算力的比重為22%;從服務器結構來看,2022年,我國通用服務器占服務器總量比重為93.2%,而AI服務器僅占服務器總量的6.8%。多位業(yè)內人士表示,未來較長一段時間內,我國AI服務器市場維持供不應求狀態(tài)。?
算力產業(yè)鏈迎利好?
隨著AI大模型算力需求強勁,今年以來,國內算力產業(yè)鏈公司接連斬獲新訂單。?
12月4日,鴻博股份公告稱,子公司英博數科向百川智能提供一定規(guī)模的英偉達智算服務器,及其所有的算力資源以及配套軟件應用和技術服務,涉及交易總金額預計達313.82億元。據周韡韡介紹,截至2023年12月,英博數科累計簽約額超18億元。?
公開資料顯示,神州數碼在10月29日至11月19日期間共簽訂四筆銷售神州鯤泰品牌昇騰AI服務器訂單,合同總金額達6.24億元。?
青云科技10月15日公告稱,公司向高新興訊美科技股份有限公司采購6.84億元GPU服務器(含配套產品),并與客戶簽訂6.90億元銷售合同,向其銷售上述GPU服務器(含配套產品)。?
在AI大模型浪潮的帶動下,人工智能芯片、服務器、數據中心市場規(guī)模將顯著提升。IDC預計,2023年中國人工智能芯片出貨量將達到133.5萬片,同比增長22.5%。?
人工智能服務器方面,IDC預計,2023年中國人工智能服務器市場規(guī)模將達到91億美元,同比增長82.5%;2027年將達到134億美元,年均復合增長率為21.8%。?
智算中心建設步伐加快。據不完全統計,截至2023年8月,全國已有超過30個城市建設智算中心。?
中信證券表示,AI的持續(xù)發(fā)展拉動智能算力需求和建設水平提升,為光模塊、服務器等領域帶來持續(xù)增長機會。?
做好生態(tài)建設?
AI大模型時代,進口品牌GPU等高端芯片供應面臨周期波動挑戰(zhàn),為國產AI芯片加速推向市場打開關鍵窗口。不過,AI大模型的訓練、推理和海量數據存儲無一不需要高性能算力支撐,也對國產算力底層基礎設施能力和生態(tài)建設提出考驗。?
艾瑞咨詢產業(yè)數字化研究院負責人徐樊磊表示,在AI大模型爆發(fā)之前,國內的智能算力資源主要用于推理端。AI大模型趨勢到來,使國內廠商開始推出訓練端的算力硬件產品和服務,但目前相關產品能力比起全球領先算力能力仍有較大差距。?
業(yè)內人士表示,在計算層面,由于芯片廠商在開發(fā)過程中使用的技術路線不同,導致芯片適配服務器等設備的開發(fā)周期普遍很長。在訓練層面,單芯片算力有限,而大模型訓練需要大規(guī)模的算力集群,需要算力系統具有靈活的算力擴展能力。在存儲層面,多模態(tài)大模型的訓練和推理對存儲提出了更高要求。?
近年來,我國AI算力市場高度依賴英偉達GPU硬件和相應的軟件生態(tài)。周韡韡坦言,全球90%的AI工程師都在使用英偉達GPU配套的CUDA軟件生態(tài),這和英偉達GPU在全球的壟斷地位完全匹配?!耙恍﹪aGPU計算性能并非絕對不夠,而是若要把國產GPU和基于CUDA架構開發(fā)的設備進行適配,需要在調試和優(yōu)化上花費大量精力,導致用戶使用算力的效率下降?!?
然而,隨著英偉達芯片進口難度不斷提升,國產AI芯片自主創(chuàng)新任重道遠。?
記者梳理發(fā)現,浪潮信息、海光信息、希姆計算、中科通量、瀚博半導體、墨芯人工智能、摩爾線程、天數智芯、寒武紀、燧原科技等芯片公司推出了應用于不同場景的AI推理和訓練任務的芯片加速卡,涉及CPU、GPU、RISC-V等不同設計架構。?
海光信息表示,海光DCU兼容CUDA生態(tài),對文心一言等大多數國內外主流大模型適配良好。依托DCU可以實現LLaMa、GPT、Bloom、ChatGLM、悟道、紫東太初等為代表的大模型全面應用。?
如何進一步提升國產AI芯片競爭力?中國工程院院士、清華大學教授鄭緯民認為,要開發(fā)基于國產AI芯片的系統,這一過程中最重要的是做好生態(tài)建設?!皣aAI芯片只要達到國外芯片60%的性能,如果生態(tài)做好了,客戶也會滿意?!编嵕暶穹Q。?
徐樊磊建議,做好自主創(chuàng)新要從人才、設施、科研和生態(tài)領域四方面突破,逐步提升智能算力設備軟硬件功能。在硬件方面,提高國產AI芯片的穩(wěn)定性和兼容性,特別是提升芯片之間、服務器集群之間的數據傳輸效果。在軟件生態(tài)方面,降低適配門檻,讓開發(fā)者逐漸使用國產芯片生態(tài)。
相關稿件