IDC 2025 新出爐 Infra 報告力薦:GMI Cloud 領(lǐng)跑 AI 原生云賽道
原創(chuàng)近日,全球權(quán)威市場研究機構(gòu) IDC 發(fā)布《AI 原生云/新型云廠商重構(gòu) Agentic 基礎(chǔ)設(shè)施》報告,深度剖析生成式 AI(GenAI)爆發(fā)背景下,AI 基礎(chǔ)設(shè)施市場的變革趨勢與核心玩家價值。報告明確指出,“AI 原生云廠商憑借穩(wěn)定的供應(yīng)鏈、顯著的價格優(yōu)勢及專業(yè)化能力,已在 AI 基礎(chǔ)設(shè)施市場站穩(wěn)腳跟”,并將 GMI Cloud 與 CoreWeave 列為新型 AI 原生云廠商中的重點調(diào)研推薦對象,從技術(shù)實力、生態(tài)資源、產(chǎn)品布局及戰(zhàn)略視野四大維度,肯定其在推動企業(yè) GenAI 落地中的核心作用。
IDC 洞察 AI 應(yīng)用市場焦點:AI 原生云成 GenAI 跨越“PoC 到生產(chǎn)”關(guān)鍵,推理與合規(guī)需求凸顯
IDC 在報告中強調(diào),當前亞太地區(qū)企業(yè) GenAI 采用率呈爆發(fā)式增長——65%的亞太企業(yè)將在 2025 年實現(xiàn)超 50 個 GenAI 場景投產(chǎn),26%的企業(yè)甚至計劃部署超 100 個場景。但企業(yè)在從概念驗證(PoC)向規(guī)模化生產(chǎn)邁進時,面臨三大核心挑戰(zhàn):高性能推理基礎(chǔ)設(shè)施短缺、數(shù)據(jù)主權(quán)合規(guī)壓力、多云環(huán)境下資源調(diào)度效率低。
隨著大模型預訓練逐漸收斂,IDC 在報告中明確預判:“2025 年起,AI 基礎(chǔ)設(shè)施市場焦點將全面轉(zhuǎn)向推理側(cè)”,而推理場景對 “高吞吐、大并發(fā)、成本可控” 的需求,正倒逼廠商突破傳統(tǒng)技術(shù)架構(gòu)。報告數(shù)據(jù)顯示,2025 年亞太地區(qū)使用 AI 推理基礎(chǔ)設(shè)施的組織占比已達 84%,但超過 24% 的企業(yè)仍受 “基礎(chǔ)設(shè)施成本過高” 困擾,如何在 “性能” 與 “成本” 間找到平衡點,成為行業(yè)核心挑戰(zhàn)。
對此,IDC 明確提出解決方案方向:“企業(yè)應(yīng)優(yōu)先選擇地域鄰近、供應(yīng)鏈穩(wěn)定的專用 AI 基礎(chǔ)設(shè)施,尋找具備 GPU 加速能力、支持混合云部署且符合區(qū)域合規(guī)要求的 AI 原生云合作伙伴”。而這一判斷,恰好與 GMI Cloud 的核心戰(zhàn)略高度契合,也成為報告重點關(guān)注并推薦 GMI Cloud 的關(guān)鍵依據(jù)。
同時,GMI Cloud 自研雙引擎突破性能瓶頸,匹配 IDC“推理效率優(yōu)先”趨勢。針對 IDC 強調(diào)的“2025 年 AI 基礎(chǔ)設(shè)施焦點轉(zhuǎn)向推理側(cè),需滿足高吞吐、大并發(fā)與成本平衡”需求,GMI Cloud 自研 Cluster Engine 與 Inference Engine 雙引擎,形成技術(shù)壁壘:
? Cluster Engine(IaaS 層):提供靈活彈性的資源調(diào)度能力,支持長期預留與按需使用結(jié)合的模式,同時支持定制化私有云服務(wù)、K8s 集群管理、InfiniBand 虛擬化組網(wǎng),確保企業(yè)數(shù)據(jù)安全與資源效率最大化,契合 IDC“模塊化、可定制計算服務(wù)”的推薦標準;
? Inference Engine(MaaS 層):集成全球近百個前沿大語言模型、語音及視頻生成模型,通過對開源模型的深度優(yōu)化,實現(xiàn) API 調(diào)用延時縮短、Token 吞吐效率提升,同時提供差異化定價的 on demand 模型部署托管服務(wù),幫助企業(yè)平衡“性能需求與成本控制”,直接響應(yīng) IDC“需優(yōu)化 AI 項目總擁有成本(TCO)”的建議。同時,作為面對 AI 推理場景的核心引擎,其具備高并發(fā)、低延遲及動態(tài)彈性擴縮容能力,能夠精準匹配全球范圍內(nèi)企業(yè)對推理基礎(chǔ)設(shè)施“彈性適配業(yè)務(wù)波動”的核心訴求。
報告已披露,GMI Cloud 將于 2025 年 10 月完成 Inference Engine 底層升級,打造“面向全球的混合云 GPU 系統(tǒng)”——不再局限于自有資源,而是整合 AWS、GCP、阿里云等公有云服務(wù)、企業(yè)自建 IDC 及私有集群,通過統(tǒng)一管理平面實現(xiàn)跨平臺 GPU 資源調(diào)度。這一升級將幫助企業(yè)打破“多云孤島”,同時結(jié)合 GMI Cloud 在北美、歐洲、亞太地區(qū)的本地化數(shù)據(jù)中心布局,既滿足 IDC 要求的“低延遲 AI 計算”,又確保符合區(qū)域數(shù)據(jù)主權(quán)法規(guī),為跨國企業(yè)及區(qū)域型企業(yè)提供“合規(guī)+高效”的雙重保障。
IDC 直言行業(yè)核心矛盾 :供應(yīng)鏈穩(wěn)定性成 AI 算力選型關(guān)鍵,GMI Cloud 與 NVIDIA 深度合作
IDC 在報告中直言,“穩(wěn)定的供應(yīng)鏈是 AI 原生云廠商立足市場的關(guān)鍵前提”,而調(diào)研顯示,31.1% 的亞太企業(yè)將 “獲取 AI GPU 及高性能基礎(chǔ)設(shè)施” 列為阻礙 GenAI 落地的首要難題。這一矛盾背后,是全球 GPU 資源緊張與企業(yè)對高性能算力需求激增的供需失衡 —— 尤其在 NVIDIA H200、B200 等新一代 GPU 發(fā)布后,能否優(yōu)先獲取資源、保障算力持續(xù)供給,直接決定企業(yè) GenAI 項目的推進速度。
作為 NVIDIA 認證合作伙伴(NCP)及 “全球六大 Reference Platform NCP” 之一,GMI Cloud 的供應(yīng)鏈優(yōu)勢在報告中被重點提及:從 2024 年率先支持 NVIDIA H200 GPU,到 2025 年同步上線 GB200,再到優(yōu)先鎖定下一代 B300 資源,GMI Cloud 實現(xiàn)了 “新一代 GPU 資源零滯后對接”。這種與 NVIDIA 的深度綁定,不僅讓 GMI Cloud 能為企業(yè)提供 “不中斷的、持續(xù)領(lǐng)先的高性能算力”,更通過軟硬件棧的深度集成,確保 GPU 性能最大化釋放 —— 正如 IDC 所強調(diào)的,“供應(yīng)鏈穩(wěn)定的 AI 原生云廠商,才能真正解決企業(yè)算力焦慮,讓 GenAI 項目從‘試點’走向‘規(guī)模投產(chǎn)’”。
IDC 重點推薦:GMI Cloud 成 Agentic 時代企業(yè) AI 基礎(chǔ)設(shè)施優(yōu)選伙伴
IDC 在報告“給技術(shù)買家的建議”中明確指出:“對于新型云廠商/AI 原生云廠商,本次報告重點調(diào)研并推薦 CoreWeave、GMI Cloud 公司”,并強調(diào)“應(yīng)優(yōu)先選擇供應(yīng)鏈穩(wěn)定、資源充足且能提供深度技術(shù)咨詢的合作伙伴”。
GMI Cloud 不僅在技術(shù)與產(chǎn)品上貼合 IDC 推薦標準,更通過“深度陪伴式 AI 專家顧問服務(wù)”形成差異化優(yōu)勢——對比大型公有云廠商,GMI Cloud 能為企業(yè)提供從資源配置、AI 應(yīng)用構(gòu)建到性能優(yōu)化的全流程技術(shù)建議,幫助企業(yè)快速跨越“GenAI 落地鴻溝”。正如 IDC 中國研究總監(jiān)盧言霞在報告中所言:“面向多智能體協(xié)同的未來,企業(yè)需要重新構(gòu)建高性能、高可靠、高效率的 AI 基礎(chǔ)設(shè)施”,而 GMI Cloud 正以“技術(shù)創(chuàng)新+生態(tài)整合+區(qū)域深耕”的模式,成為這一趨勢下的核心推動者。
“IDC 的認可既是對 GMI Cloud 當前實力的肯定,更是對我們未來方向的印證。”GMI Cloud 相關(guān)負責人表示,“未來,我們將持續(xù)深化與 NVIDIA 等伙伴的合作,加速全球數(shù)據(jù)中心布局與 GPU 云平臺的迭代落地,以‘高性能、高安全、高彈性’的 AI 原生云服務(wù),幫助更多企業(yè)抓住 GenAI 機遇,在 Agentic 時代實現(xiàn)業(yè)務(wù)價值躍升。”



























