GMI Cloud推理引擎(Inference Engine)
搜索文档
GMI Cloud:出海是AI企业释放产能、获取新生的最佳途径|WISE 2025
36氪· 2025-12-09 10:38
文章核心观点 - AI应用出海正经历范式革新,从单向技术输出转向算力、需求、价值的全球化与全球价值共振[8][43] - AI应用出海面临的核心挑战是模型推理服务的及时性、扩展性以及稳定性[2][18] - 北美等海外市场用户对AI应用接受度高,需求旺盛,出海成为中国AI公司释放产能、获取新生的最佳途径[8][15][16] - 作为AI原生云服务商,公司通过构建全球算力基础设施与进化推理架构,旨在解决AI出海的效能问题[6][11][14] 行业趋势与市场观察 - AI市场正处于指数级增长阶段,中国海外AI应用的月活用户持续攀升[15] - 90%以上的美国知识工作者已非常熟练地使用AI工具,中东及拉丁美洲的AI应用也达到较高水位,海外用户教育基本完成[15][16] - 国内SaaS市场高同质化、高获客成本,而出海市场存在极大的需求水位差[16] - 过去两年中国AI服务出海导致AI推理需求指数型暴涨[17] - AI技术栈迭代极快,例如从2025年1月到5月,因多节点系统推理爆发,Token价格从高位降至地板价[20] 公司业务与产品介绍 - 公司是英伟达首批六大Reference Cloud Partner之一,专注于出海AI基础设施[7][13] - 公司在全球多地(东亚、南亚、北美、欧洲、加拿大)建有自有机房[14] - 公司耗资5亿美元,在亚洲与英伟达共建了一座GB300万卡集群的AI Factory[14][21][22] - 公司拥有三大产品线:底层的计算硬件、集群管理、MaaS层的推理服务[14] 集群引擎产品特性 - 集群引擎是标准的IaaS层,覆盖底层硬件、裸金属及集群管理,并提供丰富的可监控性插件[27] - 支持类似AWS、GCP等海外大云的GPU workload功能[27] - 采用特殊化的IB组网技术,允许客户选择所需集群尺寸进行训练[27] - 支持多云架构,客户可在自有资源与传统大云资源间切换,以满足峰值扩缩容需求[27] 推理引擎产品特性 - 推理引擎是Serverless产品,集成了全球头部开源与闭源大模型,通过单一API即可访问[29][30] - 推理引擎2.0支持跨集群、跨地区的自动扩缩容,以应对流量峰值和优化不同地区用户体验[30][31] - 采用三层设计架构调度全球资源,根据工作负载对延迟或成本的敏感度,通过基于队列或负载均衡的调度方式分发至不同大区[31] - 推理引擎具备五大核心特征:全球化部署、二级调度架构、弹性伸缩、高可用设计、所有工作负载的统一管理[33][34][35][36] - 支持混合云,可统一纳管自建集群、公司自有集群及公有云上的工作负载与额度[37] 未来产品与行业展望 - 公司即将上线“GMI Studio”产品,用户无需本地环境,可通过云端拖拽方式自由组合最新AI模型及应用[39][40] - 2026年AI出海范式将升级为“全球价值共振”,即算力、技术、需求在全球范围内形成双向赋能生态[43] - 算力层将实现全球资源余缺互补,应用层的Token将从API调用计量演进为算力结算与生态激励的复合价值载体[43]