GMI Cloud:出海是AI企业释放产能、获取新生的最佳途径|WISE 2025
36氪·2025-12-08 10:44

公司介绍 - GMI Cloud是一家北美AI原生云服务商,也是英伟达首批六大参考云合作伙伴之一[2] - 公司专注于为出海AI应用提供基础设施,拥有三大产品线:底层的计算硬件、集群管理以及模型即服务层的推理服务[7] - 公司在全球多地(东亚、南亚、北美、欧洲、加拿大)建有自有机房,并刚刚耗资5亿美元,在亚洲与英伟达合作建设了一座GB300万卡集群的AI工厂[7] - 在中国市场,公司主要面向AI出海企业用户,帮助其完成出海业务[7] 行业趋势与市场洞察 - AI市场正处于指数级增长阶段,尽管对2025年下半年或2026年的市场存在不同分析,但整体方向向上[8] - 中国海外AI应用的月活跃用户数量持续攀升[8] - 全球用户,尤其是北美用户,已养成主动拥抱AI的习惯,90%以上的美国知识工作者已非常熟练地使用AI工具[8] - 在中东及拉丁美洲,AI应用也已达到较高水位,用户教育基本完成,为出海创造了巨大的需求水位差[10] - 过去两年中,许多国内企业已进行AI服务出海,随之而来的是AI推理需求的指数型暴涨[10] - 国内SaaS市场存在高同质化、高获客成本的特点,门槛较高[9] AI出海面临的挑战 - AI出海企业在推理方面面临服务及时性、扩展性及稳定性的核心挑战[11] - AI产品的流量可能突然暴增,企业难以用传统软件的方式进行常规扩容,全球性扩容尤其具有挑战性[11] - AI技术栈迭代速度极快,从2025年1月到5月,由于多节点系统推理爆发,Token价格从较高水位降至地板价[11] - 企业需要投入自身资源以跟上技术发展,这带来了困扰[12] 公司解决方案:集群引擎 - 集群引擎是一个标准的IaaS层,覆盖底层硬件、裸金属及集群管理,并提供大量可监控性插件[13] - 该引擎专注于GPU算力,支持海外主流云服务商(如GCP、AWS)的GPU工作负载相关功能[13] - 采用特殊化的IB组网技术,允许客户选择所需的集群尺寸进行训练[13] - 支持混合云架构,已接入多云架构,客户可在自有资源与传统大云资源间切换,以满足峰值扩缩容需求[13] - 该产品主要面向具有一定工程技术能力、希望开发复杂应用的客户[12] 公司解决方案:推理引擎 - 推理引擎是一个更简单的产品,类似于Serverless概念[14] - 集成了全球头部的开源与闭源大模型,用户通过一个API即可访问全球最新最强的模型[15] - 推理引擎2.0版本支持跨集群、跨地区的自动扩缩容,以应对出海客户面临的流量峰值和地区性体验问题[15][16] - 采用三层设计架构调度全球资源,工作负载主要分为两种调度方式:基于队列(适用于视频或语音类模型)和基于负载均衡(适用于大语言模型)[16] - 根据工作负载对延迟或成本的敏感度,将其调度至不同大区,并最终分发至终端GPU[16] - 推理引擎具备五大核心特征:全球化部署、二级调度架构、弹性伸缩、高可用设计以及所有工作负载的统一管理[16][17][18][19] - 同样支持混合云,可统一纳管客户自建集群、GMI Cloud集群或其他公有云上的工作负载,解决资源碎片化与利用率问题[20] 公司产品动态 - 公司推出了推理引擎2.0的“Dedicated Endpoint”(独站式节点)产品,供客户托管自有模型出海,客户可选择将节点部署到特定集群和地区,并根据需求选择成本或性能更优的节点[20][21] - 公司即将上线名为“GMI Studio”的新产品,这是一个面向创业者和用户的创作体验平台,用户无需本地环境或复杂框架,即可通过云端拖拽方式自由组合最新的AI模型及应用[22] 未来展望:AI出海范式升级 - 2026年,AI出海将从旧范式(单向技术输出)升级为新范式(全球价值共振)[23] - AI全球化将跳出“技术单向输出”的浅层认知,推动全球AI产业从“资源割裂”向“价值循环”的底层变革[23] - 新范式意味着算力、技术、需求在全球范围内形成“双向赋能生态”[23] - 在算力层,全球资源将实现余缺互补,优质算力加速模型优化;在应用层,Token将从单纯的API调用计量,演进为算力结算与生态激励的复合价值载体[23] - 全球AI创新将形成共生关系,模型、应用、场景、算力正在形成新的价值正循环[23]