算力内卷时代,“开放架构”万卡超集群为何成刚需?
作者:Max 现如今,要做一个AI大模型需要准备什么?这背后可能上百个技术专家,数以亿计的资金,但最重要的,是需要庞大的算力支持。 有机构曾做了一个统计,要做一个ChatGPT级别的AI大模型,至少需要1万枚英伟达的H100加速卡,也可以说,有1万卡加速卡才能摸到Moe万亿参数自研大 模型门槛。 而随着ChatGPT、文生视频等AI应用迅速普及,各行业对算力的需求呈指数级增长。IDC预测,到2028年,中国智能算力需求将达到2781EFLOPS规模,年 均增长率高达46.2%。然而,传统的计算集群在规模扩大到数千张卡之后,就会遇到难以逾越的瓶颈。 如何提升算力资源利用率与降低运营成本?如何让头部之下的企业也能用得起大规模算力?在这背后,"万卡超集群"成为了这个时代答案。 2025年12月18日,在光合组织2025人工智能创新技术大会(HAIC2025)上,中科曙光发布了曙光scaleX万卡超集群系统,引起了市场广泛关注。 "scaleX万卡超集群,是曙光发挥大型计算机系统研制经验优势,面向万亿参数大模型、科学智能等复杂任务场景打造的大规模智能算力基础设施方案"。中 科曙光高级副总裁李斌表示,面对人工智能基础设 ...