我国科学家实现新一代光计算芯片研究新突破
新华社·2025-12-19 14:33
行业背景与挑战 - 随着深度神经网络和大规模生成模型迅猛演进,行业面临超高算力和能耗需求,传统芯片架构的性能增长速度已出现严重缺口 [1] - 光计算等新型架构因光天然具备高速和并行的优势,被视为突破算力与能耗瓶颈的重要方向 [1] - 如何让下一代算力光芯片运行复杂生成模型,是全球智能计算领域公认的难题,已有的全光计算芯片主要局限于小规模、分类任务 [1] 技术突破与产品性能 - 上海交通大学科研团队实现了支持大规模语义媒体生成模型的全光计算芯片LightGen,相关成果发表于《科学》杂志 [1] - 采用极严格算力评价标准的实测表明,即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提升 [2] - 该芯片在单枚芯片上同时突破了“单片上百万级光学神经元集成”、“全光维度转换”、“不依赖真值的光学生成模型训练算法”三项关键瓶颈 [2] 应用功能与前景 - LightGen可完整实现“输入—理解—语义操控—生成”的闭环,完成高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控 [2] - 该芯片同时支持去噪、局部与全局特征迁移等多项大规模生成式任务 [2] - 该成果为新一代光计算芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向 [2]