《Science》发文!上海交大集成电路学院首次实现全光大规模语义生成芯片
仪器信息网·2025-12-22 09:07

文章核心观点 - 上海交通大学陈一彤课题组研发出国际首个支持大规模语义媒体生成的全光计算芯片LightGen,突破了当前生成式AI面临的算力与能效瓶颈,相关成果发表于《科学》期刊[1] 研究背景与行业挑战 - 深度神经网络和大规模生成模型迅猛发展,但其规模爆炸式增长带来了超高的算力和能耗需求,与传统芯片架构的性能增长之间已出现严峻缺口[2] - 为突破瓶颈,光计算等新型架构受到关注,但传统全光计算芯片主要局限于小规模分类任务,光电级联或复用会严重削弱光计算速度,如何让下一代光芯片运行复杂生成模型成为全球智能计算领域的公认难题[4] 研究成果与技术突破 - 研究团队首次提出并实现了全光大规模语义生成芯片LightGen,这是国际首次实现的大规模全光生成式AI芯片[5] - LightGen在单枚芯片上同时突破了三个领域公认的瓶颈:百万级光学神经元集成、全光维度转换、无真值光芯片训练算法[5] - 该芯片实现了让光“理解”和“认知”语义,能够完整实现从输入图像、理解语义、语义操控到生成全新媒体数据的端到端过程,无需电辅助[7] 芯片性能与验证 - 论文实验验证了LightGen在高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控、去噪、局部及全局特征迁移等多项大规模生成式任务[7] - 在实现与电芯片上运行的Stable Diffusion、NeRF、Style Injection Diffusion等前沿电子神经网络相仿生成质量的同时,直接测量了整个系统端到端的耗时与耗能[9] - 实测表明,即便采用较滞后性能的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力提升和2个数量级的能效提升[9] - 理论分析指出,若采用前沿设备使信号输入频率不再是瓶颈,LightGen理论上可实现算力提升7个数量级、能效提升8个数量级的性能跃升[9] 行业意义与前景 - 该成果直接体现了在不损失性能的情况下替换现有顶尖芯片所能获得的巨大算力和能效提升[9] - 生成式AI正加速融入生产生活,研发能够直接执行真实世界所需任务(尤其是对端到端时延与能耗极其敏感的大规模生成模型)的芯片势在必行[10] - LightGen为新一代算力芯片真正助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向[10]