傅里叶的猫
搜索文档
突然火起来的钻石散热是AI的终极散热?
傅里叶的猫· 2025-10-20 09:41
文章核心观点 - AI与HPC时代芯片热设计功耗持续上升,散热成为行业最大挑战,钻石散热技术凭借其超高热导率等卓越性能,被视为下一代半导体散热的关键解决方案,能显著提升芯片性能并降低能耗 [7][16][19] - 钻石散热技术产业化面临材料等级门槛高、n型掺杂技术瓶颈和成本高昂三大核心难题,但全球产业布局正在加速,美国通过CHIPS法案资助初创公司,中国企业在材料供应和专利研发上积极跟进 [26][27][30][31] - 钻石散热市场规模预计将从2025年的0.5亿美元爆发式增长至2030年的152.4亿美元,复合年增长率高达214%,在数据中心、新能源汽车、消费电子等多个领域具有巨大应用潜力 [33] 钻石散热技术的优势与性能 - 金刚石是第四代/终极半导体材料,拥有5.47 eV的超宽禁带、2000 W/m·K的超高热导率(是硅的约15倍)、1000 MV/cm的高击穿场强以及高达4500 cm²/V·s的电子迁移率,性能远超传统半导体材料 [12][14] - 具体应用优势包括:对比硅芯片,采用金刚石技术的转换器重量可降低80%;对比碳化硅芯片,成本可降低30%,材料面积仅为1/50,能量损耗减少约66%,芯片体积缩小至1/4 [15][16] - 在散热应用中,金刚石基板能将器件热阻压至4.1 K・mm/W,在2W功率负载下使芯片温度下降10℃;实际案例显示,GaN-on-diamond方案使晶体管工作温度降低30℃以上 [17] 钻石散热的技术应用与效能 - 钻石散热技术通过三种核心形态解决散热难题:作为承载芯片的金刚石衬底、充当高效导热的热沉片、以及在内部构建微通道形成主动式散热通路 [16] - 技术效能显著:能让GPU计算能力提升3倍,核心温度降低60%;实际应用可使GPU热点温度降低10-20摄氏度,风扇转速减少50%,GPU超频能力提升25%,服务器寿命延长一倍,并为数据中心节省数百万美元冷却成本,实现整体能耗减少40% [19][20][23] - 钻石散热是端侧设备等不具备液冷条件场景的重要解决方案,并非所有场景都适用微通道散热技术 [33] 产业化挑战与进展 - 产业化面临三大卡点:芯片用金刚石需达到电子级以上超高纯度标准;n型掺杂技术因找不到合适施主元素且电离能极高而难以突破;人造金刚石材料成本几乎是硅的10000倍,成为规模化推广的最大障碍 [26][27] - 美国初创公司Akash Systems获得CHIPS法案1820万美元直接资助和5000万美元税收抵免,其钻石冷却方案能降低GPU热点温度20℃,提升超频潜力25%,降低能耗40%,但其人造金刚石原料高度依赖中国供应链(全球份额超95%) [30] - 中国企业积极布局:华为设计了“带凹槽的钝化层”结构并研发“硅-金刚石混合键合方法”以提升散热效率;多家上市公司(如力量钻石、黄河旋风、四方达等)在金刚石散热材料研发和生产上已有具体项目和产能布局 [31][32] 市场规模与相关公司 - 预计钻石散热市场规模将从2025年的0.5亿美元增长至2030年的152.4亿美元,年复合增长率达214% [33] - 细分市场预测:2030年,数据中心领域钻石散热市场规模达48亿美元(渗透率12%),新能源汽车领域达51.85亿美元(渗透率10%),消费电子领域达38.02亿美元(渗透率10%) [33] - 文章列出了多家布局钻石散热产业链的中国公司及其相关业务与收入,例如力量钻石(2024年总收入6.86亿)、黄河旋风(成功开发出热导率超2000 W·m·K的CVD多晶金刚石热沉片)、四方达(国内最大CVD金刚石生产基地投产)等 [32]
Andrej Karpathy并非看空AI
傅里叶的猫· 2025-10-19 14:11
AGI发展时间线与技术挑战 - AGI实现还需约10年,当前乐观预测多为融资驱动[3] - AI通过模仿互联网数据生成,与生物演化智能不同,被比喻为"召唤幽灵而非构建动物"[3] - 强化学习效率低下,存在高方差和噪声问题,类似通过吸管汲取监督信号[3] - 自动化信用分配和LLM裁判易被利用,限制其发展[3] LLM技术局限性 - LLM缺乏持续学习、多模态能力及情感驱动力[3] - 依赖上下文窗口而非长期记忆,存在"模型坍塌"风险[3] - 生成数据多样性下降[3] AI对经济的影响 - AGI不会引发经济爆炸,而是平滑融入2% GDP增长曲线[3] - 技术扩散和社会适应需要渐进过程,无"离散跳变"证据[3] - 延续自动化浪潮[3] AI时代的教育适应 - 通过重新设计教育体系帮助人类在AI时代提升认知能力[10] - 构建高效的"知识斜坡"使学习者最大化"每秒顿悟数"[10] - 培养人类与AI共舞的能力,如多语言和广泛知识的普及[10] - 不看好AI短期内取代人类劳动力,而是通过教育实现人类与AI共存[10] AI发展路径 - 看重AI的渐进式发展和人类在其中的主动适应[11] - AI不会迅速颠覆世界,而是需要长期优化[11] - 人类需通过教育提升能力,与AI共存共荣[11]
深入分析下一代 AI 芯片的散热革命
傅里叶的猫· 2025-10-19 14:11
AI芯片散热需求趋势 - AI芯片热设计功耗呈现跳级增长,英伟达A100在2023年TDP为600-700W,到2025年Blackwell系列达到1000-1400W,2026年Rubin系列初始TDP为2300W,2027年Rubin Ultra可能超过3500W [3] - 传统单相液冷冷板散热上限为2000-3000W,更高功耗需要新技术突破 [4] 微通道盖板技术 - 微通道盖板是2027年后3000W以上芯片的最实用方案,通过整合均热板和冷板为一体,缩短散热路径为“芯片→TIM1→MCL”,减少热阻 [5] - 该技术兼容现有单相液冷系统,冷却液、快速接头、冷却液分配单元等设备可继续使用,相比两相液冷具有更好的兼容性和更快的落地速度 [7] - 微通道盖板面临设计、制造和供应链三大挑战,微通道尺寸需控制在10-1000微米以平衡流动性和压降,制造需高精度工艺且初期良率可能低于50%,供应链责任需在台积电及其CoWoS联盟伙伴间重新划分 [7][8][9] 热界面材料升级 - 当前英伟达使用石墨膜TIM,垂直方向热导率约20W/m-K,对于3500W的Rubin Ultra将不足 [10] - 铟金属TIM热导率可达80W/m-K以上,是石墨膜的4倍多,但需解决组装时空洞控制和界面处理(如背侧金属化)问题,预计2027年Rubin Ultra量产时可能应用 [10] 其他前沿散热技术 - 芯片级直冷技术如TSMC的Si集成微冷却器和微软的嵌入式微流控仍在早期阶段,面临规模化生产难题,预计2030年后才可能小规模应用 [11] - 近3-5年散热方案仍将依赖微通道盖板和热界面材料升级 [11] 传统冷板厂商增长机遇 - 非核心芯片液冷需求被忽视,AI服务器中CPU、交换机、网络卡、内存模块等部件液冷渗透率2025年不到10%,2027年将超过50% [12] - AI服务器液冷组件市场规模将从2025年的12亿美元增长至2027年的35亿美元,年复合增速超过60% [12] - 传统冷板厂商如AVC、Auras可通过成为微通道盖板第二供应商切入高端市场,AVC已在测试样品,Auras因有均热板经验具备研发基础 [13] 重点公司分析 - Jentech作为全球均热板龙头,与台积电CoWoS联盟合作深厚,预计2026年末开始小批量供应微通道盖板,2027年微通道盖板收入将占总营收17%,2028年可能超过30% [15] - AVC是英伟达核心液冷供应商,GB200/300冷板大部分由其供应,2025年三季度销售额环比增长32% [15] - Auras在冷板市场占有率约10%,但在冷却液分配部件上具有优势,全液冷服务器需要更多此类部件 [15]
回归技术--Scale Up割裂的生态
傅里叶的猫· 2025-10-18 16:01
文章核心观点 - 文章核心观点是分析AI服务器Scale Up高速互联技术的市场格局、主流技术方案及其发展前景,重点探讨了英伟达NVLink、博通SUE和由AMD、Marvell等公司推动的UALink三大技术路线的竞争态势 [1][3][5] - 随着AI算力需求增长,Scale Up网络市场预计将从2024年的40亿美元以34%的年复合增长率增长至2029年的170亿美元,为非英伟达阵营的互联技术提供了巨大市场机会 [5][7] - Scale Up技术生态目前呈现割裂状态,未来竞争结果将取决于xPU市场份额划分、新网络标准演进以及客户的数据中心架构选择 [10][22] Scale Up和Scale Out概念 - Scale Up网络指同一台服务器或同一机架内GPU之间的高速通信网络,通过加速器互联使其协同工作,相当于一台大型超级计算机 [3] - 在Hopper时代以8卡机为主,服务器内部GPU可通信,服务器间需接交换机;Blackwell时代的GB200 NVL72则将一个机架内的72个GPU视为单一虚拟GPU,消除了服务器间通信瓶颈 [5] 主流Scale Up方案对比 - 英伟达采用专有NVLink协议实现GPU集群互联,在GB200/300的NVL72配置中,NVLink扩展至Blackwell GPU与Grace CPU的连接,预计未来将继续仅通过NVLink实现Scale Up [11] - AMD借助专有Infinity Fabric技术实现MI300 GPU的Scale Up,单个服务器最多连接8个GPU;即将推出的MI400将采用72-GPU机架配置,通过基于以太网的UALink实现Scale Up [12] - 谷歌通过芯片间互联技术实现机架内TPU Scale Up,借助光电路交换技术实现跨机架扩展;基于TPUv7架构的完整扩展pod可支持多达9216个TPU [13] - 亚马逊采用专有NeuronLink互联技术实现Scale Up通信,可在四个Trainium2实例间连接多达64个芯片;目前正与阿斯特拉实验室合作研发专用Scale Up交换机,预计2026年推出 [14] - 博通的SUE采用AI优化以太网,具备超低延迟和高性能,使用博通Tomahawk交换机,支持横向与纵向扩展的第六代产品已于6月出货 [17] - UALink是专为AI设计的内存语义互联技术,目前处于发展初期,由AMD、ALAB、MRVL及多家超大规模企业组成的联盟支持,基于AMD的Infinity Fabric,物理层依托以太网 [17] 国内超节点发展现状 - 目前国内已公布超节点方案的只有华为和阿里,华为有UB Mesh,阿里有ALink;其他国产GPU厂由于系统复杂性高且需要自有互联协议,面临较大挑战 [9] - 阿里欢迎其他厂家加入ALink生态,但其他厂家可能因竞争关系不愿兼容,同时受国际形势影响可能也不会选择国外互联总线,导致国内生态发展存在不确定性 [9] 互联介质选择:光与铜 - 当前Scale Up网络以铜缆为主,因其在短距离内具有纳秒级低延迟和成本优势,能避免光器件的额外成本和功耗 [20] - 单机架加速器部署规模上限约为72个,受架构、功耗与散热、物理密度和可靠性四大因素限制;若规模超过100个或需转向光连接 [20] - 预计铜缆将在Scale Up网络中长期使用,但当Scale Up突破单机架实现数百个GPU集群时,可能于2028年及以后引入光器件 [20][21] 市场竞争格局与关键因素 - Marvell在UALink生态中的主要贡献是准备做UALink switch,这是整个生态中最关键的一环 [22] - 当前市场处于早期阶段,架构、技术标准和客户偏好仍在变化中,最终胜出的Scale Up技术尚未确定,但市场规模足以支撑多家供应商共存 [22] - 长期来看,非英伟达阵营预计将从专有Scale Up网络逐步转向UAL、SUE等开源解决方案,这些技术有望在2027-2028年随着技术成熟及新ASIC产品放量而得到更广泛应用 [22]
英伟达份额降至零,寒武纪的三季报分析
傅里叶的猫· 2025-10-17 21:35
英伟达退出中国市场事件 - 2025年10月英伟达CEO黄仁勋公开承认公司已完全退出中国市场,市场份额归零[1] - 2022年美国首次对华实施AI芯片出口限制时,英伟达在中国市场份额超过90%[4] - 2024年英伟达为中国定制H20芯片出货60-80万枚,但性能仅为H100芯片的15%[5] - 2025年4月美国将H20纳入出口管制,英伟达停售该芯片并计提45亿美元库存损失[6] - 2025年8月H20虽获出口许可但需缴纳15%销售额分成,后因安全审查遭中国客户弃用[7] - 英伟达中国区收入从171亿美元跌至可忽略不计[8] 英伟达产品在中国的实际流通情况 - 美国政策主要针对AI芯片,多数桌面级GPU显卡仍可正常在中国交易[9] - 英伟达发布的DGX Spark产品国内可以买到,其搭载的GB10 Grace Blackwell Superchip芯片可正常进入中国[10] - 被禁运的是阉割版AI芯片如H20和Rtx Pro 6000D,但更高端的B系列产品可通过非官方渠道进入中国[10] - 部分被禁运的高端桌面级显卡在京东等平台可以搜到[10] 寒武纪2025年第三季度财报分析 - 第三季度营收17.27亿元人民币,净利润5.67亿元,净利率为32.8%[11] - 上半年净利率为36.08%,第三季度净利率同比下降约3个百分点[11] - 第三季度营收低于市场预期的24亿元,公司此前给出的年度营收指引为50-70亿元[11] - 存货从上半年的26.9亿元增加至37亿元,据信其中很大一部分为HBM存储芯片[12] 寒武纪业务与市场地位 - 市场消息称其思元690芯片已出货,速度快于预期,显示公司研发和技术迭代能力强劲[11] - 客户群体多元化,除字节外还包括其他云服务提供商、国家超算中心、头部安防公司及多家车企[14] - 公司在字节内部思元处理器应用广泛,表明其软件生态已较为成熟[14] - 据业内消息,寒武纪在中芯国际的产能有所增加[14] 中国AI芯片行业前景 - 英伟达阉割版芯片被禁利好国产GPU/NPU公司,包括华为、寒武纪等[14] - 昇腾芯片已能支持万卡集群的大模型训练,进展快于市场预期[14] - 昇腾当前主要挑战在于其生态系统的工程师使用普及度仍需时间提升[15] - 摩根士丹利分析预测中国到2027年GPU自给率可达82%[15] - 国内AI芯片行业长期发展被看好[16]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-16 14:03
行业趋势与验证策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队必须在设计初期就慎重选择硬件辅助验证工具和方法以提高效率并降低风险[1] Veloce CS系统核心架构 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS和软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上共享同一操作系统和解决方案应用实现无缝切换[3] - 统一架构能加速调试与任务部署使验证效率提升多达3倍总拥有成本可降低约6倍[3] proFPGA CS平台特性 - proFPGA CS硬件系统采用模块化设计理念可自由组合母板、FPGA模块和子板以满足不同容量和功能需求[3] - 平台容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB方便用户在多个平台之间自由切换[4] 技术巡讲核心议题 - 技术巡讲涵盖采用Veloce CS生态提高SoC和系统设计验证效率的主题[6] - 议题包括proFPGA CS的模块化和扩展性增强硬件原型验证方法学[6] - 巡讲将分享利用proFPGA CS加速高性能RISC-V SoC验证以及Strato CS助力Arm Neoverse CSS软硬件协同验证的客户案例[6]
高盛:AI开支热潮并没有那么夸张、上调工业富联、电力问题持续
傅里叶的猫· 2025-10-16 14:03
AI投资规模与驱动力 - 2025年美国AI相关支出年化规模约3000亿美元,三个月年化增速较2022年平均值增加2770亿美元[2] - AI投资受技术和宏观经济双重驱动,技术层面AI可提升劳动生产力15%,企业应用后生产力平均提升25%-30%[3] - 计算需求高速增长,大型语言模型训练所需计算力年增400%,训练查询需求年增350%,前沿AI模型数量年增125%[7] - 宏观经济层面,美国近12个月AI投资占GDP不足1%,低于历史上基础设施投资占GDP 2%-5%及ICT投资占GDP 1.5%-2%的水平[7] - AI生产力提升带来的资本收入现值基线为8万亿美元,区间在5万亿至19万亿美元,远超当前投资规模[8] AI投资可持续性与竞争格局 - 目前不足10%的企业将AI用于常规生产,处于逐步渗透阶段[6] - 企业若购买现成AI应用、由一线经理主导项目并使用集成工具可获得显著价值[6] - 历史经验显示技术基建周期中先发者表现不一,当前AI市场应用层竞争激烈,基础模型层和数据中心层竞争适度,半导体层由Nvidia和TSMC主导[10] - AI技术迭代快削弱先发优势,企业多用模型降低切换成本,AI硬件折旧率高达18%,增加企业长期胜出的不确定性[10] - 企业持续投资AI的动力在于获取先发超额收入及通过计算能力投入追求AGI实现的极高利润[11] 工业富联投资价值 - 公司在AI服务器赛道凭借规模、全球覆盖和供应链关键地位优势,市场份额不断提升[12] - 高盛预测2025年至2027年净利润年复合增长率达45%,远高于2022年至2024年的8%[15] - 2026年每股收益上调8%至2.84元,目标市盈率微调至29.5倍;2026年收入预测1.47万亿元上调3%,净利润564.32亿元上调8%;2027年收入预测1.96万亿元上调10%,净利润707.25亿元上调7%[15] - AI服务器技术快速迭代需要稳定供应链,公司技术研发和产品交付能力支撑市场份额可持续性,客户覆盖中美头部云服务提供商,产品包括GPU和ASIC服务器[16] - 传统智能手机零部件业务受益于折叠屏手机需求增长,公司技术实力保障交付优势[16] AI电力需求挑战与机遇 - 预计到2030年全球数据中心电力需求较2023年增长175%,相当于新增一个全球前十大电力消费国,美国数据中心电力需求占比将从2023年4%升至11%[21] - 驱动因素包括AI普及性、计算生产力提升(如NVIDIA服务器算力提升15倍功耗仅增2倍)、电力价格(绿色可靠性溢价约40美元/兆瓦时对超大规模企业EBITDA影响仅2%-3.5%)、政策、部件可用性和人力可用性[22][23][24][25] - 美国到2030年需新增82吉瓦容量满足需求,其中51%为天然气调峰电厂,27%为太阳能;全球电网投资预计达7900亿美元,67%用于输配电升级[25][26] - 数据中心碳排放到2030年将增加2.15亿至2.2亿吨,占全球能源排放0.6%[26] - 投资机会集中于保障电力水资源可靠性、满足新增电力需求和提升效率三个方向[26] SST技术优势 - SST技术较传统交流UPS方案和直流240V电源方案可节省约50%占地面积,安装周期缩短75%[28] - 以中国移动万卡集群为例,服务器电源面积占比达40%-45%,大型数据中心如Meta项目占地达2250英亩[27] - 英伟达GB200功耗达2700W,传统电源系统存在空间限制,SST方案可优化空间利用[28]
电力话题持续升温--英伟达发布800V HVDC白皮书
傅里叶的猫· 2025-10-15 06:47
AI数据中心电力需求与挑战 - AI数据中心正从传统计算中心转型为AI工厂,电力基础设施成为部署规模、位置和可行性的关键制约因素[7] - AI工作负载导致功率需求爆炸式增长,例如从Hopper架构到Blackwell架构的过渡使单个GPU热设计功率增加75%,NVLink域扩展到72个GPU,使机架功率密度上升3.4倍,从几万瓦特跃升到超过10万瓦特每机架,未来可能达到兆瓦级[7] - AI工作负载具有波动性,训练大型语言模型时GPU同步操作导致机架功率在毫秒内从30%空闲跳到100%满载,引发电网级振荡现象[8] 英伟达800VDC生态系统解决方案 - 采用端到端800伏特直流电力分配系统,将中压交流电转换为800VDC直接分发到计算节点,消除多余的交流-直流转换、功率分配单元、变压器和母线槽[10] - 使用单级64:1 LLC转换器将800VDC降压到12VDC供GPU使用,比多级方法节省26%的空间[10] - 引入多时间尺度能量存储:短时存储使用高压电容器和超级电容器处理高频峰值;长时存储则在设施级电池能量存储系统中实现[10] - 800VDC系统使每种线规的功率容量增加157%,采用更简单的三线配置降低材料、安装和电缆管理成本[12] - 该架构支持超过1兆瓦每机架的可扩展性,整体效率超过传统系统的90%[12] 固态变压器技术发展与市场前景 - 固态变压器有望成为数据中心电力基础设施演变中的关键技术,英伟达Rubin架构有望率先采用SST作为标配[14][15][21] - 北美数据中心变压器产能紧张,供货周期普遍长达18个月,相关订单毛利率高达55%[21] - 预计到2026年SST技术将加速落地,若2030年全球新建AI数据中心规模为100GW且SST渗透率达20%,整体市场空间有望达到800-1000亿元[23] - SST价值量分布结构化:功率器件占比最高达40%-50%,高频变压器单价约0.8-1元/W占比20%,配电单元占比10%[23] - 产业进展方面,伊顿已完成2MW规格SST样机研发,台达在2025年APEC大会上发布SST应用方案,英伟达、维谛等企业预计于2026年年中推出样机[23][24] 行业合作与供应链布局 - 构建800VDC生态系统需要整个行业合作,开放计算项目推动电压范围、连接器和安全标准的开放制定[11] - 英伟达已与多家硅供应商合作,包括AOS、Analog Devices、Infineon等;电源系统组件伙伴有Delta、Flex、LITEON等;数据中心电源系统伙伴包括ABB、Eaton、Schneider Electric、Siemens等[11] - 海外大厂加速布局SST,伊顿已小批量向英伟达供应SST用于Rubin样机测试,谷歌与微软在下一代技术路线中也设计了SST方案[21] - 国内多家上市企业已收到英伟达Rubin结合SST方案的设计图纸,包括伊戈尔、京泉华、新特电气、四方股份和金盘科技等[21]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-15 06:47
行业趋势与核心策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队需在设计初期慎重选择硬件辅助验证工具和方法以提高效率并降低风险[1] Veloce CS系统架构与优势 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS及软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上 共享同一操作系统和解决方案 可实现无缝切换[3] - 统一架构能加速调试与任务部署 验证效率提升多达3倍 总拥有成本可降低约6倍[3] - proFPGA CS采用模块化设计 容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB 方便用户在多平台间自由切换[4] 技术巡讲核心议题 - 采用Veloce CS生态系统可全方位提高SoC和系统设计验证效率[6] - proFPGA CS的模块化和扩展性可增强硬件原型验证方法学[6] - 利用proFPGA CS可加速高性能RISC-V SoC验证 实现原型验证的突破[6] - Strato CS能助力Arm Neoverse CSS实现高效软硬件协同验证[6] - 新一代虚拟平台可赋能SoC设计验证左移[6]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-14 15:51
行业趋势与验证策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队需在设计初期就慎重选择HAV工具和方法以提高效率并降低风险[1] Veloce CS系统架构与性能 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS和软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上共享同一操作系统和应用实现无缝切换[3] - 统一架构能加速调试与任务部署使验证效率提升多达3倍总拥有成本可降低约6倍[3] - proFPGA CS采用模块化设计容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB方便用户多平台自由切换[4] 技术巡讲核心议题 - 采用Veloce CS生态可全方位提高SoC和系统设计验证效率[6] - proFPGA CS的模块化和扩展性可增强硬件原型验证方法学[6] - 利用proFPGA CS可加速高性能RISC-V SoC验证实现原型验证的突破[6] - Strato CS可助力Arm Neoverse CSS实现高效软硬件协同验证[6] - 新一代虚拟平台Innexis可赋能SoC设计验证左移[6]