Workflow
半导体行业观察
icon
搜索文档
粤芯,冲刺科创板
半导体行业观察· 2025-12-20 02:22
公众号记得加星标⭐️,第一时间看推送不会错过。 根据招股书,粤芯半导体成立于2017年,是一家致力于为境内外芯片设计企业提供12英寸晶圆代工 服务和特色工艺解决方案的集成电路制造企业。截至2025年6月30日,公司已取得授权专利(含境外 专利)681项,其中发明专利312项。 目前公司已实现多品类布局,构建了完整的"感知-传输-计算-存储-控制-显示"全链路技术矩阵,并在 多个领域建立核心竞争优势,对应产品出货量位居行业前列。 例如,在指纹识别芯片领域,粵芯半导体已成为全球出货量领先的电容指纹识别芯片晶圆代工厂之 一;在显示驱动芯片领域,2024年公司高压显示驱动芯片12英寸晶圆出货量排名中国大陆晶圆厂第 三名。 关于上市目的,记者从粵芯半导体获悉,公司拟进一步强化技术优势,助力公司加速从消费级晶圆代 工向工业级、车规级工艺迭代,深度布局应用于人工智能、端侧存内/近存计算等领域的特色工艺, 以实现从"纯模拟代工"向"以模拟为核心,以数模混合为蝶变,以光电融合为特色"的复合型技术平台 转型。 关于所募资金用途,粤芯半导体表示,本次IPO,公司拟募集资金75亿元,除了扩充产能,主要资金 将投向特色工艺技术平台研发 ...
存储市场需求,吓人
半导体行业观察· 2025-12-20 02:22
为了更好地满足1γ DRAM和HBM内存的供应需求,美光科技将2026财年的资本支出增加20亿美元, 达到200亿美元,并加快设备订购和安装速度,以更快地蚀刻更多芯片。位于爱达荷州的首座晶圆厂 也将于2027年中期投产,而非原计划的明年下半年;第二座晶圆厂将于明年开工建设,并于2028年 底投入运营。位于纽约的首座晶圆厂将于2026年破土动工,并于2030年开始供应芯片。位于新加坡 的HBM封装厂也将于2027年投产,为HBM的供应做出贡献。 如果美光想要在刚刚飙升的HBM市场中分得一杯羹,他们最好加快产能提升速度。以下是去年12月 的预测,以及本周刚刚公布的预测: 公众号记得加星标⭐️,第一时间看推送不会错过。 总潜在市场规模是对未来销售量的预测——更准确地说,是预测能够生产和销售的产品数量。它并非 对总需求的预测,而总需求可能更大,正如HBM内存及其主要驱动力——用于人工智能推理和训练 的GPU和XPU计算——的积压订单所表明的那样。 因此,当市场规模(TAM)扩大时,意味着竞争对手之间的收入分配也会随之扩大。这就是为什么 本周美光科技HBM堆叠式内存市场规模的爆炸式增长让所有人如此兴奋的原因。我们这些身 ...
半导体材料,不容忽视
半导体行业观察· 2025-12-20 02:22
公众号记得加星标⭐️,第一时间看推送不会错过。 半导体行业向3D集成和大尺寸基板的推进,从根本上改变了材料在封装中的作用。曾经起到结构支 撑和电绝缘作用的材料,如今已成为限制器件性能的关键因素。 现代封装材料包含的聚合物、粘合剂、先进介电材料、导热材料和复合材料层压板比以往几代产品要 多得多。问题在于,其中许多材料过于新颖,尚未积累足够的长期可靠性数据。因此,某些失效模式 只有在现场循环或电路板级组装后才会显现。 随着芯片堆叠技术的进步,封装高度不断增加;随着面板级加工技术的进步,封装宽度不断扩大,因 此,必须在整个流程中,对具有精确调控特性的材料进行系统性的指定、加工和验证。然而,这些高 度专业化的化学体系通常工艺窗口狭窄,且可能与相邻层产生复杂的相互作用。 行业正在通过更严格的工艺控制、系统级材料规范和协同优化策略来应对,将薄膜、界面和沉积方法 视为统一的可靠性控制,而不是独立变量。 材料选择范围的扩大也带来了风险。 向三维架构的过渡极大地扩展了先进封装对材料的需求。高频人工智能应用需要具有特定介电常数/ 损耗角正切值(Dk/Df)的介电材料,而封装级的功率密度正接近千瓦级,这就需要新型的导热界面 材料和 ...
颠覆冯·诺依曼架构,这款AI处理器能效提升100倍!
半导体行业观察· 2025-12-20 02:22
该公司的 Fabric 架构使 Electron E1 能够在执行通用代码的同时最大限度地降低能耗。Lucia 表 示,与 Arm Cortex-M33 和 Cortex-M85 等传统处理器相比,其能效可提升 100 倍。 公众号记得加星标⭐️,第一时间看推送不会错过。 一家初创公司开发出一种据称是传统冯·诺依曼架构的真正替代方案,能够提供比传统低功耗处理器 更高的能源效率。 Efficient Computer 的 Electron E1 是一款通用处理器,旨在直接在设备上运行高级信号处理和 AI 推理。该处理器采用 Efficient Fabric,这是一种由该公司开发的专有空间数据流架构,可减少传统 冯·诺依曼系统中因在内存和计算核心之间移动数据而产生的过高能耗。 Efficient公司首席执行官布兰登·卢西亚在接受采访时表示,此前尝试偏离冯·诺依曼方法的努力从未 真正实现。"曾经出现过一些昙花一现的替代方案,但都很快消失了。" 他 指 出 , Efficient 发 现 许 多 替 代 方 案 的 局 限 性 之 一 是 它 们 放 弃 了 计 算 的 通 用 性 。 " 这 一 点 至 关 重 要 ...
收紧!台积电出口禁令或将升级
半导体行业观察· 2025-12-20 02:22
林发成还强调,台积电的大部分研发人员仍留在中国台湾,并指出公司的研发布局符合政府要求。实 际上,这种工程师和科学家的集中部署确保了未来的工艺开发能够扎根于台湾本土,即便公司在海外 建设产能和研发中心。林先生还强调,半导体行业所有合格人员均受监管,这不仅保护了知识产权和 硬件,也保护了人力资本。 公众号记得加星标⭐️,第一时间看推送不会错过。 据消息报道,中国台湾担心台积电进军美国市场会削弱台湾在半导体领域的领先地位,正在考虑制定 新的出口规则,只允许这家全球最大的晶圆代工厂出口比其最先进生产节点落后两代的技术。如果这 项规则得以实施,可能会减缓台积电在美国的扩张步伐,因为该公司目前主要依靠在美国积极建设先 进的晶圆厂。 这项新出口政策的核心是政府的"N-2规则",该规则仅允许将落后中国台湾领先技术两代的工艺技术 出口海外。此前,中国台湾坚持"N-1规则",允许台积电出口所有落后台湾领先制造工艺至少一代的 技术。新规则更为严格;根据对"代"的计算方式,这意味着台积电可能只能出口落后其最先进技术两 到四年的工艺节点。 根据中国台湾科技委员会成员林发成的说法,按照这种方法,如果台积电在台湾开发出 1.2nm 或 1 ...
非GPU赛道,洗牌
半导体行业观察· 2025-12-20 02:22
本文转载自芯东西,作者:程茜 非GPU芯片势力崛起已势不可挡。 近期, 上海GPU龙头沐曦股份在上交所科创板敲钟,开盘价为700.00元/股,截至午间休市股价大 涨687.79%,总市值达到3298.82亿元, 将全球算力产业的竞争推向全新高度。 近一段时间以来, 全球算力产业都处于重磅事件密集爆发期 。 海外,非GPU赛道的谷歌TPU狂揽千亿级订单,在GPU垄断的算力市场撕开缺口,上周博通CEO爆 料Anthropic向博通下总计210亿美元(折合人民币约1486亿元)订单,还叠加Meta等科技巨头的采 购意向;GPU层面,因害怕失去中国市场,美国批准英伟达H200 AI芯片对华出售。 反观国内,算力产业热度同样持续攀升,北京AI芯片明星企业清微智能拿下超20亿元大额融资,背 后是业界少见的投资阵容。此外还有国内AI芯片创企密集披露并购、上市计划,本土算力生态加速 成型。 上述海内外算力产业的密集动向,共同指向一个不可逆的行业变革: 全球算力市场长期由英伟达 GPU垄断的市场格局正在松动。 在大模型发展初期,市场对通用算力的强需求让英伟达GPU迅速占据绝对主导地位,几乎形成"无 GPU不训练"的行业局面。 ...
万字拆解371页HBM路线图
半导体行业观察· 2025-12-19 09:47
文章核心观点 - 高带宽内存是AI算力发展的关键基础设施,其性能直接决定了AI模型训练和推理的速度与效率[1] - 韩国KAIST大学发布的HBM技术路线图详细规划了从2026年HBM4到2038年HBM8的完整发展蓝图,揭示了未来十年HBM技术的演进方向[1] - HBM通过3D堆叠等核心技术,在带宽、功耗和体积上相比传统内存具有压倒性优势,已成为AI服务器的必需品[7][11][14] HBM技术定义与核心优势 - HBM是一种专为AI设计的“超级内存”,采用“三明治式”3D堆叠技术,将8-24层核心芯片垂直堆叠,通过硅通孔连接,解决了传统内存的“平面布局”缺陷和数据传输瓶颈[7][8] - HBM相比传统DDR5内存具有三大核心优势:带宽极高、功耗更低、体积迷你[11] - **带宽碾压**:HBM3带宽为819GB/s,HBM4将达2TB/s,HBM8更将飙升至64TB/s,是HBM3的78倍,能满足未来万亿参数AGI的需求[12][56] - **功耗减半**:传输1TB数据,HBM3功耗是DDR5的60%,HBM4能降至50%,可为数据中心节省巨额电费[13] - **体积小巧**:HBM直接集成在GPU封装旁,传输距离从厘米级缩短至毫米级,使AI服务器算力密度提升3倍[10][14] HBM技术发展路线图(2026-2038) - **2026年:HBM4——定制化首秀** - 核心创新在于定制化Base Die,可集成内存控制器并直接连接低成本、大容量的LPDDR内存,作为“备用仓库”[9][22] - 带宽从HBM3的819GB/s提升至2TB/s,单模块容量达36-48GB,是HBM3的2倍[22] - 采用直触液冷散热方案以应对75W的高功耗[24] - 主要面向中端AI服务器、高端游戏显卡等场景[26] - **2029年:HBM5——近内存计算崛起** - 核心创新是引入近内存计算,在内存堆叠中集成NMC处理器和L2缓存,使内存具备计算能力,可将LLM推理中GPU的工作量减少40%,速度提升1.5倍[27][28] - 带宽提升至4TB/s,单模块容量80GB,功率100W[27] - 采用浸没式冷却散热,并集成专用去耦电容芯片以稳定供电[28][29] - 主要面向超算中心、大模型训练集群等场景[31] - **2032年:HBM6——多塔架构优化高吞吐量** - 核心创新是“四塔”结构,在一个Base Die上放置两个独立的Core Die堆叠,使吞吐量比HBM5提升126%[36][38] - 带宽达8TB/s,数据速率提升至16Gbps,单模块容量96-120GB,功率120W[35][36] - 采用硅-玻璃混合中介层以降低成本20%,并集成L3缓存专门存储LLM推理中的KV缓存,减少HBM访问次数73%[38][40] - 主要面向LLM推理集群、实时AI翻译等高吞吐量场景[40] - **2035年:HBM7——内存与闪存融合** - 核心创新是整合高带宽闪存,形成“内存+闪存”协同方案,HBM存高频数据,HBF存低频大容量数据,使系统总容量可达17.6TB,成本比全用HBM降低60%[41][42][46] - 带宽提升至24TB/s,数据速率24Gbps,单模块容量160-192GB,功率160W[44][46] - 支持3D堆叠LPDDR以拓展边缘计算场景,并采用嵌入式液冷散热[46][47] - 主要面向多模态AI系统、自动驾驶中央计算单元等场景[48] - **2038年:HBM8——全3D集成终极形态** - 核心创新是全3D集成技术,通过铜-铜直接键合将GPU裸片垂直堆叠在HBM之上,使数据传输延迟突破1纳秒,I/O功耗降低70%[54] - 带宽达到64TB/s,数据速率32Gbps,单模块容量200-240GB,功率180W[36][56] - 采用双面中介层设计,使单GPU搭配的HBM容量再提升50%,并应用双面嵌入式冷却进行精准温控[56][57] - 专为未来AGI原型机设计,标志着计算架构进入“立体共生”时代[52][60] 支撑HBM性能的三大关键技术 - **硅通孔**:在芯片上制造垂直微孔道,让数据直接在堆叠层间穿梭,传输路径缩短90%以上,是实现3D堆叠的基础[59][67] - **混合键合**:采用铜-铜直接键合工艺替代早期的微凸点连接,使连接电阻降至原来的1/10,实现了更高密度(单片10万个连接点)和更可靠的芯片堆叠,支撑HBM8达到16384个I/O[68][70][71] - **AI辅助设计**:利用AI模型大幅提升HBM复杂结构的设计效率,如PDNFormer模型可在1毫秒内完成电源阻抗分析,Mamba-RL算法可在20分钟内优化去耦电容布局,将设计周期从半年缩短至两周[72][74][76][79] HBM产业格局与市场前景 - 全球HBM市场呈现寡头垄断格局,SK海力士、三星、美光三家公司垄断了90%以上的产能,订单已排至2026年[80][81] - SK海力士为行业龙头,HBM3E良率达90%,占据全球55%的HBM3E出货量,其M15X新工厂投产后月产能将从10万片提升至17.8万片[81] - 三星的HBM3E产能已被谷歌、博通、亚马逊等头部客户包圆,并与OpenAI签订了价值713亿美元的四年供应大单[84] - 美光增速最快,其HBM3E已通过英伟达认证,目标是在2026年将市场份额从7%提升至24%[85] - 2025年全球HBM市场规模已达300亿美元,预计2030年将突破980亿美元,占据整个DRAM市场的50%[80] HBM未来发展的主要挑战 - **成本挑战**:HBM3每GB成本约为DDR5的5倍,HBM4因工艺复杂成本预计再增30%,需通过提升良率(目标95%以上)、扩大产能、技术创新(如采用玻璃中介层)来构建降本体系[86] - **散热挑战**:未来HBM8功率可能突破200W,需研发新型高热导率冷却材料、采用芯片级冷却方案(如集成微型散热鳍片)以及智能温控系统来应对[87] - **生态协同挑战**:需要GPU/CPU厂商优化硬件接口,AI框架针对近内存计算特性优化算法,并推动行业制定统一标准,以降低应用门槛并实现性能最大化[87]
光芯片,卷土重来
半导体行业观察· 2025-12-19 01:40
公众号记得加星标⭐️,第一时间看推送不会错过。 在莱布尼茨超级计算中心安装第一个光子处理器一年后,Q.ANT 带着更加雄心勃勃的计划卷土重 来。 该公司推出了第二代原生处理单元(NPU:Native Processing Unit),这款设备的设计目的不仅在 于加速人工智能工作负载,更在于重新思考其背后的数学和能量模型。第一代NPU证明了光可以作为 一种实用的计算介质,而第二代NPU则展现了光子架构一旦摆脱晶体管尺寸限制后,能够以惊人的速 度发展。 此次第二代NPU 不再以独立PCIe卡的形式推出,而是封装成一个完整的19英寸机架式服务器。每个 机箱都包含多个第二代NPU、一个集成x86主机处理器和一个Linux操作系统。 在短短两年内,Q.ANT 的 NPU 的性能进步就赶上了标准数字处理器过去 30 年的性能进步 Q.ANT 的 C、C++ 和 Python API 与现有的高性能计算 (HPC) 和人工智能 (AI) 框架保持兼容,同 时其光子算法库 (Q.PAL) 提供针对光学硬件优化的非线性函数。对于开发者而言,关键的转变不在 于接口,而在于底层计算模型:以往需要庞大而复杂的架构才能实现的算法,现在 ...
芯片巨头,开辟新战线
半导体行业观察· 2025-12-19 01:40
行业竞争态势 - 人工智能兴起带动内存需求激增,高带宽内存和传统服务器DRAM价格随之上涨,加剧了三星电子与SK海力士在DRAM市场的竞争[1] - 三星电子和SK海力士分别与英伟达和英特尔合作,加剧了在低功耗服务器内存领域的竞争[1] SK海力士产品进展 - SK海力士推出了基于32Gb第五代10纳米级DRAM的256GB DDR5 RDIMM,是市面上基于该规格的最高容量产品,并已通过英特尔的兼容性和性能验证[1] - 该RDIMM采用硅通孔技术制造,通过将32Gb DRAM芯片堆叠成3D结构,实现了256GB的业界领先容量[2] - 使用该产品的服务器可实现16%的AI推理性能提升,同时功耗降低18%[2] - 该产品已获得认证,可立即应用于基于英特尔最新Xeon 6 CPU的服务器,英特尔验证后,戴尔、惠普和超微等服务器制造商通常会批量采购[2] 三星电子产品进展 - 三星电子已完成针对AI数据中心优化的内存产品Socamm2的开发,并向英伟达提供了样品[2] - Socamm2由堆叠的低功耗双倍数据速率DRAM构成,与常用的RDIMM相比,尺寸更小,带宽提升超过一倍,功耗降低55%[3] - Socamm2是一个可拆卸模块,与封装在GPU中的HBM不同,这使得制造过程更简便并提供更大设计灵活性[3] - 由于国际标准化和平台兼容性问题尚未解决,Socamm2尚未实现商业化,英伟达计划将其应用于预计明年下半年发布的下一代AI平台Vera Rubin[3] - 三星电子正与全球主要合作伙伴携手,引领Socamm2国际标准的制定[3] 市场合作与竞争 - 英特尔在数据中心CPU市场占据70%以上的份额[2] - 英伟达高性能计算和人工智能基础设施解决方案高级总监表示,通过与三星电子的持续合作,不断优化Socamm2等下一代内存[3] - 三星电子、SK海力士和美光三大内存芯片制造商都在竞相向英伟达供应Socamm2[3] - 美光已于今年10月正式宣布向英伟达提供Socamm2样品,同日三星和SK海力士也在韩国半导体展上发布了各自的Socamm2实物样品和规格[3]
2.5D封装的下一步
半导体行业观察· 2025-12-19 01:40
同时,硅桥接技术可在嵌入有机中介层或基板中的芯片或芯片组之间实现高密度互连。硅是目前互连 密度最高的材料,因此,硅桥接技术的设计理念在于使其体积小、成本低,这与硅中介层形成鲜明对 比。然而,组装良率问题延缓了硅桥接技术最终所承诺的成本优势的实现。 公众号记得加星标⭐️,第一时间看推送不会错过。 中介层和桥接器是先进封装中连接多个芯片和芯片组的两个关键元件,它们的构造和组装方式正在发 生根本性的变化。 中介层正变得越来越厚、越来越复杂,而桥接技术则被用来降低组装成本。这两种努力都面临着新的 挑战。 中介层实际上是一个平台,可以在其上组装多个组件,类似于微型PCB。目前主要材料是硅,即使采 用较早的工艺节点制造,其尺寸也使其价格昂贵。它们通常用于处理高密度互连,同时将I/O、电源 和接地信号传递到下方的封装基板。 图1 :中介层与桥接层。中介层是大型硅平台,而桥接层是嵌入有机中介层或衬底中的小型硅片 中介层越来越多 人工智能正在推动中介层的复杂性。"我们现在看到更厚的中介层,金属层也更多,以适应人工智能 和高性能计算芯片所需的高密度布线和高电流路径," YieldWerx首席执行官 Aftkhar Aslam 表 ...