Workflow
专用集成电路 (ASIC)
icon
搜索文档
巨头入局玻璃基板
半导体行业观察· 2025-10-01 00:32
来源 : 内容 编译自 etnews 。 公众号记得加星标⭐️,第一时间看推送不会错过。 特斯拉和苹果正在探索引入半导体玻璃基板。随着人工智能(AI)需求的不断增长,此举被解读为试 图通过玻璃基板提升半导体和数据中心性能。作为两家全球领先的科技公司,他们的采用预计将对行 业产生重大影响。 据报道,特斯拉和苹果近期与一家正在准备玻璃基板的制造商会面,了解了半导体玻璃基板技术,并 讨论了合作计划。目前尚未达成具体的合同或技术合作,但据悉,双方在合作中表达了广泛的兴趣和 意见。 据信,苹果也在探索将玻璃基板作为人工智能技术。苹果曾因应对人工智能时代不足而受到批评,但 据信其目标是实现以 iPhone 为中心的人工智能服务。预计苹果将在其人工智能基础设施(包括服务 器和数据中心)中使用玻璃基板。 多位知情人士表示:"虽然尚未进入具体讨论阶段,但双方对玻璃基板的需求,包括对该技术的技术 理解,达成了共识。他们可能会重新审视技术开发流程,并决定是否采用。" 苹果公司的主要高管不仅拜访了玻璃基板制造商,还拜访了拥有相关工艺技术的设备供应商,以了解 玻璃基板技术。 玻璃基板由于其与传统塑料相比翘曲度更小,并且易于实现微电路, ...
2025 年,半导体需求强劲
半导体行业观察· 2025-03-13 01:34
全球半导体市场增长预测 - 2025年全球半导体市场预计增长9.5%,主要受数据中心服务及人工智能需求驱动 [1] - 预测值低于WSTS的11.2%、IDC的15%和Gartner的12.7%,但略高于ASML的9%长期增长预期 [1][2] - 逻辑微芯片预计增长16.8%,内存微芯片增长13.4%,成熟技术半导体呈低个位数增长 [2] 行业分化趋势 - 人工智能和数据中心领域增长强劲,而个人电脑、智能手机和汽车等传统领域增长停滞 [1] - 欧洲制造商因未聚焦尖端技术,可能无法充分受益于行业增长 [2] - 超大规模数据中心2024年半导体支出达1120亿美元,几乎是前一年的两倍 [5] 细分市场表现 **智能手机领域** - 不再是半导体收入增长主要驱动力,iPhone 16相比前代仅小幅升级且AI功能未达预期 [3] - 高端产品可能推动三星和苹果收入增长,但整体市场贡献有限 [3][4] **汽车半导体领域** - 长期增长趋势受电动汽车普及推动,但2025年全球汽车市场预计仅增长1.6% [4] - 电动汽车销量预计增长19%,中国市场份额将接近50% [4] - 供应链库存调整需约一年稳定,中国供应过剩导致价格压力 [4] **人工智能与数据中心** - AMD 2024年AI芯片收入超50亿美元,预计2025年实现"强劲两位数"增长 [5] - 台积电预计AI加速器收入五年CAGR接近40%,高于整体收入20%的CAGR预期 [5] - 数据中心运营商推动定制ASIC芯片开发,可能侵蚀AMD和英特尔市场份额 [6] 技术发展与风险 - 高带宽内存需求强劲,但Deepseek证明先进AI模型可用更少内存芯片运行 [2][6] - 内存领域产能扩张及中国价格压力可能抑制增长 [2] - 台积电和ASIC设计公司(如Broadcom、Marvel)将受益于定制芯片生产需求 [6]
AI芯片的双刃剑
半导体行业观察· 2025-02-28 03:08
软件编程与人工智能建模的范式转变 - 传统软件编程依赖明确的指令代码,适合确定性场景但缺乏动态适应能力[2] - AI软件建模通过数据训练学习模式,使用概率推理处理不确定性,模型复杂度体现在参数规模而非代码量[3] - 高级AI模型如LLM包含数千亿至数万亿参数,依赖多维矩阵数学运算,每个时钟周期并行处理所有参数[3] 处理硬件的影响 - CPU采用串行执行架构,多核多线程提升并行性但仍无法满足AI模型的并行需求[4] - 高端CPU计算能力达几GigaFLOPS,内存带宽峰值500GB/s,内存容量达TB级[5] - GPU提供PetaFLOPS级性能,比CPU高两个数量级,但运行GPT-4时效率可能降至理论峰值的5%[6] - GPU高功耗引发可持续性问题,专用AI加速器(如ASIC)在计算效率和能耗上更具优势[7] AI加速器的关键属性与挑战 - 关键指标包括批处理大小和token吞吐量,需平衡延迟与吞吐量需求[8] - 大批量提升吞吐量但增加内存带宽压力,实时应用(如自动驾驶)需批量大小为1以最小化延迟[12] - 连续批处理技术动态添加输入,减少延迟并提升整体效率[13] - Token吞吐量依赖计算效率和数据移动优化,需首次token输出时间最短[14][15] 内存与计算瓶颈 - 内存带宽是主要瓶颈,大批量导致缓存未命中及访问延迟增加[9][19] - 高带宽内存(HBM3)和智能片上缓存可缓解内存瓶颈[21] - LLM依赖并行矩阵运算和注意力机制,计算瓶颈需专用硬件(如矩阵乘法单元)和混合精度计算(FP8)解决[19][22] 优化方向 - 硬件创新包括类似寄存器的缓存结构、专用加速器设计及高效数据流架构[21][22] - 软件优化涵盖定制化内核、梯度检查点减少内存占用、管道并行提升吞吐量[23] - 混合精度计算在保持模型精度前提下降低内存带宽需求和计算开销[22] 行业技术趋势 - Transformer架构需每个token关注全部历史token,增量Transformer按序计算token提升流式推理效率但增加内存需求[16] - 不规则token模式和自回归模型依赖可能导致硬件管道停滞,需优化调度策略[17] - AI加速器仍处早期阶段,需结合内存架构创新与数据流优化以突破性能限制[18][20][24]