Workflow
Groq LPU
icon
搜索文档
英伟达1400亿“收购”,GPU拐点已现?
半导体行业观察· 2025-12-27 01:33
公众号记得加星标⭐️,第一时间看推送不会错过。 多年以后,2025年圣诞节这一天,会载入全球AI算力芯片产业发展史。 12月25日凌晨,英伟达和Groq宣布达成"非排他性授权协议",以200亿美元(约合1400亿元)现金 价格购买一家"非GPU"架构企业的技术授权。 这场交易是英伟达有史以来规模最大的一笔"投资",该公司将现金和短期持有资本606亿美元的三分 之一都给了这家公司,超出该公司此前估值的3倍,可见其必须拿下该项技术的决心。 这一激进动作背后,与近期谷歌TPU等"非GPU架构"的风头正劲密切相关。英伟达收购的这家芯片公 司Groq的创始人兼CEO,正是谷歌"TPU芯片"缔造者——乔纳森·罗斯(Jonathan Ross),收购后乔 纳森及Groq的核心技术成员也将集体加盟英伟达。 再来看非GPU派,包括ASIC(专用集成电路)和可重构数据流芯片,其中Groq LPU为可重构数据流 领域的"得意门生",其精髓在于硬件能够根据瞬息万变计算任务动态重组,构建出高效专用通道,使 得AI芯片具备灵活性和专用集成电路高效性的优势。 早在2015年,可重构计算就被国际半导体技术路线图(ITRS)预见为"未来最具前 ...
连英伟达都开始抄作业了
钛媒体APP· 2025-12-26 01:38
文 | 下海fallsea,作者 | 胡不知 2025年12月24日,平安夜的硅谷没有温情。当大多数人沉浸在节日氛围中时,AI算力圈传来一则足以 改写行业格局的消息:英伟达宣布以200亿美元现金,与曾喊出"终结GPU霸权"的AI芯片初创公司Groq 达成技术许可协议。 "这不是收购,却胜似收购。"伯恩斯坦分析师Stacy Rasgon一针见血地指出,"本质是英伟达用金钱换时 间,把最危险的颠覆者变成自己人,同时规避反垄断审查的障眼法。" 这场交易的背后,是AI产业的历史性转折——从集中式模型训练,全面迈入规模化推理落地的新阶 段。推理市场正以年复合增长率65%的速度扩张,预计2025年规模突破400亿美元,2028年更是将达到 1500亿美元。而英伟达的GPU霸权,在推理赛道正遭遇前所未有的挑战:谷歌TPU凭借成本优势抢食大 客户,AMD MI300X拿下微软40亿美元订单,中国的华为昇腾在本土市场份额已飙升至28%。 曾被视为"GPU终结者"的Groq,为何最终选择与英伟达联手?200亿美元的天价交易,能否帮英伟达守 住算力王座?这场"招安"背后,更折射出AI芯片行业创新者的集体困境:当技术颠覆者撞上巨头的 ...
The Silicon Economy
Medium· 2025-10-28 13:01
AI计算需求与投资缺口 - 到2030年,AI提供商可能需要约200吉瓦的额外计算容量和约2万亿美元的年收入来资助,即使考虑到效率提升,仍存在8000亿美元的资金缺口[2] - 麦肯锡估计,在中等情景下,到2030年仅AI工作负载就需要约5.2万亿美元的数据中心投资,需要125-205吉瓦的新增容量,在高速增长情景下,投资可能达到7-8万亿美元[10][11] - AI计算需求正以超过摩尔定律两倍的速度增长,给供应链和公用事业带来压力,扩展AI将同样依赖于基础设施融资和能源容量[11] GPU在AI中的核心地位与Nvidia主导 - GPU因其并行计算能力成为AI训练大型神经网络和运行海量模型推理的主力,将AI训练时间从数月或数年缩短至数天或数周[3] - Nvidia在高端AI芯片领域实现了事实上的垄断,在AI加速市场的份额估计超过70%,其A100和H100等旗舰芯片已成为领先AI公司的必备基础设施[4] - Nvidia的市场主导地位使其市值突破万亿美元,但也引发了行业对“金手铐”的担忧,即用户被锁定在一个昂贵的单一供应商生态系统中[6] 云计算GPU经济性动态 - 云提供商已开始快速削减GPU实例成本,例如AWS在2025年中期宣布对由Nvidia A100、H100和H200 GPU驱动的P4和P5实例进行大幅降价,降幅高达45%[13] - H100的云租赁成本在12个月内从每小时5-6美元降至约75美分,降幅约80%,这种快速折旧对尖端硬件而言几乎前所未有[14] - 价格动态重塑了AI经济学,大型参与者可以削减云AI价格以削弱竞争对手,同时给独立数据中心和GPU云初创公司带来压力[14] AI芯片设计趋势与HPC差异 - Nvidia即将推出的Blackwell架构优先考虑低精度AI吞吐量,在FP4 AI任务上实现约20 petaFLOPS,但在FP64向量性能上仅为约45 teraFLOPS,与上一代H100相比有所回归[17][18] - AMD的MI300X系列GPU强调HPC的64位计算,其中一个变体实现81 TFLOPS向量和163 TFLOPS矩阵FP64性能,Nvidia的策略是最大化AI吞吐量,为HPC客户提供“足够好”的双精度性能[19] - HPC需要FP64精度以保证数值准确性,而AI优先考虑速度,常使用FP16、BF16、INT8等低精度以换取更高吞吐量,混合精度求解器可实现10-15倍于纯FP64的速度提升,且精度损失最小[46][47] 内存、带宽与功耗瓶颈 - 数据移动已成为关键瓶颈,GPU利用率不足常因内存和网络I/O子系统限制以及芯片间通信延迟未能保持在微秒级别所致[22][29] - 高端AI数据中心现在的功率密度是传统服务器集群的10倍,许多站点首次采用液冷来消散紧密排列的GPU产生的热量,从电网获取足够电力也可能成为障碍[25] - 解决方案正在出现,如HBM3内存、光学互连、先进冷却等,但每个都增加了成本和复杂性,扩展AI不仅是芯片问题,更是基础设施集成问题[26] AI芯片初创公司挑战与机遇 - Graphcore等AI芯片初创公司面临严峻挑战,例如Graphcore在2023年仅报告270万美元收入,税前亏损2.04亿美元,并裁员20%[30][31] - 大客户如Meta在测试内部“MTIA”加速器的同时,仍然是Nvidia的最大客户之一,这种模式使得初创公司难以获得重要订单[32] - 专注于推理加速或低功耗边缘AI等专业利基市场的初创公司有更好的机会,例如Groq专注于AI推理,获得了沙特阿拉伯15亿美元的芯片供应承诺,并在2025年以69亿美元估值融资7.5亿美元[33][57] 软件生态系统与开放标准 - Nvidia的CUDA编程平台已成为AI开发的默认选择,有效将许多用户锁定在Nvidia GPU上,行业正推动开放、供应商中立的替代方案,如Khronos Group和Intel主导的SYCL和oneAPI[35] - oneAPI旨在通过为多个架构提供统一编程模型来“将软件从供应商锁定中解放出来”,它是开源的,得到ARM、Xilinx等公司的支持[36][37] - 开放标准对于健康的AI硬件生态系统至关重要,但CUDA的网络效应不会一夜之间被匹配,实现这一愿景具有挑战性[39][40] 新兴AI芯片竞争者 - Intel的Habana Gaudi2在大型语言模型推理上匹配Nvidia H100的延迟,在训练上实现每芯片约260 TFLOPS的BF16吞吐量,仅次于H100但优于A100,并在测试设备中提供最佳性价比[50][51] - Cerebras的晶圆级引擎通过将整个模型装入巨大的片上内存,声称在特定大型模型上的推理速度比Nvidia H100快10至20倍,例如可以每秒450个令牌的速度服务700亿参数的Llama模型,而H100约为每秒30个令牌[52][53] - AWS的Trainium和Inferentia芯片提供具有成本效益的替代方案,例如Trainium实例比Nvidia H100实例便宜25%,提供“H100级”训练能力,旨在通过降低入门门槛来“民主化AI”[60][62] AI硬件生态系统展望 - 云提供商正在推出自己的芯片和专用实例,确保AI计算对普通用户而言不稀缺或昂贵,这将随着“入门费”下降而拓宽各行业对AI能力的访问[64] - 初创公司和新参与者正瞄准利基市场,一些实现了突破,要么超越传统方法,要么大幅降低成本,并非所有都会生存,但存活者将迫使老牌公司保持敏锐[64] - 开放标准和软件正逐渐侵蚀专有锁定,像oneAPI这样的倡议以及可在多个后端运行的开源框架意味着Nvidia周围的护城河并非坚不可摧[64] - AI和HPC正在融合,AI技术被科学计算采用,HPC的需求如可靠性、精度正影响AI基础设施,下一代超级计算机通常混合使用CPU、GPU和AI加速器[64]