Workflow
JAX
icon
搜索文档
这一战,谷歌准备了十年
美股研究社· 2025-09-28 11:28
以下文章来源于半导体产业纵横 ,作者俊熹 半导体产业纵横 . 多元化的半导体产业生态服务平台,立足产业视角,提供及时、专业、深度的前沿洞见、技术速递、趋势解析,链接产业资源,构建IC生态圈,赋能中国 半导体产业,我们一直在路上。 9月3日,一则消息在科技圈引起了轩然大波: 谷歌开始对外出售 TPU了。 据报道,谷歌 近期已 在 接触那些 主要租赁 英伟达 芯片 的小型云服务提供商,敦促他们在其数据中心也托管谷歌自家的 AI处理器 ,也就是 TPU 。 谷歌已与至少一家云服务提供商 ——总部位于伦敦的Fluidstack——达成协议,将在纽约的一个数据中心部署其TPU。 来源 | 半导体产业纵横 谷歌的努力不止于此 。 据报道,该公司还向其他以 英伟达 为核心的服务商寻求类似的合作,其中包括正在为 OpenAI建 造 数据中心的 Crusoe,以及向微软租赁 芯片 并与 OpenAI签有供应合同的 英伟达 "亲儿子" CoreWeave。 9月9日, 花旗分析师因 TPU竞争加剧将英伟达目标价下调至200美元,预计2026年GPU销售额将因此减少约120亿美元。 明眼人都能看出来的是, 谷歌和英伟达之间的大战, ...
重磅,谷歌TPU,对外销售了
半导体行业观察· 2025-09-05 01:07
公众号记得加星标⭐️,第一时间看推送不会错过。 来源 :内容来自半导体行业观察综合 。 谷歌挑战了英伟达在人工智能 (AI) 半导体市场的垄断地位。谷歌此前大量购买英伟达的 GPU,将其 装入谷歌云数据中心,并出租给客户,现在又开始向外部数据中心供应其芯片——张量处理单元 (TPU)。 然而,今年,这种趋势正在发生变化。今年4月,谷歌发布了其模型流水线解决方案"Pathway",用 于向外部开发者训练大型语言模型(LLM)。将其作为训练LLM等模型的必备手册,研究人员无需 重新设计模型即可开发Gemini等LLM。谷歌发布了TPU(硬件)和JAX(软件),后者允许用户将 LLM用作聊天等服务,甚至还发布了Pathway,这表明人工智能开发所需的整个流程都可以在谷歌生 态系统内完成。换句话说,谷歌已经宣布与英伟达展开竞争是可能的。 TPU 的用户数量也在不断增加。根据美国投资公司 DA Davidson 2 日发布的报告,过去六个月,围 绕 谷 歌 云 TPU 的 开 发 者 活 动 增 长 了 约 96% 。 报 告 分 析 称 , 不 仅 对 去 年 12 月 发 布 的 第 六 代 TPU"Trilliu ...
Google首席科学家万字演讲回顾AI十年:哪些关键技术决定了今天的大模型格局?
机器人圈· 2025-04-30 09:10
AI技术发展趋势 - 机器学习彻底改变对计算机能力的认知和期待,过去12-14年间计算资源、数据量和模型规模的扩大持续带来性能提升[5] - 算法和模型架构改进的影响超过硬件进步,导致计算范式从传统CPU为中心发生转变[5] - 神经网络和反向传播是深度学习革命的核心要素,2012年训练出规模空前的大型神经网络实现70%性能提升[7] - 2013年开发的Word2Vec词嵌入模型展现出语义相近词语向量聚集和向量方向具有语义意义两大特性[8] - 2014年开发的序列到序列学习模型为机器翻译等任务提供端到端解决方案[8] - 2017年提出的Transformer架构相比LSTM仅需1/10到1/100计算量就能取得更优性能[9] - 2018年开始流行利用自监督数据进行大规模语言建模,产生海量训练数据[10] - 2021年开发出将图像处理整合进Transformer框架的方法,统一文本和图像处理[10] - 2017年开发的混合专家模型(MoE)实现显著算法优势,训练计算成本降低8倍或相同成本下准确率提升[10] 硬件与基础设施创新 - 为神经网络推理构建定制化硬件TPU,比同期CPU和GPU快15到30倍,能效提升30到80倍[9] - 最新Ironwood Pod包含9216个芯片,总算力达42.5 TFLOPS,相比2018年首个训练Pod计算能力提升约3600倍[9] - 开发Pathways系统简化大规模计算执行,为开发者提供单一Python进程抽象层[11] - 推测解码技术利用小型"草稿模型"预测多个Token再由大模型验证,提高解码效率[13] - 知识蒸馏技术将大模型知识迁移到小模型,使用3%训练数据即可达到接近全量数据训练的效果[12] 多模态模型发展 - Gemini项目致力于打造全球最强多模态模型,能理解语言、视觉输入、音频并生成内容[16] - Gemini 1.5引入极长上下文长度,可处理百万Token内容如50篇研究论文或很厚的书[16] - 模型在编码能力、数学、多模态等方面表现优异,在LM Arena平台的Elo评分显著提高[16] - 多模态应用包括代码修复、极低资源语言翻译、视频理解与摘要、历史数据数字化等[20][21] - 通过高级自然语言提示生成代码,如使用P5js探索Mandelbrot集的可视化程序[21] 行业影响与未来方向 - 大语言模型正成为强大通用工具,能将专家知识普及给广大民众[23] - AI安全需要技术和政策监管双管齐下,包括检测错误信息和促进建设性讨论[24] - 数据尚未成为瓶颈,仍有海量未利用数据如视频数据,且可通过改进训练方法提升数据利用效率[25] - 下一个重大挑战是模型自主完成复杂任务的能力,如分解50个子步骤调用多种工具完成相当于一个月工作量的目标[26]