TPU v7
搜索文档
中国银河证券:谷歌(GOOGL.US)将上市TPUv7 重塑AI芯片竞争格局
智通财经· 2025-12-19 01:35
文章核心观点 - 谷歌即将上市的TPU v7(Ironwood)芯片技术指标比肩英伟达B200,其上市将加剧AI芯片市场竞争,并有望提升谷歌自身AI芯片市占率 [1] - TPU v7的推出将全面推动AI产业从硬件到软件生态的全产业链变革,自上而下带动上游环节需求,并为AI模型研发与应用普及注入动力 [2] - 随着谷歌TPU v7的上市,国内液冷、电源、PCB领域有望迎来新的发展机遇,同时国产算力芯片在国产替代趋势下长期上行 [1] 谷歌TPU v7产品技术细节 - 芯片名称为“Ironwood”,单芯片峰值算力达到4614 TFLOPs(FP8精度),配备192GB HBM3e内存,内存带宽高达7.4TB/s,功耗约1000W [1] - 与前代产品相比,Ironwood的算力提升了4.7倍,能效比达到每瓦29.3 TFLOPs,是前代产品的两倍 [1] - 服务器散热采用100%液冷架构,采用大冷板设计,覆盖4颗TPU及VRM;集群规模上最大支持144个机架互联,即9216个TPU芯片集群 [1] TPU v7的应用场景与客户 - TPU v7聚焦AI推理场景,支持实时聊天机器人、智能客服、智能驾驶等低延迟需求,同时可扩展至大规模模型训练 [2] - Anthropic计划用百万颗TPU训练Claude系列模型 [2] - Meta拟从2027年起在数据中心部署TPU,2026年通过谷歌云租用算力 [2] - 谷歌自身将TPU v7用于Gemini等模型的训练与服务,其超大规模集群能力与低成本优势正成为AI企业降低推理成本的首选方案 [2] 对产业链的影响与机遇 - TPU v7的上市将自上而下带动ASIC芯片、PCB、封装、HBM、光模块、散热、制造封装等上游环节需求 [2] - 随着明年谷歌TPU v7的上市,国内液冷、电源、PCB领域有望带来新的发展机遇 [1] - 随着AI芯片竞争格局不断深化,国产算力芯片在国产替代趋势长期上行 [1] 行业竞争格局展望 - 未来AI芯片的市场竞争将更加激烈,谷歌有望凭借TPU v7系列产品提升自身AI芯片市占率 [1][2] - 除芯片外,谷歌还同步推出一系列升级,旨在让其云服务更便宜、更快、更灵活,以便与亚马逊AWS和微软Azure竞争 [2]
华尔街大行集体唱多博通(AVGO.US) 大摩称其短期拐点已现 上调目标价至462美元
智通财经网· 2025-12-12 15:40
核心观点 - 博通最新财报及业绩指引获得多家投行高度评价 但股价因投资者担忧未来利润率承压而大跌超10%至365美元[1] 财务业绩与指引 - 本季度业绩整体表现非常出色 是公司一段时间以来首次显现出短期业绩上行空间[1] - 公司给出的整体营收和每股收益指引均显著高于摩根士丹利此前预测[1] - 对1月所在季度的AI收入指引较摩根士丹利预期高出约20%[1] - 2025年自然年内的每一个季度都在推高长期预期[1] AI业务发展 - 在TPU v7相关积极进展带动下 博通的AI相关收入持续高于预期[1] - 公司客户数量已从此前的3家扩展至5家[1] - 公司签下第五位未具名客户 启动了一项多年期的定制XPU项目 潜在客户可能并非OpenAI 也可能与苹果有关[3] - 公司对2027年的可服务市场规模给出了较为乐观的目标[1] - 富国银行分析师指出 博通的AI动能正在加速[4] 大额订单与积压 - 财报披露的大额订单客户为Anthropic 该公司已向博通下达约100亿美元订单 并另有约110亿美元的追加订单[2] - 杰富瑞分析师指出 Anthropic在2026财年第四季度又追加了约110亿美元订单[3] - 公司管理层提到 未来18个月内可交付的AI积压订单规模约为730亿美元[3] - 博通披露的未来六个季度AI订单积压规模约为730亿美元[3] - 在未来18个月AI收入已超过900亿美元的背景下 2027年上半年环比增长空间可能相对有限[3] 风险与挑战 - AI相关收入优势在一定程度上被非AI半导体业务的疲软所抵消[1] - Anthropic相关销售基于谷歌的TPU架构 可能需要向谷歌让渡部分利润[2] - 完整系统机架销售模式将显著拉低博通的整体毛利率 管理层已承认该业务毛利率将低于公司平均水平[2] - 摩根士丹利暂时假设该业务毛利率处于40%中段区间 但实际结果可能高于或低于该水平[2] - 这类订单在单位收入对应的出货量上明显少于向其他云客户销售加速卡的模式 增加了业绩模型的波动性[2] - 2027年该业务是否具备可重复性仍不明朗 尤其是在Anthropic是否会继续下单的问题上[2] - 未来18个月内可交付的AI积压订单规模约为730亿美元 这一表述在一定程度上暗示2027年上半年收入可能面临回落风险[3] - 公司对2027年增长前景的表态较上一次财报电话会议略显保守[3] - 部分投资者担心数据未能充分体现2026财年的上行空间[3] 投行观点与目标价调整 - 摩根士丹利将博通评级维持在增持 并将目标价从443美元上调至462美元[1] - 杰富瑞分析师在财报后上调了博通的目标价 并认为公司的AI故事仍在持续扩展[3] - 富国银行将博通目标价从345美元大幅上调至410美元[4] 管理层沟通策略 - 博通在沟通策略上出现转变 此前在短期表现强劲时更强调远期展望 而如今随着AI业务加速放量 管理层的指引更聚焦于即将到来的季度[3]
腾讯研究院AI每周关键词Top50
腾讯研究院· 2025-11-29 02:33
算力发展 - 谷歌推出TPU v7芯片[3] - 华为发布Flex.ai容器技术[3] 模型进展 - DeepSeek发布DeepSeek-Math-V2数学模型[3] - 马斯克旗下xAI发布Grok 5战书[3] - Anthropic推出Claude Opus 4.5模型[3] - 腾讯发布HunyuanOCR和HunyuanVideo 1.5模型[3][4] - 谷歌研究嵌套学习技术[3] - OpenAI开发Shallotpeat模型[3] - 谷歌进行Nano Banana Pro实测[3] 应用创新 - Anthropic采用双Agent架构[3] - Suno与华纳音乐合作[3] - 阿里推出Z-Image应用[3] - OpenAI整合语音模式并推出App Directory和MCP Apps[3][4] - 黑森林实验室发布FLUX.2[3] - Character.AI推出Stories模式[3] - TRAE发布国内版SOLO应用[3] - 腾讯开发3D创作引擎[3] - Skywork推出专业数据模式[3] - OpenAI研究购物应用[3] - 小米开发MiMo-Embodied AI硬件[3] - OpenAI公布AI硬件时间表[3] - Barry Callebaut应用AI进行巧克力开发[3] - Nano上线Lovart应用[4] - Elser.AI开发AI短剧生成技术[4] - 谷歌推出Deep Think和NotebookLM PPT功能[4] - Meta发布WorldGen[4] - Karpathy提出LLM议会概念[4] - OpenAI发布科学研究案例集[4] 科技突破 - 谷歌推出Quick Share技术[4] - 香港科技大学研发篮球机器人[4] 行业观点 - 清华大学发布AI教育应用指导[4] - 美国研究AI加速科研应用[4] - Ilya Sutskever提出研究时代观点[4] - 英伟达讨论TPU与GPU技术对比[4] - 李飞飞强调人的主导权[4] - 谷歌开展AI反击战[4] - 马斯克探讨AI与货币关系[4] - 微软提出AI时代成功方式[4] 重大事件 - 美国启动创世纪计划[4] - X公司研究AI对岗位替代影响[4]
谷歌训出Gemini 3的TPU,已成老黄心腹大患,Meta已倒戈
36氪· 2025-11-25 11:44
文章核心观点 - 谷歌启动名为TPU@Premises的激进计划,允许客户将TPU芯片直接部署在自有数据中心,旨在打破英伟达对高端AI芯片市场的垄断 [1] - 该计划首个目标客户为Meta,谈判涉及金额达数十亿美元,预计在2027年实施 [2][3] - 谷歌最新旗舰芯片Ironwood TPU v7在关键性能参数上已追平英伟达旗舰B200,并通过拥抱PyTorch生态来降低客户迁移门槛 [6][11][13] - 公司目标是从英伟达口中夺取10%的市场份额,英伟达已通过投资AI初创公司等方式进行反击 [13][14] 战略转变与市场影响 - 谷歌从仅提供云端TPU算力服务(“云房东”角色)转变为直接向客户销售算力硬件(“军火商”角色)[1] - 允许客户进行私有化部署,对拥有海量敏感数据和极高合规要求的巨头(如Meta)更具吸引力 [5] - 这一战略旨在直接挑战英伟达在高端AI训练芯片市场的绝对主导地位 [1] 关键客户与潜在交易 - Meta正与谷歌进行谈判,考虑斥资数十亿美元在2027年将谷歌TPU芯片引入其自有数据中心 [3] - 谈判内容不仅涉及租用,更侧重于“私有化部署”,以满足数据安全和合规要求 [5] - 谷歌最新大模型Gemini 3完全在TPU集群上训练成功,其技术表现抹平了与OpenAI的差距,这动摇了“只有英伟达GPU才能胜任前沿模型训练”的行业偏见,是吸引Meta等客户的关键因素 [5] 硬件性能对比 - 谷歌Ironwood TPU v7与英伟达B200在核心指标上高度接近 [6][7] - **FP8算力**:TPU v7约为4.6 PFLOPS,B200为4.5 PFLOPS,两者基本持平 [7] - **显存容量**:两者均配备192 GB的HBM3e内存,完全一致 [7] - **显存带宽**:TPU v7约为7.4 TB/s,B200为8.0 TB/s,英伟达略高约8% [7] - **互联架构**:谷歌的ICI技术使单Pod内数千颗芯片能以9.6 Tb/s带宽高效互联,提供了卓越的大规模集群扩展性 [8] - 硬件性能的追平使TPU成为英伟达GPU的真正“平替”甚至更优选择 [10] 软件生态策略 - 英伟达最深的护城河是其CUDA软件生态 [11] - 谷歌采取精明策略,并未强推自有JAX语言,而是选择拥抱由Meta发明的、应用广泛的PyTorch框架 [13] - 通过开发“TPU Command Center”软件,使开发者能像使用GPU一样顺滑地通过PyTorch调用TPU,显著降低了客户的迁移门槛 [13] 竞争态势与行业反应 - 英伟达已感受到竞争压力,近期通过对OpenAI、Anthropic等AI明星初创公司进行巨额投资,以换取其对英伟达GPU的长期使用承诺 [14] - 谷歌也开始模仿英伟达的财务绑定策略,例如与云服务商Fluidstack达成协议,承诺提供高达32亿美元的“兜底”支持 [14] - 英伟达CEO黄仁勋近期公开表示对谷歌七代TPU研发成果的“尊重”,反映出其对竞争加剧的警惕 [14]
产能“极度紧张”,客户“紧急加单”,台积电毛利率有望“显著提升”
美股IPO· 2025-11-11 04:48
台积电N3先进制程产能紧张现状 - 台积电N3先进制程产能已接近极限,面临英伟达等AI巨头的井喷式需求[1] - 英伟达CEO黄仁勋亲自向台积电请求增加芯片供应,为下一代AI芯片(包括Rubin系列)确保N3产能[3] - 摩根大通预测,到2026年底台积电N3实际月产能仅能达到14万至14.5万片晶圆,而英伟达要求扩张至16万片,存在显著供应缺口[3][1] 台积电的产能扩张策略与限制 - 公司策略是优先将新建晶圆厂用于更先进的N2、A16等下一代制程节点,而非在N3生命周期后期投入过多新产能[4] - 2026年N3产能主要增量将来自台南Fab 18工厂的产线转换,预计可将约3万片月产能的N4产线转换为约2.5万片月产能的N3产线[4] - 若英伟达获准向中国市场出货B30A等GPU,可能导致N4需求紧张,从而减缓N4到N3的转换速度[5] - 公司通过“跨厂协作”利用Fab 14工厂闲置的N6/N7产能处理N3后段工序,预计在2026年下半年额外提供5000至1万片的月产能[6] - 美国亚利桑那州工厂(Fab 21)预计2027年初才能提供约1万片月产能的N3芯片,无法缓解2026年的供应紧张[6] 客户需求与竞争格局 - 高性能计算领域需求方阵容豪华,包括英伟达、博通、亚马逊、Meta和微软的自研ASIC芯片[7] - 消费电子领域,苹果、高通和联发科的旗舰产品将大规模转向N3,产能已被主要客户预订一空[7] - 加密货币矿机等客户的需求在2026年基本上无法得到满足[7] 对台积电盈利能力的影响 - 产能稀缺性导致客户争相支付高额溢价,执行“加急单”及“超级加急单”,晶圆价格高出50%至100%[8][1] - 这类高价订单总量通常不超过总产能的10%,但足以对财务表现产生显著正面影响[9] - 摩根大通预测,加上汇率稳定和从2026年第一季度开始对先进制程提价6%-10%,公司毛利率在2026年上半年有望达到60%区间的低至中段水平[9][3]
黄仁勋赴台“要产能”背后:台积电N3产能增量有限,预计2026年供应保持高度紧张状态
华尔街见闻· 2025-11-11 03:31
文章核心观点 - 英伟达CEO黄仁勋亲自向台积电请求增加下一代AI芯片的N3制程产能,但摩根大通分析认为,台积电到2026年底的N3产能可能无法满足市场需求,预计供应缺口将持续存在 [1] - 供需失衡将导致依赖先进制程的芯片公司面临增长瓶颈,而拥有定价权的台积电则有望实现利润率显著提升 [1] 英伟达的产能需求与台积电的供应限制 - 英伟达CEO黄仁勋公开请求台积电增加芯片供应,主要目的是为下一代AI芯片(包括Rubin系列)确保充足的N3产能 [1] - 英伟达据报已要求台积电将N3产能扩张至每月16万片晶圆,但摩根大通预测台积电到2026年底的实际产能仅能达到每月14万至14.5万片,存在供应缺口 [1] 台积电的产能扩张策略 - 台积电倾向于将新建晶圆厂优先用于更先进的N2、A16等下一代制程节点,而非在N3生命周期后期投入过多新产能 [2] - 2026年N3产能的主要增量将来自台南Fab 18工厂的产线转换,预计可将约3万片月产能的N4产线转换为约2.5万片月产能的N3产线 [2] - 若英伟达获准向中国市场出货B30A等GPU,可能导致N4需求紧张,从而减缓N4到N3的转换速度 [3] 台积电提升产能的补充措施 - 台积电正通过"跨厂协作",利用Fab 14工厂闲置的N6/N7产能处理N3制程的后段工序,预计在2026年下半年可额外提供每月5000至1万片产能 [4] - 美国亚利桑那州工厂(Fab 21)预计2027年初才能提供约1万片月产能的N3芯片,无法缓解2026年的供应紧张 [4] N3制程的客户需求情况 - 2026年N3制程需求方阵容强大,高性能计算领域包括英伟达、博通、亚马逊、Meta和微软的自研芯片 [5] - 消费电子领域包括苹果的基带芯片和iPhone 17,以及高通和联发科的安卓旗舰SoC,均将大规模转向N3 [5] - 由于产能已被主要客户预订,加密货币矿机等客户的需求在2026年基本上无法得到满足 [5] 供需失衡对台积电盈利能力的影响 - 产能极度紧张已催生出"加急单"及"超级加急单",客户以高出50%至100%的晶圆价格换取更早交付 [6] - 这类高价订单总量通常不超过总产能的10%,但足以对台积电的财务表现产生显著正面影响 [6] - 摩根大通预测,若"加急单"持续且汇率稳定,台积电2026年上半年毛利率有望达到60%区间的低至中段水平 [6] - 台积电从2026年第一季度开始对先进制程提价6%-10%的计划,将进一步支撑其利润水平 [6]
GenAI系列报告之64暨AI应用深度之三:AI应用:Token经济萌芽
申万宏源证券· 2025-09-24 12:04
行业投资评级 - 报告对AI应用行业持积极态度 投资评级为看好 [4] 核心观点 - AI应用Tokens消耗量大幅增长体现落地进展加速 大模型实现大规模商业化且收入向头部集中 OpenAI年化收入达到120亿美元 [4] - AI视频工具已迈入1亿美元ARR台阶 大规模商业化节点即将到来 [4] - AI编程为最热门融资方向 商业模式已跑通并加速兑现收入 Anysphere实现5亿美元ARR [4] - 企业级AI软件商业化偏慢 但具备坚实应用场景的AI法律 招聘 客服等领域已渐次兑现收入 [4] - 互联网巨头通过AI推荐系统升级和AI应用孵化推动商业化 META业绩已体现生成式推荐系统效果 [4] AI应用总览 - 大模型API调用量2025年后增长明显 OpenRouter平台显示谷歌Gemini Anthropic Claude OpenAI GPT等模型竞争格局高波动 [11] - 互联网公司AI Chatbot成为核心算力消耗场景 ChatGPT周活跃用户达8亿 谷歌Gemini月活用户达4.5亿 [14] - 微软Tokens消耗量从2024Q1的20万亿增长至2025年3月的400万亿 谷歌Tokens消耗量从2024年5月的9.7万亿增长至2025年7月的980万亿 [13] - 初创公司商业化进展分化 OpenAI估值3000亿美元 Anthropic拟以1700亿美元估值融资 xAI估值1130亿美元 [16] - AI视频工具Runway ARR达8400万美元 Synthesia ARR达1亿美元 Midjourney年营收预计3亿美元 [16] - AI编程工具Anysphere估值99亿美元 ARR达5亿美元 Replit估值30亿美元 ARR达1.4亿美元 [18] - 垂类AI应用Scale AI年营收预计20亿美元 Surge AI年营收超10亿美元 ElevenLabs ARR达1亿美元 [22] 互联网巨头进展 - 生成式推荐架构正替代传统DLRM模型 META GRs 快手OneREC 字节HLLM等方案推动推荐系统升级 [34] - META生成式推荐系统使Facebook用户使用时长提升7% Instagram提升6% 广告转化率提升5% [42] - 谷歌AI搜索功能AI Overview月活用户超20亿 AI Mode月活达1亿 Gemini月活达4.5亿 [47] - OpenAI年化收入120亿美元 其中C端订阅55亿 B端订阅36亿 API收入29亿 [53] - Anthropic年化收入50亿美元 其中API收入31亿(60%来自编程工具) 编程工具Claude Code ARR达4亿美元 [53] AI编程领域 - AI编程工具ARR总和超30亿美元 GitHub Copilot用户达2000万 Cursor ARR从1亿快速提升至5亿 [61] - 应用层公司仍需完成代码库感知 编辑器整合 UI优化等工作 具备独立竞争壁垒 [65] - Cursor通过VS Code集成 影子工作区验证 多模型智能路由等技术实现出色用户体验 [68] - 长期看AI编程可能演进为UGC应用程序平台 降低开发门槛并丰富应用生态 [73] 企业级AI软件 - 企业级AI部署前期需3-18个月完成数据清洗 工作流结合等工作 大规模落地节点或在2026年后 [80] - 定制化AI平台更适合企业落地 ServiceNow AI ACV订单达2.5亿美元 指引2026年达10亿美元 [77] - 竞争壁垒来自数据获取能力和行业Know-how Palantir Snowflake ServiceNow SAP等公司具优势 [85] - Palantir通过数据层归一化 逻辑层模型结合 行动层人工审核等构建企业AI操作系统 [91] 内容生产工具 - AI视频工具Runway Synthesia ARR接近1亿美元 但文本忠实度等仍有提升空间 [96] - 设计软件市场分化 Adobe面向专业设计者市场 Figma Canva面向传播者市场 [99] - Figma高价值客户数量高速增长 超过1万美元ARR客户达11107家 超过10万美元客户达1031家 [101] - 多邻国Max会员渗透率达8% 定价29.99美元/月 高于Super会员的12.99美元 [109] 国内AI应用 - 2025H1中国大模型公有云服务Tokens调用量达537万亿 2024全年为114万亿 [112] - 互联网公司通过推荐系统升级 AI Chatbot和云业务推动AI落地 [115]
GPU跟ASIC的训练和推理成本对比
傅里叶的猫· 2025-07-10 15:10
芯片供应商及产品规划 - NVIDIA全球市场AI GPU产品线从A100到GB100覆盖2020至2027年,制程从7nm演进至3nm,HBM容量从80GB提升至1024GB [2] - NVIDIA中国市场特供版包括A800/H800/H20等型号,HBM容量最高96GB,部分型号采用GDDR6显存 [2] - AMD MI系列从MI100到MI400规划至2026年,HBM3e容量达288GB,MI400将采用HBM4技术 [2] - Intel AI GPU产品包括MAX系列和Gaudi ASIC,Habana 2采用HBM3e技术容量达288GB [2] - Google TPU v5e至v6采用5nm/3nm制程,HBM3e容量最高384GB [2] - AWS Tranium系列采用Marvell/Alchip设计,Tranium3 Ultra将使用3nm制程和HBM3e [2] 大模型训练成本分析 - 训练Llama-3 400B模型时,TPU v7成本显著低于GPU,呈现断档式优势 [7] - NVIDIA GPU中GB200超级芯片训练成本最低,H100成本最高,验证"买得越多省得越多"规律 [7] - Trainimium2训练成本异常高企,与迭代预期不符 [7] - 硬件成本占比最高的是GPU部分,电力成本占比相对较低 [5][7] 推理成本比较 - AI ASIC在推理场景成本优势显著,比GB200低10倍 [10] - GPU产品中高端型号推理成本反而更高,与训练成本趋势相反 [11] - TPU v5p/v6和Tranium2在推理场景展现最佳性价比 [10][11] 技术参数对比 - GB200超级芯片峰值算力达5000 TFLOPS,是H100的5倍 [12] - HBM3e技术成为2024年主流,NVIDIA/AMD/Intel均采用该内存方案 [2] - 能效比方面GB200达2.25 TFLOPS/Watt,优于H100的1.41 TFLOPS/Watt [12] - MI300X与H100算力接近(981 vs 990 TFLOPS),但能效低7% [12] 供应链动态 - B200芯片已进入期货阶段,国内可接样品订单 [13] - 主要设计合作伙伴包括Broadcom、Marvell和Alchip等厂商 [2] - 行业信息显示3nm制程将在2025-2026年大规模应用于AI芯片 [2][12]
IP 设计服务展望:2026 年 ASIC 市场动态
2025-05-22 05:50
纪要涉及的行业和公司 - **行业**:IP/设计服务、ASIC市场 - **公司**:AWS、Google、META、Microsoft、Alchip、eMemory、GUC、Faraday、M31、Andes、Broadcom、Marvell、Apple、OpenAI、xAI、Intel、Bytedance、Li - auto、Furiosa、Qualcomm、MediaTek 纪要提到的核心观点和论据 各公司ASIC进展 - **AWS**:Trainium 3问题解决,继续与下游供应商接单,预计签署Trainium 4合同,实际项目已启动 [2] - **Google**:从TPU v6到v8进展稳定,规格高于其他CSP的ASIC,TPU v6p和v7p配置不同且ASP可能提升,未来难不与Broadcom合作 [2] - **META**:从MTIA v2向MTIA v3代际迁移,2026年MTIA v2产量10 - 20万片,MTIA v3产量20 - 30万片 [2] - **Microsoft**:Maia v2计划2026年量产50万片,原分配计划改变,Marvell获40万片;Maia v3供应商选择竞争激烈,预计年底出结果,MSFT/GUC团队分配量可能较少 [3][4] - **非CSP公司**:Apple、OpenAI、xAI等系统厂商构建自己的ASIC服务器,多在2H25流片,2H26量产,选择与Broadcom合作的规格高端,2027年非CSP服务器增多,利好Broadcom [7] - **Apple**:加速器预计4Q26量产,2026年出货10万片 [8] - **OpenAI**:3nm ASIC预计9月流片,2026年6月量产,2026年产量30 - 40万片,生命周期1 - 1.5年 [9] - **xAI**:3nm ASIC项目预计2H25流片,2H26量产,2026年产量30 - 40万片 [9] 公司业绩与业务情况 - **GUC**:FY25因Google CPU和加密项目收入可能超预期,Google 3nm服务器CPU收入提前至3Q25,预计成前5大客户;FY26即使无加密收入,代工收入仍有增长,CEO认为Google CPU和第三CSP客户潜在收入高于Maia v2 [10][11] - **M31**:今年重点是前季度签署合同的第二次付款;与Qualcomm合作紧密,Qualcomm 2H25启动2nm智能手机SoC项目,1Q26启动2nm AI PC处理器项目,MediaTek 2nm智能手机SoC项目未启动 [12][13] - **Faraday**:1Q25收入增长源于中国客户购买三星HBM2E的预付款,若客户被列入实体清单,剩余价值小且客户自行处理库存核销 [14] 其他重要但可能被忽略的内容 - 展示了多家公司的股票信息,包括市值、评级、价格、目标价、EPS、PE、PB、ROE、股息率等 [6] - 给出了CSPs的ASIC订单分配给设计服务提供商的情况 [15] - 呈现了ASIC的规格信息 [15] - 展示了ASIC MP的时间线 [17] - 给出了2026年各公司ASIC的芯片数量、晶圆发货量和收入贡献估算 [18]