Workflow
量子位
icon
搜索文档
英伟达炸裂业绩打飞“AI泡沫”,黄仁勋:云端GPU卖光了
量子位· 2025-11-20 04:09
核心观点 - 英伟达第三季度业绩全面超越市场预期,营收和净利润均实现高速增长,有效缓解了市场对“AI泡沫”的担忧 [1][7][46] - 公司对下一季度业绩给出强劲指引,预计营收将突破600亿美元,彰显其对AI算力需求持续性的信心 [10][49][50] - 首席执行官黄仁勋将当前市场状况描述为“AI的良性循环”,强调AI计算需求正呈指数级增长 [5][55][56] 整体财务表现 - 第三季度营收达到创纪录的570亿美元,远超分析师预期的552亿美元,同比增长62%,环比增长22% [8][9] - 净利润高达319亿美元,同比暴涨65% [11] - 稀释后每股收益为1.30美元,高于市场预期的1.25美元,同比增长67%,环比增长20% [8][11] - 公司预计第四季度营收有望达到650亿美元,远高于分析师平均预测的616.6亿至621亿美元 [10][49] 各业务板块表现 - **数据中心业务**:收入创下512亿美元的历史新高,同比增长66%,环比增长25%,是公司业绩的核心支柱 [17][18][19] - 数据中心计算业务收入达到430亿美元,创历史新高,同比增长56%,环比增长27% [21][22] - 网络业务收入达到82亿美元,同比增长162%,环比增长13% [23] - **游戏业务**:收入同比增长30%,但受假日季临近及渠道库存调整影响,环比微降1% [24][26][27] - **专业可视化业务**:收入同比增长56%,环比增长26%,增长主要得益于新一代DGX Spar平台及Blackwell架构产品的放量 [28][29][30] - **汽车业务**:收入同比增长32%,环比增长1%,被视为公司未来潜在的第二增长支柱 [31][32][34] 毛利率与业务转型 - 第三季度毛利率为73.4%,较上一季度下降1.0个百分点,但符合市场预期 [8][35][40] - 毛利率下降主要源于业务结构变化,公司正从高毛利的Hopper HGX系统转向提供Blackwell全套数据中心解决方案 [35][39] - Blackwell架构属于系统集成型业务,覆盖完整解决方案环节,其价值链中包含低毛利硬件与工程服务 [38][39] 市场影响与行业地位 - 财报发布后,公司股价在盘后交易中飙升超过5%,并带动相关AI算力合作伙伴股价大幅上涨 [2][3][44] - 尽管中国市场特供的H20芯片销售额微乎其微,但公司全球业务依然保持强劲增长 [41][42][43] - 公司业绩被视为AI算力需求持续性的重要佐证,有效提振了科技板块的整体情绪 [44][50][51]
网友疯玩Gemini 3!AI造物门槛真是0了
量子位· 2025-11-20 04:09
Gemini 3 Pro的功能展示 - 发布仅一天后即被用户开发出多种创新应用,例如通过单次对话即可生成带有复古滤镜的数字拍立得应用[1][9] - 能够生成完整的交互式应用,包括3D小星球上的吃豆人游戏、90年代主题公园游戏、乐高虚拟世界以及3D可视化项目[14][17][19][22] - 开发效率极高,可在不到30分钟内生成2D跑酷游戏,仅用3个提示词即可创建可交互的迷宫游戏[26][31] 多模态生成能力 - 支持从图像生成应用,即使是画在卫生纸上的草稿也能瞬间转化为可访问的网站[34] - 能够将单张房屋平面图转化为可交互的房屋布局设计应用,并能从单张图片生成包含流动瀑布和樱花等细节的3D体素世界[34][35] - 可根据简单提示词生成整个手机应用的UI界面,或根据一张图制作出布局完全一致的网页版[38][40] 工具与内容创作应用 - 能够生成实用工具,例如具备实时语音提示功能的录屏工具,录制的视频可直接下载为MP4格式[42] - 在内容创作方面支持调整视频比例并提供AI生成的视频创意,有助于提升面试或工作汇报等场景的流畅度[44][45] - 用户可快速生成各种免费小工具,无需担心付费、水印或VIP限制问题[41]
朱啸虎投的第一个AI硬件公司,又完成一轮融资
量子位· 2025-11-20 00:30
公司融资与团队背景 - 公司于2025年CES亮相其AI眼镜产品,并创下近400万美元的众筹记录 [1] - 公司在2024年10月完成Pre A+轮融资,投资方为Granite Asia和璀璨资本 [2] - 公司在2024年11月完成数千万人民币量级的Pre-A轮融资,由金沙江创投领投,韶音创始人陈皞等参与投资 [4] - 公司CEO为斯坦福大学博士贾捷阳,曾在多家硅谷初创公司担任核心研发职责,CTO吕正曾参与苹果Vision Pro研发,COO邓旭东拥有十多年消费电子产品经验,AI负责人綦思源博士曾就职于Google [4] 产品核心理念与设计 - 公司坚持"Glass First"理念,强调产品首先必须是一副能够日常佩戴的眼镜 [7] - 目标是打造一副可以天天佩戴且不会被任何人察觉是智能眼镜的产品 [10] - 通过自研的DigiWindow技术,实现了"全世界最小的近眼显示系统",将显示模块置于眼镜横梁,通过直射入眼在视网膜成像 [11][13] - 该设计使整机重量控制在35克(不带镜片约28克),功耗极低,实现全天候佩戴,并避免了传统智能眼镜粗大镜腿的问题 [14] - 显示系统无漏光和彩虹纹干扰,使佩戴者获取信息时对面的人无法察觉,实现"显示,但是不显露" [15][17] 功能策略与AI体验 - 产品Halliday没有摄像头,通过"功能减法"换取"体验加法",避免了续航、外观和隐私三大难题 [19][21][22] - 功能上做极简减法,只做单色、以信息提示为主的功能,专注基于语音和周边声音感知的AI功能 [23][25] - 实现"主动式AI"功能,包括实时翻译与无延时的会议纪要、主动知识外挂(如会议中显示陌生词汇释义)、即时"谎言"纠错 [26][27] - AI助手的设计避免了社交尴尬,无需主动询问即可融入工作生活 [27] 公司愿景与未来布局 - 公司定位为"AI可穿戴公司",核心是"AI+可穿戴",而非单一的AI眼镜公司 [30] - 终极目标是打造下一代的显示、交互和计算平台,该平台可能是一套分布式系统 [31] - 智能眼镜是第一个产品形态,第二个产品将是智能戒指,计划于2026年CES发布 [33] - 愿景是通过将AI能力赋予各式可穿戴设备,让人能力变得更强大,实现"分布式超人" [35]
“最强具身VLA大模型”,究竟强在哪儿?
量子位· 2025-11-20 00:30
模型性能与突破 - Physical Intelligence公司推出的机器人基础模型π*0.6在多项现实任务中表现出色,例如连续一整天制作意式浓缩咖啡和数小时折叠衣物,任务成功率均达到90%以上[2][28] - 在最具挑战性的任务(如折叠多样化衣物和制作咖啡)中,其采用的RECAP方法将任务吞吐量(每小时成功次数)提升了一倍以上,并将任务失败率降低了约2倍,相比仅进行监督微调的模型有显著提升[27] - 模型展现出极高的稳定性,能够连续13小时制作咖啡、连续2小时折叠衣物而无需人为重置[28] 核心技术:RECAP方法 - π*0.6的核心突破在于引入了一种名为RECAP(基于优势条件策略的经验与纠偏强化学习)的通用训练方法,该方法彻底改变了机器人只会逼近“真值”的模仿学习模式,使其能从自身错误中成长[3][10] - RECAP方法包含三个阶段:指导(用人类示范教基础动作)、辅导(通过纠错指导修正错误)、练习(从自主经验中不断优化)[7][12] - 该方法采用“优势条件化”策略,通过价值函数判断动作质量,再将策略更新转化为大模型擅长的监督学习问题,从而避免了传统策略梯度算法(如PPO、REINFORCE)在异构机器人数据和Flow Matching动作生成模型上的不适用性[15][16][17][18][19] 模型架构与训练 - π*0.6是Physical Intelligence公司最新的视觉-语言-动作模型,其Backbone从之前模型的Gemma(2.6B参数)升级到Gemma3(4B参数),动作专家模型的参数量也增至860M[8][25] - 模型架构延续了前代设计,通过流匹配和离散动作token输出生成动作片段[26] - 训练过程分为离线强化学习(基于多机器人、多任务的示范数据训练)、微调(用人类示范适配具体任务)和在线阶段(机器人自主执行任务并结合专家纠偏更新)[20] 从错误中学习的能力 - RECAP方法最具启发性的特点是让机器人能够从失败经验中学习,通过专家纠错和强化学习相结合的方式,解决了传统模仿学习在持续互动系统中因滚雪球式误差导致任务失败的关键障碍[29][36][37][38] - 该方法通过训练价值函数来应对信用分配挑战,价值函数能预测状态优劣,从而识别导致好结果或坏结果的关键动作,为模型提供判断信号[45][47][50][51][52] - 优势条件化训练使模型能在保留所有经验(包括成功和失败)的前提下,从失败中学习,其表现因此超越了单纯依赖示范数据的水平[54][55]
三行代码就能手搓一个AI应用!蚂蚁OceanBase开源其首款AI数据库
量子位· 2025-11-19 09:01
公司产品发布 - OceanBase发布并开源首款AI原生混合搜索数据库seekdb [8] - seekdb支持三行代码快速构建知识库、智能体等AI应用,实现开箱即用的AI数据基座 [9] - 产品采用Apache 2.0协议开源,兼容HuggingFace、Dify、LangChain等30余种AI框架及MCP大模型协议 [17] 产品技术特性 - seekdb具备AI原生混合搜索能力,支持向量检索、全文搜索与标量过滤融合查询 [14] - 采用粗排加精排多阶段检索机制,在低延迟同时提升精度,支持实时写入与ACID一致性 [14] - 支持标量、向量、文本、JSON和GIS等多模数据统一存储与检索 [14] - 最低仅需1核CPU、2GB内存,支持pip install一键安装和秒级启动 [16] 公司市场地位 - OceanBase全球客户数突破4000家,连续五年年均增速超100% [4] - 服务覆盖16个国家和地区、60多个地域、240多个可用区 [4] - 开源社区拥有超过25000名开发者,累计下载量突破百万 [5] 行业痛点与解决方案 - MIT研究显示超95%企业AI项目因多模态数据割裂、系统链路冗长难以落地 [11] - seekdb专门解决混合检索和综合利用不同类型数据的需求 [12] - 混合搜索能力成为AI原生数据库的分水岭 [13] 配套工具链 - 开源智能文档解析框架PowerRAG,提供企业级RAG解决方案 [24] - 开源分层记忆架构PowerMem,帮助大模型高效管理上下文信息 [26] - PowerMem在LoCoMo Benchmark以73.70分登顶SOTA,Token消耗降低96% [27] 战略定位 - OceanBase CEO认为AI真正瓶颈不在模型而在数据 [19] - seekdb专为AI时代重构,目标成为大模型与私有数据融合计算的实时入口层 [20] - OceanBase 4.4一体化融合版本首次将TP、AP与AI能力集成于单一内核 [22] - 公司通过多负载加多模加混合多云实现数据统一,通过弹性底座加原生多租户加混合搜索实现智能与效率 [29]
何恺明团队新作:扩散模型可能被用错了
量子位· 2025-11-19 09:01
文章核心观点 - 何恺明团队提出颠覆性观点,认为当前主流扩散模型的使用方法存在根本性问题,应回归去噪本质,直接预测干净图像而非噪声 [4][5][6] - 基于此观点提出极简架构JiT,仅使用纯Transformer直接处理高维像素,在多项指标上达到SOTA水平,证明了该方法的有效性和优越性 [10][11][18] 技术路径与理论依据 - 当前主流扩散模型架构复杂,通过预测噪声或速度场进行训练,但偏离了其作为去噪模型的初衷 [4][6] - 根据流形假设,自然图像存在于高维空间中的低维流形上,而有规律的干净数据更易被神经网络学习,无规律的噪声则难以拟合 [7][9] - 直接预测干净图像实质是让网络将噪点投影回低维流形,对模型容量要求更低,更符合神经网络设计本质 [9] JiT架构设计与优势 - JiT采用极简设计,仅为纯图像Transformer,无需VAE压缩、Tokenizer、CLIP/DINO对齐或额外损失函数 [11] - 直接处理原始像素,将其切分为大Patch输入,输出目标直接设定为预测干净的图像块 [12] - 在高维空间中优势显著,传统预测噪声模型FID指数级飙升至379.21,而JiT的x-pred方法FID仅为10.14,表现稳健 [14][15] - 模型扩展能力出色,即使Patch尺寸扩大至64x64,输入维度高达一万多维,仍能实现高质量生成 [15] 实验性能与成果 - 在ImageNet 256x256和512x512数据集上,JiT达到SOTA级FID分数,分别为1.82和1.78 [18] - 不同模型规模下性能持续提升,JiT-G/16在256x256任务上200-ep和600-ep的FID分别为2.15和1.82 [19] - 引入瓶颈层进行降维操作,非但未导致模型失效,反而因契合流形学习本质进一步提升了生成质量 [17]
聊AI,当然得来量子位MEET大会!
量子位· 2025-11-19 06:20
大会概况 - 大会以“共生无界,智启未来”为主题,关注AI技术穿透产业、学科与场景边界,成为社会演进核心动能 [3] - 大会将聚焦强化学习、多模态、芯片算力、AI+行业、AI出海等前沿技术与产业落地进展 [4] - 内容涵盖学术前沿与商业落地碰撞,以及来自基础设施、模型、产品产业的领先技术成果 [5] 核心发布 - 大会将权威发布人工智能年度榜单,从公司、产品、人物三大维度评选五类奖项 [60] - 大会将重磅发布年度AI趋势报告,提名并深入分析2025年度十大AI趋势 [61] 嘉宾阵容(首波) - 张亚勤:清华大学智能产业研究院院长,中国工程院院士,数字视频和AI领域世界级科学家,曾任百度总裁、微软全球资深副总裁 [12][13] - 孙茂松:清华大学人工智能研究院常务副院长,欧洲人文和自然科学院外籍院士,主持国家973项目等20余项科研项目 [17] - 王仲远:北京智源人工智能研究院院长,研究兴趣包括大模型、多模态、搜索推荐等,发表论文100余篇 [21][22][23] - 赵俊博:浙江大学百人计划研究员,蚂蚁集团资深技术专家,聚焦大模型、世界模型和合成数据技术,首创数据库大模型TableGPT [27] - 方汉:昆仑万维董事长兼CEO,拥有31年互联网从业经验,是中文Linux奠基人之一 [30] - 尤洋:潞晨科技创始人兼董事长,新加坡国立大学校长青年教授,曾获福布斯30岁以下精英榜等荣誉 [35][36] - Daniel Povey:小米集团首席语音科学家,IEEE Fellow,著名开源语音识别工具Kaldi的提出者和主要维护者 [40] - 朱宁:上海交通大学上海高级金融学院金融学教授,研究涵盖行为金融学、中国宏观经济等领域 [44][45] - 刘凡平:RockAI CEO,主导并实现国内首个非Transformer架构大模型,首倡“群体智能”理念 [48][49] - 喻友平:中关村科金总裁,提出“平台+应用+服务”大模型落地三级引擎战略,推动垂类大模型应用 [53][54] - 乔梁:太初元碁联合创始人兼首席运营官,深耕高性能计算领域,获评2024年度“算力中国·青年先锋人物” [57][58] 大会影响力 - 每年吸引上千名科技从业者参与,百万观众线上围观,近百家合作媒体联合曝光 [64] - 已成为智能科技行业的年度风向标 [64]
“日本版OpenAI”创下估值新高!Transformer八子之一创办,老黄也投了
量子位· 2025-11-19 06:20
融资与估值 - 最新B轮融资筹集200亿日元(约1.35亿美元)[4] - 总估值达4000亿日元(约26.35亿美元),创日本非上市初创企业估值纪录[4] - 投资方包括英伟达(A轮参与)、Khosla Ventures、NEA、三菱日联、四国电力等[5] 公司背景与创始人 - 成立于2023年7月,由Transformer论文八作之一Llion Jones联合创办[6][8] - 联创兼CTO Llion Jones曾任职谷歌8年,是Transformer核心作者[8][9][12] - 联创兼CEO David Ha曾任谷歌大脑高级科学家、Stability AI研究负责人,入选《时代》2025年AI百大人物[17][18] - 公司base东京,因日本AI人才竞争相对缓和且质量高[20] 技术路线与核心创新 - 放弃传统Transformer架构,提出基于自然启发智能的模型[20] - 核心思想借鉴自然进化与集体智慧,通过AI协作降低计算成本并提升性能[21][24][25] - 推出“进化模型合并”方法,无需梯度训练即可组合现成模型生成新模型[32][34] - 70亿参数日语数学模型在基准测试中超越700亿参数Llama-2,实现SOTA[33] 主要产品与研究进展 - 发布史上首个AI科学家系统,可全自动生成论文(成本约15美元/篇)[3][27][28] - AI Scientist 2.0生成论文通过ICLR评审,一篇获6/7/6分(超人类接收门槛)[38][39] - 每月持续推出新研究:Sudoku-Bench(5月)、Text-to-LoRA(6月)、AB-MCTS多模型协作算法(7月)、ShinkaEvolve自优化框架(9月)[44] 行业对比 - 日本AI初创估值最高纪录,被视为“日本版OpenAI”[43] - 对比中国AI公司:智谱AI估值超400亿元、MiniMax估值超40亿美元、月之暗面估值有望突破33亿美元[45]
无需重训练+即插即用+性能零损耗,蚂蚁集团×南洋理工首发微调安全框架,让模型既安全又高效
量子位· 2025-11-19 06:20
文章核心观点 - 蚂蚁集团与南洋理工大学联合推出名为EnchTable的模型安全对齐框架,旨在解决大语言模型在微调后安全能力下降的问题[3] - 该框架基于“安全蒸馏+干扰感知融合”两大核心技术,无需重新训练即可将安全知识从已对齐模型迁移至微调模型,实现安全与效用的最佳平衡[3][4] - EnchTable在多种模型架构和任务上表现优异,其安全防御能力甚至超越了官方的Instruct安全模型[3][26] 技术原理与创新 - **核心发现:安全对齐具有可迁移性**:研究团队认为安全对齐是一种可迁移的知识,无需在每个微调模型上重新学习,可将其作为独立模块进行提取和注入[6][7] - **面临两大挑战**:一是如何从模型参数中纯净地解耦出仅代表“安全”的知识向量;二是如何将该向量注入微调模型而不干扰其下游任务性能[8] - **双层解决方案**: - **NTK约束的安全向量蒸馏**:引入基于神经正切核的线性化方法,提取出纯净、尺度稳定的安全向量,此过程对每种模型架构只需执行一次[13][14] - **基于干扰感知的参数合并**:采用“粗粒度+细粒度缩放”双重机制,通过范数比例全局缩放,并利用奇异值分解逐层分析干扰,智能调整安全向量权重,以最小化对下游任务的影响[16][17][18][19] 实验效果与性能 - **安全与效用平衡**:在基于LLaMA3、Qwen2.5、Mistral三种架构和11个数据集的全面验证中,EnchTable在所有任务域上实现了最佳的安全-效用权衡[20][21] - **具体数据表现**: - **安全性提升**:在代码任务上,将微调模型的不安全率从0.802降至0.019;在数学任务上,从0.471降至0.006[25] - **效用性保持**:在代码任务上,效用分稳定在0.644;在医疗任务上,效用分稳定在0.738,几乎与微调模型的0.737持平[22] - **强大的泛化与鲁棒性**: - 支持架构泛化、全量微调和高效微调范式泛化,以及具有特殊模式的推理模型泛化[24] - 面对10种高级越狱攻击,其防御能力显著优于微调模型,甚至强于官方Instruct安全模型[26] - **高效轻量**:整个框架无需重新训练,向量蒸馏为一次性成本,合并过程高效,可无缝集成到部署流程中[28] 行业应用与意义 - **解决行业痛点**:针对“微调即服务”浪潮和模型定制化趋势下,微调导致安全对齐失效的行业普遍问题[29][30] - **广泛适用性**:方案支持LLaMA、Qwen、Mistral等主流架构,兼容全量微调和高效微调范式,适用于代码生成、数学推理、医疗分析等数据与安全敏感型场景[30] - **提供可落地方案**:作为“后处理”解决方案,无需依赖训练数据或大量计算资源,为AI平台时代的模型安全提供了实用的技术方案[30]
融资数亿、营收过亿!黄仁勋频频关注的具身赛道隐形冠军浮出水面
量子位· 2025-11-19 06:20
公司融资与市场地位 - 光轮智能完成数亿元A轮和A+轮融资,投资方包括东方富海、九派资本等机构投资者以及三七互娱、琥珀资本等产业方,老股东辰韬资本持续加注[2][3] - 公司是全球唯一专注仿真合成数据的技术公司,也是全球首家将生成式AI融入仿真技术的公司,年营收已突破亿元[3][47] - 创始人谢晨是圈内声名卓著的大佬,曾担任英伟达、Cruise及蔚来的仿真负责人[3] 行业趋势与风口 - AI浪潮正从信息领域扩散至物理现实,行业注意力集中到世界模型和具身智能,它们是打通AI与物理世界之间壁垒的关键路径[6][9] - 物理AI是黄仁勋在2025年年初点燃的风向,风口拐点正在不断被证明[4][5] - 行业训练范式转向数据驱动,进入"数据决定性能"阶段,仿真合成数据从"补充资源"推至"基础要素"[26][54] 仿真合成数据的技术价值 - 仿真合成数据结构更清晰、精度更高、可控性更强,ROI更高,是满足具身智能和世界模型所需数据的最佳方案[14][22] - 训练世界模型和具身智能模型需要规模化、结构化、可控性强的多模态交互过程数据,仿真合成数据具备这些特点[10][14] - 世界模型对数据需求量级更大,追求泛化与物理预测,仿真合成数据能极大提升模型的物理理解和预测能力[18][21] 光轮智能的技术与生态优势 - 公司深度参与英伟达仿真系统底层共建,是Newton物理引擎早期验证者和开发合作者,参与SimReady仿真数据资产标准制定及Isaac Lab Arena策略评估平台核心建设[33] - 光轮智能的仿真合成数据能力已被嵌入世界模型训练标准流程,在底层引擎、数据标准、评测平台三个维度形成不可替代角色[34] - 公司与英伟达、谷歌、阿里、字节等大模型公司,Figure AI、1X Technology等机器人本体公司,以及Toyota、BOSCH、比亚迪、吉利等行业公司合作,客户覆盖全球前三的世界模型[45] 业务模式与服务能力 - 光轮智能提供全生命周期服务,在预训练阶段提供合成数据和人类视频数据,后训练阶段提供高质量仿真合成数据并支持强化学习精调,测试阶段提供仿真平台服务和评估标准[42] - 公司提供数据、平台、评测全流程服务,形成端到端闭环,区别于上一代数据供应商[43] - 国际主要具身团队的仿真资产和合成数据有80%以上来自光轮,公司收入远超去年10倍,已过亿元[45][50] 融资用途与战略定位 - 融资主要目的是扩大供给,强化规模化交付能力,引领具身智能的拐点性变革[52][53] - 公司目标构建物理AI的数据基础设施,成为行业"共用数据底座",借先发优势做长远打算[57][59] - 行业数据观正从"被采购的资源"转向"可服务的平台",光轮智能掌握新一代智能体系的底层资源[61][62]