通用人工智能(AGI)
搜索文档
Nano Banana Pro深夜炸场,但最大的亮点不是AI生图
36氪· 2025-11-21 10:17
产品发布与核心功能 - Google发布了其AI图像生成模型Nano Banana Pro (Gemini 3 Pro Image),该模型在图像生成能力上实现显著进化,对设计行业构成冲击 [6][7] - 核心功能包括:支持最高4K分辨率图像输出、支持对话式多轮次图像编辑、最多可将14张输入图像组合为1张输出图像、集成Google搜索能力以提供更精确和最新的知识支持 [9] - 模型具备强大的跨模态理解能力,可生成多种语言的文字,并实现一键本地化、翻译及图文重排,例如为漫画上色并将英文翻译成中文 [12][13] - 在生成图像前,模型会进行物理模拟和逻辑推演,而非仅依赖视觉模式,例如能生成四宫格图片,并确保人物外貌、口型与发音文字准确对应 [14] - 模型支持极长的文本提示词,输入Token上限达到64k,能够理解详细的分镜脚本和复杂的多语言排版需求 [23] - 支持最多14张输入图像的组合编辑,并能保持最多5个角色的外貌一致性 [28] - 具备专业级创意控制能力,允许用户选择、微调或变换图像中的任何部分,包括调整镜头角度、改变风格、应用高级调色及改变场景光照 [31][32] 技术架构与核心优势 - Nano Banana Pro的核心进化在于完整接入了Gemini 3的深度思考能力,实现了“先理解再表达” [11][50] - 模型最具颠覆性的能力在于其原生多模态架构,将搜索(Gemini 3的“左脑”)与图像生成(“右脑”)深度融合,引入了搜索增强功能 [33][34] - 搜索增强功能使创造过程具备事实基础、实时性和可验证性,例如可根据提示词生成包含最新天气数据的可视化信息图,或生成详细的旅游行程可视化图片 [36][38][40] - Google在产品定位上采用双模型策略:旧版Nano Banana用于快速日常编辑,而Nano Banana Pro专注于复杂构图与顶级画质的专业需求 [39] - 在AI透明度方面,所有AI生成的内容都会嵌入不可见的SynthID数字水印,用户可上传图像询问是否由Google AI生成,该能力将扩展至音频与视频 [43] 市场策略与产品定位 - 对于消费者与学生,Nano Banana Pro已在Gemini应用中全球开放,免费用户可获得有限额度,超出后自动切回原版Nano Banana [39] - Google AI Plus、Pro和Ultra订阅用户拥有更高使用额度,在美国地区,Pro与Ultra用户已在Google搜索的AI模式中可体验Nano Banana Pro,NotebookLM中的该模型也面向全球订阅用户开放 [42] - 官方提供了专业的使用指南,建议用户采用包含主体、构图、动作、场景、风格、编辑指令六要素的“摄影指导式”提示词写法,以实现更精细的控制 [46][47] 行业影响与未来展望 - Google通过Gemini 3 Pro和Nano Banana Pro等产品,试图证明通往通用人工智能的道路必须是多模态原生的,即模型需具备看、听、理解结构和处理逻辑的能力,才能对世界进行完整“思考” [48][49] - 从技术层面看,该系列模型让图像生成进入了“先理解再表达”的阶段,当AI能理解路径、结构、文字含义及交互逻辑时,它便成为一个具备视觉思维能力的智能体,而不仅是画图工具 [50][52] - 从商业层面看,极低的推理成本和生成式UI的出现,将彻底改变内容生产和信息分发的逻辑,未来的互联网可能是随需求即时生长的界面,而非固定网页 [52] - 设计将不再只是人的手艺,界面也不再仅由团队打磨,越来越多的视觉内容会先由AI生成,再由人进行补充或微调 [53] - Google通过连环发布产品,展示了其对未来新世界的预见,并正在将入口推向所有人面前 [54][55]
还是谷歌懂程序员?Demis 采访首提“氛围编程”,Gemini 3 彻底戒掉“爹味”说教
AI科技大本营· 2025-11-21 10:03
文章核心观点 - 谷歌通过Gemini 3展示了其在AI模型性能与成本效率上的重大突破,标志着公司从防御姿态转向积极进攻[12] - 模型的核心优势体现在极致的推理成本控制、工具化定位以及推理能力等关键技术的显著进步[4][15] - 公司对AGI的实现路径保持清晰认知,认为仍需5-10年并依赖推理、记忆等领域的根本性突破[11][17][22] 模型性能与效率突破 - 通过极致的“蒸馏技术”将顶尖模型的运行成本大幅降低,使其能处理数十亿次日均搜索请求而不破产[4] - 公司在成本与性能的帕累托前沿保持领先,实现了“比我聪明的没我便宜,比我便宜的没我聪明”的竞争优势[5][6] - 模型效率的提升使得其能应用于“AI概览”等极端场景,服务数十亿用户,并为云客户和企业客户带来成本效益[22] 模型能力与交互体验 - 模型在推理能力上表现出色,能够同时思考多个步骤,避免了以往模型思绪断片或跑偏的问题[15] - 提供了全新的生成式界面,能真正给用户提供定制化的设计和答案,是创建新型交互界面方面最强的模型[15] - 模型风格更简洁、切中要点、更具表现力,采用“去人格化”设计,专注于成为高效的信息处理器和逻辑推理机[7][9][10][16] 技术发展方向与AGI路径 - 实现AGI预计仍需5到10年,并且可能需要一两个本质上的研究突破,而非仅靠堆算力和数据[11][17] - 下一阶段AI战争的主战场将围绕推理、记忆以及世界模型这三个关键领域展开[11] - 公司认为当前处于规模化基础模型持续进步的阶段,但要通往AGI仍需研究突破[22] 产品整合与市场战略 - 公司正将AI能力深度整合到现有产品矩阵中,包括地图、YouTube、安卓、搜索等,并以AI为先的视角重新构想这些产品[19] - 新产品如Gemini App、NotebookLM等AI原生产品,旨在让AI成为用户工具箱里的超能力工具,专注于任务完成[18] - 公司关注用户满意度等产品体验指标,并将基准测试的进步转化为有意义的产品体验[23] 行业竞争与市场定位 - AI领域处于极其惨烈的竞争环境,公司关注自身进步速度,并对其进展感到满意[19] - 公司不仅是AI研究的先驱,更致力于将研究成果转化到下游所有产品中,并认为在这场进化中才走到一半[19] - 行业部分领域存在泡沫迹象,但公司同时在投资未来蓝海领域如机器人、游戏、药物研发,并看好其长期潜力[25][26]
重磅!PI 获42亿融资!估值飙升至392亿
机器人大讲堂· 2025-11-21 04:00
融资与估值 - 公司完成新一轮6亿美元融资,估值飙升至56亿美元 [1] - 本轮融资由Alphabet旗下CapitalG领投,现有投资者Lux Capital、Thrive Capital及杰夫·贝索斯持续加码,新晋投资方Index Ventures与T Rowe Price也参与此轮融资 [1] - 公司自2024年3月成立以来融资进程加速,种子轮融资7000万美元估值4亿美元,A轮融资4亿美元估值跃升至24亿美元,三轮融资累计吸金超10亿美元 [9] 团队构成 - 公司团队堪称全明星阵容,首席执行官兼联合创始人Karol Hausman曾是Google DeepMind资深研究科学家,联合创始人Sergey Levine是强化学习领域领军人物,另一位联合创始人Groom是投资人兼支付巨头Stripe前高管 [1] - 团队还包括来自特斯拉、谷歌DeepMind、X等顶尖科技公司的专家,以及斯坦福大学教授等 [3] 技术方向与模型进展 - 公司聚焦通用家用机器人领域,致力于研发可作为各类机器人大脑的人工智能算法,长期愿景是构建一套通用智能系统以赋能多样化机器人应用场景 [3] - 公司提出以研发通用人工智能模型为解决方案,采用覆盖广、数据小的数据集构建策略,首款模型π-0于2024年10月发布,可实现叠衣服、组装纸盒、操作微波炉等多种复杂任务 [5] - 2025年4月发布π-0.5模型,增强了对全新环境的适应能力,通过异构数据协同训练能理解技能语义上下文并实现跨机器人物理行为迁移 [7] - 2025年11月发布最新机器人基础模型π*0.6,引入RECAP通用训练方法,在制作意式浓缩咖啡、折叠衣物、组装工厂包装纸箱等任务中成功率均超过90% [7] 行业背景与挑战 - 家用机器人面临复杂多变的空间环境,多样化任务对精细化动作控制要求高,现有专用机器人往往难以胜任 [3] - 实现不同功能通常需基于新模型与数据重新训练,增加了开发成本,且训练数据需严格适配机器人物理形态与应用场景,加大了数据准备难度 [3]
36个月大逆转,他带着谷歌AI杀回来了,下一步世界模型
36氪· 2025-11-20 23:53
模型性能与市场竞争 - Gemini 3 Pro在发布后于多个模型排行榜上表现优于GPT-5及其他模型,尤其在模拟推理和长时间规划方面表现更佳[12] - 谷歌Gemini应用的月活用户已超过6.5亿,而ChatGPT的周活用户在7-8亿(换算月活可能超10亿)[12] - 每月有超过20亿人通过Google搜索中的AI Overviews功能使用Gemini,约1300万开发者在产品中集成Gemini[12] 产品整合与商业化 - Gemini 3从发布之日起即全面增强谷歌现有产品,包括其利润可观的搜索业务,AI Overviews功能推动搜索查询量提升了10%[7][8] - 谷歌视觉搜索功能因依赖Gemini的照片分析能力而出现70%的激增[8] - 谷歌优势在于其深厚的产品“家底”,包括搜索、地图、Gmail、云服务等广泛基础产品线,并已实现所有产品完全运行在Gemini技术栈上[8] 技术路线与未来规划 - 谷歌在上下文窗口方面做了大量实验,并将其提升到100万个token,该记录尚未被真正打破[7] - 公司一开始就将机器人和眼镜视为重要应用场景,因此决定走多模态路线,Gemini已在多模态理解上显现出明显优势[8] - 公司追求打造“各方面都最强”的通用模型,将其视为通向AGI的关键,并预测实现完全AGI还需五到十年时间[13][14] 公司战略与行业定位 - 谷歌在AI领域长期投入巨大资源,曾在2017年发现Transformer模型架构但选择公开,未将其商业化[9][10] - 公司认为其在与OpenAI、xAI等AI厂商的竞争中处于“进可攻,退可守”的有利位置,既有扎实营收,又承担着公司“AI动力舱”的重任[8][15][17] - 公司正考虑通过Gemini重启谷歌眼镜项目,因通用助手可能成为其“杀手级用例”[8]
Nano Banana Pro 深夜炸场,但最大的亮点不是 AI 生图
36氪· 2025-11-20 23:53
产品发布与定位 - Google DeepMind于2025年11月20日发布Nano Banana Pro(代号Gemini 3.0 Pro Image)[11] - 公司采用双模型策略,旧版Nano Banana用于快速日常编辑,Nano Banana Pro专注于复杂构图与顶级画质的专业需求[29] - 产品已在Gemini应用中全球开放,免费用户获得有限额度,Google AI Plus、Pro和Ultra订阅用户拥有更高额度,美国地区Google搜索的AI模式中Pro与Ultra用户已可体验[29][31] 核心技术能力 - 图像生成支持最高4K分辨率输出,并允许自由设定多种长宽比,如电影海报、宽屏壁纸等[3][16] - 模型具备64k输入Token上限,能理解极长的文本提示词和复杂指令[14] - 核心进化在于完整接入Gemini 3的深度思考能力,生成图像前会进行物理模拟和逻辑推演,而非仅凭视觉模式猜测[6][36] - 支持多轮对话式图像编辑工作流,最多可将14张输入图像组合为1张输出图像,并保持最多5个角色外貌一致[3][17][20] 多模态与跨模态功能 - 凭借Gemini 3增强的多语言推理能力,可直接生成多种语言文字或一键进行内容本地化与翻译[5][8] - 集成Google搜索能力(Grounding with Search),使创造过程具备事实基础、实时性和可验证性,例如根据实时天气数据生成信息图[25][27][29] - 跨模态理解能力彻底,能连贯处理从识别、翻译到设计的任务,如为漫画上色并翻译气泡内文字[7][8] 专业级创意控制 - 支持对图像任何部分进行选择、微调或变换,包括调整镜头角度、改变风格、应用高级调色及改变场景光照[23] - 文字生成能力显著提升,能生成清晰可读的文字,支持多种纹理、字体与书法风格的精细排版,解决了前代乱码问题[10][12] - 采用“摄影指导式”提示词写法,模型能理解专业术语并转化为视觉输出,提示词需包含主体、构图、动作、场景、风格、编辑指令六要素[33][34] 行业影响与战略方向 - 产品标志着图像生成进入“先理解再表达”阶段,AI不再是画图工具而是具备视觉思维能力的智能体[36][38] - Google通过多模态原生模型证明其通往AGI(通用人工智能)的道路,模型需能看、能听、能理解结构、能处理逻辑[36] - 极低的推理成本和生成式UI将彻底改变内容生产和信息分发逻辑,视觉内容将先由AI生成再由人微调,改变设计行业[38]
谷歌DeepMind CEO哈萨比斯:世界模型是未来,AI泡沫真实存在
搜狐财经· 2025-11-20 08:14
产品发布与定位 - 谷歌正式推出最新大模型Gemini 3 Pro,其研发目标是打造综合性能最强的基础模型,并弥补前代在编程、逻辑推理及数学能力等方面的短板[1] - 谷歌DeepMind首席执行官将Gemini 3 Pro描述为构想的通用人工智能(AGI)系统的关键组成部分[1] 产品性能与用户规模 - Gemini 3在多步骤任务中展现出更强的推理连贯性,能更稳定地维持思维链条,并可动态生成定制化交互界面如互动式教程或嵌入式计算器[3] - Gemini应用月活跃用户已突破6.5亿,若计入通过搜索中"AI概览"功能接触Gemini的用户,月活跃人数达20亿[3] - 为扩大影响力,公司宣布全美高校学生将获赠一年期Gemini高级版免费使用权[3] 技术前沿与未来规划 - 研究重心已转向世界模型,并援引SIMA 2及视频生成模型Genie 3等项目作为代表性案例,这些模型已在内部用于机器人及其他智能体的训练,未来将成为实现AGI不可或缺的核心组件[3] - 预测世界模型将迎来一个"ChatGPT时刻",但最大障碍是成本和当前的技术难题,例如让稳定性维持超过一分钟等挑战[4] - 真正的通用人工智能(AGI)实现尚需5至10年时间,仍需一到两项关键突破,尤其在模型可靠性、复杂推理能力及长期记忆机制等方面[5] 行业竞争与市场观点 - 明确指出私募市场显然存在泡沫,举例称某些尚无实质性产出的初创企业在种子轮融资阶段即被赋予数百亿美元估值,认为这不可持续且缺乏基本逻辑[4] - 强调此类风险不适用于谷歌,回溯了将AI研究打造为谷歌产品"引擎室"的长期战略已显成效,Gemini深度赋能搜索、YouTube、云服务等核心业务并迅速实现商业回报[4] 技术发展与投资回报 - 承认仅靠扩大模型参数量已出现收益递减现象,但强调进展远未停滞,相关投入依然极具价值,当前虽不再每代都实现性能翻倍,但仍持续带来显著提升,具备高投资回报率[5] - 警示模型能力的增强如接入外部工具的"函数调用"能力亦带来新型风险,特别强调在网络安全领域必须加倍审慎,严防技术被恶意滥用[5]
本周六,围观学习NeurIPS 2025论文分享会,最后报名了
机器之心· 2025-11-20 06:35
AI技术演进趋势 - AI技术发展正从“能力突破”迈向“系统构建”阶段,焦点转向可靠性、可解释性与可持续性[2] - 自主智能体开始尝试真实任务闭环,世界模型在复杂环境中持续验证,推理架构与训练范式不断重构[2] - NeurIPS 2025共收到21575份有效投稿,最终接收5290篇,整体录用率为24.52%,显示学术生态多元化布局加速[2] NeurIPS 2025论文分享会概况 - 活动专为国内AI人才打造,设置Keynote、论文分享、圆桌对话等多元环节[3] - 活动时间为北京时间11月22日09:00-17:30,地点为北京中关村皇冠假日酒店3F[5][6] - 报名截止时间为11月21日晚上24:00,将通过机器之心视频号、B站等多平台直播[3][34] 主题演讲核心内容 - 上午Keynote提出情境智能作为补全AGI的关键拼图,通过多模态信息实现知识具象化表达[14][16] - 下午Keynote探讨面向世界模型的长视频生成技术,展示Macro-from-Micro Planning方法缓解时域漂移问题[17][19] - 圆桌对话主题为“世界模型会成为下一个AI前沿吗”,由ICT产业观察家张群英主持[10][20] 论文研究重点方向 - 数据混合可诱导知识获取的相变现象,清华大学博士生展示相关研究成果[8][30] - 多模态低秩适配技术MokA提升MLLMs性能,中国人民大学博士生分享最新进展[8] - 国防科技大学研究将遥感多模态大模型分辨率提升至8K级别[8] - 灵初智能提出可扩展的自改进数据生成框架DexFlyWheel,用于灵巧操作[8] 行业合作伙伴动态 - 联想AI工作站ThinkStation PGX搭载NVIDIA GB10超级芯片,提供1 PetaFLOP算力支持2000亿参数模型[38] - Trexquant作为全球对冲基金,使用数据科学和机器学习方法开发系统化统计套利策略[38] - 黄大年茶思屋科技网站汇聚全球科学家,推动前沿学术话题交流与技术成果分享[37]
LLM 没意思,小扎决策太拉垮,图灵奖大佬 LeCun 离职做 AMI
AI前线· 2025-11-20 06:30
核心事件 - 图灵奖得主、深度学习三巨头之一的Yann LeCun宣布将于年底从Meta离职并投身创业[2] - 新创业公司将聚焦高级机器智能研究项目,目标是构建能理解物理世界、具备持久记忆、推理并能规划复杂动作序列的系统[2] - Meta将成为其新公司的合作伙伴,LeCun感谢了Meta领导层但未提及亚历山大·王[4] 离职原因与时间线 - 11月11日金融时报首次报道LeCun离职计划,导致Meta市值在美股盘前下跌约1.5%,收盘跌超3%,单日蒸发449.72亿美元(约合人民币3200.25亿元)[11] - 根本原因为Meta内部AI发展路线长期冲突,公司战略重心向生成式人工智能产品化团队倾斜,压缩了LeCun团队进行长期基础研究的空间[11] - 从8月起硅谷内部就流传LeCun对AI战略重大决策不满,其需要向28岁的亚历山大·王汇报,大决定均由后者掌控[12] 技术路线分歧 - LeCun认为大语言模型创新已从科学突破变成"堆算力、堆数据、堆合成样本"的工程活,属于"优化尾声阶段"技术[13] - 他坚持发展基于"世界模型"和自监督学习的下一代AI技术,强调AI需具备理解物理世界、持久记忆、真正推理能力和规划行动四大关键能力[14][16] - Hugging Face联创Delangue支持该观点,认为当前是"LLM泡沫"而非"AI泡沫",行业误判了"大模型+巨量算力"的万能钥匙地位[15][18] 行业影响与趋势 - 行业可能出现高度定制化的"小模型生态",专门解决特定任务而非追求通吃所有场景的巨无霸模型[18] - Delangue预测LLM泡沫可能在明年破碎,但AI真正潜力尚未完全释放[18] - LeCun认为未来十年AI可能达到接近人类智能水平,但前提是行业必须从LLM规模竞赛中走出来[15] LeCun在Meta的贡献 - 2013年受扎克伯格邀请加入Meta,创建FAIR并奠定其AI基础设施格局,FAIR成长为与Google Brain、DeepMind齐名的顶尖研究机构[20] - 最显著的技术贡献为2016年推出PyTorch深度学习框架,彻底改变研究者工作方式并成为最重要框架之一[21] - FAIR为Meta大模型战略提供自监督学习、表征学习和多模态研究等关键技术积累,支撑起全球领先的开源大模型生态[21]
杨立昆官宣离职,感谢一圈Meta领导,只字不提亚历山大·王
36氪· 2025-11-20 01:52
杨立昆离职与创业计划 - 65岁的图灵奖得主、Meta AI首席科学家杨立昆宣布将于年底从Meta离职,计划创办一家专注于先进机器智能研究项目的初创公司[1] - 新公司目标是构建能理解物理世界、具备持久记忆、推理并能规划复杂动作序列的系统,将分析网络数据之外的信息以更好地呈现物理世界及其属性[1] - Meta将成为其新创业公司的合作伙伴[1] 杨立昆在Meta的职业生涯 - 杨立昆于2013年加入Meta并领导基础人工智能研究实验室,在Meta工作12年,其中5年担任FAIR创始董事,7年担任Meta首席AI科学家[3][4] - 他是2018年ACM图灵奖获得者之一,与Yoshua Bengio、Geoffrey Hinton合称"深度学习之父"[5] - FAIR的创建是其最自豪的非技术成就,他感谢了马克·扎克伯格等高管对FAIR及AMI项目的支持[4] 先进机器智能的技术理念 - AMI是Meta对AGI的内部代号,蓝图聚焦于理解物理世界、具备常识、持久记忆、能够推理和规划且可控安全的系统[3] - 杨立昆认为现有大模型对世界理解有限,需新计算架构开发在特定领域表现出色的系统,而非追求全能AI[9] - 今年6月他提出通过视频预测模型V-JEPA V2实现AMI,该系统通过预测视频内容抽象表示来学习物理世界行为[9] Meta的AI战略调整 - Meta在发布Llama 4后确定落后于竞争对手,决定放弃FAIR的长期研究,转向更快推出模型和AI产品[12] - 今年夏天扎克伯格斥资143亿美元聘请28岁的Scale AI创始人汪滔领导新"超级智能"团队,并收购Scale AI 49%股份[12] - 今年10月Meta在AI部门裁员600余人,包括曾协助启动FAIR的成员,新团队更倾向于封闭方式而非开源策略[14] 行业人才流动与技术路线分歧 - 今年11月Meta已损失两位顶尖大佬,此前PyTorch之父Soumith Chintala也宣布离职[3] - 杨立昆离职重要原因是Meta对FAIR的裁员和削减投入,以及新AI团队的加入[3] - 杨立昆创业并与Meta合作,被视为平衡自研基础模型与理解物理世界的世界模型两条技术路线的解法[18]
Gemini 3负责人最新访谈:不做情感陪伴,只做最强生产力工具
36氪· 2025-11-20 00:03
模型核心能力升级 - 具备生成界面能力,可从回答问题跃迁至构建动态应用,例如用户查询梵高生平时能即时生成包含图片和时间线的交互式页面,涉及复杂计算时能直接生成定制化房贷计算器 [1][8] - 推理能力显著增强,能在复杂任务中维持10到15步连贯逻辑,可靠性大幅提升,前代模型常在第5、6步推理时丢失思路 [2][11] - 视觉智能取得突破,在ScreenSpot-Pro测试中取得72.7%高分,几乎是GPT-5.1性能的20倍,使AI Agent能区分按钮、菜单、文本和上下文,为高级自动化操作电脑奠定基础 [3] - 编码能力大幅提升,在WebDev Arena排行榜上获得1487 Elo高分,配合Vibe Coding能力可根据自然语言生成功能完整且设计美观的代码 [4][11] 关键性能基准测试表现 - 在跨学科博士级难题集"Humanity's Last Exam"中,Gemini 3 Pro得分从Gemini 2.5 Pro的21.6%大幅上升至37.5%,远超GPT-5.1的26.5% [2][4][9] - 在SimpleQA Verified测试中准确率达到72.1%,相较GPT-5.1和Claude Sonnet 4.5提升超1倍,大幅减少模型幻觉现象 [2][4] - 在数学竞赛AIME 2025中得分达95.0%,使用代码执行后可达100% [4] - 在挑战性数学问题MathArena Apex上得分从2.5 Pro的0.5%跃升至23.4% [4] - 在多模态理解MMMU-Pro测试中得分81.0%,高于GPT-5.1的76.0% [4] - 在长上下文性能MRCR v2测试中,128k平均得分77.0%,1M点wise得分26.3% [4] 战略定位与产品整合 - 公司战略定位极为克制,将Gemini定义为提升生产力的超级工具,拒绝情感陪伴领域,内部考核指标是帮助用户完成的任务数量 [5][14] - 模型深度整合谷歌生态,可接入用户邮箱自动归类并拟定回复,从单纯助手进化为能够独立工作的智能同事 [5][10][13] - 模型将通过Gemini App和谷歌搜索AI Mode向用户提供,美国大学生将获一年免费高级版访问权限,关键词是"Learn Anything",定位为终极个性化教育工具 [10] - 公司强调在规模化分发和垂直整合上拥有优势,正将Gemini注入Maps、YouTube、Android等数十亿用户产品,形成无法逾越的护城河 [16] 行业竞争与未来展望 - 公司认为当前处于史上最激烈竞争环境,但对其进步速度非常满意,并强调在研究上从未失去领先地位,产品落地已跟上 [16] - 关于规模定律与回报递减,公司认为性能提升的边际效益虽非指数级爆炸式增长,但带来的实用性和可靠性提升仍远高于边际成本,规模定律依然有效 [17] - 对于AI泡沫论,公司认为某些领域存在估值与实际收入不成比例的泡沫,但公司同时拥有短期变现与长期万亿级新赛道,无论市场繁荣或收缩都将胜出 [18]