通用人工智能(AGI)

搜索文档
谷歌推出Genie3:世界模型的ChatGPT时刻?
虎嗅· 2025-08-06 12:13
2025年8月5日,Google DeepMind宣布推出Genie 3,这是一个通用世界模型,能够根据文本提示生成各种 可互动的3D环境。该模型在720p分辨率下以24帧/秒实时生成环境,用户可以像玩游戏一样自由移动,并 且场景在几分钟内保持一致。此举标志着DeepMind在世界模型领域的又一次重要跃进,距上一代Genie 2 发布仅一年多时间。 我们梳理了目前Google官方报告和参与内测的用户的反馈,以及Genie3背后团队的深度访谈,为大家提供 核心信息的汇总,更好地了解这个模型。 Google官方博客:从文字到世界,Genie 3是什么? 1. 迈向世界模拟 在Google DeepMind,我们已超过十年时间在模拟环境领域进行开创性研究,从训练智能体到掌握实时策 略游戏,再到为开放式学习和机器人技术开发模拟环境。这项工作促使我们开发了世界模型,即能够利用 其对世界的理解来模拟世界某些方面的AI系统,使智能体能够预测环境将如何演变以及其行为将如何影响 环境。 世界模型也是通往通用人工智能(AGI)道路上的关键里程碑,因为它们使得在丰富的模拟环境中对人工 智能代理进行无限课程训练成为可能。去年,我们推 ...
OpenAI被“断供”,AI圈也搞起了以邻为壑
36氪· 2025-08-06 11:29
进入移动互联网时代的下半场后,伴随着流量红利的枯竭,几乎所有巨头都开始明里暗里"建墙"。以开 放为代表的互联网精神不可避免地开始凋零,以邻为壑则成为了主旋律,其中最典型的代表就是"二选 一"。 不难发现,在GPT-5即将发布的当口,Anthropic的这番操作算得上是蛇打七寸。当然,Anthropic的行为 也无可指摘,该公司发言人在相关声明中表示,"OpenAI的技术团队在GPT-5发布前也在使用我们的编 程工具,这直接违反了我们的服务条款"。根据Anthropic的商业条款显示,禁止其他公司使用Claude API来构建竞争性服务。 对此OpenAI公司的发言人进行了辩解,称这种做法属于"行业标准",此外还表达了对Anthropic这一决 定的失望,并强调"我们的API仍然对他们开放"。 其实这并不是Anthropic第一次展现出对OpenAI的敌意,此前该公司突然切断了AI编程初创企业 Windsurf访问Claude模型的权限,外界彼时的一致看法,是该动作源自OpenAI正计划收购Windsurf。 除此之外,另一个证明Anthropic针对OpenAI的事实,是谷歌此前也干了同样的事情,可Anthr ...
外媒:谷歌DeepMind宣布推出新一代世界模型Genie 3
环球网资讯· 2025-08-06 09:21
此外,Genie 3还引入了"可提示世界事件"功能,用户可以通过简单的文本指令动态修改虚拟世界,例 如添加一群鹿或改变天气条件。 外媒称,Genie 3的发布被DeepMind视为迈向通用人工智能(AGI)的重要一步。该模型不仅为AI智能 体训练提供了更广阔的模拟空间,还为游戏开发、教育和创意设计等领域带来了新的可能性。例如,机 器人可以在模拟仓库中学习应对不可预测的场景,而无需真实世界的试错成本。 尽管Genie 3在技术上取得了显著突破,但仍存在一些局限性。例如,模型当前仅支持数分钟的连续交 互,远未达到数小时的理想状态。此外,AI智能体在模拟环境中的交互能力有限,复杂多智能体交互 仍需进一步探索。谷歌DeepMind表示,Genie 3目前以研究预览形式向部分学者和创作者开放,旨在进 一步优化模型并评估潜在风险。(青云) 【环球网科技综合报道】8月6日消息,据PANews报道,谷歌DeepMind今日宣布推出其最新一代世界模 型Genie 3。Genie 3是一款通用型世界模型,能够根据文本提示实时生成多样化的交互式虚拟环境,支 持以24帧/秒的速度生成720p分辨率的交互式3D环境。 来源:环球网 ...
蚂蚁集团联合中国人工智能学会发布AGI科研专项基金
证券日报网· 2025-08-06 05:16
据了解,本次发布的基金,聚焦通用人工智能相关的关键技术和前沿方向,从底层发力,提升模型整体 的智能能力。例如,方向一AGI数据与评测,共开放3项课题,围绕AIGC视频评测、大模型高效数据蒸 馏、大模型动态评测和反污染检测展开,通过多种方式的数据生产处理与模型效果评测,提高AGI技术 的准确度、智能度和稳定性。方向二AGI基础模型,共开放18项课题,围绕多模态大模型交互体验、多 模态生成与理解一体化、高效注意力机制等课题展开。方向三AGIInfra共开放6项课题,围绕RL训推一 体、高性能AgenticRL、面向RL大模型推理加速等课题展开。 近年来,蚂蚁集团以AIFirst为战略,持续投入AGI,在基础研究攻关、产学研共建、开源开放等层面取 得了一定的进展。由蚂蚁发起的InclusionAI开源社区,持续开源了百灵基础大模型、强化学习推理框架 AReaL、多智能体框架AWorld等工作,登上了著名模型开源社区HuggingFace发布的中国开源热点地 图,其中百灵多模态大模型还获得了模型趋势(anytoany类型)榜第一。去年以来,蚂蚁集团接连与上 海交通大学、浙江大学、南京大学等知名高校成立了联合实验室,聚 ...
六年来首次开源,OpenAI放出两款o4-mini级的推理模型
金十数据· 2025-08-06 03:47
产品发布 - OpenAI正式推出两款开源AI推理模型GPT-oss-120b和GPT-oss-20b 通过开发者平台Hugging Face免费下载 在多个开放模型评估基准中表现为最先进 [1] - GPT-oss-120b可在单张英伟达GPU上运行 GPT-oss-20b可在配备16GB内存的消费级笔记本电脑上运行 [1] - 两款模型采用Apache 2.0开源协议 允许企业在无需授权或付费的前提下将模型应用于商业场景 [5] 战略背景 - 此次发布标志着OpenAI自六年前开源GPT-2以来首次重返开源语言模型领域 [1] - 公司早期曾开源AI模型 但此后转向封闭源代码商业化路径 以推动通过API销售模型访问权限的业务扩张 [1] - 首席执行官山姆·奥尔特曼今年1月坦言在开源问题上OpenAI站在了历史的错误一边 [1] 竞争环境 - 中国AI实验室如DeepSeek 阿里巴巴通义和Moonshot AI快速崛起 陆续发布多个全球领先的开源模型 使OpenAI面临前所未有的竞争压力 [2] - Meta的Llama系列在过去一年中逐渐落后 [2] - 特朗普政府今年7月公开呼吁美国AI公司应更多开源以加快具美国价值观的AI技术在全球推广 [2] 技术性能 - 在Codeforces编程竞赛测试中 GPT-oss-120b和GPT-oss-20b分别得分2622与2516 优于DeepSeek的R1模型 略逊于OpenAI自家的o3和o4-mini模型 [2] - 在人类终极考试HLE中 两款模型分别取得19%与17.3%的得分 虽然仍低于o3 但已超越DeepSeek和Qwen等主流开源模型 [3] - 两款GPT-oss模型的幻觉率明显高于o系列模型 其中GPT-oss-120b和GPT-oss-20b在PersonQA测试中的幻觉率分别为49%与53% 而o1模型仅为16% o4-mini为36% [3] 技术架构 - 模型采用专家混合MoE架构 通过仅激活部分参数实现运行效率最大化 GPT-oss-120b拥有1170亿参数 但每个token仅激活其中的5.1亿 [5] - 模型经过高算力强化学习RL后训练 在模拟环境中借助英伟达GPU集群学习判断对错 发展出思维链式推理路径 [5] - 当前两款模型仅支持文本输入输出 尚不具备图像 音频等多模态处理能力 [5] 安全与限制 - OpenAI明确表示不会公开训练数据来源 与完全开源模型不同 [6] - 公司曾多次推迟发布 部分原因为应对安全问题 专门评估模型是否可能被恶意微调用于网络攻击或生物武器研发等高风险用途 [6] - 经内部与第三方测试 OpenAI判断GPT-oss模型虽在某些生物学任务中表现提升 但尚未达到高风险门槛 [6] 行业影响 - OpenAI表示其开源模型可将复杂指令发送至云端AI模型执行 如果无法处理某些任务如图像处理 开发者可将其接入公司更强大的闭源模型实现协同运作 [1] - 公司称GPT-oss特别适用于AI代理应用 能在推理中调用外部工具如网页搜索或Python代码执行 [5] - 业内关注焦点正逐步转向即将发布的DeepSeek R2模型以及Meta旗下Superintelligence Lab的全新开源产品 [6]
赛博沙盒:如何与AI共创未来
36氪· 2025-08-06 03:01
AI创造力瓶颈 - 当前大模型在真正意义上的知识创造方面存在底层逻辑限制,仍依赖既有人类数据进行推理学习,难以突破已有知识框架[1][2] - AI生成内容需谨慎验证真实性,存在引用文献造假等风险[2] - 具身智能被认为是潜在突破方向,但数学底层逻辑革新仍是关键前提[3][4] 游戏作为AI孵化场 - 游戏与AI存在历史共生关系,从1949年国际象棋AI研究到AlphaGo、Dota AI等里程碑均以游戏为载体[4][5] - 游戏提供规则明确、边界清晰的理想训练环境,类似高中物理的理想实验场景[7][8] - 游戏可同时承担AI孵化器与安全测试场的双重功能,如《西部世界》式赛博小镇[6][9] 智能NPC应用 - RPG游戏智能NPC可实现个性化对话与动态叙事,但面临算力成本与角色失控(OOC)挑战[12][14] - 《黑神话:悟空》展示AI在动作衔接上的技术突破,实现角色动作丝滑过渡[13] - 策略类游戏AI可优化游戏平衡性测试,如《龙与地下城》AI地下城主功能[13][15] 游戏开发变革 - AI工具显著降低开发门槛,《元梦之星》编辑器已实现小学生制作游戏场景[24][25] - 未来可能出现"算力即服务"商业模式,玩家可付费提升NPC交互算力[16][17] - AI可辅助检测游戏剧情逻辑矛盾,解决多线叙事一致性难题[23][26] 游戏社会价值 - 游戏可作为"信息疫苗"训练场,提升公众媒介素养与虚假信息识别能力[27] - 《瘟疫危机》桌游被牛津大学用于公共卫生教学,显著提升病毒传播模型理解[28] - 游戏引擎技术已反哺自动驾驶等现实领域,如虚拟环境训练系统[30][32] 媒介特性比较 - 游戏整合而非替代传统媒介,如《黑神话:悟空》融合影视级体验与交互玩法[34][35] - 游戏属于TCP媒介(重交互稳定性),电影属于UDP媒介(重传播效率),二者形成互补[36] - 游戏推动硬件技术迭代,如GPU从图形处理发展为AI算力核心的历史进程[32][33]
LangChain CEO 再聊 Agent:chat 模式只是起点,Ambient Agents 才是未来
Founder Park· 2025-08-05 12:15
Agent与Workflow之争 - 核心观点:Agent和Workflow并非对立,而是互补关系,未来更可能是Agent+Workflow的组合优化[4][7] - Workflow本质是工具,只是工具中用到AI能力,适合流程化控制但想象空间有限[4][6] - Agent更具灵活性,任何人都可以构建,但存在风险,其"智能体化程度"(agenticness)是关键指标[9][10] - 两者核心区别在于描述任务的难易程度,Workflow更确定性而Agent更自然语言化[11] Agent的未来发展方向 - Chat模式只是起点,未来将向"环境化/常驻"(ambient)模式发展,主动监听事件流并异步执行[14] - 需要建立"指挥中心"(Command Center)来管理长时间运行的任务,而非简单对话列表[15] - 中间形态是"工作计划"(work plan),将大任务分解为子任务并委派给Agent[18] - 可靠性是当前主要限制因素,需要人类监控和任务分解来提高[17][19] Multi-Agent系统 - 未来不是单一万能Agent,而是由专业Agent组成的生态系统[20] - 在功能性记忆完善前,定制化Agent仍是必需,可指向正确数据和流程[20] - 可能出现"总管"Agent模式,由中央Agent协调多个子Agent完成任务[22] - 多Agent系统可通过辩论、批判等方式提高输出质量,目前处于研究阶段[23][24] 行业现状与创业策略 - 当前处于"AI的迷雾"时代,技术迭代极快,任何超过六个月的规划都可能被推翻[25] - 执行力是核心护城河,需保持比市场略微领先的产品构建速度[25][26] - 关键在于对目标的深刻理解,形成连贯的产品策略和体验[26] - 人才竞争激烈,初创公司需通过差异化定位吸引合适人才[28] 应用场景 - 客户支持、编码辅助、邮件处理、深度研究和市场营销是当前主要应用领域[13] - 可实现Slack讨论转GitHub工单、销售通话后自动填写CRM等新任务[13] - 代码领域是可靠性的"先行指标",因有明确验证标准[19]
我们扒完了 GPT-5 全网爆料,奥特曼和 OpenAI 这次的饼真不好画了
36氪· 2025-08-05 10:39
营销策略与市场预期 - OpenAI通过高频次、碎片化的信息释放持续预热GPT-5,包括高管访谈、内部消息泄露和社交媒体互动,以维持市场热度 [1][3][7] - 公司原计划2024年发布GPT-5,但实际发布时间多次推迟,最新传闻指向2025年8月初 [23][31] - 市场对benchmark提升的兴奋度逐渐降低,公司转向通过营销叙事保持关注度 [5][7] 技术架构升级 - GPT-5核心突破在于整合基础模型与推理模型,形成统一架构 [9] - 采用智能路由系统,根据任务复杂度自动调用最佳模型(如快速响应模型或深度推理模型) [20][22] - 训练规模达17-18万块GPU,为历史最高 [39] 多模态能力突破 - 实现完整多模态能力,可处理图文、音视频等多种信息流 [10] - 用户体验预计达到"吉卜力时刻"级别,并在评测中领先 [11] - 用户通过API生成复杂HTML页面和图片,效果显著优于前代 [14][20] 软件工程与编程能力 - 专门优化企业级代码库维护能力,直接挑战Anthropic Claude的编程优势 [12] - 在内部测试中表现优于Claude Sonnet 4,且计算资源消耗未增加 [12] - 微软通过API访问测试Claude功能,涉嫌违反商业条款 [30] AI智能体与推理能力 - 强化多步骤指令执行能力,向自主完成任务方向迈进 [15] - 在客服代理等复杂规则场景中表现突出,减少对具体案例的依赖 [15] - 基于Q*技术突破开发的o系列模型展现强大推理能力 [41] 通用验证器技术 - 通过超级对齐团队开发的通用验证器技术,评估主模型输出质量 [16][17] - 在主观领域(创意写作、策略分析)取得显著进步 [18] - 该技术是获得国际数学奥林匹克金牌的关键 [18] 硬件部署与合作伙伴 - 计划在2025年底前部署100万块GPU,当前已使用17-18万块完成训练 [37][39] - 积极与AMD谈判,目标实现NVIDIA与AMD市场份额50/50分配 [37] - 微软2025年计划采购40万台AMD MI350/MI355X,采购量接近NVIDIA [37] 研发挑战与竞争态势 - Orion项目(原GPT-5前身)因缩放定律瓶颈失败,降级为GPT-4.5发布 [40] - 面临Anthropic在编程、幻觉抑制、安全等方面的竞争压力 [48] - 需通过GPT-5赢回编程领域优势,证明技术领导力 [50] 微软合作与AGI定义 - 微软通过合作弥补自身模型研发短板,优化Copilot和Bing搜索 [32][35] - 协议未明确定义AGI,侧重短期技术互补而非长期依赖 [32][35] - 约定实现AGI后微软将失去部分先进技术使用权 [32]
扎克伯格15亿美元挖不动的男人
投中网· 2025-08-05 06:37
核心观点 - OpenAI前CTO米拉·穆拉蒂联合创办的Thinking Machines Lab核心成员安德鲁·塔洛克拒绝Meta高达15亿美元(约108.2亿元人民币)的薪酬方案 凸显AI顶尖人才争夺战中 企业文化与技术理想的重要性可能超过经济回报 [7][13][21][28] 人才流动与挖角事件 - Meta试图收购Thinking Machines Lab失败后 接触约十几名员工但最终未成功挖走任何人 [7] - 塔洛克拒绝Meta分至少6年兑现的薪酬方案 包含顶级奖金与股票超额收益条款 [7][13] - Anthropic的7位联合创始人至今全员在任 Meta仅挖走2名曾在本公司任职的员工 [23] - OpenAI联合创始人伊利亚·苏茨克沃创立的Safe Superintelligence构建反挖角机制 禁止员工公开任职信息并从源头阻断猎头接触 [25][26] 关键人物背景 - 安德鲁·塔洛克拥有悉尼大学数学一等荣誉学位、剑桥大学数理统计学硕士学位 曾任职Meta的FAIR团队近10年 专攻PyTorch机器学习系统 后加入OpenAI负责GPT-4o和GPT-4预训练 [12] - 米拉·穆拉蒂以高情商与谦逊作风著称 在OpenAI期间主导首款产品发布并掌管技术体系 其个人魅力形成强大凝聚力 [16] - 穆拉蒂创立新公司时超过20名OpenAI前同事追随加入 包括ChatGPT核心构建者约翰·舒尔曼 [18] 企业文化与技术方向 - Thinking Machines采用无等级汇报体系 扁平化管理模式向贝尔实验室致敬 彰显学术共同体协作文化 [18] - 公司研发方向高度机密 公开宣称要打造更易理解、可定制且通用的AI系统 具体开发符合人类自然交互方式的多模态AI 产品将在未来数月亮相 [18] - OpenAI研究人员拒绝Meta挖角的三重考量包括坚信OpenAI最接近实现AGI、偏好小公司工作环境以及不愿研究成果服务于广告驱动产品体系 [22] 行业人才竞争态势 - AI人才争夺战白热化 资金最雄厚企业的砸钱攻势开始不奏效 [21] - 初创企业的文化凝聚力、发展理念及领导者个人魅力成为吸引和留存人才的关键因素 [28] - 部分AI研究者像足球运动员转会般追逐更高薪酬 但更多人展现出对精神领袖的坚定追随 [22]
OpenAI引信任危机:AI教父与诺奖得主等联名,要求回应八大问题
36氪· 2025-08-05 05:30
公司重组与透明度争议 - 多家非政府组织联盟要求OpenAI提高重组透明度,担忧公司可能弱化非营利使命并优先追逐利润 [1] - 公开信签署者包括四位诺贝尔奖得主及其他知名人士,如AI领域专家、学者和前OpenAI员工 [1][2][3] - 指控OpenAI拟转型为公共利益公司,可能削弱非营利监督和利润上限,将价值从公众转移至私人投资者 [3] OpenAI的混合结构与保障措施 - 2019年OpenAI创建营利性子公司,形成混合结构,设有非营利监督、利润上限和独立董事会等保障措施 [4] - 公司被指未履行透明义务,包括变更投资者回报上限(从2025年起每年增加20%)、压制内部声音和违背安全承诺 [4] - 近期重组计划试图将法律实体转为常规营利性公司,可能削弱公众利益优先的法律义务 [4] 公开信提出的关键问题 - 联盟要求OpenAI澄清是否会继续优先慈善使命、维持非营利控制,并公开运营协议及超额利润估算 [5][7] - 具体问题包括非营利组织控制权、利润上限、AGI治理主体及用途、宪章原则遵守情况等 [7] - 呼吁OpenAI披露重组细节,包括运营协议、超额利润估算和投资者激励措施 [7][8] 社会影响与公众问责 - OpenAI的治理决策和透明度问题引发公众信任危机,其先例可能影响全球AI发展 [6] - 公司被要求证明对透明度和安全的承诺,并回应重组如何影响其对公众的法律义务 [6][9] - 截至目前,OpenAI尚未公开回应相关指控和要求 [9]