Workflow
LaMDA
icon
搜索文档
【有本好书送给你】人类在被大语言模型“反向图灵测试”
重阳投资· 2025-09-24 07:32
重阳说 查理·芒格先生有一句广为流传的话:"我这一生当中,未曾见过不读书就智慧满满的人。没有。一个都没 有。沃伦(巴菲特)的阅读量之大可能会让你感到吃惊。我和他一样。我的孩子们打趣我说,我就是一 本长着两条腿的书。" 熟悉重阳的朋友们一定知道,阅读,一直是我们非常推崇的成长路径。 现在,我们希望和你一起,把阅读这件事坚持下去。 每一期专栏,我们依旧聊书,可能是书评、书单或者书摘。 每一期会有一个交流主题,希望你通过留言与我们互动。 我们精选优质好书,根据留言质量不定量送出。 世界莽莽,时间荒荒,阅读生出思考的力量,愿你感受到自己的思想有厚度且有方向,四通八达,尽情 徜徉。 提示:本公众号所发布的内容仅供参考,不构成任何投资建议和销售要约。如您对重阳产品感兴趣,欢 迎 扫码 咨询。 【好书】第303期:《大语言模型》 2025年7月 互动话题: 结合本书, 请 谈谈你对大语言模型的认识 。 留言时间:2024年9月24 日 - 2025年 10月8日 (鼓励原创,只要你的内容足够优秀,期期选中也有可能哦) 筛选及书籍(单本)寄送:2025年10月9日后 (选中会收到提交寄送地址的私聊,逾期未提交/信息不全视为放 ...
谷歌Gemini IMO和ICPC夺金功臣之一被xAI挖走,马斯克直呼:起飞
机器之心· 2025-09-21 05:26
行业人才流动趋势 - 特斯拉Optimus AI团队负责人Ashish Kumar被Meta挖走 [2] - 谷歌DeepMind资深研究科学家Dustin Tran被xAI挖走 [2][5] - 马斯克在社交媒体公开祝贺新成员加入并用火箭符号表示"起飞啦" [3] 核心人才背景与贡献 - Dustin Tran在谷歌DeepMind工作近9年 离职前担任资深首席研究员 [5] - 是谷歌Gemini-0801共同创造者 该模型是谷歌首个在LMSYS登顶的模型 [5] - 作为Gemini 2.5系列模型评测专家 在WebDev Arena和HLE等榜单取得第一名 [5] - 参与Gemini 1/1.5/2/2.5核心开发 涵盖强化学习、评测与数据等基础环节 [5] - 主导Gemini后训练评测 在100天内完成追赶并成功发布 带领团队登顶LMArena并保持一年多 [7] - 参与Gemini推理突破性创新 在IMO与ICPC中夺得金牌 [7] 技术发展历程 - 从LaMDA模型进化到通过RLHF生成长篇有内容回答的聊天机器人 [9] - 通过长链思维训练和全新环境推动推理与深度思考能力 [9] - 初期外界舆论普遍不看好 认为谷歌会因搜索历史包袱和组织政治而失败 [9] - 最终Gemini在用户偏好上稳定占据第一并引领科学突破 [10] 行业竞争格局 - OpenAI曾通过抢先宣布消息方式抢占AI舆论周期 [10] - 目前认为OpenAI的想法储备已经见底 [10] - xAI认为算力、数据及约100位聪明勤奋人员足以训练前沿大语言模型 [12] - xAI人均芯片拥有量超过谷歌 即将投入10万块GB200与30万块芯片 [12] - Grok 4在强化学习和后训练规模化方面做出最大押注 [12] 技术性能表现 - Grok 4 Fast在LMArena排名第8 而Gemini 2.5 Flash仅排第18 [12] - 在AIME等核心推理评测中表现与Grok 4相当 但成本降低15倍 [12] - 根据评测数据 Grok-4-fast得分为1421分 Grok-4-0709得分为1420分 [13] - 模型排名显示OpenAI的gpt-4.5-preview以1441分位居榜首 [13]
70名员工,估值70亿
虎嗅APP· 2025-09-21 04:39
投中网 . 投中网是领先的创新经济信息服务平台,拥有立体化传播矩阵,为创新经济人群提供深入、独到的智识 和洞见,在私募股权投资行业和创新商业领域拥有权威影响力。官网:www.chinaventure.com.cn 以下文章来源于投中网 ,作者黎曼 本文来自微信公众号: 投中网 (ID:China-Venture) ,作者:黎曼,题图来自:AI生成 巨头对顶尖AI人才的极度渴求,促使AI圈内频频发生重金挖人的戏码。 就在过去没多久的7月,硅谷又发生一起AI人才价格创新高的案例。Meta以超过2亿美元将AI奇才庞 若鸣从苹果挖走。这一数字刷新了高管转会的新纪录。有人算过,这个价格远超足球巨星C罗巅峰时 期1.2亿欧元年薪的数字,甚至是苹果CEO库克2024年7460万美元年薪的近乎3倍。 除了"买"下奇才,科技巨头还掀起了巨额"收购AI初创公司创始人"热潮。 2024年3月,估值300亿元的Inflection AI的创始团队加入微软。 2024年6月,亚马逊挖走Adept的核心人才。 2024年9月,亚马逊从机器人AI系统初创公司Covariant挖走了三名联合创始人及约25%的员工。 2024年8月,谷歌开出 ...
你聪明,它就聪明——大语言模型的“厄里斯魔镜”假说
36氪· 2025-09-12 01:54
1983年,特伦斯·谢诺夫斯基(Terrence J. Sejnowski)在约翰·霍普金斯大学任教。这一年,他每周末都要在巴尔的摩和匹兹堡之间开车往返——为 了和当时在卡内基梅隆大学任教的杰弗里·辛顿(Geoffrey Hinton)讨论一项合作研究的进展。 20世纪80年代,神经网络研究碰上了"硬骨头",多层神经网络的学习算法成了这一领域寻求突破的关键瓶颈。传统算法难以解决多层神经网络的训 练问题,使神经网络发展受限——特伦斯和辛顿敏锐地意识到这一问题,决定寻找一种有效的学习算法,能够让多层神经网络像人类大脑一样,从 数据中自动学习规律和模式,实现更强大的智能。 特伦斯和辛顿决定,将物理学中的玻尔兹曼分布和统计物理概念引入神经网络研究。这项合作历时三年,最终在1986年获得了突破成果。某天,特 伦斯接到了辛顿打来的电话,宣布他发现了"大脑的工作原理"——这背后的洞见最终促成了一种用于训练玻尔兹曼机权重的学习算法,打破了神经 网络研究一直以来的僵局,并很快催生了效率更高的反向传播算法。 20世纪80年代后期,玻尔兹曼机、反向传播算法、卷积神经网络雏形等成果,逐渐累起现代神经网络技术的基座,并随后在计算机视觉 ...
Meta raids Google DeepMind and Scale AI for its all-star superintelligence team
Business Insider· 2025-08-26 09:00
人才招聘动态 - Meta从谷歌DeepMind部门招募至少10名研究人员加入其超级智能团队 这些研究人员曾参与谷歌最强大AI模型开发 其中一人帮助谷歌在国际数学奥林匹克竞赛中获得金牌[1][10] - Meta从Scale AI的安全与评估团队招募至少6名研究人员 该公司在6月以140亿美元收购Scale AI近半数股份 并任命其CEO Alexandr Wang领导超级智能项目[2][3] - 招聘活动因高额报价和从OpenAI挖角而受到关注 显示科技公司在AI人才竞争中的激烈态势[3] 关键研究人员背景 - 资深研究员Yuanzhong Xu加入Meta 曾担任谷歌DeepMind高级工程师 对LaMDA对话模型和PaLM 2大语言模型开发有重要贡献 这些技术是Gemini生成式AI模型的基础[8][9] - Tong He被Meta聘用 其工作帮助谷歌在7月国际数学奥林匹克竞赛达到金牌水平绩效 Meta同时招募了另外三名参与该项目的DeepMind研究人员[10] - 其他DeepMind研究人员包括Mingyang Zhang(专注于大语言模型信息检索)和Xinyun Chen(专长自主代码生成与逻辑推理AI系统)于7月加入Meta[11][12] 安全与评估能力建设 - 从Scale AI的SEAL团队招募Ziwen Han和Nathaniel Li 两人曾共同开发名为"人类最终考试"的AI模型测试 这是人类能为AI设计的最难测试[13][14] - 其他Scale AI研究人员包括Alexander Fabbri、Felix Binder、Chen Xing和Lifeng Jin 多数在MSL从事安全与评估相关工作[14] - Scale AI前SEAL团队领导人Summer Yue在Meta公布超级智能团队后加入 现领导MSL的对齐小组 Julian Michael在Yue之后接任SEAL领导职务 也同期加入Meta[15] 行业竞争格局 - 谷歌CEO Sundar Pichai曾淡化硅谷人才争夺战影响 表示员工保留率保持"健康"状态[13] - DeepMind研究人员在Meta超级智能实验室(MSL)的强势存在 表明谷歌仍然是AI研究的重要力量[3] - Meta同时投资并招聘来自Scale研究部门的人员 该部门在改进聊天机器人和防止有害内容生成等关键领域具有专业知识[3]
人类在被大语言模型“反向图灵测试”
腾讯研究院· 2025-08-07 09:15
人工智能发展历程 - 深度学习算法在20世纪80年代刚被发明时,计算机性能仅为今日百万分之一,无法预知其未来能力[2] - 21世纪10年代深度学习在图像识别、语音识别和语言翻译等经典难题上取得突破性进展[2] - 1992年TD-Gammon达到双陆棋顶尖水平,2017年AlphaGo击败围棋世界冠军,展示AI在人类擅长领域的超越[2] 大语言模型特性 - ChatGPT自2022年11月推出后展现出超强文本生成能力,引发对就业和未来发展的担忧[2] - 大语言模型在处理海量文本数据方面已超越人类能力,但学界对其是否真正"理解"内容存在争议[4] - 模型展现出反向图灵测试特性,能根据对话者提示质量动态调整智能表现[5] - 大语言模型表现出超预期的社交智能和跨领域能力,如编程等[6] 智能本质探讨 - 传统"中文屋"思想实验被改编为"匈牙利语屋"来质疑大语言模型的理解能力[8][10] - 语言学家认为大语言模型在语法生成能力上比多数人类更出色[10] - LaMDA模型通过心智理论测试,但学界对其是否具备自我意识仍存疑[11] - 人类智能标准可能需要重写,现有认知框架难以适应大语言模型的发展[7][12] 语言与思维关系 - 存在语言决定论和思维优先论两种对立观点,大多数学者认为二者是复杂互动关系[20] - 思维具有多样性,视觉思维、空间思维等可不依赖语言进行[20] - 乔姆斯基提出人类思维的三个层次(描述、预测、因果解释),但实验显示ChatGPT已能通过相关测试[21][22] 技术发展前景 - 大语言模型发展速度远超生物进化,技术基础确立后性能持续提升[14] - 研究大语言模型可能帮助揭示人类智能本质,类似17世纪物理学概念数学化的变革[13][15] - 当前关于"智能"的争论类似百年前"生命本质"讨论,预计机器学习将催生新概念框架[22][23]
小扎火速挖走谷歌IMO金牌模型华人功臣!以后还是别公布团队名单了吧
量子位· 2025-07-23 00:24
核心观点 - 谷歌DeepMind团队三位核心成员杜宇、Tianhe Yu和王薇月被Meta挖走,三人均为Gemini模型后训练的关键人物[1][2][3] - 微软同期从谷歌DeepMind挖走20多名人才,包括前工程主管Amar Subramanya[19][21] - 扎克伯格并非AI人才争夺战的唯一主导者,微软的挖角行动更早且规模更大[18][21][22] 人才流动 - 杜宇:华东理工本科、浙大博士,曾负责谷歌LaMDA和Bard后训练,是Gemini 1-2.5系列核心贡献者[8][9] - Tianhe Yu:斯坦福计算机博士,主导Gemini 2.5 Pro深度思考模块开发[10][11] - 王薇月:上海交大本科、南加州博士,专注3D视觉,参与Gemini 2.0/2.5 Pro开发[13][14][15] 竞争格局 - Meta通过挖角华人专家强化AI团队,此前已多次针对谷歌人才[3][6] - 微软挖角由DeepMind联合创始人Mustafa Suleyman主导,具有内部人优势[21] - 谷歌连续流失关键人才,涉及IMO金牌项目团队和Gemini核心研发力量[5][19] 行业动态 - 谷歌DeepMind刚宣布IMO数学竞赛突破即遭遇团队拆分[1][5] - 微软6个月前启动系统性挖角,企业文化成为吸引人才因素[19][21] - AI顶尖人才争夺战呈现跨公司、高频率特征,头部企业直接竞争白热化[18][22]
微软AI CEO:曾在谷歌主导开发类ChatGPT,因公司顾虑错失先机
搜狐财经· 2025-07-17 12:26
谷歌DeepMind时期的大语言模型开发 - 微软AI部门CEO苏莱曼在谷歌DeepMind任职期间(2010-2022)主导开发了大语言模型LaMDA,但项目最终未能发布[3] - LaMDA被描述为"ChatGPT推出之前的ChatGPT",是第一个能真正进行对话的大语言模型,在谷歌内部获得广泛试用和认可[3] - 谷歌内部对LaMDA存在严重分歧:约50%员工担忧其安全性、虚假内容生成风险以及对现有搜索服务的潜在破坏[3] - 另一部分谷歌员工则认为该产品潜力巨大,可能代表搜索引擎的未来发展方向[3] Inflection AI的创立与发展 - 苏莱曼因LaMDA项目受阻离开谷歌,筹集15亿美元(约107.72亿元人民币)创立Inflection AI[5] - 公司建立了包含22,000块H100 GPU的超算集群,开发出"Pi(Personal Intelligence)"AI系统[5] - Inflection AI成立于2022年1月1日,比OpenAI发布ChatGPT早7个月,但产品Pi直到2023年1月才发布[5] 市场竞争与时机因素 - OpenAI在2022年11月推出ChatGPT,抢占了市场先机并获得爆发式增长[5] - 苏莱曼认为时机至关重要,若Inflection AI能更早发布Pi,可能成为行业讨论焦点[5]
如何看待“人才交流型并购”
经济观察网· 2025-06-06 17:40
美国司法部对谷歌与Character.AI技术交易的调查 - 美国司法部正在调查谷歌与Character.AI的技术交易是否违反反垄断法 [1] - 近年来DOJ持续对谷歌等科技巨头展开反垄断调查 包括搜索引擎和搜索广告市场的垄断行为 [1] - DOJ近期在对谷歌的反垄断诉讼中取得里程碑式胜利 谷歌面临被拆分风险 [1] Character.AI公司概况 - 公司成立于2021年11月 由前谷歌AI团队骨干创立 带有浓厚谷歌基因 [2] - 专注个性化AI对话体验 2022年9月推出网页版产品 允许用户创建个性化AI角色 [3] - ChatGPT发布后 Character.AI网页访问量从2022年12月的1800万激增至2023年3月的5亿 增长约27倍 [3] - 2023年5月推出App 首周下载量超170万 2023年底月活突破2000万 市场份额达15.8% [4] - 用户日均使用时长2小时 显著高于ChatGPT的15-20分钟 [4] - 2024年6月推出语音通话和AvatarFX视频生成功能 进一步增强用户体验 [4] 谷歌与Character.AI的交易细节 - 2024年8月谷歌向Character.AI注资27亿美元 换取其大型语言模型技术的非独家许可 [5] - 交易包含"人才流动"条款 创始人及部分研究团队重新加入谷歌DeepMind [5] - 交易后Character.AI由原总法律顾问出任临时CEO 公司独立运营但实际控制权转移 [6] - 交易金额超过Character.AI当时25亿美元的估值 实质为变相并购 [7] 交易后Character.AI的困境 - 核心团队流失导致技术和管理能力迅速衰退 用户反馈对话质量明显下降 [6] - Reddit调查显示42%用户对Character.AI"非常不满意" [6] - 2024年10月发生14岁用户因与AI角色情感纠缠自杀事件 引发法律诉讼和社会关注 [6] - 公司发起新一轮融资并招聘高管试图自救 但难以重现往日辉煌 [6] 科技巨头的创新并购模式演变 - 早期通过小规模并购规避反垄断审查 如Facebook收购Instagram [8] - 监管收紧后转向更隐秘方式 如微软与OpenAI的投资合作模式 [9] - 最新发展为"人才交流并购"(Acquihire) 如微软对Inflection和谷歌对Character.AI的操作 [10] - 这些模式实质是让并购在形式上合法化 规避传统并购审查 [13] 大公司与初创企业的创新优劣势对比 - 大公司受制于"大公司病"、财务公开压力和创新瑕疵容忍度低等问题 [11][12] - 初创企业组织灵活、创新动力足、研发效率高、更能承受负面新闻 [13] - 巨头通过投资初创企业可获得更高创新效率和财务回报 同时规避自身创新瓶颈 [13] 人才交流并购的影响分析 积极影响 - 为初创公司提供资金支持 避免因资金链断裂倒闭 [15] - 促进资源整合 实现优秀人才与雄厚资本结合 [16] - 为创业者提供退出渠道 不同于传统的上市或被收购方式 [17] 消极影响 - 巩固巨头市场优势 削弱潜在竞争对手 [18] - 打乱初创企业研发节奏 抑制创新 [18] - 严重打击初创企业士气 造成经营混乱 [19] 监管建议 - 重新定义"控制权" 将核心团队和技术许可转移纳入审查范围 [20] - 降低并购审查门槛 特别针对人才交流型并购设置更低标准 [21] - 引入"竞争潜力"评估 关注初创公司未来市场影响力 [21] - 建立跨交易累计影响评估机制 审查巨头多次人才吸纳的整体效应 [22]
一个「always」站在大模型技术C位的传奇男子
量子位· 2025-05-10 02:39
核心观点 - Noam Shazeer(沙哥)是Transformer八位作者中被公认贡献最大的一位,其工作奠定了当今大语言模型的基础[9][10] - 沙哥的技术预判能力极强,多次提前数年看到技术趋势并推动关键突破,如Transformer、MoE、Adafactor等[17][24][40] - 沙哥的职业生涯与谷歌深度绑定,期间主导了多项核心技术研发,如谷歌广告系统、垃圾邮件检测系统等[55][56][58] - 沙哥曾短暂创业Character.AI并获得10亿美元估值,后以27亿美元被谷歌收购并回归领导Gemini项目[67][69] 技术贡献 Transformer架构 - 沙哥在2017年加入Transformer项目后重新编写了整个代码,将系统提升到新水平,论文《Attention Is All You Need》引用量超17万次[18][21][23] - 该论文打破了学术界作者排序规则,八位作者随机排序并标注平等贡献,但沙哥的加入发挥了举足轻重的作用[23] MoE技术 - 沙哥早期与Geoffrey Hinton等合作的研究为MoE(专家混合)新范式埋下伏笔,提出1370亿参数的MoE架构[26][27] - 2020年参与GShard研究,将MoE模型扩展到6000亿参数[30][31] - 2021年Switch Transformers将参数规模推至1.6万亿,速度比T5-XXL快4倍[33][34] - 2022年ST-MoE-32B稀疏模型参数达2690亿,计算成本仅相当于320亿参数密集型模型[37] 其他关键技术 - 提出Adafactor优化器,早期谷歌大模型如PaLM都依赖该技术[43] - 发明Multi Query Attention(MQA)解决Transformer推理效率问题[44] - 提出Gated Linear Layer(GLU)改进Transformer架构的表达能力[46][47] 职业轨迹 谷歌生涯 - 2000年加入谷歌成为第200号员工,开发了谷歌广告系统PHIL和首个垃圾邮件检测机器学习系统[55][56] - 2012年加入Google Brain后转向深度学习,推动神经机器翻译落地[58] - 2023年回归谷歌担任Gemini联合技术主管[59] 创业经历 - 2021年因谷歌未发布LaMDA项目与同事创立Character.AI[62][63] - 公司以"AI角色"概念获得2000万用户,2023年以10亿美元估值融资1.5亿美元[67] - 2023年8月被谷歌以27亿美元收购,沙哥回归领导Gemini[69] 行业影响 - 当前主流模型架构(如GPT-4、DeepSeek、Qwen3等)均建立在沙哥奠定的技术基础上[12][41] - 2020年内部信预测语言模型将主导全球算力,这一判断已被验证[72][73] - 曾担任OpenAI早期顾问并推荐Sam Altman担任CEO[70][71]