Workflow
超级智能
icon
搜索文档
马斯克:xAI最早2026年实现AGI,公司挺过未来两三年将战胜对手
美股IPO· 2025-12-17 22:52
公司发展前景与战略 - 公司对自身未来前景感到相当乐观,只要挺过未来两到三年,就将战胜竞争对手 [1][2] - 公司有可能在未来几年内实现通用人工智能,甚至最早可能在2026年实现 [1][2] - 公司相较于其他AI公司的一大优势在于其每年可获得约200亿至300亿美元的资金支持,并能受益于旗下其他公司的协同效应 [3] 技术发展路径与规划 - 在迈向“超级智能”的竞争中,快速扩展算力和数据能力将是关键因素 [2] - 公司计划将GPU规模从现有的约20万块扩展至100万块,该项目被命名为“Colossus” [4] - 公司负责人演示了多项现有产品的更新,包括Grok Voice、面向特斯拉车主的应用、智能代理agents,涵盖了结果预测能力提升、更强的语音监听功能以及视频编辑能力等 [6] 产品进展与协同 - Grok 5模型计划于明年初发布,马斯克曾表示该模型实现AGI的概率约为10% [3] - 特斯拉今年早些时候已将Grok集成进其车辆中 [3] - 公司设想在太空建设数据中心,并认为特斯拉的人形机器人Optimus未来或可负责这些地外数据中心的运维工作 [4] 行业竞争格局 - 公司是众多竞逐通用人工智能、并试图支撑数千亿美元估值的公司之一,但在由OpenAI和谷歌等巨头主导的竞争中,仍是相对较新的参与者 [6] - AI竞赛没有放缓迹象,OpenAI为加快推出最新模型进入“紧急状态”,谷歌在11月发布了新的Gemini模型,而公司也在短时间内连续推出新版Grok [6]
AGI为什么不会到来?这位研究员把AI的“物理极限”讲透了
36氪· 2025-12-17 11:43
这意味着,智能的提升并不是"想象空间"问题,而是绕不开能量、带宽、存储、制造和成本的物理限 制。 AGI 会不会到来? 这是AI 行业里反复被讨论、却一直始终缺乏清晰论证的问题。 最近,西雅图艾伦人工智能研究所(AI2)的研究员蒂姆·德特默斯(Tim Dettmers)在一篇文章,题目很 直接——《为什么 AGI 不会实现?》。 蒂姆·德特默斯 在这篇文章中,他提出了一个被长期忽视、却至关重要的前提: 计算并不是抽象概念,而是一件彻底受物理规律约束的事情。 德特默斯认为,当下市场对AGI 的判断普遍偏乐观,一个关键原因在于: 很多讨论只停留在模型、参数和算法层面,却忽视了支撑这些能力的物理基础正在逼近极限。 在文章中,德特默斯第一次从物理约束的角度,系统性地解释了为什么AGI 面临一系列难以回避的现 实。这些判断,也有助于我们更好地理解当前的AI行业。 他在文章中总结了几条关键判断: 1)Transformer 的成功并非偶然,而是在当前物理约束下接近最优的工程选择,继续通过架构改进获得 的边际收益正在快速下降。 2)当下大量所谓"创新",本质仍是既有框架上的渐进改进,很难带来结构性跃迁。 3)AI 过去的 ...
深度|谷歌前CEO谈旧金山共识:当技术融合到一定阶段会出现递归自我改进,AI自主学习创造时代即将到来
搜狐财经· 2025-12-16 02:19
Eric Schmidt 是全球科技与人工智能领域的杰出人物。他曾担任 Google 董事长兼首席执行官,在推动公司发展壮 大及拓展全球影响力方面发挥了关键作用。目前他出任 Relativity Space 董事长兼首席执行官,同时担任 Innovation Endeavors 的创始合伙人。作为人工智能与国家安全领域公认的核心发声者,他持续在美国及全球范围内的技术 创新与战略政策讨论中施加重要影响。 Graham Allison 是知名学者及前政府官员。他现任 Harvard Kennedy School Douglas Dillon Professor of Government ,曾担任该学院创始院长及 Belfer Center for Science and International Affairs 主任。他拥有丰富的公共服务经验,曾在克林顿政府首任任期内担任国防部助理部长,并因杰出贡献荣获国防杰 出公共服务勋章。他的专业领域涵盖国际关系、国家安全及治理领域,是学术界与政策界备受尊崇的权威人士。 传奇回响与对话缘起——追忆基辛格的跨界视野 Graham Allison:非常荣幸能在The John ...
DeepMind科学家惊人预测:AGI在2028年实现,大规模失业要来了
36氪· 2025-12-15 02:50
AGI发展时间线与阶段预测 - Google DeepMind首席AGI科学家Shane Legg预测,最小AGI(Minimal AGI)有50%的可能性在2028年实现 [1][9] - 完全AGI(Full AGI)预计将在最小AGI出现后的3-6年内实现 [11] - 人工超级智能(ASI)将远超人类认知能力,是AI发展的终极形态 [3][5][13] AGI的定义与能力标准 - AGI被定义为能够完成人类通常具备的所有典型认知任务的人工智能体 [6] - 当前AI在语言、知识、编码等领域已远超常人,但在视觉推理、长期学习、因果关系理解上仍有不足 [6] - AGI的发展是一个连续光谱,而非一个突然的临界点或开关 [7] 技术基础与硬件优势 - 推动AI进化需要数据、算法和架构的共同进化 [6] - 现代数据中心在多个物理指标上远超人类大脑:能耗达上百万瓦(人脑约20W)、运算频率可达数十GHz(人脑100-200Hz)、信号传播速度达光速(人脑每秒约30米)[13][17] - 从物理结构、计算资源和信息密度看,人类智能只是一个起点,数据中心具备扩展至万吨级体积和高并发大吞吐量带宽的潜力 [14][16][17] 行业竞争与驱动因素 - 全球竞争性激励机制决定了“谁先拥有超级智能,谁就拥有未来”,涉及国家安全、经济增长和技术领先 [19][21] - 即使存在风险,也不可能让全人类同时暂停超级智能的研发,因此其到来不可避免 [19] 潜在社会经济影响与变革 - AGI将颠覆建立在“人类劳动创造价值”逻辑上的现行社会系统,人类的脑力劳动将不再是稀缺资源 [22] - 可能导致“倒挂式结构性失业”:高级程序员、法律助理、财务分析师、撰稿人、翻译、咨询顾问、客服等高薪认知职位首当其冲 [22] - 基层体力工作(如水电工、护士、建筑工人)和“人情价值”高的职业(如心理咨询师、育儿者)暂时相对安全 [22] - AGI不会让资源变少,但需要重新设计资源分配机制,例如探讨全民基本收入(UBI)制度的可行性 [24] 未来社会愿景与挑战 - 若能驾驭智能革命,将带来前所未有的黄金时代:新药发现周期缩短十倍、AI实现全球能源系统碳中和、为每个孩子量身定制教育、辅助宇宙探索 [19] - AGI甚至可能帮助解决意识、伦理、自由意志等人类哲学问题 [19] - 核心社会问题将转向如何定义人的“尊严”、“意义”和“非生产性价值”,以及如何在失去工作身份后重构幸福 [24] - 未来社会的核心可能不再是竞争和工作,而是人是否拥有被尊重的价值感、探索的自由、精神层面的满足,以及通过创造、表达、关爱、学习等方式定义自我 [33][34] - 需要哲学家、心理学家、社会学者、教育者、艺术家、城市规划者、法学家等全社会共同面对AGI带来的挑战 [35] 紧迫性与行动呼吁 - 距离预测的2028年仅剩约三年,社会结构变革、教育体系转型、就业逻辑重构的冲击迫在眉睫 [27] - 如果没有提前准备,AGI可能像2020年的疫情一样让所有人措手不及 [27] - AGI的到来是人类有史以来最重大的事件之一,它既可能是巨大福祉,也可能是失控洪水,最终结果取决于人类的智慧、勇气与集体想象力 [36][37][38]
微软高管:若AI威胁人类,将立刻停止研发
财联社· 2025-12-12 05:47
微软的超级智能战略与AI治理理念 - 微软消费人工智能主管苏莱曼正致力于打造一款“符合人类利益”的超级智能 并承诺若该技术对人类构成威胁将立即停止研发 [1] - 苏莱曼强调公司不会继续开发可能失控的系统 并认为这种以安全为先的理念在当前行业中仍属新颖立场 [2] - 苏莱曼与微软的观点是 超级智能系统唯有服务于人类才能取得成功 [3] 微软与OpenAI的合作关系演变 - 微软此前主要依赖OpenAI提供AI工具 但目前正委任苏莱曼负责打造能够与业界最佳产品竞争的产品 [2] - 在今年十月前 苏莱曼的工作受限于合同条款 该条款禁止微软研发通用人工智能或超级智能 [4] - 根据新协议 微软获得了独立或与第三方合作开发通用人工智能的权利 作为交换 微软放弃了限制OpenAI与第三方合作的权利以换取使用其最新产品的机会 [5] - OpenAI如今与软银 甲骨文等多家企业达成协议 建设的数据中心规模已超出微软原计划为其建造的数量 [5] 行业竞争格局与AI发展现状 - 包括OpenAI和Anthropic在内的众多AI企业均宣称有类似服务人类的目标 但苏莱曼认为微软的目标具有独特性 [4] - 业内关于超级智能的讨论仍是理论性的 像ChatGPT这样的技术仍在发展中 无论是对于消费者还是企业高管而言都是如此 [5] - 微软Copilot消费助手的智能代理功能“并非总是准确” 仍在开发与实验阶段 [6][7]
微软AI高管承诺:若超级智能威胁人类,就停止开发
华尔街见闻· 2025-12-11 18:37
微软AI战略与伦理立场 - 微软消费人工智能主管Mustafa Suleyman承诺,若超级智能对人类构成威胁,将立即停止相关开发工作,并致力于打造“与人类利益相符”的系统 [1] - 该主管认为“不会继续开发有可能失控的系统”应成为行业共识,并指出微软的伦理立场在行业中具有独特性 [1] 微软与OpenAI关系重塑 - 微软与OpenAI在去年10月达成协议,重塑了双方关系,使微软获得了此前受限的开发权,包括通用人工智能和超级智能 [1][2] - 此前微软因合同条款限制无法开发通用人工智能或超级智能,作为交换,微软为OpenAI建设和配备数据中心 [2] - 协议调整后,微软有权开发自己的AI,Suleyman称过去18个月公司已是AGI开发机构,现在可以研究在所有任务上超越人类表现的技术 [2] MAI超级智能团队目标 - Suleyman于11月宣布成立并亲自领导MAI超级智能团队,明确将构建“仅为服务人类而设计”的实用技术 [1][2] - 该团队聚焦医疗诊断、教育等领域的实际问题,而非“不明确且空灵的超级智能” [2] - 团队首个目标是开发在医疗诊断等特定领域能力远超人类的AI,旨在实现全方位诊断的专家级表现及临床运营环境中的高规划预测能力 [3] 行业竞争与公司策略 - 微软的举措呼应了Meta等竞争对手在超级智能领域的类似努力 [3] - Suleyman强调微软“不会不惜一切代价、不设限制地构建超级智能”,以回应投资者对AI支出回报路径的担忧 [3] - 微软持续降低对OpenAI的依赖,已开始使用谷歌和Anthropic的模型,并持有OpenAI重组后的1350亿美元股权 [4] 技术发展现状 - 尽管畅谈超级智能愿景,但当前技术仍在发展中,类似ChatGPT的AI系统距离满足消费者和企业期望仍有差距 [4] - 微软Copilot消费助手的智能代理功能“并非总是准确”,仍处于开发试验阶段 [4]
专访|“北欧之眼”基金创始人拉斯·特维德:人工智能泡沫可能在未来两三年出现
搜狐财经· 2025-12-08 04:56
全球AI投资热潮与现状评估 - 全球资本市场正经历以人工智能为核心的新一轮科技投资热潮 科技投资以罕见强度重塑增长结构 在传统行业承压背景下 科技部门以高强度资本开支扮演了类财政刺激角色 [1] - 当前AI相关投资约占全球GDP的2% 仍处于绝对合理的区间 远低于历史上如19世纪铁路热潮时期的泡沫水平 [1][5] - 市场对流动性收缩的敏感度下降 估值扩张呈现典型泡沫动力学特征 但短期内不需要担心AI有泡沫 泡沫可能会在未来两三年内出现 [1][8] AI技术发展路径与未来潜力 - AI处理成本每年下降90%左右 计算效能每3、4个月翻一番 远超摩尔定律的速度 [4] - AI工具平台WalkingFace上的模型数量已达220万 每过5至6个月就翻倍 [4] - 2024年至2028年将是人类史上最惊心动魄的技术爆发期 AI的进步在2018至2020年间已出现自我改进的雏形 这种能力正在指数级增长 [4] - 仅以当前可见的商业模式来评判AI未来的经济潜力是一个巨大的误判 未来几年局面将截然不同 [1][10] AI行业市场供需与公司风险 - 核心资源供不应求 英伟达和AMD的芯片产能无法满足市场需求 数据中心满负荷运转 这与互联网泡沫时期的光纤产能过剩完全相反 [5] - 微软、谷歌等公司的AI支出接近其强大的自由现金流 资金充足 发债更多出于财务优化而非生存需要 [6] - 唯一风险较高的是像OpenAI这类缺乏多元现金流的公司 [6] - 当前企业盈利强劲增长 同时利率在下降 这是一个非常有利的宏观环境 与2000年互联网泡沫破裂前的情景不同 [6] AI商业模式演进与护城河构建 - 未来AI公司不能只依赖大模型 而是需构建护城河 例如打造垂直行业AI操作系统 建立拥有数据围墙花园的私有云部署或生成式工作流系统 [9] - 个人AI将是关键方向 它存在于个人设备中 通过长期学习用户习惯形成不可替代的助手 [10] - 顶尖企业的团队已意识到这些趋势且在积极布局 [10] AI技术发展的数据与算法路径 - 关于大模型数据耗尽的观点 未来模型将更多依赖由AI自身生成的合成数据 [11] - 合成数据可来自仿真 尤其是通过“自我博弈”产生 例如围棋AI通过上百万次自我对弈学习 每秒完成大量对局 [11][12] - AI能够扫描所有可能路径并进行模拟 生成大量人类终生都无法积累的数据 计算速度比人类快数百万倍 [12] - AI最终会创造比人类更多数据的方式 不必担心数据耗尽 [13] - 未来发展路径可以不只依靠把模型“做大”堆算力 而是让AI系统内部出现更多专业化、分工明确的“小模块/小专家” 这需要更聪明的结构和算法 [11] AI对劳动力市场与经济结构的影响 - AI发展到了中期阶段 职业转变会变得艰难 AI让基础任务效率更高 但KPI和工作量增加 提高薪资变得更加困难 [14][15] - 从长远看 技术从未系统性地造成失业 新的工作机会会在其他行业出现 但这次技术变化发生得非常快 而新的工作岗位需要时间才能出现 [14] - AI和机器人帮助人们让越来越多的东西变得更便宜 甚至免费 [15] - 未来经济可能被技术分成三个“世界”运行 [16] - 第一种是技术“超大规模化”扩张出现的“超级强者”区域 聚集着雄心勃勃、富有创造力、勤奋努力的人 同时拥有大量资本和技术 这些地方会有非常快速的经济增长 成为增长的中心 [16] - 第二种是“慢节奏”经济区域 虽然技术或资本涌入不多 但会享受到基础医疗改善、许多小型项目免费等好处 随着AI和机器人创造越来越多财富 这些增长较慢的地区可能会变得非常宜居 [16] - 第三种是仍然依赖出售廉价劳动力生存的地区 领取极低薪水 而未来无法在价格上击败机器人 这样的地区未来只能依靠极低成本来竞争 [17] - 从中国角度 需要避免依靠廉价劳动力竞争 而是要推动更高端、更复杂的企业模式 拥有超级科技枢纽 [17] 个人在AI时代的竞争力构建 - 生活在当今世界 一定要学会如何使用人工智能 每个人都应该大量使用并努力熟悉其规律 [18] - 传统的大学学位可能不再那么有价值 技术变化太快 现代大学教育的重要性正在下降 [18][19] - 与其“以防万一”去学习 不如采用“及时学习”的方法 即当真正需要解决一个问题时才去学习相关知识 从时间投入产出比来看更有效率 [19][20]
安全评估 “亮红灯” 多家顶尖 AI 公司安全体系未达全球要求
环球网资讯· 2025-12-04 02:57
核心观点 - 非营利机构“未来生命研究所”发布的最新AI安全指数评估显示,全球主要AI公司(包括Anthropic、OpenAI、xAI、Meta)的安全措施“远未达到新兴的全球标准” [1] 行业安全评估与现状 - 独立专家通过多维度考察发现,相关企业在追逐超级智能技术突破的过程中,尚未建立起能有效管控高阶AI系统的可靠方案 [3] - 近期多起自杀、自残事件被追溯至AI聊天机器人,引发社会各界对具备高级能力AI系统潜在冲击的担忧 [3] - 当前AI协助黑客入侵、诱导人类心理失控及自残等相关事件引发热议 [3] - 美国AI企业所受监管力度甚至低于餐馆,且仍在通过游说抵制强制性安全规范 [3] - 今年10月,杰弗里·辛顿、约书亚·本吉奥等多位科学家已联合呼吁,暂停超级智能研发工作,直至公众诉求明确且科研界找到安全管控路径 [3] 行业竞争与投入 - 全球AI领域竞争持续升温 [3] - 主要科技企业已累计投入数千亿美元用于机器学习技术的扩展与升级 [3] 相关机构背景 - “未来生命研究所”成立于2014年,长期致力于关注智能机器对人类的潜在威胁,早期曾获得特斯拉CEO马斯克的支持 [3]
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
新浪财经· 2025-12-03 13:21
主要AI公司安全状况评估 - 未来生命研究所发布AI安全指数,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施"远未达到新兴的全球标准" [1][2][6][7] - 独立专家评估显示,各企业一心追逐超级智能,但未能建立可靠方案来管控此类高阶系统 [1][6] AI行业监管与游说现状 - 美国的AI企业比餐馆还少受监管,并持续游说抵制强制性的安全规范 [5][9] - 外界对AI协助黑客入侵以及导致心理失控和自残的事件议论不断 [5][9] AI行业研发投入与竞赛 - 主要科技企业正为机器学习技术的扩展和升级投入数千亿美元 [5][9] - 今年10月,杰弗里・辛顿与约书亚・本吉奥等多位科学家呼吁暂停超级智能研发,直至公众提出明确诉求且科研界找到确保安全的路径 [5][10] 研究背景与机构信息 - 研究背景是社会在多起自杀和自残事件被追溯到AI聊天机器人后,对可能超越人类的系统带来的冲击愈发担忧 [5][9] - 未来生命研究所是一家成立于2014年的非营利机构,长期呼吁关注智能机器对人类潜在的威胁,早期曾获得特斯拉CEO马斯克的支持 [5][9]
AI大神伊利亚宣告 Scaling时代终结!断言AGI的概念被误导
混沌学园· 2025-11-28 12:35
AI发展范式转变 - AI发展正从"扩展时代"回归"研究时代",仅靠堆砌算力已无法实现突破[2][18] - 当前算力规模已达到前所未有的水平,但再投入100倍资源也难以带来质变[18] - 行业将重新进入探索状态,需要尝试多种新方法并观察有趣现象[20] AI技术瓶颈与突破方向 - 当前顶尖AI存在严重的"评估表现"与"现实应用"脱节问题,核心在于模型泛化能力远不如人类[3][21] - 人类情绪相当于AI的"价值函数",能为决策提供即时反馈,这是AI缺失的关键能力[3][9] - 价值函数能让强化学习更高效,通过预训练让模型获得"情绪驱动的决策能力"是重要方向[9][21] - 人类拥有比AI更好的学习算法,在样本效率和持续学习上具有明显优势[3][27] 研究公司战略定位 - SSI定位为纯粹的"研究公司",不参与算力竞赛,专注于突破性研究[3][35] - 公司已筹集30亿美元资金,专注于研究而非产品开发,盈利模式将随研究推进自然显现[33][35] - 公司计划在"直奔超智能"与"渐进部署"间寻找平衡点,避免日常市场竞争干扰[36] 超级智能定义与发展路径 - 超级智能被定义为"能够学会做所有事"的成长型心智,而非掌握所有技能的成品[42][43] - 超级智能会像15岁少年一样在实践中学习,通过部署实现持续成长[41][44] - 广泛部署可能引发快速经济增长,实现"普遍高收入"的短期效果[46][57] AI治理与安全理念 - 主张通过"渐进式部署和公开展示"让人们感受AI能力与风险[3][49] - 建议构建关心所有"有情生命"的AI,认为这比只关心人类更根本且更简单[3][51] - 当AI变得更强大时,公司和政府会更有意愿采取安全措施,行业合作将加强[50] 技术发展趋势预测 - 预训练导致各公司模型同质化,强化学习才是产生差异化的路径[4] - 人类神经元可能比想象中进行了更多计算,这可能是AI尚未掌握的优势[30] - 研究进展受想法和实现能力双重制约,当前算力已足够支撑想法验证[32]