公司高层招聘与薪酬 - OpenAI以55.5万美元基础年薪加股权的薪酬方案,公开招募“准备工作负责人”一职,总薪酬包可能达到百万美元级别,该薪酬水平在硅谷属于高底薪稀缺高管岗位[1][4] - 公司首席执行官奥特曼为该岗位定调为“充满压力”、“要立刻下深水”,表明工作极具挑战性[4] 岗位职责与目标 - 该岗位被描述为“关键时刻的关键角色”,职责核心是为能力持续增强的AI模型设定安全防线,管控风险,而非提升模型智能[5][6] - 具体工作目标是建立一个“连贯、严谨且可操作、可扩展的安全流程”,将安全从能力评估、威胁建模到缓解措施形成可落地的链条[8][18] - 理想的工作成果是通过让所有系统变得更安全来实现,例如更安全地发布生物领域的AI能力,并提升对自我改进系统安全运行的信心[9] 公司面临的具体风险与挑战 - 模型能力提升带来“硬核”风险,例如在计算机安全方面进入新阶段,已开始能发现“高危漏洞”,这同时意味着攻击方也可能利用此能力[6][13][14] - 模型对心理健康的潜在影响已成为现实挑战,2025年出现“AI精神病”相关报道,OpenAI在10月表示正与心理健康专业人士合作改善相关互动[6][17] - 产品应用引发一系列社会挑战,包括ChatGPT在法律文件中产生幻觉引发投诉,以及Sora等工具在深度伪造、历史人物肖像生成等方面的问题,Sora曾在2025年10月因用户生成“不尊重”内容而暂停相关视频生成[17][18] 公司安全团队背景与变动 - 此次招聘背景是公司安全团队出现“空心化”焦虑,标志性事件是2024年5月“超级对齐”团队解散,其工作被并入其他研究[19][21] - 超级对齐团队前共同负责人Jan Leike离职时批评公司安全文化和流程已让位于产品,另一前员工Daniel Kokotajlo也因对公司能否负责任地部署AGI失去信心而辞职[23] - 2024年7月,AI安全负责人Aleksander Madry被调岗;2025年10月23日,长期政策研究人员、AGI readiness团队高级顾问Miles Brundage离开公司[24][25] - 一系列离职使得公司研究与AGI相关安全问题的团队人数从约30人减少了近一半[27]
Ilya闹翻,奥特曼400万年薪急招「末日主管」,上岗即「地狱模式」
36氪·2025-12-29 09:02