Workflow
GPT-5 Pro独立做数学研究,读论文后给出更精确边界,OpenAI总裁:这是生命迹象
36氪·2025-08-21 11:35

AI数学能力突破 - OpenAI的GPT-5 Pro模型在阅读凸优化论文后,独立推导出比原文更精确的数学边界,将步长阈值从1/L提升至1.5/L [1][21] - 尽管人类研究者后续将边界进一步优化至1.75/L,但GPT-5 Pro的证明思路与人类版本完全不同,表明其具备自主探索能力 [4][34] - 该成果引发广泛关注,相关推文在半天内获得超过230万次阅读 [1] 凸优化问题研究 - 研究聚焦于梯度下降算法中优化曲线的凸性问题,优化曲线指函数值随迭代次数的变化曲线,凸性意味着优化速率单调递减 [6] - 论文结论指出:步长η ∈ (0, 1/L]时优化曲线保证凸性;η ∈ (1.75/L, 2/L)时可能非凸;η ∈ (0, 2/L]时梯度范数恒单调递减 [9] - 对于凸且二阶可导函数,梯度流的优化曲线恒为凸;对于凸L-光滑函数(无需二阶可导),梯度流优化曲线同样恒为凸 [9][10] 证明方法论 - 原论文通过构造辅助函数g_k(t)将离散迭代转化为连续积分,利用凸函数性质证明辅助函数单调性,进而推导优化曲线凸性 [10][12][13] - 非凸性证明通过构造反例实现:选择初始点x_0=-1.8,计算前三步迭代函数值下降量,验证步长在(1.75/L, 2/L)时违反凸性要求 [15][19][20] - GPT-5 Pro采用Bregman散度不等式和共强制性不等式进行更精细的代数操作,通过17.5分钟完成证明,人类验证耗时25分钟 [21][22][24][28][29] 技术细节 - 核心证明涉及函数值下降量差异的积分表达: (f(x2)f(x1))(f(x1)f(x0))=01(g1(t)g0(t))dt0(f(x_2)-f(x_1))-(f(x_1)-f(x_0))=\int_0^1(g_1(t)-g_0(t))dt \geq 0 [13] - 人类更新版证明通过加权组合三个点的Bregman不等式,最终推导出: f(x2)f(x1)(f(x1)f(x0))(78Lη2)f(x1)f(x0)2f(x_2)-f(x_1)-(f(x_1)-f(x_0)) \geq \left(\frac{7}{8L}-\frac{\eta}{2}\right)\|\nabla f(x_1)-\nabla f(x_0)\|^2 [33] - 梯度下降更新规则为: x1=x0ηf(x0),x2=x1ηf(x1)x_1 = x_0 - \eta \nabla f(x_0), \quad x_2 = x_1 - \eta \nabla f(x_1) [19][33]