量子位

搜索文档
浙大打造全球最大类脑计算机,拥有20亿个神经元,接近猕猴大脑规模,能运行DeepSeek
量子位· 2025-08-04 07:00
全球最大规模类脑计算机 - 浙江大学发布全球规模最大的类脑计算机"Darwin Monkey(悟空)",采用第三代类脑芯片Darwin 3构建,拥有超过20亿个脉冲神经元与1000亿突触连接,首次在工程系统中逼近猕猴大脑的神经元规模 [1] - 系统功耗降低至2000瓦,是国际上首台突破20亿神经元的神经拟态类脑计算机 [1] - 已成功部署包括DeepSeek在内的智能应用,可模拟不同神经元规模的动物大脑(如秀丽线虫、斑马鱼、小鼠及猕猴) [1][19] 类脑计算技术背景 - 神经拟态类脑计算通过人工神经元和突触模拟大脑计算机制,旨在实现更高效的信息处理,人脑约含860亿神经元 [4] - 脉冲神经网络(SNN)使用离散脉冲传输数据,比传统人工神经网络更接近生物神经元功能 [8] Darwin3芯片技术突破 - 配备960颗自研Darwin3芯片,单芯片支持235万个脉冲神经元,采用24×24二维计算节点网格架构,支持4096神经元/节点 [6][8] - 采用事件驱动架构,每次突触操作能耗低至5.47皮焦耳,最大扇入/扇出能力分别提升1024倍和2048倍 [11][13] - 支持10条专用指令集,可高效表达多种脉冲神经元模型和学习规则,指令解码时间显著降低 [9][10] 系统集成创新 - 64颗芯片组成刀片式服务器,15台服务器构成完整"悟空"系统 [16] - 采用2.5D先进封装技术开发DarwinWafer晶上系统,64颗芯片集成于12英寸晶圆,互联速度更快、功耗更低 [18] - 配套开发分层资源管理架构的达尔文类脑操作系统,实现神经拟态任务高效并行执行 [20] 行业地位与应用前景 - 超越Intel 2024年发布的Hala Point系统(11.5亿神经元),成为当前最大神经拟态计算机 [22] - 可作为AI发展的新计算基础,为脑科学研究提供模拟工具,并支持超越人脑计算速度的类脑智能研究 [23][24] - 前代产品"Darwin Mouse"(2020年)已具备1.2亿神经元规模 [21]
奥特曼首晒GPT-5实测!被曝使用超级对齐团队“遗产”
量子位· 2025-08-04 03:07
GPT-5技术进展 - GPT-5在编程领域重写编码规则,结合文本能力与推理层,模型能更合理地选择思考时机[9][10] - 具备处理真实工程问题的能力,例如重构低质量代码,并引入超级对齐团队的"通用验证器"技术[11] - 采用"证明者-验证者游戏"训练方法,通过对抗训练提升模型输出的准确性和可读性[21][24][26] 超级对齐团队技术应用 - 通用验证器通过强化学习使GPT-5保持高准确率,同时输出更清晰的推理过程[19] - 训练中划分"靠谱证明者"和"狡猾证明者"角色,验证者通过交叉熵损失最小化判断误差[25][26] - 多轮迭代后,"靠谱证明者"正确率提升,"狡猾证明者"生成错误答案的能力增强[27][31] 行业竞争与研发动态 - GPT-5在编程领域对标Claude,试图通过技术创新取得优势[9] - 超级对齐团队解散后,其技术遗产被整合到GPT-5开发中,显示公司技术路线调整[14][18] - 研发面临挑战,包括训练数据不足、预训练收益下降及性能转化落差问题[37] 市场预期与争议 - 奥特曼通过官方渠道释放GPT-5相关信息,引发市场高度关注[1][8][28] - 部分观点认为GPT-5性能提升可能有限,且存在发布后性能下降的风险[37][38] - 技术细节泄露显示GPT-5可能采用可验证性约束机制,增强输出可靠性[32]
凭借一条私信,我如何入职OpenAI
量子位· 2025-08-04 03:07
求职策略 - 通过LinkedIn主动发送陌生私信可以成为进入顶级公司的有效途径,Sophie Rose仅用五周时间就通过这种方式获得OpenAI的offer [1][2][7] - 在私信中明确表达对职位的强烈兴趣,并展示灵活性(如愿意搬迁)能显著提升成功率 [14][16] - 有策略地展示专业能力(如定期分享行业见解)比直接请求对方时间更有效,领导更关注候选人对行业趋势的独到见解和职业思考逻辑 [27][28] 职业发展关键因素 - 主动建立联系的能力是实现职业突破或转型的核心竞争力,OpenAI许多员工都通过此方式开启职业生涯 [20][21] - 在社交平台持续输出专业内容(如生成式AI工具测评)能创造意外机会,提升个人品牌可见度 [27][29] - 职业转型时机选择很重要,当意识到当前公司发展停滞时需果断寻求新机会 [11][12] 沟通技巧 - 发送陌生私信时应避免直接请求对方时间,需清晰说明沟通目的和具体问题 [24][26] - 跟进沟通需及时(如提交申请后立即致谢),并强调与公司目标的契合度 [18] - 措辞得体的信息几乎可以触达任何目标对象,但需注重信息质量和专业性 [22][23]
告别复杂提示词!蚂蚁新方式让AI自动理解你的个性化需求
量子位· 2025-08-03 06:55
核心观点 - 当前AI对话普遍存在空话套话问题,用户需通过复杂提示词技巧与AI交互[2][5] - AlignXplore方法通过强化学习动态归纳用户偏好,实现从"规则执行者"到"模式发现者"的进化[7][8][11][12] - 该方法采用两阶段训练:冷启动阶段利用导师模型生成高质量教学案例,强化学习阶段通过GRPO算法优化推理路径[18][19][24] - 流式偏好推断机制实现实时增量更新用户理解,响应速度与准确率不受历史数据量影响[26][27][30] - 实验显示AlignXplore在个性化对齐任务上较基座模型DeepSeek-R1-Distill-Qwen-7B平均提升15.49%[28][29] 技术实现 归纳推理机制 - 通过用户行为碎片(追问内容、跳过回答、点赞等)自下而上构建个性化偏好模型[14] - 示例:用户连续两次交互(询问AI商业应用、选择冥想步骤回答)即被推断出"务实导向"偏好[20] - 动态更新机制使AI能持续修正用户画像,适应偏好变化[16][32] 训练架构 - 冷启动阶段公式:$$\mathcal{D}_{\mathrm{cold}}=\{({\mathcal{E}},\hat{d},r_{i},d_{i})|R(r_{i},d_{i})=1,i\in[1,G]\}$$ 筛选高质量候选样本[21] - 强化学习阶段采用两种奖励函数: 1. 基于偏好判断的奖励 $$R_{\mathrm{jud}}=\mathbbm{1}\left(\mathcal{R}_{\mathrm{jud}}(y_{w}|x,d,y_{w},y_{l})>\mathcal{R}_{\mathrm{jud}}(y_{l}|x,d,y_{w},y_{l})\right)R_{\mathrm{format}}$$ [23] 2. 基于生成概率的奖励 $$R_{\mathrm{gen}}=\mathbb{1}\left(\log{\frac{\mathcal{R}_{\mathrm{gen}}(y_{w}|x,d)}{\mathcal{R}_{\mathrm{gen}}(y_{w}|x)}}>\log{\frac{\mathcal{R}_{\mathrm{gen}}(y_{l}|x,d)}{\mathcal{R}_{\mathrm{gen}}(y_{l}|x)}}\right)R_{\mathrm{format}}$$ [23] 性能表现 基准测试 - 在AlignX_test和P-Soups测试集上: - AlignXplore-7B Streaming版本取得最佳效果(71.47/61.30/83.00/71.33分)[29] - 显著优于Qwen3-32Bnon-thinking(57.60/54.98/61.50/66.67分)等基线模型[29] - 泛化能力验证:推断偏好可迁移至QwQ-32B、DeepSeek-R1-671B等不同下游模型[31] 行业意义 - 突破"千人一面"对齐局限,示例显示用户A(技术细节需求)与用户B(简易解释需求)获得差异化响应[13] - 首次实现推理知识在用户理解领域的迁移应用,推动大模型情商规模化训练[37] - 为AI处理主观问题提供新范式,个性化被视为通往主观世界的重要通道[37]
实测Qwen-MT翻译模型,确实又快又好
量子位· 2025-08-03 04:10
核心观点 - 阿里云百炼最新翻译模型Qwen-MT主打高性价比,具有更快响应速度和更低价格 [1] - 该模型在自动评估和人工评估的翻译任务中都取得了不错的结果 [2] - 支持超过92种主流官方语言及重要方言之间的高质量互译 [3] - 提供术语干预、领域提示、记忆库等专业翻译功能,并支持用户自定义提示 [3] - 采用轻量级MoE架构,在保证卓越性能的同时实现更快的响应速度和更低的API调用价格 [3] 价格信息 - Qwen3-MT输入成本为0.0018元/千Token,输出成本为0.0054元/千Token [2] - Qwen3-MT-Turbo输入成本为0.0007元/千Token,输出成本为0.00195元/千Token [2] - 各提供100万Token免费额度,有效期180天 [2] 性能表现 - 中英互译平均用时0.71-1.05秒 [11][13][16][18] - 多语言翻译用时0.65-1.00秒 [21][24][26] - 长文本翻译用时1.30-2.46秒 [31][34] - 200字文本仅需2.5秒,多数情况下输出控制在1秒以内 [48] 功能特点 - 支持术语干预、自定义指令、翻译记忆等功能 [41] - 可通过自然语言文本描述领域和要求作为翻译提示 [42] - 能够自动识别不同语言 [49] - 支持流式输出 [55] 实测效果 - 回译准确性较高,可手动调整翻译风格 [7] - 能够修正少量错别字,理解文言文和俗语 [48] - 对复杂句子和长文本处理能力较强 [10][28] - 在严肃正式和抒情美感等不同风格翻译中表现良好 [44][47] 使用方法 - 在阿里云百炼的模型广场可以选择试用Qwen-MT-Pro和Qwen-MT-Turbo [51] - 一次性可输入的最长文本量为6000 [52] - 支持调用Qwen API [54]
6小时复刻AI IMO金牌成果,蚂蚁多智能体新进展已开源
量子位· 2025-08-02 08:33
核心观点 - 多智能体协同系统在IMO 2025竞赛中展现出超越单模型的解题能力,通过「解题者+验证者」双角色对话机制实现复杂数学问题的求解[6][10][19] - AWorld框架在6小时内复现DeepMind的5/6道IMO解题结果,并开源可运行的多智能体系统[2][15] - 多智能体协同通过动态构建高质量输入信息、实施元认知功能和降低信息熵,解锁基础模型的深层潜力[8][11][14] 技术突破 - 多智能体系统首次工程验证:群体智力上限超越依赖的单个模型(Gemini 2.5 Pro等)[6][10] - 实现"元认知"功能:通过角色扮演执行自我监控、评估和修正,避免单模型思维定式[12][13] - 事件驱动架构超越LangChain框架,支持智能体间异步通信与复杂实时交互[16][17] 系统架构 - 双智能体机制:做题家生成数学证明,验证者进行严格验证,通过多轮迭代优化解答[19] - 模型即插即用设计:30秒内可切换OpenAI/Gemini/Claude等主流大模型[20] - 全链路可观测性:提供决策追踪、工具调用监控和完整日志记录[18] 性能表现 - 在GAIA Test榜单达到77.08分,开源工作中排名第一[15] - 单模型连续10次推理失败的第3题,多智能体系统在第5轮迭代即完成解答[10] - 当前系统数学能力超越99%人类选手(测试集有限)[23] 行业影响 - 证明AI智能上限取决于组织方式而非单纯模型规模,开辟群体智能新路径[24] - 开放训练接口形成"数据-训练-部署"闭环,支持智能体持续自我进化[26] - 下一步将探索「多智能体+形式化验证」组合,目标直指Lean4形式化证明[25]
训练时间减半,性能不降反升!腾讯混元开源图像生成高效强化方案MixGRPO
量子位· 2025-08-02 08:33
图像生成技术框架MixGRPO - 提出结合随机微分方程(SDE)和常微分方程(ODE)的混合采样框架MixGRPO,通过优化马尔可夫决策过程(MDP)提升训练效率[1][6][12] - 开发变体MixGRPO-Flash,在保持性能前提下将训练时间降低71%,相比基准方法DanceGRPO减少50%训练时间[2][47] - 采用滑动窗口策略动态调整SDE采样区间,窗口大小25、移动间隔25、步长2时达到最优性能[34][71][74][75] 技术性能指标 - 在HPS-v2.1、Pick Score、ImageReward和Unified Reward四项人类偏好评估中,MixGRPO分别取得0.367、0.237、1.629和3.418分,全面超越基准模型[3][60] - 单次迭代时间从DanceGRPO的291秒降至MixGRPO-Flash的83秒,函数调用次数从14次降至4次[3][60] - 使用二阶DPM-Solver++高阶求解器实现加速,图像生成质量与人类偏好保持高度一致[45][76] 训练优化方法 - 将去噪过程划分为SDE和ODE混合采样阶段,仅对SDE采样区间进行强化学习优化[16][20] - 采用指数衰减策略动态调整滑动窗口位置,初始移动间隔25,衰减因子0.95[36][37] - 通过3步梯度累积和混合精度训练(bf16/fp32)提升训练效率,批量大小1,学习率1e-5[56] 应用场景与数据集 - 基于HPDv2数据集103,700条提示词训练,测试集包含动画、概念艺术等四种风格的400条提示词[49][50] - 采用FLUX.1 Dev文本生成图像模型作为基础,在9,600条提示词上训练1个epoch即显现效果[51][50] - 生成图像在语义表达、美学效果及图文对齐度方面表现突出,可视化对比显示质量优势[64][65]
IOI中国队全员金牌夺冠!奥赛打成乒乓,浙江中学生扛起3/4
量子位· 2025-08-02 08:33
不圆 时令 发自 凹非寺 量子位 | 公众号 QbitAI IOI 2025(国际信息学奥林匹克竞赛)高光收官,中国队再次 全员夺金 ! 此次比赛由3名浙江选手、1名广东选手代表中国队出战。 他们分别是: | | Rank | First Name | Last Name | ID | Team | SO ... | tri ... | W ... | Inter ... | fe ... | mi ... ob ... | | Inter .. | Global | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | | 1 | Hengxi | Liu | CHN4 | | 100 | 100 | 100 | 300 | 100 | 91.23 | 100 | 291.23 | 591.23 | | | 2 | Mingyu | Woo | KOR1 | .0: | 100 | 99.33 | 93 | 292.33 | 100 | 82.45 | 100 | 282.4 ...
央企出手,让选大模型更容易了!中国移动发布MoMA聚合服务引擎
量子位· 2025-08-02 08:33
文章核心观点 - 中国移动发布MoMA多模型与智能体聚合及服务引擎,旨在通过汇聚业界优质模型与智能体,形成超级大模型能力服务基座,解决复杂任务并提供高效解决方案 [1] - MoMA引擎通过多级路由技术、动态编排和最优调用能力,解决了模型选择、意图理解和成本收益平衡等挑战 [3][4][5] - MoMA采用PD²-Matrix框架和分层路由机制,实现模型能力的精准诊断和任务的高效分发,提升效果与成本的动态平衡 [10][12][14] - MoMA已聚合15+个高质量内外部模型和20多个专家智能体,覆盖多个专业领域,并在百万级用户场景中提升42%的速度 [20][21] - 中国移动计划通过MoMA构建百模互联、千智协同的产业生态,推动人工智能产业进入新阶段 [22] 当前主要的问题与挑战 - 国内外已发布多款模型,但企业在应用时面临模型选择、意图理解和成本收益平衡等挑战 [3][5] - 模型路由选择和能力规划调度是基础问题,MoMA通过多级路由技术提供解决方案 [3] MoMA是什么 - MoMA是多模型与智能体聚合及服务引擎,通过标准化接口汇聚优质大模型与智能体,提供自动感知、动态编排与最优调用能力 [4] - MoMA形成持续进化的超级大模型服务基座,提供高准确率、高安全、高可靠、高效能的推理服务 [4] MoMA模型 - MoMA通过模型能力探测和智能体评估,自动选择最佳方案,并构建闭环监控反馈机制以适应数据变化和业务需求 [7][8] - 采用PD²-Matrix框架,将大语言模型能力结构化,实现从笼统评估到精准诊断的跨越 [10] MoMA工程引擎 - 以分层路由与动态编排为核心,形成超级大模型能力基座,实现效果、成本、效率三重约束下的最优决策 [12] - 多级路由机制分层次完成复杂任务的拆解与实现,并通过Monitor Model优化路由质量 [14] 复杂任务去中心化 - 采用Planner-Executor-Summarizer架构,动态采用混合模式实现任务自动拆解、编排与并行调用 [17] - 通过复杂任务路由技术提升响应时间,优化用户体验并降低输出幻觉 [17] MoMA协议体系 - 兼容MCP和A2A协议,拓展统一认证和安全通信能力,构建开放、安全、可信、高效的智能体技术体系 [19] MoMA应用 - 聚合15+个高质量内外部模型和20多个专家智能体,覆盖编程、数学、翻译、医疗等多个领域 [20] - 在百万级用户场景中,动态路由机制提升42%的速度,已应用于中国移动灵犀智能体2.0 [21] 商业化落地愿景 - 中国移动计划通过MoMA构建百模互联、千智协同的产业生态,推动人工智能产业进入新阶段 [22] - 发布《MoMA白皮书(2025)》,介绍目标愿景、关键技术特征和典型应用场景 [22] 技术活动 - 九天人工智能研究院将于8月6日开展技术直播,解析九天基础大模型、开源模型及数据集 [24]
AI Coding如何重构开发,模型×IDE×Agent深度对话|量子位AI沙龙
量子位· 2025-08-02 05:23
AI Coding行业现状与发展 - AI Coding已成为最受关注的AI落地场景之一,正通过不同形态渗透到日常生活和工作中[1][3] - 独立开发者使用Vibe Coding简化创意实现流程,企业则将AI Coding引入工作流以提升效率[2] - 技术演进路径涵盖从代码补全到自主编程,产品形态包括插件、AI原生IDE等多种形式[3] 行业关键参与者与产品 - 百度文心快码(Baidu Comate)由10+年经验团队开发,涉及智能体、插件架构及DevOps智能化落地[6][7] - 硅心科技aiXcoder专注AI+软件开发,已实现编程智能、测试智能等通用软件工程智能体[8][13] - 智谱AI布局Coding产品线,Zread项目应用RAG检索和Agent框架技术[9][13] - 月之暗面Kimi聚焦模型推理优化,IDEA研究院开发MoonBit Code Agent及auto-coder系列工具[10][17][19] 技术论坛核心议程 - 百度将分享AI Coding在企业级场景的落地实践经验[21] - 硅心科技探讨AI开发完整软件的可能性与挑战[21] - 智谱AI分析AI编程效率幻觉与实际落地路径[21] - 月之暗面Kimi展示模型推理加速技术[21] - IDEA研究院提出自底向上重构Coding Agent的技术路线[21] - 圆桌对话聚焦AI Coding现状与未来发展趋势[21] 创新应用方向 - 响指Haisnap探索代码生成的创造性本质[21] - CREAO研究Vibe Coding的市场突破点[21] - 海新智能打造AI全栈应用构建平台[14][15] - 开源项目auto-coder系列获多项行业奖项,包括中国开源创新大赛二等奖[17]