Workflow
大语言模型
icon
搜索文档
百融云创旗下助贷屡被投诉36%利率 回应称合同合规
中国经济网· 2025-11-28 06:13
公司财务表现 - 2024年实现总营收29.29亿元,同比增长9% [4] - 模型即服务(MaaS)营收9.32亿元,同比增长5% [4] - 业务即服务(BaaS)营收19.97亿元,同比增长12% [4] - 年内净利润2.66亿元,同比下滑21% [4] - 净利润率从13%降至9% [4] - 截至2024年中旬的六个月内,助贷服务收入超过8亿元 [1] 公司业务与投诉情况 - 公司定位为人工智能技术服务公司,应用大语言模型、自然语言处理等科技 [3] - 通过模型即服务(MaaS)及业务即服务(BaaS)模式提供服务 [3] - 旗下拥有智能金融综合服务平台“榕树贷款”和“钱小乐” [1][3] - 平台被投诉存在“借款7500元,综合年化利率35.95%”及“宣传利率4.02%,实际费率35.99%”等情况 [1] - 公司回应称未接到借款息费率达到36%的投诉,贷款合同合规,对平台投诉不掌握具体情况 [1] 行业监管环境 - 监管要求商业银行在助贷业务合作协议中明确平台及增信服务费用标准,并将增信服务费计入借款人综合融资成本 [2] - 规定平台运营机构不得以任何形式向借款人收取息费,增信服务机构不得以咨询费等名义变相提高费率 [2] - 商业银行需开展差异化风险定价,确保综合融资成本符合相关规定,不得笼统以成本区间上限定价 [2] - 司法意见支持金融借款合同借款人请求对总计超过年利率24%的部分予以调减 [3] - 司法意见旨在严格依法规制高利贷,有效降低实体经济融资成本 [3]
腾讯广告算法大赛圆满结束,多位选手现场获得腾讯Offer意向书
搜狐财经· 2025-11-28 04:16
赛事概况 - 2025腾讯算法大赛决赛于11月26-27日在深圳腾讯全球总部成功举办,赛事历时5个多月,全球超过2800支队伍参与,最终20支队伍进入决赛 [1] - 冠军队伍“Echoch”成员来自华中科技大学、北京大学、中国科学技术大学,亚军“leejt”队和季军“也许明天”队成员分别来自中山大学和香港大学 [1] - 前三甲队伍均获得腾讯的offer意向书及奖金,大赛另设20万元人民币的技术创新奖授予中国科学院计算技术研究所的队伍 [1] 赛事规模与影响力 - 本届大赛吸引全球近30个国家超过8400人报名,海外报名人数创历史新高,赛事奖金池达360万元人民币 [5] - 公司副总裁表示,超过8000人的报名是一个强烈信号,表明AI正吸引新一代年轻人,并印证了公司在技术生态上的凝聚力 [3] - 大赛为中国数据规模最大的全模态生成式推荐算法大赛,提供腾讯直通offer机会及真实广告业务场景实战机会 [5] 技术焦点与创新 - 赛题为“全模态生成式推荐”,选手在比赛中主动应用并创新升级LLM(大语言模型)、MLLM(多模态大语言模型)及推荐前沿技术 [3] - 决赛方案在生成式模型结构、多模态embedding应用及算法工程codesign等方面体现创新和突破 [3] - 该技术能综合运用各种形式的数据(全模态),采用生成式算法推荐个性化广告,对提升广告精准度和优化用户体验具有重要探索价值 [5] 业务应用与战略方向 - “全模态生成式推荐”是广告AI的发展方向,有助于广告系统优化推荐效率,提升广告转化率 [5] - 公司Q3财报中首次亮相“腾讯广告AIM+”智能投放产品矩阵,支持广告主自动配置定向、出价、版位及优化广告创意 [6] - 腾讯广告妙系列AI产品正逐步形成“陪伴—策略—内容—执行—优化”的Business Agent联动生态,并在实际业务中持续探索生成式推荐技术 [6] 产学结合与生态建设 - 大赛决赛评委由全球知名高校学者、技术专家及腾讯技术专家组成,赛后赛题数据集将开源以促进产学技术交流 [3][5] - 公司希望通过比赛让学界、业界结合,助力AI人才浮现,让技术创新想法有机会落地于业务并呈现真正价值 [3] - 经过长期深耕,腾讯广告已基于坚实的AI技术底座形成智能化营销体系,为商家降本增效、提升转化效果 [5]
亚马逊研究奖获奖名单出炉:王晋东等26位华人入选
机器之心· 2025-11-28 04:11
亚马逊研究奖2025年春季获奖概况 - 亚马逊研究奖最新一期共评选出63位获奖者,来自全球8个国家的41所大学,其中华人学者有26位,占比约41% [1][2] - 该奖项设立于2015年,为多学科研究提供资助,获奖者可访问700多个亚马逊公共数据集,使用AWS AI/ML服务与工具,并获得亚马逊专家的咨询支持 [2] AI信息安全领域 - AI信息安全方向有8位研究者获奖,其中包含3位华人学者 [3] - 加州大学欧文分校Zhou Li的研究课题为利用LLM在审计日志中实现精确且分析人员友好的攻击溯源 [4] - 弗吉尼亚大学Yu Meng的研究聚焦于弱监督RLHF,旨在建模人类偏好中的模糊性与不确定性 [5] - 东北大学Ziming Zhao的研究兴趣涵盖系统与软件安全、网络与Web安全 [6] 亚马逊广告研究方向 - 亚马逊广告研究方向共有两位获奖者,均为华人学者 [8] - 东北大学Xiaojing Liao的研究课题为理解大语言模型的攻击方式:可解释的漏洞检测与修复 [10][11] - 弗吉尼亚大学Tianhao Wang的研究方向包括差分隐私和机器学习隐私,重点在于设计实用算法 [14] AWS Agentic AI方向 - 智能体AI是亚马逊资助的热门方向,今年共有30位研究者获奖 [16] - 达特茅斯学院Cong Chen的研究目标是通过优化、经济学和AI方法推动全球能源转型,涉及面向能源用户的大语言模型 [17][19][23] - 慕尼黑工业大学Chunyang Chen的研究领域位于软件工程、人机交互与AI的交叉处,采用AI和LLM辅助自动化移动应用开发 [20][21][24] - 蒙特利尔大学Bang Liu深耕基础智能体研究,联合发起Foundation Agents开源组织,并构建材料科学大模型与智能体 [26][28][33] - 加州大学圣地亚哥分校Lianhui Qin的研究目标是构建在复杂环境中进行交互、推理与泛化的AI智能体 [30][34][35] - 威廉与玛丽学院Jindong Wang的研究兴趣涵盖机器学习、大型基础模型及面向社会科学的生成式AI,其成果曾应用于微软健康产品,减少15% token消耗 [36][38][42] - 加州大学圣地亚哥分校Xiaolong Wang的研究聚焦于利用数据中的结构学习视觉表示,特别是视频中的时空结构 [39][41][43] - 明尼苏达大学Zhi-Li Zhang的研究重点包括开发AI/ML算法以实现智能软件定义网络基础设施和边缘/云系统 [45] - 石溪大学Jiawei Zhou的研究聚焦于广义语言应用与生成式AI,致力于改进LLM和多模态模型的效率、知识增强、事实性等方面 [46][51] 在Trainium上构建 - Trainium是AWS开发的定制AI芯片系列,旨在以更低成本提供高性能的ML模型训练和推理,支持PyTorch和TensorFlow等流行框架 [48] - 该方向共有20名获奖者 [49] - 康奈尔大学Kuan Fang的研究课题为机器人感知与控制的多模态基础模型快速适应 [50][53][59] - Lieber研究所Shizhong Han的研究旨在结合多组学数据和深度学习技术揭示脑部疾病的遗传基础并开发新型治疗方法 [55][60] - 加州大学欧文分校Sitao Huang的研究兴趣包括高效硬件加速器、硬件系统的编程语言与综合流程 [58][61][79] - 加州大学默塞德分校Dong Li的研究聚焦高性能计算,并与大规模AI/ML系统密切相关 [63][68][78] - 不列颠哥伦比亚大学Xiaoxiao Li的研究集中在AI与医疗的交叉领域、通用人工智能的理论与技术 [66][69] - 早稻田大学Jiang Liu的研究兴趣包括无线通信与感知、无线网络系统 [67][70] - 加州大学默塞德分校Xiaoyi Lu的研究兴趣包括并行与分布式计算、高性能通信与I/O技术、深度学习 [72][78] - 普渡大学Xupeng Miao的研究课题为通过数据流感知优化实现大型基础模型的通信高效分布式训练 [73][74] - 明尼苏达大学Yanning Shen的研究兴趣包括机器学习、数据科学、网络科学 [76] - 加州大学伯克利分校Yun Song的研究方向为数学与计算生物学 [80] - 伊利诺伊大学厄巴纳-香槟分校Minjia Zhang的研究兴趣包括大规模深度学习与AI应用、高效算法及高效机器学习系统 [83][89] Think Big方向 - Think Big方向旨在资助通过变革性理念推进科学前沿的研究者,今年共有三位获奖者,其中一位为华人 [85] - 北卡罗来纳大学教堂山分校Tianlong Chen的研究课题为利用分子动力学赋能蛋白质AI模型 [86][88]
NeurIPS 2025奖项出炉,Qwen获最佳论文
具身智能之心· 2025-11-28 00:04
会议概况 - NeurIPS 2025会议共收到21575份有效投稿,最终接收5290篇,整体录用率为24.52% [4] - 今年共有4篇论文获得最佳论文奖,另有3篇论文获得最佳论文亚军 [1] 最佳论文奖 - **论文1:Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)** - 研究核心为解决大语言模型生成内容同质化问题,提出了Infinity-Chat数据集,包含26K条真实世界开放式用户查询 [7] - 提出了首个用于刻画语言模型面对开放式提示的综合分类体系,包含6个顶层类别和17个子类别 [7] - 基于该数据集的研究揭示了语言模型在开放式生成中存在显著的“人工蜂群思维”效应,包括模型内重复和模型间同质化 [8][14] - 该数据集包含31,250条人工标注,每个样本由25位独立标注者参与 [9] - **论文2:Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free** - 论文首次系统性分析了门控机制对大语言模型的有效性,证明其通过增强注意力机制的非线性和提供输入相关的稀疏性来提升性能 [13] - 研究显示,在SDPA之后进行门控取得了最佳效果,在15B MoE模型上提升了测试集PPL和MMLU性能 [17] - 门控机制实现了更低的最终训练损失,并大幅增强了训练稳定性,有效缓解了损失尖峰,允许使用更高学习率 [17] - 该技术已成功应用于Qwen3-Next模型,显著提升了模型性能与鲁棒性 [13][18] - **论文3:1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities** - 论文证明将网络深度增加到1024层可显著提升自监督强化学习性能,在模拟任务上性能提升了2倍至50倍 [20] - 该方法在无监督的目标条件设定下进行,智能体从零开始探索,增加模型深度不仅提升了成功率,还改变了学到的行为 [20] - **论文4:Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training** - 研究揭示了扩散模型训练动力学中的隐式正则化机制,识别出模型开始生成高质量样本的时间点t_g和出现记忆化的时间点t_m [22] - 关键发现是t_m随训练集大小N线性增长,而t_g基本不变,随着数据集变大,会出现一个越来越宽的泛化训练时间窗口 [22] 最佳论文亚军 - **论文1:Reinforcement Learning with Verifiable Rewards is Insufficient for Novel Reasoning in LLMs** - 论文给出了关键否定性结论,挑战了“带可验证奖励的强化学习能够激发LLM全新推理能力”这一广泛接受的假设 [28] - **论文2:Optimal Mistake Bounds for Transductive Online Learning** - 该研究解决了传导式在线学习领域一个长达30年的公开难题,精确刻画了最优错误上界为Ω(√d),并给出了与之匹配的O(√d)上界 [32] - **论文3:Superposition Yields Robust Neural Scaling** - 论文论证表征叠加是支配神经网络缩放定律的主要机制,超越了现象性描述,为缩放定律提供了机制性解释 [35] 时间检验奖 - 任少卿、何恺明、Ross Girshick、孙剑2015年合著论文《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》获奖 [2][38] - 该论文是计算机视觉领域里程碑工作,奠定了现代目标检测框架的核心范式,截至现在已被引用超过56,700次 [38][42] - 论文实现了第一个完全可学习的两阶段目标检测pipeline,取代了selective search和手工设计候选框的方法 [43] Sejnowski-Hinton奖 - 获奖论文为2016年发表的《Random synaptic feedback weights support error backpropagation for deep learning》 [45] - 该论文提出了著名的反馈对齐机制,证明多层网络可在无需对称反馈权重下有效学习,推动了生物可行学习规则的研究方向 [48]
AI赋能资产配置(二十六):AI“添翼”:大模型增强投资组合回报
国信证券· 2025-11-27 09:19
核心观点 - 报告围绕AIEQ、ProPicks、QRFT三类代表性AI资管产品开展复盘对照,探讨AI能否为投资者带来超额收益[2] - 海外AI资管产品总体提质增效但不宜过度“神化”:AIEQ长期跑输SPY,ProPicks在科技顺风期收益突出但复现难度高,QRFT长期与标普接近更偏窄幅增强[2] - AI更可靠的价值在于提升信息处理效率与投研流程标准化,而非保证持续战胜指数;判断产品应优先看长期相对基准净超额、费率与换手后收益是否成立、信号与业绩是否可复盘验证[2] AI驱动型资产管理:进展与案例 - 投资决策机制发生根本性范式转移,从传统量化投资转向AI驱动型资产管理[3] - 新一代AI选股策略采用深度学习、强化学习及自然语言处理技术,具备从海量噪音中“涌现”新规则的能力[4] AIEQ ETF介绍 - AIEQ是全球首只完全由AI系统主动管理的ETF,2017年10月17日成立,底层框架由EquBot LLC开发,IBM Watson提供算力与NLP支撑[5] - 模型每天处理数百万份非结构化文本,动态优化生成30-200只股票组合,目标是通过情绪因子与基本面指标融合捕捉超额收益[5] - 截至2025年11月21日,AIEQ自成立以来累计回报率净资产为107.34%,收盘价为106.15%[8] AIEQ实盘绩效深度剖析 - 2025年初至今(YTD)回报率约9.38%,同期标普500指数(SPY)回报率约12.45%,跑输市场基准约3个百分点[10] - 长期表现劣势明显:1年期回报约+6.15% vs SPY +11.00%;5年期累计回报约+33.85% vs SPY +85.61%;自成立以来总回报显著落后被动指数[13] - 年换手率高达1159%,极高换手频率导致买卖价差和市场冲击成本严重侵蚀基金净值[16] - 资产管理规模(AUM)维持在1.14亿至1.17亿美元之间,规模增长停滞;费率0.75%显著高于SPY的0.09%[16][20] Investing ProPicks——人机协同信号订阅服务 - ProPicks代表AI参与投资的SaaS模式,利用超过25年历史金融数据及50余项财务指标,通过AI算法生成选股名单[21] - Tech Titans策略自2023年10月上线至2025年11月24日累计回报率98.7%,超越同期标普500收益率43.7%,获得约55%超额收益[25] - 策略成功捕捉多只牛股:Super Micro Computer持有期收益+185.8%,Micro Strategy持有期收益+94.9%[26][33] - 超额收益源于嵌入基本面约束的量化择时框架,自上而下贯穿“算力—能源—应用”配置链条;等权重构建组合弱化对超大市值龙头被动拥挤交易[34][35] ProPicks订阅型AI策略费用与复现难点 - 订阅年费约9-14美元/月,对小资金投资者成本占比高(如2000美元本金年费占6%),但对5万美元以上资金成本仅0.24%[36] - 执行风险高:信号发布与实际下单存在时间差,高Beta标的价格跳空可能导致5%-10%滑点;投资者行为偏差使实际收益率低于理论表现[37] - 业绩披露缺乏统一标准,信息不对称远高于公募ETF[37] AI增强型美国大盘股ETF——QRFT - QRFT核心通过AI优化传统因子投资框架,每月重新评估质量、规模、价值、动量、低波动五个因子有效性[38][39] - 投资框架采用贝叶斯神经网络,预测股票未来四周相对收益优势,年化换手率267%,形成“AI驱动、人工风控”制衡机制[43] - 实盘绩效长期略优指数:2025年YTD收益率略优于标普500;5年年化收益约+14.9% vs 标普500约+14.5%;自成立以来年化回报与标普500相似[45] - 风格高灵活性:2019-2020年捕捉居家办公概念股动量,总回报+40.1%跑赢标普+18.4%;2021年回报率21.8%落后于标普28.7%;2022年回撤-22.54%逊于标普[47] QRFT AI赋能产品测评 - 极高换手率(2024年267%)接近中频量化交易,平均持有时间约4.5个月;费率0.75%设定高业绩门槛,需每年跑赢标普500至少0.72%才能获得相同净回报[48] - 净资产规模仅1000万至1500万美元,面临清盘危险;日均成交量约3000-4000股,流动性差可能导致成交价格大幅偏离净值[48]
「AI界淘宝」MuleRun:上线10天涌入21万用户,要做全球最大劳动力外包公司
36氪· 2025-11-27 09:15
公司定位与商业模式 - 公司定位为全球首个AI Agent交易市场,旨在成为AI时代的劳动力外包平台,解决人类重复性电脑操作工作 [2][6] - 商业模式类似淘宝/闲鱼,作为三方平台连接创作者与用户,负责流量、交易和支付,创作者将技能转化为可租用的Agent并实现变现 [2] - 平台采用按需付费模式,例如3D桌面人物创作Agent每次使用费用为50积分(约0.5美元) [2] 市场机会与规模 - 市场被描述为"几乎没有上限",目标是通过标准化应用替代人类高度重复的工作场景(如初级HR招聘) [7][10] - 当前大模型能力尚无法直接解决80%的人类工作,预计时间窗口为2-3年,需结合80%的SOP(标准操作流程)与20%的大模型能力 [8][10] - 引用案例:某自动驾驶厂商通过SOP+大模型生成4000万行代码,替代200人年工作量,节省数千万人民币 [10] 平台运营数据与增长 - 上线10天内注册用户达21万,申请创作者超4000人,审核通过500余人 [3][16] - 创作者审核通过率约40%,需提交详细方案并通过技术稳定性测试(如10次运行验证) [16][19] - 典型成功案例:3D桌面人物创作Agent上线3天为创作者赚取1200美元 [2][14] 产品策略与差异化 - 关键决策为"框架中立",不绑定特定开发工具,支持外部工具创作的Agent入驻平台,与工具方形成合作而非竞争 [11] - 降低使用门槛为核心策略,每减少一个操作步骤可扩大用户覆盖10倍,当前平台仅需上传照片和点击"run"两步完成操作 [14][15] - 竞争壁垒分两阶段:短期靠基础设施易用性,长期依赖生态规模(用户与创作者网络效应) [24] 团队背景与技术路径 - 创始人陈宇森为前网络安全领域连续创业者(长亭科技被阿里收购),团队核心成员均具创业经验 [5] - 技术路径强调高比例SOP(80%)与低比例大模型(20%)结合,确保任务执行稳定性和可复用性 [5][10] - 采用"小步快跑"策略,接受早期产品不完善,通过快速迭代优化(如上线一月内完成产品重构) [21] 典型应用场景与案例 - 热门Agent分两类:ToC类如3D人物创作(借助Nano Banana热点);ToB专家类如投研工具(Web3币圈分析、美股投资工具FundaAI) [20] - 平台未来计划增加Agent组合能力,允许用户串联多个Agent完成复杂工作流 [23]
研报掘金丨国泰海通:维持网宿科技“增持”评级,目标价14.02元
格隆汇APP· 2025-11-27 08:39
公司财务表现 - 网宿科技2025年第三季度归母净利润同比及环比均实现高速增长 [1] 业务发展战略 - 公司积极开拓海外市场 推进全线产品出海 [1] - 海外市场布局重点为东南亚和中东区域 [1][1] - 产品线从网站 应用 API安全防护扩展至零信任解决方案 [1] - 服务客户范围从互联网企业扩展至各产业领域的企业客户 [1] - 业务区域从国内扩展至全球 为海外本地客户及出海企业提供安全服务 [1] 产品与服务创新 - 公司发布大模型安全深度评估服务 [1] - 该服务为大语言模型与AI应用提供一站式安全解决方案 [1] - 解决方案覆盖模型输出安全 数据安全 算法安全 应用安全 [1] - 服务旨在助力企业构建安全可信的AI应用生态 [1] 估值与评级 - 参考可比公司估值 给予公司2025年市盈率为42倍 [1] - 对应目标股价为14.02元 [1] - 维持"增持"评级 [1]
NeurIPS 2025最佳论文开奖,何恺明、孙剑等十年经典之作夺奖
36氪· 2025-11-27 07:27
NeurIPS 2025奖项概览 - NeurIPS 2025共评选出4篇最佳论文和3篇亚军论文(Runners Up)[1][2] - 本届会议是首个双城会议,分别于12月2日-7日在圣地亚哥和11月30日-12月5日在墨西哥城举办[3] - 时间检验奖(Test of Time Paper Awards)授予了10年前发表的Faster R-CNN论文,该论文已被引用超过56,700次[49][50] 最佳论文一:大语言模型多样性评估 - 研究核心是评估大语言模型(LLM)在开放式生成任务中的输出多样性,并提出了“人工蜂群思维效应”(Artificial Hivemind effect)的概念,指出现有模型存在显著的输出同质化问题[5][6][10] - 为解决评估方法不足的问题,研究团队推出了大规模数据集Infinity-Chat,该数据集包含2.6万条真实世界开放式用户查询以及31,250条人类标注,每个示例均由25位标注者独立评判[6][12] - 研究首次提出了针对LM开放式提示的完整分类体系,包含6大顶层类别及其下17个子类别,发现最先进的LM、奖励模型与LM评判器较难校准人类评分[8][12] 最佳论文二:门控注意力机制 - 论文由阿里千问团队等机构合作完成,核心发现是在缩放点积注意力(SDPA)后引入头部特异性Sigmoid门控这一简单修改,可持续提升模型性能[14][15][17] - 该改进在3.5万亿词元数据集上训练的15B混合专家模型(30种变体)与1.7B稠密模型上得到验证,能增强训练稳定性、允许更大学习率,并改善缩放特性[15][17] - 门控机制的有效性归因于两个关键因素:在Softmax注意力的低秩映射中引入非线性变换,以及采用查询依赖的稀疏门控分数调控SDPA输出,该技术已应用于Qwen3-Next模型系列[18] 最佳论文三:自监督强化学习的深度缩放 - 研究聚焦于自监督强化学习(RL)的网络深度缩放,证明将网络深度提升至1024层可带来显著性能突破,而近年多数RL研究采用的浅层架构仅约2-5层[21][24] - 在无监督目标条件设定下,新方法在模拟运动与操控任务上将自监督对比强化学习算法的性能提升了2至50倍,显著超越其他目标条件基线模型[24][26] - 网络深度的增加不仅提升了任务成功率,更引发了智能体学习行为的质性转变,实现了可扩展性的质的飞跃[24][26] 最佳论文四:扩散模型的隐式正则化 - 研究旨在理解扩散模型避免训练数据记忆并实现泛化的内在机制,发现了两个关键时间尺度:早期阶段τgen(模型开始生成高质量样本)和后期阶段τmem(记忆现象显现)[28][29] - 关键规律是τmem随训练数据量n呈线性增长,而τgen保持恒定,形成了随n扩大的有效训练时间窗口,揭示了训练动态中存在的隐式动态正则化机制[29][31] - 结论通过基于标准U-Net架构在真实与合成数据集上的数值实验,以及采用高维极限可解析随机特征模型的理论分析得到验证[31] 亚军论文核心发现 - 论文一系统评估了强化学习(RLVR)对大语言模型推理力的真实增益,结果显示RLVR主要提升采样效率,在小k(如k=1)更易命中正确路径,但在大k时基座模型表现更好,当前RL训练并未诱发全新的推理模式[33][34][37] - 论文二解决了“无标签数据在在线学习中的力量”这一开放问题,对任意Littlestone维度为d的概念类,传导式在线学习的最小错误次数精确为Θ(√d),与标准在线学习的Θ(d)形成严格的二次差距[38][39][41] - 论文三提出“表征叠加”是神经缩放律(Neural Scaling)的关键机制,指出LLM用少量维度承载超量特征,由此产生向量几何重叠并决定损失的Scaling形态,该发现与Chinchilla Scaling Law一致[42][46][48] 时间检验奖获奖工作 - 获奖论文《Faster R-CNN》由任少卿、何恺明、Ross Gisshick和孙剑合著,对计算机视觉领域产生了深远影响,成为众多后续研究工作的基石[50] - 该论文在实现极高检测精度的同时,达到了接近实时的检测速度(每秒5帧),使基于神经网络的目标检测模型得以应用于现实世界的各种场景[50] - 这是首个用完全可学习的两阶段流程(包括区域建议网络RPN和检测网络)取代传统选择性搜索和人工设计候选框方法的工作[50]
月之暗面公开强化学习训练加速方法:训练速度暴涨97%,长尾延迟狂降93%
量子位· 2025-11-27 04:34
核心技术突破 - 月之暗面联合清华大学推出全新加速引擎Seer,旨在不改变核心训练算法的前提下,大幅提升大语言模型的强化学习训练速度 [1] - Seer框架通过其三大核心模块(推理引擎池、请求缓冲区、上下文管理器)和三项关键技术(分段生成、上下文感知调度、自适应分组推测解码)协同工作,从内存、调度、推理三个维度全面优化rollout效率 [9][10][11][20] - 该技术针对RL训练中耗时的生成阶段,解决了其固有的工作负载不均衡和长尾延迟问题,资源利用率较低 [6] 性能提升数据 - 实验结果显示,Seer在不同工作负载下,相比基线系统veRL,吞吐量提升74%至97% [3][23] - 在长尾延迟方面,Seer表现显著优于veRL,例如在Moonlight任务中,veRL最后10%请求耗时3984秒(占总时长约50%),而Seer仅需364秒,延迟降低85% [23] - 在Qwen2-VL-72B和Kimi-K2任务中,长尾延迟分别降低93%和75% [23][24] - 专项实验表明,Seer的上下文感知调度策略在吞吐量上可达到理想Oracle水平的95%,其长尾延迟仅为无上下文调度策略的13% [27][28] 公司融资与资本动态 - 月之暗面即将完成新一轮融资,融资金额高达数亿美元,完成后公司估值将提升至40亿美元 [32][33] - 公司正与IDG Capital等投资机构洽谈,潜在投资方包括现有股东腾讯 [36] - 预期本轮融资将于今年年底前完成,并计划在明年下半年启动IPO进程 [37]
中山大学最新Cell子刊:AI能够帮助医生克服技术障碍,但存在依赖风险
生物世界· 2025-11-27 04:11
文章核心观点 - 大语言模型能有效帮助医生克服技术障碍,显著提升其参与医学人工智能研究的项目完成率[3][5][7][9] - 大语言模型的应用使医疗AI研究民主化,但同时也存在AI幻觉和医生产生依赖倾向的潜在风险[3][5][6][7][9] 研究背景与挑战 - 跨学科研究推动了科学领域突破,但在生物医学领域,AI等技术的广泛应用受限于技术障碍[2] - 医生因缺乏多学科专业知识或技能,以及难以获得工程支持,在AI技术的问题导向型研究中参与受阻,偏远地区或资源有限的年轻医生面临的挑战更明显[2] 研究设计与方法 - 研究团队开展了一项随机对照试验,招募64名初级眼科医生进行为期两周的“自动化白内障识别”项目[5] - 干预组32人使用大语言模型ChatGPT-3.5,对照组32人不使用,在最小化工程辅助的情况下进行[5] 研究结果与数据 - 干预组项目总完成率高达87.5%,显著高于对照组的25.0%[5][7] - 干预组无辅助完成率为68.7%,远高于对照组的3.1%[5] - 干预组展现出更优的项目规划能力和更短的完成时间[5] - 经过两周洗脱期后,41.2%的成功干预组参与者能在没有LLM支持的情况下独立完成新项目[5][7] 潜在风险与影响 - 42.6%的参与者担心会不加理解地复述AI信息,40.4%担忧AI会助长惰性思维,表明存在潜在依赖性风险[5] - 大语言模型存在幻觉风险,其长期使用形成的依赖风险需进一步研究评估[6][7][9] - 研究提出了与大语言模型有效互动的初步提示指南[7]