Workflow
大语言模型(LLM)
icon
搜索文档
中金 | 大模型系列(4):LLM动态模型配置
中金点睛· 2025-09-23 00:14
量化投资策略演进 - Alpha因子数量呈现指数级增长 但因子挖掘的边际效用递减 核心矛盾转向模型配置[2][5] - 不同因子合成模型在不同市场阶段表现差异明显 没有单一模型能始终适应所有市场环境[8][10][12] - 线性模型(IC加权、线性回归)在趋势明确市场表现更好 非线性模型(XGBoost)在市场结构变化时展现优势[7][10] 传统配置方法局限性 - 均值-方差模型对输入参数高度敏感 历史数据微小扰动会导致输出权重较大变化[14][15] - 机器学习集成方法存在"黑箱"问题 可解释性差 影响投资决策信任度[16] - 传统方法陷入"收益-可解释性-稳定性"不可能三角 需要新的配置方法[13][16] LLM研判推理框架 - 采用三层架构:训练层(多模型策略库)、分析层(自动化绩效分析)、决策层(LLM配置决策)[3][19][21] - 分析层生成结构化"绩效分析简报" 包含市场状态刻画和多维度绩效评估[24][25][28] - 决策层通过精心设计的Prompt引导LLM扮演投资经理 进行逻辑推理和权重分配[3][29][31] 框架实施效果 - 在沪深300成分股内回测显示年化超额收益达7.21% 信息比率0.68[41][44] - 最大回撤-9.47% 低于所有基准模型和等权基准的-10.50%[41][44] - 在2021年9月市场风格切换中成功规避回撤 通过高配XGB模型和低配IC模型[39][44] 框架优势特点 - 将模型配置从数值优化问题转变为逻辑推理任务 追求逻辑合理性而非数学最优解[18][25] - 决策过程透明可解释 输出包含精确权重和决策理由 建立人机信任[31][44] - 能够动态适应市场变化 根据市场状态调整模型权重配置[25][39] 未来优化方向 - 扩展基础模型库 加入深度学习模型和另类策略等低相关策略[44] - 丰富市场状态维度 融入宏观数据和情绪指标等另类数据[45]
20年后你会患哪些疾病?这款AI大模型登上Nature,能够预测上千种疾病风险
生物世界· 2025-09-19 04:04
撰文丨王聪 编辑丨王多鱼 排版丨水成文 20 年后,你会患上哪些疾病 ?这个看似无法回答的问题如今可能有了答案—— 一款名为 Delphi-2M 的 AI 大模型能够 通过分析一个人的医疗记录和生活方式,为超过 1000 种疾病提供风险评估,甚至能够提前数十年做出精准预测。 这项研究于 2025 年 9 月 17 日 发表在了国际顶尖学术期刊 Nature 上 ,论文题为: Learning the natural history of human disease with generative transformers ,研究团队 来自 德国癌症研究中心 (DKFZ) 、 欧洲分子生物学实验室欧洲生物信息学研究所 (EMBL-EBI) 、哥本哈根大学。 该研究开发了一款名为 Delphi-2M 的 AI 大模型,具有 令人惊叹的一次性模拟和预测多种疾病的能力, 利用健康记录和生活方式因素来预测一个人在未来 20 年 内患上癌症、皮肤病、免疫疾病等多达 1258 种疾病的可能性,从而 生成完整的未来健康轨迹,帮助 医生和健康规划者更好地理解和应对个性化健康需求。 对于大多数疾病 (包括痴呆症、心血管疾病以及死 ...
DeepSeek团队发表重磅论文,《自然》配发社论狂赞呼吁同行效仿
扬子晚报网· 2025-09-18 13:19
研究论文发表 - DeepSeek-R1推理模型研究论文登上《自然(Nature)》封面 成为全球首个经过同行评审的主流大语言模型[2] - 论文披露更多模型训练细节 强调大语言模型推理能力可通过纯强化学习提升 减少人类输入工作量[2] - 训练出的模型在数学 编程竞赛和STEM领域研究生水平问题等任务上表现优于传统训练的LLM[2] 同行评审意义 - 《自然》配发社论强调同行评审对AI模型至关重要 指出目前几乎所有主流大模型都未经过独立同行评审[4] - 同行评审有助于厘清LLM工作原理并评估其是否真正实现宣称功能[6] - DeepSeek-R1成为目前唯一接受同行评审的大语言模型[6] 评审过程与改进 - R1模型经过八位专家评审 从原创性 方法学和鲁棒性等方面接受评估[9] - 公司提供减少数据污染的技术细节 并补充模型发布后新基准评估结果[9] - 同行评审促使论文作出重要修改 所有举措被视作迈向透明化与可复现性的进步[9] 行业影响与呼吁 - 《自然》呼吁其他AI公司效仿DeepSeek做法 将AI模型开发纳入科学研究规范框架[10] - 开放模型允许更广泛群体发现并修复缺陷 虽存在安全争议但具有积极意义[10] - 若同行评审形成趋势 将极大促进AI行业健康发展 DeepSeek-R1被期待成为首个而非最后一个案例[10]
链接全球!腾讯云海外客户规模一年翻番
搜狐财经· 2025-09-16 23:18
公司业绩表现 - 腾讯云国际业务2025年Q2收入同比大幅增长 [1] - 腾讯云海外客户规模过去一年同比翻番 [1] - 过去3年腾讯云国际业务持续高双位数增长 [1] 市场地位与客户覆盖 - 90%以上互联网企业和95%以上头部游戏公司出海选择腾讯云 [1] - 海外客户覆盖80多个国家和地区 [2] - 与GoTo集团、正大集团、e&UAE、Orange、Com2uS等国际知名企业达成深度合作 [2] 产品与技术优势 - 边缘安全加速平台EdgeOne结合大语言模型推出EdgeOne Pages [1] - 新产品上线3个月已助力超10万用户走向全球市场 [1] - 拥有遍布全球21个地区超3200个全球加速节点的基础设施 [2] 全球扩张计划 - 将新增沙特和大阪数据中心 [2] - 通过本地化服务网络和具有竞争力的产品方案拓展国际市场 [2]
告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
机器之心· 2025-09-12 00:51
本文第一作者戴语琴,清华大学博士生。该工作为戴语琴在蚂蚁大安全实习期间完成,该工作属于蚂蚁集团大安全 Venus 系列工作,致力于打造搜索智能体 / UI 智能体。本文通讯作者为该校副教授吕帅,研究方向包括大语言模型、多模态生成、AI4Design。共同通讯作者沈永亮,浙江大学百人计划研究员,博士生导 师,研究方向包括大模型推理、RAG 检索增强生成、多模态生成模型等。 在检索增强生成(RAG)飞速发展的当下,研究者们面临的最大困境并非「生成」,而是「稳定」。 低信噪比 让关键信息淹没在冗余文档里, 错误累计 则让推理链像骨牌一样层层坍塌。这两大顽疾,使得现有 RAG 系统在复杂任务中难以真正可靠。 近期,一项由蚂蚁集团、清华大学、浙江大学、MIT、UC Berkeley、香港大学和新加坡国立大学等机构联合完成的研究提出了全新方案—— EviNote-RAG 。它 不仅在多个权威基准上实现了显著性能提升,更在训练稳定性与推理可靠性上带来了质的飞跃。 核心秘诀在于两个创新: 这一组合带来的改变是革命性的:训练曲线不再震荡,答案推理更加稳健。消融与补充实验进一步验证了这一点—— SEN 是性能提升的基石,而 EQ ...
攻克AI推理难题,清华团队提出「统一LLM强化学习新范式」ReST-RL
36氪· 2025-09-10 09:53
针对这些难题,清华大学计算机科学与技术系知识工程研究室(KEG)团队提出了一种统一的 LLM 强化学习(RL)新范式——ReST-RL。该方法通过 将改进的 GRPO 算法与精心设计的由价值模型(VM)辅助的测试时解码方法相结合,在提升 LLM 推理能力的同时,也兼顾了效率、稳定性与可拓展 性。 论文链接:https://arxiv.org/abs/2508.19576 实验结果显示,在 APPS、BigCodeBench 和 HumanEval 等不同级别的知名编程基准上,ReST-RL 的性能优于其他强化训练基线(如原始 GRPO 和 ReST- DPO),以及解码和验证基线(如 PRM-BoN 和 ORM-MCTS)。 大语言模型(LLM)真的会推理吗?业内对此争论不休。 这是因为,当前的 LLM 在面对复杂代码、多步逻辑和抽象任务时依然经常"翻车",表现出逻辑跳跃、步骤混乱、答非所问等诸多问题。 靠人教?太慢。靠奖励?信号太弱。靠验证?数据太贵。如何兼顾推理能力、训练效率与通用性,已成为业内难题。 总体来看,现有方法难以在数据采集成本、泛化能力、强化效果与训练效率之间实现全面平衡。 ReST-RL:训 ...
ICLR 2026史上最严新规:论文用LLM不报,直接拒稿
36氪· 2025-08-29 03:23
ICLR 2026新规上线,最严「AI管制令」来了!组委会只有两大要求:用LLM写论文、审稿,必须摆出来;所有人要对内容全负责。严重违规 的,直接拒稿没商量。 下一届ICLR,出台新规了! 28日,ICLR 2026官方组委会正式发布了一项「LLM使用新政」,严格规定: 也就是说,不论是写稿的,还是审稿的,用了AI一定要明示。而且,论文中「提示注入」明令禁止。 今年4月,ICLR 2025在新加坡博览中心召开,共收到了11,565份投稿,录用率32.08%。 ICLR 2025总投稿数,首次破万(去年7304) 明年,ICLR 2026 将于4月23日-27日在巴西里约热内卢召开。 只要用了LLM的,就必须论文中「致谢」 ICLR的作者和审稿人,最终要对自己的贡献负全责 按规划,提交论文的ddl还有四周。 在提交论文之前,先来看看ICLR 2026最新规定,具体讲了啥? | Dates and Deadlines | | | | --- | --- | --- | | Paper Submissions | | | | Abstract Submission Deadline | Sep 19 '25 (An ...
晚点独家丨理想自研智驾芯片上车路测,部分计算性能超英伟达 Thor-U
晚点LatePost· 2025-08-28 06:09
核心观点 - 理想汽车自研智驾芯片M100取得关键进展 预计明年量产上车 其采用软硬结合研发策略 目标是通过软件调度提升硬件算力利用率 在性能上实现对竞争对手的降维打击 [4][6][7] 芯片研发进展 - M100于今年一季度样片回片 完成功能测试和性能测试后已小批量上样车做道路测试 [4] - 在处理大语言模型计算任务时 1颗M100有效算力相当于2颗英伟达Thor-U 在处理传统视觉任务时 1颗M100有效算力可对标3颗英伟达Thor-U [4] - 芯片研发耗资巨大 项目规划资金预算达数十亿美元 [6] 技术战略 - 采用软硬结合研发策略 通过软件调度能力提升芯片硬件算力利用率 [6] - 研发工作包括NPU SoC等硬件以及软件开发与适配 是一个多层次的解决方案 [6] - 智驾芯片设计与Transformer架构密切相关 需要原生高效支持FP4 FP6等超低精度优化 [7] 产品策略 - 采取两条腿走路策略 一方面用外部方案确保当下市场竞争力 另一方面用自研芯片谋求未来核心优势 [7] - 纯电车型倾向于搭载英伟达高算力芯片 如MEGA i8全系搭载英伟达Thor-U i6也有意全系搭载 [7] - L系列增程车型根据AD Max和AD Pro版本分别搭载英伟达Thor-U或地平线征程6M [8] 研发背景 - 理想汽车CTO谢炎主要推动软硬结合研发策略 其拥有编译器技术背景 曾任AliOS首席架构师 华为终端OS部部长等职 [6] - 自研智驾芯片核心原因是作为专用芯片能够针对公司算法进行特定优化 性价比和效率都很高 [8] - 目前仍使用英伟达芯片是因为其对新的算子支持较好 算力充足 且算法仍处于迭代过程中 [8]
盘后跌超3%!英伟达二季度Blackwell提速,数据中心稳居核心,为何股价还会跳水?(附Q2财报详情)
美股IPO· 2025-08-27 23:46
核心财务表现 - 第二季度营收467.43亿美元 同比增长56% 高于分析师预期的462.3亿美元[9][18] - 非GAAP调整后每股收益1.05美元 同比增长54% 高于分析师预期的1.01美元[9][19] - 调整后毛利率72.7% 同比下降3个百分点 但高于公司指引及分析师预期[10] 业务分部表现 - 数据中心营收411亿美元 同比增长56% 略低于分析师预期的412.9亿美元[10][22] - 游戏和AI PC业务营收43亿美元 同比增长49% 创历史新高且远超分析师预期[11][25] - 专业可视化营收6.01亿美元 同比增长32% 高于分析师预期[12] - 汽车和机器人营收5.86亿美元 同比增长69% 略低于分析师预期[13][26] 产品与技术动态 - Blackwell架构产品营收环比增长17% 需求非常旺盛[2][24] - 数据中心计算营收338亿美元 同比增长50%但环比下降1% 主要因H20销售收入减少40亿美元[25] - 数据中心网络营收73亿美元 同比增长98% 受益于GB200/GB300系统和InfiniBand产品增长[25] 中国市场影响 - 当季未向中国客户出售任何H20芯片 但释放了1.8亿美元预留库存[2][20] - 向中国以外地区客户出售H20获得6.5亿美元收入[21] - 公司表示第三季度营收指引未考虑对华出口H20芯片[27][28] - CEO预计中国市场今年可能带来500亿美元商机 年增长率约50%[28] 资本管理 - 上半年通过回购和股息向股东返利243亿美元[31] - 董事会批准新增600亿美元股票回购授权 无截止期限[30][32] - 截至二季度末剩余股票回购授权金额为147亿美元[31] 业绩展望 - 第三季度营收指引中值540亿美元 高于分析师预期中值534.6亿美元[15][27] - 预计第三季度调整后毛利率73.5% 高于分析师预期[16] - 预计第三季度调整后营业费用42亿美元[17]
拒稿警告,靠大模型「偷摸水论文」被堵死,ICLR最严新规来了
机器之心· 2025-08-27 08:36
ICLR 2026大语言模型使用政策 - ICLR 2026出台LLM使用政策 规范论文作者与审稿人在研究和审稿过程中使用LLM的行为[2] - 政策以ICLR《道德准则》为基础 旨在确保学术诚信 规避事实幻觉/剽窃/数据失实等风险[4] - 违反政策将面临直接拒稿等处罚[7] 核心政策要求 - 政策1: 任何对LLM的使用都必须如实披露 遵循贡献认可原则[6] - 政策2: 论文作者和审稿人最终需为自己的贡献负责 禁止虚假声明或数据伪造[6] - 禁止"提示词注入"等操纵审稿流程的行为 被视为严重学术不端[12] 具体应用场景规范 - 辅助论文写作: 使用LLM润色语法/调整措辞/草拟章节必须披露 作者对全部内容承担责任[9] - 辅助研究: 使用LLM提出思路/生成代码/分析结果需披露 人类作者必须验证有效性和准确性[9] - 审稿过程: 使用LLM撰写审稿意见必须披露 需确保不泄露投稿论文机密信息[11] 其他顶会类似规定 - NeurIPS 2025: 允许LLM作为工具 但作为核心方法需详细描述 审稿人严禁输入机密信息[15] - NeurIPS禁止提交完全由LLM生成的论文文本 允许用于编辑润色作者自写文本[16] - IEEE会议: 需在致谢声明AI工具及用途 人类对科学诚信与保密性负全责 禁止AI伪造数据[17] - ACM会议: 使用LLM生成文本/表格/代码需明确披露 仅语言润色可免披露[20] 行业背景与趋势 - 顶会投稿数量以每年数千规模递增 ICLR 2025接收11565份投稿 录用率32.08%[2][14] - LLM使用提升论文撰写与审稿效率 但引发虚假引用/抄袭拼接/责任模糊等担忧[14] - 清晰LLM使用细则将促进AI工具透明合理使用 形成更系统学术规范[21]