Retrieval-Augmented Generation (RAG)

搜索文档
让RAG真正读懂“言外之意”!新框架引入词汇多样性,刷新多项基准SOTA
量子位· 2025-09-27 07:00
DRAG团队 发自 凹非寺 量子位 | 公众号 QbitAI RAG准确率提升10.6% ,多项基准拿下新SOTA! ACL 2025最新研究提出 Lexical Dive rsity-a ware RAG (DRAG) 框架,首次系统性地 将词汇多样性引入RAG的检索与生成过程 ,提供 了一个轻量、通用且易扩展的解决方案。 在多项基准任务中,该方法带来了显著性能提升,尤其在HotpotQA上刷新了当前最优结果。 在大语言模型的浪潮下,Retrieval-Augmented Generation ( RAG ) 已经成为提升模型事实性和时效性的重要手段。然而,现有方法普 遍忽视了一个看似细微却极为关键的问题——词汇多样性 (lexical diversity) 。 同一个问题,不同的表达方式,往往让检索模型"晕头转向",最终导致错误答案。 由此,来自北航、北大、中关村实验室的研究团队提出了这项最新工作,他们首次将"词汇多样性"引入检索增强生成的相关性评估过程,并通 过新颖的风险稀疏校准机制解决了生成阶段被无关信息干扰的问题。 团队认为,该方法对信息检索、问答系统、专业领域大模型应用都具有重要价值。未来,他们计 ...
Progress Software Unveils Breakthrough SaaS RAG Platform Designed to Make Trustworthy and Verifiable Generative AI Accessible Across Organizations of all Sizes
Globenewswire· 2025-09-10 13:00
Progress Software Unveils Breakthrough SaaS RAG Platform Following its acquisition of Nuclia, Progress introduces the easiest-to-use, RAG-as-a-Service platform—empowering companies to transform unstructured data into actionable intelligence using trustworthy GenAI Following its acquisition of Nuclia, Progress introduces the easiest-to-use, RAG-as-a-Service platform—empowering companies to transform unstructured data into actionable intelligence using trustworthy GenAI BURLINGTON, Mass., Sept. 10, 2025 ...
Cisco Systems Inc. (CSCO) Expands Secure AI Factory with the Nvidia Platform
Yahoo Finance· 2025-09-10 11:35
Cisco Systems, Inc. (NASDAQ:CSCO) is one of the best cybersecurity stocks to buy right now. On September 4, the company confirmed the expansion of its Secure AI Factory with the Nvidia Platform. The expansion follows the unveiling of a new solution designed to accelerate retrieval-augmented generation (RAG) pipelines. Cisco Systems Inc. (CSCO) Expands Secure AI Factory with the Nvidia Platform Ken Wolter / Shutterstock.com While integrating VAST Data’s InsightEngine with Cisco AI PODs, the new solution ...
Cisco Secure AI Factory with NVIDIA Unlocks Enterprise Data for Agentic AI
Prnewswire· 2025-09-04 13:00
产品发布与合作 - 思科与NVIDIA及VAST Data合作推出集成解决方案 旨在加速企业级AI代理的检索增强生成(RAG)流程并实现规模化部署[1][2] - 解决方案采用NVIDIA AI数据平台参考设计 结合VAST InsightEngine技术 将原始数据转化为AI就绪数据集[3][7] - 思科AI POD现可配置VAST InsightEngine 成为首批提供NVIDIA AI数据平台参考设计的系统之一[3][8] 技术架构与性能 - 采用思科UCS服务器与NVIDIA RTX PRO 6000 Blackwell服务器版GPU 为下一代AI应用提供卓越性能[3] - NVIDIA加速计算与AI软件确保低延迟模型交互 思科高性能以太网实现计算与数据无缝连接[4] - 将RAG管道延迟从分钟级降至秒级 实现近实时AI响应 支持多智能体并行工作负载[11] 企业应用价值 - 解决方案支持AI代理持续运行和动态学习 通过高数据吞吐量实现多步推理 提供情境化商业成果[11] - 集成Splunk环境可视化功能 通过思科AI Defense为每个令牌提供安全防护[4][7] - 具备基于角色的访问控制和合规审计功能 在保护敏感数据的同时加速AI创新[11] 市场定位与发展 - 该架构专门针对企业级AI代理工作负载设计 解决数据瓶颈和延迟问题 满足跨行业企业复杂需求[6] - VAST Data成为首家与思科AI POD集成的供应商 目前该解决方案已可通过思科订购[8] - 合作三方高管均表示该集成平台代表了企业AI演进的重要里程碑 为智能代理安全协作奠定基础[5]
Progress Software Announces General Availability of MarkLogic Server 12 and Breakthrough Results with Semantic RAG
Globenewswire· 2025-08-12 13:00
核心产品发布 - Progress Software宣布MarkLogic Server 12全面上市 该版本引入语义搜索和图检索增强生成(RAG)能力 帮助企业在可信数据基础上构建生成式AI应用 [1] - 新产品支持本地和云端部署 具备原生向量搜索、虚拟视图、BM25相关性排序及高级语义算法等核心功能 旨在提升企业AI和分析的检索精度与效率 [2] 技术性能提升 - 采用语义搜索和图RAG方法的客户在概念验证中报告 大语言模型响应准确率平均提升33% 专家信息发现时间显著加速 [3] - 具体案例包括金融机构将LLM准确率从70%提升至95% 研究时间从数小时缩短至分钟级 制药企业将文档发现加速至秒级且正确答案增加73% [9] 客户实施成效 - 客户CAS通过结合MarkLogic与AWS服务 将产品交付周期从18个月压缩至90天 实现数据价值转化和上市速度提升 [4] - 农业企业通过AI研发中心将正确答案率从50%提升至90% 食品技术公司实现99%的LLM输出准确性与完整性 [9] 行业应用拓展 - 全球研究机构及公共部门已利用该技术从科学数据、专有数据和公共数据中提取深度洞察 [2] - 公司高管强调基于RAG的技术正推动企业从实验转向构建可解释、安全且符合业务目标的AI系统 [5]
搜索智能体RAG落地不佳?UIUC开源s3,仅需2.4k样本,训练快效果好
机器之心· 2025-06-17 00:10
核心观点 - Agentic RAG 当前面临优化目标偏离、检索与生成耦合、评价标准不准确等挑战 [8][9][14] - s3 方法通过 Search-Select-Serve 范式和 Gain Beyond RAG 奖励函数,显著提升训练效率和生成效果 [1][16][17] - s3 仅需 2.4k 训练样本,在多个领域问答任务中超越数据规模大百倍的基线模型 [1][22][25] RAG 发展轨迹 - Classic RAG:使用固定 query 和 BM25 等检索器,生成器对结果无反馈 [7] - Pre-RL-Zero Active RAG:引入多轮 query 更新和 prompt 引导检索,如 IRCoT 和 Self-RAG [7] - RL-Zero 阶段:强化学习驱动检索行为,代表方法包括 DeepRetrieval 和 Search-R1 [7] 当前 RL-based Agentic RAG 的挑战 - 优化目标偏离:Exact Match 指标过于苛刻,导致模型优化答案 token 对齐而非搜索行为 [9][10] - 检索与生成耦合:无法区分性能提升来自更好的搜索还是更强的语言生成对齐能力 [11][12] - 评价标准不准确:传统 QA 指标与搜索质量关联有限,search-oriented 指标无法体现信息利用效果 [14] s3 方法设计 - 核心思想:只训练搜索器、冻结生成器,以生成结果提升为奖励 [16] - Gain Beyond RAG:衡量搜索到的上下文相比初始 top-k 检索结果是否带来真实增益 [17] - Generation Accuracy:结合 span 匹配和 LLM 判断,与人类判断一致率达 96.4% [18][32] 训练与优化 - 采用 PPO 进行策略优化,预筛除 naive RAG 能答对的样本,集中训练需要新检索信息的任务 [19][20] - 训练总时间仅需 114 分钟,比 Search-R1 的 3780 分钟大幅减少 [21][22] - 训练样本仅需 2.4k 条,比基线方法减少约 70 倍 [1][22][25] 实验分析 通用 QA 任务 - s3 在五个数据集上实现最优表现,平均准确率优于 Search-R1 和 DeepRetrieval [23][24][25] - 使用不同下游 LLM(Qwen2.5-7B/14B-Instruct、Claude-3-Haiku)均展现稳定性能 [24] 医学 QA 任务 - s3 在医学领域展现强泛化能力,在 MedQA-US、MedMCQA 等数据集上优于基线 [26][27] - 使用不同语料库(Wikipedia2018 和 MedCorp)均保持稳定性能,无过拟合趋势 [27] 消融实验 - 原始问题作为检索起点有助于明确搜索目标,避免策略偏离主题 [31] - 文档选择机制减少输入 token 2.6 至 4.2 倍,提升效率并减少噪声干扰 [31] - s3 设计在准确性、训练效率和推理速度上达到最优平衡 [29][30]