Workflow
大语言模型
icon
搜索文档
百度视觉技术部多模态感知与理解招聘(社招/校招/实习)
自动驾驶之心· 2025-09-03 23:33
百度视频理解算法岗位招聘 - 招聘类型包括校招、社招和实习(可转正) 工作地点为北京或深圳 [2] - 负责文心一言在视频理解方向的SOTA算法研发 聚焦视频问答、视频描述/摘要生成、时序行为定位、视频主题检测等核心任务 [2] - 要求计算机/人工智能相关领域硕士或博士学历 在顶级会议(CVPR/ICCV等)发表论文者优先 [4][5] 团队优势与福利 - 团队处于快速扩张期 校招、社招、实习岗位Headcount充足 [6] - 提供大牛导师一对一指导 深度参与文心大模型项目 [6] - 福利包含免费水果、健身房及有竞争力的薪资 [6] AutoRobo求职社区资源 - 社区专注自动驾驶/机器人/具身智能/大模型领域 已有近1000名成员 涵盖智元机器人、地平线、理想汽车等企业员工及2024/2025届校招者 [9] - 每日更新算法/开发/产品岗位招聘信息 包含校招、社招、实习等类型 [10] - 提供行业研报如《世界机器人报告》《中国人形机器人发展蓝皮书》等 覆盖技术路线与市场前景分析 [19] 专业面试资源库 - 汇总自动驾驶领域专项问题集 包括毫米波视觉融合、BEV感知、多传感器标定等10个核心模块的"一百问"专题 [14] - 包含具身智能方向Nerf应用、轨迹预测、Occupancy感知等6个技术方向的面试题库 [15][18] - 整理多家企业面经 如滴滴算法工程师、英伟达春招、小米汽车算法岗等7类实战案例 [21] 职业发展支持服务 - 提供谈薪技巧指导 包含HR面常见问题汇总与薪资谈判关键回答 [23][25] - 分享转行自动驾驶行业经验 面试官建议及算法岗基础技能树构建方法 [25] - 提供专业书籍资源与简历优化服务 支持C++、产品经理等岗位面试准备 [24]
苹果将发布自主AI网页搜索工具 已与谷歌达成模型协议
凤凰网· 2025-09-03 22:52
公司战略与产品规划 - 苹果计划在2025年春季推出基于AI的网页搜索工具"世界知识答案"系统 旨在与OpenAI及Perplexity AI竞争 [1] - 新系统将整合至Siri语音助手 并可能最终应用于Safari浏览器及iPhone主屏幕聚焦搜索功能 [1] - 该技术被内部称为"答案引擎" 依赖大语言模型技术 目标是通过操作系统实现全网信息查询 [1] 技术合作与功能特性 - 新版Siri部分底层技术可能来自谷歌 两家公司已达成正式协议 苹果将评估测试谷歌开发的AI模型 [2] - 新搜索体验将包含结合文本、照片、视频及本地兴趣点的多功能界面 [2] - 系统配备AI驱动的摘要功能 旨在使搜索结果比现有Siri更快捷、易懂且准确 [2]
Midoo.AI 发布:AI Agent 能否破解教育行业千亿美金的「无解方程」?
Founder Park· 2025-09-03 08:24
行业背景与痛点 - 传统AI语言学习产品存在内容僵化、反馈机械和场景缺失等问题 导致用户难以提升真实交流能力[2] - 教育行业核心困境在于学习效果难以标准化和交付 市场高度碎片化且缺乏规模效应[4] - 在线教育依赖人力密集型模式 通过助教团队提供个性化服务导致高昂成本[5] - 人力依赖引发三重经济惩罚:高信任与销售成本、高个性化服务成本和高组织协同成本[6] 市场机遇与技术突破 - 全球语言学习市场规模2023年达615亿美元 预计2032年突破2000亿美元 年复合增长率15-20%[9] - 大语言模型在沟通情商和应用层面表现完美 与语言学习需求高度匹配[10] - AI Agent对话成本比真人教师降低90%以上 同时覆盖80%口语对话需求[11] - 技术推动学习范式从"做题思维"转向"沟通思维" 通过模拟对话实现语言内化[12] 公司解决方案与优势 - Midoo.AI采用动态生成学习资源 根据用户兴趣和场景定制无限个性化内容[14] - 构建MultiAgent+Workflow系统 通过剧情主线、可互动物品和NPC角色创造沉浸式场景[17] - 提供学习建议、定制内容和情感支持 使Agent成为用户的学习伙伴[19] - 创始团队具备教育从业、Agent产品和大厂工程复合背景 已获种子轮投资[19] 战略定位与愿景 - 优先聚焦日韩和北美市场 逐步扩展全球服务[20] - 以近乎零边际成本替代传统数万人力实现的个性化服务[20] - 瞄准巨头因成本无法满足、小公司因技术门槛做不到的深度体验需求[20] - 愿景成为"每个人口袋里的AI语言导师" 使命是"释放语言 连接无限"[21][22]
大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背
量子位· 2025-09-03 05:49
顾名思义,金鱼损失就是让模型 像金鱼一样,不去死记每一个细节 ,而是在损失函数计算时随机剔除一小部分token。 由此,模型不再逐字记住训练集内容,但仍能学会语言规律。 实验显示,LLaMA-2在使用金鱼损失后: 用网友的精辟评论概括就是:dropout,但损失函数! henry 发自 凹非寺 量子位 | 公众号 QbitAI 训练大模型时,有时让它"记性差一点",反而更聪明! 大语言模型如果不加约束,很容易把训练数据原封不动地复刻出来。为解决这个问题,来自马里兰大学、图宾根大学和马普所的研究团队提出 了一个新方法—— 金鱼损失(Goldfish Loss) 。 在梯度计算中随机屏蔽部分token 金鱼损失的核心理念非常简单,就是在模型训练过程中 随机剔除一部分训练文本中的tokens,使其不参与损失计算。 这样一来,当模型在推理阶段遇到这些位置时,就只能"猜测",而不是逐字逐句复现训练数据的完整序列。 此外,为了保证被剔除token的一致性,研究人员设计了一种基于哈希(hashing)的掩码策略。 记忆化内容显著减少: 模型不再复现训练数据 下游任务性能几乎不受影响: 仍然能流畅生成文本 那么,这和同样是防 ...
【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
机器人大讲堂· 2025-09-03 04:19
9月 施普林格·自然 特别推出 " AI慢思考:大模型复杂推理技术在线研讨会" 。本次活动特别邀请到 中国人 民大学高瓴人工智能学院赵鑫教授做客直播间,分享其团队围绕 DeepSeek-R1 等代表性模型在"慢思考"技 术方面的最新研究进展 。 同时,还邀请到 施普林格·自然计算机科学图书编辑总监常兰兰博士加入讨论,介 绍施普林格·自然计算机科学和2025年全新人工智能图书资源以及学术图书出版分享,并精选推荐相关领域的 图书 。 期待共同探索 AI 推理能力的新边界! 随着人工智能技术的不断演进,大语言模型正逐步从简单的"快思考"模式,转向更注重推理深度与逻辑连贯性 的"慢思考"范式。以 DeepSeek-R1 为代表的新型大模型,通过引入强化学习机制强化长思维链推理能力, 在复杂任务处理上展现出更强的理解力和决策能力。这类模型不仅在数学、编程等高阶任务中表现优异,还以 开源架构和成本优势推动了技术的普及与应用。当前,"慢思考"技术正成为推动大模型迈向更高智能水平的关 键路径,引领行业走向更具自动化与可靠性的未来。 研讨会日程 开场致辞 大模型慢思考技术探讨 赵鑫教授,中国人民大学高瓴人工智能学院 施普林格· ...
潍坊推动政务服务从网上办迈向智能办 “数字政务服务官”上岗
大众日报· 2025-09-03 02:42
政务服务智能化升级 - 潍坊市推出智能客服系统 通过深度应用DeepSeek大语言模型实现多轮提问优化 使语义理解和解答更加精准化人性化 已解答企业群众在线咨询6000余次且准确率达90%以上 [1] - 建成涵盖21万余条通俗易懂语料集知识库 完成1974个政务服务事项问答知识库的口语化语义改造 融合标准化事项信息与政策法规形成完整政务服务语料库 [1] 智能预审系统效能提升 - 智审员"Ai小潍"汇集126项审批政策法规和8000余个历史案例 开发智能预审规则库可快速解析申报材料 上线一个月辅助办理285件业务并发现材料错误400余处 预审效率提升30% [2] - 通过电子比对技术实现申请材料自动审核 业务办理时间缩短一半以上 人工智能审核准确率显著高于人工 [2] 智能导办系统优化申报流程 - 开发情形预判决策树将12个审批事项拆解为1000余个决策节点 形成30个标准化导引场景 系统自动生成最优审批路线并对信息缺失情况提示修正 [2] - 材料首次审核通过率提升60%以上 企业人员可直接在线完成申报 无需前往大厅领取或查询材料清单 [2] 技术创新与系统整合 - 应用自然语言大模型技术深化DeepSeek+政务服务融合创新 构建智能客服智能预审智能导办三位一体的政务服务智能体 [3] - 推动政务服务从网上办向智能办全面迭代升级 成为审批大厅最全面的数字政务服务官 [3]
研报掘金丨太平洋:维持长盈精密“买入”评级,人形机器人进度加快
格隆汇APP· 2025-09-02 09:41
业绩表现 - 2025年上半年归母净利润3.06亿元 同比减少29.37% [1] - 业绩符合预期 消费电子和新能源领域稳健增长 [1] 人形机器人业务 - 2025年上半年海外人形机器人零件收入超过3500万元 较2024年全年的1011万元大幅增长 [1] - 取得多个国产人形机器人品牌量产订单 [1] - 人形机器人产能建设加快 [1] - 公司在该领域提前布局 [1] 行业前景 - 新能源行业在能源转型与绿色发展背景下将持续高速增长与创新变革 [1] - 具身智能人形机器人受生成式AI和大语言模型催化 已进入商业化应用阶段 [1] - 人形机器人有望成为继计算机、智能手机、新能源汽车之后的颠覆性产品 将深刻变革人类生产生活方式 [1]
Nicholas Chui:押注中国的“动物精神”正在回归
日经中文网· 2025-09-02 03:15
资金流向与市场表现 - 全球股票基金对中国股票的配置比例呈现上升趋势 [1] - 香港股市触及约3年零10个月高点 上海股市达到近10年高点 [1] - 欧美投资者对中国市场的关注度重新提升 [1] 政策与投资逻辑转变 - 投资者认识到中国政府政策转向经济扶持 成为资金回流起点 [1] - 长期增长预期驱动"动物精神"回归 非短期资金行为 [1][2] - 2025年DeepSeek技术突破将推动中国建立独立大语言模型与云生态系统 [1] 消费行业表现与驱动力 - 旅游和教育类消费概念股表现坚挺 受政策支持推动 [3] - 国民购买力持续提升 存款向消费转化存在充分空间 [3] - 小米通过扩展纯电动汽车与智能家电产品线确立品牌力 抗经济波动能力增强 [3] 地缘政治风险应对 - 美国关税政策未引发客户恐慌性抛售 因针对范围具全球性特征 [6] - 中美对立风险仍存在但未显著影响资金配置决策 [4][6]
大模型开始打王者荣耀了
量子位· 2025-09-02 01:40
腾讯TiG框架技术突破 - 提出Think-In-Games框架 将大语言模型直接应用于《王者荣耀》训练 实现实时游戏盘面理解与人类级别操作[1] - 仅14B参数的Qwen-3-14B模型通过TiG框架达到90.91%动作精准度 超越671B参数的Deepseek-R1模型[2] - 将强化学习决策重新定义为语言建模任务 通过语言指导策略生成与环境反馈迭代优化[3] 技术实现原理 - 大语言模型在游戏中直接行动并解释原因 弥合传统LLM只知原理与RL只知行动的鸿沟[4][5] - 主要学习人类玩家宏观层面推理能力 包括长期目标制定 团队协同策略 地图施压控制等[6] - 将决策转化为文本 通过JSON读取游戏状态 从固定菜单选择宏操作并解释原因[7] 训练方法与数据构建 - 采用多阶段训练结合监督微调与强化学习 使用GRPO算法最大化生成内容优势[12][9] - 从真实对局采样构建数据集 通过重新标注算法确保每个状态带有宏观动作标签[9] - 基于二元规则奖励机制 预测操作与人类玩法匹配时奖励为1 否则为0[11] 模型性能表现 - Qwen-2.5-32B应用GRPO后准确率从66.67%提升至86.84%[14][15] - Qwen2.5-14B经SFT+GRPO训练后准确率从53.25%提升至83.12%[14][15] - 最佳表现组合为Qwen-3-14B+SFT+GRPO(2000步) 达到90.91%准确率[2][15] 应用场景特征 - 模型扮演战略决策角色而非操作执行 类似金牌教练而非职业选手[6][7] - 具体案例显示模型能全面评估游戏状态 分析优先目标 制定策略并输出指令[8][9] - 在数据量和计算需求显著降低情况下取得与传统RL方法竞争性性能[17]
自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
机器之心· 2025-09-02 01:27
研究背景与方法 - 研究由清华大学、上海人工智能实验室、上海交通大学等机构联合完成,聚焦于利用大语言模型内部世界知识提升搜索智能体训练效率 [2][6] - 提出SSRL方法,通过结构化提示和格式奖励有效提取模型世界知识,降低幻觉并在多个基准测试中取得更好效果 [2][6][8] - 探索训练智能体无需真实环境参与的可能性,并验证接入真实搜索引擎后SSRL训练的模型表现更优,体现Sim2Real有效性 [2][8] 当前搜索智能体训练挑战 - 全真实搜索方式直接调用商业搜索引擎API或RAG本地知识库,成本高昂且与真实场景存在差距 [7][13] - 半真实搜索使用辅助LLM模拟搜索引擎行为,但训练效率低下且不稳定 [7][13] - 当前训练方式非常昂贵、耗时且不稳定,多轮工具调用导致rollout效率降低,外部信息引入易导致模型崩溃 [7][13] LLM利用世界知识的上限 - 通过formatted instruction显式利用模型内部知识,在大量模型上采样显示仅依赖内部知识即可在所有基准测试中获得明显效果提升 [10][12] - Llama-3.1-8B-Instruct在Bamboogle上pass@64达到76%正确率,在BrowseComp上pass@256达到10%正确率 [12] - 发现Llama系列在该类任务上效果远超Qwen系列,与数学领域结论相反 [12] - Majority Voting方法无法逼近模型能力上限,增加采样数量时效果不会进一步提升 [15] SSRL训练优化与设计 - 训练目标函数优化为标准GRPO目标,通过信息掩码强制模型基于查询和推理生成答案而非简单复制 [22][23] - 采用复合奖励函数结合格式奖励和结果奖励,防止奖励黑客并确保奖励有效性 [24] - 训练后模型表现优于依赖外部引擎训练的模型,训练效率提升约5.6倍且训练奖励持续增长未出现崩溃现象 [31] 实验结果 - 在Llama和Qwen2.5系列模型上训练,SSRL方法在多项基准测试中取得更好效果 [25][26] - Llama-3.2-3B-Instruct模型在HotpotQA上达到43.8%准确率,在NQ上达到58.4%,在Bamboogle上达到38.4% [26] - Llama-3.1-8B-Instruct模型在HotpotQA上达到48.0%准确率,在NQ上达到62.6%,在Bamboogle上达到54.4% [26] Sim2Real泛化 - 将前K个自搜索知识替换为在线搜索结果,发现SSRL训练模型在真实场景下表现更优 [28][29] - Llama-3.2-3B-Instruct模型在Sim2Real设置下准确率提升至41.9%,Qwen2.5-7B-Instruct提升至47.9% [33] - 随着K增加效果不会持续增长,显示模型内部知识具有高度压缩性和灵活性 [32] 熵引导搜索 - 提出熵引导搜索方法,根据模型不确定性动态选择使用内部知识或外部工具 [34] - 搜索次数减少20%-42%的同时保持可比性能,Llama-3.1-8B-Instruct模型准确率提升至41.7% [36] SSRL与TTRL结合 - SSRL与TTRL结合可获得显著效果提升,Llama-3.2-3B-Instruct模型在多项测试中准确率提升最高达67% [38][39] - 在BrowseComp任务上,Llama-3.2-3B-Instruct模型达到6.2%准确率 [40] - 但TTRL易导致模型过于自信和训练崩溃问题 [39]