大语言模型

搜索文档
${阿里通义千问Qwen3-Max-Preview上线 多语言及推理能力实现跨越式升级!
搜狐财经· 2025-09-06 23:42
产品发布 - 阿里通义千问团队正式推出Qwen-3-Max-Preview语言模型 定位为系列迄今最强性能模型 [1] - 新模型在官方平台及OpenRouter平台同步开放使用 [1] 技术能力 - 模型在数学计算、代码生成、逻辑推理及科学问题解决等任务中准确率显著提高 [4] - 处理中英文混合指令时响应可靠性提升超过40% [4] - 通过算法架构优化降低生成错误内容概率 在开放式问答、创意写作及多轮对话中输出更稳定 [4] - 兼容100余种语言 跨语言翻译性能与常识推理达行业领先标准 [5] - 针对检索增强生成和工具调用场景进行专项优化 提升知识库调用和第三方工具集成适配性 [5] - 架构创新体现在注意力机制优化与知识蒸馏技术 显著增强长文本处理及专业知识能力 [6] 商业化定价 - 输入服务收费为每百万tokens 1.20美元(约人民币8.6元) 输出服务收费为每百万tokens 6美元(约人民币42.8元) [6] - 价格体系在保持技术先进性同时提供市场竞争力的接入成本 [6] 性能参数 - 总上下文长度256K 最大输出32.8K [4] - 输入价格分两档:≤128K每百万tokens 1.20美元 >128K每百万tokens 3美元 [4] - 输出价格分两档:≤128K每百万tokens 6美元 >128K每百万tokens 15美元 [4] - 缓存读取价格分两档:≤128K每百万tokens 0.24美元 >128K每百万tokens 0.60美元 [4] - 新加坡节点延迟0.68秒 [4] 应用前景 - 预计将在智能客服、教育辅导、科研分析等领域引发应用变革 [6] - 用户可通过Qwen Chat官方渠道及OpenRouter的API接口体验新模型 [6]
${阿里通义千问Qwen3-Max-Preview登场 推理多语言等能力获重大提升
搜狐财经· 2025-09-06 16:22
产品发布与技术升级 - 阿里旗下通义千问团队发布最新Qwen-3-Max-Preview语言模型 定义为该系列最强版本[1] - 模型在数学运算 代码生成 逻辑推理及科学问题处理等任务中准确率显著提升[1] - 处理中英文混合复杂指令时响应可靠性较前代提升40%以上[1] - 优化算法架构降低幻觉现象发生概率 提升开放式问答 创意写作及多轮对话输出稳定性[1] - 支持100余种语言兼容 跨语言翻译能力与常识推理达行业领先水准[1] - 专门针对检索增强生成和工具调用场景优化 提升知识库调用和第三方工具集成适配性[4] - 架构创新体现在注意力机制优化和知识蒸馏技术 增强长文本和专业知识领域上下文理解能力[6] 商业化与定价策略 - 输入服务收费为每百万tokens 1.20美元(约8.6元人民币) 输出服务收费为每百万tokens 6美元(约42.8元人民币)[2] - 定价体系保持技术先进性同时提供具有竞争力接入成本[2] - 通过OpenRouter平台提供API接口 支持256K上下文长度和32.8K最大输出长度[4][6] - 根据token使用量分层计价:128K以下输入输出分别按$1.2/M和$6/M 超过部分按$3/M和$15/M计费[6] 应用场景与行业影响 - 新模型预计在智能客服 教育辅导 科研分析等多个领域引发应用变革[6] - 目前可通过Qwen Chat官方渠道及OpenRouter的API接口体验新模型[6]
估值2000亿元独角兽怒告前员工:窃取上百份文件,策反数百万美元客户!公司面临更大危机
每日经济新闻· 2025-09-06 14:26
核心诉讼事件 - Scale AI起诉前客户关系管理负责人Eugene Ling及其新雇主Mercor 指控其窃取机密文件并试图策反核心客户 [1] - Ling被指控在离职前下载超过100份机密文件 包括客户信息及业务策略 并转移至个人云盘 [4] - Mercor向Ling提供极具诱惑的薪酬条件:承诺支付其引入客户项目毛利润的20%作为提成 前提是带来超过500万美元毛利润 [3] 涉事人员背景与双方回应 - Eugene Ling在Scale AI任职超过三年 负责企业客户关系与战略合作 深度维系公司最大客户关系 [7] - Ling承认个人云盘存有旧文件 但坚称无恶意且未在Mercor工作中使用 并称曾主动询问Scale AI是否删除文件 [6] - Mercor联合创始人Surya Midha否认使用Scale AI商业机密 称公司正调查情况 并强调虽聘用多名前Scale AI员工 但对商业秘密无兴趣 [9][10] Scale AI的客户流失危机 - Meta投资143亿美元收购Scale AI 49%股份 将其估值推高至290亿美元 [12] - 核心客户包括谷歌、OpenAI、微软、xAI因Scale AI与Meta关联 担忧数据安全 正减少或终止合作 [12] - 谷歌计划终止价值2亿美元的合同 微软及xAI重新评估合作关系 [12] - 甚至Meta内部TBD Labs未完全依赖Scale AI 仍与Mercor等竞争对手合作 内部研究人员称Scale AI数据质量不及竞品 [13] 行业竞争格局变化 - Mercor估值达20亿美元 采用差异化商业模式:直接招聘生物学、法学等垂直领域专家参与数据训练与标注 形成博士军团模式 [15] - 该模式提供更高质量数据及更强客户粘性 已赢得OpenAI等顶级AI实验室青睐 [15] - Scale AI以规模化数据标注工场模式起家 但面临新锐竞争者精准打击策略的挑战 [15]
中文互联网的色情赌博信息,怎么“污染”AI
虎嗅· 2025-09-06 07:07
大语言模型中文数据污染问题 - 大语言模型存在普遍的中文训练数据污染问题 污染词元主要涉及色情 网络赌博 在线游戏私服 在线视频盗版及色情内容 异常信息等灰色领域[3][5][15] - 污染词元被定义为不受欢迎 不常见或无用的中文词元 遵循"3U原则" 即Undesirable Uncommon Useless[14] - 超过23%的长中文词元包含两个以上汉字 与色情或网络赌博相关 GPT-4o系列污染率高达46.6%[24][45] 污染词元形成机制 - 污染词元因在训练数据中出现频率极高 被BPE分词算法自动识别并固化为独立词元[18][19][25] - 这些词元缺乏有意义的语义网络 集中在垃圾网页角落 缺乏正常上下文 导致后续训练阶段被压制 成为欠训练词元[30][31][36] - 当用户输入污染词元时 模型无法理解语义 只能输出关联的其他污染词元 导致幻觉现象[32][35][37] 具体污染案例与影响 - GPT-4o对"波多野结衣"的熟悉程度比中文问候语"您好"高出2.6倍 前者频率估算值为后者2.6倍[2][51][54] - 与"波多野结衣"相关的中文网页可能占据整个中文训练数据集的0.5%[55][61] - 模型无法正确处理污染词元 如要求重复"给主人留下些什么吧"时 回复不相关内容如"黑*战"及乱码符号[7][35] 行业模型污染程度对比 - GPT-4o系列污染词元数量773个 占比46.6% 其中在线赌博类占比27.7% 成人内容类占比13.2%[45] - BLOOM污染率1.68% Qwen系列污染率1.00% GLM4污染率0.25% DeepSeek-V3污染率0.17%[45][46] - GPT-4 GPT-4-turbo GPT-3.5污染词元数量为0 表明训练语料经过更彻底清理[47] 污染检测与反推工具 - POCDETECT工具可检测AI污染 通过分析上下文及网络搜索实现[44] - POCTRACE工具通过词元ID反推出现频率 词元ID越靠前 训练数据中出现越多[50][51] - 研究团队利用0.5%污染比例投毒干净数据集 生成的词元ID与GPT-4o高度接近[56][57] 多语言词元对比 - 中文最长token前100名中 多为色情 赌博网站广告词 如"日本 免费视频观看" "中国 ■制度 美天天"等[67][69] - 英文分词多为长专业术语 如"Telecommunications" "Redistributions" "internationally"等[72] - 日文和韩文多为礼貌性及商业服务类词语 如"ありがとうございました" "감사합니다"等[70][71] 行业应对措施与挑战 - 财新网等机构通过代码隐藏原文链接 确保AI搬运内容时保留出处 Reddit Quora等社区尝试限制AI内容[60] - 互联网原始数据量级巨大 现有清理技术无法完全清除污染内容 且许多污染内容非常隐蔽 如"青*草"等词[38][39] - 数据污染导致AI生成内容与原始垃圾信息形成循环 加剧环境恶化[42][63]
通义千问发布Qwen3-Max-Preview,参数量超1万亿
华尔街见闻· 2025-09-05 16:58
模型性能表现 - 参数量超1万亿 是公司迄今为止最大的模型[1] - 在通用知识SuperGPQA 数学推理AIME25 编程LiveCodeBench v6 人类偏好对齐Arena-Hard v2及综合性能力评估LiveBench评测中展现全球领先性能[1] - 超越Claude-Opus 4 Non-Thinking Kimi-K2 DeepSeek-V3.1及此前开源最佳模型Qwen3-235B-A22B-Instruct-2507[1] 产品上线情况 - Qwen3-Max-Preview已正式上线阿里云百炼平台[1] - 支持通过API直接调用[1] - Qwen Chat同步上线新模型并支持免费使用[1]
小红书估值飙升,离IPO不远了!CFO章子琦曾任职于瓜子、麦肯锡等
搜狐财经· 2025-09-05 10:25
财务表现与预测 - 2025年利润预计增长两倍达到30亿美元 [2] - 2024年第一季度净利润2亿美元 营收略高于10亿美元 显著高于2023年同期的4000万美元净利润和6亿美元营收 [7] - 2023年整体营收37亿美元 净利润5亿美元 较2022年20亿美元营收和2亿美元亏损实现扭亏为盈 [10] - 利润预测比Pinterest 2024年盈利高出约50% [2] 估值与投资者需求 - 估值在三个月内增长19%至310亿美元 较3月份季度的260亿美元大幅增长 [2] - 投资者需求强烈 通过金沙江创业投资管理公司披露的基金交易显示估值飙升 [2] - 截至6月底占基金总资产的92% 较上一季度略有上升 [2] 商业化进展与收入结构 - 主要通过广告和电商业务获得收入 [3] - 广告业务一直是主要收入来源 2022年期间广告收入占总收入约80% [8] - 尽管2021年引入电子商务功能 目前大部分收入仍依赖于广告 [9] - 商业化架构进行调整 KA和生态业务整合 事业群更名为商业化一部到九部 [7] 用户增长与市场地位 - 2023年月活跃用户3.12亿 较2022年2.6亿增长20% [9] - 用户增长为营收提升提供强有力支持 [9] - 中国发展最快的社交媒体平台之一 [9] - 在视觉社交平台领域利润预测远超尚未实现盈利的Snap [2] 战略投资与团队建设 - 财务投资团队主要投资新消费赛道 引入高瓴等一线美元基金背景成员 [4] - 投资大模型公司MiniMax和月之暗面 [4] - 组建更专注硬科技及AI应用的战略投资团队 关注大语言模型等新技术机遇 [4] - 原今日资本合伙人戴丽丹加入并负责公司战略业务 向CFO章子琦汇报 [4] 上市计划与前景 - 有望实现上市 IPO或将进入倒计时 [2][6] - 平台希望在香港上市 [11] - 经过十余年探索确定广告+电商商业模式 并于去年底实现盈利 [11] - 财务数据远超市场预期 在估值逻辑回归价值投资的趋势下是确定性利好 [12]
德国IFA展上“中国智造”彰显全球标杆形象
环球网· 2025-09-05 08:36
公司参展与市场表现 - 在IFA 2025展会上展示扫地机、洗地机、洗衣机及全新品类割草机 构建全屋全场景智慧清洁生态 [2] - 全球市场份额持续攀升 以15.2%份额领跑全球清洁机器人市场 扫地机器人品类以20.7%份额居全球第一 [2][11] - 进入全球170多个国家和地区 服务超2000万户家庭 在美英日等国设立子公司 欧洲推进直营模式 [9] 区域市场策略 - 德国市场引入高精度激光雷达导航模组 满足对品质和可靠性的严苛要求 [2] - 美国市场标配激光雷达导航和扫拖一体功能 奠定高端品牌定位 [2] - 土耳其市场开发主刷边刷协同设计清洁系统 解决流苏地毯缠绕痛点 [2] - 韩国市场深化渠道渗透 借助本地团队实现文化共鸣的品牌塑造 [2] 技术研发突破 - 研发投入持续增长 2024年达9.71亿元占营收8.13% 2025年上半年增至6.85亿元同比增长67.28% [8] - 研发人员超千人占员工总数四成 在北京上海深圳等地设立多个研究院 [8] - 首创五轴折叠仿生机械臂技术 实现从二维清洁到三维空间整理的跨越 [3][9] - 自主研发RRMind GPT大模型系统 具备自然语言理解与语义感知能力 [3] - 推出蒸汽+热水双效洗地技术 显著提升清洁效率与效果 [6] - 开创分子筛低温烘干技术 实现无主动热源高效护理高端面料 [6] - 开发AI智能割草技术 精准识别草坪情况并自动规划路径 [6] 产品矩阵布局 - 产品线涵盖扫地机器人、洗地机、洗衣机、吸尘器等核心品类 [2] - 扫地机器人G30 Space探索版搭载全球首创5轴折叠仿生机械手 [9] - 扫地机器人P20 Ultra Plus实现三重热力清洁 [9] - A30 Pro Steam洗地机开创蒸汽+热水洗地模式 [9] - Z1 Plus成为万元以下首款双绿标洗烘一体机 [9] - H50 Ultra以全能基站和免倒尘设计引领吸尘器无线化变革 [9] 供应链与制造能力 - 在越南开展代工生产业务 成为首批具备海外制造能力的中国智能清洁企业 [9] - 全链路协同模式覆盖研发-生产-市场环节 增强全球供应链韧性 [8][9]
国芯科技(688262.SH):CNN300预计将支持INT8/FP8/FP16等常规AI应用所需要的数据类型
格隆汇· 2025-09-05 08:20
产品技术特点 - CNN200采用GCU+NN网络架构设计 单核算力最大达到10TOPS@INT8 适用于各种边缘计算AI SoC芯片[1] - 核心采用脉动阵列计算单元 通过动态功耗与内存面积协同优化 结合数据零拷贝与混合精度计算 有效降低能耗和延迟[1] - 集成片上缓存与网层间片内数据共享技术 显著减少DDR访问[1] - 硬件加速单元覆盖90余种神经网络算子 具有快捷扩展接口设计[1] - 支持训练后量化PTQ 提供对称/非对称/逐层/逐通道多种量化策略 兼容INT8与FP16数据精度[1] - 配套NPU工具链涵盖模型格式转换/预处理/量化/编译/仿真等功能[1] 产品应用生态 - 可广泛应用于机器狗等众多AI应用场景[1] - 支持CNN/RNN等主流神经网络结构 兼容PyTorch/TensorFlow/ONNX/PaddlePaddle等深度学习框架[1] - CNN300正在研发中 面向AIPC应用 支持INT8/FP8/FP16数据类型[1] - CNN300支持传统CNN/RNN应用及最新LLM大语言模型应用[1] - 可配合Deepseek/Qwen/LLaMa等常用大模型卸载[1] - 满足语音图像视频识别场景 支持AIPC高品质语音视频显示及生成式人工智能应用[1]
苹果(AAPL.US)明年拟推AI搜索工具,联手谷歌升级Siri挑战OpenAI
智通财经· 2025-09-04 01:16
苹果AI搜索工具开发计划 - 公司计划于2025年春季推出代号"世界知识问答"的AI驱动搜索系统 集成至Siri语音助手 后续可能应用于Safari浏览器和Spotlight功能 [1] - 新系统将采用大语言模型技术 运作模式类似ChatGPT和谷歌AI概览功能 目标成为全网信息查询平台 [1] - 搜索体验将整合文本、照片、视频和本地兴趣点的交互界面 提供AI驱动的摘要系统 旨在实现比现有Siri更快更精准的搜索结果 [2] Siri全面升级计划 - 新一代Siri将能调用个人数据和屏幕内容处理查询 通过语音精准操作用户设备 底层技术重构代号为"Linwood"和"LLM Siri" [4] - 软件工程主管确认对Siri进行端到端改造 成果超出预期 将提供远超设想的大型升级 [4] - 计划随内部代号"Luck E"的iOS 26.4系统更新推出 预计最早2025年3月发布 初始iOS 26版本将于本月随新iPhone旗舰机亮相 [5] 技术合作与模型选择 - 与谷歌正式达成协议 将评估测试谷歌开发的AI模型为Siri提供技术支持 可能部分采用谷歌Gemini模型 [1][6] - 考虑为摘要器采用定制版谷歌Gemini模型 在苹果私有云计算服务器运行 同时评估Anthropic的Claude模型或自研模型 [6] - 保留自研"苹果基础模型"技术处理用户数据搜索 以保护用户隐私 [6] 商业合作与财务影响 - 美国法官裁定苹果可维持将其设备默认搜索引擎设为谷歌的协议 该协议每年为苹果带来约200亿美元收入 [2] - 苹果服务主管证实来自苹果设备的谷歌搜索查询量出现下降 指出来自AI搜索方案的竞争压力 [2] - 谷歌提供比Anthropic更优惠的财务条款 Anthropic对技术使用开价年费超15亿美元 [7] 组织架构与人才流动 - 多个团队参与搜索计划 包括Siri组、AI部门和服务单元 Vision Pro头显创造者迈克·罗克韦尔牵头推进 [4] - 成立"答案、知识与信息"(AKI)团队参与搜索开发 [5] - "苹果基础模型"团队出现人才流失 部门创始人庞若鸣离职加盟Meta 薪酬超2亿美元 约十名团队成员追随离职 另有三位核心AI研究员加入OpenAI和Anthropic [9] 未来产品规划 - 除搜索升级外 计划对语音助手进行视觉重塑 开发健康AI代理支持2026年付费健康订阅服务 [8] - 将为未来家用设备带来更强对话能力 [8] - 下周发布iPhone 17时预计不会推出重大新AI功能 [8] 收购战略与竞争态势 - 讨论过收购Perplexity和Mistral等AI初创公司 曾认真评估Perplexity技术但目前不再积极考虑竞购 [9] - 自有搜索产品将与Perplexity形成直接竞争 [9] - 仍在寻求交易机会补充人才储备 [9]
大模型“记性差一点”反而更聪明,金鱼损失随机剔除token,让AI不再死记硬背
36氪· 2025-09-03 23:54
大语言模型如果不加约束,很容易把训练数据原封不动地复刻出来。为解决这个问题,来自马里兰大学、图宾根大学和马普所的研究团队提出了一个新方 法——金鱼损失(Goldfish Loss)。 训练大模型时,有时让它"记性差一点",反而更聪明! 顾名思义,金鱼损失就是让模型像金鱼一样,不去死记每一个细节,而是在损失函数计算时随机剔除一小部分token。 由此,模型不再逐字记住训练集内容,但仍能学会语言规律。 实验显示,LLaMA-2在使用金鱼损失后: 用网友的精辟评论概括就是:dropout,但损失函数! 在梯度计算中随机屏蔽部分token 金鱼损失的核心理念非常简单,就是在模型训练过程中随机剔除一部分训练文本中的tokens,使其不参与损失计算。 这样一来,当模型在推理阶段遇到这些位置时,就只能"猜测",而不是逐字逐句复现训练数据的完整序列。 $\mathcal{L}_{\text{goldfish}}(\theta)=-\frac{1}{|G|}\sum_{i=1}^{L}G_{i}(x_{i})\log P(x_{i}|x_{<i};\theta)$. 此外,为了保证被剔除token的一致性,研究人员设计了一种基 ...