Workflow
AI前线
icon
搜索文档
顶刊论文“飙脏话辱骂第二作者”,期刊回应;刚上线就卡塞? 昆仑万维:已限流;马斯克宣布回归 7x24 小时工作状态 | AI周报
AI前线· 2025-05-25 04:24
字节跳动合规管理 - 公司发布端午合规提示,严禁商业伙伴向员工赠送礼品礼金(包括粽子礼盒、现金、红包等)及提供不当招待,违者将被列入永不合作清单 [2] - 强调合作应基于业务水平而非利益输送,体现对腐败行为的"零容忍"态度 [2] 快手员工刷视频争议 - 网传公司强制商业化等部门员工每日刷1小时快手短视频并上报数据,未达标或影响绩效,旨在提升产品体验感知 [3] - 内部人士否认强制要求,称仅倡导员工多使用产品,未与绩效挂钩 [3] 昆仑万维AI产品上线 - 天工超级智能体上线3小时后因用户量过大导致卡塞,公司紧急实施限流措施 [4] - 产品采用AI agent架构,集成5个专家智能体+1个通用智能体,支持多模态内容生成 [4] 零一万物战略调整 - 联合创始人谷雪梅数月前离职,公司业务重心转向轻量化模型训练与市场应用,2025年收入已超去年全年 [5] 英伟达技术突破 - Blackwell GPU在4000亿参数Llama 4模型上实现1000 TPS/User的AI推理速度纪录,通过TensorRT-LLM优化性能提升4倍 [11] - 推出人形机器人基础模型Isaac GR00T N1.5,训练周期从3个月压缩至36小时,环境适应速度提升40% [25] 苹果AI生态开放 - 计划向开发者开放AI大模型权限,刺激应用创新,App Store 600万开发者中10%参与或催生数万款新工具 [12] OpenAI硬件布局 - 以65亿美元收购前苹果设计师创立的AI设备公司io,支付50亿美元现金(已持股23%),为迄今最大收购 [12][13] 腾讯AI产品矩阵 - 升级智能体开发平台TCADP,接入DeepSeek-R1/V3模型并计划开源混合推理模型 [21] - 发布混元游戏视觉生成平台,AIGC工具使游戏美术设计效率提升数十倍 [22][23] 谷歌AI订阅服务 - 推出月费249美元的Google AI Ultra全家桶,整合Gemini高阶功能及30T云存储,支持Veo 3视频生成 [17][18] 京东工业大模型 - 发布供应链核心工业大模型Joy industrial,推出需求代理、商品专家等AI智能体,瞄准汽车/能源等垂直领域 [28] 美团AI编程工具 - 即将上线NoCode工具,定位"氛围编程"方向,由研发质量团队开发并已灰度测试 [20] 微软开发者生态 - Build 2025大会聚焦AI Agent,GitHub Copilot升级为自主任务执行的"同伴编程"工具 [26][27] 智元机器人融资 - 获京东及上海国资基金投资,估值居国内具身智能第一梯队,创始人稚晖君为前华为"天才少年" [14] Anthropic模型进展 - Claude 4系列实现连续7小时自主代码生成,刷新AI纪录,Opus 4模型强化内存管理与规划机制 [16]
打破资源瓶颈!华南理工&北航等推出SEA框架:低资源下实现超强多模态安全对齐
AI前线· 2025-05-24 04:56
多模态大模型安全对齐技术 - 北航彭浩团队提出SEA框架,通过合成嵌入技术解决多模态大模型(MLLMs)低资源安全对齐难题,突破真实多模态数据构建的资源瓶颈[1][6] - SEA框架在模态编码器表示空间中优化合成嵌入,替代真实多模态数据,仅需文本输入即可实现跨模态安全对齐[8][10] - 当前MLLMs安全对齐面临三大挑战:多模态数据集构建成本高、文本对齐对非文本攻击防御弱、新兴模态缺乏通用解决方案[4][5][6] SEA技术实现细节 - SEA框架包含三大组件:模态编码器M(・)、投影层P(・)和大型语言模型(LLM),通过冻结模型参数仅优化嵌入向量实现安全对齐[9][14][16] - 嵌入优化过程采用内容控制样本和风格控制样本,最大化模型生成指定内容的概率,平均优化时间在单张3090上不超过24秒[15][16][36] - 安全对齐阶段将合成嵌入与文本数据集整合,通过修改前向传播过程适配现有训练策略,支持与真实数据集混合使用[19] 评估基准与实验结果 - 构建VA-SafetyBench评估基准,包含视频和音频两大模态,覆盖八大安全场景,攻击成功率最高达71.13%(视频)和65.97%(音频)[20][21][28][29] - 实验显示SEA在图像模态将多模态攻击成功率从62.78%降至2.74%,在视频模态从69.24%降至6.35%,音频模态从34.31%降至4.15%[33][34][35] - 嵌入验证成功率(VSR)达87.76%(图像)、69.52%(视频)和97.15%(音频),证明合成内容与模型语义高度一致[36] 行业应用价值 - SEA框架在Llava-v1.5-7b-hf、Qwen2-VL-7b和Qwen2-Audio-7b等主流模型上验证有效,展现跨模态通用性[31][34][35] - 相比传统方法,SEA显著降低计算成本,单个样本合成时间缩短至12-24秒,支持大规模并行处理[36] - 该技术为新兴模态提供前瞻性解决方案,在高质量真实数据集稀缺阶段可作为安全落地的过渡方案[37]
用印度程序员冒充 AI 的“独角兽”彻底倒闭了!伪 AI 烧光 5 亿美元,连微软和亚马逊都被“坑”了
AI前线· 2025-05-24 04:56
BuilderAI破产事件核心分析 公司背景与融资情况 - 英国AI初创公司BuilderAI曾获微软支持,D轮融资2.5亿美元,估值近10亿美元[2] - 累计融资约5亿美元,投资方包括微软、卡塔尔财富基金QIA和Insight Partners[23] - 2023年收入宣称增长至1.4亿英镑(未证实),但实际收入仅覆盖9%支出(2023财年2300万英镑)[22] 破产直接原因 - 欠亚马逊8500万美元、微软3000万美元债务无法偿还[1][23] - 2024年3月现金储备仅余700万美元,虽紧急融资7500万美元仍无法维持运营[22] - 每日烧钱超50万美元,资金链彻底断裂[20][22] 技术真实性争议 - 核心系统Natasha被宣传为"AI产品经理",声称实现设计语言与编程语言自动转换[3][5] - 实际开发流程高度依赖人力:雇佣数万名低成本开发者完成标榜的"AI自动化"任务[8][12] - 前员工揭露其AI工具(如Figma转React Native代码)生成结果不可用,人工开发效率更高[12] 运营管理问题 - 2024年5月破产前裁员220人(占员工总数28%)[2] - 被曝系统性压榨外包开发者:扣减工时(实际160小时仅支付70-90小时)、拒付费用导致人员流失[12][13] - 前CEO Sachin Dev Duggal涉法律纠纷,2024年3月卸任但仍保留"首席巫师"头衔[14][16] 行业影响与同类案例 - 被比作"AI界的Theranos",多项目未交付却持续接单[11] - 类似"伪AI"模式普遍:Nate公司(融资5000万美元)核心流程自动化率为零[25][26] - 行业现象:人力伪装AI成融资捷径,但无法规模化且成本失控[27][28] 历史争议事件 - 2019年《华尔街日报》揭露其过度依赖人工编程,缺乏专业AI团队[18] - 2021年Gartner魔力象限报告中进入"前瞻者"象限,但技术能力存疑[6] - 与微软合作集成Azure OpenAI服务的宣传未达预期效果[6][19]
大模型时代,数据智能的构建路径与应用落点 | 直播预告
AI前线· 2025-05-24 04:56
直播活动概述 - 直播活动将于5月26日20:00-21:30举行,主题为“大模型时代的数据智能如何演进” [1][2] - 活动由DaoCloud、货拉拉、中电金信与数据项素的多位嘉宾参与对话 [1][2] 核心讨论议题 - 从不同视角审视数据智能的路径选择 [3] - 探讨数据智能在企业落地过程中的真实难题与解决思路 [3] - 分享数据构建、智能体落地、系统集成等方面的实践与反思 [3] 参与嘉宾信息 - 主持人郭峰为DaoCloud道客联合创始人兼首席技术官 [2] - 嘉宾包括中电金信研究院副院长单海军、数据项素产品副总裁覃睿、货拉拉大数据专家凌霄 [2]
腾讯混元TurboS技术报告首次全公开:560B参数混合Mamba架构,自适应长短链融合
AI前线· 2025-05-22 19:57
腾讯混元TurboS模型技术亮点 - 采用创新的Hybrid Transformer-Mamba架构MoE设计,结合Mamba长序列处理效率与Transformer上下文理解优势,实现性能与效率平衡 [2] - 模型激活参数56B(总参数560B),为业界首个大规模部署的Transformer-Mamba专家混合模型 [2] - 引入自适应长短思维链机制,动态切换快速响应与深度思考模式,优化计算资源分配 [7] 模型性能表现 - 在LMSYS Chatbot Arena评测中获1356分,全球排名第7,国内仅次于Deepseek [1][2] - 多语种能力突出,中文/法语/西班牙语并列全球第一,韩文排名全球第二 [4] - 四大关键任务(困难提示/创意写作/多轮对话/长问题)均进入全球前五 [5] 架构与训练创新 - 采用128层交错式"AMF"(Attention→Mamba2→FFN)和"MF"模块设计,FFN层占比50%,Mamba2层占44.5% [14][15] - 预训练使用16万亿Token语料,上下文窗口扩展至256K Tokens [10][18] - 后训练包含监督微调/自适应CoT融合/多轮推敲学习/两阶段强化学习四模块 [22] 基准测试对比 - 数学推理表现仅次于DeepSeek-v3-0324,GSM8K达94.4分,MATH达90分 [41] - 逻辑推理在BBH/DROP/Zebra-Logic基准与DeepSeek-V3共同树立新标杆 [42] - 中文任务表现强劲,C-Eval得分88.7,CMMLU达89.4 [20][42] 基础设施优化 - 自研Angel-RL训练框架集成5种并行技术,ZeroCache技术降低GPU显存压力 [45][46] - 推理部署优化实现1.8倍加速,数学/编程任务Token消耗减少35%-45% [47] - Mamba Kernel优化增强计算并行性,MoE专家并行缓解解码显存瓶颈 [47]
全球最强编码模型 Claude 4 震撼发布:自主编码7小时、给出一句指令30秒内搞定任务,丝滑无Bug
AI前线· 2025-05-22 19:57
Claude 4系列模型发布 - Anthropic在首届开发者大会上正式发布Claude 4系列模型,包含Opus 4和Sonnet 4两个型号 [1][3] - Opus 4是公司迄今最强大的AI模型,能连续处理长达7小时的长期任务,被描述为"世界上最好的编码模型" [6][8] - Sonnet 4定位经济高效,取代3.7版本,在编码效率和响应精确度上显著提升,走捷径概率降低65% [13] 技术性能突破 - 编码能力:Opus 4在SWE-bench和Terminal-bench分别达到72.5%和43.2%准确率,领先竞品 [4][8] - 推理能力:Opus 4在研究生级推理测试GPQA中达79.6%/83.3%,工具使用准确率81.4% [4][10] - 内存优化:模型可创建"内存文件"存储关键信息,提升长期任务连贯性,如游戏导航指南 [11] 行业竞争格局 - 2025年AI行业转向推理模型,Poe报告显示推理类交互占比从2%激增至10% [32][35] - 主要厂商差异化竞争:OpenAI强于通用推理,谷歌擅长多模态,Anthropic专注编码和持续性能 [35] - 模型更新节奏加快,Anthropic在OpenAI发布GPT-4.1五周后即推出竞品 [35] 商业化进展 - 定价策略:Opus 4每百万token 15-75美元,Sonnet 4为3-15美元,与旧版持平 [15] - 营收增长:第一季度年化营收达20亿美元,较上季度翻倍,10万美元以上客户数同比增8倍 [23] - 融资动态:获25亿美元五年期循环信贷额度,增强行业竞争流动性 [23] 开发者生态 - 发布Claude Code命令行工具,支持GitHub Actions及VS Code/JetBrains原生集成 [17] - API新增代码执行工具、文件API等功能,支持提示缓存1小时 [21] - 提供"扩展思考"测试版功能,允许模型在推理中交替使用网络搜索等工具 [19][20] 用户实测反馈 - 网友实测显示Opus 4能30秒生成CRM仪表盘,Sonnet 4可无bug通关游戏并执行多任务 [24][26] - 艺术创作测试中,模型仅凭简单提示即生成包含光影效果的3D作品 [28]
砸65亿美元招揽58岁乔布斯门生!55名苹果元老工程师尽归OpenAI,奥特曼终拿下“盯了”两年多的AI产品!
AI前线· 2025-05-22 04:30
收购交易细节 - OpenAI以65亿美元全股权收购IO公司 其中50亿美元用于收购剩余77%股份(此前已持有23%)[1][2] - 交易涉及IO公司55名工程师和产品开发人员并入OpenAI 包括前苹果核心团队成员Scott Cannon Evans Hankey和Tang Tan [2] - Jony Ive及其设计工作室LoveFrom保持独立 但将在OpenAI和IO公司承担创意设计责任 [3] 战略布局与产品规划 - 收购旨在开发新一代"AI原生设备" 目标超越智能手机时代 推动"环境计算"发展 [3][7] - 首批产品预计2026年推出 团队已探索耳机等可穿戴设备和AI驱动相机设备 [5][6] - 原型机被Altman称为"全世界将见过的最酷科技产品" 强调技术使用体验的革新 [7][8] 财务与资源整合 - OpenAI今年3月完成软银牵头的400亿美元融资 但面临年底重组压力 [3] - 公司预计2025年销售额37亿美元 2026年116亿美元 同时洽谈30亿美元收购Windsurf [4] - ChatGPT等技术开发成本极高 公司需要提高收入支撑硬件研发投入 [4] 核心团队背景 - Jony Ive为苹果工作30年 主导iPhone等产品设计 其子介绍ChatGPT促成与Altman合作 [6] - 合作源于对智能手机负面影响的反思 旨在通过AI帮助人们"在喧嚣中理清头绪" [7] - 团队整合苹果硬件基因与OpenAI的AI技术 被业界视为"自乔布斯后最令人兴奋的硬件组合" [8] 行业影响与定位 - 尝试解决AI技术尚未在实体设备找到理想形态的问题 突破当前手机应用局限 [8] - 对比Humane公司Ai Pin失败案例 体现OpenAI对硬件落地的差异化思考 [8] - 市场评价认为此次合作可能使OpenAI成为"真正的硬件玩家" 重塑行业格局 [8]
从 DeepSeek 部署看,华为如何让 MOE 架构“迎来”海量“专家”?
AI前线· 2025-05-22 04:30
模型开发趋势 - 模型开发从算法层优化转向系统工程层面的深度创新 [1] - 行业从数字化时代的比特流量转向Token经济体系,国内Token日消耗量从千亿级跃升至十万亿级 [1] - 头部平台如DeepSeek日均处理6000亿Token,验证高吞吐、低时延系统的商业价值 [1] - 模型结构从单一架构探索发展为多模态融合创新,分布式集群部署成为新常态 [1] - ChatGPT和DeepSeek用户规模突破亿级的时间从1个月压缩至7天,系统处理能力实现数量级提升 [1] 华为对DeepSeek的优化 - 华为针对DeepSeek的优化包括预训练、算子层面、计算与通信优化、内存优化等方面 [3][6][7][10] - 预训练方面,华为复现并改进DualPipe技术,最终提出DualPipe-V方案,优化显存使用并集成至MindSeed [6] - 算子层面实现MRN的PO融合算子,提升执行效率 [7] - 计算与通信优化包括低时延通信优化和双链路通信掩盖 [7] - 内存优化方面,华为自研重计算技术,节省多个GB显存,适用于计算量小但激活值大的操作 [10] 推理优化与系统架构 - 华为提出PD(Prompt Decoder)分离部署,降低首token延迟并提升整体推理效率 [12] - 针对MOE架构,华为研发"超节点"架构,通过高速总线将上百张GPU卡互联,显著减少通信时延 [14] - 超节点架构采用统一内存编辑和语义通信,实现TB级带宽超高速互联 [14] - Atlas 900 A3 SuperCluster突破Scale up物理节点计算瓶颈,训练效率提升2.7倍 [15] - 在A3超节点集群上完成DeepSeek V3训练优化,达到每卡1,216 TPS吞吐率,MFU达44.57% [15] MOE架构与负载均衡 - MOE架构专家数量不断增加,DeepSeek V3/R1已有288个专家 [13] - 华为引入动态专家并行策略,取代传统张量并行,规避显存和计算浪费 [17] - 通过静态、分段及动态均衡负载算法,解决专家并行带来的负载均衡问题 [17] - 华为发布OmniPlacement算法,识别热/冷专家,优化计算均衡,理论上降低10%推理延迟并提升10%吞吐量 [19]
3 层人群定位 × 5 种赋能手段,企业全员数据能力提升指南 | 极客时间企业版
AI前线· 2025-05-22 04:30
在 AI 重构商业规则的今天,数据能力已不再仅是企业的"数字化配件",而是驱动智能革命的"数字神经中枢"。数据是 AI 价值爆发的"第一性原理"。无论 是大语言模型对万亿级 token 的吞噬,还是工业 AI 对千万传感器信号的解析,缺乏高质量数据喂养的 AI 系统如同无米之炊。当传统企业的竞争停留于 产品功能迭代时,数据驱动的企业已构建起"感知 - 决策 - 行动"的智能闭环,数据密度与业务智能度呈现指数级正相关。 当前,众多企业在构建数据人才体系时普遍存在一些问题:缺乏系统化培养路径,难以匹配不同层级员工的差异化需求;缺少实战导向的方法论,人才 培养与业务场景脱节;以及专业师资与前沿课程资源不足。这些瓶颈正成为企业释放数据价值、实现智能升级的重要阻碍。对此,极客时间打造了一套 覆盖"战略规划 - 业务落地 - 技术支撑"全链条的数据人才培养体系,帮助企业全员建设数据能力的解决方案。 企业数据人才培养痛点与挑战 在当今全球化时代,数据已成为企业和国家发展的重要战略资源。培养数据方向人才对于企业提升竞争力和推动国家数字经济发展具有重要意义。全球 范围内对数字经济的重视程度日益提升,众多国家和国际组织围绕数据人 ...
博士宿舍激情脑暴,革新了Scaling Law?Qwen和浙大联手推出新定律,直接干掉95.5%推理内存!
AI前线· 2025-05-21 10:04
核心观点 - 阿里巴巴与浙江大学合作提出并行计算缩放定律(ParScale),通过增加模型并行计算而非参数数量提升大模型能力,内存增加量仅为参数缩放法的4.5%(1/22),延迟增加量16.7%(1/6)[1] - ParScale可通过后训练少量token将预训练模型转为并行缩放模型,降低训练成本,适用于任何模型结构、优化过程或任务[1][7] - 该方法在数学、编程等强推理任务中表现突出,P=8时编码任务提升4.3%,数学任务提升7.3%,GSM8K准确率提高10%[15][16] 技术实现 - **并行流机制**:输入通过多样化前缀生成多视角版本,并行处理后动态加权融合输出[13] - **两阶段训练**:第一阶段1T token传统训练,第二阶段仅20B token微调实现ParScale适配[14] - **计算效率**:复用现有参数扩展并行路径,内存占用仅为参数扩展法的1/22,延迟为1/6[1][19] 性能验证 - **基准测试**:在常识(MMLU)、数学(GSM8K)、编码(HumanEval)等任务中,P值越大性能提升越显著[15] - **成熟模型适配**:在已训练18T token的Qwen-2.5模型上应用,持续预训练和参数高效微调均获显著提升[16] - **边缘设备优势**:适合手机、汽车等小batch场景,内存和延迟效率优于传统方法[18][19] 行业应用前景 - **低成本部署**:通过后训练适配现有模型,降低资源需求,促进低资源场景应用[1][12] - **动态调整能力**:同一模型权重可灵活调整并行流数量,实时平衡性能与推理开销[16] - **技术互补性**:未来可能与MoE架构结合,形成内存友好与延迟友好的混合方案[19] 开源与社区反馈 - 代码已在GitHub开源,HuggingFace提供体验链接[2] - 社区评价为"突破性思路",尤其看好边缘计算场景的适用性[18] - 研究团队计划扩展至MoE架构及更大规模数据验证[19]