知识蒸馏

搜索文档
对话27岁博导张林峰:模型压缩获CVPR满分有点意外,上海交大像我这样年轻老师很多
量子位· 2025-05-27 01:07
模型压缩技术突破 - 提出新型数据集蒸馏方法NFCM,在CVPR 2025获满分评价,显存占用仅为前SOTA的1/300且速度提升20倍,仅需2080Ti显卡即可实现CIFAR数据集无损蒸馏 [2][6] - 通过引入NCFD分布差异度量,将数据集蒸馏转化为minmax优化问题,在连续学习和神经架构搜索任务中展现优异性能 [6] - 数据压缩与参数压缩结合成为新趋势,通过高质量数据合成降低训练成本,内部验证节省成本/挑选成本>1的可行性 [7][8][9] 多模态模型加速实践 - 在扩散语言模型中实现最高9倍加速且无性能损失,多模态大模型可删除80%-90% token仍保持高精度 [10][11] - 提出Token-wise Caching(Toca)方法,首次在图像/视频生成中实现无需训练即2倍加速,解决Diffusion Transformer计算瓶颈 [13][14] - TaylorSeer技术将特征缓存从复用转向预测,在DiT等模型实现5倍加速,八卡GPU推理使视频生成速度逼近实时播放 [20][22][24][25] 知识蒸馏演进路径 - 自蒸馏框架通过模型深层蒸馏浅层,ICCV2019论文被引1100+,推动无教师蒸馏发展 [32][33][34] - 知识蒸馏三阶段演进:从强模型教弱模型→自蒸馏→弱模型教强模型,第三阶段具AI进化潜力 [35][36] - 大模型时代强化压缩需求,需平衡结构效率与知识保留,数据视角压缩可避免重训练的高成本 [38][44][46] 行业技术趋势 - 模型压缩从传统剪枝/量化转向数据视角创新,DeepSeek等推动高效低成本范式受关注 [4][26] - 视频生成领域成为技术验证重点,目标实现生成速度超过播放速度的实时效果 [25][27] - 跨专业协作现象显著,非计算机背景人员可参与研究,仅需动机和基础编程能力 [55]
Jeff Dean:一年内 AI 将取代初级工程师,网友:“Altman只会画饼,Jeff说的话才致命”
新浪财经· 2025-05-18 22:46
AI技术发展预测 - 谷歌首席科学家Jeff Dean预测一年内将出现具备"初级工程师"能力的24/7全天候AI系统[1][13] - AI工程师不仅能够编写代码,还具备人类工程师难以比拟的持续性与规模化潜力[4] - 多模态成为重要趋势,AI输入输出可涵盖音频、视频、图像、文本或代码等多种形式[6] AI行业格局 - 构建最先进AI模型需要大量投资,最终市场可能仅保留少数几个主流模型[8] - 知识蒸馏技术可将强大模型压缩成轻量级模型,适配更多应用场景[9] - 谷歌通过Pathways系统实现单一Python进程控制上万设备,显著提升开发者体验[19][20] 硬件发展趋势 - 专用机器学习硬件如TPU对AI发展至关重要,谷歌已推出多代TPU产品[16] - 模拟计算在功耗效率方面具有优势,可能成为未来推理硬件发展方向[18] - AI计算需求变化推动硬件创新,需要针对训练和推理不同负载优化设计[22] 技术突破方向 - 稀疏模型和混合专家架构可带来10-100倍的效率提升[24] - 动态扩展模型结构比固定模型更具潜力,可优化资源分配[25] - AI正在改变科研方式,神经网络可加速科学模拟达30万倍[17] 产品应用前景 - AI助手可观察用户操作并协助完成任务,如浏览器标签管理[11] - 教育领域可能成为AI杀手级应用场景,可自动生成互动教学内容[10] - 物理机器人智能体在未来几年可能完成数十种实际工作任务[7]
Sebastian Raschka 新书《从头开始推理》抢先看,揭秘推理模型基础
机器之心· 2025-05-02 04:39
推理模型发展现状 - 著名AI技术博主Sebastian Raschka正在撰写新书《Reasoning From Scratch》,聚焦LLM推理机制实现[2] - 当前LLM的成功主要依赖统计模式识别,而新兴推理技术使其能处理逻辑难题、多步骤算术等复杂任务[5] - OpenAI的o1模型和深度求索的DeepSeek-R1标志着推理能力成为行业焦点[41][44] LLM推理的核心定义 - LLM语境中的推理指模型生成中间步骤(思维链CoT)后输出最终答案的能力[8] - 推理过程可能展示中间步骤,但其底层机制与人类认知存在本质差异[12][13] - 推理与模式匹配的根本区别在于:前者需逻辑推导,后者仅复现训练数据中的统计关联[23][25] LLM训练流程 - 传统训练分两阶段:预训练(TB级文本学习语言模式)和后训练(指令微调+偏好微调)[16][17] - 预训练成本极高(数千GPU运行数月/数百万美元),使模型具备翻译、代码生成等涌现能力[17] - 后训练阶段通过SFT提升任务理解能力,通过偏好微调优化输出风格[20] 模式匹配与逻辑推理对比 - 标准LLM(如GPT-4o)通过高频搭配记忆回答问题(如「德国→柏林」),非真实推理[24] - 面对矛盾前提(「所有鸟都会飞但企鹅不会」),普通LLM依赖训练数据中的文字概率而非逻辑检查[28][30] - 大规模训练使模型能模拟推理行为,但遇到全新题型、复杂推导时仍易出错[36][37] 推理能力提升方法 - 推断时间计算增强:通过思维链等技术在推理阶段提升性能,无需修改模型权重[46] - 强化学习:基于数学证明正确性等客观奖励信号动态优化推理策略[47] - 知识蒸馏:将高性能模型的推理模式迁移至轻量化模型,需专用推理任务数据集[48][49] 推理模型的应用权衡 - 推理模型适用于数学证明、编程等复杂任务,但对翻译、问答等简单任务效率低下[56] - 生成更长中间步骤导致计算成本倍增(API计费按token数量)[57] - 行业趋势显示主流厂商正将推理能力整合至通用模型(如OpenAI计划统一GPT与o系列)[54][55] 实践价值 - 从头实现推理模型可深入理解LLM能力边界与计算成本权衡[51][57] - 深度求索开源方案推动行业技术透明化,降低开发门槛[52] - 专用推理模型需与通用模型配合使用,形成任务适配的技术矩阵[56]
中金 | AI 进化论(3):DeepSeek本地部署需求盛行,一体机硬件乘风而上
中金点睛· 2025-03-05 23:11
文章核心观点 - DeepSeek开源大模型推动私有化部署新趋势,其R1模型在性能、开源策略、硬件成本和适配优化方面具备优势,有望推动包括DeepSeek一体机在内的本地私有化部署需求快速提升,利好算力硬件需求 [1][7][12] DeepSeek开源大模型特点及影响 - DeepSeek V3版本模型以仅1/10训练成本获得与海外领先模型对标能力,R1模型在少量标注数据下提升推理能力,性能比肩OpenAI o1正式版,且于2025年2月24日启动“开源周”丰富开源生态 [7] - 高质量开源模型推动AI大模型能力边界探索和应用落地,利好算力硬件需求;DS在C端APP下载量呈指数级增长,在B端加速垂直领域渗透,45%央企已完成DS模型部署 [8] - 大模型云端部署带动云端算力需求提升,R1模型有望推动云资源消耗量提升,阿里云收入增速和资本开支增长积极 [10] - DeepSeek部署不止于云端,本地化私有部署保障数据安全,C端“云端协同”优化体验与隐私保护,B端部分行业刚性需求驱动本地化部署 [11] C端:DeepSeek - R1+蒸馏技术,轻量化模型推动AI端侧部署 DeepSeek - R1蒸馏 - 知识蒸馏将671B参数量的“教师模型”决策逻辑和特征表征能力迁移至轻量“学生模型”,生成6个不同版本蒸馏模型 [15] - 蒸馏版模型推理性能超越同规模传统模型,在多个推理基准测试中表现优异,兼具经济性与有效性 [16] 蒸馏模型本地部署 - 蒸馏模型减少对显存、内存和存储需求,适合搭载于资源受限终端设备,不同版本参数蒸馏模型需选择合适终端硬件配置 [19][20] - PC是承载本地模型重要终端,DeepSeek - R1轻量化模型推动AI PC升级,换机动力有提升空间,端侧模型进化与硬件迭代形成飞轮效应 [21] B端:AI私有化部署新趋势,DeepSeek一体机的全栈式解决方案 DeepSeek一体机重构本地私有化AI部署模式 - DeepSeek R1全参数模型对系统显存等提出更高要求,一体机是“开箱即用”智能算力解决方案,重构本地私有化AI部署模式 [24][25][26] - 一体机具备深度优化的高性能硬件、内置多种基座大模型、全栈工具链等优势,可缩短部署周期、降低落地门槛 [26][27] DeepSeek一体机软硬件协同难点 - 主流国产AI训练芯片缺少对FP8精度支持,采用16位精度单元计算会大幅降低效率,显存需求增加 [28] - 为在单台8卡服务器上实现全参数DeepSeek R1模型,厂商需进行定点量化,在优化算力效率与保障模型效果间寻求平衡 [30][32] DeepSeek一体机迎合本地化部署需求,市场空间广阔 - 一体机私有化部署满足企业数据安全及合规需求,降低AI大模型部署门槛,减弱B端用户对云的依赖 [33][34][36] - 预计乐观情景下2025年政府、金融等行业约5%的服务器需求转向DeepSeek一体机,需求达7万台,市场规模有望达540亿元 [38][40] 国产算力产业链全方位适配DeepSeek,服务器及云厂商拥抱一体机趋势 - 国产主流GPU厂商宣布适配DeepSeek,超过160家国产算力产业链企业完成适配,昇腾等国产GPU成为重要底层算力支撑 [40] - 算力硬件厂商、云厂商等推出DeepSeek一体机,看好整机环节头部的一体机供应商 [42]