Workflow
MobileCLIP2
icon
搜索文档
苹果端侧AI两连发,模型体积减半、首字延迟降85倍,iPhone离线秒用
36氪· 2025-09-08 02:42
核心观点 - 苹果发布两条多模态主线FastVLM和MobileCLIP2 主打快速响应和轻量化部署 模型和Demo已全面开放 支持Safari网页直接体验 实现大模型在手机端的高效运行 [1] 技术特性 - FastVLM采用自研FastViTHD编码器 通过动态缩放和混合设计处理高分辨率图像 首字延迟仅为竞品LLaVA-OneVision-0.5B的1/85 [2][4] - FastVLM在0.5B/1.5B/7B参数规模下均保持低延迟和高精度 在7项视觉语言任务中准确率与竞品相当但延迟显著更低 [6] - MobileCLIP2通过多模态蒸馏和数据增强技术 在ImageNet-1k上零样本精度与SigLIP-SO400M/14相当但参数量减半 iPhone 12 ProMax延迟比DFN ViT-L/14低2.5倍 [9][14] 应用场景 - FastVLM支持实时字幕生成 在无障碍场景中实现盲文输入与屏幕阅读器同步 [21][23] - MobileCLIP2支持离线图像检索和描述 无需云端算力 保障数据安全且响应即时 [14][17] - 两者组合可覆盖实时字幕 相机翻译 相册语义搜索等场景 通过Core ML+Swift Transformers工具链集成至iOS/macOS应用 [17][19][24] 开发者支持 - 提供Hugging Face模型卡和WebGPU Demo Safari授权摄像头即可体验实时功能 [8][15][17] - 配套Core ML工具链和WWDC文档 支持调用GPU与神经引擎 优化性能与能耗 [19][24] - 兼容性存在部分限制 WebGPU在不同浏览器和机型表现不一致 端侧模型需权衡算力与续航 [24]
苹果沉默一年,终于亮出AI底牌
虎嗅APP· 2025-09-05 13:56
苹果端侧AI战略 - 苹果在HuggingFace上全面开源视觉语言模型FastVLM和MobileCLIP2 构成其端侧AI小模型战略核心[4][5] - FastVLM在生成第一个token的响应速度上比同类模型LLaVA-OneVision-0.5B快85倍 视觉编码器规模缩小3.4倍[7][9] - 7B版本性能优于Cambrian-1-8B模型 响应速度快7.9倍 通过混合视觉编码器FastViTHD实现速度与性能平衡[9] 技术实现特点 - FastVLM采用卷积网络和Transformer融合的混合视觉编码器 减少高分辨率图像处理产生的tokens数量[10] - 模型支持0.5B/1.5B/7B多个尺寸 可在iPhone等个人设备实现实时浏览器字幕功能[13][14] - 处理单帧画面仅需1-2秒 8帧关键帧分析在几秒内完成 在保证速度同时维持极高准确性[16][22] 行业背景与战略定位 - 苹果面对AI进展缓慢质疑 内部组建AKI团队瞄准ChatGPT 同时推进端侧小模型B计划[36] - 2024年7月开源DCLM-7B模型性能逼近Mistral-7B和Llama3 显示小模型技术积累[37] - WWDC 2024宣布Apple Intelligence由多个高度优化的AI小模型组成矩阵处理日常任务[37] 商业逻辑与竞争优势 - 端侧AI战略基于用户体验/软硬件生态/用户隐私三大基石 符合品牌承诺[39][44] - 本地设备处理避免敏感数据上传 与百度合作因隐私政策分歧受阻[42][44] - 利用A系列/M系列芯片边际性能 实现最经济可持续的商业模式[46][48] 行业趋势 - 英伟达认为小模型是Agent未来 初创公司通过小模型切入医疗/金融等垂直领域[48] - 行业对小模型兴趣升温 但苹果将其提升到生死存亡战略高度[49][51]
苹果沉默一年,终于亮出AI底牌
虎嗅· 2025-09-04 14:21
苹果开源视觉语言模型FastVLM和MobileCLIP2 - 苹果在HuggingFace上全面开源视觉语言模型FastVLM和MobileCLIP2 构成端侧AI小模型战略核心 [1][3] - FastVLM在部分任务响应速度比同类模型LLaVA-OneVision-0.5B快85倍 视觉编码器规模缩小3.4倍 [2][6] - FastVLM-7B版本与Cambrian-1-8B对比时性能更优 生成首个token响应速度快7.9倍 [6] 技术架构与性能表现 - 采用新型混合视觉编码器FastViTHD 结合卷积网络和Transformer 输出更少但更精华的tokens [7][9] - 支持高分辨率图像快速编码 在iPhone等个人设备实现实时任务处理 [5][14] - 提供0.5B/1.5B/7B多个版本 实测单帧画面分析时间仅1-2秒 8帧解读在几秒内完成 [13][17] 端侧AI战略定位 - 苹果通过小模型战略强化隐私保护 数据处理完全在设备端完成 避免云端传输敏感信息 [43][49] - 端侧AI保障用户体验可靠性 摆脱网络依赖 在无信号环境下保持核心智能功能在线 [50] - 利用A系列/M系列芯片边际性能 将计算任务分配至本地设备 形成经济可持续的商业模式 [51][53] 行业背景与战略布局 - 苹果面对AI竞争压力 内部组建AKI团队瞄准ChatGPT 同时推进端侧小矩阵模型开发 [40][41] - 2024年7月发布DCLM-7B开源模型 性能逼近Mistral-7B/Llama3等同级模型 [41] - WWDC 2024宣布Apple Intelligence由多专业小模型组成 处理邮件整理/文稿润色等日常任务 [41] 行业趋势与差异化路径 - 英伟达等企业重视小模型作为Agent未来 初创公司聚焦医疗/金融等垂直领域微调应用 [54] - 苹果端侧战略与其硬件生态/隐私承诺深度绑定 区别于行业主流云端大模型路径 [43][56] - 行业普遍追求参数规模时 苹果通过专才型小模型在细分场景实现更精准性能表现 [50]
苹果最新模型,5年前的iPhone能跑
36氪· 2025-09-01 11:37
8月28日,苹果在arXiv发布新论文,介绍新一代多模态基础模型MobileCLIP2及其背后的多模态强化训练机制,同天在GitHub、Hugging Face上开源了模 型的预训练权重和数据生成代码。 智东西9月1日消息,苹果又公布了大模型研发新进展! MobileCLIP2专为零样本分类和检索任务设计,推理延迟在3-15毫秒之间,参数规模在50~1.5亿不等。 此前基于Transformer的大型编码器存在较大内存和延迟开销,为在移动设备上部署带来的挑战,基于此,苹果2023年11月发布端侧多模态大模型 MobileCLIP,通过多模态强化训练方法改进模型在端侧的部署效果,MobileCLIP2是其改进多模态强化训练方法后的升级版模型。 论文中提到,与上一代模型相比,MobileCLIP2-B在图像分类基准数据集ImageNet-1k上的零样本准确率提高了2.2%。其模型变体MobileCLIP2-S4在 iPhone 12 Pro Max上测得的零样本准确率可对标参数规模更大的SigLIP-SO400M/14。 此次其改进的多模特训练训练机制采用了改进的教师监督(Teacher Supervision) ...