苹果AI战略与产品更新 - 苹果在WWDC 2024推出名为Apple Intelligence的个人智能系统 强调五大原则:强大、直观、整合、个性化、隐私 [4][5] - 系统深度整合到iOS 18 iPadOS 18 macOS Sequoia 覆盖四大场景:新Siri、写作工具、归纳总结、生成图片 [4][8][9][10] - 新Siri日均处理15亿次请求 通过大模型提升理解能力 支持跨应用操作和上下文记忆 [4] - 写作工具嵌入所有文本输入场景 支持重写/润色但不支持无中生有 需调用ChatGPT生成原创内容 [8] - 归纳总结功能可处理长文本/网页/通知 并支持通话录音转写(需对方同意) [9] - 图片生成仅限动画/插画风格 强调上下文匹配 Genmoji功能可文字生成表情但效果逊于Memoji [10][11][13] 技术架构与硬件限制 - 采用三层模型架构:1)设备端小模型 2)私密云计算(M2 Ultra芯片) 3)第三方模型(GPT-4o) [17][18][20] - 仅支持A17 Pro/M系列芯片设备 iPhone 15 Pro/Max为首批兼容机型 [17] - 私密云计算采用M2 Ultra芯片 成本约为H100的1/10 单芯片可处理4-6个700亿参数请求 [18][19] - Siri整合GPT-4o 复杂问题可调用 数据不存储且无需跳转应用 [7][20] - 计划2024年夏季推出美式英语版本 其他语言版本需等待一年 [16] 商业策略与行业定位 - 所有AI功能免费提供 依靠硬件销售和互联网服务收入覆盖成本 [22] - 全球超10亿iPhone用户 数亿苹果生态用户 年服务收入近千亿美元 [22] - 采取跟随策略 重点在技术整合而非创新 类似iPod/iPhone成功路径 [22] - 强调隐私保护 设备端优先处理 云端数据不留存 [16][17] - 开放API供第三方接入 与微软"屏幕记忆"方案形成对比 [16][22] 产品细节与用户场景 - iPad新增AI计算器 支持手写公式识别/自动图表生成 解决14年遗留问题 [2][3] - 图片生成强调实用性 笔记应用自动关联周边文本作为提示词 [11] - 通话录音功能通过系统级提醒解决合规问题 [9] - 多设备无缝协同是核心优势 信息可跨iPhone/iPad/Mac调用 [15]
苹果的大模型冲刺:没有 AI 新产品,只有新功能