Workflow
OpenELM
icon
搜索文档
苹果被 2 名作家指控利用盗版书籍训练 AI 模型
搜狐财经· 2025-09-06 04:41
法律诉讼指控 - 两名作家向加州北区联邦法院提起集体诉讼 指控苹果公司非法使用盗版数据集Books3训练AI模型[1] - 涉事AI模型包括开源模型OpenELM和基础语言模型 数据集包含大量受版权保护的盗版书籍[1] 原告核心诉求 - 要求法院确认集体诉讼资格 主张经济赔偿包括补偿性赔偿与不当得利返还[4] - 要求永久禁止苹果继续侵权行为 依据《美国法典》第17卷第503条销毁所有涉及侵权作品的AI模型与训练集[4] - 主张由苹果承担诉讼成本及律师费用 为版权方提供全面法律保护[4] 行业背景与争议焦点 - 案件发生于AI训练版权争议关键时期 Anthropic刚以15亿美元达成类似案件和解[4] - Meta在近期诉讼中因"合理使用"抗辩胜诉 争议核心在于"合理使用"原则的适用边界[4] - 作家群体坚持认为未经许可的使用构成侵权 与科技公司立场形成直接对立[4]
苹果看上的公司,靠量子“邪修”给模型“瘦身”
虎嗅APP· 2025-09-02 14:00
公司融资与估值增长 - 公司完成5轮融资 最新B轮融资额达1.89亿欧元[6] - 2024年3月完成2500万欧元A轮融资 估值1.08亿美元[6] - 一年后估值飙升至5亿美元 涨幅达5倍[6][8] - 成为西班牙最大AI初创公司之一[6][10] 核心技术CompactifAI - 采用量子物理张量网络方法压缩模型 体积减少80%-95%[6][13][14] - 准确率仅下降2-3个百分点[14] - 压缩后模型推理速度提升4-12倍[17] - 推理成本降低50%-80%[17] - 支持在PC、手机、汽车等终端设备运行[6][17] 产品应用案例 - SuperFly模型压缩自1.35亿参数SmolLM2 仅剩9400万参数[6][15] - ChickBrain模型压缩自18B参数Llama3 降至3.2B参数[6][15] - Llama 4 Scout Slim在AWS调用成本降至每百万tokens 0.10美元[17] - 相比原版每百万tokens节省30%费用[17] 商业模式 - 通过AWS API提供压缩模型服务[17] - 提供企业级私有部署许可[17] - 通过服务提供商交付定制化压缩模型[17] - 主要客户为大型互联网企业AI团队[18] 行业竞争格局 - Meta发布13亿参数LLaMA微型模型[22] - Google推出2亿-7亿参数Gemma模型[22] - 微软Phi系列14亿参数模型在专业任务超越大模型[22] - 初创公司Neural Magic、Deci等聚焦模型效率优化[22][23] - 与苹果、三星、Sony等硬件巨头洽谈终端设备合作[22] 技术壁垒与挑战 - 方法基于量子多体系统数学技巧 具强泛化性[11][14] - 需将大模型基础算子抽象为通用压缩工作流[14] - 端侧模型需适配不同设备的计算资源与能耗[23] - 当前技术依赖现有模型压缩 非自主训练小模型[24]
1年涨五倍,被苹果看上的“模型瘦身”公司靠谱吗?
虎嗅· 2025-09-02 05:21
公司背景与融资情况 - Multiverse Computing成立于2019年 最初聚焦量子计算软件解决金融领域投资组合优化和风险管理问题[5] - 公司完成5轮融资 2024年3月A轮融资2500万欧元 一年多后B轮融资达1.89亿欧元 估值从1.08亿美元涨至5亿美元 一年增长5倍 成为西班牙最大AI初创公司之一[2][4][6] - 团队40%成员拥有博士学位 核心成员横跨金融 量子物理与科技创业三大领域 CEO恩里克拥有数学 计算机 医学博士与MBA背景 曾任西班牙Unnim银行副CEO[5] 技术突破与产品发布 - 核心技术CompactifAI采用量子物理张量网络方法 能将大模型体积压缩80-95% 准确率仅下降2-3个百分点[8][11] - 2025年8月发布两款超小模型:SuperFly(苍蝇脑)基于1.35亿参数SmolLM模型压缩至9400万参数 ChickBrain(小鸡脑)将Llama 3.1 8B模型压缩至3.2B参数(压缩率60%)[12][13] - 压缩后模型推理速度提升4-12倍 推理成本降低50-80% 在AWS云服务上每百万tokens处理费用从0.14美元降至0.10美元 节省30%成本[16][18] 商业应用与合作伙伴 - 提供三种商业服务模式:AWS API访问 私有部署许可以及通过服务提供商交付压缩模型[16] - 主要客户为大型互联网和软件企业AI团队 应用于客服聊天机器人 代码自动补全和文本分析等场景[17] - 与苹果 三星 Sony HP等硬件巨头洽谈合作 计划将超小模型嵌入下一代终端设备 契合苹果轻量化本地模型战略[19] 行业竞争与市场定位 - 2024年起科技巨头纷纷布局小模型:Meta发布13亿参数LLaMA微型模型 Google推出2亿-7亿参数Gemma 微软Phi系列用14亿参数模型在数学编码任务超越50倍体积大模型[19] - AI推理优化成为创投圈新竞技场 初创公司Neural Magic Deci OctoML等聚焦模型加速和自动选型赛道[20] - 公司技术壁垒面临挑战 端侧模型需要配合设备计算资源 能耗和发热等工程化问题 且极度依赖原有模型能力[21][23] 技术原理与性能表现 - CompactifAI采用张量网络方法 通过张量分解和矩阵低秩近似重构参数逻辑 实现高维压缩并保留几乎所有信息[8][10] - 压缩后模型可在PC 手机 汽车等设备运行 将原需8张A100 GPU运行的LLM压缩至1-2张GPU甚至CPU上实时推理[16][18] - 已发布多个压缩模型版本包括Llama 4 70B精简版Llama 4 Scout Slim以及Llama 3系列和Mistral小模型精简版[11]