端侧模型

搜索文档
独家对话安克CEO阳萌:247亿出海巨头的坦诚复盘
虎嗅· 2025-09-22 23:02
公司业绩与规模 - 2024年公司年营收超过247亿元 海外收入占比超95% [4] - 2025年上半年营收128.67亿元 同比增长33.36% 净利润11.67亿元 同比增长33.8% [4] - 公司市值超过700亿元 [4] 浅海战略核心框架 - 战略聚焦消费电子百亿规模细分市场 避免千亿级深海品类如手机电脑电动汽车 [10] - 通过品类创新和渠道优势进行饱和式攻击 [5] - 目标成为整合大量浅海品类的第三类企业集团 类似宝洁或德州仪器 [23][25] 战略演变与执行挑战 - 2017年因移动电源占比40%-50%引发品类消亡焦虑 催生长期存活战略 [16] - 2020年正式提出浅海战略 产品线扩至27个 [31] - 2022年遭遇系统性失败 20个产品线无法盈利 [37] - 2023年收缩至17个产品线 砍掉复用性低的宠物用品和电动自行车 [58][62] 组织架构调整 - 建立三层管理结构:总公司负责顶层设计 事业部负责产业方向 产品线负责一线作战 [36] - 2023年成立分布式2023实验室 聚焦电池平台 多模态感知和通用算法等底层技术 [97][106] - 研发人员深圳以外占比不足20% 计划提升区域研发中心规模 [102] 价值观与文化重塑 - 2023年将价值观从"讲道理 求卓越 共成长"改为"第一性 求极致 共成长" [76][83] - 淘汰50%以上一级部门负责人 确保价值观自上而下落地 [81] - 通过全员5小时培训课程和案例库推进文化落地 [91] 资源分配与激励机制 - 实行劳动者与股东7:3利润分配原则 2025年预计800名员工年薪超百万 [116] - 战略性亏损业务年亏损额度控制在2-3亿元 整体净利润率保持5%以上 [52][129] - 新业务负责人可获得专属股份激励 [114] 产品与技术创新 - 亏损业务持续投入:UV打印5年亏损5-6亿 户用储能累计亏6-7亿 扫地机器人4年亏10亿 [48][49][50] - 聚焦三大品牌:Anker(能源) Soundcore(影音) Eufy(家庭自动化) [126] - AI战略聚焦端侧模型 赋能既有三大领域产品创新 [154] 市场策略与布局 - 主力市场仍为欧美 中国需极致创新产品切入 [147] - 通过UV打印等创新品类开拓国内市场 [150] - 目标在各品类实现15%-20%市场份额 当前普遍低于10% [131] 人才战略 - 2025年计划招聘1000名校招生 关键岗位达800个 [121][145] - 提供"独当一面"机会 优秀应届生第二年可带队作战 [121] - 吸引创造型人才 强调与外部独角兽的差异化平台优势 [118] 未来发展方向 - 重点布局具身智能 开发看家机器狗等家庭机器人 [140] - 组建300人团队研发三维交互和操作机器人 [142] - 认为所有硬件都需用AI重做 聚焦自适应技术突破 [144]
全国首个行政复议垂直大模型亮相,面壁智能“掘金”政务数智化市场|聚焦2025服贸会
华夏时报· 2025-09-12 00:45
公司业务与产品 - 公司自主研发全国首个深度融合业务全流程的行政复议垂直大模型 覆盖从立案、审案到结案的完整办案流程 具备案件要素提取、事实与理由摘要、立案规则审查、立案文书生成、案件事实时间轴梳理等全流程大模型办案能力 目前已广泛应用于北京市司法局及16区各司法局 [2][3] - 行政复议垂直大模型为十亿参数级别的小型模型 相较于其他大模型厂商更偏向小型化 [5] - 公司采用小模型策略基于三方面因素:司法行政领域法律法规本质上是文本型且复杂度较低 小模型具有高效和低成本优势 用小模型实现大功能需要深厚技术积累 [5] - 公司重点发力端侧模型 已发布第一代旗舰端侧模型面壁小钢炮MiniCPM及后续2.0、3.0版本 今年1月发布首个端侧全模态模型面壁小钢炮MiniCPM-o 2.6 [7] - 端侧模型注重推理速度快、响应速度快、延迟小且能长时间稳定运行 能实现非常长的上下文理解 在无法联网情况下也能运行 [7] - 公司深入布局终端领域 覆盖AI Phone、AI PC、智能座舱、智能家居与具身机器人等不同领域 [7] 技术合作与商业化 - 公司此前在司法领域已有落地案例:去年6月助力深圳市中级人民法院上线运行人工智能辅助审判系统 去年11月基于清华大学与公司科研成果转化的千亿参数通用大模型"法信法律基座大模型"在最高人民法院正式发布 [4][5] - 今年以来更重视汽车领域布局:3月宣布进军智能座舱领域推进智能汽车"端侧大脑"开发 4月与英特尔建立战略合作伙伴关系共同研发端侧原生智能座舱 与中科创达达成战略合作在汽车智能座舱核心功能开展深度合作 5月与德赛西威共同发布业界首个基于高通座舱平台的端侧大模型语音交互方案 [8] - 公司7月下旬进行新一轮组织架构调整 专门成立汽车业务线一级组织 旨在实现"压强式"突破让MiniCPM端侧模型应用到更多汽车上 [9] - 在汽车领域已与吉利、长安马自达、上汽大众、一汽大众、长城、极氪等汽车品牌达成合作 [9] 融资与发展 - 自2022年8月成立以来公开四次融资:2023年4月完成天使轮融资由知乎领投智谱跟投 2024年4月完成数亿元融资由春华创投领投北京市人工智能产业投资基金等跟投 2024年12月完成数亿元融资由龙芯创投、鼎晖百孚、中关村科学城基金和赛富投资基金联合领投北京市人工智能产业投资基金与清科创投跟投 今年5月完成数亿元融资由洪泰基金、国中资本、清控金信和茅台基金联合投资 [6] - 头部大模型创业公司今年鲜少有融资消息传出 目前只有智谱和公司公布具体融资消息 [6] - 公司股东包括"AI六小虎"之一的智谱 [5] 行业竞争环境 - 随着科技大厂今年纷纷入局小尺寸模型 如阿里、腾讯、OpenAI等 公司差异化路线面临激烈市场竞争 [9] - 公司需进一步突出专业性与可靠性优势方能在差异化竞争中巩固自身地位 [2][9]
苹果看上的公司,靠量子“邪修”给模型“瘦身”
虎嗅APP· 2025-09-02 14:00
公司融资与估值增长 - 公司完成5轮融资 最新B轮融资额达1.89亿欧元[6] - 2024年3月完成2500万欧元A轮融资 估值1.08亿美元[6] - 一年后估值飙升至5亿美元 涨幅达5倍[6][8] - 成为西班牙最大AI初创公司之一[6][10] 核心技术CompactifAI - 采用量子物理张量网络方法压缩模型 体积减少80%-95%[6][13][14] - 准确率仅下降2-3个百分点[14] - 压缩后模型推理速度提升4-12倍[17] - 推理成本降低50%-80%[17] - 支持在PC、手机、汽车等终端设备运行[6][17] 产品应用案例 - SuperFly模型压缩自1.35亿参数SmolLM2 仅剩9400万参数[6][15] - ChickBrain模型压缩自18B参数Llama3 降至3.2B参数[6][15] - Llama 4 Scout Slim在AWS调用成本降至每百万tokens 0.10美元[17] - 相比原版每百万tokens节省30%费用[17] 商业模式 - 通过AWS API提供压缩模型服务[17] - 提供企业级私有部署许可[17] - 通过服务提供商交付定制化压缩模型[17] - 主要客户为大型互联网企业AI团队[18] 行业竞争格局 - Meta发布13亿参数LLaMA微型模型[22] - Google推出2亿-7亿参数Gemma模型[22] - 微软Phi系列14亿参数模型在专业任务超越大模型[22] - 初创公司Neural Magic、Deci等聚焦模型效率优化[22][23] - 与苹果、三星、Sony等硬件巨头洽谈终端设备合作[22] 技术壁垒与挑战 - 方法基于量子多体系统数学技巧 具强泛化性[11][14] - 需将大模型基础算子抽象为通用压缩工作流[14] - 端侧模型需适配不同设备的计算资源与能耗[23] - 当前技术依赖现有模型压缩 非自主训练小模型[24]
1年涨五倍,被苹果看上的“模型瘦身”公司靠谱吗?
虎嗅· 2025-09-02 05:21
公司背景与融资情况 - Multiverse Computing成立于2019年 最初聚焦量子计算软件解决金融领域投资组合优化和风险管理问题[5] - 公司完成5轮融资 2024年3月A轮融资2500万欧元 一年多后B轮融资达1.89亿欧元 估值从1.08亿美元涨至5亿美元 一年增长5倍 成为西班牙最大AI初创公司之一[2][4][6] - 团队40%成员拥有博士学位 核心成员横跨金融 量子物理与科技创业三大领域 CEO恩里克拥有数学 计算机 医学博士与MBA背景 曾任西班牙Unnim银行副CEO[5] 技术突破与产品发布 - 核心技术CompactifAI采用量子物理张量网络方法 能将大模型体积压缩80-95% 准确率仅下降2-3个百分点[8][11] - 2025年8月发布两款超小模型:SuperFly(苍蝇脑)基于1.35亿参数SmolLM模型压缩至9400万参数 ChickBrain(小鸡脑)将Llama 3.1 8B模型压缩至3.2B参数(压缩率60%)[12][13] - 压缩后模型推理速度提升4-12倍 推理成本降低50-80% 在AWS云服务上每百万tokens处理费用从0.14美元降至0.10美元 节省30%成本[16][18] 商业应用与合作伙伴 - 提供三种商业服务模式:AWS API访问 私有部署许可以及通过服务提供商交付压缩模型[16] - 主要客户为大型互联网和软件企业AI团队 应用于客服聊天机器人 代码自动补全和文本分析等场景[17] - 与苹果 三星 Sony HP等硬件巨头洽谈合作 计划将超小模型嵌入下一代终端设备 契合苹果轻量化本地模型战略[19] 行业竞争与市场定位 - 2024年起科技巨头纷纷布局小模型:Meta发布13亿参数LLaMA微型模型 Google推出2亿-7亿参数Gemma 微软Phi系列用14亿参数模型在数学编码任务超越50倍体积大模型[19] - AI推理优化成为创投圈新竞技场 初创公司Neural Magic Deci OctoML等聚焦模型加速和自动选型赛道[20] - 公司技术壁垒面临挑战 端侧模型需要配合设备计算资源 能耗和发热等工程化问题 且极度依赖原有模型能力[21][23] 技术原理与性能表现 - CompactifAI采用张量网络方法 通过张量分解和矩阵低秩近似重构参数逻辑 实现高维压缩并保留几乎所有信息[8][10] - 压缩后模型可在PC 手机 汽车等设备运行 将原需8张A100 GPU运行的LLM压缩至1-2张GPU甚至CPU上实时推理[16][18] - 已发布多个压缩模型版本包括Llama 4 70B精简版Llama 4 Scout Slim以及Llama 3系列和Mistral小模型精简版[11]
面壁智能成立汽车业务线,与吉利、长安等车企合作AI座舱
南方都市报· 2025-08-16 13:22
行业趋势 - 大模型商业化落地成为行业关注焦点 终端应用集中在汽车 手机 机器人等领域 [1] - 端侧模型优势及端云协同成为行业共识 越来越多厂商将注意力投向端侧 [2] - 汽车成为端侧智能主战场之一 多模态大模型重新定义智能座舱 实现从被动响应转向主动智能 [5] 公司战略 - 面壁智能成立一级组织汽车业务线 旨在实现压强式突破 让MiniCPM端侧模型应用到更多汽车 [1] - 公司2024年初定义并开拓端侧智能市场 推出MiniCPM系列端侧模型 形成基座 多模态 全模态的完整谱系 [1] - 2024年6月开源两款最快速MiniCPM 4.0模型 8月接力开源MiniCPM-V4.0 多模态能力可流畅运行于手机 [1] 技术产品 - MiniCPM端侧模型2.4B参数能力超越Mistral 7B模型 推出多模态代表作V2.5 o2.6等有世界级影响力的模型 [1] - 端侧模型上车使车辆在无网环境下也能体验完整功能 响应迅速且确保隐私安全 [5] - 下半年将有一批端侧模型陆续发布 [1] 商业合作 - 与吉利 大众 长安 长城 广汽等重量级车企开展合作 在AI座舱方面形成特色优势 [5] - 首款量产车型长安马自达MAZDA EZ-60将于本月底上市 搭载面壁MiniCPM端侧模型 [4][5] - 更多车企合作车型将陆续推向新阶段 [5] 竞争格局 - 越来越多创业公司和巨头涌入端侧赛道 市场加速成长 场景丰富分散容众多参与者 [5] - 阶跃星辰联合吉利推出AI智能座舱 实现行业端到端语音大模型首次量产上车 [5]
面壁智能CEO发全员信:成立汽车业务线、让端侧模型更多上“车”
中国经营报· 2025-08-15 14:56
公司战略与组织调整 - 公司于7月下旬进行新一轮组织架构调整 专门成立汽车业务线一级组织 旨在实现压强式突破 将MiniCPM端侧模型应用到更多汽车上 [1] - 公司CEO指出2025年大模型进入中场战事阶段 应用落地集中走向实战 商业化成为关注焦点 [1] - 公司已与吉利 长安马自达 上汽大众 一汽大众 长城 极氪等汽车品牌达成合作 [1] 产品与技术优势 - 公司MiniCPM端侧系列模型累计下载量超过1300万次 [2] - 端侧模型部署在终端设备运行 不需要依赖云端服务器处理推理任务 [2] - 端侧模型为汽车智能座舱提供意图理解能力 结合舱内外感知能力 实现从被动响应向主动智能转变 [3] - 端侧模型上车可使车辆在无网络环境下保持完整功能体验 确保响应迅速和隐私安全 [3] 行业竞争格局 - 科技大厂纷纷布局小尺寸模型赛道 包括阿里通义千问开源多款小尺寸模型 腾讯混元开源0.5B到7B端侧系列模型 OpenAI开源包括较小尺寸GPT-oss-20B在内的两款模型 [2] - 百度 科大讯飞 商汤 腾讯 阿里巴巴等科技企业都在向汽车端布局 [4] - 行业专家指出汽车终端是大模型必争之地 AI大模型具有通用性 可通过语音功能实现与汽车中控系统交互 未来可能与自动驾驶融合 [4] 商业化进展 - 搭载公司端侧模型的首款量产车型长安马自达新能源车EZ-60将于8月底上市 [1] - 公司在政法领域延伸模型服务 助力北京市司法局研发行政复议垂直大模型上线运行 覆盖从立案到结案全流程 被列入北京数字服务十大标杆成果 [4] 战略定位与竞争优势 - 公司较早锚定小参数模型和端侧模型的战略方向 [2] - 公司认为更多创业公司和巨头涌入端侧赛道印证了其选择赛道的正确性与前景 [2] - 公司核心压力在于需要在新入局者追赶技术优势时 更快建立商业优势并转化为商业成功 [2]
面壁李大海谈端侧模型竞争:元年开启,巨头涌入印证前景无限可能
环球网· 2025-08-15 07:48
行业趋势与战略判断 - 公司CEO提出2025年将迎来"端侧元年" 标志着机遇大门开启但市场格局尚在成形初期[1] - 端侧模型优势及"端云协同"成为行业共识 越来越多大模型厂商开始关注端侧领域[1] - 行业呈现多元化发展态势 除公司外阿里通义千问 腾讯混元开源多款小尺寸模型 OpenAI首次开源两款模型包括尺寸较小的GPT-oss-20B[1] 公司竞争定位与战略 - 公司认为压力并非来自友商竞争 更多创业公司和巨头涌入印证了赛道正确性与前景无限可能[1] - 公司核心压力在于将技术优势转化为商业优势 需要极致追求技术与用户价值的平衡[1] - 公司确立"高效"为核心竞争力 追求"同等性能我最小 同等参数我最强"的端侧模型方案[1] 技术突破与行业贡献 - 研究团队发现并提出描述大模型知识密度的"密度法则(Densing Law)" 在大模型规模法则遇到挑战时开辟新的认知视角[1] - 2024年初面壁小钢炮MiniCPM端侧模型诞生 以2.4B参数能力超越Mistral 7B模型实现以小博大[2] - 系列端侧模型累计下载量超过1300万 与高通 NVIDIA MTK Intel 华为 瑞芯微电子等国内外主流芯片厂商方案全面适配[2] 商业化进展与落地应用 - MiniCPM模型作为"端侧大脑"核心在汽车 手机 PC 家居等终端领域成功落地[2] - 在智能化汽车的新一代人机交互(AI座舱)方面形成特色优势[2] - 2024年7月下旬公司进行新一轮组织升级 专门成立一级组织"汽车业务线"通过压强式突破推动MiniCPM模型广泛上车[2]
面壁智能成立汽车业务线,首款MiniCPM车型月底上市
每日经济新闻· 2025-08-15 07:45
公司动态 - 面壁智能CEO李大海发出全员信,披露公司7月下旬进行了新一轮组织升级,专门成立一级组织——汽车业务线 [1] - 公司已与吉利、大众、长安、长城、广汽等车企开展合作 [1] - 搭载面壁MiniCPM端侧模型的首款量产车型——长安马自达战略级新能源车MAZDA EZ-60预计本月底上市 [1] 行业合作 - 面壁智能与多家知名车企建立合作关系,包括吉利、大众、长安、长城、广汽 [1] - 公司技术将首次应用于量产新能源车型MAZDA EZ-60 [1]
Qwen紧追OpenAI开源4B端侧大模型,AIME25得分超越Claude 4 Opus
量子位· 2025-08-07 00:56
核心观点 - Qwen团队最新发布两款4B端侧模型Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507,在性能上实现显著突破,尤其在小模型尺寸下超越部分大模型表现 [2][3][5][7] - 两款模型分别针对通用任务和专家级推理任务优化,支持256K长上下文并具备端侧部署优势 [7][8][16][17][24] - Qwen3-4B-Thinking-2507在AIME25数学测评中得分81.3,超越Gemini 2.5 Pro和Claude 4 Opus [4][5][23] 模型性能突破 Qwen3-4B-Instruct-2507 - 通用能力超越闭源模型GPT-4.1-nano,与30B MoE模型Qwen3-30B-A3B性能接近但参数量仅其1/7.5 [13][14][15] - 关键指标:MMLU-Redux得分84.2(vs GPT-4.1-nano 80.2),GPQA得分62.0(vs 50.3),LiveBench 20241125得分63.0(vs 41.5) [18] - 增强多语言覆盖和长文本理解能力,支持扩展至1M上下文 [17] Qwen3-4B-Thinking-2507 - 专攻复杂推理任务,AIME25得分81.3超越前代65.6分及Qwen3-30B-A3B的70.9分 [23][25] - 推理性能提升显著:HMMT25得分55.5(vs 前代42.1),ZebraLogic得分80.2(vs 35.2) [18][25] - 在Agent任务中全面碾压前代,如TAU1-Retail得分66.1(vs 33.9),TAU2-Airline得分58.0(vs 28.0) [25] 技术特性与行业影响 - 端侧适配性:支持树莓派等设备,提供GGUF量化版本和llama.cpp部署方案 [2][8][27][28] - 模型效率:4B密集模型性能接近30B MoE模型,重新定义小模型能力边界 [11][15][23] - 开源策略:通过抱抱脸和魔搭社区提供模型下载,与OpenAI同期开源形成竞争 [26][34][35] 开发者支持 - 部署工具链完整:支持Ollama、LMStudio、MLX-LM等主流框架 [27] - 优化建议:针对内存限制设备推荐缩短上下文长度,复杂推理任务建议使用>131K词元 [28][29] - Prompt设计规范:提供数学题逐步推理和选择题JSON结构化回答模板 [31] 行业动态 - 发布时间点卡位OpenAI开源窗口,引发开发者社区高度关注 [34][35] - 性能对比:Qwen3-4B系列在多项基准测试中优于GPT-4.1-nano和Claude 4 Opus [18][25] - 市场期待:用户呼吁Qwen团队加速发布Qwen3-8B系列模型 [31][33]
长文本推理 5 倍提速!面壁MiniCPM4 端侧模型发布,0.5B模型效果秒杀同级
AI前线· 2025-06-12 06:07
模型发布与性能 - 新一代"面壁小钢炮" MiniCPM4 0端侧模型发布 包含8B和0 5B两种参数规模 其中8B稀疏闪电版带来端侧性能大跃升 0 5B版本适配广泛终端场景 [1] - MiniCPM4 0-8B是首个原生稀疏模型 5%极高稀疏度加持系统级创新技术 在MMLU CEval MATH500 HumanEval等基准测试中以仅22%训练开销 性能比肩Qwen-3-8B 超越Gemma-3-12B [2] - MiniCPM4 0-0 5B在MMLU CEval BBH HumanEval等基准测试中性能超越同级Qwen-3-0 6B Llama 3 2 Gemma3 并通过原生QAT技术实现几乎不掉点的int4量化 推理速度达600 Token/s [4] 技术架构创新 - 采用新一代InfLLMv2稀疏注意力架构 稀疏度从行业普遍的40%-50%降至5% 注意力层仅需1/10计算量完成长文本计算 算子底层重写进一步提升速度与精准性 [14] - 引入高效双频换挡机制 根据任务特征自动切换注意力模式 长文本启用稀疏注意力降低计算复杂度 短文本切换至稠密注意力确保精度与速度 [17] - 开发并开源InfLLMv2高效训练与推理算子 提出高效LogSumExp估计算法 相比DeepSeek NSA算法节省60%计算开销 [16] 性能表现对比 - 在MMLU测试中 MiniCPM4-8B得分为75 83 高于Qwen3-8B的75 90和Gemma3-12B的73 36 [5] - 在CEval测试中 MiniCPM4-8B得分81 36 显著高于Qwen3-8B的80 35和Gemma3-12B的62 23 [5] - 在HumanEval测试中 MiniCPM4-8B得分85 37 接近Qwen3-8B的85 98 高于Gemma3-12B的83 54 [5] 端侧优化与部署 - 实现长文本缓存大幅锐减 128K长文本场景下仅需Qwen3-8B 1/4缓存存储空间 量化版模型瘦身达90% [8] - 自研CPM cu推理框架实现5倍速度提升 集成高效稀疏注意力算子 投机采样和量化技术 [19][21] - 已适配Intel 高通 MTK 华为昇腾等主流芯片 可在vLLM SGLang llama cpp等开源框架部署 [10] 训练与数据策略 - 采用Ultra-FineWeb高知识密度数据筛选机制 实现90%验证成本降低 处理15万亿token数据仅需1000小时CPU时间 [28] - 应用风洞2 0方案 将超参数配置搜索实验次数降低50% 采用Chunk-wise Rollout技术提升GPU资源利用率 [29] - 仅用22%训练开销即达到同尺寸开源模型能力水平 训练策略包括FP8训练和MTP监督信号等前沿技术 [28][30]