AI普惠

搜索文档
MiniMax闫俊杰:AI领域会多玩家共存,成本也会更可控
21世纪经济报道· 2025-07-26 15:44
行业竞争格局 - 年初Deepseek R1开源模型引发行业震动,几乎成为所有下游AI应用厂商的选择,部分资本市场人士认为大模型战争已结束 [1] - MiniMax CEO闫俊杰认为AI领域将维持多玩家并存格局,不同模型因对齐目标差异而具备独特优势(如程序员能力、情商对话、想象力等)[2] - 开源模型影响力持续扩大,最佳开源模型性能已逼近闭源模型,例如月之暗面Kimi K2在代码和Agent任务能力上接近OpenAI/Anthropic水平 [3] 技术演进趋势 - MiniMax推出全球首个开源大规模混合架构推理模型MiniMax-M1,在长文本处理任务中计算量仅为DeepSeek R1的25% [4] - 模型优化带来显著成本优势:8万Token深度推理时算力需求为竞品30%,10万Token生成时仅需25%算力 [4] - 行业算力增长未导致模型规模同比扩张(如Kimi K2总参数1T,激活参数32B),因公司需平衡参数量与计算速度 [4] 成本与需求动态 - 未来1-2年顶级模型的推理成本可能再降一个数量级,单模型训练成本不会显著增加 [5] - 算力消耗呈指数级增长:单个对话Token消耗从几千增至几百万,因AI解决更复杂问题且用户基数扩大 [5] - 混合架构技术(如闪电注意力机制)推动效率提升,使模型在保持性能同时降低资源需求 [4]
在OpenAI上班有多卷?离职员工爆料:7周打造Codex,每天熬到凌晨
机器之心· 2025-07-19 05:52
公司文化与组织管理 - 公司内部沟通主要依赖Slack而非邮件,员工一年仅收到约10封邮件[18] - 采用自下而上的研究文化,初期无季度计划,研究进展通过试错推进[19] - 领导晋升机制注重实际能力而非表面功夫,优秀想法和执行是关键[20] - 团队风格差异显著,研究、应用和市场团队工作节奏完全不同[17] - 公司规模从1000人快速扩张至3000人,工龄1年员工可排进前30%[15] 产品开发与创新机制 - 鼓励"行动为先"文化,员工可自发启动项目无需请示,Codex发布前存在3-4个并行原型[21] - 研究员被视作"小型CEO",自主寻找问题并验证想法[22] - 战略调整迅速,3000人规模仍保持高效决策能力[25] - Codex从首行代码到发布仅用7周,团队每日工作至深夜[48] - 产品发布后53天内生成63万个公开PR,平均每位工程师贡献7.8万个[53] 技术架构与基础设施 - 采用超大单体Python代码库,风格多样但缺乏统一规范[39] - 全部服务运行于Azure平台,主要依赖Kubernetes/CosmosDB/BlobStore[40] - 基础设施呈现早期Meta特征,自研类似TAO的图数据库[41] - 代码库存在重复问题,如队列管理库有5-6个不同版本[43] - 后端单体服务存在持续集成问题,测试用例常需运行半小时[44] 行业竞争与市场定位 - 公司同时在API、深度研究、硬件、编码代理等多领域展开竞争[33] - AGI领域形成OpenAI、Anthropic、谷歌三强争霸格局[56] - 产品设计侧重个人用户视角,Pro订阅是核心衡量指标[57] - 模型训练经历从实验到工程的转化过程,需处理分布式系统问题[57] - GPU成本远超其他开支,Codex单个功能成本等同Segment整体基础设施[32] 安全与保密机制 - 高度重视实际风险如仇恨言论、生物武器等,而非理论风险[30] - 内部信息严格保密,Slack工作区实施权限分级管理[25] - 产品服务数亿用户涉及医疗/心理咨询等敏感场景[26] - 媒体高度关注导致未发布功能常遭提前泄露[25] - 安全团队重点解决提示注入等实操性问题[30] 人才与团队动态 - 团队流动性高,可快速调配ChatGPT工程师支援其他项目[35] - 高管深度参与日常讨论,包括Greg Brockman等均在Slack活跃[36] - 工程团队吸引大量Meta人才,带来基础设施经验[41] - Codex团队由8工程师+4研究员+2设计师组成,高度自治[51] - 新员工周边产品采用限量发售模式,首次发售导致Shopify崩溃[31]
AI时代没有旁观者|AI向善语料库开放发布会实录
腾讯研究院· 2025-07-11 07:20
人工智能赋能社会困弱群体 - 高质量语料在AI训练中至关重要 但老年人、残障人士等社会困弱群体相关语料稀缺 导致服务他们的AI产品难以优化 加剧"弱者恒弱"现象 [1] - 腾讯与百余家社会组织公益共创AI向善语料库(老年文本库) 包含8047组老年人日常生活问答对 涵盖健康、心理、关系等多方面 面向公益组织和非营利性研究机构开放申请 [1][6][8] - 这是国内外首个通过社会公益共创构建又面向公益组织开放的老年语料库 探索创新了中文公共语料库构建与开放的新方法 [1] 语料库构建与效果 - 语料库构建采用"先共创 再共享 先爱 再AI"的行动路径 通过公共协作收录一线专家的人文关怀 助力公益组织提升AI能力 [6] - 清华大学未来实验室评测显示 搭载AI向善语料库后 大模型在老年人"情感互动与共情"和"社会适应性与文化敏感性"方面有明显提升 [13][16] - 复旦大学老龄研究院教授申琦介绍面向高校、非营利性研究机构的申请办法 [29] 应用案例与研究成果 - AI4Good团队试用语料库开发"长者智慧绘本" 显著提升交互能力 包括深度共情与肯定、主动关怀与陪伴 缓解长者情感孤独 [34][36][38][40] - 北京邮电大学张为威老师研究发现 语料库展示老年人深层情感诉求 需求常具交织性 情境具整体性 提出AI适老黄金法则:先共情再解答、口语化表达、身份明示 [44][46][48] - 浙江大学学生团队基于语料库研究 推翻传统"温和劝导"模式 建立PRAAM框架 使AI回答关键信息聚焦度更高、行动意愿转化率提升 [54][56][57] 社会价值与未来展望 - 预计2035年我国60岁及以上老年人口将突破4亿 占比超30% 进入重度老龄化阶段 养老服务业既是民生事业也是朝阳产业 [8] - AI向善语料库开放8047组语料数据 为构建包容性长寿社会提供支持 连接技术与人文 [52][59] - 语料库收录边缘群体声音 让科技普惠拥有跳动的脉搏 映出银发浪潮中每一朵浪花的美丽容颜 [60][61]
第七届BMC颁奖盛典举行 联想连续两年入选“中国卓越管理公司”
证券日报网· 2025-07-04 12:16
公司荣誉与AI战略布局 - 联想连续第二年入选"中国卓越管理公司"榜单 [1] - 公司自2017年起前瞻布局人工智能,打造擎天智能IT引擎,形成全栈AI产品、解决方案和服务 [1] - 已累计助力上百万中国企业智能化转型 [1] 超级智能体发展 - 2025年被业内视为超级智能体元年 [2] - 联想发布多款超级智能体产品:天禧个人超级智能体、联想乐享企业超级智能体、城市超级智能体 [2] - 乐享超级智能体上线后客户周活提升270%,订单转化率提升30% [2] - 内嵌乐享超级智能体的"硅基员工"带动旗舰店进店客流环比增长69% [2] - 已与福建武夷山、湖北宜昌和上海虹口达成城市超级智能体战略合作 [2] AI技术积累与产品矩阵 - 联想用8年时间持续夯实"AI底座" [3] - 擎天智能IT引擎已从1.0进化到4.0阶段 [4] - 形成三大AI产品线:AI终端、AI基础设施、AI解决方案与服务 [4] - 天禧个人超级智能体带动联想AIPC销量超百万台 [4] - AI基础设施完成"一横五纵"布局,在异构算力管理、液冷和服务领域具竞争优势 [4] - AI解决方案与服务采用"一擎三箭"策略,面向政企、中小企业及消费市场 [4] 行业发展趋势 - 中国AI产业从快速滑行进入起飞阶段 [4] - 联想以"混合式AI加速中国智能化转型"为使命,推动AI普惠 [4] - 公司开启面向人工智能的全新十年,共建开放协同的AI产业生态 [4]
属于云终端的2025:上云无界、算力随身、普惠AI
36氪· 2025-06-23 10:48
云终端市场概况 - 2025年最火的云计算概念是云终端,全球市场规模已突破280亿美元,年复合增长率18.5%,中国市场份额占35%[2][3] - 中国云终端市场2024年总出货量421.7万台,同比增长40%,预计2029年市场规模将达962万台,五年复合增长率16.6%[6] - 行业参与者包括华为、戴尔、惠普、中兴、升腾、深信服、移动、电信、联通、百度、阿里、腾讯等[7] 技术基座与华为云突破 - 云终端定义为以云计算为核心,通过网络将计算、存储、应用等资源迁移到云端的新型终端形态[12] - 华为云发布CloudDevice全系列产品,包括云手机、云PC、云Pad等七大云终端产品,并联合发布技术标准[9][20] - 华为云突破"云网端边芯"全栈技术,实现多端协同、极致体验、智能随身三大核心能力[22][26] 应用场景与行业案例 - 2024年中国云终端B/G端商用市场出货量338万台,同比增长23.5%,教育、制造、金融为三大主力行业[29] - 华为云与某运营商合作云手机项目,累计活跃用户超3000万,同比增长210%,算力规模250 PLFOPS[31] - 华为云在政务、家居、教育等领域创新应用,如政务机器人响应速度从3秒缩短至1秒内[32] 行业标准化与生态共建 - 华为云联合信通院发布《基于云网端边芯协同的云终端技术标准》,推动产业规范化[33] - 标准设立可靠性指标和性能指标,华为云CloudDevice在两项指标上均获"引领级"认证[33][34] - 2024年中国云终端C端消费市场出货量84万台,同比增长203%,AI普惠推动需求共振[37][39]
ESG信披观察 | DeepSeek概念股普遍加大绿电使用并升级算力 专家提醒:注意碳排放数据真实性
每日经济新闻· 2025-06-14 07:00
AI普惠与社会责任 - 科大讯飞程序员李连才开发"信息无障碍顾问""中医推拿顾问""盲人导师助手"三个智能体,以AI技术帮助视障群体[1] - 科大讯飞通过AI技术促进教育公平,实现精准教研和学生学情分析,并构建AI诊疗系统提升基层医疗水平[8] - 三六零通过SaaS产品"360安全云"助力中小微企业数字化转型,服务中小企业、教育机构等[8] ESG披露与碳排放 - A股42家DeepSeek概念股中24家发布2024年度ESG报告,披露率57%,市值TOP10企业中有9家公布温室气体排放数据[1][2] - 科大讯飞2024年5月数据中心绿电占比达90%,采用风光电等可再生能源[4] - 金山办公在数据中心楼顶安装2640块光伏板,年发电70万~80万千瓦时,节能机房设计年节约传统能耗81万千瓦时[5] - 中科曙光首创ParaStor液冷存储系统,EB级数据中心年节电450万千瓦时,减少近1500吨二氧化碳排放[5] 算力升级与技术创新 - 中科曙光实施"立体计算"战略,通过立体算力建设、应用赋能和生态共生加速算力转化[6] - 浪潮信息推出"智慧计算"战略,发布元脑第八代算力平台,支持"一机多芯"并打破多项国际测试纪录[6] - 优化算法可减少训练阶段算力消耗,同时提升AI性能和效率,高质量数据结合精进算法能进一步降低算力需求[7] AI资源分配与普惠挑战 - AI资源分配不均导致部分企业边缘化,技术鸿沟引发就业替代、服务歧视等问题[8] - 行业需降低AI使用成本和门槛,保障公平竞争和社会就业环境[8]
联想城市超级智能体亮相2025数字城市论坛 智慧城市4.0加速落地
证券日报网· 2025-06-14 02:14
智慧城市4.0发展 - 2025数字城市论坛聚焦人工智能等前沿技术赋能城市治理现代化,发展新质生产力 [1] - 联想推出城市超级智能体,采用"1*N"架构模式,通过城市级智能中枢平台联动多个垂直领域智能体,实现人智协同 [1] - 智慧城市从"人工决策"向"人智共创"跃迁,步入4.0时代 [1] 联想城市超级智能体落地 - 联想城市超级智能体已落地武夷山、湖北宜昌、上海虹口等地 [2] - 公司沉淀出一系列自主知识产权解决方案,依据服务对象成熟度提供针对性AI全生命周期服务 [2] - 智慧城市4.0核心特征是"硅基智能+碳基智慧"的混合治理模式 [2] 联想AI服务转型 - 联想登顶2024年中国IT服务市场,连续八年保持领先的年营收复合增长率 [3] - "擎天"向4.0升级,推动IT服务向AI服务转变,推出混合式人工智能优势集、"超级工厂"和"智能体即服务" [3] - "超级工厂"交付模式可实现7天完成POC验证、2周实现定制化交付 [3]
赋能千行百业 业界以技术创新推动AI普惠
人民网· 2025-06-12 10:11
战略发布 - 火山引擎在Force原动力大会发布"AI云原生"战略,推出豆包大模型1.6和视频生成模型Seedance 1.0 Pro等核心技术,同步推出"区间定价"模式 [1] - 豆包大模型1.6提出"按输入长度区间定价",统一按输入数据长度收费,不再单独标价深度思考、多模态理解等功能 [1] - 通过推理调度优化,将80%的企业请求导向高效处理区间,结合GPU算力规模化部署优势,实现"用得越多、成本越低" [1] 技术能力 - 豆包1.6多模态能力实现"全功能合一",支持256K长上下文、实时视频分析、软件界面自动化操作等 [1] - 豆包1.6模型已接入AI编程产品TRAE进行内测,使用TRAE开发的英语学习应用3天可完成传统数周开发量,85%代码由AI生成,成本下降超60% [2] - 火山引擎在中国公有云大模型服务调用量中占比46.4%,日均处理16.4万亿tokens [2] 行业应用 - 服务全球Top10手机厂商中的9家、八成主流车企及70%的系统重要性银行 [2] - 宝马基于火山引擎AI工具优化营销服务覆盖全国300家经销商,奔驰全新纯电车型搭载豆包大模型打造智能座舱 [2] - 瑞幸咖啡推出AI点单智能体实现语音下单+个性化推荐,百胜中国肯德基构建AI智能陪练系统 [2] - 与超五成985高校合作推动科研辅助与教学智能化 [2] 未来规划 - 计划每年推出1-2个大模型迭代版本,让AI能力像水电一样融入企业生产全流程 [3] - 以技术创新推动AI普惠,为数字中国建设注入新动能 [3]
使用成本降至三分之一字节大模型战略升级
证券时报· 2025-06-11 17:25
豆包大模型升级 - 豆包大模型家族全面升级,包括豆包大模型1.6、豆包视频生成模型Seedance 1.0 Pro、实时语音与播客等新模型 [1] - 豆包1.6是全功能综合模型,支持256K长上下文,能够自适应思考 [1] - 豆包1.6—thinking强化深度推理,编码、数学、逻辑能力显著提升,支持复杂智能体构建 [1] - 豆包1.6—flash是极速版本,具有低延迟特点,适用于智能客服、语音助手等实时交互场景 [1] - 豆包1.6—thinking在复杂推理、竞赛级数学、多轮对话和指令遵循等测试集上表现跻身全球前列 [1] 定价策略创新 - 豆包大模型1.6采用统一价格,消除功能溢价,token价格完全一致 [2] - 定价区间按照输入长度分为0—32K、32K—128K和128K—256K,价格随输入长度增加 [2] - 0—32K输入区间价格为0.8元/百万tokens输入、8元/百万tokens输出 [2] - 综合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一 [2] - 定价策略不仅是降价,更是AI普惠的战略升级 [3]
破界而生:SuperX以全栈AI基础设施构建全球AI算力新势力 ——纳斯达克上市公司Junee正式更名为SuperX,开启AI工厂革命新纪元
中国产业经济信息网· 2025-06-03 02:48
公司战略升级 - 纳斯达克上市公司Junee更名为SuperX(股票代码:SUPX),战略升级为一站式AI基础设施解决方案提供商 [1] - 新战略愿景为"Enhance your life with AI",技术支柱包括高性能AI服务器、全球分布式AI工厂及AI云服务 [1] 行业痛点与解决方案 - 全球AI算力需求呈指数级爆发,超大规模集群面临高成本、长周期、高能耗三重挑战 [2] - xAI的Colossus集群20万GPU液冷数据中心单日耗水量高达130万加仑,电力负荷相当于10万户家庭 [2] - SuperX解决方案:全栈整合冷板式液冷技术(D2C)与高压直流供能,较传统风冷降低超10.2%总能耗,PUE优化至行业领先水平 [2] - 模块化盲插设计支持分钟级服务器热更换,较传统数据中心建设周期缩短60% [2] - 通过区域内分布式AI工厂满足数据安全合规要求,消除跨境数据流动风险 [2] 技术引擎与范式升级 - 基于NVIDIA Blackwell架构的千亿级浮点算力集群,单机架算力密度达120kW(较H100时代提升3倍) [2] - 独创"AI工厂即结果"(AI Factory-as-a-Result)模式,为GenAI、Agentic AI及Physical AI提供微秒级超低延迟推理 [3] - 联合产业合作伙伴形成从AI芯片、AI服务器、AIDC、AI云到最终AI应用的产业生态 [3] 算力民主化与场景应用 - 千亿级浮点算力集群支撑多模态推理与Token化知识提炼,使中小企业可负担十万亿参数模型微调和推理应用 [2] - 目标以AI结果交付为导向,实现制造、医疗等场景的实时决策闭环 [3]