Workflow
Scaling Law
icon
搜索文档
李建忠:大模型技术创新驱动的 AI 生态和应用演进
AI科技大本营· 2025-04-24 03:39
AI发展阶段与生物智能演化对比 - AI发展分为五个阶段:1940年代符号主义起步[4]、2012-2018年感知AI(如AlexNet突破)[4]、2018-2024年生成式AI(如GPT-1.0和ChatGPT)[4]、2024-2030年AI智能体(强化学习驱动)[4]、2030年后物理AI(具身智能)[4] - 生物智能演化对应:5.5亿年前线虫大脑诞生[7]、5.4亿年前三叶虫视觉出现[8]、5000年前人类文字发明[8]、16-17世纪科学革命[9] - 两者均呈现"大脑→视觉→语言→推理"的加速发展路径,语言是智能跃迁核心[9][10] 自然语言在智能中的核心地位 - 人类文明因文字出现而腾飞,AI领域OpenAI押注自然语言路线,通过大模型实现智能突破[12] - Anthropic研究反驳统计学派:大模型内部存在规划逻辑(非简单概率输出)、跨语言泛化能力、语言映射共享概念区域(如"苹果"的抽象概念)[13][14][15] - OpenAI首席科学家Ilya Sutskever认为"语言是对人类智能的压缩",与维特根斯坦哲学观点一致[19] 大模型技术范式演进 - 三阶段划分:预训练(知识灌输)、后训练(价值观对齐)构成"快思考",推理(逻辑思维)构成"慢思考"[21] - Scaling Law持续有效:预训练受限于语料瓶颈,但强化学习(如OpenAI o1和DeepSeek-R1)通过合成数据推动新增长曲线[23] - 推理模型成为主流范式,DeepSeek-R1开源方案推动行业转向强化学习[19][21] AI应用生态与模态演进 - 生成式AI(AIGC)与AI智能体并行发展:前者提供情绪价值(toC娱乐),后者提供成就价值(toB效率)[25] - 内容模态遵循"文字→图片→音频→视频"路径,AI降低创作门槛(博客时代作者比例1%,短视频时代37.5%)[27] - 智能体五大能力:规划(推理驱动)、工具调用(MCP协议)、协作(A2A协议)、记忆、行动[28][31][33] Agent平台与协议生态 - MCP协议连接大模型与传统软件(结构化数据/中心化架构),A2A协议实现Agent间协作(自然语言/去中心化)[33][34] - Agent平台将成为大模型厂商竞争焦点,需整合MCP和A2A协议以链接传统服务与多Agent协作[35][37][38] - 传统软件需重构为"面向智能体+自然语言交互+消除割裂"的三要素,否则面临淘汰[42] AGI发展路径与组织协作 - OpenAI定义AGI五阶段:聊天机器人→推理者→智能体→创新者→组织者[45][50] - 强化学习推动AI从"人类数据时代"(知识回声)到"经验数据时代"(突破边界)[47][49] - 高阶智能体现为组织协作,未来或出现大规模Agent协作网络(如软件开发中需求分析、编码等角色Agent化)[53][55]
深度|微软CTO最新访谈: 我不相信通用Agent,未来是成千上万Agent协作的时代,聊天界面只是过渡的交互模式
Z Finance· 2025-04-19 06:31
AI可持续价值与行业趋势 - 下一代AI领域正处于技术范式转变初期,价值分布尚不明确但充满探索机会[3] - 模型需通过产品与用户需求连接才能实现价值,产品层将承载主要价值[6] - 初创公司与成熟企业将均衡分享AI价值,大公司需结合现有资源创新[6][7] - 当前工具和基础设施成本达历史低点,大幅降低创新门槛[7] Scaling Law与数据效率 - Scaling Law尚未见极限,边际收益递减的临界点仍不可见[8] - 高质量数据token价值远超低质量数据,合成数据占比持续提升[9] - 缺乏科学的数据评估手段,数据实际贡献与宣称价值常存在差距[10][11] Agent发展路径 - 未来12个月将出现更多异步任务型Agent,突破即时交互模式[21][22] - Agent记忆功能是下一阶段突破重点,需实现长期行为积累[21] - 不会出现"全能Agent",而是细分领域专业化Agent网络[18] - 5年内95%新代码将由AI生成,但核心设计仍依赖人类[23] 开源与闭源生态 - 开源与闭源将长期共存,类似搜索引擎领域的分层结构[15] - DeepSeek R1开源引发行业关注,显示中国AI实力被低估[37] 技术债务与工程变革 - AI有望将技术债务从零和问题转为非零和问题,实现自动修复[30][31] - 小团队+AI工具将释放更大能量,改变传统工程团队结构[28] 医疗AI应用前景 - AI诊断能力已超越普通全科医生,亟待规模化应用[38] 中国AI竞争力 - 中国AI研发能力被系统性低估,DeepSeek案例打破偏见[37] 开发范式演进 - 编程抽象层次持续提升,提示工程将成主流交互方式[25][26] - 图形界面构建工具的发展轨迹预示AI编程工具演进路径[25]
OpenAI自曝GPT-4.5训练内幕:数据效率是关键,预训练仍然有用
Founder Park· 2025-04-14 11:34
GPT-4.5研发历程 - 项目启动于两年前,是OpenAI迄今为止最周密的计划,涉及数百人团队协作,几乎全员上阵[7][8] - 研发耗时远超预期,原计划耗时与实际相差甚远[16][17] - 目标为打造比GPT-4聪明10倍的模型,最终性能提升达到预期[16] 技术挑战与突破 - 10万卡计算集群暴露基础设施深层次故障,故障率高达40%进度才被发现[8][18][19] - 新一代硬件部署初期系统运行面临诸多未被充分认知的技术挑战[26] - 通过协同设计打造更强大技术栈,如今仅需5-10人即可复刻GPT-4级别模型[8][20] 数据效率与算法创新 - 未来AI发展关键从算力转向数据效率,需用相同数据学到更多知识[8][24] - Transformer架构在数据压缩方面高效,但洞察深度有限[24] - 算法改进产生叠加效应,每次提升10%-20%可显著提高数据效率[43] 模型训练范式转变 - 计算资源不再是主要瓶颈,数据成为制约因素[28] - 预训练模型性能提升可预测,但智能提升路径难以量化[31][32] - 1000万块GPU同步预训练可能采用去中心化模式,类似大脑各部分运作[42] 团队协作与系统优化 - 机器学习与系统团队密切合作,不存在工作界限[34] - 采用渐进式改进策略,严格验证每个改进在不同规模下的扩展性[35] - 理想系统尚未实现,当前仍需调和资源与理想化设计的差异[39] 理论基础与行业影响 - 智能本质是压缩,数据长尾效应让Scaling Law持续有效[47][48] - 预训练通过压缩数据发现抽象联系,与推理能力互补[45] - 无监督学习有效性基于压缩原理,更大规模训练带来更高压缩率[46][48]
智谱发的「干活Agent」,不用邀请码
36氪· 2025-04-01 13:52
智谱AutoGLM新产品"沉思"发布 - 公司推出具有深度思考能力的AI Agent产品"AutoGLM沉思",免费上线并支持开放式问题探究与操作执行[3][4] - 产品能模拟人类思维过程,完成从数据检索、分析到生成报告的全流程,并支持多模态理解(图文网页)[4][5] - 展示用例包括具身智能行业研究、生成式AI技术影响分析、复古相机推荐等具体场景[4] 产品技术特性与竞品对比 - 相较于Manus强调"行动"可视化,"沉思"更突出思维链展示,展现模型理解-拆解-检索-解决的完整思考过程[9][10] - 当前预览版仅支持研究整理类任务(如输出代码),无法像Manus直接交付可操作成果(如网页游戏),需用户额外执行[12][13] - 技术架构整合三款新模型:GLM-4-Air-0414(语言理解)、GLM-Z1-Air(问题分析)、GLM-Z1(反思验证)[15] 商业化与行业趋势 - 公司提出"沉思大模型"概念,强调动态联网搜索、工具调用、自我验证等能力对突破传统AI局限性的价值[17] - 新模型GLM-Z1-Air推理速度较R1提升8倍,成本降至1/30,并支持消费级显卡运行,三款模型将于4月14日开源[18] - CEO认为未来应用形态将以模型为核心,产品化外壳变薄,模型能力直接决定产品能力[20] 公司战略定位 - 坚持预训练路线,认为强化学习等方法仍依赖基座模型天花板,预训练是必须持续投入的方向[20] - 提出Agent存在类似大模型的Scaling Law,推理计算扩展可提升性能[20] - 拒绝被标签化为To B公司,强调根据场景需求创造价值而非限定客户类型[25]
从DeepSeek R1的复现看深度思考模型的未来|ML-Summit 2025
AI科技大本营· 2025-03-31 06:55
2025全球机器学习技术大会(ML Summit 2025)概况 - 大会将于2025年4月18-19日在上海虹桥西郊庄园丽笙大酒店召开 [1] - 由CSDN & Boolan联合主办,汇聚超50位学术界和工业界顶尖专家 [1] - 设有12大技术专题,覆盖AI领域前沿热点,并设置AI企业创新展区展示最新技术产品和解决方案 [8] 大会核心演讲内容 - 新浪微博首席科学家张俊林将分享《从DeepSeek R1的复现看深度思考模型的未来》 [1] - 演讲将系统梳理DeepSeek R1开源后的各类复现研究,涵盖SFT阶段轻量适配与RL阶段创新实践 [6] - 重点剖析两阶段训练模式:冷启动微调结合多领域数据优化的SFT阶段,以及运用GRPO强化学习与全场景对齐实现能力跃迁 [6] 深度思考模型技术探讨 - 大模型时代Scaling Law仍是核心驱动力,Grok 3案例显示增大模型尺寸的传统做法性价比值得思考 [5] - 提出用S型曲线叠加解释大模型预训练、后训练及推理阶段的Scaling Law现象 [5] - 探讨关键技术问题包括:RL的Scaling Law边界、影响SFT阶段蒸馏方法效果的关键因素、如何科学解释"Aha Moment"现象 [6] 行业影响与展望 - 大会是推动AI生态融合、促进行业协同创新的重要契机 [8] - 旨在探索AI未来发展方向,推动技术在更广泛场景落地 [8] - DeepSeek R1开源引发学术界和工业界复现研究热潮,为探索更强大的深度思考模型提供新视角 [4][5]
对话2025最火具身智能团队:2个自动驾驶第一人带队,1.2亿美元天使融资震动江湖
量子位· 2025-03-26 10:29
行业与公司概况 - 具身智能被视为继AI和自动驾驶后的下一代科技风口,行业热度极高,投资机构竞相追逐新兴创业公司[2] - 它石智航(TARS)在2025年2月成立后迅速完成1.2亿美元天使轮融资,创中国具身智能领域最大天使轮纪录[3][7][8] - 公司由自动驾驶领域顶尖专家陈亦伦(华为前自动驾驶CTO)和李震宇(百度阿波罗前负责人)联合创立,团队被类比为"库里+约基奇"的梦之队组合[4][11][15][16] 技术方向与核心优势 - 核心技术引擎为AWE(AI World Engine),定位为具身智能领域的GPT大模型,但采用Human-Centric数据采集范式[14][37][65] - 技术路径强调全栈能力:超级算法(具身大模型)、超级本体(机器人硬件)、超级应用(场景解决方案)[25][26] - 核心差异点包括:4D空间对齐技术、真实世界具身数据闭环、端到端强化学习架构[42][39][36] - 工程化能力是最大壁垒,团队曾主导华为ADS和百度Apollo的量产落地[14][15][16] 产品与商业化路径 - 初期聚焦柔性物体操作场景(如汽车制造),验证物理AI的工业应用价值[28][77] - 采用模块化机器人本体设计,暂不确定灵巧手形态,但强调上肢拟人化操作的必要性[71][82][84] - 版本规划对标GPT发展路径:AWE 3.0(基础模型)→3.5(场景优化)→强化学习版本[70] - 商业化标准强调"机器人实际工作场景"而非展会演示,金标准是落地稳定性[100][101] 行业趋势判断 - 物理AI(具身智能)将接替信息AI成为主流,自动驾驶和大模型成功奠定技术基础[49][51][52] - 行业三大Scaling Law:数据规模→模型参数→推理能力,当前瓶颈在数据维度[59][60][63] - 关键技术分歧(仿真vs真实数据/通用vs垂类/大小脑架构)将随AI能力提升自然收敛[96][97][98] - 具身智能的"GPT时刻"标志是机器人用AI方法可靠完成1-2项现实任务[109][110] 团队与融资 - 核心团队包含华为"天才少年"丁文超(首席科学家)和量产专家陈同庆(首席架构师)[16][17] - 天使轮由蓝驰创投、启明创投联合领投,8家机构跟投,超募现象显著[7][14] - 融资将投入技术研发、模型训练和场景拓展,重点构建数据采集基础设施[13][43][45]
大模型“神仙打架”,掀起复现潮、技术大升级后,我们需要关注什么? | 万有引力
AI科技大本营· 2025-03-25 01:45
大模型技术竞赛与行业动态 - DeepSeek连续五天开源引发复现热潮,阿里巴巴通义实验室和腾讯分别推出ViDoRAG系统和混元快思考模型Turbo S,加速大模型演进 [1] - 马斯克用20万张GPU训练Grok 3超越业界标杆,验证"大力出奇迹"定律 [1] - Claude 3.7 Sonnet编码能力大升级,AI编程技术平权时代加速到来 [1] - DeepSeek论文与Kimi"撞车",稀疏注意力与线性注意力机制成为Transformer后的关键探索方向 [1] - Manus模式的"虚拟机"概念迅速走红,正在重塑大模型运行方式 [1] DeepSeek的技术突破与影响 - DeepSeek R1发布引发全球热议,首次展示模型能以类似人类方式思考,采用第一人称表达推理过程 [6][7] - DeepSeek开源周发布五大项目,涉及算力加速、通信优化和存储处理三大领域 [20][22] - DeepSeek利润率高达545%,颠覆行业对大模型MaaS盈利能力的认知 [33] - DeepSeek的技术路线侧重小粒度Expert,强调效率,相比Grok 3的"暴力美学"更为高效 [45] - DeepSeek的推理架构为搜索体验带来颠覆性变化,推动"边搜边想"的新搜索逻辑 [7] 行业竞争格局与趋势 - 行业可能出现两条发展路径:少数企业继续堆砌算力追求极致模型,大多数企业选择小模型路线 [46] - "百模大战"第一阶段暂时由DeepSeek领先,竞争可能向多模态和具身智能演进 [30][31] - 新兴公司在AI基础设施和大模型训练领域面临巨大投入挑战,难以与头部企业竞争 [27][28] - 阿里Qwen在国际市场表现不俗,但在推理方面未能取得DeepSeek级别的突破 [26] - 量化公司如九坤转型成立AI部门,在系统优化和数据处理方面具有优势 [27] 技术演进与创新方向 - Attention机制面临算法复杂度高的问题,改进方向包括稀疏化和状态空间模型(SSM) [62][63] - DeepSeek提出的NSA(Neural Sparse Attention)在减少计算量的同时提升模型效果 [65] - 合成数据成为重要方向,在多模态、具身智能等领域应用广泛,精准度超越传统数据增强 [75][77] - 长上下文支持技术变革搜索领域格局,Gemini的100万token窗口展现强大能力 [50] - 代码模型可能成为通往AGI的路径,通过持续学习和技能库扩展实现能力进化 [81][83] 应用场景与商业化 - AI编程是首个经过PMF验证的应用场景,Claude 3.7和DeepSeek在代码能力上仍有提升空间 [78][80] - AutoPilot类工具如Devin更适合"万事开头难"场景,成本低于雇佣实习生 [78] - MaaS商业模式面临上游价格和下游支付意愿的双重挑战,运营效率成为关键壁垒 [33][34] - 私有化部署需求增长但面临数据治理挑战,建议企业优先使用API进行验证 [36][39] - 2B领域数据治理和处理服务需求旺盛,国内加速推进数据要素市场建设 [36] 基础设施与工程实践 - 训练大模型成本极高,智源发起OpenSeek开源项目,已吸引100多位贡献者 [9][10] - OpenSeek处理约100亿网页数据,构建4亿条CoT数据集,计划全面开源 [11] - 系统训练层面缺乏成熟框架支持,DeepSeek公开自研五个项目提升训练效率 [12] - 行业Infra团队和人才稀缺,更多关注0到1搭建而非1到100的优化 [21] - 虚拟机技术可能走红,因工具调用需要沙盒化环境执行任务 [84]
中欧基金科技战队:既要抓住产业趋势,也要关注长期价值
雪球· 2025-03-19 08:30
文章核心观点 - 面对AI行业快速变化和复杂挑战,中欧科技战队摸索出工业化组织样本,通过更早更广覆盖、专业化分工与流程化协作、平等沟通机制,提升投研能力和胜率,在科技浪潮中收获成果 [3][6][9] 分组1:AI行业变化与挑战 - 2024年12月中欧基金科技研究小组预判国产大模型能力追赶进度,一个月后DeepSeek问世引发AI变革,给投研带来全球性、时效性挑战 [1] - 智能机器人发展冲击科技基金经理传统打法,投资颠覆性创新面临量产摸索和数据体系不完善问题 [2] 分组2:投研团队适应AI节奏的方法 曲速引擎:更早更广覆盖 - 建设对AI行业更早更广覆盖的投研平台,助推学习速度领先产业变化,研究AI比新能源更复杂 [6] - 基金经理和研究员早有AI研究储备,中欧基金在科技产品数量、投研人员储备和细分行业覆盖上领先,指数产品布局覆盖全产业链 [7] - 周蔚文和杜厚良有前瞻判断,如机器人行业空间和算力国产化趋势,战队旗下产品在科技浪潮中收获满满 [8][9] 共乘一舰:专业化分工与流程化协作 - 依靠团队专业化分工和流程化协作,形成勾稽关系,如光模块研究需多环节验证 [10] - 团队成员横向学习赋能,发挥各自专长,相互协作补齐短板,挖掘投资机会 [12] 惯性阻尼:平等沟通回避风险 - 周蔚文不强迫基金经理投资,提供附加值和减小回撤方法论,制定平等透明沟通机制应对分歧 [15] - 分歧交锋对基金公司珍贵,做科技股要控制风险,抓住产业趋势同时关注长期价值 [16] 分组3:洞见与团队的重要性 - 公募基金靠洞见领先长期业绩,洞见需靠团队,中欧制造理念下的组织注重平等自由和团队协作 [18]
刚刚,老黄携GB300震撼登场!DeepSeek推理暴涨40倍加速全球最快,26年Rubin问世
创业邦· 2025-03-19 03:17
文章核心观点 英伟达在GTC大会展示过去一年进展,发布新产品路线图,强调Scaling Law未撞墙,未来数据中心建设规模将达万亿美元,还推出开源推理软件和通用机器人模型,有望在AI和机器人领域持续引领发展[1][23][27] 分组1:大会亮点与行业趋势 - 英伟达老黄在GTC大会介绍过去一年进展,称今年GTC是AI的超级碗,每个人都是赢家 [2] - Blackwell全面投产,因AI拐点至,训练推理AI/智能体系统对计算量需求大增 [3] - 英伟达预言未来有工厂的公司将有实体工厂和AI工厂,CUDA核心及算力将引爆行业变革 [4] - 通用计算到尽头,行业正从通用计算机转向加速器和GPU上运行的机器学习软件,计算机成为生成token的工具 [28] - 加速计算趋势无法阻挡,AI将进入各行业,英伟达CUDA - X库为科学领域提供加速框架 [29] 分组2:产品路线图 - AI芯片每年一更,下一代Rubin明年亮相,英伟达构建云上、企业和机器人AI基础设施 [5][8] - 今年下半年将问世的Blackwell Ultra提升训练和测试时推理能力,显存从192GB提升到288GB,GB300 NVL72的AI性能比NVIDIA GB200 NVL72高出1.5倍 [6][7] - 2026年下半年预计发布Vera Rubin,推理时每秒50千万亿次浮点运算,比Blackwell速度高出一倍多,显存升级为HBM4,带宽从8TB/s提高到13TB/s,扩展NVLink吞吐量提升到260TB/s,机架间CX9链路达28.8TB/s [9][10] - 2027年下半年预计推出Rubin Ultra版本,FP4精度推理性能达15 ExaFLOPS,FP8精度训练性能为5 ExaFLOPS,相比GB300 NVL72性能有14倍提升,配备HBM4e内存,带宽为4.6 PB/s,支持NVLink 7,带宽为1.5 PB/s,较上一代提升12倍,机架支持CX9,带宽达115.2 TB/s [11] - 2028年将上市Feynman,命名致敬美国理论物理学家Richard Feynman [17] 分组3:桌面级产品 - 推出Blackwell RTX PRO工作站和服务器系列,包括数据中心、桌面和笔记本GPU,为开发者等提供AI支持,RTX PRO 6000 Blackwell吞吐量高达1.5倍,第五代Tensor Core每秒4000万亿次AI运算,第四代RT Core性能提升2倍 [19] - 带来两款由Blackwell驱动的DGX个人桌面AI超级计算机DGX Spark和DGX Station,DGX Spark是最小的AI超级计算机,配备128GB内存,核心是GB10 Grace Blackwell超级芯片,每秒1000万亿次AI计算能力;DGX Station将数据中心级性能带到桌面,采用GB300 Grace Blackwell Ultra桌面超级芯片,配备784GB统一内存 [20][22] 分组4:Scaling Law与数据中心 - 老黄称Scaling Law没撞墙,推理计算量需求大增,数据可通过强化学习和合成数据获取,AI处于转折点 [25][26] - 2024年全球TOP 4云服务商买进130万块Hopper架构芯片,预计2028年数据中心建设规模达一万亿美元 [27] 分组5:架构与扩展 - 英伟达通过网络InfiniBand和Spectrum X实现scale up,Spectrum X具备低延迟和拥塞控制特性,成功扩展最大单GPU集群 [14] - 官宣首个共封装硅光子系统,每秒1.6T的CPO,基于「微环谐振器调制器」技术,用台积电工艺构建,可扩展至数十万甚至百万GPU规模 [15][16] - HGX系统架构解决纵向扩展问题,包含8个GPU,通过MVLink 8连接到CPU架,再通过PCI Express连接,用InfiniBand连接多个设备,NVLink交换机让GPU全带宽通信,液冷压缩计算节点,实现一个机架Exaflops级超算 [31][32][33] 分组6:推理Scaling问题与解决 - 推理Scaling是「终极计算」问题,推理中响应时间和吞吐量存在矛盾,需最大化生成token曲线下方面积,还需巨大带宽和浮点运算能力 [36] - 传统LLM用不到500个token快速回答问题但结果错误,推理模型需超8000个token推理简单问题,计算量增加150倍,万亿级参数模型需通过管线、张量和专家并行组合解决,NVlink可实现规模终极Scaling [37][38][39] 分组7:NVIDIA Dynamo - 发布开源推理软件NVIDIA Dynamo,被称为「AI工厂的操作系统」,能协调加速数千个GPU间推理通信,分配LLM处理和生成阶段到不同GPU,优化GPU资源利用 [41][42] - Dynamo能让运行Llama模型的AI工厂在Hopper架构上性能和收入双双翻倍,在GB200 NVL72集群上运行DeepSeek - R1模型时,每个GPU生成token数量提升超30倍,还能动态分配GPU、卸载推理数据降低成本 [42] - Dynamo完全开源,支持PyTorch、SGLang、NVIDIA TensorRT - LLM和vLLM [43] 分组8:性能对比与效益 - 新的Blackwell架构比Hopper强,能耗固定时性能提升25倍,推理模型上高40倍,用MVLink 8技术加速,引入4位浮点数优化,能效高的架构对未来数据中心重要 [44] - Blackwell扩展到MVLink 72加上Dynamo软件效果更好,能适应不同工作负载,老黄认为大型项目投资最新技术如Blackwell可避免落后,买得越多赚得越多 [45][46] 分组9:通用机器人模型 - 预计本世纪末世界劳动力短缺超5000万,通用机器人时代到来,具身智能遵循三大Scaling Law,数据短缺问题可由英伟达Omniverse和Cosmos解决 [48][49] - 官宣世界首个开源、完全可定制的通用人形机器人模型GROOT N1,采用「双系统架构」,慢思考系统推理规划行动,快思考系统转化为精确动作,可执行多步骤任务 [50][51][52] - 与DeepMind、迪士尼研究开发下一代开源的Newton物理引擎,让机器人精确处理复杂任务,以星球大战BDX机器人为灵感的Blue上台互动,老黄预言机器人领域将成最大产业 [54][55][56]
中欧科技战队:制造「工业化」星舰,穿越AI光变纪元
远川投资评论· 2025-03-14 07:07
文章核心观点 - 中欧科技战队面对AI行业快速变化,通过构建对AI行业更早更广覆盖的投研平台、专业化分工与流程化协作以及平等沟通机制,提升投研能力,在科技浪潮中收获成果,强调团队洞见对长期业绩领先的重要性 [2][4][17] 分组1:AI行业变化与投研挑战 - 2024年12月中欧基金科技研究小组预判国产大模型能力追赶进度,一个月后DeepSeek问世引发AI变革,投研需应对行业快速变化和全球性、时效性挑战 [1] - AI产业供给侧和需求侧全新,与新能源等行业相比,投资过程更复杂,需不断思考AI对行业和公司的影响 [4] 分组2:中欧科技战队投研平台建设 - 中欧科技战队摸索出工业化组织样本,通过对AI行业更早更广覆盖确保认知领先,依靠专业化分工和流程化协作保证学习深度,以平等沟通机制回避风险 [2] - 中欧基金在人工智能等行业配置专门研究员,主动产品线覆盖AI细分行业,指数产品布局占据科技领域较大比重,关注AI顶级大厂动态,做出前瞻判断 [5][6] - 周蔚文早在2013年开始关注机器人,2023年提及人形机器人机会,去年中欧内部达成机器人投资共识并确定关键要素 [6] - 杜厚良去年下半年分享算力国产化逻辑,认为先进制造竞争格局将更集中,未来国产算力芯片市场空间增大 [7] 分组3:投研团队专业化分工与协作 - 中欧投研团队依靠专业化分工与流程化协作,通过全产业链研究的勾稽关系相互补足、验证,如对光模块的研究 [9] - 团队成员在日常研究中横向学习赋能,发挥各自专长,相互交流合作,挖掘投资机会 [11] 分组4:风险控制与沟通机制 - 周蔚文作为管理者提供附加值,摸索减小回撤的方法论,通过长期定价提示风险和参考历史数据统计,制定平等透明沟通机制应对分歧 [14] - 团队成员间的分歧交锋有助于控制风险,做科技股投资要抓住产业趋势,关注长期价值 [15] 分组5:团队洞见与长期业绩 - 公募基金要长期业绩领先需靠团队洞见,中欧科技战队营造平等自由氛围,让洞见在团队中涌现 [17]