Workflow
AI科技大本营
icon
搜索文档
与C++之父面对面、共庆四十周年!直击AI算力、系统软件、研发智能化:2025全球C++及系统软件技术大会核心专题揭晓
AI科技大本营· 2025-11-14 05:55
大会概况 - 2025全球C++及系统软件技术大会将于12月12-13日在北京金隅喜来登大酒店举行 [1] - C++之父Bjarne Stroustrup将亲临现场,与全球顶尖专家探讨AI原生时代下系统软件新范式 [1] - 2025年是C++语言发布40周年,该语言正站在AI浪潮重塑世界的历史十字路口 [2] 现代C++最佳实践 - 专题聚焦语言演进背后的理念与实践路径,探讨工程思想的重塑 [5] - C++之父Bjarne Stroustrup将回顾四十年设计哲学与未来方向 [7] - 彭博John Lakos解析大规模软件架构工程化方法 [7] - 小米Vela框架负责人董俊杰展示现代C++在复杂系统中的落地价值 [7] - 彭博工程师团队分享C++反射核心原理实践与最新进展 [7] 大模型驱动的软件开发 - AI正推动软件开发从"自动化"向"智能化"深度变革,大模型成为开发者思维延伸 [11] - 未来软件开发趋势是"人机共建、智能驱动",而非单纯"AI辅助" [12] - CSDN李建忠提出AI原生软件研发成熟度模型,系统阐述研发体系向AI原生范式过渡 [11] - Adobe首席科学家David Sankel强调规避AI生成代码的真实风险 [11] - 腾讯云CodeBuddy、阿里Qoder CLI等产品展示大模型能力融入开发全流程的实践 [13] AI算力与优化 - 专题聚焦AI基础设施核心命题,从芯片层执行到系统级算力调度 [18] - 趋境科技杨珂分享"以存换算"哲学优化万亿参数模型推理 [20] - 清华大学展示面向异构计算的统一智能计算架构及开源生态 [20] - 系统内核专家张银奎剖析GPU对高效代码的独特理解 [20] - 智源研究院分享面向多元AI芯片的算子库与编译器实践 [20] 系统级软件优化 - 在AI与异构算力浪潮下,系统级软件面临高性能、高可靠性核心挑战 [22] - 中科加禾CEO崔慧敏解析编译技术在AI软件栈中的创新路径 [22] - vivo专家王骁分享端侧大模型部署中存储系统的优化实践 [24] - 阿里云内核专家邹涛解析系统级软件优化策略 [24] 研发效能与软件质量 - 研发效能与软件质量成为AI时代企业竞争关键抓手 [25] - Bloomberg分享大型工程体系中构建高质量软件的经验模型 [25] - Parasoft解析AI如何赋能测试生成、缺陷分析与质量预测 [25] - 京东零售介绍智能推理引擎在研发效能提升中的创新应用 [25] 高性能与低时延 - 高性能与低时延成为系统软件创新核心命题 [31] - 阿里云团队解析PolarDB在TPCC测试中实现性能突破的全链路优化策略 [31] - Linux内核维护者分享块设备缓存的高性能Btree索引设计 [31] - 快手编译优化专家介绍基于Profile的编译优化技术实践 [31] 并发与并行 - 并发与并行成为多核、异构与分布式计算时代性能提升关键支点 [36] - Incredibuild解析分布式缓存与任务切分实现上千核级别构建提速 [37] - C++标准委员会机器学习组主席分享并行计算在AI与系统软件中的最新进展 [37] - 上海人工智能实验室分享异构算力协同与高性能通信框架研究成果 [37]
宇宙尺度压缩:Scaling Law的边界,柏拉图表征收敛于物质和信息交汇,解决P与NP问题,Simulation假说……
AI科技大本营· 2025-11-13 05:59
科学多任务学习的突破 - 超对称公司在BigBang-Proton项目中成功实现了跨尺度、跨结构的科学多任务学习,验证了高度异质的数据集(如夸克衰变、材料结构、DNA序列、股价等)可以在正确的表征和架构上收敛[1][4] - 该进展突破了传统观点,即认为多学科数据差异过大无法一起训练,预示了跨学科数据在高维潜在空间中可产生迁移学习,为将宇宙视为统一实体进行训练扫清了障碍[2][4] - 公司将算术运算能力作为科学多任务学习的核心,因为实验结果主要呈数值形式,这一科研范式融合了还原论和涌现论[4] Scaling Law的扩展与柏拉图表征 - BigBang-Proton的预训练能够平滑收敛,表明大语言模型的Scaling Law可超越语言范畴,延伸至物理世界[5] - 研究引用了柏拉图表征假说,认为不同AI模型的表征空间会收敛到一个对现实映射的相近统计结果,而物质世界构成了这一理想化现实[6] - 公司提出预训练的极限是宇宙本身的极限,在整个宇宙历史和人类文明数据上预训练的单一模型将收敛到大爆炸时刻的基本物理定律及信息与物质的交汇点[7] 宇宙尺度压缩的构想与理论基础 - 公司提出宇宙尺度压缩构想,旨在将宇宙作为一个完整整体进行预训练,其收敛目标为基本物理定律[1][9] - 理论指出,在人类文明完整数据上训练的模型倾向于收敛到基本自然定律,而在宇宙演化数据上训练的模型倾向于收敛到基本物理定律[9] - 热力学熵与信息熵的相互转换以及流形假设为理解跨领域表征迁移提供了框架,宇宙尺度预训练中的低维结构可能收敛到基本的宇宙流形,并与全息原理一致[10][14] 物理前沿理论与技术实践 - 理论基础包括约翰·惠勒的"It from Bit"、贝肯斯坦边界和全息原理,指出在普朗克尺度下时空维度可能减缩,物质与信息可互相转换[15] - 宇宙尺度压缩是对"计算宇宙"和"模拟假说"的一次实践,通过自回归LLM对物质世界进行压缩,为模拟戴森球或近地轨道工业等远期目标提供了可行性[16] - 根据计算,宇宙最多可容纳约10^90比特的信息,在施加完整物理定律约束后,条件柯尔莫哥洛夫复杂度会急剧降低,LLM预训练扩展至宇宙尺度可能匹配宇宙的复杂性[19][20][21][23][24] 技术路径与潜在应用 - 宇宙尺度压缩计划包括建立统一的时空框架、整合所有科学理论和实验数据、以及从重子组分中重建地球和人类文明[25] - BigBang-Proton的创新方法论为此提供了支持,包括二进制块编码、理论-实验学习范式和Monte Carlo Attention机制,后者可提供与宇宙中重子数量相当的上下文长度[25] - 公司提出假设,仅通过"下一个词预测"即可从微观粒子尺度重建宇宙中的任何物理结构,并计划在单一BigBang模型中模拟大爆炸核合成、量子材料、虚拟细胞系统乃至机器人技术和飞机等复杂物理结构[28] - 该方法有望将具身智能的高精度环境与决策能力整合在同一隐空间,并可从原子尺度加速复杂装备(如飞机、汽车)的设计、生产和迭代[28]
李飞飞终于把空间智能讲明白了:AI 的极限不是语言,世界远比文字更广阔!
AI科技大本营· 2025-11-11 09:08
文章核心观点 - 当前人工智能的发展范式存在核心局限,过度依赖语言模型而缺乏对物理世界的理解,行业需要从“语言智能”向“空间智能”进行根本性的范式转换 [5][6][15] - 空间智能是人工智能的新疆界,其目标是构建能够理解、推理并与语义、几何、物理和动态上都极为复杂的真实或虚拟世界互动的“世界模型” [6][16][21] - 李飞飞及其创立的World Labs公司正致力于构建世界模型,其首个产品Marble已能通过多模态输入生成并维持一致的三维环境,为创意、机器人、科学发现等领域带来变革 [6][22][24][26] 空间智能的定义与重要性 - 空间智能是人类认知的脚手架,驱动着推理、规划以及与物理世界的互动,是想象力和创造力的基础 [10][12][13] - 当前最先进的多模态大语言模型在空间感知能力上存在根本性局限,其表现往往不比随机猜测好多少,无法有效估算距离、方向、尺寸或预测基本物理现象 [14][15] - 空间智能将连接想象、感知与行动,为机器在医疗健康、创意表达、科学发现和日常辅助等领域真正改善人类生活开辟可能 [15][24][29] 世界模型的技术框架与原则 - 构建具备空间智能的人工智能需要世界模型,其能力远非当今的大语言模型所能及,该领域尚处萌芽阶段,是未来十年最具决定性的挑战 [16][21] - 世界模型需具备三大基本能力:生成性(生成具有感知、几何和物理一致性的世界)、多模态(处理多种形式的输入)、交互性(能根据输入的动作输出下一个状态) [17][19][20] - 实现世界模型面临巨大技术障碍,包括需要定义通用的训练任务函数、利用互联网规模的图像视频数据作为训练材料、以及开发超越当前范式的新模型架构 [23] 空间智能的应用前景 - 在创造力领域,World Labs的Marble平台将为电影制作人、游戏设计师等提供前所未有的空间能力和编辑可控性,快速创建可完全探索的三维世界 [22][26][27] - 在机器人技术领域,世界模型将通过提供模拟数据和训练环境,规模化机器人学习,使其成为能在各种场景下协助人类的伙伴与协作者 [24][28][32] - 在更长远的未来,空间智能将深远影响科学、医疗和教育领域,例如加速药物发现、增强医学影像诊断、以及实现沉浸式学习等 [29][30]
AGI 新技术路线:下一代稀疏注意力机制 Monte Carlo Attention 开源
AI科技大本营· 2025-11-10 01:03
文章核心观点 - 超对称技术公司在新版基座模型 BigBang-Proton 中引入了创新的 Monte Carlo 注意力机制,该机制通过二进制块编码和块间代表交流机制,实现了线性计算复杂度,并兼具稀疏注意力、状态空间和线性注意力的优点,同时规避了它们的缺点 [1] - Monte Carlo 注意力机制旨在解决宇宙尺度科学建模所需的超长上下文长度问题,其有效上下文长度可随层数呈指数级增长,理论上可达 10¹⁵⁰ 级别,远超当前大语言模型 10⁵-10⁶ 的限制 [2][3][30] - 该技术突破了传统 Transformer 的 O(L²) 计算复杂度瓶颈,降低至 O(L),并消除了训练中对 GPU 内存的依赖,可能减少收敛所需训练步数,对现有预训练技术和硬件设计具有深远影响 [3][4] 技术架构与核心组件 - BigBang-Proton 架构由三个核心组件构成:Binary Patch Encoding 的嵌入输入、Monte Carlo Attention 以及前馈时序卷积网络 [7][8] - Binary Patch Encoding 的输入词汇表包含 0-255 的字节值和三个特殊 token,总大小为 259,每个输入 token 通过 one-hot 编码转换为 259 维稀疏向量后投影到稠密嵌入空间 [8] - 前馈时序卷积网络取代了传统的前馈全连接网络,以捕捉局部空间和时间模式,其固有的卷积特性使模型无需使用显式位置嵌入 [8][37] Monte Carlo 注意力机制原理 - 核心创新是块间代表交流机制:输入嵌入被分组为特定大小的块,每个块随机或选择性地指定一个字节作为代表,与其他块交换信息 [12] - 通过 Delegate 操作和序列重组,信息在全局范围内流动,而计算复杂度仅取决于块大小的平方 O(P²),而非序列总长度 [12][13] - 有效上下文长度的递归关系为 C(N) = (P-1) × P^N + C(N-1),当块大小 P=32 时,第 1 层上下文长度可达 992,第 2 层可达 32,736,层数加深后呈指数增长 [14][15][30] 与传统注意力机制的对比优势 - 与稀疏注意力相比,Monte Carlo 注意力通过基于重组的机制避免了信息丢失和选择偏差问题,实现了更优的上下文长度复杂度 [40][42] - 与状态空间模型相比,该方法通过直接的全局信息交换避免了线性时不变性约束、低秩近似相关的精度损失以及数值不稳定问题 [43][44] - 与线性注意力相比,Monte Carlo 注意力在增强的局部-全局上下文中进行精确计算,保持了完整的注意力表达能力,避免了核函数映射导致的信息丢失 [44][45] 性能与效率提升 - 计算复杂度从 O(L²) 降低到 O(L),对于 10⁸ 的上下文长度,在块大小为 4 时,计算量减少 99.99%,速度提升高达 195,313 倍 [4][34] - 该方法无须分阶段训练即可实现理论上无限的上下文长度,并能训练比设备内存容量长多个数量级的序列,缓解了传统的批次处理约束 [3][4] - 引入了循环 Monte Carlo Attention 来解决迭代表征传播过程中可能的信息退化问题 [33][41]
自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线
AI科技大本营· 2025-11-07 05:59
核心观点 - 超对称公司发布的BigBang-Proton基座模型挑战了以OpenAI为代表的主流AGI技术路线,提出并验证了通过“物质结构学习”实现AGI的第三条路径 [1][2][4] - 该模型通过三项根本性创新,实现了跨微观粒子到宏观地球系统的多学科科学问题在单一自回归LLM上的统一预训练和推理,展示了语言引导科学计算的能力 [2][26][80] - 实验结果表明,主流LLM(如GPT-5、DeepSeek-R1)在理解真实物质结构和执行专业科学任务上遭遇失败,而BigBang-Proton在多个科学任务上达到或接近专用SOTA模型水平 [2][36][44][54][59][66][71][72][74] 技术创新 - **二进制块编码**:彻底抛弃传统的BPE等分词器,将所有输入数据(文本、代码、科学数值)统一视为原始二进制序列进行处理,解决了数值保真和跨模态统一表征的难题 [9][11][14][37] - **理论-实验学习范式**:建立数值型实验数据与文本理论描述的混合表示和直接对齐,使模型能整合符号推理与数据驱动学习,覆盖90%以上的实验科研任务 [13][18][19][48] - **蒙特卡罗注意力机制**:替代传统Transformer注意力,通过分块代表交流机制,使模型有效上下文长度随层数指数级增长,20层即可实现10³⁰字节的上下文容量,为模拟复杂物质结构奠定基础 [19][22][23] 模型性能表现 - **算术运算**:在50位数加法、减法和12位数乘法任务中,准确率分别达到100%、98%和90%,显著高于DeepSeek-R1(19.23%、11.63%、9.68%)和ChatGPT-o1(3.85%、6.98%、3.23%)[36][37] - **粒子喷注分类**:在11类分类任务中达到51.29%的准确率,与专用SOTA模型(ParT的56.69%)差距仅4-5个百分点,而主流LLM准确率接近随机猜测水平(10%)[44][46][47] - **材料形成能预测**:实现0.043 eV/atom的平均绝对误差,在Matbench榜单排名第11位,优于部分专用机器学习方法,而主流LLM的预测误差与之相差四到五个数量级 [54][56] - **湖泊水质预测**:在叶绿素-a浓度预测中实现0.58 μg/L的MAE和0.098的MAPE,达到与行业领先机器学习时序预测模型竞争的水平 [59] - **基因组建模**:以1.5B参数和Evo模型三分之一的训练数据量,在评估困惑度(2.8 vs 3.1)及预测突变对蛋白质功能影响(斯皮尔曼相关系数0.78546 vs 0.67)等多项任务上超越SOTA生物基座模型Evo [66][71][72][74] 行业影响与未来规划 - **挑战主流AGI路线**:指出仅依赖长程思维链和互联网自然语言数据无法实现AGI,提出LLM预训练应进入物质世界,其边界将扩展到全宇宙 [2][4][5][80] - **提出宇宙尺度压缩构想**:目标是在一个二进制序列中重建物理世界,将全宇宙的信息转为超长序列压缩到单一基座上,为所有AI分支任务提供基座 [5][81][82] - **广泛产业合作与应用**:模型正与中国高能物理所、强磁场中心、南京大学、上海交大等机构合作,应用于粒子对撞、核聚变、高温超导、虚拟细胞、地球系统建模及飞行器设计等前沿领域 [82][83]
“你们尽管做空 OpenAI!”奥特曼霸气喊话,纳德拉亲述微软百亿投资内幕 | 巨头对话
AI科技大本营· 2025-11-03 06:51
微软与OpenAI合作关系 - 微软对OpenAI的总投资额约为130-140亿美元,获得完全稀释后公司27%的股权 [11] - 双方合作协议包括模型独家授权和收入分成,核心服务的"无状态API"在2030年前独家保留在Azure上 [15] - 收入分成协议将持续到2032年或AGI被验证实现,OpenAI需向微软支付其收入的一部分 [16] - 合作关系被评价为"科技史上最伟大的合作之一",微软早期的远见和支持是关键 [12] 算力投资与战略 - OpenAI计划未来四五年内在算力上投入1.4万亿美元,其中明确承诺5000亿给英伟达,3000亿给AMD和甲骨文,2500亿给Azure [19] - 当前增长的主要瓶颈是算力不足而非过剩,过去一年算力扩展了10倍,但若能再增加10倍算力,收入增长将接近同等幅度 [22] - 供应链的最大问题不是芯片供应,而是电力短缺以及无法在靠近电源的地方快速完成数据中心建设 [25] - 算力需求与单位成本紧密相关,若单位智能的算力成本下降100倍,使用量增长将远超100倍 [23] 商业模式与收入预期 - OpenAI当前年收入被报道为130亿美元,但公司表示实际收入"远不止那个数",并预期收入将急剧增长 [20] - 公司对成为重要的人工智能云服务商、发展消费级设备业务以及自动化科学研究创造价值充满信心 [20] - 微软作为合作伙伴,从未见过OpenAI提交的任何一份商业计划是他们没有超额完成的,对其商业执行力表示高度认可 [21] 技术发展与应用前景 - AGI的实现将触发合作协议的提前终止,双方建立了由专家小组裁决AGI是否达成的流程 [16][17] - 展望2026年,AI任务将从持续数小时升级到持续数天,AI有望做出全新的科学发现,这被视为超级智能的标志 [34] - 正在开发新形态的计算设备,旨在实现更好的情境感知和"宏观授权、微观引导"的工作流程 [36] - 编程领域将发生变革,AI将帮助以前所未有的速度和方式创造软件,GitHub在AI助力下过去一年完成的工作量相当于其过去10-15年的总和 [58] 行业影响与价值链重塑 - 在智能体时代,传统商业应用(CRUD数据库+业务逻辑)的存在概念可能全部瓦解,业务逻辑将转移到智能体上 [55] - 智能体被视为新的"席位",将成为企业商业化的新路径,企业端的商业化路径比消费者端更清晰 [63] - 超大规模云服务商的核心竞争力在于能以最高利用率运行异构算力集群,这并非简单的服务器连接 [60] - 下一代SaaS应用必须是低每用户平均收入(ARPU)、高使用率的模式,高ARPU、低使用率的应用将面临麻烦 [58] 市场地位与竞争格局 - 微软Azure本季度在930亿美元营收基础上增长39%,增长率高于谷歌云(32%)和AWS(接近20%) [51] - 微软拥有4000亿美元的剩余履约义务(RPO),平均履约周期为两年,为产能建设提供了高确定性 [51] - 在规模效应下,没有什么是真正的商品,超大规模云服务商能通过成本结构和软件效率的复合增长保持利润 [53] - 微软超过一半的业务是软件应用,其产品组合(GitHub Copilot、Microsoft 365 Copilot等)构成了全球最大的人工智能产品矩阵 [43]
后端架构新范式!阿里云专家亲揭:用RocketMQ彻底搞定多Agent异步协同难题
AI科技大本营· 2025-10-30 10:55
Multi-Agent系统架构演进 - AI应用从被动响应进入主动决策、自主执行阶段,催生了Multi-Agent架构,任务由多个专业化Agent协同完成,不再依赖单一模型或固定流程[4] - Agentic AI具备自主规划能力,可将目标拆解为动态步骤,但规划依赖每一步的结果反馈,Supervisor需掌握完整结果链路以决定下一步行动[5] - 实现高效可靠协同的关键在于Agent能力发现与任务闭环,仅靠大模型推理能力不足[5] Agent协同核心机制 - Agent能力发现支持动态注册Agent能力(如数据分析、文案生成),并允许Supervisor Agent在运行时查询并选择合适的Sub Agent执行任务[6] - 能力发现是面向语义的能力和意图驱动匹配,由大模型处理能力识别和匹配,是实现智能分工的前提[6] - 任务协同中Supervisor Agent作为系统大脑,通过高层次协调管理将多个专业化Agent组织成有机整体,完成单个Agent无法胜任的复杂任务[7] Agent通信模式比较 - 轮询式通信定期主动查询其他Agent状态,实现简单但延迟高,频繁轮询浪费资源,难以处理动态拓扑变化[8] - 点对点通信主动调用另一个Agent接口,控制流明确且支持强一致性交互,但耦合度高,难以动态调整,不利于异步处理[8] - 发布-订阅模式将消息发布到特定主题,解耦调用和被调用者,易于扩展和水平伸缩[8] - 基于发布/订阅模式实现通信时较复杂,因主流分布式消息中间件主要面向静态编排业务场景,采用发完即忘模式,使得通信链路难以完成闭环[9] RocketMQ新特性设计 - RocketMQ推出带语义的Topic和Lite-Topic新特性,以Topic语义作为能力注册与发现基础,解决调用谁的问题,以Lite Topic动态绑定任务并等待结果消息,解决调用后异步获取结果的问题[10] - Topic不仅是消息主题命名和分类,更是业务意图与能力语义载体,通过自然语言描述与结构化元数据引入Topic定义,使其具备可读性、可发现性与可推理性[11][12] - Lite-Topic是在RocketMQ百万队列基础上设计的新类型Topic,无需预创建Topic和订阅关系,能自动管理生命周期,支持短期、小量消息传输和客户端订阅关系动态临时变化[13] 事件驱动消息分发机制 - 引入InterestSet + ReadySet的事件驱动模型,InterestSet维护客户端订阅关系,事件触发后分发到对应ReadySet,将传统盲目轮询转化为精准唤醒[20] - ReadySet就绪事件集合维护每个Client_ID的待读取Topic队列集合,存放当前有消息可读的Lite-Topic[15] - 事件驱动消息分发方式避免每次读请求遍历客户端所有订阅集合,实现大规模个性化订阅场景下的高效、低延迟消息分发[17][20] 异步Multi-Agent系统构建 - 通过Lite-Topic能力,Supervisor Agent集群中任何实例均可动态订阅Lite-Topic(以Task_id命名)来接收下游任务结果,实现任务闭环[21] - 保留Pull模型优势,客户端主动控制流控、避免过载,只需发起轻量Poll请求;同时引入Push语义效率,Broker主动告知哪些Topic有消息可读[22] - 结合语义化Topic的Agent能力注册与发现,构建面向Agentic AI的高效异步协同架构,包括能力注册与发现、语义驱动任务编排、轻量级异步任务分发与反馈、闭环驱动持续决策四个核心业务流程[24][25] - 该架构在保证系统松耦合和高扩展性同时,有效支持Multi-Agent场景下任务编排、结果反馈和多轮决策需求[27]
对话蚂蚁 AWorld 庄晨熠:Workflow 不是“伪智能体”,而是 Agent 的里程碑
AI科技大本营· 2025-10-28 06:41
文章核心观点 - AI行业当前陷入追求榜单分数的"应试狂热",真正的智能体技术必须超越考试逻辑,走向解决现实世界复杂问题的"实干" [2][7] - 智能体赛道存在泡沫,许多产品仅是传统工作流自动化的"套壳",但Workflow是智能体发展过程中的重要里程碑,而非终点 [3][10] - 群体智能被视为一条可能实现"弯道超车"的路径,其与基础大模型训练是螺旋上升的相辅相成关系,而非替代 [16][18][20] - 真正的智能体具备动态适应和问题解决能力,其核心标志是能够自主"绕路"应对意外情况,而非僵化执行预设流程 [23][24] - 开源是推动AI技术发展和建立行业生态的关键力量,代码背后的认知共享比代码本身更具价值 [32][33][35] 智能体技术与Workflow的关系 - 行业存在对智能体的质疑,认为其仅是Workflow自动化脚本的包装,即"智能体洗白",导致用户体验后迅速流失 [3] - 大模型的出现是分水岭,用基于概率的语义理解替代了过去难以维护的、僵化的手写规则图 [9] - Workflow被视为智能体发展前期的成熟技术阶段和必经的里程碑,但智能体终将超越Workflow [10] - 根本性转变在于从遵循固定标准作业程序的过程导向,演进为以最终结果好坏为评判标准的结果导向 [13] - 真智能体的标志是动态适应能力,例如在工具调用失败后能自主寻找替代方案(如自己写代码),而非像Workflow那样流程中断 [23][24] 群体智能与模型发展的战略路径 - 面对大模型军备竞赛的资源消耗,群体智能提供了一种"弯道超车"的非对称战略思路 [16] - 群体智能的核心是构建协同框架,使多个相对较小的智能体像专家团队一样合作,完成复杂任务 [17] - 群体智能与基础大模型训练是相辅相成、螺旋上升的关系:群体智能系统作为"数据工厂"产生的高质量数据可反哺基础模型,增强其推理能力;更强的基础模型又能提升群体智能中单个智能体的能力 [18][19][20] - 通用智能体与基础模型的边界相对模糊,智能体团队的核心价值在于完成技术到商业价值的"最后一公里",包括必要的模型后训练(post-train)和工程落地 [21][22] 智能体与真实世界的交互演进 - 智能体影响真实世界的三种介质包括:通过自然语言与人交互、通过API交互、以及通过GUI(图形用户界面)交互 [25] - API方式当前最主流但脆弱,依赖提供方且难以泛化;GUI方式模拟人类自然操作,泛化性和扩展性潜力最高,但实现难度也最大 [25][26][27] - 行业需要建立智能体间的通信与协作标准协议(如MCP、A2A),其最终形态可能由大公司推动或因其好用而形成稳定生态 [28] 开源策略与行业生态建设 - 开源是应对AI技术快速迭代、保持领先的关键方法论,其力量体现在集体智慧能加速AI发展,迅速缩小与闭源模型的差距 [32][33] - 开源项目超越代码本身,其核心价值在于共享背后的技术认知和设计哲学,接受检验并激发共创,是极佳的技术"名片" [35][37] - 智能体技术的硬性标准是"自己做出来的智能体自己能用",强调实际应用价值而非空谈 [38] 智能体技术的未来方向 - 未来智能体的关键挑战是完成"长程任务",即像独立个体一样7x24小时运行,处理持续数小时甚至更久的复杂任务,这将引出超长上下文管理、记忆等核心技术难题 [39] - 公司对智能体的未来规划聚焦于两点:一是让智能体在多种环境(如GAIA、IMO)中学习并沉淀经验至模型;二是将智能体作为开放的技术产品,让社区优先享受到技术红利 [40]
10月25日,亚马逊云科技带你玩转Agentic AI开发全流程
AI科技大本营· 2025-10-22 06:11
文章核心观点 - AI构建方式正被AI技术本身重构,行业进入由自主智能体主导的新阶段 [1] - 亚马逊云科技推出的AI原生IDE Kiro是这一趋势的代表,其作为AI构建伙伴能深度参与从想法到发布的完整应用开发链路 [1] - 2025长沙1024程序员节的主题与Kiro的构建理念高度契合,旨在帮助开发者掌握AI系统级构建能力 [1] Kiro作为AI构建伙伴的核心能力 - 采用Specs规范驱动,仅需一句提示词即可自动生成用户故事、验收标准与技术设计文档 [5] - 具备Hooks智能协同功能,在代码保存等事件触发时自动执行检测并与文档保持同步 [5] - 实现任务可视化,支持从规范到开发任务的全链路追踪,确保进度清晰可控和输出结果可信 [5] - 保持实时双向同步,确保规范文档与代码库始终一致,消除文档失效与维护负担 [5] 1024 AI构建者大会亚马逊云科技专场亮点 - 大会特色为体系化策略与实战化落地相结合,设置趋势洞察和动手实验等环节 [3] - 技术专家将深度拆解Agentic AI在需求理解、代码生成和测试验证等方面的能力 [3] - 动手实验环节邀请开发者现场深度体验Kiro,全流程实操解决任务拆解模糊等典型痛点 [3] 对开发者的价值与机遇 - 开发者能借助Kiro实现从零开始构建完整应用,是一次绝佳的体验机会 [5] - 通过动手实验直接掌握Kiro核心操作与Agentic AI应用开发流程,积累可复用实战经验 [5] - 能深度链接亚马逊云科技的AI技术生态,优先获取前沿工具的技术支持,为职业发展打开新通道 [5]
C++之父Bjarne Stroustrup亲临现场,2025全球C++及系统软件技术大会重磅官宣
AI科技大本营· 2025-10-22 06:11
C++语言演进历程 - 1979年Bjarne Stroustrup在贝尔实验室写下第一行C++原型代码,旨在解决性能与抽象的统一问题[3] - 2005年Bjarne在上海大会提出"C++0x方向"原则,包括通用性优于特殊化、新手与专家并重、以库为先等指导理念[7] - 2011年C++11标准发布被形容为"几乎是一门全新的语言",引入类型推导、智能指针、lambda表达式和并发支持等现代特性[8] - 2016年Bjarne推动Concepts标准化工作,为模板编程带来可理解性与类型安全,平衡高性能与可维护性[10] 行业技术发展趋势 - AI大模型浪潮推动C++在算力密集型场景复兴,OpenAI推理引擎、NVIDIA加速库、DeepSeek编译框架均依赖C++底层支撑[12] - 云原生架构重塑软件部署方式,开发者对内存与资源安全需求日益迫切[11] - 异构计算成为重要方向,C++标准委员会设立机器学习组(SG19)专门研究GPU应用开发和神经网络优化[27] - 大模型驱动软件开发成为新兴专题,反映AI技术对编程范式的深远影响[59] 技术大会核心内容 - 大会设置十二大技术专题,涵盖现代C++实践、架构演化、软件质量、AI算力优化、异构计算、高性能低时延等前沿领域[52][59] - 软件工程基石专题聚焦大型系统构建的质量与效能原则[53] - 性能优化专题直面AI与低时延场景的硬件压榨挑战[54] - 系统内核专题深入操作系统与底层硬件交界地带的技术奥秘[55] 行业专家阵容 - Bjarne Stroustrup作为C++之父持续指导语言演进,现任摩根士丹利技术部董事总经理和哥伦比亚大学客座教授[21] - Michael Wong领导C++机器学习委员会,主导制订SYCL异构编程标准并对PyTorch/TensorFlow底层优化有深刻见解[27] - John Lakos作为彭博集团BDE基础开发部掌门人,是大规模C++组件化开发方法的世界级权威[33] - David Sankel作为Adobe首席科学家,负责C++ Reflection TS项目编辑和模式匹配等语言特性提案[30]