Workflow
LLM
icon
搜索文档
阿里巴巴-阿里云云栖大会核心要点;全栈人工智能与全球扩张;引入估值情景分析
2025-09-25 05:58
公司:阿里巴巴集团 (BABA/9988 HK) 核心观点与战略路线图 * 公司CEO在主题演讲中阐述了实现人工超级智能(ASI)的路线图 目前处于4个阶段中的第2阶段 并预测大型语言模型(LLM)将成为下一代操作系统 AI云将成为下一代计算机[1] * 公司战略性地选择了开源方法 旨在构建AI时代的安卓系统[1] * 公司相信全球最终将由少数5至6家超级AI超大规模公司主导 阿里巴巴凭借其领先的全栈AI服务规模和产品成为其中之一[1] 资本支出与基础设施规模 * 管理层评论称 相较于未来三年3800亿元人民币的资本支出目标 存在进一步上调的潜在可能[4] * 公司预计到2032年 其全球数据中心耗电量将比2022年水平高出10倍 这可能意味着阿里云规模将实现30%以上的年复合增长率[4] * 过去一年 阿里云的AI算力增长了5倍 AI存储容量增长了4倍[23] * 全球AI产业总投资在过去一年已超过4000亿美元 预计未来5年累计全球AI投资将超过4万亿美元[14] 全栈AI产品与模型进展 * 通义千问(Qwen)已是全球最受欢迎的开源模型 公司展示了其全栈产品 从新发布的Qwen3(Max VL Coder Omni)到Wan及即将推出的Fun模型 在参数选择 多模态和编码方面领先[4] * 公司已开源300多个AI模型 自2023年第一代Qwen发布以来 下载量超过6亿次 并基于Qwen构建了超过17万个衍生模型[18] * 通义模型在2025年上半年每日token量规模排名第一 领先于字节跳动的豆包和DeepSeek[4] * 发布了旗舰模型Qwen3-Max 拥有1万亿参数 基于36万亿token进行预训练 其性能超越了GPT-5和Claude Opus 4 预览版在Chatbot Arena排行榜上已排名第三[18] * 下一代基础模型架构Qwen3-Next 总参数量为800亿 但每个token仅激活30亿 其性能可与旗舰Qwen3 235B模型相媲美 训练成本仅为Qwen3-32B的十分之一[18] * Qwen3-Coder开源后 其在OpenRouter上的API调用量据称激增了1474% 排名全球第二[18] 企业AI应用与开发者生态 * 企业(To-B)AI应用激增 通义模型的企业用户显著增加 其AI客户数量自2024年1月至2025年7月呈指数级增长 其中相当大比例的企业使用全栈AI产品[4] * 关键行业包括互联网 汽车 金融 公共服务和零售[4][5] * 低代码智能体开发平台ModelStudio-ADP被金融 教育和电商行业广泛采用 Bailian平台上超过20万名开发者通过ADP构建了超过80万个智能体[23] * Bailian平台上的模型日均调用量在过去一年增长了15倍[19] 全球扩张与海外增长 * 海外收入增长步伐在最近几个季度加速 海外基础设施扩张速度远超国内增长速度[24] * Model Studio国际版实现了强劲增长 每日API调用量较五个月前增长了300%[24] * 阿里云目前在全球运营29个区域 并全力投入全球AI云扩张 计划在未来12个月于日本 韩国 法国 阿联酋 巴西 马来西亚 荷兰和墨西哥推出新的数据中心[24] 财务表现与估值 * 阿里云的AI收入已连续八个季度实现三位数增长 在2025年6月季度达到云收入的20%[5] * 高盛给出基于SOTP的12个月目标价 美股为179美元 港股为174港元 看涨案例估值为254美元/247港元 看跌案例估值为106美元/103港元 意味着看涨案例有40%以上的上行空间[1][5] * 尽管近期快速商务业务对集团9月季度的EBITA利润造成拖累 但公司持续致力于显著改善该业务的单位经济效益[6] 其他重要技术发布 * 升级了智能体AI开发工具包 包括新的智能体开发框架ModelStudio-ADK 突破了通过预定义编排开发智能体的限制[17][19] * 主要升级了无影AgentBay 可动态调用云计算 存储和工具链资源[23] * 盘久超节点服务器 推理性能比传统架构提升50% 单个机架可支持128个AI计算芯片[23] * 高性能网络HPN 8.0 将存储网络带宽提升至800Gbps GPU互连带宽达到6.4Tbps[23] * 灵骏AI集群 基于HPN网络 支持稳定互联高达10万个GPU[23] * PAI平台 在训练 推理和强化学习方面进行端到端性能优化 通义千问训练速度提升3倍 推理TPS吞吐量提升71% TPOT延迟降低70.6% 扩缩容时间减少97.6%[23] 风险因素 * 由于宏观/竞争因素导致商品交易总额(GMV)增长低于预期[7] * 中国零售业务货币化速度慢于预期[7] * 关键战略投资执行弱于预期[7] * 云收入增长减速[7]
Meta AI 人才动荡,上亿美元为何留不住人?丨晚点聊
晚点LatePost· 2025-09-24 15:18
Meta人才流失与组织问题 - Meta以143亿美元收购Scale AI 49%股权并招募其28岁创始人亚历山大·王 随后开出最高4年3亿美元薪资招募顶尖AI研究员 但团队组建后出现离职潮 包括工作12年的老员工和刚加入的OpenAI研究员[4] - 离职原因包括组织臃肿 疫情后VP层级增多导致审批流程低效 以及内部政治斗争频繁 OpenAI和Google背景的研究员不擅长应对此类环境[8] - 超级智能实验室规模达5000人 但核心模型训练团队仅需50人 其中20多人负责模型设计调优 20多人负责基础设施 其余人员从事边缘化产品 效率低下[9] - 内部存在主动"赛马"现象 缺乏明确ownership 多个团队重复相同工作 与亚马逊和Google的集中式管理形成对比[10] - 部门财务自主权弱 VP预算有限 无法独立决策奖金分配或资源调配 导致团队难以进行战略性改变[11] 顶尖AI公司组织策略对比 - OpenAI和Anthropic采用使命驱动模式 全公司围绕单一目标努力 避免重复工作 团队规模虽达千人但目标一致[10][12] - Google依赖权威研究者定方向 相对集权 减少内部冲突 2023年后通过多点推进策略 在文字 图像 视频等多领域同时发力 最终实现技术反超[18][23] - xAI偏工程驱动 通过扩大模型规模和算力构建壁垒 马斯克认为"不存在research 一切都是engineering" 与Google的科学驱动形成对比[18] - Anthropic聚焦文字空间 专注coding场景 OpenAI侧重C端多样化应用 ChatGPT周活达7-8亿 但面临Google桌面端Chrome的壁垒挑战[23][24] AI人才流动与职业发展 - 顶尖AI人才首选OpenAI和Anthropic 其次为Google 核心驱动力是参与AGI突破并留名历史 而非金钱报酬[21][22] - 研究者年龄多在35-40岁 需有奠基性成果 但近年博士生难有突破性研究 因算力被大公司垄断 多数人跟随LLM主线[15] - 理想团队架构为5-6名顶尖研究者配5-6名工程型人才 前者决定公司10年发展 后者决定2-3年发展[16][17][19] - 当前研究环境浮躁 博士生普遍追逐大模型方向 缺乏底层算法改进 批判性思维培养不足 甚至辍学创业[35] AI原生组织构建 - AI原生组织应最大化利用AI工具 仅在新岗位需求时招人 采用去中心化网状结构替代金字塔层级 提升协作效率[26] - 任务分配需抽象化 避免过度细节 强调工程师的架构设计能力 而非单纯代码执行 AI使团队产出提升3-5倍[26][27] - 团队信任至关重要 CEO需判断哪些工作可放手 同时保持能力互补 避免重叠导致冲突[27][29] - Pokee AI案例显示 8人团队通过每日站会协调优先级 依赖关系抽象化任务 实现5-10倍效率提升[28] 资本市场与技术脱节 - 2025年AI资本市场可能降温 VC将评估年度表现 若营收不及预期则冷却 当前市场期望过高[34] - Meta广告业务提升被二级市场认可 但实际与LLM和GenAI关联较小 主要依赖传统推荐系统优化 存在技术进展与资本认知脱节[34] - 美国顶尖研究基金会(如盖茨 扎克伯格设立)资源充裕 但难招募执行层人才 因加入大厂更具晋升确定性[20]
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
机器之心· 2025-09-17 04:00
大模型开源开发生态全景图2.0核心变化 - 全景图收录114个项目 较上一版减少21个 覆盖22个领域 其中39个为新晋项目 60个项目被淘汰[7] - 生态中位年龄仅30个月 平均寿命不足三年 62%的项目诞生于2022年10月"GPT时刻"之后 包含12个2025年新项目[10] - 分类框架从Infrastructure/Application进化为AI Agent/AI Infra/AI Data三大板块 反映行业以智能体为中心的技术趋势[15][16] 项目活跃度与更替 - PyTorch以92,039个Star位居榜首 vLLM以53,912个Star位列第二 新晋项目GERTINI获得66,881个Star[11] - TensorFlow因迭代迟缓退出市场 PyTorch实现生态统一[8] - 头部前十项目覆盖模型生态全链路 平均Star数接近3万 远超历史同期开源项目[10] 开发者地域分布 - 全球366,521位开发者中 美国占37.41% 中国占18.72% 中美合计贡献超55%[17][20] - 美国在AI Infra领域贡献度达43.39% 为中国的两倍 在AI Data领域优势更明显[18][19] - 中国在AI Agent领域贡献度达21.5% 与美国24.62%接近 反映应用层投入集中[23] AI Agent领域演进 - AI Coding成为最活跃赛道 完成从"补代码"到"全生命周期智能引擎"的跨越 支持多模态与团队协同[43] - Chatbot领域经历高光后回归理性 Lobe-Chat保持64.7k Star Cherry Studio以"个人知识助理"定位逆势上榜[50][53] - Agent Workflow Platform向基础设施演化 Dify提供从原型到生产的一站式平台 RAGFlow等项目快速走红[54][57] - Agent Tool领域爆款频出 Browser-use9个月获60k Star mem0解决记忆管理问题 Supabase成为GenAI数据基础设施[57] AI Infra技术趋势 - Model Serving持续高热 vLLM和SGLang主导云端推理 NVIDIA TensorRT-LLM绑定GPU硬件巩固算力优势[62][66] - 本地化推理快速发展 ollama使大模型可运行于个人设备 GPUStack等新框架持续涌现[68][70] - LLMOps接棒MLOps 成为2025年增长最快赛道 Phoenix/Langfuse等项目覆盖监控至工作流管理全环节[71][72] - 模型训练热度回落 社区更关注低成本微调方案如Unsloth集成QLoRA[78] AI Data领域状态 - 技术成熟度较高 多数项目诞生于2014-2020年 Chroma成为少数抓住RAG机遇的新秀[82] - 向量数据库等基础组件缺乏突破点 Milvus/Weaviate/Elasticsearch等已成为标准拼图[86] - 企业级场景特性使开发者关注度难以维持 但向量化/RAG/多模态处理正推动数据平台向智能中枢演进[87] 开源许可模式演变 - 新项目多采用限制性许可协议 保留许可方干预权 Dify使用BSL变体 n8n采用Fair-code条款[92][93][94] - 部分项目按用户规模设限 月活超阈值需重新授权 GitHub出现代码闭源但获高星现象[91][94] 大模型技术发展动向 - MoE架构成为主流 DeepSeek/Qwen/Kimi等模型参数达万亿级 推理时仅部分激活[101] - Reasoning能力成为标配 DeepSeek R1通过强化学习增强推理 Qwen/Claude引入"快思慢想"混合模式[102] - 多模态全面爆发 语言/图像/语音交互成基础能力 语音模态工具链Pipecat/LiveKit Agents快速完善[103][104] - 模型评价体系多元化 从人工投票平台转向OpenRouter等API网关的"数据投票"排行榜[106]
LLM 商业化猜想:OpenAI 会走向 Google 的商业化之路吗?|AGIX PM Notes
海外独角兽· 2025-08-25 12:04
AGI时代投资范式 - AGIX旨在成为衡量AGI新科技范式的重要指标 如同Nasdaq100之于互联网时代 [2] - AGI代表未来20年最重要的科技范式转换 将重塑人类社会运行方式 [2] 大模型商业化挑战 - AI代理和LLMs颠覆传统互联网边际成本接近零的模式 资金、计算能力与答案质量存在直接关系 [2] - GPT5尝试通过识别高价值问题并在完成交易后从商家分成 以实现近9亿免费用户的变现 [2] - OpenAI的变现方案类似于Google的CPA模式 但CPA仅占Google广告收入的10% 主要适用于高转化率产品如电商与SaaS [3][4] - 高价值交易转化率低 Google搜索广告平均转化率约3.75% 其中电商类约2.8% 意味着98%高价值问题未转化但产生高Token消耗 [5] - 真实世界中行业巨头缺乏开放SKU数据的动力 如亚马逊禁止Perplexity等Agent抓取商品数据 导致变现低效率 [5] - CPC模式变现颗粒度和可扩展性极强 覆盖从几美分到上百美元/次点击 而AI助手的变现只发生在实际完成高价值交易时 频率远低于点击量 [6] AI原生商业模式探索 - 利用Agent异步性为任务时间价值反向定价 通过"一次询问 多次搜索"实现内容编排和精准推送 [7] - Agent应识别用户未明说的核心需求 达到"上下文理解+场景引导" 实现温和商业化并提升转化率 [7] - 考虑LLM线性边际成本属性 激励广告主丰富产品/服务的Context内容库 由品牌方承担相关Token成本 [8] - Google Research提出令牌拍卖机制 广告主竞价影响LLM生成内容 按影响力付费而非按展示付费 [9] - AI商业化应基于Agent异步性、任务时间价值、成本线性属性及计算成本转嫁给广告主等AI原生方式展开 [9] 市场表现数据 - AGIX年初至今收益率16.11% 自2024年以来收益率55.02% 超越标普500的9.95%和35.58% [11] - 行业配置中半导体与硬件权重44% 基础设施42% 应用14% 本周分别下跌0.13%、0.10%和0.06% [12] - 美国多空净杠杆率从54%降至49% 总敞口升至213% 达2010年以来100分位数水平 [14] - 亚洲对冲基金年初至今收益率10.2% 虽低于MSCI亚太指数的18.5% 但在全球对冲基金中表现最佳 [15] - 全球对冲基金平均下跌0.3% AGIX下跌0.29% 显著优于MSCI全球指数近1%的跌幅 [16] 行业动态与合作 - Google AI Mode升级 支持地区从美印英扩展至180+国家地区 新增代理功能支持餐厅预订等复杂需求 [16] - Google AI Mode新增个性化推荐功能 基于用户历史记录提供餐饮建议 用户可完全控制个性化设置 [16] - Elon Musk成立Macrohard公司 开发编程助手和图像视频生成等AI工具 旨在证明AI可完全替代传统软件公司 [17] - Google Cloud与Meta达成6年超100亿美元云计算协议 Meta将使用GCP的服务器、存储和网络服务 [18]
谷歌大脑之父首次坦白,茶水间闲聊引爆万亿帝国,AI自我突破触及门槛
36氪· 2025-08-25 03:35
个人成长与早期经历 - 童年时期频繁搬家,12年内更换11所学校,培养了适应能力 [7] - 9岁时接触早期Intel 8080计算机套件,通过BASIC语言书籍自学编程 [9][11][13] - 13岁时打印400页游戏源码学习并发编程,完成首个复杂软件移植 [14] - 本科期间接触遗传编程和神经网络,1990年尝试用32处理器并行训练神经网络 [15][17] 神经网络与工程突破 - 90年代提出数据并行/模型并行概念,早于相关术语普及 [8] - 2011年与吴恩达在谷歌茶水间交流后,启动Google Brain项目,目标是用GPU训练超大规模神经网络 [25][26] - 使用2000台计算机(16000核心)训练分布式神经网络,在视觉任务中实现无监督学习,生成"平均猫"图像 [26][27][30] - 无监督模型在Imagenet数据集上使错误率降低60%,监督语音模型在800台机器训练5天后错误率降低30% [30] - 推动定制机器学习硬件TPU开发,支持神经网络规模化应用 [30] 技术演进与核心贡献 - 推动词向量(word2vec)技术,用高维向量表示词汇语义 [32] - 序列到序列模型与LSTM网络应用于机器翻译,提升序列处理能力 [34][36] - 注意力机制与Transformer架构突破,实现n平方复杂度下的高性能序列处理 [38][40] - 谷歌大脑框架被数百个团队采用,支持搜索、广告等核心业务 [26] AI发展现状与未来方向 - LLM在非物理任务上超越普通人表现,但在专业领域尚未达到人类专家水平 [47] - 可解释性研究通过可视化或直接询问模型决策机制推进 [43][44] - 未来突破依赖自动化闭环:自动生成想法、测试、反馈及大规模解决方案搜索 [49] - 强化学习与大规模计算加速科学、工程领域发展,预计影响未来5-20年进程 [49] - 未来5年聚焦开发更强大、成本效益更高的模型,服务数十亿用户 [50] 行业影响与里程碑 - Google Brain项目促成神经网络在谷歌产品中的大规模部署 [26][30] - 纽约时报报道"猫图像"突破,成为AI认知里程碑事件 [27] - TensorFlow与TPU硬件推动行业机器学习基础设施标准化 [1][30]
KT(KT) - 2025 Q2 - Earnings Call Transcript
2025-08-11 07:00
财务数据和关键指标变化 - 2025年第二季度营业收入同比增长13.5% 达到7,4274亿韩元 营业利润同比增长105.4% 达到1,0148亿韩元 主要得益于电信业务和核心业务的均衡增长以及房地产销售的一次性收益 [6] - 净利润同比增长78.6% 达到7333亿韩元 EBITDA同比增长36.3% 达到19,907亿韩元 [6] - 营业费用同比增长5.9% 达到64126万亿韩元 尽管房地产销售项目降低了劳动力成本 但无线设备销售增长导致销售成本增加 [7] - 资本支出方面 KT及其主要附属公司累计资本支出达到136,430亿韩元 其中KT单独资本支出为8458亿韩元 主要集团附属公司资本支出为5185亿韩元 [7][8] 各条业务线数据和关键指标变化 - 无线业务收入同比增长0.9% 达到17,817亿韩元 5G用户占总手机用户的79.5% MNO用户环比增长3.4% [8][9] - 固定线路业务方面 宽带收入同比增长2.1% 达到6314亿韩元 得益于Giga Internet用户增长和增值服务扩展 [9] - 媒体业务同比增长0.8% 家庭电话收入同比增长0.4% 达到1762亿韩元 [10][11] - B2B服务收入同比增长4.5% 得益于电信和AIIT服务的均衡增长 AIIT业务收入同比增长13.8% [11] - 主要子公司表现 PC Card收入同比下降6.9% 至9098亿韩元 但营业利润保持稳定 内容子公司收入同比增长6% KT Cloud收入同比增长23% KT Estate收入同比增长2% [12] 公司战略和发展方向和行业竞争 - 公司计划完成2500亿韩元的股票回购 并决定第二季度每股股息为600韩元 同比增长20% [4] - 作为AICT公司转型的一部分 公司推出了专有LLM bDIMM 2.0 并计划通过开源模型和微软合作模型完成AI产品线 [4] - 基于专有模型Medium 2.0 公司赢得了大型企业和政府机构的AI平台建设项目 巩固了在公共部门的地位 [5] - 计划在未来五年累计投资1万亿韩元用于信息安全 推出采用顶级安全协议的Secure Public Cloud [5] - 采用多模型战略路线图 包括与微软的合作模型 内部开发的Medium 2.0模型 以及开源模型如LAMA [17][18][19] 管理层对经营环境和未来前景的评论 - 尽管第二季度有房地产销售的一次性收益 但公司预计下半年仍能保持良好的增长势头 服务收入将保持稳定上升趋势 [24][25] - 劳动力成本管理良好 5G折旧已完成 折旧成本下降 但佣金和销售相关费用可能存在轻微风险 [25][26] - 股息政策基于调整后净利润的50% 已宣布的股息超过这一标准 董事会将继续根据市场预期做出决策 [27][28] - 价值提升计划包括未来三年内进行7500亿韩元的额外股票回购 已完成了2500亿韩元的回购 [28][29] 问答环节所有的提问和回答 问题: AI业务未来发展方向 - 公司AI业务战略包括三个方面 1) 与微软和Palantir等全球科技公司合作 提供Secure Public Cloud和韩国定制化的GPT服务 2) 采用多模型战略 包括微软合作模型 内部开发的Medium 2.0模型和开源模型 3) 利用AI能力管理网络和提供媒体服务 如在Genie TV中集成AI代理 [17][18][19] 问题: 手机补贴法案废除后的M和P市场展望 - 尽管Galaxy旗舰机型发布 但市场竞争并未过热 如果iPhone新机型推出 市场竞争可能加剧 但预计不会持续太久 原因是5G渗透率已超过80% 手机更换周期延长 电信公司正专注于AI和IT新业务领域 [20][21] 问题: 下半年业绩展望和价值提升计划更新 - 第二季度业绩良好 除房地产一次性收益外 公司预计下半年能继续保持良好势头 服务收入将稳定增长 劳动力成本管理良好 5G折旧已完成 [24][25] - 股息政策基于调整后净利润的50% 已宣布的股息超过这一标准 董事会将继续根据市场预期做出决策 价值提升计划包括未来三年内进行7500亿韩元的额外股票回购 [27][28][29]
Embedded LLM Launches First-of-its-Kind Monetisation Platform for AMD AI GPUs
GlobeNewswire News Room· 2025-07-22 02:30
TokenVisor平台发布 - 公司Embedded LLM推出全球首款针对AMD GPU生态的TokenVisor商业化平台,专注于LLM工作负载的计费、使用跟踪和多租户管理 [1][3] - 平台最初在2025年6月Advancing AI大会上与AMD联合展示,现正式全球发布 [1][6] - 该平台被定位为"AI代币时代的虚拟机监控程序",旨在实现去中心化GPU计算的商业化可行性 [6] 行业痛点与解决方案 - 行业面临AI工厂硬件投资难以转化为可衡量收入的挑战,传统方式需要数月定制开发且ROI路径复杂 [3] - TokenVisor提供开箱即用的商业化工具,包括实时使用监控、自动化计费、多租户管理等功能,将服务上线时间缩短至数天 [5][7][8] - 平台支持主流LLM模型,并提供开发者门户、API密钥管理和LLM测试沙盒等配套工具 [7] 合作伙伴评价 - AMD数据中心GPU业务高级总监表示该平台为AMD GPU新云生态系统带来强大的管理和变现能力 [4] - 联想亚太区总经理指出TokenVisor改变了AI基础设施的经济模型,结合联想服务器和AMD GPU可快速部署创收型LLM服务 [5] - 早期采用者反馈平台消除了商业化过程中的不确定性,显著加速投资回报周期 [8] 公司背景 - Embedded LLM专注于为知识经济构建AI基础设施,是vLLM for AMD ROCm的重要开源贡献者,同时提供JamAI Base等低代码LLM编排工具 [9] - AMD拥有55年高性能计算创新历史,其技术被财富500强企业和科研机构广泛采用 [10] - 联想作为全球收入690亿美元的科技巨头,在180个市场开展业务,致力于提供全栈AI解决方案 [11]
TME(TME) - 2024 Q3 - Earnings Call Presentation
2025-07-01 12:25
业绩总结 - 2024年第三季度总收入为64.5亿人民币,同比增长26.6%[15] - 2024年第三季度在线音乐订阅收入为38.4亿人民币,同比增长20.3%[37] - 2024年第三季度非国际财务报告准则净利润为19.4亿人民币,同比增长29.1%[37] - 2024年第三季度在线音乐服务的毛利率为42.6%,同比增长6.9个百分点[37] - 2024年第三季度每用户平均收入(ARPPU)为10.8人民币,同比增长4.9%[37] - 2024年第三季度社交娱乐移动月活跃用户为9000万[15] - 2024年第三季度独立音乐人数量超过48万[15] 用户数据 - 2024年第三季度在线音乐付费用户达到1190万,付费比例为20.7%[28] - 2024年第三季度在线音乐服务占总收入的比例为76%[43] 财务状况 - 2024年第三季度总现金、现金等价物、定期存款和短期投资为278亿人民币[15] - 2023年第三季度的非国际财务报告准则净利润率为22.9%[50] - 2023年第三季度的经营现金流为2.17亿人民币[49] - 2023年第三季度的股东权益投资总额为36.04亿人民币[49] - 2023年第三季度的每股收益(稀释后)为0.44人民币[50] - 2023年第三季度的总资产公允价值为11.78亿人民币[49] - 2023年第三季度的股本为1.57亿股[49] 其他信息 - 2023年第三季度的毛利为2,342百万人民币,毛利率为35.7%[47] - 2023年第三季度的毛利同比增长了21.0%[47] - 2023年第三季度的非国际财务报告准则净利润同比增长了28.9%[50]
ICCV 2025放榜!录取率24%,夏威夷门票你抢到了吗?
具身智能之心· 2025-06-26 14:19
ICCV 2025会议数据 - ICCV 2025共收到11239份有效投稿 录用2699篇论文 录用率为24% [3] - 投稿量较2019年增长近三倍 反映计算机视觉领域快速扩张 [3] - 历史录用率稳定:2023年26 15% 2021年26 20% 2019年25% [6] 学术评审机制改革 - 新政策强化问责制 因审稿人不负责任直接拒稿29篇 其中12篇本应被录用 [4][5] - 建议建立双向评审系统 允许作者评估评审质量 审稿人获得认证 [34][38] - 提出系统性奖励机制 激励高质量评审工作 [36][38] 行业技术趋势 - 深度学习自2012年突破后 在计算机视觉 NLP等领域持续革新 [27] - LLM和生成式AI等颠覆性技术推动研究热情 论文数量激增 [29] - 主流AI会议投稿量超万篇 NIPS 2025或突破3万篇 [31] 代表性研究成果 - 高保真3D几何生成技术 [7] - 十亿级MRI标注医学图像分割数据集 [13] - 自动驾驶风险评估框架OD-RASE [21] - 通用扩散模型UniVG实现图像生成与编辑一体化 [22]
AI大神Karpathy演讲刷屏:软件3.0时代已来,提示词就是新代码
36氪· 2025-06-20 12:18
LLM技术演进 - LLM发展经历了三个阶段:软件1.0时代、以数据为核心的2.0时代、通过自然语言指令控制模型的3.0时代[3] - 语言正在演变为控制系统,每个个体都拥有语言接口的一部分[3] - LLM技术分支发展迅速,类似芯片制造业需要巨额资本支出[4] LLM生态系统定位 - LLM更接近操作系统而非公共事业商品,形成日益复杂的软件生态[6] - 闭源LLM提供商类比Windows/Mac OS,开源Llama生态类似Linux[6] - 技术架构上:模型本体相当于CPU,上下文窗口相当于内存,工作流如同操作系统调度资源[6][8] 人机交互优化方向 - 纯文本交互将进化,GUI可视化界面能加速AI工作成果的验证环节(如Cursor的代码高亮功能)[11][13] - 有效自动化需满足三要素:感知(获取信息)、行动(执行操作)、监督(人工介入机制)[15][17] - 当前软件界面设计阻碍AI自动化,需改造为LLM可访问的形式[16] AI代理发展路径 - AI代理发展应是十年周期而非短期爆发,从演示级到工业级需跨越可靠性鸿沟[21] - 现实场景复杂度远超预期,特斯拉经验显示需谨慎对待agent技术[19] LLM特性与局限 - LLM具有类人心理特征,既拥有百科全书式知识又存在幻觉、记忆缺陷等问题[27][29] - 训练数据导致其同时具备超能力与认知缺陷,类似《雨人》角色特征[27] 技术扩散模式创新 - LLM颠覆传统技术扩散路径:先消费级应用普及,后政企采用(如ChatGPT烹饪问答)[31] - 当前是行业进入良机,因技术扩散方向与历史模式完全相反[31] 教育领域应用 - 开放式指令易导致AI教学失控,需结构化课程设计(教师-AI协作制定大纲)[23][24] - 过度反应的代理会产生无效输出,需限制在人类可验证的产出框架内[24]