通用人工智能(AGI)
搜索文档
智谱,通过港交所IPO聆讯,或很快香港上市,中金公司独家保荐
搜狐财经· 2025-12-20 12:11
| 纂]項下的圖纂 數目 | [编纂]股H股(視乎[编纂]行使與否而定) | | --- | --- | | [编纂]數目 | [编纂]股H股(可予重新分配) | | [编纂]數目 | [編纂]股H股(可予重新分配及視乎[編纂] | | 行使與否而定) | | | 最高 编纂] | 每股H股[編纂]港元,另加1.0%經紀佣金、0.0027% | | | 證監會交易徵費、0.00565%聯交所交易費及 | | | 0.00015%會財局交易徵費(須於申請時以港元繳 | | 足,多繳股款可予退還) | | | 面值 | 每股H股人民幣[0.10]元 | | [編纂] | [編纂] | | CICC中金公司 | 獨家保薦人、 编纂] 编纂] | 2025年12月19日,来自北京海淀区的北京智谱华章科技股份有限公司Knowledge Atlas Technology Joint Stock Company Limited.(以下简 称"智谱")在港交所披露聆讯后的招股书,或很快在香港主板IPO上市。 智谱华章招股书链接: 主要业务 智谱 ,成立于2019年,作为中国领先的人工智能公司,追求通用人工智能( AGI) 创 ...
港股GPU第一股将诞生
财联社· 2025-12-20 06:02
国产算力芯片产业资本市场动态 - 国产算力芯片产业正迎来资本市场“高光时刻”,壁仞科技与天数智芯相继通过港交所上市聆讯 [1] - 壁仞科技已于2025年8月以18C机制秘密递表,预计2026年1月完成挂牌,募资规模或达3亿美元 [1] - 天数智芯亦通过聆讯,早期外媒报道其计划IPO融资3亿至4亿美元 [1] 港交所18C章上市制度概况 - 港交所18C章特专科技上市制度自2023年3月实施,核心突破在于降低未盈利特专科技企业上市财务门槛 [7] - 2025年5月开通的“科企专线”允许保密递表,进一步助推递表热潮 [7] - 2025年以来,已有文远知行、滴普科技、云迹科技及希迪智驾四家企业通过该规则成功上市 [1][7] - 据不完全统计,目前以18C通道递表的企业总数已达19家,其中壁仞科技、天数智芯、五一视界三家企业已通过聆讯 [1][7] - 瑞银预计明年将有150至200家公司来港上市,IPO总规模料达3000亿元,位居全球榜首 [8] 壁仞科技公司分析 - 公司成立于2019年,专注于通用图形处理器(GPGPU)芯片及智能计算解决方案研发,跻身国产GPU第一梯队 [2] - 公司构建“GPGPU芯片硬件系统、BIRENSUPA软件平台与智能计算集群交付”三位一体的核心业务体系 [2] - 已推出BR106(训练与推理)、BR110(边缘推理)两款量产芯片,并依托芯粒(Chiplet)技术创新推出更高性能的BR166芯片 [3] - 可提供千卡级智能计算集群一站式交付服务,已落地多个“壁仞智算云”节点,支撑超200个大模型训练任务 [3] - 研发人员占比达83%,2022至2025年上半年研发开支占各期总经营开支的比例均超过70% [3] - 已在全球斩获613项授权专利、40项软件著作权及16项集成电路布图设计,另有972项专利在审 [3] - 2022至2024年营收从49.9万元攀升至3.37亿元,两年累计增长超675倍;2025年上半年收入0.59亿元,同比增长近50% [4] - 2024年净亏损15.38亿元,2025年上半年净亏损扩大至16亿元,经调整净亏损为5.52亿元 [4] 天数智芯公司分析 - 公司是国内首家实现训练与推理通用GPU量产的企业,也是国内通用GPU领域首家采用7nm先进工艺实现芯片量产的企业 [5] - 构建了覆盖AI计算全场景的产品矩阵,天垓系列聚焦训练场景,智铠系列专注推理需求 [5] - 天垓Gen1为国内首款量产通用GPU产品,天垓Gen3已发布并预计2026年一季度量产 [5] - 截至2025年6月30日,公司研发团队达484人,超三分之一成员拥有十年以上行业经验 [5] - 累计拥有65项授权专利、207项商标及113项版权 [5] - 2022–2024年,通用GPU产品出货量分别为7,800片、12,700片、16,800片,2025年上半年出货量进一步增至15,700片,累计交付超5.2万片 [6] - 截至2025年6月30日,公司已服务超290家行业客户,客户数量从2022年的22家跃升至2024年的181家 [6] - 在金融服务、医疗保健、交通运输等关键领域完成超900次部署应用 [6] - 2022–2024年,公司营业收入分别达1.89亿元、2.89亿元、5.40亿元,三年复合年增长率68.8% [6] - 2025年上半年营收3.24亿元,同比增长64.2% [6] 行业影响与展望 - 18C制度对处于高投入、长周期、未盈利阶段的国产GPU企业提供了关键的资本通道和市场信心支撑 [9] - 港股市场投资者更看重企业现金流的稳定性与订单的可预见性,对相关企业的后续经营提出了更高要求 [9]
Alex Wang“没资格接替我”!Yann LeCun揭露Meta AI“内斗”真相,直言AGI是“彻头彻尾的胡扯”
AI前线· 2025-12-20 05:32
编译|冬梅 "通往超级智能的那条路——无非是不断训练大语言模型、喂更多合成数据、雇上几千人做后训练、再在强化学习上搞点新花样——在我看来完全是胡 扯,这条路根本行不通。" 近日,在一档名为《The Information Bottleneck》的访谈栏目中,主持人 Ravid Shwartz-Ziv 和 Allen Roush 与图灵奖得主、前 Meta 首席 AI 科学家 Yann LeCun 展开了一场近两小时的高质量对话,在访谈中,LeCun 解释了为什么会在 65 岁这个别人已经退休的年纪他还在创业,此外,他也对当前 硅谷主流的人工智能发展路径给出了罕见而尖锐的评价。 结束在 Meta 长达 12 年的职业生涯后,LeCun 正将个人学术声誉与职业"遗产"押注在一套截然不同的 AI 愿景之上。他直言,业界对大语言模型规模化 的执念,正在把人工智能引向一条看似高速、实则封闭的死胡同。 在 LeCun 看来,真正制约 AI 进步的关键,并不是如何更快地逼近"人类级智能",而是如何跨越一个常被低估却极其困难的门槛—— 让机器具备"狗的智 能水平" 。这一判断挑战了当前以语言能力和知识覆盖面为中心的评估体系。 ...
对话小马智行王皓俊:Robotaxi正进入1到1000的阶段
华尔街见闻· 2025-12-20 05:31
作者 | 周智宇 编辑 | 张晓玲 2025年,全球智驾行业正经历一场范式转移。过去十年,自动驾驶是实验室里的代码游戏,是靠Demo 和PPT堆砌的幻梦;而现在,这门生意正式从虚空坠入实地,开始在财务报表上硬碰硬。 当曾经光环满身的L4独角兽因无法跨越规模生死线而陷入停摆,先行者们已经悄然扣响了盈利的大 门。2025年二季度,百度萝卜快跑在武汉实现收支平衡;11月,小马智行宣布其第七代Robotaxi在广州 实现单位经济模型(UE)转正。 小马智行联合创始人、CFO王皓俊在近期的采访中对华尔街见闻表示,能够在广州实现UE转正,意味 着小马智行在规模上量的过程中,逐渐打磨出一个标准的运营流程,能够赋能给小马智行的合作伙伴。 王皓俊认为,前几年Robotaxi的商业化还更多处于0到1的阶段,现在已经逐渐进入到了一个1到100、1 到1000的阶段。 一张清晰的商业化时间表已经浮出水面:从2025年底冲击千辆级车队,2026年提升至3000辆,到2030年 迈向10万辆规模,Robotaxi将成为人们日常生活的一部分。 商业闭环 这意味着,Robotaxi的竞争主战场已经转移。当单车硬件成本下探至25万人民币的生死 ...
北京将跑出“全球大模型第一股”!
新浪财经· 2025-12-19 15:20
转自:北京日报客户端 12月19日,据港交所网站,智谱通过港交所聆讯并正式递交招股书,资本市场将首次迎来一家以AGI (通用人工智能)基座模型为核心业务的上市公司。这也意味着,这家总部位于北京、中国最大的独立 大模型厂商有望以"全球大模型第一股"身份在港交所挂牌上市。 智谱成立于2019年,由清华大学技术成果转化而来。团队在国内率先启动大模型的研究工作,研发出基 于自回归填空的全国产预训练架构GLM,在鲁棒性(稳定性)、可控性和幻觉性方面取得突破性进 展,并适配了40余款国产芯片。 2025年9月,智谱发布GLM-4.6。在全球公认百万用户盲测的大模型竞技场Code Arena上,GLM在代码 生成能力上与Anthropic、OpenAI等国际公司的模型并列全球第一,超越海外闭源模型谷歌Gemini和xAI 的Grok。成立以来,该团队从基座大模型的底层架构起步,坚持自研与完全自主可控,陆续推出中国 首个百亿模型、首个开源千亿模型、首个对话模型、首个多模态模型和全球首个设备操控智能体。 招股书显示,智谱已连续三年营收翻倍,2022年、2023年、2024年公司收入分别为5740万元、1.245亿 元、3.12 ...
智驾人才涌入具身智能,热钱有了新叙事
创业邦· 2025-12-19 14:57
行业热度与资本涌入 - 具身智能成为2024年风险投资追逐的新风口,投资机构抢投项目,甚至有投资人在台风天冒雨拜访创业公司[5] - 中国活跃在AI和具身智能领域的投资机构至少有上百家,早期投资的资金总和超过百亿美元[6] - 二级市场已流露出悲观情绪,有证券分析师认为具身智能最好的行情已经结束,现在进场只有下跌[13] - 国内政策制定机构首次对具身智能发出风险提示,指出国内人形机器人企业已超过150家,需注意防范产品重复扎堆、研发空间被挤压等风险[13] 创业团队背景变迁 - 2024年具身智能领域涌入一批拥有智能驾驶产业背景和丰富产品化经验的新创业者[5] - 投资机构对创业团队背景的偏好从海外名校(如伯克利、CMU、MIT、斯坦福)教授,转向拥有规模产品化经验的智能驾驶产业高管[7] - 智能驾驶背景的团队被认为见过大场面、懂得调用海量算力进行大模型训练,具备纯学院派团队难以企及的庞大资源调动经验[8] - 针对智能驾驶背景的工程师,各家创业公司开出的薪资涨幅普遍在50%左右[11] - 部分投资人更倾向押注年轻的“少壮派”团队,对以整合资源为目的的资深高管创业持保留态度[11] 主要创业公司及融资情况 - 宇树科技在2024年春晚表演后完成C轮融资,估值超百亿元[5] - 它石智航(由华为前首席科学家陈亦伦和百度前总经理李震宇联合创办)上线数月内融资超10亿元人民币[7] - 至简动力(由理想汽车前CTO王凯等创办)获得约5000万美元天使轮投资[7] - 无界动力(由地平线前副总裁张玉峰创立)完成首轮3亿元天使融资[7] - 维他动力(由地平线前副总裁余轶南创立)获得超3亿元种子轮、天使轮融资[9] - 美国具身智能公司Figure AI在2024年9月以390亿美元估值完成超10亿美元C轮融资,成为全球最贵的具身智能公司[13] - 其他代表性创业公司融资情况:星海图(近15亿元Pre-A轮、A轮)、逐际动力(超5亿元A轮、战略轮)、智平方(数亿元A轮、A+轮)、有鹿机器人(超1亿元天使轮)、阿米奥(超亿元种子轮)[9] 技术路径与挑战 - 技术路径上,具身智能面临与智能驾驶类似的从基于规则到端到端训练的转向,智驾背景创业者的模型训练和数据运用经验被认为可有效迁移[10] - 主流技术路线是VLA(视觉-语言-动作)模型,能理解抽象指令但效果相对不可控;基于规则的小模型泛化能力差[12] - 高质量的真实交互数据极度匮乏是技术缺乏验证的根本原因[12] - 机器人控制复杂度高,需要控制全身超过20个关节电机与灵巧手,依靠力觉反馈实现精细操作,这与控制方向盘、油门、刹车的智能驾驶存在差异[11] - 核心硬件如灵巧手使用寿命短,以特斯拉Optimus为例,其灵巧手使用寿命不超过2个月,制约规模量产[12] 商业化与成本问题 - 有公司研发的用于汽车总装车间的机器人,目前售价约60万元/台,预计2027年规模量产后能降至35万至40万元,与两名工人18个月的薪酬及社保支出相当[12] - 但上述成本模型未计入机器人的使用寿命和故障损耗成本[12] - 投资人在调研中发现,敢在现场稳定演示核心功能的团队屈指可数,量产问题是“房间里的大象”[11] - 一级市场上数百万美元级的小额投资常见,但单笔超过2000万美元的大额投资并不多见,而后者是决定创业公司能否走完后半程的关键[15] 投资逻辑与行业共识 - 投资机构的投资逻辑高度相似,优先投资具身智能大脑、小脑、机器人本体,然后是触觉传感器、机械臂/灵巧手等[14] - 投资人坦言,95%的时间都在投共识,大家拿着相似度95%甚至100%的产业图谱去寻找公司[15] - 投资机构寄望“智驾系”创业公司能更接地气地解决实际问题,并愿意为他们的量产和企业运营经验提前买单[6]
万字拆解371页HBM路线图
半导体行业观察· 2025-12-19 09:47
文章核心观点 - 高带宽内存是AI算力发展的关键基础设施,其性能直接决定了AI模型训练和推理的速度与效率[1] - 韩国KAIST大学发布的HBM技术路线图详细规划了从2026年HBM4到2038年HBM8的完整发展蓝图,揭示了未来十年HBM技术的演进方向[1] - HBM通过3D堆叠等核心技术,在带宽、功耗和体积上相比传统内存具有压倒性优势,已成为AI服务器的必需品[7][11][14] HBM技术定义与核心优势 - HBM是一种专为AI设计的“超级内存”,采用“三明治式”3D堆叠技术,将8-24层核心芯片垂直堆叠,通过硅通孔连接,解决了传统内存的“平面布局”缺陷和数据传输瓶颈[7][8] - HBM相比传统DDR5内存具有三大核心优势:带宽极高、功耗更低、体积迷你[11] - **带宽碾压**:HBM3带宽为819GB/s,HBM4将达2TB/s,HBM8更将飙升至64TB/s,是HBM3的78倍,能满足未来万亿参数AGI的需求[12][56] - **功耗减半**:传输1TB数据,HBM3功耗是DDR5的60%,HBM4能降至50%,可为数据中心节省巨额电费[13] - **体积小巧**:HBM直接集成在GPU封装旁,传输距离从厘米级缩短至毫米级,使AI服务器算力密度提升3倍[10][14] HBM技术发展路线图(2026-2038) - **2026年:HBM4——定制化首秀** - 核心创新在于定制化Base Die,可集成内存控制器并直接连接低成本、大容量的LPDDR内存,作为“备用仓库”[9][22] - 带宽从HBM3的819GB/s提升至2TB/s,单模块容量达36-48GB,是HBM3的2倍[22] - 采用直触液冷散热方案以应对75W的高功耗[24] - 主要面向中端AI服务器、高端游戏显卡等场景[26] - **2029年:HBM5——近内存计算崛起** - 核心创新是引入近内存计算,在内存堆叠中集成NMC处理器和L2缓存,使内存具备计算能力,可将LLM推理中GPU的工作量减少40%,速度提升1.5倍[27][28] - 带宽提升至4TB/s,单模块容量80GB,功率100W[27] - 采用浸没式冷却散热,并集成专用去耦电容芯片以稳定供电[28][29] - 主要面向超算中心、大模型训练集群等场景[31] - **2032年:HBM6——多塔架构优化高吞吐量** - 核心创新是“四塔”结构,在一个Base Die上放置两个独立的Core Die堆叠,使吞吐量比HBM5提升126%[36][38] - 带宽达8TB/s,数据速率提升至16Gbps,单模块容量96-120GB,功率120W[35][36] - 采用硅-玻璃混合中介层以降低成本20%,并集成L3缓存专门存储LLM推理中的KV缓存,减少HBM访问次数73%[38][40] - 主要面向LLM推理集群、实时AI翻译等高吞吐量场景[40] - **2035年:HBM7——内存与闪存融合** - 核心创新是整合高带宽闪存,形成“内存+闪存”协同方案,HBM存高频数据,HBF存低频大容量数据,使系统总容量可达17.6TB,成本比全用HBM降低60%[41][42][46] - 带宽提升至24TB/s,数据速率24Gbps,单模块容量160-192GB,功率160W[44][46] - 支持3D堆叠LPDDR以拓展边缘计算场景,并采用嵌入式液冷散热[46][47] - 主要面向多模态AI系统、自动驾驶中央计算单元等场景[48] - **2038年:HBM8——全3D集成终极形态** - 核心创新是全3D集成技术,通过铜-铜直接键合将GPU裸片垂直堆叠在HBM之上,使数据传输延迟突破1纳秒,I/O功耗降低70%[54] - 带宽达到64TB/s,数据速率32Gbps,单模块容量200-240GB,功率180W[36][56] - 采用双面中介层设计,使单GPU搭配的HBM容量再提升50%,并应用双面嵌入式冷却进行精准温控[56][57] - 专为未来AGI原型机设计,标志着计算架构进入“立体共生”时代[52][60] 支撑HBM性能的三大关键技术 - **硅通孔**:在芯片上制造垂直微孔道,让数据直接在堆叠层间穿梭,传输路径缩短90%以上,是实现3D堆叠的基础[59][67] - **混合键合**:采用铜-铜直接键合工艺替代早期的微凸点连接,使连接电阻降至原来的1/10,实现了更高密度(单片10万个连接点)和更可靠的芯片堆叠,支撑HBM8达到16384个I/O[68][70][71] - **AI辅助设计**:利用AI模型大幅提升HBM复杂结构的设计效率,如PDNFormer模型可在1毫秒内完成电源阻抗分析,Mamba-RL算法可在20分钟内优化去耦电容布局,将设计周期从半年缩短至两周[72][74][76][79] HBM产业格局与市场前景 - 全球HBM市场呈现寡头垄断格局,SK海力士、三星、美光三家公司垄断了90%以上的产能,订单已排至2026年[80][81] - SK海力士为行业龙头,HBM3E良率达90%,占据全球55%的HBM3E出货量,其M15X新工厂投产后月产能将从10万片提升至17.8万片[81] - 三星的HBM3E产能已被谷歌、博通、亚马逊等头部客户包圆,并与OpenAI签订了价值713亿美元的四年供应大单[84] - 美光增速最快,其HBM3E已通过英伟达认证,目标是在2026年将市场份额从7%提升至24%[85] - 2025年全球HBM市场规模已达300亿美元,预计2030年将突破980亿美元,占据整个DRAM市场的50%[80] HBM未来发展的主要挑战 - **成本挑战**:HBM3每GB成本约为DDR5的5倍,HBM4因工艺复杂成本预计再增30%,需通过提升良率(目标95%以上)、扩大产能、技术创新(如采用玻璃中介层)来构建降本体系[86] - **散热挑战**:未来HBM8功率可能突破200W,需研发新型高热导率冷却材料、采用芯片级冷却方案(如集成微型散热鳍片)以及智能温控系统来应对[87] - **生态协同挑战**:需要GPU/CPU厂商优化硬件接口,AI框架针对近内存计算特性优化算法,并推动行业制定统一标准,以降低应用门槛并实现性能最大化[87]
DeepMind掌门人万字详解通往AGI之路
量子位· 2025-12-19 07:20
在最新一期播客中,DeepMind掌门人哈萨比斯清晰地勾勒了他心目中通往AGI的一条现实路径: 一半靠规模扩展,另一半靠真正的科学突破。 henry 发自 凹非寺 量子位 | 公众号 QbitAI 想要实现AGI,技术创新和规模扩展得五五开,缺一不可。 从世界模型、模拟和智能体,一路聊到材料、超导体,甚至可控核聚变。这期播客里,哈萨比斯几乎是站在谷歌的当下,眺望AGI的全局图 景。 以下是哈萨比斯的核心观点速览: AGI实现需要创新与规模化的双重努力 :约50%的努力集中在模型扩展,50%集中在技术创新,二者结合是通向AGI的关键路径。 根节点问题推动科学突破 :AlphaFold的成功验证了AI解决基础科学难题的潜力,当前研究正拓展至材料科学(如室温超导体、更优电 池)、核聚变及量子计算等领域。 AI在数学等领域的表现存在"锯齿状智能"现象 :尽管能在国际数学奥林匹克竞赛中获奖,但在简单逻辑题上仍可能出错,反映出系统在 一致性与可靠推理方面的不足,需提升其自我反思与验证能力。 当前模型依赖人类知识,未来需实现自主学习 :现有大模型基于互联网知识进行压缩与泛化,类似于AlphaGo;下一步目标是实现类似 Al ...
Altman谈OpenAI:算力成收入最大瓶颈,只要算力翻倍,收入就能翻倍
新浪财经· 2025-12-19 05:18
来源:华尔街见闻 在AI竞赛全面进入"贴身肉搏"的阶段,市场的关注点正在发生变化:模型谁更强,已经不再是唯一问 题;谁能把模型能力稳定转化为收入与现金流,才是新的分水岭。 在最新一期《Big Technology Podcast》的一对一访谈中,OpenAI CEO Sam Altman罕见地从商业、产品 和基础设施三个层面,系统回应了外界最关心的问题。多项表态释放出一个清晰信号:OpenAI正站在 从"现象级产品公司"迈向"企业级AI平台"的关键拐点上。 这也是 OpenAI 同时推进 浏览器、设备、代理(Agents) 的底层逻辑——目标不是做一个更聪明的聊 天机器人,而是成为"默认智能层"。 Altman再次强调,"记忆"是AI最具长期价值的能力之一,而当前AI的记忆功能仅处于"GPT-2时代"。未 来的AI将能记住你说过的每一句话、做过的每一个决定;不只是事实,而是偏好、情绪、习惯;这是 人类助理永远无法做到的。 ChatGPT为什么三年几乎没变?答案是"通用性" Altman坦言,他原本以为 ChatGPT 的聊天界面不会撑这么久,但现实证明:通用、低门槛的交互方式 被严重低估了。 不过他也明确指出 ...
国产大模型叩响资本市场大门
北京商报· 2025-12-18 16:00
从12月17日晚间到12月18日,大模型赛道的热门话题围绕MiniMax和智谱展开。有消息称,国内大模型 领军企业MiniMax(稀宇科技)与智谱AI均已获得中国证监会境外发行上市备案,并于本周先后通过港 交所上市聆讯,进入港股上市前的最后阶段。尽管双方暂未公开置评,港交所也还未披露招股书,但知 情人士向北京商报记者透露,面向公众层面的信息确认只是时间问题。这场IPO冲刺进入收官阶段,国 产大模型的上市竞速将迎来终局,行业淘汰赛是否同时开启? "双雄"抢跑 "智谱AI于12月17日在港参与并通过了聆讯",12月18日,知情人士向北京商报记者透露。 MiniMax亦被曝于12月17日通过了港交所聆讯,计划于2026年1月在港挂牌上市。截至北京商报记者发 稿,MiniMax和智谱对此保持沉默,港交所也尚未公布两家公司聆讯后资料集。上述知情人士表示,港 交所将在近期发布公开信息。不出意外的话,这两家公司可能成为中国内地企业赴港上市"报备制"以 来,在港过聆讯最快的案例。 同日通过聆讯,目标均为港交所,这与不久前实现美股+港股双重主要上市的小马智行和文远知行的轨 迹相重叠。 当下同频的MiniMax和智谱,上市路径略 ...