Workflow
Artificial Intelligence
icon
搜索文档
Tuya Smart Launches "Hey Tuya:" A Super AI Life Assistant Bringing Physical AI to Everyday Life
Prnewswire· 2025-12-25 09:18
公司新产品发布 - 涂鸦智能于2025年12月25日发布了新一代超级AI生活助手“Hey Tuya”,旨在将人工智能无缝融入日常生活,标志着AI智能体和实体AI发展的一个重要里程碑 [1] - “Hey Tuya”基于多智能体协作架构构建,旨在改变AI超越屏幕的方式,在家庭、办公室等日常生活场景中提供主动、智能的协助 [1] 产品核心功能与定位 - “Hey Tuya”被设计为能够感知环境、学习用户习惯、并与物理设备协同的AI生活助手,其愿景类似于漫威钢铁侠电影中的J.A.R.V.I.S. [2] - 与局限于单一设备的传统AI助手不同,“Hey Tuya”旨在突破屏幕限制,用户可通过涂鸦App、智能音箱、控制中心、AI玩具和可穿戴设备等多种方式随时召唤助手,实现多设备协作并协调智能设备 [2] - 该助手具备短期和长期记忆功能,可学习并适应用户的日常规律、环境偏好和习惯,从被动响应命令进化为预测需求并提供主动建议 [3] - 具体主动服务示例包括:在用户到家前30分钟建议打开空调,在早上7点起床前预热热水器并打开卧室窗帘,或在用户准备睡觉时调暗灯光并启动加湿器 [3] 技术支持与架构 - “Hey Tuya”的无处不在的AI体验基于涂鸦专有的PAE(实体AI引擎),该引擎在全球部署了AI-设备实时网络(AD-RTN)边缘加速网络 [4] - 以AD-RTN为基础,涂鸦实时通信(T-RTC)为AI设备提供了可靠、低延迟、有弹性且全球覆盖的实时通信系统 [4] - 公司进一步开发了用于自然语言多模态交互的对话AI引擎、用于视觉理解的视觉AI引擎,以及用于物联网设备通信和控制的IoT智能引擎 [5] - PAE利用OmniMem长时记忆技术,支持跨多模态交互和设备行为的持续学习,使AI能真正理解用户偏好和空间习惯 [5] - 通过其自适应专家系统(AES)和动态编排智能体(DOA),PAE将AI认知和决策与现实世界的智能设备深度融合,形成从感知到执行的完整闭环,创造能够成长和自我优化的智能空间 [6] 应用场景与角色 - “Hey Tuya”的能力设计涵盖多样化的生活场景,并承担不同角色 [7] - **家庭安全卫士**:提供全天候安全防护,具备图像识别与检索功能,并将结果转化为易于理解的语音或文本警报 [7] - **节能专家**:实时监控分析能耗,主动建议节能策略,如关闭闲置设备、在周末出行时关闭电器、或根据天气和季节变化调整空调温度 [7] - **健康教练**:关注身心福祉,支持卡路里识别,跟踪睡眠和运动数据,并生成个性化健康报告 [7] - **高效工作助手**:提供会议纪要生成、实时多语言翻译、内容总结和思维导图功能以提升生产力 [7] - **个人生活秘书**:管理日常任务,如提醒、节日提醒、宠物和植物照料以及家庭健康监测 [7] 平台开放性与生态 - “Hey Tuya”将面向个人消费者开放,同时也对全球品牌和开发者开放,他们可以将“Hey Tuya”集成到其AI硬件中或进行进一步定制 [8] - 涂鸦的开放基因将加速全球实体AI的演进和采用,培育一个开放、共生、充满活力的AIoT生态系统 [8] - 目前,开发者已在涂鸦平台上创建了超过12,000个AI智能体,全球每日AI交互量达1.55亿次,覆盖各种场景 [9] - 截至2025年9月30日,涂鸦的AI开发者平台拥有超过162.2万个注册账户,覆盖超过200个国家和地区 [11] 产品上市与公司信息 - “Hey Tuya”现已上线,具备初始功能,用户可从主要应用商店下载涂鸦App或访问Tuya.AI开始体验 [10] - 涂鸦智能是一家全球领先的AI云平台服务提供商,致力于将AI应用于日常生活,通过其AI智能体开发平台和TuyaOpen开源框架,整合多模态AI能力,降低开发门槛,加速AI与物理世界的融合 [11]
5 Beloved Stocks on Wall Street I'd Sell Right Now
The Motley Fool· 2025-12-25 08:51
Some of the most popular stocks on Wall Street may have a challenging path forward in the new year.One week from today, we'll be ringing in a new year -- and investors are likely to be smiling from ear to ear. As of the closing bell on Dec. 19, the ageless Dow Jones Industrial Average, benchmark S&P 500, and growth-focused Nasdaq Composite had, respectively, climbed by 14%, 16%, and 20% year-to-date.Although the stock market's major indexes have an unblemished track record of rising over multidecade periods ...
AI大模型分野:从技术狂热到商业价值回归|2025中国经济年报
华夏时报· 2025-12-25 08:16
文/石飞月 当年初DeepSeek一夜爆红,打破原有大模型市场的格局,这一年就注定不平凡。2025年的中国大模型 市场经历了一场深刻的"价值回归",技术突破的边际效应减弱,一场围绕真实需求、可持续商业模式与 产业深度的"生存进化"全面展开。"2025年是全球化AI应用的创业之年。"顺福资本创始人、行行AI董事 长李明顺总结道。 在此背景下,国内"AI六小虎"加剧赛道分化,零一万物和百川智能放弃超大模型训练,在更加务实的商 业化应用赛道越走越远,阶跃星辰将智能终端Agent作为⼤模型技术落地的关键发⼒点,在终端Agent领 域取得突破,月之暗面开始重视商业化,任命曾经的投资人为总裁,智谱和MiniMax则作为商业化的佼 佼者率先成功闯关二级市场。 DeepSeek的"起伏" 2025年初,一场由东方掀起的AI浪潮席卷全球应用市场。1月27日,来自中国的人工智能公司DeepSeek 一举登顶美国苹果商店免费应用下载榜首,将长期盘踞头部的ChatGPT暂时拉下王座,之后又迅速演变 为一场全球性的现象级传播——DeepSeek的名字随之刷屏各国社交网络,成为开年最受瞩目的科技焦 点。 热度并未止步于年初的榜单登顶。整 ...
攻克长视频生成记忆难题:港大与快手可灵MemFlow设计动态自适应长期记忆,告别快速遗忘与剧情错乱
36氪· 2025-12-25 07:54
你是否曾被AI视频生成的不连贯性所困扰? 在交互式创作中,仅仅切换一句提示词,故事就可能瞬间"崩塌":一个角色暂时离开画面后再次出现,却"面目全非",仿佛换了演员;或者,当你尝试引 入一个新角色,AI却在后续的剧情中反复"召唤"这个新人,甚至将多个角色的特征混淆在一起。这种"金鱼记忆"式的顽疾,正是长视频生成在叙事上的一 大致命伤。 现在,来自香港大学和快手可灵(Kling)团队的研究者们,联合推出了突破性方案——MemFlow。 3. "各自为政"的流程:还有一些流程试图将任务拆分,先让一个模型制作关键帧脚本,再让另一个模型根据脚本生成视频。这种方式在根据各段脚本分别 生成时是各自独立的,拼接成的完整视频缺乏全局一致性。 这些僵化的、非自适应的记忆策略,无法应对交互式创作中流动的、不可预测的叙事需求,这正是导致交互式长视频生成一致性差的原因。 产生真正的长时记忆与叙事连贯性 这是一种创新的流式自适应记忆机制,它赋予了AI强大的长时记忆与叙事连贯性,有望彻底解决上述难题。 流动的叙事 vs. 僵化的记忆 为了生成长视频,主流模型普遍采用"分块生成"的策略,即像放映幻灯片一样,一段一段地生成视频片段。 然而,如 ...
拓尔思:“拓天大模型”及智能体平台已在中央部委等客户中落地
格隆汇· 2025-12-25 07:20
格隆汇12月25日丨拓尔思(300229.SZ)在投资者互动平台表示,拓尔思的人工智能技术已在多个高价值B 端场景实现规模化、深度化应用,并非停留在概念或演示阶段。作为国内最早深耕自然语言处理 (NLP)的企业之一,公司已构建以大模型、知识图谱、多模态理解为核心的全栈AI能力体系,并聚焦 政务、金融、公安、媒体、知识产权等关键领域,推动AI从"能用"向"好用、敢用、常用"演进。 目 前,公司自研的"拓天大模型"及智能体平台已在中央部委、国有银行、省级公安及主流央媒等客户中落 地,支撑如政策智能解读、金融风险研判、舆情事件推演、知识产权侵权识别等高复杂度任务,形成可 复制、可计量的业务价值闭环。 需要说明的是,公司AI技术路线始终聚焦产业智能化升级,而非消费 级C端应用(如影视流、广告推荐等)。我们更强调在强合规、高安全、深业务耦合的场景中,通 过"行业知识+AI工程化"实现技术与业务的深度融合。因此,公司的AI能力已在目标市场获得充分验证 和广泛应用。 ...
别直接训,给主模型加个错题本,6B轻松超越8B
36氪· 2025-12-25 07:05
大语言模型训练新范式:引入“错题本”机制 - 核心观点:一项最新研究提出在大语言模型训练中引入名为“Mistake Log”(错题本)的机制,通过记录模型犯错时的内部思考状态并进行结构化复盘,辅助模型实现类似人类的反思学习,从而提升模型性能[1][2][3] 传统训练范式的局限与“错题本”概念 - 当前主流训练范式高度简化,核心是让模型“更好地拟合正确答案”,仅关注输出对错,不关心导致错误的内部推理路径[2] - 研究指出,大模型当前的关键缺失并非数据或算力,而是一种类似人类的、围绕错误本身展开的深度反思与结构化复盘能力[2] - 研究提出的“Mistake Log”概念旨在刻画“模型是在什么样的内部状态下犯下这个错误的”,关注错误产生的全过程,而非仅仅答案本身[4] Mistake Log的三层核心结构 - **Question(问题)**:记录模型当时在解决什么任务,对应输入的问题级别表示,用于刻画任务语境[5] - **Rationale(推理状态)**:记录模型犯错瞬间的内部推理状态,通过读取Transformer所有层、所有token位置上的隐藏状态表示获得,构成模型“认知状态快照”[5][7] - **Mistakes(错误来源)**:在token级别精细刻画错误来源,通过对比模型预测分布与真实分布,计算每个token上的差距,生成错误热力图以定位错误起始位置和累积过程[7] 辅助模型Copilot的训练与协同机制 - 引入一个专门的辅助模型Copilot,其训练目标是学习主模型(Pilot)的Mistake Log,即学习“在什么样的内部推理状态下,主模型更容易犯哪类错误”[7][10][11] - Copilot的输入结合了任务语境表示和主模型在推理时产生的内部中间表示,以刻画决策状态[10] - Copilot的训练目标是预测主模型在生成过程中各个token层面的误差分布,判断易错位置及偏差程度[10] - 在生成过程中,Copilot输出的纠错信号会与主模型的原始输出融合,实现token生成阶段的实时修正,使模型具备基于历史错误经验动态修正推理轨迹的能力[13] 方法的理论保证与实验验证 - 论文从理论上证明,只要Copilot能较准确地预测错误趋势,且纠错权重选取合理,则融合后的预测期望误差严格小于原始模型的误差,表明该机制具有明确的理论支撑而非启发式技巧[14] - 实验在LLaMA-3、Qwen2.5等多种主流模型和10个推理基准任务上验证了有效性[15] - 一个关键发现是“小模型也能‘以小博大’”:**LLaMA-3.2-3B模型搭配一个3B的Copilot(总参数6B)的性能超过了原始8B参数的LLaMA-3.1-8B模型**,表明纠错能力可能比单纯扩大模型规模更关键[15] - 具体性能提升数据:LLaMA-3.2-1B模型搭配1B Copilot后,在部分任务上平均性能提升**3.3%**;LLaMA-3.2-3B模型搭配3B Copilot后,平均性能提升**4.0%**;Qwen2.5-3B模型搭配3B Copilot后,平均性能提升**5.3%**;Qwen2.5-7B模型搭配3B Copilot后,平均性能提升**5.8%**[16] 方法的意义与未来展望 - 该方法首次系统性地定义并探索了大模型训练中的Mistake Log机制[17] - 与当前主流依赖于显式思维链或多Agent外部纠错的“反思式”方法不同,Mistake Log直接作用于模型的内部认知状态,而非仅停留在输出层面[17] - 未来研究方向包括:基于内部状态的“自我反思”是否比外部纠错更有效、Mistake Log的表示形式与错误模式抽象方式的优化、Copilot结构设计的改进,以及提升方法的稳定性与泛化性[17]
Counterpoint:预计2030年全球生成式AI消费支出将达到6990亿美元
智通财经· 2025-12-25 06:32
根据Counterpoint Research最新发布的《全球AI消费支出预测(2024–2030)》报告,消费者在生成式AI领域的支出正加速重塑全球科技产业格局。预计全球 生成式AI消费支出将从2023年的2250亿美元增长至2030年的6990亿美元,复合年增长率(CAGR)达21%。 研究总监Marc Einstein表示:"未来几年AI硬件支出仍将保持强劲,但真正决定新一代AI生态系统成败的关键,在于软件支出的增长。尽管我们预计未来 五年内AI软件市场将实现大幅扩张,但短期内行业中不可避免地也将会出现赢家与输家之分。" 报告还深入分析了平台层面的竞争格局。尽管OpenAI预计仍将保持用户规模领先地位,但在预测期内,Google和Microsoft的月活跃用户增长速度预计将 最为显著。同时,除AI对话平台之外的AI应用市场——包括AI艺术生成工具、AI陪伴型应用以及照片编辑软件——同样具备强劲的增长动能。 从结构来看,AI硬件仍将占据整体消费支出的最大比重。推动这一增长的核心动力在于AI功能在个人终端设备中的集成。报告预测,2023至2030年间, 全球生成式AI智能手机出货量将以26%的复合年增长率增 ...
第一个赴考的人:拆解智谱AI的上市答卷
36氪· 2025-12-25 06:31
引言:浪起之时,为什么智谱必须上岸 2025年的中国大模型市场,像是一片退潮的海滩。 那些曾经高喊"颠覆一切"的创业者,如今开始盘点手里的现金流;那些热衷"讲故事"的资本方,也学会 了读财报。 浪依然在——但浪的方向,已经变了。 两年前,当ChatGPT点燃全球科技市场时,智谱AI是最早站上浪尖的公司之一。它背靠清华的科研体 系,推出了中国第一批可商用的大模型——GLM系列,一度被誉为"最像OpenAI的中国公司"。 短短两年,它从科研项目变成了被寄予厚望的独角兽,从"算法先锋"到"六小龙"之一,再到如今——中 国大模型第一家冲刺IPO的企业。 但故事的转折,往往发生在浪头最高的时候。 当智谱在资本市场"谋求上岸",整个行业却依然在波动。 OpenAI、Anthropic、Mistral的生态飞轮已经进入商业收割期,而中国的大模型创业公司,还在亏损、 还在补贴、还在等待被证明。 智谱的困境,正是这个时代最真实的写照:它有技术、有融资、有品牌、有故事,却始终被一个问题追 问——"技术公司能否在商业化中活下来?" 上市,表面上是通往安全的彼岸;但对智谱而言,更像是一场不得不做的自救。 在那个算法为王的时代,智谱代 ...
浪潮信息刘军:AI产业不降本难盈利,1元钱/每百万Token的成本还远远不够!
环球网资讯· 2025-12-25 06:30
行业背景与核心挑战 - 全球AI产业已从模型性能竞赛进入智能体规模化落地的关键阶段,“降本”成为决定企业盈利与行业突破的核心命脉[1] - 当前AI推理成本依然高昂,主流大模型如Claude、Grok输出百万token价格在10-15美元,国内模型也多在10元以上,高昂成本使大规模商业化面临严峻ROI挑战[10] - 未来token消耗量将呈指数级增长,复杂任务需求可能激增数十倍,若成本下降速度跟不上消耗增长,企业将面临更高费用投入,经济学中的“杰文斯悖论”正在token经济中重演[1][3] - 来自行业的数据佐证了token消耗的激增趋势:字节跳动豆包大模型日均token使用量突破50万亿,较去年同期增长超过10倍,较2024年5月推出时增长达417倍;谷歌各平台每月处理token用量达1300万亿(日均43.3万亿),而一年前月均仅为9.7万亿[4] - 当使用量达到“百万亿token/月”量级时,每百万token成本仅下降1美元,就可能带来每月1亿美元的成本差异,token成本直接决定了智能体的盈利能力[7] 成本高企的结构性瓶颈 - 现阶段token成本80%以上来自算力支出,阻碍成本下降的核心矛盾在于推理负载与训练负载不同,沿用旧架构导致“高配低效”[7] - 瓶颈一:算力利用率严重倒挂,训练阶段MFU可达50%以上,而推理阶段因自回归解码特性,GPU大部分时间在等待数据搬运,实际MFU仅为5%-10%,造成巨大算力闲置[8] - 瓶颈二:“存储墙”瓶颈在推理场景下被放大,随着上下文长度增加,KV Cache呈指数级增长,占用大量显存并导致高功耗,存算分离及对昂贵HBM的依赖成为成本下降障碍[8] - 瓶颈三:网络通信与横向扩展代价高昂,当模型规模突破单机承载能力时,跨节点通信可能占据总推理时间的30%以上,企业被迫堆砌更多资源以维持响应速度,推高总拥有成本[8] 解决方案与架构革新方向 - 降低token成本的核心不是“把一台机器做得更全”,而是围绕目标重构系统,将推理流程拆细,支持P/D分离、A/F分离、KV并行、细粒度专家拆分等策略,让不同计算模块在不同卡上按需配置并发,打满每张卡负载,降低“卡时成本”,提高“卡时产出”[9] - 需要推动计算架构的根本性革新,将AI产业的产品技术创新从规模导向转为效率导向,从根本上重新思考和设计AI计算系统,发展AI专用计算架构,探索开发大模型芯片,推动算法硬件化的专用计算架构创新,实现软硬件深度优化[16] 浪潮信息元脑HC1000产品突破 - 浪潮信息推出元脑HC1000超扩展AI服务器,基于全新设计的全对称DirectCom极速架构,采用无损超扩展设计,可高效聚合海量本土AI芯片,支持极大推理吞吐量,将推理成本首次击穿至1元/每百万token[1][12] - 该产品创新设计DirectCom极速架构,每计算模组配置16颗AIPU,采用直达通信设计,解决传统架构的协议转换和带宽争抢问题,实现超低延迟;计算通信1:1均衡配比,实现全局无阻塞通信;全对称系统拓扑支持灵活的PD分离、AF分离方案,按需配置计算实例,最大化资源利用率[14] - 产品支持超大规模无损扩展,通过算网深度协同、全域无损技术实现推理性能1.75倍提升,并通过计算流程细分和模型结构解耦实现计算负载灵活按需配比,单卡MFU最高可提升5.7倍[16] - 产品通过自适应路由和智能拥塞控制算法,提供数据包级动态负载均衡,实现KV Cache传输和All to All通信流量的智能调度,将KV Cache传输对Prefill、Decode计算实例影响降低5-10倍[16] 未来展望与行业意义 - 当前1元/每百万token的成本突破仅是阶段性胜利,面对未来token消耗的指数级增长,现有成本水平仍难支撑AI的普惠落地[1] - 要让AI真正成为如同“水电煤”般的基础资源并进入规模化普惠阶段,token成本必须在现有基础上实现数量级的跨越[1][7] - 成本能力将从“核心竞争力”进一步升级为“生存入场券”,直接决定AI企业在智能体时代的生死存亡[1] - 此次成本突破有望打通智能体产业化落地“最后一公里”的成本障碍,并将重塑AI产业竞争的底层逻辑[1]
上海:打造人工智能国际开源社区 推动开源平台持续丰富预训练模型、人工智能应用等多样化资源
证券时报网· 2025-12-25 06:24
人民财讯12月25日电,上海市人民政府办公厅印发《上海市加强开源体系建设实施方案》。《方案》提 出,打造人工智能国际开源社区。推动开源平台持续丰富预训练模型、训练数据集、开发工具、人工智 能应用等多样化资源,不断提升开源项目运营服务与商业推广能力,满足模型"开发—训练—测试—托 管—运营"全链条需求。支持开源平台发布海外站,开发多语种模块,积极组织海外活动。强化算力 券、模型券等联动支持,有序提供政策性算力等资源支持。 ...