Workflow
Veo3
icon
搜索文档
狂揽2亿播放,AI吃播站上内容风口
36氪· 2025-12-18 11:16
AI生成内容在美食赛道的应用现状 - AI生成的美食视频内容形式多样,包括模仿综艺节目制作“将远古沧龙做成六道菜”的系列视频,其首期播放量达到764万并登上平台每周必看榜单[1][2] - 在短视频平台,“AI美食”话题播放量超过2亿次,而AI吃播与ASMR结合的内容模式在小红书等平台单条笔记点赞量可超过6万次[5][6] - AI美食内容已从早期辅助生成菜谱演变为内容本身,并主要向解压和猎奇赛道发展,例如生成“切水果”、“涂面包”等ASMR视频以及“古人的一日三餐”等情境化内容[5][8] AI吃播的内容特点与流行逻辑 - AI吃播的核心逻辑是突破人类限制,展示食用玻璃、金属、熔岩等非常规物品的过程,通过咬碎时产生的特定音效(如玻璃脆响)结合ASMR带来解压感[12][14][17] - 这类视频时长多为15至60秒,节奏紧凑、感官刺激直接,具有高完播率和互动率,易于在碎片化场景传播并获算法推荐[17] - AI吃播的主角不限于真人形象,也包括BJD娃娃和宠物,但内容偶尔会因动作识别不准出现穿帮,例如宠物吃下的食物在咀嚼时发生变化[14][16] AI视频生成的技术支撑与创作生态 - 高质量AI视频的创作依赖多种主流模型组合,例如使用Gemini、ChatGPT处理脚本,用Veo3、可灵、即梦等生成视频,单条视频的会员及token成本可达四五千元[18][19] - 技术迭代显著降低了创作门槛,谷歌Veo3、快手可灵2.6、抖音即梦3.5 Pro等模型均支持音画同步生成,可实现毫秒级音频视频同步,简化了ASMR视频制作[19][20] - 创作生态中衍生出“卖模板”和“卖课”模式,博主通过分享定制化提示词模板进行引流或建立付费社群,单个社群人数可超过400人[21][25] AI生成美食内容的局限性与挑战 - AI吃播缺乏传统吃播的“饭张力”和情感连接,难以满足观众对情感代偿、陪伴感或实用探店信息的需求,内容模式单一且易引发审美疲劳[26][27] - 内容面临同质化危机和“恐怖谷”效应,常出现咀嚼动作与物理逻辑不匹配、吞咽镜头缺失等技术瑕疵,影响观看体验[27] - 行业面临法律与伦理边界问题,包括使用受版权保护形象可能构成侵权,以及AI生成内容需进行显著标识,相关滥用乱象已被纳入监管整治范围[28]
港中深韩晓光:3DGen,人类安全感之战丨GAIR 2025
雷峰网· 2025-12-13 09:13
文章核心观点 文章通过港中深助理教授韩晓光的视角,探讨了在视频生成模型(如Sora)兴起的背景下,三维生成与世界模型构建的必要性及其不可替代的价值 核心观点认为,尽管端到端的“炼丹”式AI在性能上取得突破,但为了满足人类对可解释性、安全感和精细可控的需求,尤其是在构建可交互的虚拟世界、发展具身智能以及实现数字到实体制造等领域,三维生成与显式的、结构化的建模方法是不可或缺的 [2][3][4][58][61][63] 三维生成发展历程与现状 - 三维生成在深度学习兴起前就已存在,早期主要聚焦于“类别限定”的生成,即为椅子、车辆等特定类别分别训练模型 [9] - “开放世界”的三维生成大约从2023年的Dreamfusion工作开始兴起,实现了从文本直接生成3D模型,但基于优化方法,生成速度较慢,通常需要半小时到一小时 [11][12][14] - 当前进入大模型时代,例如Adobe的Large Reconstruction Model和上海科大的Clay工作提出了“原生模型”概念,商业应用如腾讯混元3D的3.0版本已能实现从单张图像生成高质量三维模型 [16] 三维生成的发展趋势 - 趋势一:更精细,追求几何层面的极致细节表现,例如数美万物的Spark 3D [19] - 趋势二:更结构化,生成的三维模型需要能被拆解成独立部件以便编辑,例如混元3D的“X-Part”工作 [19] - 趋势三:更对齐,解决生成模型与输入图像在细节上不对应的问题,例如输入图像栅栏有5条横杠而生成模型变成6条的问题 [20] 视频生成兴起对三维生成的冲击与反思 - 视频生成技术(如Sora)的出现对三维内容创作领域造成冲击,因为它能用文本指令直接输出视频,跳过了传统三维建模、绑定、渲染等复杂流程 [24][28] - 视频生成当前存在核心局限:物理模拟不够真实、3D空间不一致、内容可控性不足(如难以精细修改视频中物体的特定属性) [29][30] - 尽管Sora2和谷歌Veo3已展示出初步的可控能力(如控制视角变化),但真正的危机感促使行业思考视频生成模型是否真的不需要3D [34][37] 视频模型与三维结合的潜在路径 - 路径一:完全不用3D,采用纯2D的端到端范式,依赖海量视频数据训练 [38] - 路径二:利用3D仿真作为“世界模拟器”,先根据条件生成可控但不真实的CG视频,再用神经网络将其转化为真实视频 [39] - 路径三:将3D信息作为控制信号输入,例如基于三维重建的场景模型来生成空间一致的长视频,以解决“长程记忆”问题 [38][39] - 路径四:用3D合成数据辅助训练,利用3D仿真批量生成可控的、带标注的视频数据,以增强端到端视频模型的训练 [39] 世界模型的分类与三维的必要性 - 世界模型的核心是对真实世界进行数字化,以计算方式理解和表达规律,并用于预测 [41] - 第一类:服务于“人类共同体”的宏观世界模型,如气候模拟、社会系统推演 [43] - 第二类:服务于“个人”的体验与探索模型,核心是可交互性,需要数字化物理与交互规律以构建沉浸式虚拟世界 [43] - 第三类:给机器用的世界模型,如用于自动驾驶或具身智能机器人,需要能根据动作预测环境变化 [44] - 为实现可交互的世界模型(如VR体验需要触觉反馈),3D是必要的 [45] 具身智能与三维生成的关系 - 发展具身智能的主流方法是“向人类学习”,这需要首先对人类与物体的交互过程进行精确的、动态的数字化捕捉与还原,3D乃至4D的还原是必要基础 [48] - 为了让机器人安全高效地探索和学习,需要创造可交互的三维仿真环境,因此具身智能同样离不开3D [48] 从数字到实体的制造需求 - 在三维打印、智能制造、CAD模型生成等领域,实现从虚拟设计到实体制造的个性化定制,3D是绝对的基础,例如牙齿生成项目就是为了制造精确的牙齿模型 [50][52] 技术路线之争:显式与隐式 - 隐式(数据驱动)路径:构建端到端神经网络,依赖“潜变量”编码所有信息,是典型的“黑箱”逻辑 [56] - 显式(模型驱动)路径:显式地重建三维模型,并基于明确的几何与物理公式进行计算和判断,依赖对世界的明确建模 [57] - 可解释性与安全感:显式的、可视化的3D/4D信息是人类能够直观理解和信任的维度,能带来安全感,而高维的“潜变量”则让人难以理解其运作原理 [57][58][59] - 当前AI时代过分追求性能而可解释性不足,实现可解释性需要3D作为人类能够直观理解的基石 [61][63]
欧盟对谷歌展开调查
国际金融报· 2025-12-10 05:24
欧盟对谷歌AI数据使用展开反垄断调查 - 欧盟委员会宣布对谷歌展开正式调查,重点评估其使用在线出版商内容及YouTube创作者视频训练Gemini等AI模型的方式是否违反欧洲竞争规则 [2] - 调查围绕数据获取、版权补偿和平台优势等关键问题展开,折射出欧盟在生成式AI竞争格局重塑中的强监管态度 [2] 欧盟调查的具体指控与担忧 - 监管机构担心谷歌可能通过对出版商和内容创作者施加不公平条款,或为自身提供特权访问,从而在训练大型模型时获取竞争者难以复制的数据优势 [2] - 欧盟委员会认为,谷歌可能在创作者无法真正选择的情况下,使用上传至YouTube的视频训练Gemini与Veo3模型,创作者被要求授予广泛的数据使用许可,使得“同意”带有默认性质 [2] - 谷歌禁止第三方公司使用YouTube视频训练模型,除非版权持有人明确授权,这可能使谷歌在训练数据层面形成天然壁垒,激化对其市场支配力的担忧 [2] 谷歌的回应与行业背景 - 谷歌回应称相关投诉可能抑制本已竞争激烈的市场创新,并强调其已与新闻和创意产业合作,帮助他们适应AI带来的行业变化 [2] - Alphabet首席执行官桑达尔·皮查伊公开表示公众不应盲目信任AI工具,人工智能模型目前依然容易犯错,并预测如果AI泡沫破裂,没有任何一家科技企业能够幸免 [4] 欧盟对美科技巨头的持续监管态势 - 欧盟此次行动被视为欧洲近年来针对美国科技企业监管升级的又一次体现 [3] - 过去两年内,谷歌因数字广告业务问题被处以近30亿欧元罚款 Meta因Facebook Marketplace的竞争问题被罚款近8亿欧元,今年又因WhatsApp引入AI功能而遭到进一步调查 X(前Twitter)因蓝勾标识与广告透明度问题被罚款1.2亿欧元 苹果在税务案件中被要求补缴130亿欧元 [3] - 外界认为欧盟正试图在全球科技竞争中巩固对平台行为的规则引导权 [3] 欧盟的监管理念与全球反思 - 欧洲监管者强调人工智能发展不能以破坏社会核心原则为代价,包括内容创作者的权益、市场竞争的公平性和数据使用的透明度 [4] - 这一观点与全球技术领域的反思情绪相呼应 [4]
AI吃播开始和真人吃播抢「饭碗」
36氪· 2025-12-07 02:09
AI吃播的兴起与现状 - AI吃播内容以猎奇为核心,展示食用玻璃水果、宝石首饰盒、毛绒玩具、金条等非常规“食材”,主打“万物皆能吃”的概念[5][6] - 该内容形式在国内外短视频及社交平台迅速走红,例如Tiktok博主相关视频获赞81.7万,国内平台亦出现大量点赞破万的视频[5] - 视频主角多为仅露出侧脸、嘴和手的AI生成形象,也包括AI小孩、卡通形象或动物,甚至有博主将动漫角色“吃恶魔果实”等情节改编为猎奇吃播[13] AI吃播的流量与商业化 - AI吃播及AI ASMR类视频流量可观,动辄达到10万+、100万+,为创作者带来直接的流量广告分成收益[14] - 凭借视频制作成本低、可批量生产更新的特点,大量新账号涌入,业内一些专业账号通过高频更新已实现稳定月入过万[14] - 国内科技公司正积极布局相关技术,例如可灵视频模型升级“视频音效”功能,字节豆包推出视频音效智能生成模型SeedFoley,以捕捉此商机[16] AI吃播的技术支撑 - 当前大部分AI吃播视频由Google DeepMind于2024年5月底发布的Veo3模型生成,其关键优势在于能一键生成与画面匹配的原生声音[15] - 技术进步使得生成内容细节逼真,例如可灵官方展示的吃播视频中,主播皮肤纹理和毛孔非常真实,但仍有“AI味重”、“张嘴大吃得少”等常见破绽[17] 真人吃播的困境与转型 - 自2020年起,监管层面对“大胃王”等宣扬暴饮暴食、食品浪费的真人吃播进行专项整治,相关畸形直播逐渐淡出[19] - 头部真人吃播博主被迫转型,例如“密子君”淡化“大胃王”标签转向探店测评,抖音粉丝1664万的“小贝饿了”也在内容上拓展至带娃、健身等多类别[19][21] - 为追逐流量,部分真人吃播转向“吃常人不敢吃”的病态“吃奇”内容,如食用猪肠油、纯肥肉、生鸭屁股等,但中消协已倡议抵制此类极端行为,预计监管将进一步收紧[21][23] 行业未来趋势 - AI吃播凭借算法驱动的猎奇内容,正在抢占用户眼球,压缩了真人吃播的“想象空间”,重新定义了“吃”的边界[23] - 行业竞争将从单纯内容比拼,升级为技术、伦理与商业模式的全面较量,未来可能形成AI满足猎奇心理、真人深耕情感连接的新生态平衡[24]
首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」
机器之心· 2025-12-05 04:08
文章核心观点 - 视频生成模型的首帧并非时间起点,而是作为内部“概念记忆体”,存储后续帧需引用的所有视觉实体[2][3][9] - 模型天生具备多对象融合与内容定制能力,但默认状态下该能力极不稳定且难以触发[14][38][43] - FFGo方法通过极轻量级微调(仅需20–50个样本)即可稳定激活模型的潜在能力,无需修改模型结构或使用百万级数据[18][21][44] 研究方法与发现 - 团队通过对Veo3、Sora2、Wan2.2等主流视频模型的测试,验证了首帧作为内容缓存区的现象[11] - 研究发现,基础模型在极罕见情况下能成功完成多对象融合任务,证明能力已存在但无法稳定调用[35][37][38] - FFGo的作用被证实并非赋予模型新能力,而是通过学习“触发机制”使其固有能力变得可控和可靠[40][44][47] FFGo技术方案优势 - 方法仅需20–50个精心筛选的视频样本和数小时LoRA训练,即可实现最先进(SOTA)的视频内容定制[17][21][52] - 相比VACE、SkyReels-A2等现有方法,FFGo无需修改模型结构,且能处理多达5个参考实体,而现有方法限制在3个以内并易出现物体丢失[19][22][31] - 技术能有效保持物体身份一致性、避免灾难性遗忘,并在用户研究中以81.2%的票数大幅领先[31][52] 应用场景与技术实现 - 技术亮点覆盖自动驾驶模拟、航拍/水下无人机模拟、多产品展示、影视制作及多角色视频生成六大场景[24] - 采用VLM(如Gemini-2.5 Pro)自动构建高质量训练集,利用SAM2提取物体掩膜,大幅降低人工工作量[27] - 推理时仅需舍弃模型生成的前4帧压缩帧,真正的混合内容从第5帧开始[28]
视频模型战火再燃!Runway超过谷歌登顶,可灵也来了
第一财经· 2025-12-02 09:09
AI视频生成模型竞争格局 - 2025年12月1日,海外AI视频初创公司Runway发布新一代视频模型Gen-4 5,国内公司可灵AI几乎同时宣布全新视频模型可灵O1上线,行业竞争激烈[3] - 根据Artificial Analysis基准测试榜单,Runway Gen-4 5以1247分位列文生视频模型第一,谷歌Veo3以1226分排名第二,快手可灵2 5以1225分排名第三,与第二名仅1分之差[7] - 其他主要竞争者包括排名第七的OpenAI Sora2 pro(1205分)和排名第八的MiniMax海螺02(1198分)[7][8] Runway Gen-4 5技术突破 - 模型在预训练数据效率和后训练技术方面取得突破,擅长执行复杂的序列指令,可指定镜头调度、场景构图、事件时间安排和氛围变化[9] - 实现了前所未有的物理精度和视觉精度,物体以真实重量和动力移动,液体动力学流动逼真,表面细节渲染出色,头发和材料编织等细节在运动中保持一致[15] - 公司承认模型仍存在局限性,如在因果推理和对象恒存性方面不足,效果可能先于原因出现,物体可能意外消失或出现[18] 行业动态与公司背景 - Runway成立于2018年,目前公司估值达35 5亿美元,2023年2月发布第一代视频模型Gen-1,7月实现文生视频和图生视频功能[18] - 公司CEO强调凭借约100人团队击败了万亿美元规模的公司,体现极度专注和勤奋可触及技术前沿[18] - 2024年起AI视频生成领域竞争白热化,2025年谷歌Veo系列确立行业领先地位,初创公司生存空间收窄,国内快手可灵和MiniMax形成竞争力[19] - Runway通过新品确立地位的重要性凸显,公司新一轮融资仍在推进中,行业期待谷歌Veo4发布,竞争将持续[19]
视频模型战火再燃!Runway超过谷歌登顶,可灵也来了
第一财经资讯· 2025-12-02 07:16
行业竞争格局 - 2025年12月初,视频生成模型领域竞争加剧,海外初创公司Runway与国内公司可灵AI几乎同时发布新一代视频模型,火药味很浓 [1] - 根据Artificial Analysis基准测试榜单,Runway的Gen-4.5以1247分位列文生视频模型第一,超越谷歌的Veo3(1226分)和快手可灵2.5(1225分)[3] - 行业领先者还包括Luma Labs的Ray 3(1211分)、OpenAI的Sora 2 Pro(1205分)以及MiniMax的海螺02(1198分),竞争格局呈现多强并立态势 [4] - 从2024年开始,AI视频生成领域竞争白热化,谷歌Veo系列在2025年逐渐确立行业领先地位,挤压初创公司空间,而国内如快手可灵、MiniMax也形成了竞争力 [12] Runway公司及Gen-4.5模型 - Runway于2025年12月1日正式发布新一代视频模型Gen-4.5,在基准测试中超越谷歌Veo3登顶 [1] - 公司表示Gen-4.5在预训练数据效率和后训练技术方面取得突破,擅长理解和执行复杂的序列指令,能指定镜头调度、场景构图、事件时间及氛围变化 [5] - 该模型在精确遵循提示词、逼真的物理运动效果、风格控制和视觉一致性方面有新的进展 [5] - Runway强调Gen-4.5实现了前所未有的物理精度和视觉精度,物体能以真实的重量和动力移动,液体流动符合动力学,表面细节渲染逼真 [7] - 公司承认模型仍存在局限性,如在因果推理和对象恒存性方面不足,可能出现效果先于原因或物体意外消失的情况 [11] - Runway计划逐步开放Gen-4.5的使用权限,并以与当前订阅套餐相近的价格全面开放,即“加量不加价” [4] - Runway成立于2018年,根据PitchBook数据,公司估值已达到35.5亿美元,其于2023年2月发布第一代视频模型Gen-1,行业布局较早 [11] - Runway CEO表示,公司仅靠一百人的团队就击败了万亿美元规模的公司,认为极度专注和勤奋能触及技术前沿 [11] 可灵AI及行业其他参与者 - 在Runway发布Gen-4.5后约1小时,国内视频生成公司可灵AI在海外平台宣布上线全新视频模型可灵O1,并将其定义为“首个统一多模态视频大模型” [1] - 截至新闻发布时,基准测试榜单上尚未包含可灵O1的评分,但其被视为Gen-4.5潜在的有力竞争对手 [12] - 快手旗下的可灵2.5 Turbo 1080p模型在2025年9月发布,在基准测试中以1225分位列第三,与第二名谷歌Veo3仅一分之差 [3][4] - MiniMax的海螺02 Standard模型于2025年6月发布,在榜单上以1198分排名第八 [4] - 行业也在期待谷歌下一代视频模型Veo4的发布,围绕视频生成模型领先地位的较量预计将持续 [12]
视频模型原生支持动作一致,只是你不会用,揭开「首帧」的秘密
36氪· 2025-11-28 02:47
核心观点 - 视频生成模型的第一帧并非简单的时间起点,而是作为模型的“概念记忆体”,存储了后续画面所需的所有视觉元素(角色、物体、纹理、布局等)[1][4] - 模型天然具备融合多参考物体的能力,但这种能力默认情况下不稳定、不可控,难以被稳定激活[4][18][21] - FFGo方法通过极低成本(不改模型结构、仅需20–50个样本、几小时LoRA训练)即可稳定激活模型的这种潜在能力,实现高质量视频定制[6][7][22] 技术原理 - 第一帧作为“概念蓝图”,模型会自动将其中的多个视觉实体打包存储,并在后续帧中复用[4][18] - 基础模型在极罕见情况下可通过特殊转场提示词(如“ad23r2 the camera view suddenly changes”)触发多对象融合,证明能力已存在但不可控[18][21] - FFGo的LoRA训练不是教会模型新能力,而是学习如何稳定触发模型已有的“隐藏GPU”,使其持续发挥作用[22] 方法优势 - 无需修改任何预训练视频模型(如Veo3、Sora2、Wan2.2)的结构[6][7] - 仅需20–50个精心挑选的视频样本和几小时的LoRA训练,避免大规模数据需求[7][15] - 不会导致模型过拟合或灾难性遗忘,保持原模型的泛化能力[7][18][22] - 支持多达5个参考实体同时融合,优于VACE/SkyReels-A2等现有方法(限制在3个以内)[9][17] 应用场景 - 机器人操作(Robot Manipulation)[12] - 自动驾驶模拟(Driving Simulation)[12] - 航拍/水下/无人机模拟(Aerial / Underwater)[12] - 多产品展示[12] - 影视制作[12] - 任意多角色组合视频生成[12] 实施流程 - 使用Gemini-2.5 Pro自动识别前景物体,SAM2提取RGBA mask,并自动生成视频文本描述,构建高质量训练集[15] - 训练时直接舍弃前4帧(Wan2.2的压缩帧),从第5帧开始利用真正的混合内容[16] - 推理时无需特殊处理,仅需提供包含多物体/角色的首帧和文本prompt即可生成交互视频[9] 性能表现 - 在画面一致性、物体身份保持、动作连贯性方面表现强劲[9][18] - 用户研究中以81.2%的票数大幅领先现有方法[26] - 输出画面更自然、更连贯,且能高度匹配文本提示(如wingsuit飞行者与Cybertruck贴合运动)[18][23]
中国互联网行业_专家-视频生成式人工智能
2025-11-24 01:46
**涉及的公司和行业** * 行业:中国互联网行业,重点关注视频生成式AI领域[2] * 公司:快手(Kuaishou Technology)及其视频生成AI模型Kling,同时提及字节跳动(Bytedance)的Seedance、OpenAI的Sora 2、Google的Veo3等竞争对手[2] **核心观点和论据** **1 快手Kling在视频生成AI领域的技术领先地位** * 专家根据内部测试结果对视频生成AI性能排名为:快手Kling > Sora 2 > Veo3 > 字节跳动Seedance[2] * Kling的优势在于更强的提示学习能力、相对更长的视频生成时长以及对细节更精确的控制[2] * 专家预计Kling的领导地位在短期内可持续,得益于快手公司层面对视频生成AI的全力投入,集中了计算和训练资源以及顶尖的工程、多模态和算法人才[2] * 其他顶级玩家(如字节跳动、Google、OpenAI)在视频生成AI上的投入程度不如快手[2] * 技术上,Kling受益于快手“设备优先、边缘辅助、云端增强”的混合架构,该架构允许80%的生成工作负载在设备上运行,显著降低了成本和延迟[2] * 其自研的深度学习引擎针对中低端硬件高度优化,使其拥有独特的大规模可触达用户群[2] * 结合快速、用户驱动的模型微调和实用功能,快手在技术性能、更快迭代周期、更好成本效益和更强商业吸引力方面表现突出,使Kling在国内市场确立了领导地位[2] * 专家还指出Kling与字节跳动Seedance在目标用户上的差异:Kling更侧重于面向消费者的专业用户,而Seedance则通过订阅和私有部署模式瞄准面向企业的变现[2] **2 视频生成AI运营商当前的单位经济效益与未来改善路径** * 专家指出,考虑到研发和训练成本,视频生成AI运营商目前的单位经济效益仍然较低,甚至为负[3] * 现阶段,大多数运营商优先考虑市场份额和模型性能,而非投资回报率和盈利能力,专家预计视频AI模型定价在不久的将来会继续下降[3] * 改善单位经济效益的关键因素包括:1)通过结合进口和更便宜的国产GPU构建更异构的计算平台来降低计算成本;2)模型训练和推理效率的创新[3] **3 视频生成AI当前阶段的主要应用场景** * 专家强调视频生成AI技术可应用于广告和电子商务领域[4] * 企业客户将视频生成用于电子商务内容、数字人生产、客户服务场景、全息投影、动画/电影/电视剧制作、专业摄影和动作捕捉工作流程等[4] * 从传统的拍摄-编辑-制作-发布工作流程转向AIGC辅助的流程,可将整体生产效率提升60%以上[4] * 在数字人和电子商务直播中,数字人可以持续降低劳动力成本,允许更个性化的广告材料,并可以24/7工作,其输出效率远超传统基于人工的生产模式[4] **4 瑞银对快手的积极看法和投资建议** * 瑞银对快手持建设性观点,考虑因素包括:1)核心业务增长且估值合理(2025/26年预期市盈率为13/11倍,2024-26年预期每股收益复合年增长率为20%,或剔除Kling因素后2026年预期市盈率为10倍);2)视频生成AI进展带来的基本面和估值上行空间;3)投资者持仓仍相对较低[5] * 瑞银对快手给予“买入”评级,目标股价为95.37港元(截至2025年11月14日股价为67.10港元)[20][26] **其他重要内容** **风险因素** * 中国互联网行业的主要风险包括:1)竞争格局演变和竞争加剧;2)技术以及互联网用户需求和偏好的快速变化趋势;3)不确定的变现能力;4)流量获取、内容和品牌推广成本上升;5)IT系统的维护;6)向国际市场扩张;7)市场情绪的不利变化;8)监管变化[7] * 快手的具体风险包括:1)竞争加剧导致用户增长低于预期以及用户时间被分流;2)在线视频、直播和网络游戏行业监管收紧;3)变现速度慢于预期;4)中国经济放缓可能导致在线广告收入增长降低;5)投资超预期且盈利能力弱于预期[8]
万兴科技已接入Veo3等模型 产品曾获谷歌商店全球首页首屏推荐
智通财经· 2025-11-20 07:14
谷歌AI模型Gemini 3发布与市场影响 - 谷歌发布最新AI模型Gemini 3,其Gemini 3 pro版本在LMArena大模型竞技场中以1501得分排名榜首 [1] - Gemini月活跃用户超过6.5亿,超过70%的谷歌云端客户正在使用其AI服务,有1300万名开发者利用其生成式模型进行开发 [1] - 伯克希尔首次投资Alphabet,展现对谷歌产品生态和AI布局的认可,提升全球市场对AI公司的预期 [1] 万兴科技与谷歌的合作及业务表现 - 万兴科技已接入谷歌Veo3及Nano Banana模型能力并应用于旗下多款产品 [2] - 公司视频创意产品万兴喵影/Wondershare Filmora亮相2025谷歌开发者大会,作为唯一受邀视频剪辑产品展示“AI一键成片”能力,并获得Google Play应用商店全球首页首屏推荐 [2] - 公司业务覆盖全球200多个国家和地区,累计活跃用户突破20亿 [2] - 2025年前三季度,万兴科技的AI服务器调用量已超过8亿次 [2]