Workflow
色彩一致性
icon
搜索文档
手机影像狂卷2025:告别参数焦虑,开始“反向指导”相机了
36氪· 2025-12-15 10:16
行业核心观点 - 2025年手机影像行业的主线是硬件不再疯狂冲锋,算法和AI开始主导画面,行业竞争焦点从堆砌硬件参数转向追求系统平衡与用户体验 [1] 硬件策略转变:一英寸传感器退烧 - 2025年市面上仍配备一英寸主摄的旗舰机型极少,仅小米15 Ultra和OPPO Find X8 Ultra等少数机型,且定位为不走量的“玩具” [2] - 主流厂商选择从一英寸退一步,例如vivo X300 Pro和OPPO Find X9 Pro主摄采用1/1.28英寸的LYT-828传感器,搭配1/1.4英寸的200MP潜望长焦,其他旗舰主摄也多停留在1/1.3英寸左右 [4] - 此转变是权衡利弊后的新选择,因一英寸模组对手机内部堆叠、结构强度、防水防摔及重量控制压力巨大,且新技术(如叠层CMOS、更高读出速度、多帧HDR)使得“主摄一颗拉满,其余镜头凑合”成为过去式 [4] - 随着算法和AI技术成熟,动态范围、夜景、噪点等原本依赖硬件的差距被缩小,厂商更愿将资源投入长焦+算法+AI的整体体验 [5] - 一英寸退场标志着行业不再靠堆砌“最夸张的传感器”讲故事,转而重视整套影像系统的平衡,旨在让整体画面更顺眼 [7] LivePhoto功能演进与AI整合 - LivePhoto已从iPhone用户的小玩具,转变为微信、短视频平台全面支持后的“日常记录新方式” [8] - LivePhoto相比静态照片的优势包括:无需切换模式、占用体积比视频小、可兼作照片鉴赏与短视频素材 [8] - 为做好LivePhoto,手机厂商在后台运用AI,从几百帧画面中挑选最佳一帧作封面,并用防抖算法处理所有画面帧 [8] - 系统能识别典型场景(如人像、宠物、烟花、车流),并自动生成不同版本:适合朋友圈的关键帧、适合动图的小循环、可丢进vlog模板的动态素材 [11] - LivePhoto已被整合进整套AI影像工作流底层,拍摄的动态片段可被系统二次开发利用,如用于相册年度小结、旅行回顾,或为后期工具(一键擦路人、智能抠图、重构光线)提供多帧信息以挑选最佳基准帧 [12] - 2025年LivePhoto已成为手机默认的记录形态之一,系统在快门按下时已备好静态照片、动态片段及后续剪辑素材,用户无需纠结拍照或拍视频 [14] 高像素传感器应用重定向 - 两亿像素传感器的应用方向被重新定义,从过去局限于超高倍数长焦拍摄远景或演示性能,转变为凭借更大感光面积、配合新一代人像算法与超分技术,成为“人像镜皇” [15] - 以OPPO Find X9 Pro为例,使用3X、5X拍人时,手机会进行高分辨率预采集,对脸部、头发、衣物纹理及背景进行精准识别与分割,并分别处理,最终呈现细节丰富、肤色自然、无违和感的人像照片 [17] 色彩科学与多光谱技术普及 - 2025年,华为、vivo和OPPO等厂商先后推出原色镜头和多光谱系统,旨在解决过去“品牌味”策略导致的肤色在不同光线下不稳定、不同镜头间色调差异大的问题 [18] - 新策略是先利用多光谱传感器、原色镜头配合自研色彩引擎还原“现实世界的真实色彩”,再在此基础上叠加品牌风格 [18] - 例如华为在Pura 80和Mate80系列上用多光谱传感器辅助白平衡和肤色,强调夜景及混合光源下肤色与氛围的稳定性;其他厂商则通过纯净光学堆叠方案与精细算法,使主摄、长焦、超广三颗镜头输出色调尽量接近 [18] 手机与相机的竞争与定位分化 - 专业相机厂商正在向手机学习,简化机身菜单、提供云创作服务以降低操作门槛;同时,手机旗舰机则提供4K/8K、10bit、LOG、LUT、直方图、峰值对焦图等专业功能 [24] - 双方定位本质不同:相机围绕“画质上限”和“可控性”构建优势;手机则致力于解决“拿起就拍、拍完就能发”的需求,构建从抓拍、合成、剪辑到分发的完整流水线 [24] - 手机需守住的优势包括:第一,“拿起就能拍、拍完就能用”的可靠体验,这依赖于对焦、快门时滞、多帧合成、算力调度等工程问题的解决,2025年影像旗舰宣传的“实时全分辨率计算”、“全场景多帧常开”即为此服务 [27];第二,“拍摄—剪辑—发布”的全流程体验,手机可将所有环节集中在设备自身,系统相册能自动生成影片、AI可识别高光片段并辅助剪辑,极大提升记录生活的效率 [29];第三,用AI补齐用户知识和操作门槛,将AI构图提示、智能抓拍、自动选片、AI修图、消路人、补光影等功能整合为系统级能力,为用户提供“安心感” [29] 未来发展方向 - 硬件上将继续打磨,补齐主摄、长焦、超广角镜头短板,但不再追求单点极限 [31] - 软件算法和AI将朝着“更自然、更统一、更省心”的方向发展,淡化过度锐化、美颜、HDR等算法痕迹,做好随身创作工具 [31] - 行业竞争将转向谁能将曝光、对焦、色彩还原、抓拍、视频剪辑整条链路打磨得更稳定、翻车更少,以及谁能将AI真正用于降低用户创作门槛 [32] - 对用户而言,转变带来的好处是越来越不需要纠结光线、设备选择或参数设置,大多数时候只需拿起手机按下快门 [32]
OmniRe全新升级!自驾场景重建色彩渲染和几何渲染双SOTA~
自动驾驶之心· 2025-07-27 14:41
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳-> 领取 自动驾驶近15个 方向 学习 路线 今天自动驾驶之心为大家分享 自动驾驶场景重建图像几何SOTA新工作。 如果您有 相关工作需要分享,请在文末联系我们! 自动驾驶课程学习与技术交流群事宜,也欢迎添加小助理微信AIDriver004做进一 步咨询 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 论文作者 | Nan Wang等 编辑 | 自动驾驶之心 导读 在自动驾驶场景的三维重建中,神经渲染技术(如高斯溅射)正扮演日益重要的角色。然而,真实世界 中光照、相机参数和视角的不断变化,导致了图像间的"色彩不一致性",这严重挑战了重建的真实感与 几何精度。为解决此问题,作者们 提出了一个 创新的多尺度双边网格框架 。该框架巧妙地 统一了外观 编码(Appearance Codes)和双边网格(Bilateral Grids) ,实现了对驾驶场景中复杂光影变化的精确 建模,从而 显著提升了动态场景重建的几何精度和视觉真实感。 论文链接:https://arxiv.org/abs/2506.05280 代码仓库(Github):https://githu ...