Workflow
机器人感知
icon
搜索文档
速腾聚创:博士创业“看见”未来
深圳商报· 2025-11-24 01:46
公司发展历程 - 2014年由邱纯鑫在深圳南山区创立 公司从AI软件-感知算法和硬件-传感器两方面同时研发 具备系统级解决方案能力[2] - 2016年推出首款16线机械式激光雷达 2017年于国内实现量产并同期推出感知算法SDK[2] - 2021年6月全球首款车规级MEMS固态激光雷达M1实现量产交付 填补市场空白[3] - 2024年1月5日成功登陆港交所主板 成为全球激光雷达行业首家在港上市企业[4] - 截至2024年底 累计交付超88万台激光雷达 合作车企达28家 定点车型92款 车载激光雷达市占率居全球前列[4] 技术突破与产品发布 - 自研二维MEMS芯片扫描架构 历经多年探索实现车规级MEMS固态激光雷达量产[3] - 2025年3月发布机器人视觉新品类Active Camera首款产品AC1 融合激光雷达、摄像头与IMU三大核心传感器实现单设备全场景感知[7] - 2025年10月21日发布升级版AC2 成为业内首款dToF+RGB双目+IMU一体化超级传感器系统 为具身智能提供操作之眼[1][7] - AC2配套AI-Ready生态 提供开源软件开发套件、算法库与一站式工具套件 赋能开发者快速构建应用[7] 业务拓展与战略合作 - 2018年与阿里菜星达成战略合作 联合发布无人物流车[5] - 2021年拿下40余款车型定点订单 获比亚迪战略投资 并与极氪达成深度合作[4] - 已服务全球3200家机器人客户 覆盖工业、商业、服务机器人等场景 机器人业务订单量突破七位数[5] - 在摩根士丹利发布的《全球人形机器人产业链百强》中 是中国唯一一家同时上榜主导视觉与激光雷达两大核心传感器类目的企业[5] 战略转型与未来规划 - 2025年1月5日正式发布AI机器人战略 公布超算中心、AI模型、场景数据等AI基础设施[6] - 发布人形机器人母机、Active Camera解决方案、第二代灵巧手Papert 2.0等产品 并提供AI移动解决方案Robo FSD、手眼协同操作解决方案[6][7] - 公司正从激光雷达供应商向AI机器人技术平台跃迁 未来10年将迈入AI机器人赋能者的新阶段[7] - 公司终极愿景是成为全球领先的机器人技术平台公司 RoboSense寓意机器人感知及机器人+认知[4]
清华系+清华造,一双机器人的眼睛融资了
36氪· 2025-11-04 03:32
行业融资趋势 - 2025年前10个月具身智能赛道新增融资事件达195起,上亿规模融资事件达69起,较前7个月数据有较大幅度提升 [2] - 2025年前7个月融资事件为123起,上亿规模融资事件为46起,其中7月7日至13日当周有6家公司官宣亿元级别以上融资 [2] - 投资重点从“本体”向产业链上游转移,集中在机器人关节、柔性材料等关键零部件,头部企业智元机器人已开展面向早期上游项目的CVC业务 [3] 公司融资与股东背景 - 赛感智能完成Pre-A轮融资,由麟阁创投领投,横店资本跟投,老股东远桥资本超额加注,深蓝资本担任长期独家财务顾问 [1][4] - 融资将用于核心技术迭代、产品线战略扩张及商业化规模化落地,以巩固多模态空间传感器领域技术优势 [4] - 领投方麟阁创投专注于早期阶段投资,以顶尖高校和科研院所为支点;横店资本依托横店集团制造业背景,投资了大量先进制造项目 [9] - 老股东远桥资本是具身智能领域活跃投资方,尤其青睐机器人上游零部件,其投资的公司仙工智能已筹备港交所上市 [10] 公司技术与产品 - 公司专注于机器人感知领域,技术路径为“多模态融合+感知-决策一体化”,结合3D激光雷达与环形摄像头等多源数据,搭配本地化算力平台和算法 [6] - 自研Octa系列产品为工业机器人提供精准感知能力,旨在打造全场景、长期可持续的感知解决方案 [7] - 多模态传感中枢架构以超紧凑结构实现高密度点云覆盖和端到端视觉能力,使移动机器人实现“感知-决策-执行”无缝衔接 [9] - 自研全新激光雷达技术架构能以极低成本生成大视场高密度点云,决策响应速度提升至毫秒级 [7] - 产品化进程快速推进,已进入头部客户小批量交付阶段 [11] 行业技术背景与公司机遇 - 主流机器人视觉方案存在缺陷:多传感器融合方案依赖机械独立堆叠,消耗大量人工和算力;主动看方案需在毫秒到秒级完成决策,计算量巨大 [5] - 公司创始人付晨拥有清华大学光学工程博士背景,并曾参与机器人2D激光雷达市占率30%的头部企业富锐光学的联合创业 [6] - 公司技术路线旨在解决行业痛点,其进展符合甚至超预期,获得了产业投资方和具有清华背景投资机构的认可 [10]
奥普特(688686):机器视觉龙头多行业景气向好
华泰证券· 2025-08-24 07:35
投资评级 - 维持"增持"评级 目标价132.00元人民币[1] 核心观点 - 机器视觉龙头企业受益于下游锂电与3C行业复苏 工业AI技术落地推动需求增长[1][3] - 2025年上半年营收同比增长30.68%至6.83亿元 归母净利润同比增长28.80%至1.46亿元[1] - 经营活动现金流净额同比增长1123.58% 主要因回款增加[2] - 公司战略布局机器人业务 成立机器人事业部并收购东莞泰莱切入直线电机领域[4] - 给予2025年80倍PE估值 基于较可比公司更快的业绩增长预期[5] 财务表现 - Q2单季营收4.15亿元 同比增长40.34% 环比增长54.94%[1] - Q2归母净利润8813.96万元 同比增长57.24% 环比增长52.34%[1] - 毛利率65.47% 同比微降0.53个百分点[2] - 期间费用率整体略降 研发费用率18.93%同比下降2.12个百分点[2] - 扣非净利润1.32亿元 同比增长36.26%[1] 业务板块分析 - 3C行业收入4.39亿元 同比增长23.82% 受益于工业AI技术落地[3] - 锂电行业收入1.67亿元 同比增长49.35% 因行业复苏及海外市场拓展[3] - 半导体行业收入0.31亿元 同比增长25.51% 具国产替代潜力[3] - 汽车行业收入0.14亿元 同比增长65.67%[3] - 东莞泰莱贡献营收0.37亿元[4] 行业前景 - 中国机器视觉市场2025年预计突破210亿元 未来五年年均增速约20%[3] - 高精度成像技术应用深化 智能分析算法持续优化[3] - 政策推动国产化进程加速 标准化和平台化方案成为主流[3] 战略布局 - 成立机器人事业部 布局dToF相机、iToF相机、双目结构光和激光雷达四大产品方向[4] - 境外资产0.85亿元 占总资产2.35% 在东南亚、欧洲布局营销网络[4] - 技术迁移应用至机器人场景 覆盖环境感知、定位导航和人机交互需求[4] 盈利预测 - 下调2025-2027年归母净利润预测至2.02/2.47/3.04亿元[5] - 对应EPS预测为1.65/2.02/2.49元[5] - 营收预测调整为2025年11.72亿元(原11.17亿元) 2026年13.79亿元(原12.84亿元)[17] - 新能源行业毛利率上调2个百分点至52% 3C行业毛利率下调1.3个百分点至73.5%[17]
商道创投网·会员动态|环视智能·完成千万级天使轮融资
搜狐财经· 2025-08-05 16:05
公司融资情况 - 环视智能完成千万级天使轮融资 由天润嘉诚和成都高投联合投资 帕累托森林担任独家融资财务顾问 [2] - 公司成立于2024年 核心团队来自天津大学 专注视觉感知、机器人控制与大模型融合技术 [2] 技术研发方向 - 融资资金将用于在六个月内将10米内深度误差压缩至2厘米 提升家用与工业场景操作精度 [3] - 同时构建"空间智能+世界模型"框架 使机器人具备预判老人跌倒、设备异常等动态风险的能力 [3] 投资逻辑 - 投资方看好公司以硬件加速破解低成本感知难题的能力 团队具备从芯片模组到场景落地的完整执行力 [4] - 公司技术路径稀缺 精准切入机器人"感知成本高"痛点 市场空间巨大 [4] 行业政策背景 - 工信部近期连续发布"机器人+"应用行动方案 地方政府同步出台算力补贴与场景开放政策 [5] - 公司以高校原创技术快速商品化 既响应政策号召 又满足基金出资人对硬科技的回报预期 [5]
RoboSense 2025 机器感知挑战赛正式启动
具身智能之心· 2025-06-25 13:52
RoboSense Challenge 2025概述 - 核心目标为系统性评估机器人在真实场景下的感知与理解能力,推动多模态感知模型的稳健性研究[1] - 聚焦动态人群、恶劣天气、传感器故障等复杂环境条件下的感知算法性能挑战[1] - 由新加坡国立大学、南洋理工大学等全球7所顶尖研究机构联合主办,并获得IROS 2025官方认证[5] 赛事时间安排 - 注册开放时间为2025年6月[3] - 第一阶段提交截止2025年8月15日,第二阶段截止9月15日[3] - 颁奖典礼于2025年10月19日在IROS 2025杭州主会场举行[3][46] 五大核心挑战任务 语言驱动的自动驾驶 - 要求构建端到端多模态驾驶模型,实现语言指令到规划轨迹的闭环控制[6][7] - Baseline模型Qwen2.5-VL需4块A100 GPU训练12小时,感知准确率75.5%[13] - 关键技术难点包括多模态时序融合、语言指令泛化及弱感知条件下的决策[13] 社交导航 - 基于RGB-D输入实现符合人类社交规范的动态路径规划[14][15] - Baseline模型Falcon成功率55.84%,需4块RTX 3090训练48小时[19] - 需解决动态行为建模与隐式社交规则编码问题[17] 传感器布局优化 - 评估3D感知模型对不同LiDAR安装配置的适应性[20][21] - Baseline模型BEVFusion-L的mAP为48.8%,单卡RTX 4090需16小时训练[26] - 关键技术包括视角差异建模与结构对齐模块设计[27] 跨模态无人机导航 - 建立语言描述与空地视角图像的语义映射关系[28][29] - Baseline模型GeoText-1652的R@1为13.6,需2块RTX 4090训练12小时[34] - 需解决视角转换带来的纹理缩放与空间反转问题[33] 跨平台3D目标检测 - 要求模型在车辆/无人机/四足机器人等平台保持检测一致性[34][35] - Baseline模型ST3D++的Car AP@0.5为33.7%,单卡RTX 3090训练24小时[39] - 核心挑战为跨平台Domain Gap与视角仿射变化适应[39] 赛事资源与评测 - 提供多源多模态真实场景数据支持研究复现[9] - 采用统一评测平台确保公正性,如codabench.org/eval.ai等[14][19][26][34][39] - 开放Toolkit与代码资源库github.com/robosense2025[8] 奖项设置 - 总奖金池超10,000美元,一等奖奖金5,000美元[40][41] - 设立创新奖(每赛道2项)及参与奖(完成有效提交即可获证明)[40]