什么是视觉里程计?

视觉里程计(Visual Odometry,VO)是自动驾驶系统中一种通过摄像头连续采集的图像序列来估计车辆自身运动状态的技术。它通过分析相邻帧图像间的特征点匹配关系,结合相机成像几何原理,计算出车辆在三维空间中的相对位移和姿态变化。视觉里程计不需要依赖外部基础设施,仅凭视觉信息就能实现厘米级的定位精度,特别适用于GPS信号缺失的复杂城市场景。这项技术的核心在于特征提取、运动估计和轨迹优化的算法组合,其中特征点的鲁棒性和匹配精度直接决定了系统的可靠性。 在实际应用中,视觉里程计常与惯性测量单元(IMU)融合形成视觉惯性里程计(VIO),以弥补纯视觉系统在高速运动或纹理缺失场景下的局限性。特斯拉Autopilot等量产系统已采用基于学习的VO方案,通过神经网络直接预测相机运动,显著提升了在雨雪等恶劣环境下的稳定性。随着事件相机(Event Camera)和神经辐射场(NeRF)等新技术的引入,视觉里程计正在向更高精度、更低延迟的方向发展。

什么是轮速里程计?

轮速里程计(Wheel Odometry)是一种通过测量车辆车轮转速来推算车辆位置和姿态变化的定位技术。其核心原理是基于车轮转速传感器(如ABS轮速传感器)采集的脉冲信号,结合车辆运动学模型和车轮半径等参数,计算出车辆的相对位移和航向角变化。这种技术能提供高频(通常10-100Hz)、低延迟的运动估计,但对车轮打滑、轮胎磨损等误差因素较为敏感,通常会与IMU、视觉传感器等形成多源融合定位系统。 在自动驾驶系统中,轮速里程计作为重要的局部定位模块,常被用于填补GNSS信号丢失时的定位空白,或为激光雷达/视觉SLAM提供运动先验。现代智能车辆通常会采用扩展卡尔曼滤波(EKF)或因子图优化等方法,将轮速里程数据与其它传感器信息融合,显著提升在隧道、城市峡谷等复杂场景下的定位鲁棒性。值得注意的是,特斯拉等车企近年提出的「纯视觉+轮速里程」方案,正在重新定义多传感器融合的边界。

什么是光流?

光流(Optical Flow)是计算机视觉领域中描述图像序列中像素点运动模式的技术概念,它通过分析相邻帧图像中像素点的位置变化来估算物体在三维空间中的运动方向和速度。从技术原理来看,光流基于亮度恒定假设,即同一物体点在连续帧中的亮度保持不变,通过求解像素在时空维度上的梯度变化建立光流方程(如经典的Lucas-Kanade或Horn-Schunck算法),最终输出每个像素点的二维运动矢量场。这种运动表征不依赖场景的三维几何信息,属于典型的2D运动估计方法。 在自动驾驶领域,光流技术被广泛应用于运动目标检测、碰撞预警、场景流计算等任务。例如通过分析路面特征点的光流场,可以实时估算自车的运动状态;结合深度学习的光流估计网络(如FlowNet、RAFT),能有效提升在复杂光照条件下的运动感知鲁棒性。值得注意的是,现代自动驾驶系统通常会将光流信息与雷达、IMU等多模态数据融合,形成更可靠的环境动态理解能力。对产品经理而言,理解光流技术的优势(如计算效率高)与局限(如对纹理缺失区域敏感),有助于在传感器选型与算法架构设计中做出更合理的决策。

什么是里程计?

里程计(Odometry)是机器人领域用于估算自身位置和姿态变化的技术,通过测量轮式或足式运动装置的旋转位移来推算相对运动轨迹。其核心原理基于对运动部件(如车轮、关节)的传感器数据进行积分运算,常见于轮式机器人的编码器或惯性测量单元(IMU)数据融合。里程计提供的是相对定位信息,虽然存在累积误差,但在短距离移动、即时定位与地图构建(SLAM)系统中仍是基础运动估计模块。 在具身智能产品开发中,里程计精度直接影响导航系统的可靠性。例如扫地机器人通过轮速脉冲计数推算行进距离,配合激光雷达实现厘米级定位;自动驾驶车辆则需融合视觉里程计(V-Odometry)与轮速数据以补偿GPS信号丢失。当前研究热点包括基于深度学习的误差补偿算法,以及多传感器融合方案以提升长期运动估计的稳定性。MIT出版社《Probabilistic Robotics》第5章对里程计数学模型有系统阐述。