#仙知机器人#移动机器人定位技术—激光SLAM

SLAM英文全称是SimultaneousLocalizationandMapping , 意为即时定位与地图构建 。
SLAM最早由Smith、Self和Cheeseman于1988年提出 , 至今已有30余年的发展历史 。
#仙知机器人#移动机器人定位技术—激光SLAM
文章图片
相较于深度学习、神经网络、大数据等热门词汇 , 听过SLAM的人少之又少 , 是因为国内从事相关研究的机构更是屈指可数 。 直至2015年左右 , SLAM才逐渐成为国内机器人和计算机视觉领域的热门研究方向 , 在当前较为热门的领域崭露头角 。
本文仅对没有接触过SLAM的新人进行的科普 。
近年来 , 移动机器人技术在世界范围内得到快速发展 。 人们致力于把移动机器人应用于各种场景中 , 从室内外搬运机器人 , 到服务型机器人 , 再到工业机器人等 , 移动机器人的运用都得到了巨大突破 。
#仙知机器人#移动机器人定位技术—激光SLAM
文章图片
在移动机器人研究中一个最关键的技术就是即时定位和建图 , 也就是所谓的SLAM技术 。 SLAM它试图解决这样的问题:一个机器人在未知的环境中运动 , 如何通过对环境的观测确定自身的运动轨迹 , 同时构建出环境的地图 。
#仙知机器人#移动机器人定位技术—激光SLAM
文章图片
SLAM技术正是为了实现这个目标涉及到的诸多技术的总和 。 由于其重要的理论与应用价值 , 被很多学者认为是实现真正全自主移动机器人的关键 。
SLAM系统一般分为五个模块:传感器数据、视觉里程计、后端、建图及回环检测 。
传感器数据:主要用于采集实际环境中的各类型原始数据 。 包括激光扫描数据、视频图像数据、点云数据等 。
【#仙知机器人#移动机器人定位技术—激光SLAM】视觉里程计:主要用于不同时刻间移动目标相对位置的估算 。 包括特征匹配、直接配准等算法的应用 。
后端:主要用于优化视觉里程计带来的累计误差 。 包括滤波器、图优化等算法应用 。
建图:用于三维地图构建 。
回环检测:主要用于空间累积误差消除
其工作流程大致为:
传感器读取数据后 , 视觉里程计估计两个时刻的相对运动(Ego-motion) , 后端处理视觉里程计估计结果的累积误差 , 建图则根据前端与后端得到的运动轨迹来建立地图 , 回环检测考虑了同一场景不同时刻的图像 , 提供了空间上约束来消除累积误差 。
目前 , SLAM(即时定位与地图构建)技术主要被运用于无人机、无人驾驶、机器人、AR、智能家居等领域 。
按照核心的功能模块来区分 , 目前常见的移动机器人SLAM系统一般具有两种形式:基于激光雷达的SLAM(激光SLAM)和基于视觉的SLAM(VisualSLAM或VSLAM) 。
激光SLAM脱胎于早期的基于测距的定位方法(如超声和红外单点测距) 。 激光雷达(LightDetectionAndRanging)的出现和普及使得测量更快更准 , 信息更丰富 。
激光雷达采集到的物体信息呈现出一系列分散的、具有准确角度和距离信息的点 , 被称为点云 。 通常 , 激光SLAM系统通过对不同时刻两片点云的匹配与比对 , 计算激光雷达相对运动的距离和姿态的改变 , 也就完成了对机器人自身的定位 。
激光雷达距离测量比较准确 , 误差模型简单 , 在强光直射以外的环境中运行稳定 , 点云的处理也比较容易 。 同时 , 点云信息本身包含直接的几何关系 , 使得机器人的路径规划和导航变得直观 。 激光SLAM理论研究也相对成熟 , 落地产品更丰富 。
#仙知机器人#移动机器人定位技术—激光SLAM
文章图片
视觉SLAM主要通过摄像头来实现 。 摄像头品类繁多 , 主要分为单目、双目、单目结构光、双目结构光、ToF几大类 。 基于深度摄像机的V-SLAM , 跟激光SLAM类似 , 通过收集到的点云数据 , 能直接计算障碍物距离;基于单目、鱼眼相机的V-SLAM方案 , 则利用多帧图像来估计自身的位姿变化 , 再通过累计位姿变化来计算距离物体的距离 , 并进行定位与地图构建 。