视觉激光雷达信息融合与联合标定( 三 )


视觉激光雷达信息融合与联合标定
本文插图
下面是目标检测的效果:
视觉激光雷达信息融合与联合标定
本文插图
视觉激光雷达信息融合与联合标定
本文插图
可以看到 , 图像上检测出来的物体 , 基本都在3D场景下对应出来了 , 其中 , 不同的颜色代表不同的物体类别 。
不过 , 因为这个目标检测模型是针对于自动驾驶场景的 , 分类对象都是car,pedestrian,info signs等 , 而因为实验条件的原因我还没有来得及拿出去测试代码效果 , 就先在房间测试了一下 , 所以可以看到目标检测的框是有些没意义的东西 , 不过不影响验证信息融合效果 。
这个节点可以便于我们进行障碍物检测 , 因为视觉信息进行障碍物检测是要优于低线数激光雷达聚类的 , 但是视觉信息识别物体虽然准 , 却没有距离信息 , 激光雷达可以提供距离信息 , 因此 , 视觉和激光雷达二者结合 , 就可以获得障碍物的距离、类别以及位置了
5.2 points2image
这个是把点云投影到图像上 , 具体运行基本同理我就不说了 。
代码的具体效果如下所示:
视觉激光雷达信息融合与联合标定
本文插图
可以看到 , 点云基本是和图像是匹配的 。
这个节点的作用是可以帮助我们进行红绿灯识别或者其他info_sign识别 。 因为进行红绿灯检测最好是可以获取红绿灯在图像上的位置 , 即ROI , 然后再进行识别会容易很多 。 我们可以在事先建立好的场景语义地图中 , 加入红绿灯的位置 , 这样车辆到达该位置的时候就可以立刻找到红绿灯在图像上的ROI , 这样会优化info sign的检测 。 具体如下所示:
视觉激光雷达信息融合与联合标定
本文插图
六、总结
本文主要介绍了关于视觉和激光雷达进行信息融合相关内容 , 包括相机标定 , 摄像头与激光雷达联合标定 , 信息融合节点等等
利用激光雷达和视觉信息融合,我们可以结合二者的优点优化障碍物检测或交通标志的识别 , 以及优化其他相关任务等等 。
End
下载1:OpenCV-Contrib扩展模块中文版教程
下载2:Python视觉实战项目52讲
下载3:OpenCV实战项目20讲
交流群