一文详解激光雷达感知方案

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

文章导读


本文对不同类型激光雷达的数据进行分析,并且针对机械式激光雷达和混合固态激光雷达视场角不同,在中低速和高速场景下分别对比各自的感知方案。

目录

  • 激光雷达数据对比

  • 机械式雷达感知方案

  • 混合固态雷达感知方案

  • 总结

前沿:由于混合固态雷达相比机械式激光雷达成本较低,也没有旋转器件过不了车规等问题,所以逐渐得到市场上的认可。目前已经有不少主机厂采用混合固态或者固态雷达尝试做量产落地。激光雷达的应用可能是未来无人驾驶的一种发展趋势。

一、激光雷达数据对比

1. 机械式采样数据

机械式激光雷达在水平方向利用外部旋转部件达到360°的采样,垂直方向根据线束的不同,分辨率也不同。较常用的有16线激光雷达,32线激光雷达,64线激光雷达。下图是一张用Velodyne-16采集的点云图:

Velodyne-16每秒30万出点率,按照10赫兹的采样频率,每帧有30000个点;垂直视场角是30°,在室外场景如果水平安装与车顶,只有水平向下的七条激光线打到的点能有效返回,大约15000个有效点云可供后续感知算法使用。

2. 混合固态采样数据

混合固态激光雷达往往采用多棱镜式,将机械旋转的外部结构轻量化、小型化集成到内部,但是仍然有旋转器件。比如Livox激光雷达采样棱镜震荡的方式进行非重复扫描,视场覆盖率随时间推移而显著提高。如下图所示,从左往右随着积分时间越长,点密度越大:

下面有两张Livox不同产品的点云图:

上图是Horizon按照10FPS采样得到的点云,每帧24000个点,除去未反射回来的点,有效点云个数在21000+。

上图是MID-70按照10FPS采用得到的点云,每帧10000个点,除去未反射回来的点,有效点云个数在7000+。因为该产品非重复扫描,所以100ms采样的点云连续帧中物体点抖动严重。使用200ms的积分时间对感知算法较为稳定。

3. 固态激光雷达采样数据

固态激光雷达一般将旋转器件做到芯片中如MEMS方式,或者彻底取代旋转器件,如OPA或FLASH方式。其采样得到的高分辨率点云图密度很高,下图是一张MEMS固态激光雷达采样的点云图:

相比前两种激光雷达能够得到更多的目标特征信息。

由于机械式雷达的原理都一样,所以我们用速腾聚创的产品进行机械式雷达感知方案的分析(绝非打广告,只是资料相对多);混合固态雷达的感知方案本文采用览沃科技的产品做分析,因为小编工作上使用过他家的Horizon,MID-70,相对了解一些。

二、机械式雷达感知方案

速腾聚创的雷达产品包括机械式激光雷达,如RS-LiDAR-16、RS-LiDAR-32、RS-BPearl、RS-Ruby等;也包括固态激光雷达,如RS-LiDAR-M1。

采用以上激光雷达的组合可以提供应对中低速场景的LiDAR感知方案和应对高速场景的LiDAR感知方案。

1. 低速场景的激光雷达感知方案

1.1 硬件配置

采用单颗RS-LiDAR-16型号的16线激光雷达(或32线),安装在车顶前方。适用于低速近距离50以内的障碍物检测和跟踪。

1.2 系统方案

由于RS-LiDAR-16的垂直角分辨率是2°,导致中距离50米以外的两根扫描线间隔很大,通常提取不到目标的完整特征,所以仅适合做近处的目标识别,和中距离的障碍物检测跟踪。

1.3 方案评估

该低速方案配备单颗16线激光雷达在车身周围存在约5米左右的盲区(具体根据安装高度和倾斜角计算)。需配合其他传感器做一定的补充。

2. 高速场景的激光雷达感知方案一

2.1 硬件配置

采用一颗RS-LiDAR-32和两颗RS-LiDAR-16的激光雷达做融合,多激光雷达相互补盲,提高点云密度来确保系统冗余性和探测精度。适用于开发地图构建,实时定位、障碍物检测、目标识别、动态物体跟踪等多种功能。

2.2 系统方案

该方案将一颗32线激光雷达水平(略向下倾斜5°)安装与车顶用于中距离的感知,同时在左右两侧分别倾斜安装一颗16线激光雷达用于车身近处的补盲,具体安装如下图:

2.3 方案评估

该方案较好的解决了贴近车身侧面的视野盲区,并且车顶的那颗32线激光雷达水平向下倾斜5°用于减少车前方盲区范围。虽然车前后仍有少量视野无法覆盖,但是可用跟踪算法做一定的弥补。

3. 高速场景的激光雷达感知方案二

3.1 硬件配置

采用了一颗RS-Ruby和四颗RS-BPearl激光雷达做融合,进行全方位无死角覆盖。RS-Ruby是128线雷达可提供高分辨率的点云,如左图所示:测量距离可达到200m,可以在高速场景检测到远距离目标;RS-BPearl是短距离补盲雷达,如右图所示:垂直FOV高达90°。

3.2 系统方案

该方案将一颗RS-Ruby安装在车顶,用于360°中远距离的感知;在车身周围分别安装四颗RS-BPearl,利用其超广的视场角覆盖近距离盲区。具体安装如下图:

3.3 方案评估

该方案采用高线束雷达+补盲雷达的方案较好的解决了高速场景远距离障碍物点云稀疏以及近距离视野盲区的问题。缺点当时是贵。

三、(类)固态雷达感知方案

览沃科技的激光雷达均采用非重复式扫描的方式,相比传统机械旋转式激光雷达的重复式扫描,它可以随着积分时间的增加,获得更多的点云。其产品包括MID-40,HORIZON,TELE-15,MID-70,AVIA。根据它们的视场角和数据率,MID-40一般多颗组合使用,HORIZON偏向于做中距离的雷达感知,TELE-15偏向于做远距离的雷达感知,MID-70偏向于做补盲的功能。

1. 低速场景的激光雷达感知方案一

1.1 硬件配置

Horizon是一款类似矩形视场角,FOV等于81.7°×25.1°,采用横向扫描方式的激光雷达。搭载五颗Horizon可实现 360° 全视场覆盖。可用于做障碍物检测,识别,跟踪,建图,定位等功能。

1.2 系统方案

该方案在车头左中右三处分别安装一颗Horizon,用于感知左侧,前方,右侧的环境信息,在车尾左右两处分别安装一颗Horizon用于感知左后方和右后方的环境信息。如下图所示:

通过五颗水平视场角81.7°的激光雷达达到360°全覆盖。

此方案有一个早期版本,利用三颗MID-40组合成一个MID-100:

应该是出于三个MID-40加起来的水平视场角大于一颗Horizon水平视场角,并且车后方左右两颗Horizon重叠率略显不够的原因考虑,官方曾给出用两颗MID-100替代车后方两颗Horizon的方案:

当然多个雷达的数据融合始终没有一个雷达采样的数据精确,建议还是选用第一种方式。

1.3 方案评估

该方案从视场覆盖率角度确实达到了360°,但是车身左右两侧仍然存在小块盲区,当然这部分可以通过跟踪算法弥补掉。由于Horizon的有效检测范围在80米以内,所以只适合做中低速的感知方案。

2. 低速场景的激光雷达感知方案二

2.1 硬件配置

MID-70是一款圆形视场角在水平和垂直方向上均可达 70.4 °,近处盲区大幅度降至 5 厘米的激光雷达。更大视场角和更小盲区帮助机器人更全面探测周遭环境,及时避开细小障碍物,适用于物流车、机器人等低速场景。

2.2 系统方案

该方案在车辆正前方和车尾左右两边分别安装一颗MID-70用于前方和侧向补盲,由于MID-70的有效检测范围较短,如需增强前向环境感知能力,可在车前方左右两侧分别安装一颗Horizon用于中距离感知:

2.3 方案评估

该方案采用圆形视场角的MID-70补偿了贴近车身的盲区,尤其是增强型方案配合Horizon的中距离探测,较好的提供中低速场景的环境感知能力,唯一缺陷就是后向无法探测来车情况,如遇转弯,变道等情况较难应对。

3. 高速场景的激光雷达感知方案

3.1 硬件配置

Livox有一款专为远距离、高精度探测打造,可感知 500 米外的障碍物,且体积小巧、可靠性强的激光雷达Tele-15。可在高速行驶中为车辆带来更充裕的响应时间,保障安全。

虽然Tele-15的探测范围很远,但是其视场角只有14.5°×16.2°,所以在高速场景中往往与Horizon配合使用。产品属性如下:

3.2 系统方案

高速场景的感知通常都有对后向来车的探测需求,需要有360°全方位的覆盖,我们可以在上述中低速感知方案1的基础上采用五颗Horizon+一颗Tele-15的方式实现,将Tele-15安装在车顶前方用于探测远距离障碍物:

3.3 方案评估

该方案基本满足了远中近不同区域的探测,但是livox积分采样在高速场景下存在目标拖影的问题,即使是100ms的积分时间,高速运动的小汽车也可能在一帧数据中被拉伸成一辆小型卡车,不同速度造成的物体形变是否可能通过DNN算法来泛化特征值得考量。

四、总结

本文介绍的几种激光雷达感知方案较为通用,将探测远距离的激光雷达+探测中距离激光雷达+补盲雷达配合使用。但是各家公司会根据实际需求和应用场景做相应的变化,比如针对低速场景,考虑成本问题也可用一颗MID-70置于车头,通过延长积分时间的方式增加点云密度,左右两侧安装超声波用于近距离探测等变体形式。

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近3000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

3D视觉工坊 CSDN认证博客专家 算法 3D视觉
个人公众号:3D视觉工坊。公众号特邀嘉宾及合伙人,先后就职于国内知名研究机构、自动驾驶公司、海康研究院,主要研究方向为深度学习、目标检测、语义分割、图像处理、自动驾驶感知算法等,CSDN博客专家。博主先后任职于国内知名研究院、知名大厂,致力于3D视觉算法、VLAM算法开发,涉及相机标定、手眼标定、结构光、点云后处理、三维重建等相关领域的研究,同时也是CSDN博客专家。3D视觉工坊坚持原创,近一年来输出了非常多的高质量文章,获得了粉丝的一致好评,我们将始终坚持走原创路线,打造一个铁杆粉丝的聚集区。
已标记关键词 清除标记
相关推荐
©️2020 CSDN 皮肤主题: 书香水墨 设计师:CSDN官方博客 返回首页
实付 49.90元
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值