浅析自动驾驶汽车激光雷达和摄像头的应用

2025/4/10 来源:不详

作者:沈克强来源:人工智能学习圈近年来,随着人工智能产业的快速发展,智能汽车行业快速迭代,出现了以谷歌、waymo、特斯拉、百度等一大批造车新势力。本文通过对激光雷达和摄像头的研究,解环境感知和定位在自动驾驶中的重要作用,可作为自动驾驶的辅助参考资料。I无人驾驶环境感知和定位感知、决策、控制是自动驾驶的三个必不可少的环节,感知环节采集周围环境的基本信息,也是无人驾驶的基础环节。环境感知是无人驾驶车辆与外界环境交互的纽带,其关键作用在于帮助自动驾驶汽车实现人类驾驶员所具备的观测能力,从而观测周围环境的变化。同样的,和人类驾驶员一样,无人驾驶汽车需要知道他目前所处的位置,不仅仅包括自身的基础坐标数据,还包括航向、速度等信息。为了进行位置转换,就必须在车辆自身坐标和地面坐标之间不断转化,从而将定位精度控制在10厘米以内的误差范围。

无人驾驶环境感知的方法无人驾驶汽车通过遍布车辆周围的传感器来感知物理环境,传感器对周围环境进行采集和处理,包括无人驾驶汽车本身的状态信息和周围的交通信息。目前主流的传感器配置方案分为两大类,一种是以特斯拉为主的图像识别传感系统,还有一种是以谷歌为主的雷达传感系统。汽车传感器和人类驾驶员同样存在盲区,这些盲区随着车辆的运动会不断发生变化,从而导致车辆运行变得不安全。为了避免这种状况的发生,通过组合使用各类传感器实现多传感器融合,可以缩小汽车盲区的范围,提高车辆的安全性。两年前的美国3.18自动驾驶致人死亡事故是整个自动驾驶行业发展中最严重的一次事故,在优步自动驾驶车辆发生事故之前的5.8秒内,车辆就已经检测到了行人,但是车辆系统并未正确处理这一信息,最终导致了事故的发生,从而向业界发出警告,环境感知的可靠和数据处理的稳定对于自动驾驶行业来说至关重要。

无人驾驶定位的方法无人驾驶汽车的定位主要包括GNSS-RTK、惯性导航、Lidar定位、视觉定位四种定位方式。其中GNSS-RTK差分定位主要依托广泛遍布世界的给GPS信号系统,为了避免GPS定位产生的误差,使用了实时运动定位(RTK)方式,通过若干地面基站测量GPS定位,将测出来的数据与自身位置进行对比,从而得到准确的定位信息。虽然GNSS-RTK实现了厘米级定位,但是在某些特定环境(例如森林、涵洞、隧道等),GPS的信号会完全失效。惯性导航(IMU)主要依靠陀螺仪,三轴陀螺仪的三个外部平衡环一直在旋转,但其旋转轴始终固定在世界坐标系中,计算车辆在坐标系中的位置是通过测量旋转轴和三个外部平衡环的相对位置来计算的。加速度计和陀螺仪是惯性测量单元(或IMU)的主要组件,IMU的主要特征在于高频更新,更新速度达到赫兹,所以IMU所提供的位置几乎是实时位置信息,但是随着运动的发生,数据延迟会大大增加。利用激光雷达可以通过点云匹配来给车给汽车进行定位,该方法来自于激光雷达的检测数据与高精度地图连续匹配,通过这种匹配可以获得汽车在高精度地图上的全球位置及行驶方向。相比以上几种定位方式,视觉定位是最经济的定位方式。图像数据是收集最容易的数据,摄像头便宜且种类繁多,还易于使用,但要用摄像头来实现高精度定位是很困难的。Ⅳ 激光雷达和摄像头的融合应用激光雷达又称光学雷达(LiDAR,LightDetectionAndRanging),是一种先进的光学遥感技术。可以用于测量物体距离和表面形状,其测量精度可达厘米级。车载摄像头的工作原理,首先是采集图像,将图像转换为二维数据;然后,对采集的图像进行模式识别,通过图像匹配算法识别行驶过程中的车辆、行人、交通标志等。相比其他传感器,尽管无人车上配置的摄像头采集的数据量远大于LiDAR产生的数据量,但可以获得最接近人眼获取的周围环境信息。通过激光雷达和摄像头的融合应用,其实相当于是激光雷达发挥激光雷达的优势,摄像头发挥摄像头的优势,他们在某些地方是做得不够好,需要两个传感器甚至多个传感器信息进行底层的融合。多传感器信息融合是20世纪80年代出现的一门新兴学科,它是将不同传感器对某一目标或环境特征描述的信息,综合成统一的特征表达信息及其处理的过程。多传感器信息融合实际上是对人脑综合处理复杂问题的一种功能模拟。数据融合需要借助融合算法,融合算法可分为随机类和人工智能类两大类,随机类多传感器数据融合方法主要有:贝叶斯推理、D-S证据理论,以及包括最大似然估计、综合平均法、贝叶斯估计、D-S法、最优估计、卡尔曼滤波、鲁棒估计等估计理论。数据融合包括Harmonize、Reconcile、Integrate、Synthesize四种方式。假设有两种不同的传感器,称它们为传感器X和传感器Z。它们都能够感知自动驾驶汽车的外部世界。在现实世界中存在一个物体,这个物体可能是人,也可能是车,甚至是一条狗,传感器X和传感器Z都能够检测到这个物体。这就意味着传感器对这个物体进行了双重检测,这种双重检测意味着两种不同类型的传感器都有关于该物体的数据报告,对于该物体有两个维度不同地认知。假设,传感器X表示该物体高6英尺,宽2英尺;传感器Z表示该物体以每秒3英尺的速度正朝着自动驾驶车辆方向移动。结合两个传感器采集到的数据,就可以得出一条相对准确的信息:有一个高约6英尺,宽2英尺的物体正在以每秒钟3英尺的速度移动。假设这两自动驾驶汽车上只安装了X传感器,那么就无法得知该物体的大小;若Z传感器坏了,那么就只有物体的大小信息,无法检测该物体的运动状态。这也就是最近业内广泛讨论的“在自动驾驶汽车上应该安装哪些传感器”的问题。在同一个视场(FieldofView,FOV)内,假设传感器X探测到一个物体,而传感器Z没有探测到。注意,这与物体完全在传感器Z的FOV之外的情况有很大的不。一方面,系统会认为传感器X是正确的,Z是错误的,可能是因为Z有故障,或者有模糊探测,或者是其他的一些什么原因。另一个方面,也许传感器X是错误的,X可能是报告了一个“幽灵”(实际上并不存在的东西),而传感器Z报告那里没有东西是正确的。假设我们有两个物体a和b,分别在传感器X和传感器Z的视场FOV内(a在X视场内,b在Z视场内)。也就是说,Z无法直接检测到a,X也无法直接检测到b。目前,想要实现的效果是,能否将X和Z的报告整合在一起,让它们在各自的视场内探测物体同时,判断是否为X视场中的物体正在向Z视场移动,预先提醒Z将有物体进入探测区域。第四种方法Synthesize是将感知数据融合在一起,你可能会遇到这样的情况,传感器X和传感器Z都没有在各自的视场内探测到物体。在这种情况下,没有传感器知道这个物体的存在,但是可以通过一些其他的感观数据,比如声音,间接地弄清楚在视场之外的物体情况。自动驾驶汽车是时刻运动的,所以要求这种预判是瞬间发生的。Ⅴ传感器的布置方案研究根据上文所述,环境传感器配置在某些特定环境下还有很多安全隐患。例如,汽车在驶离高速服务区时,即将自动变道,我们设初速度V=60km/h,变道过程需要在3s之内完成;变道完成时需距离后方来车时距大于2s,后方来车车速V1=km/h;为确保变道安全,先后车距离至少为:一般后向24HZ毫米波雷达的探测距离为60m,因此m是危险距离。若前后车距在此范围内,开始变道时,系统误判为符合变道条件。随着左后方车辆高速接近,自动变道过程中安全距离不足,本车中途终止变道,返回本车道继续行驶。这种情况会干扰其他车辆的正常驾驶,存在安全隐患,也会给本车的乘员带来不安全感。要解决这个极端场景下智能驾驶汽车自动变道的安全问题,可以考虑增加一个77GHz后向毫米波雷达,它的探测距离可以达到m以上,完全能满足这个场景中83m的探测距离要求。正向毫米波雷达一般布置在车辆中轴线,外露或隐藏在保险杠内部。雷达就的中心平面要求与路面基本平行,考虑雷达系统误差、结构安装误差、车辆载荷变化后,需保证与路面夹角的最大偏差不超过5°。另外,在某些特殊情况下,正向毫米波雷达无法布置在车辆中轴线上时,允许正Y向最大偏置距离为mm,偏置距离过大会影响雷达的有效探测范围。側向毫米波雷达侧向毫米波雷达在车辆四角呈左右对称布置,前侧向毫米波雷达与车辆行驶方向成45°夹角,后侧向毫米波雷达与车辆行驶方向成30°夹角,雷达波束的中心平面与路面基本平行,角度最大偏差仍需控制在5°以内。毫米波雷达的布置高度毫米波雷达在Z方向探测角度一般只有±5°,雷达安装高度太高会导致下盲区增大,太低又会导致雷达波束射向地面,地面反射带来杂波干扰,影响雷达的判断。因此,毫米波雷达的布置高度(即地面到雷达模块中心点的距离),Tm议在(满载状态)~mm(空载状态)之间。Ⅵ后记关于激光雷达和摄像头的综合应用,还在不断深入研究,只有将每个传感器的作用发挥到极致,才能使自动驾驶更加安全和稳定。原文链接:

转载请注明:
http://www.3g-city.net/gjyby/9255.html
  • 上一篇文章:

  • 下一篇文章:
  • 网站首页 版权信息 发布优势 合作伙伴 隐私保护 服务条款 网站地图 网站简介

    温馨提示:本站信息不能作为诊断和医疗依据
    版权所有2014-2024 冀ICP备19027023号-6
    今天是: