看到前面的路

全自动、自动驾驶汽车之路


在1939年的纽约世界博览会(New York World’s Fair)上,通用汽车(General Motors)展示了支持智能高速公路和自动驾驶汽车的未来世界愿景。万博1manbetx尽管80多年后,这个梦想还没有实现,但自动驾驶汽车技术已经取得了长足的进步。传感器网络——包括可以读取道路和交通标志的摄像头,可以感知附近路沿的超声波,可以看到200米或更多距离的激光雷达,以及测量距离和速度的雷达——正在开发中,以帮助司机。与人工智能相结合,这些技术可以帮助司机停车、倒车、刹车、加速和转向;检测车道边界;甚至还能防止昏昏欲睡的司机在开车时打瞌睡。

2018年,美国有近3.6万人死于交通事故,其中超过90%的事故是人为失误造成的。

虽然这些进步还没有完全取代坐在驾驶座上的人,但这样做可以挽救生命。根据美国国家公路交通安全管理局(National Highway Traffic Safety Administration)的最新数据,2018年美国有近36000人死于交通事故,其中90%以上是人为失误造成的。在过去十年中,行人死亡人数增加了35%,达到每年6000多人。车辆感知技术能够比人类更好地“看到”周围环境并做出更快的反应,可以显著减少伤亡。

虽然人们一致认为,感知技术将超越人类看到和感知驾驶环境的能力,但这只是共识的一部分。汽车行业尚未就一项将引领我们进入无人驾驶汽车时代的技术达成共识。事实上,解决方案可能需要不止一个。以下是三家致力于提升汽车感知能力的科技公司,它们将引领全自动、自动驾驶汽车的未来。

“我们专注于远程和高分辨率,这是汽车雷达最困难的问题。”

Abdullah Zaidi,Metawave工程总监

波束控制雷达

从20世纪早期开始,雷达就被用来帮助船只和飞机导航。它能够检测和识别目标,并在复杂条件下提供准确的速度信息,是自动驾驶的理想选择。

加州的工程师Metawave正在挑战雷达的极限,以识别其他汽车、行人、静止的环境、道路危险,以及在所有天气条件下和黑夜中的更多情况。它的模拟雷达平台,称为SPEKTRA™,形成一个狭窄的波束,并引导它在毫秒内检测和分类物体。Metawave的工程总监阿卜杜拉·扎伊迪(Abdullah Zaidi)表示,他们的技术是汽车领域分辨率最高的模拟雷达。它可以看到250米外的行人,并识别330米外的车辆。

它还可以精确测量两个物体之间的小距离,这被称为角分辨率,这使雷达能够区分一个物体和另一个物体。扎伊迪说:“这不是目前雷达所能做到的。”

Metawave利用机器学习和人工智能构建了一个模拟波束控制雷达系统。图片来源:Metawave公司

SPEKTRA扫描环境的方式也不同。与一次捕获所有信息的传统数字雷达系统不同,Metawave的雷达类似于照亮场景的强大闪光灯,其工作原理更像是一束激光,一次可以看到空间的一个特定部分。光束迅速扫过环境,在几毫秒内检测并分类车辆视野中的所有物体。Metawave的方法增加了距离和精度,同时减少了干扰和杂波的概率,所有这些都只需要很少的计算开销。“我们专注于远程和高分辨率,这是当今汽车雷达最难解决的问题,”Zaidi说。

Metawave工程师使用MATLAB®测试SPEKTRA雷达的距离和分辨率,并创建处理雷达输出的底层算法。该技术使汽车具备了左转辅助、盲点监控、自动紧急制动、自适应巡航控制、车道辅助等自动驾驶功能。

智能激光雷达

首批自动驾驶汽车是由美国国防部高级研究计划局(DARPA)赞助的一项竞赛的一部分,其中一些汽车使用了基于激光的系统来“观察”环境。光探测和测距(激光雷达)传感系统每秒发射数千个光脉冲,这些光脉冲被周围的物体反射回车辆。在那里,计算机使用每个被称为体素的数据点来重建环境的三维图像,并最终控制汽车的移动。

iDAR将航空航天和国防工业的强大传感能力引入汽车市场。图片来源:AEye公司

然而,激光雷达很昂贵,每辆车的成本超过7万美元。单独使用它有其局限性。恶劣的天气会干扰信号,所以它通常与其他传感技术结合,如相机、雷达或超声波。但是,这可能会产生大量的冗余和无关的信息,中央计算机必须对这些信息进行解析埃耶总部位于加州都柏林。

“我们的最终目标是开发一个与人类一样好或更好的感知系统。”

Barry Behnken,AEye联合创始人兼高级副总裁

那里的工程师将激光雷达与高分辨率摄像机融合在一起,从而提高了激光雷达的性能。他们的系统称为iDAR,用于智能探测和测距,创建了一种新型的数据点,将数码相机的高分辨率像素与激光雷达的三维体素相结合。他们称这些点为动态像素。由于激光脉冲和摄像机通过同一光圈收集光学信息,因此数据流被集成并可同时分析,从而节省时间和处理能力。

与传统的激光雷达系统不同的是,激光雷达系统在整个环境中对场景进行同等扫描,iDAR调整其光脉冲模式,以给予场景的关键区域更多的关注。脉冲的方向由AEye的计算机视觉算法决定。他们首先分析相机数据,搜索和检测物体的边缘,然后立即用高分辨率激光雷达扫描定位,分类,跟踪,并预测这些物体的运动。工程师使用MATLAB来确保算法尽可能使用最佳、最有效的光脉冲模式来扫描场景。

Behnken说:“我们正试图在传感器端进行尽可能多的感知,以减少车辆中央计算机端的负载。”。他说,更快地捕获更好的信息可以获得更准确的感知,同时比传统解决方案使用更少的激光功率。“我们的最终目标是开发一个与人类一样好或更好的感知系统,”他说。万博 尤文图斯

选择性地分配额外的激光雷达拍摄运动物体周围的照片,iDAR能够对这些物体进行分类,并计算方向和速度。图片来源:AEye公司

热浪

激光雷达、雷达和摄像机技术的进步将帮助自动驾驶技术走向未来。但是没有一个传感器可以单独完成这项工作。公司副总裁兼首席技术官Gene Petilli说:“他们各有长处,也各有弱点。Owl自主成像该公司总部位于纽约费尔波特(Fairport)。

佩蒂利说,传统的激光雷达非常精确,但雪、雨和雾降低了它区分有生命物体和无生命物体的能力。另一方面,传统的雷达可以穿透积雪,在远距离上表现出色,可以判断物体的相对速度,但仅靠它无法分辨这些物体是什么。摄像机不仅可以识别交通信号灯和路标,还可以识别交通信号灯和路标,但眩光会影响质量,在夜间,它们只能看到前照灯所照亮的东西。

来自猫头鹰AI原型的热成像。观看原型系统的完整视频.视频来源:猫头鹰自主成像

“在无人驾驶汽车比人类司机更安全之前,它们不会被公众接受。”

Gene Petilli, Owl AI的副总裁兼首席技术官

Petilli说:“关键在于选择一套没有相同弱点的传感器。”

Owl AI团队用3D热成像技术填补了这一空白,该技术可以感知人和动物发出的热信号,极大地简化了物体分类。该公司的传感器被称为热测距™,是一种被动系统,这意味着它不需要发射能量或光,直到它反射回来,它可以接收活物体的红外热。它能看到400米外的物体,无论它是移动的还是静止的,无论白天还是黑夜,无论在任何天气条件下,并能计算出100米外物体的3D范围和速度。

该装置由一个主镜头组成,与普通相机的主镜头类似,再加上一排位于主镜头和探测器之间的非常小的镜头。该阵列将场景分解成一系列图像,每个图像从不同的角度观察感兴趣的物体。一种算法通过测量图像之间的细微差别来计算物体的距离。

佩蒂利说,该公司正在使用MATLAB来完善该系统。因为他们试图测量微透镜阵列中元素之间的微小差异,所以透镜中的任何变形都会在距离计算中产生误差。因此,他们在MATLAB中对整个系统进行建模,以完善校正镜头畸变的算法。他们还进行驾驶模拟,以训练生成3D热图像的深度神经网络AI算法。深度学习将用于评估神经网络算法,以将马赛克图像转换为3D地图。

佩蒂利说:“除非自动驾驶汽车比人类驾驶汽车更安全,否则它不会被公众接受。”。

加强安全

车辆感知技术是提供安全的自动驾驶体验的关键。为了实现全自动、自动驾驶汽车的承诺,科技公司正在使用人工智能和计算机视觉来帮助汽车看到和感知周围的环境。尽管全自动汽车还不是常态,但这些公司正在改善新车的安全系统,拉近我们的距离。