看到前方的道路

全自动、自动驾驶汽车之路


在1939年的纽约世界博览会(New York World’s Fair)上,通用汽车(General Motors)展示了支持智能高速公路和自动驾驶汽车的未来世界愿景。万博1manbetx尽管80多年后,这个梦想还没有实现,但自动驾驶汽车技术已经取得了长足的进步。传感器网络——包括可以读取道路和交通标志的摄像头,可以感知附近路沿的超声波,可以看到200米或更多距离的激光雷达,以及测量距离和速度的雷达——正在开发中,以帮助司机。与人工智能相结合,这些技术可以帮助司机停车、倒车、刹车、加速和转向;检测车道边界;甚至还能防止昏昏欲睡的司机在开车时打瞌睡。

2018年,美国有近3.6万人死于交通事故,其中超过90%的事故是人为失误造成的。

尽管这些进步还没有完全取代人类驾驶,但这样做可以挽救生命。根据美国国家公路交通安全管理局的最新数据,2018年,美国有近3.6万人死于交通事故,其中超过90%的事故是人为失误造成的。在过去十年中,行人死亡人数上升了35%,达到每年6000多人。汽车感知技术能够比人类更好地“看到”周围环境,并做出更快的反应,这将大大减少伤亡。

虽然有一致认为,感知技术将超越人类的人类能力,从而达到驾驶环境,这就是协议结束的地方。汽车行业尚未达成一项技术的共识,这些技术将导致我们进入无人驾驶汽车时代。实际上,解决方案可能需要多个。以下是三家技术公司推进车辆感知,以迎来迎来完全自主的自动驾驶汽车的未来。

“我们专注于远程和高分辨率,这是汽车雷达最困难的问题。”

Abdullah Zaidi,工程师,Metawave主任

Beamsteering雷达

自20世纪初以来,雷​​达已被用来帮助船舶和飞机导航。它能够在复杂条件下检测和识别目标并提供准确的速度信息使其成为自主驾驶的理想选择。

加利福尼亚州的工程师metawave.正在挑战雷达的极限,以识别其他汽车、行人、静止的环境、道路危险,以及在所有天气条件下和黑夜中的更多情况。它的模拟雷达平台,称为SPEKTRA™,形成一个狭窄的波束,并引导它在毫秒内检测和分类物体。Metawave的工程总监阿卜杜拉·扎伊迪(Abdullah Zaidi)表示,他们的技术是汽车领域分辨率最高的模拟雷达。它可以看到250米外的行人,并识别330米外的车辆。

它还可以精确测量两个物体之间的小距离,这被称为角分辨率,这使雷达能够区分一个物体和另一个物体。扎伊迪说:“这不是目前雷达所能做到的。”

Metawave利用机器学习和人工智能构建了一个模拟波束控制雷达系统。图片来源:Metawave公司

Spektra扫描环境的方式也不同。与捕获所有信息的传统数字雷达系统不同,类似于强大的Flashbulb照明场景,Metawave的雷达更像是一次性的激光束,一次能够看到一个特定的空间部分。光束迅速扫描环境,检测和分类车辆在毫秒内的所有对象。Metawave的方法增加了范围和准确性,同时减少了干扰和杂乱的概率,所有这些都具有很少的计算开销。“我们专注于远程和高分辨率,这是今天在汽车雷达中解决的最难的问题,”Zaidi说。

Metawave工程师使用MATLAB®测试Spektra雷达的范围和分辨率,并创建处理雷达输出的底层算法。该技术为汽车提供自动驾驶功能,如左转辅助,盲点监控,自动应急制动,自适应巡航控制和车道辅助。

聪明的潮流乐

一些第一个自驾车是由美国国防高级研究项目局(DARPA)赞助的竞争的一部分,使用基于激光的系统来“见”环境。光检测和测距(LIDAR)感测系统每秒散发数千个脉冲,并反射围绕物体并反射回车辆。在那里,计算机使用称为体素的每个数据点来重建环境的三维图像,并最终控制汽车的移动方式。

iDAR将航空航天和国防工业的强大传感能力引入汽车市场。图片来源:AEye公司

然而,激光雷达很昂贵,每辆车的成本超过7万美元。单独使用它有其局限性。恶劣的天气会干扰信号,所以它通常与其他传感技术结合,如相机、雷达或超声波。但是,这可能会产生大量的冗余和无关的信息,中央计算机必须对这些信息进行解析AEye总部位于加州都柏林。

“我们的最终目标是开发一种与人类一样好甚至更好的感知系统。”

Barry Behnken,Cofounder和Aeye高级副总裁

那里的工程师通过将激光雷达与高分辨率摄像机融合,拥有先进的能力。他们的系统名为iDAR,用于智能探测和测距,创建了一种新型的数据点,它将数码相机的高分辨率像素与激光雷达的3D体素融合在一起。他们称这些点为动态像素。由于激光脉冲和摄像机通过同一个孔径采集光学信息,数据流被集成并可以同时进行分析,节省了时间和处理功率。

与传统的激光雷达系统不同的是,激光雷达系统在整个环境中对场景进行同等扫描,iDAR调整其光脉冲模式,以给予场景的关键区域更多的关注。脉冲的方向由AEye的计算机视觉算法决定。他们首先分析相机数据,搜索和检测物体的边缘,然后立即用高分辨率激光雷达扫描定位,分类,跟踪,并预测这些物体的运动。工程师使用MATLAB来确保算法尽可能使用最佳、最有效的光脉冲模式来扫描场景。

“我们正在尝试在传感器方面做出尽可能多的感知,以减少车辆中央计算侧的负荷,”Behnken说。他说,捕获更好的信息更快地导致更准确的感知,同时使用比传统解决方案更少的激光功率。万博 尤文图斯“我们的终极目标是制定一个像人类一样好或更好的感知系统,”他说。

通过选择性地分配额外的延期郎IDAR中的对象周围的镜头可以对这些对象进行分类并计算方向和速度。图片来源:AEye公司

热浪

激光雷达、雷达和摄像机技术的进步将帮助自动驾驶技术走向未来。但是没有一个传感器可以单独完成这项工作。公司副总裁兼首席技术官Gene Petilli说:“他们各有长处,也各有弱点。猫头鹰自治成像,总部设在纽约罗马波特。

Petilli说,传统的激光雷达非常精确,但雪、雨和雾降低了它分辨有生命物体和无生命物体的能力。另一方面,传统的雷达可以透过雪看到远处的物体,并且可以判断物体的相对速度,但它本身不能区分物体是什么。摄像头可以识别交通信号灯和路牌,但强光会影响图像质量,在晚上,它们只能看到前灯照亮的东西。

猫头鹰人工智能原型的热成像。观看原型系统的完整视频.视频来源:猫头鹰自主成像

“在无人驾驶汽车比人类司机更安全之前,它们不会被公众接受。”

Gene Petilli, Owl AI的副总裁兼首席技术官

“诀窍是选择一套没有同样弱点的传感器套件,”佩蒂利说。

Owl AI团队用3D热成像技术填补了这一空白,该技术可以感知人和动物发出的热信号,极大地简化了物体分类。该公司的传感器被称为热测距™,是一种被动系统,这意味着它不需要发射能量或光,直到它反射回来,它可以接收活物体的红外热。它能看到400米外的物体,无论它是移动的还是静止的,无论白天还是黑夜,无论在任何天气条件下,并能计算出100米外物体的3D范围和速度。

该装置由主要透镜制成,类似于常规相机中的发现,以及位于主透镜和检测器之间的非常小的镜片阵列。该阵列将场景分成了图像的马赛克,每一个看感兴趣的对象不同的角度。算法测量图像之间的微妙差异来计算对象的距离。

Petilli说,该公司正在使用MATLAB来完善这个系统。因为他们试图测量微透镜阵列中元素之间非常小的差异,透镜中的任何失真都会在距离计算中产生误差。因此,他们在MATLAB中对整个系统建模,以完善校正镜头失真的算法。他们还运行驾驶模拟来训练创建3D热图像的深度神经网络人工智能算法。深度学习将用于评估神经网络算法,将图像拼接成3D地图。

“在无人驾驶汽车比人类司机更安全之前,它们不会被公众接受,”Petilli说。

加强安全

车辆感知技术是提供安全的自动驾驶体验的关键。为了实现全自动、自动驾驶汽车的承诺,科技公司正在使用人工智能和计算机视觉来帮助汽车看到和感知周围的环境。尽管全自动汽车还不是常态,但这些公司正在改善新车的安全系统,拉近我们的距离。