展望未来

全自动、自动驾驶汽车之路


在1939年的纽约世界博览会(New York World’s Fair)上,通用汽车(General Motors)展示了支持智能高速公路和自动驾驶汽车的未来世界愿景。万博1manbetx尽管80多年后,这个梦想还没有实现,但自动驾驶汽车技术已经取得了长足的进步。传感器网络——包括可以读取道路和交通标志的摄像头,可以感知附近路沿的超声波,可以看到200米或更多距离的激光雷达,以及测量距离和速度的雷达——正在开发中,以帮助司机。与人工智能相结合,这些技术可以帮助司机停车、倒车、刹车、加速和转向;检测车道边界;甚至还能防止昏昏欲睡的司机在开车时打瞌睡。

2018年,美国有近3.6万人死于交通事故,其中超过90%的事故是人为失误造成的。

尽管这些进步还没有完全取代人类驾驶,但这样做可以挽救生命。根据美国国家公路交通安全管理局的最新数据,2018年,美国有近3.6万人死于交通事故,其中超过90%的事故是人为失误造成的。在过去十年中,行人死亡人数上升了35%,达到每年6000多人。汽车感知技术能够比人类更好地“看到”周围环境,并做出更快的反应,这将大大减少伤亡。

虽然人们一致认为,感知技术将超越人类看到和感知驾驶环境的能力,但这只是共识的一部分。汽车行业尚未就一项将引领我们进入无人驾驶汽车时代的技术达成共识。事实上,解决方案可能需要不止一个。以下是三家致力于提升汽车感知能力的科技公司,它们将引领全自动、自动驾驶汽车的未来。

“我们专注于远程和高分辨率,这是汽车雷达最困难的问题。”

阿卜杜拉·扎伊迪,Metawave的工程总监

Beamsteering雷达

从20世纪早期开始,雷达就被用来帮助船只和飞机导航。它能够检测和识别目标,并在复杂条件下提供准确的速度信息,是自动驾驶的理想选择。

工程师在加州Metawave正在挑战雷达的极限,以识别其他汽车、行人、静止的环境、道路危险,以及在所有天气条件下和黑夜中的更多情况。它的模拟雷达平台,称为SPEKTRA™,形成一个狭窄的波束,并引导它在毫秒内检测和分类物体。Metawave的工程总监阿卜杜拉·扎伊迪(Abdullah Zaidi)表示,他们的技术是汽车领域分辨率最高的模拟雷达。它可以看到250米外的行人,并识别330米外的车辆。

它还可以精确测量两个物体之间的小距离,这被称为角分辨率,这使雷达能够区分一个物体和另一个物体。扎伊迪说:“这不是目前雷达所能做到的。”

Metawave利用机器学习和人工智能构建了一个模拟波束控制雷达系统。图片来源:Metawave公司

SPEKTRA扫描环境的方式也不同。传统的数字雷达系统可以一次性捕获所有信息,类似于一个强大的闪光灯照亮一个场景,Metawave的雷达更像一束激光,可以一次看到一个特定的空间区域。光束迅速扫过环境,在几毫秒内检测和分类车辆视野内的所有物体。Metawave的方法增加了距离和精度,同时减少了干扰和杂波的概率,所有这些都用很小的计算开销。“我们专注于远程和高分辨率,这是当今汽车雷达最难解决的问题,”扎伊迪说。

Metawave工程师使用MATLAB®测试SPEKTRA雷达的距离和分辨率,并创建处理雷达输出的底层算法。该技术使汽车具备了左转辅助、盲点监控、自动紧急制动、自适应巡航控制、车道辅助等自动驾驶功能。

智能激光雷达

首批自动驾驶汽车是由美国国防部高级研究计划局(DARPA)赞助的一项竞赛的一部分,其中一些汽车使用了基于激光的系统来“观察”环境。光探测和测距(激光雷达)传感系统每秒发射数千个光脉冲,这些光脉冲被周围的物体反射回车辆。在那里,计算机使用每个被称为体素的数据点来重建环境的三维图像,并最终控制汽车的移动。

iDAR将航空航天和国防工业的强大传感能力引入汽车市场。图片来源:AEye公司

然而,激光雷达很昂贵,每辆车的成本超过7万美元。单独使用它有其局限性。恶劣的天气会干扰信号,所以它通常与其他传感技术结合,如相机、雷达或超声波。但是,这可能会产生大量的冗余和无关的信息,中央计算机必须对这些信息进行解析AEye总部位于加州都柏林。

“我们的最终目标是开发一种与人类一样好甚至更好的感知系统。”

Barry Behnken, AEye联合创始人兼高级副总裁

那里的工程师通过将激光雷达与高分辨率摄像机融合,拥有先进的能力。他们的系统名为iDAR,用于智能探测和测距,创建了一种新型的数据点,它将数码相机的高分辨率像素与激光雷达的3D体素融合在一起。他们称这些点为动态像素。由于激光脉冲和摄像机通过同一个孔径采集光学信息,数据流被集成并可以同时进行分析,节省了时间和处理功率。

与传统的激光雷达系统不同的是,激光雷达系统在整个环境中对场景进行同等扫描,iDAR调整其光脉冲模式,以给予场景的关键区域更多的关注。脉冲的方向由AEye的计算机视觉算法决定。他们首先分析相机数据,搜索和检测物体的边缘,然后立即用高分辨率激光雷达扫描定位,分类,跟踪,并预测这些物体的运动。工程师使用MATLAB来确保算法尽可能使用最佳、最有效的光脉冲模式来扫描场景。

Behnken说:“我们正在尝试在传感器一侧进行更多的感知,以减少车辆中央计算一侧的负载。”他说,与传统的解决方案相比,在使用更少的激光功率的同时,更快地获取更好的信息将导致更准确的感知。万博 尤文图斯他说:“我们的最终目标是开发一种与人类一样好甚至更好的感知系统。”

通过有选择地分配额外的激光雷达拍摄运动物体周围的照片,iDAR能够对这些物体进行分类,并计算方向和速度。图片来源:AEye公司

热浪

激光雷达、雷达和摄像机技术的进步将帮助自动驾驶技术走向未来。但是没有一个传感器可以单独完成这项工作。公司副总裁兼首席技术官Gene Petilli说:“他们各有长处,也各有弱点。猫头鹰自治成像该公司总部位于纽约费尔波特(Fairport)。

Petilli说,传统的激光雷达非常精确,但雪、雨和雾降低了它分辨有生命物体和无生命物体的能力。另一方面,传统的雷达可以透过雪看到远处的物体,并且可以判断物体的相对速度,但它本身不能区分物体是什么。摄像头可以识别交通信号灯和路牌,但强光会影响图像质量,在晚上,它们只能看到前灯照亮的东西。

猫头鹰人工智能原型的热成像。观看原型系统的完整视频.视频来源:猫头鹰自主成像

“在无人驾驶汽车比人类司机更安全之前,它们不会被公众接受。”

Gene Petilli, Owl AI的副总裁兼首席技术官

Petilli说:“关键在于选择一套没有相同弱点的传感器。”

Owl AI团队用3D热成像技术填补了这一空白,该技术可以感知人和动物发出的热信号,极大地简化了物体分类。该公司的传感器被称为热测距™,是一种被动系统,这意味着它不需要发射能量或光,直到它反射回来,它可以接收活物体的红外热。它能看到400米外的物体,无论它是移动的还是静止的,无论白天还是黑夜,无论在任何天气条件下,并能计算出100米外物体的3D范围和速度。

该装置由一个主镜头组成,与普通相机的主镜头类似,再加上一排位于主镜头和探测器之间的非常小的镜头。该阵列将场景分解成一系列图像,每个图像从不同的角度观察感兴趣的物体。一种算法通过测量图像之间的细微差别来计算物体的距离。

Petilli说,该公司正在使用MATLAB来完善这个系统。因为他们试图测量微透镜阵列中元素之间非常小的差异,透镜中的任何失真都会在距离计算中产生误差。因此,他们在MATLAB中对整个系统建模,以完善校正镜头失真的算法。他们还运行驾驶模拟来训练创建3D热图像的深度神经网络人工智能算法。深度学习将用于评估神经网络算法,将图像拼接成3D地图。

“在无人驾驶汽车比人类司机更安全之前,它们不会被公众接受,”Petilli说。

加强安全

车辆感知技术是提供安全的自动驾驶体验的关键。为了实现全自动、自动驾驶汽车的承诺,科技公司正在使用人工智能和计算机视觉来帮助汽车看到和感知周围的环境。尽管全自动汽车还不是常态,但这些公司正在改善新车的安全系统,拉近我们的距离。