主要内容

在虚幻引擎环境中模拟视觉和雷达传感器

本示例展示了如何在Simulink®中使用Epic Games®的虚幻引擎®模拟环境实现跟踪和传感器融合的合成数据模拟。万博1manbetx它紧跟在Simulink中使用合成雷达和视觉数据的传感器融合万博1manbetx的例子。

简介

自动驾驶工具箱™提供了创作、模拟和可视化虚拟驾驶场景的工具。通过这些场景,您可以模拟罕见和潜在的危险事件,从场景中生成合成雷达和视觉检测,并使用合成检测来测试车辆算法。本例涵盖了在Simulink中使用3D仿真环境的整个合成数据工作流。万博1manbetx

模型的建立和概述

在运行这个例子之前,场景中的道路、参与者和轨迹是使用以下步骤创建的:

  1. 从道路的一部分中提取中心位置以编程方式定义道路布局三维场景,使用的技术介绍为虚幻引擎模拟选择路点

  2. 中创建一条道路驾驶场景设计它有这些提取的位置作为它的道路中心值。

  3. 定义道路上的多个移动车辆,其轨迹与中定义的场景中的轨迹相似在Simulink中使用合成雷达和视觉数据的传感器融合万博1manbetx

  4. 保存场景文件curved_road。mat,并使用Scenario Reader块将它们加载到模型中。

  5. 从Scenario Reader块中输出车辆的姿态,并将其转换为世界坐标。使用长方体到3D模拟块转换为3D车辆块所需的X、Y和偏航。

场景读取器块提供的参与者姿态被模拟三维车辆与地面跟踪块,在模拟的每个时间步骤中定义自我车辆、先导车辆和其他车辆的位置。

关闭;如果~ ispc错误([“3D模拟只支持微软”万博1manbetxchar (174),“窗口”char (174),“。”]);结束open_system (“SimulateSensorsIn3DEnvironmentModel”);

模拟传感器检测

在这个例子中,你模拟了一辆自我车辆,它的前保险杠上有一个视觉传感器,六个雷达传感器覆盖了整个360度视野。ego车辆在车辆的前部和后部都配备了一个远程雷达。车辆的每一侧有两个近程雷达,每个覆盖90度。两侧各有一个雷达,从车辆中间覆盖到后面。另一个雷达在每一边覆盖从车辆中间向前。

自我传感器子系统包含一个模拟三维视觉检测生成器街区和六号模拟三维概率雷达块,建模前面描述的传感器。雷达块的输出使用a连接检测连接块。在顶层模型中,雷达输出然后与视觉输出连接起来,以创建一个单一的检测流,由图像融合多目标跟踪块。

open_system (“SimulateSensorsIn3DEnvironmentModel /自我传感器”

概率雷达不仅“看到”演员的物理尺寸(例如,长、宽和高),而且对演员的物理尺寸也很敏感大小。一个物体的电尺寸称为它的雷达截面(RCS)。模型定义了模拟车辆的RCS模式模拟三维概率雷达配置块。

使用此块为模拟中的所有参与者定义RCS模式。没有指定RCS模式的任何参与者都使用默认的RCS值。

跟踪与传感器融合

由自我车辆的雷达套件生成的检测在它们被融合之前使用辅助检测聚类块进行预处理多目标跟踪块。多目标跟踪器配置的参数与相应的Simulink示例中使用的参数相同,万博1manbetx在Simulink中使用合成雷达和视觉数据的传感器融合万博1manbetx.多对象跟踪器块的输出是一个已确认的跟踪列表。

显示

鸟瞰的范围是Simulink中的模型级可视化工具,可从Simulink工具条打开。万博1manbetx打开作用域后,单击找到信号设置信号。然后运行模拟以显示自我actor、雷达和视觉检测以及轨道。下面的图像显示了这个示例的作用域的显示。

当模拟开始时,需要几秒钟来初始化虚幻引擎模拟环境,特别是在第一次运行它时。初始化完成后,模拟环境将在一个单独的窗口中打开。下图是模拟窗口的快照,对应于前一张图中所示的鸟瞰瞄准镜的快照。

模拟车辆显示在模拟窗口中。由模拟生成的探测和轨迹只出现在鸟瞰瞄准镜中。

总结

在本例中,您学习了如何从3D场景中提取道路中心,以便在驾驶场景设计器应用程序中使用。您还学习了如何导出从道路段创建的车辆轨迹,以便在Simulink中的3D仿真环境中使用。万博1manbetx然后,您学习了如何在虚幻引擎环境中配置概率相机模型和多个概率雷达模型,以及如何使用多目标跟踪器融合位于自我车辆周边的多个传感器的检测。跟踪器生成的确认轨迹可以用于控制算法,如自适应巡航控制(ACC)或向前碰撞警告(FCW)。

close_system (“SimulateSensorsIn3DEnvironmentModel”);

另请参阅

应用程序

相关的话题