主要内容

Simulink中基于合成雷达和视觉数据的传感器融合万博1manbetx

此示例显示了如何使用自动驾驶工具箱在Simulink®中实现跟踪和传感器融合的合成数据模拟™. 它紧随其后万博1manbetx基于合成雷达和视觉数据的传感器融合MATLAB®示例。

介绍

模拟合成雷达和视觉检测提供了创建罕见和潜在危险事件并用它们测试车辆算法的能力。此示例涵盖Simulink中的整个合成数据工作流。万博1manbetx

模型的设置和概述

在运行此示例之前驾驶场景设计器应用程序用于创建中定义的相同场景基于合成雷达和视觉数据的传感器融合。然后将此场景中的道路和参与者保存到场景文件中OpenLoop.mat.

这个场景阅读器block从保存的文件中读取演员姿势数据。block将演员姿势从场景的世界坐标转换为ego车辆坐标。演员姿势通过block生成的总线传输。

传感器模拟子系统使用演员姿势,生成合成雷达和视觉检测。模拟检测在多目标跟踪器块的输入端串联,其输出为已确认轨迹的列表。最后,鸟瞰镜显示了参与者、视觉和雷达探测、确认的轨迹和道路边界。以下各节介绍了该模型的主要模块。

模拟传感器检测

在本例中,您模拟了一辆ego车辆,该车辆具有6个雷达传感器和2个视觉传感器,覆盖360度视野。传感器有一些重叠和一些覆盖间隙。ego车辆在车辆前部和后部均配备远程雷达传感器和视觉传感器。车辆两侧各有两个短程雷达传感器,每个传感器覆盖90度。两侧各有一个传感器,从车辆中部到后部。两侧的另一个传感器从车辆中间向前覆盖。

当您打开传感器模拟子系统时,您可以看到视觉检测发生器模块,配置为从车辆前部和后部生成检测。视觉检测生成器的输出连接到检测级联接下来,子系统包含六个雷达探测发生器如前一段所述配置的块。雷达检测生成器的输出被串联,然后使用检测聚类块进行聚类。

跟踪与传感器融合

视觉传感器和雷达传感器的检测必须首先连接起来,以形成对传感器的单一输入多目标跟踪器连接是使用附加的检测连接块完成的。

多目标跟踪器模块负责融合所有检测的数据,并跟踪车辆周围的目标。多目标跟踪器的配置参数与相应MATLAB示例中使用的参数相同,基于合成雷达和视觉数据的传感器融合. “多对象跟踪器”块的输出是已确认轨迹的列表。

创建和传播总线

本例中各个模块的输入和输出均为万博1manbetx模拟总线(万博1manbetxSimulink)对象。为了简化编译模型和创建总线,所有视觉检测生成器、雷达检测生成器、多对象跟踪器和检测连接块都有一个属性,该属性定义输出总线名称的来源。当设置为“自动”,总线将自动创建,并将其名称传播到使用此总线作为输入的块。当设置为“财产”,您可以定义输出总线的名称。下图显示了检测总线、单个检测总线、轨道总线和单个轨道总线。

陈列

这个鸟瞰镜是一个模型级可视化工具,可以从Simulink toolstrip打开。上万博1manbetx模拟选项卡,在下面审查结果点击鸟瞰镜. 打开作用域后,单击寻找信号设置信号。然后运行模拟以显示参与者、视觉和雷达检测、轨迹和道路边界。下图显示了此示例的鸟瞰范围。

另见

应用程序

阻碍

物体

功能

相关话题