主要内容

在Simulink中利用合成雷达和视觉数据进行传感器融合万博1manbetx

这个例子展示了如何在Simulink®中使用自动驾驶工具箱™实现跟踪和传感器融合的合成数据仿真。万博1manbetx它紧随着基于合成雷达和视觉数据的传感器融合MATLAB®示例。

介绍

模拟合成雷达和视觉检测提供了制造罕见和潜在危险事件的能力,并使用它们测试车辆算法。这个例子涵盖了Simulink中的整个合成数据工作流。万博1manbetx

模型的设置和概述

在运行此示例之前,驾驶场景设计师应用程序用于创建相同的方案基于合成雷达和视觉数据的传感器融合.然后将此方案的道路和演员保存到场景文件中OpenLoop.mat

场景的读者块从已保存的文件读取actor构成数据。该街区将演员与情景的世界坐标姿势转换为自我车辆坐标。演员姿势在块生成的总线上流式传输。

动作位姿由传感器仿真子系统使用,生成合成雷达和视觉检测。仿真检测连接在多目标跟踪器块的输入端,其输出是已确认的轨迹列表。最后,鸟瞰镜将演员、视觉和雷达探测、确认的轨迹和道路边界可视化。下面的部分描述了这个模型的主要部分。

模拟传感器检测

在这个例子中,您模拟一个ego车辆,它有6个雷达传感器和2个视觉传感器,覆盖360度视野。传感器存在一定的重叠和覆盖间隙。ego车辆在前部和后部都配备了远程雷达传感器和视觉传感器。车辆的每一侧都有两个近程雷达传感器,每个覆盖90度。两侧各有一个传感器,覆盖车辆的中部到尾部。两侧的另一个传感器从车辆的中间向前覆盖。

当您打开传感器仿真子系统时,可以看到两者视觉检测发电机块,配置为从自我车辆的前面和后面产生检测。视觉检测发生器的输出连接到检测替补块。接下来,子系统包含六个雷达检测发电机块,配置如前一段所述。雷达探测发生器的输出被连接起来,然后使用检测聚类块进行聚类。

跟踪与传感器融合

来自视觉和雷达传感器的检测必须首先连接起来,形成一个单一的输入多目标跟踪块。Concatenation使用一个额外的Detection Concatenation块完成。

多目标跟踪器模块负责融合来自所有检测的数据,并跟踪自我车辆周围的目标。多目标跟踪器的参数配置与相应的MATLAB例子中使用的相同,基于合成雷达和视觉数据的传感器融合.多目标跟踪器块的输出是一个确认轨道的列表。

创建和传播公共汽车

此示例中各种块的输入和输出都是全部万博1manbetx仿真软件。公共汽车(万博1manbetx模型)对象。为了简化编译模型并创建了公共汽车,所有的视觉检测发电机,雷达探测发电机,多目标跟踪器,和检测级联块具有一个属性,该属性定义了输出总线名称的来源。设置到“汽车”,总线自动创建,并将其名称传播到将该总线作为输入的块传播。设置到“属性”,您可以定义输出总线的名称。以下图像显示了检测总线,单个检测总线,轨道总线和单个轨道总线。

显示

鸟瞰的范围是一个可以从Simulink工具条打开的模型级可视化工具。万博1manbetx在模拟选项卡,在审查结果, 点击鸟瞰的范围.打开作用域后,单击找到信号来设置信号。然后运行模拟以显示角色、视觉和雷达探测、轨迹和道路边界。下面的图片显示了这个例子的鸟瞰图。

另请参阅

应用程序

对象

功能

相关话题