multinet用于自动驾驶的多模态多任务学习网络

AI菌 AI菌     2022-12-31     469

关键词:

本文发表于2019年的IEEE计算机视觉应用冬季会议上,是一篇有关自动驾驶领域多模态多任务网络应用的文章。本文将多模态学习与MTL(Multi-task Learning)相结合,提出了一种多行为模式下非结构化自动驾驶的新方法。


摘要

自动驾驶需要在不同的行为模式下运行,比如车道跟随、交叉路口转弯和停车。然而,现有的自主驾驶深度学习方法大多没有在训练策略中考虑行为模式。

本文描述了一种通过多模式多任务学习在单个深度神经网络中学习多个不同行为模式的技术。我们研究了这种名为 MultiNet 的方法的有效性,该方法使用自动驾驶模型车在人行道和未铺设的道路等非结构化环境中驾驶。使用我们的1/10比例模型车车队100多个小时的标记数据,我们训练了不同的神经网络,以预测不同行为模式下车辆的转向角和行驶速度。

我们的实验表明,在每种情况下,MultiNet 在使用参数总数的一小部分的情况下,优于在单个模式下训练的网络。

1. INTRODUCTION

本文将多模态学习与MTL相结合,提出了一种多行为模式下非结构化自主驾驶的新方法。在该方法中,MTL辅助任务由附加的推断速度和转向值组成,它们形成规划的轨迹。我们引入了多种不同的驾驶行为或行为模式,车辆可以在这些行为模式下操作。

我们的主要创新是使用行为模式作为网络的第二种输入,它与输入图像处理流连接在一起,以允许在单个多模式网络中形成单独的驾驶行为。

我们还提供了我们独特的1/10比例模型车在非结构化条件下行驶的数据集,例如人行道、小径和未铺设的道路。人行道驾驶数据集与解决交付中的最后一英里问题相关,对于这一问题,自动驾驶模型车被认为是一个可行的解决方案。此外,模型车的小尺寸允许对非典型驾驶行为进行安全实验,并收集涉及车辆制造和从错误中恢复的有价值的数据。

2. DATASET

我们的数据集包含在不同的地理、照明和天气条件下100多个小时的驾驶时间(图3)。该数据集包括来自各种传感器的连续记录数据流,包括立体图像、加速度计读数、GPS数据、转向位置和电机速度值。在本工作中仅使用原始立体图像、方向盘和马达速度值。表1将我们的数据集与现有的道路驾驶数据集进行了比较。


采集的数据集部分图样本如下:

3. METHODOLOGY

网络架构

为了进行推断,我们使用了NVIDIA Jetson TX1系统,并以20 Hz的频率运行我们称为Z2Color的自定义网络。该网络由两个卷积层组成,其后是两个完全连接的层,如下图所示。

在每一卷积层之后进行最大池化和批量归一化。Max Pooling使我们能够有效地降低维度,BN层阻止内部协变量移位。步幅和内核大小是通过多次训练和道路评估的经验发现的。卷积层被设计为用作特征提取层,而最终的完全连通层用作转向控制器。但是,网络是以端到端的方式进行培训的,因此我们没有将不同形式的处理隔离到网络的特定部分。

模态信息

从汽车收集数据时,除了电机、转向和图像数据外,我们还存储汽车正在运行的行为模式。我们已经训练了有行为信息插入和没有行为信息插入的网络,当添加行为信息时,网络更明显地显示出个人的模态行为。

没有这种模态信息的网络可能会明显地学习多个行为模式,但是需要大量的仔细训练才能将每个行为模态的过滤器分开。通过在处理流中添加模式信息,网络更容易为每个行为模式创建独立的过滤器。

行为信息被插入为三个通道的二进制张量,其中每个通道代表不同的行为模态。为了与通过卷积网络的图像连接,在空间维度中复制行为信息以形成大小为3x13x26的二进制张量。

网络中的行为模式信息插入点被选择在Z2Color中的第一卷积层之后,从而允许较早的卷积层概括输入数据的基本图像处理,而无需考虑单个模态的行为。

4. EXPERIMENTS

训练

为了训练我们的网络,我们使用了PyTorch深度学习框架。这些网络是使用Adadelta Optimizer进行训练的。用于训练和验证的损失函数是均方误差(MSE)损失。在训练阶段,对网络输出的所有值(即,遵循公式的所有十个时间步长)计算损失。

在验证过程中,使用了类似的MSE损失度量,不同之处在于该损失仅针对两个最终发动机和转向输出进行了计算,如所给出的:

每个网络都使用相同数量的数据进行训练。这些网络都是在同一个看不见的验证集上进行评估的。所有的实验都用随机初始化的网络和洗牌后的数据集重复了8次。这里的结果描述了这些试验的平均值,误差条代表95%的置信区间。

我们的均衡训练数据集包含大约193万个可用于训练和验证的数据时刻。10%的收集数据被保存在看不见的验证数据集中,用于网络评估。所有数据在训练和验证集中平均分配给每种模态。

多模态比较

在我们的初始实验中,我们将在直接、跟随和隐藏的多模式数据集中训练的多网络Z2Color网络与分别在直接、跟随和隐藏模式下训练的三个MTL Z2Color网络进行了比较。这些网络中的每一个都接受了相同数量的数据矩的训练。然后使用公式(2)中描述的验证损失测量对网络进行评估。

单个模式下的性能

Direct 和 Furtive 模式下的性能对比如下表所示:

对模型车的评价

对于现场实验,MTL和MultiNet网络都是在一个200米的人行道弯道(图9)上进行评估的,在一小时的间隔内有足够的障碍物。在评价汽车时,只使用直接模式和偷偷摸摸的模式,而不使用跟随模式,因为领头车的行驶可能会在不同的运行中有所不同,这使得定量分析变得不切实际。道路评估网络的选择是在试验的平均验证误差最小的点上进行的,也就是说,我们选择了使MultiNet和MTL网络的平均验证误差都最小的时段和试验。这一最低值出现在一项特定试验的第23纪元,当时两个网络都还没有开始超负荷运行。

结果验证

为了验证文中验证度量的结果,我们根据验证损失计算性能差异的百分比,以在现场实验中将MSE损失度量与autonomy metric 进行比较。验证损失的百分比差异使用以下公式计算:

5. CONCLUSION & FUTURE WORKS

本文提出了一种训练 DNN 在几种不同行为模式下工作的方法 MultiNet。这种方法将行为信息直接插入到网络的处理流中,允许在相关模式之间共享参数。

此外,我们还展示了我们独特的数据集,其中包括从一组在不同条件下行驶的模型车记录的 100 多个小时的人行道和越野数据。我们在预留的验证数据集以及现场实验中的模型汽车上测试了我们的 MultiNet 方法。

我们的 MULTINET 方法被证明在使用更少的参数的情况下超过了针对特定行为模式训练的单个网络的性能。在我们目前的研究中,双目摄像机图像作为输入,未来的工作可能会将其他传感器融入整合到系统中,例如 GPS 和加速计数据,这些数据已经在我们的数据集中可用。

最后,本文所描述的通用 MultiNet 方法也可用于其他应用,如使用包含目标类上下文信息的模态张量进行目标检测。

multinet用于自动驾驶的实时联合语义推理

...ff0c;并且该项目已经开源:https://github.com/MarvinTeichmann/MultiNet文章目 查看详情

用于自动驾驶的实时yuv多任务cnn

...多数SOC都有带宽瓶颈。然后,我们展示了我们提出的用于专用CNN加速器的网络的效率,给出了从硬件执行和相应的运行时间获得的检测和分割任务的关键性能指标(KPI)。1.Introduction目前先进驾驶辅助系统(ADAS)领域的改进将... 查看详情

论文解读mv3d-net用于自动驾驶的多视图3d目标检测网络

前言MV3D-Net融合了视觉图像和激光雷达点云信息;它只用了点云的俯视图和前视图,这样既能减少计算量,又保留了主要的特征信息。随后生成3D候选区域,把特征和候选区域融合后输出最终的目标检测框。论文地... 查看详情

论文解读mv3d-net用于自动驾驶的多视图3d目标检测网络

前言MV3D-Net融合了视觉图像和激光雷达点云信息;它只用了点云的俯视图和前视图,这样既能减少计算量,又保留了主要的特征信息。随后生成3D候选区域,把特征和候选区域融合后输出最终的目标检测框。论文地... 查看详情

自动驾驶感知算法实战12——bev基于图像/lidar/多模态数据的3d检测与分割任务

自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录基本概念背景BEV优势基本方案输入输出参考结构数据集评价指标损失函数关键技术案例分析BEVFormer介绍BEVFormer方案动机实验效果相关工作下一步工作更多... 查看详情

自动驾驶感知算法实战12——bev基于图像/lidar/多模态数据的3d检测与分割任务

自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录基本概念背景BEV优势基本方案输入输出参考结构数据集评价指标损失函数关键技术案例分析BEVFormer介绍BEVFormer方案动机实验效果相关工作下一步工作更多... 查看详情

自动驾驶感知算法实战12——bev基于图像/lidar/多模态数据的3d检测与分割任务

自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录基本概念背景BEV优势基本方案输入输出参考结构数据集评价指标损失函数关键技术案例分析BEVFormer介绍BEVFormer方案动机实验效果相关工作下一步工作更多... 查看详情

大模型多模态chatgpt+自动驾驶控制器设计方案

...对于文本的学习已经能够达到如此智能的地步,对于自动驾驶行业,ChatGPT能够为其带来什么呢?是否能够对困扰从业者多年的决策难题做出突破呢?自动驾驶中的决策难题在自动驾驶行业中,决策规划作为整... 查看详情

16.4多模态情感识别

...态偏移门的模态融合多任务学习3、模型结构多任务学习的多模态共享层多模态情感识别模型单模态情感识别模型数据处理ANNM:多模态注意力网络图像特征提取文本特征提取多模态融合MMMU-BA:多模态多话语双模态注意框架MMMU-B... 查看详情

用于非图像数据格式的多任务学习的 keras 数据生成器

】用于非图像数据格式的多任务学习的keras数据生成器【英文标题】:kerasdatageneratorformultitasklearningwithnonimagedataformat【发布时间】:2021-09-1906:33:24【问题描述】:我正在处理一个包含三个解码器的多任务语义分割问题,因此,我... 查看详情

icml2022|字节跳动ailab提出多模态模型:x-vlm,学习视觉和语言的多粒度对齐...

写在前面视觉语言预训练提高了许多下游视觉语言任务的性能,例如:图文检索、基于图片的问答或推理。有朋友要问了,除了在公开的学术任务上使用更大的模型/更多的数据/技巧把指标刷得很高,多模态预训... 查看详情

自动驾驶感知算法实战13——自动驾驶感知未来发展方向分享

自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录发展方向:分享:自动驾驶3.0未来需要解决的问题发展方向:多模态感知多任务处理大模型(通用智能)分享:自动驾驶3.0第一,自动驾驶3.0是数据驱动... 查看详情

自动驾驶感知算法实战13——自动驾驶感知未来发展方向分享

自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录发展方向:分享:自动驾驶3.0未来需要解决的问题发展方向:多模态感知多任务处理大模型(通用智能)分享:自动驾驶3.0第一,自动驾驶3.0是数据驱动... 查看详情

自动驾驶感知算法实战13——自动驾驶感知未来发展方向分享

自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录发展方向:分享:自动驾驶3.0未来需要解决的问题发展方向:多模态感知多任务处理大模型(通用智能)分享:自动驾驶3.0第一,自动驾驶3.0是数据驱动... 查看详情

transformer多模态综述学习笔记《multimodallearningwithtransformers:asurvey》

...理论回顾;通过两个重要的范例(多模态预训练和特定的多模态任务)对multimodalTransformer的应用进行回顾;multimodalTransformer模型和应用共享的共同挑战和设计的总结;开放问题和潜在的研究方向的探讨。本文的描述的重... 查看详情

多模态融合综述

...数据融合与集成研究进展多模态融合的定义:深度学习中的多模态融合技术(MultimodalityFusionTechnology,MFT)[1]是模型在完成分析和识别任务时处理不同形式的数据的过程。多模态数据的融合可以为模型决策提供更多的信息,从而... 查看详情

史上最全综述|3d目标检测算法汇总!(单目/双目/lidar/多模态/时序/半弱自监督)

...觉life”,选择“星标”快速获得最新干货本文转载自自动驾驶之心1摘要近年来,自动驾驶因其减轻驾驶员负担、提高行车安全的潜力而受到越来越多的关注。在现代自动驾驶系统中,感知系统是不可或缺的组成部分&... 查看详情

pytorch创建多任务学习模型(代码片段)

...计算机视觉和药物发现。MTL最著名的例子可能是特斯拉的自动驾驶系统。在自动驾驶中需要同时处理大量任务,如物体检测、深度估计、3D重建、视频分析、跟踪等,你可能认为需要10个以上的深度 查看详情