CN112329254A - 一种对接仿真环境图像与真实环境图像的自动驾驶方法 - Google Patents

一种对接仿真环境图像与真实环境图像的自动驾驶方法 Download PDF

Info

Publication number
CN112329254A
CN112329254A CN202011266665.9A CN202011266665A CN112329254A CN 112329254 A CN112329254 A CN 112329254A CN 202011266665 A CN202011266665 A CN 202011266665A CN 112329254 A CN112329254 A CN 112329254A
Authority
CN
China
Prior art keywords
image
vehicle
semantic segmentation
segmentation network
automatic driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011266665.9A
Other languages
English (en)
Inventor
董舒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dilu Technology Co Ltd
Original Assignee
Dilu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dilu Technology Co Ltd filed Critical Dilu Technology Co Ltd
Priority to CN202011266665.9A priority Critical patent/CN112329254A/zh
Publication of CN112329254A publication Critical patent/CN112329254A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种对接仿真环境图像与真实环境图像的自动驾驶方法。首先,采集仿真平台中的车辆摄像头图像,训练深度学***台中进行图像分割,并提取特征值;然后,采用提取的特征值进行深度强化学习算法模型的训练,实现仿真环境中车辆按照指定车道行驶;最后,采集真实环境下的车辆摄像头图像,训练深度学习语义分割网络2,实现车辆在实际车道上的自动驾驶。本发明明显降低了仿真环境中训练好的算法模型向真实环境中迁移的难度,从而使仿真环境中训练的强化学习算法可以直接在实车上使用,不需要额外的强化学习训练。

Description

一种对接仿真环境图像与真实环境图像的自动驾驶方法
技术领域
本发明属于自动驾驶领域,特别涉及了一种应用深度强化学习算法的自动驾驶方法。
背景技术
随着人工智能技术的不断发展,汽车行业应用人工智能技术解决自动驾驶问题更加现实。目前实现自动驾驶主要有两个方向,一个方向是通过分解自动驾驶任务,分别使用不同的算法来解决分解后的问题,例如使用深度学习进行道路信息的检测识别;另一个方向是不细分解自动驾驶,直接使用端到端的算法实现自动驾驶,例如强化学习、模仿学习。端到端的算法在理论上能够简化自动驾驶的设计,毕竟从从感知段到控制端实现自动驾驶,比起分解问题的方式,少了很多的工作内容,同时也符合人类的驾驶方式,从感知端图像中获取信息,到控制端实现控制,而无需知道周围准确的信息,所以有不少的企业、学者在从事端到端的自动驾驶研究。强化学习在自动驾驶中同样属于端到端的自动驾驶算法,而且强化学习的原理也符合人类的进化方式,即从与环境的互动中得到惩罚,学习知识。强化学习与深度学习结合后,产生深度强化学习,在性能上也有了明显的提升。
深度强化学习算法虽然能够于环境中学习新的知识,但该算法目前的发展仍不足以让其在复杂的车载相机原始图像中学习到想要的知识,而且该算法依赖于手动设定的奖励函数,该函数的设定也限制了强化学习算法的学习效果。同时,深度强化学习算法存在样本利用率低的问题,需要进行大量的反复训练,才能让其学习到人们想要的知识。在真实的环境中,使用实车进行深度强化学习训练,时间成本、车辆成本会很高昂,而且存在很大的安全风险。
为了降低强化学习算法的训练成本、风险,研究者普遍采用在仿真环境中进行训练的方式来降低训练的成本和风险,训练好模型后,再将模型迁移到真实的环境中。在自动驾驶领域,这样做会存在一个明显的问题,那就是仿真环境中的图像与真实环境存在明显的差别,导致深度强化学习算法在仿真环境中利用原始图像训练的结果难以迁移到真实环境中,需要再次重新训练。
目前研究者减小仿真环境与真实环境中训练差异的方法主要是通过建立逼真的仿真环境和设计仿真环境与真实环境中图像的转换算法,这些方法可以对两个环境中的差异有所降低,但降低的很有限,且这些方法都需要花费大量的时间。
发明内容
为了解决上述背景技术提到的技术问题,本发明提出了一种对接仿真环境图像与真实环境图像的自动驾驶方法,明显降低仿真环境中训练好的算法模型向真实环境中迁移的难度。
为了实现上述技术目的,本发明的技术方案为:
一种对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,包括以下步骤:
(1)采集仿真平台中的车辆摄像头图像,对图像中能够行驶的区域打上标签,并采用打过标签的图像集训练深度学习语义分割网络1;
(2)采用步骤(1)中训练好的深度学***台中车辆摄像头采集的实时图像进行分割,对分割后的图像进行后处理,并提取特征值;
(3)采用步骤(2)中提取的特征值进行深度强化学习算法模型的训练,实现仿真环境中车辆按照指定车道行驶;
(4)采集真实环境下的车辆摄像头图像,训练深度学习语义分割网络2,采用深度学习语义分割网络2提取的真实环境下图像的特征值和步骤(3)中训练好的深度强化学习算法模型,实现车辆在实际车道上的自动驾驶。
进一步地,步骤(1)的具体过程如下:
(1-1)在仿真平台中,车辆沿着正确车道行驶,在车辆行驶过程中,利用车载摄像头采集前视图像;
(1-2)对步骤(1-1)采集的图像中能够行驶的区域打上标签,并保存成数据集的形式;
(1-3)选择合适的深度学习语义分割网络,利用步骤(1-2)得到数据集训练该深度学习语义分割网络1,直至网络的准确率达到要求。
进一步地,在步骤(1-2)中,采用手动方式打标签。
进一步地,在步骤(1-3)中,按照网络的实时性选择深度学习语义分割网络。
进一步地,在步骤(1-3)中,选择的深度学习语义分割网络包括但不限于Bisenet。
进一步地,在步骤(1-3)中,训练深度学习语义分割网络,直至该网络的准确率超过设定的阈值。
进一步地,步骤(2)的具体过程如下:
(2-1)将仿真平台中车辆摄像头采集的实时图像输入训练好的深度学习语义分割网络1中,深度学习语义分割网络1输出分割后的语义图像;
(2-2)将分割后的语义图像进行后处理,得到特征值。
进一步地,在步骤(2-2)中,所述后处理包括下采样以降低网络的计算量、滤除低效的特征信息以及图像裁剪以删除低效信息和无效信息;所述低效信息为对于车辆在道路上行驶时无明显作用的信息,包括绿化带、人行道和人行道上的物体;所述无效信息为对于车辆在道路上行驶时完全无作用的信息,包括背景信息和干扰信息,所述背景信息包含天空、道路外的建筑物和树木,所述干扰信息包含路面的落叶和光线的差别。
进一步地,步骤(3)的具体过程如下:
(3-1)将深度强化学***台进行对接,并通过步骤(2)提取的特征值训练深度强化学习算法模型;
(3-2)不断对模型进行调参和优化,使训练结果达到车辆能够沿指定车道行驶;
(3-3)深度强化学***台,仿真平台中的车辆根据接收到的控制信号进行行驶。
进一步地,步骤(4)的具体过程如下:
(4-1)采集真实环境下的车辆摄像头图像,采用与步骤(1)相同的方式对图像进行打标并采用打标的图像集训练深度学习语义分割网络2;
(4-2)基于步骤(4-1)训练好的深度学习语义分割网络2,采用与步骤(2)相同的方式提取真实环境下图像的特征值;
(4-3)使用步骤(3)中训练好的深度强化学习算法模型与步骤(4-2)提取的特征值,实现车辆在实际车道上的自动驾驶。
采用上述技术方案带来的有益效果:
本发明的一个重点是仿真环境和真实环境的对接,另一个重点是深度强化学习算法利用语义分割网络提取的特征值进行训练,通过这两个方面提高了深度强化学习算法实现自动驾驶的效率。本发明通过设计算法训练时使用的图像来大大降低仿真环境中训练的算法模型向真实环境中迁移的难度:将深度强化学习训练时使用的摄像头常规图像改为语义分割图像,同时将强化学习算法训练自动驾驶时无效、低效的图像信息屏蔽掉,只保留车辆需要的道路信息,并对该信息进行处理,可以明显降低仿真环境中训练好的算法向真实环境中迁移的难度,避免了深度强化学习算法在实际车辆进行重新大量训练的过程,节约大量的时间、金钱成本。经过实际的测试,仿真环境中训练的算法不需要在真实环境中进行重新训练即可实现自动驾驶。
附图说明
图1是本发明的方法流程图;
图2是本发明中直行车道仿真环境和真实环境的特征提取结果示意图;
图3是本发明中转弯车道仿真环境和真实环境的特征提取结果示意图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内
本技术领域技术人员可以理解的是,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本发明提出了一种对接仿真环境图像与真实环境图像的自动驾驶方法,如图1所示,包括以下步骤:
步骤1:采集仿真平台中的车辆摄像头图像,对图像中能够行驶的区域打上标签,并采用打过标签的图像集训练深度学习语义分割网络1;
步骤2:采用步骤1中训练好的深度学***台中车辆摄像头采集的实时图像进行分割,对分割后的图像进行后处理,并提取特征值;
步骤3:采用步骤2中提取的特征值进行深度强化学习算法模型的训练,实现仿真环境中车辆按照指定车道行驶;
步骤4:采集真实环境下的车辆摄像头图像,训练深度学习语义分割网络2,采用深度学习语义分割网络2提取的真实环境下图像的特征值和步骤3中训练好的深度强化学习算法模型,实现车辆在实际车道上的自动驾驶。
在本实施例中,上述步骤1可以采用如下优选方案实现:
步骤1-1:在仿真平台中,车辆沿着正确车道行驶,在车辆行驶过程中,利用车载摄像头采集前视图像;
步骤1-2:对步骤1-1采集的图像中能够行驶的区域打上标签,并保存成数据集的形式;
步骤1-3:选择合适的深度学习语义分割网络1,利用步骤1-2得到数据集训练该深度学习语义分割网络1,直至网络的准确率达到要求。
进一步地,在步骤1-2中,采用手动方式打标签。
进一步地,在步骤1-3中,按照网络的实时性选择深度学习语义分割网络,例如Bisenet。
目前,分割图像使用的深度学***,算法的计算成本低。
进一步地,在步骤1-3中,训练深度学习语义分割网络,直至该网络的准确率超过设定的阈值,该设定的阈值会根据实际的情况进行调整。
在本实施例中,上述步骤2可以采用如下优选方案实现:
步骤2-1:将仿真平台中车辆摄像头采集的实时图像输入训练好的深度学习语义分割网络1中,深度学习语义分割网络1输出分割后的语义图像;
步骤2-2:将分割后的语义图像进行后处理,得到特征值。
进一步地,在步骤2-2中,所述后处理包括下采样以降低网络的计算量、滤除低效的特征信息以及图像裁剪以删除低效信息和无效信息;所述低效信息为对于车辆在道路上行驶时无明显作用的信息,包括绿化带、人行道和人行道上的物体;所述无效信息为对于车辆在道路上行驶时完全无作用的信息,包括背景信息和干扰信息,所述背景信息包含天空、道路外的建筑物和树木,所述干扰信息包含路面的落叶和光线的差别。
下采样的目的:分割后的图像长宽通常超过1024×1024,意味里面包含大量重复的信息,大量重复信息一方面增大网络的计算次数/运算量,同时重复的信息可能造成不利的影响,深度强化学习算法可能会探索重复信息中是否存在特殊含义。下采样后的长宽尺寸小于100×100,数量等级降低超过100倍,可以明显降低的训练的复杂度、耗费的时间。
经过下采样、滤除低效、无效信息后,留下的特征值是对深度强化学习算法训练的有用信息,一方面能够通过减少数来能够来降低训练量、计算量,从而提高效率,另一方面减少低效无效信息后深度强化学习算法训练时学习、探索的范围大大减小,也能够提高训练效率。
在本实施例中,上述步骤3可以采用如下优选方案实现:
步骤3-1:将深度强化学***台进行对接,并通过步骤2提取的特征值训练深度强化学习算法模型;
步骤3-2:不断对深度强化学习算法模型进行调参和优化,使训练结果达到车辆能够沿指定车道行驶;
步骤3-3:深度强化学***台,仿真平台中的车辆根据接收到的控制信号进行行驶。
在本实施例中,上述步骤4可以采用如下优选方案实现:
步骤4-1:采集真实环境下的车辆摄像头图像,采用与步骤1相同的方式对图像进行打标并采用打标的图像集训练深度学习语义分割网络2;
步骤4-2:基于步骤4-1训练好的深度学习语义分割网络2,采用与步骤2相同的方式提取真实环境下图像的特征值;
步骤4-3:使用步骤3中训练好的深度强化学习算法模型与步骤4-2提取的特征值,实现车辆在实际车道上的自动驾驶。
如图2和3所示,分别为直行车道和转弯车道特征提取结果示意图,其中图2和3中的(a)为仿真环境中车道特征值提取结果,(b)为真实环境中车道特征值提取结果,图中白色区域为提取的车道特征信息,黑色区域为与车道无关的信息。可以看出,仿真环境中提取的车道特征值几乎与实际环境中提取的特征值一样,即利用仿真环境中图像特征值训练的深度强化学习算法模型可以直接利用真实环境中的图像提取的特征值,完成仿真环境和真实环境中的图像对接工作,从而实现自动驾驶。
本技术领域技术人员可以理解的是,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。

Claims (10)

1.一种对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,包括以下步骤:
(1)采集仿真平台中的车辆摄像头图像,对图像中能够行驶的区域打上标签,并采用打过标签的图像集训练深度学习语义分割网络1;
(2)采用步骤(1)中训练好的深度学***台中车辆摄像头采集的实时图像进行分割,对分割后的图像进行后处理,并提取特征值;
(3)采用步骤(2)中提取的特征值进行深度强化学习算法模型的训练,实现仿真环境中车辆按照指定车道行驶;
(4)采集真实环境下的车辆摄像头图像,训练深度学习语义分割网络2,采用深度学习语义分割网络2提取的真实环境下图像的特征值和步骤(3)中训练好的深度强化学习算法模型,实现车辆在实际车道上的自动驾驶。
2.根据权利要求1所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,步骤(1)的具体过程如下:
(1-1)在仿真平台中,车辆沿着正确车道行驶,在车辆行驶过程中,利用车载摄像头采集前视图像;
(1-2)对步骤(1-1)采集的图像中能够行驶的区域打上标签,并保存成数据集的形式;
(1-3)选择合适的深度学习语义分割网络,利用步骤(1-2)得到数据集训练深度学习语义分割网络1,直至网络的准确率达到要求。
3.根据权利要求2所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,在步骤(1-2)中,采用手动方式打标签。
4.根据权利要求2所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,在步骤(1-3)中,按照网络的实时性选择深度学习语义分割网络。
5.根据权利要求4所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,在步骤(1-3)中,选择的深度学习语义分割网络包括但不限于Bisenet。
6.根据权利要求2所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,在步骤(1-3)中,训练深度学习语义分割网络,直至该网络的准确率超过设定的阈值。
7.根据权利要求2所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,步骤(2)的具体过程如下:
(2-1)将仿真平台中车辆摄像头采集的实时图像输入训练好的深度学习语义分割网络1中,深度学习语义分割网络1输出分割后的语义图像;
(2-2)将分割后的语义图像进行后处理,得到特征值。
8.根据权利要求7所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,在步骤(2-2)中,所述后处理包括下采样以降低网络的计算量、滤除低效的特征信息以及图像裁剪以删除低效信息和无效信息;所述低效信息为对于车辆在道路上行驶时无明显作用的信息,包括绿化带、人行道和人行道上的物体;所述无效信息为对于车辆在道路上行驶时完全无作用的信息,包括背景信息和干扰信息,所述背景信息包含天空、道路外的建筑物和树木,所述干扰信息包含路面的落叶和光线的差别。
9.根据权利要求2所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,步骤(3)的具体过程如下:
(3-1)将深度强化学***台进行对接,并通过步骤(2)提取的特征值训练深度强化学习算法模型;
(3-2)不断对模型进行调参和优化,使训练结果达到车辆能够沿指定车道行驶;
(3-3)深度强化学***台,仿真平台中的车辆根据接收到的控制信号进行行驶。
10.根据权利要求2所述对接仿真环境图像与真实环境图像的自动驾驶方法,其特征在于,步骤(4)的具体过程如下:
(4-1)采集真实环境下的车辆摄像头图像,采用与步骤(1)相同的方式对图像进行打标并采用打标的图像集训练深度学习语义分割网络2;
(4-2)基于步骤(4-1)训练好的深度学习语义分割网络2,采用与步骤(2)相同的方式提取真实环境下图像的特征值;
(4-3)使用步骤(3)中训练好的深度强化学习算法模型与步骤(4-2)提取的特征值,实现车辆在实际车道上的自动驾驶。
CN202011266665.9A 2020-11-13 2020-11-13 一种对接仿真环境图像与真实环境图像的自动驾驶方法 Pending CN112329254A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011266665.9A CN112329254A (zh) 2020-11-13 2020-11-13 一种对接仿真环境图像与真实环境图像的自动驾驶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011266665.9A CN112329254A (zh) 2020-11-13 2020-11-13 一种对接仿真环境图像与真实环境图像的自动驾驶方法

Publications (1)

Publication Number Publication Date
CN112329254A true CN112329254A (zh) 2021-02-05

Family

ID=74317695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011266665.9A Pending CN112329254A (zh) 2020-11-13 2020-11-13 一种对接仿真环境图像与真实环境图像的自动驾驶方法

Country Status (1)

Country Link
CN (1) CN112329254A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101907A (zh) * 2018-07-28 2018-12-28 华中科技大学 一种基于双边分割网络的车载图像语义分割***
CN110647839A (zh) * 2019-09-18 2020-01-03 深圳信息职业技术学院 自动驾驶策略的生成方法、装置及计算机可读存储介质
CN110795821A (zh) * 2019-09-25 2020-02-14 的卢技术有限公司 一种基于场景区分的深度强化学习训练方法及***
CN110837811A (zh) * 2019-11-12 2020-02-25 腾讯科技(深圳)有限公司 语义分割网络结构的生成方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101907A (zh) * 2018-07-28 2018-12-28 华中科技大学 一种基于双边分割网络的车载图像语义分割***
CN110647839A (zh) * 2019-09-18 2020-01-03 深圳信息职业技术学院 自动驾驶策略的生成方法、装置及计算机可读存储介质
CN110795821A (zh) * 2019-09-25 2020-02-14 的卢技术有限公司 一种基于场景区分的深度强化学习训练方法及***
CN110837811A (zh) * 2019-11-12 2020-02-25 腾讯科技(深圳)有限公司 语义分割网络结构的生成方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周苏;易然;郑淼;: "基于知识蒸馏的车辆可行驶区域分割算法研究", 汽车技术, no. 01 *

Similar Documents

Publication Publication Date Title
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN108062569B (zh) 一种基于红外和雷达的无人车驾驶决策方法
CN109800736A (zh) 一种基于遥感影像和深度学习的道路提取方法
CN109635744A (zh) 一种基于深度分割网络的车道线检测方法
CN105069779B (zh) 一种建筑陶瓷表面花纹图案质量检测方法
CN113240691A (zh) 一种基于u型网络的医学图像分割方法
CN104392212A (zh) 一种基于视觉的道路信息检测及前方车辆识别方法
CN110009095A (zh) 基于深度特征压缩卷积网络的道路行驶区域高效分割方法
CN113902915A (zh) 一种基于低光照复杂道路场景下的语义分割方法及***
CN112837344B (zh) 一种基于条件对抗生成孪生网络的目标跟踪方法
CN112488025B (zh) 基于多模态特征融合的双时相遥感影像语义变化检测方法
CN109117703B (zh) 一种基于细粒度识别的混杂细胞种类鉴定方法
CN111414954B (zh) 一种岩石图像检索方法及其***
CN111476285B (zh) 一种图像分类模型的训练方法及图像分类方法、存储介质
CN110009648A (zh) 基于深浅特征融合卷积神经网络的路侧图像车辆分割方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及***
CN110503613A (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
CN112419333B (zh) 一种遥感影像自适应特征选择分割方法及***
CN109766823A (zh) 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法
CN114048822A (zh) 一种图像的注意力机制特征融合分割方法
CN110276378A (zh) 基于无人驾驶技术对实例分割的改进方法
CN110490189A (zh) 一种基于双向消息链路卷积网络的显著性物体的检测方法
CN111046723B (zh) 一种基于深度学习的车道线检测方法
CN112598684A (zh) 一种基于语义分割技术的露天矿区地物分割方法
CN108961270B (zh) 一种基于语义分割的桥梁裂缝图像分割模型

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination