CN114743170B - 一种基于ai算法的自动驾驶场景标注方法 - Google Patents

一种基于ai算法的自动驾驶场景标注方法 Download PDF

Info

Publication number
CN114743170B
CN114743170B CN202210435027.8A CN202210435027A CN114743170B CN 114743170 B CN114743170 B CN 114743170B CN 202210435027 A CN202210435027 A CN 202210435027A CN 114743170 B CN114743170 B CN 114743170B
Authority
CN
China
Prior art keywords
scene
data
algorithm
automatic driving
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210435027.8A
Other languages
English (en)
Other versions
CN114743170A (zh
Inventor
李开兴
郝金隆
张霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Changan Automobile Co Ltd
Original Assignee
Chongqing Changan Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Changan Automobile Co Ltd filed Critical Chongqing Changan Automobile Co Ltd
Priority to CN202210435027.8A priority Critical patent/CN114743170B/zh
Publication of CN114743170A publication Critical patent/CN114743170A/zh
Application granted granted Critical
Publication of CN114743170B publication Critical patent/CN114743170B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于AI算法的自动驾驶场景标注方法,能够对自动驾驶数据的原始数据打上对应的场景标签,让用户可根据标签对数据进行筛选,从而快速获得较为富集、且具有针对性的场景数据,既提高了对数据的筛选效率,也降低了需要进行标注的数据量。

Description

一种基于AI算法的自动驾驶场景标注方法
技术领域
本发明涉及人工智能和自动驾驶技术领域,具体涉及一种基于AI算法的自动驾驶场景标注方法。
背景技术
L2级自动驾驶已经大规模量产,L3级别自动驾驶也大量上市,对自动驾驶算法的要求也越来越高,需要处理大量的数据,尤其是各种不同场景的数据更是影响算法性能的核心因素之一。各种场景的数据越丰富,算法对各种不同场景的适应能力也就更强。但对于不同的场景,在采集的原始数据中,所需要的数据数量严重不平衡,一般算法开发过程中需要进行数据集平衡,使不同场景的数据量差异不能过大,如果在标注之前,进行数据初筛,可大大降低数据标注的工作量,但面对海量的原始数据,人工筛选费事费力。专利CN2018113066861提出了一种仿真场景数据挖掘的方法,通过比较仿真场景的特征和算法运行结果之间的差异来进行数据挖掘;专利CN2020110090940提出了一种难例数据挖掘方式,通过比对云端及车端算法结果的差异进行数据挖掘。但这两种方法还存在如下问题:1、未将场景标签和场景数据进行对应和存储,无法快速检索;2、这两种方法所针对的均不是某一算法所需要的训练数据;3、都需要一种基线方法进行比较。
发明内容
针对现有技术存在的上述不足,本发明的目的在于提供一种基于AI算法的自动驾驶场景标注方法,以解决现有技术中无法根据场景所需数据对原始数据进行有针对性的筛选的问题。
为了解决上述技术问题,本发明采用如下技术方案:
一种基于AI算法的自动驾驶场景标注方法,包括如下步骤:
S1:选择一场景,并根据不同的场景所需的数据不同,对该场景所需的数据进行标注;
S2:针对S1选择的场景,选择适用于该场景的场景识别算法;
S3:根据S1标注的数据对S2选择的场景识别算法进行训练,得到识别该场景的算法模型;
S4:获取车辆行驶过程中的原始数据,利用S3得到的所述场景的算法模型对原始数据进行识别处理,得到识别结果;
S5:对S4得到的识别结果进行筛选;
S6:根据S2选择的场景识别算法的类型,对S5筛选后的识别结果进行数据切片;
S7:根据S1所选择的场景,对S6得到的数据切片标注相应的场景标签。
与现有技术相比,本发明具有如下有益效果:
本发明所述方法能够根据不同的场景以及不同场景所需的不同场景识别算法,对其所需要的数据进行筛选,并标注该场景的标签,让用户可根据标签对数据进行筛选,从而快速获得较为富集、且具有针对性的场景数据,既提高了对数据的筛选效率,也降低了需要进行标注的数据量。
附图说明
图1为本发明针对原始数据的实施方法流程图
图2 为本发明针对切片数据的实施方法流程图。
图3为本发明中实施例的流程图。
具体实施方式
为了使本发明的实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种基于AI算法的自动驾驶场景标注方法,如图1所示,包括如下步骤:
S1:选择一场景,并根据不同的场景所需的数据不同,对该场景所需的数据进行标注。对于不同驾驶场景,所需要关注的数据并不相同,针对某一场景所需的数据进行提前标注。
S2:针对S1选择的场景,选择适用于该场景的场景识别算法。其中,场景识别算法的类型众多,包括但不限于CNN卷积神经网络类型和RNN卷积神经网络类型。
S3:根据S1标注的数据对S2选择的场景识别算法进行训练,得到识别该场景的算法模型。
S4:获取车辆行驶过程中的原始数据,利用S3得到的所述场景的算法模型对原始数据进行识别处理,得到识别结果。其中,所述原始数据包括但不限于图片数据和数值数据,本发明所述方法既能对图片数据进行场景标注,也能对该场景所需的数值数据进行场景标注。
S5:对S4得到的识别结果进行筛选,其目的是为了去除掉识别不够可靠的结果,例如,在某些算法中,识别去除波动较大的数据区间,提升识别准确率。
S6:根据S2选择的场景识别算法的类型,对S5筛选后的识别结果进行数据切片,进行数据切片需要依据一定的规则,而所述规则则需要根据场景识别算法的类型进行调整。例如,当S2选择的场景识别算法为CNN型算法时,输入为单张图像;当S2选择的场景识别算法为RNN型算法时,输入为连续多张图像。
S7:根据S1所选择的场景,对S6得到的数据切片标注相应的场景标签。
在具体实施时,本发明所述方法能够对已经完成切片的数据进行标注,如图2所示,对于已经完成切片的数据进行如下步骤处理:
(1)重复步骤S1~S3;
(2)对已经完成切片的数据进行识别处理,得到识别结果;
(3)根据S1所选择的场景,对已经完成切片的数据标注相应的场景标签。
本发明所述方法还包括如下步骤:
将S7中得到已标注场景标签的切片数据作为S4中的原始数据,然后重复进行步骤S1~S7,以此经过多次迭代,能够进一步提高对数据标注场景标签的准确性。
通过以下实施例,对本发明所述基于AI算法的自动驾驶场景标注方法进行进一步说明。如图3所示,以弯道场景识别为例,数据以视频抽帧得到的连续图片为例,进行说明。实施步骤如下:
步骤1:标注弯道场景数据;
步骤2:采用CNN+LSTM作为场景识别算法;
步骤3:使用标注数据对CNN+LSTM算法进行训练,得到识别弯道的模型;
步骤4:利用弯道场景识别模型对原始连续图片数据进行推理预测,得到识别结果,结果包含图片的类别标签id,以及为弯道的概率p;
步骤5:将上述识别结果中,预测置信概率低于阈值thr1的图片去除;thr1需要根据实际情况设置;
步骤6:将上述识别结果中,统计属于相同类别的每个连续区间帧数,将帧数小于阈值thr2的区间去除,thr2需要根据实际情况设置;
步骤7:将上述结果中,识别波动较大的区间去除,不失一般性的,波动的以连续区间的置信概率标准差作为指标,计算公式为; ;其中为区间的每一张图像的分类置信概率,为区间的平均置信概率,将标准差高于阈值thr3的区间去除。
步骤8:将每个连续区间切片,作为切片数据;
步骤9:将该连续区间的类别标签id作为该切片数据的场景标签;
进一步的,若数据已经完成切片,对已切片的数据打场景标签的步骤如下,
重复步骤1-3;
步骤10:利用弯道场景识别模型对切片连续图片数据进行推理预测,得到识别结果,结果包含图片的类别标签id,以及为弯道的概率p;
步骤11:将上述识别结果中,预测置信概率低于阈值thr1的图片去除;thr1需要根据实际情况设置;
步骤12:将上述识别结果中,统计属于相同类别的每个连续区间帧数,将帧数小于阈值thr2的区间去除,thr2需要根据实际情况设置;
步骤13:将上述结果中,识别波动较大的区间去除,不失一般性的,波动的以连续区间的置信概率标准差作为指标,计算公式为; 其中为区间的每一张图像的分类置信概率,为区间的平均置信概率,将标准差高于阈值thr3的区间去除。
步骤14:若一个切片数据对应的上述已处理识别结果中仍然包含弯道区间,则给切片数据打上弯道标签。
本发明所述方法能够根据不同的场景以及不同场景所需的不同场景识别算法,对其所需要的数据进行筛选,并标注该场景的标签,让用户可根据标签对数据进行筛选,从而快速获得较为富集、且具有针对性的场景数据,既提高了对数据的筛选效率,也降低了需要进行标注的数据量。
如上所述,本发明的提醒***不限于所述配置,其他可以实现本发明的实施例的***均可落入本发明所保护的范围内。
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.一种基于AI算法的自动驾驶场景标注方法,其特征在于,包括如下步骤:
S1:选择一场景,并根据不同的场景所需的数据不同,对该场景所需的数据进行标注;
S2:针对S1选择的场景,选择适用于该场景的场景识别算法;
S3:根据S1标注的数据对S2选择的场景识别算法进行训练,得到识别该场景的算法模型;
S4:获取车辆行驶过程中的原始数据,利用S3得到的所述场景的算法模型对原始数据进行识别处理,得到识别结果;
S5:对S4得到的识别结果进行筛选;
S6:根据S2选择的场景识别算法的类型,对S5筛选后的识别结果进行数据切片;
S7:根据S1所选择的场景,对S6得到的数据切片标注相应的场景标签;
当场景为弯道场景时,利用弯道场景识别模型对原始连续图片数据进行推理预测,得到识别结果,结果包含图片的类别标签id,以及为弯道的概率p;将上述识别结果中,预测置信概率低于阈值thr1的图片去除;thr1需要根据实际情况设置;将上述识别结果中,统计属于相同类别的每个连续区间帧数l,将帧数l小于阈值thr2的区间去除,thr2需要根据实际情况设置;将上述结果中,识别波动较大的区间去除,波动的以连续区间的置信概率标准差作为指标,将标准差高于阈值thr3的区间去除。
2.根据权利要求1所述基于AI算法的自动驾驶场景标注方法,其特征在于,对于已经完成切片的数据进行如下步骤处理:
(1)重复步骤S1~S3;
(2)对已经完成切片的数据进行识别处理,得到识别结果;
(3)根据S1所选择的场景,对已经完成切片的数据标注相应的场景标签。
3.根据权利要求1所述基于AI算法的自动驾驶场景标注方法,其特征在于,还包括如下步骤:
将S7中得到已标注场景标签的切片数据作为S4中的原始数据,然后重复进行步骤S1~S7。
4.根据权利要求1所述基于AI算法的自动驾驶场景标注方法,其特征在于,在S4中,所述原始数据包括但不限于图片数据和数值数据。
5.根据权利要求1所述基于AI算法的自动驾驶场景标注方法,其特征在于,在S2中,所述场景识别算法包括CNN卷积神经网络或RNN卷积神经网络。
6.根据权利要求5所述基于AI算法的自动驾驶场景标注方法,其特征在于,在S6中,当S2选择的场景识别算法为CNN型算法时,输入的图像为单张图像。
7.根据权利要求5所述基于AI算法的自动驾驶场景标注方法,其特征在于,在S6中,当S2选择的场景识别算法为RNN型算法时,输入的图像为多张连续图像。
CN202210435027.8A 2022-04-24 2022-04-24 一种基于ai算法的自动驾驶场景标注方法 Active CN114743170B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210435027.8A CN114743170B (zh) 2022-04-24 2022-04-24 一种基于ai算法的自动驾驶场景标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210435027.8A CN114743170B (zh) 2022-04-24 2022-04-24 一种基于ai算法的自动驾驶场景标注方法

Publications (2)

Publication Number Publication Date
CN114743170A CN114743170A (zh) 2022-07-12
CN114743170B true CN114743170B (zh) 2024-06-14

Family

ID=82284660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210435027.8A Active CN114743170B (zh) 2022-04-24 2022-04-24 一种基于ai算法的自动驾驶场景标注方法

Country Status (1)

Country Link
CN (1) CN114743170B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439957B (zh) * 2022-09-14 2023-12-08 上汽大众汽车有限公司 一种智能驾驶数据采集方法、采集装置、采集设备及一种计算机可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110843794B (zh) * 2020-01-15 2020-05-05 北京三快在线科技有限公司 驾驶场景理解方法、装置和轨迹规划方法、装置
CN114169381A (zh) * 2020-08-19 2022-03-11 深圳云天励飞技术股份有限公司 图像标注方法、装置、终端设备及存储介质
CN113673338B (zh) * 2021-07-16 2023-09-26 华南理工大学 自然场景文本图像字符像素弱监督自动标注方法、***及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IN DEFENSE OF PSEUDO-LABELING: AN UNCERTAINTY-AWARE PSEUDO-LABEL SELEC- TION FRAMEWORK FOR SEMI-SUPERVISED LEARNING;Mamshad Nayeem Rizve 等;《arXiv》;20210419;1-20 *
低分辨率人脸图像的迭代标签传播识别算法;薛杉 等;《模式识别与人工智能》;20180715;第31卷(第7期);602-611 *

Also Published As

Publication number Publication date
CN114743170A (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
CN111126197B (zh) 基于深度学习的视频处理方法及装置
CN111522951A (zh) 一种基于图像识别的敏感数据识别与分类的技术方法
CN112766170B (zh) 基于簇类无人机图像的自适应分割检测方法及装置
CN110992365A (zh) 一种基于图像语义分割的损失函数及其设计方法
CN114743170B (zh) 一种基于ai算法的自动驾驶场景标注方法
CN114511568B (zh) 基于无人机的高速公路桥梁检修方法
CN110751191A (zh) 一种图像的分类方法及***
CN114494890B (zh) 一种模型训练方法、商品图像管理方法及装置
CN111104855A (zh) 一种基于时序行为检测的工作流识别方法
CN113077438B (zh) 针对多细胞核彩色图像的细胞核区域提取方法及成像方法
CN112446417B (zh) 基于多层超像素分割的纺锤形果实图像分割方法及***
CN111832497B (zh) 一种基于几何特征的文本检测后处理方法
CN111401360B (zh) 优化车牌检测模型的方法及***、车牌检测方法及***
CN117079075A (zh) 一种基于伪标签生成与校正的小样本目标检测方法
CN111507348A (zh) 基于ctc深度神经网络的文字分割和识别的方法
CN114663731B (zh) 车牌检测模型的训练方法及***、车牌检测方法及***
CN115937578A (zh) 食品安全预警方法、装置、计算机设备及存储介质
CN115410131A (zh) 一种用于短视频智能分类的方法
CN113192108A (zh) 一种针对视觉跟踪模型的人在回路训练方法及相关装置
CN114581769A (zh) 一种基于无监督聚类的在建房屋识别方法
CN113569835A (zh) 一种基于目标检测和分割识别的水表数值读取方法
CN113420592B (zh) 一种基于代理度量模型的弱监督视频行为定位方法
CN110689520A (zh) 一种基于ai的磁芯产品缺陷检测***及方法
CN118193652B (zh) 一种资产回收管理用资产类型识别方法
CN113239206B (zh) 一种裁判文书精准化数据归类分析方法及计算机可以读取的存储装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant