CN113743163A - 交通目标识别模型训练方法、交通目标定位方法、装置 - Google Patents
交通目标识别模型训练方法、交通目标定位方法、装置 Download PDFInfo
- Publication number
- CN113743163A CN113743163A CN202010477668.0A CN202010477668A CN113743163A CN 113743163 A CN113743163 A CN 113743163A CN 202010477668 A CN202010477668 A CN 202010477668A CN 113743163 A CN113743163 A CN 113743163A
- Authority
- CN
- China
- Prior art keywords
- traffic target
- traffic
- image
- recognition
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 142
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000006870 function Effects 0.000 claims description 68
- 230000004044 response Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 33
- 238000012795 verification Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 230000004807 localization Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 27
- 238000004364 calculation method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 5
- 206010039203 Road traffic accident Diseases 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明实施例提供了一种交通目标识别模型训练方法、交通目标定位方法、装置。交通目标识别模型训练方法包括:获取训练样本集,训练样本集包括多个交通目标的训练样本;将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,对交通目标识别网络进行训练,获得训练好的交通目标特征识别模型;其中,预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;第一沙漏网络模型包括第一损失函数计算层,第二沙漏网络模型包括第二损失函数计算层。本发明实施例的能够提高对交通目标识别、定位的精准性和实时性。
Description
技术领域
本发明属于计算机领域,尤其涉及一种交通目标识别模型训练方法、交通目标定位方法、装置。
背景技术
随着机动车的数据增加,道路交通拥堵和交通事故频发。为了减少道路交通拥堵,以及交通事故的出现频次,国家、地区以及社会企业,都在积极探索智慧交通等有效的方案和管理工具,如智慧交通管控、辅助驾驶***等。
在目前的解决方案中,通过在车辆上配置的摄像头获取车辆前方的道路图像,通过检测车辆前方的道路图像识别交通目标,以及结合车辆辅助驾驶中的测距功能,获取交通场景的信息,但是,这种结合车辆辅助驾驶中的测距功能的识别和定位交通目标的方法,无法获取精准定位,而且由于存在遮挡物和盲区,车上的传感器也存在相机视角和视域的限制。因此,如何实现对交通目标的实时识别与定位,是实现智慧交通管控,减少道路交通拥堵的关键。
发明内容
本发明实施例提供一种交通目标识别模型训练方法、交通目标定位方法、装置,能够提高对交通目标识别、定位的精准性和实时性。
第一方面,本发明实施例提供一种交通目标识别模型训练方法,方法包括:获取训练样本集,训练样本集包括多个交通目标的训练样本;
将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,对交通目标识别网络进行训练,获得训练好的交通目标特征识别模型;其中,预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;第一沙漏网络模型包括第一损失函数计算层,第二沙漏网络模型包括第二损失函数计算层。
在第一方面的一些可实现方式中,获取训练样本集,包括:获取多个包括交通目标的原始图像;
确定每个原始图像中的交通目标,获得第一预处理原始图像;
对每个第一预处理原始图像进行尺度变化处理,获得交通目标的训练样本。
在第一方面的一些可实现方式中,对每个第一预处理原始图像进行尺度变化处理,获得交通目标的训练样本,还包括:对尺度变化处理后的第一预处理原始图像进行数据增强处理,获得预处理后的训练图像;
将处理后的训练图像作为交通目标的训练样本。
在第一方面的一些可实现方式中,将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,包括:通过可分离空间可分离卷积,对交通目标的训练样本进行下采样,获得下采样后的交通目标的训练样本;
将下采样后的交通目标的训练样本输入到预先构建的交通目标识别网络中。
在第一方面的一些可实现方式中,预先构建的交通目标识别网络相邻的卷积层之间采用可变性卷积。
在第一方面的一些可实现方式中,对交通目标识别网络进行训练,获得训练好的交通目标特征识别模型,包括:获取交通目标识别网络输出的交通目标特征识别图;
根据预先设置的验证样本集,确定交通目标特征识别图的损失函数值,其中,验证样本集包括多个对应交通目标的训练样本的验证样本;
当损失函数值满足预设训练停止条件时,获得训练好的交通目标识别模型。
在第一方面的一些可实现方式中,根据预先设置的验证样本集,确定交通目标特征识别图的损失函数值,包括:获取交通目标特征识别图的偏移损失函数值和交通目标特征识别图中每个关键点的焦点损失函数值;
根据偏移损失函数值和每个焦点损失函数值,确定交通目标特征识别图的损失函数值。
第二方面,本发明实施例提供了一种交通目标定位方法,方法包括:获取待识别图像和图像获取设备的姿态信息,其中,图像获取设备用于获取待识别图像;
将待识别图像输入交通目标识别模型,获得第一交通目标识别图像,其中,交通目标识别模型基于第一方面或者第一方面任一可实现方式中所述的交通目标识别模型训练方法得到;
获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标;
根据第一像素坐标和姿态信息,确定每个识别中心点的实时位置信息。
在第二方面的一些可实现方式中,在获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标之前,方法还包括:获取第一交通目标识别图像中的所有响应点的响应值;以及每个响应点的临近点的临近值;
根据响应值和临近值,提取满足预设提取规则的响应点作为第一交通目标识别图像中的识别中心点,其中,识别中心点的数量至少为一个。
在第二方面的一些可实现方式中,获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标,包括:获取第一交通目标识别图像中的每个识别中心点的原始像素坐标和第一交通目标识别图像的偏移量;
根据原始像素坐标和偏移量,确定第一交通目标识别图像中每个识别中心点的第一像素坐标。
在第二方面的一些可实现方式中,据第一像素坐标和姿态信息,确定每个识别中心点的实时位置信息,包括:根据每个识别中心点的第一像素坐标和姿态信息,确定每个识别中心点的位置坐标;
获取位置坐标与坐标系原点的夹角和距离,以及坐标系原点的位置信息;
根据夹角、距离和位置信息,确定每个识别中心点的实时位置信息。
第三方面,本发明实施例提供了一种交通目标识别模型训练装置,装置包括:样本获取模块,用于获取训练样本集,训练样本集包括多个交通目标的训练样本;
训练模块,用于将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,对交通目标识别网络进行训练,获得训练好的交通目标特征识别模型;
其中,预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;第一沙漏网络模型包括第一损失函数计算层,第二沙漏网络模型包括第二损失函数计算层。
第四方面,本发明实施例提供了一种交通目标定位装置,装置包括:图像获取模块,用于获取待识别图像和图像获取设备的姿态信息,其中,图像获取设备用于获取待识别图像;
识别模块,用于将待识别图像输入交通目标识别模型,获得第一交通目标识别图像,其中,交通目标识别模型基于第一方面或者第一方面任一可实现方式中所述的交通目标识别模型训练方法得到;
坐标获取模块,用与获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标;
位置定位模块,用与根据第一像素坐标和姿态信息,确定每个识别中心点的实时位置信息。
第五方面,本发明提供一种交通目标定位设备,该设备包括:处理器以及存储有计算机程序指令的存储器;处理器执行计算机程序指令时实现第一方面或者第一方面任一可实现方式中所述的交通目标识别模型训练方法或第二方面或者第二方面任一可实现方式中所述的交通目标定位方法。
第六方面,本发明提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现第一方面或者第一方面任一可实现方式中所述的交通目标识别模型训练方法或第二方面或者第二方面任一可实现方式中所述的交通目标定位方法。
本发明实施例提供的交通目标识别模型训练方法,通过对预先构建的交通目标识别模型进行训练,获得训练好的交通目标识别模型能够实时准确的获取待识别图像中的交通目标,为实现对交通目标的实时识别与定位提供了有效、可靠的数据支持。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种交通目标识别模型训练方法的流程示意图;
图2是本发明实施例提供的一种空间可分卷积计算方法流程示意图;
图3是本发明实施例提供的一种预先构建的交通目标识别网络的结构示意图;
图4是本发明实施例提供的一种沙漏的结构示意图;
图5是本发明实施例提供的一种可变性卷积结构的示意图;
图6是本发明实施例提供的一种交通目标定位方法的流程示意图;
图7是本发明实施例提供的另一种交通目标定位方法流程示意图;
图8是本发明实施例提供的一种交通目标识别模型训练装置的结构示意图;
图9是本发明实施例提供的一种交通目标定位装置的结构示意图;
图10是本发明实施例提供的一种交通目标定位设备的硬件结构示意图;
图11是本发明实施例提供的另一种交通目标识别定位设备的硬件结构示意图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
随着机动车的数据增加,道路交通拥堵和交通事故频发。为了减少道路交通拥堵,以及交通事故的出现频次,国家、地区以及社会企业,都在积极探索智慧交通等有效的方案和管理工具,如智慧交通管控、辅助驾驶***等。
图像处理和计算机视觉处理领域的一个重要分支是目标识别,对目标进行识别融合了图像处理、模式识别、人工智能、自动控制等许多领域的前沿技术。
在目前的解决方案中,通过在车辆上配置的摄像头获取车辆前方的道路图像,通过检测车辆前方的道路图像识别交通目标,以及结合车辆辅助驾驶中的测距功能,获取交通场景的信息,然后,在在定位的过程中,通过坐标转换计算距离,从而获得相对定位,然后根据双目摄像头的测距,计算目标距离。不仅需要的运算资源较大,且需要额外处理从候选区域框获取目标的定位点,难以实时应对复杂的交通环境。而且这种结合车辆辅助驾驶中的测距功能的识别和定位交通目标的方法,无法获取精准定位,而且由于存在遮挡物和盲区,车上的传感器也存在相机视角和视域的限制。
而由于车载相机视角和视域受限,若用单目相机又难以准确辨别交通目标,而且通过单目相机获取变化的多目标的经纬度定位存在难点,也难以实现信息的准确上报。
综合现有的技术方案,目标识别的精确度和速度难以平衡,无法在保持准确度较高的情况下达成实时性的要求。对目标识别和经纬度定位也存在割裂,难以同时且实时的获取多个目标的类别及其对应的准确经纬度信息。
因此,如何实现对交通目标的实时识别与定位,是实现智慧交通管控,减少道路交通拥堵的关键。
针对现有技术存在的不足,以解决上述现有技术中存在的问题,本发明通过提供交通目标识别模型训练、交通目标定位方法、装置,通过优化算法模型,提升多目标识别与定位的精准性和实时性。所获取的信息更加迅速且更加全面,更能获取准确的地理位置信息。
下面结合附图对本发明实施例所提供的交通目标识别模型训练方法进行介绍。
图1示出了本发明一个实施例提供的一种交通目标识别模型训练方法的流程示意图。如图1所示,该方法可以包括以下步骤:
S110、获取训练样本集。
其中,训练样本集可以包括多个交通目标的训练样本。
S120、将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,对交通目标识别网络进行训练,获得训练好的交通目标特征识别模型。
其中,预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;第一沙漏网络模型包括第一损失函数计算层,第二沙漏网络模型包括第二损失函数计算层。
本发明实施例提供的交通目标识别模型训练方法,通过对预先构建的交通目标识别模型进行训练,获得训练好的交通目标识别模型能够实时准确的获取待识别图像中的交通目标,为实现对交通目标的实时识别与定位提供了有效、可靠的数据支持。
下面,对S110-S120的内容分别进行描述:
首先介绍S110的具体实现方式。
在一些实施例中,可以将包含交通目标的视频进行筛选、抽帧以获得包括交通目标的原始图像。
可选地,在一个实施例中,获取训练样本集可以包括以下步骤:首先,获取多个包括交通目标的原始图像。然后,确定每个原始图像中的交通目标,获得第一预处理原始图像。最后,再对每个第一预处理原始图像进行尺度变化处理,获得交通目标的训练样本。
在一些实施例中,确定每个原始图像中的交通目标的方法可以包括对包括交通目标的视频图像中的交通目标进行标注,获得包括交通目标的第一预处理原始图像。
在一些实施例中,包括交通目标的第一预处理原始图像还可以作为验证验证样本集,用于在预设的交通目标识别网络输出的特征图后,确定交通目标特征识别图的损失函数值。
其中,被标注的交通目标包括但不限于交通目标的类别、交通目标的目标框区域、交通目标的区域面积等。
在一些实施例中,对第一预处理原始图像进行尺度变化,可以首先通过求余操作,获取变化倍数n,获得尺度变化处理后的第一预处理原始图像。
其中,n=min(w,h)%128,w,h是第一预处理原始图像的长和宽。示例性的,尺度变化处理后的第一预处理原始图像大小为128n*128n*3,3为颜色通道。例如,当变换倍数为n=2时,尺度变化处理后的第一预处理原始图像大小可固定为512*512*3。
在一些实施例中,可选的,可以直接将尺度变化处理后的第一预处理原始图像作为交通目标的训练样本,输入到预先构建的交通目标识别网络中。
为了加大对交通目标的训练强度,还可以对尺度变化处理后的第一预处理原始图像进行数据增强处理,具体可以包括以下步骤:对尺度变化处理后的第一预处理原始图像进行数据增强处理,获得预处理后的训练图像;将处理后的训练图像作为交通目标的训练样本。
可选的,在一些实施例中,可以采用随机翻转(flip)的方法对对尺度变化处理后的第一预处理原始图像进行数据增强处理,获得预处理后的训练图像。
其次介绍S120的具体实现方式。
在一些实施例中,将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,包括以下步骤:首先,通过可分离空间可分离卷积,对交通目标的训练样本进行下采样,获得下采样后的交通目标的训练样本;然后,将下采样后的交通目标的训练样本输入到预先构建的交通目标识别网络中。
具体的,每个交通目标的训练样本输入到预先构建的交通目标识别网络中后,在交通目标的训练样本进入到沙漏模块之前,还可以通过空间可分离卷积模块,对交通目标的训练样本进行下采样,以减少交通目标识别网络的计算量。
从概念上看,空间可分卷积是将一个卷积分解为两个单独的运算。
示例性的,如公式(1),以3×3的卷积核为例,3×3的卷积被分成了一个3×1核函数和一个1×3核函数。
在空间可分卷积中,3×1核先与图像卷积,然后再应用1×3核。而不是将3×3核直接与图像卷积,这样,执行同样的操作时仅需6数个参,而不是9个。此外,使用空间可分卷积时所需的矩阵乘法也更少,由于计算乘法的过程少,可以使得整个网络的计算复杂性下降,网络运行速度更快。图2是本发明实施例提供的一种空间可分卷积计算方法流程示意图。结合图2所示,输入的数据先与3×1的核函数卷积获得中间输出结果,中间输出结果在与一个1×3核函数卷积获得输出结果。
在一些实施例中,图3是本发明实施例提供的一种预先构建的交通目标识别网络的结构示意图。如图3所示,在预先构建的交通目标识别网络中,包括第一沙漏网络模型和第二沙漏网络模型,交通目标的训练样本经过空间可分离卷积模块下采样后,先进入到第一沙漏网络模型。
结合图3所示的预先构建的交通目标识别网络的结构,第一沙漏网络模型输出的数据,分成两个分支,其中,下部分支可以经过1x1卷积后,生成图3所示的热力图,为了将热力图添加回特征空间中,作为第二沙漏结构的输入,需要将热力图的通道数调整到与上部分支一致。
可选的,在一个实施例中,利用1×1的卷积层将热力图的通道数调整到与上部分支一致,然后将调整后的热力图与上部分支合并,作为下一个第二沙漏网络模型的输入特征。
作为一个具体的实施方式,第二沙漏结构的输出过程,与第一沙漏结果的输出过程相同,在此不进行赘述。
需要注意的是,在本发明实施例中,预先构建的交通目标识别网络中,每个沙漏结构都添加的一个损失函数计算层,作为中间监督,以提高对交通目标识别的精确度。
在一些实施例中,预先构建的交通目标识别网络相邻的卷积层之间采用可变性卷积。如图4所示的本发明实施例提供的一种沙漏的结构示意图,在沙漏结构内部对特征进行上采样和下采样时,其中,应用的卷积模块由1*1以及3*3的两个卷积层组合构成,为了提升特征的表现力,可选的,在3*3卷积层中,可以采用可变形卷积(Deformable ConvolutionalNetwork,DCN)的计算方式。
由于规则的卷积核一般呈长方形或正方形,使用规则的卷积和进行计算往往会限制特征抽取的有效性。因此,本发明实施例中,采用可变形卷积赋予卷积核形变的特性,让网络根据标注反传下来的误差自动的调整卷积核的形状,适应网络重点关注的目标区域,从而提取更好的特征。
图5是本发明实施例提供的一种可变性卷积结构的示意图,与传统卷积窗口只要训练每个卷积窗口的像素权重参数不同的是,在使用可变性卷积进行计算时,需要外加一些参数用来训练卷积窗口的形状,结合图5所示,图5中的偏移域(offset field)就是变形卷积外加的待训练参数,偏移域的大小与输入层图片大小一样(input feature map),卷积窗口在偏移域上滑动就呈现了卷积像素偏移的效果,达到采样点优化的效果。
在一些实施例中,对交通目标识别网络进行训练的过程中,还包括:获取交通目标识别网络输出的交通目标特征识别图;根据预先设置的验证样本集,确定交通目标特征识别图的损失函数值,其中,验证样本集包括多个对应交通目标的训练样本的验证样本;当损失函数值满足预设训练停止条件时,获得训练好的交通目标识别模型。
其中,根据预先设置的验证样本集,确定交通目标特征识别图的损失函数值,包括:获取交通目标特征识别图的偏移损失函数值和交通目标特征识别图中每个关键点的焦点损失函数值;根据偏移损失函数值和每个焦点损失函数值,确定交通目标特征识别图的损失函数值。
具体的,根据预先构建的交通目标识别网络获得的交通目标识别网络输出的交通目标特征识别图,包括对交通目标识别的关键点的热力图,在本发明实施例提供交通目标识别模型的训练方法中,根据预先设置的验证样本集,确定交通目标特征识别图的损失函数值时,需要进行热力图及偏移量的学习。
其中,对于热力图的学习,根据预先构建的交通目标识别网络中,每一个沙漏网络都添加包括损失函数计算层,每个沙漏结构输出的代表关键点热力图(heat map),关键点损失函数采用的是像素级逻辑回归的焦点损失函数(focal loss)。其中,损失函数的计算公式,如公式(2)所示。
其中,α和β是焦点损失函数的超参数,示例性的,可以α和β分别可以设置为2和4。
Yxyc是对应沙漏结构输出的热力图的验证样本。
Lk是关键点的损失函数。
N是图像中的关键点个数。
在一些实施例中,通过除以N可以实现将所有焦点损失函数的归一化。
对于偏移量的学习,由于预先构建的交通目标识别网络中对图像进行了下采样,会使得预先构建的交通目标识别网络输出特征图重新映射到原始图像时,会带来精度误差,因此对于每一个关键点,需要采用了一个偏移(local offset)来补偿误差。
可以理解的是,在同一输出的特征图中,所有关键点可以共享同一个偏移量的预测(offset prediction),即使用用一个偏置值(offset),其中,偏置值的偏移损失函数值为L1。
在一些实施例中,可以损失函数值满足预设训练停止条件,可以根据实际需要而进行具体的设置,示例性的,对每个目标关键点通过上述获得的焦点损失函数以及偏移损失函数值,可以计算每个目标关键点的总损失函数值,当总损失函数值趋于0时,可以认为预先构建的交通目标识别网络训练完成,获得训练好的交通目标识别模型。
通过本发明实施例提供的交通目标识别模型训练方法,对预先构建的交通目标识别模型进行训练,获得训练好的交通目标识别模型能够实时准确的获取待识别图像中的交通目标,为实现对交通目标的实时识别与定位提供了有效、可靠的数据支持。
对应本发明实施例提供的交通目标识别模型的训练方法,本发明实施例还提供了一种交通目标定位方法,图6是本发明实施例提供的一种交通目标定位方法的流程示意图。如图6所示,该方法可以包括以下步骤:
S601、获取待识别图像和图像获取设备的姿态信息。
其中,图像获取设备用于获取待识别图像。
在一些实施例中,待识别图像为需要进行实时识别的实景图像。
在一些实施例中,可以将单目相机作为获取实时识别实景图像的图像获取设备。其中,姿态测量***可以实时获取相机的姿态信息,其中,相机姿态信息包括单目相机内参信息、单目相机实时外参信息、单目相机实时经纬度位置信息。
示例性的,单目相机实时经纬度位置信息可以选择采用全球定位***(GlobalPositioning System,GPS)获取,在此并不用于具体限定实时经纬度位置信息获取方法。
S602、将待识别图像输入交通目标识别模型,获得第一交通目标识别图。
其中,交通目标识别模型基于本发明实施例提供的交通目标识别模型训练方法得到。
在一些实施例中,在根据交通目标识别模型获得的交通目标的特征图像,即第一交通目标识别图像。在第一交通目标识别图中包括至少一个识别出的交通目标的关键点,通常将这些关键点称为响应点。
S603、获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标。
为了更加准确的实现对交通目标的定位,作为一个具体的示例,在获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标之前,还包括获取第一交通目标识别图像中的所有响应点的响应值;以及每个响应点的临近点的临近值;根据响应值和临近值,提取满足预设提取规则的响应点作为第一交通目标识别图像中的识别中心点,其中,识别中心点的数量至少为一个。
在一些实施例中,根据第一交通目标识别图像的矩阵信息,确定每个响应点在第一交通目标识别图像的矩阵信息中的响应值,以及对应响应点的临近点的临近值,可选的,将每个响应点与其连接的八个临近点进行比较,如果该点响应值大于或等于其连接的八个临近点值则保留该响应点。
在一些实施例中,可选的,若所获得的响应点过多,或者响应点的数量超出预设的响应点获取数量,可以根据预设提取规则,从全部保留的响应点中,获取数值最大的前预设数量值的响应点。
例如,将响应点的预设数量值设置为100个。
可以理解的是,预设数量值的设置、结果的个数可根据实施场景进行变化。
将最终得到的响应点作为第一交通目标识别图像中的识别中心点,其中,识别中心点的数量至少为一个。
在一些实施例中,在获得识别中心点后,获取第一交通目标识别图像中的每个识别中心点的原始像素坐标和第一交通目标识别图像的偏移量;根据原始像素坐标和偏移量,确定第一交通目标识别图像中每个识别中心点的第一像素坐标。
为了减少计算负担,对每个识别中心点,可以在中心点位置添加根据本发明实施例提供的交通目标识别模型训练方法中学习获得的损失偏移量(L1 Loss),从而可以不进行尺度归一化的计算,直接使用原始像素坐标。其中,识别中心点的第一像素坐标可以表示为
S604、根据第一像素坐标和姿态信息,确定每个识别中心点的实时位置信息。
具体的,可以根据每个识别中心点的第一像素坐标和姿态信息,确定每个识别中心点的位置坐标;获取位置坐标与坐标系原点的夹角和距离,以及坐标系原点的位置信息;根据夹角、距离和位置信息,确定每个识别中心点的实时位置信息。
在一些实施例中,可以基于相机位姿估计和相机空间坐标系转换原理,利用实时采集的相机内参外参信息,在网络的决策层计算类别关键点在以固定基站为原点的世界坐标系中的坐标。并利用单目相机实时经纬度位置信息,计算实现交通目标的类别判断和经纬度实时定位。
示例性的,将识别中心点的像素坐标Pi=(ux,vy)转换到世界坐标Pw=(xw,yw,zw),像素坐标系与世界坐标系转换关系,如公式(4)所示:
其中,Z为比例系数。
R为摄像机坐标系到世界坐标系的旋转矩阵。
T为摄像机坐标系到世界坐标系的平移矩阵。
fx,fy为单目相机的像素焦距。
u0,u0为识别中心点对应待识别图像的点的像素坐标。
ux,uy为识别中心点的像素坐标。
可以理解的是,Z、R、T、fx、fy作为相机内参外参信息,可以通过单目相机位姿***获取。
在一些实施例中,为了降低计算复杂度,若采用将路侧单目相机布置于道路路侧高处,则获取的图像世界坐标系中高度坐标zw可以忽略,即zw=0。
在一些实施例中,可以选择将固定基站作为坐标系原点,根据识别中心点的世界坐标计算识别中心点与固定基站的方向夹角θ和距离D。
其中,方向夹角θ的计算公式如公式(5)所示。
距离D的计算公式如公式(6)所示。
最后,根据方向夹角、距离以及已知的固定基站经纬度计算识别中心点的经纬度,实现对交通目标的实时经纬度定位。
为了更加清楚的对本发明实施例提供的交通目标定位方法进行说明,下面结合图7所示的另一种交通目标定位方法进行介绍。
S701、获取待识别图像和图像获取设备的姿态信息。
其中,待识别图像的获取设备可以是路侧单目相机。
S702、将待识别图像输入到训练好的交通目标识别模型中,进行交通目标特征提取,获得交通目标识别图像的热力图和偏移量。
S703、获取热力图中的识别中心点。
具体的,识别中心点的提取数量可以根据实际应用的具体情况进行设置。
S704、根据交通目标识别图像的偏移量,确定识别中心点像素坐标。
S705、确定待识别图像中的识别出的交通目标的实时经纬度。
根据本发明实施例提供的交通目标定位方法,通过将实时获取的待识别图像输入到训练好的的交通目标识别模型中,能够获得有效、可靠的交通目标特征识别图像。同时,通过交通目标特征识别图像中的识别中心点的像素坐标结合图像获取设备的实时姿态信息,实现对交通目标的高效、实时、准确的定位。
对应本发明实施例提供的交通目标识别模型训练方法,本发明实施例提供的一种交通目标识别模型训练装置的结构示意图,如图8所示,该交通目标识别模型训练装置可以包括:样本获取模块810、训练模块820。
其中,样本获取模块810,用于获取训练样本集,训练样本集包括多个交通目标的训练样本。
训练模块820,用于将每个交通目标的训练样本输入到预先构建的交通目标识别网络中,对交通目标识别网络进行训练,获得训练好的交通目标特征识别模型;其中,预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;第一沙漏网络模型包括第一损失函数计算层,第二沙漏网络模型包括第二损失函数计算层。
在一些实施例中,样本获取模块810,用于获取多个包括交通目标的原始图像;确定每个原始图像中的交通目标,获得第一预处理原始图像;对每个第一预处理原始图像进行尺度变化处理,获得交通目标的训练样本。
在一些实施例中,样本获取模块810,还用于对尺度变化处理后的第一预处理原始图像进行数据增强处理,获得预处理后的训练图像;将处理后的训练图像作为交通目标的训练样本。
在一些实施例中,训练模块820,用于通过可分离空间可分离卷积,对交通目标的训练样本进行下采样,获得下采样后的交通目标的训练样本;将下采样后的交通目标的训练样本输入到预先构建的交通目标识别网络中。
在一些实施例中,预先构建的交通目标识别网络相邻的卷积层之间采用可变性卷积。
在一些实施例中,训练模块820,用于获取交通目标识别网络输出的交通目标特征识别图;根据预先设置的验证样本集,确定交通目标特征识别图的损失函数值,其中,验证样本集包括多个对应交通目标的训练样本的验证样本;当损失函数值满足预设训练停止条件时,获得训练好的交通目标识别模型。
在一些实施例中,训练模块820,用于获取交通目标特征识别图的偏移损失函数值和交通目标特征识别图中每个关键点的焦点损失函数值;根据偏移损失函数值和每个焦点损失函数值,确定交通目标特征识别图的损失函数值。
本发明实施例提供的交通目标识别8预先构建的交通目标识别模型进行训练,获得训练好的交通目标识别模型能够实时准确的获取待识别图像中的交通目标,为实现对交通目标的实时识别与定位提供了有效、可靠的数据支持。
可以理解的是,本发明实施例提供的交通目标识别模型训练装置,可以对应于本发明实施例提供的交通目标识别模型训练方法的执行主体,交通目标识别模型训练装置的各个模块/单元的操作和/或功能的具体细节可以参见上述本发明实施例提供的交通目标识别模型训练方法中的相应部分的描述,为了简洁,在此不再赘述。
对应本发明实施例提供的交通目标定位方法,本发明实施例提供的一种交通目标定位装置的结构示意图,如图9所示,该交通目标定位装置可以包括:图像获取模块910、识别模块920、坐标获取模块930、位置定位模块940。
具体的,图像获取模块910,用于获取待识别图像和图像获取设备的姿态信息,其中,图像获取设备用于获取待识别图像。
作为一个具体的示例,图像获取模块910可以获取单目相机实时内参外参以及经纬度信息。
识别模块920,用于将待识别图像输入交通目标识别模型,获得第一交通目标识别图像,其中,交通目标识别模型基于本发明实施例提供的交通目标识别模型训练方法得到。
坐标获取模块930,用于获取第一交通目标识别图像中的至少一个识别中心点的第一像素坐标。
位置定位模块940,用于根据第一像素坐标和姿态信息,确定每个识别中心点的实时位置信息。
在一些实施例中,交通目标定位装置还包括提取模块,用于获取第一交通目标识别图像中的所有响应点的响应值;以及每个响应点的临近点的临近值;根据响应值和临近值,提取满足预设提取规则的响应点作为第一交通目标识别图像中的识别中心点,其中,识别中心点的数量至少为一个。
在一些实施例中,坐标获取模块930,用于获取第一交通目标识别图像中的每个识别中心点的原始像素坐标和第一交通目标识别图像的偏移量;根据原始像素坐标和偏移量,确定第一交通目标识别图像中每个识别中心点的第一像素坐标。
在一些实施例中,位置定位模块940,用于根据每个识别中心点的第一像素坐标和姿态信息,确定每个识别中心点的位置坐标;获取位置坐标与坐标系原点的夹角和距离,以及坐标系原点的位置信息;根据夹角、距离和位置信息,确定每个识别中心点的实时位置信息。
在一些实施例中,可选的,交通目标定位装置还包括存储模块,用于存储采集的图像数据,对交通目标识别及经纬度定位结果数据。
在一些实施例中,可选的,交通目标定位装置还包括应用展示模块,用于接收交通目标识别及经纬度定位结果数据,并以适当的形式进行结果应用和展示。
可以理解的是,交通目标定位装置还可以包括通信模块,用于不同模块之间的数据通信。
根据本发明实施例提供的交通目标定位装置,通过将实时获取的待识别图像输入到训练好的的交通目标识别模型中,能够获得有效、可靠的交通目标特征识别图像。同时,通过交通目标特征识别图像中的识别中心点的像素坐标结合图像获取设备的实时姿态信息,实现对交通目标的高效、实时、准确的定位。
可以理解的是,本发明实施例提供的交通目标定位装置,可以对应于本发明实施例提供的交通目标定位方法的执行主体,交通目标定位装置的各个模块/单元的操作和/或功能的具体细节可以参见上述本发明实施例图1的交通目标定位方法中的相应部分的描述,为了简洁,在此不再赘述。
图10是本发明实施例提供的一种交通目标定位设备的硬件结构示意图。
如图10所示,本实施例中的交通目标定位设备包括输入设备1001、输入接口1002、中央处理器1003、存储器1004、输出接口1005、以及输出设备1006。其中,输入接口1002、中央处理器1003、存储器1004、以及输出接口1005通过总线1010相互连接,输入设备1001和输出设备1006分别通过输入接口1002和输出接口1005与总线1010连接,进而与交通目标定位设备1000的其他组件连接。
具体地,输入设备1001接收来自外部的输入信息,并通过输入接口1002将输入信息传送到中央处理器1003;中央处理器1003基于存储器1004中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器1004中,然后通过输出接口1005将输出信息传送到输出设备1006;输出设备1006将输出信息输出到交通目标定位设备1000的外部供用户使用。
也就是说,图10所示的交通目标定位设备也可以被实现为包括:存储有计算机可执行指令的存储器;以及处理器,该处理器在执行计算机可执行指令时可以实现结合本发明实施例提供的实例描述的交通目标识别模型训练方法以及交通目标定位方法。
在一个实施例中,图10所示的交通目标定位设备1000包括:存储器1004,用于存储程序;处理器1003,用于运行存储器中存储的程序,以执行本发明实施例提供的实例描述的交通目标识别模型训练方法以及交通目标定位方法。
本发明实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现本发明实施例提供的实例描述的交通目标识别模型训练方法以及交通目标定位方法。
作为一个具体的示例,交通目标定位设备可以具备包括中央处理器(CentralProcessing Unit,CPU),用于核心算法程序运行;图形处理器(Graphics ProcessingUnit,GPU),根据算法完成特征提取等等目标检测与识别算法的相关运算,并将处理后的结果在存储模块进行存储,通过通信模块发送至应用展示模块进行显示。
在一些实施例中,交通目标定位设备还可以具备可读写磁盘存储器。用于存储采集的待识别图像、交通目标识别及定位结果、用户信息等等数据,以便之后的处理和应用。
在一些实施例中,交通目标定位设备还可以是具备视频媒体播放功能和无线通信的设备。包括可联网配备显示器的个人电脑、手机终端等等。主要作用为对目标识别和经纬度定位结果进行多媒体展示以及提供第三方应用扩展。
在一些实施例中,交通目标定位设备还可以包括用于通信的设备,例如包括串行外设接口(Serial Peripheral Interface,SPI)通信总线、I2C(Inter-IntegratedCircuit,I2C)通信总线,以及移动无线通信装置,主要作用为将采集的待识别图像发送到CPU或者是GPU,以及将得到的交通目标识别结果以及经纬度定位结果发送至用于展示的设备中。
图11是本发明实施例提供的另一种交通目标识别定位设备的硬件结构示意图。
如图11所示,交通目标识别定位设备的硬件结构可以包括1台高清工业相机用固定杆固定在路侧一旁,示例性的高度可以为5米,并以30度倾斜角面向道路;计算机及存储介质和通信设备安装于固定杆下方末端;并且上述设备配备独立供电***,以确保本发明实施例能实现全天候实时监测。图像采集采用路侧基站安装单目相机的方式进行拍摄,路侧基站单目相机集成相机本身经纬度位置信息的采集、相机内参外参估计、数据处理及通信。本发明实施例的交通目标识别定位设备能快速进行实景图像的获取、处理和传输。
需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,做出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、只读存储器(Read-Only Memory,ROM)、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(Radio Frequency,RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本发明中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或***。但是,本发明不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
以上所述,仅为本发明的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
Claims (15)
1.一种交通目标识别模型训练方法,其特征在于,所述方法包括:
获取训练样本集,所述训练样本集包括多个交通目标的训练样本;
将每个所述交通目标的训练样本输入到预先构建的交通目标识别网络中,对所述交通目标识别网络进行训练,获得训练好的交通目标特征识别模型;
其中,所述预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;所述第一沙漏网络模型包括所述第一损失函数计算层,所述第二沙漏网络模型包括第二损失函数计算层。
2.根据权利要求1所述的方法,其特征在于,所述获取训练样本集,包括:
获取多个包括所述交通目标的原始图像;
确定每个所述原始图像中的交通目标,获得第一预处理原始图像;
对每个所述第一预处理原始图像进行尺度变化处理,获得所述交通目标的训练样本。
3.根据权利要求2所述的方法,其特征在于,所述对每个所述第一预处理原始图像进行尺度变化处理,获得所述交通目标的训练样本,还包括:
对尺度变化处理后的所述第一预处理原始图像进行数据增强处理,获得预处理后的训练图像;
将所述处理后的训练图像作为所述交通目标的训练样本。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述将每个所述交通目标的训练样本输入到预先构建的交通目标识别网络中,包括:
通过可分离空间可分离卷积,对所述交通目标的训练样本进行下采样,获得下采样后的交通目标的训练样本;
将下采样后的交通目标的训练样本输入到所述预先构建的交通目标识别网络中。
5.根据权利要求1所述的方法,其特征在于,所述预先构建的交通目标识别网络相邻的卷积层之间采用可变性卷积。
6.根据权利要求1所述的方法,其特征在于,所述对所述交通目标识别网络进行训练,获得训练好的交通目标特征识别模型,包括:
获取所述交通目标识别网络输出的交通目标特征识别图;
根据预先设置的验证样本集,确定所述交通目标特征识别图的损失函数值,其中,所述验证样本集包括多个对应所述交通目标的训练样本的验证样本;
当所述损失函数值满足预设训练停止条件时,获得训练好的交通目标识别模型。
7.根据权利要求6所述的方法,其特征在于,所述根据预先设置的验证样本集,确定所述交通目标特征识别图的损失函数值,包括:
获取所述交通目标特征识别图的偏移损失函数值和所述交通目标特征识别图中每个关键点的焦点损失函数值;
根据所述偏移损失函数值和每个所述焦点损失函数值,确定所述交通目标特征识别图的损失函数值。
8.一种交通目标定位方法,其特征在于,所述方法包括:
获取待识别图像和图像获取设备的姿态信息,其中,所述图像获取设备用于获取所述待识别图像;
将所述待识别图像输入交通目标识别模型,获得第一交通目标识别图像,其中,所述交通目标识别模型基于权利要求1-7任意一项所述的交通目标识别模型训练方法得到;
获取所述第一交通目标识别图像中的至少一个识别中心点的第一像素坐标;
根据所述第一像素坐标和所述姿态信息,确定每个所述识别中心点的实时位置信息。
9.根据权利要求8所述的方法,其特征在于,在所述获取所述第一交通目标识别图像中的至少一个识别中心点的第一像素坐标之前,所述方法还包括:
获取所述第一交通目标识别图像中的所有响应点的响应值;以及
每个所述响应点的临近点的临近值;
根据所述响应值和所述临近值,提取满足预设提取规则的响应点作为所述第一交通目标识别图像中的识别中心点,其中,所述识别中心点的数量至少为一个。
10.根据权利要求8或9所述的方法,其特征在于,所述获取所述第一交通目标识别图像中的至少一个识别中心点的第一像素坐标,包括:
获取所述第一交通目标识别图像中的每个识别中心点的原始像素坐标和所述第一交通目标识别图像的偏移量;
根据所述原始像素坐标和所述偏移量,确定所述第一交通目标识别图像中每个识别中心点的第一像素坐标。
11.根据权利要求8所述的方法,其特征在于,所述根据所述第一像素坐标和所述姿态信息,确定每个所述识别中心点的实时位置信息,包括:
根据每个所述识别中心点的第一像素坐标和所述姿态信息,确定每个所述识别中心点的位置坐标;
获取所述位置坐标与坐标系原点的夹角和距离,以及所述坐标系原点的位置信息;
根据所述夹角、所述距离和所述位置信息,确定每个所述识别中心点的实时位置信息。
12.一种交通目标识别模型训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取训练样本集,所述训练样本集包括多个交通目标的训练样本;
训练模块,用于将每个所述交通目标的训练样本输入到预先构建的交通目标识别网络中,对所述交通目标识别网络进行训练,获得训练好的交通目标特征识别模型;
其中,所述预先构建的交通目标识别模型,包括第一沙漏网络模型和第二沙漏网络模型;所述第一沙漏网络模型包括所述第一损失函数计算层,所述第二沙漏网络模型包括第二损失函数计算层。
13.一种交通目标定位装置,其特征在于,所述装置包括:
图像获取模块,用于获取待识别图像和图像获取设备的姿态信息,其中,所述图像获取设备用于获取所述待识别图像;
识别模块,用于将所述待识别图像输入交通目标识别模型,获得第一交通目标识别图像,其中,所述交通目标识别模型基于权利要求1-7任意一项所述的交通目标识别模型训练方法得到;
坐标获取模块,用与获取所述第一交通目标识别图像中的至少一个识别中心点的第一像素坐标;
位置定位模块,用与根据所述第一像素坐标和所述姿态信息,确定每个所述识别中心点的实时位置信息。
14.一种交通目标定位设备,其特征在于,所述设备包括:处理器,以及存储有计算机程序指令的存储器;
所述处理器读取并执行所述计算机程序指令,以实现如权利要求1-7任意一项所述的交通目标识别模型训练方法或权利要求8-11任意一项所述的交通目标定位方法。
15.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-7任意一项所述的交通目标识别模型训练方法或权利要求8-11任意一项所述的交通目标定位方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010477668.0A CN113743163A (zh) | 2020-05-29 | 2020-05-29 | 交通目标识别模型训练方法、交通目标定位方法、装置 |
PCT/CN2021/099414 WO2021239156A1 (zh) | 2020-05-29 | 2021-06-10 | 交通目标识别模型训练方法、交通目标定位方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010477668.0A CN113743163A (zh) | 2020-05-29 | 2020-05-29 | 交通目标识别模型训练方法、交通目标定位方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113743163A true CN113743163A (zh) | 2021-12-03 |
Family
ID=78722987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010477668.0A Pending CN113743163A (zh) | 2020-05-29 | 2020-05-29 | 交通目标识别模型训练方法、交通目标定位方法、装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113743163A (zh) |
WO (1) | WO2021239156A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419594A (zh) * | 2022-01-17 | 2022-04-29 | 智道网联科技(北京)有限公司 | 智慧交通路牌的识别方法及装置 |
CN117115759B (zh) * | 2023-04-12 | 2024-04-09 | 盐城工学院 | 一种基于类别引导的路侧交通目标检测***及方法 |
CN117390296B (zh) * | 2023-12-13 | 2024-04-12 | 深圳须弥云图空间科技有限公司 | 对象推荐方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876823A (zh) * | 2018-07-02 | 2018-11-23 | 晋建志 | 基于时空连续性的单目跨相机多目标识别定位跟踪办法 |
CN109460740A (zh) * | 2018-11-15 | 2019-03-12 | 上海埃威航空电子有限公司 | 基于ais与视频数据融合的船舶身份识别方法 |
CN109657614A (zh) * | 2018-12-19 | 2019-04-19 | 沈阳天择智能交通工程有限公司 | 航拍道路交通事故现场勘查中道路及车辆自动识别方法 |
CN109800321A (zh) * | 2018-12-24 | 2019-05-24 | 银江股份有限公司 | 一种卡口图像车辆检索方法及*** |
CN110188780A (zh) * | 2019-06-03 | 2019-08-30 | 电子科技大学中山学院 | 用于定位多目标特征点的深度学习模型的构建方法及装置 |
CN110503112A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
CN110532928A (zh) * | 2019-08-23 | 2019-12-03 | 安徽大学 | 基于面部区域规范化和可变形沙漏网络的面部关键点检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9202116B2 (en) * | 2013-10-29 | 2015-12-01 | National Taipei University Of Technology | Image processing method and image processing apparatus using the same |
CN110516559B (zh) * | 2019-08-02 | 2022-02-22 | 西安天和防务技术股份有限公司 | 适用于精准监控的目标跟踪方法及装置、计算机设备 |
-
2020
- 2020-05-29 CN CN202010477668.0A patent/CN113743163A/zh active Pending
-
2021
- 2021-06-10 WO PCT/CN2021/099414 patent/WO2021239156A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876823A (zh) * | 2018-07-02 | 2018-11-23 | 晋建志 | 基于时空连续性的单目跨相机多目标识别定位跟踪办法 |
CN109460740A (zh) * | 2018-11-15 | 2019-03-12 | 上海埃威航空电子有限公司 | 基于ais与视频数据融合的船舶身份识别方法 |
CN109657614A (zh) * | 2018-12-19 | 2019-04-19 | 沈阳天择智能交通工程有限公司 | 航拍道路交通事故现场勘查中道路及车辆自动识别方法 |
CN109800321A (zh) * | 2018-12-24 | 2019-05-24 | 银江股份有限公司 | 一种卡口图像车辆检索方法及*** |
CN110188780A (zh) * | 2019-06-03 | 2019-08-30 | 电子科技大学中山学院 | 用于定位多目标特征点的深度学习模型的构建方法及装置 |
CN110532928A (zh) * | 2019-08-23 | 2019-12-03 | 安徽大学 | 基于面部区域规范化和可变形沙漏网络的面部关键点检测方法 |
CN110503112A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
Non-Patent Citations (4)
Title |
---|
MLKING200: "Stacked Hourglass Networks - 堆叠沙漏网络结构详解", 《HTTPS://BLOG.CSDN.NET/WANGZI371312/ARTICLE/DETAILS/81174452》, 23 July 2018 (2018-07-23), pages 1 - 3 * |
SANZHAR RAKHIMKUL: "Autonomous Object Detection and Grasping Using Deep Learning for Design of an Intelligent Assistive Robot Manipulation System", 《IEEE》, 31 December 2019 (2019-12-31) * |
刘颖;刘红燕;范九伦;公衍超;李莹华;王富平;卢津;: "基于深度学习的小目标检测研究与应用综述", 电子学报, no. 03, 15 March 2020 (2020-03-15) * |
李媛媛: "基于深度学习的图像分类及目标定位", 《中国优秀硕士学位论文全文数据库》, 31 October 2018 (2018-10-31) * |
Also Published As
Publication number | Publication date |
---|---|
WO2021239156A1 (zh) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112417967B (zh) | 障碍物检测方法、装置、计算机设备和存储介质 | |
EP4152204A1 (en) | Lane line detection method, and related apparatus | |
US20220245792A1 (en) | Systems and methods for image quality detection | |
CN109086668B (zh) | 基于多尺度生成对抗网络的无人机遥感影像道路信息提取方法 | |
CN109099929B (zh) | 基于场景指纹的智能车定位装置及方法 | |
US20180189577A1 (en) | Systems and methods for lane-marker detection | |
WO2021239156A1 (zh) | 交通目标识别模型训练方法、交通目标定位方法、装置 | |
CN111259706B (zh) | 一种车辆的车道线压线判断方法和*** | |
CN111259704B (zh) | 一种虚线车道线端点检测模型的训练方法 | |
CN111274926B (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
CN111169468A (zh) | 一种自动泊车的***及方法 | |
CN111027381A (zh) | 利用单目相机识别障碍物的方法、装置、设备及存储介质 | |
CN114359181B (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及*** | |
CN112801158A (zh) | 基于级联融合和注意力机制的深度学习小目标检测方法及装置 | |
CN111738033B (zh) | 基于平面分割的车辆行驶信息确定方法及装置、车载终端 | |
CN111738032B (zh) | 一种车辆行驶信息确定方法及装置、车载终端 | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN110992424B (zh) | 基于双目视觉的定位方法和*** | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN111967396A (zh) | 障碍物检测的处理方法、装置、设备及存储介质 | |
CN112654998B (zh) | 一种车道线检测方法和装置 | |
CN111098850A (zh) | 一种自动停车辅助***及自动泊车方法 | |
CN111738036A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110909656B (zh) | 一种雷达与摄像机融合的行人检测方法和*** | |
CN112149707B (zh) | 图像采集控制方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |