CN114821431A - 一种隧道内实时多类别多目标跟踪方法 - Google Patents
一种隧道内实时多类别多目标跟踪方法 Download PDFInfo
- Publication number
- CN114821431A CN114821431A CN202210481479.XA CN202210481479A CN114821431A CN 114821431 A CN114821431 A CN 114821431A CN 202210481479 A CN202210481479 A CN 202210481479A CN 114821431 A CN114821431 A CN 114821431A
- Authority
- CN
- China
- Prior art keywords
- target
- feature map
- network
- loss
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 37
- 239000013598 vector Substances 0.000 claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 230000005764 inhibitory process Effects 0.000 claims abstract description 3
- 238000005070 sampling Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 3
- 230000004438 eyesight Effects 0.000 abstract description 2
- 238000011176 pooling Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉技术领域,尤其涉及一种隧道内实时多类别多目标跟踪方法:其包括步骤1:将检测网络与特征提取网络融合后训练,得到训练好的融合网络;步骤2:将隧道内车道图片输入至融合网络后输出感兴趣区域内目标的预测结果并保存全局特征图,其中预测结果包括目标类别、置信度和位置信息;步骤3:对预测结果进行非极大值抑制从而筛选出检测目标;步骤4:根据检测目标的位置信息在全局特征图中截取目标特征;步骤5:各目标特征图通过SPP网络得到各目标对应的目标特征向量;步骤6:将极大值抑制后的预测结果和目标特征向量输入到***中进行目标跟踪。本发明有效提高隧道复杂场景的多目标跟踪效率和准确性。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种隧道内实时多类别多目标跟踪方法。
背景技术
多目标跟踪是目前研究的热点之一,其是深度挖掘交通监控视频中车辆行驶状况(如车速)、分析车辆异常行为(如异常停车、实线越线)的基础。然而,目前的视频多目标跟踪技术仍存在一些难点,如跟踪所花费的时间较长、在复杂场景下对目标跟踪准确率低等问题。隧道场景复杂,眩光干扰严重切远处目标小,对车辆多目标跟踪的准确性和实时性提出了更高的要求。目前已有的多目标跟踪算法或跟踪精度不够,或不满足工程实践的实时性,或仅能应用于单类别多目标跟踪,难以应用于隧道视频监控智能处理***,难以满足隧道场景的要求。
发明内容
本发明的目的是为了提供一种隧道内实时多类别多目标跟踪方法,有效提高车辆多目标跟踪的处理效率,实现对多个类别的多个目标同时进行跟踪,且适用于隧道复杂场景。
为解决以上技术问题,本发明的技术方案为:一种隧道内实时多类别多目标跟踪方法,包括:
步骤1:将检测网络与特征提取网络融合后训练,得到训练好的融合网络;
步骤2:将隧道内车道图片输入至融合网络后输出感兴趣区域内目标的预测结果并保存全局特征图,其中预测结果包括目标类别、置信度和位置信息;
步骤3:对预测结果进行非极大值抑制从而筛选出检测目标;
步骤4:根据检测目标的位置信息在全局特征图中截取目标特征;
步骤5:各目标特征图通过SPP网络得到各目标对应的目标特征向量;
步骤6:将极大值抑制后的预测结果和目标特征向量输入到***中进行目标跟踪。
进一步地,检测网络为SSD或YOLO系列。
进一步地,训练融合网络时,构建相应的训练集,训练集包括目标类别、id和坐标。
进一步地,所述***为基于DeepSORT算法的***。
进一步地,步骤1具体为:
步骤1.1:图片输入融合网络,获取输入图片的FPN全局特征图;
步骤1.2:获取目标预测的类别、置信度和位置信息;
步骤1.3:判断是否训练,若不训练,则执行步骤2;若训练,则执行步骤1.4的训练步骤;步骤1.4:训练融合网络,具体为:
根据预测坐标在全局特征图中截取目标特征;
通过SPP网络得到各目标对应的目标特征向量;
计算损失,反向传播训练网络,即根据损失值修改网络参数。
进一步地,所述步骤1.4的训练步骤具体为:
步骤1.41:输入图片通过检测网络得到预测特征图,从而得到预测结果,即类别、置信度和位置信息;
步骤1.42:将检测网络8X下采样特征图C4进行2X上采样得到C4’;将检测网络4X下采样特征图C3进行1*1卷积得到C3’,C3’与C4’相拼接得到特征图P3;
步骤1.43:特征图P3进行2X上采样得到P3’,特征图C2进行1*1卷积得到C2’,P3’与C2’相拼接得到特征图P2,P2尺寸为w*h*c,其中w表示宽,h表示高,c表示通道;
步骤1.44:将特征图P2进行卷积操作,得到全局特征图F2;
步骤1.45:将检测网络的n个目标的预测坐标,映射到全局特征图F2上;
步骤1.46:根据目标在全局特征图的位置,将目标在全局特征图中截取出来,得到第i个目标的特征图F_Xi;
步骤1.47:各目标特征图通过SPP网络得到特征向量F_Vi;
步骤1.48:重复步骤1.47,得到n个目标所对应的特征向量F_Vi,进行拼接操作后,再进行BN操作实现归一化处理,得到特征向量F_Vn;
步骤1.49:将特征向量F_Vn后连接一个全连接层,全连接层输出大小为训练集id的最大值id_max+2,得到n*(id_max+2)大小;
步骤1.410:根据公式(1)对n*(id_max+2)与n个目标对应的真实id标签值进行交叉熵损失计算,其中,id为-1时不计算损失,得到Lid;
式中,M为类别的数量,N为样本数量,yic为符号函数,pic为观测样本i属于类别c的预测概率;
步骤1.411:采取多任务损失训练对检测网络原有损失函数与Lid进行训练;具体公式如下:
与现有技术相比,本发明具有如下有益效果:
本发明首先将检测网络与特征提取网络进行融合,大大减少跟踪耗费时间,同时可以对多个类别多个目标进行跟踪,其次还采取FPN、SPP、交叉熵损失训练等方式对融合网络的特征提取分支进行优化,使网络提取特征更加准确,可以有效提高多目标跟踪算法的处理效率,实现对多个类别的多个目标同时进行跟踪,适用于隧道复杂场景。
附图说明
图1为本发明隧道内实时多类别多目标跟踪方法流程图;
图2为本发明检测与特征提取融合网络的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施例对本发明作进一步详细说明。
请参考图1和图2,本发明为一种隧道内实时多类别多目标跟踪方法,其包括:
步骤1:将检测网络与特征提取网络融合后训练,得到训练好的融合网络;其中,选择的检测网络为SSD或YOLO系列;步骤1具体为:
步骤1.1:图片输入融合网络,获取输入图片的FPN全局特征图;
步骤1.2:获取目标预测的类别、置信度和位置信息;
步骤1.3:判断是否训练,若不训练,则执行步骤2;若训练,则执行步骤1.4的训练步骤;
步骤1.4:训练融合网络:根据预测坐标在全局特征图中截取目标特征;通过SPP网络得到各目标对应的目标特征向量;计算损失,反向传播训练网络,即根据损失值修改网络参数;训练融合网络时,构建相应的训练集,训练集包括目标类别、id和坐标;步骤1.4具体包括:
步骤1.41:输入图片通过检测网络得到预测特征图,从而得到预测结果,即类别、置信度和位置信息;
步骤1.42:将检测网络8X下采样特征图C4进行2X上采样得到C4’;将检测网络4X下采样特征图C3进行1*1卷积得到C3’,C3’与C4’相拼接得到特征图P3;
其中,下采样操作可以理解为压缩图像,原图宽w,高h,经过2X下采样后,宽高各缩小一半;4X下采样特征图,就是原图宽高各除以4;8X下采样特征图,就是原图宽高各除以8;上采样操作可以理解为填充图像,原特征图宽w,高h,2X上采样后,得到宽2w,高2h的特征图;
其中,C3大小为w/4,h/4,进行1*1卷积,意味着其宽高不变,只是channel维度变化,例如由2c变为c,channel可以理解为厚度,使得C3’与C4’channel维度相同,均为c,然后拼接,得到w/4,h/4,channel为2c的特征图;
步骤1.43:特征图P3进行2X上采样得到P3’,特征图C2进行1*1卷积得到C2’,P3’与C2’相拼接得到特征图P2,P2尺寸为w*h*c,其中w表示宽,h表示高,c表示通道;
步骤1.44:将特征图P2进行卷积操作,卷积核输入特征图大小为3*3,padding为1,步长为1,输入channel为c,输出channel为128,得到w*h*128大小的全局特征图F2;
步骤1.45:将检测网络的n个目标的预测坐标,映射到全局特征图F2上;
步骤1.46:根据目标在全局特征图的位置,将目标在全局特征图中截取出来,得到第i个目标的特征图F_Xi,F_Xi的尺寸为wi*hi*128;
步骤1.47:各目标特征图通过SPP网络(本实施例中,直接将特征图划分为1*1的特征块,进行最大池化操作),得到1*128的特征向量F_Vi;
SPP本身分为以下步骤:
(1)、特征图划分为1*1的特征块,对每个块进行池化操作,得到1*128的特征向量;
(2)、特征图划分为2*2的特征块,对每个块进行池化操作,得到4*128的特征向量;
(3)、特征图划分为4*4的特征块,对每个块进行池化操作,得到16*128的特征向量;
(4)、将1*128,4*128,16*128的特征向量全部拼接,得到21*128的特征向量;
本实施例中,为方便仅将特征图划分为1*1的特征块,得到1*128的特征向量;
步骤1.48:重复步骤1.47,得到n个目标所对应的特征向量F_Vi,进行拼接操作后,再进行BN操作实现归一化处理,得到大小为n*128的特征向量F_Vn;
步骤1.49:将特征向量F_Vn后连接一个全连接层,全连接层输入大小为128,输出大小为训练集id的最大值id_max+2,得到n*(id_max+2)大小;
步骤1.410:根据公式(1)对n*(id_max+2)与n个目标对应的真实id标签值进行交叉熵损失计算,其中,id为-1时不计算损失,得到Lid;
式中,M为类别的数量,N为样本数量,yic为符号函数(若观测样本i的真实类别为c则为1,否则为0),pic为观测样本i属于类别c的预测概率;
步骤1.411:采取多任务损失训练对检测网络原有损失函数与Lid进行训练;具体公式如下:
步骤2:将隧道内车道图片输入至融合网络后输出感兴趣区域内目标的预测结果并保存全局特征图,其中预测结果包括目标类别、置信度和位置信息;隧道内车道图片通过隧道内摄像头视频监控获取;
步骤3:对预测结果中的位置坐标进行非极大值抑制(Non-Maximum Suppression,NMS)从而筛选出准确的检测目标;
步骤4:根据检测目标的位置坐标信息映射到全局特征图上,在全局特征图中截取目标特征F_Xi;
步骤5:各目标特征图通过SPP网络得到各目标对应的目标特征向量F_Vi;重复该步骤,得到n个目标所对应的特征向量F_Vi;
步骤6:将极大值抑制后的预测结果(类别、置信度、位置信息)和目标特征向量输入到***中进行目标跟踪;本实施例中,***为基于DeepSORT算法的***。
以上内容是结合具体的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (6)
1.一种隧道内实时多类别多目标跟踪方法,其特征在于:包括
步骤1:将检测网络与特征提取网络融合后训练,得到训练好的融合网络;
步骤2:将隧道内车道图片输入至融合网络后输出感兴趣区域内目标的预测结果并保存全局特征图,其中预测结果包括目标类别、置信度和位置信息;
步骤3:对预测结果进行非极大值抑制从而筛选出检测目标;
步骤4:根据检测目标的位置信息在全局特征图中截取目标特征;
步骤5:各目标特征图通过SPP网络得到各目标对应的目标特征向量;
步骤6:将极大值抑制后的预测结果和目标特征向量输入到***中进行目标跟踪。
2.根据权利要求1所述的隧道内实时多类别多目标跟踪方法,其特征在于:检测网络为SSD或YOLO系列。
3.根据权利要求1所述的隧道内实时多类别多目标跟踪方法,其特征在于:训练融合网络时,构建相应的训练集,训练集包括目标类别、id和坐标。
4.根据权利要求1所述的隧道内实时多类别多目标跟踪方法,其特征在于:所述***为基于DeepSORT算法的***。
5.根据权利要求1所述的隧道内实时多类别多目标跟踪方法,其特征在于:步骤1具体为:
步骤1.1:图片输入融合网络,获取输入图片的FPN全局特征图;
步骤1.2:获取目标预测的类别、置信度和位置信息;
步骤1.3:判断是否训练,若不训练,则执行步骤2;若训练,则执行步骤1.4的训练步骤;
步骤1.4:训练融合网络,具体为:
根据预测坐标在全局特征图中截取目标特征;
通过SPP网络得到各目标对应的目标特征向量;
计算损失,反向传播训练网络,即根据损失值修改网络参数。
6.根据权利要求5所述的隧道内实时多类别多目标跟踪方法,其特征在于:所述步骤1.4的训练步骤具体为:
步骤1.41:输入图片通过检测网络得到预测特征图,从而得到预测结果,即类别、置信度和位置信息;
步骤1.42:将检测网络8X下采样特征图C4进行2X上采样得到C4’;将检测网络4X下采样特征图C3进行1*1卷积得到C3’,C3’与C4’相拼接得到特征图P3;
步骤1.43:特征图P3进行2X上采样得到P3’,特征图C2进行1*1卷积得到C2’,P3’与C2’相拼接得到特征图P2,P2尺寸为w*h*c,其中w表示宽,h表示高,c表示通道;
步骤1.44:将特征图P2进行卷积操作,得到全局特征图F2;
步骤1.45:将检测网络的n个目标的预测坐标,映射到全局特征图F2上;
步骤1.46:根据目标在全局特征图的位置,将目标在全局特征图中截取出来,得到第i个目标的特征图F_Xi;
步骤1.47:各目标特征图通过SPP网络得到特征向量F_Vi;
步骤1.48:重复步骤1.47,得到n个目标所对应的特征向量F_Vi,进行拼接操作后,再进行BN操作实现归一化处理,得到特征向量F_Vn;
步骤1.49:将特征向量F_Vn后连接一个全连接层,全连接层输出大小为训练集id的最大值id_max+2,得到n*(id_max+2)大小;
步骤1.410:根据公式(1)对n*(id_max+2)与n个目标对应的真实id标签值进行交叉熵损失计算,其中,id为-1时不计算损失,得到Lid;
式中,M为类别的数量,N为样本数量,yic为符号函数,pic为观测样本i属于类别c的预测概率;
步骤1.411:采取多任务损失训练对检测网络原有损失函数与Lid进行训练;具体公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210481479.XA CN114821431A (zh) | 2022-05-05 | 2022-05-05 | 一种隧道内实时多类别多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210481479.XA CN114821431A (zh) | 2022-05-05 | 2022-05-05 | 一种隧道内实时多类别多目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821431A true CN114821431A (zh) | 2022-07-29 |
Family
ID=82512001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210481479.XA Pending CN114821431A (zh) | 2022-05-05 | 2022-05-05 | 一种隧道内实时多类别多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821431A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021035807A1 (zh) * | 2019-08-23 | 2021-03-04 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN113609904A (zh) * | 2021-06-30 | 2021-11-05 | 杭州电子科技大学 | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 |
CN114202672A (zh) * | 2021-12-09 | 2022-03-18 | 南京理工大学 | 一种基于注意力机制的小目标检测方法 |
-
2022
- 2022-05-05 CN CN202210481479.XA patent/CN114821431A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021035807A1 (zh) * | 2019-08-23 | 2021-03-04 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN113609904A (zh) * | 2021-06-30 | 2021-11-05 | 杭州电子科技大学 | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 |
CN114202672A (zh) * | 2021-12-09 | 2022-03-18 | 南京理工大学 | 一种基于注意力机制的小目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598030B (zh) | 一种航拍图像中车辆检测和分割的方法及*** | |
CN112750150B (zh) | 基于车辆检测和多目标跟踪的车流量统计方法 | |
CN112884064A (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN113468967B (zh) | 基于注意力机制的车道线检测方法、装置、设备及介质 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
WO2012139228A1 (en) | Video-based detection of multiple object types under varying poses | |
CN116188999B (zh) | 一种基于可见光和红外图像数据融合的小目标检测方法 | |
CN113657409A (zh) | 车辆损失检测方法、装置、电子设备及存储介质 | |
CN116434159A (zh) | 一种基于改进YOLO V7和Deep-Sort的交通流量统计方法 | |
CN112990065A (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
CN115035295A (zh) | 一种基于共享卷积核和边界损失函数的遥感图像语义分割方法 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及*** | |
CN114898403A (zh) | 一种基于Attention-JDE网络的行人多目标跟踪方法 | |
CN113255555A (zh) | 中国交通标志牌识别方法、***、处理设备及存储介质 | |
Kumar et al. | Improved YOLOv4 approach: a real time occluded vehicle detection | |
CN113361528B (zh) | 一种多尺度目标检测方法及*** | |
Yang et al. | YOLOv8-Lite: A Lightweight Object Detection Model for Real-time Autonomous Driving Systems | |
CN116563553B (zh) | 一种基于深度学习的无人机图像分割方法和*** | |
CN112085767B (zh) | 一种基于深度光流跟踪的客流统计方法及*** | |
CN112101113B (zh) | 一种轻量化的无人机图像小目标检测方法 | |
CN116452911A (zh) | 目标检测模型训练方法及装置、目标检测方法及装置 | |
CN116453017A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN114821431A (zh) | 一种隧道内实时多类别多目标跟踪方法 | |
CN114820723A (zh) | 一种基于联合检测和关联的在线多目标跟踪方法 | |
CN114359572A (zh) | 多任务检测模型的训练方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |