CN109829445A - 一种视频流中的车辆检测方法 - Google Patents

一种视频流中的车辆检测方法 Download PDF

Info

Publication number
CN109829445A
CN109829445A CN201910157557.9A CN201910157557A CN109829445A CN 109829445 A CN109829445 A CN 109829445A CN 201910157557 A CN201910157557 A CN 201910157557A CN 109829445 A CN109829445 A CN 109829445A
Authority
CN
China
Prior art keywords
vehicle
data
result
length
convolutional layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910157557.9A
Other languages
English (en)
Other versions
CN109829445B (zh
Inventor
郭烈
何丹妮
郑仁成
姚宝珍
李琳辉
孙大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201910157557.9A priority Critical patent/CN109829445B/zh
Publication of CN109829445A publication Critical patent/CN109829445A/zh
Application granted granted Critical
Publication of CN109829445B publication Critical patent/CN109829445B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种视频流中的车辆检测方法,包括以下步骤:获取视频帧,采用训练完成的卷积神经网络对获得的视频帧进行识别,并根据结果判断视频中是否有车辆,以及车辆所在的具***置;由车辆检测得到车辆在图像中的位置,用卡尔曼滤波器预测其在下一帧的数值,作为车辆跟踪结果;将车辆检测的结果和车辆跟踪的结果进行关联,依据关联结果修正滤波器参数,更新滤波器群信息。本发明设计一种网络层数少、结构小的卷积神经网络用于车辆检测任务,检测速度快、精度高。本发明使用卡尔曼跟踪算法进行检测框的位置预测,跟踪速度快且稳定。本发明利用数据关联策略将检测算法与跟踪算法结合,体现帧与帧之间车辆的关联性,并且能降低车辆对象的漏检率。

Description

一种视频流中的车辆检测方法
技术领域
本发明涉及一种基于计算机视觉的车辆检测算法,特别是一种视频流中的车辆检测方法。
背景技术
车辆检测(objection detection)是指利用计算机视觉算法找出图像中所有感兴趣的车辆,确定它们的位置及类别。广泛应用于视频监控、无人驾驶、人机交互等领域。
目前已知的视频流中的车辆检测方法主要分为两类,一类是将视频流拆分成每一帧图像,再对每一帧图像检测其中的车辆。这样做的弊端在于计算量大、效率低,且没有体现出帧与帧之间车辆的关联性,导致产品智能化水平较低。
另一类是在第一帧中检测出车辆,之后的若干帧利用车辆跟踪算法进行跟踪。这样做的弊端在于无法检测出新出现的车辆,而且若车辆所处环境光照变化大,如进出隧道时,很容易发生跟踪丢失的现象。
发明内容
为解决现有技术存在的上述问题,本发明要提供一种既能够减少计算量并提高检测效率,又能体现视频流中车辆的关联性进而提高产品智能化水平的视频流中的车辆检测方法。
为了实现上述目的,本发明的技术方案如下:一种视频流中的车辆检测方法,包括以下步骤:
A、车辆检测
获取视频帧,采用训练完成的卷积神经网络对获得的视频帧进行识别,并根据结果判断视频中是否有车辆,以及车辆所在的具***置。具体包括以下步骤:
A1、获取待检测车辆样本数据集;收集包含车辆的若干张图像,图像包含各种场景下,待检测车辆的可能的状态。对于长宽不等的图像,先将图像用0像素填充到长宽相等,再放缩到416×416像素大小。在labelImage软件中用矩形框标注每张图像中的车辆信息,保存标注信息文档。
A2、搭建卷积神经网络用作特征提取;采用的特征提取网络结构依次为:卷积层1、最大池化层1、卷积层2、最大池化层2、卷积层3、最大池化层3、卷积层4、最大池化层4、卷积层5、最大池化层5、卷积层6、最大池化层6、卷积层7、卷积层8、卷积层9、卷积层10。
A3、按照步骤A2所描述的网络结构,特征提取网络最终输出向量为13×13×255,因此连接一个yolo层,使其输出向量为13×13×5×(1+5),最终完整的网络结构及每层的参数如下:
输入图片大小为416*416*3,3代表图片为彩色图片有三个通道,经过卷积层1,使用16个大小为3*3的卷积核,步长为1,经过这一层数据的输出大小变为416*416*16;
通过核大小为2*2,步长为2的最大池化层1,得到208*208*26的数据;
卷积层2中有32个大小为3*3的卷积核,卷积步长为1,得到数据大小为208*208*32;
再通过核大小为2*2,步长为2的最大池化层2,得到104*104*32的数据;
卷积层3中有64个大小为3*3的卷积核,卷积步长为1,得到数据大小为104*104*64;
再通过核大小为2*2,步长为2的最大池化层3,得到52*52*64的数据;
卷积层4中有128个大小为3*3的卷积核,卷积步长为1,得到数据大小为52*52*128;
再通过核大小为2*2,步长为2的最大池化层4,得到26*26*128的数据;
卷积层5中有256个大小为3*3的卷积核,卷积步长为1,得到数据大小为26*26*256;
再通过核大小为2*2,步长为2的最大池化层5,得到13*13*256的数据;
卷积层6中有512个大小为3*3的卷积核,卷积步长为1,得到数据大小为13*13*512;
再通过核大小为2*2,步长为1的最大池化层6,得到13*13*512的数据;
再通过1024个核大小为3*3,步长为1的卷积层7,得到数据大小为13*13*1024;
再通过256个核大小为1*1,步长为1的卷积层8,得到数据大小为13*13*256;
再通过512个核大小为3*3,步长为1的卷积层9,得到数据大小为13*13*512;
最后通过255个核大小为1*1,步长为1的卷积层10,得到数据大小为13*13*255的特征数据;
在后面连接一个yolo层即构成目标检测神经网络,其中yolo层的参数为:
Class=1;
anchors=10,14;23,27;37,58;81,82;135,169;344,319;
ignore_thresh=0.7。
A4、将步骤A1中获取的样本数据分成训练集和测试集,训练集和测试集数据的比例是7:3。用训练集来训练之前搭建的卷积神经网络,测试集实时评估训练结果。
A5、关注训练误差,当训练误差下降到2以下,且长时间保持这个水平时停止训练,并保存此时的网络参数权重。
A6、视频流图像帧中的车辆检测。对于获得的视频帧,先用0像素填充到长宽相等,再放缩到416×416像素大小。用步骤A2搭建好的神经网络并加载训练好的权重进行车辆检测,得到车辆的类别及位置信息,再缩放成原来图像大小,得到对应的车辆信息参数。
B、车辆跟踪
由车辆检测得到车辆在图像中的位置,用cx、cy、w和h这四个参数来表示,这四个参数分别代表检测矩形框的中心点x坐标值、中心点y坐标值、矩形框的宽和矩形框的高。对于每个矩形框的四个参数,用卡尔曼滤波器预测其在下一帧的数值,作为车辆跟踪结果。
将卡尔曼滤波器的状态方程设计为:
X=[cx,cy,w,h,cx',cy',w',h',cx”,w”,h”]
其中,cx'、cy'、w'、h'、cx”、w”、h”分别代表cx的变化速度、cy的变化速度、w的变化速度、h的变化速度、cx的变化加速度、w的变化加速度、h的变化加速度,将这些参数都初始化为0,用该车辆对应的匹配数据更新这些参数,最终的跟踪结果为:
C、数据关联
将车辆检测的结果和车辆跟踪的结果进行关联,依据关联结果修正滤波器参数,更新滤波器群信息;具体包括以下步骤:
C1、车辆检测结果和车辆跟踪结果的处理。将这两部分的车辆框结果数据格式转换成xmin、ymin、xmax和ymax,这四个参数分别代表车辆框的左上角x坐标值、y坐标值和车辆框右下角x坐标值、y坐标值。
C2、计算每个检测结果与每个跟踪结果的IOU值。计算公式为:
得到IOU匹配表。其中O1、O2、……、On表示检测结果,n代表检测结果的总数;P1、P2、……、Pm表示预测结果,m代表预测结果的总数。
C3、用匈牙利算法根据IOU匹配表算出最关联匹配对。
C4、将IOU值小于IOU阈值的数据对去除,得到三部分数据:匹配成功的数据对、未匹配成功的检测结果、未匹配成功的跟踪结果。
C5、对于匹配成功的数据对,用检测的结果数据校正这些滤波器的参数,并继续用这些滤波器进行下一阶段的跟踪;对于未匹配成功的检测结果,将这些数据判定为出现了新车辆,并为其分配滤波器进行跟踪;对于未匹配成功的跟踪结果,将这部分数据均考虑为检测算法失效发生漏检,保留滤波器继续跟踪。
与现有技术相比,本发明具有以下有益效果:
1、卷积神经网络是目前图像识别领域精度最高的检测方法,本发明设计一种网络层数少、结构小的卷积神经网络用于车辆检测任务,结构小的网络计算参数少,因此能达到检测速度快,精度高的效果。
2、本发明使用卡尔曼跟踪算法进行检测框的位置预测,跟踪速度快且稳定。
3、本发明利用数据关联策略将检测算法与跟踪算法结合,体现帧与帧之间车辆的关联性,并且能降低车辆对象的漏检率。
附图说明
图1是本发明的流程图。
图2是筛选成功匹配数据对的算法流程图。
图3是数据关联所需要的检测结果数据与跟踪结果数据的示意图(实线框为检测结果,虚线框为跟踪结果)。
图4是数据关联策略的流程图。
具体实施方式
下面结合附图对本发明进行进一步地描述。
图1给出了整体的算法流程图。对于视频流的第一帧,使用车辆检测算法定位出车辆在图像上的位置,并对每一个车辆分配一个滤波器进行跟踪。考虑到视频流中可能出现新车辆,所以对每一帧都要进行车辆检测,刷新滤波器个数并校正滤波器群参数。最后结合数据关联策略保证帧间车辆的关联性。
步骤A3中的车辆检测部分所用卷积神经网络结构及参数如下表所示:
图2给出了如何筛选成功匹配数据对的算法流程图。输入数据包括两部分,检测结果和跟踪结果。其中O1、O2、……、On表示检测结果;P1、P2、……、Pm表示预测结果。IOU代表两个矩形的交并比,具体计算公式为:
用匈牙利算法计算出最大IOU索引对,再用IOU阈值做更进一步的筛选,筛选之后的索引对即成功匹配的数据对。
以图3为例,蓝色框为检测结果,黑色框为跟踪结果。
示例中图像宽度为1280,高度为720,检测结果分别是:
O1=((400,620),(800,360));
O2=((700,350),(1000,100));
O3=((700,610),(1200,720));
跟踪结果分别是:
P1=((330,600),(740,290));
P2=((730,310),(1100,80));
P3=((300,20),(420,100)),其中的数字代表每个矩形框对角点坐标。这样算出来的IOU矩阵为:
经过匈牙利算法算出最关联匹配对,结果为:
即O1和P1匹配,O2和P2匹配,O3和P3匹配。再判断是否超过IOU阈值,图中所示IOU阈值取0.3。IOU11=0.67>0.3,IOU22=0.55>0.3,即O1和P1以及O2和P2匹配成功,而IOU33=0<0.3,所以O3和P3匹配失败。这样最后得出的结果即为:成功匹配的结果:[(O1,P1),(O2,P2)];未匹配成功的检测结果:[O3],为匹配成功的跟踪结果:[P3]。
图4给出了数据关联策略的流程图。将车辆检测结果和车辆跟踪结果进行匹配,匹配结果有三种:匹配成功的数据,未匹配到的检测结果和未匹配到的跟踪结果。对于匹配成功的数据,只需要校正这些滤波器的参数,并继续用这些滤波器进行下一阶段的跟踪;对于未匹配到的检测结果,将这些数据判定为出现了新车辆,并为其分配滤波器进行跟踪;对于未匹配到的跟踪结果,将这部分数据暂时考虑为检测算法失效发生漏检,保留滤波器继续跟踪。若连续5帧都未匹配到数据则判定车辆消失。
本发明不局限于本实施例,任何在本发明披露的技术范围内的等同构思或者改变,均列为本发明的保护范围。

Claims (1)

1.一种视频流中的车辆检测方法,其特征在于:包括以下步骤:
A、车辆检测
获取视频帧,采用训练完成的卷积神经网络对获得的视频帧进行识别,并根据结果判断视频中是否有车辆,以及车辆所在的具***置;具体包括以下步骤:
A1、获取待检测车辆样本数据集;收集包含车辆的若干张图像,图像包含各种场景下,待检测车辆的可能的状态;对于长宽不等的图像,先将图像用0像素填充到长宽相等,再放缩到416×416像素大小;在labelImage软件中用矩形框标注每张图像中的车辆信息,保存标注信息文档;
A2、搭建卷积神经网络用作特征提取;采用的特征提取网络结构依次为:卷积层1、最大池化层1、卷积层2、最大池化层2、卷积层3、最大池化层3、卷积层4、最大池化层4、卷积层5、最大池化层5、卷积层6、最大池化层6、卷积层7、卷积层8、卷积层9、卷积层10;
A3、按照步骤A2所描述的网络结构,特征提取网络最终输出向量为13×13×255,因此连接一个yolo层,使其输出向量为13×13×5×(1+5),最终完整的网络结构及每层的参数如下:
输入图片大小为416*416*3,3代表图片为彩色图片有三个通道,经过卷积层1,使用16个大小为3*3的卷积核,步长为1,经过这一层数据的输出大小变为416*416*16;
通过核大小为2*2,步长为2的最大池化层1,得到208*208*26的数据;
卷积层2中有32个大小为3*3的卷积核,卷积步长为1,得到数据大小为208*208*32;
再通过核大小为2*2,步长为2的最大池化层2,得到104*104*32的数据;
卷积层3中有64个大小为3*3的卷积核,卷积步长为1,得到数据大小为104*104*64;
再通过核大小为2*2,步长为2的最大池化层3,得到52*52*64的数据;
卷积层4中有128个大小为3*3的卷积核,卷积步长为1,得到数据大小为52*52*128;
再通过核大小为2*2,步长为2的最大池化层4,得到26*26*128的数据;
卷积层5中有256个大小为3*3的卷积核,卷积步长为1,得到数据大小为26*26*256;
再通过核大小为2*2,步长为2的最大池化层5,得到13*13*256的数据;
卷积层6中有512个大小为3*3的卷积核,卷积步长为1,得到数据大小为13*13*512;
再通过核大小为2*2,步长为1的最大池化层6,得到13*13*512的数据;
再通过1024个核大小为3*3,步长为1的卷积层7,得到数据大小为13*13*1024;
再通过256个核大小为1*1,步长为1的卷积层8,得到数据大小为13*13*256;
再通过512个核大小为3*3,步长为1的卷积层9,得到数据大小为13*13*512;
最后通过255个核大小为1*1,步长为1的卷积层10,得到数据大小为13*13*255的特征数据;
在后面连接一个yolo层即构成目标检测神经网络,其中yolo层的参数为:
Class=1;
anchors=10,14;23,27;37,58;81,82;135,169;344,319;
ignore_thresh=0.7;
A4、将步骤A1中获取的样本数据分成训练集和测试集,训练集和测试集数据的比例是7:3;用训练集来训练之前搭建的卷积神经网络,测试集实时评估训练结果;
A5、关注训练误差,当训练误差下降到2以下,且长时间保持这个水平时停止训练,并保存此时的网络参数权重;
A6、视频流图像帧中的车辆检测;对于获得的视频帧,先用0像素填充到长宽相等,再放缩到416×416像素大小;用步骤A2搭建好的神经网络并加载训练好的权重进行车辆检测,得到车辆的类别及位置信息,再缩放成原来图像大小,得到对应的车辆信息参数;
B、车辆跟踪
由车辆检测得到车辆在图像中的位置,用cx、cy、w和h这四个参数来表示,这四个参数分别代表检测矩形框的中心点x坐标值、中心点y坐标值、矩形框的宽和矩形框的高;对于每个矩形框的四个参数,用卡尔曼滤波器预测其在下一帧的数值,作为车辆跟踪结果;
将卡尔曼滤波器的状态方程设计为:
X=[cx,cy,w,h,cx',cy',w',h',cx”,w”,h”]
其中,cx'、cy'、w'、h'、cx”、w”、h”分别代表cx的变化速度、cy的变化速度、w的变化速度、h的变化速度、cx的变化加速度、w的变化加速度、h的变化加速度,将这些参数都初始化为0,用该车辆对应的匹配数据更新这些参数,最终的跟踪结果为:
C、数据关联
将车辆检测的结果和车辆跟踪的结果进行关联,依据关联结果修正滤波器参数,更新滤波器群信息;具体包括以下步骤:
C1、车辆检测结果和车辆跟踪结果的处理;将这两部分的车辆框结果数据格式转换成xmin、ymin、xmax和ymax,这四个参数分别代表车辆框的左上角x坐标值、y坐标值和车辆框右下角x坐标值、y坐标值;
C2、计算每个检测结果与每个跟踪结果的IOU值;计算公式为:
得到IOU匹配表;其中O1、O2、……、On表示检测结果,n代表检测结果的总数;P1、P2、……、Pm表示预测结果,m代表预测结果的总数;
C3、用匈牙利算法根据IOU匹配表算出最关联匹配对;
C4、将IOU值小于IOU阈值的数据对去除,得到三部分数据:匹配成功的数据对、未匹配成功的检测结果、未匹配成功的跟踪结果;
C5、对于匹配成功的数据对,用检测的结果数据校正这些滤波器的参数,并继续用这些滤波器进行下一阶段的跟踪;对于未匹配成功的检测结果,将这些数据判定为出现了新车辆,并为其分配滤波器进行跟踪;对于未匹配成功的跟踪结果,将这部分数据均考虑为检测算法失效发生漏检,保留滤波器继续跟踪。
CN201910157557.9A 2019-03-01 2019-03-01 一种视频流中的车辆检测方法 Active CN109829445B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910157557.9A CN109829445B (zh) 2019-03-01 2019-03-01 一种视频流中的车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910157557.9A CN109829445B (zh) 2019-03-01 2019-03-01 一种视频流中的车辆检测方法

Publications (2)

Publication Number Publication Date
CN109829445A true CN109829445A (zh) 2019-05-31
CN109829445B CN109829445B (zh) 2021-11-30

Family

ID=66864936

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910157557.9A Active CN109829445B (zh) 2019-03-01 2019-03-01 一种视频流中的车辆检测方法

Country Status (1)

Country Link
CN (1) CN109829445B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110677585A (zh) * 2019-09-30 2020-01-10 Oppo广东移动通信有限公司 目标检测框的输出方法、装置、终端及存储介质
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN110992403A (zh) * 2019-12-18 2020-04-10 中山大学 一种实时水面船只视觉跟踪***及其方法
CN111340855A (zh) * 2020-03-06 2020-06-26 电子科技大学 一种基于轨迹预测的道路移动目标检测方法
CN111444766A (zh) * 2020-02-24 2020-07-24 浙江科技学院 基于图像处理的车辆追踪方法、装置、计算机设备和存储介质
CN111476826A (zh) * 2020-04-10 2020-07-31 电子科技大学 一种基于ssd目标检测的多目标车辆跟踪方法
CN112215053A (zh) * 2019-07-12 2021-01-12 通用汽车环球科技运作有限责任公司 多传感器多对象跟踪
CN112241969A (zh) * 2020-04-28 2021-01-19 北京新能源汽车技术创新中心有限公司 基于交通监控视频的目标检测跟踪方法、装置及存储介质
CN112699854A (zh) * 2021-03-22 2021-04-23 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106533A1 (en) * 2004-11-12 2006-05-18 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation
CN103150740A (zh) * 2013-03-29 2013-06-12 上海理工大学 一种基于视频的运动目标跟踪方法和***
CN109325438A (zh) * 2018-09-18 2019-02-12 桂林电子科技大学 实况全景交通标志的实时识别方法
CN109344725A (zh) * 2018-09-04 2019-02-15 上海交通大学 一种基于时空关注度机制的多行人在线跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106533A1 (en) * 2004-11-12 2006-05-18 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation
CN103150740A (zh) * 2013-03-29 2013-06-12 上海理工大学 一种基于视频的运动目标跟踪方法和***
CN109344725A (zh) * 2018-09-04 2019-02-15 上海交通大学 一种基于时空关注度机制的多行人在线跟踪方法
CN109325438A (zh) * 2018-09-18 2019-02-12 桂林电子科技大学 实况全景交通标志的实时识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BAOFENG WANG ETAL.: "Multi-vehicle detection with identity awareness using cascade Adaboost and Adaptive Kalman filter for driver assistant system", 《PLOS ONE》 *
李珣等: "基于Darknet框架下yoloV2算法的车辆多目标检测方法", 《交通运输工程学报》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215053A (zh) * 2019-07-12 2021-01-12 通用汽车环球科技运作有限责任公司 多传感器多对象跟踪
CN112215053B (zh) * 2019-07-12 2023-09-19 通用汽车环球科技运作有限责任公司 多传感器多对象跟踪
CN110677585A (zh) * 2019-09-30 2020-01-10 Oppo广东移动通信有限公司 目标检测框的输出方法、装置、终端及存储介质
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN110992403A (zh) * 2019-12-18 2020-04-10 中山大学 一种实时水面船只视觉跟踪***及其方法
CN110992403B (zh) * 2019-12-18 2022-05-10 中山大学 一种实时水面船只视觉跟踪***及其方法
CN111444766B (zh) * 2020-02-24 2021-07-20 浙江科技学院 基于图像处理的车辆追踪方法、装置、计算机设备和存储介质
CN111444766A (zh) * 2020-02-24 2020-07-24 浙江科技学院 基于图像处理的车辆追踪方法、装置、计算机设备和存储介质
CN111340855A (zh) * 2020-03-06 2020-06-26 电子科技大学 一种基于轨迹预测的道路移动目标检测方法
CN111476826A (zh) * 2020-04-10 2020-07-31 电子科技大学 一种基于ssd目标检测的多目标车辆跟踪方法
CN112241969A (zh) * 2020-04-28 2021-01-19 北京新能源汽车技术创新中心有限公司 基于交通监控视频的目标检测跟踪方法、装置及存储介质
CN112699854A (zh) * 2021-03-22 2021-04-23 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备
CN112699854B (zh) * 2021-03-22 2021-07-20 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备

Also Published As

Publication number Publication date
CN109829445B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN109829445A (zh) 一种视频流中的车辆检测方法
CN114202696B (zh) 基于上下文视觉的sar目标检测方法、装置和存储介质
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN111460926B (zh) 一种融合多目标跟踪线索的视频行人检测方法
Kong et al. Vanishing point detection for road detection
CN108846328B (zh) 基于几何正则化约束的车道检测方法
CN107424181A (zh) 一种改进的图像拼接关键帧快速提取方法
CN109726627A (zh) 一种神经网络模型训练及通用接地线的检测方法
CN109685732A (zh) 一种基于边界捕捉的深度图像高精度修复方法
CN114565860B (zh) 一种多维度增强学习合成孔径雷达图像目标检测方法
CN112084869A (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN113673444A (zh) 一种基于角点池化的路口多视角目标检测方法及***
CN114742799B (zh) 基于自监督异构网络的工业场景未知类型缺陷分割方法
CN107944354A (zh) 一种基于深度学习的车辆检测方法
CN113065431A (zh) 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法
CN111914596B (zh) 车道线检测方法、装置、***及存储介质
CN112435249B (zh) 一种基于周扫红外搜索***的动态小目标检测方法
CN112053385B (zh) 基于深度强化学习的遥感视频遮挡目标跟踪方法
CN116403115B (zh) 一种大幅面遥感影像目标检测方法
CN113205494A (zh) 基于自适应尺度图像块加权差测量的红外小目标检测方法和***
CN116310837B (zh) 一种sar舰船目标旋转检测方法及***
CN116883859A (zh) 一种基于YOLOv7-RS的遥感图像目标检测方法
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
Wang et al. Spatial enhanced-ssd for multiclass object detection in remote sensing images
CN116385477A (zh) 一种基于图像分割的杆塔图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant