CN105590328A - 基于稀疏表示选择性外观模型的帧自适应目标跟踪算法 - Google Patents
基于稀疏表示选择性外观模型的帧自适应目标跟踪算法 Download PDFInfo
- Publication number
- CN105590328A CN105590328A CN201510891868.XA CN201510891868A CN105590328A CN 105590328 A CN105590328 A CN 105590328A CN 201510891868 A CN201510891868 A CN 201510891868A CN 105590328 A CN105590328 A CN 105590328A
- Authority
- CN
- China
- Prior art keywords
- represent
- frame
- candidate target
- value
- rarefaction representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 230000000694 effects Effects 0.000 claims abstract description 7
- 238000005070 sampling Methods 0.000 claims abstract description 4
- 230000003044 adaptive effect Effects 0.000 claims description 10
- 230000004069 differentiation Effects 0.000 claims description 8
- 230000017105 transposition Effects 0.000 claims description 4
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 5
- 238000002474 experimental method Methods 0.000 abstract description 4
- 230000007547 defect Effects 0.000 abstract description 2
- 238000012549 training Methods 0.000 abstract description 2
- 230000001419 dependent effect Effects 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 5
- 208000025174 PANDAS Diseases 0.000 description 2
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 2
- 240000004718 Panda Species 0.000 description 2
- 235000016496 Panda oleosa Nutrition 0.000 description 2
- ZPUCINDJVBIVPJ-LJISPDSOSA-N ***e Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于稀疏表示选择性外观模型的帧自适应目标跟踪算法,初始化***、随机采样多个候选目标;运行判别型***SDC;帧特性检测;运行生成型***SGM;更新遮挡检测阈值Th;以及计算联合模型并确定跟踪。与现有技术中相比,本发明所提出的算法在解决前人的基于学习的超分辨率重建算法需要大量训练集的缺陷的基础上,改进了邻域嵌入方法,并将其用于解决基于局部自相似性和多尺度相似性的超分辨率算法中存在的不准确高频初始估计问题,提升了图像的超分辨率重建效果。实验结果表明,本发明提出的算法能够更好地抑制了锯齿效应和振铃效应,重建出的高分辨率图像更接近于真实图像,具有更好的主观和客观质量。
Description
技术领域
本发明涉及计算机视觉的目标跟踪领域,更具体地,涉及一种应用稀疏表示选择性外观模型的帧自适应目标跟踪算法。
背景技术
作为计算机视觉的前沿学科,目标跟踪技术既是科学领域也是工程领域的研究热点。目标跟踪的任务是从每一个图像帧中得到关注目标的位置信息,包含坐标、尺寸、旋转角度甚至速度信息,实现对物体运动轨迹的分析和理解,以便实现更高级的功能。目标跟踪有很多难题需要解决,例如目标发生遮挡、旋转、尺度变化、亮度变化等等,因此跟踪目标的外观表示方法是该领域的重要的研究课题。
稀疏表示是近年来信号处理领域的研究热点,通过字典生成和求解系数来对数据降维。最早将稀疏表示引入到目标跟踪领域的是Mei和Ling,他们提出“L1跟踪算法”,使用琐碎模板来表示字典重构误差,对遮挡现象有很大的帮助,但是该算法中目标还是背景都有可能被这些琐碎模板表示,会导致跟踪的二义性,最终可能导致跟踪的失败。Zhong和Lu等人提出了“基于稀疏表示的联合外观模型方法的***SCM”,结合局部信息和整体信息,使得目标的表述更为全面。但是该方法对于不同帧没有自适应性,导致计算复杂度高,对于图像信息的使用也不够精准。
迄今为止,在国内外公开发表的论文和文献中尚未见开展有关基于稀疏表示选择性外观模型的帧自适应目标跟踪算法,因此,本专利的发明内容具有独创性。该***能适应多种场景,有着广泛的应用前景。
发明内容
基于上述现有技术,本发明提出了一种基于稀疏表示选择性外观模型的帧自适应目标跟踪算法,将帧自适应的选择外观模型应用在目标跟踪算法中,结合帧特性充分利用判别型和生成型***的优势,降低计算复杂度的同时,精确使用图像信息,使得跟踪效果更加精确。结合每一帧图像特性,引入基于稀疏表示的选择性外观模型
本发明提出了一种基于稀疏表示选择性外观模型的帧自适应目标跟踪算法,该算法包括以下步骤:
步骤1、初始化***:判别型***SDC的模板库包含正样本库A+和负样本库A-;之后将每个模板压缩为32*32的大小,将压缩后的模板变形为一维向量,采用滑块的方式得到M个小图像块,获取图像的局部信息,把每个小图像块转化为一维向量,G表示一维数组的大小,使用K中值算法进行聚类,得到J个聚类中心,得到字典R表示数值属于实数域;
步骤2、随机采样多个候选目标:新的一帧图像到来时,在上一帧目标位置周围,得到N个候选目标X={x1,x2...xN},每个x被压缩为32*32的大小;
步骤3、运行判别型***SDC:
α表示模板库稀疏表示系数,x表示候选目标,A表示模板库,λ3表示SDC正则项权重,求得稀疏表示系数α=[α-,α+];
求得候选目标关于前景的重构误差εf:
x表示候选目标,A+表示正样本模板库,α+表示候选目标关于正样本模板库的稀疏表示系数;
求得候选目标关于背景的重构误差εb:
x表示候选目标,A-表示负样本模板库,α-表示候选目标关于负样本模板库的稀疏表示系数;
SDC计算出的第C个候选目标的置信值Hc:
εb表示候选目标关于背景的重构误差,εf表示候选目标关于前景的重构误差,σ表示参数尺度因子;
步骤4、帧特性检测:HC1是第一帧的SDC置信值HCj表示第j帧的SDC置信值,f是当前帧的序号,n表示帧窗口长度,是连续n帧的置信值之和,如果HCj表示第j帧的SDC置信值,f是当前帧的序号,n表示帧窗口长度,HC1是第一帧的SDC置信值,Th表示阈值比率,则令LC=0,跳到步骤(7);如果表示此帧是否发生遮挡;
步骤5、运行生成型***SGM:取M个滑块,yi,i=1...M,yi表示每个滑块,M表示滑块的个数,用字典D进行稀疏表示,β是稀疏表示的系数;
yi表示每个滑块,D表示字典,β是字典稀疏表示系数,λ2表示SGM正则项权重;每一个块的字典稀疏表示系数拼在一起,就形成了每一个候选目标的直方图ρ;
ρ表示每一个候选目标的直方图,表示第1个块的字典稀疏表示系数的转置,表示第M个块的字典稀疏表示系数的转置;
求得每个小图像块稀疏表示的重构误差εi:
yi表示每个滑块,D表示字典,βi是第i个块的字典稀疏表示系数,大于阈值ε0时,认为是遮挡块,遮挡标签Oi置为0,
去除遮挡效应,生成新的直方图o={o1,o2...oM},o表示所有块遮挡标签组成的数组,o1表示第1个块的遮挡标签,oM表示第M个块的遮挡标签;
求得遮挡块个数占块总数的比occmap,用于评判遮挡程度:
oi表示第i个块的遮挡标签,M表示滑块的个数;是第C个候选目标的直方图,ψ是模板的直方图SGM计算出的第C个候选目标的置信值LC:
M表示滑块的个数,J表示聚类中心的个数,表示第C个候选目标的直方图中的j个元素的值,ψj是标准模板的直方图中的j个元素的值;
步骤6、更新遮挡检测阈值Th
λ表示阈值更新速度,Δ表示阈值更新步长,occmap表示遮挡块个数占块总数的比,通过更新使得遮挡程度occmap保持在一个区间范围内(Omin,Omax)(Omin,Omax)表示occmap的最小和最大值组成的区间;
步骤7、计算联合模型并确定跟踪结果:
PC=HC+γLC
对于第C个候选目标,PC是最终的置信值,HC和LC分别是SDC和SGM的置信值,权重因子γ;在每一帧计算N个PC,N表示候选目标的个数;选取置信值最大的候选目标作为跟踪的结果; 为第t帧的目标位置。
与现有技术中相比,本发明所提出的算法在解决前人的基于学习的超分辨率重建算法需要大量训练集的缺陷的基础上,改进了邻域嵌入方法,并将其用于解决基于局部自相似性和多尺度相似性的超分辨率算法中存在的不准确高频初始估计问题,提升了图像的超分辨率重建效果。实验结果表明,本专利提出的算法能够更好地抑制了锯齿效应和振铃效应,重建出的高分辨率图像更接近于真实图像,具有更好的主观和客观质量。
附图说明
图1为该***的模式选择流程图;
图2为该***中心位置误差CLE与当前领先的***SCM的比较;
图3为本发明的基于稀疏表示选择性外观模型的帧自适应目标跟踪算法的流程图。
具体实施方式
以下结合附图及具体实施方式,进一步详述本发明的技术方案。
本发明的基于稀疏表示选择性外观模型的帧自适应目标跟踪算法,采用由两个子***级联而成的***实现,包含判别型***SDC和生成型***SGM,首先初始化***,存储目标的外观信息,从第一帧获得判别型***SDC的模板库A,生成型***SGM的字典D。新一帧图像到来时,在上一帧的目标位置周围随机采样多个候选目标,构成X,对每个候选目标,运行判别型***的模板库A求解模板库稀疏表示系数α,得到重构误差,计算每个候选目标置信值并进行帧特性(遮挡)检测,根据帧特性检测的结果进行模式选择,决定是否调用生成型***辅助跟踪,选择置信值最大的候选目标作为最终的跟踪结果,开始下一帧的跟踪流程。
下面对本发明提出的基于稀疏表示选择性外观模型的帧自适应目标跟踪算法SSM进行验证。同时,通过仿真实验比较该算法的预测结果与当前领先的***SCM,通过大量的实验结果来证实算法的有效性。实验结果以中心位置误差CLE的形式表示。
CLE表示***的跟踪结果与理想跟踪结果之间的坐标欧式距离。实验中采用的参数用下所示:
阈值比率Th初始值为0.9,阈值更新速度λ设置为0.8,阈值更新步长Δ设置为0.1,(Omin,Omax)为(0.1,0.3),在SDC中,选取正样本模板数量Np是50,负样本数量Nn是200,权重因子γ设置为3,SDC正则项权重λ3设置为0.01,SGM正则项权重λ2设置为0.001。
在多个视频测试序列测试该算法的性能,所使用的测试序列如表1所示,对每个测试序列记录运行时间和中心距离误差CLE,仿真结果如表2所示。
如图2所示,表示该***中心位置误差(CLE)与当前领先的***SCM的比较,横坐标表示帧编号,纵坐标表示CLE值,本专利提出的算法SSM跟踪更为稳定,CLE波动更小且均值更低,如图中的较浅颜色的轨迹。
表1、本实验采用的测试图像序列及相关信息
图像序列名称 | 图像序列帧数 | 包含跟踪挑战 |
animal | 71 | 运动模糊、背景干扰 |
caviar | 500 | 严重遮挡、尺度变化 |
faceocc2 | 819 | 严重遮挡、面内旋转 |
car11 | 393 | 光照变化、对比度低、尺度变化 |
Panda | 241 | 面内旋转、严重遮挡 |
Jumping | 313 | 运动模糊 |
表2、该算法在七个测试序列的实验结果
图像序列名称 | 中心位置误差(CLE) | 跟踪速度/帧每秒 |
jumping | 4.2615 | 0.52 |
animal | 12.6452 | 0.37 |
Caviar | 16.4320 | 1.42 |
faceocc2 | 11.6433 | 1.61 |
car11 | 10.2080 | 1.85 |
Panda | 4.5031 | 0.46 |
Claims (1)
1.一种基于稀疏表示选择性外观模型的帧自适应目标跟踪算法,其特征在于,所述:
步骤(1)、初始化***:判别型***SDC的模板库包含正样本库A+和负样本库A-;之后将每个模板压缩为32*32的大小,将压缩后的模板变形为一维向量,采用滑块的方式得到M个小图像块,获取图像的局部信息,把每个小图像块转化为一维向量,G表示一维数组的大小,使用K中值算法进行聚类,得到J个聚类中心,得到字典R表示数值属于实数域;
步骤(2)、随机采样多个候选目标:新的一帧图像到来时,在上一帧目标位置周围,得到N个候选目标X={x1,x2...xN},每个x被压缩为32*32的大小;
步骤(3)、运行判别型***SDC:
α表示模板库稀疏表示系数,x表示候选目标,A表示模板库,λ3表示SDC正则项权重,求得稀疏表示系数α=[α-,α+];
求得候选目标关于前景的重构误差εf:
x表示候选目标,A+表示正样本模板库,α+表示候选目标关于正样本模板库的稀疏表示系数;
求得候选目标关于背景的重构误差εb:
x表示候选目标,A-表示负样本模板库,α-表示候选目标关于负样本模板库的稀疏表示系数;
SDC计算出的第C个候选目标的置信值Hc:
εb表示候选目标关于背景的重构误差,εf表示候选目标关于前景的重构误差,σ表示参数尺度因子;
步骤(4)、帧特性检测:HC1是第一帧的SDC置信值HCj表示第j帧的SDC置信值,f是当前帧的序号,n表示帧窗口长度,是连续n帧的置信值之和,如果HCj表示第j帧的SDC置信值,f是当前帧的序号,n表示帧窗口长度,HC1是第一帧的SDC置信值,Th表示阈值比率,则令LC=0,跳到步骤(7);如果表示此帧是否发生遮挡;
步骤(5)、运行生成型***SGM:取M个滑块,yi,i=1...M,yi表示每个滑块,M表示滑块的个数,用字典D进行稀疏表示,β是稀疏表示的系数;
yi表示每个滑块,D表示字典,β是字典稀疏表示系数,λ2表示SGM正则项权重;每一个块的字典稀疏表示系数拼在一起,就形成了每一个候选目标的直方图ρ;
ρ表示每一个候选目标的直方图,表示第1个块的字典稀疏表示系数的转置,表示第M个块的字典稀疏表示系数的转置;
求得每个小图像块稀疏表示的重构误差εi:
yi表示每个滑块,D表示字典,βi是第i个块的字典稀疏表示系数,大于阈值ε0时,认为是遮挡块,遮挡标签Oi置为0,
去除遮挡效应,生成新的直方图o={o1,o2...oM},o表示所有块遮挡标签组成的数组,o1表示第1个块的遮挡标签,oM表示第M个块的遮挡标签;
求得遮挡块个数占块总数的比occmap,用于评判遮挡程度:
oi表示第i个块的遮挡标签,M表示滑块的个数;是第C个候选目标的直方图,ψ是模板的直方图SGM计算出的第C个候选目标的置信值LC:
M表示滑块的个数,J表示聚类中心的个数,表示第C个候选目标的直方图中的j个元素的值,ψj是标准模板的直方图中的j个元素的值;
步骤(6)、更新遮挡检测阈值Th
λ表示阈值更新速度,Δ表示阈值更新步长,occmap表示遮挡块个数占块总数的比,通过更新使得遮挡程度occmap保持在一个区间范围内(Omin,Omax)(Omin,Omax)表示occmap的最小和最大值组成的区间;
步骤(7)、计算联合模型并确定跟踪结果:
PC=HC+γLC
对于第C个候选目标,PC是最终的置信值,HC和LC分别是SDC和SGM的置信值,权重因子γ;在每一帧计算N个PC,N表示候选目标的个数;选取置信值最大的候选目标作为跟踪的结果; 为第t帧的目标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510891868.XA CN105590328B (zh) | 2015-12-07 | 2015-12-07 | 基于稀疏表示选择性外观模型的帧自适应目标跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510891868.XA CN105590328B (zh) | 2015-12-07 | 2015-12-07 | 基于稀疏表示选择性外观模型的帧自适应目标跟踪算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105590328A true CN105590328A (zh) | 2016-05-18 |
CN105590328B CN105590328B (zh) | 2018-04-03 |
Family
ID=55929883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510891868.XA Expired - Fee Related CN105590328B (zh) | 2015-12-07 | 2015-12-07 | 基于稀疏表示选择性外观模型的帧自适应目标跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105590328B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886784A (zh) * | 2017-02-16 | 2017-06-23 | 长沙理工大学 | 一种基于模板更新的改进型联合稀疏表示大输液中异物跟踪方法 |
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN107833243A (zh) * | 2017-11-02 | 2018-03-23 | 兰州理工大学 | 基于超像素局部加权度量与反稀疏模型的跟踪方法 |
CN109102519A (zh) * | 2018-08-24 | 2018-12-28 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109858546A (zh) * | 2019-01-28 | 2019-06-07 | 北京工业大学 | 一种基于稀疏表示的图像识别方法 |
US11179032B2 (en) * | 2018-02-11 | 2021-11-23 | Wenzhou Medical University | Calibration method and device of system for measuring corneal parameters |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120238866A1 (en) * | 2011-03-14 | 2012-09-20 | Siemens Aktiengesellschaft | Method and System for Catheter Tracking in Fluoroscopic Images Using Adaptive Discriminant Learning and Measurement Fusion |
CN103530894A (zh) * | 2013-10-25 | 2014-01-22 | 合肥工业大学 | 一种基于多尺度块稀疏表示的视频目标追踪方法及其*** |
CN103985143A (zh) * | 2014-05-30 | 2014-08-13 | 上海交通大学 | 基于字典学习的视频中判别性在线目标跟踪方法 |
CN104820997A (zh) * | 2015-05-14 | 2015-08-05 | 北京理工大学 | 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法 |
US20150269441A1 (en) * | 2014-03-24 | 2015-09-24 | International Business Machines Corporation | Context-aware tracking of a video object using a sparse representation framework |
-
2015
- 2015-12-07 CN CN201510891868.XA patent/CN105590328B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120238866A1 (en) * | 2011-03-14 | 2012-09-20 | Siemens Aktiengesellschaft | Method and System for Catheter Tracking in Fluoroscopic Images Using Adaptive Discriminant Learning and Measurement Fusion |
CN103530894A (zh) * | 2013-10-25 | 2014-01-22 | 合肥工业大学 | 一种基于多尺度块稀疏表示的视频目标追踪方法及其*** |
US20150269441A1 (en) * | 2014-03-24 | 2015-09-24 | International Business Machines Corporation | Context-aware tracking of a video object using a sparse representation framework |
CN103985143A (zh) * | 2014-05-30 | 2014-08-13 | 上海交通大学 | 基于字典学习的视频中判别性在线目标跟踪方法 |
CN104820997A (zh) * | 2015-05-14 | 2015-08-05 | 北京理工大学 | 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
FENG CHEN 等: "Object tracking via appearance modeling and sparse representation", 《IMAGE AND VISION COMPUTING》 * |
WEI ZHONG 等: "Robust Object Tracking via Sparse Collaborative Appearance Model", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
张旭东 等: "基于联合模板稀疏表示的目标跟踪方法", 《控制与决策》 * |
戴平阳 等: "一种基于稀疏表示的判别式目标跟踪算法", 《厦门大学学报(自然科学版)》 * |
钟伟: "基于稀疏表示的目标跟踪算法", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886784A (zh) * | 2017-02-16 | 2017-06-23 | 长沙理工大学 | 一种基于模板更新的改进型联合稀疏表示大输液中异物跟踪方法 |
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN107194408B (zh) * | 2017-06-21 | 2021-06-01 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN107833243A (zh) * | 2017-11-02 | 2018-03-23 | 兰州理工大学 | 基于超像素局部加权度量与反稀疏模型的跟踪方法 |
US11179032B2 (en) * | 2018-02-11 | 2021-11-23 | Wenzhou Medical University | Calibration method and device of system for measuring corneal parameters |
CN109102519A (zh) * | 2018-08-24 | 2018-12-28 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109102519B (zh) * | 2018-08-24 | 2021-12-14 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109858546A (zh) * | 2019-01-28 | 2019-06-07 | 北京工业大学 | 一种基于稀疏表示的图像识别方法 |
CN109858546B (zh) * | 2019-01-28 | 2021-03-30 | 北京工业大学 | 一种基于稀疏表示的图像识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105590328B (zh) | 2018-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105590328A (zh) | 基于稀疏表示选择性外观模型的帧自适应目标跟踪算法 | |
CN109993095B (zh) | 一种面向视频目标检测的帧级别特征聚合方法 | |
CN108537269B (zh) | 一种弱交互式的物体检测深度学习方法及其*** | |
CN103440668B (zh) | 一种在线视频目标跟踪方法和装置 | |
CN103413120B (zh) | 基于物体整体性和局部性识别的跟踪方法 | |
CN110473231B (zh) | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 | |
Yang et al. | SiamAtt: Siamese attention network for visual tracking | |
CN106056628A (zh) | 基于深度卷积神经网络特征融合的目标跟踪方法及*** | |
CN103079117B (zh) | 视频摘要生成方法和视频摘要生成装置 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN109241982A (zh) | 基于深浅层卷积神经网络的目标检测方法 | |
CN100531405C (zh) | 体育视频目标跟踪方法 | |
CN111080675A (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN109448025A (zh) | 视频中短道速滑运动员的自动跟踪与轨迹建模方法 | |
CN105989358A (zh) | 一种自然场景视频识别方法 | |
CN108986134A (zh) | 一种基于相关滤波跟踪的视频目标半自动标注方法 | |
CN112183450B (zh) | 一种多目标跟踪方法 | |
CN102609689B (zh) | 一种基于多帧统计的视频车道背景建模方法 | |
CN110348492A (zh) | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 | |
CN108986145A (zh) | 视频图像处理方法及装置 | |
CN113239753A (zh) | 基于YOLOv4改进的交通标志检测与识别方法 | |
CN110503092B (zh) | 基于领域适应的改进ssd监控视频目标检测方法 | |
CN113405667A (zh) | 基于深度学习的红外热人体姿态识别方法 | |
CN105118073A (zh) | 基于Xtion摄像机的人体头部目标识别方法 | |
CN112258552A (zh) | 一种社区监控场景下行人多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180403 |