CN107194951A - 基于受限结构图搜索的目标跟踪方法 - Google Patents

基于受限结构图搜索的目标跟踪方法 Download PDF

Info

Publication number
CN107194951A
CN107194951A CN201710302422.8A CN201710302422A CN107194951A CN 107194951 A CN107194951 A CN 107194951A CN 201710302422 A CN201710302422 A CN 201710302422A CN 107194951 A CN107194951 A CN 107194951A
Authority
CN
China
Prior art keywords
mrow
target
msub
dbjective state
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710302422.8A
Other languages
English (en)
Other versions
CN107194951B (zh
Inventor
黄庆明
独大为
齐洪钢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Chinese Academy of Sciences
Original Assignee
University of Chinese Academy of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Chinese Academy of Sciences filed Critical University of Chinese Academy of Sciences
Priority to CN201710302422.8A priority Critical patent/CN107194951B/zh
Publication of CN107194951A publication Critical patent/CN107194951A/zh
Application granted granted Critical
Publication of CN107194951B publication Critical patent/CN107194951B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于受限结构图搜索的目标跟踪方法,其包括以下步骤:S0、初始化目标模型;S1、输入下一视频帧;S2、求解目标部件标签;S3、求解目标状态;S4、更新目标模型;S5、在步骤S4中,如果能量减小则接受模型更新,转到步骤S2继续迭代优化,否则退出迭代循环,输出当前帧最优的目标状态,转到步骤S1。本发明的有益之处在于:(1)将顺序组织的模块在能量最小化框架中统一考虑,能更好挖掘各模块之间的相互支持关系,使它们相互约束和促进,提升跟踪效果;(2)采用基于轮换迭代的优化方法,将原始的多变量优化问题分解为多个较易处理的能量最小化子问题来逐一求解,提高了目标跟踪精度。

Description

基于受限结构图搜索的目标跟踪方法
技术领域
本发明涉及一种目标跟踪方法,具体涉及一种基于受限结构图搜索的目标跟踪方法,属于计算机技术领域。
背景技术
目标跟踪方法是计算机视觉领域的重要研究课题之一。精确的目标跟踪能为视频数据的进一步分析提供可靠的基础,所以广泛应用于自动驾驶、视频监控、无人机和人机交互等重要场合。虽然目标跟踪已经取得较大发展,但是仍然面临着诸多挑战制约其性能的提高,比如目标的几何形变、部分遮挡和背景杂乱等。
目前,绝大多数目标跟踪算法按照目标表示方法分类,可以分为基于目标整体框模型的跟踪算法和基于目标部件模型的跟踪算法。其中,前者采用一个矩形框表示目标,强调对目标整体的表象学习,该方法对光照变化、背景杂乱等情况鲁棒,但是在因形变、遮挡或者尺度变化引起的表象剧烈变化时容易跟踪失败,后者采用目标部件(像素、超像素或矩形部件等)的集合表示目标,主要学习其局部结构信息,因为单个目标部件鉴别力低,通常需要建立目标结构图来考虑部件之间的结构信息,将目标跟踪问题转化为图匹配问题。
基于图模型的跟踪算法通常包含以下三个顺序模块:目标部件选择、目标部件匹配和目标状态估计。其中,目标部件选择是指使用表象模型从背景中区分出候选目标部件,目标部件匹配是指根据表象和结构相似性来关联相邻两帧的部件,目标状态估计是指根据匹配结果估计出目标状态(目标中心位置和目标尺度)。
但是这样的顺序机制并不足以实现在复杂场景下的鲁棒跟踪。
首先,目标部件选择和后续两个模块相对独立,使得不精确的表象模型会直接对匹配结果造成负面影响,进而造成跟踪失败。
其次,它们并没有考虑全局限制,使其在杂乱背景下对背景噪声比较敏感。
进一步的,该机制不足以反映这三个模块的真实关系:
(1)连续两帧的部件匹配能为当前帧的部件选择提供补充信息,反之亦然;
(2)部件选择和匹配提取了局部表象变化,有助于整体目标状态估计;
(3)估计的目标状态反过来能为部件选择和匹配提供一个整体约束,取得更高精度。
如果能同时考虑三个模块之间的相互支持和促进关系,将有助于建立更加精确的跟踪模型。而先前的工作并没有考虑这些问题。
发明内容
为解决现有基于图模型的跟踪算法局限于局部表象建模,而不能同时考虑各模块相互支持促进的不足,本发明的目的在于提供一种基于受限结构图搜索的目标跟踪方法。
为了实现上述目标,本发明采用如下的技术方案:
基于受限结构图搜索的目标跟踪方法,其特征在于,包括以下步骤:
S0、初始化目标模型
根据第一帧标定的目标状态,得到目标尺度两倍大小的目标搜索区域R,然后将该目标搜索区域R过分割为一系列颜色相似像素的超像素收集在目标框内的超像素为正样本,目标框外的超像素为负样本,这样学习一个线性支持向量机模型作为表象模型M以及相关滤波器模型F作为整体约束,另外,建立目标结构图模型G={V,C},其中V表示目标部件集合,C表示临近目标部件集合关系组成的边的集合;
S1、输入下一视频帧
根据上一帧的目标状态B,确定当前帧的目标搜索区域,在目标中心位置的两倍当前目标尺度搜索,然后将该目标搜索区域过分割为一系列超像素;
S2、求解目标部件标签
给定目标模型M,G,F和目标状态B,则能量最小化函数可表示为:
其中,EPS和EPM分别表示目标部件选择的能量、目标部件匹配的能量,和P(lp=f0)分别表示前景和背景像素占目标状态矩形框的比例值,λ1为平衡两项的系数;
然后使用图割算法求解得到目标部件标签L;
S3、求解目标状态
得到目标部件标签L以后,联合相关滤波器模型F求解目标状态B;
S4、更新目标模型
根据求解得到的目标部件标签L和目标状态B更新目标模型M,G,F,如下式所示:
其中,Eda表示超像素部件p属于前景或者背景的概率,EPM表示目标部件匹配的能量,F(B,R)表示搜索区域R中任意目标状态B对应的响应分数,λ1为平衡两项的系数;
各项相互独立,可以分别更新各个模型,通过目标部件标签L和目标状态B得到训练样本,学习新的目标模型M,G,F;
S5、输出当前帧目标状态
在步骤S4中,如果能量减小,则接受模型更新,转到步骤S2继续迭代优化;否则,退出迭代循环,输出当前帧最优的目标状态,转到步骤S1。
前述的基于受限结构图搜索的目标跟踪方法,其特征在于,在步骤S0中,将目标搜索区域R过分割为一系列颜色相似像素的超像素使用的是Simple LinearIterative Clustering算法。
前述的基于受限结构图搜索的目标跟踪方法,其特征在于,在步骤S3中,求解目标状态B的方法为:
(1)使用采样方法得到一系列候选目标状态;
(2)基于上一帧目标尺度选择当前帧的目标中心位置;
(3)选出使目标函数能量最小的目标尺度。
本发明的有益之处在于:
(1)相比于之前基于结构图模型的目标跟踪算法相对独立考虑各模块的促进作用,本发明将基于图模型的跟踪算法的顺序组织的模块在能量最小化框架中统一考虑,能更好挖掘各模块之间的相互支持关系,使它们相互约束和促进,提升跟踪效果;
(2)本发明采用基于轮换迭代的优化方法,将原始的多变量优化问题分解为多个较易处理的能量最小化子问题来逐一求解,使得学习到的目标结构图模型在全局目标表象约束下更好地表示目标结构的局部变化,提高了目标跟踪精度。
附图说明
图1是本发明的基于受限结构图搜索的目标跟踪示意图;
图2是本发明的基于受限结构图搜索的目标跟踪方法流程图。
具体实施方式
以下结合附图和具体实施例对本发明作具体的介绍。
参照图1和图2,本发明的基于受限结构图搜索的目标跟踪方法包括以下步骤:
S0、初始化目标模型
根据第一帧标定的目标状态,得到目标尺度两倍大小的目标搜索区域R,然后使用Simple Linear Iterative Clustering算法(SLIC算法)将该目标搜索区域R过分割为一系列颜色相似像素的超像素超像素相比于规则的图像块,能更好地保留目标边缘信息,减小背景噪声。
收集在目标框内的超像素为正样本,目标框外的超像素为负样本,这样学习一个线性支持向量机模型作为表象模型M以及相关滤波器模型F作为整体约束,另外,建立目标结构图模型G={V,C},其中V表示目标部件集合,C表示临近目标部件集合关系组成的边的集合。
S1、输入下一视频帧
根据上一帧的目标状态B,确定当前帧的目标搜索区域,即在目标中心位置的两倍当前目标尺度搜索,然后将该目标搜索区域过分割为一系列超像素。
S2、求解目标部件标签
对于目标部件选择,其目标为借助于表象模型M从背景(记作f0)中选择出目标部件为了对目标结构信息进行建模,建立一个目标结构图模型G来区分每一个目标部件。为方便起见,使用目标部件标签集合来表达其状态。在此基础上,相关滤波器模型F可以为目标状态B提供一个全局约束。
终上所述,本发明建立的能量最小化模型如下式所示:
其中,EPS、EPM和ESE分别表示目标部件选择的能量、目标部件匹配的能量和目标状态估计的能量,λSE为平衡系数。
各项具体定义如下:
(1)目标部件选择的能量EPS的定义为:
其中,Eda表征超像素部件属于前景或者背景的概率,Esm确保了标签标记的连续性,λb为平衡系数。
(2)目标部件匹配的能量EPM的定义为:
其中,Eap衡量超像素部件对结构图模型G中目标部件的相似性,Ege衡量目标部件的局部结构的相似性,λb为平衡系数。
(3)目标状态估计的能量ESE的定义为:
其中,F(B,R)表示搜索区域R中任意目标状态B对应的响应分数,而和P(lp=f0)分别表示前景和背景像素占目标状态矩形框的比例值,λ1为平衡两项的系数。
在给定了目标模型M,G,F和目标状态B之后,本发明的能量最小化模型可以重新表示为:
由于上述能量最小化模型包含了多类变量,很难同时优化,所以本发明采用轮换迭代的优化方式将优化过程分为三个阶段:
(1)固定目标模型M,G,F和目标状态B,求解目标部件标签L;
(2)固定目标模型M,G,F和目标部件标签L,求解目标状态B;
(3)固定目标状态B和目标部件标签L,更新目标模型M,G,F。
如此三个阶段交替进行,直到总能量不再降低而退出迭代循环,最后计算得到当前帧最优的目标状态B*(如图1所示)。
在求解目标部件标签L这一步中,我们执行的是上述优化过程的第一个阶段,即固定目标模型M,G,F和目标状态B,求解目标部件标签L,并具体使用图割算法求解得到目标部件标签L。
S3、求解目标状态
在求解目标状态B这一步中,我们执行的是上述优化过程的第二个阶段,即得到目标部件标签L以后,联合相关滤波器模型F,求解目标状态B。具体地,采样一系列候选目标状态中选择出最小能量的状态,以满足目标公式
求解目标状态B的方法具体为:
(1)使用采样方法得到一系列候选目标状态;
(2)基于上一帧目标尺度选择当前帧的目标中心位置;
(3)选出使目标函数能量最小的目标尺度。
S4、更新目标模型
在更新目标模型M,G,F这一步中,我们执行的是上述优化过程的第三个阶段,即为了适应目标在运动过程中的表象变化,根据求解得到的目标部件标签L和目标状态B,更新目标模型M,G,F,如下式所示:
其中,Eda表示超像素部件p属于前景或者背景的概率,EPM表示目标部件匹配的能量,F(B,R)表示搜索区域R中任意目标状态B对应的响应分数,λ1为平衡两项的系数。
各项相互独立,可以分别更新各个模型,具体地,通过目标部件标签L和目标状态B得到训练样本,学习新的目标模型M,G,F。
S5、输出当前帧目标状态
在步骤S4中,如果能量减小,则接受模型更新,转到步骤S2继续迭代优化;如果能量不再降低,则退出迭代循环,输出当前帧最优的目标状态B*,转到步骤S1。
综上所述,本发明通过建立一个统一的能量最小化模型,将基于图模型的目标跟踪算法的各模块集成到了一起,不仅同时考虑到了算法各模块的促进作用,而且还挖掘了其相互支持的关系,最终使得跟踪效果得到了进一步提高。
此外,针对该能量最小化模型,本发明采用轮换迭代的优化方法对各变量进行求解,基于能量逐渐减小的迭代过程,可以在全局目标表象的约束下搜索得到更加可靠的目标结构图模型用以表达目标部件的表象和结构。
需要说明的是,上述实施例不以任何形式限制本发明,凡采用等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (3)

1.基于受限结构图搜索的目标跟踪方法,其特征在于,包括以下步骤:
S0、初始化目标模型
根据第一帧标定的目标状态,得到目标尺度两倍大小的目标搜索区域R,然后将该目标搜索区域R过分割为一系列颜色相似像素的超像素收集在目标框内的超像素为正样本,目标框外的超像素为负样本,这样学习一个线性支持向量机模型作为表象模型M以及相关滤波器模型F作为整体约束,另外,建立目标结构图模型G={V,C},其中V表示目标部件集合,C表示临近目标部件集合关系组成的边的集合;
S1、输入下一视频帧
根据上一帧的目标状态B,确定当前帧的目标搜索区域,在目标中心位置的两倍当前目标尺度搜索,然后将该目标搜索区域过分割为一系列超像素;
S2、求解目标部件标签
给定目标模型M,G,F和目标状态B,则能量最小化函数可表示为:
<mrow> <mi>arg</mi> <mi> </mi> <msub> <mi>min</mi> <mi>L</mi> </msub> <mo>{</mo> <msup> <mi>E</mi> <mrow> <mi>P</mi> <mi>S</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>L</mi> <mo>,</mo> <mi>M</mi> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>E</mi> <mrow> <mi>P</mi> <mi>M</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>L</mi> <mo>,</mo> <mi>G</mi> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>&amp;lambda;</mi> <mn>1</mn> </msup> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>p</mi> <mo>&amp;Element;</mo> <mi>B</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>P</mi> <mo>(</mo> <mrow> <msub> <mi>l</mi> <mi>p</mi> </msub> <mo>=</mo> <msub> <mi>f</mi> <mn>0</mn> </msub> </mrow> <mo>)</mo> <mo>-</mo> <mi>P</mi> <mo>(</mo> <mrow> <msub> <mi>l</mi> <mi>p</mi> </msub> <mo>&amp;Element;</mo> <msubsup> <mrow> <mo>{</mo> <msub> <mi>f</mi> <mi>i</mi> </msub> <mo>}</mo> </mrow> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
其中,EPS和EPM分别表示目标部件选择的能量、目标部件匹配的能量,和P(lp=f0)分别表示前景和背景像素占目标状态矩形框的比例值,λ1为平衡两项的系数;
然后使用图割算法求解得到目标部件标签L;
S3、求解目标状态
得到目标部件标签L以后,联合相关滤波器模型F求解目标状态B;
S4、更新目标模型
根据求解得到的目标部件标签L和目标状态B更新目标模型M,G,F,如下式所示:
<mrow> <munder> <mrow> <mi>arg</mi> <mi> </mi> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>M</mi> <mo>,</mo> <mi>G</mi> <mo>,</mo> <mi>F</mi> </mrow> </munder> <mo>{</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>p</mi> <mo>&amp;Element;</mo> <mi>P</mi> </mrow> </munder> <msup> <mi>E</mi> <mrow> <mi>d</mi> <mi>a</mi> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>l</mi> <mi>p</mi> </msub> <mo>,</mo> <mi>M</mi> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>E</mi> <mrow> <mi>P</mi> <mi>M</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>L</mi> <mo>,</mo> <mi>G</mi> <mo>)</mo> </mrow> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <mi>&amp;lambda;</mi> <mn>1</mn> </msup> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>B</mi> <mo>,</mo> <mi>R</mi> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
其中,Eda表示超像素部件p属于前景或者背景的概率,EPM表示目标部件匹配的能量,F(B,R)表示搜索区域R中任意目标状态B对应的响应分数,λ1为平衡两项的系数;
各项相互独立,可以分别更新各个模型,通过目标部件标签L和目标状态B得到训练样本,学习新的目标模型M,G,F;
S5、输出当前帧目标状态
在步骤S4中,如果能量减小,则接受模型更新,转到步骤S2继续迭代优化;否则,退出迭代循环,输出当前帧最优的目标状态,转到步骤S1。
2.根据权利要求1所述的基于受限结构图搜索的目标跟踪方法,其特征在于,在步骤S0中,将目标搜索区域R过分割为一系列颜色相似像素的超像素使用的是SimpleLinear Iterative Clustering算法。
3.根据权利要求1所述的基于受限结构图搜索的目标跟踪方法,其特征在于,在步骤S3中,求解目标状态B的方法为:
(1)使用采样方法得到一系列候选目标状态;
(2)基于上一帧目标尺度选择当前帧的目标中心位置;
(3)选出使目标函数能量最小的目标尺度。
CN201710302422.8A 2017-05-02 2017-05-02 基于受限结构图搜索的目标跟踪方法 Expired - Fee Related CN107194951B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710302422.8A CN107194951B (zh) 2017-05-02 2017-05-02 基于受限结构图搜索的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710302422.8A CN107194951B (zh) 2017-05-02 2017-05-02 基于受限结构图搜索的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107194951A true CN107194951A (zh) 2017-09-22
CN107194951B CN107194951B (zh) 2020-08-21

Family

ID=59872846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710302422.8A Expired - Fee Related CN107194951B (zh) 2017-05-02 2017-05-02 基于受限结构图搜索的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107194951B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615640A (zh) * 2018-11-19 2019-04-12 北京陌上花科技有限公司 相关滤波目标跟踪方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100322534A1 (en) * 2009-06-09 2010-12-23 Colorado State University Research Foundation Optimized correlation filters for signal processing
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
CN105913275A (zh) * 2016-03-25 2016-08-31 哈尔滨工业大学深圳研究生院 一种基于视频主角识别的服装广告投放方法及***
CN106127811A (zh) * 2016-06-30 2016-11-16 西北工业大学 基于上下文的目标尺度自适应跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100322534A1 (en) * 2009-06-09 2010-12-23 Colorado State University Research Foundation Optimized correlation filters for signal processing
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
CN105913275A (zh) * 2016-03-25 2016-08-31 哈尔滨工业大学深圳研究生院 一种基于视频主角识别的服装广告投放方法及***
CN106127811A (zh) * 2016-06-30 2016-11-16 西北工业大学 基于上下文的目标尺度自适应跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHAO WANG 等: "Progressive Mode-Seeking on Graphs for Sparse Feature Matching", 《COMPUTER VISION》 *
RUI YAO 等: "Exploiting Spatial Structure from Parts for Adaptive Kernelized Correlation Filter Tracker", 《IEEE SIGNAL PROCESSING LETTERS》 *
WEIJUN WANG,RAMAKANT NEVATIA: "Robust Object Tracking Using Constellation Model with Superpixel", 《COMPUTER VISION》 *
贺付亮 等: "复杂环境下用于人体目标红外图像分割的改进PCNN方法", 《光学学报》 *
韩秋蕾,姚志军: "基于相关滤波器的复杂背景行人探测跟踪算法", 《仪器仪表学报》 *
魏全禄 等: "基于相关滤波器的视觉目标跟踪综述", 《计算机科学》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615640A (zh) * 2018-11-19 2019-04-12 北京陌上花科技有限公司 相关滤波目标跟踪方法及装置

Also Published As

Publication number Publication date
CN107194951B (zh) 2020-08-21

Similar Documents

Publication Publication Date Title
Zhang et al. Detection of surface defects on solar cells by fusing Multi-channel convolution neural networks
Gao et al. Transfer learning based visual tracking with gaussian processes regression
CN103605984B (zh) 基于超图学习的室内场景分类方法
CN107480704A (zh) 一种具有遮挡感知机制的实时视觉目标跟踪方法
CN110110599B (zh) 一种基于多尺度特征融合的遥感图像目标检测方法
CN110210539A (zh) 多级深度特征融合的rgb-t图像显著性目标检测方法
CN106650725A (zh) 基于全卷积神经网络的候选文本框生成和文本检测方法
CN108734120A (zh) 标注图像的方法、装置、设备和计算机可读存储介质
CN109063569A (zh) 一种基于遥感影像的语义级变化检测方法
Jiang et al. RWSNet: a semantic segmentation network based on SegNet combined with random walk for remote sensing
CN109410251B (zh) 基于稠密连接卷积网络的目标跟踪方法
CN113920442A (zh) 一种结合图结构与卷积神经网络的高光谱分类方法
CN101777184B (zh) 基于局部距离学习和排序队列的视觉目标跟踪方法
CN116448019B (zh) 建筑节能工程质量平面度智能检测装置及方法
CN102855486A (zh) 一种广义图像目标检测方法
CN115131613B (zh) 一种基于多向知识迁移的小样本图像分类方法
CN102254325A (zh) 一种运动模糊场景的分割及前景提取方法和***
CN112580636A (zh) 一种基于跨模态协同推理的图像美学质量评价方法
Radovan et al. Solar irradiance forecast based on cloud movement prediction
CN107194951A (zh) 基于受限结构图搜索的目标跟踪方法
Chen et al. AFOD: Adaptive focused discriminative segmentation tracker
Sridharan et al. Deep learning-based ensemble model for classification of photovoltaic module visual faults
Jia et al. Polar-Net: Green fruit instance segmentation in complex orchard environment
Hole et al. Design of an efficient MPPT optimization model via accurate shadow detection for solar photovoltaic
CN115797557A (zh) 基于图注意力网络的自监督3d场景流估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200821