CN104881681A - 基于混合图模型的图像序列类别标注方法 - Google Patents

基于混合图模型的图像序列类别标注方法 Download PDF

Info

Publication number
CN104881681A
CN104881681A CN201510268996.9A CN201510268996A CN104881681A CN 104881681 A CN104881681 A CN 104881681A CN 201510268996 A CN201510268996 A CN 201510268996A CN 104881681 A CN104881681 A CN 104881681A
Authority
CN
China
Prior art keywords
super
pixel
degree
classification
limit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510268996.9A
Other languages
English (en)
Other versions
CN104881681B (zh
Inventor
黄文琦
龚小谨
刘济林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201510268996.9A priority Critical patent/CN104881681B/zh
Publication of CN104881681A publication Critical patent/CN104881681A/zh
Application granted granted Critical
Publication of CN104881681B publication Critical patent/CN104881681B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于混合图模型的图像序列类别标注方法,包括:对图像序列进行超像素分割,对超像素进行特征描述;对连续两帧图像进行帧间超像素的最近邻匹配;基于单帧图像超像素间空间域的邻接关系和多帧图像超像素间时间域的匹配关系,使用混合图模型对图像序列类别标注问题进行全局优化建模;该全局优化问题使用线性方法求解,得到连续多帧图像超像素的类别标签;本发明构建的混合图模型与以往图模型相比,既可以描述单帧图像中超像素之间的一阶的、对称的关系,也可以描述连续两帧图像超像素之间的高阶的、非对称的关系,并通过线性方法求解,有效地赋予了图像序列每个超像素一个时域上一致性更好、准确率更高的类别标签。

Description

基于混合图模型的图像序列类别标注方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于混合图模型的图像序列类别标注方法。
背景技术
基于概率图模型的图像序列类别标注是计算机视觉领域的重要研究问题,是自主车环境感知、智慧城市交通***构建等应用的关键支撑技术,其目的是赋予图像序列中的每个像素点一个类别标签。图像序列类别标注属于标签问题,概率图模型是对这一类标签问题进行全局优化的有效工具。基于概率图模型的标签类问题的关键思想是,将需要求解的标签视为随机变量,通过最小化整个概率场的能量,得到随机变量的全局最优解。
传统的方法中一般使用简单图模型来构建标签随机变量的随机场。简单图模型由顶点和简单构成,其中顶点代表随机变量,简单边连接两个顶点并用于描述两个随机变量之间的关系,边的权重定义为随机场的势能函数值。简单图模型易于求解,但是只能描述两两随机变量之间对称的关系,因此适合在单帧图像中使用。在序列的图像中,多个超像素在时间域上存在着高阶的、非对称的关系,因此不能用简单边进行很好地描述。超图中的超边可以用于描述多个变量之间高阶的、非对称的关系,但是传统的超图模型基于谱聚类的方法求解,适用于求解聚类的问题,尚未应用于图像序列的类标标注问题。
发明内容
本发明的目的在于针对传统简单图模型对变量间关系描述的局限性、传统超图模型求解方法的局限性,提供一种基于混合图模型的图像序列类别标注方法,该方法使用混合图模型描述了序列图像中超像素之间的关系,其中简单边描述单帧图像中超像素之间一阶的、对称的关系,超边描述图像帧间超像素之间高阶的、非对称的关系,最后图像序列的类别标注全局优化问题转化为对混合图模型的随机场能量最小化问题,通过线性优化方法进行求解,该方法获得了相比简单图模型的方法更准确、时序一致性更高的结果。
本发明的目的是通过以下技术方案来实现的:一种基于混合图模型的图像序列类别标注方法,包括如下步骤:
(1)输入图像序列,使用SLIC算法(Simple Linear Iterative Clustering)对图像序列中每一帧图像进行超像素分割,获得超像素p,将得到的第t帧图像的第i个超像素记为pi t
(2)使用Kernel描述符对步骤1中获得的超像素进行特征描述,得到超像素的特征向量,将超像素pi t的特征向量记为fi t
(3)采用KNN算法(k-nearest neighbor)对步骤1中连续两帧图像的超像素进行时间域的匹配;
(4)构建基于混合图模型的全局优化问题,该混合图模型由顶点、两种简单边和一种超边组成;该混合图模型的顶点的集合记为每一个顶点v表示一个超像素的类别标签;该混合图模型的第一种简单边代表顶点的先验信息,该先验信息用势能函数EE(fc)描述;该混合图模型的第二种简单边代表单帧图像空间域上邻接的顶点之间对称的、成对的关系,这种关系用势能函数ES(fc)描述;该混合图模型的超边代表连续帧图像时间域上匹配的顶点之间不对称的、高阶的关系,这种关系用势能函数EH(fc)描述;
所述势能函数EE(fc)的定义为:
E E ( f c ) = Σ ∃ seed ∈ v | f c ( v ) - f ‾ c ( v ) | 2 , - - - ( 1 )
其中,表示的是存在类别种子点的超像素v,种子点通过人工标注部分像素点类别标签的方法获得;fc是一个维的列向量,由fc(v),组成,其中fc(v)为分类函数,其值表示顶点v属于类别c的置信度,取值范围在[0,1]之间;表示超像素v属于类别c的置信度的观测值,该观测值通过卷积递归神经网络分类器获得,c∈{1,2,...,C},C表示类别总数;
所述势能函数ES(fc)的定义为:
E S ( f c ) = Σ v ∈ ν Σ u ∈ N ( v ) e S ( u , v ) , - - - ( 2 )
其中,eS(u,v)为一条第二种简单边,即单帧图像内相邻两个超像素u,v之间的关系,定义为:
eS(u,v)=ws(u,v)·||fc(u)-fc(v)||2,   (3)
其中fc(u)∈[0,1]为超像素u属于类别c的置信度,该置信度通过递归卷积神经网络学习获得,ws(u,v)为超像素u,v之间简单边的权重:
w s ( u , v ) = exp ( - | | f v - f u | | 2 σ s 2 ) , - - - ( 4 )
σs是根据实验经验设置的常数;
所述势能函数EH(fc)的定义为:
E H ( f c ) = Σ e ∈ ϵ H e H ( e ) , - - - ( 5 )
其中,εH表示混合图模型中超边的集合,eH(e)为一条超边e∈εH描述的帧间时域上匹配的多个超像素之间的关系,定义为:
e H ( e ) = Σ u , v ∈ ν w H ( e ) H ( u , e ) H ( v , e ) δ ( e ) × ( f ( u ) d ( u ) - f ( v ) d ( v ) ) 2 , - - - ( 6 )
其中,每一条超边e∈εH的权重为wH(e),定义为:
w H ( e ) = Σ u ∈ M ( v ) w s ( u , v ) , - - - ( 7 )
M(v)表示在时序上与超像素v匹配的超像素的集合,Η为关联矩阵,该矩阵的大小为Η(v,e)的定义为:
H ( v , e ) = 1 , v ∈ e 0 , v ∉ e , - - - ( 8 )
Η(u,e)的定义为:
H ( u , e ) = 1 , u ∈ e 0 , u ∉ e , - - - ( 9 )
d(v)为超图中顶点的度,定义为:
d ( v ) = Σ e ∈ ϵ H w H ( e ) · H ( v , e ) , - - - ( 10 )
d(u)为超图中顶点u∈V的度,定义为:
d ( u ) = Σ e ∈ E H w H ( e ) · H ( u , e ) , - - - ( 11 )
δ(e)为超边e∈εH的度,定义为:
该混合图模型的全局优化问题描述如下:
arg min f c E E ( f c ) + λ 1 E S ( f c ) + λ 2 E H ( f c ) , - - - ( 13 )
其中,λ1和λ2为调整三项势能函数之间比例关系的权重;
(5)对每一个类别c求解公式(13)中的向量fc,得到顶点属于类别c的置信度,具体包括以下子步骤:
(5.1)将全局优化函数,公式(13)矩阵化为:
其中,S为种子点标识矩阵,它是一个维的对角矩阵,定义如下
S ( i , i ) = 1 , ∃ seeds ∈ v i 0 , otherwise , - - - ( 15 )
该对角矩阵仅在存在目标假设种子点的超像素i对应的位置S(i,i)值为1,其它位置值为0,Ws是一个的稀疏矩阵,其每一行代表一对空间相邻的两个超像素u,v之间的差运算,分别用作为对应超像素点u,v位置的权重,是超图的拉普拉斯矩阵,I是一个的单位阵,Θ=Dv -1/2HWHDe -1HTDv -1/2,Dv是一个的对角阵,每个对角线上的元素为超图中对应的顶点的度d(v),De是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的度δ(e),WH是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的权重wH(e);
(5.2)对全局优化函数公式(14)中的每个类别c的置信度fc,进行线性优化,利用一阶导数等于零得到fc的全局最优解:
(6)将步骤5中所有类别c∈{1,2,...,C}求解得到的向量用矩阵F=(f1,f2,...,fC)表示,每个顶点的类别标签由该顶点的类别置信度最大值决定,如下所示:
L = arg max c F , - - - ( 17 )
其中,L为每个顶点类别标签组成的列向量。
进一步地,所述步骤1中,所述采用SLIC算法对图像序列中每一帧图像进行超像素分割具体按照以下步骤进行:
(1.1)对一张包含N个像素点的图片,设置需要分割的超像素个数为K,初始化图片的超像素为K个大小为S=N/K的矩形图像块,第k个超像素的中心为Ck=[lk,ak,bk,xk,yk]T,其中是lk,ak,bk是位置xk,yk处像素点的CIELAB颜色空间数值,k∈{1,2,...,K};
(1.2)将超像素中心移动到初始点3×3的邻域内颜色梯度最小的位置,对每个像素点i设置标签初始值l(i)=-1,距离初始值为d(i)=∞,迭代次数初始值为T=0;
(1.3)对每一个超像素的中心点Ck,计算该点2S×2S邻域内每个像素点i到该中心点Ck的距离D,其定义如下:
D=|[li,ai,bi,xi,yi]T-Ck|,   (18)
若D<d(i),则设置距离d(i)=D且标签l(i)=k,从而得到新的超像素分割,其中第k个超像素由所有标记为标签k的像素点构成;
(1.4)对每个超像素k重新计算超像素的中心点Ck
(1.5)T=T+1;
(1.6)重复步骤1.3到1.5,直至T=δ,其中δ为阈值。
进一步地,所述步骤2中,使用Kernel描述符对每个超像素进行特征描述,得到1200维的超像素特征向量。
进一步地,所述步骤3中,采用KNN算法对连续两帧图像的超像素进行时间域的匹配,具体为:基于特征向量,对当前帧的每个超像素k,在连续的前一帧和下一帧中分别寻找与特征向量fk欧式距离最近的5个特征向量对应的超像素,作为当前帧超像素k时域上的匹配超像素。
本发明具有的有益效果是:本发明使用简单边和超边结合构建混合图模型描述序列图像超像素之间的关系,有效地描述了单帧内超像素之间一阶、对称的关系,以及时序上帧间超像素之间高阶、非对称的关系,提高了序列图像类别标注的准确性和时序一致性。同时,本发明提出的算法可以使用线性优化高效求解。本发明在时序图像的标签问题,例如类别标注、深度恢复等问题中广泛适用。
附图说明
图1为实施例1采用简单图模型方法与本发明方法进行序列图像类别标注后的图像对比图;(a)为待标注序列图像,(b)简单图模型方法类别标注后的序列图像,(c)本发明方法类别标注后的序列图像,(d)序列图像类别标注真实值;
图2为实施例2采用简单图模型方法与本发明方法进行序列图像类别标注后的图像对比图;(a)为待标注序列图像,(b)简单图模型方法类别标注后的序列图像,(c)本发明方法类别标注后的序列图像,(d)序列图像类别标注真实值。
具体实施方式
下面结合附图与实施例对本发明进行进一步说明。
本发明一种基于混合图模型的序列图像类别标注方法,包括如下步骤:
(1)输入图像序列,为了降低计算量,每次输入图像序列中连续的三帧图像,每帧图像为彩色图像,由红、蓝、绿三个颜色通道组成,像素分辨率为375×1242,使用SLIC算法对图像序列中每一帧图像进行超像素分割,获得超像素p,将得到的第t帧图像的第i个超像素记为pi t,SLIC算法步骤如下:
(1.1)对一张包含N个像素点的图片,设置需要分割的超像素个数为K,初始化图片的超像素为K个大小为S=N/K的矩形图像块,第k个超像素的中心为Ck=[lk,ak,bk,xk,yk]T,其中是lk,ak,bk是位置xk,yk处像素点的CIELAB颜色空间数值,k∈{1,2,...,K};
(1.2)将超像素中心移动到初始点3×3的邻域内颜色梯度最小的位置,对每个像素点i设置标签初始值l(i)=-1,距离初始值为d(i)=∞,迭代次数初始值为T=0;
(1.3)对每一个超像素的中心点Ck,计算该点2S×2S邻域内每个像素点i到该中心点Ck的距离D,其定义如下:
D=|[li,ai,bi,xi,yi]T-Ck|,   (18)
若D<d(i),则设置距离d(i)=D且标签l(i)=k,从而得到新的超像素分割,其中第k个超像素由所有标记为标签k的像素点构成;
(1.4)对每个超像素k重新计算超像素的中心点Ck
(1.5)T=T+1;
(1.6)重复步骤1.3到1.5,直至T=δ,其中δ为阈值;
(2)使用Kernel描述符对步骤1中获得的超像素进行特征描述,得到超像素的1200维的特征向量,将超像素pi t的特征向量记为fi t
(3)采用KNN算法(k-nearest neighbor)对步骤1中连续两帧图像的超像素进行时间域的匹配,即基于特征向量,对当前帧的每个超像素k,在连续的前一帧和下一帧中分别寻找与特征向量fk欧式距离最近的5个特征向量对应的超像素,作为当前帧超像素k时域上的匹配超像素;
(4)构建基于混合图模型的全局优化问题,该混合图模型由顶点、两种简单边和一种超边组成;该混合图模型的顶点的集合记为每一个顶点v表示一个超像素的类别标签;该混合图模型的第一种简单边代表顶点的先验信息,该先验信息用势能函数EE(fc)描述;该混合图模型的第二种简单边代表单帧图像空间域上邻接的顶点之间对称的、成对的关系,这种关系用势能函数ES(fc)描述;该混合图模型的超边代表连续帧图像时间域上匹配的顶点之间不对称的、高阶的关系,这种关系用势能函数EH(fc)描述;
所述势能函数EE(fc)的定义为:
E E ( f c ) = Σ ∃ seed ∈ v | f c ( v ) - f ‾ c ( v ) | 2 , - - - ( 1 )
其中,表示的是存在类别种子点的超像素v,种子点通过人工标注部分像素点类别标签的方法获得;fc是一个维的列向量,由fc(v),组成,其中fc(v)为分类函数,其值表示顶点v属于类别c的置信度,取值范围在[0,1]之间;表示超像素v属于类别c的置信度的观测值,该观测值通过卷积递归神经网络分类器获得,c∈{1,2,...,C},C表示类别总数;
所述势能函数ES(fc)的定义为:
E S ( f c ) = Σ v ∈ ν Σ u ∈ N ( v ) e S ( u , v ) , - - - ( 2 )
其中,eS(u,v)为一条第二种简单边,即单帧图像内相邻两个超像素u,v之间的关系,定义为:
eS(u,v)=ws(u,v)·||fc(u)-fc(v)||2,   (3)
其中fc(u)∈[0,1]为超像素u属于类别c的置信度,该置信度通过递归卷积神经网络学习获得,ws(u,v)为超像素u,v之间简单边的权重:
w s ( u , v ) = exp ( - | | f v - f u | | 2 σ s 2 ) , - - - ( 4 )
σs是根据实验经验设置的常数;
所述势能函数EH(fc)的定义为:
E H ( f c ) = Σ e ∈ ϵ H e H ( e ) , - - - ( 5 )
其中,εH表示混合图模型中超边的集合,eH(e)为一条超边e∈εH描述的帧间时域上匹配的多个超像素之间的关系,定义为:
e H ( e ) = Σ u , v ∈ ν w H ( e ) H ( u , e ) H ( v , e ) δ ( e ) × ( f ( u ) d ( u ) - f ( v ) d ( v ) ) 2 , - - - ( 6 )
其中,每一条超边e∈εH的权重为wH(e),定义为:
w H ( e ) = Σ u ∈ M ( v ) w s ( u , v ) , - - - ( 7 )
M(v)表示在时序上与超像素v匹配的超像素的集合,Η为关联矩阵,该矩阵的大小为Η(v,e)的定义为:
H ( v , e ) = 1 , v ∈ e 0 , v ∉ e , - - - ( 8 )
Η(u,e)的定义为:
H ( u , e ) = 1 , u ∈ e 0 , u ∉ e , - - - ( 9 )
d(v)为超图中顶点的度,定义为:
d ( v ) = Σ e ∈ ϵ H w H ( e ) · H ( v , e ) , - - - ( 10 )
d(u)为超图中顶点u∈V的度,定义为:
d ( u ) = Σ e ∈ E H w H ( e ) · H ( u , e ) , - - - ( 11 )
δ(e)为超边e∈εH的度,定义为:
该混合图模型的全局优化问题描述如下:
arg min f c E E ( f c ) + λ 1 E S ( f c ) + λ 2 E H ( f c ) , - - - ( 13 )
其中,λ1和λ2为调整三项势能函数之间比例关系的权重;
(5)对每一个类别c求解公式(13)中的向量fc,得到顶点属于类别c的置信度,具体包括以下子步骤:
(5.1)将全局优化函数,公式(13)矩阵化为:
其中,S为种子点标识矩阵,它是一个维的对角矩阵,定义如下
S ( i , i ) = 1 , ∃ seeds ∈ v i 0 , otherwise , - - - ( 15 )
该对角矩阵仅在存在目标假设种子点的超像素i对应的位置S(i,i)值为1,其它位置值为0,Ws是一个的稀疏矩阵,其每一行代表一对空间相邻的两个超像素u,v之间的差运算,分别用作为对应超像素点u,v位置的权重,是超图的拉普拉斯矩阵,I是一个的单位阵,Θ=Dv -1/2HWHDe -1HTDv -1/2,Dv是一个的对角阵,每个对角线上的元素为超图中对应的顶点的度d(v),De是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的度δ(e),WH是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的权重wH(e);
(5.2)对全局优化函数公式(14)中的每个类别c的置信度fc,进行线性优化,利用一阶导数等于零得到fc的全局最优解:
(6)将步骤5中所有类别c∈{1,2,...,C}求解得到的向量用矩阵F=(f1,f2,...,fC)表示,每个顶点的类别标签由该顶点的类别置信度最大值决定,如下所示:
L = arg max c F , - - - ( 17 )
其中,L为每个顶点类别标签组成的列向量。
实施例1
对待标注图像序列图1(a)分别利用简单图模型和本发明方法进行处理,由结果对比图可以看出,本发明方法有效地提高了序列图像类别标注的准确性和时序一致性。
实施例2
对待检测图像图2(a)分别利用简单图模型和本发明方法进行处理,由结果对比图可以看出,本发明方法有效地提高了序列图像类别标注的准确性和时序一致性。
表1为利用简单图模型和本发明方法在KITTI数据集上的准确率(Prec.),召回率(Rec.),F标准(FM)评价数值结果,该数值越高,表明该方法得到的标注结果越好。从表1可以看出,本发明方法比简单图模型方法在定量指标上取得更好的效果。
表1 图像序列实验结果对比数据

Claims (4)

1.一种基于混合图模型的图像序列类别标注方法,其特征在于,包括如下步骤:
(1)输入图像序列,使用SLIC算法对图像序列中每一帧图像进行超像素分割,获得超像素p,将得到的第t帧图像的第i个超像素记为pi t
(2)使用Kernel描述符对步骤1中获得的超像素进行特征描述,得到超像素的特征向量,将超像素pi t的特征向量记为fi t
(3)采用KNN算法对步骤1中连续两帧图像的超像素进行时间域的匹配;
(4)构建基于混合图模型的全局优化问题,该混合图模型由顶点、两种简单边和一种超边组成;该混合图模型的顶点的集合记为ν,每一个顶点v表示一个超像素的类别标签;该混合图模型的第一种简单边代表顶点ν的先验信息,该先验信息用势能函数EE(fc)描述;该混合图模型的第二种简单边代表单帧图像空间域上邻接的顶点之间对称的、成对的关系,这种关系用势能函数ES(fc)描述;该混合图模型的超边代表连续帧图像时间域上匹配的顶点之间不对称的、高阶的关系,这种关系用势能函数EH(fc)描述;
所述势能函数EE(fc)的定义为:
E E ( f c ) = Σ ∃ seed ∈ v | f c ( v ) - f ‾ c ( v ) | 2 , - - - ( 1 )
其中,表示的是存在类别种子点的超像素v,种子点通过人工标注部分像素点类别标签的方法获得;fc是一个|ν|维的列向量,由fc(v),v∈ν组成,其中fc(v)为分类函数,其值表示顶点v属于类别c的置信度,取值范围在[0,1]之间;表示超像素v属于类别c的置信度的观测值,该观测值通过卷积递归神经网络分类器获得,c∈{1,2,...,C},C表示类别总数;
所述势能函数ES(fc)的定义为:
E S ( f c ) = Σ v ∈ ν Σ u ∈ N ( v ) e S ( u , v ) , - - - ( 2 )
其中,eS(u,v)为一条第二种简单边,即单帧图像内相邻两个超像素u,v之间的关系,定义为:
eS(u,v)=ws(u,v)·||fc(u)-fc(v)||2,   (3)
其中fc(u)∈[0,1]为超像素u属于类别c的置信度,该置信度通过递归卷积神经网络学习获得,ws(u,v)为超像素u,v之间简单边的权重:
w s ( u , v ) = exp ( - | | f v - f u | | 2 σ s 2 ) , - - - ( 4 )
σs是根据实验经验设置的常数;
所述势能函数EH(fc)的定义为:
E H ( f c ) = Σ e ∈ ϵ H e H ( e ) , - - - ( 5 )
其中,εH表示混合图模型中超边的集合,eH(e)为一条超边e∈εH描述的帧间时域上匹配的多个超像素之间的关系,定义为:
e H ( e ) = Σ u , v ∈ ν w H ( e ) H ( u , e ) H ( v , e ) δ ( e ) × ( f ( u ) d ( u ) - f ( v ) d ( v ) ) 2 , - - - ( 6 )
其中,每一条超边e∈εH的权重为wH(e),定义为:
w H ( e ) = Σ u ∈ M ( v ) w s ( u , v ) , - - - ( 7 )
M(v)表示在时序上与超像素v匹配的超像素的集合,Η为关联矩阵,该矩阵的大小为|ν|×|εH|,Η(v,e)的定义为:
H ( v , e ) = 1 , v ∈ e 0 , v ∉ e , - - - ( 8 )
Η(u,e)的定义为:
H ( u , e ) = 1 , u ∈ e 0 , u ∉ e , - - - ( 9 )
d(v)为超图中顶点v∈ν的度,定义为:
d ( v ) = Σ e ∈ ϵ H w H ( e ) · H ( v , e ) , - - - ( 10 )
d(u)为超图中顶点u∈V的度,定义为:
d ( u ) = Σ e ∈ E H w H ( e ) · H ( u , e ) , - - - ( 11 )
δ(e)为超边e∈εH的度,定义为:
δ ( e ) = Σ v ∈ ν H ( v , e ) . - - - ( 12 )
该混合图模型的全局优化问题描述如下:
arg min E E f c ( f c ) + λ 1 E S ( f c ) + λ 2 E H ( f c ) , - - - ( 13 )
其中,λ1和λ2为调整三项势能函数之间比例关系的权重;
(5)对每一个类别c求解公式(13)中的向量fc,得到顶点v∈ν属于类别c的置信度,具体包括以下子步骤:
(5.1)将全局优化函数,公式(13)矩阵化为:
其中,S为种子点标识矩阵,它是一个|ν|×|v|维的对角矩阵,定义如下
S ( i , i ) = 1 , ∃ seeds ∈ v i 0 , otherwise , - - - ( 15 )
该对角矩阵仅在存在目标假设种子点的超像素i对应的位置S(i,i)值为1,其它位置值为0,Ws是一个K×|ν|的稀疏矩阵,其每一行代表一对空间相邻的两个超像素u,v之间的差运算,分别用作为对应超像素点u,v位置的权重,是超图的拉普拉斯矩阵,I是一个|ν|×|ν|的单位阵,Θ=Dv -1/2HWHDe -1HTDv -1/2,Dv是一个|ν|×|ν|的对角阵,每个对角线上的元素为超图中对应的顶点的度d(v),De是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的度δ(e),WH是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的权重wH(e);
(5.2)对全局优化函数公式(14)中的每个类别c的置信度fc,进行线性优化,利用一阶导数等于零得到fc的全局最优解:
(6)将步骤5中所有类别c∈{1,2,...,C}求解得到的向量用矩阵F=(f1,f2,...,fC)表示,每个顶点v∈ν的类别标签由该顶点的类别置信度最大值决定,如下所示:
L = arg max F c , - - - ( 17 )
其中,L为每个顶点类别标签组成的列向量。
2.根据权利要求1所述的一种基于混合图模型的图像序列类别标注方法,其特征在于,所述步骤1中,所述采用SLIC算法对图像序列中每一帧图像进行超像素分割具体按照以下步骤进行:
(1.1)对一张包含N个像素点的图片,设置需要分割的超像素个数为K,初始化图片的超像素为K个大小为S=N/K的矩形图像块,第k个超像素的中心为Ck=[lk,ak,bk,xk,yk]T,其中是lk,ak,bk是位置xk,yk处像素点的CIELAB颜色空间数值,k∈{1,2,...,K};
(1.2)将超像素中心移动到初始点3×3的邻域内颜色梯度最小的位置,对每个像素点i设置标签初始值l(i)=-1,距离初始值为d(i)=∞,迭代次数初始值为T=0;
(1.3)对每一个超像素的中心点Ck,计算该点2S×2S邻域内每个像素点i到该中心点Ck的距离D,其定义如下:
D=|[li,ai,bi,xi,yi]T-Ck|,   (18)
若D<d(i),则设置距离d(i)=D且标签l(i)=k,从而得到新的超像素分割,其中第k个超像素由所有标记为标签k的像素点构成;
(1.4)对每个超像素k重新计算超像素的中心点Ck
(1.5)T=T+1;
(1.6)重复步骤1.3到1.5,直至T=δ,其中δ为阈值。
3.根据权利要求1所述的一种基于混合图模型的图像序列类别标注方法,其特征在于,所述步骤2中,使用Kernel描述符对每个超像素进行特征描述,得到1200维的超像素特征向量。
4.根据权利要求1所述的一种基于混合图模型的图像序列类别标注方法,其特征在于,所述步骤3中,采用KNN算法对连续两帧图像的超像素进行时间域的匹配,具体为:基于特征向量,对当前帧的每个超像素k,在连续的前一帧和下一帧中分别寻找与特征向量fk欧式距离最近的5个特征向量对应的超像素,作为当前帧超像素k时域上的匹配超像素。
CN201510268996.9A 2015-05-22 2015-05-22 基于混合图模型的图像序列类别标注方法 Expired - Fee Related CN104881681B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510268996.9A CN104881681B (zh) 2015-05-22 2015-05-22 基于混合图模型的图像序列类别标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510268996.9A CN104881681B (zh) 2015-05-22 2015-05-22 基于混合图模型的图像序列类别标注方法

Publications (2)

Publication Number Publication Date
CN104881681A true CN104881681A (zh) 2015-09-02
CN104881681B CN104881681B (zh) 2018-08-14

Family

ID=53949168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510268996.9A Expired - Fee Related CN104881681B (zh) 2015-05-22 2015-05-22 基于混合图模型的图像序列类别标注方法

Country Status (1)

Country Link
CN (1) CN104881681B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105721860A (zh) * 2016-01-20 2016-06-29 天津大学 一种基于超图的视频镜头边界检测方法
CN105898111A (zh) * 2016-05-06 2016-08-24 西安理工大学 一种基于谱聚类的视频去雾方法
CN106446782A (zh) * 2016-08-29 2017-02-22 北京小米移动软件有限公司 图像识别方法及装置
CN107203998A (zh) * 2016-03-18 2017-09-26 北京大学 一种对锥束ct图像进行牙列分割的方法
CN107424159A (zh) * 2017-07-28 2017-12-01 西安电子科技大学 基于超像素边缘和全卷积网络的图像语义分割方法
CN107507195A (zh) * 2017-08-14 2017-12-22 四川大学 基于超图模型的pet‑ct多模态鼻咽癌图像分割方法
CN107833209A (zh) * 2017-10-27 2018-03-23 浙江大华技术股份有限公司 一种x光图像检测方法、装置、电子设备及存储介质
CN108052876A (zh) * 2017-11-28 2018-05-18 广东数相智能科技有限公司 基于图像识别的区域发展评估方法及装置
WO2018112783A1 (zh) * 2016-12-21 2018-06-28 深圳前海达闼云端智能科技有限公司 图像识别方法及装置
CN108804658A (zh) * 2018-06-08 2018-11-13 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备
CN108986100A (zh) * 2017-06-02 2018-12-11 宏达国际电子股份有限公司 影像切割方法及装置
CN110047096A (zh) * 2019-04-28 2019-07-23 中南民族大学 一种基于深度条件随机场模型的多目标跟踪方法和***
CN110363240A (zh) * 2019-07-05 2019-10-22 安徽威奥曼机器人有限公司 一种医学影像分类方法与***
CN110715622A (zh) * 2019-09-04 2020-01-21 华中科技大学 一种电缆导体截面积测量方法
CN111046951A (zh) * 2019-12-12 2020-04-21 安徽威奥曼机器人有限公司 一种医学影像分类方法
CN112507925A (zh) * 2020-12-16 2021-03-16 安徽建筑大学 一种基于慢特征分析的火灾检测方法
CN112766330A (zh) * 2021-01-07 2021-05-07 济南浪潮高新科技投资发展有限公司 图像多标签分类方法和装置
CN112836644A (zh) * 2021-02-04 2021-05-25 电子科技大学 一种基于超图学习的安全帽实时检测方法
CN113160974A (zh) * 2021-04-16 2021-07-23 山西大学 一种基于超图聚类的精神疾病生物型发掘方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473566A (zh) * 2013-08-27 2013-12-25 东莞中国科学院云计算产业技术创新与育成中心 一种基于多尺度模型的车辆检测方法
CN103544697A (zh) * 2013-09-30 2014-01-29 南京信息工程大学 一种基于超图谱分析的图像分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473566A (zh) * 2013-08-27 2013-12-25 东莞中国科学院云计算产业技术创新与育成中心 一种基于多尺度模型的车辆检测方法
CN103544697A (zh) * 2013-09-30 2014-01-29 南京信息工程大学 一种基于超图谱分析的图像分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A.VEZHNEVETS: "weakly supervised sementic segmentation with a multi-image model", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
G.SINGH: "nonparametic scene parsing with adaptive feature relevance and semantic context", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
袁飞等: "利用超图图割的图像共分割算法", 《西安交通大学学报》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105721860A (zh) * 2016-01-20 2016-06-29 天津大学 一种基于超图的视频镜头边界检测方法
CN107203998B (zh) * 2016-03-18 2020-04-03 北京大学 一种对锥束ct图像进行牙列分割的方法
CN107203998A (zh) * 2016-03-18 2017-09-26 北京大学 一种对锥束ct图像进行牙列分割的方法
CN105898111A (zh) * 2016-05-06 2016-08-24 西安理工大学 一种基于谱聚类的视频去雾方法
CN105898111B (zh) * 2016-05-06 2018-11-27 西安理工大学 一种基于谱聚类的视频去雾方法
CN106446782A (zh) * 2016-08-29 2017-02-22 北京小米移动软件有限公司 图像识别方法及装置
WO2018112783A1 (zh) * 2016-12-21 2018-06-28 深圳前海达闼云端智能科技有限公司 图像识别方法及装置
CN108986100A (zh) * 2017-06-02 2018-12-11 宏达国际电子股份有限公司 影像切割方法及装置
CN107424159A (zh) * 2017-07-28 2017-12-01 西安电子科技大学 基于超像素边缘和全卷积网络的图像语义分割方法
CN107424159B (zh) * 2017-07-28 2020-02-07 西安电子科技大学 基于超像素边缘和全卷积网络的图像语义分割方法
CN107507195A (zh) * 2017-08-14 2017-12-22 四川大学 基于超图模型的pet‑ct多模态鼻咽癌图像分割方法
CN107507195B (zh) * 2017-08-14 2019-11-15 四川大学 基于超图模型的pet-ct多模态鼻咽癌图像分割方法
CN107833209A (zh) * 2017-10-27 2018-03-23 浙江大华技术股份有限公司 一种x光图像检测方法、装置、电子设备及存储介质
CN107833209B (zh) * 2017-10-27 2020-05-26 浙江大华技术股份有限公司 一种x光图像检测方法、装置、电子设备及存储介质
CN108052876A (zh) * 2017-11-28 2018-05-18 广东数相智能科技有限公司 基于图像识别的区域发展评估方法及装置
CN108052876B (zh) * 2017-11-28 2022-02-11 广东数相智能科技有限公司 基于图像识别的区域发展评估方法及装置
CN108804658A (zh) * 2018-06-08 2018-11-13 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备
CN110047096B (zh) * 2019-04-28 2019-11-22 中南民族大学 一种基于深度条件随机场模型的多目标跟踪方法和***
CN110047096A (zh) * 2019-04-28 2019-07-23 中南民族大学 一种基于深度条件随机场模型的多目标跟踪方法和***
CN110363240B (zh) * 2019-07-05 2020-09-11 浙江美迪克医疗科技有限公司 一种医学影像分类方法与***
CN110363240A (zh) * 2019-07-05 2019-10-22 安徽威奥曼机器人有限公司 一种医学影像分类方法与***
CN110715622A (zh) * 2019-09-04 2020-01-21 华中科技大学 一种电缆导体截面积测量方法
CN111046951A (zh) * 2019-12-12 2020-04-21 安徽威奥曼机器人有限公司 一种医学影像分类方法
CN112507925A (zh) * 2020-12-16 2021-03-16 安徽建筑大学 一种基于慢特征分析的火灾检测方法
CN112766330A (zh) * 2021-01-07 2021-05-07 济南浪潮高新科技投资发展有限公司 图像多标签分类方法和装置
CN112836644A (zh) * 2021-02-04 2021-05-25 电子科技大学 一种基于超图学习的安全帽实时检测方法
CN112836644B (zh) * 2021-02-04 2022-11-25 电子科技大学 一种基于超图学习的安全帽实时检测方法
CN113160974A (zh) * 2021-04-16 2021-07-23 山西大学 一种基于超图聚类的精神疾病生物型发掘方法
CN113160974B (zh) * 2021-04-16 2022-07-19 山西大学 一种基于超图聚类的精神疾病生物型发掘方法

Also Published As

Publication number Publication date
CN104881681B (zh) 2018-08-14

Similar Documents

Publication Publication Date Title
CN104881681A (zh) 基于混合图模型的图像序列类别标注方法
CN107808389B (zh) 基于深度学习的无监督视频分割方法
CN105740909B (zh) 一种基于空间变换的自然场景下文本识别方法
CN101556690B (zh) 基于词典学习和稀疏表示的超分辨率算法
CN110796026A (zh) 一种基于全局特征拼接的行人重识别方法
CN103489196B (zh) 基于Codebook背景建模的运动目标检测方法
Wang Block principal component analysis with L1-norm for image analysis
CN105184772A (zh) 一种基于超像素的自适应彩色图像分割方法
CN103400386A (zh) 一种用于视频中的交互式图像处理方法
CN103309982B (zh) 一种基于视觉显著点特征的遥感影像检索方法
CN104657962A (zh) 基于级联线性回归的图像超分辨重建方法
CN104616247A (zh) 一种用于基于超像素sift航拍地图拼接的方法
CN103164693A (zh) 一种监控视频行人检测匹配方法
Zhai et al. FPANet: feature pyramid attention network for crowd counting
CN103208109B (zh) 一种基于局部约束迭代邻域嵌入的人脸幻构方法
CN116152710A (zh) 一种基于跨帧实例关联的视频实例分割方法
CN104240197A (zh) 一种保持对比度、颜色一致性和灰度像素特征的消色算法
CN109670506A (zh) 基于克罗内克卷积的场景分割方法和***
CN105512663A (zh) 一种基于全局与局部对比度的显著性检测方法
CN104537377B (zh) 一种基于二维核熵成分分析的图像数据降维方法
CN104050482A (zh) 一种基于局部线性回归的流形学习泛化算法
Wang et al. CCAG: end-to-end point cloud registration
CN101482917B (zh) 一种基于二阶二维主分量分析的人脸识别***和方法
CN104408158B (zh) 一种基于几何重构和语义融合的视点追踪方法
CN114707611B (zh) 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180814

Termination date: 20210522

CF01 Termination of patent right due to non-payment of annual fee