CN104881681A - 基于混合图模型的图像序列类别标注方法 - Google Patents
基于混合图模型的图像序列类别标注方法 Download PDFInfo
- Publication number
- CN104881681A CN104881681A CN201510268996.9A CN201510268996A CN104881681A CN 104881681 A CN104881681 A CN 104881681A CN 201510268996 A CN201510268996 A CN 201510268996A CN 104881681 A CN104881681 A CN 104881681A
- Authority
- CN
- China
- Prior art keywords
- super
- pixel
- degree
- classification
- limit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000005457 optimization Methods 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 31
- 239000013598 vector Substances 0.000 claims description 29
- 238000005381 potential energy Methods 0.000 claims description 22
- 230000008878 coupling Effects 0.000 claims description 8
- 238000010168 coupling process Methods 0.000 claims description 8
- 238000005859 coupling reaction Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000013011 mating Effects 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于混合图模型的图像序列类别标注方法,包括:对图像序列进行超像素分割,对超像素进行特征描述;对连续两帧图像进行帧间超像素的最近邻匹配;基于单帧图像超像素间空间域的邻接关系和多帧图像超像素间时间域的匹配关系,使用混合图模型对图像序列类别标注问题进行全局优化建模;该全局优化问题使用线性方法求解,得到连续多帧图像超像素的类别标签;本发明构建的混合图模型与以往图模型相比,既可以描述单帧图像中超像素之间的一阶的、对称的关系,也可以描述连续两帧图像超像素之间的高阶的、非对称的关系,并通过线性方法求解,有效地赋予了图像序列每个超像素一个时域上一致性更好、准确率更高的类别标签。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于混合图模型的图像序列类别标注方法。
背景技术
基于概率图模型的图像序列类别标注是计算机视觉领域的重要研究问题,是自主车环境感知、智慧城市交通***构建等应用的关键支撑技术,其目的是赋予图像序列中的每个像素点一个类别标签。图像序列类别标注属于标签问题,概率图模型是对这一类标签问题进行全局优化的有效工具。基于概率图模型的标签类问题的关键思想是,将需要求解的标签视为随机变量,通过最小化整个概率场的能量,得到随机变量的全局最优解。
传统的方法中一般使用简单图模型来构建标签随机变量的随机场。简单图模型由顶点和简单构成,其中顶点代表随机变量,简单边连接两个顶点并用于描述两个随机变量之间的关系,边的权重定义为随机场的势能函数值。简单图模型易于求解,但是只能描述两两随机变量之间对称的关系,因此适合在单帧图像中使用。在序列的图像中,多个超像素在时间域上存在着高阶的、非对称的关系,因此不能用简单边进行很好地描述。超图中的超边可以用于描述多个变量之间高阶的、非对称的关系,但是传统的超图模型基于谱聚类的方法求解,适用于求解聚类的问题,尚未应用于图像序列的类标标注问题。
发明内容
本发明的目的在于针对传统简单图模型对变量间关系描述的局限性、传统超图模型求解方法的局限性,提供一种基于混合图模型的图像序列类别标注方法,该方法使用混合图模型描述了序列图像中超像素之间的关系,其中简单边描述单帧图像中超像素之间一阶的、对称的关系,超边描述图像帧间超像素之间高阶的、非对称的关系,最后图像序列的类别标注全局优化问题转化为对混合图模型的随机场能量最小化问题,通过线性优化方法进行求解,该方法获得了相比简单图模型的方法更准确、时序一致性更高的结果。
本发明的目的是通过以下技术方案来实现的:一种基于混合图模型的图像序列类别标注方法,包括如下步骤:
(1)输入图像序列,使用SLIC算法(Simple Linear Iterative Clustering)对图像序列中每一帧图像进行超像素分割,获得超像素p,将得到的第t帧图像的第i个超像素记为pi t;
(2)使用Kernel描述符对步骤1中获得的超像素进行特征描述,得到超像素的特征向量,将超像素pi t的特征向量记为fi t;
(3)采用KNN算法(k-nearest neighbor)对步骤1中连续两帧图像的超像素进行时间域的匹配;
(4)构建基于混合图模型的全局优化问题,该混合图模型由顶点、两种简单边和一种超边组成;该混合图模型的顶点的集合记为每一个顶点v表示一个超像素的类别标签;该混合图模型的第一种简单边代表顶点的先验信息,该先验信息用势能函数EE(fc)描述;该混合图模型的第二种简单边代表单帧图像空间域上邻接的顶点之间对称的、成对的关系,这种关系用势能函数ES(fc)描述;该混合图模型的超边代表连续帧图像时间域上匹配的顶点之间不对称的、高阶的关系,这种关系用势能函数EH(fc)描述;
所述势能函数EE(fc)的定义为:
其中,表示的是存在类别种子点的超像素v,种子点通过人工标注部分像素点类别标签的方法获得;fc是一个维的列向量,由fc(v),组成,其中fc(v)为分类函数,其值表示顶点v属于类别c的置信度,取值范围在[0,1]之间;表示超像素v属于类别c的置信度的观测值,该观测值通过卷积递归神经网络分类器获得,c∈{1,2,...,C},C表示类别总数;
所述势能函数ES(fc)的定义为:
其中,eS(u,v)为一条第二种简单边,即单帧图像内相邻两个超像素u,v之间的关系,定义为:
eS(u,v)=ws(u,v)·||fc(u)-fc(v)||2, (3)
其中fc(u)∈[0,1]为超像素u属于类别c的置信度,该置信度通过递归卷积神经网络学习获得,ws(u,v)为超像素u,v之间简单边的权重:
σs是根据实验经验设置的常数;
所述势能函数EH(fc)的定义为:
其中,εH表示混合图模型中超边的集合,eH(e)为一条超边e∈εH描述的帧间时域上匹配的多个超像素之间的关系,定义为:
其中,每一条超边e∈εH的权重为wH(e),定义为:
M(v)表示在时序上与超像素v匹配的超像素的集合,Η为关联矩阵,该矩阵的大小为Η(v,e)的定义为:
Η(u,e)的定义为:
d(v)为超图中顶点的度,定义为:
d(u)为超图中顶点u∈V的度,定义为:
δ(e)为超边e∈εH的度,定义为:
该混合图模型的全局优化问题描述如下:
其中,λ1和λ2为调整三项势能函数之间比例关系的权重;
(5)对每一个类别c求解公式(13)中的向量fc,得到顶点属于类别c的置信度,具体包括以下子步骤:
(5.1)将全局优化函数,公式(13)矩阵化为:
其中,S为种子点标识矩阵,它是一个维的对角矩阵,定义如下
该对角矩阵仅在存在目标假设种子点的超像素i对应的位置S(i,i)值为1,其它位置值为0,Ws是一个的稀疏矩阵,其每一行代表一对空间相邻的两个超像素u,v之间的差运算,分别用与作为对应超像素点u,v位置的权重,是超图的拉普拉斯矩阵,I是一个的单位阵,Θ=Dv -1/2HWHDe -1HTDv -1/2,Dv是一个的对角阵,每个对角线上的元素为超图中对应的顶点的度d(v),De是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的度δ(e),WH是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的权重wH(e);
(5.2)对全局优化函数公式(14)中的每个类别c的置信度fc,进行线性优化,利用一阶导数等于零得到fc的全局最优解:
(6)将步骤5中所有类别c∈{1,2,...,C}求解得到的向量用矩阵F=(f1,f2,...,fC)表示,每个顶点的类别标签由该顶点的类别置信度最大值决定,如下所示:
其中,L为每个顶点类别标签组成的列向量。
进一步地,所述步骤1中,所述采用SLIC算法对图像序列中每一帧图像进行超像素分割具体按照以下步骤进行:
(1.1)对一张包含N个像素点的图片,设置需要分割的超像素个数为K,初始化图片的超像素为K个大小为S=N/K的矩形图像块,第k个超像素的中心为Ck=[lk,ak,bk,xk,yk]T,其中是lk,ak,bk是位置xk,yk处像素点的CIELAB颜色空间数值,k∈{1,2,...,K};
(1.2)将超像素中心移动到初始点3×3的邻域内颜色梯度最小的位置,对每个像素点i设置标签初始值l(i)=-1,距离初始值为d(i)=∞,迭代次数初始值为T=0;
(1.3)对每一个超像素的中心点Ck,计算该点2S×2S邻域内每个像素点i到该中心点Ck的距离D,其定义如下:
D=|[li,ai,bi,xi,yi]T-Ck|, (18)
若D<d(i),则设置距离d(i)=D且标签l(i)=k,从而得到新的超像素分割,其中第k个超像素由所有标记为标签k的像素点构成;
(1.4)对每个超像素k重新计算超像素的中心点Ck;
(1.5)T=T+1;
(1.6)重复步骤1.3到1.5,直至T=δ,其中δ为阈值。
进一步地,所述步骤2中,使用Kernel描述符对每个超像素进行特征描述,得到1200维的超像素特征向量。
进一步地,所述步骤3中,采用KNN算法对连续两帧图像的超像素进行时间域的匹配,具体为:基于特征向量,对当前帧的每个超像素k,在连续的前一帧和下一帧中分别寻找与特征向量fk欧式距离最近的5个特征向量对应的超像素,作为当前帧超像素k时域上的匹配超像素。
本发明具有的有益效果是:本发明使用简单边和超边结合构建混合图模型描述序列图像超像素之间的关系,有效地描述了单帧内超像素之间一阶、对称的关系,以及时序上帧间超像素之间高阶、非对称的关系,提高了序列图像类别标注的准确性和时序一致性。同时,本发明提出的算法可以使用线性优化高效求解。本发明在时序图像的标签问题,例如类别标注、深度恢复等问题中广泛适用。
附图说明
图1为实施例1采用简单图模型方法与本发明方法进行序列图像类别标注后的图像对比图;(a)为待标注序列图像,(b)简单图模型方法类别标注后的序列图像,(c)本发明方法类别标注后的序列图像,(d)序列图像类别标注真实值;
图2为实施例2采用简单图模型方法与本发明方法进行序列图像类别标注后的图像对比图;(a)为待标注序列图像,(b)简单图模型方法类别标注后的序列图像,(c)本发明方法类别标注后的序列图像,(d)序列图像类别标注真实值。
具体实施方式
下面结合附图与实施例对本发明进行进一步说明。
本发明一种基于混合图模型的序列图像类别标注方法,包括如下步骤:
(1)输入图像序列,为了降低计算量,每次输入图像序列中连续的三帧图像,每帧图像为彩色图像,由红、蓝、绿三个颜色通道组成,像素分辨率为375×1242,使用SLIC算法对图像序列中每一帧图像进行超像素分割,获得超像素p,将得到的第t帧图像的第i个超像素记为pi t,SLIC算法步骤如下:
(1.1)对一张包含N个像素点的图片,设置需要分割的超像素个数为K,初始化图片的超像素为K个大小为S=N/K的矩形图像块,第k个超像素的中心为Ck=[lk,ak,bk,xk,yk]T,其中是lk,ak,bk是位置xk,yk处像素点的CIELAB颜色空间数值,k∈{1,2,...,K};
(1.2)将超像素中心移动到初始点3×3的邻域内颜色梯度最小的位置,对每个像素点i设置标签初始值l(i)=-1,距离初始值为d(i)=∞,迭代次数初始值为T=0;
(1.3)对每一个超像素的中心点Ck,计算该点2S×2S邻域内每个像素点i到该中心点Ck的距离D,其定义如下:
D=|[li,ai,bi,xi,yi]T-Ck|, (18)
若D<d(i),则设置距离d(i)=D且标签l(i)=k,从而得到新的超像素分割,其中第k个超像素由所有标记为标签k的像素点构成;
(1.4)对每个超像素k重新计算超像素的中心点Ck;
(1.5)T=T+1;
(1.6)重复步骤1.3到1.5,直至T=δ,其中δ为阈值;
(2)使用Kernel描述符对步骤1中获得的超像素进行特征描述,得到超像素的1200维的特征向量,将超像素pi t的特征向量记为fi t;
(3)采用KNN算法(k-nearest neighbor)对步骤1中连续两帧图像的超像素进行时间域的匹配,即基于特征向量,对当前帧的每个超像素k,在连续的前一帧和下一帧中分别寻找与特征向量fk欧式距离最近的5个特征向量对应的超像素,作为当前帧超像素k时域上的匹配超像素;
(4)构建基于混合图模型的全局优化问题,该混合图模型由顶点、两种简单边和一种超边组成;该混合图模型的顶点的集合记为每一个顶点v表示一个超像素的类别标签;该混合图模型的第一种简单边代表顶点的先验信息,该先验信息用势能函数EE(fc)描述;该混合图模型的第二种简单边代表单帧图像空间域上邻接的顶点之间对称的、成对的关系,这种关系用势能函数ES(fc)描述;该混合图模型的超边代表连续帧图像时间域上匹配的顶点之间不对称的、高阶的关系,这种关系用势能函数EH(fc)描述;
所述势能函数EE(fc)的定义为:
其中,表示的是存在类别种子点的超像素v,种子点通过人工标注部分像素点类别标签的方法获得;fc是一个维的列向量,由fc(v),组成,其中fc(v)为分类函数,其值表示顶点v属于类别c的置信度,取值范围在[0,1]之间;表示超像素v属于类别c的置信度的观测值,该观测值通过卷积递归神经网络分类器获得,c∈{1,2,...,C},C表示类别总数;
所述势能函数ES(fc)的定义为:
其中,eS(u,v)为一条第二种简单边,即单帧图像内相邻两个超像素u,v之间的关系,定义为:
eS(u,v)=ws(u,v)·||fc(u)-fc(v)||2, (3)
其中fc(u)∈[0,1]为超像素u属于类别c的置信度,该置信度通过递归卷积神经网络学习获得,ws(u,v)为超像素u,v之间简单边的权重:
σs是根据实验经验设置的常数;
所述势能函数EH(fc)的定义为:
其中,εH表示混合图模型中超边的集合,eH(e)为一条超边e∈εH描述的帧间时域上匹配的多个超像素之间的关系,定义为:
其中,每一条超边e∈εH的权重为wH(e),定义为:
M(v)表示在时序上与超像素v匹配的超像素的集合,Η为关联矩阵,该矩阵的大小为Η(v,e)的定义为:
Η(u,e)的定义为:
d(v)为超图中顶点的度,定义为:
d(u)为超图中顶点u∈V的度,定义为:
δ(e)为超边e∈εH的度,定义为:
该混合图模型的全局优化问题描述如下:
其中,λ1和λ2为调整三项势能函数之间比例关系的权重;
(5)对每一个类别c求解公式(13)中的向量fc,得到顶点属于类别c的置信度,具体包括以下子步骤:
(5.1)将全局优化函数,公式(13)矩阵化为:
其中,S为种子点标识矩阵,它是一个维的对角矩阵,定义如下
该对角矩阵仅在存在目标假设种子点的超像素i对应的位置S(i,i)值为1,其它位置值为0,Ws是一个的稀疏矩阵,其每一行代表一对空间相邻的两个超像素u,v之间的差运算,分别用与作为对应超像素点u,v位置的权重,是超图的拉普拉斯矩阵,I是一个的单位阵,Θ=Dv -1/2HWHDe -1HTDv -1/2,Dv是一个的对角阵,每个对角线上的元素为超图中对应的顶点的度d(v),De是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的度δ(e),WH是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的权重wH(e);
(5.2)对全局优化函数公式(14)中的每个类别c的置信度fc,进行线性优化,利用一阶导数等于零得到fc的全局最优解:
(6)将步骤5中所有类别c∈{1,2,...,C}求解得到的向量用矩阵F=(f1,f2,...,fC)表示,每个顶点的类别标签由该顶点的类别置信度最大值决定,如下所示:
其中,L为每个顶点类别标签组成的列向量。
实施例1
对待标注图像序列图1(a)分别利用简单图模型和本发明方法进行处理,由结果对比图可以看出,本发明方法有效地提高了序列图像类别标注的准确性和时序一致性。
实施例2
对待检测图像图2(a)分别利用简单图模型和本发明方法进行处理,由结果对比图可以看出,本发明方法有效地提高了序列图像类别标注的准确性和时序一致性。
表1为利用简单图模型和本发明方法在KITTI数据集上的准确率(Prec.),召回率(Rec.),F标准(FM)评价数值结果,该数值越高,表明该方法得到的标注结果越好。从表1可以看出,本发明方法比简单图模型方法在定量指标上取得更好的效果。
表1 图像序列实验结果对比数据
Claims (4)
1.一种基于混合图模型的图像序列类别标注方法,其特征在于,包括如下步骤:
(1)输入图像序列,使用SLIC算法对图像序列中每一帧图像进行超像素分割,获得超像素p,将得到的第t帧图像的第i个超像素记为pi t;
(2)使用Kernel描述符对步骤1中获得的超像素进行特征描述,得到超像素的特征向量,将超像素pi t的特征向量记为fi t;
(3)采用KNN算法对步骤1中连续两帧图像的超像素进行时间域的匹配;
(4)构建基于混合图模型的全局优化问题,该混合图模型由顶点、两种简单边和一种超边组成;该混合图模型的顶点的集合记为ν,每一个顶点v表示一个超像素的类别标签;该混合图模型的第一种简单边代表顶点ν的先验信息,该先验信息用势能函数EE(fc)描述;该混合图模型的第二种简单边代表单帧图像空间域上邻接的顶点之间对称的、成对的关系,这种关系用势能函数ES(fc)描述;该混合图模型的超边代表连续帧图像时间域上匹配的顶点之间不对称的、高阶的关系,这种关系用势能函数EH(fc)描述;
所述势能函数EE(fc)的定义为:
其中,表示的是存在类别种子点的超像素v,种子点通过人工标注部分像素点类别标签的方法获得;fc是一个|ν|维的列向量,由fc(v),v∈ν组成,其中fc(v)为分类函数,其值表示顶点v属于类别c的置信度,取值范围在[0,1]之间;表示超像素v属于类别c的置信度的观测值,该观测值通过卷积递归神经网络分类器获得,c∈{1,2,...,C},C表示类别总数;
所述势能函数ES(fc)的定义为:
其中,eS(u,v)为一条第二种简单边,即单帧图像内相邻两个超像素u,v之间的关系,定义为:
eS(u,v)=ws(u,v)·||fc(u)-fc(v)||2, (3)
其中fc(u)∈[0,1]为超像素u属于类别c的置信度,该置信度通过递归卷积神经网络学习获得,ws(u,v)为超像素u,v之间简单边的权重:
σs是根据实验经验设置的常数;
所述势能函数EH(fc)的定义为:
其中,εH表示混合图模型中超边的集合,eH(e)为一条超边e∈εH描述的帧间时域上匹配的多个超像素之间的关系,定义为:
其中,每一条超边e∈εH的权重为wH(e),定义为:
M(v)表示在时序上与超像素v匹配的超像素的集合,Η为关联矩阵,该矩阵的大小为|ν|×|εH|,Η(v,e)的定义为:
Η(u,e)的定义为:
d(v)为超图中顶点v∈ν的度,定义为:
d(u)为超图中顶点u∈V的度,定义为:
δ(e)为超边e∈εH的度,定义为:
该混合图模型的全局优化问题描述如下:
其中,λ1和λ2为调整三项势能函数之间比例关系的权重;
(5)对每一个类别c求解公式(13)中的向量fc,得到顶点v∈ν属于类别c的置信度,具体包括以下子步骤:
(5.1)将全局优化函数,公式(13)矩阵化为:
其中,S为种子点标识矩阵,它是一个|ν|×|v|维的对角矩阵,定义如下
该对角矩阵仅在存在目标假设种子点的超像素i对应的位置S(i,i)值为1,其它位置值为0,Ws是一个K×|ν|的稀疏矩阵,其每一行代表一对空间相邻的两个超像素u,v之间的差运算,分别用与作为对应超像素点u,v位置的权重,是超图的拉普拉斯矩阵,I是一个|ν|×|ν|的单位阵,Θ=Dv -1/2HWHDe -1HTDv -1/2,Dv是一个|ν|×|ν|的对角阵,每个对角线上的元素为超图中对应的顶点的度d(v),De是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的度δ(e),WH是一个|εH|×|εH|的对角阵,每个对角线上的元素为超图中对应的超边的权重wH(e);
(5.2)对全局优化函数公式(14)中的每个类别c的置信度fc,进行线性优化,利用一阶导数等于零得到fc的全局最优解:
(6)将步骤5中所有类别c∈{1,2,...,C}求解得到的向量用矩阵F=(f1,f2,...,fC)表示,每个顶点v∈ν的类别标签由该顶点的类别置信度最大值决定,如下所示:
其中,L为每个顶点类别标签组成的列向量。
2.根据权利要求1所述的一种基于混合图模型的图像序列类别标注方法,其特征在于,所述步骤1中,所述采用SLIC算法对图像序列中每一帧图像进行超像素分割具体按照以下步骤进行:
(1.1)对一张包含N个像素点的图片,设置需要分割的超像素个数为K,初始化图片的超像素为K个大小为S=N/K的矩形图像块,第k个超像素的中心为Ck=[lk,ak,bk,xk,yk]T,其中是lk,ak,bk是位置xk,yk处像素点的CIELAB颜色空间数值,k∈{1,2,...,K};
(1.2)将超像素中心移动到初始点3×3的邻域内颜色梯度最小的位置,对每个像素点i设置标签初始值l(i)=-1,距离初始值为d(i)=∞,迭代次数初始值为T=0;
(1.3)对每一个超像素的中心点Ck,计算该点2S×2S邻域内每个像素点i到该中心点Ck的距离D,其定义如下:
D=|[li,ai,bi,xi,yi]T-Ck|, (18)
若D<d(i),则设置距离d(i)=D且标签l(i)=k,从而得到新的超像素分割,其中第k个超像素由所有标记为标签k的像素点构成;
(1.4)对每个超像素k重新计算超像素的中心点Ck;
(1.5)T=T+1;
(1.6)重复步骤1.3到1.5,直至T=δ,其中δ为阈值。
3.根据权利要求1所述的一种基于混合图模型的图像序列类别标注方法,其特征在于,所述步骤2中,使用Kernel描述符对每个超像素进行特征描述,得到1200维的超像素特征向量。
4.根据权利要求1所述的一种基于混合图模型的图像序列类别标注方法,其特征在于,所述步骤3中,采用KNN算法对连续两帧图像的超像素进行时间域的匹配,具体为:基于特征向量,对当前帧的每个超像素k,在连续的前一帧和下一帧中分别寻找与特征向量fk欧式距离最近的5个特征向量对应的超像素,作为当前帧超像素k时域上的匹配超像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510268996.9A CN104881681B (zh) | 2015-05-22 | 2015-05-22 | 基于混合图模型的图像序列类别标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510268996.9A CN104881681B (zh) | 2015-05-22 | 2015-05-22 | 基于混合图模型的图像序列类别标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104881681A true CN104881681A (zh) | 2015-09-02 |
CN104881681B CN104881681B (zh) | 2018-08-14 |
Family
ID=53949168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510268996.9A Expired - Fee Related CN104881681B (zh) | 2015-05-22 | 2015-05-22 | 基于混合图模型的图像序列类别标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104881681B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105721860A (zh) * | 2016-01-20 | 2016-06-29 | 天津大学 | 一种基于超图的视频镜头边界检测方法 |
CN105898111A (zh) * | 2016-05-06 | 2016-08-24 | 西安理工大学 | 一种基于谱聚类的视频去雾方法 |
CN106446782A (zh) * | 2016-08-29 | 2017-02-22 | 北京小米移动软件有限公司 | 图像识别方法及装置 |
CN107203998A (zh) * | 2016-03-18 | 2017-09-26 | 北京大学 | 一种对锥束ct图像进行牙列分割的方法 |
CN107424159A (zh) * | 2017-07-28 | 2017-12-01 | 西安电子科技大学 | 基于超像素边缘和全卷积网络的图像语义分割方法 |
CN107507195A (zh) * | 2017-08-14 | 2017-12-22 | 四川大学 | 基于超图模型的pet‑ct多模态鼻咽癌图像分割方法 |
CN107833209A (zh) * | 2017-10-27 | 2018-03-23 | 浙江大华技术股份有限公司 | 一种x光图像检测方法、装置、电子设备及存储介质 |
CN108052876A (zh) * | 2017-11-28 | 2018-05-18 | 广东数相智能科技有限公司 | 基于图像识别的区域发展评估方法及装置 |
WO2018112783A1 (zh) * | 2016-12-21 | 2018-06-28 | 深圳前海达闼云端智能科技有限公司 | 图像识别方法及装置 |
CN108804658A (zh) * | 2018-06-08 | 2018-11-13 | Oppo广东移动通信有限公司 | 图像处理方法和装置、存储介质、电子设备 |
CN108986100A (zh) * | 2017-06-02 | 2018-12-11 | 宏达国际电子股份有限公司 | 影像切割方法及装置 |
CN110047096A (zh) * | 2019-04-28 | 2019-07-23 | 中南民族大学 | 一种基于深度条件随机场模型的多目标跟踪方法和*** |
CN110363240A (zh) * | 2019-07-05 | 2019-10-22 | 安徽威奥曼机器人有限公司 | 一种医学影像分类方法与*** |
CN110715622A (zh) * | 2019-09-04 | 2020-01-21 | 华中科技大学 | 一种电缆导体截面积测量方法 |
CN111046951A (zh) * | 2019-12-12 | 2020-04-21 | 安徽威奥曼机器人有限公司 | 一种医学影像分类方法 |
CN112507925A (zh) * | 2020-12-16 | 2021-03-16 | 安徽建筑大学 | 一种基于慢特征分析的火灾检测方法 |
CN112766330A (zh) * | 2021-01-07 | 2021-05-07 | 济南浪潮高新科技投资发展有限公司 | 图像多标签分类方法和装置 |
CN112836644A (zh) * | 2021-02-04 | 2021-05-25 | 电子科技大学 | 一种基于超图学习的安全帽实时检测方法 |
CN113160974A (zh) * | 2021-04-16 | 2021-07-23 | 山西大学 | 一种基于超图聚类的精神疾病生物型发掘方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473566A (zh) * | 2013-08-27 | 2013-12-25 | 东莞中国科学院云计算产业技术创新与育成中心 | 一种基于多尺度模型的车辆检测方法 |
CN103544697A (zh) * | 2013-09-30 | 2014-01-29 | 南京信息工程大学 | 一种基于超图谱分析的图像分割方法 |
-
2015
- 2015-05-22 CN CN201510268996.9A patent/CN104881681B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473566A (zh) * | 2013-08-27 | 2013-12-25 | 东莞中国科学院云计算产业技术创新与育成中心 | 一种基于多尺度模型的车辆检测方法 |
CN103544697A (zh) * | 2013-09-30 | 2014-01-29 | 南京信息工程大学 | 一种基于超图谱分析的图像分割方法 |
Non-Patent Citations (3)
Title |
---|
A.VEZHNEVETS: "weakly supervised sementic segmentation with a multi-image model", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
G.SINGH: "nonparametic scene parsing with adaptive feature relevance and semantic context", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
袁飞等: "利用超图图割的图像共分割算法", 《西安交通大学学报》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105721860A (zh) * | 2016-01-20 | 2016-06-29 | 天津大学 | 一种基于超图的视频镜头边界检测方法 |
CN107203998B (zh) * | 2016-03-18 | 2020-04-03 | 北京大学 | 一种对锥束ct图像进行牙列分割的方法 |
CN107203998A (zh) * | 2016-03-18 | 2017-09-26 | 北京大学 | 一种对锥束ct图像进行牙列分割的方法 |
CN105898111A (zh) * | 2016-05-06 | 2016-08-24 | 西安理工大学 | 一种基于谱聚类的视频去雾方法 |
CN105898111B (zh) * | 2016-05-06 | 2018-11-27 | 西安理工大学 | 一种基于谱聚类的视频去雾方法 |
CN106446782A (zh) * | 2016-08-29 | 2017-02-22 | 北京小米移动软件有限公司 | 图像识别方法及装置 |
WO2018112783A1 (zh) * | 2016-12-21 | 2018-06-28 | 深圳前海达闼云端智能科技有限公司 | 图像识别方法及装置 |
CN108986100A (zh) * | 2017-06-02 | 2018-12-11 | 宏达国际电子股份有限公司 | 影像切割方法及装置 |
CN107424159A (zh) * | 2017-07-28 | 2017-12-01 | 西安电子科技大学 | 基于超像素边缘和全卷积网络的图像语义分割方法 |
CN107424159B (zh) * | 2017-07-28 | 2020-02-07 | 西安电子科技大学 | 基于超像素边缘和全卷积网络的图像语义分割方法 |
CN107507195A (zh) * | 2017-08-14 | 2017-12-22 | 四川大学 | 基于超图模型的pet‑ct多模态鼻咽癌图像分割方法 |
CN107507195B (zh) * | 2017-08-14 | 2019-11-15 | 四川大学 | 基于超图模型的pet-ct多模态鼻咽癌图像分割方法 |
CN107833209A (zh) * | 2017-10-27 | 2018-03-23 | 浙江大华技术股份有限公司 | 一种x光图像检测方法、装置、电子设备及存储介质 |
CN107833209B (zh) * | 2017-10-27 | 2020-05-26 | 浙江大华技术股份有限公司 | 一种x光图像检测方法、装置、电子设备及存储介质 |
CN108052876A (zh) * | 2017-11-28 | 2018-05-18 | 广东数相智能科技有限公司 | 基于图像识别的区域发展评估方法及装置 |
CN108052876B (zh) * | 2017-11-28 | 2022-02-11 | 广东数相智能科技有限公司 | 基于图像识别的区域发展评估方法及装置 |
CN108804658A (zh) * | 2018-06-08 | 2018-11-13 | Oppo广东移动通信有限公司 | 图像处理方法和装置、存储介质、电子设备 |
CN110047096B (zh) * | 2019-04-28 | 2019-11-22 | 中南民族大学 | 一种基于深度条件随机场模型的多目标跟踪方法和*** |
CN110047096A (zh) * | 2019-04-28 | 2019-07-23 | 中南民族大学 | 一种基于深度条件随机场模型的多目标跟踪方法和*** |
CN110363240B (zh) * | 2019-07-05 | 2020-09-11 | 浙江美迪克医疗科技有限公司 | 一种医学影像分类方法与*** |
CN110363240A (zh) * | 2019-07-05 | 2019-10-22 | 安徽威奥曼机器人有限公司 | 一种医学影像分类方法与*** |
CN110715622A (zh) * | 2019-09-04 | 2020-01-21 | 华中科技大学 | 一种电缆导体截面积测量方法 |
CN111046951A (zh) * | 2019-12-12 | 2020-04-21 | 安徽威奥曼机器人有限公司 | 一种医学影像分类方法 |
CN112507925A (zh) * | 2020-12-16 | 2021-03-16 | 安徽建筑大学 | 一种基于慢特征分析的火灾检测方法 |
CN112766330A (zh) * | 2021-01-07 | 2021-05-07 | 济南浪潮高新科技投资发展有限公司 | 图像多标签分类方法和装置 |
CN112836644A (zh) * | 2021-02-04 | 2021-05-25 | 电子科技大学 | 一种基于超图学习的安全帽实时检测方法 |
CN112836644B (zh) * | 2021-02-04 | 2022-11-25 | 电子科技大学 | 一种基于超图学习的安全帽实时检测方法 |
CN113160974A (zh) * | 2021-04-16 | 2021-07-23 | 山西大学 | 一种基于超图聚类的精神疾病生物型发掘方法 |
CN113160974B (zh) * | 2021-04-16 | 2022-07-19 | 山西大学 | 一种基于超图聚类的精神疾病生物型发掘方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104881681B (zh) | 2018-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104881681A (zh) | 基于混合图模型的图像序列类别标注方法 | |
CN107808389B (zh) | 基于深度学习的无监督视频分割方法 | |
CN105740909B (zh) | 一种基于空间变换的自然场景下文本识别方法 | |
CN101556690B (zh) | 基于词典学习和稀疏表示的超分辨率算法 | |
CN110796026A (zh) | 一种基于全局特征拼接的行人重识别方法 | |
CN103489196B (zh) | 基于Codebook背景建模的运动目标检测方法 | |
Wang | Block principal component analysis with L1-norm for image analysis | |
CN105184772A (zh) | 一种基于超像素的自适应彩色图像分割方法 | |
CN103400386A (zh) | 一种用于视频中的交互式图像处理方法 | |
CN103309982B (zh) | 一种基于视觉显著点特征的遥感影像检索方法 | |
CN104657962A (zh) | 基于级联线性回归的图像超分辨重建方法 | |
CN104616247A (zh) | 一种用于基于超像素sift航拍地图拼接的方法 | |
CN103164693A (zh) | 一种监控视频行人检测匹配方法 | |
Zhai et al. | FPANet: feature pyramid attention network for crowd counting | |
CN103208109B (zh) | 一种基于局部约束迭代邻域嵌入的人脸幻构方法 | |
CN116152710A (zh) | 一种基于跨帧实例关联的视频实例分割方法 | |
CN104240197A (zh) | 一种保持对比度、颜色一致性和灰度像素特征的消色算法 | |
CN109670506A (zh) | 基于克罗内克卷积的场景分割方法和*** | |
CN105512663A (zh) | 一种基于全局与局部对比度的显著性检测方法 | |
CN104537377B (zh) | 一种基于二维核熵成分分析的图像数据降维方法 | |
CN104050482A (zh) | 一种基于局部线性回归的流形学习泛化算法 | |
Wang et al. | CCAG: end-to-end point cloud registration | |
CN101482917B (zh) | 一种基于二阶二维主分量分析的人脸识别***和方法 | |
CN104408158B (zh) | 一种基于几何重构和语义融合的视点追踪方法 | |
CN114707611B (zh) | 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180814 Termination date: 20210522 |
|
CF01 | Termination of patent right due to non-payment of annual fee |