CN103745465A - 一种稀疏编码背景建模方法 - Google Patents

一种稀疏编码背景建模方法 Download PDF

Info

Publication number
CN103745465A
CN103745465A CN201410001821.7A CN201410001821A CN103745465A CN 103745465 A CN103745465 A CN 103745465A CN 201410001821 A CN201410001821 A CN 201410001821A CN 103745465 A CN103745465 A CN 103745465A
Authority
CN
China
Prior art keywords
atom
sparse coding
image
identification
idf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410001821.7A
Other languages
English (en)
Inventor
戚金清
胡阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201410001821.7A priority Critical patent/CN103745465A/zh
Publication of CN103745465A publication Critical patent/CN103745465A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种稀疏编码背景建模方法,该方法采用判别性原子模型方法对图像进行背景建模,具有如下步骤:步骤1:将采集到的图像分割成多个图像块,将图像块进行稀疏编码,步骤2:在图像的稀疏编码模型基础上,对稀疏编码字典中的原子利用频-逆向文件频率(tf-idf)统计分析方法查找出判别性原子,步骤3:利用上述选择出的判别性原子完成图像的背景重建。由于采用了上述技术方案,本发明提供的图像背景建模方法,该方法是在图像稀疏编码模型基础上,利用平均信息量和词频-逆向文件频率(tf-idf)技术,对稀疏编码字典中原子进行统计分析,寻找出携带判别性信息的原子即判别性原子,并利用判别性原子重建图像背景信息。

Description

一种稀疏编码背景建模方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种稀疏编码背景建模方法。
背景技术
在图像处理技术领域中背景提取和背景去除是图像处理中一项关键的步骤,现有技术中的背景建模方法主要分为像素级的方法和帧级的方法。典型的像素级方法包括:帧差法[1],核密度法[3]和混合高斯法[2]。帧差法使用相邻帧的差值进行运动目标检测,这种方法算法简单,计算速度快,但是对于前景的检测不够精确。尤其是当前景面积较大,像素的亮度分布较为均匀,运动速度较慢时,帧差法对前景的检测将出现大的空洞。混合高斯法认为背景像素可以使用多个高斯分布进行表征,并因此使用多个不同的高斯分布实现对背景的建模。混合高斯法可以根据当前的图像对背景模型的参数进行更新,能够较好的实现对动态背景的建模,是一种非常常用且有效的背景建模方法。而且在原算法的基础上,也有很多的改进方法提出[4,5]。但是,并不是在所有的情况下混合高斯模型都能够准确的对背景进行建模,比如,当前景与背景的像素比较相似时,混合高斯模型常常误将部分前景像素检测为背景。不同于混合高斯法中使用高斯分布对背景进行建模,核密度法使用核密度估计估算背景像素的概率分布并以之对背景建模。具体而言,对于一个像素点,核密度估计采样过去几帧中这个像素点处的像素值,并使用这些像素值的核函数的均值对此像素点像素值的概率分布进行估计。核密度法是一种非参数的估计方法,其对概率密度的估计并不局限于特定的概率密度分布,因此可以对任意形式的背景分布做出估计,灵活性更高。但是核密度法的运算量较大,估计的时间复杂度较高。
不同于像素级的模型对各帧内的背景像素的分布进行建模,帧级的模型通过分析帧间的图像结构对背景进行建模。目前比较常见的帧级模型有PCA模型[6],稀疏编码模型[9]和低秩[7,8]模型。PCA模型假设各帧的背景图像分布于一个低维的子空间中,并通过PCA学习得到的基函数对背景图像进行重建。与PCA模型相似,稀疏编码模型使用字典中的原子对视频图像的背景进行表征,并根据背景建模的特点,将普通稀疏编码中的2范数误差项替换为1范数误差项,加强了算法的鲁棒性。同样是基于子空间的假设,Candes等人假设潜在的背景图片都列于一个低秩子空间中,因此通过寻找图像序列的低秩表征来进行背景建模。在Candes等人工作的基础上,Zhou等人利用马尔可夫随机场对前景所在区域加入了连续性约束,实现了更好的背景建模效果。
目前的帧级模型都是基于潜在背景图像位于一个线性子空间中的假设,直接对全局背景进行建模。这种对直接对全局背景进行建模的方法对于较强烈的局部背景变动比较敏感,然而帧级的全局模型不能区分背景中运动目标和前景中运动目标。
发明内容
根据现有技术存在的问题,本发明公开的一种稀疏编码背景建模方法,对采集到的图像进行背景建模,具体采用如下方式:该方法采用判别性原子模型方法对图像进行背景建模,所述判别性原子模型方法采用如下方式:
步骤1:将采集到图像分割成多个图像块,对图像块按照下述公式进行稀疏编码;
arg min D , X | | Y - DX | | 2 2 + λ Σ i | | x i c | | 0
式中:Y=[y1,y2,...,yn]∈
Figure BDA0000452546250000023
为图像块组成的集合,D=[d1,d2,...,dk]∈
Figure BDA0000452546250000024
为k个原子组成的字典,通过KSVD算法求解,X∈
Figure BDA0000452546250000025
为稀疏编码的系数,通过正交匹配追踪算法求解,
Figure BDA0000452546250000026
为X的第i列,λ是用于平衡重建误差和稀疏度的参数;
步骤2:在稀疏编码模型基础上,利用词频-逆向文件频率(tf-idf)统计分析方法选择判别性原子,根据下面公式进行判别性原子的选择:
tf - idf ( d i , y j ) = | x ij | × 1 f SR ( d i )
其中:yj为图像的第j个图像块,di为稀疏编码中的原子,xij是在对yj的稀疏编码中原子di对应的系数,fSR(di)表示在对全部样本的稀疏编码中原子di被使用到的频率;
设定tf-idf的临界值,将求解的tf-idf值中大于该临界值对应的原子di定义为判别性原子,对于原子di和图像块yj,将原子di用于区分图像块yj和其它图像块;
步骤3:利用步骤2中选择的判别性原子模型重建图像背景:
首先将步骤2中判别性原子组成集合DA,如果xij为判别性原子对应的稀疏编码则保留,否则记作0,判别性原子稀疏编码系数Xd
Figure BDA0000452546250000033
计算公式如下:
X ij d = X ij , if d i ∈ DA 0 , if d i ∉ DA
其中为Xd中第i行第j列对应系数;
然后利用判别性原子稀疏编码系数Xd和步骤1中字典D,重建图像背景,计算公式如下:
YB=Y一Yd
=Y-DXd
式中,Y=[y1,y2,...,yn]∈
Figure BDA0000452546250000034
为采集到的图像,D为步骤1中字典,Xd为判别性原子稀疏编码系数,YB为所求图像背景。
对判别性原子的选择采用如下方式:
对所有图像块,根据上述tf-idf计算公式,计算得到所有原子的tf-idf值的集合J={tf-idf(di,yj)|di∈D,yj∈Y};
根据设定的tf-idf的临界值,选择出J中大于该临界值的子集Jσ
则确定判别性原子的集合为: DA = { d i | ∀ d i ∈ D , ∃ y j ∈ Y , tf - idf ( d i , y j ) ∈ J σ }
由于采用了上述技术方案,本发明提供的图像背景建模方法,该方法是在图像稀疏编码模型基础上,利用平均信息量和词频-逆向文件频率(tf-idf)技术,对稀疏编码字典中原子进行统计分析,寻找出携带判别性信息的原子即判别性原子,并利用判别性原子重建图像背景信息。该方法不同于全局运动目标检测模型技术,本发明提出了一种由局部到全局的模型-判别性原子模型,实现了更为准确的背景建模及前景运动目标的检测。采用本方法可以快速的将图像的背景像素和前景像素进行区别并完成背景重建。
有益效果:
1、本发明提出的判别性原子模型,受背景扰动影响小,提高了前景检测精度。
2、本发明提出的判别性原子模型克服了传统方法对前景和背景在颜色、形状等比较相似情况下容易发生误检问题,提高了前景检测精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为稀疏编码背景建模方法的流程图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
如图1所示,本发明公开的背景建模方法,采用判别性原子模型方法对图像的背景像素和前景像素进行区分,所述判别性原子模型方法采用如下方式:首先将图像分割成多个图像块,在图像的稀疏编码模型基础上,利用平均信息量和词频-逆向文件频率(tf-idf)技术,对稀疏编码字典中的原子进行统计分析,寻找出携带判别性信息的原子,并利用判别性原子重建图像背景信息。
具体采用如下方式:
步骤1:将采集到图像分割成多个图像块,对图像块按照下述公式进行稀疏编码;
arg min D , X | | Y - DX | | 2 2 + λ Σ i | | x i c | | 0
式中:Y=[y1,y2,...,yn]∈
Figure BDA0000452546250000043
为图像块组成的集合,D=[d1,d2,...,dk]∈
Figure BDA0000452546250000044
为k个原子组成的字典,通过KSVD算法求解,X∈
Figure BDA0000452546250000045
为稀疏编码的系数,通过正交匹配追踪算法求解,
Figure BDA0000452546250000046
为X的第i列,λ是用于平衡重建误差和稀疏度的参数。
步骤2:在稀疏编码模型基础上,利用词频-逆向文件频率(tf-idf)统计分析方法选择判别性原子,根据下面公式进行判别性原子的选择:
tf - idf ( d i , y j ) = | x ij | × 1 f SR ( d i )
其中:yj为图像的第j个图像块,di为稀疏编码中的原子,xij是在对yj的稀疏编码中原子di对应的系数,fSR(di)表示在对全部样本的稀疏编码中原子di被使用到的频率;
设定tf-idf的临界值,将求解的tf-idf值中大于该临界值对应的原子di定义为判别性原子,对于原子di和图像块yj,将原子di用于区分图像块yj和其它图像块;
步骤3:利用步骤2中选择的判别性原子模型重建图像背景:
首先将步骤2中判别性原子组成集合DA,如果xij为判别性原子对应的稀疏编码则保留,否则记作0,判别性原子稀疏编码系数Xd
Figure BDA0000452546250000053
计算公式如下:
X ij d = X ij , if d i ∈ DA 0 , if d i ∉ DA
其中
Figure BDA0000452546250000052
为Xd中第i行第j列对应系数;
然后利用判别性原子稀疏编码系数Xd和步骤1中字典D,重建图像背景,计算公式如下:
YB=Y-Yd
=Y-DXd
式中,Y=[y1,y2,...,yn]∈
Figure BDA0000452546250000054
为采集到的图像,D为步骤1中字典,Xd为判别性原子稀疏编码系数,YB为所求图像背景。
进一步的,对于上述步骤2中所述的判别性原子的选择采用如下方式:对所有图像块,根据上述tf-idf计算公式,计算得到所有原子的tf-idf值的集合J={tf-idf(di,yj)|di∈D,yj∈Y};
根据设定的tf-idf的临界值,在实际应用中,我们可以将该值设定为0.6,选择出J中大于该临界值的子集Jσ
则确定判别性原子的集合为: DA = { d i | ∀ d i ∈ D , ∃ y j ∈ Y , tf - idf ( d i , y j ) ∈ J σ } 最后,我们将选择出的判别性原子进行图像重建,根据实际图像的规格和标准将该图像的背景像素和前景像素区分。
本发明公开的一种稀疏编码背景建模方法,首先通过词频-逆向文件频率(tf-idf)技术对图像的成千上万个图像块进行稀疏编码,然后采用本发明公开的算法查找出判别性原子,最后根据查找出的判别性原子以及判别性原子对应的稀疏编码系数完成图像背景的重建。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (2)

1.一种稀疏编码背景建模方法,其特征在于:该方法采用判别性原子模型方法对图像进行背景建模,所述判别性原子模型方法采用如下方式:
步骤1:将采集到图像分割成多个图像块,对图像块按照下述公式进行稀疏编码:
arg min | | Y - DX | | 2 2 + λ Σ i | | x i c | | 0 D , X
式中:Y=[y1,y2,...,yn]∈
Figure FDA00004525462400000110
为图像块组成的集合,D=[d1,d2,...,dk]∈
Figure FDA0000452546240000016
m×k为k个原子组成的字典,通过KSVD算法求解,X∈
Figure FDA0000452546240000017
为稀疏编码的系数,通过正交匹配追踪算法求解,
Figure FDA0000452546240000018
为X的第i列,λ是用于平衡重建误差和稀疏度的参数;
步骤2:在稀疏编码模型基础上,利用词频-逆向文件频率(tf-idf)统计分析方法选择判别性原子,根据下面公式进行判别性原子的选择:
tf - idf ( d i , y j ) = | x ij | × 1 f SR ( d i )
其中:yj为图像的第j个图像块,di为稀疏编码中的原子,xij是在对yj的稀疏编码中原子di对应的系数,fSR(di)表示在对全部样本的稀疏编码中原子di被使用到的频率;
设定tf-idf的临界值,将求解的tf-idf值中大于该临界值对应的原子di定义为判别性原子,对于原子di和图像块yj,将原子di用于区分图像块yj和其它图像块;
步骤3:利用步骤2中选择的判别性原子模型重建图像背景:
首先将步骤2中判别性原子组成集合DA,如果xij为判别性原子对应的稀疏编码则保留,否则记作0,判别性原子稀疏编码系数Xd
Figure FDA0000452546240000019
计算公式如下:
X ij d = X ij , if d i ∈ DA 0 , if d i ∉ DA
其中
Figure FDA0000452546240000014
为Xd中第i行第j列对应系数;
然后利用判别性原子稀疏编码系数Xd和步骤1中字典D,重建图像背景,计算公式如下:
YB=Y-Yd
=Y-DXd
式中,Y=[y1,y2,...,yn]∈
Figure FDA0000452546240000021
为采集到的图像,D为步骤1中字典,Xd为判别性原子稀疏编码系数,YB为所求图像背景。
2.根据权利要求1所述的一种稀疏编码背景建模方法,其特征还在于:对判别性原子的选择采用如下方式:
对所有图像块,根据上述tf-idf计算公式,计算得到所有原子的tf-idf值的集合J={tf-idf(di,yj)|di∈D,yj∈Y};
根据设定的tf-idf的临界值,选择出J中大于该临界值的子集Jσ
则确定判别性原子的集合为: DA = { d i | ∀ d i ∈ D , ∃ y j ∈ Y , tf - idf ( d i , y j ) ∈ J σ }
CN201410001821.7A 2014-01-02 2014-01-02 一种稀疏编码背景建模方法 Pending CN103745465A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410001821.7A CN103745465A (zh) 2014-01-02 2014-01-02 一种稀疏编码背景建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410001821.7A CN103745465A (zh) 2014-01-02 2014-01-02 一种稀疏编码背景建模方法

Publications (1)

Publication Number Publication Date
CN103745465A true CN103745465A (zh) 2014-04-23

Family

ID=50502480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410001821.7A Pending CN103745465A (zh) 2014-01-02 2014-01-02 一种稀疏编码背景建模方法

Country Status (1)

Country Link
CN (1) CN103745465A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599917A (zh) * 2016-12-09 2017-04-26 西北大学 一种基于稀疏表示的近似图像重复检测方法
CN107025650A (zh) * 2017-04-20 2017-08-08 中北大学 一种基于多层p样条和稀疏编码的医学图像配准方法
CN108965885A (zh) * 2018-06-04 2018-12-07 陕西师范大学 一种基于帧压缩测量的视频在线重建与移动目标检测方法
CN109740615A (zh) * 2018-12-29 2019-05-10 武汉大学 一种对抗攻击样本扰动的去除方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976360A (zh) * 2010-10-27 2011-02-16 西安电子科技大学 基于多级分类的稀疏表征人脸识别方法
CN102142137A (zh) * 2011-03-10 2011-08-03 西安电子科技大学 基于高分辨率字典的稀疏表征图像超分辨重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976360A (zh) * 2010-10-27 2011-02-16 西安电子科技大学 基于多级分类的稀疏表征人脸识别方法
CN102142137A (zh) * 2011-03-10 2011-08-03 西安电子科技大学 基于高分辨率字典的稀疏表征图像超分辨重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DUC-SON PHAM,SVETHA VENKATESH: "Joint learning and dictionary construction for pattern recognition", 《CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
亓晓振: "一种基于稀疏编码的多核学习图像分类方法", 《电子学报》 *
胡阳: "区别性稀疏表征方法及其应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599917A (zh) * 2016-12-09 2017-04-26 西北大学 一种基于稀疏表示的近似图像重复检测方法
CN107025650A (zh) * 2017-04-20 2017-08-08 中北大学 一种基于多层p样条和稀疏编码的医学图像配准方法
CN107025650B (zh) * 2017-04-20 2019-10-29 中北大学 一种基于多层p样条和稀疏编码的医学图像配准方法
CN108965885A (zh) * 2018-06-04 2018-12-07 陕西师范大学 一种基于帧压缩测量的视频在线重建与移动目标检测方法
CN108965885B (zh) * 2018-06-04 2020-11-10 陕西师范大学 一种基于帧压缩测量的视频在线重建与移动目标检测方法
CN109740615A (zh) * 2018-12-29 2019-05-10 武汉大学 一种对抗攻击样本扰动的去除方法
CN109740615B (zh) * 2018-12-29 2023-04-07 武汉大学 一种对抗攻击样本扰动的去除方法

Similar Documents

Publication Publication Date Title
US11361456B2 (en) Systems and methods for depth estimation via affinity learned with convolutional spatial propagation networks
CN104200237B (zh) 一种基于核化相关滤波高速自动多目标跟踪方法
Qiu et al. Learning spatio-temporal representation with pseudo-3d residual networks
Yang et al. Object contour detection with a fully convolutional encoder-decoder network
CN103984959B (zh) 一种基于数据与任务驱动的图像分类方法
Silberman et al. Instance segmentation of indoor scenes using a coverage loss
EP3608844A1 (en) Methods for training a crnn and for semantic segmentation of an inputted video using said crnn
CN105608456B (zh) 一种基于全卷积网络的多方向文本检测方法
CN102254328B (zh) 基于部分稀疏约束非负矩阵分解的视频运动特征提取方法
CN102663436B (zh) 用于光学纹理图像和sar图像的自适应特征提取方法
CN103810473A (zh) 一种基于隐马尔科夫模型的人体对象的目标识别方法
CN104598920B (zh) 基于Gist特征与极限学习机的场景分类方法
CN109544592A (zh) 针对相机移动的运动目标检测算法
CN106204658A (zh) 运动图像跟踪方法及装置
CN103745465A (zh) 一种稀疏编码背景建模方法
CN105005798B (zh) 一种基于局部相似结构统计匹配的目标识别方法
CN101986295B (zh) 基于流形稀疏编码的图像聚类的方法
CN103745233B (zh) 基于空间信息迁移的高光谱图像分类方法
US10839561B2 (en) Image retrieval device and method, photograph time estimation device and method, repetitive structure extraction device and method, and program
CN109934095A (zh) 一种基于深度学习的遥感图像水体提取方法及***
CN109858454B (zh) 一种基于双模型自适应核相关滤波追踪方法
CN109685830B (zh) 目标跟踪方法、装置和设备及计算机存储介质
CN104200441A (zh) 基于高阶奇异值分解的磁共振图像去噪方法
CN108182694A (zh) 一种基于插值的运动估计与自适应视频重建方法
CN111062291B (zh) 一种机器人视觉跟踪方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140423