CN104899834A - 基于sift算法的模糊图像识别方法及装置 - Google Patents
基于sift算法的模糊图像识别方法及装置 Download PDFInfo
- Publication number
- CN104899834A CN104899834A CN201510096255.7A CN201510096255A CN104899834A CN 104899834 A CN104899834 A CN 104899834A CN 201510096255 A CN201510096255 A CN 201510096255A CN 104899834 A CN104899834 A CN 104899834A
- Authority
- CN
- China
- Prior art keywords
- image
- fuzzy
- identified
- picture
- sift algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于SIFT算法的模糊图像识别方法及装置。所述方法包括:对清晰的图像分别进行高斯平滑,灰度运算和运动模糊,生成模糊空间;基于SIFT算法对模糊空间的所有图像进行特征提取和描述;对待识别模糊图像利用SIFT算法提取所述待识别模糊图像的特征点;将待识别图像的特征点分别和清晰图像所生成的模糊空间中的每一幅图像的特征点进行匹配;基于预定的测评标准来对所有的匹配进行评估,筛选出匹配效果最好的作为最终识别结果。
Description
技术领域
本发明涉及模糊图像识别技术领域,尤其涉及一种基于SIFT算法的模糊图像识别方法。
背景技术
模糊图像广泛地存在于现实世界中,给人们的生活带来了很多不便,因此,对于模糊图像的研究非常具有现实意义。模糊图像的相关处理技术经过多年的发展,已经取得了一些很好的应用。从图像技术的角度来看,有关模糊图像处理的方法主要分为三大类:
1.图像增强
作为数字图像技术的基本研究内容之一,图像增强一般是通过一定的技术手段增强那些能够满足某些特定需要的信息,同时,可能会抑制或削弱其他的信息。对于一幅给定的图像,需要根据其应用环境,人为的增强与应用相关的特征,削弱不相关的特征,以此来使得增强后图像能够更好的满足应用需求。图像增强很少考虑图像的降质过程,主要是为了改善图像的视觉效果,一般不是无损的。
2.图像复原
图像复原是一类非常重要图像处理技术,与图像增强技术有相似之处,它们都是为了在某种程度上改善给定图像的质量,同时它们之间也存在着重大的不同。图像复原一般需要根据图像退化的原因,有针对性的对其进行重建,使得处理后的图像最大程度的与原来的图像保持一致。图像复原的目的是为了提升退化图像的品质,同时,间接地改善原来退化图像的视觉效果,而图像增强是根据人们的主观视觉要求来对图像进行处理,很少考虑图像的降质过程,一般不是无损的。
3.图像超分辨率重构
图像的超分辨率重构是一种信号处理的技术,该技术能够有效地提升图像的分辨率,同时间接地提高了图像质量。图像的超分辨率重构主要通过对超出图像采集***极限频率的高频信号进行估算,从而使得图像的分辨率得以提升。最初,超分辨率重构技术仅适用于单幅图像的处理,由于所能够利用的图像信息有限,当时的重构效果并不十分理想。序列图像超分辨率重构技术解决了上述问题,该技术能够对多幅低分辨率的图像进行处理,因此,能够充分地利用多幅低分辨率图像的信息,通过该技术所获得的重构图像的复原效果要远远的好于利用单幅图像进行重构的效果。
尽管有关模糊图像处理的技术有了很好的发展,但是,现实生活中图像模糊的成因往往较为复杂,目前还没有成熟的方法能够有效的处理各种模糊图像。模糊图像技术的发展受到多种因素的制约,一般可以分为如下几个方面:
1.算法参数的复杂性
在模糊图像处理的相关算法中,都包含了大量的参数,这些参数的选取直接决定了最终的处理效果,而且,这些参数的选择取决于实际的模糊图像,当前的算法还无法智能地选择相关的最优参数。
2.算法的高度针对性
现实生活中的模糊图像的模糊成因往往非常复杂,而当前有关模糊图像处理的算法大都只能够处理某一类因素所导致的模糊图像,当这些算法处理其他图像时,很可能会导致图像更进一步的模糊。以“去雾算法”为例,对于那些有雾的图像,“去雾算法”能够取得很好的处理效果,但是当这些算法作用于正常图像的时候,反而会使得图像效果下降。
3.算法流程的经验性
在现实世界中,图像会很复杂,通常都需要处理多种情况,这样就需要选择一系列的算法来进行处理。对于一个具体的模糊图像,很难智能地选择相应的系列算法。在实际应用中,模糊图像的处理很大程度上要依赖于人的经验。
有鉴于上述的缺陷,本设计人,积极加以研究创新,以期创设一种基于SIFT算法的模糊图像识别方法,使其更具有产业上的利用价值。
发明内容
为解决上述技术问题,本发明的目的是提供一种既回避了对模糊图像的复原和重建,又显著提高了SIFT算法匹配待识别图像和数据库图像的效率的基于SIFT算法的模糊图像识别方法及装置。
本发明的基于SIFT算法的模糊图像识别方法,所述方法包括:
对清晰的图像分别进行高斯平滑,灰度运算和运动模糊,生成模糊空间;
基于SIFT算法对模糊空间的所有图像进行特征提取和描述;
对待识别模糊图像利用SIFT算法提取所述待识别模糊图像的特征点;
将待识别图像的特征点分别和清晰图像所生成的模糊空间中的每一幅图像的特征点进行匹配;
基于预定的测评标准来对所有的匹配进行评估,筛选出匹配效果最好的作为最终识别结果。
进一步地,所述方法具体包括:
2.1 图像预处理,根据待识别图像模糊的特点分析对待识别图像进行相关处理;
2.2 模糊空间构建,模糊空间中的图像集至少包括三类模糊图像,每类模糊图像分别构成一个模糊子空间,所述的子空间分别为:
高斯模糊子空间,通过对清晰图像进行高斯平滑来生成高斯模糊子空间,用于识别由数字噪声所导致的模糊图像;
光照模糊子空间,通过对清晰图像进行相应的灰度运算来生成光照模糊子空间,用于识别由光照因素所导致的模糊图像;
运动模糊子空间,通过对清晰图像进行相应的运动模糊来生成运动模糊子空间,用于识别由相对运动所导致的模糊图像。
2.3 SIFT特征提取与匹配,基于SIFT算法将待识别图像的特征点和模糊空间中每一幅图像进行匹配;
2.4 匹配点对滤纯,基于RANSAC算法对2.3的匹配效果进行滤纯,提高匹配的准确度;
2.5 匹配结果筛选,根据预定的测评标准,从2.4结果中筛选出匹配效果最好的作为最终识别结果。
进一步地,根据待识别图像模糊的特点分析对待识别图像进行相关处理具体方法包括:
判断导致待识别图像模糊的原因,
若待识别图像为强噪声模糊图像,则预定方差阈值,若待识别图像的方差大于所述方差阈值时,对待识别的图像进行平滑预处理;若待识别图像的方差小于或等于所述方差阈值时,则不做处理;
若待识别图像为尺寸过小的低分辨率图像,则使用插值方法来对所述的待识别图像进行放大处理;
若待识别图像为光照过暗的图像,则使用灰度运算来对所述的待识别图像进行增亮处理。
进一步地,所述的高斯模糊子空间的生成方法为:逐渐增大的二维高斯函数,得到多个高斯模糊图像I11、I12……I1n,多个模糊图像一起构成清晰图像I的模糊空间中的高斯模糊子空间,所述的高斯模糊图像的方程式为:
I11=G(x,y,σ1)*I,
I12=G(x,y,σ2)*I,
……
I1n=G(x,y,σn)*I
其中,I为清晰图像;
I1n为经过平滑后的模糊图像,
G(x,y,σn)为高斯平滑函数,
进一步地,所述的光照模糊子空间的生成方法为:对清晰图像进行直方图均衡化运算,将直方图系数k2i的值从1开始逐渐增大,形成关于清晰图像的一系列亮度渐增的光照模糊图像,将k2i的值从1开始逐渐减小为0时,就会形成关于清晰图像的一系列亮度渐暗的光照模糊图像,将所述的光照模糊图像一起构成清晰图像I的模糊空间中的光照模糊子空间,所述的光照模糊图像的方程式为:
I21=F(k21(I)),
I22=F(k22(I)),
……
I2i=F(k2i(I))
I2n=F(k2n(I)).
其中,F(I)为对原清晰图像I进行直方图均衡化操作;
k2i为直方图均衡化运算系数,用来控制图像明暗程度;
I2i为原清晰图像所产生的带有亮度变化的模糊图像。
优选地,所述的预定的评测标准为:待识别图像的特征点和模糊空间中每一幅图像进行匹配的匹配正确率R,所述匹配正确率的公式如下:
其中,S为进行SIFT的最近邻匹配之后,我们会把每一组的匹配对数;
C为滤纯之后的匹配对数,即正确的匹配对数。
特别地,通过距离比率的方式来进行特征匹配,对于特征点,若在另一图像中与其最短的欧式距离设为d1,次短的欧式距离设为d2,则最近邻与次近邻的欧式距离比率为r=d1/d2,若,r<ε则匹配成功,否则,匹配失败,其中,ε为预先设定的阈值。
本发明基于SIFT算法的模糊图像识别装置,所述装置包括:
模糊空间生成模块,用于对清晰的图像分别进行高斯平滑,灰度运算和运动模糊,生成模糊空间;
第一提取模块,用于基于SIFT算法对模糊空间的所有图像进行特征提取和描述;
第二提取模块,用于对待识别模糊图像利用SIFT算法提取所述待识别模糊图像的特征点;
匹配模块,用于将待识别图像的特征点分别和清晰图像所生成的模糊空间中的每一幅图像的特征点进行匹配;
结果输出模块,用于基于预定的测评标准来对所有的匹配进行评估,筛选出匹配效果最好的作为最终识别结果。
进一步地,还包括图像预处理单元,用于根据待识别图像模糊的特点分析对待识别图像进行相关处理,
若待识别图像为强噪声模糊图像,则预定方差阈值,若待识别图像的方差大于所述方差阈值时,对待识别的图像进行平滑预处理;若待识别图像的方差小于或等于所述方差阈值时,则不做处理;
若待识别图像为尺寸过小的低分辨率图像,则使用插值方法来对所述的待识别图像进行放大处理;
若待识别图像为光照过暗的图像,则使用灰度运算来对所述的待识别图像进行增亮处理。
进一步地,所述模糊空间生成模块,至少包括
高斯模糊子单元,通过对清晰图像进行高斯平滑来生成高斯模糊子空间,用于识别由数字噪声所导致的模糊图像;
光照模糊子单元,通过对清晰图像进行相应的灰度运算来生成光照模糊子空间,用于识别由光照因素所导致的模糊图像;
运动模糊子单元,通过对清晰图像进行相应的运动模糊来生成运动模糊子空间,用于识别由相对运动所导致的模糊图像。
借由上述方案,本发明至少具有以下优点:
为了识别模糊图像,新算法模拟各种图像模糊成因来扩建数据库图像集,形成模糊图像空间用以确认待识别图像的身份。这样既回避了对模糊图像的复原和重建,又显著提高了SIFT算法匹配待识别图像和数据库图像的效率。模糊图像空间的构建方式包括:通过高斯函数模拟因数字噪声等因素引起的图像模糊效果;通过直方图调整模拟因光照引起的图像模糊效果;通过运动滤波算子模拟因运动引起的图像模糊效果。在方法复杂度方面,模糊图像空间构建可以离线完成,在线部分所增加的计算成本并不明显。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。
附图说明
图1是SIFT算法的流程图;
图2是本发明DoG金字塔的建立结构示意图;
图3是本发明特征点重复率与尺度采样的关系;
图4是本发明特征点数量与尺度采样的关系;
图5是本发明连续空间与离散空间极值点的差别;
图6是本发明基于SIFT算子的模糊图像识别方法流程图;
图7是本发明不同参数的高斯分布曲线。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图6所示,尺度不变特征转换SIFT(Scale-invariant Feature Transform)。SIFT算法的流程图。在众多局部不变特征检测的方法当中,SIFT算法是最具代表性的方法之一。自其提出到现在得到了人们广泛的关注,通过SIFT算法能够在同一场景中从不同视点所拍摄的图像当中获取稳定的特征点,这些特征点对图像旋转、平移保持不变,同时对光照、噪声以及视点变换等具有良好鲁棒性。Mikolajczyk通过对多种局部特征描述子所进行的一系列关于不变性的对比实验发现:在同类描述子当中,SIFT及其改进算法具有最好的鲁棒性。除此以外,SIFT特征描述符具有很高的独特性,在多幅图像提取出的母数庞大的特征点数据库当中获得正确匹配的概率很高。
一、极值点检测
在多尺度空间完成特征点的检测是SIFT算法和之前特征检测算法最大的不同。SIFT算法中,通过使用尺度空间技术来模拟图像的多尺度特征,Lindeberg证明了在一定条件下高斯卷积核是能够实现尺度变换的唯一一个线性核。建立图像尺度空间是为了能够检测出相对于图像的尺度参数具有不变性的像素的位置。图像的尺度空间函数定义如式(2-1)所示:
L(x,y,σ)=G(x,y,σ)*I(x,y), (2-1)
其中I(x,y)表示输入图像,*表示卷积运算符,G(x,y,σ)代表高斯函数,其定义如式(2-2)所示:
其中σ为尺度因子,σ值越小,代表图像的细节特征;σ值越大,则代表图像的概貌特征。
为了能够在尺度空间中高效地检测出稳定的特征点位置,Lowe将DoG(高斯差分函数)与图像进行卷积。高斯差分函数D(x,y,σ)可以通过以常量的倍增因子k的两个相邻尺度图像相减得出,见式(2-3):
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ), (2-3)
选择式(2-3)来进行计算主要有以下几个优点:
1.计算效率高:因为平滑图像L在每个尺度上都是需要进行计算的,这样DoG函数就只需要在平滑图像L之间做简单的减法就可以了;
2.尺度归一化的LoG(高斯拉普拉斯)算子和DoG(高斯差分函数)相近似,在1994年Lindeberg已经证明了要想具备真正的尺度不变性,LoG算子必须具有归一化因数σ2。LoG与DoG的关系可用式(2-4)来表示:
由上式易得,
G(x,y,kσ)-G(x,y,σ)≈(k-1)σ2▽2G. (2-5)
式(2-5)中的因数(k-1)在所有的尺度中是一个不变量,因此不会对极值点的位置产生影响。随着k取值接近于1,误差将会近似为零,在试验中,Lowe发现即使在尺度上有明显的不同,例如这对于极值点的检测和定位几乎没有任何影响;
3.有相关测评表明:与Hessian、梯度、Harris角点函数相比,在带有尺度归一化因数σ2的LoG空间中所检测出的极值点的稳定性最好。
关于G(x,y,σ)的详细运算见图2,最初的图像经过连续的高斯卷积运算,将得到一系列的图像尺度空间,也就是图中左边的一列,被称为高斯尺度空间,图中右边一列表示高斯差分尺度空间,该空间是由高斯尺度空间中相邻两幅图像相减后所得到。尺度空间一共有o组,每一组有s层。如果想要在高斯差分尺度空间中的s层上检测出候选点,则右边的高斯差分尺度空间至少要有s+2层,因此左边的高斯尺度空间就需要有s+3层。若当前图像的尺度为σ,则下一层图像的尺度为kσ,也就是说这些图像的尺度因子σ会以常量k进行 递增。当前组生成了s+3个图像之后,下一组第一层的图像由当前组的倒数第三层的图像经过1:2的降采样形成。
为了确保G(x,y,σ)是局部的极大值或极小值,每个采样点将要与它所在尺度的8个相邻点并加上其相邻的两个尺度上的9×2个点一共8+9×2=26个点的取值相比较。这个计算的过程的代价其实并不很高,因为只有当该点比它所有相邻点都小或者都大的情况下才会被选择,大部分的采样点在刚开始比较的前几步中就被淘汰了。
在极值检测过程中,一个重要的问题就是尺度采样个数的选取。事实上,能够检测出全部极值点的采样值是不存在的,因为两个极值点可以无限的接近。因此,我们必须要在检测的完整度和运算复杂度之间做出平衡。Lowe在图像匹配实验中,通过选择不同的参与极值检测的图像个数,比较它们的实验效果来选取最佳的采样个数,其实验结果如图3、4所示。
在图3中,横轴是每组高斯平滑图像中参与极值检测的图像的个数s,上方的实线代表的是在变换后的图像中能够被检测到的特征点的百分比,下方的虚线代表正确匹配的特征点的百分比。通过图可以看出,当每组高斯平滑图像中有s=3幅图像参与极值检测的时候,特征点的重复率和正确匹配率都达到了最大值。在图4中,我们发现当s大于3时,特征点的总数和正确匹配的个数都保持继续增长。但是,s的值越大,运算量也越大,为了更好的平衡效率和复杂度,Lowe取s=3。然而,由于图像识别的正确率一般依赖于特征点正确匹配的个数,因此,在很多应用当中,s的取值往往会大于3。
二、特征点定位
极值点检测是在离散空间中进行的,真正意义上的极值点有可能与在离散空间中检测到的极值点存在位置上的误差,如图5所示。
Brown与Lowe在2002年提出了一种对局部极值点使用三维二次方程进行拟合的方法[i],通过这种方式来确定极值点的位置将会显著的提高特征点的稳定性,这种方法使用了DoG函数的泰勒二级展开式,如式(2-6)所示:
其中X=(x,y,σ)T,通过对上式进行求关于X的导数,可以得到极值点如式(2-7)所示:
将式(2-7)代入式(2-6),可以得到式(2-8):
实验会设置一个阈值,如果小于这个值,那么该极值点将会被剔除,因为它的对比度太低而不够稳定。在进行泰勒二阶展开的过程中,候选极值点被当作坐标原点,因此偏离候选极值点的尺度差和位置差分别对应于极值点所包含的三个分量,如果这三个分量有任意一个大于0.5,那么该分量将会被调整到下一个最接近的值。经过多次重复上述拟合过程,极值点将会获得精确的尺度和位置。
为了获得较好的稳定性,仅仅剔除低对比度的极值点还不够,因为DoG函数会产生较强的边缘响应。通常情况下,垂直边缘的位置将会有较小的主曲率,而横跨边缘的位置将会有较大的主曲率。
通过海瑟矩阵H(x,y)可以求出主曲率,如式(2-9)所示:
可以使用求临近点差分的方式获得D的值。由于D的主曲率和H的特征值成正比关系,所以可以通过求H的特征值的比率来获得D的主曲率的比率,从而避免了具体的计算。假设α为较大的特征值,β为较小的特征值,则容易得出:
Tr(H)=Dxx+Dyy=α+β, (2-10)
Det(H)=DxxDyy-(Dxy)2=α·β, (2-11)
式(2-10)中的Tr(H)代表矩阵H的迹,式(2-11)中的Det(H)代表H的行列式的值。
假设最大特征值α和最小特征值β的比值为r,则有:
式(2-12)的结果只和两个特征值的比值有关。由于r=α/β≥1,所以当r=1,即α和β相等时式(2-12)的结果最小;当r增大时,式(2-12)的结果将增大,此时D的两个主曲率的比值也增大,比值越大,该点越有可能是边缘点。
三、特征点方向确定
为了获得特征点关于图像旋转的不变性,需要为每个特征点分配主方向,之后关于特征点的计算都将相对于这个主方向进行,同时相关操作的像素都位于特征点的尺度所对应的高斯平滑图像上,特征点也因此获得了尺度无关性。对于每一个特征点,其邻域内像素点的梯度值表示如式(2-13)所示:
其方向如式(2-14)所示:
上述两式中的L(x,y)表示特征点所在高斯平滑图像的像素点的灰度值。获得特征点主方向的详细过程为:在相应的高斯平滑图像上,以特征点为中心,取适当的邻域区域,统计该区域内所有图像像素的梯度方向;梯度方向从0度开始,每隔10度分配一个方向,这样将会产生36个方向。在计算过程中,需要使用适当的高斯函数进行加权,该高斯函数的高斯核等于特征点所在尺度1.5倍,目的是为了减小窗口内距离特征点较远的点对方向直方图的权重。统计结果中的最大值所在的方向就是相应特征点的主方向。为了增强后续匹配的稳定性,那些取值超过主方向取值80%的方向将会被作为该特征点的辅方向,这样一来,具有相同尺度和位置的特征点有可能具有多个方向,实验表明,这样的特征点的比例大概为15%,但他们能够很好的提高后续匹配的稳定性。
四、描述符计算
到目前为止,已经获得了特征点的尺度、位置和方向信息,接下来需要为特征点创建一个描述子,这个描述子需要具备较好的独特性,同时对视角、光照等变化具备良好的鲁棒性。一个简单的方法是对特征点周围像素灰度值进行采样,但简单的图像采样对常见的变化都很敏感。Edelman,Intrator和Poggio在1997年所提出的一种基于生物视觉模型的方法[ii]在实验中展现了良好的效果。特征点描述子的计算过程如下:
1.以特征点为中心,把邻域坐标轴旋转θ°,将其调整为特征点的主方向,以此来获得特征点关于旋转的不变性;
2.确保旋转不变之后,以特征点为中心取一定大小的邻域窗口。每个单元方格代表特征点邻域窗口内的一个像素,像素的方向和箭头的方向一致,像素的大小和箭头的长度成比例,其中箭头的方向就是旋转后的像素方向;
3.将第2步所取的邻域窗口以4*4为单位均匀分为若干个子区域,之后使用高斯函数进行加权,这样有利于增加离特征点较近的采样点的权重,同时减小距特征点较远的采样点的权重,然后计算每个区域在若干个方向上的梯度的累加值。Lowe通过实验验证了不同大小的邻域窗口和不同方向采样数对实验效果的影响。采用特征点周围4*4个子区域,每个子区域取8个方向所形成的描述子在独特性和复杂度方面能够取得较好的平衡,故SIFT算法通常采用特征点周围4*4的子区域,每个子区域计算8个方向上的梯度模值。
4.把前面所采用的邻域中的每个子区域的所有方向上的梯度累加值合并在一起,就形成了一个SIFT描述符,通常该描述符是一个16*8=128维的向量。
经过上述一系列的变换,SIFT特征描述符已经具备了尺度不变性和旋转不变性,接下来将要对特征点描述符进行归一化处理,这样可以进一步增强其对光照的鲁棒性。假设D是特征点描述符,令D=(d1,d2,d3……dn),对其进行归一化处理,可以得到式(2-15):
经过上述归一化处理之后,图像的对比度和线性光线的影响被消除了。然而,非线性光线的影响依然存在,因为非线性光线能够引起梯度大小的不均衡变化,为了有效地减少非线性光线的影响,需要预先设置一个阈值,如果描述符某一维的值大于该阈值,就将其截断置为该阈值,然后再重新进行归一化处理。
四、SIFT特征匹配
特征匹配一般情况下分三个步骤:
1.特征点提取。前面我们已经通过SIFT算法提取出了对图像旋转、平移保持不变,同时对光照、噪声以及视点变换等具有良好鲁棒性的特征点;
2.特征点描述。SIFT描述符是一个具有128维的向量,它是对SIFT特 征点周围邻域信息的高度抽象,具备较高的独特性,同时,SIFT算法还记录了每个特征点的方向、尺度和位置信息,为后续的匹配工作提供了良好的基础;
3.特征点匹配。目前关于特征点匹配的算法有很多,每种算法都有自己的使用场景和优缺点。由于SIFT算法提取出的特征点具备较高的独特性,同时使用了一个高达128维的向量来作为SIFT特征描述符,这使得描述符之间具备较大的差异性,因此我们可以通过描述符之间的几何特性来进行特征点的匹配工作。在文献[23]中,Lowe使用最近邻NN[iii](Nearest Neighbor)算法对SIFT特征点进行匹配。
欧氏距离(Euclidean distance)[iv]表示在n维空间中两个点之间的真实距离。假设有两点p和q,在二维空间中其欧氏距离如下:
虽然欧氏距离被广泛地使用,但它也有不足之处:欧氏距离忽视了目标的不同属性间的差异,在实际应用中有时并不符合要求。因此,当需要根据个体的不同属性来进行区分的时候,应该依据实际情况来选择合适的距离函数。在SIFT算法中,从匹配效果和运算速度两方面考虑,采用欧氏距离来比较两个SIFT描述符的相似度。
由于部分特征点来自背景或者图像模糊等原因,很多特征点在后续的匹配工作中不能获得正确的匹配,但是这些点却依然占用了大量的运算,因此,有必要通过相应的方法剔除掉这样的点。如果仅仅简单的通过为最近邻设定一个阈值来达到上述目的的话,并不能够获得预期的结果,因为某些描述符和其他描述符相比可能会有很大的差异性,假如为特征点的最近邻特征点的距离设置一个阀值,它们很有可能会被剔除,尽管它们在后续匹配中能够获得正确的匹配。一种更为有效的方法是计算最近邻特征点距离与次近邻特征点距离的比值,并为该值设定一个阈值,通过考察比值是否满足预先设定的阈值的方式来对特征点的匹配进行测评。
通过距离比率的方式来进行特征匹配可以简单的概括为:对于某个特征 点,在另一图像中与其最短的欧式距离设为d1,次短的欧式距离设为d2,则最近邻与次近邻的欧式距离比率为r=d1/d2,如果,r<ε则匹配成功,否则,匹配失败,其中,ε为预先设定的阈值。
由于SIFT描述符高达128维,因此错误匹配的特征点对之间的欧式距离一般比较接近,同时,正确匹配的特征点对间的欧氏距离一般会明显的比错误匹配的距离小。因此,使用最近邻与次近邻的欧氏距离的比值作为特征匹配的测评标准一般能够获得较好的效果。
Lowe通过实验表明,当我们拒绝最近邻与次近邻的欧氏距离的比值大于0.8的匹配点对时,可以有效的剔除90%的错误匹配而仅剔除了不到5%的正确匹配。
以上对SIFT算法进行了详细的描述。首先阐述了SIFT算法的理论基础——尺度空间;之后详细分析了SIFT算法关于特征点检测和描述的实现过程,SIFT特征点具有良好的不变性,同时SIFT描述符具有高度的独特性;最后描述了SIFT算法关于特征匹配的工作。
实施例1
本实施例应用本发明所述的基于SIFT算法的模糊图像识别方法对各种数字噪声所导致的模糊图像进行识别。噪声模糊图像识别主要使用了模糊空间中的高斯模糊子空间。
1)高斯白噪声图像识别
白噪声是指那些在整个频域范围内其功率谱密度函数始终为一个固定的值(即服从均匀分布)的噪声,其功率谱密度函数一般表示为:
式(4-1)中,n0是一个常数,单位为w/Hz。
高斯分布,一般也称作正态分布,其概率密度函数由两个参数决定:均值和方差。高斯分布的一维概率密度函数的数学公式如式(4-2)所示:
式(4-2)中,a为均值,σ2为方差。
高斯白噪声就是一种功率谱密度函数服从均匀分布(为常数),同时概率密度函数满足正态分布的噪声[v],在分析***噪声时经常被使用到,该类噪声主要有以下特点:
1.高斯白噪声能够使用公式来表达。高斯白噪声的一维概率密度函数由均值和方差两个参数决定,只要知道了这两个参数的值,其概率密度函数便可由式(4-2)确定。高斯白噪声的功率谱密度函数为一个常量,只要知道了这个常量的取值,其功率谱密度函数便可由式(4-1)确定。
2.高斯白噪声比较真实地反映了实际信道中的噪声分布情况,具有较高的现实意义。
本实施例所使用的待识别高斯白噪声模糊图像通过实验模拟的方式来生成,方法如下:通过matlab的imnoise函数给某一清晰图像添加均值为0方差逐渐增大的一系列高斯噪声,从中选取噪声较为严重的一幅来进行识别实验。
实验一
作为对比,我们进行一组实验,该组实验不对模糊图像进行预处理,即直接用噪声图像和构建的模糊空间进行匹配。
首先使用SIFT算法来对上述两幅图像进行匹配。匹配效果统计信息如表4-1所示。
表4-1对噪声图像不做预处理时两种方法的匹配效果
表4-1第一列为噪声图像与原图像的匹配效果,可以看出,如果对本发明方法去掉预处理的环节,本发明方法关于噪声图像的识别效果相对于SIFT算法仅有微弱的提升,正确匹配的点对从22对增加到了29对。
经过对噪声图像的预处理之后,匹配效果统计信息如表4-2所示。
表4-2对噪声图像进行高斯平滑后两种方法的匹配效果
2)离焦图像识别
在现实生活中,一种被广泛使用的数码相机就是自动调焦照相机,我们有时会发现拍摄出来的图像很模糊,这是由对焦不准确所产生的,离焦图像是一种常见的模糊图像。
标景物上的一点发出的光线穿过镜头后,由于光线的折射作用将会聚在左侧实线处,所形成的图像是一个清晰的点,这时如果把感光板向后移动或向前移动,都将改变感光板与镜头间的距离,这个距离就是像距。当像距减小时,由于光线尚未会聚,这时会在感光板上形成一个光斑;当像距增大时,光线会聚到一点后会继续发散,同样也会形成一个光斑。随着像距逐渐增大或减小,光斑也会随之变大,同时,成像会越来越模糊。
由高斯成像公式可得:
式(4-3)中u为物距,v为理想像距,f为透镜的焦距,由三角形定理得:
式(4-4)中Δ为理想像距与实际像距的差值,d为离焦模糊直径,D为光瞳直径。综合式(4-3)和式(4-4)可得:
由式(4-5)可以看出,离焦模糊直径由像距、物距、焦距和光学***光圈的大小共同决定。上述离焦模型可用公式表示如下:
式(4-6)中R为离焦模型参量,由离焦模糊图像确定,h(x,y)为离散模糊图像的离散傅里叶变换。
与上述圆形离焦模糊对应的是高斯离焦模糊模型,该模型是研究人员通过经验得出的,具有较高的使用性,用数学公式表达如下:
从式(4-7)中可以看出,只要求出模糊参数σ,就可以得到h(x,y),从而得出原清晰图像。
在离焦模糊图像的处理
首先使用SIFT算法来对两幅图像进行匹配。
接下来我们使用本发明方法进行匹配。
本发明方法的匹配点对个数要明显多于SIFT算法,表4-3是对上述实验的统计。
表4-3两种方法对离焦模糊图像的匹配效果
从表4-3中可以看出,随着模糊空间中图像模糊度的增加,匹配点对的个数迅速增加。表4-3第一列是SIFT算法的匹配效果,仅仅有42对正确匹配的点对,而新算法则多达78对。该实验可以说明,新算法对离焦模糊图像的识别效果要明显的优于SIFT算法。
3)雨雾图像识别
在户外采集图像时,如果遇到下雨、下雪、大雾等天气,所采集到的图像的清晰度会受到严重的影响。本实验将验证新算法对该类图像的识别效果。
本发明方法所获得的正确匹配对数要多一些。统计数据如表4-4所示。
表4-4两种算法对类似雨雾模糊图像的匹配效果
表4-4的第一列为SIFT算法的匹配效果,后面的是新算法的匹配效果。可以看出,使用SIFT算法仅能得到31对正确匹配的点对,而新算法普遍能够获得70个以上的正确匹配点对,最多达到了76个。该实验表明,在模糊图像的识别效果上,新算法要明显的优于SIFT算法。
4)模糊图像局部识别
生活中,我们有可能仅拥有一幅完整图像的一小部分,而且这一小部分也已经模糊不清了。对于上面所提到的图像,本发明方法能否对其进行有效的识别呢?本实验将对此加以验证。待识别的图像只是原来图像的一小部分,同时也受到了一定的模糊。
使用本发明方法来对图中所示的两幅图像进行匹配。本实验的统计数据如表4-5所示。
表4-5两种算法对不完整模糊图像的匹配效果
同样,表的第一列为SIFT算法的匹配效果,其余的是本发明方法的匹配效果。可以看出,SIFT算法仅能获得11对正确匹配的点对,本发明方法所获得的正确匹配对数达到了22对。本实验能够说明本发明方法对于不完整模糊图像的识别效果要好于SIFT算法。
5)低分辨率图像识别
图像分辨率是图像中像素密度的度量方法,它用来评价图像中的细节能够被分解到何种程度并被显示出来。两幅尺寸一样的图像,如果其中一幅图像的像素数目较多,则说明这幅图像的分辨率较高。图像分辨率能够表示图像细节被正确显示、重现出来后人们所感受到的清晰的程度。
本组实验将验证SIFT算法和本发明方法对于低分辨率图像的识别效果,实验所用的低分辨率图像通过对原图像进行缩小而获得,。
根据对缩小后的图像所进行预处理的不同,本实验可分三种情况:
1.对缩小后的图像不做任何预处理。这种情况主要用来进行对比,用以验证预处理环节在本发明方法中的作用;
2.对缩小后的图像采用最近邻插值进行放大;
3.对缩小后的图像采用双立方插值进行放大。
实验一
本实验缩小后的图像不进行任何预处理,直接用于实验匹配。
首先使用SIFT算法来进行匹配,SIFT算法和本发明方法对不做任何预处理的低分辨率图像的识别效果均不理想,主要是匹配的点对过少,上述实验的数据统计如表4-6所示。
表4-6对低分辨率图像不做预处理时两种算法的匹配效果
从表中可以看出,两种算法的实验数据一样,但匹配点对数都过少。接下来我们将对尺寸缩小后的图像通过不同的插值方法进行放大来进一步验证两种算法的匹配效果。
实验二
本实验将使用最近邻插值方法来将尺寸缩小后的图像放大8倍。采用最近邻插值放大后的图像,有着明显的锯齿状模糊,首先使用SIFT算法来进行匹配。实验数据统计如表4-7所示。
表4-7两种算法对使用最近邻插值放大后的图像的匹配效果
经过最近邻插值放大后,SIFT算法可以获得48对正确匹配点对,而本发明方法可以获得79对。实验一和实验二对比可以发现,如果不进行任何处理SIFT算法仅能获得3对正确匹配点对,而本发明方法通过预处理可以获得79对。本实验能够说明,本发明方法对低分辨率图像的识别效果要明显的优于SIFT算法。
实验三
本实验使用双立方插值来将尺寸缩小后的图像放大8倍。采用双立方插值放大后的图像视觉效果要好于最近邻插值放大后的效果,使用SIFT算法将放大后的图像和原清晰图像匹配。本实验数据统计如表4-8所示。
表4-8两种算法对使用双立方插值放大后的图像的匹配效果
经过双立方插值放大后,SIFT算法可以获得44对正确匹配点对,而本发明方法可以获得92对。实验一和实验三对比可以发现,如果不进行任何处理SIFT算法仅能获得3对正确匹配点对,而经过插值放大后,本发明方法可以获得92对。本实验能够说明,本发明方法对低分辨率图像的识别效果要明显的优于SIFT算法。同时,实验二和实验三对比可以发现,采用双立方插值 放大后的图像的识别效果要好于采用最近邻插值所放大的图像,这也说明了预处理环节在本发明方法中的重要作用。
本实施例对高斯白噪声和离焦模糊图像进行了分析,将本发明方法应用于常见的噪声模糊图像识别中。分别对高斯白噪声图像、离焦图像、雨雾图像、模糊图像局部和低分辨率图像进行了识别实验。通过对比本发明方法和SIFT算法的识别效果,验证了本发明方法对上述模糊图像识别的有效性。
实施例2
在导致图像模糊的众多因素当中,光照因素的影响不容忽视。过度曝光或者光线过暗,都会对图像的清晰度造成重大影响。本实施例将会验证SIFT算法和本发明所述的基于SIFT算法的模糊图像识别方法对不理想光照条件下所拍摄的图像的识别效果。
光照模糊子空间生成
识别由光照因素所导致的模糊图像,主要使用了模糊空间中的光照模糊子空间,光照模糊子空间的生成过程。
假设清晰图像为I,则光照模糊图像可通过式获得:
I2n=F(k2n(I)). (5-1)
上述公式中,F(I)代表对原清晰图像I进行直方图均衡化的操作,k2i是一个直方图均衡化运算系数,用来控制图像明暗程度,等号左边的I2i代表原清晰图像所产生的带有某种程度的亮度变化的图像,具体操作如下:
I21=F(k21(I)), (5-2)
I22=F(k22(I)), (5-3)
……
I2n=F(k2n(I)). (5-4)
在上述过程中,当k的值从1开始逐渐增大时,就会形成关于清晰图像的一系列亮度渐增的图像,当k的值从1开始逐渐减小为0时,就会形成关于清晰图像的一系列亮度渐暗的图像。
随着k的减小,图像逐渐变暗,同时,其各色分量所对应的的直方图分布范围逐渐变小,灰度值较低的像素逐渐增多。
经过上述运算,所生成的I21、I22……I2n合起来便构成了清晰图像I的模糊空间中的光照模糊子空间。
1)过度曝光图像识别
过度曝光的图像总体较亮,同时细节信息损失严重。在本实验中,通过对清晰图像进行相应的灰度运算来生成过度曝光的图像。
利用来自于英国牛津大学工程科学系视觉几何研究组使用的用于进行光照测试Leuven图集。本组实验将使用SIFT算法和本发明方法对图中的两幅图像进行匹配。本实验直接对两幅图像进行匹配,首先使用SIFT算法进行匹配。观随着匹配的两幅图像亮度的接近,匹配效果迅速的提高。当两幅图像匹配效果越来越好时,他们的直方图也越来越相似。本实验数据统计如表5-1所示:
表5-1两种算法对曝光图像的匹配效果
表5-1中第一列为SIFT算法匹配结果,其余的是本发明方法的匹配结果。容易看出,随着模糊空间中模糊图像的曝光度与待识别图像曝光度的接近,匹配效果迅速提升,但当模糊空间中图像曝光度过大时,匹配效果开始下降。本发明方法最好时可以获得208对正确的匹配,相对于SIFT算法的23对,足以说明本发明方法对于过度曝光图像识别的优越性。
2)光线过暗图像识别
一般在光线不足的情况下所拍摄的图像会呈现“黑乎乎”的效果,这种图像很难去识别。SIFT算法不能够提取出特征点造成的。因此,要想获得较好的识别效果,必须对待识别的过暗图像进行相应的预处理。
在本实验中,需要对其进行增亮处理。在对待识别的过暗图像增亮之后,我们还需要构建原清晰图像的光照模糊子空间。在进行完上述工作之后,使用本发明方法进行匹配。本实验数据统计如表5-2所示。
表5-2将过暗图像增亮后两种算法的匹配效果
本实验验证了SIFT算法和本发明方法对过暗图像的识别效果。由于本实验所采用的待识别图像过暗,整体对比度过低,SIFT算法完全无法识别,而本发明方法由于对过暗图像进行了有效的预处理,获得了明显的匹配效果。表5-2第一列即为预处理后的图像与原清晰图像的匹配效果,正确匹配对数达到了170对,之后,通过构建原清晰图像的模糊空间,正确匹配的点对进 一步增加到了193对。本实验所采用的图像较为极端,但本发明方法依然获得了较好的效果。
本实施例详细讲解了光照模糊子空间的生成过程。对过度曝光图像和过暗图像进行了识别实验,通过对比本发明方法和SIFT算法的识别效果,验证了本发明方法对光照模糊图像识别的有效性。
实施例3
在图像拍摄过程中,由物体和相机之间存在相对运动而生成的模糊图像被称为运动模糊图像。运动模糊图像广泛地存在于现实生活中。本实施例应用本发明方法对运动模糊图像进行识别。
1)运动模糊分析
在所有的运动模糊当中,匀速直线运动模糊最具普遍意义。在一定条件下,非直线运动和变速运动都可以看做是由多段的匀速直线运动构成。另外,成像曝光时间一般都非常短,在这期间,可以将拍摄物体与相机间的运动看做为匀速直线运动。本节将对匀速直线运动模糊进行详细分析。
在相机曝光期间,假设图像f(x,y)在图像平面内进行匀速直线运动。分别令x0(t)和y0(t)表示图像在x和y方向上的运动变化量,则生成的图像为:
其中T为相机曝光时间,g(x,y)为生成的运动模糊图像。
如果图像f(x,y)仅在x方向上进行匀速直线运动,假设在曝光时间T内位移为s,则图像运动速率为v0(t)=s/T,则式可变为:
对式(6-2)进行离散化处理可得到:
其中N为图像中物体移动的像素的个数,Δt是每个像素对图像模糊所对应的时间。由式(6-3)可得,运动模糊图像g(x,y)中的每个像素是在曝光时间内经过该像素的原始图像像素的时间加权叠加,实际上就是原图像对应的像素经过距离延迟之后再进行叠加。可用式(6-4)来表示由清晰图像模拟匀速运动模糊图像:
也可以使用卷积方法来表示:
g(x,y)=f(x,y)*h(x,y), (6-5)
实际情况下,图像运动的方向一般与x方向有一定的夹角,式(6-6)可变为:
由以上分析可以发现,图像运动模糊与时间无关,而与相对运动距离N和运动方向θ有关。
2)运动模糊子空间生成
运动模糊图像识别主要使用了模糊空间中的运动模糊子空间,本节将对运动模糊子空间的生成进行讲解。
运动模糊子空间主要使用matlab的FSPECIAL('motion',LEN,THETA)滤波算子来实现。本文采用LEN=20,THETA逐渐增大来生成运动模糊图像集。
为了有效的对运动模糊图像进行识别,需要在模糊空间中生成模糊度渐变的运动模糊图像集。
首先使用SIFT算法来对两幅图像进行匹配。本发明方法的匹配效果要远远好于SIFT算法的匹配效果。表6-1是对上述实验的统计。
表6-1两种算法对运动模糊图像的匹配效果
表6-1第一列为SIFT算法的匹配效果,仅仅有18对正确匹配的点对,而本发明方法的匹配效果最好达到了68对。该实验可以说明,本发明方法对运动模糊图像的识别效果要明显的优于SIFT算法。
本实施例对成像过程中由拍摄物体与相机间相对运动所导致的图像模糊进行了数学分析,并给出了运动模糊子空间的具体获取方法。通过使用本发明方法和SIFT算法对运动模糊图像进行识别实验,验证了本发明方法对运动模糊图像识别的有效性。
实施例4
本实施例基于SIFT算法的模糊图像识别装置,所述装置包括:
模糊空间生成模块,用于对清晰的图像分别进行高斯平滑,灰度运算和运动模糊,生成模糊空间;
第一提取模块,用于基于SIFT算法对模糊空间的所有图像进行特征提取 和描述;
第二提取模块,用于对待识别模糊图像利用SIFT算法提取所述待识别模糊图像的特征点;
匹配模块,用于将待识别图像的特征点分别和清晰图像所生成的模糊空间中的每一幅图像的特征点进行匹配;
结果输出模块,用于基于预定的测评标准来对所有的匹配进行评估,筛选出匹配效果最好的作为最终识别结果。
进一步地,还包括图像预处理单元,用于根据待识别图像模糊的特点分析对待识别图像进行相关处理,
若待识别图像为强噪声模糊图像,则预定方差阈值,若待识别图像的方差大于所述方差阈值时,对待识别的图像进行平滑预处理;若待识别图像的方差小于或等于所述方差阈值时,则不做处理;
若待识别图像为尺寸过小的低分辨率图像,则使用插值方法来对所述的待识别图像进行放大处理;
若待识别图像为光照过暗的图像,则使用灰度运算来对所述的待识别图像进行增亮处理。
所述模糊空间生成模块,至少包括
高斯模糊子单元,通过对清晰图像进行高斯平滑来生成高斯模糊子空间,用于识别由数字噪声所导致的模糊图像;
光照模糊子单元,通过对清晰图像进行相应的灰度运算来生成光照模糊 子空间,用于识别由光照因素所导致的模糊图像;
运动模糊子单元,通过对清晰图像进行相应的运动模糊来生成运动模糊子空间,用于识别由相对运动所导致的模糊图像。
以上所述仅是本发明的优选实施方式,并不用于限制本发明,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。
Claims (10)
1.一种基于SIFT算法的模糊图像识别方法,其特征在于,所述方法包括:
对清晰的图像分别进行高斯平滑,灰度运算和运动模糊,生成模糊空间;
基于SIFT算法对模糊空间的所有图像进行特征提取和描述;
对待识别模糊图像利用S IFT算法提取所述待识别模糊图像的特征点;
将待识别图像的特征点分别和清晰图像所生成的模糊空间中的每一幅图像的特征点进行匹配;
基于预定的测评标准来对所有的匹配进行评估,筛选出匹配效果最好的作为最终识别结果。
2.根据权利要求1所述的基于SIFT算法的模糊图像识别方法,其特征在于,所述方法具体包括:
2.1图像预处理,根据待识别图像模糊的特点分析对待识别图像进行相关处理;
2.2模糊空间构建,模糊空间中的图像集至少包括三类模糊图像,每类模糊图像分别构成一个模糊子空间,所述的子空间分别为:
高斯模糊子空间,通过对清晰图像进行高斯平滑来生成高斯模糊子空间,用于识别由数字噪声所导致的模糊图像;
光照模糊子空间,通过对清晰图像进行相应的灰度运算来生成光照模糊子空间,用于识别由光照因素所导致的模糊图像;
运动模糊子空间,通过对清晰图像进行相应的运动模糊来生成运动模糊子空间,用于识别由相对运动所导致的模糊图像。
2.3SIFT特征提取与匹配,基于SIFT算法将待识别图像的特征点和模糊空间中每一幅图像进行匹配;
2.4匹配点对滤纯,基于RANSAC算法对2.3的匹配效果进行滤纯,提高匹配的准确度;
2.5匹配结果筛选,根据预定的测评标准,从2.4结果中筛选出匹配效果最好的作为最终识别结果。
3.根据权利要求2所述的基于SIFT算法的模糊图像识别方法,其特征在于,根据待识别图像模糊的特点分析对待识别图像进行相关处理具体方法包括:
判断导致待识别图像模糊的原因,
若待识别图像为强噪声模糊图像,则预定方差阈值,若待识别图像的方差大于所述方差阈值时,对待识别的图像进行平滑预处理;若待识别图像的方差小于或等于所述方差阈值时,则不做处理;
若待识别图像为尺寸过小的低分辨率图像,则使用插值方法来对所述的待识别图像进行放大处理;
若待识别图像为光照过暗的图像,则使用灰度运算来对所述的待识别图像进行增亮处理。
4.根据权利要求1所述的基于SIFT算法的模糊图像识别方法,其特征在于,所述的高斯模糊子空间的生成方法为:逐渐增大的二维高斯函数,得到多个高斯模糊图像I11、I12......I1n,多个模糊图像一起构成清晰图像I的模糊空间中的高斯模糊子空间,所述的高斯模糊图像的方程式为:
I11=G(x,y,σ1)*I,
I12=G(x,y,σ2)*I,
......
I1n=G(x,y,σn)*I
其中,I为清晰图像;
I1n为经过平滑后的模糊图像,
G(x,y,σn)为高斯平滑函数,
5.根据权利要求1所述的基于SIFT算法的模糊图像识别方法,其特征在于,所述的光照模糊子空间的生成方法为:对清晰图像进行直方图均衡化运算,将直方图系数k2i的值从1开始逐渐增大,形成关于清晰图像的一系列亮度渐增的光照模糊图像,将k2i的值从1开始逐渐减小为0时,就会形成关于清晰图像的一系列亮度渐暗的光照模糊图像,将所述的光照模糊图像一起构成清晰图像I的模糊空间中的光照模糊子空间,所述的光照模糊图像的方程式为:
I21=F(k21(I)),
I22=F(k22(I)),
......
I2i=F(k2i(I))
I2n=F(k2n(I)).
其中,F(I)为对原清晰图像I进行直方图均衡化操作;
k2i为直方图均衡化运算系数,用来控制图像明暗程度;
I2i为原清晰图像所产生的带有亮度变化的模糊图像。
6.根据权利要求2所述的基于SIFT算法的模糊图像识别方法,其特征在于,所述的预定的评测标准为:待识别图像的特征点和模糊空间中每一幅图像进行匹配的匹配正确率R,所述匹配正确率的公式如下:
其中,S为进行SIFT的最近邻匹配之后,我们会把每一组的匹配对数;
C为滤纯之后的匹配对数,即正确的匹配对数。
7.根据权利要求1所述的基于SIFT算法的模糊图像识别方法,其特征在于,通过距离比率的方式来进行特征匹配,对于特征点,若在另一图像中与其最短的欧式距离设为d1,次短的欧式距离设为d2,则最近邻与次近邻的欧式距离比率为r=d1/d2,若,r<ε则匹配成功,否则,匹配失败,其中,ε为预先设定的阈值。
8.一种基于SIFT算法的模糊图像识别装置,其特征在于,所述装置包括:
模糊空间生成模块,用于对清晰的图像分别进行高斯平滑,灰度运算和运动模糊,生成模糊空间;
第一提取模块,用于基于SIFT算法对模糊空间的所有图像进行特征提取和描述;
第二提取模块,用于对待识别模糊图像利用SIFT算法提取所述待识别模糊图像的特征点;
匹配模块,用于将待识别图像的特征点分别和清晰图像所生成的模糊空间中的每一幅图像的特征点进行匹配;
结果输出模块,用于基于预定的测评标准来对所有的匹配进行评估,筛选出匹配效果最好的作为最终识别结果。
9.根据权利要求8所述的基于SIFT算法的模糊图像识别装置,其特征在于,还包括图像预处理单元,用于根据待识别图像模糊的特点分析对待识别图像进行相关处理,
若待识别图像为强噪声模糊图像,则预定方差阈值,若待识别图像的方差大于所述方差阈值时,对待识别的图像进行平滑预处理;若待识别图像的方差小于或等于所述方差阈值时,则不做处理;
若待识别图像为尺寸过小的低分辨率图像,则使用插值方法来对所述的待识别图像进行放大处理;
若待识别图像为光照过暗的图像,则使用灰度运算来对所述的待识别图像进行增亮处理。
10.根据权利要求1所述的基于SIFT算法的模糊图像识别装置,其特征在于,所述模糊空间生成模块,至少包括
高斯模糊子单元,通过对清晰图像进行高斯平滑来生成高斯模糊子空间,用于识别由数字噪声所导致的模糊图像;
光照模糊子单元,通过对清晰图像进行相应的灰度运算来生成光照模糊子空间,用于识别由光照因素所导致的模糊图像;
运动模糊子单元,通过对清晰图像进行相应的运动模糊来生成运动模糊子空间,用于识别由相对运动所导致的模糊图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510096255.7A CN104899834A (zh) | 2015-03-04 | 2015-03-04 | 基于sift算法的模糊图像识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510096255.7A CN104899834A (zh) | 2015-03-04 | 2015-03-04 | 基于sift算法的模糊图像识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104899834A true CN104899834A (zh) | 2015-09-09 |
Family
ID=54032482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510096255.7A Pending CN104899834A (zh) | 2015-03-04 | 2015-03-04 | 基于sift算法的模糊图像识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104899834A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913069A (zh) * | 2016-04-27 | 2016-08-31 | 南京维睛视空信息科技有限公司 | 一种图像识别方法 |
CN106529418A (zh) * | 2016-10-19 | 2017-03-22 | 中国科学院计算技术研究所 | 一种跌倒检测及报警方法 |
CN106776267A (zh) * | 2015-11-25 | 2017-05-31 | 富士通株式会社 | 网页应用兼容性测试方法和网页应用兼容性测试设备 |
CN107392215A (zh) * | 2017-08-02 | 2017-11-24 | 焦点科技股份有限公司 | 一种基于sift算法的重图检测方法 |
CN108564092A (zh) * | 2018-04-12 | 2018-09-21 | 内蒙古工业大学 | 基于sift特征提取算法的向日葵病害识别方法 |
CN110516731A (zh) * | 2019-08-20 | 2019-11-29 | 北京影谱科技股份有限公司 | 一种基于深度学习的视觉里程计特征点检测方法及*** |
CN111583312A (zh) * | 2019-12-26 | 2020-08-25 | 珠海大横琴科技发展有限公司 | 一种遥感图像精准匹配方法、装置、电子设备及存储介质 |
CN112669310A (zh) * | 2021-01-07 | 2021-04-16 | 江西中科九峰智慧医疗科技有限公司 | 一种基于数据模拟和深度学习的胸片模糊问题分类***,方法及存储介质 |
CN112714285A (zh) * | 2020-12-22 | 2021-04-27 | 安徽康能电气有限公司 | 一种基于5g通讯的输电线路高清视频监控方法及*** |
CN117541615A (zh) * | 2024-01-09 | 2024-02-09 | 山东济矿鲁能煤电股份有限公司阳城煤矿 | 一种自动铺网装置的螺栓松动检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140003734A1 (en) * | 2012-03-26 | 2014-01-02 | Viewdle Inc. | Image blur detection |
CN104091340A (zh) * | 2014-07-18 | 2014-10-08 | 厦门美图之家科技有限公司 | 一种模糊图像的快速检测方法 |
CN104103050A (zh) * | 2014-08-07 | 2014-10-15 | 重庆大学 | 一种基于局部策略的真实视频复原方法 |
CN104331871A (zh) * | 2014-12-02 | 2015-02-04 | 苏州大学 | 一种图像去模糊方法及装置 |
-
2015
- 2015-03-04 CN CN201510096255.7A patent/CN104899834A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140003734A1 (en) * | 2012-03-26 | 2014-01-02 | Viewdle Inc. | Image blur detection |
CN104091340A (zh) * | 2014-07-18 | 2014-10-08 | 厦门美图之家科技有限公司 | 一种模糊图像的快速检测方法 |
CN104103050A (zh) * | 2014-08-07 | 2014-10-15 | 重庆大学 | 一种基于局部策略的真实视频复原方法 |
CN104331871A (zh) * | 2014-12-02 | 2015-02-04 | 苏州大学 | 一种图像去模糊方法及装置 |
Non-Patent Citations (1)
Title |
---|
赵帅: "基于SIFT算子的模糊图像识别算法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106776267A (zh) * | 2015-11-25 | 2017-05-31 | 富士通株式会社 | 网页应用兼容性测试方法和网页应用兼容性测试设备 |
CN105913069B (zh) * | 2016-04-27 | 2019-05-31 | 南京维睛视空信息科技有限公司 | 一种图像识别方法 |
CN105913069A (zh) * | 2016-04-27 | 2016-08-31 | 南京维睛视空信息科技有限公司 | 一种图像识别方法 |
CN106529418B (zh) * | 2016-10-19 | 2020-01-21 | 中国科学院计算技术研究所 | 一种跌倒检测及报警方法 |
CN106529418A (zh) * | 2016-10-19 | 2017-03-22 | 中国科学院计算技术研究所 | 一种跌倒检测及报警方法 |
CN107392215A (zh) * | 2017-08-02 | 2017-11-24 | 焦点科技股份有限公司 | 一种基于sift算法的重图检测方法 |
CN108564092A (zh) * | 2018-04-12 | 2018-09-21 | 内蒙古工业大学 | 基于sift特征提取算法的向日葵病害识别方法 |
CN110516731A (zh) * | 2019-08-20 | 2019-11-29 | 北京影谱科技股份有限公司 | 一种基于深度学习的视觉里程计特征点检测方法及*** |
CN110516731B (zh) * | 2019-08-20 | 2022-04-29 | 北京影谱科技股份有限公司 | 一种基于深度学习的视觉里程计特征点检测方法及*** |
CN111583312A (zh) * | 2019-12-26 | 2020-08-25 | 珠海大横琴科技发展有限公司 | 一种遥感图像精准匹配方法、装置、电子设备及存储介质 |
CN112714285A (zh) * | 2020-12-22 | 2021-04-27 | 安徽康能电气有限公司 | 一种基于5g通讯的输电线路高清视频监控方法及*** |
CN112669310A (zh) * | 2021-01-07 | 2021-04-16 | 江西中科九峰智慧医疗科技有限公司 | 一种基于数据模拟和深度学习的胸片模糊问题分类***,方法及存储介质 |
CN117541615A (zh) * | 2024-01-09 | 2024-02-09 | 山东济矿鲁能煤电股份有限公司阳城煤矿 | 一种自动铺网装置的螺栓松动检测方法 |
CN117541615B (zh) * | 2024-01-09 | 2024-04-26 | 山东济矿鲁能煤电股份有限公司阳城煤矿 | 一种自动铺网装置的螺栓松动检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104899834A (zh) | 基于sift算法的模糊图像识别方法及装置 | |
WO2019148739A1 (zh) | 一种模糊图像综合处理方法和*** | |
CN104574421B (zh) | 一种大幅面小重合区域高精度多光谱图像配准方法及装置 | |
Alemán-Flores et al. | Automatic lens distortion correction using one-parameter division models | |
Hosseini et al. | Encoding visual sensitivity by maxpol convolution filters for image sharpness assessment | |
CN106228528B (zh) | 一种基于决策图与稀疏表示的多聚焦图像融合方法 | |
CN106778659B (zh) | 一种车牌识别方法及装置 | |
CN109509163B (zh) | 一种基于fgf的多聚焦图像融合方法及*** | |
CN102170526B (zh) | 散焦模糊核计算及其散焦模糊图像清晰化处理方法 | |
CN110020995B (zh) | 针对复杂图像的图像拼接方法 | |
CN106447640B (zh) | 基于字典学习、旋转引导滤波的多聚焦图像融合方法及装置 | |
CN104123554B (zh) | 基于mmtd的sift图像特征提取方法 | |
CN102169581A (zh) | 一种基于特征向量的快速高精度鲁棒性匹配方法 | |
Trouvé et al. | Single image local blur identification | |
CN110222661B (zh) | 一种用于运动目标识别及跟踪的特征提取方法 | |
CN104899589B (zh) | 一种采用阈值二值化算法实现二维条码预处理的方法 | |
Sahoo et al. | Design and simulation of various edge detection techniques using Matlab Simulink | |
CN102542535B (zh) | 虹膜图像的去模糊方法 | |
KR20160034928A (ko) | 주요지점 식별 | |
CN106157240B (zh) | 基于字典学习的遥感图像超分辨率方法 | |
CN104484679B (zh) | 非制式枪射击弹头痕迹图像自动识别方法 | |
CN108876776B (zh) | 一种分类模型生成方法、眼底图像分类方法及装置 | |
Tseng et al. | Depth image super-resolution via multi-frame registration and deep learning | |
Tien et al. | Shot classification of basketball videos and its application in shooting position extraction | |
Frommer et al. | Shape from Focus with Adaptive Focus Measure and High Order Derivatives. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150909 |