CN102360435A - 基于隐含主题分析的不良图像检测方法 - Google Patents

基于隐含主题分析的不良图像检测方法 Download PDF

Info

Publication number
CN102360435A
CN102360435A CN2011103298752A CN201110329875A CN102360435A CN 102360435 A CN102360435 A CN 102360435A CN 2011103298752 A CN2011103298752 A CN 2011103298752A CN 201110329875 A CN201110329875 A CN 201110329875A CN 102360435 A CN102360435 A CN 102360435A
Authority
CN
China
Prior art keywords
image
word
theme
value
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011103298752A
Other languages
English (en)
Other versions
CN102360435B (zh
Inventor
田春娜
高新波
王华青
李东阳
袁博
赵林
李洁
蒲倩
王代富
季秀云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN 201110329875 priority Critical patent/CN102360435B/zh
Publication of CN102360435A publication Critical patent/CN102360435A/zh
Application granted granted Critical
Publication of CN102360435B publication Critical patent/CN102360435B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于隐含主题分析的不良图像检测方法,主要解决现有的不良信息检测方法不考虑图像的语义信息,导致正常图像误判的问题。其方案是:采用双混合高斯模型来提取图像的皮肤区域;通过词袋模型生成肤色区域中所包含显著特征的码本库,用词频-逆鉴别性文档频率法将每幅训练图像表示成一组有权重的单词共现向量;所有共现向量组成一个共现矩阵,对共现矩阵进行LDA建模,得到图像的主题;将训练图像的混合主题输入BP神经网络,进行不良图像分类器的训练;得到待测图像的主题并输入到不良图像分类器,判断其是否为不良图像,完成不良图像检测。实验表明,本发明能更好的分辨出不良图像和正常图像,可用于过滤图像中的色情信息。

Description

基于隐含主题分析的不良图像检测方法
技术领域
本发明属于计算机视觉与模式识别的交叉领域,特别涉及基于隐含主题分析的不良图像语义分类方法,可用于过滤图像中的色情信息。
背景技术
随着20世纪90年代互联网的蓬勃兴起,网络上的各种信息飞速增长和传播。特别是随着3G时代的来临以及融合网络概念的提出,图像以彩信、手机视频流等为载体在即时通信领域中高速传播,其中包含大量的淫秽色情等不良信息。大量不良信息的传播对人们身心健康产生不利影响,因此,提出一种先进的不良信息过滤方法具有深远意义。对于不良信息过滤,如何正确完成不良信息的检测成为关键,不良信息检测任务包含如下两步:图像鉴别性信息提取与描述;图像隐含语义主题分析与分类。下面分别从这两个方面的研究现状、发展动态及其在不良图像信息检测中的应用进行综述与分析。
(1)图像鉴别性信息提取与描述
不良图像中通常裸露大量的皮肤区域和人体隐私器官,因此,首先需要检测皮肤区域,然后提取皮肤区域内的有鉴别性能的特征点。早期的不良图像信息检测忽略了人体肤色区域内特征的代表性,而仅用肤色作为判别的线索,如Fleck等提出的“Finding Naked People.Proceedings of the European Conference of Computer Vision.1996,2:593-602.”方法。肤色描述需要合适的色彩空间。研究表明在YCbCr色彩空间中的CbCr色度分量上,人类皮肤区域具有良好的聚类特性。考虑到人种、光照色偏等因素对肤色范围的影响,研究人员常采用高斯混合模型GMM统计出肤色的分布情况。
(2)图像隐含语义主题分析与分类
目前,大部分不良信息检测方法不考虑图像所隐含的语义信息,导致包含大量类肤色区域的自然图像或者裸露的人体正常区域被判断成不良信息。因此,如何根据图像的语义特征来有效区分图像性质是提高不良信息检测技术的关键。为分析图像的语义内容,受基于文本隐含主题分析方法的启发,以隐含狄利克雷分配LDA模型为代表的主题模型被计算机视觉研究人员用来表征图像的语义。LDA模型以词袋模型为基础,即将图像看作一组视觉单词的组合,视觉单词之间无顺序关系。词袋模型包括三个步骤:特征检测、特征描述和码本生成。特征通常用高斯差分算子来检测;由于SIFT(Scale invariant feature transformation)描述子具有尺度、旋转和仿射等不变性,通常用于描述特征;最后,对训练图像的描述进行K-均值聚类得到图像的码本。对图像首先用高斯差分算子提取显著特征点,然后对特征进行SIFT描述,将SIFT描述子通过向量量化的方法映射为码本中某一个确定的视觉单词。这样,一幅图像就可以被看作由若干视觉单词组成,根据码本中视觉单词在一幅图像中发生的频次,即可将图像表示成单词的共现向量。多幅图像的共现向量可组成一个共现矩阵,对共现矩阵进行LDA建模,LDA模型是一个图像-主题-视觉单词的三层贝叶斯网络,即将图像视为由若干隐含的主题组成,而主题由若干视觉单词组成,由LDA模型可推断出每幅中隐含主题的混合概率,这样可以将图像从高维单词发生频次的组合降为低维主题的混合概率。
基于主题模型的不良图像检测才刚刚起步,Sheng Tang等人在“PornProbe:AnLDA-SVM based Pornography Detection System.Proceedings of the 17th ACMInternational Conference on Multimedia.2009,2:593-602.”一文中采用LDA方法以图像的色度信息为特征,结合SVM方法判别图像的不良程度。基于主题分析的图像语义描述是解决不良信息检测极具潜力的发展方向之一。
上述已有的不良信息分类方法主要存在以下三个主要问题:
(1)提取的人体肤色区域中往往包含头发等干扰信息,这些都不利于后续的不良特征提取。
(2)图像的肤色区域纹理比较相似,有鉴别性的不良图像特征往往被淹没在大量的正常肤色纹理特征中,使得鉴别性的特征不能有效的运用到不良图像分类任务中。
(3)特征与图像语义的联系脱节,图像语义信息描述的缺失导致正确检测率较低。
发明内容
本发明目的在于针对上述已有技术的不足,提出一种基于隐含主题分析的不良图像检测方法,以剔除人体肤色区域中的头发区域等干扰信息,增加图像特征鉴别性,分析图像的语义内容,提高不良图像的检测率。
实现本发明的技术思路是:首先提取图像的皮肤区域,对肤色区域用cosine距离测度下的词袋模型来描述,采用词频-逆鉴别性文档频率法tf-iddf给图像中的单词赋予一定的权值,用单词的权值组成向量来表示图像中视觉单词的共现特性,用LDA模型分析图像隐含的主题,根据主题的相似性实现不良图像检测。其实现过程包括:
(1)在颜色空间YCbCr中,构建双高斯混合模型:
(1a)手动切割包含皮肤区域的图像I;
(1b)将图像I从RGB颜色空间转换到颜色空间YCbCr,其中Y表示亮度分量,Cb是蓝色色度分量,Cr是红色色度分量;
(1c)去除亮度分量Y后,在CbCr色度空间中采用高斯混合模型建立肤色模型,其高斯混合模型的概率密度函数为:
G ( x | K , ω , μ , Σ ) = Σ n = 1 K ω n N D ( x | μ n , Σ n )
其中K为高斯分量的个数,ω=(ω1,ω2,…,ωK)是K个独立高斯分量在混合模型中的权重,∑Kωn=1,∑=(∑1,∑2,…,∑K)和μ=(μ1,μ2,…,μK)分别是各个高斯分量的协方差矩阵和均值向量, N D ( x | μ n , Σ n ) = ( 2 π ) - D 2 | Σ n | - 1 2 exp { - 1 2 ( x - μ n ) T Σ n - 1 ( x - μ n ) } 是第n个高斯分量的D维正态密度函数;
利用期望最大化EM算法及最小描述长度准则MDL估计高斯混合模型的各个参数ω,μ,∑,K,建立肤色模型;
(1d)手动切割包含头发区域的图像I,重复上述步骤(1b)-(1c),建立头发区域模型;
(1e)将肤色模型与头发区域模型级联,建立双高斯混合模型;
(2)利用贝叶斯模型,剔除肤色区域中的头发区域;
(3)在肤色区域中用高斯差分算子检测图像I中的显著特征点,去除特征点集中在肤色区域边缘部分的特征点,得到有效的特征点集合V′;
(4)对特征点集合V′中的有效特征点用尺度不变特征转换SIFT描述子进行描述,将每个特征点表示成128维的特征向量f;
(5)对训练集中正常和不良图像,通过步骤(1)-(4)得到所有图像的有效特征点的SIFT描述子,对所有SIFT描述子进行cosine距离测度下的K均值聚类,得到C个聚类中心,定义每个聚类中心为一个视觉单词,得到图像的码本集合W={w1,w2,L,wC},其中,w表示视觉单词,C表示码本中视觉单词的数目;
(6)对训练集中每一幅图像有效特征点的SIFT描述子,通过向量量化的方法计算每个SIFT描述子与码本中每个视觉单词的距离,将SIFT描述子量化为与其最近的那个码本单词;
(7)根据步骤(5)得到的码本单词,统计第j幅图像中所有单词的词频-逆鉴别性文档频率tf-iddf值,将这些值按照单词在码本中出现的顺序排列成一个有权重的共现向量dj来表示第j幅图像;
(8)所有训练图像共现向量组成共现矩阵,采用基于Gibbs取样算法的LDA模型对共现向量进行LDA建模,得到训练图像的混合主题分布θ;
(9)将训练图像的混合主题分布θ及其类别标记输入BP神经网络,训练基于BP神经网络的不良图像分类器;
(10)对待测图像,根据步骤(1)-(4)得到其有效特征点的SIFT描述子,再利用步骤(6)-(7)的向量量化法及tf-iddf法,待测图像被表示成码本单词的共现向量,将共现向量输入到LDA模型得到待测图像的主题分布θ′;
(11)将待测图像的主题分布θ′输入到基于BP神经网络的不良图像分类器中,判断待测图像是否为不良图像,最终完成不良图像的检测。
本发明与已有的不良信息图像检测方法相比,具有以下优点:
1)本发明由于使用双高斯混合模型,即Bi-GMM肤色模型,使肤色检测更鲁棒,提高了皮肤区域提取的准确率。
2)本发明由于利用词频-逆鉴别性文档频率法来描述单词的共现频率,提高了图像显著视觉特征的鉴别性,从而提高图像的分类率。
3)本发明由于使用隐含狄利克雷分配LDA主题模型表示图像的语义,降低了类肤色区域对识别结果的影响。
实验结果表明,本发明的不良信息图像检测方法与现有方法相比,肤色区域提取的准确率更高,图像特征的鉴别性更强,不良图像的检测率有了显著提高。
附图说明
本发明的技术过程可结合以下附图详细说明。
图1是本发明对不良信息图像检测的总体流程图;
图2是本发明基于双高斯混合模型Bi-GMM肤色模型子流程图;
图3是现有隐含狄利克雷分配LDA模型示意图。
具体实施方式
参照图1,本发明基于主题分析的不良图像检测方法主要包括以下两个阶段:
一.码本训练阶段
步骤1,构建双高斯混合Bi-GMM模型。
参照图2,本步骤的具体实现如下:
1a)手动切割包含皮肤区域的图像I;
1b)将图像I从RGB颜色空间转换到颜色空间YCbCr,其中Y表示亮度分量,Cb是蓝色色度分量,Cr是红色色度分量;
1c)去除亮度分量Y后,在CbCr色度空间中采用高斯混合模型建立肤色模型,其高斯混合模型的概率密度函数为:
G ( x | ω , μ , Σ ) = Σ n = 1 K ω n N D ( x | μ n , Σ n )
其中K为高斯分量的个数,ω=(ω1,ω2,…,ωK)是K个独立高斯分量在高斯混合模型中的权重,0<ωn<1,∑Kωn=1,∑=(∑1,∑2,…,∑K)和μ=(μ1,μ2,…,μK)分别是各个高斯分量的协方差矩阵和均值向量,其中 N D ( x | μ n , Σ n ) = ( 2 π ) - D 2 | Σ n | - 1 2 exp { - 1 2 ( x - μ n ) T Σ n - 1 ( x - μ n ) } 是第n个高斯分量的D维正态密度函数;
1d)确定高斯混合模型概率密度函数的高斯分量个数K、权重ω、均值向量μ及协方差矩阵∑各参数的值:
1d1)随机初始化高斯分量的个数K;
1d2)使用期望最大化算法EM估计初始化的K值下的高斯混合模型权重ω,均值向量μ和协方差矩阵∑的参数值;
1d3)利用距离公式d(l,m)计算高斯混合模型中每两个高斯分量的距离,选出距离最近的两个高斯分量,并将其合并为一个高斯分量,以使高斯分量的个数K减1,d(l,m)公式如下:
d ( l , m ) = N ω ‾ l 2 log ( | Σ ( l , m ) | | Σ ‾ l | ) + N ω ‾ m 2 log ( | Σ ( l , m ) | | Σ ‾ m | )
其中l,m分别表示模型中第l个和第m个高斯分量,其中l,m分别表示模型中第l个和第m个高斯分量,N代表数据样本的个数,
Figure BDA0000102509420000062
分别表示第l个和第m个高斯分量的权值,
Figure BDA0000102509420000063
分别表示第l个和第m个高斯分量的协方差矩阵,∑(l,m)表示第l个和第m个高斯分量的协方差矩阵;
不断合并距离最近的两个高斯分量,得到新的K值并计算相应的最小描述长度准则MDL(K,θ),当K=1时迭代终止,挑选迭代过程中最小的MDL(K,θ)值所对应的K值作为最优值,MDL(K,θ)公式如下:
MDL ( K , θ ) = - log G x ( x | K , θ ) + 1 2 L log ( NM )
其中K表示高斯分量个数,θ=(ω,μ,∑)表示估计的参数,M表示样本中数据的维数,N代表数据样本的个数,
Figure BDA0000102509420000065
1d4)利用期望最大化算法EM估计最优K值下的参数ω,μ,∑的最优值,建立肤色模型。
1e)手动切割包含头发区域的图像I,重复上述步骤1b)-1d),建立头发区域模型;
1f)将肤色模型与头发区域模型级联,建立双高斯混合模型。
步骤2,利用贝叶斯模型,剔除肤色区域中的头发区域。
得到双高斯混合模型后,对图像I的肤色区域的每一个像素点,利用贝叶斯公式分别计算其属于肤色区域模型的概率P1以及属于头发区域模型的概率P2,当属于肤色区域模型的概率P1较大时,保留该像素点,否则擦除该像素点,最终,剔除肤色区域中的头发区域,该贝叶斯公式为:
p ( V i | θ , K ) = p ( θ , K | V i ) p ( V i ) p ( θ , K )
其中,Vi的i=1,2分别表示属于肤色区域和头发区域,θ=(ω,μ,∑),ω,μ,∑分别表示高斯混合模型的权重、均值向量及协方差矩阵,K表示高斯分量个数。
步骤3,用高斯差分DoG算子检测图像肤色区域中的角点、斑点等显著特征点。
3a)定义高斯差分DoG算子:D(x,y,σ)=L(x,y,kiσ)-L(x,y,kjσ),其中L(x,y,kσ)为图像I(x,y)与尺度可变高斯函数
Figure BDA0000102509420000071
的卷积;
3b)去除非鉴别性特征点:
由于步骤2a)中定义的DoG图像的极值在横跨边缘的地方有较大的主曲率,而在垂直边缘的方向有较小的主曲率,故要找到并去除满足这些主曲率的特征点,从而去除边缘对提取特征点的影响,从而检测到斑点、角点等显著性视觉特征点的集合{F1(x,y,σ),F2(x,y,σ)L,FN(x,y,σ)},其中(x,y)表示特征点F的坐标,s表示特征点F的尺度;
步骤4,进一步去除步骤3中检测到的特征点中的位于肤色区域边缘的特征点:由于图像通过步骤3处理后,在皮肤与背景相交处的边缘区域仍存在大量的显著特征点,对于不良信息分类来说,这些点不具有鉴别性,为此,要进一步去除这些特征点,保留有鉴别性的局部特征点F(x,y,σ)。
步骤5,对于通过步骤4保留下来的局部特征点F(x,y,σ),采用尺度不变特征转换SIFT特征进行描述,每个特征点被表示成128维的特征向量f。
步骤6,训练码本:
6a)对包含M幅正常图像和不良图像的训练集合中的每幅图像,进行上述步骤1-5,得到M幅图像的特征向量组成的特征矩阵;
6b)对特征矩阵中的特征向量进行cosine距离测度下的K均值聚类,得到这些特征的C个聚类中心,定义每个聚类中心为一个视觉单词,用C个视觉单词组成该类图像的码本集合W={w1,w2,L,wC},其中,w表示视觉单词,C表示码本中视觉单词的数目;
6c)对训练集中每一幅图像有效特征点的SIFT描述子,通过向量量化的方法计算每个SIFT描述子与码本中每个视觉单词的距离,将SIFT描述子量化为与其最近的那个码本单词;
6d)统计第i个单词wi在第j幅图像中发生的频次为nij,统计第j幅图像中所有单词发生的频次为
Figure BDA0000102509420000081
根据下式计算第j幅图像中第i个单词发生的词频Tfi,j
Tf i , j = n i , j Σ c = 1 c n c , j ;
6e)统计包含单词wi的正常图像的数目m1,i,统计包含单词wi的不良图像的数目m2,i,用下式计算二者的比值,以此作为逆鉴别性文档词频iddf:
iddf i = log m 1 , i m 2 , i ;
6f)计算第j幅图像中第i个单词ti的(tf-iddf)i,j值:
(tf-iddf)i,j=tfi,j×iddfi
6g)统计第j幅图像中所有单词的词频-逆鉴别性文档频率tf-iddf值,将这些值按照单词在码本中出现的顺序排列成一个有权重的共现向量dj来表示第j幅图像,所有训练图像的共现向量组成共现矩阵;
步骤7,建立隐含狄利克雷分配LDA模型:
7a)用zi=j表示将单词wi分配给主题j,分别将z1,z2,...,zC随机初始化为1到T之间的某个整数,即将单词w1,w2,...,wC随机分配给T个主题;
7b)对从1到T的每一个主题j,都利用共现向量计算其后验概率P(zi=j|z-i,wi)值,在各主题中选择使P(zi=j|z-i,wi)值最大的主题j*为zi的值,其中P(zi=j|z-i,wi)公式如下:
P ( z i = j | z - i , w i ) = n - i , j ( w i ) + β n - i , j ( g ) + Cβ · n - i , j ( d i ) + α n - i , · ( d i ) + Tα Σ j = 1 T n - i , j ( w i ) + β n - i , j ( g ) + Cβ · n - i , j ( d i ) + α n - i , · ( d i ) + Tα
式中,z-i表示所有zk(k≠i)的分配,
Figure BDA0000102509420000085
表示分配给主题j与wi相同的单词的词频-逆鉴别性文档频率tf-iddf值,
Figure BDA0000102509420000086
是分配给主题j所有单词的tf-iddf值之和,β根据经验赋值为0.01,C表示单词个数,
Figure BDA0000102509420000087
是图像di中分配给主题j的单词的tf-iddf值之和,
Figure BDA0000102509420000088
是di中所有被分配了主题的单词的tf-iddf值之和,T表示主题个数,α根据经验赋值为
Figure BDA0000102509420000091
7c)将单词wi分配记号zi的i值从1循环到C,通过步骤7b)得到各单词分配记号z1,z2,...,zC的值,完成每个单词w1,w2,...wC的主题的重新分配;
7d)重复步骤7b)-7c),当后验概率P(zi=j|z-i,wi)的值变化不大时,迭代终止,得到z1,z2,...zC最优值,从而确定单词与主题的分配关系;
7e)单词与主题的分配关系确定后,对训练集中每个图像d的主题进行参数估计,参数估计公式如下:
θ ^ j ( d ) = n j ( d ) + α n · ( d ) + Tα
其中,
Figure BDA0000102509420000093
表示对于图像d,T个主题上的多项分布,表示图像d中分配给主题j的单词个数,表示图像d中所有被分配了主题的单词个数,α根据经验赋值为
Figure BDA0000102509420000096
7f)通过步骤7e)得到每幅训练图像d的主题分布θ(d),统计每幅训练图像的混合主题分布
Figure BDA0000102509420000097
其中
Figure BDA0000102509420000098
为图像d中主题i发生的概率,T为主题的数目。
通过以上步骤7a)-7f)建立的LDA模型如图3所示。
步骤8,基于BP神经网络的分类器设计,将每幅训练图像的混合主题分布
Figure BDA0000102509420000099
及其类别标记输入BP神经网络得到分类器D。
二.图像测试阶段
步骤A,将测试图像输入双高斯混合模型,根据贝叶斯判别检测出皮肤区域。
步骤B,对步骤A处理后的皮肤区域,采用训练阶段步骤3和4中的高斯差分DoG算子检测图像皮肤区域中的显著特征点,并进一步去除非鉴别性的特征点。
步骤C,对步骤B得到的特征点进行尺度不变特征转换SIFT描述,每个特征点被表示成128维的特征向量。
步骤D,通过向量量化的方法将图像中的SIFT描述子量化为码本中的一个单词,将测试图像用词频-逆鉴别性文档频率法tf-iddf表示成单词的共现向量。
步骤E,将测试图像的共现向量输入到隐含狄利克雷分配LDA模型中,确定该图像的主题分布θ′={θ′1,θ′2,...θ′T}。
步骤F,将待测图像的主题分布θ′输入到码本训练阶段步骤8得到的BP神经网络分类器D,统计出属于待测图像的概率最大的5个主题,并结合阈值法判别该图像是否属于不良图像。

Claims (4)

1.一种基于隐含主题分析的不良图像检测方法,包括如下过程:
(1)在颜色空间YCbCr中,构建双高斯混合模型:
(1a)手动切割包含皮肤区域的图像I;
(1b)将图像I从RGB颜色空间转换到颜色空间YCbCr,其中Y表示亮度分量,Cb是蓝色色度分量,Cr是红色色度分量;
(1c)去除亮度分量Y后,在CbCr色度空间中采用高斯混合模型建立肤色模型,其高斯混合模型的概率密度函数为:
G ( x | K , ω , μ , Σ ) = Σ n = 1 K ω n N D ( x | μ n , Σ n )
其中K为高斯分量的个数,ω=(ω1,ω2,…,ωK)是K个独立高斯分量在混合模型中的权重,∑Kωn=1,∑=(∑1,∑2,…,∑K)和μ=(μ1,μ2,…,μK)分别是各个高斯分量的协方差矩阵和均值向量, N D ( x | μ n , Σ n ) = ( 2 π ) - D 2 | Σ n | - 1 2 exp { - 1 2 ( x - μ n ) T Σ n - 1 ( x - μ n ) } 是第n个高斯分量的D维正态密度函数;
利用期望最大化EM算法及最小描述长度准则MDL估计高斯混合模型的各个参数ω,μ,∑,K,建立肤色模型;
(1d)手动切割包含头发区域的图像I,重复上述步骤(1b)-(1c),建立头发区域模型;
(1e)将肤色模型与头发区域模型级联,建立双高斯混合模型;
(2)利用贝叶斯模型,剔除肤色区域中的头发区域;
(3)在肤色区域中用高斯差分算子检测图像I中的显著特征点,去除特征点集中在肤色区域边缘部分的特征点,得到有效的特征点集合V′;
(4)对特征点集合V′中的有效特征点用尺度不变特征转换SIFT描述子进行描述,将每个特征点表示成128维的特征向量f;
(5)对训练集中正常和不良图像,通过步骤(1)-(4)得到所有图像的有效特征点的SIFT描述子,对所有SIFT描述子进行cosine距离测度下的K均值聚类,得到C个聚类中心,定义每个聚类中心为一个视觉单词,得到图像的码本集合W={w1,w2,L,wC},其中,w表示视觉单词,C表示码本中视觉单词的数目;
(6)对训练集中每一幅图像有效特征点的SIFT描述子,通过向量量化的方法计算每个SIFT描述子与码本中每个视觉单词的距离,将SIFT描述子量化为与其最近的那个码本单词;
(7)根据步骤(5)得到的码本单词,统计第j幅图像中所有单词的词频-逆鉴别性文档频率tf-iddf值,将这些值按照单词在码本中出现的顺序排列成一个有权重的共现向量dj来表示第j幅图像;
(8)所有训练图像共现向量组成共现矩阵,采用基于Gibbs取样算法的LDA模型对共现向量进行LDA建模,得到训练图像的混合主题分布θ;
(9)将训练图像的混合主题分布θ及其类别标记输入BP神经网络,训练基于BP神经网络的不良图像分类器;
(10)对待测图像,根据步骤(1)-(4)得到其有效特征点的SIFT描述子,再利用步骤(6)-(7)的向量量化法及tf-iddf法,待测图像被表示成码本单词的共现向量,将共现向量输入到LDA模型得到待测图像的主题分布θ′;
(11)将待测图像的主题分布θ′输入到基于BP神经网络的不良图像分类器中,判断待测图像是否为不良图像,最终完成不良图像的检测。
2.根据权利要求1所述的不良图像检测方法,其特征在于步骤(1c)所述的利用期望最大化EM算法及最小描述长度准则MDL估计高斯混合模型的各个参数ω,μ,∑,K,其步骤如下:
(1c1)随机初始化高斯分量的个数K;
(1c2)使用期望最大化算法EM估计初始化的K值下的高斯混合模型权重ω,均值向量μ和协方差矩阵∑的参数值;
(1c3)利用距离公式d(l,m)计算高斯混合模型中每两个高斯分量的距离,选出距离最近的两个高斯分量,并将其合并为一个高斯分量,以使高斯分量的个数K减1,d(l,m)公式如下:
d ( l , m ) = N ω ‾ l 2 log ( | Σ ( l , m ) | | Σ ‾ l | ) + N ω ‾ m 2 log ( | Σ ( l , m ) | | Σ ‾ m | )
其中l,m分别表示模型中第l个和第m个高斯分量,N代表数据样本的个数,
Figure FDA0000102509410000032
分别表示第l个和第m个高斯分量的权值,
Figure FDA0000102509410000033
分别表示第l个和第m个高斯分量的协方差矩阵,∑(l,m)表示第l个和第m个高斯分量的协方差矩阵;
不断合并距离最近的两个高斯分量,得到新的K值并计算相应的最小描述长度准则MDL(K,θ),当K=1时迭代终止,挑选迭代过程中最小的MDL(K,θ)值所对应的K值作为最优值,MDL(K,θ)公式如下:
MDL ( K , θ ) = - log G x ( x | K , θ ) + 1 2 L log ( NM )
其中K表示高斯分量个数,θ=(ω,μ,∑)表示估计的参数,M表示样本中数据的维数,N代表数据样本的个数,
Figure FDA0000102509410000035
(1c4)利用最大期望算法EM估计最优K值下的参数ω,μ,∑的最优值。
3.根据权利要求1所述的不良图像检测方法,其特征在于步骤(8)所述的统计第j幅图像中所有视觉单词的词频-逆鉴别性文档频率tf-iddf值,按如下步骤进行:
(8a)统计第i个单词wi在第j幅图像中发生的频次为nij,统计第j幅图像中所有单词发生的频次为
Figure FDA0000102509410000036
根据下式计算第j幅图像中第i个单词发生的词频tfi,j
tf i , j = n i , j Σ c = 1 C n c , j ;
(8b)统计包含单词wi的正常图像的数目m1,i,统计包含单词wi的不良图像的数目m2,i,用下式计算二者的比值,以此作为逆鉴别性文档词频iddf:
iddf i = log m 1 , i m 2 , i ;
(8c)计算第j幅图像中第i个单词ti的(tf-iddf)i,j值:
(tf-iddf)i,j=tfi,j×iddfi
4.根据权利要求1所述的不良图像检测方法,其特征在于步骤(9)所述的采用基于Gibbs取样算法的LDA模型对共现向量进行LDA建模,其步骤如下:
(9a)用zi=j表示将单词wi分配给主题j,分别将z1,z2,...,zC随机初始化为1到T之间的某个整数,即将单词w1,w2,...,wC随机分配给T个主题;
(9b)对从1到T的每一个主题j,都利用共现向量计算其后验概率P(zi=j|z-i,wi)值,在各主题中选择使P(zi=j|z-i,wi)值最大的主题j*为zi的值,其中P(zi=j|z-i,wi)公式如下:
P ( z i = j | z - i , w i ) = n - i , j ( w i ) + β n - i , j ( g ) + Cβ · n - i , j ( d i ) + α n - i , · ( d i ) + Tα Σ j = 1 T n - i , j ( w i ) + β n - i , j ( g ) + Cβ · n - i , j ( d i ) + α n - i , · ( d i ) + Tα
式中,z-i表示所有zk(k≠i)的分配,
Figure FDA0000102509410000042
表示分配给主题j与wi相同的单词的tf-iddf值,
Figure FDA0000102509410000043
是分配给主题j所有单词的tf-iddf值之和,β根据经验赋值为0.01,C表示单词个数,
Figure FDA0000102509410000044
是图像di中分配给主题j的单词的tf-iddf值之和,是di中所有被分配了主题的单词的tf-iddf值之和,T表示主题个数,α根据经验赋值为
Figure FDA0000102509410000046
(9c)将单词wi分配记号zi的i值从1循环到C,通过步骤(9b)得到各单词分配记号z1,z2,...,zC的值,完成每个单词w1,w2,...wC的主题的重新分配;
(9d)重复步骤(9b)-(9c),当后验概率P(zi=j|z-i,wi)的值变化不大时,迭代终止,得到z1,z2,...zC最优值,从而确定单词与主题的分配关系;
(9e)单词与主题的分配关系确定后,对每个图像d的主题进行参数估计,参数估计公式如下:
θ ^ j ( d ) = n j ( d ) + α n · ( d ) + Tα
其中,
Figure FDA0000102509410000048
表示对于图像d,T个主题上的多项分布,
Figure FDA0000102509410000049
表示图像d中分配给主题j的单词个数,
Figure FDA0000102509410000051
表示图像d中所有被分配了主题的单词个数,α根据经验赋值为
Figure FDA0000102509410000052
(9f)通过步骤(9d)得到图像的主题分布θ,统计每幅训练图像的混合主题分布
Figure FDA0000102509410000053
其中为主题i发生的概率,T为主题的数目。
CN 201110329875 2011-10-26 2011-10-26 基于隐含主题分析的不良图像检测方法 Expired - Fee Related CN102360435B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110329875 CN102360435B (zh) 2011-10-26 2011-10-26 基于隐含主题分析的不良图像检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110329875 CN102360435B (zh) 2011-10-26 2011-10-26 基于隐含主题分析的不良图像检测方法

Publications (2)

Publication Number Publication Date
CN102360435A true CN102360435A (zh) 2012-02-22
CN102360435B CN102360435B (zh) 2013-06-12

Family

ID=45585762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110329875 Expired - Fee Related CN102360435B (zh) 2011-10-26 2011-10-26 基于隐含主题分析的不良图像检测方法

Country Status (1)

Country Link
CN (1) CN102360435B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855492A (zh) * 2012-07-27 2013-01-02 中南大学 基于矿物浮选泡沫图像的分类方法
CN102968623A (zh) * 2012-12-07 2013-03-13 上海电机学院 肤色检测***及方法
CN103295031A (zh) * 2013-04-15 2013-09-11 浙江大学 一种基于正则风险最小化的图像目标计数方法
CN103440644A (zh) * 2013-08-08 2013-12-11 中山大学 一种基于最小描述长度的多尺度图像弱边缘检测方法
CN103559510A (zh) * 2013-11-12 2014-02-05 中国科学院自动化研究所 一种利用相关主题模型识别社会群体行为的方法
CN103870563A (zh) * 2014-03-07 2014-06-18 北京奇虎科技有限公司 确定给定文本的主题分布的方法和装置
CN104134059A (zh) * 2014-07-25 2014-11-05 西安电子科技大学 保持颜色信息的形变敏感器官模型下的不良图像检测方法
CN104318562A (zh) * 2014-10-22 2015-01-28 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
WO2015135493A1 (zh) * 2014-03-13 2015-09-17 中兴通讯股份有限公司 一种局部特征描述子压缩方法、装置及存储介质
CN107273863A (zh) * 2017-06-21 2017-10-20 天津师范大学 一种基于语义笔画池化的场景文字识别方法
CN107480684A (zh) * 2017-08-24 2017-12-15 成都澳海川科技有限公司 图像处理方法及装置
CN107968951A (zh) * 2017-12-06 2018-04-27 任明和 对直播视频进行自动侦测和屏蔽的方法
CN108960042A (zh) * 2018-05-17 2018-12-07 新疆医科大学第附属医院 视觉显著性与sift特征的棘球绦虫原头蚴存活率检测方法
CN109344857A (zh) * 2018-08-14 2019-02-15 重庆邂智科技有限公司 文本相似性度量方法、装置、终端及存储介质
CN109583502A (zh) * 2018-11-30 2019-04-05 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN110956195A (zh) * 2019-10-11 2020-04-03 平安科技(深圳)有限公司 图像匹配方法、装置、计算机设备及存储介质
CN111612102A (zh) * 2020-06-05 2020-09-01 华侨大学 基于局部特征选择的卫星影像数据聚类方法、装置及设备
CN112446228A (zh) * 2019-08-27 2021-03-05 北京易真学思教育科技有限公司 视频检测方法、装置、电子设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050014560A1 (en) * 2003-05-19 2005-01-20 Yacob Blumenthal Method and system for simulating interaction with a pictorial representation of a model
CN1704966A (zh) * 2004-05-28 2005-12-07 中国科学院计算技术研究所 一种色情图像检测方法
CN101996314A (zh) * 2009-08-26 2011-03-30 厦门市美亚柏科信息股份有限公司 一种基于内容的人体上半身敏感图像识别方法及其装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050014560A1 (en) * 2003-05-19 2005-01-20 Yacob Blumenthal Method and system for simulating interaction with a pictorial representation of a model
CN1704966A (zh) * 2004-05-28 2005-12-07 中国科学院计算技术研究所 一种色情图像检测方法
CN101996314A (zh) * 2009-08-26 2011-03-30 厦门市美亚柏科信息股份有限公司 一种基于内容的人体上半身敏感图像识别方法及其装置

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855492B (zh) * 2012-07-27 2015-02-04 中南大学 基于矿物浮选泡沫图像的分类方法
CN102855492A (zh) * 2012-07-27 2013-01-02 中南大学 基于矿物浮选泡沫图像的分类方法
CN102968623A (zh) * 2012-12-07 2013-03-13 上海电机学院 肤色检测***及方法
CN102968623B (zh) * 2012-12-07 2015-12-23 上海电机学院 肤色检测***及方法
CN103295031B (zh) * 2013-04-15 2016-12-28 浙江大学 一种基于正则风险最小化的图像目标计数方法
CN103295031A (zh) * 2013-04-15 2013-09-11 浙江大学 一种基于正则风险最小化的图像目标计数方法
CN103440644A (zh) * 2013-08-08 2013-12-11 中山大学 一种基于最小描述长度的多尺度图像弱边缘检测方法
CN103440644B (zh) * 2013-08-08 2016-09-07 中山大学 一种基于最小描述长度的多尺度图像弱边缘检测方法
CN103559510A (zh) * 2013-11-12 2014-02-05 中国科学院自动化研究所 一种利用相关主题模型识别社会群体行为的方法
CN103559510B (zh) * 2013-11-12 2017-01-18 中国科学院自动化研究所 一种利用相关主题模型识别社会群体行为的方法
CN103870563A (zh) * 2014-03-07 2014-06-18 北京奇虎科技有限公司 确定给定文本的主题分布的方法和装置
CN103870563B (zh) * 2014-03-07 2017-03-29 北京奇虎科技有限公司 确定给定文本的主题分布的方法和装置
WO2015135493A1 (zh) * 2014-03-13 2015-09-17 中兴通讯股份有限公司 一种局部特征描述子压缩方法、装置及存储介质
CN104134059A (zh) * 2014-07-25 2014-11-05 西安电子科技大学 保持颜色信息的形变敏感器官模型下的不良图像检测方法
CN104134059B (zh) * 2014-07-25 2017-07-14 西安电子科技大学 保持颜色信息的混合形变模型下的不良图像检测方法
CN104318562A (zh) * 2014-10-22 2015-01-28 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
CN104318562B (zh) * 2014-10-22 2018-02-23 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
CN107273863A (zh) * 2017-06-21 2017-10-20 天津师范大学 一种基于语义笔画池化的场景文字识别方法
CN107273863B (zh) * 2017-06-21 2019-07-23 天津师范大学 一种基于语义笔画池化的场景文字识别方法
CN107480684A (zh) * 2017-08-24 2017-12-15 成都澳海川科技有限公司 图像处理方法及装置
CN107480684B (zh) * 2017-08-24 2020-06-05 成都澳海川科技有限公司 图像处理方法及装置
CN107968951A (zh) * 2017-12-06 2018-04-27 任明和 对直播视频进行自动侦测和屏蔽的方法
CN108960042B (zh) * 2018-05-17 2021-06-08 新疆医科大学第一附属医院 视觉显著性与sift特征的棘球绦虫原头蚴存活率检测方法
CN108960042A (zh) * 2018-05-17 2018-12-07 新疆医科大学第附属医院 视觉显著性与sift特征的棘球绦虫原头蚴存活率检测方法
CN109344857A (zh) * 2018-08-14 2019-02-15 重庆邂智科技有限公司 文本相似性度量方法、装置、终端及存储介质
CN109344857B (zh) * 2018-08-14 2022-05-13 重庆邂智科技有限公司 文本相似性度量方法、装置、终端及存储介质
CN109583502A (zh) * 2018-11-30 2019-04-05 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN109583502B (zh) * 2018-11-30 2022-11-18 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN112446228A (zh) * 2019-08-27 2021-03-05 北京易真学思教育科技有限公司 视频检测方法、装置、电子设备及计算机存储介质
WO2021068524A1 (zh) * 2019-10-11 2021-04-15 平安科技(深圳)有限公司 图像匹配方法、装置、计算机设备及存储介质
CN110956195A (zh) * 2019-10-11 2020-04-03 平安科技(深圳)有限公司 图像匹配方法、装置、计算机设备及存储介质
CN110956195B (zh) * 2019-10-11 2023-06-02 平安科技(深圳)有限公司 图像匹配方法、装置、计算机设备及存储介质
CN111612102A (zh) * 2020-06-05 2020-09-01 华侨大学 基于局部特征选择的卫星影像数据聚类方法、装置及设备
CN111612102B (zh) * 2020-06-05 2023-02-07 华侨大学 基于局部特征选择的卫星影像数据聚类方法、装置及设备

Also Published As

Publication number Publication date
CN102360435B (zh) 2013-06-12

Similar Documents

Publication Publication Date Title
CN102360435A (zh) 基于隐含主题分析的不良图像检测方法
JP4273359B2 (ja) 年齢推定システム及び年齢推定方法
CN107247947A (zh) 人脸属性识别方法及装置
CN106355138A (zh) 基于深度学习和关键点特征提取的人脸识别方法
Schmid et al. Performance analysis of iris-based identification system at the matching score level
CN102129568B (zh) 利用改进的高斯混合模型分类器检测图像垃圾邮件的方法
CN101971190A (zh) 实时身体分割***
CN101661559A (zh) 一种数字图像训练和检测方法
Faraki et al. Approximate infinite-dimensional region covariance descriptors for image classification
Belaïd et al. Handwritten and printed text separation in real document
CN115186303B (zh) 一种基于大数据云平台的金融签章安全管理方法及***
WO2013075295A1 (zh) 低分辨率视频的服装识别方法及***
Funk et al. Symmetry recaptcha
Van et al. Kinship verification based on local binary pattern features coding in different color space
CN108154172A (zh) 基于三支决策的图像识别方法
Hirota et al. Model-agnostic gender debiased image captioning
Raghavendra et al. Multimodal biometric score fusion using gaussian mixture model and Monte Carlo method
Lue et al. A novel character segmentation method for text images captured by cameras
Kavitha et al. A robust script identification system for historical Indian document images
Wang et al. Automatic nipple detection using shape and statistical skin color information
Piekarczyk et al. Hierarchical Graph-Grammar Model for Secure and Efficient Handwritten Signatures Classification.
Feng et al. Non-motor vehicle illegal behavior discrimination and license plate detection based on real-time video
KR101851823B1 (ko) 영상 이미지에서 신장 대비 머리 높이의 비를 이용하여 어린이와 성인을 구분하는 방법
CN106372647A (zh) 一种基于韦伯局部二值计数的图像纹理分类方法
Pei et al. Automatic text detection using multi-layer color quantization in complex color images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130612

Termination date: 20181026