CN104636758B - 一种基于支持向量回归的sar图像适配性预测方法 - Google Patents
一种基于支持向量回归的sar图像适配性预测方法 Download PDFInfo
- Publication number
- CN104636758B CN104636758B CN201510075677.6A CN201510075677A CN104636758B CN 104636758 B CN104636758 B CN 104636758B CN 201510075677 A CN201510075677 A CN 201510075677A CN 104636758 B CN104636758 B CN 104636758B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mtd
- sample
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于支持向量回归的雷达图像适配性预测方法。所述方法包括:学习阶段,提取SAR图像多维特征构成学习集;对学习集样本特征预处理后,将其分为学习集L1、L2,然后用学习集L1训练支持向量机,并用得到的SVM模型对学习集L2进行分类,根据分类正确率、样本特征和类心之间的距离计算各样本的适配率;之后利用学习集特征及其相应的适配率,拟合回归得到适配性预测函数模型;预测阶段,对待评估的SAR图像,提取对应特征作为测试样本数据,数据预处理后输入适配性预测函数模型,计算出该图像的适配率。本发明根据SAR图像的强度及纹理结构特征,建立起SAR图像适配率和特征信息之间的函数关系,通过实验验证了该方法能准确评估SAR图像的匹配性能。
Description
技术领域
本发明属于机器学习、模式识别、匹配模板技术领域,具体涉及一种基于支持向量回归的合成孔径雷达(Synthetic Aperture Radar,SAR)图像适配性预测方法,该方法在考虑SAR成像特性以及强度结构纹理特征的基础上,实现了对SAR图像的适配性能预测,通过本方法得到的适配性能预测结果准确有效。
背景技术
SAR景象匹配子区的选择是景象匹配的核心技术,主要是对SAR景象匹配区域的匹配定位性能(即适配性)进行分析、评估、预测,从而确定所选匹配子区是否适合匹配。目前为止,匹配区的选择尚无成熟方案,大部分任务是通过人工完成的,通常难以进行科学的分析,人工估计所选匹配子区的适配性能,很难满足实际应用的需求。并且目前为止,还没有一种对匹配区选取作出定量的、概率预测的方法。
在匹配子区的选择上,国内外学者进行了大量的研究,提出的主要方法有运用景象匹配子区的相似性、相关长度、灰度方差、互相关峰值特征、信息熵、纹理能量比、和多分辨率自相似测度等图像描述的特征参数来选择景象匹配子区。但是这些方法仅考虑单个因素对匹配性能的影响而在实验时将其它指标固定,缺少考虑这些因素的相关性,导致了景象匹配子区选择准则适应性不强,抗干扰性差。
在现有公开的文献中,关于SAR图像适配性能预测的方法尚未形成成熟的解决方案,并在工程实践中应用,也没有对SAR图像适配性作出定量的、概率预测的方案。
发明内容
本发明针对SAR景象匹配***中对SAR图像适配性能评估问题,提出一种基于支持向量回归机的SAR图像适配性能预测方法,具体包括:
(1)提取SAR训练图像的明暗目标密度和结构显著强度特征,由特征集合和给定的正负类别属性构成每个SAR图像对应的样本信息,所有SAR训练图像对应的样本信息构成学习集;
(2)将学习样本特征数据进行预处理,即对学习集中样本集数据的每两维特征去除耦合关系,并对并对去除耦合关系后的特征按维度归一化;
(3)将数据预处理后的学习集分为学习集L1和学习集L2,使用学习集L1中的样本训练支持向量机,得到正/负两类属性样本的SVM分类器模型、以及正/负两类样本特征的高斯分布特性;用学习集L2样本测试分类器性能,统计每个样本通过SVM分类器模型分类之后的类别属性,根据给定的正负类别属性信息,计算学习集L1中正/负样本类心特征属于正/负样本的概率P+、P-;
(4)利用学习集L1正/负样本类心特征和其对应的属于正/负样本的概率、以及学习集中L1正/负两类样本每个维度特征的高斯分布特性,得到学习集各个样本每维特征属于正/负样本概率的映射关系,由此计算出每个学习集L2样本各个维度特征属于正/负类别的概率pj +、pj -,继而计算出学习集L2样本各个维度特征的适配率pj_match;
(5)通过控制变量法和对应的SVM模型分类学习集L2的分类正确率P(j,k),计算学习集L2各个维度特征对适配性的灵敏度;
(6)根据步骤(4)得到的学习集L2各个维度特征适配率和步骤(5)得到的学习集L2样本各个维度特征的灵敏度,计算得到学习集L2样本适配率;学习集L2样本适配率和其各个维度特征信息构成学习集L2的新的样本信息;
(7)由步骤(5)得到的学习集L2新的样本信息,拟合回归得到图像适配性预测函数模型;
(8)对于待评估SAR图像,依照步骤(1)(2)的方法,提取SAR图像的各个维度特征信息并且进行数据预处理,处理后的数据通过步骤(7)的样本适配性预测模型预测出待评估SAR图像的适配率。
与现有技术相比,本发明的技术效果体现在:
在现有技术中,关于SAR图像匹配性能评估的方法尚未形成成熟的解决方案,大部分任务是通过人工完成的,通常难以进行科学的分析,人工估计所选匹配子区的匹配性能,很难满足实际应用的需求。本发明利用训练得到支撑向量回归机模型,建立起SAR图像的适配率和特征信息之间的函数关系,预测出了SAR子区适配性能,并且将领域拓展到概率预测,使得结果更加精确。克服了人工主观评估筛选子区的缺陷,提高了稳定性,改善了筛选的SAR匹配子区的质量。
本发明提供了一种基于支持向量回归机的SAR图像匹配性能评估方法,该方法对SAR图像提取特征,训练支撑向量机模型,再用支撑向量机分类学习样本,根据分类结果、样本高斯分布特性得到各样本的适配率,之后利用具有适配率的样本数据训练支撑向量回归机,拟合出回归预测函数模型;最后,利用函数模型评估待评估SAR图像,得到适配率。本发明根据SAR成像特性和子区结构强度纹理特征,综合使用了多种机器学习和模式识别方法,实现了对SAR图像的适配性预测,形成一套***的SAR图像适配性预测方法,并将匹配区选取的领域拓展到概率预测,有效地改进了基于人工筛选的方法,提高了筛选SAR匹配子区的准确性,对SAR匹配子区选取的研究发展具有重大意义。
附图说明
图1为本发明基于SVM的SAR图像适配性方法的总体流程图;
图2为本发明实施例中部分SAR图像;
图3为本发明实施例中部分待评估SAR图像;
图4为本发明实施例中预测的SAR图像适配概率预测结果图;
图5本发明实施例中预测的适配率与对应SAR图像验证结果图,其中:
图5(a)为匹配性能差的SAR图像及预测的适配率(0≤p<0.4);
图5(b)为匹配性能适中的SAR图像及预测的适配率(0.4≤p<0.7);
图5(c)为匹配性能强的SAR图像及预测的适配率(0.7≤p≤1)。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明提供了一种基于支持向量回归机的SAR图像适配性预测方法,其总体流程如图1所示,该方法具体过程为:
1学习阶段
1.1数据准备阶段
提取SAR图像的均匀度、散度、明暗目标密度、结构显著强度等强度及纹理结构多维特征,以及标定SAR图像与实时图匹配结果作为类别属性,多维特征和类别属性作为每个SAR图像对应的样本信息,所有SAR图像对应的样本构成样本集。本发明选取明暗目标密度和结构显著强度这两维特征和类别属性作为样本信息。
1.1.1特征提取
如图1所示,为本发明实施例中部分SAR训练样本图像。提取每幅SAR图像的散度,均匀度,明暗目标密度、结构显著强度等多维特征信息;
均匀度r:
其中,其中μ是灰度均值,σ是灰度标准差。
散度div:
其中,σ1分别表示灰度值小于SAR图像灰度均值μ的像素集合的标准差。相应地,σ2表示灰度值大于SAR图像灰度均值μ的像素集合的标准差。
明暗目标密度:明暗目标像素点所占的比例,明目标像素点表示灰度值大于SAR图像全图灰度值2/3的点,暗目标像素点表示灰度值小于SAR图像全图灰度值1/3的点。
结构显著强度:对雷达图像进行二值边缘提取,并且利用连通域标记法,去掉少像数连通域标记的噪声后,标记像素总数与图像宽高宽均值的比值。
本发明通过实验最后选取明暗目标密度和结构显著强度这两维特征。
1.1.2正负类别属性
根据SAR图像和实时图匹配的结果标记每个样本的类别属性,若适合匹配,则标记为+1,为适配区样本;若不适合匹配,则标记为-1,为非适配区样本。
提取SAR图像的明暗目标密度、结构显著强度这两维特征信息和正负类别属性作为每个图像对应的样本信息,所有SAR图像对应的样本构成样本集。
1.2数据预处理
对样本集特征数据进行数据预处理,即对样本集特征数据的每两维特征去除耦合关系,并按维度特征归一化;
1.2.1去耦合关系
分析样本空间的每两维特征间的关系分布,可以看出每两维特征间的线性关系不明显,可以认为是非线性相关的。我们使用Schmidt正交化处理,去除特征间的耦合关系。这里用特征矩阵Z={Z1,Z2,...,Zm}表示样本集的m维特征。
如果向量Z1,Z2,...,Zm线性无关,基准向量为b0=(1,0,...,0)T,令
则b1,b2,…,bm两两正交,成为正交向量组,将其单位化得矩阵X,其中X={X1,X2,…,Xm};
则称从矩阵Z到矩阵X的过程为Schmidt正交化。原始数据经过上述基于Schmidt正交化的处理之后,可以去除样本各维特征间的耦合关系,并且具有相同的基准向量,便于后面关于考虑某一维特征的变化对匹配正确率的影响。
1.2.2各维度特征归一化
设去耦合后,n个样本的m维特征集表示为:
上式中,xij表示第i个样本的第j维特征向量值,将样本按维度归一化,设样本i第j维特征xij归一化后为yij,则x→y的映射关系如下:
[ymin,ymax]为设定的归一化区间,xmax=max(x1j,x2j,…xnj)T,xmin=min(x1j,x2j,…xnj)T。
则归一化后的样本集特征矩阵为
上式中,ynm表示归一化后第n个样本的第m维特征向量值,本发明归一化之后,所有数据均在[0,1]范围内。
1.3各维度特征属于正/负样本的概率
1.3.1训练支撑向量机
由于样本之间的差异性,将处理后的样本集数据分为学习集L1和学习集L2,使用学习集L1样本训练支持向量机(Support Vector Machine,SVM),对SVM中高斯核函数c和惩罚系数g进行参数优化,选取最佳的参数c和g,训练出SVM模型。用学习集L2样本测试分类器性能,统计通过得到的SVM分类器模型分类之后的类别属性,参照给定的正负类别属性信息,得到正/负两类的分类正确率,即为学习集L1正/负样本类心特征属于正/负样本概率P+、P-。
设学习集L2带正属性样本的数量为n1,带负属性样本的数量为n2,经学习集L1训练的SVM分类器分类后,有k1个正属性样本被分为负样本,有k2个负属性样本被分为正样本,定义学习集L1正样本类心的特征向量为学习集L1负样本类心的特征为其中,xi +、xi -分别为学习集L1正负样本的特征,则学习集L1正/负样本类心特征属于正负样本概率P+、P-为:
1.3.2 L2样本每一维特征属于正样本的概率pj +
设学习集L1正属性样本类心的均值特征为对应的属于正样本概率为P+,其中xi +=(xi1,xi2,…xij)为正样本,样本特征服从高斯分布x+~N(μ+,σ+2)。假定学习集样本特征和其属于正样本的概率呈映射关系,根据正样本高斯分布,可得L2样本第j维特征属于正样本概率pj +为:
其中,为正样本第j维特征的均值,为正样本第j维特征的方差,C1、C2为线性系数;
当x=μj时,对应的是正类类心属于正样本的概率P+;
当x=+∞时,此时属于正样本的概率最高,认为此时为1;
当x=-∞时,此时属于正样本的概率最低,认为此时为0。
将此函数以x=μj分段,带入上式得
1.3.3 L2样本每一维特征属于负样本的概率
同理如1.3.2,设学习集L1负属性样本类心的特征为对应的属于负样本概率为P-,其中xi -=(xi1,xi2,…xij)为负样本,样本特征服从高斯分布x-~N(μ-,σ-2)。假定学习集样本特征和其属于负样本的概率呈映射关系,根据负样本高斯分布,可得到学习集L2样本第j维特征属于负样本的概率为
其中,为负样本第j维特征的类心,为负样本第j维特征的方差,C1'、C2'为线性系数;
当x=μ-时,对应的是负类类心属于负样本的概率P-;
当x=-∞时,此时属于负样本的概率最高,认为此时为1;
当x=+∞时,此时属于负样本的概率最低,认为此时为0。
将此函数以分段,带入上式
1.3.4 L2样本每一维特征的适配率pj:
通过本步骤得到L2样本第j维特征属于正/负样本的概率Pj +、Pj -,以及L2样本每一维特征的适配率pj_match。
1.4各维度特征的灵敏度
通过控制变量法和对应的SVM模型分类学习集L2的分类正确率P(j,k),计算学习集L2样本各个维度特征对适配性的灵敏度;
考虑不同样本特征对匹配性能的作用不同,我们引入“灵敏度”的概念,具体如下:
改变学习集L2样本矩阵第j维特征向量xj,同时控制其余m-1维特征向量不变,当xj=(k,k,k,…k)T,其样本矩阵为
k依次从0,0.1,0.2…1.0变化,将样本矩阵预处理后,用之前的SVM训练模型对X'分类,得到正确分类样本个数为n(j,k),设总的样本数为n,则此时的分类正确率记录其分类正确率的最大值Pjmax与最小值Pjmin:
Pjmax=max{P(j,k)|k=0,0.1,...,1.0}
Pjmin=min{P(j,k)|k=0,0.1,...,1.0}
m个维度归一化之后的数值,作为其对应维度特征适配率的灵敏度,即最终适配率的的贡献正确率或者权值。
其中,Wj为第j维特征向量对应的权值。
1.5计算样本i的适配率
根据步骤1.3得到的学习集L2样本各个维度特征向量属于正/负样本的概率和步骤1.4得到的学习集L2样本各个维度特征向量的灵敏度,计算得到学习集L2每个样本的适配率,且学习集L2样本的适配率和其各个维度特征信息构成新的学习集L2样本信息;
则最终得到的学习集L2中样本的匹配正确率为
a+b=1
其中,m表示样本特征向量的维数,Wj表示样本匹配性能对第j维特征向量的灵敏度,Pj +表示样本j维特征向量属于正样本的概率,Pj -表示样本第j维特征向量属于负样本的概率,当Pj +→1时,Pj -→0;当Pj +→0时,Pj -→1;计算可得a=0.5,b=0.5,则
1.6回归函数模型
由步骤1.5得到的新的学习集L2样本集信息,拟合回归得到图像适配性预测函数模型。
对于学习集样本,我们利用学习集L2每个样本的特征xi和步骤1.5计算得到的适配率Pi组成新的学习集L2样本,样本点属性信息可以表示为(xi,Pi)。使用步骤1.3.1的方法对SVM参数c和g进行参数寻优,选取使SVM分类器分类性能最佳时的参数c和g。这里使用台湾林智仁教授的libsvm库函数来辅助实现样本适配率预测模型的建立,利用前面得到的新的学习集L2样本训练SVM分类器模型,即可以得到学习集L2样本的适配性预测模型F(x)。
我们用平均平方误差(mean squared error,MSE)和平方相关系数(squaredcorrelation coefficient,r2)来验证预测模型的性能。
其中,yi表示训练样本i的输入适配率,f(xi)表示训练样本i预测的适配率,l表示训练样本数目。
2预测阶段
利用回归函数模型预测待评估SAR子图像适配率。
如图3所示,为本发明实施例中部分待评估SAR图像,对于待评估SAR图像,依照学习阶段步骤1.1的方法,提取提取SAR训练图像的明暗目标密度和结构显著强度特征,再按照步骤1.2的方法进行数据预处理,处理后的数据通过步骤1.6的样本适配率回归预测模型预测出待评估SAR图像的适配率,即:
PMatchProbability=F(x1,x2,…,xm)
其中,PMatchProbability表示样本的适配率,xm表示样本的第m维特征。
如图4所示,为本发明实施例中待评估SAR图像的适配率预测结果,其中样本1~12为匹配性能差(0≤p<0.4)的SAR图像;样本13~20为匹配性适中(0.4≤p<0.7)的SAR图像;样本21~31为匹配性强(0.7≤p≤1)的SAR图像。图5为本发明实施例中预测的适配率与对应SAR图像验证结果,其中图5(a)为匹配性能差的SAR图像及预测的适配率(0≤p<0.4),即样本1~12的适配率与对应SAR图像验证结果,图5(b)为匹配性能适中的SAR图像及预测的适配率(0.4≤p<0.7),即样本13~20的适配率与对应SAR图像验证结果,图5(c)为匹配性能强的SAR图像及预测的适配率(0.7≤p≤1),即样本21~31的适配率与对应SAR图像验证结果。
Claims (8)
1.一种基于支持向量回归的SAR图像适配性预测方法,其特征在于,所述方法包括:
(1)提取SAR训练图像的明暗目标密度和结构显著强度特征,由特征集合和给定的正负类别属性构成每个SAR图像对应的样本信息,所有SAR训练图像对应的样本信息构成学习集;
(2)将学习集中的特征数据进行预处理,即对学习集中的特征数据的每两维特征去除耦合关系,并对去除耦合关系后的特征按维度特征归一化;
(3)将数据预处理后的学习集分为学习集L1和学习集L2,使用学习集L1中的样本训练支持向量机,得到正/负两类属性样本的SVM分类器模型、以及正/负两类样本特征的高斯分布特性;用学习集L2样本测试分类器性能,统计每个样本通过SVM分类器模型分类之后的类别属性,根据给定的正负类别属性信息,计算学习集L1中正/负样本类心特征属于正/负样本的概率P+、P-;
(4)利用学习集L1正/负样本类心特征和其对应的属于正/负样本的概率、以及学习集L1中正/负两类样本每个维度特征的高斯分布特性,得到学习集各个样本每维特征属于正/负样本概率的映射关系,由此计算出每个学习集L2样本各个维度特征属于正/负类别的概率pj +、pj -,继而计算出学习集L2样本中各个维度特征的适配率pj_match,其中,j表示特征向量的维数序号,其取值为1至m,m表示样本特征向量的维数;
(5)通过控制变量法和对应的SVM模型分类学习集L2的分类正确率P(j,k),计算学习集L2各个维度特征对适配性的灵敏度,其中,k表示第j维特征向量中各个元素的值,k依次从0,0.1,0.2…1.0变化;
(6)根据步骤(4)得到的学习集L2各个维度特征适配率和步骤(5)得到的学习集L2样本各个维度特征的灵敏度,计算得到学习集L2样本的适配率;学习集L2样本适配率和其各个维度特征信息构成学习集L2新的样本信息;
(7)由步骤(6)得到的新的学习集L2样本信息,拟合回归得到图像适配性预测函数模型;
(8)对于待评估SAR图像,依照步骤(1)(2)的方法,提取待评估SAR图像对应的特征并且进行数据预处理,处理后的数据通过步骤(7)的适配性预测模型预测出待评估SAR图像的适配率。
2.如权利要求1所述的方法,其特征在于,所述步骤(2)中对学习集中的特征数据的每两维特征去除耦合关系具体为:
设特征矩阵Z={Z1,Z2,...,Zm}表示学习集的m维特征,基准向量为b0=(1,0,...,0)T,令
<mrow>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<msub>
<mi>Z</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>=</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
</mrow>
...
<mrow>
<msub>
<mi>b</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<msub>
<mi>Z</mi>
<mi>m</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<mo>...</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>Z</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mfrac>
<msub>
<mi>b</mi>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
则b1,b2,…,bm两两正交,成为正交向量组,将其单位化得矩阵X,其中X={X1,X2,…,Xm},n为总的样本数;
<mrow>
<mi>X</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>11</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>12</mn>
</msub>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mn>1</mn>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>21</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>22</mn>
</msub>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mn>2</mn>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mn>1</mn>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mn>2</mn>
</mrow>
</msub>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>X</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>X</mi>
<mn>2</mn>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mrow>
<msub>
<mi>X</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>b</mi>
<mi>m</mi>
</msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>b</mi>
<mi>m</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>.</mo>
</mrow>
。
3.如权利要求1或2所述的方法,其特征在于,所述步骤(2)中对去除耦合关系后的特征按维度特征归一化具体为:
设样本i第j维特征xij归一化后为yij,则x→y的映射关系如下:
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>min</mi>
</msub>
<mo>)</mo>
</mrow>
<mfrac>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>min</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>min</mi>
</msub>
</mrow>
</mfrac>
<mo>+</mo>
<msub>
<mi>y</mi>
<mi>min</mi>
</msub>
</mrow>
[ymin,ymax]为设定的归一化区间,xmax=max(x1j,x2j,…xnj)T,xmin=min(x1j,x2j,…xnj)T;
则归一化后的样本集特征矩阵为
<mrow>
<mi>Y</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mn>11</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>12</mn>
</msub>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mrow>
<mn>1</mn>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mn>21</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>22</mn>
</msub>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mrow>
<mn>2</mn>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mrow>
<mi>n</mi>
<mn>1</mn>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mrow>
<mi>n</mi>
<mn>2</mn>
</mrow>
</msub>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mrow>
<mi>n</mi>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,ynm表示归一化后第n个样本的第m维特征向量值。
4.如权利要求1或2所述的方法,其特征在于,所述步骤(3)中计算学习集L1正/负样本类心特征属于正负样本的概率P+、P-,具体为:
设学习集L2带正属性样本的数量为n1,带负属性样本的数量为n2,经学习集L1训练的SVM分类器分类后,有k1个正属性样本被分为负样本,有k2个负属性样本被分为正样本,定义学习集L1正样本类心的特征为n表示总的样本数,学习集L1负样本类心的特征为其中,xi +、xi -分别为学习集L1正负样本的特征,则学习集L1正/负样本类心特征属于正负样本概率P+、P-为:
<mrow>
<msub>
<mi>P</mi>
<mo>+</mo>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>n</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>k</mi>
<mn>1</mn>
</msub>
</mrow>
<msub>
<mi>n</mi>
<mn>1</mn>
</msub>
</mfrac>
</mrow>
<mrow>
<msub>
<mi>P</mi>
<mo>-</mo>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>n</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>k</mi>
<mn>2</mn>
</msub>
</mrow>
<msub>
<mi>n</mi>
<mn>2</mn>
</msub>
</mfrac>
<mo>.</mo>
</mrow>
5.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中按照如下方式得到学习集L2样本各个维度特征的适配率:
(4.1)L2样本每一维特征属于正样本的概率pj +;
设L1正属性样本类心的均值特征为对应的属于正样本概率为P+,其中xi +=(xi1,xi2,…xij)为正样本,样本特征服从高斯分布x+~N(μ+,σ+2);假定学习集样本特征和其属于正样本的概率呈映射关系,根据正样本高斯分布,可得L2样本第j维特征属于正样本概率pj +为:
<mrow>
<msup>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
</msup>
<mo>=</mo>
<msub>
<mi>C</mi>
<mn>1</mn>
</msub>
<mo>*</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
</mrow>
</mfrac>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>&infin;</mi>
</mrow>
<mi>x</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mrow>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>C</mi>
<mn>2</mn>
</msub>
</mrow>
其中,为正样本第j维特征的均值,为正样本第j维特征的方差,C1、C2为线性系数;
当x=μj时,对应的是正类类心属于正样本的概率P+;
当x=+∞时,此时属于正样本的概率最高,认为此时为1;
当x=-∞时,此时属于正样本的概率最低,认为此时为0;
将此函数以x=μj分段,带入上式得
<mrow>
<msup>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
</msup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<msub>
<mi>P</mi>
<mo>+</mo>
</msub>
<mo>*</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
</mrow>
</mfrac>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>&infin;</mi>
</mrow>
<mi>x</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mrow>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>&le;</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<mo>*</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>P</mi>
<mo>+</mo>
</msub>
<mo>)</mo>
</mrow>
<mfrac>
<mn>1</mn>
<mrow>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
</mrow>
</mfrac>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>&infin;</mi>
</mrow>
<mi>x</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mrow>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
<mo>+</mo>
<mn>2</mn>
<msub>
<mi>P</mi>
<mo>+</mo>
</msub>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>&GreaterEqual;</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
(4.2)L2样本每一维特征属于负样本的概率
设L1负属性样本类心的特征为对应的属于负样本概率为P-,其中xi -=(xi1,xi2,…xij)为负样本,样本特征服从高斯分布x-~N(μ-,σ -2);假定学习集样本特征和其属于负样本的概率呈映射关系,根据负样本高斯分布,可得到L2样本第j维特征属于负样本的概率为:
<mrow>
<msubsup>
<mi>p</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
<mo>=</mo>
<msup>
<msub>
<mi>C</mi>
<mn>1</mn>
</msub>
<mo>&prime;</mo>
</msup>
<mo>*</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
</mfrac>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>&infin;</mi>
</mrow>
<mi>x</mi>
</msubsup>
<mi>exp</mi>
<mo>(</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msup>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
<mi>d</mi>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msup>
<msub>
<mi>C</mi>
<mn>2</mn>
</msub>
<mo>&prime;</mo>
</msup>
</mrow>
其中,为负样本第j维特征的均值,为负样本第j维特征的方差,C1'、C2'为线性系数;
当x=μ-时,对应的是负类类心属于负样本的概率P-;
当x=-∞时,此时属于负样本的概率最高,认为此时为1;
当x=+∞时,此时属于负样本的概率最低,认为此时为0;
将此函数以分段,带入上式
<mrow>
<msup>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
</msup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<mo>*</mo>
<mrow>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>P</mi>
<mo>-</mo>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mrow>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
</mfrac>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>&infin;</mi>
</mrow>
<mi>x</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mrow>
<mo>-</mo>
<mn>2</mn>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mn>2</mn>
<msub>
<mi>P</mi>
<mo>-</mo>
</msub>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>&le;</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<msub>
<mi>P</mi>
<mo>-</mo>
</msub>
<mo>*</mo>
<mrow>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
</mfrac>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>&infin;</mi>
</mrow>
<mi>x</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>j</mi>
<mrow>
<mo>-</mo>
<mn>2</mn>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>&GreaterEqual;</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
(4.3)L2样本每一维特征的适配率pj:
<mrow>
<msub>
<mi>p</mi>
<mrow>
<mi>j</mi>
<mo>_</mo>
<mi>m</mi>
<mi>a</mi>
<mi>t</mi>
<mi>c</mi>
<mi>h</mi>
</mrow>
</msub>
<mo>=</mo>
<msubsup>
<mi>p</mi>
<mi>j</mi>
<mo>+</mo>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>p</mi>
<mi>j</mi>
<mo>-</mo>
</msubsup>
</mrow>
通过本步骤得到L2样本第j维特征属于正/负样本的概率Pj +、Pj -、以及L2样本每一维特征的适配率Pj_match。
6.如权利要求1或2所述的方法,其特征在于,所述步骤(5)按照如下方式,计算得到学习集L2样本各个维度特征对适配性的灵敏度:
改变学习集L2样本矩阵第j维特征向量xj,同时控制其余m-1维特征向量不变,当xj=(k,k,k,…k)T,k依次从0,0.1,0.2…1.0变化,其样本矩阵为
<mrow>
<msup>
<mi>X</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>11</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>12</mn>
</msub>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mi>k</mi>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mn>1</mn>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>21</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>22</mn>
</msub>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mi>k</mi>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mn>2</mn>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mtable>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
</mtable>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
</mtable>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
</mtable>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
</mtable>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
</mtable>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mn>1</mn>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mn>2</mn>
</mrow>
</msub>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mi>k</mi>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mi>m</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
将样本矩阵预处理后,用之前的SVM训练模型对X'分类,得到正确分类样本个数为n(j,k),设总的样本数为n,则此时的分类正确率记录其分类正确率的最大值Pjmax与最小值Pjmin:
Pjmax=max{P(j,k)|k=0,0.1,...,1.0}
Pjmin=min{P(j,k)|k=0,0.1,...,1.0}
m个维度归一化之后的数值,作为其对应维度特征适配率的灵敏度;
<mrow>
<msub>
<mi>W</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>P</mi>
<mrow>
<mi>j</mi>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>j</mi>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<mrow>
<mo>(</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>j</mi>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>j</mi>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<msub>
<mi>W</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mn>1</mn>
</mrow>
其中,Wj为第j维特征向量适配率的灵敏度。
7.如权利要求1或2所述的方法,其特征在于,所述步骤(6)按照如下方式,得到学习集L2中第i个样本的适配率Pi:
<mrow>
<msub>
<mi>P</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mi>a</mi>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<msub>
<mi>W</mi>
<msup>
<mi>j</mi>
<mo>*</mo>
</msup>
</msub>
<mrow>
<mo>(</mo>
<msup>
<msub>
<mi>P</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
</msup>
<mo>-</mo>
<msup>
<msub>
<mi>P</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
</msup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>b</mi>
</mrow>
a+b=1
其中,m表示样本特征的维数,Wj表示第j维特征向量适配率的灵敏度,Pj +表示L2样本第j维特征属于正样本的概率,Pj -表示L2样本第j维特征属于负样本的概率,
当Pj +→1时,Pj -→0,Pi→1;
当Pj +→0时,Pj -→1,Pi→0;
计算可得a=0.5,b=0.5,则
<mrow>
<msub>
<mi>P</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mn>0.5</mn>
<mo>*</mo>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<msub>
<mi>W</mi>
<msup>
<mi>j</mi>
<mo>*</mo>
</msup>
</msub>
<mrow>
<mo>(</mo>
<msup>
<msub>
<mi>P</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
</msup>
<mo>-</mo>
<msup>
<msub>
<mi>P</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
</msup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mn>0.5.</mn>
</mrow>
8.如权利要求1或2所述的方法,其特征在于,所述步骤(1)中提取的特征为:
明暗目标密度:明暗目标像素点所占的比例,明目标像素点表示灰度值大于SAR图像全图灰度值2/3的点,暗目标像素点表示灰度值小于SAR图像全图灰度值1/3的点;
结构显著强度:对雷达图像进行二值边缘提取,并且利用连通域标记法,去掉少像数连通域标记的噪声后,标记像素总数与图像宽高宽均值的比值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510075677.6A CN104636758B (zh) | 2015-02-12 | 2015-02-12 | 一种基于支持向量回归的sar图像适配性预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510075677.6A CN104636758B (zh) | 2015-02-12 | 2015-02-12 | 一种基于支持向量回归的sar图像适配性预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104636758A CN104636758A (zh) | 2015-05-20 |
CN104636758B true CN104636758B (zh) | 2018-02-16 |
Family
ID=53215486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510075677.6A Active CN104636758B (zh) | 2015-02-12 | 2015-02-12 | 一种基于支持向量回归的sar图像适配性预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104636758B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106054189B (zh) * | 2016-07-17 | 2018-06-05 | 西安电子科技大学 | 基于dpKMMDP模型的雷达目标识别方法 |
CN110246134A (zh) * | 2019-06-24 | 2019-09-17 | 株洲时代电子技术有限公司 | 一种钢轨伤损分类装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073873A (zh) * | 2011-01-28 | 2011-05-25 | 华中科技大学 | 一种基于支持向量机的sar景象匹配区选取方法 |
CN102663436A (zh) * | 2012-05-03 | 2012-09-12 | 武汉大学 | 用于光学纹理图像和sar图像的自适应特征提取方法 |
CN102902979A (zh) * | 2012-09-13 | 2013-01-30 | 电子科技大学 | 一种合成孔径雷达自动目标识别的方法 |
CN103942749A (zh) * | 2014-02-24 | 2014-07-23 | 西安电子科技大学 | 一种基于修正聚类假设和半监督极速学习机的高光谱地物分类方法 |
-
2015
- 2015-02-12 CN CN201510075677.6A patent/CN104636758B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073873A (zh) * | 2011-01-28 | 2011-05-25 | 华中科技大学 | 一种基于支持向量机的sar景象匹配区选取方法 |
CN102663436A (zh) * | 2012-05-03 | 2012-09-12 | 武汉大学 | 用于光学纹理图像和sar图像的自适应特征提取方法 |
CN102902979A (zh) * | 2012-09-13 | 2013-01-30 | 电子科技大学 | 一种合成孔径雷达自动目标识别的方法 |
CN103942749A (zh) * | 2014-02-24 | 2014-07-23 | 西安电子科技大学 | 一种基于修正聚类假设和半监督极速学习机的高光谱地物分类方法 |
Non-Patent Citations (2)
Title |
---|
Research on Scene Infrared Image Simulation;Lamei Zou 等;《International Journal of Digital Content Technology and its Applications》;20120331;第6卷(第4期);第77-86页 * |
基于检测识别的实孔径雷达景象匹配定位方法;杨卫东 等;《华中科技大学学报》;20050228;第33卷(第2期);第25-27页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104636758A (zh) | 2015-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102609681B (zh) | 基于字典学习模型的人脸识别方法 | |
CN111080629A (zh) | 一种图像拼接篡改的检测方法 | |
CN108898137A (zh) | 一种基于深度神经网络的自然图像字符识别方法及*** | |
CN108388927A (zh) | 基于深度卷积孪生网络的小样本极化sar地物分类方法 | |
CN109697469A (zh) | 一种基于一致性约束的自学习小样本遥感图像分类方法 | |
CN110633758A (zh) | 针对小样本或样本不平衡的癌症区域检测定位的方法 | |
CN112949408B (zh) | 一种过鱼通道目标鱼类实时识别方法和*** | |
CN112766334B (zh) | 一种基于伪标签域适应的跨域图像分类方法 | |
CN111160176A (zh) | 基于融合特征的一维卷积神经网络地面雷达目标分类方法 | |
CN106203522B (zh) | 基于三维非局部均值滤波的高光谱图像分类方法 | |
CN103761531A (zh) | 基于形状轮廓特征的稀疏编码车牌字符识别方法 | |
CN105930846A (zh) | 基于邻域信息和svgdl的极化sar图像分类方法 | |
CN108229551A (zh) | 一种基于紧凑字典稀疏表示的高光谱遥感图像分类方法 | |
CN103310235B (zh) | 一种基于参数识别与估计的隐写分析方法 | |
CN105138951B (zh) | 基于图模型表示的人脸画像-照片识别方法 | |
CN112084842B (zh) | 一种基于深度语义模型的水文遥感图像目标识别方法 | |
CN111310719B (zh) | 一种未知辐射源个体识别及检测的方法 | |
CN109993213A (zh) | 一种用于服装部件图的自动识别方法 | |
CN104751184A (zh) | 基于强度统计稀疏的全极化sar图像分类方法 | |
CN104636758B (zh) | 一种基于支持向量回归的sar图像适配性预测方法 | |
CN114529751B (zh) | 一种电力场景智能识别样本数据的自动筛选方法 | |
CN116310466A (zh) | 基于局部无关区域筛选图神经网络的小样本图像分类方法 | |
CN102930291A (zh) | 用于图形图像的k近邻局部搜索遗传自动聚类方法 | |
CN110826629A (zh) | 一种基于细粒度分类的耳镜图像辅助诊断方法 | |
CN105023239A (zh) | 基于超像素和最大边界分布的高光谱数据降维方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |