CN107360416A - 基于局部多元高斯描述子的立体图像质量评价方法 - Google Patents
基于局部多元高斯描述子的立体图像质量评价方法 Download PDFInfo
- Publication number
- CN107360416A CN107360416A CN201710566271.7A CN201710566271A CN107360416A CN 107360416 A CN107360416 A CN 107360416A CN 201710566271 A CN201710566271 A CN 201710566271A CN 107360416 A CN107360416 A CN 107360416A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msup
- image
- mfrac
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/004—Diagnosis, testing or measuring for television systems or their details for digital television systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于局部多元高斯描述子的立体图像质量评价方法,包括以下步骤:根据人类的立体视差感知原理以及视差匹配算法,建立绝对视差图;模拟人眼的双目融合和双目竞争机制,利用二维Gabor滤波器对左右视图进行滤波,根据Gabor响应以及双眼视差计算双眼融合过程中左右视点的权重因子;合成立体感知图像;对立体感知图像进行5×5的分块,并对每个图像块进行DCT变换,将进行DCT变换后的图像进行重组;选择每个图像块的中心坐标为特征点的坐标,计算每个图像块的对比度;计算图像的局部多元高斯特征;立体图像质量预测。
Description
技术领域
本发明属图像处理领域,涉及立体图像质量评价方法。
背景技术
近年来随着多媒体技术的飞速发展,立体显示技术也得到了发展。另外,相对于平面图像带给人的视觉体验,立体图像更胜一筹,带给人们更加真实的视听感受和临场体验,立体图像/视频处理研究受到人们的关注。然而,立体图像/视频在采集、储存和传输的过程中由于设备和处理手段等原因,不可避免的会引入一些失真,进而影响立体图像/视频的质量。因此,研究一种能有效评价立体图像质量的评价方法至关重要。但是主观评价方法易受多种因素的干扰,且费时费力,评价结果也不够稳定。相对主观评价,客观评价以软件的方式评价图像的质量,同时不需参与者和大量的主观试验,操作简单,且与主观评价高度相关,越来越受到相关研究者的关注。
当前立体图像质量评价主要分为三类。一类是将2D图像质量评价的方法分别应用左右视点,再辅以视差进行评价的方法。第二类是基于人来视觉***(HVS)的评价方法。第三类是基于图像特征,结合机器学习的方法。以上评价方法在立体图像质量评价的不同发展阶段都取得了比较好的效果,但是由于视差和深度信息获取的不准确,双目特性考虑不充分,立体图像质量评价仍然是当前研究的热点和难点。
发明内容
本发明的目的在于建立一个充分考虑双视点视觉特性的的立体图像质量评价方法。本发明提出的立体图像客观质量评价方法,模拟基于双目融合和双目竞争机制的立体感知图像,并在此基础上提取能够描述立体图像质量的局部多元高斯特征,通过特征和质量的非线性拟合,进而做出更加全面、准确的客观评价。技术方案如下:
一种基于局部多元高斯描述子的立体图像质量评价方法,每个失真立体图像对由左图和右图组成,设失真立体图像对为(Dl,Dr),包括以下步骤:
第一步:根据人类的立体视差感知原理以及视差匹配算法,以左右图像分别作为基准图像,将另一幅图像做平移,在平移过程中根据最高相关性系数得到最佳匹配点,计算最佳匹配点与对应像素间的差距,即视差,建立绝对视差图;
第二步:模拟人眼的双目融合和双目竞争机制,利用二维Gabor滤波器对左右视图进行滤波,根据Gabor响应以及双眼视差计算双眼融合过程中左右视点的权重因子:WL(x,y)和WR((x+d),y):
其中,(x,y)为像素点坐标,d为左视点相对于右视点的视差,GEL(x,y)为左视点的Gabor响应能量,GER((x+d),y)为经过补偿的右视点的Gabor响应能量;
第三步,合成立体感知图像,合成公式为:
C(x,y)=WL(x,y)·IL(x,y)+WR((x+d),y)·IR((x+d),y)
其中,IL(x,y)为左视点像素,IR((x+d),y)为经过补偿的右视点像素;
第四步:对立体感知图像进行5×5的分块,并对每个图像块进行DCT变换,将进行DCT变换后的图像进行重组,重组后的图像矩阵为5×5×N,N为分割的DCT图像块个数;
第五步:选择每个图像块的中心坐标为特征点的坐标,计算每个图像块的对比度,并标记每个图像块的掩蔽度,对比度大于全图像平均对比度的标记为1,否则标记为0;
第六步:计算图像的局部多元高斯特征,方法如下:
(1)给定DCT图像块,计算特征点处的均值和样本协方差,计算公式如下:
其中(xc,yc)为特征点坐标,Mr为以(xc,yc)为中心的大小为5×5的原始图像块,B为Mr对应的DCT图像块,r取5,
(2)计算高斯空间局部多元高斯描述子,计算公式为
其中|·|为行列式矩阵;
然后,将高斯空间扩展到欧式空间,得到最终的局部描述特征;
第七步:将图像库中的图像随机分为两部分,其中80%的失真立体图像对用支持向量机对得到的特征进行训练,根据训练得到的模型对剩下的20%的失真图像对的质量做预测,最终得到立体图像的质量。
本发明所提出的立体图像客观质量评价方法模拟基于双目融合和双目竞争机制的立体感知图像,并在此基础上提取能够描述立体图像质量的局部多元高斯特征。通过提取立体感知图像的局部描述信息,利用失真对合成图的局部高斯特性的影响去描述图像质量,得到的立体图像质量客观评价结果与主观评价结果具有很高的一致性,能够较为准确的反映图像的质量。
附图说明
图1立体感知图的合成
图2流程图
具体实施方式
本发明的基于局部多元高斯描述子的立体图像质量评价方法,每个失真立体图像对由左图和右图组成,设失真图像对为(Dl,Dr),包括以下步骤:
第一步:根据人类的立体视差感知原理以及视差匹配算法,计算对应像素的视差,建立绝对视差图。计算步骤如下:
(1)计算左右图像的水平梯度图。计算公式如下:
(2)以左图像作为基准图像,对右图像进行平移,以20个像素点作为最大视差距离。在进行每一次平移的过程中,计算左右图像的相似度图和梯度相似度图。相似度的计算如公式(3)所示
SSIM(x,y)=l(x,y)·c(x,y)·s(x,y) (3)
其中,l(x,y)为亮度对比,c(x,y)为对比度,s(x,y)为结构相关度。三个部分的计算公式分别为下:
然后对得到的相似度图和梯度相似度图用7×7的窗口进行滤波。最终左图像与平移后的右图像的相似度用公式(7)计算得到。
corr(x,y)=SSIM(x,y)+5·GSSIM(x,y) (7)
其中,SSIM(x,y)和GSSIM(x,y)分别为相似度和梯度相似度。
这样,在进行1-20个像素点的平移过程中每个像素点的相似度不断更新为最小相似度,对应的平移像素差即为最优匹配视差。
第二步:模拟人眼的双目融合和双目竞争机制,利用二维Gabor滤波器对左右视图进行滤波,根据Gabor响应以及双眼视差计算双眼融合过程中左右视点的权重因子:WL(x,y)和WR((x+d),y)。其中,(x,y)为像素点坐标,d为左视点相对于右视点的视差。具体地,
(1)所采用的二维Gabor滤波器定义为:
其中,G(x,y,σx,σy,ζx,ζy,θ)是Gabor滤波器的响应值,x,y,σx,σy,ζx,ζy,θ分别代表Gabor滤波器的x方向、y方向、椭圆高斯包络沿x方向的标准差、椭圆高斯包络沿y方向的标准差、x方向的频率、y方向的频率和相位角,且R1和R2分别为:R1=xcosθ+ysinθ,R2=xsinθ+ycosθ。
(2)Gabor滤波后的图像的局部能量是在对中心频率为3.67CPD的Gabor滤波器的幅值响应在水平、竖直和两个对角线这四个方向上求和得到的。
(3)在合成立体感知图时左右视图所占权重因子计算如下:
第三步,合成立体感知图像。合成公式为:
C(x,y)=WL(x,y)·IL(x,y)+WR((x+d),y)·IR((x+d),y) (11)
其中,IL(x,y)为左视点像素,IR((x+d),y)为经过补偿的右视点像素。
第四步:对立体感知图像进行5×5的分块,并对每个图像块进行DCT变换。将进行DCT变换后的图像进行重组,重组后的图像矩阵为5×5×N,N为分割的DCT图像块个数。
第五步:选择每个图像块的中心坐标为特征点的坐标。计算每个图像块的对比度,并标记每个图像块的掩蔽度(对比度大于全图像平均对比度的标记为1,否则标记为0)。
第六步:计算图像的局部多元高斯特征。由于选定的图像块为5×5,所以每幅立体感知图像可以获得50个局部特征。具体计算如下:
(1)给定DCT图像块,计算特征点处的均值和样本协方差,计算公式如下:
其中(xc,yc)为特征点坐标,Mr为以(xc,yc)为中心的大小为5×5的原始图像块,B为Mr对应的DCT图像块,r取5,
(2)计算局部多元高斯描述子,计算公式为
其中|·|为行列式矩阵。
然后,将此空间扩展到欧式空间,得到最终的局部描述特征。
第七步:将图像库中的图像随机分为两部分,其中80%的失真立体图像对用支持向量机对得到的特征进行训练,根据训练得到的模型对剩下的20%的失真图像对的质量做预测,最终得到立体图像的质量。
Claims (1)
1.一种基于局部多元高斯描述子的立体图像质量评价方法,每个失真立体图像对由左图和右图组成,设失真立体图像对为(Dl,Dr),包括以下步骤:
第一步:根据人类的立体视差感知原理以及视差匹配算法,以左右图像分别作为基准图像,将另一幅图像做平移,在平移过程中根据最高相关性系数得到最佳匹配点,计算最佳匹配点与对应像素间的差距,即视差,建立绝对视差图;
第二步:模拟人眼的双目融合和双目竞争机制,利用二维Gabor滤波器对左右视图进行滤波,根据Gabor响应以及双眼视差计算双眼融合过程中左右视点的权重因子:WL(x,y)和WR((x+d),y):
<mrow>
<msub>
<mi>W</mi>
<mi>L</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>GE</mi>
<mi>L</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>GE</mi>
<mi>L</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>GE</mi>
<mi>R</mi>
</msub>
<mrow>
<mo>(</mo>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mfrac>
</mrow>
<mrow>
<msub>
<mi>W</mi>
<mi>R</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>GE</mi>
<mi>R</mi>
</msub>
<mrow>
<mo>(</mo>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mrow>
<msub>
<mi>GE</mi>
<mi>L</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>GE</mi>
<mi>R</mi>
</msub>
<mrow>
<mo>(</mo>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mfrac>
</mrow>
其中,(x,y)为像素点坐标,d为左视点相对于右视点的视差,GEL(x,y)为左视点的Gabor响应能量,GER((x+d),y)为经过补偿的右视点的Gabor响应能量;
第三步,合成立体感知图像,合成公式为:
C(x,y)=WL(x,y)·IL(x,y)+WR((x+d),y)·IR((x+d),y)
其中,IL(x,y)为左视点像素,IR((x+d),y)为经过补偿的右视点像素;
第四步:对立体感知图像进行5×5的分块,并对每个图像块进行DCT变换,将进行DCT变换后的图像进行重组,重组后的图像矩阵为5×5×N,N为分割的DCT图像块个数;
第五步:选择每个图像块的中心坐标为特征点的坐标,计算每个图像块的对比度,并标记每个图像块的掩蔽度,对比度大于全图像平均对比度的标记为1,否则标记为0;
第六步:计算图像的局部多元高斯特征,方法如下:
(1)给定DCT图像块,计算特征点处的均值和样本协方差,计算公式如下:
<mrow>
<mi>&mu;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
<mo>&Element;</mo>
<msub>
<mi>M</mi>
<mi>r</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</munder>
<mi>B</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>&Sigma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
<mo>&Element;</mo>
<msub>
<mi>M</mi>
<mi>r</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</munder>
<mrow>
<mo>(</mo>
<mover>
<mi>B</mi>
<mo>~</mo>
</mover>
<mo>(</mo>
<mrow>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<mover>
<mi>B</mi>
<mo>~</mo>
</mover>
<mo>(</mo>
<mrow>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
</mrow>
其中(xc,yc)为特征点坐标,Mr为以(xc,yc)为中心的大小为5×5的原始图像块,B为Mr对应的DCT图像块,r取5,
(2)计算高斯空间局部多元高斯描述子,计算公式为
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mover>
<mo>=</mo>
<mi>&Delta;</mi>
</mover>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>&mu;</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>,</mo>
<mi>&Sigma;</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mo>|</mo>
<mn>2</mn>
<mi>&pi;</mi>
<mi>&Sigma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<msup>
<mo>|</mo>
<mrow>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
</mrow>
</msup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>B</mi>
<mo>-</mo>
<mi>&mu;</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mi>&Sigma;</mi>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>(</mo>
<mrow>
<mi>B</mi>
<mo>-</mo>
<mi>&mu;</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中|·|为行列式矩阵;
然后,将高斯空间扩展到欧式空间,得到最终的局部描述特征;
第七步:将图像库中的图像随机分为两部分,其中80%的失真立体图像对用支持向量机对得到的特征进行训练,根据训练得到的模型对剩下的20%的失真图像对的质量做预测,最终得到立体图像的质量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566271.7A CN107360416A (zh) | 2017-07-12 | 2017-07-12 | 基于局部多元高斯描述子的立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566271.7A CN107360416A (zh) | 2017-07-12 | 2017-07-12 | 基于局部多元高斯描述子的立体图像质量评价方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107360416A true CN107360416A (zh) | 2017-11-17 |
Family
ID=60292885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710566271.7A Pending CN107360416A (zh) | 2017-07-12 | 2017-07-12 | 基于局部多元高斯描述子的立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107360416A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967673A (zh) * | 2017-12-03 | 2018-04-27 | 天津大学 | 一种自适应样本块图像修复方法 |
CN108492275A (zh) * | 2018-01-24 | 2018-09-04 | 浙江科技学院 | 基于深度神经网络的无参考立体图像质量评价方法 |
CN108520510A (zh) * | 2018-03-19 | 2018-09-11 | 天津大学 | 一种基于整体和局部分析的无参考立体图像质量评价方法 |
CN109257573A (zh) * | 2018-11-07 | 2019-01-22 | 国网电力科学研究院武汉南瑞有限责任公司 | 一种夜视图像的优化装置及方法 |
CN113962259A (zh) * | 2021-10-11 | 2022-01-21 | 燕山大学 | 一种燃料电池***多模式双层故障诊断方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750731A (zh) * | 2012-07-05 | 2012-10-24 | 北京大学 | 基于左右单眼感受野和双目融合的立体视觉显著计算方法 |
CN103354617A (zh) * | 2013-07-03 | 2013-10-16 | 宁波大学 | 一种基于dct域的边缘强度压缩的图像质量客观评价方法 |
CN103581661A (zh) * | 2013-10-28 | 2014-02-12 | 宁波大学 | 一种立体图像视觉舒适度评价方法 |
CN103996192A (zh) * | 2014-05-12 | 2014-08-20 | 同济大学 | 基于高质量自然图像统计量模型的无参考图像质量评价方法 |
CN104853182A (zh) * | 2015-05-21 | 2015-08-19 | 天津大学 | 基于幅度和相位的立体图像质量客观评价方法 |
CN105184771A (zh) * | 2015-08-12 | 2015-12-23 | 西安斯凯智能科技有限公司 | 一种自适应运动目标检测***及检测方法 |
CN105787895A (zh) * | 2016-02-29 | 2016-07-20 | 中国计量学院 | 基于分层高斯混合模型的统计压缩感知图像重构方法 |
CN106503605A (zh) * | 2015-09-01 | 2017-03-15 | 南京理工大学 | 基于立体视觉技术的人体目标识别方法 |
CN106530282A (zh) * | 2016-10-20 | 2017-03-22 | 天津大学 | 基于空域特征的无参考立体图像质量客观评价方法 |
CN106651835A (zh) * | 2016-10-20 | 2017-05-10 | 天津大学 | 基于熵的双视点无参考立体图像质量客观评价方法 |
-
2017
- 2017-07-12 CN CN201710566271.7A patent/CN107360416A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750731A (zh) * | 2012-07-05 | 2012-10-24 | 北京大学 | 基于左右单眼感受野和双目融合的立体视觉显著计算方法 |
CN103354617A (zh) * | 2013-07-03 | 2013-10-16 | 宁波大学 | 一种基于dct域的边缘强度压缩的图像质量客观评价方法 |
CN103581661A (zh) * | 2013-10-28 | 2014-02-12 | 宁波大学 | 一种立体图像视觉舒适度评价方法 |
CN103996192A (zh) * | 2014-05-12 | 2014-08-20 | 同济大学 | 基于高质量自然图像统计量模型的无参考图像质量评价方法 |
CN104853182A (zh) * | 2015-05-21 | 2015-08-19 | 天津大学 | 基于幅度和相位的立体图像质量客观评价方法 |
CN105184771A (zh) * | 2015-08-12 | 2015-12-23 | 西安斯凯智能科技有限公司 | 一种自适应运动目标检测***及检测方法 |
CN106503605A (zh) * | 2015-09-01 | 2017-03-15 | 南京理工大学 | 基于立体视觉技术的人体目标识别方法 |
CN105787895A (zh) * | 2016-02-29 | 2016-07-20 | 中国计量学院 | 基于分层高斯混合模型的统计压缩感知图像重构方法 |
CN106530282A (zh) * | 2016-10-20 | 2017-03-22 | 天津大学 | 基于空域特征的无参考立体图像质量客观评价方法 |
CN106651835A (zh) * | 2016-10-20 | 2017-05-10 | 天津大学 | 基于熵的双视点无参考立体图像质量客观评价方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967673A (zh) * | 2017-12-03 | 2018-04-27 | 天津大学 | 一种自适应样本块图像修复方法 |
CN107967673B (zh) * | 2017-12-03 | 2019-12-17 | 天津大学 | 一种自适应样本块图像修复方法 |
CN108492275A (zh) * | 2018-01-24 | 2018-09-04 | 浙江科技学院 | 基于深度神经网络的无参考立体图像质量评价方法 |
CN108492275B (zh) * | 2018-01-24 | 2020-08-18 | 浙江科技学院 | 基于深度神经网络的无参考立体图像质量评价方法 |
CN108520510A (zh) * | 2018-03-19 | 2018-09-11 | 天津大学 | 一种基于整体和局部分析的无参考立体图像质量评价方法 |
CN108520510B (zh) * | 2018-03-19 | 2021-10-19 | 天津大学 | 一种基于整体和局部分析的无参考立体图像质量评价方法 |
CN109257573A (zh) * | 2018-11-07 | 2019-01-22 | 国网电力科学研究院武汉南瑞有限责任公司 | 一种夜视图像的优化装置及方法 |
CN113962259A (zh) * | 2021-10-11 | 2022-01-21 | 燕山大学 | 一种燃料电池***多模式双层故障诊断方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107360416A (zh) | 基于局部多元高斯描述子的立体图像质量评价方法 | |
CN102750695B (zh) | 一种基于机器学习的立体图像质量客观评价方法 | |
CN105744256B (zh) | 基于图谱视觉显著的立体图像质量客观评价方法 | |
CN102333233B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN101610425B (zh) | 一种评测立体图像质量的方法和装置 | |
CN107635136B (zh) | 基于视觉感知和双目竞争的无参考立体图像质量评价方法 | |
CN107767413A (zh) | 一种基于卷积神经网络的图像深度估计方法 | |
CN105338343B (zh) | 一种基于双目感知的无参考立体图像质量评价方法 | |
CN108520510B (zh) | 一种基于整体和局部分析的无参考立体图像质量评价方法 | |
CN106530282B (zh) | 基于空域特征的无参考立体图像质量客观评价方法 | |
CN104036501A (zh) | 一种基于稀疏表示的立体图像质量客观评价方法 | |
CN103413298B (zh) | 一种基于视觉特性的立体图像质量客观评价方法 | |
CN106023230B (zh) | 一种适合变形图像的稠密匹配方法 | |
CN104240248B (zh) | 一种无参考立体图像质量客观评价方法 | |
CN104811693A (zh) | 一种立体图像视觉舒适度客观评价方法 | |
CN104408716A (zh) | 一种基于视觉保真度的立体图像质量客观评价方法 | |
CN105282543A (zh) | 一种基于立体视觉感知的全盲立体图像质量客观评价方法 | |
CN109510981B (zh) | 一种基于多尺度dct变换的立体图像舒适度预测方法 | |
CN105357519A (zh) | 基于自相似度特征的无参考立体图像质量客观评价方法 | |
CN104853182A (zh) | 基于幅度和相位的立体图像质量客观评价方法 | |
CN103745457B (zh) | 一种立体图像客观质量评价方法 | |
CN103914835B (zh) | 一种针对模糊失真立体图像的无参考质量评价方法 | |
CN105898279B (zh) | 一种立体图像质量客观评价方法 | |
CN108848365B (zh) | 一种重定位立体图像质量评价方法 | |
CN102708568A (zh) | 一种基于结构失真的立体图像客观质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171117 |