CN108449596B - 一种融合美学和舒适度的3d立体图像质量评估方法 - Google Patents

一种融合美学和舒适度的3d立体图像质量评估方法 Download PDF

Info

Publication number
CN108449596B
CN108449596B CN201810342793.3A CN201810342793A CN108449596B CN 108449596 B CN108449596 B CN 108449596B CN 201810342793 A CN201810342793 A CN 201810342793A CN 108449596 B CN108449596 B CN 108449596B
Authority
CN
China
Prior art keywords
image
parallax
representing
aesthetic
comfort
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810342793.3A
Other languages
English (en)
Other versions
CN108449596A (zh
Inventor
牛玉贞
钟伊妮
柯逍
施逸青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201810342793.3A priority Critical patent/CN108449596B/zh
Publication of CN108449596A publication Critical patent/CN108449596A/zh
Application granted granted Critical
Publication of CN108449596B publication Critical patent/CN108449596B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合美学和舒适度的3D立体图像质量评估方法,包括以下步骤:步骤S1:对训练图像集合和待预测图像集合中的每幅立体图像提取左、右视图的美学特征及左、右视图美学一致性特征,获得美学特征集F1;步骤S2:对训练图像集合和待预测图像集合中的每幅立体图像提取舒适度特征,获得舒适度特征集F2;步骤S3:对训练图像集合中的所有图像,结合美学特征集F1和舒适度特征集F2,将其作为机器学习特征集T1,训练得到立体图像质量评估模型;步骤S4:利用训练好的质量评估模型评估每幅待预测图像,得到所有待预测图像的最终质量评估分数。该方法有利于提高评估结果与用户主观分数的一致性。

Description

一种融合美学和舒适度的3D立体图像质量评估方法
技术领域
本发明涉及图像和视频处理以及计算机视觉领域,特别是一种融合美学和舒适度的3D立体图像质量评估方法。
背景技术
图像的质量评估算法分为有参考,半参考和无参考的质量评估。其中,无参考的质量评估旨在通过利用图像本身所具有的特征等方式,无需对应的参考图像来进行质量评估。
一张3D立体图像由左右视图组成,这也就使得3D立体图像既具有双目图像的深度特征也包含单目图像的特征。现实生活中,对用户最直观的感受是单目图像的美学特征。Niu等人在评价专业视频的帧画面时提到,专业摄影师对于画面的要求是,较少的主色调数目、适中的色彩饱和度以及平滑的亮度变化范围等。
和普通图像相比,双目图像的立体感来源于左右视图产生视差,从而在人眼视网膜上的成像存在差异,这种空间上的差异就仿佛是人眼在真实世界中看到的立体景观一样。Lambooij等人提出,过度的视差值、一些非自然状态下的模糊、颜色空间的不匹配等都会造成这些视觉不适。在视差中,又分为成像在屏幕前的负视差以及成像在屏幕后的正视差,以及零视差平面。其中,负视差是导致视觉舒适度体验的一个重要影响因素。Shao等人在研究立体图像的视觉舒适度体验中,为了特别分析立体图像中处于较大视差值产生的影响情况,将处于最大和最小的前10%的视差数据单独分析。据我们所知,在距离零视差平面一定范围之内,存在一个视觉舒适区域,处于该区域的视差值符合人眼球的自然调节,也不会存在视觉成像冲突等各方面问题。但是,在拍摄以及后期制作的过程都难免会导致视差数值在这个舒适区范围之外,这使得立体图像的视差范围存在不确定性的变化。
发明内容
本发明的目的在于提供一种融合美学和舒适度的3D立体图像质量评估方法,该方法有利于提高评估结果与用户主观分数的一致性。
为实现上述目的,本发明的技术方案是:一种融合美学和舒适度的3D立体图像质量评估方法,包括以下步骤:
步骤S1:输入训练图像集合、待预测图像集合以及用户对这两个集合中每幅立体图像的主观质量评估分数;对训练图像集合和待预测图像集合中的每幅立体图像提取左、右视图的美学特征及左、右视图美学一致性特征,获得美学特征集F1;
步骤S2:对训练图像集合和待预测图像集合中的每幅立体图像提取舒适度特征,获得舒适度特征集F2;
步骤S3:对训练图像集合中的所有图像,结合美学特征集F1和舒适度特征集F2,将其作为机器学习特征集T1,训练得到立体图像质量评估模型;
步骤S4:利用训练好的质量评估模型评估每幅待预测图像,得到所有待预测图像的最终质量评估分数。
进一步地,所述步骤S1中,对立体图像提取左、右视图的美学特征及左、右视图美学一致性特征,获得美学特征集F1,包括以下步骤:
步骤S11:对立体图像提取左、右视图在主色调数目、色彩饱和度以及亮度范围三个方面的美学特征,计算公式为:
Figure BDA0001630945470000021
Figure BDA0001630945470000022
Lt=L0(β*W*H)-L0((1-β)*W*H+1)
其中,t表示立体图像的左视图或右视图,t=L表示左视图,t=R表示右视图;Ht表示t视图的主色调数目;将t视图从RGB颜色空间转换为HSV颜色空间,将H通道数值用n等分的颜色直方图表示,
Figure BDA0001630945470000023
表示t视图中第j等分的颜色直方图数值,m是颜色直方图中最大等分的数值;α为设定的参数;
Figure BDA0001630945470000024
表示求解主色调集合,当某一等分的颜色直方图数值大于αm,即m的α倍数时,即认为该等分对应的颜色属于主色调集合;count()表示计算其中的元素个数;St表示t视图的色彩饱和度均值;W、H分别表示图像的宽度和高度,S(i,j)表示像素点(i,j)在HSV颜色空间中S通道的数值;Lt表示t视图在CIE LUV颜色空间中L通道的数值,L0表示将t视图中所有像素点的L通道数值由小到大顺序排序所得到的序列,图像的亮度范围取占所述序列中间β倍的那部分数值范围,β为设定的参数,β∈[0,1];
步骤S12:计算立体图像左、右视图在美学特征上的一致性特征,计算公式为:
Hc=|HL-HR|,Sc=|SL-SR|,Lc=|LL-LR|
其中,Hc、Sc、Lc分别表示立体图像左、右视图在美学特征上的一致性特征,依次为:主色调数目一致性、色彩饱和度一致性以及亮度范围一致性;此外,利用基于颜色对比度相似度和颜色值差异的图像质量评估方法CSVD计算立体图像左、右视图之间的颜色一致性FCSVD
综合步骤S11-S12,得到美学特征集F1={Ht,St,Lt,Hc,Sc,Lc,FCSVD}。
进一步地,所述步骤S2中,对训练图像集合和待预测图像集合中的每幅立体图像提取舒适度特征,获得舒适度特征集F2,包括以下步骤:
步骤S21:利用SIFT Flow密集匹配算法计算立体图像的水平和垂直视差图;在得到的视差图的基础上,从正视差、负视差、视差均值、视差方差多个方面计算舒适度特征;计算公式如下:
Figure BDA0001630945470000031
Figure BDA0001630945470000032
Figure BDA0001630945470000033
其中,
Figure BDA0001630945470000034
分别表示水平正视差、水平负视差、垂直正视差和垂直负视差;W和H分别表示图像的宽度和高度;Vx(i,j)和Vy(i,j)分别表示立体图像在(i,j)处的水平和垂直视差值;N(Ω+)和N(Ω-)分别表示正视差集合Ω+和负视差集合Ω-中的像素点个数;dd表示视差范围,drelative表示视差的相对深度;在计算视差均值的基础上,计算各项均值对应的方差,计算公式如下:
Figure BDA0001630945470000035
Figure BDA0001630945470000036
其中,
Figure BDA0001630945470000037
分别表示水平正视差的方差、水平负视差的方差、垂直正视差的方差以及垂直负视差的方差;std(z)表示求解集合z中所有元素的方差;
步骤S22:计算边缘视差特征;计算水平正视差和水平负视差中处于前t%的视差值,计算公式如下:
Figure BDA0001630945470000041
其中,dmax表示绝对值大于前百分之t的正视差均值,dmin表示绝对值大于前百分之t的负视差均值,
Figure BDA0001630945470000042
分别表示绝对值在前t%正视差集合
Figure BDA0001630945470000043
和绝对值在前t%负视差集合
Figure BDA0001630945470000044
中的像素点个数;
步骤S23:计算空间频率相关特征;分别计算左、右视图的空间频率特征,然后取两者均值来表征立体图像的空间频率,计算公式如下:
Figure BDA0001630945470000045
Figure BDA0001630945470000046
其中,fl、fr分别表示左、右视图的空间频率特征,SBl(i,j)、SBr(i,j)分别表示左、右视图在(i,j)处利用sobel边缘检测算子计算出的各个像素点的数值;σ1、σ2、σ3分别表示f与视差特征建立的联系特征;
步骤S24:计算视觉舒适区相关特征;计算公式如下:
Figure BDA0001630945470000047
其中,γ+表示视网膜可调节成像于屏幕前的视觉舒适区的阈值,γ-表示视网膜可调节成像于屏幕后的视觉舒适区的阈值,ρ表示瞳孔直径;s表示眼球长度,v表示观看距离;当γ+和γ-超出人眼控制范围时,立体图像会产生模糊,增加观看者的疲劳感受;
综合步骤S21-S24,得到舒适度特征集,如下所示:
Figure BDA0001630945470000048
进一步地,所述步骤S3中,对训练图像集合中的所有图像,结合美学特征集F1和舒适度特征集F2,将其作为机器学习特征集T1,训练得到立体图像质量评估模型,具体方法为:
融合训练数据集合中所有图像的特征集F1和F2以及由用户对训练图像集合中所有图像的主观质量评估分数得到的标签集L1,组成训练图像集合的特征集T1={F1,F2}和标签集L1;使用随机森林回归方法通过特征集T1和标签集L1进行训练,得到立体图像质量评估模型M。
进一步地,所述步骤S4中,融合待预测数据集合中所有图像的特征,组成待预测图像集合的特征集T2={F1,F2},利用步骤S3中训练得到的立体图像质量评估模型,计算得到所有待预测图像的最终质量评估分数。
相较于现有技术,本发明的有益效果是:本发明融合了影响立体图像质量的美学特征和舒适度特征,提出一种融合美学和舒适度的3D立体图像质量评估方法,解决了3D立体图像从单一角度来评估质量的缺点,该方法评估得到的3D立体图像质量分数能够与用户主观分数保持较高的一致性,可用于图像质量评估,图像或者视频分类等领域。
附图说明
图1是本发明方法的流程框图。
图2是本发明实施例中整体方法的实现流程图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。
本发明提供一种融合美学和舒适度的3D立体图像质量评估方法,如图1和图2所示,包括以下步骤:
步骤S1:输入训练图像集合、待预测图像集合以及用户对这两个集合中每幅立体图像的主观质量评估分数。对训练图像集合和待预测图像集合中的每幅立体图像提取左、右视图的美学特征及左、右视图美学一致性特征,获得美学特征集F1。具体包括以下步骤:
步骤S11:对立体图像提取左、右视图在主色调数目、色彩饱和度以及亮度范围三个方面的美学特征,计算公式为:
Figure BDA0001630945470000051
Figure BDA0001630945470000052
Lt=L0(β*W*H)-L0((1-β)*W*H+1)
其中,t表示立体图像的左视图或右视图,t=L表示左视图,t=R表示右视图;Ht表示t视图的主色调数目;将t视图从RGB颜色空间转换为HSV颜色空间,将H通道数值用n等分的颜色直方图表示(本实施例中n取20),
Figure BDA0001630945470000053
表示t视图中第j等分的颜色直方图数值,m是颜色直方图中最大等分的数值;α为设定的参数;
Figure BDA0001630945470000061
表示求解主色调集合,当某一等分的颜色直方图数值大于αm,即m的α倍数时,即认为该等分对应的颜色属于主色调集合;count()表示计算其中的元素个数;St表示t视图的色彩饱和度均值;W、H分别表示图像的宽度和高度,S(i,j)表示像素点(i,j)在HSV颜色空间中S通道的数值;亮度是影响图像质量的一个因素,Lt表示t视图在CIE LUV颜色空间中L通道的数值,L0表示将t视图中所有像素点的L通道数值由小到大顺序排序所得到的序列,图像的亮度范围取占所述序列中间β倍的那部分数值范围,β为设定的参数,β∈[0,1];本实施例中,β取90%;
步骤S12:计算立体图像左、右视图在美学特征上的一致性特征,计算公式为:
Hc=|HL-HR|,Sc=|SL-SR|,Lc=|LL-LR|
其中,Hc、Sc、Lc分别表示立体图像左、右视图在美学特征上的一致性特征,依次为:主色调数目一致性、色彩饱和度一致性以及亮度范围一致性;当左、右两视图之间的美学特征差异过大时,会对立体图像的质量产生影响,因此本发明考虑了左、右视图在美学特征上的一致性特征;此外,利用基于颜色对比度相似度和颜色值差异的图像质量评估方法CSVD计算立体图像左、右视图之间的颜色一致性FCSVD
综合步骤S11-S12,得到美学特征集F1={Ht,St,Lt,Hc,Sc,Lc,FCSVD}。
步骤S2:对训练图像集合和待预测图像集合中的每幅立体图像提取舒适度特征,获得舒适度特征集F2。具体包括以下步骤:
步骤S21:利用SIFT Flow密集匹配算法计算立体图像中左、右视图之间像素点在水平方向和垂直方向上的移动情况,根据得到的结果得到立体图像的水平和垂直视差图;在得到的视差图的基础上,从正视差、负视差、视差均值、视差方差等多个方面计算舒适度特征;计算公式如下:
Figure BDA0001630945470000062
Figure BDA0001630945470000063
Figure BDA0001630945470000064
其中,
Figure BDA0001630945470000065
分别表示水平正视差、水平负视差、垂直正视差和垂直负视差;W和H分别表示图像的宽度和高度;Vx(i,j)和Vy(i,j)分别表示立体图像在(i,j)处的水平和垂直视差值;N(Ω+)和N(Ω-)分别表示正视差集合Ω+和负视差集合Ω-中的像素点个数;dd表示视差范围,drelative表示视差的相对深度;在计算视差均值的基础上,计算各项均值对应的方差,计算公式如下:
Figure BDA0001630945470000071
Figure BDA0001630945470000072
其中,
Figure BDA0001630945470000073
分别表示水平正视差的方差、水平负视差的方差、垂直正视差的方差以及垂直负视差的方差;std(z)表示求解集合z中所有元素的方差;
步骤S22:计算边缘视差特征;由于过大的视差值会使人眼产生不舒适,那些处于较大视差的像素点个数一般不多,但是这部分像素点对观看体验的影响却是无法忽视的,所以本发明计算水平正视差和水平负视差中处于前t%的视差值,计算公式如下:
Figure BDA0001630945470000074
其中,dmax表示绝对值大于前百分之t的正视差均值,dmin表示绝对值大于前百分之t的负视差均值,
Figure BDA0001630945470000075
分别表示绝对值在前t%正视差集合
Figure BDA0001630945470000076
和绝对值在前t%负视差集合
Figure BDA0001630945470000077
中的像素点个数;
步骤S23:计算空间频率相关特征;立体图像中,空间频率对于双目图像的融合具有重要影响;研究表明空间频率越高对应的双目融合的极限值越小,所以较高的空间频率会限制立体图像在人眼***中的双目融合;双目融合是评估立体图像质量的关键因素;而空间频率是影响双目融合的一项重要特征,因此分别计算左、右视图的空间频率特征,然后取两者均值来表征立体图像的空间频率,计算公式如下:
Figure BDA0001630945470000078
Figure BDA0001630945470000079
其中,fl、fr分别表示左、右视图的空间频率特征,SBl(i,j)、SBr(i,j)分别表示左、右视图在(i,j)处利用sobel边缘检测算子计算出的各个像素点的数值;σ1、σ2、σ3分别表示f与视差特征建立的联系特征;
步骤S24:计算视觉舒适区相关特征;判断立体图像经过视网膜成像之后是否处于视觉舒适区,是评估立体图像是否是高质量图像的一个重要因素;利用观看距离、视网膜半径等各项参数,视觉舒适区相关特征计算公式如下:
Figure BDA0001630945470000081
其中,γ+表示视网膜可调节成像于屏幕前的视觉舒适区的阈值,γ-表示视网膜可调节成像于屏幕后的视觉舒适区的阈值,ρ表示瞳孔直径;s表示眼球长度,v表示观看距离;当该数值超出人眼控制范围时,立体图像会产生模糊,增加观看者的疲劳感受;
综合步骤S21-S24,得到舒适度特征集,如下所示:
Figure BDA0001630945470000082
步骤S3:对训练图像集合中的所有图像,结合美学特征集F1和舒适度特征集F2,将其作为机器学习特征集T1,训练得到立体图像质量评估模型。具体方法为:
融合训练数据集合中所有图像的特征集F1和F2以及由用户对训练图像集合中所有图像的主观质量评估分数得到的标签集L1,组成训练图像集合的特征集T1={F1,F2}和标签集L1;使用随机森林回归方法通过特征集T1和标签集L1进行训练,得到立体图像质量评估模型M。
步骤S4:融合待预测数据集合中所有图像的特征,组成待预测图像集合的特征集T2={F1,F2},利用训练好的立体图像质量评估模型评估每幅待预测图像,得到所有待预测图像的最终质量评估分数。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (3)

1.一种融合美学和舒适度的3D立体图像质量评估方法,其特征在于,包括以下步骤:
步骤S1:输入训练图像集合、待预测图像集合以及用户对这两个集合中每幅立体图像的主观质量评估分数;对训练图像集合和待预测图像集合中的每幅立体图像提取左、右视图的美学特征及左、右视图美学一致性特征,获得美学特征集F1;
步骤S2:对训练图像集合和待预测图像集合中的每幅立体图像提取舒适度特征,获得舒适度特征集F2;
步骤S3:对训练图像集合中的所有图像,结合美学特征集F1和舒适度特征集F2,将其作为机器学习特征集T1,训练得到立体图像质量评估模型;
步骤S4:利用训练好的质量评估模型评估每幅待预测图像,得到所有待预测图像的最终质量评估分数;
所述步骤S1中,对立体图像提取左、右视图的美学特征及左、右视图美学一致性特征,获得美学特征集F1,包括以下步骤:
步骤S11:对立体图像提取左、右视图在主色调数目、色彩饱和度以及亮度范围三个方面的美学特征,计算公式为:
Figure FDA0002540467800000011
Figure FDA0002540467800000012
Lt=L0(β*W*H)-L0((1-β)*W*H+1)
其中,t表示立体图像的左视图或右视图,t=L表示左视图,t=R表示右视图;Ht表示t视图的主色调数目;将t视图从RGB颜色空间转换为HSV颜色空间,将H通道数值用n等分的颜色直方图表示,
Figure FDA0002540467800000013
表示t视图中第j等分的颜色直方图数值,m是颜色直方图中最大等分的数值;α为设定的参数;
Figure FDA0002540467800000014
表示求解主色调集合,当某一等分的颜色直方图数值大于αm,即m的α倍数时,即认为该等分对应的颜色属于主色调集合;count()表示计算其中的元素个数;St表示t视图的色彩饱和度均值;W、H分别表示图像的宽度和高度,S(i,j)表示像素点(i,j)在HSV颜色空间中S通道的数值;Lt表示t视图在CIE LUV颜色空间中L通道的数值,L0表示将t视图中所有像素点的L通道数值由小到大顺序排序所得到的序列,图像的亮度范围取占所述序列中间β倍的那部分数值范围,β为设定的参数,β∈[0,1];
步骤S12:计算立体图像左、右视图在美学特征上的一致性特征,计算公式为:
Hc=|HL-HR|,Sc=|SL-SR|,Lc=|LL-LR|
其中,Hc、Sc、Lc分别表示立体图像左、右视图在美学特征上的一致性特征,依次为:主色调数目一致性、色彩饱和度一致性以及亮度范围一致性;此外,利用基于颜色对比度相似度和颜色值差异的图像质量评估方法CSVD计算立体图像左、右视图之间的颜色一致性FCSVD
综合步骤S11-S12,得到美学特征集F1={Ht,St,Lt,Hc,Sc,Lc,FCSVD};
所述步骤S2中,对训练图像集合和待预测图像集合中的每幅立体图像提取舒适度特征,获得舒适度特征集F2,包括以下步骤:
步骤S21:利用SIFT Flow密集匹配算法计算立体图像的水平和垂直视差图;在得到的视差图的基础上,从正视差、负视差、视差均值、视差方差多个方面计算舒适度特征;计算公式如下:
Figure FDA0002540467800000021
Figure FDA0002540467800000022
dd=max{Vx(i,j)}-min{Vx(i,j)},
Figure FDA0002540467800000023
其中,
Figure FDA0002540467800000024
分别表示水平正视差、水平负视差、垂直正视差和垂直负视差;W和H分别表示图像的宽度和高度;Vx(i,j)和Vy(i,j)分别表示立体图像在(i,j)处的水平和垂直视差值;N(Ω+)和N(Ω-)分别表示正视差集合Ω+和负视差集合Ω-中的像素点个数;dd表示视差范围,drelative表示视差的相对深度;在计算视差均值的基础上,计算各项均值对应的方差,计算公式如下:
Figure FDA0002540467800000025
Figure FDA0002540467800000026
其中,
Figure FDA0002540467800000027
分别表示水平正视差的方差、水平负视差的方差、垂直正视差的方差以及垂直负视差的方差;std(z)表示求解集合z中所有元素的方差;
步骤S22:计算边缘视差特征;计算水平正视差和水平负视差中处于前t%的视差值,计算公式如下:
Figure FDA0002540467800000031
其中,dmax表示绝对值大于前百分之t的正视差均值,dmin表示绝对值大于前百分之t的负视差均值,
Figure FDA0002540467800000032
分别表示绝对值在前t%正视差集合
Figure FDA0002540467800000033
和绝对值在前t%负视差集合
Figure FDA0002540467800000034
中的像素点个数;
步骤S23:计算空间频率相关特征;分别计算左、右视图的空间频率特征,然后取两者均值来表征立体图像的空间频率,计算公式如下:
Figure FDA0002540467800000035
Figure FDA0002540467800000036
其中,fl、fr分别表示左、右视图的空间频率特征,SBl(i,j)、SBr(i,j)分别表示左、右视图在(i,j)处利用sobel边缘检测算子计算出的各个像素点的数值;σ2、σ3分别表示f与视差特征建立的联系特征;
步骤S24:计算视觉舒适区相关特征;计算公式如下:
Figure FDA0002540467800000037
其中,γ+表示视网膜可调节成像于屏幕前的视觉舒适区的阈值,γ-表示视网膜可调节成像于屏幕后的视觉舒适区的阈值,ρ表示瞳孔直径;s表示眼球长度,v表示观看距离;当γ+和γ-超出人眼控制范围时,立体图像会产生模糊,增加观看者的疲劳感受;
综合步骤S21-S24,得到舒适度特征集,如下所示:
Figure FDA0002540467800000038
2.根据权利要求1所述的一种融合美学和舒适度的3D立体图像质量评估方法,其特征在于,所述步骤S3中,对训练图像集合中的所有图像,结合美学特征集F1和舒适度特征集F2,将其作为机器学习特征集T1,训练得到立体图像质量评估模型,具体方法为:
融合训练数据集合中所有图像的特征集F1和F2以及由用户对训练图像集合中所有图像的主观质量评估分数得到的标签集L1,组成训练图像集合的特征集T1={F1,F2}和标签集L1;使用随机森林回归方法通过特征集T1和标签集L1进行训练,得到立体图像质量评估模型M。
3.根据权利要求1所述的一种融合美学和舒适度的3D立体图像质量评估方法,其特征在于,所述步骤S4中,融合待预测数据集合中所有图像的特征,组成待预测图像集合的特征集T2={F1,F2},利用步骤S3中训练得到的立体图像质量评估模型,计算得到所有待预测图像的最终质量评估分数。
CN201810342793.3A 2018-04-17 2018-04-17 一种融合美学和舒适度的3d立体图像质量评估方法 Expired - Fee Related CN108449596B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810342793.3A CN108449596B (zh) 2018-04-17 2018-04-17 一种融合美学和舒适度的3d立体图像质量评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810342793.3A CN108449596B (zh) 2018-04-17 2018-04-17 一种融合美学和舒适度的3d立体图像质量评估方法

Publications (2)

Publication Number Publication Date
CN108449596A CN108449596A (zh) 2018-08-24
CN108449596B true CN108449596B (zh) 2020-09-01

Family

ID=63200047

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810342793.3A Expired - Fee Related CN108449596B (zh) 2018-04-17 2018-04-17 一种融合美学和舒适度的3d立体图像质量评估方法

Country Status (1)

Country Link
CN (1) CN108449596B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523590B (zh) * 2018-10-22 2021-05-18 福州大学 一种基于样例的3d图像深度信息视觉舒适度评估方法
CN109584326A (zh) * 2018-11-07 2019-04-05 厦门欢乐逛科技股份有限公司 海报自动配色方法、介质、计算机设备及装置
CN109801256B (zh) * 2018-12-15 2023-05-26 华南理工大学 一种基于感兴趣区域和全局特征的图像美学质量评估方法
CN109815965B (zh) * 2019-02-13 2021-07-06 腾讯科技(深圳)有限公司 一种图像过滤方法、装置及存储介质
CN110533097B (zh) * 2019-08-27 2023-01-06 腾讯科技(深圳)有限公司 一种图像清晰度识别方法、装置、电子设备及存储介质
CN111046953B (zh) * 2019-12-12 2022-06-21 电子科技大学 一种基于相似度比较的图像评价方法
CN112738501B (zh) * 2020-12-29 2022-05-17 杭州电子科技大学 一种立体图像舒适度测试方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574885B (zh) * 2016-01-13 2017-03-08 福州大学 基于机器学习并融合视觉特征的全参考图像质量评估方法
CN105678775B (zh) * 2016-01-13 2017-03-08 福州大学 一种基于机器学习的颜色校正评估方法
CN107578404B (zh) * 2017-08-22 2019-11-15 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN107396095B (zh) * 2017-08-28 2019-01-15 方玉明 一种无参考三维图像质量评价方法

Also Published As

Publication number Publication date
CN108449596A (zh) 2018-08-24

Similar Documents

Publication Publication Date Title
CN108449596B (zh) 一种融合美学和舒适度的3d立体图像质量评估方法
CN105139438B (zh) 视频人脸卡通动画生成方法
Dong et al. Human visual system-based saliency detection for high dynamic range content
TWI457853B (zh) 提供深度資訊之影像處理方法及其影像處理系統
US10277877B2 (en) 3D system including a neural network
CA2994514A1 (en) 2d-to-3d video frame conversion
CN103384340A (zh) 一种从单幅2d图像获取3d成像图像的方法
Lin et al. Stereoscopic 3D experience optimization using cropping and warping
CN109859138B (zh) 一种基于人眼视觉特性的红外图像增强方法
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP5210416B2 (ja) 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
TWI436636B (zh) 三維視訊影像調整方法及裝置
Guo et al. Adaptive estimation of depth map for two-dimensional to three-dimensional stereoscopic conversion
CN111405264A (zh) 一种基于深度调整的3d视频舒适度改善方法
CN116567191A (zh) 一种面向舒适度提升的立体视觉内容视差调节方法
KR101513931B1 (ko) 구도의 자동보정 방법 및 이러한 구도의 자동보정 기능이 탑재된 영상 장치
KR101581586B1 (ko) 깊이 영상의 노이즈를 보정하는 방법
Bharathi et al. 2D-to-3D Conversion of Images Using Edge Information
CN110060291B (zh) 一种考虑人因的立体视在距离解算方法
Chen et al. Virtual view quality assessment based on shift compensation and visual masking effect
CN105959679A (zh) 一种立体图像视觉舒适度和深度感联合优化方法
Niu et al. Stereoscopic Image Quality Assessment Based on both Distortion and Disparity
CN116850012B (zh) 一种基于双眼分视的视觉训练方法及***
KR20150101856A (ko) 디지털 시네마에서 스테레오 카메라로 획득한 좌우 영상의 색 일치 방법 및 그 장치
Feng et al. Visual Perception Based Blind Stereoscopic Omnidirectional Video Quality Assessment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200901

CF01 Termination of patent right due to non-payment of annual fee