CN110458880A - 基于光学和神经注意机制的立体图像视觉舒适度评价方法 - Google Patents

基于光学和神经注意机制的立体图像视觉舒适度评价方法 Download PDF

Info

Publication number
CN110458880A
CN110458880A CN201910636642.3A CN201910636642A CN110458880A CN 110458880 A CN110458880 A CN 110458880A CN 201910636642 A CN201910636642 A CN 201910636642A CN 110458880 A CN110458880 A CN 110458880A
Authority
CN
China
Prior art keywords
disparity map
parallax
pixel
dimensional
mti
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910636642.3A
Other languages
English (en)
Other versions
CN110458880B (zh
Inventor
杨嘉琛
门垚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201910636642.3A priority Critical patent/CN110458880B/zh
Publication of CN110458880A publication Critical patent/CN110458880A/zh
Application granted granted Critical
Publication of CN110458880B publication Critical patent/CN110458880B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于光学和神经注意机制的立体图像视觉舒适度评价方法,包括下列步骤:估计像素视差图、三维加权显著图和三维加权非显著图;通过改变视距,得到三种角视差图,分别为原始角视差图;调谐近角视差图;调谐远角视差图,计算MTI图;提取特征;回归模型预测分数质量。

Description

基于光学和神经注意机制的立体图像视觉舒适度评价方法
技术领域
本发明属于立体图像视觉舒适度评价领域。
背景技术
立体三维(S3D)电影在经济方面的成功证明了3D-TV的发展潜力,显然,3D-TV的主要好处是增强了深度感知,一些经验证据表明3D-TV还可以增强人们对清晰度、存在感和自然性的感知。更重要的是,调查表明人们更喜欢观看立体三维图像而不是二维图像,前提是立体图像没有烦人的伪影并且看起来很舒服。
立体图像的视觉舒适性一直是立体研究中一个长期存在的问题,“视觉不适”一词通常是指与观看立体图像有关的主观不适感,例如眼酸眼胀,头痛恶心甚至呕吐等症状。若想让观众享受到高质量的立体内容,首先要消除人们在观看立体视频图像时的不舒适感。研究立体图像舒适度的影响因素将具有重要意义,为了建立有效的视觉舒适度评价(VCA,Visual Comfort Assessment)模型,应该考虑以下两个点:(1)模型有充分关于视觉舒适度的光学和神经生理理论,能够模仿视觉处理***,(2)模型具有使用价值,可以应用到现有的设备以及提供良好的预测效果。
发明内容
本发明提出一种基于光学和神经注意机制的立体图像视觉舒适度评价方法,综合考虑了影响视觉不适的三个最主要因素:人类视觉处理***的光学、心理物理和神经生理因素。技术方案如下:
第一步:估计像素视差图Dp、三维加权显著图Sp和三维加权非显著图Sp -
采用DERS(Depth estimation reference software)方法对像素进行深度估计,得到像素视差图,称为Dp
采用AH(Salient object detection via augmented hypotheses)方法进行显著性目标检测,得到显著图S。
将像素视差图Dp和显著图S线性组合得到三维显著性加权视差图Sp
sp(i,j)=(1-α).dp(i,j)+α.s(i,j)
其中sp(i,j)、dp(i,j)和s(i,j)分别表示三维显著性加权视差图Sp、像素视差图Dp和显著图S在像素点(i,j)处的值,α是三维显著性加权视差图的显著性权重,取α=0.3,(1-α)是其深度显著性权重;
由三维显著性加权视差图Sp得到三维非显著性加权视差图Sp -,检测图像显著区域外的最大视差物体:
sp -(i,j)=1-s(i,j)
sp -(i,j)表示三维非显著性加权视差图Sp -在像素点(i,j)处的值。
第二步:计算三种角视差图D0、D1、D2和MTI图
对于13种典型MT神经细胞,获得各MT神经细胞对应的MT图,用以表示各MT细胞对于水平角视差的电反应;。
为表示立体图像不同部分的重要性,将MT图和显著图S线性组合,再经过视差值加权得到MT重要性图,即MTI图:
MTI(i)=[ωmMT(i)+ωsS].|Dd|
其中,ωm为MT值权重,取ωm=0.3,ωs为显著图权重,取ωs=0.7,MT(i)为第i个MT神经细胞的MT图,S为显著图,Dd为角视差图;角视差图Dd的计算方法如下:
其中d(x,y)表示角视差图Dd在像素点(i,j)处的值,其中I表示眼间距离、Zd表示物体与显示器之间的距离;
通过改变视距D得到三种角视差图,分别为原始角视差图D0;调谐近角视差图D1;调谐远角视差图D2
根据MT神经细胞对视距变化的电反应,将MT神经细胞分类:MT1到MT5细胞对近视差变化反应强烈,被分到调谐近视差图D1,即在计算对应的MTI图时,公式中的视差图Dd=D1;同理,MT6到MT7细胞被分到原始角视差图D0;MT8到MT12细胞被分到调谐远视差图D2;MT13被同时分到调谐近视差图D1和调谐远视差图D2,最终得到14个MTI图;
第三步:提取特征
(1)对于视差图Dp、三维显著性加权视差图Sp和三维非显著性加权视差图Sp -:对原始图像做下采样处理,得到1/8下采样图像、1/4下采样图像和原始尺寸图像,分别计算三种图像的视差均值p1、视差方差p2、3D显着加权视差均值p3,3D非显着性加权视差均值p4和视差梯度p5,得到某一种采样图像的特征,表示为三种采样图像的特征组合起来得到一组特征向量
计算方法如下:
其中P为图像长和宽的乘积,dn是对dp的归一化,μ为dp的均值,|Δdp(x,y)|表示绝对微分视差;
(2)对于三种角视差图D0、D1、D2:分别计算最大视差d1、最小视差d2、视差范围d3、平均交叉视差d4和平均未交叉视差d5,得到特征向量D={d1,d2,d3,d4,d5};
计算方法如下:
d1=max{d(x,y)}
d2=min{d(x,y)}
d3=max{d(x,y)}-min{d(x,y)}
其中Ω-和Ω+分别是负视差值组和正视差值组,分别对应平均交叉视差和平均未交叉视差,K1和K2分别是每组中的像素数;
(3)对于14个MTI图:分别计算14个MTI图的像素平均值,并归一化,得到神经特征向量N={n1,n2,…,n14},其中ni表示第i个MTI图的归一化像素平均值;
第四步:回归模型预测分数质量
(4)利用双SVR来预测立体图像对的视觉不适分数;
1)来源于视差图Dp、三维显著性加权视差图Sp和三维非显著性加权视差图Sp -的特征信息F,提供给第一个支持向量回归器SVR-P,预测视觉不适评分Qp
2)来源于调谐视差图D0、D1、D2的特征信息D和对应分类的MTI图特征信息N,提供给第二个支持向量回归器SVR-MT,预测视觉不适评分QMT
3)最终的立体图像视觉不适分数Qp=0.7Qp+0.3QMT
本发明的有益效果如下:本发明基于对光学***和以MT区域为代表的神经***分析,提出了一种立体图像视觉舒适度评价方法,该方法更加能够模仿人类视觉处理***。
在视觉舒适度评价普遍采用的两个数据IVY LAB S3D和NBU S3D-VCA上进行实验,采用常见评价指标Pearson线性相关系数(PLCC)、Spearman秩序相关系数(SROCC)、均方误差(RMSE)衡量方法优劣。其中PLCC和SROCC用来衡量相关性,值越接近1越好;RMSE用来衡量误差大小,值越接近0越好。
实验结果表明本方法能得到更加符合人类感受的立体图像视觉舒适度预测结果:
Jung-1方法参见:Jung Y J,Sohn H,Lee S I,et al.Predicting visualdiscomfort of stereoscopic images using human attention model[J].IEEEtransactions on circuits and systems for video technology,2013,23(12):2077-2082.
Park-1和Park-2方法参见:Oh H,Lee S,Bovik A C.Stereoscopic 3D visualdiscomfort prediction:A dynamic accommodation and vergence interaction model[J].IEEE Transactions on Image Processing,2015,25(2):615-629.
Jiang-1和Jiang-2方法参见:Jiang Q,Shao F,Jiang G,et al.Visual comfortassessment for stereoscopic images based on sparse coding with multi-scaledictionaries[J].Neurocomputing,2017,252:77-86.
附图说明
图1:模型总体框架。
图2:三维显著性加权视差图和三维非显著性加权视差图的实例,其中黑色区域最不重要,白色区域最重要。
图3:三种角视差图的示例。
图4:像素视差图、水平角视差图和13个MT图示例。
图5:13个典型MT细胞的分类
图6:MTI图估计图解,(a)左视图像,(b)角视差图,(c)显著图,(d)-(p)14个MTI图
具体实施方式
第一步:估计像素视差图Dp、三维加权显著图Sp和三维加权非显著图Sp -
采用DERS(Depth estimation reference software)方法对像素进行深度估计,得到像素视差图,称为Dp;DERS方法参见:Tanimoto M,Fujii T,Suzuki K,et al.Depthestimation referencesoftware(DERS)5.0[J].ISO/IEC JTC1/SC29/WG11 M,2009,16923:2009.。
采用AH(Salient object detection via augmented hypotheses)方法进行显著性目标检测,得到显著图S;AH方法参见:Sun D,Roth S,Black M J.Secrets of opticalflow estimation and their principles[C]//2010 IEEE computer societyconference on computer vision and pattern recognition.IEEE,2010:2432-2439.。
将像素视差图Dp和显著图S线性组合得到三维显著性加权视差图Sp
sp(i,j)=(1-α).dp(i,j)+α.s(i,j)
其中sp(i,j)、dp(i,j)和s(i,j)分别表示三维显著性加权视差图Sp、像素视差图Dp和显著图S在像素点(i,j)处的值,α是三维显著性加权视差图的显著性权重,取α=0.3,(1-α)是其深度显著性权重;
由三维显著性加权视差图Sp得到三维非显著性加权视差图Sp -,检测图像显著区域外的最大视差物体:
sp -(i,j)=1-s(i,j)
sp-(i,j)表示三维非显著性加权视差图Sp-在像素点(i,j)处的值。
第二步:计算三种角视差图D0、D1、D2和MTI图
对于13种典型MT神经细胞,获得各MT神经细胞对应的MT图,用以表示各MT细胞对于水平角视差的电反应;人类MT区域神经细胞活性研究和MT图计算参见:DeAngelis G C,Uka T.Coding of horizontal disparity and velocity by MT neurons in the alertmacaque[J].Journal of neurophysiology,2003,89(2):1094-1111.。
为表示立体图像不同部分的重要性,将MT图和显著图S线性组合,再经过视差值加权得到MT重要性图,即MTI图:
MTI(i)=[ωmMT(i)+ωsS].|Dd|
其中,ωm为MT值权重,取ωm=0.3,ωs为显著图权重,取ωs=0.7,MT(i)为第i个MT神经细胞的MT图,S为显著图,Dd为角视差图;角视差图Dd的计算方法如下:
其中d(x,y)表示角视差图Dd在像素点(i,j)处的值,其中I表示眼间距离、Zd表示物体与显示器之间的距离;
通过改变视距D得到三种角视差图,分别为原始角视差图D0;调谐近角视差图D1;调谐远角视差图D2
根据MT神经细胞对视距变化的电反应,将MT神经细胞分类:MT1到MT5细胞对近视差变化反应强烈,被分到调谐近视差图D1,即在计算对应的MTI图时,公式中的视差图Dd=D1;同理,MT6到MT7细胞被分到原始角视差图D0;MT8到MT12细胞被分到调谐远视差图D2;MT13被同时分到调谐近视差图D1和调谐远视差图D2,最终得到14个MTI图;
第三步:提取特征
(1)对于视差图Dp、三维显著性加权视差图Sp和三维非显著性加权视差图Sp -:对原始图像做下采样处理,得到1/8下采样图像、1/4下采样图像和原始尺寸图像,分别计算三种图像的视差均值p1、视差方差p2、3D显着加权视差均值p3,3D非显着性加权视差均值p4和视差梯度p5,得到某一种采样图像的特征,表示为三种采样图像的特征组合起来得到一组特征向量
计算方法如下:
其中P为图像长和宽的乘积,dn是对dp的归一化,μ为dp的均值,|Δdp(x,y)|表示绝对微分视差。
(2)对于三种角视差图D0、D1、D2:分别计算最大视差d1、最小视差d2、视差范围d3、平均交叉视差d4和平均未交叉视差d5,得到特征向量D={d1,d2,d3,d4,d5}。
计算方法如下:
d1=max{d(x,y)}
d2=min{d(x,y)}
d3=max{d(x,y)}-min{d(x,y)}
其中Ω-和Ω+分别是负视差值组和正视差值组,分别对应平均交叉视差和平均未交叉视差,K1和K2分别是每组中的像素数。
(3)对于MTI图:
分别计算14个MTI图的像素平均值,并归一化,得到神经特征向量N={n1,n2,...,n14},其中ni表示第i个MTI图的归一化像素平均值。
第四步:回归模型预测分数质量
利用双SVR来预测立体图像对的视觉不适分数。
(1)来源于视差图Dp、三维显著性加权视差图Sp和三维非显著性加权视差图Sp -的特征信息F,提供给第一个支持向量回归器(SVR-P),预测视觉不适评分Qp
(2)来源于调谐视差图D0、D1、D2的特征信息D和对应分类的MTI图特征信息N,提供给第二个支持向量回归器(SVR-MT),预测视觉不适评分QMT
SVR-MT:D(i)+N(j);i=1,...,5;j=1,2,...,14
(3)最终的立体图像视觉不适分数Qp=0.7Qp+0.3QMT

Claims (1)

1.一种基于光学和神经注意机制的立体图像视觉舒适度评价方法,包括下列步骤:
第一步:估计像素视差图Dp、三维加权显著图Sp和三维加权非显著图Sp -
采用DERS(Depth estimation reference software)方法对像素进行深度估计,得到像素视差图,称为Dp
采用AH(Salient object detection via augmented hypotheses)方法进行显著性目标检测,得到显著图S;
将像素视差图Dp和显著图S线性组合得到三维显著性加权视差图Sp
sp(i,j)=(1-α).dp(i,j)+α.s(i,j)
其中sp(i,j)、dp(i,j)和s(i,j)分别表示三维显著性加权视差图Sp、像素视差图Dp和显著图S在像素点(i,j)处的值,α是三维显著性加权视差图的显著性权重,取α=0.3,(1-α)是其深度显著性权重;
由三维显著性加权视差图Sp得到三维非显著性加权视差图Sp -,检测图像显著区域外的最大视差物体:
sp -(i,j)=1-s(i,j)
sp -(i,j)表示三维非显著性加权视差图Sp -在像素点(i,j)处的值。
第二步:计算三种角视差图D0、D1、D2和MTI图
对于13种典型MT神经细胞,获得各MT神经细胞对应的MT图,用以表示各MT细胞对于水平角视差的电反应;
为表示立体图像不同部分的重要性,将MT图和显著图S线性组合,再经过视差值加权得到MT重要性图,即MTI图:
MTI(i)=[ωmMT(i)+ωsS].|Dd|
其中,ωm为MT值权重,取ωm=0.3,ωs为显著图权重,取ωs=0.7,MT(i)为第i个MT神经细胞的MT图,S为显著图,Dd为角视差图;角视差图Dd的计算方法如下:
其中d(x,y)表示角视差图Dd在像素点(i,j)处的值,其中I表示眼间距离、Zd表示物体与显示器之间的距离;
通过改变视距D得到三种角视差图,分别为原始角视差图D0;调谐近角视差图D1;调谐远角视差图D2
根据MT神经细胞对视距变化的电反应,将MT神经细胞分类:MT1到MT5细胞对近视差变化反应强烈,被分到调谐近视差图D1,即在计算对应的MTI图时,公式中的视差图Dd=D1;同理,MT6到MT7细胞被分到原始角视差图D0;MT8到MT12细胞被分到调谐远视差图D2;MT13被同时分到调谐近视差图D1和调谐远视差图D2,最终得到14个MTI图;
第三步:提取特征
(1)对于视差图Dp、三维显著性加权视差图Sp和三维非显著性加权视差图Sp -:对原始图像做下采样处理,得到1/8下采样图像、1/4下采样图像和原始尺寸图像,分别计算三种图像的视差均值p1、视差方差p2、3D显着加权视差均值p3,3D非显着性加权视差均值p4和视差梯度p5,得到某一种采样图像的特征,表示为Psize={p1,p2,p3,p4,p5};三种采样图像的特征组合起来得到一组特征向量
计算方法如下:
其中P为图像长和宽的乘积,dn是对dp的归一化,μ为dp的均值,|Δdp(x,y)|表示绝对微分视差;
(2)对于三种角视差图D0、D1、D2:分别计算最大视差d1、最小视差d2、视差范围d3、平均交叉视差d4和平均未交叉视差d5,得到特征向量D={d1,d2,d3,d4,d5};
计算方法如下:
d1=max{d(x,y)}
d2=min{d(x,y)}
d3=max{d(x,y)}-min{d(x,y)
其中Ω-和Ω+分别是负视差值组和正视差值组,分别对应平均交叉视差和平均未交叉视差,K1和K2分别是每组中的像素数;
(3)对于14个MTI图:分别计算14个MTI图的像素平均值,并归一化,得到神经特征向量N={n1,n2,…,n14},其中ni表示第i个MTI图的归一化像素平均值;
第四步:回归模型预测分数质量
(4)利用双SVR来预测立体图像对的视觉不适分数;
1)来源于视差图Dp、三维显著性加权视差图Sp和三维非显著性加权视差图Sp -的特征信息F,提供给第一个支持向量回归器SVR-P,预测视觉不适评分Qp
2)来源于调谐视差图D0、D1、D2的特征信息D和对应分类的MTI图特征信息N,提供给第二个支持向量回归器SVR-MT,预测视觉不适评分QMT
3)最终的立体图像视觉不适分数Qp=0.7Qp+0.3QMT
CN201910636642.3A 2019-07-15 2019-07-15 基于光学和神经注意机制的立体图像视觉舒适度评价方法 Active CN110458880B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910636642.3A CN110458880B (zh) 2019-07-15 2019-07-15 基于光学和神经注意机制的立体图像视觉舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910636642.3A CN110458880B (zh) 2019-07-15 2019-07-15 基于光学和神经注意机制的立体图像视觉舒适度评价方法

Publications (2)

Publication Number Publication Date
CN110458880A true CN110458880A (zh) 2019-11-15
CN110458880B CN110458880B (zh) 2023-04-11

Family

ID=68481192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910636642.3A Active CN110458880B (zh) 2019-07-15 2019-07-15 基于光学和神经注意机制的立体图像视觉舒适度评价方法

Country Status (1)

Country Link
CN (1) CN110458880B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112738501A (zh) * 2020-12-29 2021-04-30 杭州电子科技大学 一种立体图像舒适度测试方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469355A (zh) * 2014-12-11 2015-03-25 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
CN108401149A (zh) * 2018-02-13 2018-08-14 天津大学 基于多尺度空间理论和非显著区域图的立体图像舒适度评价

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469355A (zh) * 2014-12-11 2015-03-25 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
CN108401149A (zh) * 2018-02-13 2018-08-14 天津大学 基于多尺度空间理论和非显著区域图的立体图像舒适度评价

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIACHEN YANG: "An Image quality Evaluation Method based on Joint Deep Learning" *
杨嘉琛;侯春萍;沈丽丽;张卓筠;: "基于PSNR立体图像质量客观评价方法" *
杨嘉琛;侯春萍;雷建军;: "基于人眼视觉特征的立体图像质量客观评价方法" *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112738501A (zh) * 2020-12-29 2021-04-30 杭州电子科技大学 一种立体图像舒适度测试方法

Also Published As

Publication number Publication date
CN110458880B (zh) 2023-04-11

Similar Documents

Publication Publication Date Title
EP3937124A1 (en) Image processing method, device and apparatus, and storage medium
CN110991266B (zh) 一种双目人脸活体检测方法及装置
CN112634341A (zh) 多视觉任务协同的深度估计模型的构建方法
CN101610425B (zh) 一种评测立体图像质量的方法和装置
CN108389189B (zh) 基于字典学习的立体图像质量评价方法
CN115601318B (zh) 快吸收低反渗纸尿裤智能生产方法及其***
CN114973349A (zh) 面部图像处理方法和面部图像处理模型的训练方法
CN110458880A (zh) 基于光学和神经注意机制的立体图像视觉舒适度评价方法
CN106599826A (zh) 基于近红外光人脸3d重建的方法
CN104469355B (zh) 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN112927348B (zh) 一种基于多视点rgbd相机高分辨率人体三维重建方法
Jiang et al. Visual comfort assessment for stereoscopic images based on sparse coding with multi-scale dictionaries
CN107285148A (zh) 基于电梯场景的兴趣区域判断***及方法
CN105869172B (zh) 一种深度图可靠性评价测度方法
CN111526354B (zh) 一种基于多尺度空间视差信息的立体视频舒适度预测方法
CN115116092A (zh) 基于人眼立体视觉的真伪行人智能识别方法及仿生模型
CN114821681A (zh) 一种指纹增广方法
CN114783023A (zh) 一种融合ai面部表情识别和主观打分的满意度评价***
CN108401149A (zh) 基于多尺度空间理论和非显著区域图的立体图像舒适度评价
CN109034112B (zh) 医院面部结账***
CN111382607B (zh) 活体检测方法、装置及人脸认证***
Yong‐lian Multi‐feature data mining for CT image recognition
CN112634278A (zh) 基于超像素的恰可察觉失真模型
Kang et al. 3D image quality assessment based on texture information
CN116636660B (zh) 一种电子烟烟油信息处理方法、***及电子烟

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant