CN103493482A - 一种提取及优化图像深度图的方法与装置 - Google Patents

一种提取及优化图像深度图的方法与装置 Download PDF

Info

Publication number
CN103493482A
CN103493482A CN201280004184.8A CN201280004184A CN103493482A CN 103493482 A CN103493482 A CN 103493482A CN 201280004184 A CN201280004184 A CN 201280004184A CN 103493482 A CN103493482 A CN 103493482A
Authority
CN
China
Prior art keywords
pixel
source images
value
correlation
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280004184.8A
Other languages
English (en)
Other versions
CN103493482B (zh
Inventor
赵兴朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Qingdao Hisense Xinxin Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Xinxin Technology Co Ltd filed Critical Qingdao Hisense Xinxin Technology Co Ltd
Publication of CN103493482A publication Critical patent/CN103493482A/zh
Application granted granted Critical
Publication of CN103493482B publication Critical patent/CN103493482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及一种提取及优化图像深度图的方法与装置。所述方法包括:获取当前源图像和当前源图像中每个像素点的场景相关度;对当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度;将当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取当前下采样源图像中每个像素点的运动矢量值;累加当前下采样源图像中每个像素点的运动矢量值,从运动矢量累加和中提取每个像素点的初始深度值,初始深度值构成初始深度图;利用源图像中每个像素点的场景相关度和每个下采样源图像中每个像素点的场景相关度对初始深度图中每个像素点进行连续超平滑滤波处理和上采样处理,获取源图像深度图。

Description

一种提取及优化图像深度图的方法与装置
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种提取及优化图像深度图的方法与装置。
背景技术
三维立体显示技术最近几年高速发展,三维终端显示设备(ThreeDimensions,3D)如,3D电视,3D游戏机等的迅速崛起已成为科技发展的必然结果。由于3D片源资源稀少、造价昂贵,所以由普通的二维(TwoDimensions,2D)视频帧序列转换成3D视频帧序列的2D转3D技术已成为三维立体显示技术中的热点领域。
在2D转3D技术中,重点和难点是2D视频图像深度图的提取。深度图的物理意义是:2D视频帧序列中不同画面内容离观看者的远近程度,是构成3D视差图像最主要的信息来源。目前提取深度图的方法和手段各种各样,主要包括基于物体轮廓提取物体的深度信息、基于图像的颜色分割提取深度图、基于虚拟空间交点提取深度图、基于物体的运动矢量提取深度图以及基于关键帧半自动提取深度图等。但是这些众多提取深度图的技术大多都存在严重的缺陷,要么深度图模糊不清晰、要么计算量太大、要么人工干扰因素太多等等,这样就很难达到3D终端显示设备的显示需求。
现有技术提供了一种生成二维视频序列深度图的方法,如图1所示,该方法首先选取视频帧序列中的关键帧,并人工生成关键帧的深度图,然后匹配估计视频连续帧特征点之间的运动位移,根据关键帧深度图及运动位移得出当前帧的深度图。该文献介绍的这种方法在一定程度上可以提取当前帧深度图,但是这种方法需要人工选取和计算关键帧的深度图,不利于深度图的全自动化生成,进而难以在工业领域推广;还有一点是在进行匹配估计的时候很容易造成匹配错误,进而深度图信息也会造成匹配误差,这样提取的深度图往往轮廓模糊、深度信息凹凸不均衡。
发明内容
本发明的目的是为了解决现有技术的需人工选取并提取关键帧的深度图,造成提取的深度图精度低,出现误差的问题,提供了一种提取及优化图像深度图的方法与装置。
在第一方面,本发明实施例提供了一种提取及优化图像深度图的方法,所述方法包括:获取当前源图像和所述当前源图像中每个像素点的场景相关度,所述当前源图像为当前视频连续帧序列;
对所述当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度;
将所述当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前下采样源图像中每个像素点的运动矢量值;
分别累加所述当前下采样源图像中每个像素点的运动矢量值,从运动矢量累加和中提取每个像素点的初始深度值,所述初始深度值构成源图像初始深度图;
利用所述源图像中每个像素点的场景相关度和所述每个下采样源图像中每个像素点的场景相关度对所述初始深度图中每个像素点进行连续超平滑滤波处理和上采样处理,获取所述源图像深度图。
在第二方面,本发明实施例提供了一种提取及优化图像深度图的装置,所述装置包括:第一获取单元,用于获取当前源图像和所述当前源图像中每个像素点的场景相关度,所述当前源图像为当前视频连续帧序列;
第二获取单元,用于对所述当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度;
第三获取单元,用于将所述当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前下采样源图像中每个像素点的运动矢量值;
计算单元,用于分别累加所述当前下采样源图像中每个像素点的运动矢量值,从运动矢量累加和中提取每个像素点的初始深度值,所述初始深度值构成源图像初始深度图;
第一处理单元,用于利用所述源图像中每个像素点的场景相关度和所述每个下采样源图像中每个像素点的场景相关度对所述初始深度图中每个像素点进行连续超平滑滤波处理和上采样处理,获取所述源图像深度图。
通过应用本发明实施例公开的方法和装置,在不同下采样阶段求出相应的场景相关度,通过运动矢量累加和提取初始深度图,利用不同采样阶段的场景相关度对初始深度图进行迭代超平滑处理,最终生成源图像深度图,提高了深度图的图像质量,让深度图轮廓更加清晰,同时本方法也让整个过程的计算开销保持在合理范围之内。
附图说明
图1为现有技术提取深度图流程图;
图2为本发明实施例公开的深度图提取及优化的方法流程图;
图3为本发明实施例当前源图像示意图;
图4为本发明实施例计算任一像素点场景相关度的示意图;
图5为本发明实施例计算边界上任一像素点场景相关度的示意图;
图6为本发明实施例源图像的初始深度图;
图7为本发明实施例为任一像素点分配权重系数示意图;
图8为本发明实施例为边界上任一像素点分配权重系数示意图;
图9为本发明实施例超平滑滤波器的结构图;
图10为本发明实施例源图像优化后深度图;
图11为本发明实施例公开的提取及优化图像深度图的装置图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于对本发明实施例的理解,下面将结合附图以具体实施例做进一步的解释说明,实施例并不构成对本发明实施例的限定。
以图2为例详细说明本发明实施例公开的图像处理的方法,图2为本发明实施例公开的深度图提取及优化的方法流程图。
如图2所示,在本发明实施例中,首先获取连续当前源图像,所述当前源图像为二维连续帧序列,提取当前源图像中每个像素点的场景相关度,对当前源图像分别经过横向和纵向的两次1/2下采样操作,并在两次1/2下采样后进行相应的提取每个像素点的场景相关度,获取各阶段分辨率源图像中每个像素点的的场景相关度。
利用经过两次1/2下采样后,分辨率为1/16的源图像中的像素点与之前的1/16分辨率源图像相对应的像素点进行块匹配运动矢量计算,得出当前1/16分辨率源图像中像素点的运动矢量值,累加当前1/16分辨率源图像中像素点的运动矢量值,基于运动矢量累加和提取当前1/16分辨率源图像中像素点的初始深度值,每个像素点的初始深度值形成初始深度图;但是,所述初始深度图的分辨率为源图像的1/16,因此轮廓模糊不清晰,还要对所述初始深度图进行严格优化处理。
对1/16分辨率初始深度图进行基于1/16分辨率场景相关度的超平滑滤波处理,并进行四次迭代超平滑滤波;对迭代超平滑滤波处理完的1/16分辨率深度图分别进行横向和纵向的两倍上采样,得到1/4分辨率初始深度图,对1/4分辨率深度图进行基于1/4分辨率场景相关度的超平滑滤波处理,并进行两次迭代超平滑滤波;进一步对处理完的1/4分辨率深度图进行两倍上采样得到原始分辨率大小的深度图,再进行基于场景相关度的一次迭代超平滑滤波处理,最后获取到优化处理后的深度图,具体实现的步骤如下所描述:
步骤210、获取二维源图像,并从源图像中提取场景相关度;
具体地,首先获取连续当前源图像,所述当前源图像为二维连续帧序列,如图3所示,图3为本发明实施例当前源图像示意图;
同时,从当前源图像中提取场景相关度;
在本发明实施例中,场景相关度为在一帧图像中任一像素点(任取一像素点为中心像素点)与其周围相邻像素点的相关程度。利用中心像素点处R(红)、G(绿)、B(蓝)的值依次与周围相邻像素点处R(红)、G(绿)、B(蓝)的值相减,并取差值的绝对值。如果某一个方向上的相邻像素的差值的绝对值小于预先设定的相关度阈值,那么,就将该方向上相关度标志槽中的相关度标志位设置1,否则设置0。所述相关度标志槽buffer[]是一个8位宽的缓冲器,从最低位到最高位的8个相关度标志位依次存放中心像素点与其最近的8个相邻像素点按顺时针顺序旋转的相关度信息。存储1为中心像素点与相邻像素点相关,存储0为中心像素点与相邻像素点不相关。一个相关度标志槽映射源图像中的任一个像素点。
如图4所示,图4为本发明实施例计算任一像素点场景相关度的示意图;其中,红色像素点为选取的中心像素点,中心像素点的坐标为(x,y),与所述中心像素点相邻的像素点为相邻像素点,在图4中,有8个相邻像素点,并将8个相邻像素点按顺时针编号,如0-7号,所述编号分别对应着场景相关度标志槽的最低位至最高位;
根据前述方法,判断每个相邻像素点与中心像素点的相关程度,假如在编号1的相邻像素点与中心像素点的相关,则在相关度标志槽buffer[1]中存储1;因此,相关度标志槽buffer[m]的公式为:
buffer [ m ] = 1 , | f ( x , y ) - f ( x ± k , y ± k ) | R + | f ( x , y ) - f ( x ± k , y ± k ) | G + | f ( x , y ) - f ( x ± k , y ± k ) | B ≤ A ; 0 , | f ( x , y ) - f ( x ± k , y ± k ) | R + | f ( x , y ) - f ( x ± k , y ± k ) | G + | f ( x , y ) - f ( x ± k , y ± k ) | B > A ;
(式1)
其中,k=0,1;0≤m≤7;m∈Z;f(x,y)、f(x±k,y±k)为像素点R(红)、G(绿)、B(蓝)分量的值;A为场景相关度的阈值;buffer[m]为相关度的第m位;m为相邻像素点标号。
在此,说明一下,在计算边界上像素点相关度的情况,如图5所示,图5为本发明实施例计算边界上任一像素点场景相关度的示意图;其中,红色像素点为选取的中心像素点,中心像素点的坐标为(x,y),与所述中心像素点相邻的像素点为相邻像素点,在图5中,中心像素点的坐标取x=0和y=0,即中心像素点位于当前源图像的第一行,第一列,此时,编号的方式与前述相同,只需计算虚线框内的编号为2、3、4像素点的相关度,编号为0、1、5、6、7、像素点不存在,因此,直接将相关度标志槽buffer[0]、buffer[1]、buffer[5]、buffer[6]、buffer[7]赋值为0,其它边界位置上的像素点处理方法与之相同,因此,不再赘述。
需要说明的是,上述描述的计算相关度是以1个像素点为例进行说明的,在实际计算中,均要对每个像素点进行计算,在源图像中每个像素点经计算后,均存在1个相关度标志槽,所有像素点的所有相关度标志槽构成了当前源图像的场景相关度。
步骤220、对源图像进行横向和纵向1/2下采样,获取1/4分辨率源图像,并从1/4分辨率源图像中提取场景相关度;
具体地,对获取的当前源图像分别经过横向和纵向的1/2下采样操作,并在1/2下采样后,从1/4分辨率源图像的每个像素点中提取场景相关度,获取1/4分辨率源图像和1/4分辨率源图像中每个像素点的场景相关度。
在当前1/4分辨率的采样阶段,用步骤210描述的方法计算出1/4分辨率源图像中每个像素点场景相关度。
需要说明的是,对源图像的下采样处理为现有技术,在此不再赘述。
步骤230、对1/4分辨率源图像再次进行横向和纵向1/2下采样,获取1/16分辨率源图像,并从1/16分辨率源图像中提取场景相关度;
具体地,对获取的1/4分辨率源图像分别经过横向和纵向的1/2下采样操作,并在1/2下采样后,从1/16分辨率源图像中提取场景相关度,获取1/16分辨率源图像和1/16分辨率源图像中每个像素点的场景相关度。
在当前1/16分辨率的采样阶段,用步骤210描述的方法计算出1/16分辨率源图像中每个像素点场景相关度。
需要说明的是,对1/4分辨率源图像的下采样处理为现有技术,在此不再赘述。
步骤240、1/16分辨率源图像与之前1/16分辨率源图像进行块匹配运动矢量计算;
具体地,利用步骤230中,经下采样后的1/16分辨率源图像与之前的1/16分辨率源图像进行块匹配运动矢量计算,获取当前1/16分辨率源图像中每个像素点的运动矢量值,并对获取的当前1/16分辨率源图像中每个像素点的运动矢量值累加。
需要说明的是,基于块匹配的运动矢量累加也为现有技术,在此不再赘述。
步骤250、运动矢量累加和中提取初始深度值,形成初始深度图;
具体地,根据步骤240的描述,获取当前1/16分辨率源图像中每个像素点的运动矢量值累加,从所述运动矢量累加和中提取每个像素点的初始深度值,对1/16分辨率源图像中全部像素点均提取初始深度值,全部像素点的初始深度值形成1/16分辨率源图像的初始深度图;
在此,说明一下,对每个像素点基于运动矢量累加和中提取初始深度值;
假定,连续两个源图像中运动物体的最大偏移量为当前源图像的3.5%宽度,此时,所代表的运动矢量值对应的灰度值为255,那么单位像素位移所代表的灰度值大小如下公式:
I = 255 W * 3.5 %     (式2)
其中,W为图像的宽度;
若计算得到的图像块运动矢量模为表1所示的值,在此,以举例的方式说明,表1中计算出9个运动矢量模。
表1运动矢量模
a b c
d e f
g h k
那么,上述9个运动矢量模对应的灰度值为:
表2运动矢量灰度值
a*I b*I c*I
d*I e*I f*I
g*I h*I k*I
在前述已说明获取的源图像是二维视频帧序列,从所述二维帧序列中提取任一像素点的深度信息,为了保持像素点在停止运动之后,其深度值仍然存在,以便于随时获取其运动信息,将任一像素点的深度值存入深度暂存器中。否则,一旦像素点在当前源图像中停止了运动,那么,之后源图像中该像素点的运动矢量就会为零,此时,如果直接由当前像素点运动矢量值计算深度信息就会获取错误的结果。因此,深度暂存器存放的为像素点之前的深度信息的累加值,由于深度暂存器是存在最大值的,所以,限制深度暂存器的最大值为Dtotal
由于在前述中已经获取任一像素点的灰度值,当前深度图全部灰度值的累加和为Dnew,深度暂存器中之前所有深度图的全部灰度值累加和为Dacc,若一直把Dnew简单的加到Dacc中,最终会超过深度暂存器累加和的最大值Dtotal而导致溢出,导致像素点深度信息流失;因此,在本发明实施例中,
如果Dnew+Dacc<Dtotal时,则Dacc_depth(x,y)=Dacc_depth(x,y)+Dnew_depth(x,y)   (式3)
如果Dnew+Dacc>Dtotal时,则 D acc _ depth ( x , y ) = D acc _ depth ( x , y ) * D total - D new D acc    (式4)
D total - D new D acc < 0 , D total - D new D acc = 0 ;     (式5)
D total - D new D acc > 1 , D total - D new D acc = 1 .    (式6)
其中0≤x≤h-1,0≤y≤w-1。h、w分别为下采样1/16分辨率源图像的高度和宽度。Dacc_depth(x,y)表示为每个像素点之前运动矢量灰度值的累加和,Dnew_depth(x,y)表示为每个像素点当前运动矢量灰度值。
需要说明的是,上述描述的从运动矢量累加和中提取初始深度值是以部分像素点为例进行说明的,在实际计算中,均要对每个像素点进行提取,在1/16分辨率源图像中提取每个像素点初始深度值后,形成1/16分辨率源图像的初始深度图,如图6所示,图6为本发明实施例源图像的初始深度图。
步骤260、对1/16分辨率初始深度图进行超平滑滤波处理,和上采样处理;
具体地,从图6的初始深度图可知,由于在步骤250中,块匹配运动矢量计算过程中,存在较大误差,导致所提取的初始深度图轮廓模糊不清晰,因此,在本步骤中对1/16分辨率初始深度图进行严格优化处理。
根据步骤230的描述,在步骤230中获取1/16分辨率源图像的场景相关度,因此,根据获取的1/16分辨率源图像的场景相关度对1/16分辨率初始深度图进行超平滑滤波处理,并进行四次迭代滤波;然后,对迭代超平滑滤波处理完的1/16分辨率初始深度图分别进行横向和纵向的两倍上采样,得到1/4分辨率初始深度图。
在本发明实施例中,根据步骤230的描述,已获取了1/16分辨率源图像像素点的场景相关度,根据1/16分辨率源图像像素点的场景相关度对1/16分辨率初始深度图进行优化处理;在计算相关度中定义了与中心像素点相邻的像素点,在本步骤中的超平滑滤波处理中,再将每个相邻像素点分配不同的权重系数,如图7所示,图7为本发明实施例为任一像素点分配权重系数示意图;
每个相邻像素点的权重系数分别作为超平滑滤波器的滤波抽头系数。所述超平滑滤波器为低通滤波器,由于该滤波器系数因子为8个,并且有规律的分布在中心像素点的8个方向上,所以,滤波性能高,可以有效的平滑初始深度图中凹凸锐利的高频噪声和高频分量。
当选取的中心像素点不在初始深度图的边界上时,根据中心像素点处的相关度标志槽,获取中心像素点与8个相邻像素点的相关情况。如果某一相邻像素点与中心像素点相关度为1,则用相邻像素点的灰度值乘以该相邻像素点的权重系数,如果某一相邻像素点与中心像素点相关度为0,则用相邻像素点的权重系数乘以中心像素点的灰度值,最后,将8个相邻像素点相乘的结果累加起来作为对1/16分辨率初始深度图平滑滤波后的结果。
图8为本发明实施例对边界上任一像素点分配权重系数示意图;如图8所示,其中,红色像素点为选取的中心像素点,中心像素点的坐标为(x,y),与所述中心像素点相邻的像素点为相邻像素点,在图8中,中心像素点的坐标取x=0和y=0,即中心像素点位于当前源图像的第一行,第一列,此时,编号的方式与前述相同,只需根据虚线框内的编号为2、3、4像素点的相关度进行滤波,编号为0、1、5、6、7、像素点不存在,因此,相关度标志槽buffer[0]、buffer[1]、buffer[5]、buffer[6]、buffer[7]值为0,其它边界位置上的像素点处理方法与之相同,因此,不再赘述。
图9为本发明实施例超平滑滤波器的结构图,如图9所示,图9中的coef0-coef7为相邻像素点的权重系数,也为超平滑滤波器的抽头系数;在本发明实施例中,设定coef0=coef2=coef4=coef6=1/6;coef1=coef3=coef5=coef7=1/12;在设定权重系数时,要满足8个相邻像素点的权重系数和为1,即coef0+coef1+coef2+coef3+coef4+coef5+coef6+coef7=1。
因此,对任一像素点进行滤波的公式为:
f ( x , y ) = [ 1 6 * &Sigma; n = 0 3 [ ~ buffer [ 2 n ] ] + 1 12 * &Sigma; n = 0 3 [ ~ buffer [ 2 n + 1 ] ] ] * f ( x , y ) + 1 6 * &Sigma; n = 0 3 [ buffer [ 2 n ] * f ( 2 n ) ] + 1 12 * &Sigma; n = 0 3 [ buffer [ 2 n + 1 ] * f ( 2 n + 1 ) ] (式7)
其中,n∈Z,n=0,1,2,3;buffer[]为相邻像素点的场景相关度;~buffer[]为相邻像素点的场景相关度的取反;f(x,y)为中心像素点(x,y)处的灰度值。
对所述1/16分辨率初始深度图进行四次迭代超平滑滤波处理完成后,对迭代超平滑滤波处理完的1/16分辨率初始深度图中每个像素点分别进行横向和纵向的两倍上采样,获取每个1/4分辨率像素点的深度值,每个1/4分辨率像素点的深度值形成1/4分辨率深度图,得到1/4分辨率深度图。
需要说明的是,上述描述的根据相关度对初始深度图滤波是以1个像素点为例进行说明的,在实际计算中,均要对每个像素点进行滤波。
对迭代超平滑滤波处理完的1/16分辨率初始深度图的上采样处理为现有技术,在此不再赘述。
步骤270、对1/4分辨率深度图进行超平滑滤波处理,和上采样处理;
具体地,根据步骤260获取1/4分辨率深度图,根据步骤220的描述,在步骤220中获取1/4分辨率源图像的场景相关度,因此,根据获取的1/4分辨率源图像的场景相关度对1/4分辨率深度图进行超平滑滤波处理,并进行两次迭代滤波;然后,对迭代超平滑滤波处理完的1/4分辨率初始深度图分别进行横向和纵向的两倍上采样,获取每个原始分辨率像素点的深度值,每个原始分辨率像素点的深度值形成原始分辨率深度图,得到原始分辨率的初始深度图;
在本步骤中的滤波过程中,用步骤260描述的方法对1/4分辨率深度图进行超平滑滤波。
步骤280、获取优化处理后的深度图;
具体地,根据步骤270获取原始分辨率深度图,根据步骤210的描述,在步骤210中获取源图像的场景相关度,因此,根据获取的源图像的场景相关度对原始分辨率深度图进行一次迭代超平滑滤波处理;最后,获取源图像深度图。
如图10所示,图10为源图像优化处理后深度图;与图6源图像的初始深度图相比较,初始深度图分辨率较低,像素点较少,图像轮廓不清晰,在进行较多次迭代超平滑滤波和上采样后,初始深度图分辨率升高,像素点变多,深度图轮廓更加清晰,提高了深度图的图像质量。
通过应用本发明实施例公开的方法,在不同下采样阶段求出相应的场景相关度,通过运动矢量累加和提取初始深度图,利用不同下采样阶段的场景相关度对初始深度图进行迭代超平滑处理,同时进行上采样处理,最终生成源图像深度图,提高了深度图的图像质量,让深度图轮廓更加清晰,同时本方法也让整个过程的计算开销保持在合理范围之内。
相应地,上述实施例是对提取及优化图像深度图的方法描述,相应地,也可用图像处理的装置实现。如图11所示,图11为本发明实施例公开的提取及优化图像深度图的装置图。所述提取及优化图像深度图的装置包括:第一获取单元1110,用于获取当前源图像和所述当前源图像中每个像素点的场景相关度,所述当前源图像为当前视频连续帧序列;
第二获取单元1120,用于对所述当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度;
第三获取单元1130,用于将所述当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前下采样源图像中每个像素点的运动矢量值;
计算单元1140,用于分别累加所述当前下采样源图像中每个像素点的运动矢量值,从运动矢量累加和中提取每个像素点的初始深度值,所述初始深度值构成源图像初始深度图;
第一处理单元1150,用于利用所述源图像中每个像素点的场景相关度和所述每个下采样源图像中每个像素点的场景相关度对所述初始深度图中每个像素点进行连续超平滑滤波处理和上采样处理,获取所述源图像深度图。
所述装置中,第一获取单元1110具体用于:选择任一像素点作为中心像素点,将与所述中心像素点相邻像素点标号;
获取所述中心像素点红R、绿G、蓝B分量值与每个所述相邻像素点红R、绿G、蓝B分量值的差值,并对所述差值取绝对值;
将所述绝对值与场景相关度阈值相比较,如果所述绝对值小于场景相关度阈值,则将所述相邻像素点的场景相关度设置为1相关,否则,设置为0不相关;
将所述相邻像素点的场景相关度存储在缓冲器中,所述缓冲器具体为
buffer [ m ] = 1 , | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | R + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | G + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | B &le; A ; 0 , | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | R + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | G + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | B > A ;
其中,k=0,1;0≤m≤7;m∈Z;f(x,y)、f(x±k,y±k)为像素点红R、绿G、蓝B分量的值;A为场景相关度阈值;buffer[m]为相关度的第m位;m为相邻像素点标号。
所述装置中,第二获取单元1120具体用于:对所述当前源图像进行横向和纵向的1/2下采样,获取当前1/4分辨率源图像和当前1/4分辨率源图像中每个像素点的场景相关度;
对所述当前1/4分辨率源图像进行横向和纵向的1/2下采样,获取当前1/16分辨率源图像和当前1/16分辨率源图像中每个像素点的场景相关度。
所述装置中,第三获取单元1130具体用于:将所述当前1/16分辨率源图像中每个像素点与之前的所述1/16分辨率源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前1/16分辨率源图像中每个像素点的运动矢量值;
分别累加所述当前1/16分辨率源图像中每个像素点的运动矢量值。
所述装置中,计算单元1140具体用于:获取每个像素点位移的运动矢量模和单位像素位移灰度值,所述单位像素位移灰度值为W为图像的宽度;
将所述运动矢量模与所述单位像素位移灰度值相乘,获取所述每个像素点的运动矢量灰度值;
将所述每个像素点的运动矢量灰度值的累加和存储在深度暂存器中;
如果Dnew+Dacc<Dtotal;则Dacc_depth(x,y)=Dacc_depth(x,y)+Dnew_depth(x,y);
如果Dnew+Dacc>Dtotal;则 D acc _ depth ( x , y ) = D acc _ depth ( x , y ) * D total - D new D acc ;
D total - D new D acc < 0 , D total - D new D acc = 0 ;
D total - D new D acc > 1 , D total - D new D acc = 1 ;
其中,所述(x,y)为每个像素点坐标;Dacc_depth(x,y)为每个像素点之前运动矢量灰度值的累加和;Dnew_depth(x,y)为每个像素点当前运动矢量灰度值;Dtotal为深度暂存器累加和的最大值,Dnew为当前深度图全部灰度值的累加和;Dacc为深度暂存器中之前所有深度图的全部灰度值累加和。
所述装置中,第一处理单元1150具体用于:为所述每个相邻像素点分配权重系数,所述权重系数为超平滑滤波的抽头系数;
调用所述缓冲器中存储的所述相邻像素点的场景相关度;
如果所述相邻像素点的场景相关度为1相关,则将相邻像素点灰度值与相邻像素点分配的权重系数相乘;
如果所述相邻像素点的场景相关度为0不相关,则将中心像素点灰度值与相邻像素点分配的权重系数相乘;
累加所述相邻像素点灰度值与相邻像素点分配的权重系数相乘的值,以及所述中心像素点灰度值与相邻像素点分配的权重系数相乘的值;
f ( x , y ) = [ 1 6 * &Sigma; n = 0 3 [ ~ buffer [ 2 n ] ] + 1 12 * &Sigma; n = 0 3 [ ~ buffer [ 2 n + 1 ] ] ] * f ( x , y ) + 1 6 * &Sigma; n = 0 3 [ buffer [ 2 n ] * f ( 2 n ) ] + 1 12 * &Sigma; n = 0 3 [ buffer [ 2 n + 1 ] * f ( 2 n + 1 ) ]
其中,n∈Z,n=0,1,2,3;buffer[]为相邻像素点的场景相关度;~buffer[]为相邻像素点的场景相关度的取反;f(x,y)为中心像素点(x,y)处的灰度值。
所述装置中,第一处理单元1150进一步具体用于:对所述初始深度图进行四次迭代超平滑滤波处理,对所述经过四次迭代超平滑滤波处理后的深度图进行横向和纵向的两倍上采样;
获取每个1/4分辨率像素点的深度值,所述每个1/4分辨率像素点的深度值形成1/4分辨率深度图;
对所述1/4分辨率深度图进行两次迭代超平滑滤波处理,对所述经过两次迭代超平滑滤波处理后的深度图进行横向和纵向的两倍上采样;
获取每个原始分辨率像素点的深度值,所述每个原始分辨率像素点的深度值形成原始分辨率深度图;
对所述原始分辨率深度图进行一次迭代超平滑滤波处理,获取源图像深度图。
所述装置中,所述为所述每个相邻像素点分配权重系数具体为:累加相邻像素点的权重系数和为1。
通过应用本发明实施例公开的装置,在不同下采样阶段求出相应的场景相关度,通过运动矢量累加和提取初始深度图,利用不同下采样阶段的场景相关度对初始深度图进行迭代超平滑处理,同时进行上采样处理,最终生成源图像深度图,提高了深度图的图像质量,让深度图轮廓更加清晰,同时本方法也让整个过程的计算开销保持在合理范围之内。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明实施例的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明实施例的具体实施方式而已,并不用于限定本发明实施例的保护范围,凡在本发明实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (16)

1.一种提取及优化图像深度图的方法,其特征在于,所述方法包括:
获取当前源图像和所述当前源图像中每个像素点的场景相关度,所述当前源图像为当前视频连续帧序列;
对所述当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度;
将所述当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前下采样源图像中每个像素点的运动矢量值;
分别累加所述当前下采样源图像中每个像素点的运动矢量值,从运动矢量累加和中提取每个像素点的初始深度值,所述初始深度值构成源图像初始深度图;
利用所述源图像中每个像素点的场景相关度和所述每个下采样源图像中每个像素点的场景相关度对所述初始深度图中每个像素点进行连续超平滑滤波处理和上采样处理,获取所述源图像深度图。
2.根据权利要求1所述的提取及优化图像深度图的方法,其特征在于,所述获取当前源图像和所述当前源图像中每个像素点的场景相关度具体为:
选择任一像素点作为中心像素点,为与所述中心像素点相邻像素点标号;
获取所述中心像素点红R、绿G、蓝B量值与所述相邻像素点红R、绿G、蓝B分量值的差值,并对所述差值取绝对值;
将所述绝对值与场景相关度阈值相比较,如果所述绝对值小于场景相关度阈值,则将所述相邻像素点的场景相关度设置为1相关,否则,设置为0不相关;
将所述相邻像素点的场景相关度存储在缓冲器中,所述缓冲器具体为
buffer [ m ] = 1 , | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | R + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | G + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | B &le; A ; 0 , | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | R + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | G + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | B > A ; 其中,k=0,1;0≤m≤7;m∈Z;f(x,y)、f(x±k,y±k)为像素点红R、绿G、蓝B分量的值;A为场景相关度阈值;buffer[m]为相关度的第m位;m为相邻像素点标号。
3.根据权利要求1所述的提取及优化图像深度图的方法,其特征在于,所述对所述当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度具体为:
对所述当前源图像进行横向和纵向的1/2下采样,获取当前1/4分辨率源图像和当前1/4分辨率源图像中每个像素点的场景相关度;
对所述当前1/4分辨率源图像进行横向和纵向的1/2下采样,获取当前1/16分辨率源图像和当前1/16分辨率源图像中每个像素点的场景相关度。
4.根据权利要求3所述的提取及优化图像深度图的方法,其特征在于,所述将所述当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前下采样源图像中每个像素点的运动矢量值具体为:
将所述当前1/16分辨率源图像中每个像素点与之前的所述1/16分辨率源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前1/16分辨率源图像中每个像素点的运动矢量值;
分别累加所述当前1/16分辨率源图像中每个像素点的运动矢量值。
5.根据权利要求1所述的提取及优化图像深度图的方法,其特征在于,所述从运动矢量累加和中提取每个像素点的初始深度值具体为:
获取每个像素点位移的运动矢量模和单位像素位移灰度值,所述单位像素位移灰度值为
Figure FDA00003361093800022
W为图像的宽度;
将所述运动矢量模与所述单位像素位移灰度值相乘,获取所述每个像素点的运动矢量灰度值;
将所述每个像素点的运动矢量灰度值的累加和存储在深度暂存器中;
如果Dnew+Dacc<Dtotal;则Dacc_depth(x,y)=Dacc_depth(x,y)+Dbew_depth(x,y);
如果Dnew+Dacc>Dtotal;则 D acc _ depth ( x , y ) = D acc _ depth ( x , y ) * D total - D new D acc ;
D total - D new D acc < 0 , D total - D new D acc = 0 ;
D total - D new D acc > 1 , D total - D new D acc = 1 ;
其中,所述(x,y)为每个像素点坐标;Dacc_depth(x,y)为每个像素点之前运动矢量灰度值的累加和;Dnew_depth(x,y)为每个像素点当前运动矢量灰度值;Dtotal为深度暂存器累加和的最大值,Dnew为当前深度图全部灰度值的累加和;Dacc为深度暂存器中之前所有深度图的全部灰度值累加和。
6.根据权利要求2所述的提取及优化图像深度图的方法,其特征在于,所述利用所述源图像中每个像素点的场景相关度和所述每个下采样源图像中每个像素点的场景相关度对所述初始深度图中每个像素点进行连续超平滑滤波处理具体为:
为所述每个相邻像素点分配权重系数,所述权重系数为超平滑滤波的抽头系数;
调用所述缓冲器中存储的所述相邻像素点的场景相关度;
如果所述相邻像素点的场景相关度为1相关,则将相邻像素点灰度值与相邻像素点分配的权重系数相乘;
如果所述相邻像素点的场景相关度为0不相关,则将中心像素点灰度值与相邻像素点分配的权重系数相乘;
累加所述相邻像素点灰度值与相邻像素点分配的权重系数相乘的值,以及所述中心像素点灰度值与相邻像素点分配的权重系数相乘的值;
f ( x , y ) = [ 1 6 * &Sigma; n = 0 3 [ ~ buffer [ 2 n ] ] + 1 12 * &Sigma; n = 0 3 [ ~ buffer [ 2 n + 1 ] ] ] * f ( x , y ) + 1 6 * &Sigma; n = 0 3 [ buffer [ 2 n ] * f ( 2 n ) ] + 1 12 * &Sigma; n = 0 3 [ buffer [ 2 n + 1 ] * f ( 2 n + 1 ) ]
其中,n∈Z,n=0,1,2,3;buffer[]为相邻像素点的场景相关度;~buffer[]为相邻像素点的场景相关度的取反;f(x,y)为中心像素点(x,y)处的灰度值。
7.根据权利要求6所述的提取及优化图像深度图的方法,其特征在于,所述初始深度图中每个像素点进行连续上采样具体为:
对所述初始深度图进行四次迭代超平滑滤波处理,对所述经过四次迭代超平滑滤波处理后的深度图进行横向和纵向的两倍上采样;
获取每个1/4分辨率像素点的深度值,所述每个1/4分辨率像素点的深度值形成1/4分辨率深度图;
对所述1/4分辨率深度图进行两次迭代超平滑滤波处理,对所述经过两次迭代超平滑滤波处理后的深度图进行横向和纵向的两倍上采样;
获取每个原始分辨率像素点的深度值,所述每个原始分辨率像素点的深度值形成原始分辨率深度图;
对所述原始分辨率深度图进行一次迭代超平滑滤波处理,获取源图像深度图。
8.根据权利要求6所述的提取及优化图像深度图的方法,其特征在于,所述为所述每个相邻像素点分配权重系数具体为:累加相邻像素点的权重系数和为1。
9.一种提取及优化图像深度图的装置,其特征在于,所述装置包括:
第一获取单元,用于获取当前源图像和所述当前源图像中每个像素点的场景相关度,所述当前源图像为当前视频连续帧序列;
第二获取单元,用于对所述当前源图像连续下采样,获取当前每个下采样源图像中每个像素点的场景相关度;
第三获取单元,用于将所述当前下采样源图像中每个像素点与之前下采样源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前下采样源图像中每个像素点的运动矢量值;
计算单元,用于分别累加所述当前下采样源图像中每个像素点的运动矢量值,从运动矢量累加和中提取每个像素点的初始深度值,所述初始深度值构成源图像初始深度图;
第一处理单元,用于利用所述源图像中每个像素点的场景相关度和所述每个下采样源图像中每个像素点的场景相关度对所述初始深度图中每个像素点进行连续超平滑滤波处理和上采样处理,获取所述源图像深度图。
10.根据权利要求9所述的提取及优化图像深度图的装置,其特征在于,所述第一获取单元具体用于:
选择任一像素点作为中心像素点,将与所述中心像素点相邻像素点标号;
获取所述中心像素点红R、绿G、蓝B分量值与每个所述相邻像素点红R、绿G、蓝B分量值的差值,并对所述差值取绝对值;
将所述绝对值与场景相关度阈值相比较,如果所述绝对值小于场景相关度阈值,则将所述相邻像素点的场景相关度设置为1相关,否则,设置为0不相关;
将所述相邻像素点的场景相关度存储在缓冲器中,所述缓冲器具体为
buffer [ m ] = 1 , | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | R + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | G + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | B &le; A ; 0 , | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | R + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | G + | f ( x , y ) - f ( x &PlusMinus; k , y &PlusMinus; k ) | B > A ;
其中,k=0,1;0≤m≤7;m∈Z;f(x,y)、f(x±k,y±k)为像素点红R、绿G、蓝B分量的值;A为场景相关度阈值;buffer[m]为相关度的第m位;m为相邻像素点标号。
11.根据权利要求9所述的提取及优化图像深度图的装置,其特征在于,所述第二获取单元具体用于:
对所述当前源图像进行横向和纵向的1/2下采样,获取当前1/4分辨率源图像和当前1/4分辨率源图像中每个像素点的场景相关度;
对所述当前1/4分辨率源图像进行横向和纵向的1/2下采样,获取当前1/16分辨率源图像和当前1/16分辨率源图像中每个像素点的场景相关度。
12.根据权利要求11所述的提取及优化图像深度图的装置,其特征在于,所述第三获取单元具体用于:
将所述当前1/16分辨率源图像中每个像素点与之前的所述1/16分辨率源图像中相对应的像素点进行块匹配运动矢量计算,获取所述当前1/16分辨率源图像中每个像素点的运动矢量值;
分别累加所述当前1/16分辨率源图像中每个像素点的运动矢量值。
13.根据权利要求9所述的提取及优化图像深度图的装置,其特征在于,所述计算单元具体用于:
获取每个像素点位移的运动矢量模和单位像素位移灰度值,所述单位像素位移灰度值为
Figure FDA00003361093800061
W为图像的宽度;
将所述运动矢量模与所述单位像素位移灰度值相乘,获取所述每个像素点的运动矢量灰度值;
将所述每个像素点的运动矢量灰度值的累加和存储在深度暂存器中;
如果Dnew+Dacc<Dtotal;则Dacc_depth(x,y)=Dacc_depth(x,y)+Dnew_depth(x,y);
如果Dnew+Dacc>Dtotal;则 D acc _ depth ( x , y ) = D acc _ depth ( x , y ) * D total - D new D acc ;
D total - D new D acc < 0 , D total - D new D acc = 0 ;
D total - D new D acc > 1 , D total - D new D acc = 1 ;
其中,所述(x,y)为每个像素点坐标;Dacc_depth(x,y)为每个像素点之前运动矢量灰度值的累加和;Dnew_depth(x,y)为每个像素点当前运动矢量灰度值;Dtotal为深度暂存器累加和的最大值,Dnew为当前深度图全部灰度值的累加和;Dacc为深度暂存器中之前所有深度图的全部灰度值累加和。
14.根据权利要求10所述的提取及优化图像深度图的装置,其特征在于,所述第一处理单元具体用于:
为所述每个相邻像素点分配权重系数,所述权重系数为超平滑滤波的抽头系数;
调用所述缓冲器中存储的所述相邻像素点的场景相关度;
如果所述相邻像素点的场景相关度为1相关,则将相邻像素点灰度值与相邻像素点分配的权重系数相乘;
如果所述相邻像素点的场景相关度为0不相关,则将中心像素点灰度值与相邻像素点分配的权重系数相乘;
累加所述相邻像素点灰度值与相邻像素点分配的权重系数相乘的值,以及所述中心像素点灰度值与相邻像素点分配的权重系数相乘的值;
f ( x , y ) = [ 1 6 * &Sigma; n = 0 3 [ ~ buffer [ 2 n ] ] + 1 12 * &Sigma; n = 0 3 [ ~ buffer [ 2 n + 1 ] ] ] * f ( x , y ) + 1 6 * &Sigma; n = 0 3 [ buffer [ 2 n ] * f ( 2 n ) ] + 1 12 * &Sigma; n = 0 3 [ buffer [ 2 n + 1 ] * f ( 2 n + 1 ) ]
其中,n∈Z,n=0,1,2,3;buffer[]为相邻像素点的场景相关度;~buffer[]为相邻像素点的场景相关度的取反;f(x,y)为中心像素点(x,y)处的灰度值.
15.根据权利要求14所述的提取及优化图像深度图的装置,其特征在于,所述第一处理单元进一步具体用于:
对所述初始深度图进行四次迭代超平滑滤波处理,对所述经过四次迭代超平滑滤波处理后的深度图进行横向和纵向的两倍上采样;
获取每个1/4分辨率像素点的深度值,所述每个1/4分辨率像素点的深度值形成1/4分辨率深度图;
对所述1/4分辨率深度图进行两次迭代超平滑滤波处理,对所述经过两次迭代超平滑滤波处理后的深度图进行横向和纵向的两倍上采样;
获取每个原始分辨率像素点的深度值,所述每个原始分辨率像素点的深度值形成原始分辨率深度图;
对所述原始分辨率深度图进行一次迭代超平滑滤波处理,获取源图像深度图。
16.根据权利要求15所述的提取及优化图像深度图的装置,其特征在于,所述为所述每个相邻像素点分配权重系数具体为:累加相邻像素点的权重系数和为1。
CN201280004184.8A 2012-05-08 2012-05-08 一种提取及优化图像深度图的方法与装置 Active CN103493482B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/075187 WO2013166656A1 (zh) 2012-05-08 2012-05-08 一种提取及优化图像深度图的方法与装置

Publications (2)

Publication Number Publication Date
CN103493482A true CN103493482A (zh) 2014-01-01
CN103493482B CN103493482B (zh) 2016-01-20

Family

ID=49550062

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280004184.8A Active CN103493482B (zh) 2012-05-08 2012-05-08 一种提取及优化图像深度图的方法与装置

Country Status (2)

Country Link
CN (1) CN103493482B (zh)
WO (1) WO2013166656A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318586A (zh) * 2014-09-26 2015-01-28 燕山大学 基于自适应形态学滤波的运动模糊方向估计方法及装置
CN104394399A (zh) * 2014-10-31 2015-03-04 天津大学 深度视频编码的三边滤波方法
CN104978554A (zh) * 2014-04-08 2015-10-14 联想(北京)有限公司 信息的处理方法及电子设备
CN105721852A (zh) * 2014-11-24 2016-06-29 奥多比公司 用于深度图细化的数字相机的设置
CN107204011A (zh) * 2017-06-23 2017-09-26 万维云视(上海)数码科技有限公司 一种深度图生成方法和装置
CN108718392A (zh) * 2017-03-31 2018-10-30 钰立微电子股份有限公司 用以融合多深度图的深度图产生装置
CN110049242A (zh) * 2019-04-18 2019-07-23 腾讯科技(深圳)有限公司 一种图像处理方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101141648A (zh) * 2007-09-20 2008-03-12 上海广电(集团)有限公司中央研究院 基于直方图的加权预测方法
CN101582171A (zh) * 2009-06-10 2009-11-18 清华大学 一种创建深度图的方法及装置
CN101754040A (zh) * 2008-12-04 2010-06-23 三星电子株式会社 用于估计深度和将2d视频转换为3d视频的方法和设备
WO2010123909A1 (en) * 2009-04-20 2010-10-28 Dolby Laboratories Licensing Corporation Directed interpolation and data post-processing
CN101945288A (zh) * 2010-10-19 2011-01-12 浙江理工大学 一种基于h.264压缩域图像深度图生成方法
CN101951511A (zh) * 2010-08-19 2011-01-19 深圳市亮信科技有限公司 一种通过分析深度进行视频场景分层的方法
CN101969564A (zh) * 2010-10-29 2011-02-09 清华大学 一种用于三维立体电视的深度视频压缩的上采样方法
CN102098527A (zh) * 2011-01-28 2011-06-15 清华大学 一种基于运动分析的平面转立体方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101141648A (zh) * 2007-09-20 2008-03-12 上海广电(集团)有限公司中央研究院 基于直方图的加权预测方法
CN101754040A (zh) * 2008-12-04 2010-06-23 三星电子株式会社 用于估计深度和将2d视频转换为3d视频的方法和设备
WO2010123909A1 (en) * 2009-04-20 2010-10-28 Dolby Laboratories Licensing Corporation Directed interpolation and data post-processing
CN101582171A (zh) * 2009-06-10 2009-11-18 清华大学 一种创建深度图的方法及装置
CN101951511A (zh) * 2010-08-19 2011-01-19 深圳市亮信科技有限公司 一种通过分析深度进行视频场景分层的方法
CN101945288A (zh) * 2010-10-19 2011-01-12 浙江理工大学 一种基于h.264压缩域图像深度图生成方法
CN101969564A (zh) * 2010-10-29 2011-02-09 清华大学 一种用于三维立体电视的深度视频压缩的上采样方法
CN102098527A (zh) * 2011-01-28 2011-06-15 清华大学 一种基于运动分析的平面转立体方法及装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978554A (zh) * 2014-04-08 2015-10-14 联想(北京)有限公司 信息的处理方法及电子设备
CN104978554B (zh) * 2014-04-08 2019-02-05 联想(北京)有限公司 信息的处理方法及电子设备
CN104318586A (zh) * 2014-09-26 2015-01-28 燕山大学 基于自适应形态学滤波的运动模糊方向估计方法及装置
CN104318586B (zh) * 2014-09-26 2017-04-26 燕山大学 基于自适应形态学滤波的运动模糊方向估计方法及装置
CN104394399A (zh) * 2014-10-31 2015-03-04 天津大学 深度视频编码的三边滤波方法
CN105721852A (zh) * 2014-11-24 2016-06-29 奥多比公司 用于深度图细化的数字相机的设置
CN105721852B (zh) * 2014-11-24 2018-12-14 奥多比公司 用于确定深度细化图像捕获指令的方法、存储设备和***
CN108718392A (zh) * 2017-03-31 2018-10-30 钰立微电子股份有限公司 用以融合多深度图的深度图产生装置
US10699432B2 (en) 2017-03-31 2020-06-30 Eys3D Microelectronics, Co. Depth map generation device for merging multiple depth maps
CN108718392B (zh) * 2017-03-31 2021-07-16 钰立微电子股份有限公司 用以融合多深度图的深度图产生装置
CN107204011A (zh) * 2017-06-23 2017-09-26 万维云视(上海)数码科技有限公司 一种深度图生成方法和装置
CN110049242A (zh) * 2019-04-18 2019-07-23 腾讯科技(深圳)有限公司 一种图像处理方法和装置

Also Published As

Publication number Publication date
CN103493482B (zh) 2016-01-20
WO2013166656A1 (zh) 2013-11-14

Similar Documents

Publication Publication Date Title
CN103493482B (zh) 一种提取及优化图像深度图的方法与装置
CN102436671B (zh) 一种基于深度值非线性变换的虚拟视点绘制方法
CN101873509B (zh) 消除深度图序列背景和边缘抖动的方法
CN103426148A (zh) 生成低分辨率输入数据结构的超分辨率版本的方法和设备
CN103248906B (zh) 一种双目立体视频序列的深度图获取方法与***
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CN107689050B (zh) 一种基于彩色图像边缘引导的深度图像上采样方法
CN101605271B (zh) 一种基于单幅图像的2d转3d方法
CN106341676B (zh) 基于超像素的深度图像预处理和深度空洞填充方法
CN102509294B (zh) 一种基于单幅图像的全局深度估计方法
CN105005964A (zh) 基于视频序列影像的地理场景全景图快速生成方法
CN109118434A (zh) 一种图像预处理方法
CN102306393B (zh) 一种基于轮廓匹配的深度扩散方法及装置
CN113016003A (zh) 景深图像重聚焦
CN107360416A (zh) 基于局部多元高斯描述子的立体图像质量评价方法
CN110719453B (zh) 一种立体视频裁剪方法
CN103310446B (zh) 一种基于迭代指导滤波的立体匹配方法
CN105279742B (zh) 一种快速的基于分块噪声能量估计的图像去噪方法
CN107945151A (zh) 一种基于相似性变换的重定位图像质量评价方法
CN104717514B (zh) 多视点图像渲染***及方法
CN102075777B (zh) 一种基于运动对象的视频图像平面转立体处理方法
CN102761764A (zh) 一种用于三维立体视频的深度图片的上采样方法
CN105303544A (zh) 一种基于最小边界距离的视频拼接方法
CN105530505A (zh) 三维图像转换方法和装置
CN101742088A (zh) 非局部均值空域时变视频滤波方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20170222

Address after: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee after: QINGDAO HISENSE ELECTRONICS Co.,Ltd.

Address before: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee before: HISENSE HIVIEW TECH Co.,Ltd.

CP01 Change in the name or title of a patent holder

Address after: 266100 No. 151, Zhuzhou Road, Laoshan District, Shandong, Qingdao

Patentee after: Hisense Visual Technology Co., Ltd.

Address before: 266100 No. 151, Zhuzhou Road, Laoshan District, Shandong, Qingdao

Patentee before: QINGDAO HISENSE ELECTRONICS Co.,Ltd.

CP01 Change in the name or title of a patent holder