CN101640809A - 一种融合运动信息与几何信息的深度提取方法 - Google Patents

一种融合运动信息与几何信息的深度提取方法 Download PDF

Info

Publication number
CN101640809A
CN101640809A CN200910102153A CN200910102153A CN101640809A CN 101640809 A CN101640809 A CN 101640809A CN 200910102153 A CN200910102153 A CN 200910102153A CN 200910102153 A CN200910102153 A CN 200910102153A CN 101640809 A CN101640809 A CN 101640809A
Authority
CN
China
Prior art keywords
depth
background
motion
image
obtains
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200910102153A
Other languages
English (en)
Other versions
CN101640809B (zh
Inventor
黄晓军
黄俊钧
王梁昊
李东晓
张明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D display technology (Shenzhen) Co., Ltd.
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2009101021536A priority Critical patent/CN101640809B/zh
Publication of CN101640809A publication Critical patent/CN101640809A/zh
Application granted granted Critical
Publication of CN101640809B publication Critical patent/CN101640809B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种融合运动信息与几何信息的深度提取方法,包括如下步骤:(1)对每一帧二维视频图像做场景分割,分离静态背景与动态前景;(2)对场景分割图做二值化和滤波处理;(3)基于几何信息产生静态背景的几何深度图;(4)计算前景物体的运动矢量,并换算成运动幅度;(5)根据前景物体所处位置,对其运动幅度做线性变换,得到运动深度图;(6)融合运动深度图和几何深度图,并滤波得到最终深度图。本发明只对分离出的动态前景物体计算运动矢量,消除了背景误匹配点,减少了计算量;同时根据前景物体所处位置线性变换其运动幅度,使之融入到背景深度中,整体提高了深度图的质量。

Description

一种融合运动信息与几何信息的深度提取方法
技术领域
本发明涉及二维视频转换三维视频时深度提取方法,尤其涉及一种融合运动信息与几何信息的深度提取方法。
背景技术
从20世纪40年代电视发明以来,经历了从黑白电视到彩色电视的第一次革命和从模拟电视到数字电视的第二次革命,3DTV将是继数字电视后电视技术的第三次革命。
3DTV的显示离不开合适内容的制作。传统二维视频片源不能适用于立体显示***,需要制作满足显示需要的3D内容。一种方法是用立体相机直接产生3D视频,但是这种方法代价高昂。另一种方法是寻找一种合适的算法将原有的2D视频转换为可以用于立体显示的3D视频。而目前由于大量传统2D视频的存在,2D转3D技术的研究有着更为现实的意义,这一技术的研究不仅可以为立体显示提供丰富的素材,而且能大大节省内容制作的成本。
2D转3D技术过程主要包括:
(1)利用各种深度线索,由原始2D视频产生出密集深度图序列;
(2)运用DIBR(depth image based rendring)技术,利用一路2D视频和它对应的深度图像序列,重构出多路2D视频;
(3)运用图像合成算法,将产生的多路视频合成为一路3D视频,输入到3D显示设备中显示。
如何准确产生密集深度图用于DIBR重构是整个2D转3D技术过程的第一步,也是2D转3D技术研究的核心内容。
研究者在分析人类生理和心理视觉的基础上,寻找到许多深度线索。例如,物体运动信息、场景空间几何信息、物体表面纹理和形状信息、物体成像阴影、物体边缘信息和拍摄相机的聚焦与散焦情况。利用其中某一种深度线索只能处理一类2D视频,普遍适用的深度线索并不存在。然而,由于大多数视频都具有运动的前景物体,结合视频的时间相关性,利用物体的运动信息可以有效地产生出密集深度图。因此,物体运动信息在深度图的产生中一般作为最主要的深度线索。另一方面,在某些特定场合,场景中物体没有运动,这时就需要寻找其他深度线索来代替运动信息线索。不难发现,无论是室内还是室外,场景中常常包含了丰富的几何信息,如室外延伸向远方的道路、室内规则的墙线。空间几何信息对于物体运动信息在深度图的产生当中起到了很好的补充作用,尤其在场景静止的场合。
目前的深度图产生算法多是利用一种深度线索去处理一类视频,而实际视频往往是包含了多种深度线索,利用这些深度线索产生一幅融合的深度图将有效提高深度图的质量。
发明内容
本发明的目的是克服现有技术的不足,融合多种深度线索,提供一种融合运动信息与几何信息的深度提取方法。
融合运动信息与几何信息的深度提取方法包括如下步骤:
(1)对待转换二维视频建立统计背景模型,通过运动目标检测,分离出静止背景部分和运动前景部分;
(2)对分离出静止背景部分和运动前景部分的图像二值化,并进行中值滤波和数学形态学滤波;
(3)对统计背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图;
(4)通过从原始待转换二维视频在时间上相邻的两帧图像之间寻找匹配,得到运动前景物体的运动矢量,并换算成运动幅度;
(5)根据运动前景部分所处位置,对其运动幅度做线性变换,得到运动深度图;
(6)融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图,用于三维视频的表达。
所述的对待转换二维视频建立统计背景模型,通过运动目标检测,分离出静止背景部分和运动前景部分步骤:
(a)在待转换的二维视频文件中截取连续的N帧图像,对这N帧图像If(x,y)进行时间和空间上的扫描,求得对应于每一个像素坐标位置的N个像素值的均值作为背景图像B(x,y)在这一位置上的像素值,计算公式如下:
B ( x , y ) = 1 N Σ f = 1 N I f ( x , y ) ;
(b)用步骤(a)中得到的背景图像B(x,y)与待转换二维视频的每一帧图像If(x,y)做减法,通过与一个预先设定的阈值th进行比较来确定图像中的前景点,表示公式如下:
I f ( x , y ) = Background | I f ( x , y ) - B ( x , y ) | < th Foreground otherwise .
所述的对分离出静止背景部分和运动前景部分的图像二值化,并进行中值滤波和数学形态学滤波步骤:
(c)利用步骤(b)作出的前后景判断,为视频中每一帧图像If(x,y)产生一幅二值图像,其中0值表示背景,255值表示前景,即:
I f 1 ( x , y ) = 0 if I f ( x , y ) isBackground 255 if I f ( x , y ) isForeground ;
(d)对步骤(c)得到的二值图像进行3×3窗口大小的中值滤波,消除背景噪声;
(e)对步骤(d)得到的中值滤波后的图像进行数学形态学滤波中典型的开运算和闭运算,消除前景图像中小面积的活动区域和空洞,采用3×3方型腐蚀元和膨胀元完成开运算和闭运算。
所述的对统计背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图步骤:
(f)对步骤(a)得到的背景图像的亮度分量By(x,y)用Sobel算子进行边缘检测,得到水平梯度图Sx(x,y)和垂直梯度图Sy(x,y),将这两幅图相加得到梯度图S(x,y),与阈值Th做比较,得到二值化的背景边缘检测图,阈值Th的选取按照如下公式计算:
Th=α[S(x,y)max-S(x,y)min]+S(x,y)min
其中,α是取值在0~1之间的权重系数,S(x,y)max是梯度图最大像素值,S(x,y)min是梯度图最小像素值;
(g)采用图像处理中经典的Hough变换对步骤(f)得到的二值化边缘检测图提取其中的主要直线,其结果与原始的二值化边缘检测图做“与”操作,提取出背景中的灭线,灭线交点出现概率最大的区域的中点作为灭点;
(h)以步骤(g)中得到的灭点作为背景中深度最深点,沿灭线往灭点方向深度以级差2的速率逐渐加深,得到背景图像的几何深度图G(x,y)。
所述的通过从原始待转换二维视频在时间上相邻的两帧图像之间寻找匹配,得到运动前景物体的运动矢量,并换算成运动幅度步骤:
(i)扫描待转换二维视频中的当前时刻图像帧If(x,y),根据步骤(e)得到的滤波过的前后景分离二值图像,判断若当前像素点是前景点,则为其在当前时刻的前一时刻图像帧If-1(x,y)上寻找最佳匹配像素点,采用在以当前像素点为中心的W×W邻域窗口内计算匹配代价的方法,以提高匹配的精确性,设匹配搜索范围SN×N大小为N×N,u和v分别是在寻找匹配时当前帧上像素在前一时刻图像帧上的水平偏移量和垂直偏移量,i和j分别是以当前像素点为中心的W×W邻域内的水平偏移量和垂直偏移量,定义匹配代价如下:
C ( x , y ; u , v ) = &Sigma; i = - ( w - 1 ) / 2 ( w - 1 ) / 2 &Sigma; j = - ( w - 1 ) / 2 ( w - 1 ) / 2 | I f ( x + i , y + i ) - I f - 1 ( x + u + i , y + v + j ) |
(x,y)∈foreground, (u,v)∈SN×N,F=1,2,3......
遍历当前像素点搜索范围内的每一个像素点,计算相应的匹配代价,找出其中具有最小匹配代价的水平偏移量和垂直偏移量,以之作为当前像素点的运动矢量,水平MVx,垂直MVy,公式表示如下:
Cmin(x,y;MVx,MVy)=Min[C(x,y;u,v)];
(j)设步骤(i)中得到的每一个前景像素点的运动矢量水平方向分量为MVx(x,y),垂直方向分量为MVy(x,y),运动幅度定义为:
F ( x , y ) = MV x 2 ( x , y ) + MV y 2 ( x , y ) ;
所述的根据运动前景部分所处位置,对其运动幅度做线性变换,得到运动深度图步骤:
(k)对步骤(j)中得到的运动幅度做线性变换和向下取整运算,确保运动深度图的每一个前景像素点的取值范围在[a,b],且为整数,线性变换公式如下:
Figure G2009101021536D00044
其中,线性变换下限a与上限b取值均在0~255之间,a取运动前景遮挡住的背景部分几何深度图的最小深度值,b取运动前景部分最低点对应背景部分几何深度图的深度值。
所述的融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图步骤:
(l)根据步骤(e)得到的滤波过的前后景分离二值图像A(x,y),对步骤(k)得到的运动深度图M(x,y)和步骤(h)得到的几何深度图G(x,y)进行融合,得到融合深度图D(x,y),融合公式定义如下:
D ( x , y ) = M ( x , y ) A ( x , y ) = 255 G ( x , y ) A ( x , y ) = 0 ;
(m)对步骤(l)得到的融合深度图进行高斯滤波,得到最终深度图,用于三维视频的表达。
本发明适用于对动态前景和静态背景的未经压缩的视频文件产生深度图。以往利用物体运动信息产生深度图的方法,一种是基于块的,产生的深度图中物体边缘存在块效应;另一种是基于像素的,虽然物体边缘较基于块的深度图平滑,但是光照条件的细微变化都会带来强烈的背景噪声,本发明结合运动目标检测与基于物体运动信息的像素级深度图产生技术,较好地平滑了物体边缘,同时抑制了背景噪声,而且只对运动前景物体计算运动矢量,大大减少了计算量。另一方面,本发明克服了以往技术中只利用单一深度线索产生深度图的不足,同时融合物体运动信息和场景几何信息产生深度图,扩大了适用范围,提高了深度图的质量。
附图说明
图1是融合深度图产生的流程框图;
图2(a)是Hough变换时图像空间中的一点示意图;
图2(b)是Hough变换时特征空间中的一条正弦曲线示意图;
图2(c)是Hough变换时图像空间中的一条直线示意图;
图2(d)是Hough变换时特征空间中的多条正弦曲线相交于一点的示意图;
图3是产生计算运动矢量时运动估计的示意图;
图4是Hall Monitor视频的截图;
图5是从Hall Monitor视频建模得到的背景图像;
图6是图4视频截图对应的滤波后前后景分离的二值图;
图7是图5背景图像的几何深度图;
图8是图4视频截图对应的运动深度图;
图9是图7几何深度图与图8运动深度图融合并经过高斯滤波处理的最终深度图。
具体实施方式
融合运动信息与几何信息的深度提取方法包括如下步骤(整体流程图如图1所示):
(1)对待转换二维视频建立统计背景模型,通过运动目标检测,分离出静止背景部分和运动前景部分;
(2)对分离出静止背景部分和运动前景部分的图像二值化,并进行中值滤波和数学形态学滤波;
(3)对统计背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图;
(4)通过从原始待转换二维视频在时间上相邻的两帧图像之间寻找匹配,得到运动前景物体的运动矢量,并换算成运动幅度;
(5)根据运动前景部分所处位置,对其运动幅度做线性变换,得到运动深度图;
(6)融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图,用于三维视频的表达。
所述的对待转换二维视频建立统计背景模型,通过运动目标检测,分离出静止背景部分和运动前景部分步骤:
(a)在待转换的二维视频文件中截取连续的N帧图像,对这N帧图像If(x,y)进行时间和空间上的扫描,求得对应于每一个像素坐标位置的N个像素值的均值作为背景图像B(x,y)在这一位置上的像素值,计算公式如下:
B ( x , y ) = 1 N &Sigma; f = 1 N I f ( x , y ) ;
(b)用步骤(a)中得到的背景图像B(x,y)与待转换二维视频的每一帧图像If(x,y)做减法,通过与一个预先设定的阈值th进行比较来确定图像中的前景点,表示公式如下:
I f ( x , y ) = Background | I f ( x , y ) - B ( x , y ) | < th Foreground otherwise .
所述的对分离出静止背景部分和运动前景部分的图像二值化,并进行中值滤波和数学形态学滤波步骤:
(c)利用步骤(b)作出的前后景判断,为视频中每一帧图像If(x,y)产生一幅二值图像,其中0值表示背景,255值表示前景,即:
I f 1 ( x , y ) = 0 if I f ( x , y ) isBackground 255 if I f ( x , y ) isForeground ;
(d)对步骤(c)得到的二值图像进行3×3窗口大小的中值滤波,消除背景噪声;
图像的中值滤波一般采用一个含有奇数个点的滑动窗口,用窗口中各点灰度值的中值代替窗口中点的灰度值,采用3×3大小的窗口,更大的滤波窗口虽然可以更有效得滤除噪声,但是会带来过分地平滑,使运动区域细节内容消失,给下面的处理带来困难。
(e)对步骤(d)得到的中值滤波后的图像进行数学形态学滤波中典型的开运算和闭运算,消除前景图像中小面积的活动区域和空洞,采用3×3方型腐蚀元和膨胀元完成开运算和闭运算。
所述的对统计背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图步骤:
(f)对步骤(a)得到的背景图像的亮度分量By(x,y)用Sobel算子进行边缘检测,得到水平梯度图Sx(x,y)和垂直梯度图Sy(x,y),将这两幅图相加得到梯度图S(x,y),与阈值Th做比较,得到二值化的背景边缘检测图,阈值Th的选取按照如下公式计算:
Th=α·[S(x,y)max-S(x,y)min]+S(x,y)min
其中,α是取值在0~1之间的权重系数,S(x,y)max是梯度图最大像素值,S(x,y)min是梯度图最小像素值;
α越小,图像的边缘和细节越清晰,反之则图像的边缘和细节就越模糊。图像的边缘越清晰越有利于灭线的提取,但细节清晰则不利于灭线的提取。
(g)采用图像处理中经典的Hough变换对步骤(f)得到的二值化边缘检测图提取其中的主要直线,其结果与原始的二值化边缘检测图做“与”操作,提取出背景中的灭线,灭线交点出现概率最大的区域的中点作为灭点;
Hough变换的原理本质上就是利用点-线之间的对称性。图像空间上的一个点(图2(a))对应着特征空间(r,θ)上的一条正弦曲线(图2(b)),而图像空间(x,y)上的一条直线(图2(c))对应着特征空间(r,θ)上的一个点(图2(d))。直线可以看成是点的集合,因此,图像空间上的一条直线对应着特征空间上的一簇正弦曲线,而这些曲线的交点的坐标就是图像空间中对应直线的特征量。
在实现时,累计特征空间中交于同一点的曲线的条数,如果累计值超过阈值则认为图像空间中存在可用对应的特征空间的交点坐标来表征的直线。
(h)以步骤(g)中得到的灭点作为背景中深度最深点,沿灭线往灭点方向深度以级差2的速率逐渐加深,得到背景图像的几何深度图G(x,y)。
所述的通过从原始待转换二维视频在时间上相邻的两帧图像之间寻找匹配,得到运动前景物体的运动矢量,并换算成运动幅度步骤:
(i)扫描待转换二维视频中的当前时刻图像帧If(x,y),根据步骤(e)得到的滤波过的前后景分离二值图像,判断若当前像素点是前景点,则为其在当前时刻的前一时刻图像帧If-1(x,y)上寻找最佳匹配像素点,采用在以当前像素点为中心的W×W邻域窗口内计算匹配代价的方法,以提高匹配的精确性,如图3所示,设匹配搜索范围SN×N大小为N×N,u和v分别是在寻找匹配时当前帧上像素在前一时刻图像帧上的水平偏移量和垂直偏移量,i和j分别是以当前像素点为中心的W×W邻域内的水平偏移量和垂直偏移量,定义匹配代价如下:
C ( x , y ; u , v ) = &Sigma; i = - ( w - 1 ) / 2 ( w - 1 ) / 2 &Sigma; j = - ( w - 1 ) / 2 ( w - 1 ) / 2 | I f ( x + i , y + i ) - I f - 1 ( x + u + i , y + v + j ) |
(x,y)∈foreground,(u,v)∈SN×N,f=1,2,3......
遍历当前像素点搜索范围内的每一个像素点,计算相应的匹配代价,找出其中具有最小匹配代价的水平偏移量和垂直偏移量,以之作为当前像素点的运动矢量,水平MVx,垂直MVy,公式表示如下:
Cmin(x,y;MVx,MVy)=Min[C(x,y;u,v)];
(j)设步骤(i)中得到的每一个前景像素点的运动矢量水平方向分量为MVx(x,y),垂直方向分量为MVy(x,y),运动幅度定义为:
F ( x , y ) = MV x 2 ( x , y ) + MV y 2 ( x , y ) ;
所述的根据运动前景部分所处位置,对其运动幅度做线性变换,得到运动深度图步骤:
(k)对步骤(j)中得到的运动幅度做线性变换和向下取整运算,确保运动深度图的每一个前景像素点的取值范围在[a,b],且为整数,线性变换公式如下:
Figure G2009101021536D00084
其中,线性变换下限a与上限b取值均在0~255之间,a取运动前景遮挡住的背景部分几何深度图的最小深度值,b取运动前景部分最低点对应背景部分几何深度图的深度值。
由于在三维空间中,具有相同运动速率而不同深度的物体在二维图像平面上表现出来的运动幅度并不相同,深度小的物体运动幅度大,反之则运动幅度小,所以运动幅度能够用来描述物体的深度。运动深度图是灰度图,因此必须将最初计算得到的运动幅度做线性变换和向下取整操作,才能用来描述物体深度。此外,为了最终更好地将运动深度图融入几何深度图中,线性变换范围的上下限取自运动前景物体周围的背景深度值。
所述的融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图步骤:
(l)根据步骤(e)得到的滤波过的前后景分离二值图像A(x,y),对步骤(k)得到的运动深度图M(x,y)和步骤(h)得到的几何深度图G(x,y)进行融合,得到融合深度图D(x,y),融合公式定义如下:
D ( x , y ) = M ( x , y ) A ( x , y ) = 255 G ( x , y ) A ( x , y ) = 0 ;
(m)对步骤(l)得到的融合深度图进行高斯滤波,得到最终深度图,用于三维视频的表达。
运用DIBR技术重构虚拟视点时,要求输入的深度图比较平滑,因此,需要对融合运动深度图和几何深度图得到的融合深度图进行一次高斯滤波。
实施例:
(1)将图像分辨率为352×288的Hall Monitor测试码流作为待产生深度图的2D视频文件。图4即为Hall Monitor视频的截图。
(2)建立统计背景模型,产生背景图像。图5即为Hall Monitor视频建模得到的背景图像。
(3)通过与背景图像比较,检测出Hall Monitor视频的运动前景,二值化分离的前景与背景,并进行中值滤波和数学形态学滤波。图6即为图4视频截图对应的滤波后前后景分离的二值图;
(4)对背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图。图7即为图5背景图像的几何深度图。
(5)求取Hall Monitor视频文件前景部分的运动矢量,并换算成运动幅度,根据前景物体所处位置,对其运动幅度做线性变换,得到运动深度图。图8即为图4视频截图对应的运动深度图。
(6)融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图,用于三维视频的表达。图9即为图7几何深度图与图8运动深度图融合并经过高斯滤波处理的最终深度图。

Claims (7)

1.一种融合运动信息与几何信息的深度提取方法,其特征在于包括如下步骤:
(1)对待转换二维视频建立统计背景模型,通过运动目标检测,分离出静止背景部分和运动前景部分;
(2)对分离出静止背景部分和运动前景部分的图像二值化,并进行中值滤波和数学形态学滤波;
(3)对统计背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图;
(4)通过从原始待转换二维视频在时间上相邻的两帧图像之间寻找匹配,得到运动前景物体的运动矢量,并换算成运动幅度;
(5)根据运动前景部分所处位置,对其运动幅度做线性变换,得到运动深度图;
(6)融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图,用于三维视频的表达。
2.根据权利要求1所述的一种融合运动信息与几何信息的深度提取方法,其特征在于所述的对待转换二维视频建立统计背景模型,通过运动目标检测,分离出静止背景部分和运动前景部分步骤:
(a)在待转换的二维视频文件中截取连续的N帧图像,对这N帧图像If(x,y)进行时间和空间上的扫描,求得对应于每一个像素坐标位置的N个像素值的均值作为背景图像B(x,y)在这一位置上的像素值,计算公式如下:
B ( x , y ) = 1 N &Sigma; f = 1 N I f ( x , y ) ;
(b)用步骤(a)中得到的背景图像B(x,y)与待转换二维视频的每一帧图像If(x,y)做减法,通过与一个预先设定的阈值th进行比较来确定图像中的前景点,表示公式如下:
I f ( x , y ) = Background | I f ( x , y ) - B ( x , y ) | < th Foreground otherwise .
3.根据权利要求1所述的一种融合运动信息与几何信息的深度提取方法,其特征在于所述的对分离出静止背景部分和运动前景部分的图像二值化,并进行中值滤波和数学形态学滤波步骤:
(c)利用步骤(b)作出的前后景判断,为视频中每一帧图像If(x,y)产生一幅二值图像,其中0值表示背景,255值表示前景,即:
I f 1 ( x , y ) = 0 if I f ( x , y ) is Background 255 if I f ( x , y ) is Foreground ;
(d)对步骤(c)得到的二值图像进行3×3窗口大小的中值滤波,消除背景噪声;
(e)对步骤(d)得到的中值滤波后的图像进行数学形态学滤波中典型的开运算和闭运算,消除前景图像中小面积的活动区域和空洞,采用3×3方型腐蚀元和膨胀元完成开运算和闭运算。
4.根据权利要求1所述的一种融合运动信息与几何信息的深度提取方法,其特征在于所述的对统计背景建模得到的背景图像采用基于场景几何信息的方法产生几何深度图步骤:
(f)对步骤(a)得到的背景图像的亮度分量By(x,y)用Sobel算子进行边缘检测,得到水平梯度图Sx(x,y)和垂直梯度图Sy(x,y),将这两幅图相加得到梯度图S(x,y),与阈值Th做比较,得到二值化的背景边缘检测图,阈值Th的选取按照如下公式计算:
Th=α·[S(x,y)max-S(x,y)min]+S(x,y)min
其中,α是取值在0~1之间的权重系数,S(x,y)max是梯度图最大像素值,S(x,y)min是梯度图最小像素值;
(g)采用图像处理中经典的Hough变换对步骤(f)得到的二值化边缘检测图提取其中的主要直线,其结果与原始的二值化边缘检测图做“与”操作,提取出背景中的灭线,灭线交点出现概率最大的区域的中点作为灭点;
(h)以步骤(g)中得到的灭点作为背景中深度最深点,沿灭线往灭点方向深度以级差2的速率逐渐加深,得到背景图像的几何深度图G(x,y)。
5.根据权利要求1所述的一种融合运动信息与几何信息的深度提取方法,其特征在于所述的通过从原始待转换二维视频在时间上相邻的两帧图像之间寻找匹配,得到运动前景物体的运动矢量,并换算成运动幅度步骤:
(i)扫描待转换二维视频中的当前时刻图像帧If(x,y),根据步骤(e)得到的滤波过的前后景分离二值图像,判断若当前像素点是前景点,则为其在当前时刻的前一时刻图像帧If-1(x,y)上寻找最佳匹配像素点,采用在以当前像素点为中心的W×W邻域窗口内计算匹配代价的方法,以提高匹配的精确性,设匹配搜索范围SN×N大小为N×N,u和v分别是在寻找匹配时当前帧上像素在前一时刻图像帧上的水平偏移量和垂直偏移量,i和j分别是以当前像素点为中心的W×W邻域内的水平偏移量和垂直偏移量,定义匹配代价如下:
C ( x , y ; u , v ) = &Sigma; i = - ( w - 1 ) / 2 ( w - 1 ) / 2 &Sigma; j = - ( w - 1 ) / 2 ( w - 1 ) / 2 | I f ( x + i , y + i ) - I f - 1 ( x + u + i , y + v + j ) |
( x , y ) &Element; foreground , (u,v)∈SN×N,f=1,2,3……
遍历当前像素点搜索范围内的每一个像素点,计算相应的匹配代价,找出其中具有最小匹配代价的水平偏移量和垂直偏移量,以之作为当前像素点的运动矢量,水平MVx,垂直MVy,公式表示如下:
Cmin(x,y;MVx,MVy)=Min[C(x,y;u,v)];
(j)设步骤(i)中得到的每一个前景像素点的运动矢量水平方向分量为MVx(x,y),垂直方向分量为MVy(x,y),运动幅度定义为:
F ( x , y ) = MV x 2 ( x , y ) + MV y 2 ( x , y ) .
6.根据权利要求1所述的一种融合运动信息与几何信息的深度提取方法,其特征在于所述的根据运动前景部分所处位置,对其运动幅度做线性变换,得到运动深度图步骤:
(k)对步骤(j)中得到的运动幅度做线性变换和向下取整运算,确保运动深度图的每一个前景像素点的取值范围在[a,b],且为整数,线性变换公式如下:
Figure A2009101021530004C4
其中,线性变换下限a与上限b取值均在0~255之间,a取运动前景遮挡住的背景部分几何深度图的最小深度值,b取运动前景部分最低点对应背景部分几何深度图的深度值。
7.根据权利要求1所述的一种融合运动信息与几何信息的深度提取方法,其特征在于所述的融合运动深度图和几何深度图,并进行高斯滤波,得到最终深度图步骤:
(1)根据步骤(e)得到的滤波过的前后景分离二值图像A(x,y),对步骤(k)得到的运动深度图M(x,y)和步骤(h)得到的几何深度图G(x,y)进行融合,得到融合深度图D(x,y),融合公式定义如下:
D ( x , y ) = M ( x , y ) A ( x , y ) = 255 G ( x , y ) A ( x , y ) = 0 ;
(m)对步骤(1)得到的融合深度图进行高斯滤波,得到最终深度图,用于三维视频的表达。
CN2009101021536A 2009-08-17 2009-08-17 一种融合运动信息与几何信息的深度提取方法 Active CN101640809B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009101021536A CN101640809B (zh) 2009-08-17 2009-08-17 一种融合运动信息与几何信息的深度提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009101021536A CN101640809B (zh) 2009-08-17 2009-08-17 一种融合运动信息与几何信息的深度提取方法

Publications (2)

Publication Number Publication Date
CN101640809A true CN101640809A (zh) 2010-02-03
CN101640809B CN101640809B (zh) 2010-11-03

Family

ID=41615552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101021536A Active CN101640809B (zh) 2009-08-17 2009-08-17 一种融合运动信息与几何信息的深度提取方法

Country Status (1)

Country Link
CN (1) CN101640809B (zh)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101930606A (zh) * 2010-05-14 2010-12-29 深圳市海量精密仪器设备有限公司 一种图像边缘检测的景深扩展方法
CN101969547A (zh) * 2010-07-30 2011-02-09 新疆宏开电子***集成有限公司 一种用于夜间红外数字视频信号的处理方法
CN102075777A (zh) * 2011-01-26 2011-05-25 Tcl集团股份有限公司 一种基于运动对象的视频图像平面转立体处理方法
CN102163324A (zh) * 2010-03-26 2011-08-24 微软公司 深度图像的去混叠
CN102209248A (zh) * 2010-03-31 2011-10-05 株式会社东芝 视差图像生成装置和方法
CN102263979A (zh) * 2011-08-05 2011-11-30 清华大学 一种平面视频立体化的深度图生成方法及装置
CN102314591A (zh) * 2010-07-09 2012-01-11 株式会社理光 静止前景物体的检测方法和设备
CN102495907A (zh) * 2011-12-23 2012-06-13 香港应用科技研究院有限公司 具有深度信息的视频概要
CN102663737A (zh) * 2012-03-19 2012-09-12 西安交通大学 一种针对富含几何信息的视频信号的消逝点检测方法
CN102682291A (zh) * 2012-05-07 2012-09-19 深圳市贝尔信智能***有限公司 一种场景人数统计方法、装置和***
CN102750711A (zh) * 2012-06-04 2012-10-24 清华大学 一种基于图像分割和运动估计的双目视频深度图求取方法
CN102761683A (zh) * 2011-04-28 2012-10-31 华晶科技股份有限公司 多画面的影像降噪方法
CN102905143A (zh) * 2011-07-28 2013-01-30 瑞昱半导体股份有限公司 2d转3d图像转换装置及其方法
CN103208266A (zh) * 2012-01-17 2013-07-17 三星电子株式会社 具有图像转换机制的显示***及其操作方法
CN103218829A (zh) * 2013-04-01 2013-07-24 上海交通大学 一种适应于动态背景的前景提取方法
CN103413347A (zh) * 2013-07-05 2013-11-27 南京邮电大学 基于前景背景融合的单目图像深度图提取方法
CN103686139A (zh) * 2013-12-20 2014-03-26 华为技术有限公司 帧图像转换方法、帧视频转换方法及装置
CN103686136A (zh) * 2012-09-18 2014-03-26 宏碁股份有限公司 多媒体处理***及音频信号处理方法
CN103826032A (zh) * 2013-11-05 2014-05-28 四川长虹电器股份有限公司 深度图后期处理方法
CN103945211A (zh) * 2014-03-13 2014-07-23 华中科技大学 一种通过单视角彩色图像序列生成深度图序列的方法
CN103985106A (zh) * 2014-05-16 2014-08-13 三星电子(中国)研发中心 用于对强噪声图像进行多帧融合的设备和方法
CN104395931A (zh) * 2012-11-07 2015-03-04 皇家飞利浦有限公司 图像的深度图的生成
CN104424649A (zh) * 2013-08-21 2015-03-18 株式会社理光 检测运动物体的方法和***
CN104735360A (zh) * 2013-12-18 2015-06-24 华为技术有限公司 光场图像处理方法和装置
US9123115B2 (en) 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
US9171372B2 (en) 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
CN105005992A (zh) * 2015-07-07 2015-10-28 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
US9462251B2 (en) 2014-01-02 2016-10-04 Industrial Technology Research Institute Depth map aligning method and system
CN107004256A (zh) * 2014-11-20 2017-08-01 原子能和能源替代品委员会 用于噪声深度或视差图像的实时自适应滤波的方法和装置
CN107155101A (zh) * 2017-06-20 2017-09-12 万维云视(上海)数码科技有限公司 一种3d播放器使用的3d视频的生成方法及装置
CN107680169A (zh) * 2017-09-28 2018-02-09 宝琳创展国际文化科技发展(北京)有限公司 应用在深度图添加曲面制作一般及vr立体影像的方法
CN107742296A (zh) * 2017-09-11 2018-02-27 广东欧珀移动通信有限公司 动态图像生成方法和电子装置
CN108225346A (zh) * 2016-12-15 2018-06-29 现代自动车株式会社 车辆定位装置和方法
CN108366262A (zh) * 2017-01-27 2018-08-03 西克Ivp股份公司 运动编码器
CN108389172A (zh) * 2018-03-21 2018-08-10 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN109155066A (zh) * 2016-03-15 2019-01-04 康诺特电子有限公司 用于机动车辆的环境区域的两个图像之间的运动估计的方法,计算装置,驾驶员辅助***以及机动车辆
CN109213138A (zh) * 2017-07-07 2019-01-15 北京臻迪科技股份有限公司 一种避障方法、装置及***
US10198792B2 (en) 2009-10-14 2019-02-05 Dolby Laboratories Licensing Corporation Method and devices for depth map processing
CN109649384A (zh) * 2019-02-15 2019-04-19 华域汽车***股份有限公司 一种泊车辅助方法
CN109697725A (zh) * 2018-12-03 2019-04-30 浙江大华技术股份有限公司 一种背景过滤方法、装置及计算机可读存储介质
CN109900274A (zh) * 2019-03-25 2019-06-18 哈尔滨工业大学 一种图像匹配方法及***
CN110602479A (zh) * 2019-09-11 2019-12-20 海林电脑科技(深圳)有限公司 视频转换方法及***
CN110602476A (zh) * 2019-08-08 2019-12-20 南京航空航天大学 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN111208521A (zh) * 2020-01-14 2020-05-29 武汉理工大学 一种多波束前视声呐水下障碍物鲁棒检测方法
CN112203095A (zh) * 2020-12-04 2021-01-08 腾讯科技(深圳)有限公司 视频运动估计方法、装置、设备及计算机可读存储介质
CN112489072A (zh) * 2020-11-11 2021-03-12 广西大学 一种车载视频感知信息传输负载优化方法及装置
CN112822479A (zh) * 2020-12-30 2021-05-18 北京华录新媒信息技术有限公司 一种用于2d-3d视频转换的深度图生成方法及装置
CN113139997A (zh) * 2020-01-19 2021-07-20 武汉Tcl集团工业研究院有限公司 一种深度图处理方法、存储介质及终端设备
TWI736335B (zh) * 2020-06-23 2021-08-11 國立成功大學 基於深度影像生成方法、電子裝置與電腦程式產品
CN113688849A (zh) * 2021-08-30 2021-11-23 中国空空导弹研究院 一种用于卷积神经网络的灰度图像序列特征提取方法
TWI836117B (zh) * 2019-07-22 2024-03-21 南韓商三星電子股份有限公司 基於多個視訊訊框的深度偵測的方法及系統

Cited By (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198792B2 (en) 2009-10-14 2019-02-05 Dolby Laboratories Licensing Corporation Method and devices for depth map processing
US10417748B2 (en) 2009-10-14 2019-09-17 Dolby Laboratories Licensing Corporation Filtering and edge encoding and decoding for depth maps
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
CN102163324B (zh) * 2010-03-26 2014-07-02 微软公司 深度图像的去混叠
CN102163324A (zh) * 2010-03-26 2011-08-24 微软公司 深度图像的去混叠
CN102209248A (zh) * 2010-03-31 2011-10-05 株式会社东芝 视差图像生成装置和方法
US8665319B2 (en) 2010-03-31 2014-03-04 Kabushiki Kaisha Toshiba Parallax image generating apparatus and method
CN101930606A (zh) * 2010-05-14 2010-12-29 深圳市海量精密仪器设备有限公司 一种图像边缘检测的景深扩展方法
CN102314591B (zh) * 2010-07-09 2014-07-23 株式会社理光 静止前景物体的检测方法和设备
CN102314591A (zh) * 2010-07-09 2012-01-11 株式会社理光 静止前景物体的检测方法和设备
CN101969547A (zh) * 2010-07-30 2011-02-09 新疆宏开电子***集成有限公司 一种用于夜间红外数字视频信号的处理方法
US9123115B2 (en) 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
US9171372B2 (en) 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
CN102075777B (zh) * 2011-01-26 2015-02-11 Tcl集团股份有限公司 一种基于运动对象的视频图像平面转立体处理方法
CN102075777A (zh) * 2011-01-26 2011-05-25 Tcl集团股份有限公司 一种基于运动对象的视频图像平面转立体处理方法
US8953903B2 (en) 2011-04-28 2015-02-10 Altek Corporation Method of multi-frame image noise reduction
CN102761683B (zh) * 2011-04-28 2014-12-10 华晶科技股份有限公司 多画面的影像降噪方法
CN102761683A (zh) * 2011-04-28 2012-10-31 华晶科技股份有限公司 多画面的影像降噪方法
CN102905143A (zh) * 2011-07-28 2013-01-30 瑞昱半导体股份有限公司 2d转3d图像转换装置及其方法
CN102905143B (zh) * 2011-07-28 2015-04-15 瑞昱半导体股份有限公司 2d转3d图像转换装置及其方法
CN102263979A (zh) * 2011-08-05 2011-11-30 清华大学 一种平面视频立体化的深度图生成方法及装置
CN102263979B (zh) * 2011-08-05 2013-10-09 清华大学 一种平面视频立体化的深度图生成方法及装置
CN102495907A (zh) * 2011-12-23 2012-06-13 香港应用科技研究院有限公司 具有深度信息的视频概要
CN102495907B (zh) * 2011-12-23 2013-07-03 香港应用科技研究院有限公司 具有深度信息的视频概要
CN103208266B (zh) * 2012-01-17 2017-04-26 三星电子株式会社 具有图像转换机制的显示***及其操作方法
CN103208266A (zh) * 2012-01-17 2013-07-17 三星电子株式会社 具有图像转换机制的显示***及其操作方法
CN102663737A (zh) * 2012-03-19 2012-09-12 西安交通大学 一种针对富含几何信息的视频信号的消逝点检测方法
CN102682291A (zh) * 2012-05-07 2012-09-19 深圳市贝尔信智能***有限公司 一种场景人数统计方法、装置和***
CN102750711A (zh) * 2012-06-04 2012-10-24 清华大学 一种基于图像分割和运动估计的双目视频深度图求取方法
CN103686136A (zh) * 2012-09-18 2014-03-26 宏碁股份有限公司 多媒体处理***及音频信号处理方法
CN104395931A (zh) * 2012-11-07 2015-03-04 皇家飞利浦有限公司 图像的深度图的生成
CN103218829B (zh) * 2013-04-01 2016-04-13 上海交通大学 一种适应于动态背景的前景提取方法
CN103218829A (zh) * 2013-04-01 2013-07-24 上海交通大学 一种适应于动态背景的前景提取方法
CN103413347B (zh) * 2013-07-05 2016-07-06 南京邮电大学 基于前景背景融合的单目图像深度图提取方法
CN103413347A (zh) * 2013-07-05 2013-11-27 南京邮电大学 基于前景背景融合的单目图像深度图提取方法
CN104424649A (zh) * 2013-08-21 2015-03-18 株式会社理光 检测运动物体的方法和***
CN103826032A (zh) * 2013-11-05 2014-05-28 四川长虹电器股份有限公司 深度图后期处理方法
CN103826032B (zh) * 2013-11-05 2017-03-15 四川长虹电器股份有限公司 深度图后期处理方法
CN104735360A (zh) * 2013-12-18 2015-06-24 华为技术有限公司 光场图像处理方法和装置
CN103686139A (zh) * 2013-12-20 2014-03-26 华为技术有限公司 帧图像转换方法、帧视频转换方法及装置
CN103686139B (zh) * 2013-12-20 2016-04-06 华为技术有限公司 帧图像转换方法、帧视频转换方法及装置
US9530212B2 (en) 2013-12-20 2016-12-27 Huawei Technologies Co., Ltd. Image frame conversion method and video frame conversion method and apparatus
US9462251B2 (en) 2014-01-02 2016-10-04 Industrial Technology Research Institute Depth map aligning method and system
CN103945211A (zh) * 2014-03-13 2014-07-23 华中科技大学 一种通过单视角彩色图像序列生成深度图序列的方法
CN103985106A (zh) * 2014-05-16 2014-08-13 三星电子(中国)研发中心 用于对强噪声图像进行多帧融合的设备和方法
CN107004256A (zh) * 2014-11-20 2017-08-01 原子能和能源替代品委员会 用于噪声深度或视差图像的实时自适应滤波的方法和装置
CN107004256B (zh) * 2014-11-20 2020-10-27 原子能和能源替代品委员会 用于噪声深度或视差图像的实时自适应滤波的方法和装置
CN105005992B (zh) * 2015-07-07 2016-03-30 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
CN105005992A (zh) * 2015-07-07 2015-10-28 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
CN109155066B (zh) * 2016-03-15 2022-03-29 康诺特电子有限公司 用于机动车辆的环境区域的两个图像之间的运动估计的方法,计算装置,驾驶员辅助***以及机动车辆
CN109155066A (zh) * 2016-03-15 2019-01-04 康诺特电子有限公司 用于机动车辆的环境区域的两个图像之间的运动估计的方法,计算装置,驾驶员辅助***以及机动车辆
CN108225346B (zh) * 2016-12-15 2022-09-06 现代自动车株式会社 车辆定位装置和方法
CN108225346A (zh) * 2016-12-15 2018-06-29 现代自动车株式会社 车辆定位装置和方法
CN108366262A (zh) * 2017-01-27 2018-08-03 西克Ivp股份公司 运动编码器
CN108366262B (zh) * 2017-01-27 2022-03-15 西克Ivp股份公司 运动编码器
CN107155101A (zh) * 2017-06-20 2017-09-12 万维云视(上海)数码科技有限公司 一种3d播放器使用的3d视频的生成方法及装置
CN109213138B (zh) * 2017-07-07 2021-09-14 北京臻迪科技股份有限公司 一种避障方法、装置及***
CN109213138A (zh) * 2017-07-07 2019-01-15 北京臻迪科技股份有限公司 一种避障方法、装置及***
CN107742296A (zh) * 2017-09-11 2018-02-27 广东欧珀移动通信有限公司 动态图像生成方法和电子装置
CN107680169A (zh) * 2017-09-28 2018-02-09 宝琳创展国际文化科技发展(北京)有限公司 应用在深度图添加曲面制作一般及vr立体影像的方法
CN107680169B (zh) * 2017-09-28 2021-05-11 宝琳创展科技(佛山)有限公司 在深度图添加曲面制作vr立体影像的方法
CN108389172B (zh) * 2018-03-21 2020-12-18 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108389172A (zh) * 2018-03-21 2018-08-10 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN109697725A (zh) * 2018-12-03 2019-04-30 浙江大华技术股份有限公司 一种背景过滤方法、装置及计算机可读存储介质
CN109697725B (zh) * 2018-12-03 2020-10-02 浙江大华技术股份有限公司 一种背景过滤方法、装置及计算机可读存储介质
CN109649384B (zh) * 2019-02-15 2020-08-14 华域汽车***股份有限公司 一种泊车辅助方法
CN109649384A (zh) * 2019-02-15 2019-04-19 华域汽车***股份有限公司 一种泊车辅助方法
CN109900274B (zh) * 2019-03-25 2022-09-16 哈尔滨工业大学 一种图像匹配方法及***
CN109900274A (zh) * 2019-03-25 2019-06-18 哈尔滨工业大学 一种图像匹配方法及***
US11995856B2 (en) 2019-07-22 2024-05-28 Samsung Electronics Co., Ltd. Video depth estimation based on temporal attention
TWI836117B (zh) * 2019-07-22 2024-03-21 南韓商三星電子股份有限公司 基於多個視訊訊框的深度偵測的方法及系統
CN110602476B (zh) * 2019-08-08 2021-08-06 南京航空航天大学 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN110602476A (zh) * 2019-08-08 2019-12-20 南京航空航天大学 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN110602479A (zh) * 2019-09-11 2019-12-20 海林电脑科技(深圳)有限公司 视频转换方法及***
CN111208521A (zh) * 2020-01-14 2020-05-29 武汉理工大学 一种多波束前视声呐水下障碍物鲁棒检测方法
CN113139997A (zh) * 2020-01-19 2021-07-20 武汉Tcl集团工业研究院有限公司 一种深度图处理方法、存储介质及终端设备
TWI736335B (zh) * 2020-06-23 2021-08-11 國立成功大學 基於深度影像生成方法、電子裝置與電腦程式產品
CN112489072B (zh) * 2020-11-11 2023-10-13 广西大学 一种车载视频感知信息传输负载优化方法及装置
CN112489072A (zh) * 2020-11-11 2021-03-12 广西大学 一种车载视频感知信息传输负载优化方法及装置
CN112203095A (zh) * 2020-12-04 2021-01-08 腾讯科技(深圳)有限公司 视频运动估计方法、装置、设备及计算机可读存储介质
CN112822479A (zh) * 2020-12-30 2021-05-18 北京华录新媒信息技术有限公司 一种用于2d-3d视频转换的深度图生成方法及装置
CN113688849A (zh) * 2021-08-30 2021-11-23 中国空空导弹研究院 一种用于卷积神经网络的灰度图像序列特征提取方法
CN113688849B (zh) * 2021-08-30 2023-10-24 中国空空导弹研究院 一种用于卷积神经网络的灰度图像序列特征提取方法

Also Published As

Publication number Publication date
CN101640809B (zh) 2010-11-03

Similar Documents

Publication Publication Date Title
CN101640809B (zh) 一种融合运动信息与几何信息的深度提取方法
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测***及方法
CN102254348B (zh) 一种基于自适应视差估计的虚拟视点绘制方法
CN101765022B (zh) 一种基于光流与图像分割的深度表示方法
CN102263979B (zh) 一种平面视频立体化的深度图生成方法及装置
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN101631256A (zh) 用于三维电视***中2d视频到3d视频的转换方法
CN102223553A (zh) 一种二维视频到三维视频的自动转换方法
CN102098440A (zh) 针对摄像机抖动下运动目标检测的电子稳像方法及***
CN102609950B (zh) 一种二维视频深度图的生成方法
CN112019828B (zh) 一种视频的2d到3d的转换方法
CN102075779A (zh) 一种基于块匹配视差估计的中间视图合成方法
CN106056622B (zh) 一种基于Kinect相机的多视点深度视频复原方法
CN103581650A (zh) 双目3d视频转多目3d视频的方法
CN106447718B (zh) 一种2d转3d深度估计方法
CN104992442A (zh) 面向平面显示设备的视频立体化绘制方法
CN101557534B (zh) 一种从视频相近帧中生成视差图的方法
CN104980726B (zh) 一种联合运动向量的双目视频立体匹配方法
CN101765019A (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN103716615B (zh) 基于样本学习和深度图像传播的2d视频立体化方法
CN112822479A (zh) 一种用于2d-3d视频转换的深度图生成方法及装置
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
CN104159098B (zh) 一种视频的时域一致性半透明边缘提取方法
CN111292425A (zh) 一种基于单双目混合数据集的视图合成方法
CN112634127B (zh) 一种无监督立体图像重定向方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160614

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Zhejiang Road, No. 38

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160831

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: 518000 B unit 101, Fengyun mansion 5, Xili street, Nanshan District, Shenzhen, Guangdong.

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: 518000 2 of Fengyun tower, Fifth Industrial Zone, Nanshan District North Ring Road, Shenzhen, Guangdong, 101

Patentee before: World wide technology (Shenzhen) Limited