CN101720047A - 基于颜色分割的多目摄像立体匹配获取深度图像的方法 - Google Patents
基于颜色分割的多目摄像立体匹配获取深度图像的方法 Download PDFInfo
- Publication number
- CN101720047A CN101720047A CN200910198231A CN200910198231A CN101720047A CN 101720047 A CN101720047 A CN 101720047A CN 200910198231 A CN200910198231 A CN 200910198231A CN 200910198231 A CN200910198231 A CN 200910198231A CN 101720047 A CN101720047 A CN 101720047A
- Authority
- CN
- China
- Prior art keywords
- image
- parallax
- reference picture
- disparity map
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种基于颜色分割的多目摄像立体匹配获取深度图像的方法,它包括步骤:(1)、对所有输入图像进行图像规正;(2)、对参考图像进行颜色分割,提取图像中的颜色一致性区域;(3)、对多幅输入图像分别进行局部窗口匹配得到多幅视差图;(4)、应用双向匹配策略来消除在匹配过程中产生的误匹配点;(5)、将多幅视差图合成为一幅视差图,填充误匹配点的视差信息;(6)、对视差图进行后处理优化,得到一个稠密视差图;(7)、根据视差与深度之间的关系,将视差图转换为深度图。该方法从多个视点图像中获取深度信息,利用多个视点图像提供的图像信息,不仅能解决图像中周期性重复纹理特征、遮挡等带来的误匹配,还能提高匹配精度,得到一个准确的深度图像。
Description
技术领域
本发明涉及一种深度图像获取方法,特别是基于颜色分割的多目摄像立体匹配获取深度图像的方法。
背景技术
基于深度图像绘制(Depth Image Based Rendering,DIBR)技术是3DTV***在解码端的一项关键技术。DIBR技术通过给源图像中的可见象素引入深度信息利用彩色图像及其对应的深度图像生成新视点图像。由于压缩传输多路视频所需要传输的数据量非常巨大从而导致所要求的带宽会显著增加,尤其如果支持用户选择视点,则需要使用密集型摄像机阵列采集,这样就使得多视点视频数据量急剧增加,严重妨碍了3DTV的应用。因此“单视点视频+深度”的表示方法被作为立体视频的替代方案,在解码端利用DIBR技术,实时生成一个或者多个虚拟视点的3D场景,产生三维视觉效果并满足一定的视点选择的交互性;而“多视点视频+深度”是目前MPEG/JVT拟采用的3D视频表示方法,可用较稀疏的摄像机阵列拍摄3D场景并支持视点选择的交互性。以上利用单路或多路二维彩***加上其相对应的深度信息的3D视频表示方式,能大幅减小3D视频数据量,从而节省传输带宽。然而,用于基于深度图像绘制的深度图的获取是其中的关键技术,也是一个难点。
目前深度获取主要有以下两类方法,一类是利用特殊的硬件设备来主动获取场景中每个点的深度信息。例如3DV***公司开发的Zcam深度相机,它是一种带有测距功能的摄像机,利用红外脉冲光源向场景发射信号,然后用红外传感器来检测场景中物体反射回来的红外光,从而确定场景中物体的每一点到摄像机的距离。由于此类***设备的价格非常昂贵,不适合推广。另一类方法是基于传统的计算机立体视觉方法,利用在两个不同视点获得的同一景物的两幅图像或多个视点图像进行立体匹配来恢复场景物体的深度信息。此类方法一般包含两步:(1)对图像进行立体匹配,得到对应点的视差图像;(2)根据对应点的视差与深度的关系计算出深度,得到深度图像。
立体匹配算法主要可以分为基于区域的立体匹配算法和基于特征的立体匹配算法这两大类。基于区域(窗口)的立体匹配算法,能够很容易地恢复出高纹理区域的视差,但在低纹理区域会造成大量的误匹配,从而导致边界模糊,同时对遮挡的区域也很难进行处理;基于特征的立体匹配方法提取的特征点对噪声不是太敏感,所以能得到比较精准的匹配,但由于图像中的特征点很稀疏,此种方法只能获得一个稀疏的视差图。一种基于分割的立体匹配方法,由于它可以得到稠密的视差图,近来受到了很大程度的关注。这类方法假设场景中物体结构由一组互不重叠的平面组成,每个平面对应着参考图像中的一个颜色分割区域,且单一的颜色区域中视差变化是平滑的。
发明内容
本发明的目的是为了克服现有技术的不足,提供一种基于颜色分割的多目摄像立体匹配获取深度图像的方法。该方法不仅能有效解决图像中周期性重复纹理特征、遮挡等带来的误匹配问题,还能提高匹配精度,从而得到一个准确且稠密的深度图像。
为达到上述目的,本发明的构思是:
根据图像的颜色信息对输入参考图像进行颜色分割;然后利用参考图像与其余输入图像进行局部窗口匹配得到多幅初始视差图,融合多幅初始视差图填充误匹配点的视差信息;最后对得到的视差图进行优化处理后,根据视差与深度之间的关系,将视差图转换为深度图。
根据上述构思,本发明的技术方案是:
上述基于颜色分割的多目摄像立体匹配获取深度图像的方法,其步骤是:
(1)、对所有输入图像进行图像规正,消除因图像噪声、光照条件、遮挡等因素造成对应点在不同视点图像上的颜色差异;
(2)、对参考图像进行颜色分割,提取图像中的颜色一致性区域;
(3)、对多幅输入图像分别进行局部窗口匹配得到多幅视差图;
(4)、应用双向匹配策略来消除在匹配过程中产生的误匹配点,提高视差精度;
(5)、根据融合准则将多幅视差图融合成为一幅视差图,填充误匹配点的视差信息;
(6)、对视差图进行后处理优化,得到一个稠密视差图;
(7)、根据视差与深度之间的关系,将视差图转换为深度图。
本发明的基于颜色分割的多目摄像立体匹配获取深度图像的方法与已有技术相比较,具有如下显而易见的实质性突出特点和显著优点:该方法采用基于分割立体匹配算法从多个视点图像中获取深度信息,合理地利用多个视点图像提供的图像信息,消除由图像中周期性重复纹理特征、遮挡等带来的误匹配,提高了匹配精度,且能得到每个像素的视差,最终能获得一个准确而稠密的深度图,从而满足基于图像绘制技术对深度图像质量的要求,从而可以在基于深度图像绘制的深度获取方面得到应用。
附图说明
图1是本发明的基于颜色分割的多目摄像立体匹配获取深度图像的方法的流程框图;
图2是平行摄像机配置***示意图;
图3是图1中对图像进行颜色规正的流程框图;
图4是目标图像C1、参考图像Cc、目标图像Cr的不同视点图像间的遮挡关系示意图;
图5是按照本发明所述方法得到的立体匹配结果图。
具体实施方式
以下结合附图对本发明的实施例作进一步的详细说明。本实施例以本发明的技术方案为前提下进行实施,给出了详细的实施方式,但本发明的保护范围不限于下述的实施例。
本发明的实施例是以3幅输入图像为例,其3幅输入图像是由如图2所示的平行摄像机配置***拍摄得到,中间的视点Cc所拍摄的图像为参考图像Cc,其左右两个视点C1,Cr所拍摄的图像分别为两幅目标图像C1,Cr。f表示这3个摄像机的焦距,深度值为Z的空间场景点P在这三个图像平面上的投影点分别为(x1,y),(xc,y)和(xr,y)。
参见图1,本发明的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其步骤是:
(1)、对3幅输入图像进行图像规正,消除因图像噪声、光照条件、遮挡等因素造成对应点在不同视点图像上的颜色差异;
(2)、对参考图像进行颜色分割,提取图像中的颜色一致性区域;
(3)、对3幅输入图像分别进行局部窗口匹配,得到2幅视差图;即参考图像分别与左边目标图像匹配以及参考图像与右边目标图像匹配;
(4)、采用双向匹配来消除在匹配过程中产生的误匹配点;
(5)、根据融合准则将多幅视差图合成为一幅视差图,填充误匹配点的视差信息;
(6)、对视差图进行优化处理,得到一个稠密视差图;
(7)、根据视差与深度之间的关系,计算深度将视差图转换为深度图。
参见图3,上述步骤(1)所述的对输入图像进行图像规正,消除因图像噪声、光照条件、遮挡等因素造成对应点在不同视点图像上的颜色差异,其具体步骤是:
(1-1)、按照像素的亮度值,计算出每幅输入图像的累积直方图;
(1-2)、以Cc视点图像作为参考图像Cc,将累积直方图按像素个数平均分成10段,分别找出每一段的亮度上下边界值,由此确定参考图像Cc与目标图像C1或目标图像Cr对应段间的线性映射关系;
(1-3)、对目标图像中的每一像素点,求其在累积直方图中的分段号,然后根据相应的映射公式将其亮度值映射为另一个值,对像素进行规正。
上述步骤(2)所述的对参考图像进行颜色分割,提取参考图像中的颜色一致性区域,其具体步骤如下:
采用Mean Shift算法根据图像的颜色信息对参考图像Cc进行颜色分割,利用概率分布的梯度寻找分布峰值,将图像中每一个像素归类到相应的密度模式下,从而实现聚类,使得得到的每一个分割区域内的像素具有相同的颜色值。
上述步骤(3)所述的对多幅输入图像分别进行局部窗口匹配,得到多幅视差图,其具体步骤如下:
(3-1)、确定参考图像Cc与目标图像C1、目标图像Cr的位置关系;
当在一幅目标图像中找不到匹配点时,在另外一幅目标图像可以找到其相应的匹配点。如图4所示,图中涂黑长条框表示两个场景物体,设定中间的视点Cc所拍摄的图像为参考图像Cc,则取其左右两个视点C1,Cr所拍摄的图像分别为目标图像C1和目标图像Cr。场景中P1P3线段区域在C1视点处被遮挡,当立体匹配求参考图像Cc的视差时,该区域的像素点在C1视点图像中找不到匹配点,但在Cr视点图像中能找到对应匹配点。
(3-2)、分别对参考图像Cc与左边目标图像C1以及参考图像Cc与右边目标图像Cr进行局部窗口匹配;
以上述参考图像Cc作为基准图像,基准图像中待匹配点为中心像素创建一个大小为5*5窗口,在目标图像中搜索与待匹配点邻域同样大小为5*5的像素邻域,依次与待匹配点的窗口进行比较,其中采用自适应的像素异性测量(self-adapting dissimilarity measure)作为相似度测量函数,如下式,其最大相似性对应的点就是最佳匹配点。
C(x,y,d)=(1-ω)*CSAD(x,y,d)+ω*CGRAD(x,y,d)
通过对C1视点图像与Cc视点图像(参考图像)匹配,得到视差图ILI(x,y)。Cr视点图像与Cc视点图像(参考图像)匹配,得到视差图IRI(x,y)。得到的两幅视差图中包含很多误匹配点。
上述步骤(4)所述的采用双向匹配来消除在匹配过程中产生的误匹配点,它用在参考图像与左边目标图像匹配以及参考图像与右边目标图像匹配这两个相同的匹配过程中,其具体步骤如下:
(4-1)、以左图像作为参考图像,右图像作为目标图像,从左到右进行局部窗口匹配得到从左到右的视差图dLR;
(4-2)、以右图像作为参考图像,左图像作为目标图像,从右到左进行局部窗口匹配得到从右到左的视差图dRL;
(4-3)、根据下面公式找出在两幅视差图中视差不一致的对应点,确定为误匹配点。
其中:λ是误差阈值,左图上的像素(xL,y)与右图上的像素(xR,y)是一对匹配点,即xR=xL+dLR(xL,y)。
当两幅视差图中对应点的视差误差满足|dLR(xL,y)-dRL(xR,y)|≤λ(λ为允许的视差误差阈值)时,则表明对应点视差匹配正确。当视差误差不满足|dLR(xL,y)-dRL(xR,y)|≤λ时,表明该点为误匹配点,将该点赋值为0。
上述步骤(5)所述的将多幅视差图合成为一幅视差图,填充误匹配点的视差信息,其具体步骤如下:
(5-1)、根据相机的外参矩阵中的平移向量t计算比例系数α;
其中,tL、tC、tR分别为左边摄像机、中间摄像机、右边摄像机的外参矩阵中的平移向量。
(5-2)、根据以下的融合准则,将2幅视差图ILI(x,y)和IRI(x,y)合成为最终的视差图I(x,y),填充误匹配点的视差信息。融合方式用公式表示如下:
其中,I(x,y)是参考图像坐标最终合成的视差图。ILI(x,y),IRI(x,y)分别表示参考图像与其邻近的左右两幅图像匹配得到的视差图。δ表示一个误差阈值。
上述步骤(6)所述的对视差图进行优化处理,得到一个稠密视差图,其具体步骤如下:
(6-1)、假设参考图像中的每个颜色分割区域内视差变化是平滑的;
(6-2)、取每个分割区域内的所有像素的中间视差值作为整个分割区域的视差,得到每个像素的视差值,其数学表示形式如下面公式。最后得到了一个高质量稠密的视差图I′(x,y)。
其中,ISEG(x,y)表示分割区域。
上述步骤(7)所述的根据视差与深度之间的关系,计算深度将视差图转换为深度图,其具体是:
平行摄像机配置***中场景的深度值与其视差有如下关系:
其中,Z表示深度值,B表示基线距离(相机间距),f为相机焦距,D为视差。
根据深度与视差的关系,在视差已知的情况下,计算出每个像素的深度值,从而将视差图I′(x,y)转化为深度图。
图5中图(a)、(b)分别为按照本发明所述方法得到的匹配结果。其中图(a)是对静态场景序列的匹配结果,图(b)是对动态场景序列的匹配结果。从图5中可以看出最后的匹配结果能保持精确的视差图边界,特别一些缺少匹配的遮挡区域的视差也得到了很好的恢复,场景物体的深度层次表现得非常明显。按照本发明所述方法,能得到理想的匹配效果,由此也验证了本发明的有效性。
Claims (8)
1.一种基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,该方法根据图像的颜色信息对输入参考图像进行颜色分割;然后利用参考图像与其余输入图像进行局部窗口匹配得到多幅初始视差图,融合多幅初始视差图填充误匹配点的视差信息;最后对得到的视差图进行优化处理后,根据视差与深度之间的关系,将视差图转换为深度图,其具体步骤如下:
(1)、对所有输入图像进行图像规正,消除因图像噪声、光照条件、遮挡等因素造成对应点在不同视点图像上的颜色差异;
(2)、对参考图像进行颜色分割,提取图像中的颜色一致性区域;
(3)、对多幅输入图像分别进行局部窗口匹配得到多幅视差图;
(4)、应用双向匹配策略来消除在匹配过程中产生的误匹配点,提高视差精度;
(5)、根据融合准则将多幅视差图合成为一幅视差图,填充误匹配点的视差信息;
(6)、对视差图进行后处理优化,得到一个稠密视差图;
(7)、根据视差与深度之间的关系,将视差图转换为深度图。
2.根据权利要求1所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(1)所述的所有输入图像进行图像规正,其具体步骤是:
(1-1)、按照像素的亮度值,计算出每幅输入图像的累积直方图;
(1-2)、以Cc视点图像作为参考图像Cc,将累积直方图按像素个数平均分成10段,分别找出每一段的亮度上下边界值,由此确定参考图像Cc与目标图像C1、目标图像Cr对应段间的线性映射关系;
(1-3)、对目标图像中的每一像素点,求其在累积直方图中的分段号,然后根据相应的映射公式将其亮度值映射为另一个值。
3.根据权利要求2所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(2)所述的对参考图像进行颜色分割,提取参考图像中的颜色一致性区域,其具体步骤如下:采用Mean Shift算法根据图像的颜色信息对参考图像Cc进行颜色分割,利用概率分布的梯度寻找分布峰值,将图像中每一个像素归类到相应的密度模式下,从而实现聚类,使得得到的每一个分割区域内的像素具有相同的颜色值。
4.根据权利要求3所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(3)所述的对多幅输入图像分别进行局部窗口匹配,得到多幅视差图,其具体步骤如下:
(3-1)、确定参考图像Cc与目标图像C1、目标图像Cr的位置关系;
当在一幅目标图像中找不到匹配点时,在另外一幅目标图像可以找到其相应的匹配点,设定中间的视点Cc所拍摄的图像为参考图像Cc,则取其左右两个视点C1,Cr所拍摄的图像分别为目标图像C1和目标图像Cr,场景中P1P3线段区域在C1视点处被遮挡,当立体匹配求参考图像Cc的视差时,该区域的像素点在C1视点图像中找不到匹配点,但在Cr视点图像中能找到对应匹配点;
(3-2)、分别对参考图像Cc与左边目标图像C1以及参考图像Cc与右边目标图像Cr进行局部窗口匹配;
以上述参考图像Cc作为基准图像,基准图像待匹配点为中心像素创建一个大小为5*5窗口,在目标图像中搜索与待匹配点邻域同样大小为5*5的像素邻域,依次与待匹配点的窗口进行比较,其中采用自适应的像素异性测量(self-adapting dissimilarity measure)作为相似度测量函数,如下式,其最大相似性对应的点就是最佳匹配点,
C(x,y,d)=(1-ω)*CSAD(x,y,d)+ω*CGRAD(x,y,d)
通过对C1视点图像与Cc视点图像(参考图像)匹配,得到视差图ILI(x,y),Cr视点图像与Cc视点图像(参考图像)匹配,得到视差图IRI(x,y),得到的两幅视差图中包含很多误匹配点。
5.根据权利要求4所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(4)所述的采用双向匹配来消除在匹配过程中产生的误匹配点,它用在参考图像与左边目标图像匹配以及参考图像与右边目标图像匹配这两个相同的匹配过程中,其具体步骤如下
(4-1)、以左图像作为参考图像,右图像作为目标图像,从左到右进行局部窗口匹配得到从左到右的视差图dLR;
(4-2)、以右图像作为参考图像,左图像作为目标图像,从右到左进行局部窗口匹配得到从右到左的视差图dRL;
(4-3)、根据下面公式找出在两幅视差图中视差不一致的对应点,确定为误匹配点,
其中:λ是误差阈值,左图上的像素(xL,y)与右图上的像素(xR,y)是一对匹配点,即xR=xL+dLR(xL,y),
当两幅视差图中对应点的视差误差满足|dLR(xL,y)-dRL(xR,y)|≤λ(λ为允许的视差误差阈值)时,则表明对应点视差匹配正确,当视差误差不满足|dLR(xL,y)-dRL(xR,y)|≤λ时,表明该点为误匹配点,将该点赋值为0。
6.根据权利要求5所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(5)所述的将多幅视差图合成为一幅视差图,填充误匹配点的视差信息,其具体步骤如下:
(5-1)、根据相机的外参矩阵中的平移向量t计算比例系数α;
其中,tL、tC、tR分别为左边摄像机、中间摄像机、右边摄像机的外参矩阵中的平移向量;
(5-2)、根据以下的融合准则,将2幅视差图ILI(x,y)和IRI(x,y)合成为最终的视差图I(x,y),填充误匹配点的视差信息,融合方式用公式表示如下:
其中,I(x,y)是参考图像坐标最终合成的视差图,ILI(x,y),IRI(x,y)分别表示参考图像与其邻近的左右两幅图像匹配得到的视差图,δ表示一个误差阈值。
7.根据权利要求6所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(6)所述的对视差图进行优化处理,得到一个稠密视差图,其具体步骤如下:
(6-1)、假设参考图像中的每个颜色分割区域内视差变化是平滑的;
(6-2)、取每个分割区域内的所有像素的中间视差值作为整个分割区域的视差,得到每个像素的视差值,其数学表示形式如下面公式,最后得到了一个高质量稠密的视差图I′(x,y),
其中,ISEG(x,y)表示分割区域。
8.根据权利要求7所述的基于颜色分割的多目摄像立体匹配获取深度图像的方法,其特征在于,上述步骤(7)所述的根据视差与深度之间的关系,计算深度将视差图转换为深度图,其具体是:
平行摄像机配置***中场景的深度值与其视差有如下关系:
其中,Z表示深度值,B表示基线距离(相机间距),f为相机焦距,D为视差,根据深度与视差的关系,在视差已知的情况下,计算出每个像素的深度值,从而将视差图I′(x,y)转化为深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101982317A CN101720047B (zh) | 2009-11-03 | 2009-11-03 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101982317A CN101720047B (zh) | 2009-11-03 | 2009-11-03 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101720047A true CN101720047A (zh) | 2010-06-02 |
CN101720047B CN101720047B (zh) | 2011-12-21 |
Family
ID=42434549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101982317A Expired - Fee Related CN101720047B (zh) | 2009-11-03 | 2009-11-03 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101720047B (zh) |
Cited By (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102074014A (zh) * | 2011-02-23 | 2011-05-25 | 山东大学 | 一种利用基于图论的图像分割算法的立体匹配方法 |
CN102111637A (zh) * | 2011-03-29 | 2011-06-29 | 清华大学 | 生成立体视频深度图的方法及装置 |
CN102129567A (zh) * | 2011-03-17 | 2011-07-20 | 南京航空航天大学 | 一种基于色彩分割和自适应窗口的快速立体匹配方法 |
CN102156987A (zh) * | 2011-04-25 | 2011-08-17 | 深圳超多维光电子有限公司 | 获取场景深度信息的方法及装置 |
CN102184540A (zh) * | 2011-05-03 | 2011-09-14 | 哈尔滨工程大学 | 基于尺度空间的亚像素级立体匹配方法 |
CN102298708A (zh) * | 2011-08-19 | 2011-12-28 | 四川长虹电器股份有限公司 | 基于颜色和形状匹配的3d模式识别方法 |
CN102316297A (zh) * | 2010-07-08 | 2012-01-11 | 株式会社泛泰 | 图像输出装置和使用该图像输出装置输出图像的方法 |
CN102509348A (zh) * | 2011-09-26 | 2012-06-20 | 北京航空航天大学 | 一种共享增强现实场景的真实物体多方位表示方法 |
CN102609974A (zh) * | 2012-03-14 | 2012-07-25 | 浙江理工大学 | 一种基于深度图分割渲染的虚拟视点图像的生成方法 |
CN102622769A (zh) * | 2012-03-19 | 2012-08-01 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
CN102692236A (zh) * | 2012-05-16 | 2012-09-26 | 浙江大学 | 基于rgb-d相机的视觉里程计方法 |
CN102740116A (zh) * | 2011-04-08 | 2012-10-17 | 索尼公司 | 图像属性检测 |
CN102802005A (zh) * | 2011-04-26 | 2012-11-28 | 李国君 | 三维视频内容产生方法 |
CN102802020A (zh) * | 2012-08-31 | 2012-11-28 | 清华大学 | 监测双目立体视频视差信息的方法和装置 |
CN102821290A (zh) * | 2011-06-06 | 2012-12-12 | 索尼公司 | 图像处理设备、图像处理方法以及程序 |
CN103337064A (zh) * | 2013-04-28 | 2013-10-02 | 四川大学 | 图像立体匹配中的一种误匹配点剔除方法 |
CN103379350A (zh) * | 2012-04-28 | 2013-10-30 | 中国科学院深圳先进技术研究院 | 虚拟视点图像后处理方法 |
CN103458246A (zh) * | 2013-09-03 | 2013-12-18 | 清华大学 | 视频运动分割中的遮挡处理方法及*** |
CN103458261A (zh) * | 2013-09-08 | 2013-12-18 | 华东电网有限公司 | 一种基于立体视觉的视频场景变化检测方法 |
CN103460242A (zh) * | 2011-03-31 | 2013-12-18 | 索尼电脑娱乐公司 | 信息处理装置、信息处理方法、以及位置信息的数据结构 |
CN103607558A (zh) * | 2013-11-04 | 2014-02-26 | 深圳市中瀛鑫科技股份有限公司 | 一种视频监控***及其目标匹配方法和装置 |
CN103634586A (zh) * | 2013-11-26 | 2014-03-12 | 深圳市唯特视科技有限公司 | 立体图像获取方法及装置 |
CN103703761A (zh) * | 2011-05-17 | 2014-04-02 | S.I.Sv.El.意大利电子发展股份公司 | 用于产生、传输和接收立体图像的方法以及相关设备 |
CN103780897A (zh) * | 2014-02-25 | 2014-05-07 | 重庆卓美华视光电有限公司 | 两视点图像的深度图获取方法及装置 |
CN103843333A (zh) * | 2011-09-29 | 2014-06-04 | 富士胶片株式会社 | 控制立体图像的显示的方法、控制立体图像显示的装置以及成像装置 |
CN103871037A (zh) * | 2012-12-07 | 2014-06-18 | 汤姆逊许可公司 | 图像之间颜色转换的方法和装置 |
CN103986923A (zh) * | 2013-02-07 | 2014-08-13 | 财团法人成大研究发展基金会 | 影像立体匹配*** |
CN104036226A (zh) * | 2013-03-04 | 2014-09-10 | 联想(北京)有限公司 | 一种目标物信息获取方法及电子设备 |
CN104050656A (zh) * | 2013-03-12 | 2014-09-17 | 英特尔公司 | 用于确定图像中对象深度的设备和技术 |
CN104112270A (zh) * | 2014-05-14 | 2014-10-22 | 苏州科技学院 | 一种基于自适应权重多尺度窗口的任意点匹配算法 |
CN104123715A (zh) * | 2013-04-27 | 2014-10-29 | 株式会社理光 | 配置视差值的方法和*** |
CN104517095A (zh) * | 2013-10-08 | 2015-04-15 | 南京理工大学 | 一种基于深度图像的人头分割方法 |
CN104796684A (zh) * | 2015-03-24 | 2015-07-22 | 深圳市广之爱文化传播有限公司 | 裸眼3d视频处理方法 |
CN106023189A (zh) * | 2016-05-17 | 2016-10-12 | 北京信息科技大学 | 一种基于匹配优化的光场数据深度重建方法 |
CN106331672A (zh) * | 2016-08-19 | 2017-01-11 | 深圳奥比中光科技有限公司 | 视点图像的获得方法、装置及*** |
CN104050682B (zh) * | 2014-07-09 | 2017-01-18 | 武汉科技大学 | 一种融合颜色和深度信息的图像分割方法 |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
CN106530409A (zh) * | 2016-11-03 | 2017-03-22 | 浙江大学 | 立体匹配中局部区域一致性对应方法 |
KR20170090976A (ko) * | 2016-01-29 | 2017-08-08 | 삼성전자주식회사 | 영상시차 획득방법 및 장치 |
CN107085825A (zh) * | 2017-05-27 | 2017-08-22 | 成都通甲优博科技有限责任公司 | 图像虚化方法、装置及电子设备 |
CN107122782A (zh) * | 2017-03-16 | 2017-09-01 | 成都通甲优博科技有限责任公司 | 一种均衡的半密集立体匹配方法 |
CN107211085A (zh) * | 2015-02-20 | 2017-09-26 | 索尼公司 | 摄像装置和摄像方法 |
CN107220994A (zh) * | 2017-06-01 | 2017-09-29 | 成都通甲优博科技有限责任公司 | 一种立体匹配的方法及*** |
CN107256547A (zh) * | 2017-05-26 | 2017-10-17 | 浙江工业大学 | 一种基于显著性检测的表面裂纹识别方法 |
CN107329490A (zh) * | 2017-07-21 | 2017-11-07 | 歌尔科技有限公司 | 无人机避障方法及无人机 |
CN107610070A (zh) * | 2017-09-29 | 2018-01-19 | 深圳市佳创视讯技术股份有限公司 | 基于三摄像采集的自由立体匹配方法 |
CN107730543A (zh) * | 2017-09-08 | 2018-02-23 | 成都通甲优博科技有限责任公司 | 一种半稠密立体匹配的快速迭代计算方法 |
CN107958461A (zh) * | 2017-11-14 | 2018-04-24 | 中国航空工业集团公司西安飞机设计研究所 | 一种基于双目视觉的载机目标跟踪方法 |
WO2018082220A1 (zh) * | 2016-11-03 | 2018-05-11 | 深圳市掌网科技股份有限公司 | 全景相机以及深度信息获取方法 |
CN108140243A (zh) * | 2015-03-18 | 2018-06-08 | 北京市商汤科技开发有限公司 | 从双目成像***的3d手部姿势恢复 |
CN108307179A (zh) * | 2016-08-30 | 2018-07-20 | 姜汉龙 | 一种3d立体成像的方法 |
WO2018157562A1 (zh) * | 2017-02-28 | 2018-09-07 | 北京大学深圳研究生院 | 基于图像局部分割的虚拟视点合成方法 |
CN108537871A (zh) * | 2017-03-03 | 2018-09-14 | 索尼公司 | 信息处理设备和信息处理方法 |
CN108604371A (zh) * | 2016-02-25 | 2018-09-28 | 深圳市大疆创新科技有限公司 | 成像***和方法 |
CN108647579A (zh) * | 2018-04-12 | 2018-10-12 | 海信集团有限公司 | 一种障碍物检测方法、装置及终端 |
CN108765480A (zh) * | 2017-04-10 | 2018-11-06 | 钰立微电子股份有限公司 | 深度处理设备 |
CN108921842A (zh) * | 2018-07-02 | 2018-11-30 | 上海交通大学 | 一种谷物流量检测方法及装置 |
CN109299662A (zh) * | 2018-08-24 | 2019-02-01 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN109496325A (zh) * | 2016-07-29 | 2019-03-19 | 索尼公司 | 图像处理装置和图像处理方法 |
CN109640066A (zh) * | 2018-12-12 | 2019-04-16 | 深圳先进技术研究院 | 高精度稠密深度图像的生成方法和装置 |
CN109977981A (zh) * | 2017-12-27 | 2019-07-05 | 深圳市优必选科技有限公司 | 基于双目视觉的场景解析方法、机器人及存储装置 |
CN110264403A (zh) * | 2019-06-13 | 2019-09-20 | 中国科学技术大学 | 一种基于图像深度分层的去伪影图像拼接方法 |
CN110349198A (zh) * | 2018-04-02 | 2019-10-18 | 联发科技股份有限公司 | 立体匹配方法及相应立体匹配装置 |
CN110428462A (zh) * | 2019-07-17 | 2019-11-08 | 清华大学 | 多相机立体匹配方法和装置 |
CN110602474A (zh) * | 2018-05-24 | 2019-12-20 | 杭州海康威视数字技术股份有限公司 | 一种图像视差的确定方法、装置及设备 |
CN111147868A (zh) * | 2018-11-02 | 2020-05-12 | 广州灵派科技有限公司 | 一种自由视点视频导播*** |
CN111353982A (zh) * | 2020-02-28 | 2020-06-30 | 贝壳技术有限公司 | 一种深度相机图像序列筛选方法及装置 |
US10834374B2 (en) | 2017-02-28 | 2020-11-10 | Peking University Shenzhen Graduate School | Method, apparatus, and device for synthesizing virtual viewpoint images |
CN112241714A (zh) * | 2020-10-22 | 2021-01-19 | 北京字跳网络技术有限公司 | 图像中指定区域的识别方法、装置、可读介质和电子设备 |
CN112601094A (zh) * | 2021-03-01 | 2021-04-02 | 浙江智慧视频安防创新中心有限公司 | 一种视频编解码的方法及装置 |
CN113052886A (zh) * | 2021-04-09 | 2021-06-29 | 同济大学 | 一种采用双目原理的双tof相机深度信息获取方法 |
CN113066173A (zh) * | 2021-04-21 | 2021-07-02 | 国家基础地理信息中心 | 三维模型构建方法、装置和电子设备 |
CN113129350A (zh) * | 2021-04-12 | 2021-07-16 | 长春理工大学 | 一种基于相机阵列的深度提取方法 |
CN113643212A (zh) * | 2021-08-27 | 2021-11-12 | 复旦大学 | 一种基于图神经网络的深度图降噪方法 |
TWI772040B (zh) * | 2021-05-27 | 2022-07-21 | 大陸商珠海凌煙閣芯片科技有限公司 | 物體深度資訊獲取方法、裝置、電腦裝置及儲存介質 |
-
2009
- 2009-11-03 CN CN2009101982317A patent/CN101720047B/zh not_active Expired - Fee Related
Cited By (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102316297A (zh) * | 2010-07-08 | 2012-01-11 | 株式会社泛泰 | 图像输出装置和使用该图像输出装置输出图像的方法 |
CN102074014A (zh) * | 2011-02-23 | 2011-05-25 | 山东大学 | 一种利用基于图论的图像分割算法的立体匹配方法 |
CN102074014B (zh) * | 2011-02-23 | 2012-12-12 | 山东大学 | 一种利用基于图论的图像分割算法的立体匹配方法 |
CN102129567A (zh) * | 2011-03-17 | 2011-07-20 | 南京航空航天大学 | 一种基于色彩分割和自适应窗口的快速立体匹配方法 |
CN102111637A (zh) * | 2011-03-29 | 2011-06-29 | 清华大学 | 生成立体视频深度图的方法及装置 |
CN103460242B (zh) * | 2011-03-31 | 2017-02-15 | 索尼电脑娱乐公司 | 信息处理装置、信息处理方法、以及位置信息的数据结构 |
US9699432B2 (en) | 2011-03-31 | 2017-07-04 | Sony Corporation | Information processing apparatus, information processing method, and data structure of position information |
CN103460242A (zh) * | 2011-03-31 | 2013-12-18 | 索尼电脑娱乐公司 | 信息处理装置、信息处理方法、以及位置信息的数据结构 |
CN102740116A (zh) * | 2011-04-08 | 2012-10-17 | 索尼公司 | 图像属性检测 |
CN102156987A (zh) * | 2011-04-25 | 2011-08-17 | 深圳超多维光电子有限公司 | 获取场景深度信息的方法及装置 |
CN102802005B (zh) * | 2011-04-26 | 2014-11-05 | 李国君 | 三维视频内容产生方法 |
CN102802005A (zh) * | 2011-04-26 | 2012-11-28 | 李国君 | 三维视频内容产生方法 |
CN102184540B (zh) * | 2011-05-03 | 2013-03-20 | 哈尔滨工程大学 | 基于尺度空间的亚像素级立体匹配方法 |
CN102184540A (zh) * | 2011-05-03 | 2011-09-14 | 哈尔滨工程大学 | 基于尺度空间的亚像素级立体匹配方法 |
CN103703761A (zh) * | 2011-05-17 | 2014-04-02 | S.I.Sv.El.意大利电子发展股份公司 | 用于产生、传输和接收立体图像的方法以及相关设备 |
CN102821290B (zh) * | 2011-06-06 | 2016-07-06 | 索尼公司 | 图像处理设备以及图像处理方法 |
CN102821290A (zh) * | 2011-06-06 | 2012-12-12 | 索尼公司 | 图像处理设备、图像处理方法以及程序 |
CN102298708B (zh) * | 2011-08-19 | 2013-08-07 | 四川长虹电器股份有限公司 | 基于颜色和形状匹配的3d模式识别方法 |
CN102298708A (zh) * | 2011-08-19 | 2011-12-28 | 四川长虹电器股份有限公司 | 基于颜色和形状匹配的3d模式识别方法 |
CN102509348B (zh) * | 2011-09-26 | 2014-06-25 | 北京航空航天大学 | 一种共享增强现实场景的真实物体多方位表示方法 |
CN102509348A (zh) * | 2011-09-26 | 2012-06-20 | 北京航空航天大学 | 一种共享增强现实场景的真实物体多方位表示方法 |
CN103843333B (zh) * | 2011-09-29 | 2015-09-16 | 富士胶片株式会社 | 控制立体图像的显示的方法、控制立体图像显示的装置以及成像装置 |
CN103843333A (zh) * | 2011-09-29 | 2014-06-04 | 富士胶片株式会社 | 控制立体图像的显示的方法、控制立体图像显示的装置以及成像装置 |
CN102609974B (zh) * | 2012-03-14 | 2014-04-09 | 浙江理工大学 | 一种基于深度图分割渲染的虚拟视点图像的生成方法 |
CN102609974A (zh) * | 2012-03-14 | 2012-07-25 | 浙江理工大学 | 一种基于深度图分割渲染的虚拟视点图像的生成方法 |
CN102622769A (zh) * | 2012-03-19 | 2012-08-01 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
CN102622769B (zh) * | 2012-03-19 | 2015-03-04 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
CN103379350A (zh) * | 2012-04-28 | 2013-10-30 | 中国科学院深圳先进技术研究院 | 虚拟视点图像后处理方法 |
CN103379350B (zh) * | 2012-04-28 | 2015-06-03 | 中国科学院深圳先进技术研究院 | 虚拟视点图像后处理方法 |
CN102692236A (zh) * | 2012-05-16 | 2012-09-26 | 浙江大学 | 基于rgb-d相机的视觉里程计方法 |
CN102802020A (zh) * | 2012-08-31 | 2012-11-28 | 清华大学 | 监测双目立体视频视差信息的方法和装置 |
CN102802020B (zh) * | 2012-08-31 | 2015-08-12 | 清华大学 | 监测双目立体视频视差信息的方法和装置 |
CN103871037A (zh) * | 2012-12-07 | 2014-06-18 | 汤姆逊许可公司 | 图像之间颜色转换的方法和装置 |
CN103986923A (zh) * | 2013-02-07 | 2014-08-13 | 财团法人成大研究发展基金会 | 影像立体匹配*** |
CN103986923B (zh) * | 2013-02-07 | 2016-05-04 | 财团法人成大研究发展基金会 | 影像立体匹配*** |
WO2014134993A1 (zh) * | 2013-03-04 | 2014-09-12 | 北京联想软件有限公司 | 一种目标物信息获取方法及电子设备 |
CN104036226A (zh) * | 2013-03-04 | 2014-09-10 | 联想(北京)有限公司 | 一种目标物信息获取方法及电子设备 |
US9432593B2 (en) | 2013-03-04 | 2016-08-30 | Beijing Lenovo Software Ltd. | Target object information acquisition method and electronic device |
CN104036226B (zh) * | 2013-03-04 | 2017-06-27 | 联想(北京)有限公司 | 一种目标物信息获取方法及电子设备 |
CN104050656A (zh) * | 2013-03-12 | 2014-09-17 | 英特尔公司 | 用于确定图像中对象深度的设备和技术 |
CN104123715A (zh) * | 2013-04-27 | 2014-10-29 | 株式会社理光 | 配置视差值的方法和*** |
CN104123715B (zh) * | 2013-04-27 | 2017-12-05 | 株式会社理光 | 配置视差值的方法和*** |
CN103337064A (zh) * | 2013-04-28 | 2013-10-02 | 四川大学 | 图像立体匹配中的一种误匹配点剔除方法 |
CN103458246A (zh) * | 2013-09-03 | 2013-12-18 | 清华大学 | 视频运动分割中的遮挡处理方法及*** |
CN103458246B (zh) * | 2013-09-03 | 2016-08-17 | 清华大学 | 视频运动分割中的遮挡处理方法及*** |
CN103458261A (zh) * | 2013-09-08 | 2013-12-18 | 华东电网有限公司 | 一种基于立体视觉的视频场景变化检测方法 |
CN104517095A (zh) * | 2013-10-08 | 2015-04-15 | 南京理工大学 | 一种基于深度图像的人头分割方法 |
CN104517095B (zh) * | 2013-10-08 | 2018-01-02 | 南京理工大学 | 一种基于深度图像的人头分割方法 |
CN103607558A (zh) * | 2013-11-04 | 2014-02-26 | 深圳市中瀛鑫科技股份有限公司 | 一种视频监控***及其目标匹配方法和装置 |
CN103634586A (zh) * | 2013-11-26 | 2014-03-12 | 深圳市唯特视科技有限公司 | 立体图像获取方法及装置 |
CN103780897B (zh) * | 2014-02-25 | 2016-05-11 | 重庆卓美华视光电有限公司 | 两视点图像的深度图获取方法及装置 |
CN103780897A (zh) * | 2014-02-25 | 2014-05-07 | 重庆卓美华视光电有限公司 | 两视点图像的深度图获取方法及装置 |
CN104112270B (zh) * | 2014-05-14 | 2017-06-20 | 苏州科技学院 | 一种基于自适应权重多尺度窗口的任意点匹配算法 |
CN104112270A (zh) * | 2014-05-14 | 2014-10-22 | 苏州科技学院 | 一种基于自适应权重多尺度窗口的任意点匹配算法 |
CN104050682B (zh) * | 2014-07-09 | 2017-01-18 | 武汉科技大学 | 一种融合颜色和深度信息的图像分割方法 |
CN107211085B (zh) * | 2015-02-20 | 2020-06-05 | 索尼公司 | 摄像装置和摄像方法 |
CN107211085A (zh) * | 2015-02-20 | 2017-09-26 | 索尼公司 | 摄像装置和摄像方法 |
CN108140243A (zh) * | 2015-03-18 | 2018-06-08 | 北京市商汤科技开发有限公司 | 从双目成像***的3d手部姿势恢复 |
CN108140243B (zh) * | 2015-03-18 | 2022-01-11 | 北京市商汤科技开发有限公司 | 用于构建3d手模型的方法、设备和*** |
CN104796684A (zh) * | 2015-03-24 | 2015-07-22 | 深圳市广之爱文化传播有限公司 | 裸眼3d视频处理方法 |
KR20170090976A (ko) * | 2016-01-29 | 2017-08-08 | 삼성전자주식회사 | 영상시차 획득방법 및 장치 |
KR102187192B1 (ko) | 2016-01-29 | 2020-12-04 | 삼성전자주식회사 | 영상시차 획득방법 및 장치 |
CN107027019B (zh) * | 2016-01-29 | 2019-11-08 | 北京三星通信技术研究有限公司 | 图像视差获取方法及装置 |
CN107027019A (zh) * | 2016-01-29 | 2017-08-08 | 北京三星通信技术研究有限公司 | 图像视差获取方法及装置 |
CN108604371A (zh) * | 2016-02-25 | 2018-09-28 | 深圳市大疆创新科技有限公司 | 成像***和方法 |
CN106023189A (zh) * | 2016-05-17 | 2016-10-12 | 北京信息科技大学 | 一种基于匹配优化的光场数据深度重建方法 |
CN106023189B (zh) * | 2016-05-17 | 2018-11-09 | 北京信息科技大学 | 一种基于匹配优化的光场数据深度重建方法 |
CN109496325A (zh) * | 2016-07-29 | 2019-03-19 | 索尼公司 | 图像处理装置和图像处理方法 |
CN106331672A (zh) * | 2016-08-19 | 2017-01-11 | 深圳奥比中光科技有限公司 | 视点图像的获得方法、装置及*** |
CN108307179A (zh) * | 2016-08-30 | 2018-07-20 | 姜汉龙 | 一种3d立体成像的方法 |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
CN106530409B (zh) * | 2016-11-03 | 2019-08-27 | 浙江大学 | 立体匹配中局部区域一致性对应方法 |
WO2018082220A1 (zh) * | 2016-11-03 | 2018-05-11 | 深圳市掌网科技股份有限公司 | 全景相机以及深度信息获取方法 |
CN106530409A (zh) * | 2016-11-03 | 2017-03-22 | 浙江大学 | 立体匹配中局部区域一致性对应方法 |
US10887569B2 (en) | 2017-02-28 | 2021-01-05 | Peking University Shenzhen Graduate School | Virtual viewpoint synthesis method based on local image segmentation |
WO2018157562A1 (zh) * | 2017-02-28 | 2018-09-07 | 北京大学深圳研究生院 | 基于图像局部分割的虚拟视点合成方法 |
US10834374B2 (en) | 2017-02-28 | 2020-11-10 | Peking University Shenzhen Graduate School | Method, apparatus, and device for synthesizing virtual viewpoint images |
CN108537871B (zh) * | 2017-03-03 | 2024-02-20 | 索尼公司 | 信息处理设备和信息处理方法 |
CN108537871A (zh) * | 2017-03-03 | 2018-09-14 | 索尼公司 | 信息处理设备和信息处理方法 |
CN107122782B (zh) * | 2017-03-16 | 2020-09-11 | 成都通甲优博科技有限责任公司 | 一种均衡的半密集立体匹配方法 |
CN107122782A (zh) * | 2017-03-16 | 2017-09-01 | 成都通甲优博科技有限责任公司 | 一种均衡的半密集立体匹配方法 |
CN108765480B (zh) * | 2017-04-10 | 2022-03-15 | 钰立微电子股份有限公司 | 深度处理设备 |
CN108765480A (zh) * | 2017-04-10 | 2018-11-06 | 钰立微电子股份有限公司 | 深度处理设备 |
CN107256547A (zh) * | 2017-05-26 | 2017-10-17 | 浙江工业大学 | 一种基于显著性检测的表面裂纹识别方法 |
CN107085825A (zh) * | 2017-05-27 | 2017-08-22 | 成都通甲优博科技有限责任公司 | 图像虚化方法、装置及电子设备 |
CN107220994A (zh) * | 2017-06-01 | 2017-09-29 | 成都通甲优博科技有限责任公司 | 一种立体匹配的方法及*** |
CN107329490A (zh) * | 2017-07-21 | 2017-11-07 | 歌尔科技有限公司 | 无人机避障方法及无人机 |
CN107730543B (zh) * | 2017-09-08 | 2021-05-14 | 成都通甲优博科技有限责任公司 | 一种半稠密立体匹配的快速迭代计算方法 |
CN107730543A (zh) * | 2017-09-08 | 2018-02-23 | 成都通甲优博科技有限责任公司 | 一种半稠密立体匹配的快速迭代计算方法 |
CN107610070B (zh) * | 2017-09-29 | 2020-12-01 | 深圳市佳创视讯技术股份有限公司 | 基于三摄像采集的自由立体匹配方法 |
CN107610070A (zh) * | 2017-09-29 | 2018-01-19 | 深圳市佳创视讯技术股份有限公司 | 基于三摄像采集的自由立体匹配方法 |
CN107958461A (zh) * | 2017-11-14 | 2018-04-24 | 中国航空工业集团公司西安飞机设计研究所 | 一种基于双目视觉的载机目标跟踪方法 |
CN109977981B (zh) * | 2017-12-27 | 2020-11-24 | 深圳市优必选科技有限公司 | 基于双目视觉的场景解析方法、机器人及存储装置 |
CN109977981A (zh) * | 2017-12-27 | 2019-07-05 | 深圳市优必选科技有限公司 | 基于双目视觉的场景解析方法、机器人及存储装置 |
TWI719440B (zh) * | 2018-04-02 | 2021-02-21 | 聯發科技股份有限公司 | 立體匹配方法及相應立體匹配裝置 |
CN110349198A (zh) * | 2018-04-02 | 2019-10-18 | 联发科技股份有限公司 | 立体匹配方法及相应立体匹配装置 |
CN108647579B (zh) * | 2018-04-12 | 2022-02-25 | 海信集团有限公司 | 一种障碍物检测方法、装置及终端 |
CN108647579A (zh) * | 2018-04-12 | 2018-10-12 | 海信集团有限公司 | 一种障碍物检测方法、装置及终端 |
CN110602474A (zh) * | 2018-05-24 | 2019-12-20 | 杭州海康威视数字技术股份有限公司 | 一种图像视差的确定方法、装置及设备 |
CN108921842A (zh) * | 2018-07-02 | 2018-11-30 | 上海交通大学 | 一种谷物流量检测方法及装置 |
CN109299662A (zh) * | 2018-08-24 | 2019-02-01 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN111147868A (zh) * | 2018-11-02 | 2020-05-12 | 广州灵派科技有限公司 | 一种自由视点视频导播*** |
CN109640066B (zh) * | 2018-12-12 | 2020-05-22 | 深圳先进技术研究院 | 高精度稠密深度图像的生成方法和装置 |
CN109640066A (zh) * | 2018-12-12 | 2019-04-16 | 深圳先进技术研究院 | 高精度稠密深度图像的生成方法和装置 |
CN110264403A (zh) * | 2019-06-13 | 2019-09-20 | 中国科学技术大学 | 一种基于图像深度分层的去伪影图像拼接方法 |
CN110428462A (zh) * | 2019-07-17 | 2019-11-08 | 清华大学 | 多相机立体匹配方法和装置 |
CN110428462B (zh) * | 2019-07-17 | 2022-04-08 | 清华大学 | 多相机立体匹配方法和装置 |
CN111353982B (zh) * | 2020-02-28 | 2023-06-20 | 贝壳技术有限公司 | 一种深度相机图像序列筛选方法及装置 |
CN111353982A (zh) * | 2020-02-28 | 2020-06-30 | 贝壳技术有限公司 | 一种深度相机图像序列筛选方法及装置 |
CN112241714A (zh) * | 2020-10-22 | 2021-01-19 | 北京字跳网络技术有限公司 | 图像中指定区域的识别方法、装置、可读介质和电子设备 |
CN112241714B (zh) * | 2020-10-22 | 2024-04-26 | 北京字跳网络技术有限公司 | 图像中指定区域的识别方法、装置、可读介质和电子设备 |
CN112601094A (zh) * | 2021-03-01 | 2021-04-02 | 浙江智慧视频安防创新中心有限公司 | 一种视频编解码的方法及装置 |
CN113052886A (zh) * | 2021-04-09 | 2021-06-29 | 同济大学 | 一种采用双目原理的双tof相机深度信息获取方法 |
CN113129350A (zh) * | 2021-04-12 | 2021-07-16 | 长春理工大学 | 一种基于相机阵列的深度提取方法 |
CN113066173A (zh) * | 2021-04-21 | 2021-07-02 | 国家基础地理信息中心 | 三维模型构建方法、装置和电子设备 |
TWI772040B (zh) * | 2021-05-27 | 2022-07-21 | 大陸商珠海凌煙閣芯片科技有限公司 | 物體深度資訊獲取方法、裝置、電腦裝置及儲存介質 |
CN113643212A (zh) * | 2021-08-27 | 2021-11-12 | 复旦大学 | 一种基于图神经网络的深度图降噪方法 |
CN113643212B (zh) * | 2021-08-27 | 2024-04-05 | 复旦大学 | 一种基于图神经网络的深度图降噪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101720047B (zh) | 2011-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101720047B (zh) | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 | |
Tam et al. | 3D-TV content generation: 2D-to-3D conversion | |
CN101771893B (zh) | 一种基于视频序列背景建模的虚拟视点绘制方法 | |
CN101902657A (zh) | 一种基于深度图分层的虚拟多视点图像的生成方法 | |
CN101742349B (zh) | 一种对三维场景的表达方法及其电视*** | |
CN103581648B (zh) | 绘制新视点中的空洞填补方法 | |
CN101808251B (zh) | 立体图像对中遮挡信息的提取方法 | |
CN104065947B (zh) | 一种集成成像***的深度图获取方法 | |
CN101969564B (zh) | 一种用于三维立体电视的深度视频压缩的上采样方法 | |
CN101287142A (zh) | 基于双向跟踪和特征点修正的平面视频转立体视频的方法 | |
CN104756489A (zh) | 一种虚拟视点合成方法及*** | |
Sun et al. | An overview of free view-point depth-image-based rendering (DIBR) | |
CN107809630B (zh) | 基于改进虚拟视点合成的多视点视频超分辨率重建算法 | |
Wu et al. | A novel method for semi-automatic 2D to 3D video conversion | |
CN101662695B (zh) | 一种获取虚拟视图的方法和装置 | |
CN103873867B (zh) | 自由视点视频深度图失真预测方法和编码方法 | |
CN105141940A (zh) | 一种分区域的3d视频编码方法 | |
CN102790895B (zh) | 一种基于最小二乘的多视点视频编码视点合成预测方法 | |
CN102710949B (zh) | 一种基于视觉感知的立体视频编码方法 | |
CN106028020A (zh) | 一种基于多方向预测的虚拟视角图像空洞填补方法 | |
CN109523508B (zh) | 一种密集光场质量评价方法 | |
CN108924434B (zh) | 一种基于曝光变换的立体高动态范围图像合成方法 | |
Kim et al. | Multiview stereoscopic video hole filling considering spatiotemporal consistency and binocular symmetry for synthesized 3d video | |
CN104661014B (zh) | 时空结合的空洞填充方法 | |
CN109345444A (zh) | 深度感知增强的超分辨率立体图像构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20111221 Termination date: 20211103 |
|
CF01 | Termination of patent right due to non-payment of annual fee |