CN106028018A - 面向裸眼3d显示的实拍双视点3d视频优化方法及*** - Google Patents

面向裸眼3d显示的实拍双视点3d视频优化方法及*** Download PDF

Info

Publication number
CN106028018A
CN106028018A CN201610375463.5A CN201610375463A CN106028018A CN 106028018 A CN106028018 A CN 106028018A CN 201610375463 A CN201610375463 A CN 201610375463A CN 106028018 A CN106028018 A CN 106028018A
Authority
CN
China
Prior art keywords
visual point
parallax
point image
video
ment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610375463.5A
Other languages
English (en)
Other versions
CN106028018B (zh
Inventor
方勇
石岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yiweishi Technology Co Ltd
Original Assignee
Shanghai Yiweishi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yiweishi Technology Co Ltd filed Critical Shanghai Yiweishi Technology Co Ltd
Priority to CN201610375463.5A priority Critical patent/CN106028018B/zh
Publication of CN106028018A publication Critical patent/CN106028018A/zh
Application granted granted Critical
Publication of CN106028018B publication Critical patent/CN106028018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明揭示了一种面向裸眼3D显示的实拍双视点3D视频优化方法及***,所述方法包括如下步骤:输入实拍双视点3D视频;选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;将第一视点图像分割成基本计算单元;基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。本发明可避免复杂的后期处理以消除实拍双视点3D视频左右画面的差异;利用半自动视差计算方法可有效提取实拍双视点3D视频的深度信息或视差信息,保持实拍双视点3D视频的3D效果。

Description

面向裸眼3D显示的实拍双视点3D视频优化方法及***
技术领域
本发明属于3D视频优化技术领域,涉及一种3D视频优化方法,尤其涉及一种面向裸眼3D显示的实拍双视点3D视频优化方法;同时,本发明还涉及一种面向裸眼3D显示的实拍双视点3D视频优化***。
背景技术
双视点3D视频是通用3D视频格式,是3D影视内容的主要形式。双视点3D视频可以通过双摄像头3D摄像机拍摄,是3D影视内容获取的主要方式。但是,双摄像头3D摄像机使用双摄像头分别拍摄左右画面,导致实拍双视点3D视频的左右画面通常存在差异,如亮度不一致、颜色不一致、垂直视差等,会显著影响实拍双视点3D视频的3D显示效果,因此实拍双视点3D影视内容通常需要复杂的后期处理与优化以获得好的3D视觉效果。
一种裸眼3D显示设备,由显示装置与光栅装置组成,可让观看者无需任何辅助设备就可以感觉到3D效果。为解决多人多角度同时观看的问题,通常采用多视点显示方式,多视点立体图像经过合成后可以在该裸眼3D显示设备上观看到3D效果。这样双视点3D视频要在该裸眼3D显示设备上显示就需要实时提取双视点3D视频的深度信息或视差信息并实时渲染成多视点立体视频,实时提取深度信息或视差信息是个巨大的难题,尤其是实拍双视点3D视频,亮度不一致、颜色不一致、垂直视差等都是影响深度信息或视差信息实时提取的重要因素。
播放3D影视类等经过良好后期处理的双视点3D视频的裸眼3D显示设备已经出现并规模应用,但是直接播放实拍双视点3D视频在该裸眼3D显示设备上面临诸多问题:(1)实拍双视点3D视频左右画面存在亮度不一致、颜色不一致和垂直视差等显著影响3D效果的问题;(2)亮度不一致、颜色不一致和垂直视差等问题也是影响实时多视点转换的重要因素,使深度提取或视差提取不准确,导致3D图像扯动等严重问题。
随着多视点裸眼3D显示设备的普及,迫切需要一种面向裸眼3D显示的简单快速的实拍双视点3D视频优化方法与***以优化其裸眼3D显示效果。
发明内容
本发明所要解决的技术问题是:提供一种面向裸眼3D显示的实拍双视点3D视频优化方法,避免实拍双视点3D视频左右画面不一致并保持深度信息或视差信息,提升3D显示效果。
此外,本发明还提供一种面向裸眼3D显示的实拍双视点3D视频优化***,避免实拍双视点3D视频左右画面不一致并保持深度信息或视差信息,提升3D显示效果。
为解决上述技术问题,本发明采用如下技术方案:
一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;所述基本计算单元按照块的形式进行划分,优选块的大小为4x4或8x8或16x16;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
所述搜索匹配单元采用半自动方法;边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,如果当前像素属于边缘块且位于边缘上方,则否则
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,如果当前像素属于边缘块且位于边缘左边,则否则
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出;
其中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零;
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
作为本发明的一种优选方案,所述基本计算单元按照块的形式进行划分,优选块的大小为4x4或8x8或16x16。
作为本发明的一种优选方案,所述搜索匹配单元采用半自动方法。
作为本发明的一种优选方案,所述搜索匹配单元采用的半自动方法中,边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差。
作为本发明的一种优选方案,所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算。
作为本发明的一种优选方案,所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,如果当前像素属于边缘块且位于边缘上方,则否则
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,如果当前像素属于边缘块且位于边缘左边,则否则
作为本发明的一种优选方案,所述步骤S6中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零。
作为本发明的一种优选方案,所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
一种面向裸眼3D显示的实拍双视点3D视频优化***,所述***包括:
实拍双视点3D视频输入模块,用以输入实拍双视点3D视频;
视点图像选择模块,用以选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
第一视点图像分割模块,用以将第一视点图像分割成基本计算单元;
视差场计算模块,用以基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
视差场转换模块,用以使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
3D视频格式输出模块,用以将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
本发明的有益效果在于:本发明提出的面向裸眼3D显示的实拍双视点3D视频优化方法及***,可避免实拍双视点3D视频左右画面不一致,同时克服由于实时深度提取或视差提取不准确导致的3D视觉效果问题。
本发明将实拍双视点3D视频转换为图像及深度3D视频,可避免复杂的后期处理以消除实拍双视点3D视频左右画面的差异,如亮度差异、颜色差异和垂直视差等;利用半自动视差计算方法可有效提取实拍双视点3D视频的深度信息或视差信息,保持实拍双视点3D视频的3D效果。
附图说明
图1实拍双视点3D视频示例。
图2边缘基本计算单元示意图。
图3本发明技术方案流程图。
图4图像+深度3D视频示例。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
实施例一
请参阅图3,本发明揭示了一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频,可参见图1;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;所述基本计算单元按照块的形式进行划分(如图2所示),优选块的大小为4x4或8x8或16x16;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
所述搜索匹配单元采用半自动方法;边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,如果当前像素属于边缘块且位于边缘上方,则否则
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,如果当前像素属于边缘块且位于边缘左边,则否则
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出(可参阅图4);
其中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零;
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
本发明还揭示一种面向裸眼3D显示的实拍双视点3D视频优化***,所述***包括:实拍双视点3D视频输入模块、视点图像选择模块、第一视点图像分割模块、视差场计算模块、视差场转换模块、3D视频格式输出模块。
实拍双视点3D视频输入模块用以输入实拍双视点3D视频;
视点图像选择模块用以选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
第一视点图像分割模块用以将第一视点图像分割成基本计算单元;
视差场计算模块用以基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
视差场转换模块用以使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
3D视频格式输出模块用以将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
上述各个模块的具体功能可以参见上述方法的描述,这里不做赘述。
实施例二
一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
综上所述,本发明提出的面向裸眼3D显示的实拍双视点3D视频优化方法及***,可避免实拍双视点3D视频左右画面不一致,同时克服由于实时深度提取或视差提取不准确导致的3D视觉效果问题。
本发明将实拍双视点3D视频转换为图像及深度3D视频,可避免复杂的后期处理以消除实拍双视点3D视频左右画面的差异,如亮度差异、颜色差异和垂直视差等;利用半自动视差计算方法可有效提取实拍双视点3D视频的深度信息或视差信息,保持实拍双视点3D视频的3D效果。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。

Claims (10)

1.一种面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;所述基本计算单元按照块的形式进行划分,优选块的大小为4x4或8x8或16x16;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
所述搜索匹配单元采用半自动方法;边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,v=i%M;如果当前像素属于边缘块且位于边缘上方,则v=0,否则v=0;
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,h=j%N;如果当前像素属于边缘块且位于边缘左边,则h=0,否则h=0;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出;
其中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零;
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
2.一种面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
3.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述基本计算单元按照块的形式进行划分,优选块的大小为4x4或8x8或16x16。
4.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述搜索匹配单元采用半自动方法。
5.根据权利要求4所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述搜索匹配单元采用的半自动方法中,边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差。
6.根据权利要求5所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算。
7.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,v=i%M;如果当前像素属于边缘块且位于边缘上方,则v=0,否则v=0;
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,h=j%N;如果当前像素属于边缘块且位于边缘左边,则h=0,否则h=0。
8.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述步骤S6中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零。
9.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
10.一种面向裸眼3D显示的实拍双视点3D视频优化***,其特征在于,所述***包括:
实拍双视点3D视频输入模块,用以输入实拍双视点3D视频;
视点图像选择模块,用以选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
第一视点图像分割模块,用以将第一视点图像分割成基本计算单元;
视差场计算模块,用以基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
视差场转换模块,用以使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
3D视频格式输出模块,用以将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
CN201610375463.5A 2016-05-31 2016-05-31 面向裸眼3d显示的实拍双视点3d视频优化方法及*** Active CN106028018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610375463.5A CN106028018B (zh) 2016-05-31 2016-05-31 面向裸眼3d显示的实拍双视点3d视频优化方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610375463.5A CN106028018B (zh) 2016-05-31 2016-05-31 面向裸眼3d显示的实拍双视点3d视频优化方法及***

Publications (2)

Publication Number Publication Date
CN106028018A true CN106028018A (zh) 2016-10-12
CN106028018B CN106028018B (zh) 2019-01-11

Family

ID=57093054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610375463.5A Active CN106028018B (zh) 2016-05-31 2016-05-31 面向裸眼3d显示的实拍双视点3d视频优化方法及***

Country Status (1)

Country Link
CN (1) CN106028018B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188186A (zh) * 2020-09-28 2021-01-05 南京工程学院 一种基于归一化无限视点的获取裸眼3d合成图方法
CN112634304A (zh) * 2020-12-31 2021-04-09 上海易维视科技有限公司 去除3d格式视频或图像中的反射光斑的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605270A (zh) * 2009-07-16 2009-12-16 清华大学 生成深度图的方法和装置
CN102447933A (zh) * 2011-11-01 2012-05-09 浙江捷尚视觉科技有限公司 基于双目架构的深度信息获取方法
CN102523464A (zh) * 2011-12-12 2012-06-27 上海大学 一种双目立体视频的深度图像估计方法
KR20140076430A (ko) * 2012-12-12 2014-06-20 현대자동차주식회사 양안 시차 영상의 보정 장치 및 그 방법
US20140293021A1 (en) * 2011-12-16 2014-10-02 Sk Planet Co., Ltd. Apparatus and method for measuring depth of the three-dimensional image
CN105528785A (zh) * 2015-12-03 2016-04-27 河北工业大学 一种双目视觉图像立体匹配方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605270A (zh) * 2009-07-16 2009-12-16 清华大学 生成深度图的方法和装置
CN102447933A (zh) * 2011-11-01 2012-05-09 浙江捷尚视觉科技有限公司 基于双目架构的深度信息获取方法
CN102523464A (zh) * 2011-12-12 2012-06-27 上海大学 一种双目立体视频的深度图像估计方法
US20140293021A1 (en) * 2011-12-16 2014-10-02 Sk Planet Co., Ltd. Apparatus and method for measuring depth of the three-dimensional image
KR20140076430A (ko) * 2012-12-12 2014-06-20 현대자동차주식회사 양안 시차 영상의 보정 장치 및 그 방법
CN105528785A (zh) * 2015-12-03 2016-04-27 河北工业大学 一种双目视觉图像立体匹配方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188186A (zh) * 2020-09-28 2021-01-05 南京工程学院 一种基于归一化无限视点的获取裸眼3d合成图方法
CN112188186B (zh) * 2020-09-28 2023-01-24 南京工程学院 一种基于归一化无限视点的获取裸眼3d合成图方法
CN112634304A (zh) * 2020-12-31 2021-04-09 上海易维视科技有限公司 去除3d格式视频或图像中的反射光斑的方法
CN112634304B (zh) * 2020-12-31 2022-09-13 上海易维视科技有限公司 去除3d格式视频或图像中的反射光斑的方法

Also Published As

Publication number Publication date
CN106028018B (zh) 2019-01-11

Similar Documents

Publication Publication Date Title
CN105654471B (zh) 应用于互联网视频直播的增强现实ar***及方法
US8610758B2 (en) Depth map generation for a video conversion system
CN101640809B (zh) 一种融合运动信息与几何信息的深度提取方法
US9471988B2 (en) Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
CN100556153C (zh) 一种多视点图像的预处理方法
CN101729911B (zh) 一种基于视觉感知的多视点图像颜色校正方法
WO2012086120A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
CN102186023A (zh) 一种双目立体字幕处理方法
CN102254348A (zh) 一种基于块匹配视差估计的中间视图合成方法
US10127714B1 (en) Spherical three-dimensional video rendering for virtual reality
CN103248906A (zh) 一种双目立体视频序列的深度图获取方法与***
CN102801988B (zh) 一种基于色度分量幅度的yuv444转yuv420的视频格式转换方法
CN109190520A (zh) 一种超分辨率重建人脸图像方法及装置
CN102291587B (zh) 全高清3d视频处理方法
CN103716615B (zh) 基于样本学习和深度图像传播的2d视频立体化方法
CN101662695B (zh) 一种获取虚拟视图的方法和装置
CN102223545B (zh) 一种快速多视点视频颜色校正方法
CN106028018A (zh) 面向裸眼3d显示的实拍双视点3d视频优化方法及***
CN107330856B (zh) 一种基于投影变换和薄板样条的全景成像方法
CN102708570B (zh) 获取深度图的方法及装置
CN104767985A (zh) 使用区域分布分析以自动检测三维图像格式的方法
CN104052990B (zh) 一种基于融合深度线索的全自动二维转三维方法和装置
CN104349073A (zh) 一种光场编辑传播方法及装置
CN104994365B (zh) 一种获取非关键帧深度图像的方法以及2d视频立体化方法
CN102630029A (zh) 一种基于对比度统计实现2d 转3d 的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant