CN111314686B - 一种自动优化3d立体感的方法、***及介质 - Google Patents
一种自动优化3d立体感的方法、***及介质 Download PDFInfo
- Publication number
- CN111314686B CN111314686B CN202010201475.2A CN202010201475A CN111314686B CN 111314686 B CN111314686 B CN 111314686B CN 202010201475 A CN202010201475 A CN 202010201475A CN 111314686 B CN111314686 B CN 111314686B
- Authority
- CN
- China
- Prior art keywords
- depth
- image displacement
- current
- lookup table
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2415—Stereoscopic endoscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Surgery (AREA)
- Astronomy & Astrophysics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种自动优化3D立体感的方法、***及介质,该方法包括依次执行以下步骤:步骤1:给定当前左右图像,计算立体视差,生成视差图;步骤2:使用获得的视差,计算每一个像素点所对应的深度量;步骤3:计算取得被摄物体的深度距离;步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;步骤5:应用得出的图像位移值到3D显示中。本发明的有益效果是:本发明的一种自动优化3D立体感的方法解决3D内窥镜使用中容易产生的疲劳和晕眩。通过自动优化,可减轻症状,长时间保证用户的舒适感。
Description
技术领域
本发明涉及软件领域,尤其涉及一种自动优化3D立体感的方法、***及介质。
背景技术
3D内窥镜使用左右平行的两个摄像头对被观察物体进行视频采集,采集到的视频经过图像处理设备,将左右两幅图像最终传输至显示设备进行显示。显示设备可采用主动式3D显示器或是被动式3D显示器。内窥镜使用人员通过观看显示设备,在大脑融合重建被观察物体的立体信息。
背景图1为一个典型的3D电子内窥镜***。201为3D显示器。202为3D内窥镜主机。203为主机上的显示触控屏。204为内窥镜手柄。204负责传输采集到的视频信号到3D内窥镜主机202。一般来讲,电子内窥镜通过两根线链接到主机202:一条为信号线,负责传输视频信号和控制信号;一条为导光束,负责将主机端202(或独立式冷光源***)的光导入到手柄端。视频信号经过处理后,通过HDMI,或DP,或VGA,或其他视频信号传输方式到3D显示器201,进行显示。摄像头参数、主机控制相关参数、病人管理***,等等,通过202上的显示触控屏203进行控制。
一直以来,长时间使用3D内窥镜容易造成使用者视觉晕眩和疲劳。这主要是由于视觉辐辏调节冲突(vergence-accommodation conflicts)造成的;即双眼聚焦的距离和视线聚合距离不一致。论文(Shibata,2011)通过一系列的视觉实验,得出如果视线聚合距离在聚焦距离的前后一定范围内,观看者仍能够轻松的获取3D信息而不会产生视觉疲劳,这个范围就称之为观察3D立体视觉的舒适区。
Shibata,T.and Kim,J.and Hoffman,D.M.and Banks,M.S.,The zone ofcomfort:Predicting visual discomfort with stereo displays,Journal of Vision,11(8):11,1-29.
根据论文(Shibata,2011),舒适区可以定义为:
Dv_far和Dv_near分别为最远和最近视线聚合距离,Df为聚焦距离,这三个数字的单位都为屈光度,即距离(米)的倒数。背景图2画出了在不同的聚焦距离时的舒适区。
在通常使用的平行式双目立体***中,被摄场景当通过3D显示器被观察者接受时,均被重建于观察者眼睛与屏幕之间。观察者的视觉焦点一般落在显示器上。这时,显而易见的,上面所讲的舒适区域没有被最大化利用,即:显示器后方的舒适区完全被舍弃,显示器前方的舒适区域也极易被突破;从而造成使用者视觉无法合成3D图像,进而产生晕眩等症状。
一般来讲,使用平行式双目原理的***中,经常通过采用平行位移左摄像头图像和/或右摄像头图像,进而调整重建后被摄物***于屏幕的舒适区当中。这种调整一般在机器出厂时调好固定。这就使得被摄物体一定要在某一深度范围时,用户才能获得比较好的3D重建。如果被摄物体过于接近摄像头,就会造成晕眩;如果被摄物体距离摄像头过远,则3D感下降。
发明内容
本发明提供了一种自动优化3D立体感的方法,包括依次执行以下步骤:
步骤1:给定当前左右图像,计算立体视差,生成视差图;
步骤2:使用获得的视差,计算每一个像素点所对应的深度量;
步骤3:计算取得被摄物体的深度距离;
步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;
步骤5:应用得出的图像位移值到3D显示中。
作为本发明的进一步改进,在所述步骤1中,视差图可由多种算法获取,所述算法包括SGBM算法和BM算法。
作为本发明的进一步改进,计算立体视差包括针对整张图计算立体视差或者只对选取的兴趣区域ROI计算立体视差。
作为本发明的进一步改进,在所述步骤2中,其深度量计算公式具体如下:
其中,f为摄像头焦距,Tx为左右两个摄像头中心距,(x,y)为当前像素点位置。
作为本发明的进一步改进,在所述步骤3中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离。
作为本发明的进一步改进,所述步骤4包括:
预先通过实验并生成查找表步骤:分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取步骤:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
作为本发明的进一步改进,在执行所述步骤4时,使用和实际应用场景相同或类似的使用环境:包括相同大小的显示器以及观察者到屏幕的距离应和实际使用环境相同。
作为本发明的进一步改进,所述步骤1-步骤5是做一次优化的步骤,本发明使用用户触发模式或自动连续触发模式执行步骤1-步骤5。
本发明还公开了一种自动优化3D立体感的***,包括:
视差图获取模块:用于给定当前左右图像,计算立体视差,生成视差图;
深度量计算模块:用于使用获得的立体视差,计算每一个像素点所对应的深度量;深度距离计算模块:用于计算得取被摄物体的深度距离;
左右图像位移值获取模块:用于使用计算得来的深度距离,获取相对应的左右图像位移值;
显示模块:用于应用得出的图像位移值到3D显示中。
在所述深度距离计算模块中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离;
所述左右图像位移值获取模块包括:
预先通过实验并生成查找表模块:用于分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取模块:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时本发明所述的方法的步骤。
本发明的有益效果是:本发明的一种自动优化3D立体感的方法解决3D内窥镜使用中容易产生的疲劳和晕眩。通过自动优化,可减轻症状,长时间保证用户的舒适感。
附图说明
图1是本发明的背景图1;
图2是本发明的背景图2;
图3是本发明的自动优化3D立体感的方法流程图;
图4是本发明的视图差原理简介图。
具体实施方式
如图3所示,本发明公开了一种自动优化3D立体感的方法,包括依次执行以下步骤:
步骤1:给定当前左右图像,计算立体视差,生成视差图;
步骤2:使用获得的视差,计算每一个像素点所对应的深度量;
步骤3:计算取得被摄物体的深度距离;
步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;
步骤5:应用得出的图像位移值到3D显示中。
在所述步骤1中,视差图可由多种算法获取,其中所述算法包括SGBM算法和BM算法,具体见[1]。
SGBM-Semiglobal Block Matching半全局块匹配;
BM-Block Matching块匹配。
视差图原理简介:
一个三维空间的点X,在左视图上坐标为x,在右视图上坐标为x’,立体视差(stereo disparity)为x-x’,如图4所示。
在所述步骤1中,计算立体视差包括针对整张图计算立体视差或者只对选取的兴趣区域ROI计算立体视差。
在所述步骤2中,其深度量计算公式具体如下:
其中,f为摄像头焦距,Tx为左右两个摄像头中心距,(x,y)为当前像素点位置。
在所述步骤3中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离。
所述步骤4包括:
预先通过实验并生成查找表步骤:分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取步骤:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
在执行所述步骤4时,使用和实际应用场景相同或类似的使用环境步骤:包括相同大小的显示器以及观察者到屏幕的距离应和实际使用环境相同。
所述步骤1-步骤5是做一次优化的步骤,本发明使用用户触发模式或自动连续触发模式执行步骤1-步骤5。用户触发模式是指用户使用手柄按键、或触摸屏按键、或脚踏、或声控、或其他方式触发优化,优化运行一次。自动连续触发即在一定的间隔时间,优化自动触发,无需用户介入。[1]Heiko Hirschmuller.Stereo processing by semiglobalmatching and mutual information.Pattern Analysis and Machine Intelligence,IEEE Transactions on,30(2):328–341,2008。
本发明还公开了自动优化3D立体感的***,包括:
视差图获取模块:用于给定当前左右图像,计算立体视差,生成视差图;
深度量计算模块:用于使用获得的立体视差,计算每一个像素点所对应的深度量;
深度距离计算模块:用于计算得取被摄物体的深度距离;
左右图像位移值获取模块:用于使用计算得来的深度距离,获取相对应的左右图像位移值;
显示模块:用于应用得出的图像位移值到3D显示中。
在所述深度距离计算模块中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离;
所述左右图像位移值获取模块包括:
预先通过实验并生成查找表模块:用于分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取模块:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述的方法的步骤。
本发明的有益效果是:本发明的一种自动优化3D立体感的方法解决3D内窥镜使用中容易产生的疲劳和晕眩。通过自动优化,可减轻症状,长时间保证用户的舒适感。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种自动优化3D立体感的方法,其特征在于,用于3D电子内窥镜***,包括依次执行以下步骤:步骤1:给定当前左右图像,计算立体视差,生成视差图;步骤2:使用获得的立体视差,计算每一个像素点所对应的深度量;步骤3:计算取得被摄物体的深度距离;步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;步骤5:应用得出的图像位移值到3D显示中;所述步骤1-步骤5是做一次优化的步骤,使用用户触发模式或自动连续触发模式执行步骤1-步骤5;用户触发模式是指用户使用手柄按键、或触摸屏按键、或脚踏、或声控、或其他方式触发优化,优化运行一次;自动连续触发即在一定的间隔时间,优化自动触发,无需用户介入。
2.根据权利要求1所述的方法,其特征在于,在所述步骤1中,视差图可由多种算法获取,所述算法包括SGBM算法和BM算法。
3.根据权利要求1所述的方法,其特征在于,在所述步骤1中,计算立体视差包括针对整张图计算立体视差或者只对选取的兴趣区域ROI计算立体视差。
5.根据权利要求1所述的方法,其特征在于,在所述步骤3中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离。
6.根据权利要求1所述的方法,其特征在于,所述步骤4包括:预先通过实验并生成查找表步骤:分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;图像位移量获取步骤:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
7.根据权利要求6所述的方法,其特征在于,在执行所述步骤4时,使用和实际应用场景相同或类似的使用环境:包括相同大小的显示器以及观察者到屏幕的距离应和实际使用环境相同。
8.一种自动优化3D立体感的***,其特征在于,包括:视差图获取模块:用于给定当前左右图像,计算立体视差,生成视差图;深度量计算模块:用于使用获得的立体视差,计算每一个像素点所对应的深度量;深度距离计算模块:用于计算得取被摄物体的深度距离;左右图像位移值获取模块:用于使用计算得来的深度距离,获取相对应的左右图像位移值;显示模块:用于应用得出的图像位移值到3D显示中。
9.根据权利要求8所述的***,其特征在于,在所述深度距离计算模块中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离;所述左右图像位移值获取模块包括:预先通过实验并生成查找表模块:用于分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;图像位移量获取模块:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现权利要求1-6中任一项所述的方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010201475.2A CN111314686B (zh) | 2020-03-20 | 2020-03-20 | 一种自动优化3d立体感的方法、***及介质 |
US17/911,650 US20230140956A1 (en) | 2020-03-20 | 2020-05-22 | Method and system for automatically optimizing 3d stereoscopic perception, and medium |
PCT/CN2020/091856 WO2021184533A1 (zh) | 2020-03-20 | 2020-05-22 | 一种自动优化3d立体感的方法、***及介质 |
EP20925970.4A EP4106329A4 (en) | 2020-03-20 | 2020-05-22 | METHOD AND SYSTEM FOR AUTOMATIC OPTIMIZATION OF 3D STEREOSCOPIC PERCEPTION, AND MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010201475.2A CN111314686B (zh) | 2020-03-20 | 2020-03-20 | 一种自动优化3d立体感的方法、***及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111314686A CN111314686A (zh) | 2020-06-19 |
CN111314686B true CN111314686B (zh) | 2021-06-25 |
Family
ID=71145768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010201475.2A Active CN111314686B (zh) | 2020-03-20 | 2020-03-20 | 一种自动优化3d立体感的方法、***及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230140956A1 (zh) |
EP (1) | EP4106329A4 (zh) |
CN (1) | CN111314686B (zh) |
WO (1) | WO2021184533A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020124220A1 (de) * | 2020-09-17 | 2022-03-17 | Olympus Winter & Ibe Gmbh | Verfahren und System zur stereoendoskopischen Fluoreszenzmessung sowie Softwareprogrammprodukt |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103167299A (zh) * | 2011-12-09 | 2013-06-19 | 金耀有限公司 | 用于在资源受限设备上产生立体3d影像的方法和装置 |
CN107072479A (zh) * | 2015-03-30 | 2017-08-18 | 奥林巴斯株式会社 | 内窥镜装置 |
CN107820071A (zh) * | 2017-11-24 | 2018-03-20 | 深圳超多维科技有限公司 | 移动终端及其立体成像方法、装置及计算机可读存储介质 |
CN110555874A (zh) * | 2018-05-31 | 2019-12-10 | 华为技术有限公司 | 一种图像处理方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101829345B1 (ko) * | 2010-06-28 | 2018-02-19 | 톰슨 라이센싱 | 입체 컨텐츠의 3-차원적인 효과들을 요구에 맞추기 위한 방법 및 장치 |
JP2013058956A (ja) * | 2011-09-09 | 2013-03-28 | Sony Corp | 情報処理装置、情報処理方法、プログラム及び情報処理システム |
US10178368B2 (en) * | 2012-10-23 | 2019-01-08 | Intuitive Surgical Operations, Inc. | Stereo imaging system with automatic disparity adjustment for displaying close range objects |
US10146301B1 (en) * | 2015-03-26 | 2018-12-04 | Amazon Technologies, Inc. | Rendering rich media content based on head position information |
CN106840398B (zh) * | 2017-01-12 | 2018-02-02 | 南京大学 | 一种多光谱光场成像方法 |
CN107516335A (zh) * | 2017-08-14 | 2017-12-26 | 歌尔股份有限公司 | 虚拟现实的图形渲染方法和装置 |
CN109993781B (zh) * | 2019-03-28 | 2021-09-03 | 北京清微智能科技有限公司 | 基于双目立体视觉匹配的视差图像生成方法及*** |
-
2020
- 2020-03-20 CN CN202010201475.2A patent/CN111314686B/zh active Active
- 2020-05-22 WO PCT/CN2020/091856 patent/WO2021184533A1/zh unknown
- 2020-05-22 US US17/911,650 patent/US20230140956A1/en active Pending
- 2020-05-22 EP EP20925970.4A patent/EP4106329A4/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103167299A (zh) * | 2011-12-09 | 2013-06-19 | 金耀有限公司 | 用于在资源受限设备上产生立体3d影像的方法和装置 |
CN107072479A (zh) * | 2015-03-30 | 2017-08-18 | 奥林巴斯株式会社 | 内窥镜装置 |
CN107820071A (zh) * | 2017-11-24 | 2018-03-20 | 深圳超多维科技有限公司 | 移动终端及其立体成像方法、装置及计算机可读存储介质 |
CN110555874A (zh) * | 2018-05-31 | 2019-12-10 | 华为技术有限公司 | 一种图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4106329A4 (en) | 2024-02-28 |
WO2021184533A1 (zh) | 2021-09-23 |
US20230140956A1 (en) | 2023-05-11 |
EP4106329A1 (en) | 2022-12-21 |
CN111314686A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102239686B1 (ko) | 단일 깊이 추적 순응-수렴 솔루션 | |
JP6520119B2 (ja) | 画像処理装置および画像処理方法 | |
US9225973B2 (en) | Image processing apparatus, image processing method, and image communication system | |
CN106484116B (zh) | 媒体文件的处理方法和装置 | |
US8094927B2 (en) | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer | |
US8798160B2 (en) | Method and apparatus for adjusting parallax in three-dimensional video | |
JP2000354257A (ja) | 画像処理装置、画像処理方法、およびプログラム提供媒体 | |
CN110095870B (zh) | 光学显示***、显示控制装置和增强现实设备 | |
KR100770019B1 (ko) | 스테레오 카메라의 영상왜곡 보정 장치 및 그 방법 | |
US20160295194A1 (en) | Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images | |
RU2015145510A (ru) | Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения | |
US8692870B2 (en) | Adaptive adjustment of depth cues in a stereo telepresence system | |
CN107595408B (zh) | 2d与裸眼3d双屏内窥镜***及显示方法 | |
WO2022267573A1 (zh) | 裸眼3d显示模式的切换控制方法、介质和*** | |
JP4580678B2 (ja) | 注視点位置表示装置 | |
CN108985291B (zh) | 一种基于单摄像头的双眼追踪*** | |
KR20140100289A (ko) | 입체 영상 표시 장치 및 그 표시 방법 | |
CN112929636A (zh) | 3d显示设备、3d图像显示方法 | |
CN114371779B (zh) | 一种视线深度引导的视觉增强方法 | |
CN111314686B (zh) | 一种自动优化3d立体感的方法、***及介质 | |
TWI589150B (zh) | 3d自動對焦顯示方法及其系統 | |
KR20120099976A (ko) | 입체영상의 시청피로를 모니터링하는 장치 및 방법, 그리고, 시청 피로를 저감하는 장치 및 방법 | |
Cutolo et al. | The role of camera convergence in stereoscopic video see-through augmented reality displays | |
KR20120093693A (ko) | 입체영상표시장치 및 그 구동방법 | |
Mangiat et al. | Disparity remapping for handheld 3D video communications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |