CN111314686B - 一种自动优化3d立体感的方法、***及介质 - Google Patents

一种自动优化3d立体感的方法、***及介质 Download PDF

Info

Publication number
CN111314686B
CN111314686B CN202010201475.2A CN202010201475A CN111314686B CN 111314686 B CN111314686 B CN 111314686B CN 202010201475 A CN202010201475 A CN 202010201475A CN 111314686 B CN111314686 B CN 111314686B
Authority
CN
China
Prior art keywords
depth
image displacement
current
lookup table
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010201475.2A
Other languages
English (en)
Other versions
CN111314686A (zh
Inventor
陆汇海
王德才
劳晓亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Bosheng Medical Technology Co ltd
Original Assignee
Shenzhen Bosheng Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Bosheng Medical Technology Co ltd filed Critical Shenzhen Bosheng Medical Technology Co ltd
Priority to CN202010201475.2A priority Critical patent/CN111314686B/zh
Priority to US17/911,650 priority patent/US20230140956A1/en
Priority to PCT/CN2020/091856 priority patent/WO2021184533A1/zh
Priority to EP20925970.4A priority patent/EP4106329A4/en
Publication of CN111314686A publication Critical patent/CN111314686A/zh
Application granted granted Critical
Publication of CN111314686B publication Critical patent/CN111314686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Astronomy & Astrophysics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种自动优化3D立体感的方法、***及介质,该方法包括依次执行以下步骤:步骤1:给定当前左右图像,计算立体视差,生成视差图;步骤2:使用获得的视差,计算每一个像素点所对应的深度量;步骤3:计算取得被摄物体的深度距离;步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;步骤5:应用得出的图像位移值到3D显示中。本发明的有益效果是:本发明的一种自动优化3D立体感的方法解决3D内窥镜使用中容易产生的疲劳和晕眩。通过自动优化,可减轻症状,长时间保证用户的舒适感。

Description

一种自动优化3D立体感的方法、***及介质
技术领域
本发明涉及软件领域,尤其涉及一种自动优化3D立体感的方法、***及介质。
背景技术
3D内窥镜使用左右平行的两个摄像头对被观察物体进行视频采集,采集到的视频经过图像处理设备,将左右两幅图像最终传输至显示设备进行显示。显示设备可采用主动式3D显示器或是被动式3D显示器。内窥镜使用人员通过观看显示设备,在大脑融合重建被观察物体的立体信息。
背景图1为一个典型的3D电子内窥镜***。201为3D显示器。202为3D内窥镜主机。203为主机上的显示触控屏。204为内窥镜手柄。204负责传输采集到的视频信号到3D内窥镜主机202。一般来讲,电子内窥镜通过两根线链接到主机202:一条为信号线,负责传输视频信号和控制信号;一条为导光束,负责将主机端202(或独立式冷光源***)的光导入到手柄端。视频信号经过处理后,通过HDMI,或DP,或VGA,或其他视频信号传输方式到3D显示器201,进行显示。摄像头参数、主机控制相关参数、病人管理***,等等,通过202上的显示触控屏203进行控制。
一直以来,长时间使用3D内窥镜容易造成使用者视觉晕眩和疲劳。这主要是由于视觉辐辏调节冲突(vergence-accommodation conflicts)造成的;即双眼聚焦的距离和视线聚合距离不一致。论文(Shibata,2011)通过一系列的视觉实验,得出如果视线聚合距离在聚焦距离的前后一定范围内,观看者仍能够轻松的获取3D信息而不会产生视觉疲劳,这个范围就称之为观察3D立体视觉的舒适区。
Shibata,T.and Kim,J.and Hoffman,D.M.and Banks,M.S.,The zone ofcomfort:Predicting visual discomfort with stereo displays,Journal of Vision,11(8):11,1-29.
根据论文(Shibata,2011),舒适区可以定义为:
Figure BDA0002419532830000011
Figure BDA0002419532830000021
Dv_far和Dv_near分别为最远和最近视线聚合距离,Df为聚焦距离,这三个数字的单位都为屈光度,即距离(米)的倒数。背景图2画出了在不同的聚焦距离时的舒适区。
在通常使用的平行式双目立体***中,被摄场景当通过3D显示器被观察者接受时,均被重建于观察者眼睛与屏幕之间。观察者的视觉焦点一般落在显示器上。这时,显而易见的,上面所讲的舒适区域没有被最大化利用,即:显示器后方的舒适区完全被舍弃,显示器前方的舒适区域也极易被突破;从而造成使用者视觉无法合成3D图像,进而产生晕眩等症状。
一般来讲,使用平行式双目原理的***中,经常通过采用平行位移左摄像头图像和/或右摄像头图像,进而调整重建后被摄物***于屏幕的舒适区当中。这种调整一般在机器出厂时调好固定。这就使得被摄物体一定要在某一深度范围时,用户才能获得比较好的3D重建。如果被摄物体过于接近摄像头,就会造成晕眩;如果被摄物体距离摄像头过远,则3D感下降。
发明内容
本发明提供了一种自动优化3D立体感的方法,包括依次执行以下步骤:
步骤1:给定当前左右图像,计算立体视差,生成视差图;
步骤2:使用获得的视差,计算每一个像素点所对应的深度量;
步骤3:计算取得被摄物体的深度距离;
步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;
步骤5:应用得出的图像位移值到3D显示中。
作为本发明的进一步改进,在所述步骤1中,视差图可由多种算法获取,所述算法包括SGBM算法和BM算法。
作为本发明的进一步改进,计算立体视差包括针对整张图计算立体视差或者只对选取的兴趣区域ROI计算立体视差。
作为本发明的进一步改进,在所述步骤2中,其深度量计算公式具体如下:
Figure BDA0002419532830000031
其中,f为摄像头焦距,Tx为左右两个摄像头中心距,(x,y)为当前像素点位置。
作为本发明的进一步改进,在所述步骤3中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离。
作为本发明的进一步改进,所述步骤4包括:
预先通过实验并生成查找表步骤:分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取步骤:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
作为本发明的进一步改进,在执行所述步骤4时,使用和实际应用场景相同或类似的使用环境:包括相同大小的显示器以及观察者到屏幕的距离应和实际使用环境相同。
作为本发明的进一步改进,所述步骤1-步骤5是做一次优化的步骤,本发明使用用户触发模式或自动连续触发模式执行步骤1-步骤5。
本发明还公开了一种自动优化3D立体感的***,包括:
视差图获取模块:用于给定当前左右图像,计算立体视差,生成视差图;
深度量计算模块:用于使用获得的立体视差,计算每一个像素点所对应的深度量;深度距离计算模块:用于计算得取被摄物体的深度距离;
左右图像位移值获取模块:用于使用计算得来的深度距离,获取相对应的左右图像位移值;
显示模块:用于应用得出的图像位移值到3D显示中。
在所述深度距离计算模块中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离;
所述左右图像位移值获取模块包括:
预先通过实验并生成查找表模块:用于分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取模块:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时本发明所述的方法的步骤。
本发明的有益效果是:本发明的一种自动优化3D立体感的方法解决3D内窥镜使用中容易产生的疲劳和晕眩。通过自动优化,可减轻症状,长时间保证用户的舒适感。
附图说明
图1是本发明的背景图1;
图2是本发明的背景图2;
图3是本发明的自动优化3D立体感的方法流程图;
图4是本发明的视图差原理简介图。
具体实施方式
如图3所示,本发明公开了一种自动优化3D立体感的方法,包括依次执行以下步骤:
步骤1:给定当前左右图像,计算立体视差,生成视差图;
步骤2:使用获得的视差,计算每一个像素点所对应的深度量;
步骤3:计算取得被摄物体的深度距离;
步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;
步骤5:应用得出的图像位移值到3D显示中。
在所述步骤1中,视差图可由多种算法获取,其中所述算法包括SGBM算法和BM算法,具体见[1]。
SGBM-Semiglobal Block Matching半全局块匹配;
BM-Block Matching块匹配。
视差图原理简介:
一个三维空间的点X,在左视图上坐标为x,在右视图上坐标为x’,立体视差(stereo disparity)为x-x’,如图4所示。
在所述步骤1中,计算立体视差包括针对整张图计算立体视差或者只对选取的兴趣区域ROI计算立体视差。
在所述步骤2中,其深度量计算公式具体如下:
Figure BDA0002419532830000051
其中,f为摄像头焦距,Tx为左右两个摄像头中心距,(x,y)为当前像素点位置。
在所述步骤3中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离。
所述步骤4包括:
预先通过实验并生成查找表步骤:分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取步骤:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
在执行所述步骤4时,使用和实际应用场景相同或类似的使用环境步骤:包括相同大小的显示器以及观察者到屏幕的距离应和实际使用环境相同。
所述步骤1-步骤5是做一次优化的步骤,本发明使用用户触发模式或自动连续触发模式执行步骤1-步骤5。用户触发模式是指用户使用手柄按键、或触摸屏按键、或脚踏、或声控、或其他方式触发优化,优化运行一次。自动连续触发即在一定的间隔时间,优化自动触发,无需用户介入。[1]Heiko Hirschmuller.Stereo processing by semiglobalmatching and mutual information.Pattern Analysis and Machine Intelligence,IEEE Transactions on,30(2):328–341,2008。
本发明还公开了自动优化3D立体感的***,包括:
视差图获取模块:用于给定当前左右图像,计算立体视差,生成视差图;
深度量计算模块:用于使用获得的立体视差,计算每一个像素点所对应的深度量;
深度距离计算模块:用于计算得取被摄物体的深度距离;
左右图像位移值获取模块:用于使用计算得来的深度距离,获取相对应的左右图像位移值;
显示模块:用于应用得出的图像位移值到3D显示中。
在所述深度距离计算模块中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离;
所述左右图像位移值获取模块包括:
预先通过实验并生成查找表模块:用于分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;
图像位移量获取模块:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述的方法的步骤。
本发明的有益效果是:本发明的一种自动优化3D立体感的方法解决3D内窥镜使用中容易产生的疲劳和晕眩。通过自动优化,可减轻症状,长时间保证用户的舒适感。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (10)

1.一种自动优化3D立体感的方法,其特征在于,用于3D电子内窥镜***,包括依次执行以下步骤:步骤1:给定当前左右图像,计算立体视差,生成视差图;步骤2:使用获得的立体视差,计算每一个像素点所对应的深度量;步骤3:计算取得被摄物体的深度距离;步骤4:使用步骤3计算得来的深度距离,获取相对应的左右图像位移值;步骤5:应用得出的图像位移值到3D显示中;所述步骤1-步骤5是做一次优化的步骤,使用用户触发模式或自动连续触发模式执行步骤1-步骤5;用户触发模式是指用户使用手柄按键、或触摸屏按键、或脚踏、或声控、或其他方式触发优化,优化运行一次;自动连续触发即在一定的间隔时间,优化自动触发,无需用户介入。
2.根据权利要求1所述的方法,其特征在于,在所述步骤1中,视差图可由多种算法获取,所述算法包括SGBM算法和BM算法。
3.根据权利要求1所述的方法,其特征在于,在所述步骤1中,计算立体视差包括针对整张图计算立体视差或者只对选取的兴趣区域ROI计算立体视差。
4.根据权利要求1所述的方法,其特征在于,在所述步骤2中,深度量计算公式具体如下:
Figure DEST_PATH_IMAGE001
其中,f为摄像头焦距,Tx 为左右两个摄像头中心距,(x,y)为当前像素点位置。
5.根据权利要求1所述的方法,其特征在于,在所述步骤3中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离。
6.根据权利要求1所述的方法,其特征在于,所述步骤4包括:预先通过实验并生成查找表步骤:分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;图像位移量获取步骤:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
7.根据权利要求6所述的方法,其特征在于,在执行所述步骤4时,使用和实际应用场景相同或类似的使用环境:包括相同大小的显示器以及观察者到屏幕的距离应和实际使用环境相同。
8.一种自动优化3D立体感的***,其特征在于,包括:视差图获取模块:用于给定当前左右图像,计算立体视差,生成视差图;深度量计算模块:用于使用获得的立体视差,计算每一个像素点所对应的深度量;深度距离计算模块:用于计算得取被摄物体的深度距离;左右图像位移值获取模块:用于使用计算得来的深度距离,获取相对应的左右图像位移值;显示模块:用于应用得出的图像位移值到3D显示中。
9.根据权利要求8所述的***,其特征在于,在所述深度距离计算模块中,计算整张图或兴趣区域ROI内所有像素点对应的深度量的平均值或中值或最大值,作为被摄物体的深度距离;所述左右图像位移值获取模块包括:预先通过实验并生成查找表模块:用于分别将一个被摄物体放置在摄像头前10到100毫米处,间隔10毫米,并在每一个位置分别调整左右图像位移,直至观察者可以获得一个比较舒服的3D重建效果,记录位置信息和相对应的图像位移量并生成查找表;图像位移量获取模块:在使用中,如果当前深度在10-100毫米之间,可使用线性差值的方法获得实际图像位移量,如果小于10毫米,则设当前深度为10毫米,并使用查找表获得图像位移量,如果大于100毫米,则设当前深度为100毫米,并使用查找表获得图像位移量。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现权利要求1-6中任一项所述的方法的步骤。
CN202010201475.2A 2020-03-20 2020-03-20 一种自动优化3d立体感的方法、***及介质 Active CN111314686B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010201475.2A CN111314686B (zh) 2020-03-20 2020-03-20 一种自动优化3d立体感的方法、***及介质
US17/911,650 US20230140956A1 (en) 2020-03-20 2020-05-22 Method and system for automatically optimizing 3d stereoscopic perception, and medium
PCT/CN2020/091856 WO2021184533A1 (zh) 2020-03-20 2020-05-22 一种自动优化3d立体感的方法、***及介质
EP20925970.4A EP4106329A4 (en) 2020-03-20 2020-05-22 METHOD AND SYSTEM FOR AUTOMATIC OPTIMIZATION OF 3D STEREOSCOPIC PERCEPTION, AND MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010201475.2A CN111314686B (zh) 2020-03-20 2020-03-20 一种自动优化3d立体感的方法、***及介质

Publications (2)

Publication Number Publication Date
CN111314686A CN111314686A (zh) 2020-06-19
CN111314686B true CN111314686B (zh) 2021-06-25

Family

ID=71145768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010201475.2A Active CN111314686B (zh) 2020-03-20 2020-03-20 一种自动优化3d立体感的方法、***及介质

Country Status (4)

Country Link
US (1) US20230140956A1 (zh)
EP (1) EP4106329A4 (zh)
CN (1) CN111314686B (zh)
WO (1) WO2021184533A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020124220A1 (de) * 2020-09-17 2022-03-17 Olympus Winter & Ibe Gmbh Verfahren und System zur stereoendoskopischen Fluoreszenzmessung sowie Softwareprogrammprodukt

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103167299A (zh) * 2011-12-09 2013-06-19 金耀有限公司 用于在资源受限设备上产生立体3d影像的方法和装置
CN107072479A (zh) * 2015-03-30 2017-08-18 奥林巴斯株式会社 内窥镜装置
CN107820071A (zh) * 2017-11-24 2018-03-20 深圳超多维科技有限公司 移动终端及其立体成像方法、装置及计算机可读存储介质
CN110555874A (zh) * 2018-05-31 2019-12-10 华为技术有限公司 一种图像处理方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101829345B1 (ko) * 2010-06-28 2018-02-19 톰슨 라이센싱 입체 컨텐츠의 3-차원적인 효과들을 요구에 맞추기 위한 방법 및 장치
JP2013058956A (ja) * 2011-09-09 2013-03-28 Sony Corp 情報処理装置、情報処理方法、プログラム及び情報処理システム
US10178368B2 (en) * 2012-10-23 2019-01-08 Intuitive Surgical Operations, Inc. Stereo imaging system with automatic disparity adjustment for displaying close range objects
US10146301B1 (en) * 2015-03-26 2018-12-04 Amazon Technologies, Inc. Rendering rich media content based on head position information
CN106840398B (zh) * 2017-01-12 2018-02-02 南京大学 一种多光谱光场成像方法
CN107516335A (zh) * 2017-08-14 2017-12-26 歌尔股份有限公司 虚拟现实的图形渲染方法和装置
CN109993781B (zh) * 2019-03-28 2021-09-03 北京清微智能科技有限公司 基于双目立体视觉匹配的视差图像生成方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103167299A (zh) * 2011-12-09 2013-06-19 金耀有限公司 用于在资源受限设备上产生立体3d影像的方法和装置
CN107072479A (zh) * 2015-03-30 2017-08-18 奥林巴斯株式会社 内窥镜装置
CN107820071A (zh) * 2017-11-24 2018-03-20 深圳超多维科技有限公司 移动终端及其立体成像方法、装置及计算机可读存储介质
CN110555874A (zh) * 2018-05-31 2019-12-10 华为技术有限公司 一种图像处理方法及装置

Also Published As

Publication number Publication date
EP4106329A4 (en) 2024-02-28
WO2021184533A1 (zh) 2021-09-23
US20230140956A1 (en) 2023-05-11
EP4106329A1 (en) 2022-12-21
CN111314686A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
KR102239686B1 (ko) 단일 깊이 추적 순응-수렴 솔루션
JP6520119B2 (ja) 画像処理装置および画像処理方法
US9225973B2 (en) Image processing apparatus, image processing method, and image communication system
CN106484116B (zh) 媒体文件的处理方法和装置
US8094927B2 (en) Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US8798160B2 (en) Method and apparatus for adjusting parallax in three-dimensional video
JP2000354257A (ja) 画像処理装置、画像処理方法、およびプログラム提供媒体
CN110095870B (zh) 光学显示***、显示控制装置和增强现实设备
KR100770019B1 (ko) 스테레오 카메라의 영상왜곡 보정 장치 및 그 방법
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
RU2015145510A (ru) Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения
US8692870B2 (en) Adaptive adjustment of depth cues in a stereo telepresence system
CN107595408B (zh) 2d与裸眼3d双屏内窥镜***及显示方法
WO2022267573A1 (zh) 裸眼3d显示模式的切换控制方法、介质和***
JP4580678B2 (ja) 注視点位置表示装置
CN108985291B (zh) 一种基于单摄像头的双眼追踪***
KR20140100289A (ko) 입체 영상 표시 장치 및 그 표시 방법
CN112929636A (zh) 3d显示设备、3d图像显示方法
CN114371779B (zh) 一种视线深度引导的视觉增强方法
CN111314686B (zh) 一种自动优化3d立体感的方法、***及介质
TWI589150B (zh) 3d自動對焦顯示方法及其系統
KR20120099976A (ko) 입체영상의 시청피로를 모니터링하는 장치 및 방법, 그리고, 시청 피로를 저감하는 장치 및 방법
Cutolo et al. The role of camera convergence in stereoscopic video see-through augmented reality displays
KR20120093693A (ko) 입체영상표시장치 및 그 구동방법
Mangiat et al. Disparity remapping for handheld 3D video communications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant