CN109547763A - 虚拟现实***的立体现实视差实时控制方法 - Google Patents
虚拟现实***的立体现实视差实时控制方法 Download PDFInfo
- Publication number
- CN109547763A CN109547763A CN201710606166.1A CN201710606166A CN109547763A CN 109547763 A CN109547763 A CN 109547763A CN 201710606166 A CN201710606166 A CN 201710606166A CN 109547763 A CN109547763 A CN 109547763A
- Authority
- CN
- China
- Prior art keywords
- virtual
- parallax
- real
- scene
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出的虚拟现实***的立体现实视差实时控制方法,涉及虚拟现实技术领域,具体步驟为;具体步驟为:1、由投影变换中虚拟摄像机的拍摄视角计算虚拟摄像机的焦距f;2、用户进行虚拟餐游时,根据视点位置的变化及虚拟场景的布局,实时获取拍摄距离D`及场景深度ΔD`,同时可知当前的摄影基线L;3、根据以上参数,判断不等式是否满足,若不满足,则可知当前立体显示的场景深度已经超过在观看距离d下的景深范围;4:可以通过平移视图来控制立体显示空间相对于屏幕的位置。本发明控制漫游中虚拟场景立体显示图像的视差,将最终显示在投影屏幕上的视差有效地控制在合理范围,给虚拟漫游的用户带来逼真同时舒适的立体视觉体验。
Description
技术领域
本发明涉及虚拟现实技术领域,尤其是虚拟现实***的立体现实视差实时控制方法。
背景技术
作为虚拟现实的一个重要分支,虚拟漫游技术具有良好的沉浸性、交互性、实时性。相比于其他漫游技术,虚拟漫游技术更具参与性、更加自然,近年来以其为中也的虚拟博物馆、虚拟旅游、虚拟社区等相关领域受到了人们的广泛关注。但是,在信息输入和识别方面,目前大量虚拟漫游的应用仍然使用键盘、鼠标等传统输入设备,交互手段缺乏自然性;在信息的表现和输出方面,虽然虚拟场景通过立体显示后,在大型展示中更好地发挥虚拟漫游具有高度沉浸感的特点,带给人们逼真、震撼的立体视觉体验。但在用户进行漫游体验的过程中,可能出现立体图像视差过大进而引起立体视觉疲劳的问题。
发明内容
本发明提供的虚拟现实***的立体现实视差实时控制方法,以|缓解立体视觉疲劳的问题。
本发明具体采用如下技术方案实现:
一种虚拟现实***的立体现实视差实时控制方法,具体步驟为:
步骤1:初始时,可知立体投影现场的观看距离d,根据上述三个公式计算P+ max、P- max和ΔPMAX;由投影变换中虚拟摄像机的拍摄视角计算虚拟摄像机的焦距f;根据硬件***配置,可知放映放大系数S;
步骤2:用户进行虚拟餐游时,根据视点位置的变化及虚拟场景的布局,实时获取拍摄距离D`及场景深度ΔD`,同时可知当前的摄影基线L;
步骤3:根据以上参数,判断不等式是否满足,S为显示放大系数S,取值为100,若不满足,则可知当前立体显示的场景深度已经超过在观看距离d下的景深范围,需要调节两台虚拟摄像机之间的摄影基线L,使L≤(D′+ΔD′)·D′·ΔPMAX/(ΔD′·S·fc)从而减小整个立体显示的场景深度;
步骤4:判断不等式是否成立,若成立,则可知立体图像的最大负视差在合理的范围内,可以通过平移视图来控制立体显示空间相对于屏幕的位置;若不成立,则可知立体图像的负视差超过了最大负视差的范围,需要通过平移视图来减小视差,其中视图平移量A的取值需要使得最终的立体图像视差满足下式:
则其取值范围是确定A的取值后,可得视口变换函数中图像平移的像素值a=A/S
本发明提供的虚拟现实***的立体现实视差实时控制方法,其有益效果在于:控制漫游中虚拟场景立体显示图像的视差,将最终显示在投影屏幕上的视差有效地控制在合理范围,给虚拟漫游的用户带来逼真同时舒适的立体视觉体验。
附图说明
图1是视点与场景布局关系示意图;
图2是立体视差的实时控制过程图。
具体实施方式
为进一步说明各实施例,本发明提供有附图。这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点。图中的组件并未按比例绘制,而类似的组件符号通常用来表示类似的组件。
现结合附图和具体实施方式对本发明进一步说明。
当立体显示技术应用于虚拟漫游时,由于用户漫游路径的随机性,虚拟场景相对于虚拟摄像机的布局也会随着视点的改变而改变,如图1所示。为了能够控制漫游中虚拟场景立体显示图像的视差,需要实时地针对当前虚拟场景的布局进行参数调整,从而将最终显示在投影屏幕上的视差有效地控制在合理范围,给虚拟漫游的用户带来逼真同时舒适的立体视觉体。
人体的参数是固定的,立体图像视差的合理参考范围将随着观看距离d的增大而增大。同时,正视差还需要满足人眼的瞳距限制,最终趋于两眼瞳孔间距l。令P+ max为正视差的最大值,P- max为负视差的最小值,则:
η为视锐度,其标准值为2.907×10-4。
η和l取正常成年人的标准值,在适宜人眼观看的前提下,ΔP的最大值为:
在虚拟现实场景漫游中,本实施例的立体显示视差的实时控制方法如下:
步骤1:初始时,可知立体投影现场的观看距离d,根据上述三个公式计算P+ max、P- max和ΔPMAX;由投影变换中虚拟摄像机的拍摄视角计算虚拟摄像机的焦距f;根据硬件***配置,可知放映放大系数S;
步骤2:用户进行虚拟餐游时,根据视点位置的变化及虚拟场景的布局,实时获取拍摄距离D`及场景深度ΔD`,同时可知当前的摄影基线L;
步骤3:根据以上参数,判断不等式是否满足,S为显示放大系数S,取值为100,若不满足,则可知当前立体显示的场景深度已经超过在观看距离d下的景深范围,需要调节两台虚拟摄像机之间的摄影基线L,使L≤(D′+ΔD′)·D′·ΔPMAX/(ΔD′·S·fc)从而减小整个立体显示的场景深度;
步骤4:判断不等式是否成立,若成立,则可知立体图像的最大负视差在合理的范围内,可以通过平移视图来控制立体显示空间相对于屏幕的位置;若不成立,则可知立体图像的负视差超过了最大负视差的范围,需要通过平移视图来减小视差,其中视图平移量A的取值需要使得最终的立体图像视差满足下式:
则其取值范围是确定A的取值后,可得视口变换函数中图像平移的像素值a=A/S。
在以上过程中,通过调整摄影基线L使得立体显示图像的场景深度适合人眼的观看要求,通过调整视图平移量A的取值来控制整个场景的出屏效果,如图2所示。通过上述方法,可以使得漫游的虚拟场景经立体显示后,在具有一定空间立体感的同时又降低了立体视觉疲劳的影响,随着视点与拍摄物体间距离的减小,立体图像视差增大,将会超过人眼的适宜范围,进而加深立体视觉疲劳的程度。通过调整参数控制视差,使得即使在视点改变的情况下,其虚拟场景的立体视差也能够被控制在合适的范围,有助于缓解立体视觉疲劳的影响。
尽管结合优选实施方案具体展示和介绍了本发明,但所属领域的技术人员应该明白,在不脱离所附权利要求书所限定的本发明的精神和范围内,在形式上和细节上可以对本发明做出各种变化,均为本发明的保护范围。
Claims (1)
1.一种虚拟现实***的立体现实视差实时控制方法,其特征在于,具体步驟为:
步骤1:初始时,可知立体投影现场的观看距离d,根据上述三个公式计算P+ max、P- max和ΔPMAX;由投影变换中虚拟摄像机的拍摄视角计算虚拟摄像机的焦距f;根据硬件***配置,可知放映放大系数S;
步骤2:用户进行虚拟餐游时,根据视点位置的变化及虚拟场景的布局,实时获取拍摄距离D`及场景深度ΔD`,同时可知当前的摄影基线L;
步骤3:根据以上参数,判断不等式是否满足,S为显示放大系数S,取值为100,若不满足,则可知当前立体显示的场景深度已经超过在观看距离d下的景深范围,需要调节两台虚拟摄像机之间的摄影基线L,使L≤(D′+ΔD′)·D′·ΔPMAX/(ΔD′·S·fc)从而减小整个立体显示的场景深度;
步骤4:判断不等式是否成立,若成立,则可知立体图像的最大负视差在合理的范围内,可以通过平移视图来控制立体显示空间相对于屏幕的位置;若不成立,则可知立体图像的负视差超过了最大负视差的范围,需要通过平移视图来减小视差,其中视图平移量A的取值需要使得最终的立体图像视差满足下式:
则其取值范围是确定A的取值后,可得视口变换函数中图像平移的像素值a=A/S。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710606166.1A CN109547763A (zh) | 2017-07-24 | 2017-07-24 | 虚拟现实***的立体现实视差实时控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710606166.1A CN109547763A (zh) | 2017-07-24 | 2017-07-24 | 虚拟现实***的立体现实视差实时控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109547763A true CN109547763A (zh) | 2019-03-29 |
Family
ID=65823509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710606166.1A Pending CN109547763A (zh) | 2017-07-24 | 2017-07-24 | 虚拟现实***的立体现实视差实时控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109547763A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110057552A (zh) * | 2019-04-23 | 2019-07-26 | 芋头科技(杭州)有限公司 | 虚像距离测量方法、装置、设备以及控制器和介质 |
CN113379838A (zh) * | 2021-08-16 | 2021-09-10 | 贝壳技术有限公司 | 虚拟现实场景的漫游路径的生成方法和存储介质 |
-
2017
- 2017-07-24 CN CN201710606166.1A patent/CN109547763A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110057552A (zh) * | 2019-04-23 | 2019-07-26 | 芋头科技(杭州)有限公司 | 虚像距离测量方法、装置、设备以及控制器和介质 |
CN113379838A (zh) * | 2021-08-16 | 2021-09-10 | 贝壳技术有限公司 | 虚拟现实场景的漫游路径的生成方法和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3035681B1 (en) | Image processing method and apparatus | |
TWI528781B (zh) | 用以訂製立體內容之三維效果的方法及裝置 | |
EP2532166B1 (en) | Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair | |
CN107005670B (zh) | 影像显示装置、影像显示***以及影像显示方法 | |
CN105894567B (zh) | 放缩三维场景中的用户控制的虚拟对象的像素深度值 | |
CN108696732B (zh) | 头戴显示设备的分辨率调整方法及设备 | |
JP2014501086A (ja) | 立体画像取得システム及び方法 | |
CN104111535A (zh) | 一种符合视觉生理的图像显示方法及装置 | |
US8120648B2 (en) | Method for displaying stereoscopic image | |
CN104349049A (zh) | 图像处理方法以及图像处理装置 | |
JP5840022B2 (ja) | 立体画像処理装置、立体画像撮像装置、立体画像表示装置 | |
US20170359562A1 (en) | Methods and systems for producing a magnified 3d image | |
CN109547763A (zh) | 虚拟现实***的立体现实视差实时控制方法 | |
KR20120031260A (ko) | 3d 비디오 콘텐츠의 적응 | |
JP2014135714A (ja) | 立体映像信号処理装置及び立体映像撮像装置 | |
CN113692738A (zh) | 一种用于模拟三维图像序列的方法和*** | |
CN108287609B (zh) | 用于ar眼镜的图像绘制方法 | |
CN106028018B (zh) | 面向裸眼3d显示的实拍双视点3d视频优化方法及*** | |
US8289375B2 (en) | Image processing method | |
CN102655597A (zh) | 可实时动态调节立体视频视差曲线的播放*** | |
CN107229340B (zh) | 一种信息处理方法以及电子设备 | |
CN101895780B (zh) | 立体显示方法和立体显示装置 | |
CN202353727U (zh) | 可实时动态调节立体视频视差曲线的播放*** | |
CN203191637U (zh) | 一种符合视觉生理的图像显示装置 | |
CN105898285A (zh) | 虚拟显示设备的影像播放方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190329 |
|
WD01 | Invention patent application deemed withdrawn after publication |