CN106507086A - 一种漫游实景vr的3d呈现方法 - Google Patents
一种漫游实景vr的3d呈现方法 Download PDFInfo
- Publication number
- CN106507086A CN106507086A CN201610966978.2A CN201610966978A CN106507086A CN 106507086 A CN106507086 A CN 106507086A CN 201610966978 A CN201610966978 A CN 201610966978A CN 106507086 A CN106507086 A CN 106507086A
- Authority
- CN
- China
- Prior art keywords
- eyes
- scene
- roaming
- panoramic video
- beholder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本发明提出了一种漫游实景VR的3D呈现方法,改善了现有技术中的3D呈现效果;包括沿需要漫游的方向进行全景视频拍摄,用以建立数字场景;根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景;本发明提出的漫游实景VR的3D呈现方法将正向假3D技术与侧向真3D技术相结合,能够在观看者转动头部观看的过程中实现顺畅的3D场景变化,在一定程度上改善了现有假3D的视觉效果,提供给观看者更高的视觉感受。
Description
技术领域
本发明涉及实景VR领域,特别是指一种漫游实景VR的3D呈现方法。
背景技术
VR(Virtual Reality,虚拟现实)一种可以创建和体验虚拟世界的计算机仿真***它利用计算机生成一种模拟环境,是一种多源信息融合的交互式的三维动态视景和实体行为的***仿真使用户沉浸到该环境中;
现有技术中,有采用数字建模的方式实现的数字VR技术,也有实景拍摄为素材的实景VR技术,数字VR技术的做法是在建好的数字场景中放入水平的两个虚拟相机,人的左右眼在场景中看到的视角就由这两个虚拟相机提供,这样佩戴VR头盔的人在这个建好的三维数字场景中漫游时根据这两个虚拟相机的视差就能够提供很好的3D体验;而实景VR的做法大多是利用全景相机拍摄一段视频加上一些常规电影的处理方式,但其实这只是全景视频,只能通过播放的方式展现给观看者,并非实景VR,它所呈现出来的3D立体效果和观看者的互动都没有达到VR应有的标准,而VR是让佩戴VR头盔的人能够在另外一个时空里面进行游走和互动,为实现此目标;
因此迫切需要一种能够真正实现实景VR的3D呈现方法。
发明内容
本发明提出一种通过利用人眼的结构和特殊的拍摄与呈现技巧创建一个能够让人在3D实景VR中进行漫游的视觉效果,打造3D实景VR里面新的互动模式,漫游实景VR的3D呈现方法。
本发明的技术方案是这样实现的:
一种漫游实景VR的3D呈现方法,包括如下步骤:
S1:沿需要漫游的方向进行全景视频拍摄,用以建立数字场景;
S2:根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;
S3:漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景。
作为进一步的技术方案,所述S1步骤为:
沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景。
作为进一步的技术方案,所述S1步骤为:
沿需要漫游的方向上规则或不规则路线匀速进行全景视频拍摄,用以建立数字场景。
作为进一步的技术方案,所述S2步骤为:
根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3D时双眼帧差及正向假3D数字场景中双眼对应的虚拟相机之间的距离。
作为进一步的技术方案,所述S3步骤为:
漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景。
作为进一步的技术方案,通过如下公式计算双眼的帧差:
t=int(sin(yaw)·tmax) yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3D时双眼的帧差;t表示在yaw角度下双眼的帧差。
作为进一步的技术方案,通过如下公式计算双眼对应的虚拟相机的距离:
d=abs(cos(yaw))·dmax yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3D时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
本发明技术方案根据观看者的瞳距及相应的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中的虚拟相机之间的距离,并在观看者旋转头部观看时通过公式计算相应的双眼帧差及虚拟相机之间的距离,进而调取全景视频中双眼对应的场景和双眼对应的虚拟相机场景,进而实现正向假3D技术到侧向真3D技术之间的平滑过度,这样实现了普通全景视频无法达到的3D沉浸式视觉效果,及互动感受
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单介绍,显而易见,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种漫游实景VR的3D呈现方法的流程图;
图2为全景视频的拍摄示意图;
图3为瞳距与全景视频中帧差的关系示意图;
图4为做为计算基础的数字场景示意图;
图5为在数字场景中双眼对应的虚拟相机的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-5所示,本发明提出的一种漫游实景VR的3D呈现方法,包括如下步骤:
沿需要漫游的方向匀速行进拍摄全景视频;见图2
沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景;具体的,沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景;当然在本发明中,根据需要可以选择规则的线路也可以选择不规则的线路,具体的为沿需要漫游的方向上规则或不规则路线匀速进行全景视频拍摄,用以建立数字场景;
根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;具体的,根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;
漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景;具体的,漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机之间的距离。
在本发明中,可以通过如下公式计算出双眼的帧差和双眼对应的虚拟相机之间的距离:
通过如下公式计算双眼的帧差:
t=int(sin(yaw)·tmax) yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3D时双眼的帧差;t表示在yaw角度下双眼的帧差。
作为进一步的技术方案,通过如下公式计算双眼对应的虚拟相机的距离:
d=abs(cos(yaw))·dmax yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3D时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
下面结合具体的参数进行详细的说明:
在拍摄全景视频的过程中拍摄视角的高度要兼顾到观看者的视觉高度,在沿需要漫游的方向拍摄全景视频的过程中,将拍摄设备(全景相机)置于一运动的地盘上进行匀速进行,并在前进的过程中进行全景视频的拍摄;
本发明中的技术方案,当观看者面向漫游行进方向时双眼看到的立体场景是同一个场景经过假3D技术处理过的效果(也称正向假3D),而当将头部转到与漫游行进方向垂直时看到的是全景视频中的两个场景,其帧差距离等于观看者的瞳距(也称侧向真3D):
根据拍摄行进速度及拍摄帧率可以计算出相邻两帧之间的距离,观看者面向垂直于漫游行进方向观看侧向真3D效果时双眼的帧差距离应该等于观看者的瞳距,而当观看者面向漫游行进方向观看正向假3D效果时通过调整双眼虚拟相机之间的距离参数可以找到适合观看者瞳距的匹配值。
当观看者沿漫游行进方向向两侧转头时:
根据计算公式可以计算出双眼场景的帧差会越来越大,亦即侧向真3D的效果会越来越明显;而在同时根据计算公式可以计算出双眼场景中的虚拟相机距离会越来越小,亦即正向假3D的效果会越来越弱;
反之当观看者的头部从漫游行进的侧向转向正向时:
根据计算公式可以计算出双眼场景的帧差会越来越小,亦即侧向真3D的效果会越来越弱;而在同时根据计算公式可以计算出双眼场景中的虚拟相机距离会越来越大,亦即正向假3D的效果会越来越明显;
为进一步说明本发明中的变化,通过以下实施例进行说明:
设置实施例初始条件:
设全景视频拍摄时,拍摄进行的速度为21厘米/秒,视频拍摄速度为30帧/秒,设定瞳距为7厘米,对应的虚拟相机距离为dmax(通过调整双眼虚拟相机之间的距离参数可以找到适合观看者瞳距的匹配值),则可以计算出在侧向真3D时在全景视频中选取的两个场景之间的帧差为10(tmax=10);
实施例1:
当观看者沿漫游方向观看时
双眼场景的帧差为:
t=int(sin0°)*10帧=0帧
双眼场景中虚拟相机之间的距离为:
d=abs(cos0°)*dmax=dmax
此时使用的是同一个场景,双眼看到的是当前图像的假3D效果
实施例2:
当观看者头部沿漫游行进方向向右转动30°,则根据公式可以计算出在视频中需要调取的双眼帧差及在双眼场景中虚拟相机之间的距离分别为:
双眼场景的帧差为:
t=int(sin30°)*10帧=5帧
双眼场景中虚拟相机之间的距离为:
d=abs(cos30°)*dmax=0.866dmax;
此时看到的是真假3D的混合效果;
实施例3:
当观看者头部向右转动90度时:
双眼场景的帧差为:
t=int(sin90°)*10帧=10帧
双眼场景中虚拟相机之间的距离为:
d=abs(cos90°)*dmax=0
此时看到的是侧向真3D的效果;
因此当观看者面向漫游方向时看到的是假3D效果,当观看者头部向左右两侧转动时看到的是真假3D的混合效果,当观看者头部旋转角度越来越大时,d会越来越小,亦即假3D的效果成分逐渐变小,,双眼帧差会越来越大,亦即真3D的效果成分会越来越大,当观看者头部转向与漫游行进方向垂直时观看到的是真3D效果,从而实现了从假3D效果向真3D效果的平滑过度,;同理,当头部从侧向向漫游行进方向转动时,d会越来越大,亦即假3D效果成分越来越大,双眼帧差会越来越小,亦即逐渐失去真3D的效果成分。从而实现了从真3D向假3D的平滑过度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种漫游实景VR的3D呈现方法,其特征在于,包括如下步骤:
S1:沿需要漫游的方向进行全景视频拍摄,用以建立数字场景;
S2:根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;
S3:漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景。
2.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,所述S1步骤为:
沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景。
3.如权利要求2所述的漫游实景VR的3D呈现方法,其特征在于,所述S1步骤为:
沿需要漫游的方向上规则或不规则路线匀速进行全景视频拍摄,用以建立数字场景。
4.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,所述S2步骤为:
根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离。
5.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,所述S3步骤为:
漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景。
6.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,通过如下公式计算双眼的帧差:
t=int(sin(yaw)·tmax) yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3D时双眼的帧差;t表示在yaw角度下双眼的帧差。
7.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,通过如下公式计算双眼对应的虚拟相机的距离:
d=abs(cos(yaw))·dmax yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3D时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610966978.2A CN106507086B (zh) | 2016-10-28 | 2016-10-28 | 一种漫游实景vr的3d呈现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610966978.2A CN106507086B (zh) | 2016-10-28 | 2016-10-28 | 一种漫游实景vr的3d呈现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106507086A true CN106507086A (zh) | 2017-03-15 |
CN106507086B CN106507086B (zh) | 2018-08-31 |
Family
ID=58321932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610966978.2A Active CN106507086B (zh) | 2016-10-28 | 2016-10-28 | 一种漫游实景vr的3d呈现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106507086B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018214697A1 (zh) * | 2017-05-25 | 2018-11-29 | 腾讯科技(深圳)有限公司 | 图形处理方法、处理器和虚拟现实*** |
CN109542209A (zh) * | 2017-08-04 | 2019-03-29 | 北京灵境世界科技有限公司 | 一种适应人眼汇聚的方法 |
CN111060008A (zh) * | 2019-12-12 | 2020-04-24 | 天目爱视(北京)科技有限公司 | 一种3d智能视觉设备 |
CN114339189A (zh) * | 2021-12-31 | 2022-04-12 | 绿城科技产业服务集团有限公司 | 沉浸式漫游实景vr呈现方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010052548A2 (en) * | 2008-11-05 | 2010-05-14 | Easywalk Capital S.A. | System and method for creating interactive panoramic walk-through applications |
CN103402106A (zh) * | 2013-07-25 | 2013-11-20 | 青岛海信电器股份有限公司 | 三维图像显示方法及装置 |
US20140085408A1 (en) * | 2012-09-25 | 2014-03-27 | National Chiao Tung University | Scene imaging method using a portable two-camera omni-imaging device for human-reachable environments |
CN104219584A (zh) * | 2014-09-25 | 2014-12-17 | 广州市联文信息科技有限公司 | 基于增强现实的全景视频交互方法和*** |
CN104748746A (zh) * | 2013-12-29 | 2015-07-01 | 刘进 | 智能机姿态测定及虚拟现实漫游方法 |
CN104954671A (zh) * | 2015-05-27 | 2015-09-30 | 广东欧珀移动通信有限公司 | 全景摄像的方法及装置 |
-
2016
- 2016-10-28 CN CN201610966978.2A patent/CN106507086B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010052548A2 (en) * | 2008-11-05 | 2010-05-14 | Easywalk Capital S.A. | System and method for creating interactive panoramic walk-through applications |
US20140085408A1 (en) * | 2012-09-25 | 2014-03-27 | National Chiao Tung University | Scene imaging method using a portable two-camera omni-imaging device for human-reachable environments |
CN103402106A (zh) * | 2013-07-25 | 2013-11-20 | 青岛海信电器股份有限公司 | 三维图像显示方法及装置 |
CN104748746A (zh) * | 2013-12-29 | 2015-07-01 | 刘进 | 智能机姿态测定及虚拟现实漫游方法 |
CN104219584A (zh) * | 2014-09-25 | 2014-12-17 | 广州市联文信息科技有限公司 | 基于增强现实的全景视频交互方法和*** |
CN104954671A (zh) * | 2015-05-27 | 2015-09-30 | 广东欧珀移动通信有限公司 | 全景摄像的方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018214697A1 (zh) * | 2017-05-25 | 2018-11-29 | 腾讯科技(深圳)有限公司 | 图形处理方法、处理器和虚拟现实*** |
CN109542209A (zh) * | 2017-08-04 | 2019-03-29 | 北京灵境世界科技有限公司 | 一种适应人眼汇聚的方法 |
CN111060008A (zh) * | 2019-12-12 | 2020-04-24 | 天目爱视(北京)科技有限公司 | 一种3d智能视觉设备 |
CN111060008B (zh) * | 2019-12-12 | 2020-12-22 | 天目爱视(北京)科技有限公司 | 一种3d智能视觉设备 |
CN114339189A (zh) * | 2021-12-31 | 2022-04-12 | 绿城科技产业服务集团有限公司 | 沉浸式漫游实景vr呈现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106507086B (zh) | 2018-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11076142B2 (en) | Real-time aliasing rendering method for 3D VR video and virtual three-dimensional scene | |
US11575876B2 (en) | Stereo viewing | |
US11184599B2 (en) | Enabling motion parallax with multilayer 360-degree video | |
US20130057644A1 (en) | Synthesizing views based on image domain warping | |
CN106507086A (zh) | 一种漫游实景vr的3d呈现方法 | |
CN106792151A (zh) | 一种虚拟现实全景视频播放方法 | |
CN107545537A (zh) | 一种从稠密点云生成3d全景图片的方法 | |
CN105141941A (zh) | 一种数字全景3d影片制作的方法及*** | |
CN108616730A (zh) | 一种基于虚拟现实的立体弹幕方法及*** | |
CN108614636A (zh) | 一种3d实景vr制作方法 | |
CN108769648A (zh) | 一种基于720度全景vr的3d场景呈现方法 | |
US20200241300A1 (en) | Stabilized and tracked enhanced reality images | |
US10110876B1 (en) | System and method for displaying images in 3-D stereo | |
CN112351287B (zh) | 一种多媒体数据处理方法、装置、电子设备及计算机可读存储介质 | |
JP2009500878A (ja) | 奥行錯覚デジタル撮像 | |
CN109542209A (zh) | 一种适应人眼汇聚的方法 | |
CN207822490U (zh) | 裸眼3d互动游戏制作设备 | |
CN114339189A (zh) | 沉浸式漫游实景vr呈现方法 | |
EP4030752A1 (en) | Image generation system and method | |
WO2017141139A1 (en) | A method for image transformation | |
CN116567191A (zh) | 一种面向舒适度提升的立体视觉内容视差调节方法 | |
Galloso et al. | Foundations of a new interaction paradigm for immersive 3D multimedia |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |