CN106507086B - 一种漫游实景vr的3d呈现方法 - Google Patents

一种漫游实景vr的3d呈现方法 Download PDF

Info

Publication number
CN106507086B
CN106507086B CN201610966978.2A CN201610966978A CN106507086B CN 106507086 B CN106507086 B CN 106507086B CN 201610966978 A CN201610966978 A CN 201610966978A CN 106507086 B CN106507086 B CN 106507086B
Authority
CN
China
Prior art keywords
eyes
scene
roaming
panoramic video
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610966978.2A
Other languages
English (en)
Other versions
CN106507086A (zh
Inventor
聂颖彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Spirit World Technology Co Ltd
Original Assignee
Beijing Spirit World Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Spirit World Technology Co Ltd filed Critical Beijing Spirit World Technology Co Ltd
Priority to CN201610966978.2A priority Critical patent/CN106507086B/zh
Publication of CN106507086A publication Critical patent/CN106507086A/zh
Application granted granted Critical
Publication of CN106507086B publication Critical patent/CN106507086B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明提出了一种漫游实景VR的3D呈现方法,改善了现有技术中的3D呈现效果;包括沿需要漫游的方向进行全景视频拍摄,用以建立数字场景;根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景;本发明提出的漫游实景VR的3D呈现方法将正向假3D技术与侧向真3D技术相结合,能够在观看者转动头部观看的过程中实现顺畅的3D场景变化,在一定程度上改善了现有假3D的视觉效果,提供给观看者更高的视觉感受。

Description

一种漫游实景VR的3D呈现方法
技术领域
本发明涉及实景VR领域,特别是指一种漫游实景VR的3D呈现方法。
背景技术
VR(Virtual Reality,虚拟现实)一种可以创建和体验虚拟世界的计算机仿真***它利用计算机生成一种模拟环境,是一种多源信息融合的交互式的三维动态视景和实体行为的***仿真使用户沉浸到该环境中;
现有技术中,有采用数字建模的方式实现的数字VR技术,也有实景拍摄为素材的实景VR技术,数字VR技术的做法是在建好的数字场景中放入水平的两个虚拟相机,人的左右眼在场景中看到的视角就由这两个虚拟相机提供,这样佩戴VR头盔的人在这个建好的三维数字场景中漫游时根据这两个虚拟相机的视差就能够提供很好的3D体验;而实景VR的做法大多是利用全景相机拍摄一段视频加上一些常规电影的处理方式,但其实这只是全景视频,只能通过播放的方式展现给观看者,并非实景VR,它所呈现出来的3D立体效果和观看者的互动都没有达到VR应有的标准,而VR是让佩戴VR头盔的人能够在另外一个时空里面进行游走和互动,为实现此目标;
因此迫切需要一种能够真正实现实景VR的3D呈现方法。
发明内容
本发明提出一种通过利用人眼的结构和特殊的拍摄与呈现技巧创建一个能够让人在3D实景VR中进行漫游的视觉效果,打造3D实景VR里面新的互动模式,漫游实景VR的3D呈现方法。
本发明的技术方案是这样实现的:
一种漫游实景VR的3D呈现方法,包括如下步骤:
S1:沿需要漫游的方向进行全景视频拍摄,用以建立数字场景;
S2:根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;
S3:漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景。
作为进一步的技术方案,所述S1步骤为:
沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景。
作为进一步的技术方案,所述S1步骤为:
沿需要漫游的方向上规则或不规则路线匀速进行全景视频拍摄,用以建立数字场景。
作为进一步的技术方案,所述S2步骤为:
根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3D时双眼帧差及正向假3D数字场景中双眼对应的虚拟相机之间的距离。
作为进一步的技术方案,通过如下公式计算双眼的帧差:
t=int(sin(yaw)·tmax) yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3D时双眼的帧差;t表示在yaw角度下双眼的帧差。
作为进一步的技术方案,通过如下公式计算双眼对应的虚拟相机的距离:
d=abs(cos(yaw))·dmax yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3D时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
本发明技术方案根据观看者的瞳距及相应的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中的虚拟相机之间的距离,并在观看者旋转头部观看时通过公式计算相应的双眼帧差及虚拟相机之间的距离,进而调取全景视频中双眼对应的场景和双眼对应的虚拟相机场景,进而实现正向假3D技术到侧向真3D技术之间的平滑过度,这样实现了普通全景视频无法达到的3D沉浸式视觉效果,及互动感受
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单介绍,显而易见,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种漫游实景VR的3D呈现方法的流程图;
图2为全景视频的拍摄示意图;
图3为瞳距与全景视频中帧差的关系示意图;
图4为做为计算基础的数字场景示意图;
图5为在数字场景中双眼对应的虚拟相机的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-5所示,本发明提出的一种漫游实景VR的3D呈现方法,包括如下步骤:
沿需要漫游的方向匀速行进拍摄全景视频;见图2
沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景;具体的,沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景;当然在本发明中,根据需要可以选择规则的线路也可以选择不规则的线路,具体的为沿需要漫游的方向上规则或不规则路线匀速进行全景视频拍摄,用以建立数字场景;
根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;具体的,根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;
漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景;具体的,漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机之间的距离。
在本发明中,可以通过如下公式计算出双眼的帧差和双眼对应的虚拟相机之间的距离:
通过如下公式计算双眼的帧差:
t=int(sin(yaw)·tmax) yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3D时双眼的帧差;t表示在yaw角度下双眼的帧差。
作为进一步的技术方案,通过如下公式计算双眼对应的虚拟相机的距离:
d=abs(cos(yaw))·dmax yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3D时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
下面结合具体的参数进行详细的说明:
在拍摄全景视频的过程中拍摄视角的高度要兼顾到观看者的视觉高度,在沿需要漫游的方向拍摄全景视频的过程中,将拍摄设备(全景相机)置于一运动的地盘上进行匀速进行,并在前进的过程中进行全景视频的拍摄;
本发明中的技术方案,当观看者面向漫游行进方向时双眼看到的立体场景是同一个场景经过假3D技术处理过的效果(也称正向假3D),而当将头部转到与漫游行进方向垂直时看到的是全景视频中的两个场景,其帧差距离等于观看者的瞳距(也称侧向真3D):
根据拍摄行进速度及拍摄帧率可以计算出相邻两帧之间的距离,观看者面向垂直于漫游行进方向观看侧向真3D效果时双眼的帧差距离应该等于观看者的瞳距,而当观看者面向漫游行进方向观看正向假3D效果时通过调整双眼虚拟相机之间的距离参数可以找到适合观看者瞳距的匹配值。
当观看者沿漫游行进方向向两侧转头时:
根据计算公式可以计算出双眼场景的帧差会越来越大,亦即侧向真3D的效果会越来越明显;而在同时根据计算公式可以计算出双眼场景中的虚拟相机距离会越来越小,亦即正向假3D的效果会越来越弱;
反之当观看者的头部从漫游行进的侧向转向正向时:
根据计算公式可以计算出双眼场景的帧差会越来越小,亦即侧向真3D的效果会越来越弱;而在同时根据计算公式可以计算出双眼场景中的虚拟相机距离会越来越大,亦即正向假3D的效果会越来越明显;
为进一步说明本发明中的变化,通过以下实施例进行说明:
设置实施例初始条件:
设全景视频拍摄时,拍摄进行的速度为21厘米/秒,视频拍摄速度为30帧/秒,设定瞳距为7厘米,对应的虚拟相机距离为dmax(通过调整双眼虚拟相机之间的距离参数可以找到适合观看者瞳距的匹配值),则可以计算出在侧向真3D时在全景视频中选取的两个场景之间的帧差为10(tmax=10);
实施例1:
当观看者沿漫游方向观看时
双眼场景的帧差为:
t=int(sin0°)*10帧=0帧
双眼场景中虚拟相机之间的距离为:
d=abs(cos0°)*dmax=dmax
此时使用的是同一个场景,双眼看到的是当前图像的假3D效果
实施例2:
当观看者头部沿漫游行进方向向右转动30°,则根据公式可以计算出在视频中需要调取的双眼帧差及在双眼场景中虚拟相机之间的距离分别为:
双眼场景的帧差为:
t=int(sin30°)*10帧=5帧
双眼场景中虚拟相机之间的距离为:
d=abs(cos30°)*dmax=0.866dmax
此时看到的是真假3D的混合效果;
实施例3:
当观看者头部向右转动90度时:
双眼场景的帧差为:
t=int(sin90°)*10帧=10帧
双眼场景中虚拟相机之间的距离为:
d=abs(cos90°)*dmax=0
此时看到的是侧向真3D的效果;
因此当观看者面向漫游方向时看到的是假3D效果,当观看者头部向左右两侧转动时看到的是真假3D的混合效果,当观看者头部旋转角度越来越大时,d会越来越小,亦即假3D的效果成分逐渐变小,,双眼帧差会越来越大,亦即真3D的效果成分会越来越大,当观看者头部转向与漫游行进方向垂直时观看到的是真3D效果,从而实现了从假3D效果向真3D效果的平滑过度,;同理,当头部从侧向向漫游行进方向转动时,d会越来越大,亦即假3D效果成分越来越大,双眼帧差会越来越小,亦即逐渐失去真3D的效果成分。从而实现了从真3D向假3D的平滑过度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种漫游实景VR的3D呈现方法,其特征在于,包括如下步骤:
S1:沿需要漫游的方向进行全景视频拍摄,用以建立数字场景;
S2:根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;
S3:漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景。
2.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,所述S1步骤为:
沿需要漫游的方向匀速进行全景视频拍摄,用以建立数字场景。
3.如权利要求2所述的漫游实景VR的3D呈现方法,其特征在于,所述S1步骤为:
沿需要漫游的方向上规则或不规则路线匀速进行全景视频拍摄,用以建立数字场景。
4.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,所述S2步骤为:
根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离。
5.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,通过如下公式计算双眼的帧差:
t=int(sin(yaw)·tmax)yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3D时双眼的帧差;t表示在yaw角度下双眼的帧差。
6.如权利要求1所述的漫游实景VR的3D呈现方法,其特征在于,通过如下公式计算双眼对应的虚拟相机的距离:
d=abs(cos(yaw))·dmax yaw∈[0,2π]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3D时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
CN201610966978.2A 2016-10-28 2016-10-28 一种漫游实景vr的3d呈现方法 Active CN106507086B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610966978.2A CN106507086B (zh) 2016-10-28 2016-10-28 一种漫游实景vr的3d呈现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610966978.2A CN106507086B (zh) 2016-10-28 2016-10-28 一种漫游实景vr的3d呈现方法

Publications (2)

Publication Number Publication Date
CN106507086A CN106507086A (zh) 2017-03-15
CN106507086B true CN106507086B (zh) 2018-08-31

Family

ID=58321932

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610966978.2A Active CN106507086B (zh) 2016-10-28 2016-10-28 一种漫游实景vr的3d呈现方法

Country Status (1)

Country Link
CN (1) CN106507086B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107315470B (zh) * 2017-05-25 2018-08-17 腾讯科技(深圳)有限公司 图形处理方法、处理器和虚拟现实***
CN109542209A (zh) * 2017-08-04 2019-03-29 北京灵境世界科技有限公司 一种适应人眼汇聚的方法
CN112629412A (zh) * 2019-12-12 2021-04-09 天目爱视(北京)科技有限公司 一种转动式3d智能视觉设备
CN114339189A (zh) * 2021-12-31 2022-04-12 绿城科技产业服务集团有限公司 沉浸式漫游实景vr呈现方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211040A1 (en) * 2008-11-05 2011-09-01 Pierre-Alain Lindemann System and method for creating interactive panoramic walk-through applications
US9071752B2 (en) * 2012-09-25 2015-06-30 National Chiao Tung University Scene imaging method using a portable two-camera omni-imaging device for human-reachable environments
CN103402106B (zh) * 2013-07-25 2016-01-06 青岛海信电器股份有限公司 三维图像显示方法及装置
CN104748746B (zh) * 2013-12-29 2017-11-03 刘进 智能机姿态测定及虚拟现实漫游方法
CN104219584B (zh) * 2014-09-25 2018-05-01 广东京腾科技有限公司 基于增强现实的全景视频交互方法和***
CN104954671B (zh) * 2015-05-27 2018-01-19 广东欧珀移动通信有限公司 全景摄像的方法及装置

Also Published As

Publication number Publication date
CN106507086A (zh) 2017-03-15

Similar Documents

Publication Publication Date Title
US11575876B2 (en) Stereo viewing
CN106507086B (zh) 一种漫游实景vr的3d呈现方法
US10334220B2 (en) Aggregating images and audio data to generate virtual reality content
WO2018005235A1 (en) System and method for spatial interaction using automatically positioned cameras
KR20130091245A (ko) 3차원(3d) 표시에 있어서 플로팅 윈도우를 사용하는 방법과 시스템
US11431901B2 (en) Aggregating images to generate content
CN108616730A (zh) 一种基于虚拟现实的立体弹幕方法及***
CN108614636A (zh) 一种3d实景vr制作方法
KR20130088282A (ko) 실시간 4d입체영상 관람시스템
JP6207640B2 (ja) 2次元映像の立体映像化表示装置
US10110876B1 (en) System and method for displaying images in 3-D stereo
JP2009500878A (ja) 奥行錯覚デジタル撮像
WO2017141139A1 (en) A method for image transformation
CN114339189A (zh) 沉浸式漫游实景vr呈现方法
Grau et al. Tools for 3D-TV programme production
Hamacher et al. Study on making omnistereo images for HMD using longer focal length
Kang et al. A study on Smart Phone-based Shooting Device of 3D stereoscopic Image
CN117041518A (zh) 一种3d投影***及3d视频通信***
He et al. The research on 3D effects based on visual comfort
CN102780904A (zh) 一种通过左右眼图像网格化显示来调节3d图像的方法
CN102780906A (zh) 一种通过平铺左右眼图像校正3d图像的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant