CN104599243B - 一种多视频流与三维场景的虚实融合方法 - Google Patents

一种多视频流与三维场景的虚实融合方法 Download PDF

Info

Publication number
CN104599243B
CN104599243B CN201410769001.2A CN201410769001A CN104599243B CN 104599243 B CN104599243 B CN 104599243B CN 201410769001 A CN201410769001 A CN 201410769001A CN 104599243 B CN104599243 B CN 104599243B
Authority
CN
China
Prior art keywords
camera
video image
user
list
visible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410769001.2A
Other languages
English (en)
Other versions
CN104599243A (zh
Inventor
周忠
刘培富
周颐
吴威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing large landscape Technology Co. Ltd.
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201410769001.2A priority Critical patent/CN104599243B/zh
Publication of CN104599243A publication Critical patent/CN104599243A/zh
Application granted granted Critical
Publication of CN104599243B publication Critical patent/CN104599243B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种多视频流与三维场景的虚实融合方法,属于虚拟现实技术领域。本方法先使用相机采集环境的视频图像信息,并对相机采集时的参数进行跟踪;之后根据相机采集时的参数计算相机在三维空间中对应的视锥体,在此基础上计算出用户当前视点下可见的相机,调度这些可见相机的视频图像;然后计算每个可见相机的视频图像与三维场景中虚拟对象的关联关系,根据该关联关系将视频图像与三维场景中的虚拟对象进行融合;最后在虚拟环境中将融合结果进行可视化,并为用户提供交互漫游和自动巡逻服务。本发明实时调度场景中的多个相机,将其视频图像与三维场景进行虚实融合,从而达到反映环境真实动态的目的。

Description

一种多视频流与三维场景的虚实融合方法
技术领域
本发明涉及多视频流与三维场景的虚实融合方法,更确切的讲是将多视频图像的内容与三维场景中的虚拟对象进行融合,属于虚拟现实技术领域。
背景技术
虚拟环境的建模被广泛应用在仿真、景区展示、三维地图等应用中,当虚拟环境的几何信息、外貌与真实环境类似或精确对应时,整个虚拟环境的真实感会得到一定程度的提升。但是对场景进行较为精确的建模需要耗费较多的人力,并且由于模型纹理是事先采集的静态图片,通过这种方式构建的虚拟环境不能反映出真实环境中的事件、活动等的动态变化。因此,通过虚拟环境反映场景的真实动态日益受到研究者的关注。
增强虚拟环境是一种为了解决以上问题而出现的虚拟实现技术。增强虚拟环境技术预先建立好环境的三维模型,经过对相机或投影装置标定后,将相机等设备采集的二维视频或对象的三维表面信息实时注册到虚拟环境中。基于视频图像的增强虚拟环境是增强虚拟环境技术中的一种,它使用视频图像来增强虚拟环境。视频图像的采集和获取相对方便,它记录了环境随时间的动态变化,因此可通过它创建出随视频图像而变化的动态虚拟环境,并且虚拟环境中包含的全局空间信息反过来又可促进对视频内容的理解。在本发明之前,南加州大学的Jinhui Hu提出了一种基于纹理贴图的使用视频图像增强虚拟环境的方法[Jinhui Hu.Intergrating complementary information for photorealisticrepresentation[D].Los Angeles:University of Southern California,2009]。他将原始的视频图像扭曲成与建筑表面方向相对应的图像,然后使用特征匹配的方法将扭曲后的图像注册到纹理缓存中,最后用纹理缓存的内容来更新模型表面的纹理。该方法每次只能使用一路视频进行更新,渲染效率也较低,并且视频图像经扭曲注册后会出现锯齿或变模糊。本发明提出了一种直接使用原始视频图像对虚拟环境进行增强的方法,该方法使用位置相关的多相机实时调度方法,调度相机的视频图像与三维场景融合,实现了多视频流与虚拟场景的融合。
发明内容
本发明的目的是解决静态的虚拟场景不能反映环境动态变化的问题,提出了一种多视频流与三维场景的虚实融合方法,该方法实时调度多个相机,将其视频图像与三维场景进行融合绘制。
为实现上述目的,本发明提出的多视频流与三维场景虚实融合的方法包括以下步骤:
(1)使用一个或多个相机采集环境的视频图像,通过实时或离线的过程对相机采集时的参数信息进行跟踪,参数信息包括但不限于相机的位置、朝向、焦距、时间戳等。
(2)根据相机拍摄时的参数计算相机在三维空间中对应的视锥体,视锥体是与相机拍摄的地理范围相对应的虚拟空间区域,之后判断在用户视点下可见的相机集合,调度合适数量的可见相机的视频图像用于虚实融合。
(3)对每个可见的相机,计算其视频图像与三维场景中虚拟对象间的关联关系,根据该关联关系使用视频投影的方法将视频图像与三维场景中的虚拟对象融合。
(4)将融合结果在虚拟的环境中可视化,为用户提供对虚拟场景的交互漫游以及对指定相机的自动巡逻服务。
其中,使用一个或多个相机采集环境的视频图像,跟踪相机采集时的参数,可通过在采集时使用传感设备实时记录相机参数的方式或通过离线的图像分析方式计算相机的参数。
其中,根据相机拍摄时的参数计算相机在三维空间中对应的视锥体,视锥体代表了相机的拍摄区域。之后根据用户当前的视点位置和方向计算相机视锥体与用户观察区域的相交情况,若视锥体处于观察区域内或与观察区域相交且满足光轴与视点方向不超过一定角度则认为相机可见。定义可见性列表、待加入列表、待退出列表、候选列表和使用中列表等列表管理相机的调度,通过使用中列表加载合适数量的可见相机,将其视频图像与三维场景进行虚实融合。
其中,根据相机拍摄时的参数计算视频图像与三维场景中的点、线、面、体等虚拟对象间的关联关系,将视频图像的内容投影到三维场景中的虚拟对象上,通过视频图像的变化显示场景的动态。
其中,在虚拟环境中对融合结果进行可视化,根据用户需求可同时原始三维场景、原始视频图像、用户视点下的融合效果、相机拍摄视点下的融合效果等多个视图。用户可以在虚拟的场景中交互漫游。根据用户需求规划目标相机间的浏览路径,对相机进行自动巡逻。
与现有技术相比,本发明的有益效果是:
(1)根据视点自动调度场景中的多个可见的相机,实现将多路视频与三维场景同时融合;
(2)融合计算可动态更新,采集的相机的参数发生变化后,只需根据参数重新计算一次即可更新既有融合结果;
(3)具有较好的可扩展性,能适应不同范围的场景,可将视频与场景中的各种对象进行融合,并考虑了对象间的遮挡关系;
(4)将多路分散的视频融合到统一的虚拟环境中,增强了视频间的时空关联,有助于用户对多个视频中的静态和动态内容进行理解;
(5)直接使用相机拍摄的原始视频作为模型纹理,融合结果与原始图像相比,对视频图像中所携带的真实信息损失小,增强了场景真实感和用户体验。
附图说明
图1为本发明多视频流与三维场景虚实融合方法的流程图;
图2为相机采集的环境图像示意图;
图3为相机的视锥体示意图;
图4为相机分布和用户视点示意图;
图5为虚拟环境示意图;
图6为视频图像与虚拟环境融合效果示意图。
具体实施方式
下面结合附图和实例对本发明作进一步详细的描述。本发明提出的多视频流与三维场景虚实融合方法的流程如图1所示,其步骤如下:
步骤1,采用一个或多个相机采集环境的视频图像,如图2所示。跟踪相机采集时的参数信息,跟踪可通过传感器实施记录、离线图像分析等方式实现。跟踪得到的相机参数需要转换到虚拟环境中的坐标系下以完成融合过程。
步骤2,根据相机的参数信息在三维空间中构建相机的视锥体,如图3所示。在图3中,六面体ABCD-EFGH表示某个相机的视锥体,它由六个面包围组成,其中从面ABCD的中心O指向面EFGH的中心O1的射线为相机的光轴方向。然后根据用户当前视点位置和方向在虚拟环境中构建用户观察区域。在图4中,用户处于位置O,AOB表示用户的观察区域,对场景中的相机:
(1)如果相机位置与视点位置超过一定距离,则认为相机不可见,例如图4中的相机C0、C4与O超过距离d,因此不可见。如果相机位置与视点位置在一定距离内,并且满足相机视锥与用户观察区域不相交或者相机光轴方向与视点方向的夹角超过一定角度,则认为相机不可见,如图4中的相机C1、C2不在用户观察区域内,C3与观察区域相交但其光轴与视点方向的夹角超过一定角度,因此C1、C2、C3都不可见;
(2)如果相机位置与视点位置在一定距离内,并且满并且满足以下条件:相机视锥与用户观察区域相交或在用户观察区域内,且相机光轴方向与视点方向夹角不大于一定角度,则认为相机可见,例如图4中的相机C5在用户观察区域内,C6与用户观察区域相交,且C5、C6的光轴方向与视点方向的夹角在一定范围内,因此C5、C6都可见。
计算出相机的可见性之后,按照如下流程更新使用中的可见相机列表U:
(2.1)保存上次计算得到相机可见性结果,清空退出列表Q和待加入列表J,置可见性列表V中的相机标志位为-1。其中,相机的标志位为1表示相机可见,标志位为0表示相机不可见,-1表示未知;进入步骤(2.2);
(2.2)对列表V中每个相机,若其位置离开当前视点超过一定距离,认为相机不可见,将其标志置为0;否则进入步骤(2.2);
(2.3)如果相机的位置与当前视点距离在一定范围内:计算相机视锥体的包围盒,计算用户在当前视点的观察区域,若包围盒与观察区域不相交则认为相机不可见,将相机的标志位置为0;计算相机光轴方向与视点方向的夹角,若夹角大于一定角度,将相机的标志位置为0;否则进入步骤(2.4);
(2.4)若相机视锥体的包围盒与观察区域相交或者在观察区域内,并且相机光轴方向与视点方向的夹角不大于一定角度则认为相机可见,将相机的标志位置为1。将本次计算得到的可见性列表与上次计算得到的可见性列表进行比较,若相机本次可见而上次不可见则将其送入待加入列表J,若相机本次不可见上次可见则将其送入到退出列表Q;进入步骤(2.5);
(2.5)将待加入列表J中的相机取出送入候选列表C。根据用户需求,从C中选择合适数量的相机送入使用中列表U并请求相机的视频图像。从候选列表C和使用中列表中U取移除与退出列表Q中相同的相机并释放相关的资源。
步骤3,对列表U中的每个相机,分析视频图像的内容与虚拟环境中的点、线、面、体等虚拟对象之间的关联关系R,虚拟环境的示意如图5所示。在相机视点下渲染其所见场景的深度图D,根据R和D将视频图像的像素Cp转换为场景对象对应的纹理颜色Ct,计算公式为:
其中,It为对象对应的纹理坐标,dt为对象对应的深度值,Dt为深度图D中的深度值,f为根据关联关系R、图像像素Cp以及纹理坐标计It算纹理颜色的函数。对于多幅图像融合到同一个对象的情况,计算每幅图像中的像素对对象的贡献,以贡献作为权重计算对象的纹理,计算公式为:
其中,i为图像的索引,Cti为对象从图像i计算得到的纹理颜色,ωi为图像i对对象的贡献值。通过以上计算过程,实现了多视频流与三维场景中各个对象的融合过程。
步骤4,在虚拟环境中对视频图像与三维场景的融合结果进行可视化,可视化的结果如图6所示。根据用户需要可同时显示融合前的三维场景、融合前的视频图像、用户视点下的融合结果、相机视点的融合结果。用户可在虚拟环境中交互漫游。根据用户需求选择场景中部分或全部的相机作为自动巡逻的目标,自动规划相机间的巡逻路径并沿该路径对目标相机自动巡逻。
本发明未详细阐述的部分属于本领域的技术人员公知技术。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种多视频流与三维场景的虚实融合方法,先使用一个或多个相机采集环境的视频图像,并对相机采集时的参数进行跟踪;之后根据相机采集时的参数计算相机在三维空间中对应的视锥体,在此基础上根据用户视点的位置和方向计算相机的可见性,调度可见相机的视频图像;然后计算每个可见相机的视频图像与三维场景中虚拟对象间的关联关系,使用该关联关系将视频图像与虚拟对象进行融合;最后在虚拟环境中将融合结果可视化,并为用户提供交互漫游及对相机的自动巡逻服务;其特征在于如下步骤:
(1)使用一个或多个相机采集环境的视频图像,视频图像作为实时展现场景动态的数据源;跟踪相机采集时的参数信息,参数信息用于调度视频图像与三维场景正确地进行融合;
(2)根据相机拍摄时的参数信息计算相机在三维空间中对应的视锥体,该视锥体是相机所拍摄的真实环境的空间范围在虚拟环境的近似或精确表达;根据用户在虚拟环境中的视点位置和方向,计算当前对用户可见的相机集合,调度可见相机的视频图像;
(3)对可见集合中的相机,根据相机参数信息计算其视频图像与三维场景中虚拟对象间的关联关系,利用该关联关系将视频图像与虚拟对象进行虚实融合;
(4)在虚拟的环境中将视频图像与虚拟对象的融合结果进行可视化,用户可在虚拟环境中交互漫游并对指定的相机进行自动巡逻;
步骤(2)对场景中的每个相机,根据其采集时的参数信息计算相机在三维空间中对应的视锥体,视锥体限定了相机在虚拟环境中的观察范围,该范围与相机所拍摄的真实地理空间相对应;之后根据用户当前视点的位置和方向,计算每个相机视锥体与用户观察区域的相交情况,并根据以下的规则判断相机的可见性:
如果相机的位置与视点的位置超过一定距离,则认为相机不可见;如果相机位置与视点位置在一定距离内,并且满足相机视锥与不在用户观察区域内或相机光轴方向与视点方向夹角超过一定角度,则认为相机不可见;
如果相机位置与视点位置在一定距离内,并且满足以下条件:相机视锥与用户观察区域相交或在用户观察区域内,且相机光轴方向与视点方向夹角不大于一定角度,则认为相机可见;
以上对相机可见性的判断过程进行加速,通过将相机根据位置分布进行分组,计算时根据用户视点查找附近分组从而减少计算量;计算出相机的可见性后,按照如下流程更新使用中的可见相机列表U:
(2.1)保存上次计算得到相机可见性结果,清空退出列表Q和待加入列表J,置可见性列表V中的相机标志位为-1;其中,相机的标志位为1表示相机可见,标志位为0表示相机不可见,-1表示未知;进入步骤(2.2);
(2.2)对列表V中每个相机,若其位置离开当前视点超过一定距离,认为相机不可见,将其标志置为0;否则进入步骤(2.2);
(2.3)如果相机的位置与当前视点距离在一定范围内:计算相机视锥体的包围盒,计算用户在当前视点的观察区域,若包围盒与观察区域不相交则认为相机不可见,将相机的标志位置为0;计算相机光轴方向与视点方向的夹角,若夹角大于一定角度,将相机的标志位置为0;否则进入步骤(2.4);
(2.4)若相机视锥体的包围盒与观察区域相交或者在观察区域内,并且相机光轴方向与视点方向的夹角不大于一定角度则认为相机可见,将相机的标志位置为1;将本次计算得到的可见性列表与上次计算得到的可见性列表进行比较,若相机本次可见而上次不可见则将其送入待加入列表J,若相机本次不可见上次可见则将其送入到退出列表Q;进入步骤(2.5);
(2.5)将待加入列表J中的相机取出送入候选列表C;根据用户需求,从C中选择合适数量的相机送入使用中的可见相机列表U并请求相机的视频图像;从候选列表C和使用中列表U移除与退出列表Q中相同的相机并释放相关的资源;
根据应用需求,通过时间戳参数对列表U中各相机的视频图像进行同步处理。
2.根据权利要求1所述的方法,其特征在于:步骤(1)使用一个或多个相机采集视频图像,相机包括但不限于普通相机、全景相机;跟踪相机采集时的参数是离线或实时的过程,该过程通过传感器或者图像分析方法计算出相机采集时的参数信息,参数信息包括位置、朝向、焦距、时间戳;参数信息与视频图像一起实时编码传输或保存在本地存储设备中。
3.根据权利要求1所述的方法,其特征在于:步骤(3)对场景中每个可见的相机,根据相机拍摄时的参数信息计算其视频图像的内容与三维场景中虚拟对象间的关联关系,在相机参数未发生变化的情况下只用计算一次即可;之后根据关联关系将多幅视频图像通过视频投影的方法与三维场景中虚拟对象进行融合,对象包括点、线、面以及三者的组合体;多幅视频图像的内容可以与同一个对象进行融合,视频图像的交叉部分通过特征匹配、透明通道、加权平均方法进行处理;融合时需要考虑对象间的遮挡关系,通过深度图方法快速判断对象间的遮挡关系,被遮挡部分使用原始纹理或根据具体需求指定,未被遮挡部分与视频图像进行融合。
4.根据权利要求1所述的方法,其特征在于:步骤(4)将视频图像与三维场景的融合结果在虚拟环境中进行可视化,并根据需求追加显示原始三维场景、原始视频图像、用户视点下的融合效果、相机拍摄视点下的融合效果视图;用户可以在虚拟的场景进行交互漫游;根据用户的需求选择场景中部分或全部的相机,通过规划相机间的浏览路径实现对这些相机的自动巡逻,路径包括时间、视点位置、视点方向信息。
CN201410769001.2A 2014-12-11 2014-12-11 一种多视频流与三维场景的虚实融合方法 Active CN104599243B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410769001.2A CN104599243B (zh) 2014-12-11 2014-12-11 一种多视频流与三维场景的虚实融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410769001.2A CN104599243B (zh) 2014-12-11 2014-12-11 一种多视频流与三维场景的虚实融合方法

Publications (2)

Publication Number Publication Date
CN104599243A CN104599243A (zh) 2015-05-06
CN104599243B true CN104599243B (zh) 2017-05-31

Family

ID=53124993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410769001.2A Active CN104599243B (zh) 2014-12-11 2014-12-11 一种多视频流与三维场景的虚实融合方法

Country Status (1)

Country Link
CN (1) CN104599243B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111009158A (zh) * 2019-12-18 2020-04-14 华中师范大学 一种面向野外实践教学的虚拟学习环境多通道融合展示方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005970B (zh) * 2015-06-26 2018-02-16 广东欧珀移动通信有限公司 一种增强现实的实现方法及装置
CN105389850B (zh) * 2015-11-03 2018-05-01 北京大学(天津滨海)新一代信息技术研究院 一种大规模三维场景的可见性生成方法
CN105979360A (zh) * 2015-12-04 2016-09-28 乐视致新电子科技(天津)有限公司 一种渲染图像的处理方法及装置
CN106354251B (zh) * 2016-08-17 2019-04-02 深圳前海小橙网科技有限公司 一种虚拟场景与真实场景融合的模型***与方法
CN106340064B (zh) * 2016-08-25 2019-02-01 北京大视景科技有限公司 一种混合现实沙盘装置和方法
CN107223271B (zh) * 2016-12-28 2021-10-15 达闼机器人有限公司 一种显示数据处理方法及装置
US10297087B2 (en) * 2017-05-31 2019-05-21 Verizon Patent And Licensing Inc. Methods and systems for generating a merged reality scene based on a virtual object and on a real-world object represented from different vantage points in different video data streams
US10155166B1 (en) * 2017-09-08 2018-12-18 Sony Interactive Entertainment Inc. Spatially and user aware second screen projection from a companion robot or device
CN107888897B (zh) * 2017-11-01 2019-11-26 南京师范大学 一种视频增强场景的优化方法
CN107918948B (zh) * 2017-11-02 2021-04-16 深圳市自由视像科技有限公司 4d视频渲染方法
CN107832716B (zh) * 2017-11-15 2020-05-12 中国科学技术大学 基于主动被动高斯在线学习的异常检测方法
CN108154553A (zh) * 2018-01-04 2018-06-12 中测新图(北京)遥感技术有限责任公司 一种三维模型与监控视频的无缝融合方法及装置
CN109963120B (zh) * 2019-02-26 2020-10-09 北京大视景科技有限公司 一种虚实融合场景中多ptz相机的联合控制***及方法
CN110312121A (zh) * 2019-05-14 2019-10-08 广东康云科技有限公司 一种3d智能教育监控方法、***和存储介质
CN110517356A (zh) * 2019-08-21 2019-11-29 佳都新太科技股份有限公司 实现多路视频融合的三维增强现实的***、方法及设备
CN110659385B (zh) * 2019-09-12 2020-10-09 中国测绘科学研究院 一种多路视频与三维gis场景的融合方法
CN111696216B (zh) * 2020-06-16 2023-10-03 浙江大华技术股份有限公司 三维增强现实全景融合方法及***
CN112651881B (zh) * 2020-12-30 2023-08-01 北京百度网讯科技有限公司 图像合成方法、装置、设备、存储介质以及程序产品
CN113223130B (zh) * 2021-03-17 2023-07-28 浙江大华技术股份有限公司 一种路径漫游方法、终端设备以及计算机存储介质
CN113722644B (zh) * 2021-09-03 2023-07-21 如你所视(北京)科技有限公司 基于外接设备在虚拟空间选取浏览点位的方法及其装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605211A (zh) * 2009-07-23 2009-12-16 杭州镭星科技有限公司 将虚拟三维建筑与现实环境实拍视频无缝合成的方法
CN101951502A (zh) * 2010-10-19 2011-01-19 北京硅盾安全技术有限公司 一种三维智能视频监控方法
CN104183014A (zh) * 2014-08-13 2014-12-03 浙江大学 一种面向城市增强现实的高融合度信息标注方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605211A (zh) * 2009-07-23 2009-12-16 杭州镭星科技有限公司 将虚拟三维建筑与现实环境实拍视频无缝合成的方法
CN101951502A (zh) * 2010-10-19 2011-01-19 北京硅盾安全技术有限公司 一种三维智能视频监控方法
CN104183014A (zh) * 2014-08-13 2014-12-03 浙江大学 一种面向城市增强现实的高融合度信息标注方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
视频影像增强虚拟三维场景的注册与渲染方法研究;周凡;《中国博士学位论文全文数据库信息科技辑(月刊)》;20140915(第09期);第1-96页 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111009158A (zh) * 2019-12-18 2020-04-14 华中师范大学 一种面向野外实践教学的虚拟学习环境多通道融合展示方法

Also Published As

Publication number Publication date
CN104599243A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
CN104599243B (zh) 一种多视频流与三维场景的虚实融合方法
CN109064542B (zh) 三维模型表面空洞填补方法和装置
CN103226830B (zh) 三维虚实融合环境中视频纹理投影的自动匹配校正方法
US8624962B2 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
CN103607584B (zh) 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
EP3798801A1 (en) Image processing method and apparatus, storage medium, and computer device
CN105303557B (zh) 一种可透视型智能眼镜及其透视方法
CN107247834A (zh) 一种基于图像识别的三维环境模型重构方法、设备及***
CN107016704A (zh) 一种基于增强现实的虚拟现实实现方法
CN109218619A (zh) 图像获取方法、装置和***
CN102509348B (zh) 一种共享增强现实场景的真实物体多方位表示方法
CN106157354B (zh) 一种三维场景切换方法及***
US20110102460A1 (en) Platform for widespread augmented reality and 3d mapping
CN106775528A (zh) 一种虚拟现实的旅游***
Kido et al. Assessing future landscapes using enhanced mixed reality with semantic segmentation by deep learning
CN102938844A (zh) 利用立体成像生成自由视点视频
CN109102566A (zh) 一种变电站的室内外实景重建方法及其装置
CN103543827A (zh) 基于单个摄像机的沉浸式户外活动交互平台的实现方法
CN107038745A (zh) 一种3d旅游景观漫游交互方法及装置
CN109640070A (zh) 一种立体显示方法、装置、设备及存储介质
EP3533218A1 (en) Simulating depth of field
CN110673735A (zh) 全息虚拟人ar互动展示方法、装置及设备
CN113379901A (zh) 利用大众自拍全景数据建立房屋实景三维的方法及***
CN110058696A (zh) 一种虚拟实景实现方法及其使用方法和相关方法装置
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20171222

Address after: 100085 A, No. 9, Third Street, Shanghai Haidian District, Beijing, 9 layer A1004-061

Patentee after: Beijing ancient Shitu Ding Technology Co. Ltd.

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Patentee before: Beihang University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190717

Address after: Room 211, 2nd floor, Building 133, Garden Road, Haidian District, Beijing 100088

Patentee after: Beijing large landscape Technology Co. Ltd.

Address before: 100085 A1004-061, 9th floor, Block A, 9th Shangdi Sanjie, Haidian District, Beijing

Patentee before: Beijing ancient Shitu Ding Technology Co. Ltd.

TR01 Transfer of patent right