CN106981100A - 一种虚拟现实与真实场景融合的装置 - Google Patents
一种虚拟现实与真实场景融合的装置 Download PDFInfo
- Publication number
- CN106981100A CN106981100A CN201710242302.3A CN201710242302A CN106981100A CN 106981100 A CN106981100 A CN 106981100A CN 201710242302 A CN201710242302 A CN 201710242302A CN 106981100 A CN106981100 A CN 106981100A
- Authority
- CN
- China
- Prior art keywords
- image
- virtual reality
- scene
- unit
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种虚拟现实与真实场景融合的装置,包括:获取模块,用于获取虚拟现实设备内部的图像信息,生成虚拟现实场景;采集模块,用于获取3D摄像机采集的真实目标场景信息;融合模块,用于根据所述真实目标场景信息与虚拟现实场景,于虚拟现实设备内部生成融合场景;呈现模块,用于呈现所述融合场景。以实现在虚拟现实过程中能够结合真实场景,实现虚拟与现实融合的效果,能够增进人机交互、提升用户体验。
Description
技术领域
本发明涉及虚拟现实技术领域,特别是涉及一种虚拟现实与真实场景融合的装置。
背景技术
虚拟现实(VirtualReality,以下简称VR)技术是主要通过综合利用计算机图形***和各种现实及控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术。
增强现实(AugmentedReality,以下简称AR)技术是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息,声音,味道,触觉等),通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。增强现实技术,不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信息相互补充、叠加。在视觉化的增强现实中,用户利用头盔显示器,把真实世界与电脑图形多重合成在一起,便可以看到真实的世界围绕着它。
现有技术中的一种头盔显示器,比如,类似Oculus的产品,能够让用户体验VR效果,像***眼镜类似的产品能够让用户体验AR效果。
发明人在实现本发明实施例的过程中发现:现有的VR头盔能够观看虚拟的场景、人物等,但这些虚拟的场景人物都是预先设计好的,或者是按照特定算法渲染而成的,并没有结合用户使用VR头盔时的场景,缺少与现实环境的互动。而现有的AR眼镜能够看到用户眼前的真实环境,并能够分析图像,给出一些提示信息,但不能体验逼真的虚拟场景带来的愉悦,也即AR很难做好虚拟真实的结合。
发明内容
基于此,有必要提供一种虚拟现实与真实场景融合的装置,以实现在虚拟现实过程中能够结合真实场景,实现虚拟与现实融合的效果,能够增进人机交互、提升用户体验。
一种虚拟现实与真实场景融合的装置,包括:
获取模块,用于获取虚拟现实设备内部的图像信息,生成虚拟现实场景;
采集模块,用于获取3D摄像机采集的真实目标场景信息;
融合模块,用于根据所述真实目标场景信息与虚拟现实场景,于虚拟现实设备内部生成融合场景;
呈现模块,用于呈现所述融合场景。
在其中一个实施例中,所述获取模块,具体用于:
对虚拟现实设备内部的图像进行读取、分析、识别,并利用识别结果生成不同的虚拟现实场景。
在其中一个实施例中,所述获取模块,包括:
读取单元,用于对虚拟现实设备内部的图像进行读取;
分析单元,用于对读取到的图像进行数据分析获取图像的特征点;
比对单元,用于将获取的图像特征点与数据库中图像进行对比得到识别结果;
生成单元,用于利用所述识别结果生成不同的虚拟现实场景。
在其中一个实施例中,所述采集模块,包括:
追踪单元,用于追踪人眼的视线变化;
调整单元,用于根据所述人眼的视线变化,调整所述3D摄像机方向,以使所述3D摄像机的方向与所述人眼视线变化后的视线方向一致;
采集单元,用于获取所述3D摄像机按照调整后的方向实时采集的真实目标场景信息。
在其中一个实施例中,所述融合模块,包括:
初始速度赋予单元,用于给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
动态分析单元,用于根据各个像素点的速度矢量特征对图像进行动态分析;
判断单元,用于判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,真实目标场景和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
图像位置获取单元,用于获得图像特征点新的位置;
计算单元,用于根据获得的图像特征点新的位置与原始位置,基于3D摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
融合单元,用于将虚拟现实场景赋予得到的平移、旋转与缩放矢量完成虚拟现实场景与真实目标场景融合。
上述实施例中提供了一种虚拟现实与真实场景融合的装置,包括:获取模块,用于获取虚拟现实设备内部的图像信息,生成虚拟现实场景;采集模块,用于获取3D摄像机采集的真实目标场景信息;融合模块,用于根据所述真实目标场景信息与虚拟现实场景,于虚拟现实设备内部生成融合场景;呈现模块,用于呈现所述融合场景。以实现在虚拟现实过程中能够结合真实场景,实现虚拟与现实融合的效果,能够增进人机交互、提升用户体验。
附图说明
图1为一个实施例中一种虚拟现实与真实场景融合的装置功能模块示意图;
图2为图1中获取模块的功能模块示意图;
图3为图1中采集模块的功能模块示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
除非上下文另有特定清楚的描述,本发明中的元件和组件,数量既可以单个的形式存在,也可以多个的形式存在,本发明并不对此进行限定。本发明中的步骤虽然用标号进行了排列,但并不用于限定步骤的先后次序,除非明确说明了步骤的次序或者某步骤的执行需要其他步骤作为基础,否则步骤的相对次序是可以调整的。可以理解,本文中所使用的术语“和/或”涉及且涵盖相关联的所列项目中的一者或一者以上的任何和所有可能的组合。
需要说明的是,真实场景信息包括由3D摄像机实时拍摄的周围环境信息,比如,左右两个摄像头分别按照用户左右眼的视线方向实时拍摄真实场景的图像序列,在某一时刻t,可以从左摄像头提供的图像序列中获取一张图像,作为左图,从右摄像头提供的图像序列中获取一张图像,作为右图,其中,左图模拟了用户左眼看到的内容,右图模拟了用户右眼看到的内容。虚拟现实场景信息包括虚拟现实模型的图像信息,比如,虚拟现实场景模型的左视图及右视图。
在本发明实施例中,增强现实场景是指利用增强现实技术将真实场景信息进行呈现的场景,虚拟现实场景是指利用虚拟现实技术将虚拟现实场景信息进行呈现的场景。
在本发明实施例中,虚拟现实设备可以为智能穿戴设备,而智能穿戴设备可以包括具备AR及VR功能的头戴式智能设备,比如,智能眼镜或头盔。
在一个实施例中,如图1所示,一种虚拟现实与真实场景融合的装置,包括:
获取模块10,用于获取虚拟现实设备内部的图像信息,生成虚拟现实场景;
采集模块20,用于获取3D摄像机采集的真实目标场景信息;
融合模块30,用于根据所述真实目标场景信息与虚拟现实场景,于虚拟现实设备内部生成融合场景;
呈现模块40,用于呈现所述融合场景。
在其中一个实施例中,所述获取模块,具体用于:
对虚拟现实设备内部的图像进行读取、分析、识别,并利用识别结果生成不同的虚拟现实场景。
在其中一个实施例中,如图2所示,所述获取模块10,包括:
读取单元101,用于对虚拟现实设备内部的图像进行读取;
分析单元102,用于对读取到的图像进行数据分析获取图像的特征点;
比对单元103,用于将获取的图像特征点与数据库中图像进行对比得到识别结果;
生成单元104,用于利用所述识别结果生成不同的虚拟现实场景。
具体的,在将***启动初始化后,***通过读取单元读取虚拟现实设备中存取的指定图像;在虚拟现实设备中存取的图像文件均是用户通过摄像拍摄的照片或是通过其他的途径获取的图片,将这些照片及图片存储到虚拟现实设备中的图像数据库中,供给后续需要选择各种图像的来源。
分析单元,可以先将图像文件的分辨率进行统一,将其分辨率压缩到较低,例如分辨率320*240大小,在将分辨率调整后对图像文件需要进行格式转化,将图像的彩色格式转化为灰度格式,将转化格式后的图像利用二维图像亮度变化距离的点或图像边缘曲线上具有曲率极大值的点分析图像角点的特征,并以分析的图像角点特征作为图像特征点。
比对单元,可以利用局部随机二值特征,分别计算在上述中获取的特征点信息和数据库中图像的特征描述信息,在通过各个角点的描述信息来判断他们在两张图像中的对应关系,去除两张图片中错误匹配的外点,保留下正确匹配的内点,当保留的正确北配特征点的数量超过了设定的阈值,则判断为识别成功进入下一个步骤;若识别不成功,则重新新对图片进行循环处理直到识别成功为止。
生成单元,利用比对单元识别的结果得到识别到的目标编号,按照编号在数据库中检索出相对应的虚拟内容,并生成虚拟现实场景。
在其中一个实施例中,如图3所示,所述采集模块20,包括:
追踪单元201,用于追踪人眼的视线变化;
调整单元202,用于根据所述人眼的视线变化,调整所述3D摄像机方向,以使所述3D摄像机的方向与所述人眼视线变化后的视线方向一致;
采集单元203,用于获取所述3D摄像机按照调整后的方向实时采集的真实目标场景信息。
在本发明实施例中,所述采集模块,具体包括:追踪单元、追踪单元,及采集单元,通过追踪单元追踪人眼的视线变化,调整单元根据所述人眼的视线变化,调整所述3D摄像机双摄像头方向,以使所述双摄像头的方向与所述人眼视线变化后的视线方向一致,采集单元获取所述双摄像头按照调整后的方向实时采集的真实场景信息。为了实现双摄像头模拟人眼拍摄真实场景信息,需要摄像头按照人眼视线方向,采集真实场景信息。为了获取人眼的视线变化,在VR头盔内部可以安装眼部视线追踪模块,以追踪视线变化。为了让两个摄像头能够更好的模拟双眼看到的场景,智能穿戴设备例如VR头盔内部的处理器需要根据双眼视线变化参数来分别调节左右两个摄像头的观看角度。双摄像头画面的实时获取并分别呈现给左右眼,此时能够复现人眼的观看效果。具体的,可以利用现有技术中的眼球跟踪技术,例如根据眼球和眼球周边的特征变化进行跟踪、根据虹膜角度变化进行跟踪、主动投射红外线等光束到虹膜来提取特征进行跟踪来确定人眼的视线变化等。当然,本发明实施例不限于此,在本发明的技术构思下,本领域技术人员可以利用任意可行的技术追踪人眼的视线变化进而调整模拟人眼的左右眼摄像头的采集方向,实时采集真实场景信息。
在其中一个实施例中,所述融合模块,包括:
初始速度赋予单元,用于给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
动态分析单元,用于根据各个像素点的速度矢量特征对图像进行动态分析;
判断单元,用于判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,真实目标场景和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
图像位置获取单元,用于获得图像特征点新的位置;
计算单元,用于根据获得的图像特征点新的位置与原始位置,基于3D摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
融合单元,用于将虚拟现实场景赋予得到的平移、旋转与缩放矢量完成虚拟现实场景与真实目标场景融合。
具体而言,初始速度赋予单元给图像中每一个像素点赋予一个初始速度矢量,使其形成场景图像运动场,在运行的特定时刻,使其图像上的点与三维物体上的点一一对应,这种对应关系可以由投影关系得到,动态分析单元根据各个像素点的所读矢量特征,对图像进行动态分析,判断单元判断图像中是否有运动的物体,如果图像中没有物体在运动,则光流矢量在整个图像区域是连续变化的;如果图像中有运动的物体,则目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景矢量不同,从而检测出运动物体及位置,图像位置获取单元获取场景图像特征点的新位置。
将静态图像转化成虚拟内容和动态的真实场景均准备妥当后,在摄像设备空间中将上述识别的虚拟内容置于跟踪的特征点空间位置,将虚拟内容与真实场景进行融合;计算单元根据获得的场景图像特征点新的位置与原始位置,依据摄像头的物理参数计算出在三维图像空间内物体的平移、旋转与缩放矢量,融合单元将虚拟内容赋予计算出来在三维空间内物体的平移、旋转与缩放矢量上,就实现了虚拟内容与真实场景的完整融合。
在本实施例中,可通过采用单一图片作为输入源,识别该图片从而激发虚拟内容;同时利用场景特征追踪技术,将虚拟内容置于用户的真实环境中,从而实现增强现实的效果,解除了特征图像激发虚拟内容的限制,促进了产业的发展。
在本发明的另一个实施例中,所述融合模块,可具体包括:
第一叠加单元,用于将所述左摄像头拍摄的左图与虚拟场景的左视图叠加,合成融合场景左图;
第二叠加单元,用于将所述右摄像头拍摄的右图与虚拟场景的右视图叠加,合成融合场景右图;
融合单元,根据所述融合场景左图及右图,生成融合场景。
具体而言,通过将虚拟场景信息与真实场景信息叠加,比如,将虚拟模型信息叠加至真实场景时,需要左右两个摄像头提供真实场景实时的图像序列,在某一时刻t,可以从左摄像头提供的图像序列中获取一张图像,作为左图,从右摄像头提供的图像序列中获取一张图像,作为右图。左图模拟了左眼看到的内容,右图模拟了右眼看到的内容。左右摄像头提供实时的图像序列,这些图像序列可以通过多种方法获取,一种方法是使用摄像头厂商提供的SDK(SoftwareDevelopmentKit)进行图像获取,另一种方法是使用一些常用的开源工具从摄像头中读取图像,如Opencv。为了得到真实场景的层次关系,可以计算视差后,用视差的层次关系表示场景的层次关系。计算左右图之间的视差,可以使用BM、图割、ADCensus等任意一种视差计算方法进行计算。有了视差就得知了场景层次信息,场景的层次信息也称为场景的景深信息,景深信息可以用来指导虚拟模型与真实场景的融合,让虚拟模型更加合理放到真实场景中。具体方法为,虚拟模型在左右图的最小视差要比虚拟模型在左右图的覆盖区域的最大视差大,并且使用视差之前需要对视差信息进行中值平滑。在左图和右图中分别加入虚拟模型,设虚拟模型在左右图中的最小视差为d,d需要大于虚拟模型覆盖区域的最大视差。将虚拟模型对应的左视图叠加到左图中,将虚拟模型对应的右视图叠加到右图中,就可以生成融合场景。
在本发明其中一个实施例中,呈现模块将叠加有虚拟模型左视图的左图,以及叠加有虚拟模型右视图的右图进行合成后一起送入显示器,分别在显示器的左半部分和右半部分显示,即可呈现所述融合场景,这样,用户分别通过左右眼观看,此时就能够体验真实场景与虚拟模型的良好融合。
在本发明实施例中,除了实现真实场景信息与虚拟场景信息融合,生成融合场景外,还可以根据所述3D摄像机双摄像头采集的真实场景信息,生成增强现实场景,或者,根据所述虚拟现实场景信息,生成虚拟现实场景,在本发明实施例中,生成增强现实场景或虚拟现实场景,即AR功能或VR功能,本领域技术人员结合本发明实施例,可以实现,此处不再赘述。
上述实施例中提供了一种虚拟现实与真实场景融合的装置,包括:获取模块,用于获取虚拟现实设备内部的图像信息,生成虚拟现实场景;采集模块,用于获取3D摄像机采集的真实目标场景信息;融合模块,用于根据所述真实目标场景信息与虚拟现实场景,于虚拟现实设备内部生成融合场景;呈现模块,用于呈现所述融合场景。以实现在虚拟现实过程中能够结合真实场景,实现虚拟与现实融合的效果,能够增进人机交互、提升用户体验。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种虚拟现实与真实场景融合的装置,其特征在于,包括:
获取模块,用于获取虚拟现实设备内部的图像信息,生成虚拟现实场景;
采集模块,用于获取3D摄像机采集的真实目标场景信息;
融合模块,用于根据所述真实目标场景信息与虚拟现实场景,于虚拟现实设备内部生成融合场景;
呈现模块,用于呈现所述融合场景。
2.根据权利要求1所述的装置,其特征在于,所述获取模块,具体用于:
对虚拟现实设备内部的图像进行读取、分析、识别,并利用识别结果生成不同的虚拟现实场景。
3.根据权利要求2所述的装置,其特征在于,所述获取模块,包括:
读取单元,用于对虚拟现实设备内部的图像进行读取;
分析单元,用于对读取到的图像进行数据分析获取图像的特征点;
比对单元,用于将获取的图像特征点与数据库中图像进行对比得到识别结果;
生成单元,用于利用所述识别结果生成不同的虚拟现实场景。
4.根据权利要求1所述的装置,其特征在于,所述采集模块,包括:
追踪单元,用于追踪人眼的视线变化;
调整单元,用于根据所述人眼的视线变化,调整所述3D摄像机方向,以使所述3D摄像机的方向与所述人眼视线变化后的视线方向一致;
采集单元,用于获取所述3D摄像机按照调整后的方向实时采集的真实目标场景信息。
5.根据权利要求4所述的装置,其特征在于,所述融合模块,包括:
初始速度赋予单元,用于给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
动态分析单元,用于根据各个像素点的速度矢量特征对图像进行动态分析;
判断单元,用于判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,真实目标场景和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
图像位置获取单元,用于获得图像特征点新的位置;
计算单元,用于根据获得的图像特征点新的位置与原始位置,基于3D摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
融合单元,用于将虚拟现实场景赋予得到的平移、旋转与缩放矢量完成虚拟现实场景与真实目标场景融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710242302.3A CN106981100A (zh) | 2017-04-14 | 2017-04-14 | 一种虚拟现实与真实场景融合的装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710242302.3A CN106981100A (zh) | 2017-04-14 | 2017-04-14 | 一种虚拟现实与真实场景融合的装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106981100A true CN106981100A (zh) | 2017-07-25 |
Family
ID=59345027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710242302.3A Pending CN106981100A (zh) | 2017-04-14 | 2017-04-14 | 一种虚拟现实与真实场景融合的装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106981100A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110412765A (zh) * | 2019-07-11 | 2019-11-05 | Oppo广东移动通信有限公司 | 增强现实图像拍摄方法、装置、存储介质及增强现实设备 |
CN111915742A (zh) * | 2020-08-14 | 2020-11-10 | 上海工程技术大学 | 一种虚拟场景呈现*** |
CN112634469A (zh) * | 2019-09-24 | 2021-04-09 | 北京沃东天骏信息技术有限公司 | 用于处理图像的方法和装置 |
CN113160337A (zh) * | 2021-05-17 | 2021-07-23 | 视境技术(深圳)有限公司 | 一种ar/vr虚拟现实融合相机控制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130005899A (ko) * | 2011-07-07 | 2013-01-16 | 박태훈 | 4차원 가상현실 시스템 |
CN104156998A (zh) * | 2014-08-08 | 2014-11-19 | 深圳中科呼图信息技术有限公司 | 一种基于图片虚拟内容融合真实场景的实现方法及*** |
CN105955456A (zh) * | 2016-04-15 | 2016-09-21 | 深圳超多维光电子有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
-
2017
- 2017-04-14 CN CN201710242302.3A patent/CN106981100A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130005899A (ko) * | 2011-07-07 | 2013-01-16 | 박태훈 | 4차원 가상현실 시스템 |
CN104156998A (zh) * | 2014-08-08 | 2014-11-19 | 深圳中科呼图信息技术有限公司 | 一种基于图片虚拟内容融合真实场景的实现方法及*** |
CN105955456A (zh) * | 2016-04-15 | 2016-09-21 | 深圳超多维光电子有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110412765A (zh) * | 2019-07-11 | 2019-11-05 | Oppo广东移动通信有限公司 | 增强现实图像拍摄方法、装置、存储介质及增强现实设备 |
CN112634469A (zh) * | 2019-09-24 | 2021-04-09 | 北京沃东天骏信息技术有限公司 | 用于处理图像的方法和装置 |
CN111915742A (zh) * | 2020-08-14 | 2020-11-10 | 上海工程技术大学 | 一种虚拟场景呈现*** |
CN113160337A (zh) * | 2021-05-17 | 2021-07-23 | 视境技术(深圳)有限公司 | 一种ar/vr虚拟现实融合相机控制方法 |
CN113160337B (zh) * | 2021-05-17 | 2024-02-06 | 视境技术(深圳)有限公司 | 一种ar/vr虚拟现实融合相机控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106896925A (zh) | 一种虚拟现实与真实场景融合的装置 | |
CN106997618A (zh) | 一种虚拟现实与真实场景融合的方法 | |
US11632533B2 (en) | System and method for generating combined embedded multi-view interactive digital media representations | |
US11693242B2 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
JP6644833B2 (ja) | アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法 | |
US11755956B2 (en) | Method, storage medium and apparatus for converting 2D picture set to 3D model | |
CN109615703B (zh) | 增强现实的图像展示方法、装置及设备 | |
CN102959616B (zh) | 自然交互的交互真实性增强 | |
JP4473754B2 (ja) | 仮想試着装置 | |
JP4966431B2 (ja) | 画像処理装置 | |
CN107016730A (zh) | 一种虚拟现实与真实场景融合的装置 | |
Shen et al. | Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background | |
CN110544301A (zh) | 一种三维人体动作重建***、方法和动作训练*** | |
CN108369653A (zh) | 使用眼睛特征的眼睛姿态识别 | |
CN109643373A (zh) | 估计3d空间中的姿态 | |
CN106971426A (zh) | 一种虚拟现实与真实场景融合的方法 | |
US20230419438A1 (en) | Extraction of standardized images from a single-view or multi-view capture | |
CN109547753A (zh) | 提供由车辆的场景相机捕获的至少一个图像的方法和*** | |
CN102196280A (zh) | 方法、客户端设备和服务器 | |
CN106981100A (zh) | 一种虚拟现实与真实场景融合的装置 | |
CN110544302A (zh) | 基于多目视觉的人体动作重建***、方法和动作训练*** | |
US11138743B2 (en) | Method and apparatus for a synchronous motion of a human body model | |
CN115496863A (zh) | 用于影视智能创作的情景互动的短视频生成方法及*** | |
KR102118937B1 (ko) | 3d 데이터서비스장치, 3d 데이터서비스장치의 구동방법 및 컴퓨터 판독가능 기록매체 | |
CN111435550A (zh) | 图像处理方法及装置、图像设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170725 |