CN107368188B - 介导现实中的基于多重空间定位的前景抽取方法及*** - Google Patents
介导现实中的基于多重空间定位的前景抽取方法及*** Download PDFInfo
- Publication number
- CN107368188B CN107368188B CN201710570923.4A CN201710570923A CN107368188B CN 107368188 B CN107368188 B CN 107368188B CN 201710570923 A CN201710570923 A CN 201710570923A CN 107368188 B CN107368188 B CN 107368188B
- Authority
- CN
- China
- Prior art keywords
- video
- processing computer
- virtual
- depth
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种介导现实中的基于多重空间定位的前景抽取方法及***,包括:制作等比例模型,并使用反差大的单一颜色,注上标记点;使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;采用3D深度摄像头连接到视频图像处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。本发明对每帧拍摄视频和虚拟场景图像中的所有特征点进行逐一匹配,误差低且处理速度快。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种介导现实中的基于多重空间定位的前景抽取方法及***。
背景技术
图像前景抽取方法是智能视频处理的关键一步,其优劣直接影响到之后的判断、分析和识别。前景提取的通常方法受目标运动速度影响大,且精度不够高,只能获取目标大致位置和方向信息。而三维虚拟场景和视频实景的高度融合(以下简称虚实融合)的首要步骤就是需要知道图像前景的确切位置和方向,单一的前景抽取方法不足以满足虚实融合的要求。除精度外,虚实融合实时性要求极高,时间复杂度高的通常算法无法在单位帧生成时间内完成融合过程。并且,现有技术的处理速度慢,时间复杂度高。
现有的图像处理方法无法通过一帧彩色图像和一帧深度图像对物理空间尤其是深度定位到毫米mm级,忽略了虚拟空间中的定位。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种介导现实中的基于多重空间定位的前景抽取方法及***。
为了实现上述目的,本发明的实施例提供一种介导现实中的基于多重空间定位的前景抽取方法,包括如下步骤:
步骤S1,制作等比例模型,并使用反差大的单一颜色,注上标记点;
步骤S2,使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;
步骤S3,采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取,
采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;
步骤S4,结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
进一步,在所述步骤S4中,采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
本发明实施例的还提供一种介导现实中的基于多重空间定位的前景抽取***,包括:虚拟现实头戴式设备、追踪***、视景处理计算机、视频处理计算机、3D深度摄像头、模拟器操作仪表和显示屏,其中,虚拟现实头戴式设备与视景处理计算机连接,虚拟现实头戴式设备与视频处理计算机连接,视景处理计算机和视频处理计算机连接,3D深度摄像头与虚拟现实头戴式设备连接;模拟器操作仪表和显示屏与视景处理计算机连接,所述追踪***与所述视景处理计算机连接,其中,所述3D深度摄像头用于采集视频图像,所述追踪***根据所述3D深度摄像头拍摄的视频图像,标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;所述视频处理计算机用于采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取;所述视景处理计算机用于采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像;所述模拟器操作仪表和显示屏用于提供仪表面板按钮以供用户输入操作指令,操作信号会在视景处理计算机进行处理,处理结果会在虚拟现实头戴式设备向所述用户进行呈现。
进一步,所述视景处理计算机采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
进一步,所述3D深度摄像头安装于虚拟现实头戴式设备上。
进一步,所述3D深度摄像头采集的视频图像,包括:彩***、深度视频和红外视频。
进一步,所述追踪***安装于所述模拟器上,用于监测用户的头位姿态位置数据,并发送至所述视景处理计算机。
进一步,所述虚拟现实头戴式设备通过USB3.0和HDMI接口与视景处理计算机连接3D深度摄像头通过USB3.0与视频处理计算机连接,视景处理计算机和视频处理计算机之间通过LAN连接,3D深度摄像头与虚拟现实头戴式设备连接;模拟器操作仪表和显示屏通过USB3.0与视景处理计算机连接,所述追踪***通过USB3.0接口与所述视景处理计算机连接。
根据本发明实施例的介导现实中的基于多重空间定位的前景抽取方法及***,采用以下技术:3D深度图像的预处理、标记点抽取物理空间前景图像、对齐物理空间和虚拟空间的标记点、计算标记点在虚拟空间深度、结合虚拟和物理空间深度计算对齐误差和着色器程序抽取模型遮罩下的视频图像等技术,对每帧拍摄视频和虚拟场景图像中的所有特征点进行逐一匹配,误差分析得到误差在图像总像素的千分之一左右,并且处理速度可以达到每秒平均30帧,比其他算法快2-3倍,通过对方案中的结果进行人眼和软件分析,人眼看不出误差。本发明结合了物理空间和虚拟空间的定位方法,区别于现有的仅对物理空间进行定位的方式。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的介导现实中的基于多重空间定位的前景抽取方法的流程图;
图2为根据本发明一个实施例的介导现实中的基于多重空间定位的前景抽取方法的流程图;
图3为根据本发明实施例的前景抽取的效果图;
图4为根据本发明一个实施例的介导现实中的基于多重空间定位的前景抽取***的结构图;
图5为根据本发明另一个实施例的介导现实中的基于多重空间定位的前景抽取***的结构图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
如图1和图2所示,本发明实施例的介导现实中的基于多重空间定位的前景抽取方法,包括如下步骤:
步骤S1,制作等比例模型,并使用反差大的单一颜色,注上标记点。
步骤S2,使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并根据上述标定结果设置虚拟空间中摄像机位置,即VR头盔位置。
步骤S3,采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,从而可以将深度过大的背景进行剔除。然后,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取。
采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度。
具体地,使用着色器程序中的算法在视景处理计算机对虚拟场景进行实时截图,由于虚拟摄像机和物理摄像头的空间位置和相机参数不一样,需要进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点。并且,使用着色器程序中的算法计算虚拟场景中的模型特征点或标记点上的深度。图3为前景抽取的效果图。
步骤S4,结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
在本步骤中,采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色,然后抽取遮罩下的视频图像。
如图4和图5所示,本发明实施例还提出一种介导现实中的基于多重空间定位的前景抽取***,包括:虚拟现实头戴式设备100(VR头盔)、追踪***500、视景处理计算机300、视频处理计算机200、3D深度摄像头600、模拟器操作仪表和显示屏400。
在本发明的一个实施例中,虚拟现实头戴式设备100可以采用Oculus Rift虚拟现实设备。3D深度摄像头600采用ZED stereo Camera或者Intel RealSense SR300(此摄像头安装在Oculus Rift头戴式设备100(头盔)上。
此外,本发明的介导现实中的基于多重空间定位的前景抽取***采用下述三维引擎软件:
Unigine或Unity。
具体地,虚拟现实头戴式设备100与视景处理计算机300连接,虚拟现实头戴式设备100与视频处理计算机200连接,视景处理计算机300和视频处理计算机200连接,3D深度摄像头600与虚拟现实头戴式设备100连接;模拟器操作仪表和显示屏400与视景处理计算机300连接,追踪***500与视景处理计算机300连接。
在本发明的一个实施例中,虚拟现实头戴式设备100通过USB3.0和HDMI接口与视景处理计算机300连接,3D深度摄像头600通过USB3.0与视频处理计算机200连接,视景处理计算机300和视频处理计算机200之间通过LAN连接,3D深度摄像头600与虚拟现实头戴式设备100连接;模拟器操作仪表和显示屏400通过USB3.0与视景处理计算机300连接,追踪***500通过USB3.0接口与视景处理计算机300连接。
具体地,VR头戴式设备100需要连接至图形处理计算机(USB 3.0接口进行定位数据传输和HDMI接口高速传输影像数据)和220V电源。头戴式设备100上的3D摄像头和VR***500需要USB 3.0供电和数据传输。
具体地,3D深度摄像头600用于采集视频图像。其中,3D深度摄像头600采集的视频图像,包括:彩***、深度视频和红外视频。
追踪***500根据3D深度摄像头拍摄的视频图像,标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置。
此外,追踪***500用于监测用户的头位平台位置数据,并发送至视景处理计算机300。
在本发明的一个实施例中,3D深度摄像头600安装于虚拟现实头戴设备上,追踪***500安装于模拟器上。
视频处理计算机用于采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取。
视景处理计算机用于采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
在本发明的一个实施例中,视景处理计算机采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
模拟器操作仪表和显示屏400用于提供仪表键盘以供用户输入操作指令,操作信号会在视景处理计算机300进行处理,处理结果会在虚拟现实头戴式设备100向所述用户进行呈现。
根据本发明实施例的介导现实中的基于多重空间定位的前景抽取方法及***,采用以下技术:3D深度图像的预处理、标记点抽取物理空间前景图像、对齐物理空间和虚拟空间的标记点、计算标记点在虚拟空间深度、结合虚拟和物理空间深度计算对齐误差和着色器程序抽取模型遮罩下的视频图像等技术,对每帧拍摄视频和虚拟场景图像中的所有特征点进行逐一匹配,误差分析得到误差在图像总像素的千分之一左右,并且处理速度可以达到每秒平均30帧,比其他算法快2-3倍,通过对方案中的结果进行人眼和软件分析,人眼看不出误差。本发明结合了物理空间和虚拟空间的定位方法,区别于现有的仅对物理空间进行定位的方式。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。
Claims (8)
1.一种介导现实中的基于多重空间定位的前景抽取方法,其特征在于,包括如下步骤:
步骤S1,制作等比例模型,并使用反差大的单一颜色,注上标记点;
步骤S2,使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;
步骤S3,采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取,
采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;
步骤S4,结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
2.如权利要求1所述的介导现实中的基于多重空间定位的前景抽取方法,其特征在于,在所述步骤S4中,采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
3.一种介导现实中的基于多重空间定位的前景抽取***,其特征在于,包括:虚拟现实头戴式设备、追踪***、视景处理计算机、视频处理计算机、3D深度摄像头、模拟器操作仪表和显示屏,其中,虚拟现实头戴式设备与视景处理计算机连接,视景处理计算机和视频处理计算机连接,3D深度摄像头与视频处理计算机连接;模拟器操作仪表和显示屏与视景处理计算机连接,所述追踪***与所述视景处理计算机连接,
其中,所述3D深度摄像头用于采集视频图像,
所述追踪***根据所述3D深度摄像头拍摄的视频图像,标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;
所述视频处理计算机用于采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩***和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取;
所述视景处理计算机用于采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像,其和视景图像融合后通过虚拟现实头戴式设备向用户进行呈现;
所述模拟器操作仪表和显示屏用于提供仪表面板按钮以供用户输入操作指令,操作信号会在视景处理计算机进行处理,处理结果会在虚拟现实头戴式设备向所述用户进行呈现。
4.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取***,其特征在于,所述视景处理计算机采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
5.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取***,其特征在于,所述3D深度摄像头安装于虚拟现实头戴式设备上。
6.如权利要求3或5所述的介导现实中的基于多重空间定位的前景抽取***,其特征在于,所述3D深度摄像头采集的视频图像,包括:彩***、深度视频和红外视频。
7.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取***,其特征在于,所述追踪***安装于所述模拟器操作仪表上,用于监测用户的头位姿态位置数据,并发送至所述视景处理计算机。
8.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取***,其特征在于,所述虚拟现实头戴式设备通过USB3.0和HDMI接口与视景处理计算机连接,3D深度摄像头通过USB3.0与视频处理计算机连接,视景处理计算机和视频处理计算机之间通过LAN连接,3D深度摄像头与虚拟现实头戴式设备连接;模拟器操作仪表和显示屏通过USB3.0与视景处理计算机连接,所述追踪***通过USB3.0接口与所述视景处理计算机连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710570923.4A CN107368188B (zh) | 2017-07-13 | 2017-07-13 | 介导现实中的基于多重空间定位的前景抽取方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710570923.4A CN107368188B (zh) | 2017-07-13 | 2017-07-13 | 介导现实中的基于多重空间定位的前景抽取方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107368188A CN107368188A (zh) | 2017-11-21 |
CN107368188B true CN107368188B (zh) | 2020-05-26 |
Family
ID=60306913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710570923.4A Expired - Fee Related CN107368188B (zh) | 2017-07-13 | 2017-07-13 | 介导现实中的基于多重空间定位的前景抽取方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107368188B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805985B (zh) * | 2018-03-23 | 2022-02-15 | 福建数***信息科技有限公司 | 虚拟空间方法和装置 |
CN114173020A (zh) * | 2021-12-31 | 2022-03-11 | 北京德火科技有限责任公司 | 一种应用于多虚拟演播室的前后景分离方法及*** |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989604A (zh) * | 2016-02-18 | 2016-10-05 | 合肥工业大学 | 一种基于kinect的目标物体三维彩色点云生成方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7236622B2 (en) * | 1999-08-25 | 2007-06-26 | Eastman Kodak Company | Method for forming a depth image |
US7720283B2 (en) * | 2005-12-09 | 2010-05-18 | Microsoft Corporation | Background removal in a live video |
JP2009276294A (ja) * | 2008-05-16 | 2009-11-26 | Toshiba Corp | 画像処理方法 |
JP4808267B2 (ja) * | 2009-05-27 | 2011-11-02 | シャープ株式会社 | 画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体 |
RU2426172C1 (ru) * | 2010-01-21 | 2011-08-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине |
US8818028B2 (en) * | 2010-04-09 | 2014-08-26 | Personify, Inc. | Systems and methods for accurate user foreground video extraction |
CN102737370B (zh) * | 2011-04-02 | 2015-07-01 | 株式会社理光 | 检测图像前景的方法及设备 |
CN102368810B (zh) * | 2011-09-19 | 2013-07-17 | 长安大学 | 一种半自动化对齐的视频融合***和方法 |
CN102622768B (zh) * | 2012-03-14 | 2014-04-09 | 清华大学 | 一种平面视频的深度图求取方法 |
CN103034330B (zh) * | 2012-12-06 | 2015-08-12 | 中国科学院计算技术研究所 | 一种用于视频会议的眼神交互方法及*** |
CN103337094B (zh) * | 2013-06-14 | 2016-05-18 | 西安工业大学 | 一种应用双目摄像机实现运动三维重建的方法 |
CN103440668B (zh) * | 2013-08-30 | 2017-01-25 | 中国科学院信息工程研究所 | 一种在线视频目标跟踪方法和装置 |
CN104978734B (zh) * | 2014-04-11 | 2019-06-18 | 北京数码视讯科技股份有限公司 | 前景图像的提取方法及装置 |
CN103905813B (zh) * | 2014-04-15 | 2016-02-24 | 福州大学 | 基于背景提取与分区修复的dibr空洞填补方法 |
CN105005992B (zh) * | 2015-07-07 | 2016-03-30 | 南京华捷艾米软件科技有限公司 | 一种基于深度图的背景建模和前景提取的方法 |
CN106295570B (zh) * | 2016-08-11 | 2019-09-13 | 北京暴风魔镜科技有限公司 | 交互遮挡过滤***和方法 |
CN106340064B (zh) * | 2016-08-25 | 2019-02-01 | 北京大视景科技有限公司 | 一种混合现实沙盘装置和方法 |
CN106803286A (zh) * | 2017-01-17 | 2017-06-06 | 湖南优象科技有限公司 | 基于多视点图像的虚实遮挡实时处理方法 |
-
2017
- 2017-07-13 CN CN201710570923.4A patent/CN107368188B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989604A (zh) * | 2016-02-18 | 2016-10-05 | 合肥工业大学 | 一种基于kinect的目标物体三维彩色点云生成方法 |
Non-Patent Citations (3)
Title |
---|
"Occlusion detection of real objects using contour based stereo matching";HAYASHI;《Proceedings of International Conference on Augmented Tele-existence》;20051231;第180-186页 * |
"增强现实中的虚实遮挡处理方法研究";田元;《中国博士学位论文全文数据库 信息科技辑》;20101130;全文 * |
"视频序列图像中运动目标检测与跟踪算法研究";宋佳声;《中国博士学位论文全文数据库 信息科技辑》;20141231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107368188A (zh) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101761751B1 (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
CN106530293B (zh) | 手工装配视觉检测防错方法及*** | |
CN107392853B (zh) | 双摄像头视频融合畸变校正与视点微调整方法及*** | |
US6734847B1 (en) | Method and device for processing imaged objects | |
CN109297413B (zh) | 一种大型筒体结构视觉测量方法 | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN113240741B (zh) | 基于图像差异的透明物体追踪方法、*** | |
CN112618026B (zh) | 远程手术数据融合交互显示***及方法 | |
CN110215284A (zh) | 一种可视化***和方法 | |
Seo et al. | A comparative study of in-field motion capture approaches for body kinematics measurement in construction | |
WO2004097612A2 (en) | A man-machine interface based on 3-d positions of the human body | |
JP4834424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN104933704B (zh) | 一种三维立体扫描方法及*** | |
KR101193223B1 (ko) | 인체 동작의 3d 모션 구현방법 | |
CN107368188B (zh) | 介导现实中的基于多重空间定位的前景抽取方法及*** | |
JP2021060868A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN108171728A (zh) | 基于混合相机***的无标记运动物体姿态恢复方法及装置 | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
CN111291746B (zh) | 影像处理***及影像处理方法 | |
CN109740458B (zh) | 一种基于视频处理的体貌特征测量方法及*** | |
CN107320118A (zh) | 一种计算碳纳米c形臂三维图像空间信息的方法及*** | |
CN106504257A (zh) | 一种放疗头部位置姿态测量装置和解算方法 | |
WO2008073563A1 (en) | Method and system for gaze estimation | |
WO2018173205A1 (ja) | 情報処理システム、その制御方法、及びプログラム | |
KR100362383B1 (ko) | 3차원 인터페이스를 채용한 동작 정보 후처리 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200526 |
|
CF01 | Termination of patent right due to non-payment of annual fee |