CN106326930A - 一种确定虚拟现实中被跟踪物***置的方法、装置及*** - Google Patents

一种确定虚拟现实中被跟踪物***置的方法、装置及*** Download PDF

Info

Publication number
CN106326930A
CN106326930A CN201610720693.0A CN201610720693A CN106326930A CN 106326930 A CN106326930 A CN 106326930A CN 201610720693 A CN201610720693 A CN 201610720693A CN 106326930 A CN106326930 A CN 106326930A
Authority
CN
China
Prior art keywords
image
tracked object
video camera
refractive body
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610720693.0A
Other languages
English (en)
Inventor
***
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Visipic Cool Technology Ltd Libability Co
Original Assignee
Beijing Visipic Cool Technology Ltd Libability Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Visipic Cool Technology Ltd Libability Co filed Critical Beijing Visipic Cool Technology Ltd Libability Co
Priority to CN201610720693.0A priority Critical patent/CN106326930A/zh
Publication of CN106326930A publication Critical patent/CN106326930A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种确定虚拟现实中被跟踪物***置的方法、装置及***,包括:利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;根据所述位置关系确定被跟踪物体在虚拟现实中的位置。因此,采用本方案能够在不给被跟踪物体附加较多功能的情况下,在虚拟现实中实现被跟踪物体的定位。

Description

一种确定虚拟现实中被跟踪物***置的方法、装置及***
技术领域
本发明涉及图像处理技术领域,特别涉及一种确定虚拟现实中被跟踪物***置的方法、装置及***。
背景技术
VR(Virtual Reality,虚拟现实)室内定位技术可以定位VR头显及手柄等VR设备在空间的实时位置,具有空间定位的VR设备不仅能更好地提供沉浸感,其产生的眩晕感也会大幅降低,整个画面可以像现实世界中一样根据我们的移动而真的动起来。所以说,室内定位技术对于VR桌面虚拟现实设备非常重要。
目前典型定位技术的代表主要有激光定位技术、光学定位技术,其中,HTC vive所用的Lighthouse技术属于激光定位技术,Oculus Rift以及索尼PlayStation VR所用的定位技术属于光学定位技术,其中Oculus Rift是红外主动式光学技术,索尼PlayStation VR则是可见光主动式光学技术。
1、HTC Vive的Lighthouse室内定位技术
HTC的Lighthouse室内定位技术属于激光扫描定位技术,靠激光和光敏传感器来确定运动物体的位置。两个激光发射器被安置在对角,形成大小可调的长方形区域。激光束由发射器里面的两排固定LED灯发出,每秒6次。每个激光发射器内有两个扫描模块,分别在水平和垂直方向轮流对定位空间发射激光扫描定位空间。
HTC Vive头显和手柄上有超过70个光敏传感器。通过计算接收激光的时间来计算传感器位置相对于激光发射器的准确位置,通过多个光敏传感器可以探测出头显的位置及方向。
2、Oculus Rift的定位技术
Oculus Rift采用的是主动式光学定位技术。Oculus Rift设备上会隐藏着一些红外灯(即为标记点),这些红外灯向外发射红外光,并用两台红外摄像机实时拍摄。所谓的红外摄像机就是在摄像机外加装红外光滤波片,这样摄像机只能拍摄到头显以及手柄(Oculus touch)上红外灯,从而过滤掉头显及手柄周围环境的可见光信号,提高了获得图像的信噪比,增加了***的鲁棒性。
此外,Oculus Rift产品还配备了九轴传感器,在红外光学定位发生遮挡或者模糊时,利用九轴传感器来计算设备的空间位置信息。由于九轴会存在明显的零偏和漂移,那在红外光学定位***可以正常工作时又可以利用其所获得的定位信息校准九轴所获得的信息,使得红外光学定位与九轴相互弥补。
3、PlayStation VR的定位技术
PlayStation VR采用的也是光学定位,不同于Oculus Rift的是,它采用的是可见光主动式光学定位技术。
PlayStation VR设备采用体感摄像头和类似之前PS Move的彩色发光物体追踪,去定位人头部和控制器的位置。头显和手柄上会放LED灯球,每个手柄、头显上各装配一个。这些LED光球可以自行发光,且不同光球所发的光颜色不同,这样在摄像头拍摄时,光球与背景环境、各个光球之间都可以很好的区分。PS4采用了体感摄像头,即双目摄像头,利用两个摄像头拍摄到的图片计算光球的空间三维坐标。
现有技术的不足在于:需要使被跟踪物体具备较多功能才能在定位过程中实现定位。
发明内容
本发明提供了一种确定虚拟现实中被跟踪物***置的方法、装置及***,用以在不给被跟踪物体附加较多功能的情况下,在虚拟现实中实现被跟踪物体的定位。
本发明实施例中提供了一种确定虚拟现实中被跟踪物***置的方法,包括:
利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;
确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;
根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;
根据所述位置关系确定被跟踪物体在虚拟现实中的位置。
较佳地,所述反光体有多个;
每一反光体因反射的光线在所述反光点部分中形成一个反光图像;
所述反光点部分包括至少4个反光图像。
较佳地,所述反光点部分包括的至少4个反光图像对应的各反光体不在同一平面上。
较佳地,所述根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系,具体包括:
确定所述反光点部分包括的至少4个反光图像的图像坐标;
确定所述反光点部分包括的至少4个反光图像对应的各反光体的相对位置;
根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系。
较佳地,所述根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系,具体包括:
根据所述图像坐标和所述相对位置确定的所述各反光体的空间几何关系,确定被跟踪物体与摄像机之间的位置关系;
或,采用人工神经网络算法得到人工神经网络模型,将所述图像坐标输入所述人工神经网络模型,得到被跟踪物体与摄像机之间的位置关系。
较佳地,所述采用人工神经网络算法得到人工神经网络模型,具体包括:
采集被跟踪物体的图像得到人工神经网络模型数据样本的输入数据和输出数据,所述输入数据为反光点部分包括的至少4个反光图像的图像坐标,所述输出数据为被跟踪物体与摄像机之间的位置关系;
根据所述人工神经网络模型数据样本的输入数据和输出数据进行训练得到人工神经网络模型。
较佳地,所述图像坐标是利用特征提取算法确定的。
较佳地,所述特征提取算法提取的反光图像的特征为颜色特征和/或边缘特征。
较佳地,根据所述位置关系确定被跟踪物体在虚拟现实中的位置,具体包括:
对所述摄像机进行标定;
获取摄像机标定参数;
根据所述位置关系和所述摄像机标定参数确定被跟踪物体在虚拟现实中的位置。
较佳地,所述摄像机标定参数包括旋转矩阵和平移向量。
较佳地,进一步包括:
利用辅助光源照射被跟踪物体。
较佳地,所述辅助光源为红外光源。
较佳地,所述反光材料为反光膜或反光粉。
本发明实施例中提供了一种确定虚拟现实中被跟踪物***置的装置,包括:
获取模块,用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;
第一确定模块,用于确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;
第二确定模块,用于根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;
第三确定模块,用于根据所述位置关系确定被跟踪物体在虚拟现实中的位置。
较佳地,获取模块进一步用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的多个反光体;
第一确定模块进一步用于确定所述图像中的至少4个反光图像,每一反光体因反射的光线在所述反光点部分中形成一个反光图像。
较佳地,第一确定模块进一步用于确定所述图像中的至少4个反光图像,4个反光图像对应的各反光体不在同一平面上。
较佳地,第二确定模块进一步用于:
确定所述反光点部分包括的至少4个反光图像的图像坐标;
确定所述反光点部分包括的至少4个反光图像对应的各反光体的相对位置;
根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系。
较佳地,第二确定模块进一步用于:
根据所述图像坐标和所述相对位置确定的所述各反光体的空间几何关系,确定被跟踪物体与摄像机之间的位置关系;
或,采用人工神经网络算法得到人工神经网络模型,将所述图像坐标输入所述人工神经网络模型,得到被跟踪物体与摄像机之间的位置关系。
较佳地,第二确定模块进一步用于:
采集被跟踪物体的图像得到人工神经网络模型数据样本的输入数据和输出数据,所述输入数据为反光点部分包括的至少4个反光图像的图像坐标,所述输出数据为被跟踪物体与摄像机之间的位置关系;
根据所述人工神经网络模型数据样本的输入数据和输出数据进行训练得到人工神经网络模型。
较佳地,第二确定模块进一步用于利用特征提取算法确定所述图像坐标。
较佳地,第二确定模块进一步用于利用特征提取算法提取反光图像的颜色特征和/或边缘特征来确定所述图像坐标。
较佳地,第三确定模块进一步用于:
对所述摄像机进行标定;
获取摄像机标定参数;
根据所述位置关系和所述摄像机标定参数确定被跟踪物体在虚拟现实中的位置。
较佳地,第三确定模块进一步用于获取摄像机标定参数,所述摄像机标定参数包括旋转矩阵和平移向量。
较佳地,进一步包括:辅助光源模块,用于利用辅助光源照射被跟踪物体。
较佳地,辅助光源模块进一步用于利用红外光源照射被跟踪物体。
较佳地,获取模块进一步用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光膜或反光粉制成的反光体。
本发明实施例中提供了一种用于虚拟现实的定位***,包括:摄像机、反光体及所述的确定虚拟现实中被跟踪物***置的装置;其中:
所述摄像机,用于获取图像;
所述确定虚拟现实中被跟踪物***置的装置,用于确定所述摄像机采集的图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;根据所述反光点部分确定贴有反光体的物体与摄像机之间的位置关系;根据所述位置关系确定贴有反光体的物体在虚拟现实中的位置。
较佳地,所述摄像机,进一步包括对所述虚拟现实设备进行照射的辅助光源设备。
较佳地,所述辅助光源设备为红外线发射设备。
较佳地,所述摄像机为红外摄像机。
本发明有益效果如下:
在本发明实施例提供的技术方案中,由于被跟踪物体贴有由反光材料制成的反光体,而不需要安装额外的电子器件,如:传感器,发光设备等,利用摄像机获取被跟踪物体的图像后,确定图像中因反光体反射的光线而形成的反光点部分,根据反光点部分确定被跟踪物体与摄像机之间的位置关系,然后根据所述位置关系确定被跟踪物体在虚拟现实中的位置,因此,仅仅只需要给被跟踪物体贴上反光材料制成的反光体即可在虚拟现实中实现被跟踪物体的定位,无疑,本申请提供了一种廉价而灵活的定位方案。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例中确定虚拟现实中被跟踪物***置的方法实施流程示意图;
图2为本发明实施例中虚拟现实设备示意图;
图3为本发明实施例中虚拟现实头盔示意图;
图4为本发明实施例中应用场景示意图;
图5为本发明实施例中虚拟现实中被跟踪物体空间定位方法实施流程示意图(a);
图6为本发明实施例中虚拟现实中被跟踪物体空间定位方法实施流程示意图(b);
图7为本发明实施例中确定虚拟现实中被跟踪物***置的装置结构示意图;
图8为本发明实施例中用于虚拟现实的定位***示意图。
具体实施方式
发明人在发明过程中注意到:
在虚拟现实等应用环境中,需要实时采集头盔、手柄、手套等设备的位置与方向。可以发现,目前对物体进行跟踪定位主要有两种技术路线:
(1)在被跟踪物体上安装检测电路
由专门的固定设备发出激光并对整个场地进行快速扫描,被跟踪物体根据接收到的激光的信号,推算出自己所在的位置与方向。
(2)被跟踪物体上不带检测电路
被跟踪物体上布置多个发光点,由计算机***实时检测各发光点位置,然后计算出被跟踪物体的位置与方向。
在这些现有的定位技术中,被跟踪物体都需要设置机电器件用以检测激光,或者需要发出可见光,因此需要电池、元器件,这将增加设备的重量、体积,还需要定期充电,用户使用不便。进一步的,这使得被跟踪物体和检测***的技术耦合度需要很高,通常都需要同一厂家生产制作,而这显然不利于技术推广。
可见,现有技术的不足在于:需要使被跟踪物体具备较多功能才能在定位过程中实现定位。也即:被跟踪物体负担太多。
然而,另一方面,虚拟现实刮起的风暴如今已经愈演愈烈,从形形色色的头盔和眼镜,到各种奇思妙想的交互设备,但VR头盔和眼镜的水准参差不齐;VR对***配置的要求很高,相关设备随身穿戴不易。因此,现有的技术中亟需一种廉价而灵活的定位方案。这里所说的定位,就是确定参与者在场馆中的空间位置,并反馈到所有参与的玩家和服务器上。
基于此,本发明实施例中提供了一种确定虚拟现实中被跟踪物***置的方案,下面结合附图对本发明的具体实施方式进行说明。
图1为确定虚拟现实中被跟踪物***置的方法实施流程示意图,如图所示,可以包括如下步骤:
步骤101、利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;
步骤102、确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;
步骤103、根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;
步骤104、根据所述位置关系确定被跟踪物体在虚拟现实中的位置。
在现有技术中,不管是被动的(如HTC Vive头显和手柄上有超过70个光敏传感器)还是主动的(如Oculus Rift设备上向外发射红外光),都需要大量电子元器件才能实现其功能,而在本申请中,被跟踪物体贴有由反光材料制成的反光体,一方面,被跟踪物体不需要具备较多功能,不需要增加额外的器件,仅贴有反光体即可;另一方面,反光体十分轻便,几乎不增加重量和体积,采用反光体可以减轻被跟踪物体的体积、重量。贴好反光体后,摄像机拍摄被跟踪物体,并将图像传送给计算机进行处理,摄像机可固定在一个位置。
容易看出,采用本申请方案后,一个可以预见的效果是,减少了被跟踪物体侧的负担,许多潜在的处理将可以布置在可以包含强大计算处理设备的另一侧,这将使得对被跟踪物体一侧的要求无限降低,而可以强化另一侧的数据处理,为集中式的数据处理等打下基础,使得定位***的使用更容易部署。
被跟踪物体可以为虚拟现实设备,具体为虚拟现实头盔,下面进行说明。
图2为虚拟现实设备示意图,包括:至少一个反光体201,其中:
反光体设置于虚拟现实设备表面,所述反光体由反光材料制成。
反光体由反光材料制成,反光材料也称逆反射材料。逆反射是反射光线从接近入射光线的反方向返回的一种反射。利用反光材料反射光线,成本低廉且行之有效。
实施中,在任一视角下,至少有4个反光体可视。
具体的,虚拟现实设备上贴有多个反光体,无论虚拟现实设备怎么移动和旋转,都要保证至少有4个反光体可视。
实施中,在任一视角下,可视的4个反光***于虚拟现实设备的至少两个平面上。
具体的,虚拟现实设备上贴有多个反光体,无论虚拟现实设备怎么移动和旋转,都要保证可视的4个反光***于虚拟现实设备的至少两个平面上。
实施中,进一步包括:
无线通信模块202,用于与外部设备进行数据交互。
具体的,对于虚拟现实设备来说,如果用户一边走动,一边体验的话,虚拟现实设备与电脑连线会使用户行动受限,需要注意连接的线,以防被绊倒。因而可以增加无线通信模块,可以与外部设备进行数据交互,以无线传输取代有线传输。
实施中,所述虚拟现实设备为以下任一设备:虚拟现实头盔,虚拟现实手套,虚拟现实手柄。
实施中,所述反光材料为反光膜或反光粉。
具体的,反光材料可以为反光膜或反光粉,反光膜是一种已制成薄膜可直接应用的逆反射材料,通常有白色、黄色、红色、绿色、蓝色、棕色、橙色、荧光黄色、荧光橙色、荧光黄绿色,国外还有荧光红色和荧光粉色;反光粉由一种玻璃为主粉体材料生产而成,颜色有银灰色和白色。此处反光材料不局限于反光膜或反光粉,能够反射光线的逆反射材料都可以实施。
下面以虚拟现实头盔为例进行说明。
图3为虚拟现实头盔示意图,如图所示,虚拟现实头盔表面贴有反光体,反光体由反光材料制成,反光体可由反光膜或反光粉制成。无论虚拟现实头盔怎样移动和旋转,都有至少4个反光体可视,而且这4个反光体不在被跟踪物体的同一平面上。
实施中,进一步包括:利用辅助光源照射被跟踪物体。
具体的,若反光体在可见光照射下亮度、区分度不够,则在摄像头处增加辅助光源,用以提高反光体在摄像头中的亮度和区分度。
实施中,所述辅助光源为红外光源。
具体的,辅助光源可以为发射红外线的光源,或者,摄像头可采用红外摄像头。
对于步骤102的实施,贴在被跟踪物体上的反光体反射光线(可见光或红外光),在图像中形成反光点。对图像中的反光点部分进行预处理,使得反光点部分的特征易提取,获取预处理后的图像中反光点中心的图像坐标。
实施中,所述反光体有多个;
每一反光体因反射的光线在所述反光点部分中形成一个反光图像;
所述反光点部分包括至少4个反光图像。
具体的,被跟踪物体上贴有多个反光体,无论被跟踪物体怎么移动和旋转,都要保证采集的图像中包括至少4个反光图像。反光图像是由反光体反射光线而形成的。
实施中,所述反光点部分包括的至少4个反光图像对应的各反光体不在同一平面上。
具体的,被跟踪物体上贴有多个反光体,无论被跟踪物体怎么移动和旋转,都要保证采集的图像中包括的至少4个反光图像对应的反光体不在同一平面上。
对于步骤103的实施,根据反光点部分中各反光点中心的图像坐标得到摄像机坐标系下被跟踪物体质心的三维坐标,也即被跟踪物体与摄像机之间的位置关系。
实施中,所述根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系,具体包括:
确定所述反光点部分包括的至少4个反光图像的图像坐标;
确定所述反光点部分包括的至少4个反光图像对应的各反光体的相对位置;
根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系。
具体的,根据反光点部分中至少4个反光点中心的图像坐标,以及这4个反光点对应的反光体的相对位置,得到摄像机坐标系下被跟踪物体质心的三维坐标,也即被跟踪物体与摄像机之间的位置关系。
实施中,所述根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系,具体包括:
根据所述图像坐标和所述相对位置确定的所述各反光体的空间几何关系,确定被跟踪物体与摄像机之间的位置关系;
或,采用人工神经网络算法得到人工神经网络模型,将所述图像坐标输入所述人工神经网络模型,得到被跟踪物体与摄像机之间的位置关系。
具体的,可以通过以下两种方案确定被跟踪物体与摄像机之间的位置关系。
方案一:根据单目视觉图像中4个反光点中心的图像坐标和被跟踪物体的定位标志点(对应的4个反光体)的几何信息利用空间投影法反算出被跟踪物体与摄像机之间的位置关系。具体的,确定4个反光点中心的图像坐标,首先获取以像素为单位的图像坐标系坐标(u1,v1),(u2,v2),(u3,v3),(u4,v4),再将该坐标转换为以mm为单位的图像坐标系坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)。根据4个反光点中心的图像坐标和这4个反光点对应的各反光体的相对位置,利用空间投影法反算出被跟踪物体在摄像机坐标系下的空间三维坐标。
方案二:利用人工神经网络算法得到人工神经网络模型,将单目视觉图像中4个反光点中心的图像坐标输入人工神经网络模型,便可得到被跟踪物体与摄像机之间的位置关系。
上述两个方案是以单目摄像机为例进行的说明,在具体实施中不限于单目摄像机,双目摄像机、多摄像机也可以实施,具体的空间投影法或人工神经网络算法可以根据实际情况进行相应调整。
实施中,所述采用人工神经网络算法得到人工神经网络模型,具体包括:
采集被跟踪物体的图像得到人工神经网络模型数据样本的输入数据和输出数据,所述输入数据为反光点部分包括的至少4个反光图像的图像坐标,所述输出数据为被跟踪物体与摄像机之间的位置关系;
根据所述人工神经网络模型数据样本的输入数据和输出数据进行训练得到人工神经网络模型。
具体的,首先采集跟踪物体的图像得到训练样本,将训练样本的数据加到网络输入端,同时将相应的期望输出与网络输出相比较,得到误差信号,以此控制权值连接强度的调整,经多次训练后收敛到一个确定的权值,得到确定的人工神经网络模型。
实施中,所述图像坐标是利用特征提取算法确定的。
具体的,利用特征提取算法提取图像中反光点部分的反光图像的特征,并得到中心像素点的图像坐标。
实施中,所述特征提取算法提取的反光图像的特征为颜色特征和/或边缘特征。
具体的,可以通过提取反光图像的颜色特征来识别反光点,和/或,通过提取反光图像的边缘特征来识别反光点。在具体实施中,并不局限于这两种特征,只要能识别出反光点的特征都可以。
对于步骤104的实施,将被跟踪物体在摄像机坐标系下的空间三维坐标转换为世界坐标系下的空间三维坐标。
实施中,根据所述位置关系确定被跟踪物体在虚拟现实中的位置,具体包括:
对所述摄像机进行标定;
获取摄像机标定参数;
根据所述位置关系和所述摄像机标定参数确定被跟踪物体在虚拟现实中的位置。
实施中,所述摄像机标定参数包括旋转矩阵和平移向量。
具体的,根据旋转矩阵和平移向量将摄像机坐标系下的空间三维坐标转换为世界坐标系下的空间三维坐标,也即虚拟现实中的位置(被跟踪物体质心在X、Y、Z三个坐标轴的坐标,以及与三个坐标轴的夹角)。
为了更清楚地理解本发明,下面以具体实施例进行说明。
实施例1
图4为应用场景示意图,如图所示,单目摄像机与计算机***相连,玩家持有虚拟现实手柄,虚拟现实手柄表面贴有反光体,反光体可由反光膜或反光粉制成。无论被跟踪物体怎样移动和旋转,都有至少4个反光体可视,而且这4个反光体不在同一平面上。被跟踪物体按照要求贴好反光体后,按照图5的步骤进行空间定位,并反馈到所有参与的玩家和服务器上。
图5为虚拟现实中被跟踪物体空间定位方法实施流程示意图(a),如图所示,可以包括如下步骤:
步骤501、摄像机拍摄被跟踪物体,并将图像传送给计算机进行处理;
步骤502、对图像进行预处理,获取预处理后的图像中4个反光点中心的图像坐标;
步骤503、获取这4个反光点对应的各反光体的相对位置;
步骤504、根据4个反光点中心的图像坐标以及这4个反光点对应的各反光体的相对位置并利用空间投影法反算出被跟踪物体质心在摄像机坐标系下的空间三维坐标;
步骤505、根据旋转矩阵和平移向量将摄像机坐标系下的空间三维坐标转换为世界坐标系下的空间三维坐标,并求出被跟踪物体质心在X、Y、Z三个坐标轴的坐标,以及与三个坐标轴的夹角。
实施例2
本实施例的应用场景与实施例1相同,被跟踪物体贴反光体的要求也相同,被跟踪物体按照要求贴好反光体后,按照图6的步骤进行空间定位,并反馈到所有参与的玩家和服务器上。
图6为虚拟现实中被跟踪物体空间定位方法实施流程示意图(b),如图所示,可以包括如下步骤:
步骤601、摄像机拍摄被跟踪物体,并将图像传送给计算机进行处理;
步骤602、对图像进行预处理,获取预处理后的图像中4个反光点中心的图像坐标;
步骤603、利用人工神经网络算法得到人工神经网络模型;
对于步骤603的实施,首先采集跟踪物体的图像得到训练样本,将训练样本的数据加到网络输入端,同时将相应的期望输出与网络输出相比较,得到误差信号,以此控制权值连接强度的调整,经多次训练后收敛到一个确定的权值。当样本情况发生变化时,经学习可以修改权值以适应新的环境。
步骤604、将4个反光点中心的图像坐标输入人工神经网络模型,得到被跟踪物体质心在摄像机坐标系下的空间三维坐标;
步骤605、根据旋转矩阵和平移向量将摄像机坐标系下的空间三维坐标转换为世界坐标系下的空间三维坐标,并求出被跟踪物体质心在X、Y、Z三个坐标轴的坐标,以及与三个坐标轴的夹角。
基于同一发明构思,本发明实施例中还提供了一种确定虚拟现实中被跟踪物***置的装置、一种用于虚拟现实的定位***,由于这些装置解决问题的原理与一种确定虚拟现实中被跟踪物***置的方法相似,因此这些装置的实施可以参见方法的实施,重复之处不再赘述。
图7为确定虚拟现实中被跟踪物***置的装置结构示意图,如图所示,装置中可以包括:
获取模块701,用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;
第一确定模块702,用于确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;
第二确定模块703,用于根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;
第三确定模块704,用于根据所述位置关系确定被跟踪物体在虚拟现实中的位置。
实施中,获取模块还可以进一步用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的多个反光体;
第一确定模块还可以进一步用于确定所述图像中的至少4个反光图像,每一反光体因反射的光线在所述反光点部分中形成一个反光图像。
实施中,第一确定模块还可以进一步用于确定所述图像中的至少4个反光图像,4个反光图像对应的各反光体不在同一平面上。
实施中,第二确定模块还可以进一步用于:
确定所述反光点部分包括的至少4个反光图像的图像坐标;
确定所述反光点部分包括的至少4个反光图像对应的各反光体的相对位置;
根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系。
实施中,第二确定模块还可以进一步用于:
根据所述图像坐标和所述相对位置确定的所述各反光体的空间几何关系,确定被跟踪物体与摄像机之间的位置关系;
或,采用人工神经网络算法得到人工神经网络模型,将所述图像坐标输入所述人工神经网络模型,得到被跟踪物体与摄像机之间的位置关系。
实施中,第二确定模块还可以进一步用于:
采集被跟踪物体的图像得到人工神经网络模型数据样本的输入数据和输出数据,所述输入数据为反光点部分包括的至少4个反光图像的图像坐标,所述输出数据为被跟踪物体与摄像机之间的位置关系;
根据所述人工神经网络模型数据样本的输入数据和输出数据进行训练得到人工神经网络模型。
实施中,第二确定模块还可以进一步用于利用特征提取算法确定所述图像坐标。
实施中,第二确定模块还可以进一步用于利用特征提取算法提取反光图像的颜色特征和/或边缘特征来确定所述图像坐标。
实施中,第三确定模块还可以进一步用于:
对所述摄像机进行标定;
获取摄像机标定参数;
根据所述位置关系和所述摄像机标定参数确定被跟踪物体在虚拟现实中的位置。
实施中,第三确定模块还可以进一步用于获取摄像机标定参数,所述摄像机标定参数包括旋转矩阵和平移向量。
实施中,还可以进一步包括:辅助光源模块,用于利用辅助光源照射被跟踪物体。
实施中,辅助光源模块还可以进一步用于利用红外光源照射被跟踪物体。
实施中,获取模块还可以进一步用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光膜或反光粉制成的反光体。
图8为用于虚拟现实的定位***示意图,如图所示,可以包括:摄像机801、反光体802及确定虚拟现实中被跟踪物***置的装置803;其中:
所述摄像机,用于获取图像;
所述确定虚拟现实中被跟踪物***置的装置,与图7中的确定虚拟现实中被跟踪物***置的装置功能相同,用于确定所述摄像机采集的图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;根据所述反光点部分确定贴有反光体的物体与摄像机之间的位置关系;根据所述位置关系确定贴有反光体的物体在虚拟现实中的位置。
实施中,所述摄像机,还可以进一步包括对所述虚拟现实设备进行照射的辅助光源设备804。
实施中,所述辅助光源设备为红外线发射设备。
实施中,所述摄像机为红外摄像机。
由上述内容可以看出,用于虚拟现实的定位***不依赖于被跟踪物体,对于任意物体仅需要按照要求贴好反光体即可,通用性强,有利于技术推广。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (11)

1.一种确定虚拟现实中被跟踪物***置的方法,其特征在于,包括:
利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;
确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;
根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;
根据所述位置关系确定被跟踪物体在虚拟现实中的位置。
2.根据权利要求1所述的方法,其特征在于,所述反光体有多个;
每一反光体因反射的光线在所述反光点部分中形成一个反光图像;
所述反光点部分包括至少4个反光图像。
3.根据权利要求2所述的方法,其特征在于,所述反光点部分包括的至少4个反光图像对应的各反光体不在同一平面上。
4.根据权利要求3所述的方法,其特征在于,所述根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系,具体包括:
确定所述反光点部分包括的至少4个反光图像的图像坐标;
确定所述反光点部分包括的至少4个反光图像对应的各反光体的相对位置;
根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系。
5.根据权利要求4所述的方法,其特征在于,所述根据所述图像坐标和所述相对位置确定被跟踪物体与摄像机之间的位置关系,具体包括:
根据所述图像坐标和所述相对位置确定的所述各反光体的空间几何关系,确定被跟踪物体与摄像机之间的位置关系;
或,采用人工神经网络算法得到人工神经网络模型,将所述图像坐标输入所述人工神经网络模型,得到被跟踪物体与摄像机之间的位置关系。
6.根据权利要求1所述的方法,其特征在于,根据所述位置关系确定被跟踪物体在虚拟现实中的位置,具体包括:
对所述摄像机进行标定;
获取摄像机标定参数;
根据所述位置关系和所述摄像机标定参数确定被跟踪物体在虚拟现实中的位置。
7.一种确定虚拟现实中被跟踪物***置的装置,其特征在于,包括:
获取模块,用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的反光体;
第一确定模块,用于确定所述图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;
第二确定模块,用于根据所述反光点部分确定被跟踪物体与摄像机之间的位置关系;
第三确定模块,用于根据所述位置关系确定被跟踪物体在虚拟现实中的位置。
8.根据权利要求7所述的装置,其特征在于,
获取模块进一步用于利用摄像机获取被跟踪物体的图像,所述被跟踪物体贴有由反光材料制成的多个反光体;
第一确定模块进一步用于确定所述图像中的至少4个反光图像,每一反光体因反射的光线在所述反光点部分中形成一个反光图像。
9.根据权利要求8所述的装置,其特征在于,第一确定模块进一步用于确定所述图像中的至少4个反光图像,4个反光图像对应的各反光体不在同一平面上。
10.一种用于虚拟现实的定位***,其特征在于,包括:摄像机、反光体及如权利要求7至9任一所述的确定虚拟现实中被跟踪物***置的装置;其中:
所述摄像机,用于获取图像;
所述确定虚拟现实中被跟踪物***置的装置,用于确定所述摄像机采集的图像中的反光点部分,所述反光点部分是因反光体反射的光线而形成的图像;根据所述反光点部分确定贴有反光体的物体与摄像机之间的位置关系;根据所述位置关系确定贴有反光体的物体在虚拟现实中的位置。
11.根据权利要求10所述的***,其特征在于,所述摄像机,进一步包括对所述虚拟现实设备进行照射的辅助光源设备。
CN201610720693.0A 2016-08-24 2016-08-24 一种确定虚拟现实中被跟踪物***置的方法、装置及*** Pending CN106326930A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610720693.0A CN106326930A (zh) 2016-08-24 2016-08-24 一种确定虚拟现实中被跟踪物***置的方法、装置及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610720693.0A CN106326930A (zh) 2016-08-24 2016-08-24 一种确定虚拟现实中被跟踪物***置的方法、装置及***

Publications (1)

Publication Number Publication Date
CN106326930A true CN106326930A (zh) 2017-01-11

Family

ID=57790691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610720693.0A Pending CN106326930A (zh) 2016-08-24 2016-08-24 一种确定虚拟现实中被跟踪物***置的方法、装置及***

Country Status (1)

Country Link
CN (1) CN106326930A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168515A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种vr一体机中手柄的定位方法和装置
CN107392961A (zh) * 2017-06-16 2017-11-24 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置
CN107577236A (zh) * 2017-09-27 2018-01-12 上海有个机器人有限公司 机器人自动归位充电方法、机器人、***以及存储介质
CN107631860A (zh) * 2017-09-26 2018-01-26 成都豪宇韬鹰科技有限公司 一种计算vr相机所需最少led灯数量的方法
CN108061879A (zh) * 2017-11-30 2018-05-22 歌尔科技有限公司 空间定位方法、装置、电子设备及***
CN108694871A (zh) * 2018-05-22 2018-10-23 山东捷瑞数字科技股份有限公司 一种基于大空间虚拟现实的多兵军事训练考核***
CN109344922A (zh) * 2018-09-06 2019-02-15 闫维新 一种具备运动捕捉功能的舞蹈动作评测***
CN109448456A (zh) * 2018-11-20 2019-03-08 北京农业智能装备技术研究中心 一种基于vr的生物防治教学***及其应用
CN110059621A (zh) * 2019-04-17 2019-07-26 青岛海信电器股份有限公司 手柄光球颜色的控制方法、装置及设备
CN110389352A (zh) * 2019-08-16 2019-10-29 国网内蒙古东部电力有限公司电力科学研究院 光学三维动作捕捉方法及***
CN110572635A (zh) * 2019-08-28 2019-12-13 重庆爱奇艺智能科技有限公司 一种用于手持控制设备追踪定位的方法、设备与***
CN110824498A (zh) * 2018-08-07 2020-02-21 杭州海康机器人技术有限公司 障碍物检测方法、装置及***
CN110837295A (zh) * 2019-10-17 2020-02-25 重庆爱奇艺智能科技有限公司 一种手持控制设备及其追踪定位的方法、设备与***
CN112097637A (zh) * 2019-06-18 2020-12-18 株式会社三丰 测量设备
CN116841415A (zh) * 2023-07-05 2023-10-03 湖南兴悦科技有限公司 一种防跳点触摸屏控制***及触摸屏

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184650A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 仮想現実空間システム
CN104764520A (zh) * 2015-04-10 2015-07-08 上海理工大学 低帧率相机大视场振动测量装置
CN105359063A (zh) * 2013-06-09 2016-02-24 索尼电脑娱乐公司 利用追踪的头戴式显示器
CN105765971A (zh) * 2013-11-27 2016-07-13 尤特瑞登特生产公司 物理位置之间的视频交互
US20160203642A1 (en) * 2015-01-14 2016-07-14 Oculus Vr, Llc Passive locators for a virtual reality headset
CN105867611A (zh) * 2015-12-29 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实***中的空间定位方法、装置及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184650A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 仮想現実空間システム
CN105359063A (zh) * 2013-06-09 2016-02-24 索尼电脑娱乐公司 利用追踪的头戴式显示器
CN105765971A (zh) * 2013-11-27 2016-07-13 尤特瑞登特生产公司 物理位置之间的视频交互
US20160203642A1 (en) * 2015-01-14 2016-07-14 Oculus Vr, Llc Passive locators for a virtual reality headset
CN104764520A (zh) * 2015-04-10 2015-07-08 上海理工大学 低帧率相机大视场振动测量装置
CN105867611A (zh) * 2015-12-29 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实***中的空间定位方法、装置及***

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168515A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种vr一体机中手柄的定位方法和装置
CN107392961A (zh) * 2017-06-16 2017-11-24 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置
WO2018227900A1 (zh) * 2017-06-16 2018-12-20 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置
US10997745B2 (en) 2017-06-16 2021-05-04 Huaqin Technology Co., Ltd. Augmented reality based method and apparatus for spatial positioning
CN107392961B (zh) * 2017-06-16 2019-12-06 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置
CN107631860B (zh) * 2017-09-26 2019-10-25 成都国翼电子技术有限公司 一种计算vr相机所需最少led灯数量的方法
CN107631860A (zh) * 2017-09-26 2018-01-26 成都豪宇韬鹰科技有限公司 一种计算vr相机所需最少led灯数量的方法
CN107577236A (zh) * 2017-09-27 2018-01-12 上海有个机器人有限公司 机器人自动归位充电方法、机器人、***以及存储介质
CN108061879A (zh) * 2017-11-30 2018-05-22 歌尔科技有限公司 空间定位方法、装置、电子设备及***
CN108694871A (zh) * 2018-05-22 2018-10-23 山东捷瑞数字科技股份有限公司 一种基于大空间虚拟现实的多兵军事训练考核***
CN110824498A (zh) * 2018-08-07 2020-02-21 杭州海康机器人技术有限公司 障碍物检测方法、装置及***
CN109344922A (zh) * 2018-09-06 2019-02-15 闫维新 一种具备运动捕捉功能的舞蹈动作评测***
CN109448456A (zh) * 2018-11-20 2019-03-08 北京农业智能装备技术研究中心 一种基于vr的生物防治教学***及其应用
CN110059621A (zh) * 2019-04-17 2019-07-26 青岛海信电器股份有限公司 手柄光球颜色的控制方法、装置及设备
CN112097637A (zh) * 2019-06-18 2020-12-18 株式会社三丰 测量设备
CN110389352A (zh) * 2019-08-16 2019-10-29 国网内蒙古东部电力有限公司电力科学研究院 光学三维动作捕捉方法及***
CN110572635A (zh) * 2019-08-28 2019-12-13 重庆爱奇艺智能科技有限公司 一种用于手持控制设备追踪定位的方法、设备与***
CN110837295A (zh) * 2019-10-17 2020-02-25 重庆爱奇艺智能科技有限公司 一种手持控制设备及其追踪定位的方法、设备与***
CN116841415A (zh) * 2023-07-05 2023-10-03 湖南兴悦科技有限公司 一种防跳点触摸屏控制***及触摸屏
CN116841415B (zh) * 2023-07-05 2024-03-29 湖南兴悦科技有限公司 一种防跳点触摸屏控制***及触摸屏

Similar Documents

Publication Publication Date Title
CN106326930A (zh) 一种确定虚拟现实中被跟踪物***置的方法、装置及***
CN206400472U (zh) 一种虚拟现实设备及其定位***
US10488659B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
CN107209950A (zh) 从现实世界材料自动生成虚拟材料
CN110192390A (zh) 头戴式显示器的光场捕获和渲染
CN107004279A (zh) 自然用户界面相机校准
US20120242800A1 (en) Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use
KR102369989B1 (ko) 적외선 이미징을 사용한 색상 식별
US11156843B2 (en) End-to-end artificial reality calibration testing
CN110476148A (zh) 用于提供多视图内容的显示***和方法
TW202011252A (zh) 使用人工智慧模型的臉部辨識模組
CN109190484A (zh) 图像处理方法、装置和图像处理设备
CN105210093A (zh) 捕获和显示外观的装置、***和方法
CN110230983A (zh) 抗振式光学三维定位方法及装置
US20230269364A1 (en) Rolling shutter camera pipeline exposure timestamp error determination
CN108227929A (zh) 基于bim技术的增强现实放样***及实现方法
CN103593641B (zh) 基于立体摄像机的物体检测方法和装置
CN106537217B (zh) 宽视野深度成像
US10893190B2 (en) Tracking image collection for digital capture of environments, and associated systems and methods
US20220239886A1 (en) Depth sculpturing of three-dimensional depth images utilizing two-dimensional input selection
US11259008B2 (en) Sensor misalignment compensation
CN108257177A (zh) 基于空间标识的定位***与方法
CN109999483A (zh) 一种红外激光识别***
CN106991699A (zh) 控制方法及电子设备
CN205899162U (zh) 一种基于led光源的散斑投射器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20170829

Address after: 100085 Beijing Haidian District information on Road No. 19 is the commercial center of four layers of 402D micro Cool Company

Applicant after: BEIJING VISIPIC COOL TECHNOLOGY LIMITED LIBABILITY COMPANY

Address before: 100085 Beijing Haidian District information on Road No. 19 is the commercial center of four layers of 402D micro Cool Company

Applicant before: Wang Zhongmin

Applicant before: BEIJING VISIPIC COOL TECHNOLOGY LIMITED LIBABILITY COMPANY

TA01 Transfer of patent application right
RJ01 Rejection of invention patent application after publication

Application publication date: 20170111

RJ01 Rejection of invention patent application after publication