CN113242421A - 相机校准方法、装置及虚拟现实设备 - Google Patents
相机校准方法、装置及虚拟现实设备 Download PDFInfo
- Publication number
- CN113242421A CN113242421A CN202110362554.6A CN202110362554A CN113242421A CN 113242421 A CN113242421 A CN 113242421A CN 202110362554 A CN202110362554 A CN 202110362554A CN 113242421 A CN113242421 A CN 113242421A
- Authority
- CN
- China
- Prior art keywords
- camera
- point cloud
- observation point
- environment
- cloud information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000007613 environmental effect Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
本公开涉及一种相机校准方法、装置及虚拟现实设备,根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息;根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型;根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息;根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
Description
技术领域
本公开实施例涉及电学技术领域,更具体地,涉及一种相机校准方法、一种相机校准装置和一种虚拟现实设备。
背景技术
为了确保准确性,在相机被用于采集测量数据或计算机视觉及相关应用程序中的其他数据之前,一般会对摄像机进行校准。
目前,在虚拟现实设备出厂之前,会对虚拟现实设备中的相机进行校准。
但是虚拟现实设备在出厂后难免受到碰撞,使得相机在虚拟现实设备中发生相应位置移动,从而影响相机采集数据的准确性。
发明内容
本公开实施例的一个目的是提供一种校准相机的新的技术方案。
根据本公开的第一方面,提供了一种相机校准方法,包括:根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息;根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型;根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息;根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
可选地,所述方法还包括:以对所述校准模型进行校准而得到的目标校准模型再次作为所述校准模型,并执行所述根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型的步骤。
可选地,所述根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准,包括:获取对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值;检测所述位置差值是否不大于设定的差值阈值;在所述位置差值大于所述差值阈值的情况下,对所述校准模型进行校准;
所述方法还包括:在所述位置差值不大于所述差值阈值的情况下,根据最新生成的环境模型生成虚拟现实图像;执行设定的操作,以使内置有所述相机的虚拟现实设备显示所述虚拟现实图像。
可选地,所述根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息,包括:获取所述相机采集的环境图像;检测所述环境图像上的环境特征点;获取所述环境特征点相对设定坐标系的第一观测点云信息;根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息。
可选地,所述方法还包括:获取目标虚拟现实设备中的惯性传感器采集的惯性导航数据,所述目标虚拟现实设备为内置有所述相机的虚拟现实设备;
所述根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息,包括:根据所述第一观测点云信息和所述惯性导航数据,获得所述相机的对应所述环境图像的位姿信息。
可选地,所述根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准,包括:根据对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值,对所述校准模型的模型参数进行修正,以对所述校准模型进行校准;其中,所述模型参数包括:所述相机的内参、所述相机的畸变参数、所述相机与目标虚拟现实设备中的惯性传感器之间的位置关系参数中的一个或多个;所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
根据本公开的第二方面,还提供了一种相机校准装置,包括:第一处理模块,用于根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息;环境模型生成模块,用于根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型;第二处理模块,用于根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息;以及,校准模型校准模块,用于根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
根据本公开的第三方面,还提供了一种相机校准装置,包括存储器和处理器,所述存储器用于存储计算机程序;所述处理器用于执行所述计算机程序,以实现根据本公开第一方面所述的方法。
根据本公开的第四方面,还提供了一种虚拟现实设备,包括:相机和根据本公开的第二方面或第三方面所述的相机校准装置。
根据本公开的第四方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序在被处理器执行时实现根据本公开的第一方面所述的方法。
本公开实施例的一个有益效果在于,可以根据相机采集的环境图像生成相机所在三维空间环境的环境模型,进而根据生成的环境模型对相机的校准模型进行校准。如此,在虚拟现实设备出厂后,可以结合环境重建的信息实时动态修正相机校准模型,使得即使相机在虚拟现实设备中发生相应位置移动,也可保证相机采集数据的准确性。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开实施例的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开实施例的原理。
图1是能够应用根据一个实施例的相机校准方法的电子设备的组成结构的示意图;
图2是根据一个实施例的相机校准方法的流程示意图;
图3是根据另一个实施例的相机校准方法的流程示意图;
图4是根据一个实施例的相机校准装置的方框原理图;
图5是根据一个实施例的电子设备的硬件结构示意图;
图6是根据一个实施例的虚拟现实设备的方框原理图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例的一个应用场景为对虚拟现实设备中的相机进行校准。
为了实现相机校准目的,一种可选的实施方式为:在虚拟现实设备出厂之前,在工厂通过设计特定校准工装和校准软件来计算相机参数,以对虚拟现实设备中的相机进行校准。但在这一实现方式下,发明人发现虚拟现实设备在出厂后难免受到碰撞,使得相机在虚拟现实设备中发生相应位置移动,造成已有的相机参数不适用于位置移动后的相机,从而影响相机采集数据的准确性。
针对以上实施方式存在的技术问题,发明人提出了一种相机校准方法,可以根据相机采集的环境图像生成相机所在三维空间环境的环境模型,进而根据生成的环境模型对相机的校准模型进行校准。如此,在虚拟现实设备出厂后的使用过程中,可以结合环境重建的信息实时动态修正相机校准模型,使得即使相机在虚拟现实设备中发生相应位置移动,由于校准后的相机校准模型可以适用于位置移动后的相机,故而可以保证相机采集数据的准确性。
<硬件配置>
图1示出了可以实现本发明的实施例的电子设备1000的硬件配置的示意图。该电子设备1000可以应用于相机校准场景。
电子设备1000可以是智能手机、便携式电脑、台式计算机、平板电脑、服务器等,在此不做限定。
该电子设备1000的硬件配置可以包括但不限于处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100可以是中央处理器CPU、图形处理器GPU、微处理器MCU等,用于执行计算机程序,该计算机程序可以采用比如x86、Arm、RISC、MIPS、SSE等架构的指令集编写。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、串行接口、并行接口等。通信装置1400例如能够利用光纤或电缆进行有线通信,或者进行无线通信,具体地可以包括WiFi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。用户可以通过扬声器1700和麦克风1800输入/输出语音信息。
应用于本公开实施例中,电子设备1000的存储器1200用于存储指令,所述指令用于控制所述处理器1100进行操作以支持实现根据本公开任意实施例的相机校准方法。技术人员可以根据本公开所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。该电子设备1000可以安装有智能操作***(例如Windows、Linux、安卓、IOS等***)和应用软件。
本领域技术人员应当理解,尽管在图1中示出了电子设备1000的多个装置,但是,本公开实施例的电子设备1000可以仅涉及其中的部分装置,例如,只涉及处理器1100和存储器1200。这是本领域公知,此处不再赘述。
下面,参照附图描述根据本发明的各个实施例和例子。
<方法实施例>
图2是根据一个实施例的相机校准方法的流程示意图。本实施例的实施主体例如为图1所示的电子设备1000。
如图2所示,本实施例的相机校准方法可以包括如下步骤S210~S240:
步骤S210,根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息。
详细地,该相机可以为虚拟现实设备中内置的相机。在可行的实现方式下,该虚拟现实设备可以为虚拟现实头戴式一体机。
本实施例中,相机用于捕捉物理世界环境信息。在可行的实现方式下,该相机可以为单色(Monochrome)相机。一个虚拟现实设备中可以内置有2个及以上单色相机。
考虑到相机分辨率越高可使得重建精度越高,但过高的分辨率会增大计算负载,故而在综合考虑混合现实***使用精度和计算负载的情况下,本实施例中,上述相机的分辨率可以优选为640*480。
考虑到捕捉范围越大越有利于3D重建,但是范围越大相机的光学畸变越大,使得重建精度越有损失,故而在综合考虑重建效果的情况下,本实施例中,上述相机的相机捕捉范围可以优选为153°*120°*167°(H*V*D)左右(比如任一视角取值的上下浮动量不超过设定值,该设定值比如可以为1°、3°、5°等)。其中,D表示对角线视角,H表示水平方向视角,V表示垂直方向视角。
基于上述内容,在可行的实现方式下,上述相机的主要配置可以如下所述:分辨率为640*480、捕捉范围为153°*120°*167°(H*V*D)。
详细地,上述环境图像可以为相机采集到的任一帧图像,该环境图像可以反映在相机采集图像时,相机与相机所在三维空间环境中其他物体间的空间相对位置关系。
详细地,一个环境图像中可以有一个或多个环境特征点。步骤S210中的环境特征点可以为相应环境图像中的任一环境特征点,其中,每一个环境特征点均对应有一个第一观测点云信息。
详细地,相机的对应环境图像的位姿信息,可以为相机在采集环境图像时,在三维空间环境中的位置和姿态的信息。
在本公开一个实施例中,可以在相机启动时执行本实施例的相机校准方法,以及还可以在相机使用过程中,按照设定的时间间隔周期性的执行该相机校准方法。
在本公开一个实施例中,为了说明获取第一观测点云信息和位置信息的可能实现方式,所述步骤S210,根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息,可以包括以下步骤S2101~步骤S2104:
步骤S2101,获取所述相机采集的环境图像。
本实施例中,相机用于捕获其所在三维空间环境的环境图像。获取到的环境图像的个数为一个或多个。通常情况下,相机在不同位姿下捕获到的环境图像不同。
步骤S2102,检测所述环境图像上的环境特征点。
本实施例中,对于步骤S2101中获取到的每一环境图像,可以通过特征点检测方法,实时检测相机捕获的环境图像上的环境特征点。检测到的环境特征点的个数为一个或多个。
步骤S2103,获取所述环境特征点相对设定坐标系的第一观测点云信息。
本实施例中,对于步骤S2102中检测到的每一环境特征点,可以通过立体匹配技术和计算机视觉技术,获取该环境特征点相对设定坐标系下的环境三维空间观测点云信息(即第一观测点云信息,第一观测点云信息为确定的观测点云信息)。
详细地,该设定坐标系可以为世界坐标系。
步骤S2104,根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息。
本实施例中,对于任一环境图像,基于该环境图像中环境特征点的第一观测点云信息,来获得相机在采集该环境图像时的位姿信息。
在本公开一个实施例中,对于虚拟现实设备中内置有惯性传感器的情况,所述方法还包括:获取目标虚拟现实设备中的惯性传感器采集的惯性导航数据。所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
详细地,在虚拟现实设备中,尤其在虚拟现实头戴式一体机设备中,优选可内置两个及以上的环境捕捉摄像机(即上述相机),此外还可内置惯性传感器(InertialMeasurement Unit,IMU)。其中,惯性传感器采集到的惯导数据可用于获得相机的位姿信息。
基于此,所述步骤S2104,根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息,包括:根据所述第一观测点云信息和所述惯性导航数据,获得所述相机的对应所述环境图像的位姿信息。
本实施例中,可通过相机实时捕捉三维空间环境图像,并配合惯性传感器采集到的惯导数据,来计算相机在拍摄环境图像时相对三维空间环境的位置和姿态信息(6DoF),即获得相机对应该环境图像的位姿信息。其中,6D0F通常指代6个方向自由度,具体为沿三个方向的平动以及绕三个轴的转动。
具体的,结合上述第一观测点云信息和惯性传感器采集的惯导数据,可通过6DoF定位追踪模块获取相机相对环境图像的三维空间环境信息的位姿信息。
在本公开其他实施例中,对于虚拟现实设备中未内置有惯性传感器的情况,还可根据虚拟现实设备的其他参数变化并结合上述第一观测点云信息,来获得相机在采集该环境图像时的位姿信息。
步骤S220,在步骤S210获得所述第一观测点云信息和所述位姿信息之后,根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型。
该步骤中,结合获得的三维空间环境的位姿信息、相机的校准模型、和获得的三维空间环境的第一观测点云信息,以生成环境几何形状的环境模型。该带有环境几何形状信息的环境模型即可以为对三维空间环境的数字重建信息。其中,在环境模型中的每一个顶点可以表示三维环境中的一个观测点云信息和对应一个相对三维空间环境信息的位姿信息。
本实施例中,相机校准模型的模型参数的初始值,可以为虚拟现实设备出厂时的相机校准模型的模型参数值,即本实施例以相机设备出厂时的相机校准模型为基础,来优化相机的校准模型。
步骤S230,根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息。
本实施例中,根据步骤S210得到的所述第一观测点云信息和所述位姿信息,以及根据步骤S220得到的环境模型,可以得到相应环境特征点的预测的观测点云信息,即得到第二观测点云信息。
由于在相机的校准模型具有较高精度的情况下,对于同一环境特征点,基于步骤S210得到的确定的观测点云信息(即第一观测点云信息)和步骤S230得到的预测的观测点云信息(即第二观测点云信息)应保持一致。反之,若两者相差较大,说明相机的校准模型精度较低而需要被校准。
基于此,对于同一环境特征点,基于其确定观测点云信息和预测观测点云信息,可以对相机的校准模型进行校准。其中,用于校准相机校准模型的环境特征点的个数可以按需设定,比如可以为一个或多个。基于多个环境特征点来校准相机的校准模型时,该多个环境特征点可以为步骤S210中所获得的所有环境特征点中的部分或全部。
步骤S240,根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
同上所述,对于同一环境特征点,基于其确定观测点云信息和预测观测点云信息,可以对相机的校准模型进行校准。
本实施例中,通过在相机被用于捕获测量数据或计算机视觉和相关应用程序中的其他数据之前,对相机的校准模型进行校准,可以获得高精度的相机内参、畸变参数等模型参数(或称相机校准参数)。基于高精度的相机校准参数,可避免导致依赖于相机基本测量的应用程序出现严重的错误。
在本公开一个实施例中,所述步骤S240,根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准,包括:根据对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值,对所述校准模型的模型参数进行修正,以对所述校准模型进行校准。
本实施例中,可以通过最小误差估计方法,使得三维空间环境特征点的预测观测点云和确定观测点云的位置差值最小,并在对应点云位置差值最小化下修正相机的校准模型。
详细地,所述模型参数包括:所述相机的内参、所述相机的畸变参数、所述相机与目标虚拟现实设备中的惯性传感器之间的位置关系参数中的一个或多个;所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
比如,对于内置有惯性传感器的虚拟现实头戴式一体机设备,其内置相机的校准模型的模型参数至少可以包括:相机的内参、相机的畸变参数、相机与惯性传感器之间的位置关系参数。
基于上述内容,在对相机的校准模型进行校准后,请参考上述步骤S220,还可以根据校准后的校准模型生成新的环境模型。进而,基于新的环境模型可以按需再对当前的校准模型进行校准,如此反复,直至达到预期的校准效果。
因此,在本公开一个实施例中,在步骤S240之后,所述方法还包括:以对所述校准模型进行校准而得到的目标校准模型再次作为所述校准模型,并执行所述步骤S220,根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型的步骤。
其中,不同次执行步骤S220所使用的第一观测点云信息及相应位姿信息的个数和/或信息内容可以相同,也可以不同,本实施例对此不作限定。
基于此,在本公开一个实施例中,所述步骤S240,根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准,包括以下步骤S2401~步骤S2403:
步骤S2401,获取对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值。
同上所述,在当前的校准模型精度较高的情况下,该位置差值应较小,若该位置差值足够小,即可认为当前的校准模型已达到预期精度,从而可结束对相机校准模型的校准。
基于此,该步骤中,可以先计算该位置差值。
步骤S2402,检测所述位置差值是否不大于设定的差值阈值。
该步骤中,可以对位置差值和差值阈值进行数值大小的对比分析。
步骤S2403,在所述位置差值大于所述差值阈值的情况下,对所述校准模型进行校准。
该步骤中,若位置差值大于差值阈值,说明当前的校准模型精度较低而有待提高,故而可以对校准模型的进行校准。反之,可以认为当前的校准模型精度较高,并可结束对校准模型的校准。
基于此,所述方法还包括:在所述位置差值不大于所述差值阈值的情况下,根据最新生成的环境模型生成虚拟现实图像;执行设定的操作,以使内置有所述相机的虚拟现实设备显示所述虚拟现实图像。
本实施例中,在对校准模型进行多次校准直至达到预期的模型精度后,即可得到基于当前的环境模型来生成虚拟现实图像并展示给用户。基于此,可使得用户所看到的虚拟现实图像与现实三维空间环境的适配度高,用户的虚拟现实体验好。
本公开实施例中,可以根据相机采集的环境图像生成相机所在三维空间环境的环境模型,进而根据生成的环境模型对相机的校准模型进行校准。如此,在虚拟现实设备出厂后的使用过程中,可以结合环境重建的信息实时动态修正相机校准模型,使得即使相机在虚拟现实设备中发生相应位置移动,由于校准后的相机校准模型可以适用于位置移动后的相机,故而可以保证相机采集数据的准确性。
此外,本实施例的相机校准方法无需特殊配置设备、特殊配置环境或特定环境中的特殊几何图形,以及无需特定校准软件,即可实现相机校准,适用性更好,校准效率更高。
图3给出了根据一实施例的相机校准方法的流程示意图。本实施例的实施主体例如为图1所示的电子设备1000。
如图3所示,该实施例的方法可以包括如下步骤S301~步骤S312:
步骤S301,获取所述相机采集的环境图像。
该相机可以为虚拟现实头戴式一体机中内置的相机,该虚拟现实头戴式一体机中还内置有惯性传感器。
步骤S302,检测所述环境图像上的环境特征点。
步骤S303,获取所述环境特征点相对设定坐标系的第一观测点云信息。
步骤S304,获取目标虚拟现实设备中的惯性传感器采集的惯性导航数据,所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
步骤S305,根据所述第一观测点云信息和所述惯性导航数据,获得所述相机的对应所述环境图像的位姿信息。
步骤S306,根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型。
步骤S307,根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息。
步骤S308,获取对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值。
步骤S309,检测所述位置差值是否不大于设定的差值阈值,并执行所述步骤S310或步骤S311。
步骤S310,在所述位置差值大于所述差值阈值的情况下,根据所述位置差值对所述校准模型的模型参数进行修正,以对所述校准模型进行校准,得到目标校准模型,以所述目标校准模型再次作为所述校准模型,并执行所述步骤S306。
其中,所述模型参数包括:所述相机的内参、所述相机的畸变参数、所述相机与目标虚拟现实设备中的惯性传感器之间的位置关系参数中的一个或多个;所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
步骤S311,在所述位置差值不大于所述差值阈值的情况下,根据最新生成的环境模型生成虚拟现实图像。
步骤S312,执行设定的操作,以使内置有所述相机的虚拟现实设备显示所述虚拟现实图像。
本公开实施例提供了基于虚拟现实头戴式一体机设备进行联合三维环境重建和相机校准的技术,具体在虚拟现实头戴式一体机出厂后的使用过程中,通过计算机视觉技术,并结合环境重建的信息,实时动态修正相机的校准模型,使得即使相机在虚拟现实头戴式一体机中发生相应位置移动,也可保证相机采集数据的准确性,从而提高用户的虚拟现实体验。
<设备实施例>
图4是根据一个实施例的相机校准装置400的原理框图。如图4所示,该相机校准装置400可以包括第一处理模块410、环境模型生成模块420、第二处理模块430、校准模型校准模块440。该相机校准装置400可以为图1所示的电子设备1000或包括该电子设备1000。
其中,第一处理模块410根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息。环境模型生成模块420根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型。第二处理模块430根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息。校准模型校准模块440根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
在本公开一个实施例中,所述环境模型生成模块420以对所述校准模型进行校准而得到的目标校准模型再次作为所述校准模型,并执行所述根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型的步骤。
在本公开一个实施例中,所述校准模型校准模块440获取对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值;检测所述位置差值是否不大于设定的差值阈值;在所述位置差值大于所述差值阈值的情况下,对所述校准模型进行校准;
所述相机校准装置400还包括第一功能模块,该第一功能模块在所述位置差值不大于所述差值阈值的情况下,根据最新生成的环境模型生成虚拟现实图像;执行设定的操作,以使内置有所述相机的虚拟现实设备显示所述虚拟现实图像。
在本公开一个实施例中,所述第一处理模块410获取所述相机采集的环境图像;检测所述环境图像上的环境特征点;获取所述环境特征点相对设定坐标系的第一观测点云信息;根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息。
在本公开一个实施例中,所述相机校准装置400还包括第二功能模块,该第二功能模块获取目标虚拟现实设备中的惯性传感器采集的惯性导航数据,所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。基于此,所述第一处理模块410根据所述第一观测点云信息和所述惯性导航数据,获得所述相机的对应所述环境图像的位姿信息。
在本公开一个实施例中,所述校准模型校准模块440根据对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值,对所述校准模型的模型参数进行修正,以对所述校准模型进行校准。其中,所述模型参数包括:所述相机的内参、所述相机的畸变参数、所述相机与目标虚拟现实设备中的惯性传感器之间的位置关系参数中的一个或多个;所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
图5是根据另一个实施例的相机校准装置500的硬件结构示意图。该相机校准装置500可以为图1所示的电子设备1000或包括该电子设备1000。
如图5所示,该电子设备500包括处理器510和存储器520,该存储器520用于存储可执行的计算机程序,该处理器510用于根据该计算机程序的控制,执行如以上任意方法实施例的方法。
以上电子设备500的各模块可以由本实施例中的处理器510执行存储器520存储的计算机程序实现,也可以通过其他电路结构实现,在此不做限定。
图6是根据一个实施例的虚拟现实设备600的原理框图。如图6所示,该虚拟现实设备600可以包括相机610和相机校准装置620。该相机校准装置620可以为上述相机校准装置400或上述相机校准装置500。
在本公开一个实施例中,该虚拟现实设备600可以为虚拟现实头戴式一体机。
详细地,在虚拟现实设备中,尤其在虚拟现实头戴式一体机设备中,优选可内置两个及以上的相机,此外还可内置惯性传感器。因此,在本公开一个实施例中,该虚拟现实设备600还可以包括惯性传感器。
此外,本公开实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序在被处理器执行时实现根据本公开实施例中任意一项所述的方法。
本发明可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种相机校准方法,包括:
根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息;
根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型;
根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息;
根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
2.根据权利要求1所述的方法,其中,所述方法还包括:
以对所述校准模型进行校准而得到的目标校准模型再次作为所述校准模型,并执行所述根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型的步骤。
3.根据权利要求1所述的方法,其中,所述根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准,包括:
获取对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值;
检测所述位置差值是否不大于设定的差值阈值;
在所述位置差值大于所述差值阈值的情况下,对所述校准模型进行校准;
所述方法还包括:在所述位置差值不大于所述差值阈值的情况下,根据最新生成的环境模型生成虚拟现实图像;
执行设定的操作,以使内置有所述相机的虚拟现实设备显示所述虚拟现实图像。
4.根据权利要求1所述的方法,其中,所述根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息,包括:
获取所述相机采集的环境图像;
检测所述环境图像上的环境特征点;
获取所述环境特征点相对设定坐标系的第一观测点云信息;
根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息。
5.根据权利要求4所述的方法,其中,所述方法还包括:获取目标虚拟现实设备中的惯性传感器采集的惯性导航数据,所述目标虚拟现实设备为内置有所述相机的虚拟现实设备;
所述根据所述第一观测点云信息,获得所述相机的对应所述环境图像的位姿信息,包括:
根据所述第一观测点云信息和所述惯性导航数据,获得所述相机的对应所述环境图像的位姿信息。
6.根据权利要求1所述的方法,其中,所述根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准,包括:
根据对应所述第一观测点云信息和所述第二观测点云信息的所述环境特征点的位置差值,对所述校准模型的模型参数进行修正,以对所述校准模型进行校准;
其中,所述模型参数包括:所述相机的内参、所述相机的畸变参数、所述相机与目标虚拟现实设备中的惯性传感器之间的位置关系参数中的一个或多个;
所述目标虚拟现实设备为内置有所述相机的虚拟现实设备。
7.一种相机校准装置,包括:
第一处理模块,用于根据所述相机采集的环境图像,获得所述环境图像中环境特征点相对设定坐标系的第一观测点云信息、所述相机的对应所述环境图像的位姿信息;
环境模型生成模块,用于根据所述第一观测点云信息、所述位姿信息和所述相机的校准模型,生成对应所述相机所在三维空间环境的环境模型;
第二处理模块,用于根据所述第一观测点云信息、所述位姿信息和所述环境模型,得到所述环境特征点的第二观测点云信息;以及,
校准模型校准模块,用于根据所述第一观测点云信息和所述第二观测点云信息,对所述校准模型进行校准。
8.一种相机校准装置,包括存储器和处理器,所述存储器用于存储计算机程序;所述处理器用于执行所述计算机程序,以实现根据权利要求1-6中任意一项所述的方法。
9.一种虚拟现实设备,包括:相机和权利要求8或9所述的相机校准装置。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110362554.6A CN113242421A (zh) | 2021-04-02 | 2021-04-02 | 相机校准方法、装置及虚拟现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110362554.6A CN113242421A (zh) | 2021-04-02 | 2021-04-02 | 相机校准方法、装置及虚拟现实设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113242421A true CN113242421A (zh) | 2021-08-10 |
Family
ID=77131002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110362554.6A Pending CN113242421A (zh) | 2021-04-02 | 2021-04-02 | 相机校准方法、装置及虚拟现实设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113242421A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931237A (zh) * | 2016-04-19 | 2016-09-07 | 北京理工大学 | 一种图像校准方法和*** |
CN107004279A (zh) * | 2014-12-10 | 2017-08-01 | 微软技术许可有限责任公司 | 自然用户界面相机校准 |
CN109242913A (zh) * | 2018-09-07 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 采集器相对参数的标定方法、装置、设备和介质 |
CN109791048A (zh) * | 2016-08-01 | 2019-05-21 | 无限增强现实以色列有限公司 | 使用场景捕获数据校准惯性测量单元(imu)的组件的方法和*** |
CN111551191A (zh) * | 2020-04-28 | 2020-08-18 | 浙江商汤科技开发有限公司 | 传感器外参数标定方法及装置、电子设备和存储介质 |
CN111833403A (zh) * | 2020-07-27 | 2020-10-27 | 闪耀现实(无锡)科技有限公司 | 用于空间定位的方法和装置 |
CN111862150A (zh) * | 2020-06-19 | 2020-10-30 | 杭州易现先进科技有限公司 | 图像跟踪的方法、装置、ar设备和计算机设备 |
CN111951262A (zh) * | 2020-08-25 | 2020-11-17 | 杭州易现先进科技有限公司 | Vio误差的修正方法、装置、***和电子装置 |
US20210027492A1 (en) * | 2019-07-22 | 2021-01-28 | Facebook Technologies, Llc | Joint Environmental Reconstruction and Camera Calibration |
-
2021
- 2021-04-02 CN CN202110362554.6A patent/CN113242421A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107004279A (zh) * | 2014-12-10 | 2017-08-01 | 微软技术许可有限责任公司 | 自然用户界面相机校准 |
CN105931237A (zh) * | 2016-04-19 | 2016-09-07 | 北京理工大学 | 一种图像校准方法和*** |
CN109791048A (zh) * | 2016-08-01 | 2019-05-21 | 无限增强现实以色列有限公司 | 使用场景捕获数据校准惯性测量单元(imu)的组件的方法和*** |
CN109242913A (zh) * | 2018-09-07 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 采集器相对参数的标定方法、装置、设备和介质 |
US20210027492A1 (en) * | 2019-07-22 | 2021-01-28 | Facebook Technologies, Llc | Joint Environmental Reconstruction and Camera Calibration |
CN111551191A (zh) * | 2020-04-28 | 2020-08-18 | 浙江商汤科技开发有限公司 | 传感器外参数标定方法及装置、电子设备和存储介质 |
CN111862150A (zh) * | 2020-06-19 | 2020-10-30 | 杭州易现先进科技有限公司 | 图像跟踪的方法、装置、ar设备和计算机设备 |
CN111833403A (zh) * | 2020-07-27 | 2020-10-27 | 闪耀现实(无锡)科技有限公司 | 用于空间定位的方法和装置 |
CN111951262A (zh) * | 2020-08-25 | 2020-11-17 | 杭州易现先进科技有限公司 | Vio误差的修正方法、装置、***和电子装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270460B2 (en) | Method and apparatus for determining pose of image capturing device, and storage medium | |
CN107888828B (zh) | 空间定位方法及装置、电子设备、以及存储介质 | |
CN109272454B (zh) | 一种增强现实设备的坐标系校准方法及装置 | |
US11740690B2 (en) | Systems and methods for tracking a controller | |
EP4198694A1 (en) | Positioning and tracking method and platform, head-mounted display system, and computer-readable storage medium | |
CN107748569B (zh) | 用于无人机的运动控制方法、装置及无人机*** | |
US10013761B2 (en) | Automatic orientation estimation of camera system relative to vehicle | |
CN106782260B (zh) | 用于虚拟现实运动场景的显示方法及装置 | |
EP3067658B1 (en) | 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program | |
KR20150082358A (ko) | 기준 좌표계 결정 | |
CN113256718B (zh) | 定位方法和装置、设备及存储介质 | |
US20200134389A1 (en) | Rolling shutter rectification in images/videos using convolutional neural networks with applications to sfm/slam with rolling shutter images/videos | |
CN108028904B (zh) | 移动设备上光场增强现实/虚拟现实的方法和*** | |
US11232590B2 (en) | Information processing apparatus, information processing method, and program | |
CN111161398B (zh) | 一种图像生成方法、装置、设备及存储介质 | |
CN113470112A (zh) | 图像处理方法、装置、存储介质以及终端 | |
CN115039015A (zh) | 位姿跟踪方法、可穿戴设备、移动设备以及存储介质 | |
CN109814710B (zh) | 数据处理方法、装置及虚拟现实设备 | |
CN113129366B (zh) | 单目slam初始化方法、装置及电子设备 | |
CN113242421A (zh) | 相机校准方法、装置及虚拟现实设备 | |
CN110631586A (zh) | 基于视觉slam的地图构建的方法、导航***及装置 | |
CN109993834B (zh) | 目标物体在虚拟空间中的定位方法及装置 | |
CN115576637A (zh) | 截屏方法、***、电子设备及可读存储介质 | |
CN106780758B (zh) | 用于虚拟现实设备的成像方法、装置及虚拟现实设备 | |
CN115131528A (zh) | 虚拟现实场景确定方法、装置及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210810 |
|
RJ01 | Rejection of invention patent application after publication |