CN117456012A - 虚拟相机的视场角标定方法及装置、设备及存储介质 - Google Patents
虚拟相机的视场角标定方法及装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117456012A CN117456012A CN202311754031.1A CN202311754031A CN117456012A CN 117456012 A CN117456012 A CN 117456012A CN 202311754031 A CN202311754031 A CN 202311754031A CN 117456012 A CN117456012 A CN 117456012A
- Authority
- CN
- China
- Prior art keywords
- image
- virtual
- camera
- calibration plate
- physical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000004590 computer program Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 abstract description 13
- 230000000694 effects Effects 0.000 abstract description 12
- 230000000007 visual effect Effects 0.000 abstract description 9
- 230000008569 process Effects 0.000 abstract description 8
- 238000003384 imaging method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
本发明实施例公开了一种虚拟相机的视场角标定方法及装置、设备及存储介质,方法包括:获取物理相机拍摄的至少包括物理标定板的第一图像的图像数据,第一图像为物理相机拍摄物理标定板得到的图像;获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;确定第一图像中的物理标定板的第一显示区域与第二图像中的虚拟标定板的第二显示区域重合时,虚拟相机的目标视场角。通过上述方式,使用物理相机所拍摄的图像数据对虚拟相机的视场角进行标定,图像中物理与虚拟标定板的显示区域重合时得到目标视场角,以此完成虚拟相机FOV标定,不仅标定过程简单快速,且目标视场角准确度更高,提升增强现实的效果。
Description
技术领域
本发明涉及相机标定技术领域,尤其涉及一种虚拟相机的视场角标定方法及装置、设备及存储介质。
背景技术
相机FOV(Field of View,视场角)标定是计算机视觉和机器人等领域中一个基础且重要的问题,它指的是确定相机从三维世界坐标中的点到其在二维图像平面上投影的成像过程的参数。这些参数包括内参(如焦距、主点、歪斜等)和外参(如旋转和平移矩阵),以及可能存在的畸变系数(如径向畸变和切向畸变)。相机FOV标定为后续的场景理解和决策推断提供了标准化的成像空间和精准的几何先验。
但是目前物理相机出厂参数一般不会提供FOV数据,即一般不进行出厂前的FOV标定,因此这就导致虚拟引擎构建的虚拟相机的FOV与物理相机的FOV之间由于没有数据参考可能会存在较大误差,降低了增强现实的效果,因此,目前仍缺少对于虚拟相机的FOV标定方式。
发明内容
本发明的主要目的在于提供一种虚拟相机的视场角标定方法及装置、设备及存储介质,可以解决现有技术中由于缺少对于虚拟相机的FOV标定方式,降低增强现实的效果的问题。
为实现上述目的,本发明第一方面提供一种虚拟相机的视场角标定方法,所述方法包括:
获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角。
在一种可行实现方式中,所述方法还包括:
利用所述第一显示区域以及所述第二显示区域进行对比,确定目标对比结果;
当所述目标对比结果为未重合,则调整所述视场角,并返回执行所述获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像的步骤。
在一种可行实现方式中,所述调整所述视场角,包括:
若所述目标对比结果为第一显示区域大于第二显示区域,则将所述视场角减小第一预设值;
若所述目标对比结果为第一显示区域小于第二显示区域,则将所述视场角增大第二预设值。
在一种可行实现方式中,所述图像数据还包括所述第一图像的拍摄距离,则所述获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像,还包括:
将所述虚拟标定板与所述虚拟相机之间的距离调整至所述拍摄距离;
获取基于所述物理相机建立的虚拟相机在预设的视场角以及所述拍摄距离下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像。
在一种可行实现方式中,所述图像数据还包括图像集合,所述图像集合包括不同拍摄距离与第一图像的对应关系,则所述方法还包括:
基于所述图像集合包括的各个拍摄距离,分别执行所述将所述虚拟标定板与所述虚拟相机之间的距离调整至所述拍摄距离的步骤,以此确定各个拍摄距离下的所述虚拟相机的目标视场角;
利用各个所述目标视场角进行优化处理,确定优化后的目标视场角。
在一种可行实现方式中,所述利用各个所述目标视场角进行优化处理,确定优化后的目标视场角,包括:
利用各个所述目标视场角进行平均值计算,确定平均视场角,所述优化后的目标视场角包括所述平均视场角。
在一种可行实现方式中,所述第一图像的图像类型为正射图像,所述正射图像由所述物理相机正对所述物理标定板且保持在所述物理标定板中间的垂线上进行拍摄得到的图像。
为实现上述目的,本发明第二方面提供一种虚拟相机的视场角标定装置,所述装置包括:
第一获取模块:用于获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
第二获取模块:用于获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
视场角确定模块:用于确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角。
为实现上述目的,本发明第三方面提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如第一方面及任一可行实现方式所示步骤。
为实现上述目的,本发明第四方面提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如第一方面及任一可行实现方式所示步骤。
采用本发明实施例,具有如下有益效果:
本发明提供一种虚拟相机的视场角标定方法,方法包括:获取物理相机拍摄的图像数据,图像数据至少包括物理标定板的第一图像,第一图像为物理相机拍摄物理标定板得到的图像;获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;确定第一图像中的物理标定板的第一显示区域与第二图像中的虚拟标定板的第二显示区域重合时,虚拟相机的目标视场角。
通过上述方式,使用物理相机所拍摄的图像数据对虚拟相机的虚拟视场角进行标定,确定图像中物理标定板与虚拟标定板的显示区域重合时虚拟标定板的目标视场角,以此完成虚拟相机的FOV标定,不仅标定过程简单快速,且目标视场角是在重合时得到的,说明虚拟相机在目标视场角下可以还原物理相机所拍摄的图像,以此得到的目标视场角准确度更高,还降低物理相机与虚拟相机之间由于缺少物理相机的视场角数据而导致视场角误差较大的问题,提高增强现实的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为本发明实施例中一种虚拟相机的视场角标定方法的流程图;
图2(a)为本发明实施例中一种相机视场角的示意图;
图2(b)为本发明实施例中一种相机视场角的另一示意图;
图2(c)为本发明实施例中一种相机视场角的又一示意图;
图3为本发明实施例中一种标定场景的示意图;
图4为本发明实施例中一种虚拟相机的视场角标定方法的另一流程图;
图5为本发明实施例中一种虚拟相机的视场角标定装置的结构框图;
图6为本发明实施例中计算机设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例中一种虚拟相机的视场角标定方法的流程图,如图1所示方法既可以应用于终端,也可以应用于服务器,本实施例以应用于终端举例说明,终端110具体可以是台式终端或移动终端,移动终端具体可以是手机、平板电脑、笔记本电脑、AR设备、VR设备等中的至少一种。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
请参阅图2(a)、图2(b)以及图2(c),图2(a)为本发明实施例中一种相机视场角的示意图;图2(b)为本发明实施例中一种相机视场角的另一示意图;图2(c)为本发明实施例中一种相机视场角的又一示意图,其中,图2(a)示出了透镜(lens)、传感器(sensor)以及焦距(Focal length,简称f),可以理解的是,传感器(sensor)为物理相机的图像传感器,高度h一般由图像传感器的大小决定,进一步的,如图2(a)所示视场角(Field of view,简称FOV)的大小由相机的成像平面的高度h及焦距f决定,示例性的,FOV的数学表达式如下式(1):
(1)
式中,FOV为视场角,h为成像平面的高度,f为焦距。
进一步的,结合图2(a)、图2(b)可知如果成像平面的高度(h)固定,FOV的大小直接由焦距f决定,焦距f越大,看得越远,但FOV越小;焦距f越小,看得越近,但FOV变大。其中,如图2(c)所示根据方向不同,FOV可以分为三类,分别为水平FOV(HFOV)、垂直FOV(VFOV)、对角(DFOV);由图2(b)可以看出,HFOV由焦距和senor的宽度(W)决定,VFOV焦距和sensor的高度(h)决定,DFOV由焦距和W和h共同决定。
需要说明的是,对于视场角的标定有利于诸如AR等虚拟现实设备的增强现实的效果,但是现今对于视场角的标定方式较少,故本申请为了提高AR或VR等虚拟现实设备的增强现实效果,减少物理相机与虚拟相机之间的视场角误差,提出一种虚拟相机的视场角标定方法,其中,所提出的视场角可以为虚拟相机的虚拟相机视场角,而虚拟相机用于在虚拟空间中还原物理相机所拍摄对象,以在虚拟空间中实现模拟现实的目的,下面介绍本申请所示的虚拟相机的视场角标定方法。
请继续参阅图1,如图1所示方法包括如下步骤:
101、获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
102、获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
需要说明的是,本申请所示方法可以应用于AR设备等具备数据处理能力的电子设备,本申请以AR设备举例说明,AR设备包括但不限于AR相机,AR相机是一种虚拟现实相机,通过它可以拍摄真实世界并叠加虚拟内容,从而创建出增强现实体验。由于视场角的大小会影响相机成像视野,影响所拍摄对象的成像大小,也即视场角的大小会反映在拍摄出的成品之上,例如图像或影响,故本申请为了减少物理相机与虚拟相机之间的视场角误差,采用物理相机的拍摄数据来标定虚拟相机的虚拟视场角。
具体的,AR设备可以获取物理相机拍摄的图像数据,该图像数据至少包括物理标定板的第一图像,第一图像为物理相机拍摄物理标定板得到的图像,进一步的,第一图像可以为多张,且图像数据还可以包括每一张第一图像拍摄时的拍摄参数,拍摄参数包括但不限于每张第一图像的拍摄距离,也即图像数据还包括图像集合,图像集合包括不同拍摄距离与第一图像的对应关系。
示例性的,可以参阅图3,图3为本发明实施例中一种标定场景的示意图,如图3所示,预先可以准备一个已知准确尺寸大小的物理标定板,物理标定板上画面清晰可辨,特征明显。进而在光线良好的环境下,将物理标定板垂直固定起来;将相机正对物理标定板进行拍照,且拍照时,相机要保持在物理标定板中间的垂线上。也即第一图像的图像类型可以为正射图像,该正射图像由物理相机正对物理标定板且保持在物理标定板中间的垂线上进行拍摄得到的图像。以此保证第一图像可以反映出真实的物理相机的视场角,减少所反映出的视场角的误差。
进而,可以在虚拟引擎中构建虚拟相机与虚拟标定板,其中,虚拟相机的相机参数与物理相机已知的相机参数可以相同,由于物理相机的视场角未知,所以虚拟相机的虚拟视场角可以任意设置,虚拟相机的参数可以在诸如unity等虚拟引擎中进行设计,也可以在虚拟引擎中任意构建一个虚拟相机;其中,还要在虚拟引擎中构建一个与物理标定板一模一样的虚拟标定板,由于视场角的大小影响所拍摄对象的成像大小,故在虚拟空间中该虚拟标定板的大小受到虚拟相机的虚拟视场角控制,随着虚拟视场角的变化而变化。进而可以通过虚拟相机拍摄该虚拟标定板,获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像。
103、确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角。
进一步的,由于视场角影响所拍摄对象的大小,进而如果第一图像中物理标定板的第一显示区域与第二图像中的虚拟标定板的第二显示区域重合,那就说明此时虚拟相机的虚拟视场角与物理相机的物理视场角是相同的,也就完成了虚拟相机的视场角标定,因此,确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角,该目标视场角即为重合时的视场角。
本发明提供一种虚拟相机的视场角标定方法,方法包括:获取物理相机拍摄的图像数据,图像数据至少包括物理标定板的第一图像,第一图像为物理相机拍摄物理标定板得到的图像;获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;确定第一图像中的物理标定板的第一显示区域与第二图像中的虚拟标定板的第二显示区域重合时,虚拟相机的目标视场角。通过上述方式,使用物理相机所拍摄的图像数据对虚拟相机的虚拟视场角进行标定,确定图像中物理标定板与虚拟标定板的显示区域重合时虚拟标定板的目标视场角,以此完成虚拟相机的FOV标定,不仅标定过程简单快速,且目标视场角是在重合时得到的,说明虚拟相机在目标视场角下可以还原物理相机所拍摄的图像,以此得到的目标视场角准确度更高,还降低物理相机与虚拟相机之间由于缺少物理相机的视场角数据而导致视场角误差较大的问题,提高增强现实的效果。
请参阅图4,图4为本发明实施例中一种虚拟相机的视场角标定方法的另一流程图,如图4所示方法包括如下步骤:
401、获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
402、获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
需要说明的是,步骤401以及步骤402与图1所示步骤101以及102的内容相似,为避免重复此处不作赘述具体可以参阅图图1所示步骤101以及102的内容。
在一种可行实现方式中,所拍摄对象的大小还会收到拍摄距离的影响,也即不同的拍摄距离下,物理标定板在第一图像的大小也是不同的,因此,为了进一步的提高虚拟相机的视场角标定的准确度,上述图像数据还包括所述第一图像的拍摄距离,则步骤402还可以包括步骤A01与A02:
A01、将所述虚拟标定板与所述虚拟相机之间的距离调整至所述拍摄距离;
A02、获取基于所述物理相机建立的虚拟相机在预设的视场角以及所述拍摄距离下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像。
需要说明的是,拍摄距离会影响拍摄对象在图像上呈现的大小,故为了减少拍摄距离造成的误差,因此,在得到第二图像之前,可以执行步骤A01以此将虚拟标定板与所述虚拟相机之间的距离调整到与物理相机的拍摄距离一致,进而执行步骤A02使得在该拍摄距离之下,得到获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像。进而通过此时的第二图像与第一图像重合时得到目标视场角。示例性的,拍摄距离可以为1m、2m、3m等等。并且,通过在同一个拍摄距离下进行标定,可以减少人眼通过AR设备所呈现物体的虚拟物体距离与现实中该物理的物理物体距离之间的误差,还可以进一步的提高增强现实的效果。
403、利用所述第一显示区域以及所述第二显示区域进行对比,确定目标对比结果;
404、当所述目标比对结果为重合,则确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角;
405、当所述目标对比结果为未重合,则调整所述视场角,并返回执行所述获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像的步骤。
需要说明的是,可以通过比较第一显示区域和第二显示区域的大小来确定是否重合,若所述第一显示区域大于第二显示区域,或者第一显示区域小于第二显示区域那么目标对比结果就是未重合,说明此时虚拟相机的虚拟视场角的设置不能还原物理相机所拍摄对象,那么就执行步骤405调整视场角;反之,如果第一显示区域和第二显示区域从区域面积、区域形状等等各方各面来看均是完全一致的,那就说明是第一显示区域和第二显示区域相等的一致的,即虚拟相机目前所设置的视场角可以还原物理相机所拍摄对象,进而执行404得到此时虚拟引擎中的视场角,作为目标视场角。
在一种可行实现方式中,步骤405中调整所述视场角,包括下述步骤C01至C02:
C01、若所述目标对比结果为第一显示区域大于第二显示区域,则将所述视场角减小第一预设值;
C02、若所述目标对比结果为第一显示区域小于第二显示区域,则将所述视场角增大第二预设值。
需要说明的是,目标对比结果如果是第一显示区域和第二显示区域未重合,可能存在两种未重合的情况,一种是第一显示区域大于第二显示区域,另一种是第一显示区域小于第二显示区域,进而,目标对比结果若是第一显示区域大于第二显示区域,那么说明虚拟标定板此时小于物理标定板,那个可以减小视场角,调大虚拟标定板,反之,目标对比结果若是第一显示区域小于第二显示区域,那么说明虚拟标定板此时大于物理标定板,那个可以增加视场角,调小虚拟标定板。以此提高标定效率,更快速的得到重合时的目标视场角。
具体的,虚拟相机的视场角调整可以基于预设值自动调节的,也可以是人工基于目标对比结果在AR设备或终端设备上输入数值配置的,在此不作限定;并且上目标对比结果可以是人工观察得出的,也可以是AR设备或终端设备判断得到的,在此不作限定。
在一种可行实现的方式中,为了进一步的减少目标视场角的误差,物理相机的图像数据还可以包括图像集合,该图像集合包括不同拍摄距离与第一图像的对应关系,也即图像数据包括不同拍摄距离下的第一图片,其中,不同拍摄距离下的第一图像均是在物理相机的同一个视场角小拍摄得到的图像,进而上述方法还包括下述步骤B01至B02:
B01、基于所述图像集合包括的各个拍摄距离,分别执行所述将所述虚拟标定板与所述虚拟相机之间的距离调整至所述拍摄距离的步骤,以此确定各个拍摄距离下的所述虚拟相机的目标视场角;
可以理解的是,为了提高目标视场角的准确度,可以利用物理相机以同一个视场角,在多个不同的拍摄距离拍摄物理标定板,得到多个拍摄距离不同的第一图像,进而使用每一个第一图像对虚拟相机的视场角进行一轮的视场角标定,得到各个拍摄距离下的目标视场角,比如拍摄距离有1m、2m、3m等,第一图像就会有:距离1m拍的第一图像1、距离2m拍的第一图像2以及距离3m拍的第一图像3,保持和物理相机的一致操作,虚拟相机拍摄得到的第二图像就会有:距离1m拍的第二图像1、距离2m拍的第二图像2以及距离3m拍的第二图像3;进而,将每个距离1m拍的第一图像1和第二图像1组成对照组1;将每个距离2m拍的第一图像2和第二图像2组成对照组2以及将每个距离3m拍的第一图像3和第二图像3组成对照组3,通过三组对照组可以得到各对照组中的图片重合时各个拍摄距离的目标视场角。比如在1m时确定重合时的目标视场角是90°、在2m时确定重合时的目标视场角是89°,在3m时确定重合时的目标视场角是91°。也即逐一的得到每个拍摄距离下的目标视场角。
B02、利用各个所述目标视场角进行优化处理,确定优化后的目标视场角。
进一步的,得到不同拍摄距离下的目标视场角后,便可以通过各个目标视场角进行优化处理,确定优化后的目标视场角;示例性的步骤B02可以包括:利用各个所述目标视场角进行平均值计算,确定平均视场角,所述优化后的目标视场角包括所述平均视场角。比如,(90+89+91)/3=90,进而将90°作为最后的虚拟视场角,并在虚拟引擎中将虚拟相机的视场角设置为该虚拟视场角,以此得到的虚拟相机便是足以还原物理相机所拍摄对象尺寸和距离的虚拟视场角,减少因为虚拟空间中物体与用户的空间距离不符真实的空间距离,导致用户摸空的现象,提高增强现实的能力。
本发明提供一种虚拟相机的视场角标定方法,方法包括:获取物理相机拍摄的图像数据,图像数据至少包括物理标定板的第一图像,第一图像为物理相机拍摄物理标定板得到的图像;获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;利用第一显示区域以及第二显示区域进行对比,确定目标对比结果;当目标比对结果为重合,则确定第一图像中的物理标定板的第一显示区域与第二图像中的虚拟标定板的第二显示区域重合时,虚拟相机的目标视场角;当目标对比结果为未重合,则调整视场角,并返回执行获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像的步骤。通过上述方式,使用物理相机所拍摄的图像数据对虚拟相机的虚拟视场角进行标定,确定图像中物理标定板与虚拟标定板的显示区域重合时虚拟标定板的目标视场角,以此完成虚拟相机的FOV标定,不仅标定过程简单快速,且目标视场角是在重合时得到的,说明虚拟相机在目标视场角下可以还原物理相机所拍摄的图像,以此得到的目标视场角准确度更高,还降低物理相机与虚拟相机之间由于缺少物理相机的视场角数据而导致视场角误差较大的问题,提高增强现实的效果。并且,通过控制拍摄距离一致,还可以还原物理相机所拍摄对象的空间距离,进一步的提高增强现实的效果,且采用多个拍摄距离下的目标视场角做平均,进一步提高虚拟视场角的准确度。
请参阅图5,图5为本发明实施例中一种虚拟相机的视场角标定装置的结构框图,如图5所示装置包括:
第一获取模块501:用于获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
第二获取模块502:用于获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
视场角确定模块503:用于确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角。
需要说明的是,图5所示装置中各个模块的作用与图1所示方法中各个步骤的内容相似,为避免重复此处不作赘述,具体可以参阅图1所示方法中各个步骤的内容。
本发明提供一种虚拟相机的视场角标定方法,方法包括:第一获取模块:用于获取物理相机拍摄的图像数据,图像数据至少包括物理标定板的第一图像,第一图像为物理相机拍摄物理标定板得到的图像;第二获取模块:用于获取基于物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;视场角确定模块:用于确定第一图像中的物理标定板的第一显示区域与第二图像中的虚拟标定板的第二显示区域重合时,虚拟相机的目标视场角。通过上述装置,使用物理相机所拍摄的图像数据对虚拟相机的虚拟视场角进行标定,确定图像中物理标定板与虚拟标定板的显示区域重合时虚拟标定板的目标视场角,以此完成虚拟相机的FOV标定,不仅标定过程简单快速,且目标视场角是在重合时得到的,说明虚拟相机在目标视场角下可以还原物理相机所拍摄的图像,以此得到的目标视场角准确度更高,还降低物理相机与虚拟相机之间由于缺少物理相机的视场角数据而导致视场角误差较大的问题,提高增强现实的效果。
图6示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是终端,也可以是服务器。如图6所示,该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现上述方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行上述方法。本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如图1或图4所示方法的步骤。
在一个实施例中,提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如图1或图4所示方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种虚拟相机的视场角标定方法,其特征在于,所述方法包括:
获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角。
2.根据权利要求1所述方法,其特征在于,所述方法还包括:
利用所述第一显示区域以及所述第二显示区域进行对比,确定目标对比结果;
当所述目标对比结果为未重合,则调整所述视场角,并返回执行所述获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像的步骤。
3.根据权利要求2所述方法,其特征在于,所述调整所述视场角,包括:
若所述目标对比结果为第一显示区域大于第二显示区域,则将所述视场角减小第一预设值;
若所述目标对比结果为第一显示区域小于第二显示区域,则将所述视场角增大第二预设值。
4.根据权利要求1至3任一项所述方法, 其特征在于,所述图像数据还包括所述第一图像的拍摄距离,则所述获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像,还包括:
将所述虚拟标定板与所述虚拟相机之间的距离调整至所述拍摄距离;
获取基于所述物理相机建立的虚拟相机在预设的视场角以及所述拍摄距离下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像。
5.根据权利要求4所述方法,其特征在于,所述图像数据还包括图像集合,所述图像集合包括不同拍摄距离与第一图像的对应关系,则所述方法还包括:
基于所述图像集合包括的各个拍摄距离,分别执行所述将所述虚拟标定板与所述虚拟相机之间的距离调整至所述拍摄距离的步骤,以此确定各个拍摄距离下的所述虚拟相机的目标视场角;
利用各个所述目标视场角进行优化处理,确定优化后的目标视场角。
6.根据权利要求5所述方法,其特征在于,所述利用各个所述目标视场角进行优化处理,确定优化后的目标视场角,包括:
利用各个所述目标视场角进行平均值计算,确定平均视场角,所述优化后的目标视场角包括所述平均视场角。
7.根据权利要求1所述方法, 其特征在于,所述第一图像的图像类型为正射图像,所述正射图像由所述物理相机正对所述物理标定板且保持在所述物理标定板中间的垂线上进行拍摄得到的图像。
8.一种虚拟相机的视场角标定装置,其特征在于,所述装置包括:
第一获取模块:用于获取物理相机拍摄的图像数据,所述图像数据至少包括物理标定板的第一图像,所述第一图像为所述物理相机拍摄物理标定板得到的图像;
第二获取模块:用于获取基于所述物理相机建立的虚拟相机在预设的视场角下对虚拟标定板进行拍摄得到的虚拟标定板的第二图像;
视场角确定模块:用于确定所述第一图像中的物理标定板的第一显示区域与所述第二图像中的虚拟标定板的第二显示区域重合时,所述虚拟相机的目标视场角。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
10.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311754031.1A CN117456012B (zh) | 2023-12-20 | 2023-12-20 | 虚拟相机的视场角标定方法及装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311754031.1A CN117456012B (zh) | 2023-12-20 | 2023-12-20 | 虚拟相机的视场角标定方法及装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117456012A true CN117456012A (zh) | 2024-01-26 |
CN117456012B CN117456012B (zh) | 2024-03-26 |
Family
ID=89595144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311754031.1A Active CN117456012B (zh) | 2023-12-20 | 2023-12-20 | 虚拟相机的视场角标定方法及装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456012B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112750167A (zh) * | 2020-12-30 | 2021-05-04 | 燕山大学 | 基于虚拟现实的机器人视觉定位仿真方法及其仿真装置 |
WO2023071834A1 (zh) * | 2021-10-28 | 2023-05-04 | 虹软科技股份有限公司 | 用于显示设备的对齐方法及对齐装置、车载显示*** |
CN116309881A (zh) * | 2023-03-29 | 2023-06-23 | 地球山(北京)科技有限公司 | 一种云台相机外参测算方法、装置、设备及介质 |
CN117135333A (zh) * | 2023-09-04 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 一种虚拟相机的校准方法、相关装置、设备以及存储介质 |
-
2023
- 2023-12-20 CN CN202311754031.1A patent/CN117456012B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112750167A (zh) * | 2020-12-30 | 2021-05-04 | 燕山大学 | 基于虚拟现实的机器人视觉定位仿真方法及其仿真装置 |
WO2023071834A1 (zh) * | 2021-10-28 | 2023-05-04 | 虹软科技股份有限公司 | 用于显示设备的对齐方法及对齐装置、车载显示*** |
CN116309881A (zh) * | 2023-03-29 | 2023-06-23 | 地球山(北京)科技有限公司 | 一种云台相机外参测算方法、装置、设备及介质 |
CN117135333A (zh) * | 2023-09-04 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 一种虚拟相机的校准方法、相关装置、设备以及存储介质 |
Non-Patent Citations (1)
Title |
---|
谢宗武等: "面向空间机械臂遥操作的虚拟相机成像技术", 《哈尔滨工程大学学报》, vol. 44, no. 04, 30 April 2023 (2023-04-30), pages 631 - 638 * |
Also Published As
Publication number | Publication date |
---|---|
CN117456012B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109737874B (zh) | 基于三维视觉技术的物体尺寸测量方法及装置 | |
CN110689581B (zh) | 结构光模组标定方法、电子设备、计算机可读存储介质 | |
CN111246089B (zh) | 抖动补偿方法和装置、电子设备、计算机可读存储介质 | |
WO2021196548A1 (zh) | 距离确定方法、装置及*** | |
WO2011010438A1 (ja) | 視差検出装置、測距装置及び視差検出方法 | |
US20160117820A1 (en) | Image registration method | |
CN111340737B (zh) | 图像矫正方法、装置和电子*** | |
WO2019232793A1 (zh) | 双摄像头标定方法、电子设备、计算机可读存储介质 | |
CN111445537B (zh) | 一种摄像机的标定方法及*** | |
JP2014526823A (ja) | 立体画像ペアの改善された切り取りのための方法および装置 | |
CN111383264B (zh) | 一种定位方法、装置、终端及计算机存储介质 | |
US20200267297A1 (en) | Image processing method and apparatus | |
CN114339042A (zh) | 基于多摄像头的图像处理方法及装置、计算机可读存储介质 | |
US9013558B2 (en) | System and method for alignment of stereo views | |
CN112970044B (zh) | 根据广角图像的视差估计 | |
CN111915681B (zh) | 多组3d相机群的外参标定方法、装置、存储介质及设备 | |
CN111432117B (zh) | 图像矫正方法、装置和电子*** | |
WO2023221969A1 (zh) | 3d图片拍摄方法和3d拍摄*** | |
CN111292380B (zh) | 图像处理方法及装置 | |
CN117456012B (zh) | 虚拟相机的视场角标定方法及装置、设备及存储介质 | |
CN112598751A (zh) | 标定方法及装置、终端和存储介质 | |
CN111353945B (zh) | 鱼眼图像校正方法、装置及存储介质 | |
CN114359401A (zh) | 一种标定方法、***及设备 | |
CN111553850B (zh) | 基于双目立体视觉的三维信息获取方法和装置 | |
WO2020228593A1 (zh) | 确定图片中目标物类别的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |