CN110264530A - 一种相机标定方法、装置和无人机 - Google Patents
一种相机标定方法、装置和无人机 Download PDFInfo
- Publication number
- CN110264530A CN110264530A CN201910568633.5A CN201910568633A CN110264530A CN 110264530 A CN110264530 A CN 110264530A CN 201910568633 A CN201910568633 A CN 201910568633A CN 110264530 A CN110264530 A CN 110264530A
- Authority
- CN
- China
- Prior art keywords
- image
- characteristic point
- uncalibrated image
- subregion
- uncalibrated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
Abstract
本发明实施例涉及一种相机标定方法、装置和无人机,所述方法包括:获取第一标定图像和第二标定图像;从第一标定图像和第二标定图像中提取特征点;对第一标定图像和第二标定图像进行特征点匹配,获得特征点对;确定所述特征点对位于图像区域中的子区域,所述图像区域包括至少两个子区域;继续获取第一标定图像和第二标定图像并进行特征点提取和匹配,直至图像区域中的每个子区域均具有预设数量以上的特征点对;基于各子区域内的各特征点对进行相机标定。本发明实施例将图像区域分成多个子区域,并使图像区域中每个子区域均具有预设数量以上的特征点对,确保了特征点对的均匀而全面的分布,从而利用这些特征点对进行相机标定时标定精度更高。而且无需标定物,成本低。
Description
技术领域
本发明实施例涉及无人飞行器技术领域,特别涉及一种相机标定方法、装置和无人机。
背景技术
相机标定是机器视觉的一项基础问题,单个相机由于生产加工以及自身特性的原因会存在误差,双目相机及多目相机在装配过程中亦会产生误差。这些误差对视觉测量算法有不良影响,所以,在进行视觉测量时都需要首先进行相机标定,正确标定后,才能保证后续测量工作的正确性。
相机的标定方法包括基于标定物的标定方法和基于图像序列的自标定方法。基于标定物的标定方法是利用标定物上的特征点和其在图像上对应点之间的关系,求解相机参数,完成标定。这类方法标定结果精度高,但是需要专门定制精密加工的标定物,成本高。基于图像序列的自标定方法是利用场景的几何约束关系或者摄像头自身运动产生的约束关系,建立不同图像中的对应点满足的约束方程,求解相机参数,完成标定。这类方法不需要定制标定物,但是标定精度低。
发明内容
本发明实施例的目的是提供一种标定成本低且精度高的相机标定方法、装置和无人机。
第一方面,本发明实施例提供了一种相机标定方法,所述方法包括:
获取第一标定图像和第二标定图像;
从所述第一标定图像和所述第二标定图像中提取特征点;
对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对;
确定所述特征点对位于图像区域中的子区域,其中,所述图像区域包括至少两个子区域;
继续获取第一标定图像和第二标定图像并进行特征点提取和匹配,直至图像区域中的每个子区域均具有预设数量以上的特征点对;
基于各子区域内的各特征点对进行相机标定。
在一些实施例中,所述子区域具有多个用于确定所述子区域边界的顶点,多个所述顶点均具有顶点坐标;则,
所述确定所述特征点对位于图像区域中的子区域,包括:
当所述特征点对的两个坐标均位于由所述子区域的顶点坐标围成的区域内时,则所述特征点对位于该子区域。
在一些实施例中,所述子区域为均匀分布于所述图像区域中的矩形分区。
在一些实施例中,所述从所述第一标定图像和所述第二标定图像中提取特征点,包括:
基于尺度不变特征变换算法从所述第一标定图像和所述第二标定图像中提取特征点。
在一些实施例中,所述对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对,包括:
基于暴力匹配算法对所述第一标定图像和所述第二标定图像进行双向交叉匹配。
第二方面,本发明实施例提供了一种相机标定装置,所述装置包括:
图像获取模块,用于获取第一标定图像和第二标定图像;
特征点提取模块,用于从所述第一标定图像和所述第二标定图像中提取特征点;
特征点匹配模块,用于对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对;
特征点位置确定模块,用于确定所述特征点对位于图像区域中的子区域,其中,所述图像区域包括至少两个子区域;
所述图像采集模块还用于继续获取第一标定图像和第二标定图像,直至图像区域中的每个子区域均具有预设数量以上的特征点对;
相机标定模块,用于基于各子区域内的各特征点对进行相机标定。
在一些实施例中,所述子区域具有多个用于确定所述子区域边界的顶点,多个所述顶点均具有顶点坐标;
则,所述特征点位置确定模块具体用于:
当所述特征点对的两个坐标均位于由所述子区域的顶点坐标围成的区域内时,则所述特征点对位于该子区域。
在一些实施例中,所述子区域为均匀分布于所述图像区域中的矩形分区。
在一些实施例中,所述特征点提取模块具体用于:
基于尺度不变特征变换算法从所述第一标定图像和所述第二标定图像中提取特征点。
在一些实施例中,所述特征点匹配模块具体用于:
基于暴力匹配算法对所述第一标定图像和所述第二标定图像进行双向交叉匹配。
第三方面,本发明实施例提供了一种无人机,所述无人机包括机身、与所述机身相连的机臂、设于所述机臂的动力***以及设于机身的第一摄像装置和第二摄像装置,其中所述第一摄像装置用于获得第一标定图像,所述第二摄像装置用于获得第二标定图像;
所述无人机还包括分别与所述第一摄像装置和所述第二摄像装置通信连接的控制器,所述控制器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的方法。
第四方面,本发明实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被无人机执行时,使所述无人机执行上述的方法。
第五方面,本发明实施例提供了一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被无人机执行时,使所述无人机执行上述的方法。
本发明实施例将图像区域分成多个子区域,然后重复采集第一标定图像和第二标定图像并基于所述第一标定图像和所述第二标定图像获得匹配的特征点对,直至图像区域中每个子区域均具有预设数量以上的特征点对。本发明实施例使图像区域中每个子区域均具有预设数量以上的特征点对,确保了特征点对的均匀而全面的分布,从而利用这些特征点对进行相机标定时标定精度更高。而且无需标定物,成本低。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例无人机的结构示意图;
图2是本发明实施例相机标定方法和装置的一个应用场景示意图;
图3是本发明相机标定方法的一个实施例的流程示意图;
图4是本发明实施例中图像区域的分区示意图;
图5是本发明相机标定装置的一个实施例的结构示意图;
图6是本发明实施例无人机中控制器的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的相机标定方法和装置可以用于无人机或电子设备,其中,无人机可以为合适的无人飞行器包括固定翼无人飞行器和旋转翼无人飞行器,例如直升机、四旋翼机和具有其它数量的旋翼和/或旋翼配置的飞行器。无人机还可以是其他可移动物体,例如载人飞行器、航模、无人飞艇和无人热气球等。电子设备例如智能手机、平板电脑、电脑、遥控器等。
其中,在一些实施例中,请参照图1,无人机100包括机身11、与所述机身11相连的机臂、设于机臂的动力***(机臂和动力***图中未示出)。动力***用于提供无人机100飞行的推力、升力等。无人机100还包括第一摄像装置12、第二摄像装置13和控制器14,第一摄像装置12和第二摄像装置13均与控制器14电性连接,其中,第一摄像装置12和第二摄像装置13用于拍摄目标位置或无人机周围环境的图像,控制器14用于根据该图像获得目标的位置或者无人机周围的环境地图等。其中,第一摄像装置12和第二摄像装置13可以为高清数码相机或其他摄像装置,可以设置于任何利于拍摄的合适位置,在一些实施例中,第一摄像装置12和第二摄像装置13通过云台安装于无人机机身的底部,在另一些实施例中,第一摄像装置12和第二摄像装置13设置于机身的前部或者下部。
第一摄像装置12和第二摄像装置13在使用前需进行相机标定,在其中一些应用场合,所述相机标定方法由无人机100执行,具体的,第一摄像装置12和第二摄像装置13获得标定图像,控制器14基于所述标定图像执行相机标定方法进行相机标定。在另一些应用场合,所述相机标定方法由电子设备执行,如图2所示,该应用场合包括无人机100和电子设备200,无人机100和电子设备200之间,可以通过分别设置在各自内部的无线通信模块(例如信号接收器、信号发送器等)建立通信连接,上传或者下发数据/指令。在该实施例中,由无人机100拍摄获得标定图像,然后将所述标定图像发送给电子设备200,由电子设备200执行所述相机标定方法进行相机标定。
相机标定的目的是获得内、外参数矩阵以及进行畸变校正等,在其中一些应用中,主要就是获得世界坐标系到相机坐标系的旋转矩阵R和位移向量t。本发明实施例的相机标定方法用于双目相机标定,根据对极约束的定义,双目图像上匹配的两个特征点p2和p1满足p2Fp1=0,其中,F是基础矩阵。根据获得的各个双目图像上的匹配特征点对可获得左、右相机之间的基础矩阵F。基础矩阵F和本质矩阵E满足关系K2FK1=E,其中,K1和K2是左、右相机的内参,在出厂时已内置。于是可解得本质矩阵E,对本质矩阵E进行奇异值分解可获得双目相机的外参矩阵R和t。
本发明实施例中,将图像区域分成多个子区域,在获得双目图像上的各个匹配特征点对时,确定所述特征点对位于的子区域,并确保图像区域中每个子区域均具有预设数量以上的特征点对,确保了特征点对的均匀而全面的分布,从而利用这些特征点对进行相机标定时标定精度更高。
其中,所述图像区域为第一摄像装置12拍摄的图像确定的区域,或者为第二摄像装置13拍摄的图像确定的区域,可以认为,第一摄像装置12和第二摄像装置13具有相同的图像区域,只是各自在图像区域上的像素坐标不同。
需要说明的是,本发明实施例的相机标定方法除用于无人机的相机标定外,还可以用于其他装置的相机的标定,例如机器人的相机等。
图3为本发明实施例提供的相机标定方法的流程示意图,所述方法可以由图2中电子设备200或者无人机100执行(具体的,在一些实施例中,所述方法由无人机100中的控制器执行),如图3所示,所述方法包括:
101:获取第一标定图像和第二标定图像。
其中,可以通过第一摄像装置获得第一标定图像、第二摄像装置获得第二标定图像。在实际应用中,第一摄像装置和第二摄像装置在采集标定图像时,可以面对纹理较丰富的场景(例如草丛、树林等区域)采集标定图像。
102:从所述第一标定图像和所述第二标定图像中提取特征点。
基于所述第一标定图像和所述第二标定图像提取特征点,在其中一些实施例中,可以基于尺度不变特征变换算法(Scale-invariant feature transform,SIFT)从所述第一标定图像和所述第二标定图像中提取特征点。在提取特征点时,可以对特征点的位置和数量进行控制,以使提取的特征点尽量分布均匀。
103:对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对。
分别计算第一标定图像和第二标定图像上的特征点的描述符,基于所述描述符利用匹配算法进行匹配。在其中一些实施例中,可以利用暴力匹配算法进行从左到右和从右到左的双向交叉匹配,以获得高精度的匹配对。
104:确定所述特征点对位于图像区域中的子区域,所述图像区域包括至少两个子区域。
在获得所述第一标定图像和所述第二标定图像前,先将图像区域分成多个子区域,其中,所述子区域可以是任意合适的数量和形状,在其中一些实施例中,为了简化运算,所述子区域为均匀分布于所述图像区域的矩形分区,请参照图4。在图4所示的实施例中,图像区域被分成10*9个子区域,在其他实施例中,图像区域也可以被分成更多或者更少的子区域。
在其中一些实施例中,各子区域具有确定所述子区域边界的顶点,顶点具有顶点坐标,通过确定所述特征点对的坐标是否均位于子区域各顶点坐标围成的区域内,即可确定所述特征点位于图像区域中的哪一个子区域。以图4所示的实施例为例,可以将特征点对的坐标分别与每个子区域的四个顶点坐标进行比较,如果两个特征点的坐标均位于四个顶点坐标围城的区域内,则该特征点对属于该子区域。
由于特征点对的两个像素坐标(以下以第一像素坐标和第二像素坐标表示)分为位于第一摄像装置所对应的第一像素坐标系下、以及第二摄像装置所对应的第二像素坐标系下,因此,在确定特征点对位于的子区域时,需分别对比第一像素坐标与该子区域顶点在第一像素坐标系下的坐标,以及第二像素坐标与该子区域顶点在第二像素坐标系下的坐标。
在实际应用中,可以为每个子区域分配唯一的编号,以图4为例,编号为0-89,然后计算每个子区域的四个顶点在第一像素坐标系和第二像素坐标系下的像素坐标值,将编号和四个顶点坐标组成一个分区,以此代表该子区域,所有子区域组成一个分区表。确定特征点对位于的子区域时,根据每个特征点对的像素坐标查找分区表,将该特征点对的第一像素坐标与每个分区的四个顶点在第一像素坐标系下的像素坐标进行比较,将该特征点的第二像素坐标与该分区的四个顶点在第二像素坐标系下的像素坐标进行比较,当两个像素坐标均位于四个顶点坐标围城的区域内时,则将该特征点对归属到该分区。
105:继续获取第一标定图像和第二标定图像并进行特征点提取和匹配,直至图像区域中的每个子区域均具有预设数量以上的特征点对。
第一摄像装置和第二摄像装置在采集完一组标定图像后,可以进行一定的旋转和移动再进行标定图像的采集。针对每组标定图像进行特征点提取、特征点匹配,以及特征点对所属图像区域中的子区域的确认,当图像区域中的每个子区域均具有预设数量以上的特征点对(例如每个子区域包含的特征点对都大于或者等于10)时,停止标定图像的采集。
106:基于各子区域内的各特征点对进行相机标定。
根据对极约束的定义,双目图像上匹配的两个特征点p2和p1满足p2Fp1=0,其中,F是基础矩阵。根据获得的各个特征点对可获得左、右相机之间的基础矩阵F。具体的,在一些实施例中,可以利用随机抽样一致性算法(Random Sample Consensus,RANSAC)获得基础矩阵F。基础矩阵F和本质矩阵E满足关系K2FK1=E,其中,K1和K2是左、右相机的内参,在出厂时已内置。于是可解得本质矩阵E,对本质矩阵E进行奇异值分解(Singular ValueDecomposition,SVD)可获得双目相机的外参矩阵R和t。
本发明实施例将图像区域分成多个子区域,然后重复采集第一标定图像和第二标定图像并基于所述第一标定图像和所述第二标定图像获得匹配的特征点对,直至图像区域中每个子区域均具有预设数量以上的特征点对。本发明实施例使图像区域中每个子区域均具有预设数量以上的特征点对,确保了特征点对的均匀而全面的分布,从而利用这些特征点对进行相机标定时标定精度更高。而且无需标定物,可以以自然场景作为标定物,成本低、使用方便,无人机撞机后可以随时随地进行标定。
相应的,如图5所示,本发明实施例还提供了一种相机标定装置,用于无人机或电子设备(具体的,在其中一些实施例中,用于无人机中的控制器),如图5所示,所述装置包括:
图像获取模块501,用于获取第一标定图像和第二标定图像;
特征点提取模块502,用于从所述第一标定图像和所述第二标定图像中提取特征点;
特征点匹配模块503,用于对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对;
特征点位置确定模块504,用于确定所述特征点对位于图像区域中的子区域,其中,所述图像区域包括至少两个子区域;
图像采集模块501还用于继续获取第一标定图像和第二标定图像,直至图像区域中的每个子区域均具有预设数量以上的特征点对;
相机标定模块505,用于基于各子区域内的各特征点对进行相机标定。
本发明实施例将图像区域分成多个子区域,然后重复采集第一标定图像和第二标定图像并基于所述第一标定图像和所述第二标定图像获得匹配的特征点对,直至图像区域中每个子区域均具有预设数量以上的特征点对。本发明实施例使图像区域中每个子区域均具有预设数量以上的特征点对,确保了特征点对的均匀而全面的分布,从而利用这些特征点对进行相机标定时标定精度更高。而且无需标定物,可以以自然场景作为标定物,成本低,无人机撞机后可以随时随地进行标定。
在其中一些实施例中,所述子区域具有多个用于确定所述子区域边界的顶点,多个所述顶点均具有顶点坐标;
则,特征点位置确定模块504具体用于:
当所述特征点对的两个坐标均位于由所述子区域的顶点坐标围成的区域内时,则所述特征点对位于该子区域。
在其中一些实施例中,所述子区域为均匀分布于所述图像区域中的矩形分区。
在其中一些实施例中,特征点提取模块502具体用于基于尺度不变特征变换算法从所述第一标定图像和所述第二标定图像中提取特征点。
在其中一些实施例中,特征点匹配模块503具体用于:
基于暴力匹配算法对所述第一标定图像和所述第二标定图像进行双向交叉匹配。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
需要说明的是,上述各模块为方法对应的程序指令/模块,以软件程序、指令的方式存储于无人机控制器的存储器中,或者存储在电子设备的存储器中,无人机或者电子设备通过运行这些模块,实现上述的相机标定方法。
如图6所示,为无人机中控制器14的硬件结构示意图,请参照图6,控制器14包括:
一个或多个处理器141以及存储器142,图6中以一个处理器141为例。
处理器141和存储器142可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器142作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的相机标定方法对应的程序指令/模块(例如,附图5所示的图像获取模块501、特征点提取模块502、特征点匹配模块503、特征点位置确定模块504和相机标定模块505)。处理器141通过运行存储在存储器142中的非易失性软件程序、指令以及模块,从而执行无人机的各种功能应用以及数据处理,即实现上述方法实施例的相机标定方法。
存储器142可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据控制器的使用所创建的数据等。此外,存储器142可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器142可选包括相对于处理器141远程设置的存储器,这些远程存储器可以通过网络连接至无人机。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器142中,当被所述一个或者多个处理器141执行时,执行上述任意方法实施例中的相机标定方法,例如,执行以上描述的图3中的方法步骤101至步骤106;实现图5中的模块501-505的功能。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如图6中的一个处理器141,可使得上述一个或多个处理器可执行上述任意方法实施例中的相机标定方法,例如,执行以上描述的图3中的方法步骤101至步骤106;实现图5中的模块501-505的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施例的描述,本领域普通技术人员可以清楚地了解到各实施例可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (12)
1.一种相机标定方法,其特征在于,所述方法包括:
获取第一标定图像和第二标定图像;
从所述第一标定图像和所述第二标定图像中提取特征点;
对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对;
确定所述特征点对位于图像区域中的子区域,其中,所述图像区域包括至少两个子区域;
继续获取第一标定图像和第二标定图像并进行特征点提取和匹配,直至图像区域中的每个子区域均具有预设数量以上的特征点对;
基于各子区域内的各特征点对进行相机标定。
2.根据权利要求1所述的方法,其特征在于,所述子区域具有多个用于确定所述子区域边界的顶点,多个所述顶点均具有顶点坐标;则,
所述确定所述特征点对位于图像区域中的子区域,包括:
当所述特征点对的两个坐标均位于由所述子区域的顶点坐标围成的区域内时,则所述特征点对位于该子区域。
3.根据权利要求1或2所述的方法,其特征在于,所述子区域为均匀分布于所述图像区域中的矩形分区。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述从所述第一标定图像和所述第二标定图像中提取特征点,包括:
基于尺度不变特征变换算法从所述第一标定图像和所述第二标定图像中提取特征点。
5.根据权利要求1-4任意一项所述的方法,其特征在于,所述对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对,包括:
基于暴力匹配算法对所述第一标定图像和所述第二标定图像进行双向交叉匹配。
6.一种相机标定装置,其特征在于,所述装置包括:
图像获取模块,用于获取第一标定图像和第二标定图像;
特征点提取模块,用于从所述第一标定图像和所述第二标定图像中提取特征点;
特征点匹配模块,用于对所述第一标定图像和所述第二标定图像进行特征点匹配,获得特征点对;
特征点位置确定模块,用于确定所述特征点对位于图像区域中的子区域,其中,所述图像区域包括至少两个子区域;
所述图像采集模块还用于继续获取第一标定图像和第二标定图像,直至图像区域中的每个子区域均具有预设数量以上的特征点对;
相机标定模块,用于基于各子区域内的各特征点对进行相机标定。
7.根据权利要求6所述的装置,其特征在于,所述子区域具有多个用于确定所述子区域边界的顶点,多个所述顶点均具有顶点坐标;
则,所述特征点位置确定模块具体用于:
当所述特征点对的两个坐标均位于由所述子区域的顶点坐标围成的区域内时,则所述特征点对位于该子区域。
8.根据权利要求6或7所述的装置,其特征在于,所述子区域为均匀分布于所述图像区域中的矩形分区。
9.根据权利要求6-8任意一项所述的装置,其特征在于,所述特征点提取模块具体用于:
基于尺度不变特征变换算法从所述第一标定图像和所述第二标定图像中提取特征点。
10.根据权利要求6-9任意一项所述的装置,其特征在于,所述特征点匹配模块具体用于:
基于暴力匹配算法对所述第一标定图像和所述第二标定图像进行双向交叉匹配。
11.一种无人机,其特征在于,所述无人机包括机身、与所述机身相连的机臂、设于所述机臂的动力***以及设于机身的第一摄像装置和第二摄像装置,其中所述第一摄像装置用于获得第一标定图像,所述第二摄像装置用于获得第二标定图像;
所述无人机还包括分别与所述第一摄像装置和所述第二摄像装置通信连接的控制器,所述控制器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5任一项所述的方法。
12.一种非易失性计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被无人机执行时,使所述无人机执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910568633.5A CN110264530A (zh) | 2019-06-27 | 2019-06-27 | 一种相机标定方法、装置和无人机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910568633.5A CN110264530A (zh) | 2019-06-27 | 2019-06-27 | 一种相机标定方法、装置和无人机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110264530A true CN110264530A (zh) | 2019-09-20 |
Family
ID=67922451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910568633.5A Pending CN110264530A (zh) | 2019-06-27 | 2019-06-27 | 一种相机标定方法、装置和无人机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110264530A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233727A (zh) * | 2020-10-29 | 2021-01-15 | 北京诺禾致源科技股份有限公司 | 数据分区存储方法及装置 |
CN112581537A (zh) * | 2019-09-29 | 2021-03-30 | 长沙智能驾驶研究院有限公司 | 双目相机外参检验方法、装置、计算机设备和存储介质 |
CN112734859A (zh) * | 2021-01-11 | 2021-04-30 | Oppo广东移动通信有限公司 | 摄像模组参数的标定方法及装置、电子设备、存储介质 |
WO2021216948A1 (en) * | 2020-04-23 | 2021-10-28 | Sony Group Corporation | Calibration of cameras on unmanned aerial vehicles using human joints |
CN114419168A (zh) * | 2022-01-21 | 2022-04-29 | 北京微链道爱科技有限公司 | 一种图像特征点的标定方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120148097A1 (en) * | 2010-12-14 | 2012-06-14 | Electronics And Telecommunications Research Institute | 3d motion recognition method and apparatus |
CN104268876A (zh) * | 2014-09-26 | 2015-01-07 | 大连理工大学 | 基于分块的摄像机标定方法 |
CN105222760A (zh) * | 2015-10-22 | 2016-01-06 | 一飞智控(天津)科技有限公司 | 一种基于双目视觉的无人机自主障碍物检测***及方法 |
CN109242911A (zh) * | 2018-08-27 | 2019-01-18 | 大连理工大学 | 一种基于分区域的双目相机基本矩阵计算方法 |
CN109389649A (zh) * | 2018-09-27 | 2019-02-26 | 北京伟景智能科技有限公司 | 双目相机的快速标定方法和装置 |
-
2019
- 2019-06-27 CN CN201910568633.5A patent/CN110264530A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120148097A1 (en) * | 2010-12-14 | 2012-06-14 | Electronics And Telecommunications Research Institute | 3d motion recognition method and apparatus |
CN104268876A (zh) * | 2014-09-26 | 2015-01-07 | 大连理工大学 | 基于分块的摄像机标定方法 |
CN105222760A (zh) * | 2015-10-22 | 2016-01-06 | 一飞智控(天津)科技有限公司 | 一种基于双目视觉的无人机自主障碍物检测***及方法 |
CN109242911A (zh) * | 2018-08-27 | 2019-01-18 | 大连理工大学 | 一种基于分区域的双目相机基本矩阵计算方法 |
CN109389649A (zh) * | 2018-09-27 | 2019-02-26 | 北京伟景智能科技有限公司 | 双目相机的快速标定方法和装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581537A (zh) * | 2019-09-29 | 2021-03-30 | 长沙智能驾驶研究院有限公司 | 双目相机外参检验方法、装置、计算机设备和存储介质 |
CN112581537B (zh) * | 2019-09-29 | 2024-04-19 | 长沙智能驾驶研究院有限公司 | 双目相机外参检验方法、装置、计算机设备和存储介质 |
WO2021216948A1 (en) * | 2020-04-23 | 2021-10-28 | Sony Group Corporation | Calibration of cameras on unmanned aerial vehicles using human joints |
CN112233727A (zh) * | 2020-10-29 | 2021-01-15 | 北京诺禾致源科技股份有限公司 | 数据分区存储方法及装置 |
CN112233727B (zh) * | 2020-10-29 | 2024-01-26 | 北京诺禾致源科技股份有限公司 | 数据分区存储方法及装置 |
CN112734859A (zh) * | 2021-01-11 | 2021-04-30 | Oppo广东移动通信有限公司 | 摄像模组参数的标定方法及装置、电子设备、存储介质 |
CN114419168A (zh) * | 2022-01-21 | 2022-04-29 | 北京微链道爱科技有限公司 | 一种图像特征点的标定方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264530A (zh) | 一种相机标定方法、装置和无人机 | |
CN106570820B (zh) | 一种基于四旋翼无人机的单目视觉三维特征提取方法 | |
CN108711166B (zh) | 一种基于四旋翼无人机的单目相机尺度估计方法 | |
CN110232716A (zh) | 一种相机标定方法、装置和电子设备 | |
CN106447766B (zh) | 一种基于移动设备单目相机的场景重建方法及装置 | |
CN110268445A (zh) | 利用陀螺仪的相机自动校准 | |
CN108351654B (zh) | 用于视觉目标跟踪的***和方法 | |
US11610373B2 (en) | Method of generating three-dimensional model data of object | |
CN106339006B (zh) | 一种飞行器的目标跟踪方法和装置 | |
CN205263655U (zh) | 一种用于自动生成全景照片的***、无人飞行器及地面站 | |
CN108769531B (zh) | 控制拍摄装置的拍摄角度的方法、控制装置及遥控器 | |
EP3397554A1 (en) | System and method for utilization of multiple-camera network to capture static and/or motion scenes | |
CN109074664A (zh) | 姿态标定方法、设备及无人飞行器 | |
CN109767470B (zh) | 一种跟踪***初始化方法及终端设备 | |
CN111506094A (zh) | 质心位置确定方法、装置、足式机器人及存储介质 | |
Eynard et al. | Real time UAV altitude, attitude and motion estimation from hybrid stereovision | |
Zhao et al. | Vision-based tracking control of quadrotor with backstepping sliding mode control | |
CN110728716A (zh) | 一种标定方法、装置及飞行器 | |
CN109521785A (zh) | 一种随身拍智能旋翼飞行器*** | |
CN111383282B (zh) | 位姿信息确定方法及装置 | |
KR102342738B1 (ko) | 거대 ar 영상 정보 생성 방법 및 장치 | |
CN110382358A (zh) | 云台姿态修正方法、云台姿态修正装置、云台、云台***和无人机 | |
Pu et al. | Aerial face recognition and absolute distance estimation using drone and deep learning | |
Zarei et al. | Indoor UAV object detection algorithms on three processors: implementation test and comparison | |
CN108007439A (zh) | 视频增稳方法、装置及无人机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1 Applicant after: Shenzhen daotong intelligent Aviation Technology Co.,Ltd. Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1 Applicant before: AUTEL ROBOTICS Co.,Ltd. |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190920 |