CN115457129A - 一种飞行器的定位方法、装置、电子设备及存储介质 - Google Patents
一种飞行器的定位方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115457129A CN115457129A CN202211080176.3A CN202211080176A CN115457129A CN 115457129 A CN115457129 A CN 115457129A CN 202211080176 A CN202211080176 A CN 202211080176A CN 115457129 A CN115457129 A CN 115457129A
- Authority
- CN
- China
- Prior art keywords
- feature
- information
- aerial vehicle
- unmanned aerial
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Navigation (AREA)
Abstract
本发明实施例提供一种飞行器的定位方法、装置、电子设备及存储介质,该方法包括:从目标区域地图数据中获取第一特征信息,第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;对目标区域地图数据进行航线规划,获得多个航点;分别获取航点的三维坐标数据;针对每个航点,以航点的像素坐标为中心,采集机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;将三维坐标数据以及特征集合组织成航点的属性信息,以得到航迹信息;获取机载摄像头按照预设间隔采集的实时图像数据;基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息。本发明能够提高飞行器的定位精度。
Description
技术领域
本发明涉及飞行器定位技术领域,尤其涉及一种飞行器的定位方法、装置、电子设备及存储介质。
背景技术
目前,飞行器的用途广泛,经常被应用于植保、城市管理、地质、气象、电力、抢险救灾、视频拍摄等行业。
现有技术中,飞行器要进行作业时,可以基于GPS或者更高精度的RTK(Real-timekinematic,实时动态差分法)-GPS给飞行器提供一个位置参考。可见,现有技术的作业过程,都是基于GPS而工作的,极大的依赖于GPS,一旦在无GPS信号或者有遮挡的情况下,飞行器将无法正常工作,使得飞行器定位精度低。
发明内容
本发明实施例提供一种飞行器的定位方法,旨在解决现有飞行器定位精度低的问题。
第一方面,本发明实施例提供一种飞行器的定位方法,所述方法包括:
从目标区域地图数据中获取第一特征信息,所述第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;
对所述目标区域地图数据进行航线规划,获得多个航点;
分别获取所述航点的三维坐标数据;
针对每个航点,以所述航点的像素坐标为中心,采集所述机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;
将所述三维坐标数据以及所述特征集合组织成所述航点的属性信息,以得到航迹信息;
获取所述机载摄像头按照预设间隔采集的实时图像数据;
基于所述航迹信息以及所述实时图像数据,确定所述无人飞行器当前的位置信息。
可选的,所述基于所述航迹信息以及所述实时图像数据,确定所述无人飞行器当前的位置信息的步骤包括:
基于所述航迹信息以及所述实时图像数据,判断所述无人飞行器是否偏离所述航迹信息对应的航线;
若所述无人飞行器没有偏离所述航线,则获取所述无人飞行器的临时定位信息;
基于所述临时定位信息,确定所述无人飞行器当前的位置信息。
可选的,所述基于所述航迹信息以及所述实时图像数据,判断所述无人飞行器是否偏离所述航迹信息对应的航线的步骤包括:
从所述实时图像数据中提取第二特征信息,所述第二特征信息包括第二特征字典;
计算所述第二特征字典与所述特征集合中每个第一特征字典的匹配度;
若不存在匹配度大于预设阈值的第一特征字典,则判定所述无人飞行器偏离所述航迹信息对应的航线。
可选的,所述获取所述无人飞行器的临时定位信息的步骤包括:
若存在匹配度大于预设阈值的第一特征字典,则获取所述匹配度大于预设阈值的第一特征字典对应的特征点,并将所述特征点确定的区域,作为所述无人飞行器的临时定位信息。
可选的,所述特征集合还包括每个特征点对应的第一特征描述子,所述第二特征信息包括第二特征描述子,所述基于所述临时定位信息,确定所述无人飞行器当前的位置信息的步骤包括:
基于所述临时定位信息确定邻域航点,并获取所述邻域航点关联的第一特征描述子;
将所述第二特征描述子与所述第一特征描述子进行匹配,确定匹配的特征点序列;
基于所述匹配的特征点序列,确定所述无人飞行器当前的位置信息。
可选的,所述基于所述匹配的特征点序列,确定所述无人飞行器当前的位置信息的步骤包括:
采用预设的定位算法对所述匹配的特征点序列进行计算,确定所述无人飞行器当前的位置信息。
可选的,所述方法还包括:
确定所述当前的位置信息与所述航迹信息的位置偏移量;
基于所述位置偏移量对所述当前的位置信息进行修正。
第二方面,本发明实施例还提供了一种飞行器的定位装置,所述飞行器的定位装置包括:
第一获取模块,用于从目标区域地图数据中获取第一特征信息,所述第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;
规划模块,用于对所述目标区域地图数据进行航线规划,获得多个航点;
第二获取模块,用于分别获取所述航点的三维坐标数据;
采集模块,用于针对每个航点,以所述航点的像素坐标为中心,采集所述机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;
组成模块,用于将所述三维坐标数据以及所述特征集合组织成所述航点的属性信息,以得到航迹信息;
第三获取模块,用于获取所述机载摄像头按照预设间隔采集的实时图像数据;
第一确定模块,用于基于所述航迹信息以及所述实时图像数据,确定所述无人飞行器当前的位置信息。
第三方面,本发明实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例提供的飞行器的定位方法中的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现发明实施例提供的飞行器的定位方法中的步骤。
本发明实施例中,通过从目标区域地图数据中获取第一特征信息,第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;对目标区域地图数据进行航线规划,获得多个航点;分别获取航点的三维坐标数据;针对每个航点,以航点的像素坐标为中心,采集机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;将三维坐标数据以及特征集合组织成航点的属性信息,以得到航迹信息;获取机载摄像头按照预设间隔采集的实时图像数据;基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息。这样,通过使用航迹信息中的特征字典给无人飞行器进行粗略定位,为后面的特征描述子匹配获得更精准的当前的位置信息,同时结合实时图像数据,实现无人飞行器在无GPS信号或者GPS信号被覆盖时的定位和导航,降低无人飞行器对GPS的依赖,从而提高飞行器的定位精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种飞行器的定位方法的流程图;
图2是图1实施例中在步骤107提供的一种方法流程图;
图3是图2实施例中在步骤201提供的一种方法的流程图;
图4是本发明实施例提供的一种飞行器的定位装置的结构示意图;
图5是图4实施例中第一确定模块提供的一种结构示意图;
图6是图5实施例中判断单元提供的一种结构示意图;
图7是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,图1是本发明实施例提供的一种飞行器的定位方法流程图。该飞行器的定位方法包括步骤:
步骤101、从目标区域地图数据中获取第一特征信息。
其中,目标区域地图数据是根据预先采集得到的地图数据,同时根据实际作业需求,从地图数据中提取待作业的目标区域地图数据。待目标区域可以包括一张目标区域地图数据、特征点和对应的特征描述子的集合、以及每个特征点对应的特征字典。
第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典。
具体的,得到目标区域地图数据以后,可以对该目标区域地图数据进行特征提取,得到第一特征信息。
步骤102、对目标区域地图数据进行航线规划,获得多个航点。
具体的,可以根据作业需求,选取对应的规划方案,直接在目标区域地图数据上进行航线规划。例如,作业需求是要求无人飞行器的作业完全覆盖待目标区域,则可以采用蛇形规划法进行航线规划。
需要说明的是,本发明实施例并不限于航线的规划方法,不管采用何种规划方法,都可以采用一系列离散的三维坐标点(即航点)以及对应的属性信息来描述规划的结果,即航迹信息。
在对目标区域进行航线规划后,可以得到多个航点,多个航点连接起来可以得到该目标区域的航线。该航线的起飞点可以在待目标区域根据任意需求指定,本发明实施例对起飞点的确定方式不作限制。
步骤103、分别获取航点的三维坐标数据。
每个航点可以描述为一个三维坐标数据,记为fi。其中,该三维坐标数据可以包括平面坐标以及高度坐标。
具体的,可以获取航点对应的像素的地理位置坐标,作为平面坐标;获取航点对应的像素的高度;获取规划时无人飞行器相对于地面的对地高度;将高度以及对地高度的和,作为高度坐标。
为了实现定位和导航功能功能,在航迹信息中,两个航点间的间距不能过于稀疏,在一种实现方式中,两个航点间的间距可以由机载摄像头连续采集的两张图像的重叠度确定。
在实际中,上述重叠度可以设置为大于30%。
在具体实现中,重叠度与无人飞行器的对地高度、机载摄像头的属性关系可以表示如下:
J=Hw p n p(1-p)/f
其中,J是机载摄像头拍摄两张图像的时间间距,H是无人飞行器的对地高度,W p是像素的大小,n p是像素数量,P是重叠度,f是机载摄像头的焦距。
上述像素大小和像素数量是指平行于飞行方向的传感器的像素大小和纵横坐标的像素数量。
步骤104、针对每个航点,以航点的像素坐标为中心,采集机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合。
具体的,满足无人飞行器的导航需求,还可以确定航点的特征集合。
具体的,针对每个航点,可以以航点的像素坐标为中心,搜集机载摄像头的视场角FOV所能够覆盖的区域的特征描述子和特征字典,记该搜集到的特征描述子和特征字典的集合为特征集合为di={xij,tij},其中,xij为航点i对应的第j个特征点的特征描述子,tij为航点i对应的第j个特征点的特征字典。
步骤105、将三维坐标数据以及特征集合组织成航点的属性信息,以得到航迹信息。
具体的,得到每个航点的三维坐标数据以及特征集合以后,可以将该三维坐标数据以及特征集合组织成该航点的属性信息,即,航点的描述为hi={di,fi},进而得到对应的航迹信息。航迹信息可以描述为H={h1,h2,h3,…,hn}。
步骤106、获取机载摄像头按照预设间隔采集的实时图像数据。
具体的,无人飞行器启动以后,可以开启机载摄像头,并控制机载摄像头按照预设间隔不断采集实时图像数据。
步骤107、基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息。
针对无人飞行器每次获取的实时图像数据,无人飞行器都可以与航迹信息进行比较,以根据该航迹信息以及实时图像数据,确定无人飞行器实时的位置信息。
在本发明实施例的一种实施方式中,如图2所示,步骤107进一步可以包括如下步骤:
步骤201,基于航迹信息以及实时图像数据,判断无人飞行器是否偏离航迹信息对应的航线。
首先,无人飞行器可以根据航迹信息以及当前获取的实时图像数据,判断当前无人飞行器是否在规划的航线附近,即判断当前无人飞行器是否偏离该航迹信息对应的航线。
在本发明实施例的一种实施方式中,如图3所示,步骤201进一步可以包括如下步骤:
步骤301,从实时图像数据中提取第二特征信息。
作为本发明实施例的一种优选实施例,该第二特征信息可以包括多个第二特征点、每个第二特征点对应的第二特征字典以及第二特征描述子等。
具体的,步骤301包括:
将实时图像数据切分成多个区块数据。例如,可以采用图像切割的方法,将实时图像数据切割成N*M个区块数据。
分别从每个区块数据中提取预设数量的特征点。具体的,得到N*M个区块数据以后,可以分别从每个区块数据中提取t个特征点,以保证特征点在实时图像数据中均匀分布。
在实际中,上述N、M、t可以满足如下条件:预设数量的像素对应一个特征点,例如,100个像素对应一个特征点。
当然,除了分块之外,也可以按照预设的特征提取方式直接从实时图像数据中提取特征点,本发明实施例对此不加以限制。
特征点可以指位置本身具有常规的属性意义的点,比如角点(Fast角点、Herries角点等)、交叉点等等。
在具体实现中,可以采用计算机视觉的方法来从每个区块数据中提取特征点,例如,针对Fast角点,其提取方式可以包括如下过程:遍历区块数据中各个像素点,以当前像素点为中心,3为半径选择16个周围像素,依次进行比较,灰度差异值大于预设阈值的则进行标记,若标记的数量大于12,则当前点为特征点。
生成特征点对应的特征描述子。具体的,得到特征点后,为这些特征点建立特征描述,这种特征描述可以称为特征描述子。
作为一种示例,特征描述子可以包括SURF(speed up robust feature,快速鲁棒特征)描述子、ORB(Oriented FAST and Rotated BRIEF)描述子等。
在实现中,可以结合特征描述子、该特征点的像素坐标以及该特征点的地理位置坐标来描述该特征点,即,特征点的描述可以记为xi={di,ci,fi},其中,di为第i个特征点的特征描述子,其为n维向量;ci为第i个特征点的像素坐标;fi为第i个特征点的地理位置坐标,可以用三维向量表示,即三维位置数据。
实时图像数据中所有的特征点和对应的特征描述子的集合记可以为:X={x1,x2,x3,…,xn}。
生成特征点对应的特征字典。具体的,在得到特征点以及对应的特征描述子以后,还可以创建每个特征点对应的特征字典,特征字典的作用是用于快速检测无人飞行器当前的大致位置,进而进行高精度的图像匹配和无人飞行器的定位。
在具体实现中,可以采用回环检测算法来确定每个特征点对应的特征字典,例如,一种回环检测算法可以包括DBOW2的词袋模型(bag of words)。
步骤302,计算第二特征字典与特征集合中每个第一特征字典的匹配度。
具体的,得到实时图像数据中多个第二特征点对应的第二特征字典以后,可以分别将每个第二特征字典与特征集合中每个第一特征字典进行匹配,以计算每个第二特征字典与每个特征集合中每个第一特征字典进行匹配度。
在本发明实施例中,并不限于匹配度的计算方法,例如,可以采用相似度的计算方法计算第一特征字典与第二特征字典的匹配度。
步骤303,若不存在匹配度大于预设阈值的第一特征字典,则判定无人飞行器偏离航迹信息对应的航线。
具体的,当计算所有第二特征字典与特征集合中每个第一特征字典的匹配度以后,若不存在大于预设阈值的匹配度时,则可以判定无人飞行器偏离航迹信息对应的航线,其中,偏离航线是指至少偏离了一条航带。
步骤202,若无人飞行器没有偏离航线,则获取无人飞行器的临时定位信息。
在本发明实施例的一种优选实施例中,步骤202进一步可以包括如下步骤:
若存在匹配度大于预设阈值的第一特征字典,则获取匹配度大于预设阈值的第一特征字典对应的特征点,并将特征点确定的区域,作为无人飞行器的临时定位信息。
若存在大于预设阈值的匹配度时,则可以判定无人飞行器在航迹信息对应的航线上,即判定无人飞行器没有偏离该航迹信息对应的航线。此时,可以确定匹配度大于预设阈值的第一特征字典对应的特征点,作为匹配特征点,并将这些匹配特征点所确定的区域,作为无人飞行器的临时定位信息,该临时定位信息是指无人飞行器的粗略飞行位置。
需要说明的是,如果无人飞行器是按照航线依次飞行的,因为待匹配的相邻航点是确定的,此时可以不需要使用特征字典,按照已经飞行的航点来确定无人飞行器粗略飞行位置。
步骤203,基于临时定位信息,确定无人飞行器当前的位置信息。
具体的,得到无人飞行器的临时定位信息以后,可以根据这个粗略的定位信息,获取无人飞行器的精确的位置信息。
在本发明实施例的一种优选实施例中,子步骤203进一步可以包括如下步骤:
基于临时定位信息确定邻域航点,并获取邻域航点关联的第一特征描述子。
将第二特征描述子与第一特征描述子进行匹配,确定匹配的特征点序列。具体的,得到无人飞行器的临时定位信息以后,可以根据该临时定位信息,确定相邻的航点,即邻域航点,并获得与该邻域航点所关联的第一特征描述子。
随后,可以分别将实时图像数据对应的第二特征描述子分别与该邻域航点所关联的第一特征描述子进行匹配,匹配完成后得到一组特征点序列。
在一种实施方式中,该特征点序列可以包括实时图像数据的匹配的特征点的二维坐标,以及,对应的匹配上的目标区域地图数据的特征点的三维坐标。
基于匹配的特征点序列,确定无人飞行器当前的位置信息。
具体的,基于匹配的特征点序列,确定无人飞行器当前的位置信息包括:采用预设的定位算法对匹配的特征点序列进行计算,确定无人飞行器当前的位置信息。
在一种实施方式中,预设的定位算法可以包括但不限于PNP(相机姿态估计)算法。
在本发明实施例的一种优选实施例中,得到无人飞行器当前的位置信息以后,还可以包括如下步骤:
确定当前的位置信息与航迹信息的位置偏移量;基于位置偏移量对当前的位置信息进行修正。
在具体实现中,可以计算当前的位置信息与航迹信息的预定航点位置的位置差,作为位置偏移量,并将该位置偏移量输入给飞行控制器来修正当前偏差。
在本发明实施例中,通过从目标区域地图数据中获取第一特征信息,第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;对目标区域地图数据进行航线规划,获得多个航点;分别获取航点的三维坐标数据;针对每个航点,以航点的像素坐标为中心,采集机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;将三维坐标数据以及特征集合组织成航点的属性信息,以得到航迹信息;获取机载摄像头按照预设间隔采集的实时图像数据;基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息。这样,通过使用航迹信息中的特征字典给无人飞行器进行粗略定位,为后面的特征描述子匹配获得更精准的当前的位置信息,同时结合实时图像数据,实现无人飞行器在无GPS信号或者GPS信号被覆盖时的定位和导航,降低无人飞行器对GPS的依赖,从而提高飞行器的定位精度。
需要说明的是,本发明实施例提供的飞行器的定位方法可以应用于可以进行飞行器的定位的智能手机、电脑、服务器等设备。
如图4所示,飞行器的定位装置400包括:
第一获取模块401,用于从目标区域地图数据中获取第一特征信息,第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;
规划模块402,用于对目标区域地图数据进行航线规划,获得多个航点;
第二获取模块403,用于分别获取航点的三维坐标数据;
采集模块404,用于针对每个航点,以航点的像素坐标为中心,采集机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;
组成模块405,用于将三维坐标数据以及特征集合组织成航点的属性信息,以得到航迹信息;
第三获取模块406,用于获取机载摄像头按照预设间隔采集的实时图像数据;
第一确定模块407,用于基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息。
可选的,如图5所示,第一确定模块407包括:
判断单元4071,用于基于航迹信息以及实时图像数据,判断无人飞行器是否偏离航迹信息对应的航线;
获取单元4072,用于若无人飞行器没有偏离航线,则获取无人飞行器的临时定位信息;
确定单元4073,用于基于临时定位信息,确定无人飞行器当前的位置信息。
可选的,如图6所示,判断单元4071包括:
提取子单元40711,用于从实时图像数据中提取第二特征信息,第二特征信息包括第二特征字典;
计算子单元40712,用于计算第二特征字典与特征集合中每个第一特征字典的匹配度;
判定子单元40713,用于若不存在匹配度大于预设阈值的第一特征字典,则判定无人飞行器偏离航迹信息对应的航线。
可选的,获取单元还用于若存在匹配度大于预设阈值的第一特征字典,则获取匹配度大于预设阈值的第一特征字典对应的特征点,并将特征点确定的区域,作为无人飞行器的临时定位信息。
可选的,特征集合还包括每个特征点对应的第一特征描述子,第二特征信息包括第二特征描述子,确定单元包括:
第一确定子单元,用于基于临时定位信息确定邻域航点,并获取邻域航点关联的第一特征描述子;
匹配子单元,用于将第二特征描述子与第一特征描述子进行匹配,确定匹配的特征点序列;
第二确定子单元,用于基于匹配的特征点序列,确定无人飞行器当前的位置信息。
可选的,第二确定子单元还用于采用预设的定位算法对匹配的特征点序列进行计算,确定无人飞行器当前的位置信息。
可选的,飞行器的定位装置还包括:
第二确定模块,用于确定当前的位置信息与航迹信息的位置偏移量;
修正模块,用于基于位置偏移量对当前的位置信息进行修正。
需要说明的是,本发明实施例提供的飞行器的定位装置400可以应用于可以进行飞行器的定位的智能手机、电脑、服务器等设备。
本发明实施例提供的飞行器的定位装置400能够实现上述方法实施例中飞行器的定位方法实现的各个过程,且可以达到相同的有益效果。为避免重复,这里不再赘述。
参见图7,图7是本发明实施例提供的一种电子设备的结构示意图,如图7所示,包括:存储器502、处理器501及存储在存储器502上并可在处理器501上运行的飞行器的定位方法的计算机程序,其中:
处理器501用于调用存储器502存储的计算机程序,执行如下步骤:
从目标区域地图数据中获取第一特征信息,第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;
对目标区域地图数据进行航线规划,获得多个航点;
分别获取航点的三维坐标数据;
针对每个航点,以航点的像素坐标为中心,采集机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;
将三维坐标数据以及特征集合组织成航点的属性信息,以得到航迹信息;
获取机载摄像头按照预设间隔采集的实时图像数据;
基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息。
可选的,处理器501执行的基于航迹信息以及实时图像数据,确定无人飞行器当前的位置信息的步骤包括:
基于航迹信息以及实时图像数据,判断无人飞行器是否偏离航迹信息对应的航线;
若无人飞行器没有偏离航线,则获取无人飞行器的临时定位信息;
基于临时定位信息,确定无人飞行器当前的位置信息。
可选的,处理器501执行的基于航迹信息以及实时图像数据,判断无人飞行器是否偏离航迹信息对应的航线的步骤包括:
从实时图像数据中提取第二特征信息,第二特征信息包括第二特征字典;
计算第二特征字典与特征集合中每个第一特征字典的匹配度;
若不存在匹配度大于预设阈值的第一特征字典,则判定无人飞行器偏离航迹信息对应的航线。
可选的,处理器501执行的获取无人飞行器的临时定位信息的步骤包括:
若存在匹配度大于预设阈值的第一特征字典,则获取匹配度大于预设阈值的第一特征字典对应的特征点,并将特征点确定的区域,作为无人飞行器的临时定位信息。
可选的,特征集合还包括每个特征点对应的第一特征描述子,第二特征信息包括第二特征描述子,处理器501执行的基于临时定位信息,确定无人飞行器当前的位置信息的步骤包括:
基于临时定位信息确定邻域航点,并获取邻域航点关联的第一特征描述子;
将第二特征描述子与第一特征描述子进行匹配,确定匹配的特征点序列;
基于匹配的特征点序列,确定无人飞行器当前的位置信息。
可选的,处理器501执行的基于匹配的特征点序列,确定无人飞行器当前的位置信息的步骤包括:
采用预设的定位算法对匹配的特征点序列进行计算,确定无人飞行器当前的位置信息。
可选的,处理器501还执行步骤:
确定当前的位置信息与航迹信息的位置偏移量;
基于位置偏移量对当前的位置信息进行修正。
需要说明的是,本发明实施例提供的电子设备500可以应用于可以进行飞行器的定位方法的智能手机、电脑、服务器等设备。
本发明实施例提供的电子设备500能够实现上述方法实施例中飞行器的定位方法实现的各个过程,且可以达到相同的有益效果。为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现本发明实施例提供的飞行器的定位方法或应用端飞行器的定位方法的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存取存储器(Random Access Memory,简称RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种飞行器的定位方法,其特征在于,所述飞行器包括机载摄像头,所述方法包括以下步骤:
从目标区域地图数据中获取第一特征信息,所述第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;
对所述目标区域地图数据进行航线规划,获得多个航点;
分别获取所述航点的三维坐标数据;
针对每个航点,以所述航点的像素坐标为中心,采集所述机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;
将所述三维坐标数据以及所述特征集合组织成所述航点的属性信息,以得到航迹信息;
获取所述机载摄像头按照预设间隔采集的实时图像数据;
基于所述航迹信息以及所述实时图像数据,确定所述无人飞行器当前的位置信息。
2.如权利要求1所述的方法,其特征在于,所述基于所述航迹信息以及所述实时图像数据,确定所述无人飞行器当前的位置信息的步骤包括:
基于所述航迹信息以及所述实时图像数据,判断所述无人飞行器是否偏离所述航迹信息对应的航线;
若所述无人飞行器没有偏离所述航线,则获取所述无人飞行器的临时定位信息;
基于所述临时定位信息,确定所述无人飞行器当前的位置信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述航迹信息以及所述实时图像数据,判断所述无人飞行器是否偏离所述航迹信息对应的航线的步骤包括:
从所述实时图像数据中提取第二特征信息,所述第二特征信息包括第二特征字典;
计算所述第二特征字典与所述特征集合中每个第一特征字典的匹配度;
若不存在匹配度大于预设阈值的第一特征字典,则判定所述无人飞行器偏离所述航迹信息对应的航线。
4.根据权利要求3所述的方法,其特征在于,所述获取所述无人飞行器的临时定位信息的步骤包括:
若存在匹配度大于预设阈值的第一特征字典,则获取所述匹配度大于预设阈值的第一特征字典对应的特征点,并将所述特征点确定的区域,作为所述无人飞行器的临时定位信息。
5.根据权利要求3或4所述的方法,其特征在于,所述特征集合还包括每个特征点对应的第一特征描述子,所述第二特征信息包括第二特征描述子,所述基于所述临时定位信息,确定所述无人飞行器当前的位置信息的步骤包括:
基于所述临时定位信息确定邻域航点,并获取所述邻域航点关联的第一特征描述子;
将所述第二特征描述子与所述第一特征描述子进行匹配,确定匹配的特征点序列;
基于所述匹配的特征点序列,确定所述无人飞行器当前的位置信息。
6.根据权利要求5所述的方法,其特征在于,所述基于所述匹配的特征点序列,确定所述无人飞行器当前的位置信息的步骤包括:
采用预设的定位算法对所述匹配的特征点序列进行计算,确定所述无人飞行器当前的位置信息。
7.根据权利要求1-6中任意一项所述的方法,其特征在于,所述方法还包括:
确定所述当前的位置信息与所述航迹信息的位置偏移量;
基于所述位置偏移量对所述当前的位置信息进行修正。
8.一种飞行器的定位装置,其特征在于,所述飞行器的定位装置包括:
第一获取模块,用于从目标区域地图数据中获取第一特征信息,所述第一特征信息至少包括特征点、特征点对应的特征描述子以及特征点对应的第一特征字典;
规划模块,用于对所述目标区域地图数据进行航线规划,获得多个航点;
第二获取模块,用于分别获取所述航点的三维坐标数据;
采集模块,用于针对每个航点,以所述航点的像素坐标为中心,采集所述机载摄像头的视场角所能覆盖的区域的特征描述子以及第一特征字典,生成特征集合;
组成模块,用于将所述三维坐标数据以及所述特征集合组织成所述航点的属性信息,以得到航迹信息;
第三获取模块,用于获取所述机载摄像头按照预设间隔采集的实时图像数据;
第一确定模块,用于基于所述航迹信息以及所述实时图像数据,确定所述无人飞行器当前的位置信息。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的飞行器的定位方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的飞行器的定位方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211080176.3A CN115457129A (zh) | 2022-09-05 | 2022-09-05 | 一种飞行器的定位方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211080176.3A CN115457129A (zh) | 2022-09-05 | 2022-09-05 | 一种飞行器的定位方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115457129A true CN115457129A (zh) | 2022-12-09 |
Family
ID=84303593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211080176.3A Pending CN115457129A (zh) | 2022-09-05 | 2022-09-05 | 一种飞行器的定位方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115457129A (zh) |
-
2022
- 2022-09-05 CN CN202211080176.3A patent/CN115457129A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109324337B (zh) | 无人飞行器的航线生成及定位方法、装置及无人飞行器 | |
CN109931939B (zh) | 车辆的定位方法、装置、设备及计算机可读存储介质 | |
CN111830953B (zh) | 车辆自定位方法、装置及*** | |
CN110617821B (zh) | 定位方法、装置及存储介质 | |
CN111213155A (zh) | 图像处理方法、设备、可移动平台、无人机及存储介质 | |
EP3106832B1 (en) | Cross spectral feature correlation for navigational adjustment | |
CN112419374B (zh) | 一种基于图像配准的无人机定位方法 | |
CN111241988B (zh) | 一种结合定位信息的大场景内运动目标检测识别方法 | |
CN111829532B (zh) | 一种飞行器重定位***和重定位方法 | |
CN113916243A (zh) | 目标场景区域的车辆定位方法、装置、设备和存储介质 | |
CN111986261B (zh) | 一种车辆定位方法、装置、电子设备及存储介质 | |
CN115861860B (zh) | 一种无人机的目标跟踪定位方法和*** | |
CN113223064B (zh) | 一种视觉惯性里程计尺度的估计方法和装置 | |
WO2018131546A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム | |
CN111104861B (zh) | 用于确定电线位置的方法和设备以及存储介质 | |
US20230360234A1 (en) | Detection of environmental changes to delivery zone | |
CN113312435A (zh) | 高精度地图更新方法和设备 | |
CN116912716A (zh) | 目标定位方法、装置、电子设备及存储介质 | |
CN110674327A (zh) | 一种较精确的定位方法和装置 | |
CN113469045B (zh) | 无人集卡的视觉定位方法、***、电子设备和存储介质 | |
CN113850864B (zh) | 一种面向室外移动机器人的gnss/lidar回环检测方法 | |
CN115457129A (zh) | 一种飞行器的定位方法、装置、电子设备及存储介质 | |
US11461944B2 (en) | Region clipping method and recording medium storing region clipping program | |
CN115077563A (zh) | 车辆定位精度评价方法、装置及电子设备 | |
CN111414804B (zh) | 识别框确定方法、装置、计算机设备、车辆和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |