CN107895386A - 一种多平台联合目标自主识别方法 - Google Patents

一种多平台联合目标自主识别方法 Download PDF

Info

Publication number
CN107895386A
CN107895386A CN201711123377.6A CN201711123377A CN107895386A CN 107895386 A CN107895386 A CN 107895386A CN 201711123377 A CN201711123377 A CN 201711123377A CN 107895386 A CN107895386 A CN 107895386A
Authority
CN
China
Prior art keywords
platform
target
image
depth information
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711123377.6A
Other languages
English (en)
Inventor
张原�
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Aircraft Design and Research Institute of AVIC
Original Assignee
Xian Aircraft Design and Research Institute of AVIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Aircraft Design and Research Institute of AVIC filed Critical Xian Aircraft Design and Research Institute of AVIC
Priority to CN201711123377.6A priority Critical patent/CN107895386A/zh
Publication of CN107895386A publication Critical patent/CN107895386A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种多平台联合目标自主识别方法。所述多平台联合目标自主识别方法包括如下步骤:步骤1:获得各个识别目标的含有深度信息的二维图像;步骤2:通过各个识别目标的含有深度信息的二维图像训练CNN网络,从而预设CNN网络参数;步骤3:飞机探测疑似目标,并获取疑似目标的含有深度信息的二维图像;步骤4:将飞机获得的疑似目标的含有深度信息的二维图像传递给已经完成训练的CNN网络,从而通过CNN网络判断出疑似目标是否为预设的多个识别目标中的一个。本申请的多平台联合目标自主识别方法综合多平台间的光学探测设备,使载机能够通过平台间通信获取对疑似目标的多角度光学成像,实现多机联合的对TOI的自主识别。

Description

一种多平台联合目标自主识别方法
技术领域
本发明涉及航电***技术领域,特别是涉及一种多平台联合目标自主识别方法。
背景技术
侦查、作战飞机在执行任务时,特别是执行对地作战任务时,经常需要对TOI进行观测与识别,这一任务到目前为止仍然主要由人工完成。
因此,希望有一种技术方案来克服或至少减轻现有技术的至少一个上述缺陷。
发明内容
本发明的目的在于提供一种多平台联合目标自主识别方法来克服或至少减轻现有技术的至少一个上述缺陷。
为实现上述目的,本发明提供一种多平台联合目标自主识别方法,所述多平台联合目标自主识别方法包括如下步骤:
步骤1:预设多个识别目标,并获得各个识别目标的含有深度信息的二维图像;
步骤2:通过各个识别目标的含有深度信息的二维图像训练CNN网络,从而预设CNN网络参数;
步骤3:飞机探测疑似目标,并获取疑似目标的含有深度信息的二维图像;
步骤4:将飞机获得的疑似目标的含有深度信息的二维图像传递给已经完成训练的CNN网络,从而通过CNN网络判断出疑似目标是否为预设的多个识别目标中的一个。
优选地,所述步骤1具体为:
步骤11:预设多个识别目标,通过各个平台对各预设目标进行光学采集,确保有2个或两个以上平台的光学探测设备从不同观测角度保证一个或者多个目标在传感器视场内,对各个预设目标进行光学采集,得到图像I1、I2…In,形成图像集合I;
步骤12:将图像与图像采集平台的空间坐标通过数据链传递给将要实施打击或侦察任务的平台;
任务平台接收到图像后对图像集合I中的任意两图进行SIFT匹配计算,获取图像中匹配的特征点集合S;
对S进行处理,根据S中特征点之间的相对位置关系计算其分布向量V=[k,d],其中k为两图特征点连线的斜率,d为特征点连线的距离,根据识别的精度要求选定特征点的最大密度区域,抛弃不在该区域内的特征点,形成新的特征点集合Sni
将所采集的图像转化为HSV图像,取出其中的V通道,并扩展灰度范围至0~255,从而形成灰度图像;
对新特征点集Sni进行聚类,根据识别精度聚类数选择C,得到C个聚类;
步骤13:计算每个聚类的聚类中心,在本聚类的特征点中,计算欧式距离得到与聚类中心距离最小的特征点作为本聚类的中心,并计算两幅图像中该点之间的横向视差及纵向视差;
根据相机特性对对每个特征区域进行深度距离恢复,计算公式如下:
X/U=Y/V=L/F
其中:X、Y、L为目标与观测平台之间横向、纵向及平行于光轴的距离,f为当前相机焦距;
步骤14:将得到的深度信息归一化,按特征区域分布组成与原图像规模一致的矩阵,与灰度图像点乘,得到包含深度信息的二维图像。
优选地,所述步骤2为:通过所述步骤14所获得的二维图像训练CNN网络。
优选地,所述步骤4具体为:
通过公式判断,当结果大于δ时,则认为疑似目标为预设的多个识别目标中的一个;其中,
Ri为CNN网络对特征区域的识别结果,Si为特征区域的面积;δ为自定义预设值。
本申请的多平台联合目标自主识别方法综合多平台间的光学探测设备,使载机能够通过平台间通信获取对疑似目标的多角度光学成像,实现多机联合的对TOI的自主识别,能够用于无人机或智能化飞机,减低对人工的依赖性。
附图说明
图1是本申请一实施例的多平台联合目标自主识别方法的流程示意图。
图2是双机平台对TOI进行识别过程的水平投影示意图。
图3是双机平台对TOI进行识别过程的竖直投影原理示意图。
具体实施方式
为使本发明实施的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本发明一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
图1是本申请一实施例的多平台联合目标自主识别方法的流程示意图。
如图1所示的多平台联合目标自主识别方法包括如下步骤:
步骤1:预设多个识别目标,并获得各个识别目标的含有深度信息的二维图像;
步骤2:通过各个识别目标的含有深度信息的二维图像训练CNN网络,从而预设CNN网络参数;
步骤3:飞机探测疑似目标,并获取疑似目标的含有深度信息的二维图像;
步骤4:将飞机获得的疑似目标的含有深度信息的二维图像传递给已经完成训练的CNN网络,从而通过CNN网络判断出疑似目标是否为预设的多个识别目标中的一个。
在本实施例中,所述步骤1具体为:
步骤11:预设多个识别目标,通过各个平台对各预设目标进行光学采集,确保有2个或两个以上平台的光学探测设备从不同观测角度保证一个或者多个目标在传感器视场内,对各个预设目标进行光学采集,得到图像I1、I2…In,形成图像集合I;
步骤12:将图像与图像采集平台的空间坐标通过数据链传递给将要实施打击或侦察任务的平台;
任务平台接收到图像后对图像集合I中的任意两图进行SIFT匹配计算,获取图像中匹配的特征点集合S;
对S进行处理,根据S中特征点之间的相对位置关系计算其分布向量V=[k,d],其中k为两图特征点连线的斜率,d为特征点连线的距离,根据识别的精度要求选定特征点的最大密度区域,抛弃不在该区域内的特征点,形成新的特征点集合Sni;
将所采集的图像转化为HSV图像,取出其中的V通道,并扩展灰度范围至0~255,从而形成灰度图像;
对新特征点集Sni进行聚类,根据识别精度聚类数选择C,得到C个聚类;
步骤13:计算每个聚类的聚类中心,在本聚类的特征点中,计算欧式距离得到与聚类中心距离最小的特征点作为本聚类的中心,并计算两幅图像中该点之间的横向视差及纵向视差;
根据相机特性对对每个特征区域进行深度距离恢复,计算公式如下:
X/U=Y/V=L/F
其中:X、Y、L为目标与观测平台之间横向、纵向及平行于光轴的距离,f为当前相机焦距;
步骤14:将得到的深度信息归一化,按特征区域分布组成与原图像规模一致的矩阵,与灰度图像点乘,得到包含深度信息的二维图像。
在本实施例中,所述步骤2为:通过所述步骤14所获得的二维图像训练CNN网络。
在本实施例中,所述步骤4具体为:
通过公式判断,当结果大于δ时,则认为疑似目标为预设的多个识别目标中的一个;其中,
Ri为CNN网络对特征区域的识别结果,Si为特征区域的面积;δ为自定义预设值。
下面以举例的方式对本申请做进一步阐述,可以理解的是,该举例并不构成对本申请的任何限制。
图2是双机平台对TOI进行识别过程的水平投影示意图。
图3是双机平台对TOI进行识别过程的竖直投影原理示意图。
下面以双机联合目标识别,以FA为任务平台为例,作进一步详细说明。
平台FA与平台FB进行周期通信,通信内容包括载机当前经纬高,光学探测设备光轴的横滚、俯仰、焦距,保证双机探测设备的探测区域具有重叠范围;
步骤1:预设多个识别目标,并获得各个识别目标的含有深度信息的二维图像;具体地,步骤11:预设多个识别目标,通过各个平台对各预设目标进行光学采集,确保有2个平台的光学探测设备从不同观测角度保证一个或者多个目标在传感器视场内,对各个预设目标进行光学采集,得到图像I1、I2…In,形成图像集合I;
步骤12:任务平台接收到图像后对图像几何I中的任意两图进行SIFT匹配计算,获取图像中匹配的特征点几何Si
对Si进行处理,根据Si中特征点之间的相对位置关系计算其分布向量V=[k,d],其中k为两图特征点连线的斜率,d为特征点连线的距离,根据识别的精度要求选定特征点的最大密度区域,抛弃不在该区域内的特征点,形成新的特征点集合Sni
将所采集的图像转化为HSV图像,取出其中的V图像,并扩展灰度范围至0~255;
对新特征点集Sni进行聚类,根据识别精度聚类数选择4,得到4个聚类;
计算每个聚类的聚类中心,在本聚类的特征点中,计算欧式距离得到与聚类中心距离最小的特征点作为本聚类的中心,并计算两幅图像中该点之间的横向视差及纵向视差;
根据相机特性(焦距、传感器尺寸等)对得到的视差对每个特征区域进行深度距离恢复(此处深度是指目标到两个光学图像采集平台的连线的垂线的长度),计算公式如下:
X/U=Y/V=L/F
其中:X、Y、L为目标与观测平台之间横向、纵向及平行于光轴(深度)距离;
步骤14:将得到的深度信息归一化,按特征区域分布组成与原图像规模一致的矩阵,与灰度图像点乘,得到包含深度信息的二维图像;
步骤2:预设CNN网络;
步骤3:采用完成训练的CNN网络对包含深度信息的二维图像进行识别,获取每个图像片段的识别结果;
步骤4:飞机探测疑似目标,并通过如上步骤11至步骤14的方法来获取疑似目标的含有深度信息的二维图像;
按照下式:
其中δ为0.7,当结果大于δ时,认为采集图像中包含待识别目标。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (4)

1.一种多平台联合目标自主识别方法,其特征在于,所述多平台联合目标自主识别方法包括如下步骤:
步骤1:预设多个识别目标,并获得各个识别目标的含有深度信息的二维图像;
步骤2:通过各个识别目标的含有深度信息的二维图像训练CNN网络,从而预设CNN网络参数;
步骤3:飞机探测疑似目标,并获取疑似目标的含有深度信息的二维图像;
步骤4:将飞机获得的疑似目标的含有深度信息的二维图像传递给已经完成训练的CNN网络,从而通过CNN网络判断出疑似目标是否为预设的多个识别目标中的一个。
2.如权利要求1所述的多平台联合目标自主识别方法,其特征在于,所述步骤1具体为:
步骤11:预设多个识别目标,通过各个平台对各预设目标进行光学采集,确保有2个或两个以上平台的光学探测设备从不同观测角度保证一个或者多个目标在传感器视场内,对各个预设目标进行光学采集,得到图像I1、I2…In,形成图像集合I;
步骤12:将图像与图像采集平台的空间坐标通过数据链传递给将要实施打击或侦察任务的平台;
任务平台接收到图像后对图像集合I中的任意两图进行SIFT匹配计算,获取图像中匹配的特征点集合S;
对S进行处理,根据S中特征点之间的相对位置关系计算其分布向量V=[k,d],其中k为两图特征点连线的斜率,d为特征点连线的距离,根据识别的精度要求选定特征点的最大密度区域,抛弃不在该区域内的特征点,形成新的特征点集合Sni
将所采集的图像转化为HSV图像,取出其中的V通道,并扩展灰度范围至0~255,从而形成灰度图像;
对新特征点集Sni进行聚类,根据识别精度聚类数选择C,得到C个聚类;
步骤13:计算每个聚类的聚类中心,在本聚类的特征点中,计算欧式距离得到与聚类中心距离最小的特征点作为本聚类的中心,并计算两幅图像中该点之间的横向视差及纵向视差;
根据相机特性对对每个特征区域进行深度距离恢复,计算公式如下:
X/U=Y/V=L/F
其中:X、Y、L为目标与观测平台之间横向、纵向及平行于光轴的距离,f为当前相机焦距;
步骤14:将得到的深度信息归一化,按特征区域分布组成与原图像规模一致的矩阵,与灰度图像点乘,得到包含深度信息的二维图像。
3.如权利要求2所述的多平台联合目标自主识别方法,其特征在于,所述步骤2为:通过所述步骤14所获得的二维图像训练CNN网络。
4.如权利要求1所述的多平台联合目标自主识别方法,其特征在于,所述步骤4具体为:
通过公式判断,当结果大于δ时,则认为疑似目标为预设的多个识别目标中的一个;其中,
Ri为CNN网络对特征区域的识别结果,Si为特征区域的面积;δ为自定义预设值。
CN201711123377.6A 2017-11-14 2017-11-14 一种多平台联合目标自主识别方法 Pending CN107895386A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711123377.6A CN107895386A (zh) 2017-11-14 2017-11-14 一种多平台联合目标自主识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711123377.6A CN107895386A (zh) 2017-11-14 2017-11-14 一种多平台联合目标自主识别方法

Publications (1)

Publication Number Publication Date
CN107895386A true CN107895386A (zh) 2018-04-10

Family

ID=61804438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711123377.6A Pending CN107895386A (zh) 2017-11-14 2017-11-14 一种多平台联合目标自主识别方法

Country Status (1)

Country Link
CN (1) CN107895386A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288659A (zh) * 2019-05-27 2019-09-27 魏运 一种基于双目视觉的深度成像及信息获取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104715254A (zh) * 2015-03-17 2015-06-17 东南大学 一种基于2d和3d sift特征融合的一般物体识别方法
CN105224942A (zh) * 2015-07-09 2016-01-06 华南农业大学 一种rgb-d图像分类方法及***
CN105391970A (zh) * 2014-08-27 2016-03-09 Metaio有限公司 提供由车辆的场景相机捕获的至少一个图像的方法和***
CN105654732A (zh) * 2016-03-03 2016-06-08 上海图甲信息科技有限公司 一种基于深度图像的道路监控***及方法
WO2016100814A1 (en) * 2014-12-19 2016-06-23 United Technologies Corporation Multi-modal sensor data fusion for perception systems
CN105759834A (zh) * 2016-03-09 2016-07-13 中国科学院上海微***与信息技术研究所 一种主动捕获低空小型无人飞行器的***及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105391970A (zh) * 2014-08-27 2016-03-09 Metaio有限公司 提供由车辆的场景相机捕获的至少一个图像的方法和***
WO2016100814A1 (en) * 2014-12-19 2016-06-23 United Technologies Corporation Multi-modal sensor data fusion for perception systems
CN104715254A (zh) * 2015-03-17 2015-06-17 东南大学 一种基于2d和3d sift特征融合的一般物体识别方法
CN105224942A (zh) * 2015-07-09 2016-01-06 华南农业大学 一种rgb-d图像分类方法及***
CN105654732A (zh) * 2016-03-03 2016-06-08 上海图甲信息科技有限公司 一种基于深度图像的道路监控***及方法
CN105759834A (zh) * 2016-03-09 2016-07-13 中国科学院上海微***与信息技术研究所 一种主动捕获低空小型无人飞行器的***及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
温熙: "Kinect和惯性导航***组合的室内定位技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
蔺敏: "基于多平台的空中机动目标跟踪技术", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288659A (zh) * 2019-05-27 2019-09-27 魏运 一种基于双目视觉的深度成像及信息获取方法
CN110288659B (zh) * 2019-05-27 2021-07-13 魏运 一种基于双目视觉的深度成像及信息获取方法

Similar Documents

Publication Publication Date Title
CN108919838B (zh) 一种基于双目视觉的无人机输电线路自动跟踪方法
Koc-San et al. Automatic citrus tree extraction from UAV images and digital surface models using circular Hough transform
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、***、装置
CN110163904A (zh) 对象标注方法、移动控制方法、装置、设备及存储介质
CN107463890B (zh) 一种基于单目前视相机的前车检测与跟踪方法
CN108596165B (zh) 基于无人机低空航拍图像的道路交通标线检测方法及***
CN109460709A (zh) 基于rgb和d信息融合的rtg视觉障碍物检测的方法
CN110232389A (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN109583415A (zh) 一种基于激光雷达与摄像机融合的交通灯检测与识别方法
CN109657686A (zh) 车道线生成方法、装置、设备以及存储介质
CN115661204B (zh) 一种无人机集群对运动目标的协同搜寻与跟踪定位方法
CN106650701A (zh) 基于双目视觉的室内阴影环境下障碍物检测方法及装置
CN110658539B (zh) 车辆定位方法、装置、车辆和计算机可读存储介质
CN108986148B (zh) 实现多智能小车协同搜索识别并跟踪特定目标群体的方法
CN104794425B (zh) 一种基于行驶轨迹的车辆统计方法
CN107527037A (zh) 基于无人机遥感数据的蓝藻识别与分析***
CN112198899A (zh) 基于无人飞行器的道路检测方法、设备和存储介质
CN108646727A (zh) 一种视觉充电座及其定位方法和回充方法
CN105405126A (zh) 一种基于单目视觉***的多尺度空-地参数自动标定方法
CN110378210A (zh) 一种基于轻量化YOLOv3的车辆和车牌检测及长短焦融合测距方法
CN109697428B (zh) 基于rgb_d和深度卷积网络的无人机识别定位***
CN103884281A (zh) 一种基于主动结构光的巡视器障碍探测方法
CN112037252A (zh) 基于鹰眼视觉的目标跟踪方法及***
CN107895386A (zh) 一种多平台联合目标自主识别方法
CN111178743A (zh) 一种无人机群自主协同观测与协同作业的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180410