CN117329928B - 一种基于多元情报融合的无人机综合探测方法和*** - Google Patents

一种基于多元情报融合的无人机综合探测方法和*** Download PDF

Info

Publication number
CN117329928B
CN117329928B CN202311619027.4A CN202311619027A CN117329928B CN 117329928 B CN117329928 B CN 117329928B CN 202311619027 A CN202311619027 A CN 202311619027A CN 117329928 B CN117329928 B CN 117329928B
Authority
CN
China
Prior art keywords
data
unmanned aerial
aerial vehicle
space
optimization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311619027.4A
Other languages
English (en)
Other versions
CN117329928A (zh
Inventor
吴庐山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Aneta Technology Co ltd
Original Assignee
Wuhan Aneta Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Aneta Technology Co ltd filed Critical Wuhan Aneta Technology Co ltd
Priority to CN202311619027.4A priority Critical patent/CN117329928B/zh
Publication of CN117329928A publication Critical patent/CN117329928A/zh
Application granted granted Critical
Publication of CN117329928B publication Critical patent/CN117329928B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • F41H11/02Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种基于多元情报融合的无人机综合探测方法和***,该方法包括:接收情报数据;对情报数据的极坐标进行直角坐标转换和畸变矫正,得到目标直角坐标;对目标直角坐标进行加权融合得到第一融合数据,对第一融合数据进行处理,得到对应的运动参数;对运动参数进行时空对准处理得到时空对准数据;对时空对准数据进行数据关联处理,得到关联数据;对时空对准数据进行相似度计算,得到第一优化关联数据;基于关系网络进行图论分析,优化第一优化关联数据,得到第二优化关联数据;根据不确定程度值,得到第三优化关联数据;以加权投票的方式对第三优化关联数据中传感器识别物体的类别,以及类别的置信度进行处理,以生成多元情报融合数据。

Description

一种基于多元情报融合的无人机综合探测方法和***
技术领域
本申请涉及无人机探测技术领域,尤其涉及一种基于多元情报融合的无人机综合探测方法和***。
背景技术
多元情报融合处理技术在反无人机***中的具有较高重要性。反无人机***集成了各种传感器,包括频谱侦测、雷达、云哨和光电传感器等,用于提供不同类型的目标信息。多元情报融合处理的任务是整合这些异构的情报数据,实现目标关联和提供准确的目标位置、状态和属性信息。
然而,对传统的反无人机***执行多元情报融合处理技术存在挑战,因为各传感器的探测能力和信息内容是有差异的,导致大部分反无人机***采用独立操控终端的方式,也就无法有效整合各传感器的目标识别信息,实现区域内真正统一的目标态势。
发明内容
为了解决多元异类异质传感器情报的有效融合问题,本申请实施例提供一种基于多元情报融合的无人机综合探测方法和***,具体技术方案如下:
在本申请实施例的第一方面,提供一种基于多元情报融合的无人机综合探测方法,所述方法包括:
接收反无人机***的多个传感器上传的无人机的情报数据;所述情报数据包括所述多个传感器所探测到所述无人机的航迹数据、角航迹数据、图像数据和所在位置的地理数据,以及各传感器的坐标数据、精度数据和有效探测范围数据;
对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对所述初始直角坐标进行畸变矫正,得到矫正后所述航迹数据和角航迹数据对应的目标直角坐标;
对转化为目标直角坐标的所述航迹数据和所述角航迹数据进行加权融合得到第一融合数据,对所述第一融合数据进行处理,得到对应的运动参数;
对所述运动参数进行时空对准处理得到时空对准数据,并基于所述时空对准数据确定所述无人机的运动模式;
对来自所述多个传感器的所述时空对准数据进行数据关联处理,得到关联数据;
对来自所述多个传感器的所述时空对准数据进行相似度计算,得到多个对应的相似度,并基于所述相似度优化所述关联数据,得到第一优化关联数据;
基于所述时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于所述关系网络进行图论分析,优化所述第一优化关联数据,得到第二优化关联数据;
根据不确定程度值,对所述第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据;所述不确定程度值用于衡量所述第二优化关联数据的测量值存在不确定性的程度大小;
通过深度学习算法以加权投票的方式对所述第三优化关联数据中所述传感器识别物体的类别,以及所述类别的置信度进行处理,以生成多元情报融合数据,并基于所述多元情报融合数据对所述无人机进行实时探测。
可选地,所述对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对所述初始直角坐标进行畸变矫正,得到矫正后所述航迹数据和角航迹数据对应的目标直角坐标,包括:
获取坐标变换函数、对极坐标系的旋转角度、平移向量和缩放比例;
构建用于最小化待测点的实际直角坐标值与转换直角坐标值的第一残差的第一目标函数,并基于所述第一目标函数优化用于进行直角坐标转换的坐标转换模型;
根据所述优化后的坐标转换模型对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的所述初始直角坐标;
根据径向畸变参数和切向畸变参数,分别对所述待测点的所述实际直角坐标值和所述初始直角坐标进行矫正,分别得到第一矫正坐标值和第二矫正坐标值;
构建用于最小化第一矫正坐标值与第二矫正坐标值的第二残差的第二目标函数,并基于所述第二目标函数优化用于矫正所述初始直角坐标值的畸变矫正模型;
通过所述畸变矫正模型对所述初始直角坐标进行畸变矫正,得到所述目标直角坐标。
可选地,所述对所述第一融合数据进行处理,得到对应的运动参数,包括:
通过卡尔曼滤波算法,计算所述无人机在前一时刻的目标状态的第一预测值和第一预测协方差;所述目标状态为所述无人机的内部状态数据;
根据所述第一融合数据对所述第一预测值进行校正,得到第一校正预测值
根据所述无人机在当前时刻的卡尔曼增益和所述第一校正预测值,计算所述无人机在当前时刻的目标状态的第二预测值和第二预测协方差;
从所述第二预测值中提取出所述无人机的运动参数。
可选地,所述对所述运动参数进行时空对准处理得到时空对准数据,并基于所述时空对准数据确定所述无人机的运动模式,包括:
对所述运动参数进行目标轨迹的插值和调整的时空对准处理,得到所述时空对准数据;
通过卡尔曼滤波算法对所述时空对准数据进行分析,得到所述无人机的运动模式。
可选地,所述对来自所述多个传感器的所述时空对准数据进行数据关联处理,得到关联数据,包括:
采用关联滤波算法对来自所述多个传感器的所述时空对准数据进行处理,将多个所述时空对准数据关联到同一个目标无人机中;
将关联到同一个目标无人机中的多个所述对准数据,按照每个所述对准数据对应传感器的权重,对多个所述对准数据进行加权融合处理,得到所述关联数据。
可选地,所述对来自所述多个传感器的所述时空对准数据进行相似度计算,得到多个对应的相似度,并基于所述相似度优化所述关联数据,得到第一优化关联数据,包括:
从来自所述多个传感器的多个所述时空对准数据中提取出每个所述传感器测量的关键特征;
基于所述关键特征,计算不同关键特征之间的相似度,将所述相似度作为不同传感器之间的相似度;
根据所述相似度调整每个所述传感器的权重,并基于调整后的权重优化所述关联数据,得到所述第一优化关联数据。
可选地,所述基于所述时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于所述关系网络进行图论分析,优化所述第一优化关联数据,得到第二优化关联数据,包括:
根据多个所述时空对准数据,建立目标空间的关系网络;
根据所述目标空间的关系网络,通过图论分析方法确定多个所述传感器检测到的不同目标之间的拓扑结构和关系,得到图论分析结果;
根据所述图论分析结果,对所述第一优化关联数据进行优化,得到所述第二优化关联数据。
可选地,所述根据不确定程度值,对所述第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据,包括:
针对所述第二优化关联数据中的时间和坐标数据,确定所述第二优化关联数据中的每个数据点的不确定程度值;
根据每个所述数据点的不确定程度值,为每个所述数据点配置第一权重;所述第一权重用于表征所述数据点的测量值的可信程度;
根据配置第一权重后的多个所述数据点,对所述第二优化关联数据中的时间和坐标数据进行优化,得到所述第三优化关联数据。
可选地,所述通过深度学习算法以加权投票的方式对所述第三优化关联数据中所述传感器识别物体的类别,以及所述类别的置信度进行处理,以生成多元情报融合数据,包括:
获取所述第三优化关联数据中包含的所述多个传感器识别物体的类别和置信度信息,将所述识别物体的图像作为训练样本,将对应的类别和置信度信息作为标签训练初始深度学习模型,得到训练好的用于预测所述识别物体的类别和置信度的深度学习模型;
使用训练好的所述深度学习模型对来自多个所述传感器的多个识别物体进行推理,得到多个所述识别物体各自对应的类别和置信度;
根据每个所述传感器的权重,对每个所述类别和对应的每个所述置信度进行加权投票和整合处理,生成所述多元情报融合数据。
在本申请实施例的又一方面,提供一种基于多元情报融合的无人机综合探测***,所述***包括:
参数获取模块,用于响应于检测到待拒止目标对应的无人机,获取当前时刻所述无人机的速度和距离;所述距离为所述无人机至保护目标的水平连线距离;
范围确定模块,用于根据所述速度和所述距离,确定针对所述无人机的拒止区域的拒止范围;
位置判断模块,用于判断所述无人机在所述当前时刻与所述拒止区域之间的相对位置;若所述无人机处于所述拒止范围之内,则判断出所述无人机位于所述拒止区域;若所述无人机处于所述拒止范围之外,表示所述无人机未位于所述拒止区域,则更新所述拒止区域的拒止范围得到新的第一拒止区域,并重复所述判断相对位置和/或所述更新拒止区域的步骤,直至判断出所述无人机位于所述第一拒止区域后;
信号干扰模块,用于向位于所述拒止区域或所述第一拒止区域的所述无人机发出导航干扰信号,控制所述无人机飞至所述拒止区域之外的目标位置点。
由上可知,本申请实施至少带来以下有益效果:
(1)本申请通过多元情报融合,有效整合来自不同传感器的异构数据,包括航迹、角航迹、图像、坐标等信息,提高了信息的完整性和一致性;
(2)本申请通过对航迹数据进行加权融合和动态参数估计,实现对目标运动状态的精准估计,包括位置、速度等信息,提高了对无人机行为的理解;
(3)本申请引入时空对准处理和空间关系建模,确保各传感器数据在时空上的一致性,增强了整个***对目标位置和运动的准确性;
(4)本申请通过相似度计算、图论分析和不确定性处理,优化了传感器之间的数据关联,提高了目标关联的准确性和可靠性;
(5)本申请结合深度学习算法进行类别识别和置信度计算,使***能够更智能地处理目标识别任务,提高了对无人机类型和属性的准确性;
(6)本申请引入不确定性处理和多元融合,增强了***对不确定性因素的鲁棒性,使***在复杂环境和变化条件下仍能保持高效稳定运行;
(7)本申请生成的多元情报融合数据为操作员和指挥员提供更为准确和直观的目标态势,提高了决策支持的效果和操作人员的工作效率。
综上所述,本申请能够提升反无人机***的整体性能,增强对无人机目标的感知和理解能力,为应对多样化、复杂化的无人机威胁提供了强大的支持。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的基于多元情报融合的无人机综合探测***的应用场景示意图;
图2是本申请实施例提供的基于多元情报融合的无人机综合探测方法的流程示意图;
图3是本申请实施例提供的基于多元情报融合的无人机综合探测***的结构示意图;
图4是本申请实施例提供的计算机设备的结构示意图。
具体实施方式
本申请实施例提供一种基于多元情报融合的无人机综合探测方法和***。请参阅图1,图1为本申请实施例所提供的基于多元情报融合的无人机综合探测***的应用场景示意图,该***可以包括终端和服务器。本申请提供的基于多元情报融合的无人机综合探测方法可以通过终端实现,也可以通过服务器实现。
如图1所示,终端与服务器之间通过网络连接,比如,通过有线或无线网络连接等。其中,终端可以包括但不局限于安装有各位网络平台应用的手机、平板等便携终端,以及电脑、查询机、广告机等固定终端。其中,服务器为用户提供各种业务服务,包括服务推送服务器、用户推荐服务器等。
需要说明的是,图1所示的基于多元情报融合的无人机综合探测***的应用场景示意图仅仅是一个示例,本申请实施例描述的终端、服务器以及应用场景是为了更加清楚的说明本申请实施例的技术方案,并不生成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着***的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题同样适用。
其中,终端可以用于:
接收反无人机***的多个传感器上传的无人机的情报数据;情报数据包括多个传感器所探测到无人机的航迹数据、角航迹数据、图像数据和所在位置的地理数据,以及各传感器的坐标数据、精度数据和有效探测范围数据;
对无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对初始直角坐标进行畸变矫正,得到矫正后航迹数据和角航迹数据对应的目标直角坐标;
对转化为目标直角坐标的航迹数据和角航迹数据进行加权融合得到第一融合数据,对第一融合数据进行处理,得到对应的运动参数;
对运动参数进行时空对准处理得到时空对准数据,并基于时空对准数据确定无人机的运动模式;
对来自多个传感器的时空对准数据进行数据关联处理,得到关联数据;
对来自多个传感器的时空对准数据进行相似度计算,得到多个对应的相似度,并基于相似度优化关联数据,得到第一优化关联数据;
基于时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于关系网络进行图论分析,优化第一优化关联数据,得到第二优化关联数据;
根据不确定程度值,对第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据;不确定程度值用于衡量第二优化关联数据的测量值存在不确定性的程度大小;
通过深度学习算法以加权投票的方式对第三优化关联数据中传感器识别物体的类别,以及类别的置信度进行处理,以生成多元情报融合数据,并基于多元情报融合数据对无人机进行实时探测。
需要说明的是,上述终端执行基于多元情报融合的无人机综合探测方法的步骤,也可以由服务器执行。
图2示出了本申请实施例提供的一种基于多元情报融合的无人机综合探测方法和***的流程示意图,如图2所示,一种基于多元情报融合的无人机综合探测方法和***包括如下步骤:
步骤101、接收反无人机***的多个传感器上传的无人机的情报数据。
其中,情报数据可以包括多个传感器所探测到无人机的航迹数据、角航迹数据、图像数据和所在位置的地理数据,以及各传感器的坐标数据、精度数据和有效探测范围数据。
在一些实施例中,航迹数据和角航迹数据可以是关于无人机运动轨迹的记录,包括位置、速度、加速度等信息,以及角度和方向的航迹数据。
在一些实施例中,图像数据是传感器捕获到与无人机相关的图像信息,可有包括可见光图像、红外图像等,有助于进一步分析目标特征和识别。
在一些实施例中,位置的地理数据提供了无人机所在位置的地理坐标信息,有助于准确定位目标在地球上的位置。
在一些实施例中,各传感器的坐标数据描述了每个传感器相对于某个坐标***的位置,为后续的数据融合提供了空间参考。
在一些实施例中,精度数据表示传感器测量或探测数据的准确性和精度,提供了对数据可靠性的评估。
在一些实施例中,有效探测范围数据表示每个传感器的有效工作范围,即能够探测目标的最大距离或范围。
步骤102、对无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对初始直角坐标进行畸变矫正,得到矫正后航迹数据和角航迹数据对应的目标直角坐标。
在一些实施例中,可以针对航迹数据和角航迹数据中的极坐标表示(如极径和极角),应用转换函数将其映射为直角坐标系中的对应位置。可以通过三角函数等数学运算来实现。
在一些实施例中,可以得到极坐标到直角坐标的初步转换结果,即初始直角坐标。这表示了无人机在直角坐标系中的大致位置。
可以理解,航迹数据和角航迹数据可能受到传感器畸变的影响,例如透镜畸变。为了提高数据的准确性,对初始直角坐标进行畸变矫正,消除或减小畸变引起的误差。涉及到使用校正模型和参数,以及对图像进行几何变换。
在一些实施例中,最终得到经过畸变矫正后的航迹数据和角航迹数据对应的目标直角坐标。这表示了无人机在经过修正后的直角坐标系中的准确位置。
通过以上方式,航迹数据和角航迹数据可以被转换和矫正,为后续的航迹数据融合和处理提供了更准确的空间位置信息。
可选地,步骤102可以包括:
获取坐标变换函数、对极坐标系的旋转角度、平移向量和缩放比例;
构建用于最小化待测点的实际直角坐标值与转换直角坐标值的第一残差的第一目标函数,并基于第一目标函数优化用于进行直角坐标转换的坐标转换模型;
根据优化后的坐标转换模型对无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标;
根据径向畸变参数和切向畸变参数,分别对待测点的实际直角坐标值和初始直角坐标进行矫正,分别得到第一矫正坐标值和第二矫正坐标值;
构建用于最小化第一矫正坐标值与第二矫正坐标值的第二残差的第二目标函数,并基于第二目标函数优化用于矫正初始直角坐标值的畸变矫正模型;
通过畸变矫正模型对初始直角坐标进行畸变矫正,得到目标直角坐标。
在一些实施例中,初始直角坐标可以表示为:
其中,T为坐标变换函数、/>为极坐标、/>为极坐标系的旋转角度、/>为极坐标系的平移向量,/>分别为平移向量的两个分量、s为缩放比例。可以通过给定的极坐标点和坐标变换的参数,计算出相应的直角坐标点。
在一些实施例中,第一目标函数可以表示为:
其中,/>为第一矫正坐标值,为第二矫正坐标值,/>表示第i个点在直角坐标系中的坐标与通过坐标变换函数T转换得到的极坐标系中的坐标的欧几里得距离的平方。通过优化这个最小化问题,可以得到最适合的变换参数,使得极坐标系中的点能够最好地在直角坐标系中表示。
在一些实施例中,目标直角坐标可以表示为:
其中,/>是径向畸变参数,/>是切向畸变参数,/>表示执行畸变矫正。该公式的目的是通过考虑径向和切向畸变,对直角坐标系中的点进行畸变矫正,以提高坐标数据的准确性和精度。
在一些实施例中,第二目标函数可以表示为:
;/>表示经过畸变校正后的第i个第一矫正坐标值,可以理解,该公式的优化目标是找到合适的径向畸变参数和切向畸变参数,以最小化所有点在畸变矫正后与真实值之间的欧氏距离的平方的总和,从而有利于使畸变矫正的结果更加准确。
步骤103、对转化为目标直角坐标的航迹数据和角航迹数据进行加权融合得到第一融合数据,对第一融合数据进行处理,得到对应的运动参数。
在一些实施例中,可以将来自不同传感器的航迹数据和角航迹数据进行融合。每个传感器提供不同精度和可靠性的数据,因此需要对数据进行加权,以反映其在融合中的相对重要性。
在一些实施例中,处理融合后的数据可以包括平滑、滤波或其他数据处理技术。这有助于消除噪音、提高数据质量,并确保生成的第一融合数据更加可靠和一致。
在一些实施例中,可以从融合后的数据中提取目标的运动参数。涉及对数据进行数学分析、模型拟合或其他相关技术,以获取目标的速度、方向、加速度等动态信息。
通过以上方式,***能够以更综合和准确的方式理解目标的运动状态,为后续的处理和探测提供更精确的基础。
可选地,步骤103可以包括:
通过卡尔曼滤波算法,计算所述无人机在前一时刻的目标状态的第一预测值和第一预测协方差;所述目标状态为所述无人机的内部状态数据;
根据所述第一融合数据对所述第一预测值进行校正,得到第一校正预测值;
根据所述无人机在当前时刻的卡尔曼增益和所述第一校正预测值,计算所述无人机在当前时刻的目标状态的第二预测值和第二预测协方差;
从所述第二预测值中提取出所述无人机的运动参数。
在一些实施例中,获取运动参数可以分为预测步骤和观测步骤。在一些实施例中,预测步骤的公式可以包括:
其中,k-1为前一时刻,k为当前时刻,F为状态转移矩阵,描述了***从时刻k-1转移到时刻k的过程。这个矩阵通常包括了***动力学的信息,反映了目标在不同时刻的状态之间的关系;
表示在k-1时刻对目标状态的先验估计,即在k-1时刻***对目标状态的预测值;
为第一预测值,表示在时刻k-1时对目标状态的先验估计通过状态转移矩阵F进行预测,得到在时刻k时的状态先验估计。
其中,目标状态是无人机位置、速度、方向等关键信息的变量。在状态估计和目标跟踪中,目标状态的准确估计是实现***监控和控制的关键。
为第二预测协方差,表示k时刻对目标状态的估计协方差矩阵;
Q是表示***过程噪声的协方差矩阵;
以上两个方程的含义是在不考虑测量的情况下,根据先前的状态估计,通过状态转移矩阵F进行预测,并加上过程噪声的影响,得到当前时刻对目标状态的预测协方差矩阵。在一些实施例中,观测步骤的公式可以包括:
其中,是卡尔曼增益;H是测量矩阵;R是测量噪声的协方差矩阵。
方程的目的是通过比较预测的目标状态和实际的测量结果,确定在状态估计中如何权衡两者。增益越大,表示对测量的信任度越高,卡尔曼滤波器更加倾向于依赖测量来调整状态估计。
其中,是当前时刻的第二预测值,观测步骤中的/>是第一校正预测值;
是传感器实际的测量值;
H是测量矩阵,用于将状态投影到观测空间。
该方程的目的是根据测量值对目标状态进行校正。增益/>越大,测量对状态的影响越显著,是卡尔曼滤波器中关键的更新步骤,通过不断地融合预测和测量,提高对目标状态的估计准确性。
其中,是当前时刻的第二预测协方差,表示在时刻k时的状态协方差矩阵,表示对目标状态估计的不确定性;
表示在时刻k-1时的状态协方差矩阵,表示对目标状态估计的不确定性;
是单位矩阵。
该方程的目的是通过将卡尔曼增益与测量矩阵H相关联,更新状态协方差矩阵。这一步反映了通过测量值校正对目标状态估计的影响,并且协方差矩阵越小,对目标状态的估计越可信。
步骤104、对运动参数进行时空对准处理得到时空对准数据,并基于时空对准数据确定无人机的运动模式。
在一些实施例中,时空对准处理可以包括对运动参数进行时间和空间上的校正,以确保它们在一致的时空框架中表达。有利于消除可能由于传感器不同步或定位误差引起的不准确性。
在一些实施例中,可以通过对时空对准后的运动参数进行分析,可以确定无人机的运动模式,例如飞行方向、速度、加速度等。有助于理解目标的实时状态,从而更好地进行跟踪和预测无人机的未来行为。
综上所述,时空对准处理有助于提高数据的一致性和准确性,而基于时空对准数据确定运动模式则使得***能够更准确地理解和响应无人机的运动。
可选地,步骤104可以包括:
对所述运动参数进行目标轨迹的插值和调整的时空对准处理,得到所述时空对准数据;
通过卡尔曼滤波算法对所述时空对准数据进行分析,得到所述无人机的运动模式。
仅作为实例,传感器a的航迹数据可以为,角航迹数据可以为/>。传感器b的航迹数据可以为/>,角航迹数据可以为/>。则最终进行时空对准后的数据可以表示为:
步骤105、对来自多个传感器的时空对准数据进行数据关联处理,得到关联数据。
可以理解,在时空对准后,来自多个传感器的数据可能仍然存在一些差异,例如由于传感器的精度、探测范围、视野等因素引起的测量误差。数据关联处理的目标是将这些相关的数据点关联到同一目标上,形成目标的全息表示。
在一些实施例中,对于同一时刻或时间段内的数据点,通过比较它们的空间位置、速度、加速度等特征,进行目标关联。可以通过各种关联算法,如卡尔曼滤波、最近邻方法等来实现。
在一些实施例中,当目标关联后,可以生成关联数据,其中每个关联的数据点都被认为属于同一目标。这些数据点包括来自不同传感器的位置信息、速度信息等。其中,目标是指无人机或其他被传感器***监测和跟踪的实体。目标关联的目的是将来自不同传感器的数据点关联到同一实体(无人机)上,形成关联数据。这样做的目标是为了整合来自多个传感器的信息,以便更准确地理解和描述无人机的运动和状态。生成的关联数据提供了对目标运动的更全面和一致的视图,有助于提高目标跟踪和识别的准确性。
在一些实施例中,对于生成的关联数据,可以进行进一步的优化,考虑各个数据点的权重、置信度等因素,以提高关联的准确性和稳健性。
通过数据关联处理,不同传感器的数据被整合在一起,形成了更完整、一致的目标表示,为后续的分析和决策提供了更可靠的基础。有助于降低由于传感器误差和不确定性引起的数据不一致性。
可选地,步骤105可以包括:
采用关联滤波算法对来自所述多个传感器的所述时空对准数据进行处理,将多个所述时空对准数据关联到同一个目标无人机中;
将关联到同一个目标无人机中的多个所述对准数据,按照每个所述对准数据对应传感器的权重,对多个所述对准数据进行加权融合处理,得到所述关联数据。
在一些实施例中,可以使用关联滤波算法,将来自不同传感器的时空对准数据关联到同一个目标(无人机)中。这可以包括通过跟踪算法和关联算法来确定哪些时空对准数据对应于同一目标。
在一些实施例中,在关联滤波的结果下,可以形成关联数据,例如关联数据可以包含来自不同传感器的信息关联到同一个目标。
在一些实施例中,可以对关联到同一个目标的多个对准数据进行加权融合处理。每个对准数据的权重可以根据对应传感器的准确性、可靠性等因素确定。这样,权重较大的数据对目标的贡献更大,从而更好地反映了目标的状态和运动。
通过以上过程,得到的关联数据更加准确和可靠,因为它综合了多个传感器的信息,并考虑了各传感器的权重。这有助于提高对目标(无人机)的跟踪和识别的精度。
步骤106、对来自多个传感器的时空对准数据进行相似度计算,得到多个对应的相似度,并基于相似度优化关联数据,得到第一优化关联数据。
在一些实施例中,可以针对来自多个传感器的时空对准数据,通过相似度计算方法计算它们之间的相似度,涉及比较各个数据点之间的特征、运动模式等。
在一些实施例中,可以对每一对时空对准数据计算相似度,得到多个相似度值。这些值反映了各传感器数据之间的相似程度,即它们在时间和空间上的一致性。
在一些实施例中,可以利用相似度信息,对已关联的数据进行优化,包括调整关联的权重、更新关联的时空信息等,以使关联数据更加准确和一致。
通过以上方式,可以在多个传感器的数据之间建立更为一致的关联,提高对目标的跟踪和识别的准确性。相似度的概念允许***在融合数据时更灵活地处理来自不同传感器的信息,提高整个***的鲁棒性和效果。
可选地,步骤106可以包括:
从来自所述多个传感器的多个所述时空对准数据中提取出每个所述传感器测量的关键特征;
基于所述关键特征,计算不同关键特征之间的相似度,将所述相似度作为不同传感器之间的相似度;
根据所述相似度调整每个所述传感器的权重,并基于调整后的权重优化所述关联数据,得到所述第一优化关联数据。
在一些实施例中,可以从每个传感器提取关键特征,这些特征可以包括目标的形状、速度、加速度、方向等。提取关键特征的目的是减少数据的维度,聚焦于目标的最重要的方面。
在一些实施例中,可以对于每一对传感器提取的关键特征,计算关键特征之间的相似度,例如可以通过比较特征的向量、模式等来完成。
在一些实施例中,可以综合不同关键特征之间的相似度,计算不同传感器之间的相似度,例如可以通过加权平均或其他适当的方法来完成,考虑到每个关键特征的重要性。
在一些实施例中,可以根据计算得到的传感器相似度,调整每个传感器在关联数据中的权重。相似度高的传感器可能会被赋予更大的权重,以增加其在关联数据中的影响。
在一些实施例中,可以基于调整后的权重,对已有的关联数据进行优化。这可能包括重新分配权重、更新时空信息等,以使关联数据更加准确和一致。
通过以上方式,***能够更灵活地对不同传感器的数据进行整合,提高数据融合的准确性和鲁棒性,确保不同传感器对目标的观测都得到合理的考虑。
步骤107、基于时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于关系网络进行图论分析,优化第一优化关联数据,得到第二优化关联数据。
在一些实施例中,可以利用时空对准数据,建立目标空间的关系网络。每个目标在网络中可以被看作一个节点,而它们之间的关系(如距离、方向等)则可以表示为边,由此可以形成一个反映目标之间关系的图。
在一些实施例中,可以对构建的关系网络进行图论分析。图论是研究图结构和图中元素之间关系的数学理论,涉及到计算节点的中心性、最短路径、连通性等图论指标,以获取有关目标之间关系的信息。
在一些实施例中,可以基于图论分析的结果,对第一优化关联数据进行优化,包括重新分配关联关系、修正误差或不一致性,以使得关联数据更符合实际目标之间的空间关系。
通过以上方式,***可以更好地理解目标之间的空间结构,从而优化关联数据。这样的优化有助于提高数据融合的准确性和鲁棒性,确保关联的目标在空间上的分布和相互关系符合实际场景。
可选地,步骤107可以包括:
根据多个所述时空对准数据,建立目标空间的关系网络;
根据所述目标空间的关系网络,通过图论分析方法确定多个所述传感器检测到的不同目标之间的拓扑结构和关系,得到图论分析结果;
根据所述图论分析结果,对所述第一优化关联数据进行优化,得到所述第二优化关联数据。
在一些实施例中,可以利用多个时空对准数据,建立目标空间的关系网络。每个目标被表示为网络中的节点,而目标之间的关系则表示为边,该网络可以反映目标在时空中的联系。
在一些实施例中,可以运用图论分析方法,例如计算节点的中心性、最短路径、连通性等。通过这些分析,可以了解目标之间的拓扑结构、关系强度等信息,从而有助于理解在实际场景中目标之间的空间关系。
在一些实施例中,可以根据图论分析的结果,得到有关传感器检测到的不同目标之间拓扑结构和关系的信息,这些信息包括目标之间的相对位置、连接强度等。
在一些实施例中,可以基于图论分析的结果,对第一优化关联数据进行优化,包括重新调整关联关系、修正误差或不一致性,以使得关联数据更加符合实际目标之间的空间关系。
通过以上方式,***可以更全面地理解目标之间的拓扑结构和关系,从而更准确地优化关联数据。这种优化有助于提高数据融合的准确性和鲁棒性。
步骤108、根据不确定程度值,对第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据。
其中,不确定程度值用于衡量第二优化关联数据的测量值存在不确定性的程度大小。在一些实施例中,可以包括对时间和坐标测量的误差、传感器精度等因素。较高的不确定程度值表示相应测量值存在较大的不确定性。
在一些实施例中,可以根据不确定程度值,***可以调整第二优化关联数据中关于时间和坐标的测量值。这个过程旨在考虑测量的不确定性,以提高关联数据的准确性和可靠性。
在一些实施例中,可以对于时间数据,***可能会根据不确定程度值进行时间戳的调整,以更好地反映实际情况。这可以包括时间戳的推测或调整,以适应测量不确定性。
在一些实施例中,对于空间坐标数据,不确定程度值可能导致位置测量的不确定性。通过考虑这些不确定性,可以调整坐标数据,以使其更符合实际目标位置。
在一些实施例中,可以通过应用不确定程度值进行时间和坐标的优化,***生成第三优化关联数据,这个数据集应该在考虑了不确定性的基础上更加准确和可信。
通过以上方式,***能够更智能地处理传感器数据的不确定性,提高数据融合的质量和鲁棒性。不确定程度值的引入有助于更好地理解和优化关联数据,从而提高对目标状态的估计精度。
可选地,步骤108可以包括:
针对所述第二优化关联数据中的时间和坐标数据,确定所述第二优化关联数据中的每个数据点的不确定程度值;
根据每个所述数据点的不确定程度值,为每个所述数据点配置第一权重;所述第一权重用于表征所述数据点的测量值的可信程度;
根据配置第一权重后的多个所述数据点,对所述第二优化关联数据中的时间和坐标数据进行优化,得到所述第三优化关联数据。
在一些实施例中,可以针对第二优化关联数据中的每个数据点,***可以确定其不确定程度值。这些值反映了关于时间和坐标测量的不确定性,以及其他可能影响数据可信度的因素。
在一些实施例中,对于每个数据点,可以使用确定的不确定程度值配置第一权重。这个权重用于表征相应数据点的测量值的可信程度。通常情况下,较低的不确定程度值将导致更高的第一权重,表示对测量值的更高信任度。
在一些实施例中,可以在配置了不确定程度值和第一权重后,***使用这些权重对第二优化关联数据中的时间和坐标数据进行优化。涉及到使用加权优化算法,其中权重用于调整数据点的相对贡献,从而更好地反映数据的可信度。
在一些实施例中,可以通过应用不确定程度值和第一权重进行数据优化,***生成第三优化关联数据。这个数据集可以在更全面地考虑了不确定性和数据可信度的基础上进行了改进。
通过以上方式,***在处理关联数据时考虑了不同数据点的不确定性,并根据其可信度分配了合适的权重。这有助于提高数据的精度和鲁棒性,特别是在面对具有不同可靠性测量的多个传感器数据时。
步骤109、通过深度学习算法以加权投票的方式对第三优化关联数据中传感器识别物体的类别,以及类别的置信度进行处理,以生成多元情报融合数据,并基于多元情报融合数据对无人机进行实时探测。
在一些实施例中,可以针对第三优化关联数据中的每个传感器探测到的物体,***可以利用深度学习算法进行分类,即确定物体属于哪个类别,类别可以包括无人机、其他飞行物体或地面目标等。
在一些实施例中,可以对于每个识别出的物体类别,深度学习算法还能够提供一个置信度分数,表示***对分类结果的信心程度。这个分数可以用于衡量对物体类别识别的可信度。
在一些实施例中,可以通过对多个传感器的识别结果进行加权投票,***可以综合考虑来自不同传感器的信息。每个传感器的投票可能根据其性能、位置、精度等因素进行加权。从而有助于降低单个传感器错误分类的影响,提高整体物体类别识别的准确性。
在一些实施例中,可以结合加权投票的结果,***可以生成多元情报融合数据。这个数据集包含了来自多个传感器的集成信息,包括物体类别和相应的置信度分数。这种融合方法有助于提高对无人机及其环境的全面感知。
在一些实施例中,可以基于生成的多元情报融合数据,***可以实时对无人机进行探测。这意味着***能够在不同传感器提供的信息的基础上及时发现和跟踪无人机,从而支持实时决策和响应。
通过以上方式,通过深度学***。
可选地,步骤109可以包括:
获取所述第三优化关联数据中包含的所述多个传感器识别物体的类别和置信度信息,将所述识别物体的图像作为训练样本,将对应的类别和置信度信息作为标签训练初始深度学习模型,得到训练好的用于预测所述识别物体的类别和置信度的深度学习模型;
使用训练好的所述深度学习模型对来自多个所述传感器的多个识别物体进行推理,得到多个所述识别物体各自对应的类别和置信度;
根据每个所述传感器的权重,对每个所述类别和对应的每个所述置信度进行加权投票和整合处理,生成所述多元情报融合数据。
在一些实施例中,可以从第三优化关联数据中提取包含识别物体的图像,并使用这些图像作为训练样本,将每个训练样本对应的识别物体的类别和置信度信息作为标签,利用训练样本和标签进行深度学习模型的训练。模型学习从图像中准确预测识别物体的类别和置信度。
在一些实施例中,可以使用训练好的深度学习模型对来自多个传感器的多个识别物体进行推理。这包括从图像中识别物体的类别和计算相应的置信度。
在一些实施例中,由于每个传感器可能具有不同的权重,反映其在整个***中的可靠性或重要性。在一些实施例中,可以对每个识别物体的类别和置信度进行加权投票,考虑每个传感器的权重。这有助于综合多个传感器的信息,减小单一传感器的影响,提高整体结果的准确性。在一些实施例中,可以结合加权投票的结果,生成多元情报融合数据。这包括每个识别物体的综合类别和置信度信息,为***提供更全面和可信的识别结果。
通过以上过程,***能够利用深度学习模型对来自多个传感器的识别物体进行高效处理和整合,提高了对无人机的感知和识别准确性。同时,加权投票机制确保了每个传感器的贡献被适当考虑,从而提高了***的鲁棒性和可靠性。
综上所述,本申请能够提升反无人机***的整体性能,增强对无人机目标的感知和理解能力,为应对多样化、复杂化的无人机威胁提供了强大的支持。
为实现上述方法类实施例,本申请实施例还提供一种基于多元情报融合的无人机综合探测***,图3示出了本申请实施例提供的一种基于多元情报融合的无人机综合探测***的结构示意图,所述***包括:
数据接收模块,用于接收反无人机***的多个传感器上传的无人机的情报数据;所述情报数据包括所述多个传感器所探测到所述无人机的航迹数据、角航迹数据、图像数据和所在位置的地理数据,以及各传感器的坐标数据、精度数据和有效探测范围数据;
坐标矫正模块210,用于对无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对初始直角坐标进行畸变矫正,得到矫正后航迹数据和角航迹数据对应的目标直角坐标;
运动参数模块220,用于对转化为目标直角坐标的航迹数据和角航迹数据进行加权融合得到第一融合数据,对第一融合数据进行处理,得到对应的运动参数;
运动模式模块230,用于对运动参数进行时空对准处理得到时空对准数据,并基于时空对准数据确定无人机的运动模式;
关联数据模块240,用于对来自多个传感器的时空对准数据进行数据关联处理,得到关联数据;
第一优化模块250,用于对来自多个传感器的时空对准数据进行相似度计算,得到多个对应的相似度,并基于相似度优化关联数据,得到第一优化关联数据;
第二优化模块260,用于基于时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于关系网络进行图论分析,优化第一优化关联数据,得到第二优化关联数据;
第三优化模块270,用于根据不确定程度值,对第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据;不确定程度值用于衡量第二优化关联数据的测量存在不确定性的程度大小;
多元情报融合模块280,用于通过深度学习算法以加权投票的方式对第三优化关联数据中传感器识别物体的类别,以及类别的置信度进行处理,以生成多元情报融合数据,并基于多元情报融合数据对无人机进行实时探测。
在一些实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储图像采集设备的相关数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于多元情报融合的无人机综合探测方法和***。
在一些实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过***总线连接的处理器、存储器、通信接口、显示屏和输入***。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现基于多元情报融合的无人机综合探测方法和***。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入***可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一些实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一些实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (3)

1.一种基于多元情报融合的无人机综合探测方法,其特征在于,所述方法包括:
接收反无人机***的多个传感器上传的无人机的情报数据;所述情报数据包括所述多个传感器所探测到所述无人机的航迹数据、角航迹数据、图像数据和所在位置的地理数据,以及各传感器的坐标数据、精度数据和有效探测范围数据;
对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对所述初始直角坐标进行畸变矫正,得到矫正后所述航迹数据和角航迹数据对应的目标直角坐标,包括:获取坐标变换函数、对极坐标系的旋转角度、平移向量和缩放比例;构建用于最小化待测点的实际直角坐标值与转换直角坐标值的第一残差的第一目标函数,并基于所述第一目标函数优化用于进行直角坐标转换的坐标转换模型;根据所述优化后的坐标转换模型对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的所述初始直角坐标;根据径向畸变参数和切向畸变参数,分别对所述待测点的所述实际直角坐标值和所述初始直角坐标进行矫正,分别得到第一矫正坐标值和第二矫正坐标值;构建用于最小化第一矫正坐标值与第二矫正坐标值的第二残差的第二目标函数,并基于所述第二目标函数优化用于矫正所述初始直角坐标的畸变矫正模型;通过所述畸变矫正模型对所述初始直角坐标进行畸变矫正,得到所述目标直角坐标;
对转化为目标直角坐标的所述航迹数据和所述角航迹数据进行加权融合得到第一融合数据,对所述第一融合数据进行处理,得到对应的运动参数,包括:通过卡尔曼滤波算法,计算所述无人机在前一时刻的目标状态的第一预测值和第一预测协方差;所述目标状态为所述无人机的内部状态数据;根据所述第一融合数据对所述第一预测值进行校正,得到第一校正预测值根据所述无人机在当前时刻的卡尔曼增益和所述第一校正预测值,计算所述无人机在当前时刻的目标状态的第二预测值和第二预测协方差;从所述第二预测值中提取出所述无人机的运动参数;
对所述运动参数进行时空对准处理得到时空对准数据,并基于所述时空对准数据确定所述无人机的运动模式,包括:对所述运动参数进行目标轨迹的插值和调整的时空对准处理,得到所述时空对准数据;通过卡尔曼滤波算法对所述时空对准数据进行分析,得到所述无人机的运动模式;
对来自所述多个传感器的所述时空对准数据进行数据关联处理,得到关联数据,包括:采用关联滤波算法对来自所述多个传感器的所述时空对准数据进行处理,将多个所述时空对准数据关联到同一个目标无人机中;将关联到同一个目标无人机中的多个所述对准数据,按照每个所述对准数据对应传感器的权重,对多个所述对准数据进行加权融合处理,得到所述关联数据;
对来自所述多个传感器的所述时空对准数据进行相似度计算,得到多个对应的相似度,并基于所述相似度优化所述关联数据,得到第一优化关联数据,包括:从来自所述多个传感器的多个所述时空对准数据中提取出每个所述传感器测量的关键特征;基于所述关键特征,计算不同关键特征之间的相似度,将所述相似度作为不同传感器之间的相似度;根据所述相似度调整每个所述传感器的权重,并基于调整后的权重优化所述关联数据,得到所述第一优化关联数据;
基于所述时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于所述关系网络进行图论分析,优化所述第一优化关联数据,得到第二优化关联数据,包括:根据多个所述时空对准数据,建立目标空间的关系网络;根据所述目标空间的关系网络,通过图论分析方法确定多个所述传感器检测到的不同目标之间的拓扑结构和关系,得到图论分析结果;根据所述图论分析结果,对所述第一优化关联数据进行优化,得到所述第二优化关联数据;
根据不确定程度值,对所述第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据,包括:针对所述第二优化关联数据中的时间和坐标数据,确定所述第二优化关联数据中的每个数据点的不确定程度值;根据每个所述数据点的不确定程度值,为每个所述数据点配置第一权重;所述第一权重用于表征所述数据点的测量值的可信程度;根据配置第一权重后的多个所述数据点,对所述第二优化关联数据中的时间和坐标数据进行优化,得到所述第三优化关联数据;所述不确定程度值用于衡量所述第二优化关联数据的测量值存在不确定性的程度大小;
通过深度学习算法以加权投票的方式对所述第三优化关联数据中所述传感器识别物体的类别,以及所述类别的置信度进行处理,以生成多元情报融合数据,并基于所述多元情报融合数据对所述无人机进行实时探测。
2.根据权利要求1所述的基于多元情报融合的无人机综合探测方法,其特征在于,所述通过深度学习算法以加权投票的方式对所述第三优化关联数据中所述传感器识别物体的类别,以及所述类别的置信度进行处理,以生成多元情报融合数据,包括:
获取所述第三优化关联数据中包含的所述多个传感器识别物体的类别和置信度信息,将所述识别物体的图像作为训练样本,将对应的类别和置信度信息作为标签训练初始深度学习模型,得到训练好的用于预测所述识别物体的类别和置信度的深度学习模型;
使用训练好的所述深度学习模型对来自多个所述传感器的多个识别物体进行推理,得到多个所述识别物体各自对应的类别和置信度;
根据每个所述传感器的权重,对每个所述类别和对应的每个所述置信度进行加权投票和整合处理,生成所述多元情报融合数据。
3.一种基于多元情报融合的无人机综合探测***,其特征在于,所述***包括:
数据接收模块,用于接收反无人机***的多个传感器上传的无人机的情报数据;所述情报数据包括所述多个传感器所探测到所述无人机的航迹数据、角航迹数据、图像数据和所在位置的地理数据,以及各传感器的坐标数据、精度数据和有效探测范围数据;
坐标矫正模块,用于对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的初始直角坐标,并对所述初始直角坐标进行畸变矫正,得到矫正后所述航迹数据和角航迹数据对应的目标直角坐标,还用于:获取坐标变换函数、对极坐标系的旋转角度、平移向量和缩放比例;构建用于最小化待测点的实际直角坐标值与转换直角坐标值的第一残差的第一目标函数,并基于所述第一目标函数优化用于进行直角坐标转换的坐标转换模型;根据所述优化后的坐标转换模型对所述无人机的航迹数据和角航迹数据的极坐标进行直角坐标转换,得到对应的所述初始直角坐标;根据径向畸变参数和切向畸变参数,分别对所述待测点的所述实际直角坐标值和所述初始直角坐标进行矫正,分别得到第一矫正坐标值和第二矫正坐标值;构建用于最小化第一矫正坐标值与第二矫正坐标值的第二残差的第二目标函数,并基于所述第二目标函数优化用于矫正所述初始直角坐标的畸变矫正模型;通过所述畸变矫正模型对所述初始直角坐标进行畸变矫正,得到所述目标直角坐标;
运动参数模块,用于对转化为目标直角坐标的所述航迹数据和所述角航迹数据进行加权融合得到第一融合数据,对所述第一融合数据进行处理,得到对应的运动参数,还用于:通过卡尔曼滤波算法,计算所述无人机在前一时刻的目标状态的第一预测值和第一预测协方差;所述目标状态为所述无人机的内部状态数据;根据所述第一融合数据对所述第一预测值进行校正,得到第一校正预测值根据所述无人机在当前时刻的卡尔曼增益和所述第一校正预测值,计算所述无人机在当前时刻的目标状态的第二预测值和第二预测协方差;从所述第二预测值中提取出所述无人机的运动参数;
运动模式模块,用于对所述运动参数进行时空对准处理得到时空对准数据,并基于所述时空对准数据确定所述无人机的运动模式,还用于:对所述运动参数进行目标轨迹的插值和调整的时空对准处理,得到所述时空对准数据;通过卡尔曼滤波算法对所述时空对准数据进行分析,得到所述无人机的运动模式;
关联数据模块,用于对来自所述多个传感器的所述时空对准数据进行数据关联处理,得到关联数据,还用于:采用关联滤波算法对来自所述多个传感器的所述时空对准数据进行处理,将多个所述时空对准数据关联到同一个目标无人机中;将关联到同一个目标无人机中的多个所述对准数据,按照每个所述对准数据对应传感器的权重,对多个所述对准数据进行加权融合处理,得到所述关联数据;
第一优化模块,用于对来自所述多个传感器的所述时空对准数据进行相似度计算,得到多个对应的相似度,并基于所述相似度优化所述关联数据,得到第一优化关联数据,还用于:从来自所述多个传感器的多个所述时空对准数据中提取出每个所述传感器测量的关键特征;基于所述关键特征,计算不同关键特征之间的相似度,将所述相似度作为不同传感器之间的相似度;根据所述相似度调整每个所述传感器的权重,并基于调整后的权重优化所述关联数据,得到所述第一优化关联数据;
第二优化模块,用于基于所述时空对准数据进行空间关系建模,构建目标空间的关系网络,并基于所述关系网络进行图论分析,优化所述第一优化关联数据,得到第二优化关联数据,还用于:根据多个所述时空对准数据,建立目标空间的关系网络;根据所述目标空间的关系网络,通过图论分析方法确定多个所述传感器检测到的不同目标之间的拓扑结构和关系,得到图论分析结果;根据所述图论分析结果,对所述第一优化关联数据进行优化,得到所述第二优化关联数据;
第三优化模块,用于根据不确定程度值,对所述第二优化关联数据中关于时间和坐标的数据进行优化,得到第三优化关联数据,还用于:针对所述第二优化关联数据中的时间和坐标数据,确定所述第二优化关联数据中的每个数据点的不确定程度值;根据每个所述数据点的不确定程度值,为每个所述数据点配置第一权重;所述第一权重用于表征所述数据点的测量值的可信程度;根据配置第一权重后的多个所述数据点,对所述第二优化关联数据中的时间和坐标数据进行优化,得到所述第三优化关联数据;所述不确定程度值用于衡量所述第二优化关联数据的测量存在不确定性的程度大小;
多元情报融合模块,用于通过深度学习算法以加权投票的方式对所述第三优化关联数据中所述传感器识别物体的类别,以及所述类别的置信度进行处理,以生成多元情报融合数据,并基于所述多元情报融合数据对所述无人机进行实时探测。
CN202311619027.4A 2023-11-30 2023-11-30 一种基于多元情报融合的无人机综合探测方法和*** Active CN117329928B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311619027.4A CN117329928B (zh) 2023-11-30 2023-11-30 一种基于多元情报融合的无人机综合探测方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311619027.4A CN117329928B (zh) 2023-11-30 2023-11-30 一种基于多元情报融合的无人机综合探测方法和***

Publications (2)

Publication Number Publication Date
CN117329928A CN117329928A (zh) 2024-01-02
CN117329928B true CN117329928B (zh) 2024-02-09

Family

ID=89283400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311619027.4A Active CN117329928B (zh) 2023-11-30 2023-11-30 一种基于多元情报融合的无人机综合探测方法和***

Country Status (1)

Country Link
CN (1) CN117329928B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012163495A (ja) * 2011-02-08 2012-08-30 Hitachi Ltd センサ統合システム及びセンサ統合方法
CN104392245A (zh) * 2014-12-15 2015-03-04 长春理工大学 多传感器融合的路面类型识别方法及装置
KR20200032776A (ko) * 2018-09-18 2020-03-27 주식회사 스트리스 다중 센서 플랫폼 간 정보 융합을 위한 시스템
RU2733453C1 (ru) * 2020-07-07 2020-10-01 федеральное государственное автономное образовательное учреждение высшего образования "Северо-Кавказский федеральный университет" Способ автоматического управления движением роботизированного беспилотного летательного аппарата в автономном режиме
CN111860589A (zh) * 2020-06-12 2020-10-30 中山大学 一种多传感器多目标协同探测信息融合方法、***
CN111983662A (zh) * 2020-08-29 2020-11-24 兰州交通大学 一种基于图论分析的联邦ekf滤波方法及其应用
US10907940B1 (en) * 2017-12-12 2021-02-02 Xidrone Systems, Inc. Deterrent for unmanned aerial systems using data mining and/or machine learning for improved target detection and classification
CN114511003A (zh) * 2022-01-10 2022-05-17 南京农业大学 一种基于加权融合相似度模型的重复性数据检测方法
CN114625727A (zh) * 2022-03-11 2022-06-14 盛航(台州)科技有限公司 一种基于多元情报融合的无人机综合探测方法
CN114963879A (zh) * 2022-05-20 2022-08-30 中国电子科技集团公司电子科学研究院 无人机综合反制***及综合反制方法
CN115098609A (zh) * 2022-06-20 2022-09-23 哈尔滨工业大学 多传感器联合空时偏差校准及多目标关联融合方法及装置
CN115932834A (zh) * 2022-09-01 2023-04-07 北京理工雷科电子信息技术有限公司 一种基于多源异构数据融合的反无人机***目标检测方法
CN116415202A (zh) * 2023-02-08 2023-07-11 岚图汽车科技有限公司 一种多源数据融合方法、***、电子设备及存储介质
CN117092638A (zh) * 2023-08-14 2023-11-21 北京航空航天大学 多传感器信息在线数据融合方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108663677A (zh) * 2018-03-29 2018-10-16 上海智瞳通科技有限公司 一种多传感器深度融合提高目标检测能力的方法
CN111258313B (zh) * 2020-01-20 2022-06-07 深圳市普渡科技有限公司 多传感器融合slam***及机器人

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012163495A (ja) * 2011-02-08 2012-08-30 Hitachi Ltd センサ統合システム及びセンサ統合方法
CN104392245A (zh) * 2014-12-15 2015-03-04 长春理工大学 多传感器融合的路面类型识别方法及装置
US10907940B1 (en) * 2017-12-12 2021-02-02 Xidrone Systems, Inc. Deterrent for unmanned aerial systems using data mining and/or machine learning for improved target detection and classification
KR20200032776A (ko) * 2018-09-18 2020-03-27 주식회사 스트리스 다중 센서 플랫폼 간 정보 융합을 위한 시스템
CN111860589A (zh) * 2020-06-12 2020-10-30 中山大学 一种多传感器多目标协同探测信息融合方法、***
RU2733453C1 (ru) * 2020-07-07 2020-10-01 федеральное государственное автономное образовательное учреждение высшего образования "Северо-Кавказский федеральный университет" Способ автоматического управления движением роботизированного беспилотного летательного аппарата в автономном режиме
CN111983662A (zh) * 2020-08-29 2020-11-24 兰州交通大学 一种基于图论分析的联邦ekf滤波方法及其应用
CN114511003A (zh) * 2022-01-10 2022-05-17 南京农业大学 一种基于加权融合相似度模型的重复性数据检测方法
CN114625727A (zh) * 2022-03-11 2022-06-14 盛航(台州)科技有限公司 一种基于多元情报融合的无人机综合探测方法
CN114963879A (zh) * 2022-05-20 2022-08-30 中国电子科技集团公司电子科学研究院 无人机综合反制***及综合反制方法
CN115098609A (zh) * 2022-06-20 2022-09-23 哈尔滨工业大学 多传感器联合空时偏差校准及多目标关联融合方法及装置
CN115932834A (zh) * 2022-09-01 2023-04-07 北京理工雷科电子信息技术有限公司 一种基于多源异构数据融合的反无人机***目标检测方法
CN116415202A (zh) * 2023-02-08 2023-07-11 岚图汽车科技有限公司 一种多源数据融合方法、***、电子设备及存储介质
CN117092638A (zh) * 2023-08-14 2023-11-21 北京航空航天大学 多传感器信息在线数据融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张志文.《智能重载铁路》.中国铁道出版社有限公司,2021,第28-30页. *

Also Published As

Publication number Publication date
CN117329928A (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
Liu et al. Collaborative SLAM based on WiFi fingerprint similarity and motion information
CN110856112B (zh) 一种群智感知的多源信息融合室内定位方法及***
US10452923B2 (en) Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation
CN110866887A (zh) 一种基于多传感器的目标态势融合感知方法和***
US11995766B2 (en) Centralized tracking system with distributed fixed sensors
CN113447923A (zh) 目标检测方法、装置、***、电子设备及存储介质
CN111353450B (zh) 一种基于异构电磁感知信息融合的目标识别***和方法
EP4001948A1 (en) Deep smartphone sensors fusion for indoor positioning and tracking
US11928813B2 (en) Method and system for detecting change to structure by using drone
Cao et al. Correlation-based tracking of multiple targets with hierarchical layered structure
CN115900712B (zh) 一种信源可信度评价组合定位方法
Atashi et al. Multiple model BLE-based tracking via validation of RSSI fluctuations under different conditions
CN113793362A (zh) 基于多镜头视频的行人轨迹提取方法和装置
Jia et al. A fingerprint-based localization algorithm based on LSTM and data expansion method for sparse samples
CN117329928B (zh) 一种基于多元情报融合的无人机综合探测方法和***
Wietrzykowski et al. Adopting the FAB-MAP algorithm for indoor localization with WiFi fingerprints
Wang et al. Online drone-based moving target detection system in dense-obstructer environment
CN113239922B (zh) 一种虚拟现实空间定位特征点识别***及识别方法
Fernández et al. Appearance‐based approach to hybrid metric‐topological simultaneous localisation and mapping
He et al. Vision-aided self-calibration of a wireless propagation model for crowdsourcing-based indoor localization
Huang et al. VariFi: Variational Inference for Indoor Pedestrian Localization and Tracking Using IMU and WiFi RSS
Zhao et al. A sensor-service collaboration approach for target tracking in wireless camera networks
Kamal et al. An overview of distributed tracking and control in camera networks
CN117308967B (zh) 一种目标对象位置信息的确定方法、装置及设备
Yang Indoor Positioning System for Smart Devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant