CN114973143B - 一种融合运动特征的低空飞行器鲁棒检测方法 - Google Patents

一种融合运动特征的低空飞行器鲁棒检测方法 Download PDF

Info

Publication number
CN114973143B
CN114973143B CN202210687775.5A CN202210687775A CN114973143B CN 114973143 B CN114973143 B CN 114973143B CN 202210687775 A CN202210687775 A CN 202210687775A CN 114973143 B CN114973143 B CN 114973143B
Authority
CN
China
Prior art keywords
track
course
representing
candidate target
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210687775.5A
Other languages
English (en)
Other versions
CN114973143A (zh
Inventor
贾冕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Zhongke Zhuying Intelligent Technology Research Institute Co ltd
National University of Defense Technology
Original Assignee
Hunan Zhongke Zhuying Intelligent Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Zhongke Zhuying Intelligent Technology Research Institute Co ltd filed Critical Hunan Zhongke Zhuying Intelligent Technology Research Institute Co ltd
Priority to CN202210687775.5A priority Critical patent/CN114973143B/zh
Publication of CN114973143A publication Critical patent/CN114973143A/zh
Application granted granted Critical
Publication of CN114973143B publication Critical patent/CN114973143B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合运动特征的低空飞行器鲁棒检测方法,包括:S1.基于监控视频获取其中运动目标的运动目标轨迹;S2.基于预训练的低空飞行器目标检测模型从所述运动目标轨迹中抽取出候选目标轨迹;S3.将所述候选目标轨迹划分为多个轨迹分段,并获取候选目标在每个所述轨迹分段的轨迹特征;S4.基于所述轨迹特征计算出所述候选目标运动到第i段时刻的整体类别置信度,若所述整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器。本发明的方案通过采用区分运动特征并融合的方式可以有效的分辨出各类低空飞行器,极大的提高了本方案的分辨能力和分辨效率。

Description

一种融合运动特征的低空飞行器鲁棒检测方法
技术领域
本发明涉及图像识别领域,尤其涉及一种融合运动特征的低空飞行器鲁棒检测方法。
背景技术
随着消费级小型无人机的快速发展,对小型无人机的有效监管越发重要。现有解决方案中,基于视频图像分析的无人机检测是一大类研究热点,已知的相关研究成果已经可以实现对尺度范围在20~30像素的无人机目标的检测。
对于尺度范围在20~30像素的无人机目标,实际应用***面临的一大难题是相同尺度范围下的飞鸟目标极易触发虚警,严重影响用户体验。
发明内容
本发明的目的在于提供一种融合运动特征的低空飞行器鲁棒检测方法。
为实现上述发明目的,本发明提供一种融合运动特征的低空飞行器鲁棒检测方法,包括:
S1.基于监控视频获取其中运动目标的运动目标轨迹;
S2.基于预训练的低空飞行器目标检测模型从所述运动目标轨迹中抽取出候选目标轨迹;
S3.将所述候选目标轨迹划分为多个轨迹分段,并获取候选目标在每个所述轨迹分段的轨迹特征;
S4.基于所述轨迹特征计算出所述候选目标运动到第i段时刻的整体类别置信度,若所述整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器。
根据本发明的一个方面,步骤S1中,基于监控视频获取其中运动目标的运动目标轨迹的步骤中,包括:
S11.截取多帧所述监控视频中的监控图像,基于获取的所述监控图像采用高斯背景建模方法建立当前所述监控视频的背景模型;
S12.利用所述背景模型对所述监控视频中的每帧监控图像进行去背景处理,提取所述监控图像中的运动像素区域;
S13.对所述运动像素区域进行去噪处理,并提取保留下的连通区域;
S14.采用相关滤波法对相邻帧的所述连通区域进行跟踪,确定不同帧所提取的所述连通区域的隶属度关系,基于所述隶属度关系确定出不同所述连通区域的帧序列;
S15.获取不同帧所提取的所述连通区域的质心坐标和空间尺度信息,并基于所述连通区域的帧序列构建出所述运动目标轨迹。
根据本发明的一个方面,步骤S11中,截取所述监控视频中的前N帧所述监控图像建立所述背景模型;
步骤S12中,利用所述背景模型对所述监控视频中第N帧后的所述监控图像进行去背景处理,并提取所述运动像素区域。
根据本发明的一个方面,步骤S3中,所述轨迹特征包括:航向变化幅度和航速变化幅度;
步骤S3中,包括:
S31.基于所述连通区域的质心坐标和空间尺度信息确定出所述候选目标轨迹上的轨迹点,并按照预设数量的所述轨迹点对所述候选目标轨迹进行划分;
S32.选取所述轨迹分段中的多个所述轨迹点获取所述航向变化幅度和所述航速变化幅度。
根据本发明的一个方面,步骤S32中,选取所述轨迹分段中的多个所述轨迹点获取所述航向变化幅度的步骤中,包括:
S321.在同一所述轨迹分段上选取具有先后顺序的第一轨迹点和第二轨迹点,并分别获取在先的所述第一轨迹点至在后的所述第二轨迹点的第一航向和第一航速;
S322.在同一所述轨迹分段上继续选取在后的第三轨迹点,并分别获取在先的所述第二轨迹点至在后的所述第三轨迹点的第二航向和第二航速,并基于所述第一航向和所述第二航向获取所述轨迹分段的航向变化关系,以及基于所述第一航速和所述第二航速获取所述轨迹分段的航速变化关系;
S323.基于所述航向变化关系和所述航速变化关系分别计算同一所述轨迹分段中的航向变化均值和航速变化均值,以获取所述航向变化幅度和所述航速变化幅度。
根据本发明的一个方面,步骤S321中,所述第一航向表示为:
Figure BDA0003700340700000031
其中,
Figure BDA0003700340700000032
表示所述第一轨迹点至所述第二轨迹点的第一航向;i表示所述轨迹分段的序号;j表示轨迹点的帧序列编号,且j1<j2;x、y分别为所述轨迹点的坐标;
所述第一航速表示为:
Figure BDA0003700340700000033
其中,
Figure BDA0003700340700000034
表示所述第一轨迹点至所述第二轨迹点的第一航速;i表示所述轨迹分段的序号;j表示轨迹点的帧序列编号,且j1<j2;x、y分别为所述轨迹点的坐标。
根据本发明的一个方面,步骤S322中,所述航向变化关系表示为:
Figure BDA0003700340700000035
其中,Δθ[i][j1][j2][j3]表示航向变化关系,Δθ[i][j1][j2]表示第一航向,Δθ[i][j2][j3]表示第二航向;
所述航速变化关系表示为:
Figure BDA0003700340700000036
其中,ΔS[i][j1][j2][j3]表示航速变化关系,ΔS[i][j1][j2]表示第一航速,ΔS[i][j2][j3]表示第二航速。
根据本发明的一个方面,步骤S323中,基于所述航向变化关系和所述航速变化关系分别计算同一所述轨迹分段中的航向变化均值和航速变化均值的步骤中,选取三组不同帧序列间隔的所述轨迹点并基于所述航向变化关系和所述航速变化关系分别计算出相应的航向变化均值和航速变化均值,其中,第一组所述轨迹点之间的帧序列间隔小于第二组所述轨迹点之间的帧序列间隔,第二组所述轨迹点之间的帧序列间隔小于第三组所述轨迹点之间的帧序列间隔。
根据本发明的一个方面,步骤S4中,基于所述轨迹特征计算出所述候选目标运动到第i段时刻的整体类别置信度,若所述整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器的步骤中,包括:
获取第i段轨迹分段的所述轨迹特征中所述航向变化幅度和所述航速变化幅度所对应的类别置信度;其中,以获得的所述航向变化均值和所述航速变化均值计算所述类别置信度;
基于所述类别置信度获取所述候选目标运动到第i段时刻的整体类别置信度;
将所述整体类别置信度与所述阈值相比较,若所述整体类别置信度大于预设的阈值,则判定序列中第i时刻的候选目标为低空飞行器。
根据本发明的一个方面,所述整体类别置信度表示为:
Q1=q1
Qi=(qi-1+qi)/2,i>1
其中,Qi表示整体类别置信度,qi表示类别置信度。
根据本发明的一种方案,本发明的方案通过采用区分运动特征并融合的方式可以有效的分辨出各类低空飞行器,极大的提高了本方案的分辨能力和分辨效率。
根据本发明的一种方案,本发明的方案分辨精度高,其对低空飞行器的平均分辨准确率超过了93%。
根据本发明的一种方案,本发明的方案可以有效区分在小尺度范围内的飞鸟和无人机,不仅效率高,而且有效降低了误触发的概率,极大的提高了用户体验。
根据本发明的一种方案,本发明的方案的执行过程中其计算量小,有效降低了对处理设备的性能要求,有效的增强了本发明的实用性和适用范围。
附图说明
图1是示意性表示根据本发明的一种实施方式的融合运动特征的低空飞行器鲁棒检测方法的步骤框图。
图2是示意性表示根据本发明的一种实施方式的融合运动特征的低空飞行器鲁棒检测方法的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明作详细地描述,实施方式不能在此一一赘述,但本发明的实施方式并不因此限定于以下实施方式。
结合图1和图2所示,根据本发明的一种实施方式,本发明的融合运动特征的低空飞行器鲁棒检测方法,包括:
S1.基于监控视频获取其中运动目标的运动目标轨迹;
S2.基于预训练的低空飞行器目标检测模型从运动目标轨迹中抽取出候选目标轨迹;
S3.将候选目标轨迹划分为多个轨迹分段,并获取候选目标在每个轨迹分段的轨迹特征;
S4.基于轨迹特征计算出候选目标运动到第i段时刻的整体类别置信度,若整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器。
根据本发明的一种实施方式,步骤S1中,基于监控视频获取其中运动目标的运动目标轨迹的步骤中,包括:
S11.截取多帧监控视频中的监控图像,基于获取的监控图像采用高斯背景建模方法建立当前监控视频的背景模型;在本实施方式中,截取监控视频中的前N帧监控图像建立背景模型;其中,N的取值范围可设置在5~30之间。
S12.利用背景模型对监控视频中的每帧监控图像进行去背景处理,提取监控图像中的运动像素区域;在本实施方式中,利用背景模型并结合背景减除法对监控视频中第N帧后的监控图像进行去背景处理,并提取运动像素区域。
S13.对运动像素区域进行去噪处理,并提取保留下的连通区域;在本实施方式中,采用中值滤波、膨胀、腐蚀等数学形态学方法滤除运动像素区域的离散噪声干扰,并提取保留下来的连通区域。
S14.采用相关滤波法对相邻帧的连通区域进行跟踪,确定不同帧所提取的连通区域的隶属度关系,基于隶属度关系确定出不同连通区域的帧序列;
S15.获取不同帧所提取的连通区域的质心坐标和空间尺度信息,并基于连通区域的帧序列构建出运动目标轨迹。即同一运动像素区域的质心坐标和空间尺度信息共同构成了该运动目标的轨迹信息。
根据本发明的一种实施方式,步骤S2中,采用预训练的基于深度学习的低空飞行器目标检测模型(如SSD模型),对每个运动目标轨迹包含的运动像素区域(也可以为质心坐标和空间掩膜)做检测,找出分类为低空飞行器目标的区域,将该区域对应的轨迹作为候选目标轨迹。
根据本发明的一种实施方式,步骤S3中,轨迹特征包括:航向变化幅度和航速变化幅度;在本实施方式中,步骤S3中,包括:
S31.基于连通区域的质心坐标和空间尺度信息确定出候选目标轨迹上的轨迹点,并按照预设数量的轨迹点对候选目标轨迹进行划分;在本实施方式中从运动目标轨迹起始点开始,每16个轨迹点为1段。对于轨迹中第i段的第j个轨迹点,编号为Tij。这里i为轨迹段的序号,从1开始,数值越大表示轨迹越新;j为轨迹段内轨迹点的帧序列顺序编号,取值范围为1~16,数值越大表示轨迹点越新。
S32.选取轨迹分段中的多个轨迹点获取航向变化幅度和航速变化幅度。
根据本发明的一种实施方式,步骤S32中,选取轨迹分段中的多个轨迹点获取航向变化幅度的步骤中,包括:
S321.在同一轨迹分段上选取具有先后顺序的第一轨迹点和第二轨迹点,并分别获取在先的第一轨迹点至在后的第二轨迹点的第一航向和第一航速;在本实施方式中,从旧轨迹点Tij1(在先的第一轨迹点)画一条指向新轨迹点Tij2(在后的第二轨迹点)的直线,将该直线的指向记为这两个轨迹点对应的航向,即第一航向表示为:
Figure BDA0003700340700000071
其中,
Figure BDA0003700340700000072
表示第一轨迹点至第二轨迹点的第一航向;i表示轨迹分段的序号;j表示轨迹点的帧序列编号,且j1<j2;x、y分别为轨迹点的坐标;
在本实施方式中,从旧轨迹点Tij1(在先的第一轨迹点)画一条指向新轨迹点Tij2(在后的第二轨迹点)的直线,将该直线的的长度与这两个轨迹点帧间隔之比记为这两个轨迹点对应的航速,即第一航速表示为:
Figure BDA0003700340700000073
其中,
Figure BDA0003700340700000074
表示第一轨迹点至第二轨迹点的第一航速;i表示轨迹分段的序号;j表示轨迹点的帧序列编号,且j1<j2;x、y分别为轨迹点的坐标。
S322.在同一轨迹分段上继续选取在后的第三轨迹点,并分别获取在先的第二轨迹点至在后的第三轨迹点的第二航向和第二航速,并基于第一航向和第二航向获取轨迹分段的航向变化关系,以及基于第一航速和第二航速获取轨迹分段的航速变化关系;在本实施方式中,运动目标从Tij1(在先的第一轨迹点)运动到Tij2(在后的第二轨迹点),再从Tij2(在后的第二轨迹点)的运动到Tij3(在后的第三轨迹点)的过程具有一定的航向变化,进而该航向变化关系表示为:
Figure BDA0003700340700000075
其中,Δθ[i][j1][j2][j3]表示航向变化关系,Δθ[i][j1][j2]表示第一航向,Δθ[i][j2][j3]表示第二航向;
在本实施方式中,运动目标从Tij1(在先的第一轨迹点)运动到Tij2(在后的第二轨迹点),再从Tij2(在后的第二轨迹点)的运动到Tij3(在后的第三轨迹点)的过程具有一定的航速变化,进而该航速变化关系表示为:
Figure BDA0003700340700000076
其中,ΔS[i][j1][j2][j3]表示航速变化关系,ΔS[i][j1][j2]表示第一航速,ΔS[i][j2][j3]表示第二航速。
S323.基于航向变化关系和航速变化关系分别计算同一轨迹分段中的航向变化均值和航速变化均值,以获取航向变化幅度和航速变化幅度。在本实施方式中,选取三组不同帧序列间隔的轨迹点并基于航向变化关系和航速变化关系分别计算出相应的航向变化均值和航速变化均值,其中,第一组轨迹点之间的帧序列间隔小于第二组轨迹点之间的帧序列间隔,第二组轨迹点之间的帧序列间隔小于第三组轨迹点之间的帧序列间隔。
在本实施方式中,选取三组不同帧序列间隔的轨迹点并基于航向变化关系计算出相应的航向变化均值的步骤中,基于前述的轨迹分段的长度限制,在其范围内分别取三组不同帧序列间隔的轨迹点进行计算,在本实施方式中,选取瞬时、短时和长时三组不同帧序列间隔的轨迹点进行计算,其中,瞬时选取相邻点以进行计算,短时考选取帧间隔为3的点以进行计算,长时选取帧间隔为6的点以进行计算,进而,其分别为:
瞬时航向变化均值
Figure BDA0003700340700000081
Figure BDA0003700340700000082
短时航向变化均值
Figure BDA0003700340700000083
Figure BDA0003700340700000084
长时航向变化均值
Figure BDA0003700340700000085
Figure BDA0003700340700000086
其中,δi为归一化因子,计算公式如下:
Figure BDA0003700340700000087
其中,wsin的wsin为第i段轨迹分段中第n个轨迹点对应区域宽度与视频图像宽度的比值,hsin为第i段轨迹中第n个轨迹点对应区域高度与视频图像高度的比值,对于同一个目标而言,其距离摄像机越近,则这两个比值越大。
选取三组不同帧序列间隔的轨迹点并基于航速变化关系计算出相应的航速变化均值的步骤中,基于前述的轨迹分段的长度限制,在其范围内分别取三组不同帧序列间隔的轨迹点进行计算,在本实施方式中,选取瞬时、短时和长时三组不同帧序列间隔的轨迹点进行计算,其中,瞬时选取相邻点以进行计算,短时考选取帧间隔为3的点以进行计算,长时选取帧间隔为6的点以进行计算,进而,其分别为:
瞬时航速变化均值
Figure BDA0003700340700000091
Figure BDA0003700340700000092
短时航速变化均值
Figure BDA0003700340700000093
Figure BDA0003700340700000094
长时航速变化均值
Figure BDA0003700340700000095
Figure BDA0003700340700000096
其中,δi为归一化因子,计算公式如下:
Figure BDA0003700340700000097
其中,wsin的wsin为第i段轨迹分段中第n个轨迹点对应区域宽度与视频图像宽度的比值,hsin为第i段轨迹中第n个轨迹点对应区域高度与视频图像高度的比值,对于同一个目标而言,其距离摄像机越近,则这两个比值越大。
根据本发明的一种实施方式,步骤S4中,基于轨迹特征计算出所述候选目标运动到第i段时刻的整体类别置信度,若整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器的步骤中,包括:
获取第i段轨迹分段的轨迹特征中航向变化幅度和航速变化幅度所对应的类别置信度qi;其中,以获得的航向变化均值和航速变化均值计算类别置信度;具体的,获取前述第i段轨迹分段的轨迹特征中3个航向变化均值和3个航速变化均值,使用预训练的SVM分类器来计算其对应的类别置信度qi
基于类别置信度qi获取候选目标运动到第i段时刻的整体类别置信度Qi,即计算目标运动到轨迹分段i时的整体类别置信度Qi;在本实施方式中,整体类别置信度表示为:
Q1=q1
Qi=(qi-1+qi)/2,i>1
其中,Qi表示整体类别置信度,qi表示类别置信度。
将整体类别置信度与阈值相比较,若整体类别置信度大于预设的阈值,则判定序列中第i时刻的候选目标为低空飞行器。
上述内容仅为本发明的具体方案的例子,对于其中未详尽描述的设备和结构,应当理解为采取本领域已有的通用设备及通用方法来予以实施。
以上所述仅为本发明的一个方案而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种融合运动特征的低空飞行器鲁棒检测方法,包括:
S1.基于监控视频获取其中运动目标的运动目标轨迹;
S2.基于预训练的低空飞行器目标检测模型从所述运动目标轨迹中抽取出候选目标轨迹;
S3.将所述候选目标轨迹划分为多个轨迹分段,并获取候选目标在每个所述轨迹分段的轨迹特征;其中,所述轨迹特征包括:航向变化幅度和航速变化幅度;
S4.基于所述轨迹特征计算出所述候选目标运动到第i段时刻的整体类别置信度,若所述整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器;
步骤S1中,包括:
S11.截取多帧所述监控视频中的监控图像,基于获取的所述监控图像采用高斯背景建模方法建立当前所述监控视频的背景模型;
S12.利用所述背景模型对所述监控视频中的每帧监控图像进行去背景处理,提取所述监控图像中的运动像素区域;
S13.对所述运动像素区域进行去噪处理,并提取保留下的连通区域;
S14.采用相关滤波法对相邻帧的所述连通区域进行跟踪,确定不同帧所提取的所述连通区域的隶属度关系,基于所述隶属度关系确定出不同所述连通区域的帧序列;
S15.获取不同帧所提取的所述连通区域的质心坐标和空间尺度信息,并基于所述连通区域的帧序列构建出所述运动目标轨迹;
步骤S3中,包括:
S31.基于所述连通区域的质心坐标和空间尺度信息确定出所述候选目标轨迹上的轨迹点,并按照预设数量的所述轨迹点对所述候选目标轨迹进行划分;
S32.选取所述轨迹分段中的多个所述轨迹点获取所述航向变化幅度和所述航速变化幅度;
步骤S32中,选取所述轨迹分段中的多个所述轨迹点获取所述航向变化幅度的步骤中,包括:
S321.在同一所述轨迹分段上选取具有先后顺序的第一轨迹点和第二轨迹点,并分别获取在先的所述第一轨迹点至在后的所述第二轨迹点的第一航向和第一航速;
S322.在同一所述轨迹分段上继续选取在后的第三轨迹点,并分别获取在先的所述第二轨迹点至在后的所述第三轨迹点的第二航向和第二航速,并基于所述第一航向和所述第二航向获取所述轨迹分段的航向变化关系,以及基于所述第一航速和所述第二航速获取所述轨迹分段的航速变化关系;
S323.基于所述航向变化关系和所述航速变化关系分别计算同一所述轨迹分段中的航向变化均值和航速变化均值,以获取所述航向变化幅度和所述航速变化幅度;
步骤S4中,基于所述轨迹特征计算出所述候选目标运动到第i段时刻的整体类别置信度,若所述整体类别置信度大于预设的阈值,则判定第i时刻轨迹分段中的候选目标为低空飞行器的步骤中,包括:
获取第i段轨迹分段的所述轨迹特征中所述航向变化幅度和所述航速变化幅度所对应的类别置信度;其中,以获得的所述航向变化均值和所述航速变化均值计算所述类别置信度;
基于所述类别置信度获取所述候选目标运动到第i段时刻的整体类别置信度;
将所述整体类别置信度与所述阈值相比较,若所述整体类别置信度大于预设的阈值,则判定序列中第i时刻的候选目标为低空飞行器;
所述整体类别置信度表示为:
Figure QLYQS_1
其中,Q i表示整体类别置信度,q i表示类别置信度。
2.根据权利要求1所述的低空飞行器鲁棒检测方法,其特征在于,步骤S11中,截取所述监控视频中的前N帧所述监控图像建立所述背景模型;
步骤S12中,利用所述背景模型对所述监控视频中第N帧后的所述监控图像进行去背景处理,并提取所述运动像素区域。
3.根据权利要求2所述的低空飞行器鲁棒检测方法,其特征在于,步骤S321中,所述第一航向表示为:
Figure QLYQS_2
其中,
Figure QLYQS_3
表示所述第一轨迹点至所述第二轨迹点的第一航向;i表示所述轨迹分段的序号;j表示轨迹点的帧序列编号,且j 1j 2xy分别为所述轨迹点的坐标;
所述第一航速表示为:
Figure QLYQS_4
其中,
Figure QLYQS_5
表示所述第一轨迹点至所述第二轨迹点的第一航速;i表示所述轨迹分段的序号;j表示轨迹点的帧序列编号,且j 1j 2xy分别为所述轨迹点的坐标。
4.根据权利要求3所述的低空飞行器鲁棒检测方法,其特征在于,步骤S322中,所述航向变化关系表示为:
Figure QLYQS_6
其中,Δθ [i][j1][j2] [j3]表示航向变化关系,Δθ [i][j1][j2] 表示第一航向, Δθ [i][j2][j3] 表示第二航向;
所述航速变化关系表示为:
Figure QLYQS_7
其中,ΔS [i][j1][j2] [j3]表示航速变化关系,ΔS [i][j1][j2] 表示第一航速, ΔS [i][j2][j3] 表示第二航速。
5.根据权利要求4所述的低空飞行器鲁棒检测方法,其特征在于,步骤S323中,基于所述航向变化关系和所述航速变化关系分别计算同一所述轨迹分段中的航向变化均值和航速变化均值的步骤中,选取三组不同帧序列间隔的所述轨迹点并基于所述航向变化关系和所述航速变化关系分别计算出相应的航向变化均值和航速变化均值,其中,第一组所述轨迹点之间的帧序列间隔小于第二组所述轨迹点之间的帧序列间隔,第二组所述轨迹点之间的帧序列间隔小于第三组所述轨迹点之间的帧序列间隔。
CN202210687775.5A 2022-06-17 2022-06-17 一种融合运动特征的低空飞行器鲁棒检测方法 Active CN114973143B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210687775.5A CN114973143B (zh) 2022-06-17 2022-06-17 一种融合运动特征的低空飞行器鲁棒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210687775.5A CN114973143B (zh) 2022-06-17 2022-06-17 一种融合运动特征的低空飞行器鲁棒检测方法

Publications (2)

Publication Number Publication Date
CN114973143A CN114973143A (zh) 2022-08-30
CN114973143B true CN114973143B (zh) 2023-07-07

Family

ID=82963585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210687775.5A Active CN114973143B (zh) 2022-06-17 2022-06-17 一种融合运动特征的低空飞行器鲁棒检测方法

Country Status (1)

Country Link
CN (1) CN114973143B (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016690B (zh) * 2017-03-06 2019-12-17 浙江大学 基于视觉的无人机入侵检测与识别***及方法
CN108038415B (zh) * 2017-11-06 2021-12-28 湖南华诺星空电子技术有限公司 一种基于机器视觉的无人机自动检测与跟踪方法
CN108230364B (zh) * 2018-01-12 2022-02-11 东南大学 一种基于神经网络的前景物体运动状态分析方法
CN109859200B (zh) * 2019-02-15 2022-03-18 哈尔滨工程大学 一种基于背景分析的低空慢速无人机快速检测方法
CN112465866B (zh) * 2020-11-27 2024-02-02 杭州海康威视数字技术股份有限公司 多目标轨迹获取方法、装置、***及存储介质
CN114255407B (zh) * 2021-12-13 2022-12-16 中国电子科技集团公司第三十八研究所 基于高分辨率的反无人机多目标识别和跟踪视频探测方法
CN114529714A (zh) * 2022-02-18 2022-05-24 湖南中科助英智能科技研究院有限公司 一种无人机检测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN114973143A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN113034548B (zh) 一种适用于嵌入式终端的多目标跟踪方法及其***
CN110517288B (zh) 基于全景多路4k视频图像的实时目标检测跟踪方法
CN109978851B (zh) 一种红外视频空中弱小运动目标检测跟踪方法
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN110008867B (zh) 一种基于人物异常行为的预警方法、装置及存储介质
CN109344690B (zh) 一种基于深度相机的人数统计方法
CN103077539A (zh) 一种复杂背景及遮挡条件下的运动目标跟踪方法
CN104008371A (zh) 一种基于多摄像机的区域可疑目标跟踪与识别方法
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
CN103778645B (zh) 一种基于图像的圆形目标实时跟踪方法
CN115240130A (zh) 一种行人多目标跟踪方法、装置和计算机可读存储介质
CN105654516B (zh) 基于目标显著性的卫星图像对地面弱小运动目标检测方法
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN108804992B (zh) 一种基于深度学习的人群统计方法
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN110991397B (zh) 一种行进方向确定方法及相关设备
CN106709938A (zh) 基于改进tld的多目标追踪方法
CN108776974A (zh) 一种适用于公共交通场景的实时目标跟踪方法
CN111626194A (zh) 一种使用深度关联度量的行人多目标跟踪方法
CN116403139A (zh) 一种基于目标检测的视觉跟踪定位方法
CN106570490A (zh) 一种基于快速聚类的行人实时跟踪方法
CN104966305A (zh) 基于运动矢量划分的前景检测方法
CN114898326A (zh) 基于深度学习的单行道车辆逆行检测方法、***及设备
CN110717934A (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN115661698A (zh) 扶梯乘客异常行为检测方法、***、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Jia Mian

Inventor before: Xie Jianbin

Inventor before: Jia Mian

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231227

Address after: 410000 No. 96, tongzipo Road, Yuelu District, Changsha City, Hunan Province

Patentee after: Hunan Zhongke Zhuying Intelligent Technology Research Institute Co.,Ltd.

Patentee after: National University of Defense Technology

Address before: 410000 No. 96, tongzipo Road, Yuelu District, Changsha City, Hunan Province

Patentee before: Hunan Zhongke Zhuying Intelligent Technology Research Institute Co.,Ltd.

TR01 Transfer of patent right