CN106204629A - 天基雷达与红外数据融合在轨动目标检测方法 - Google Patents

天基雷达与红外数据融合在轨动目标检测方法 Download PDF

Info

Publication number
CN106204629A
CN106204629A CN201610681992.8A CN201610681992A CN106204629A CN 106204629 A CN106204629 A CN 106204629A CN 201610681992 A CN201610681992 A CN 201610681992A CN 106204629 A CN106204629 A CN 106204629A
Authority
CN
China
Prior art keywords
target
detection
image
infrared
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610681992.8A
Other languages
English (en)
Inventor
周慧鑫
杜辉
庞英名
金丽花
秦翰林
刘磊
王炳建
伊成俊
曹洪源
殷宽
赖睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201610681992.8A priority Critical patent/CN106204629A/zh
Publication of CN106204629A publication Critical patent/CN106204629A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种天基雷达与红外数据融合在轨动目标检测方法;本发明中用红外探测***进行探测时,先对红外图像序列中每一帧采用基于形态学的滤波方法进行背景抑制,然后将背景抑制后的图形进行自适应阈值分割,提取单帧检测结果,再通过跟踪算法进行多帧目标的确认,判断检测的结果是否为真实目标,从而得到多帧目标的检测结果;雷达探测时,采用脉冲多普勒(PD)处理。将得到的红外和雷达的目标信息进行时间校准与空间校准后,采用量测融合的方法将其进行数据融合,并将融合后的数据进行航迹预测,得到目标的估计位置。

Description

天基雷达与红外数据融合在轨动目标检测方法
【技术领域】
本发明属于航天遥感领域,涉及一种天基雷达与红外数据融合在轨动目标检测方法。
【背景技术】
天基动目标探测和识别是一项复杂而艰巨的任务,其探测路径通常大于大气层的厚度,探测距离极远且环境复杂多变。
对于红外探测来说,探测平台一般为海拔几百到几千km,而目标飞行器一般处于对流层和平流层,其高度范围一般为1km~20km以内,探测路径经过了云层所处的海拔高度范围。因此红外图像的背景呈现非平稳的空间分布,如明亮的地面背景或海面背景、起伏的云层背景和各种杂波等,所处其中的飞机、导弹等目标在红外探测器像平面上仅占几个像素,又缺少形状、纹理等信息,往往会淹没在复杂的背景中,进而呈现出对比度较低的特点,且红外图像序列的背景随时间会发生缓慢变化,在实战中,检测跟踪此类目标的难度更大。而且,红外探测本身就有一个较大的缺点,即红外探测***无法得到目标的距离信息。
对于雷达探测来说,随着当前反雷达探测的隐身技术的发展,主动式的雷达探测难度越来越大,并且由于雷达本身探测距离较远,探测角精度较低,因此探测到的目标位置误差也会较大。
由此可见,单一的传感器探测***的主要技术手段都具有自己的优缺点,单独探测***或者单种探测方式难以满足任意天候、任意时段、任意地点的探测要求。因此,采用联合探测、多探测***信息融合的方式进行天基空中动目标探测与识别是一种更为理想的手段。单种探测方式中,雷达探测和红外探测被证明是较为有效的两种探测方式,且这两种探测方式的缺点并不相似,联合天基雷达***和天基红外探测***的各自优势和特点来协同探测空中动目标是一种有效的天基预警技术手段。
经过对现有的技术文献和专利的检索发现,目前对于天基在轨动目标的检测设备多为相控阵雷达、合成孔径雷达、红外探测***等。现有的部分天基探测***上虽同时载有雷达和红外探测***,但是两者并没有协同完成探测任务,没有将其进行信息融合。而现有的雷达与红外数据融合技术一般应用于固定在地面的探测设备或机载探测设备,并不适用于卫星上的动目标探测。本发明中将雷达和红外探测***所探测到的数据进行信息融合后,天基探测***的探测能力会显著增强,将会是一种更为有效的在轨动目标探测方式。
【发明内容】
本发明的目的在于克服上述现有技术的缺点,提供一种天基雷达红外数据融合在轨亚像素动目标检测方法。
为达到上述目的,本发明采用以下技术方案予以实现:
天基雷达与红外数据融合在轨动目标检测方法,包括以下步骤:
1)调整天基雷达和红外***的探测角度,使两个***对准同一个目标,并采集天基雷达和红外***的探测数据;
2)采用红外弱小目标检测算法获取目标在红外图像上的位置信息,其中背景抑制方法为基于Tophat变换的形态学滤波算法、单帧目标检测技术采用自适应阈值分割技术、序列目标检测技术采用管道滤波算法;
3)利用在红外图像上获得的目标位置信息,由雷达脉冲多普勒PD处理的结果推导出目标极坐标位置,即方位角θ、俯仰角以及径向距离r;
4)将红外与雷达探测***所探测到的目标信息进行空间校准、时间校准,即将红外和雷达传感器的目标观测数据转换统一到相同的坐标系和相同的时间节点上;
5)将时空校准后的雷达红外数据进行融合,根据融合的结果对协同探测动目标算法进行评估。
本发明进一步的改进在于:
所述步骤2)的具体方法如下:
2-1)将红外探测所得的每一帧红外序列图像进行Tophat变换,检测到图像中的高频分量,同时滤去图像中的低频分量;采用如式(1)的Whitehat变换来抑制背景:
其中,f表示图像灰度帧,g表示结构体算子,f○g表示对图像进行开运算;
背景抑制环节采用的结构体算子为:
g = 0 1 0 1 1 1 0 1 0 - - - ( 2 )
2-2)对背景抑制后的图像采用自适应阈值分割技术;从含有目标、噪声和少量的背景泄漏的残差图像中,确定目标的数目和位置,对其进行阈值分割以实现目标检测的目的,且采用的算法为自适应阈值分割算法;
对于输入背景抑制图像e(x,y),定义阈值分割输出二值图像为:
h ( x , y ) = 1 e ( x , y ) ≥ T 0 e ( x , y ) ≤ T - - - ( 3 )
式中,T为阈值;按背景抑制图像的统计特性,T通过图像的均值和方差来自适应地确定,即:
T=m+k·v (4)
其中,m为图像的均值;v为图像的标准差;k为常数,能够通过实验得到,k的取值范围为3~10;
2-3)对红外图像序列进行序列目标检测;利用目标轨迹关联方法,根据目标在空间运动的一致性和特征参数的一致性,通过多帧数据关联进一步剔除虚警点,进而进一步降低目标检测算法的虚警概率,提高算法的检测概率。
所述步骤2-3)中,对红外图像序列进行序列目标检测的方法是管道滤波序列检测算法;在单帧检测中经过背景抑制和图像分割后取得目标的位置,将该位置坐标作为当前帧图像的候选目标点,如果在后续连续的N帧图像中,该点所对应的某个局部邻域内出现目标点的次数在K次以上,则判定该点为真正的目标点,其中K<N;检测之前,先作如下假设:
假设1:目标的运动速度在1像素/帧左右;当目标运动过快或者运动较为复杂时,如果管道直径与目标大小不匹配,则会造成目标检测失败;
假设2:目标轨迹的帧间最大弧度为(π/3)弧度/秒;
假设3:由于传感器或单帧检测时漏检等原因,目标最大丢失率为5帧中有一帧丢失;
基于以上假设,管道滤波序列检测算法的具体步骤如下:
2-3-1)参数初始化,假定管道所能容纳的图像帧数为N,并设定管道的直径大小与形状参数;
2-3-2)从序列图像的第一帧开始,连续输入N帧图像;
2-3-3)取第一帧图像作为当前帧,确定该图像中的所有候选目标点,并记录它们的位置信息;
2-3-4)对所有的候选目标点Pi,在下一帧中观察其局部邻域内是否有候选目标点存在,如果有,则目标出现计数器加1,同时比较目标点和候选目标点的位置,判断位置是否发生变化;如果有变化,则其相应的目标位置变化计数器加1;记录该帧中的候选目标点位置,并将其设为候选目标点的当前位置;如果没有变化,则跳过该帧并转到下一帧继续搜索,直到管道中的N帧图像全部搜索完毕;
2-3-5)N帧图像处理完后,判断每个计数器的输出值;如果目标出现次数计数器的值大于等于K1,且目标位置变化计数器的值大于等于K2,则判定计数器所对应的候选点为目标,并标记其位置,否则将其视为虚假目标剔除;其中,K1为管道中目标出现次数的最低阈值,K2为管道中目标位置变化次数的最低阈值;
2-3-6)更新管道中的图像,采用先入先出的排队管理方式进行管道中图像的更新,先移出管道中的第一帧图像,然后将管道中的其余图像顺序前移一帧,将进入管道的新一帧图像放置在管道末端;接着转到步骤2-3-3)继续执行判决过程,直到处理完全部图像序列;
2-3-7)最后输出目标的运动轨迹。
所述管道滤波在每帧图像上的管心都是上一帧图像中检测到的目标所对应的空间位置,如果某一帧未检到目标,则延用前一帧的位置。
所述步骤3)中,由雷达脉冲多普勒PD处理的结果推导出目标极坐标位置的具体方法如下:
3-1)将和通道、方位差通道、俯仰差通道和保护通道经过脉冲压缩处理和多普勒滤波处理,得到各自的距离多普勒二维图;
3-2)和通道在其距离多普勒图上进行恒虚警检测,检测出来目标后,还需要将该位置的幅度与保护通道距离多普勒图上该位置的幅度进行比较;如果大于门限值则认为它是期望的目标,否则认为它不是期望的目标;
3-3)进行目标角度估计;将方位差通道与俯仰差通道距离多普勒图上该位置的数据与和通道该位置的数据进行联合计算得到目标的锥角和俯仰角,进一步得到目标的方位角和俯仰角;
3-4)进行目标距离速度的解模糊处理;将其它几种重复频率的数据进行联合处理;
3-5)最后将得到的目标参数传给数据处理器完成目标跟踪处理;其中目标参数包括距离、速度、方位角、俯仰角以及信噪比。
所述步骤4)的具体方法为:
4-1)假定n为探测初始时刻,m为探测截止时刻;
采用递推处理方法进行时间校准,具体采用的插值方法为分段线性插值;设插值函数为其在两个相邻时间节点xi与xi+1上的表达式为:
S ^ 1 ( x ) = x - x i + 1 x i - x i + 1 Z r ( x i ) + x - x i x i + 1 - x i Z r ( x i + 1 ) x i &le; x &le; x i + 1 - - - ( 5 )
其中,Zr(xi)、Zr(xi+1)表示探测器在时间节点xi与xi+1上的测量值;
4-2)对时间校准后的数据进行空间校准;空间校准应该包含***偏差校正和数据坐标转换。
所述步骤4-2)中,***偏差校正是通过测试位置未知的目标来进行校正的,即把其中一个传感器当作基准,将另外一个传感器的数据对准到作为基准的传感器数据上;
设δr,δθ分别为***径向距离偏差、方位角偏差和俯仰角偏差;rm,θm为其他待校准传感器的观测数据;r,θ,为基准传感器的观测数据;Δr,Δθ,为传感器的***探测误差;εr,εθ为传感器的测量随机误差,则***偏差表示为:
假设其服从零均值高斯分布,并通过多次测量求平均的方法来减少***探测误差;最后得到***偏差如(7)式所示,从而进行***偏差校正:
所述步骤5)中,采用的数据融合方法为量测融合,即将雷达数据与红外数据融合之后的测量值带入滤波算法中,进行状态估计,具体方法如下:
将红外探测***的观测信息Zir(k)和雷达探测***的观测信息Zr(k)分别表示为式(8)和式(9):
其中k表示时间节点,天基红外探测***对于目标的探测信息主要包括目标的方位角θ、俯仰角而天基雷达探测***对于目标的探测信息主要包括目标的方位角θ、俯仰角径向距离r;
假设雷达与红外的观测噪声均为高斯白噪声,则红外测量值和雷达测量值可以分别表示为:
其中,分别表示红外传感器的方位角测量误差和俯仰角测量误差, 分别为雷达的方位角测量误差、俯仰角测量误差和测量距离误差;
红外和雷达观测矢量的线性均方估计Zf(k)和融合后的协方差矩阵Rf(k)分别为:
Zf(k)=Zir(k)+Rir(k)(Rir(k)+Rr(k))-1(Zr(k)-Zir(k)) (12)
Rf(k)=[(Rir(k)+Rr(k))-1]-1 (13)
式中,Zf(k)为红外和雷达观测矢量的线性均方估计,Rf(k)表示雷达和红外融合后的协方差矩阵;其中,Rir、Rr的表达式如(14)、(15)所示;其中分别表示红外测量方位角和俯仰角的方差,分别表示雷达测量径向距离、方位角和俯仰角的方差;
完成极坐标系下角信息的融合之后,得到更接近真实数据的俯仰角θf和方位角此时,利用雷达探测的距离信息rr,得到极坐标系下目标的坐标位置Zf(k),如式(16)所示:
直角坐标系跟极坐标系处于同一原点,因此极坐标系中的协同探测结果Zf(k)能够按照式(17)换算成直角坐标系中的测量值,得到空间坐标系下的计算结果:
与现有技术相比,本发明具有以下有益效果:
(1)对红外图像进行预处理时采用形态学Tophat滤波算法对图像进行背景抑制,由于形态学Tophat滤波与结构体尺寸有关,结构体尺寸的大小决定着高通滤波效果。结构体尺寸越小,滤除低频背景就越彻底,所能保留的目标尺寸就越小。最小目标尺寸与结构体尺寸近似有如下关系
m a x ( S o b j e c t ) &le; 1 2 m a x ( S s t r u c t ) - - - ( 17 )
max(Sobject)表示小目标在像平面的二维尺寸最大值,max(Sstruct)表示用于形态学滤波的结构体二维尺寸最大值。由于天基探测距离目标一般较远,因此目标一般成像为弱小目标,甚至是亚像元目标。而Tophat算法可以在目标为亚像元目标时探测到目标,是较适合天基探测的红外图像预处理算法。
(2)管道滤波在每帧图像上的管心都是上一帧图像中检测到的目标所对应的空间位置,如果某一帧未检到目标,则延用前一帧的位置。这样可以避免在检测时间较长时目标有可能移出管道的情况。如果在管道中有一帧图像误检到管道边缘的噪声的话,则对下一帧图像该管道中的目标检测会带来一定的风险。在同样的检测条件下设置较小的管径还可以节省大量的检测时间对提高检测算法的整体性能有积极作用。
(3)对红外和雷达数据进行时间校准是采用的是分段多项式插值法。该方法计算简单、稳定性好、收敛性有保证,且易于在计算机上实现;在数据融合时间校准的应用中,分段线性插值方法不受传感器数据初始时刻采样是否相同的限制,能够抑制测量噪声的传播,具有算法简单、实时性好、校准精度高且易于实现的特点,因此可适用于各种机动目标的实时数据融合时间校准***。
(4)协同探测所得到的目标飞行器在空间坐标系中的坐标(xf,yf,zf),是通过将雷达数据与更高精度的红外角信息融合之后获得的,因此得到的目标在不同时间节点的位置精度相对更高,进一步利用坐标信息计算得到的目标的速度vt相比于雷达独立探测数据也更为准确。
(5)本发明采用天基雷达探测数据与红外探测数据融合的方法实现天基动目标检测,该方法算法简单、易于实现且效果明显优于单独天基雷达探测和单独天基红外探测动目标的效果。利用雷达探测数据,有效的弥补了红外探测不能获得目标距离的缺陷,利用红外探测数据,有效的提高了雷达所探测到的角度信息的精度,互相弥补确定,同时获得一定的探测增量,该方法能够应用于复杂背景的红外弱小目标跟踪***中。
(6)由于天基探测时,探测***与目标一般相距较远,红外图像上所呈现的目标一般为弱小目标,甚至是亚像元目标(即目标所成像素不满一个像元,此时会降低目标像元的红外辐射亮度)。此时无论是红外探测,还是雷达探测的难度都非常大,本发明将雷达与红外数据融合的技术应用于天基动目标检测会降低探测的难度,提高探测概率,提高***的探测性能。
【附图说明】
图1是本发明中雷达红外协同探测在轨亚像素动目标流程框图;
图2是本发明中红外探测***多帧检测算法流程框图;
图3是本发明中红外探测算法管道滤波示意图;
图4是本发明中雷达探测***PD处理流程框图;
图5是本发明中红外与雷达的采样时刻比较示意图;
图6是本发明中进行插值之后的红外与雷达的探测节点示意图。
【具体实施方式】
下面结合附图对本发明做进一步详细描述:
参见图1-图6,本发明天基雷达红外数据融合在轨动目标检测方法,包括以下步骤:首先调整天基雷达和红外***的探测角度,使两个***对准同一个目标,并采集天基雷达和红外***的探测数据;然后采用红外弱小目标检测算法获取目标在红外图像上的位置信息,由雷达脉冲多普勒(PD)处理的结果推导出目标极坐标位置信息;由于雷达探测***和红外探测***需要处理的数据类型不同,采样频率有较大差别,所以需要先将两者所得到的目标探测数据进行时空校准;继而将时空校准之后的雷达和红外数据进行融合;最后,根据融合的结果对协同探测动目标进行探测跟踪。
进行天基在轨动目标检测时,一般探测***距离目标很远,因此,目标在红外探测器的像平面上仅占一个或几个像素,甚至是亚像素,此时采用多尺度几何分析和偏微分等检测算法就不能很好的将动目标检测出来,而本发明中采用的形态学滤波法较适用这种亚像素目标检测的情况。
上述方案中,天基雷达和红外的协同探测过程包括数据的时间校准、空间校准、数据融合等处理环节。图1为本发明仿真所采用的协同探测动目标处理流程图,其具体步骤如下:
步骤1:采用特定的红外弱小目标检测算法获取目标在红外图像上的位置信息,其中背景抑制方法为基于Tophat变换的形态学滤波算法、单帧目标检测技术采用自适应阈值分割技术、序列目标检测技术采用管道滤波算法,其具体流程如图2所示。利用在红外图像上获得的目标位置信息推导出空中动目标相对红外探测***平台的角度信息,即方位角θ、俯仰角
步骤1-1:将红外探测所得的每一帧红外序列图像进行Tophat变换,检测到图像中的高频分量,同时能滤去图像中的低频分量。本发明采用如式(1)所示的Whitehat变换来抑制背景
其中,f表示图像灰度帧,g表示结构体算子,表示对图像进行开运算。
本发明中背景抑制环节采用的结构体算子为
g = 0 1 0 1 1 1 0 1 0 - - - ( 2 )
步骤1-2:对背景抑制后的图像采用自适应阈值分割技术。从含有目标、噪声和少量的背景泄漏的残差图像中,确定目标的数目和位置,本发明对其进行阈值分割以实现目标检测的目的,且采用的算法为自适应阈值分割算法。
对于输入背景抑制图像e(x,y),定义阈值分割输出二值图像为
h ( x , y ) = 1 e ( x , y ) &GreaterEqual; T 0 e ( x , y ) &le; T - - - ( 3 )
式中,T为阈值。按背景抑制图像的统计特性,T可以通过图像的均值和方差来自适应地确定,即
T=m+k·v (4)
其中,m为图像的均值;v为图像的标准差;k为常数,其可通过实验得到,其取值范围通常为3~10。
步骤1-3:对红外图像序列进行序列目标检测。利用目标轨迹关联方法,根据目标在空间运动的一致性和特征参数的一致性等成像特性,通过多帧数据关联进一步剔除虚警点,进而进一步降低目标检测算法的虚警概率,提高算法的检测概率。在红外成像***中,尤其是军事上使用的红外***,图像的帧频较高,一般在25Hz以上,这意味着在规定的时间内可以提供一定数目的序列图像进行检测,这无疑对提高检测概率并降低虚警率起到了重要作用。
本发明中利用序列图像检测目标的方法是管道滤波序列检测算法。管道滤波需要预先知道目标的最大运动速度以便设置合理的管径,若目标运动过快,较易产生漏检,解决办法是将管道滤波器的管径选的粗一些,这样便提高了算法的复杂度。
管道滤波的示意框图如图3所示。例如在第一帧图像的(x,y)处有目标出现,则该目标在第n(n>1)帧中会出现在该位置的某一局部邻域内。
在单帧检测中经过背景抑制和图像分割后取得目标的位置,将该位置坐标作为当前帧图像的候选目标点,如果在后续连续的N帧图像中,该点所对应的某个局部邻域内出现目标点的次数在K(K<N)次以上,则判定该点为真正的目标点。检测之前,先作如下假设:
(1)目标的运动速度在1像素/帧左右。当目标运动过快或者运动较为复杂时,如果管道直径与目标大小不匹配,则会造成目标检测失败;
(2)目标轨迹的帧间最大弧度为(π/3)弧度/秒;
(3)由于传感器或单帧检测时漏检等原因,目标最大丢失率为5帧中有一帧丢失。
基于以上假设,管道滤波算法的具体步骤如下:
1、参数初始化,假定管道所能容纳的图像帧数为N,并设定管道的直径(邻域尺寸)大小与形状等参数;
2、从序列图像的第一帧开始,连续输入N帧图像;
3、取第一帧图像作为当前帧,确定该图像中的所有候选目标点,并记录它们的位置信息;
4、对所有的候选目标点Pi,在下一帧中观察其局部邻域内是否有候选目标点存在,如果有,则目标出现计数器加1,同时比较目标点和候选目标点的位置,判断位置是否发生变化。如果有变化,则其相应的目标位置变化计数器加1;记录该帧中的候选目标点位置,并将其设为候选目标点的当前位置;如果没有变化,则跳过该帧并转到下一帧继续搜索,直到管道中的N帧图像全部搜索完毕;
5、N帧图像处理完后,判断每个计数器的输出值。如果目标出现次数计数器的值大于等于K1,且目标位置变化计数器的值大于等于K2,则判定计数器所对应的候选点为目标,并标记其位置,否则将其视为虚假目标剔除;
6、更新管道中的图像,采用先入先出的排队管理方式进行管道中图像的更新,先移出管道中的第一帧图像,然后将管道中的其余图像顺序前移一帧,将进入管道的新一帧图像放置在管道末端。接着转到第(3)步继续执行判决过程,直到处理完全部图像序列;
7、最后输出目标的运动轨迹。
管道滤波在每帧图像上的管心都是上一帧图像中检测到的目标所对应的空间位置,如果某一帧未检到目标,则延用前一帧的位置。
本发明中采用5选4准则,即在数据关联环节,若连续的5帧数据中,有4帧满足关联阈值的要求,就认为当前的候选目标为真实目标。
步骤2:由雷达脉冲多普勒(PD)处理的结果推导出目标极坐标位置,即方位角θ、俯仰角径向距离r,其流程如图4所示。
步骤2-1:将和通道、方位差通道、俯仰差通道和保护通道经过脉冲压缩处理和多普勒滤波处理,得到各自的距离多普勒二维图。
步骤2-2:和通道在其距离多普勒图上进行恒虚警检测,检测出来目标后,还需要将该位置的幅度与保护通道距离多普勒图上该位置的幅度进行比较。如果大于门限值则认为它是期望的目标,否则认为它不是期望的目标。
步骤2-3:确认是期望的目标后就需要进行目标角度估计。角度估计需要将方位差通道与俯仰差通道距离多普勒图上该位置的数据与和通道该位置的数据进行联合计算得到目标的锥角和俯仰角,进一步得到目标的方位角和俯仰角。
步骤2-4:除了角度估计,还需要进行目标距离速度的解模糊处理。解模糊处理需要将其它几种重复频率的数据进行联合处理。
步骤2-5:最后将得到的目标参数(包括距离、速度、方位角、俯仰角、信噪比)传给数据处理器完成目标跟踪处理。
步骤3:将红外与雷达探测***所探测到的目标信息进行空间校准、时间校准,即将红外和雷达传感器的目标观测数据转换统一到相同的坐标系和相同的时间节点上。
步骤3-1:时间校准的基本思想是以周期长的传感器时间节点为基准,对其余传感器通过已知时间节点上的数据来估计所需时间节点上的数据,从而达到不同传感器在时间节点上的一致性。图5为雷达与红外采样时刻示意图,该图中假定n为探测初始时刻,m为探测截止时刻。
本发明采用递推处理方法进行时间校准,具体采用的插值方法为分段线性插值。设插值函数为其在两个相邻时间节点xi与xi+1上的表达式为
S ^ 1 ( x ) = x - x i + 1 x i - x i + 1 Z r ( x i ) + x - x i x i + 1 - x i Z r ( x i + 1 ) x i &le; x &le; x i + 1 - - - ( 5 )
其中,Zr(xi)、Zr(xi+1)表示探测器在时间节点xi与xi+1上的测量值。图6为对雷达数据进行差值之后的红外与雷达探测节点示意图。
步骤3-2:对时间校准后的数据进行空间校准。空间校准应该包含***偏差的校正和数据的坐标转换。
本发明中***偏差校正是通过测试位置未知的目标来进行校正的,即把其中一个传感器当作基准,将另外一个传感器的数据对准到作为基准的传感器数据上。
设δr,δθ分别为***径向距离偏差、方位角偏差和俯仰角偏差;rm,θm为其他待校准传感器的观测数据(对于红外探测,无距离信息);r,θ,为基准传感器的观测数据;Δr,Δθ,为传感器的***探测误差(即需要校正的偏差);εr,εθ为传感器的测量随机误差,则***偏差可表示为
假设其服从零均值高斯分布,并通过多次测量求平均的方法来减少***探测误差。最后得到***偏差如(7)式所示,从而进行***偏差校正。
步骤4:最后将时空校准后的雷达红外数据进行融合,根据融合的结果对协同探测动目标算法进行评估。本发明中采用的数据融合方法为量测融合,即将雷达数据与红外数据融合之后的测量值带入滤波算法中,进行状态估计。
步骤4-1:将红外探测***的观测信息Zir(k)和雷达探测***的观测信息Zr(k)分别表示为式(8)和式(9),
其中k表示时间节点,天基红外探测***对于目标的探测信息主要包括目标的方位角θ、俯仰角而天基雷达探测***对于目标的探测信息主要包括目标的方位角θ、俯仰角径向距离r。
假设雷达与红外的观测噪声均为高斯白噪声,则红外测量值和雷达测量值可以分别表示为
其中分别表示红外传感器的方位角测量误差和俯仰角测量误差, 分别为雷达的方位角测量误差、俯仰角测量误差和测量距离误差。
本发明中使用量测向量融合的方法来处理雷达和红外探测数据。量测融合方法基于线性均方估计准则来得到红外测量值与雷达测量值融合之后的数据。红外和雷达观测矢量的线性均方估计Zf(k)和融合后的协方差矩阵Rf(k)分别为
Zf(k)=Zir(k)+Rir(k)(Rir(k)+Rr(k))-1(Zr(k)-Zir(k)) (12)
Rf(k)=[(Rir(k)+Rr(k))-1]-1 (13)
式中,Zf(k)为红外和雷达观测矢量的线性均方估计,Rf(k)表示雷达和红外融合后的协方差矩阵。其中,Rir、Rr的表达式如(14)、(15)所示。其中分别表示红外测量方位角和俯仰角的方差,分别表示雷达测量径向距离、方位角和俯仰角的方差。
完成极坐标系下角信息的融合之后,便可以得到更接近真实数据的俯仰角θf和方位角此时,利用雷达探测的距离信息rr,便可以得到极坐标系下目标的坐标位置Zf(k),如式(16)所示。
直角坐标系跟极坐标系处于同一原点,因此极坐标系中的协同探测结果Zf(k)可以方便地按照式(17)换算成直角坐标系中的测量值,得到空间坐标系下的计算结果。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (8)

1.天基雷达与红外数据融合在轨动目标检测方法,其特征在于,包括以下步骤:
1)调整天基雷达和红外***的探测角度,使两个***对准同一个目标,并采集天基雷达和红外***的探测数据;
2)采用红外弱小目标检测算法获取目标在红外图像上的位置信息,其中背景抑制方法为基于Tophat变换的形态学滤波算法、单帧目标检测技术采用自适应阈值分割技术、序列目标检测技术采用管道滤波算法;
3)利用在红外图像上获得的目标位置信息,由雷达脉冲多普勒PD处理的结果推导出目标极坐标位置,即方位角θ、俯仰角以及径向距离r;
4)将红外与雷达探测***所探测到的目标信息进行空间校准、时间校准,即将红外和雷达传感器的目标观测数据转换统一到相同的坐标系和相同的时间节点上;
5)将时空校准后的雷达红外数据进行融合,根据融合的结果对协同探测动目标算法进行评估。
2.根据权利要求1所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述步骤2)的具体方法如下:
2-1)将红外探测所得的每一帧红外序列图像进行Tophat变换,检测到图像中的高频分量,同时滤去图像中的低频分量;采用如式(1)的Whitehat变换来抑制背景:
其中,f表示图像灰度帧,g表示结构体算子,表示对图像进行开运算;
背景抑制环节采用的结构体算子为:
g = 0 1 0 1 1 1 0 1 0 - - - ( 2 )
2-2)对背景抑制后的图像采用自适应阈值分割技术;从含有目标、噪声和少量的背景泄漏的残差图像中,确定目标的数目和位置,对其进行阈值分割以实现目标检测的目的,且采用的算法为自适应阈值分割算法;
对于输入背景抑制图像e(x,y),定义阈值分割输出二值图像为:
h ( x , y ) = 1 e ( x , y ) &GreaterEqual; T 0 e ( x , y ) &le; T - - - ( 3 )
式中,T为阈值;按背景抑制图像的统计特性,T通过图像的均值和方差来自适应地确定,即:
T=m+k·v (4)
其中,m为图像的均值;v为图像的标准差;k为常数,能够通过实验得到,k的取值范围为3~10;
2-3)对红外图像序列进行序列目标检测;利用目标轨迹关联方法,根据目标在空间运动的一致性和特征参数的一致性,通过多帧数据关联进一步剔除虚警点,进而进一步降低目标检测算法的虚警概率,提高算法的检测概率。
3.根据权利要求2所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述步骤2-3)中,对红外图像序列进行序列目标检测的方法是管道滤波序列检测算法;在单帧检测中经过背景抑制和图像分割后取得目标的位置,将该位置坐标作为当前帧图像的候选目标点,如果在后续连续的N帧图像中,该点所对应的某个局部邻域内出现目标点的次数在K次以上,则判定该点为真正的目标点,其中K<N;检测之前,先作如下假设:
假设1:目标的运动速度在1像素/帧左右;当目标运动过快或者运动较为复杂时,如果管道直径与目标大小不匹配,则会造成目标检测失败;
假设2:目标轨迹的帧间最大弧度为(π/3)弧度/秒;
假设3:由于传感器或单帧检测时漏检等原因,目标最大丢失率为5帧中有一帧丢失;
基于以上假设,管道滤波序列检测算法的具体步骤如下:
2-3-1)参数初始化,假定管道所能容纳的图像帧数为N,并设定管道的直径大小与形状参数;
2-3-2)从序列图像的第一帧开始,连续输入N帧图像;
2-3-3)取第一帧图像作为当前帧,确定该图像中的所有候选目标点,并记录它们的位置信息;
2-3-4)对所有的候选目标点Pi,在下一帧中观察其局部邻域内是否有候选目标点存在,如果有,则目标出现计数器加1,同时比较目标点和候选目标点的位置,判断位置是否发生变化;如果有变化,则其相应的目标位置变化计数器加1;记录该帧中的候选目标点位置,并将其设为候选目标点的当前位置;如果没有变化,则跳过该帧并转到下一帧继续搜索,直到管道中的N帧图像全部搜索完毕;
2-3-5)N帧图像处理完后,判断每个计数器的输出值;如果目标出现次数计数器的值大于等于K1,且目标位置变化计数器的值大于等于K2,则判定计数器所对应的候选点为目标,并标记其位置,否则将其视为虚假目标剔除;其中,K1为管道中目标出现次数的最低阈值,K2为管道中目标位置变化次数的最低阈值;
2-3-6)更新管道中的图像,采用先入先出的排队管理方式进行管道中图像的更新,先移出管道中的第一帧图像,然后将管道中的其余图像顺序前移一帧,将进入管道的新一帧图像放置在管道末端;接着转到步骤2-3-3)继续执行判决过程,直到处理完全部图像序列;
2-3-7)最后输出目标的运动轨迹。
4.根据权利要求3所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述管道滤波在每帧图像上的管心都是上一帧图像中检测到的目标所对应的空间位置,如果某一帧未检到目标,则延用前一帧的位置。
5.根据权利要求1所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述步骤3)中,由雷达脉冲多普勒PD处理的结果推导出目标极坐标位置的具体方法如下:
3-1)将和通道、方位差通道、俯仰差通道和保护通道经过脉冲压缩处理和多普勒滤波处理,得到各自的距离多普勒二维图;
3-2)和通道在其距离多普勒图上进行恒虚警检测,检测出来目标后,还需要将该位置的幅度与保护通道距离多普勒图上该位置的幅度进行比较;如果大于门限值则认为它是期望的目标,否则认为它不是期望的目标;
3-3)进行目标角度估计;将方位差通道与俯仰差通道距离多普勒图上该位置的数据与和通道该位置的数据进行联合计算得到目标的锥角和俯仰角,进一步得到目标的方位角和俯仰角;
3-4)进行目标距离速度的解模糊处理;将其它几种重复频率的数据进行联合处理;
3-5)最后将得到的目标参数传给数据处理器完成目标跟踪处理;其中目标参数包括距离、速度、方位角、俯仰角以及信噪比。
6.根据权利要求1所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述步骤4)的具体方法为:
4-1)假定n为探测初始时刻,m为探测截止时刻;
采用递推处理方法进行时间校准,具体采用的插值方法为分段线性插值;设插值函数为其在两个相邻时间节点xi与xi+1上的表达式为:
S ^ 1 ( x ) = x - x i + 1 x i - x i + 1 Z r ( x i ) + x - x i x i + 1 - x i Z r ( x i + 1 ) , x i &le; x &le; x i + 1 - - - ( 5 )
其中,Zr(xi)、Zr(xi+1)表示探测器在时间节点xi与xi+1上的测量值;
4-2)对时间校准后的数据进行空间校准;空间校准应该包含***偏差校正和数据坐标转换。
7.根据权利要求6所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述步骤4-2)中,***偏差校正是通过测试位置未知的目标来进行校正的,即把其中一个传感器当作基准,将另外一个传感器的数据对准到作为基准的传感器数据上;
设δr,δθ分别为***径向距离偏差、方位角偏差和俯仰角偏差;rm,θm为其他待校准传感器的观测数据;r,θ,为基准传感器的观测数据;Δr,Δθ,为传感器的***探测误差;εr,εθ为传感器的测量随机误差,则***偏差表示为:
假设其服从零均值高斯分布,并通过多次测量求平均的方法来减少***探测误差;最后得到***偏差如(7)式所示,从而进行***偏差校正:
8.根据权利要求1所述的天基雷达与红外数据融合在轨动目标检测方法,其特征在于,所述步骤5)中,采用的数据融合方法为量测融合,即将雷达数据与红外数据融合之后的测量值带入滤波算法中,进行状态估计,具体方法如下:
将红外探测***的观测信息Zir(k)和雷达探测***的观测信息Zr(k)分别表示为式(8)和式(9):
其中k表示时间节点,天基红外探测***对于目标的探测信息主要包括目标的方位角θ、俯仰角而天基雷达探测***对于目标的探测信息主要包括目标的方位角θ、俯仰角径向距离r;
假设雷达与红外的观测噪声均为高斯白噪声,则红外测量值和雷达测量值分别表示为:
其中,分别表示红外传感器的方位角测量误差和俯仰角测量误差, 分别为雷达的方位角测量误差、俯仰角测量误差和测量距离误差;
红外和雷达观测矢量的线性均方估计Zf(k)和融合后的协方差矩阵Rf(k)分别为:
Zf(k)=Zir(k)+Rir(k)(Rir(k)+Rr(k))-1(Zr(k)-Zir(k)) (12)
Rf(k)=[(Rir(k)+Rr(k))-1]-1 (13)
式中,Zf(k)为红外和雷达观测矢量的线性均方估计,Rf(k)表示雷达和红外融合后的协方差矩阵;其中,Rir、Rr的表达式如(14)、(15)所示;其中分别表示红外测量方位角和俯仰角的方差,分别表示雷达测量径向距离、方位角和俯仰角的方差;
完成极坐标系下角信息的融合之后,得到更接近真实数据的俯仰角θf和方位角此时,利用雷达探测的距离信息rr,得到极坐标系下目标的坐标位置Zf(k),如式(16)所示:
直角坐标系跟极坐标系处于同一原点,因此极坐标系中的协同探测结果Zf(k)能够按照式(17)换算成直角坐标系中的测量值,得到空间坐标系下的计算结果:
CN201610681992.8A 2016-08-17 2016-08-17 天基雷达与红外数据融合在轨动目标检测方法 Pending CN106204629A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610681992.8A CN106204629A (zh) 2016-08-17 2016-08-17 天基雷达与红外数据融合在轨动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610681992.8A CN106204629A (zh) 2016-08-17 2016-08-17 天基雷达与红外数据融合在轨动目标检测方法

Publications (1)

Publication Number Publication Date
CN106204629A true CN106204629A (zh) 2016-12-07

Family

ID=57521821

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610681992.8A Pending CN106204629A (zh) 2016-08-17 2016-08-17 天基雷达与红外数据融合在轨动目标检测方法

Country Status (1)

Country Link
CN (1) CN106204629A (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107024211A (zh) * 2017-06-22 2017-08-08 北京航空航天大学 一种深空探测器测角/差分测速/差分测距组合导航方法
CN107123129A (zh) * 2017-04-28 2017-09-01 中国工程物理研究院应用电子学研究所 一种图像处理装置及方法
CN107358250A (zh) * 2017-06-07 2017-11-17 清华大学 基于双波段雷达微多普勒融合的人体步态识别方法及***
CN107369164A (zh) * 2017-06-20 2017-11-21 成都中昊英孚科技有限公司 一种红外弱小目标的跟踪方法
CN107392095A (zh) * 2017-06-15 2017-11-24 杭州红辉电子科技有限公司 一种基于掩码图像的红外弱小目标检测算法
CN107678024A (zh) * 2017-10-23 2018-02-09 中国民航科学技术研究院 一种基于雷达与红外联合探测的轻小型无人机融合跟踪方法
CN107728124A (zh) * 2017-09-08 2018-02-23 中国电子科技集团公司信息科学研究院 一种基于信息熵的多雷达动态调节方法及装置
CN107886498A (zh) * 2017-10-13 2018-04-06 中国科学院上海技术物理研究所 一种基于星载图像序列的空间目标检测跟踪方法
CN108983309A (zh) * 2018-08-02 2018-12-11 中国矿业大学 热红外与雷达遥感联合探测煤火的方法
CN109035759A (zh) * 2018-06-13 2018-12-18 重庆邮电大学 一种护栏检测评估方法
CN109085555A (zh) * 2018-08-08 2018-12-25 中国航空工业集团公司雷华电子技术研究所 一种基于多通道特征的假目标抑制方法
CN109343035A (zh) * 2018-11-23 2019-02-15 江西洪都航空工业集团有限责任公司 一种红外雷达复合导引头目标选择方法
CN109407087A (zh) * 2018-12-10 2019-03-01 北京电子工程总体研究所 一种目标特征矢量图匹配方法及***
CN109696670A (zh) * 2017-10-22 2019-04-30 南京理工大学 一种机器人狙击手的探测与处理装置
CN110031826A (zh) * 2019-04-23 2019-07-19 山东交通学院 一种仿蝙蝠接收部位模拟装置及使用方法
CN110596660A (zh) * 2019-10-09 2019-12-20 富临精工先进传感器科技(成都)有限责任公司 一种提升雷达测量物体尺寸准确度的方法及其***
CN110827257A (zh) * 2019-10-14 2020-02-21 南京信为峰防务科技有限公司 一种嵌入式机载红外图像视觉导航定位方法
CN111103594A (zh) * 2018-10-10 2020-05-05 现代自动车株式会社 车辆中区分虚假目标的装置和方法及包括其的车辆
CN111209956A (zh) * 2020-01-02 2020-05-29 北京汽车集团有限公司 传感器数据融合方法、车辆的环境地图生成方法及***
CN111398943A (zh) * 2020-04-02 2020-07-10 森思泰克河北科技有限公司 目标姿态的确定方法及终端设备
CN111429479A (zh) * 2020-03-26 2020-07-17 中国科学院长春光学精密机械与物理研究所 基于图像积分均值的空间目标识别方法
CN112288778A (zh) * 2020-10-29 2021-01-29 电子科技大学 一种基于多帧回归深度网络的红外小目标检测方法
CN112363141A (zh) * 2020-11-12 2021-02-12 三门峡职业技术学院 一种多站天波雷达海面舰船目标位置与速度的解算方法
CN112560831A (zh) * 2021-03-01 2021-03-26 四川大学 一种基于多尺度空间校正的行人属性识别方法
CN112598712A (zh) * 2020-12-28 2021-04-02 浙江天衡五维电子科技有限公司 一种日盲紫外羽烟检测方法及告警***
CN113256682A (zh) * 2021-06-04 2021-08-13 北京理工大学 一种基于形态学和管道滤波的红外小目标检测跟踪方法
CN113762359A (zh) * 2021-08-18 2021-12-07 北京临近空间飞行器***工程研究所 一种面向rd时频数据的深度学习模型评测***及方法
CN114119677A (zh) * 2022-01-26 2022-03-01 华中科技大学 一种面向低慢小目标的机动光电探测识别***
CN114217278A (zh) * 2021-12-14 2022-03-22 齐鲁空天信息研究院 一种基于动态目标的相控阵雷达幅相校准方法及***
CN114283293A (zh) * 2021-12-16 2022-04-05 中航航空电子有限公司 一种红外目标检测虚警抑制方法
CN115205327A (zh) * 2022-05-18 2022-10-18 哈尔滨工业大学 一种融合历史库信息的红外小目标跟踪方法
CN118172548A (zh) * 2024-05-16 2024-06-11 南昌工程学院 基于多数据融合的目标检测跟踪识别方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923789A (zh) * 2010-03-24 2010-12-22 北京航空航天大学 一种基于多传感器信息融合的飞机安全进近方法
WO2013054690A1 (ja) * 2011-10-11 2013-04-18 Ntn株式会社 レーザートラッカー
US20130242285A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHOD FOR REGISTRATION OF RANGE IMAGES FROM MULTIPLE LiDARS
CN104036461A (zh) * 2014-06-10 2014-09-10 河南科技大学 一种基于联合滤波的红外复杂背景抑制方法
CN104730537A (zh) * 2015-02-13 2015-06-24 西安电子科技大学 基于多尺度模型的红外/激光雷达数据融合目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923789A (zh) * 2010-03-24 2010-12-22 北京航空航天大学 一种基于多传感器信息融合的飞机安全进近方法
WO2013054690A1 (ja) * 2011-10-11 2013-04-18 Ntn株式会社 レーザートラッカー
US20130242285A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHOD FOR REGISTRATION OF RANGE IMAGES FROM MULTIPLE LiDARS
CN104036461A (zh) * 2014-06-10 2014-09-10 河南科技大学 一种基于联合滤波的红外复杂背景抑制方法
CN104730537A (zh) * 2015-02-13 2015-06-24 西安电子科技大学 基于多尺度模型的红外/激光雷达数据融合目标跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
SHETTY S等: ""A multisensor tracking system with an image-based maneuver detector"", 《IEEE TRANS ON AEROSPACE AND ELECTRONIC SYSTEMS》 *
任桂和等: ""基于雷达与红外传感器量测融合的改进EKF算法"", 《火力与指挥控制》 *
刘靳等: ""基于移动式加权管道滤波的红外弱小目标检测", 《西安电子科技大学学报(自然科学版)》 *
史鸿声等: ""基于"魂芯一号"的雷达信号处理机设计"", 《雷达科学与技术》 *
张高煜等: ""采用序贯滤波的红外/雷达机动目标跟踪"", 《控制理论与应用》 *
袁博等: ""用最小方差最优化算法实现雷达-红外数据融合"", 《弹箭与制导学报》 *

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123129A (zh) * 2017-04-28 2017-09-01 中国工程物理研究院应用电子学研究所 一种图像处理装置及方法
CN107358250B (zh) * 2017-06-07 2019-11-22 清华大学 基于双波段雷达微多普勒融合的人体步态识别方法及***
CN107358250A (zh) * 2017-06-07 2017-11-17 清华大学 基于双波段雷达微多普勒融合的人体步态识别方法及***
CN107392095A (zh) * 2017-06-15 2017-11-24 杭州红辉电子科技有限公司 一种基于掩码图像的红外弱小目标检测算法
CN107369164A (zh) * 2017-06-20 2017-11-21 成都中昊英孚科技有限公司 一种红外弱小目标的跟踪方法
CN107369164B (zh) * 2017-06-20 2020-05-22 成都中昊英孚科技有限公司 一种红外弱小目标的跟踪方法
CN107024211A (zh) * 2017-06-22 2017-08-08 北京航空航天大学 一种深空探测器测角/差分测速/差分测距组合导航方法
CN107024211B (zh) * 2017-06-22 2019-10-29 北京航空航天大学 一种深空探测器测角/差分测速/差分测距组合导航方法
CN107728124B (zh) * 2017-09-08 2021-07-13 中国电子科技集团公司信息科学研究院 一种基于信息熵的多雷达动态调节方法及装置
CN107728124A (zh) * 2017-09-08 2018-02-23 中国电子科技集团公司信息科学研究院 一种基于信息熵的多雷达动态调节方法及装置
CN107886498B (zh) * 2017-10-13 2021-04-13 中国科学院上海技术物理研究所 一种基于星载图像序列的空间目标检测跟踪方法
CN107886498A (zh) * 2017-10-13 2018-04-06 中国科学院上海技术物理研究所 一种基于星载图像序列的空间目标检测跟踪方法
CN109696670B (zh) * 2017-10-22 2023-08-22 南京理工大学 一种机器人狙击手的探测与处理装置
CN109696670A (zh) * 2017-10-22 2019-04-30 南京理工大学 一种机器人狙击手的探测与处理装置
CN107678024B (zh) * 2017-10-23 2020-12-29 中国民航科学技术研究院 一种基于雷达与红外联合探测的轻小型无人机融合跟踪方法
CN107678024A (zh) * 2017-10-23 2018-02-09 中国民航科学技术研究院 一种基于雷达与红外联合探测的轻小型无人机融合跟踪方法
CN109035759B (zh) * 2018-06-13 2021-02-02 重庆邮电大学 一种护栏检测评估方法
CN109035759A (zh) * 2018-06-13 2018-12-18 重庆邮电大学 一种护栏检测评估方法
CN108983309A (zh) * 2018-08-02 2018-12-11 中国矿业大学 热红外与雷达遥感联合探测煤火的方法
CN108983309B (zh) * 2018-08-02 2020-05-26 中国矿业大学 热红外与雷达遥感联合探测煤火的方法
CN109085555A (zh) * 2018-08-08 2018-12-25 中国航空工业集团公司雷华电子技术研究所 一种基于多通道特征的假目标抑制方法
CN109085555B (zh) * 2018-08-08 2023-03-03 中国航空工业集团公司雷华电子技术研究所 一种基于多通道特征的假目标抑制方法
CN111103594A (zh) * 2018-10-10 2020-05-05 现代自动车株式会社 车辆中区分虚假目标的装置和方法及包括其的车辆
CN109343035A (zh) * 2018-11-23 2019-02-15 江西洪都航空工业集团有限责任公司 一种红外雷达复合导引头目标选择方法
CN109343035B (zh) * 2018-11-23 2023-07-14 江西洪都航空工业集团有限责任公司 一种红外雷达复合导引头目标选择方法
CN109407087B (zh) * 2018-12-10 2023-05-09 北京电子工程总体研究所 一种目标特征矢量图匹配方法及***
CN109407087A (zh) * 2018-12-10 2019-03-01 北京电子工程总体研究所 一种目标特征矢量图匹配方法及***
CN110031826B (zh) * 2019-04-23 2020-12-29 山东交通学院 一种仿蝙蝠接收部位模拟装置及使用方法
CN110031826A (zh) * 2019-04-23 2019-07-19 山东交通学院 一种仿蝙蝠接收部位模拟装置及使用方法
CN110596660A (zh) * 2019-10-09 2019-12-20 富临精工先进传感器科技(成都)有限责任公司 一种提升雷达测量物体尺寸准确度的方法及其***
CN110827257B (zh) * 2019-10-14 2024-03-29 南京信为峰光电科技有限公司 一种嵌入式机载红外图像视觉导航定位方法
CN110827257A (zh) * 2019-10-14 2020-02-21 南京信为峰防务科技有限公司 一种嵌入式机载红外图像视觉导航定位方法
CN111209956A (zh) * 2020-01-02 2020-05-29 北京汽车集团有限公司 传感器数据融合方法、车辆的环境地图生成方法及***
CN111429479A (zh) * 2020-03-26 2020-07-17 中国科学院长春光学精密机械与物理研究所 基于图像积分均值的空间目标识别方法
CN111429479B (zh) * 2020-03-26 2022-10-11 中国科学院长春光学精密机械与物理研究所 基于图像积分均值的空间目标识别方法
CN111398943A (zh) * 2020-04-02 2020-07-10 森思泰克河北科技有限公司 目标姿态的确定方法及终端设备
CN112288778A (zh) * 2020-10-29 2021-01-29 电子科技大学 一种基于多帧回归深度网络的红外小目标检测方法
CN112363141A (zh) * 2020-11-12 2021-02-12 三门峡职业技术学院 一种多站天波雷达海面舰船目标位置与速度的解算方法
CN112363141B (zh) * 2020-11-12 2023-04-21 三门峡职业技术学院 一种多站天波雷达海面舰船目标位置与速度的解算方法
CN112598712A (zh) * 2020-12-28 2021-04-02 浙江天衡五维电子科技有限公司 一种日盲紫外羽烟检测方法及告警***
CN112560831A (zh) * 2021-03-01 2021-03-26 四川大学 一种基于多尺度空间校正的行人属性识别方法
CN113256682A (zh) * 2021-06-04 2021-08-13 北京理工大学 一种基于形态学和管道滤波的红外小目标检测跟踪方法
CN113762359A (zh) * 2021-08-18 2021-12-07 北京临近空间飞行器***工程研究所 一种面向rd时频数据的深度学习模型评测***及方法
CN113762359B (zh) * 2021-08-18 2024-02-13 北京临近空间飞行器***工程研究所 一种面向rd时频数据的深度学习模型评测***及方法
CN114217278B (zh) * 2021-12-14 2023-03-24 齐鲁空天信息研究院 一种基于动态目标的相控阵雷达幅相校准方法及***
CN114217278A (zh) * 2021-12-14 2022-03-22 齐鲁空天信息研究院 一种基于动态目标的相控阵雷达幅相校准方法及***
CN114283293A (zh) * 2021-12-16 2022-04-05 中航航空电子有限公司 一种红外目标检测虚警抑制方法
CN114119677A (zh) * 2022-01-26 2022-03-01 华中科技大学 一种面向低慢小目标的机动光电探测识别***
CN115205327A (zh) * 2022-05-18 2022-10-18 哈尔滨工业大学 一种融合历史库信息的红外小目标跟踪方法
CN118172548A (zh) * 2024-05-16 2024-06-11 南昌工程学院 基于多数据融合的目标检测跟踪识别方法及***
CN118172548B (zh) * 2024-05-16 2024-07-19 南昌工程学院 基于多数据融合的目标检测跟踪识别方法及***

Similar Documents

Publication Publication Date Title
CN106204629A (zh) 天基雷达与红外数据融合在轨动目标检测方法
CN108957445A (zh) 一种低空慢速小目标探测***及其探测方法
CN113359097B (zh) 一种毫米波雷达和相机联合标定的方法
CN108734103A (zh) 卫星视频中运动目标的检测与跟踪方法
CN107144839A (zh) 通过传感器融合检测长对象
CN103149939A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN102937438B (zh) 基于最优化方法的红外弱小目标距离探测方法
CN112051568B (zh) 一种两坐标雷达的俯仰测角方法
CN104407346A (zh) 一种基于信息融合的移动式跑道异物监测方法
CN107103275A (zh) 使用雷达和视觉基于车轮进行的车辆检测和追踪
CN105116387A (zh) 基于位置和多普勒速度信息的pd雷达抗速度拖引方法
CN106569206A (zh) 一种基于微波光学复合的目标探测方法
CN106468772A (zh) 一种基于距离‑多普勒量测的多站雷达人体跟踪方法
CN107133555B (zh) 识别8字运动轨迹目标的方法
Vitiello et al. Detection and tracking of non-cooperative flying obstacles using low SWaP radar and optical sensors: an experimental analysis
Wang et al. Bistatic weak target detection method using non-cooperative air surveillance radar
CN108254756B (zh) 一种基于投影卷积的星载激光雷达非相干积累检测方法
CN104537690A (zh) 一种基于最大值-时间索引联合的运动点目标检测方法
CN115453570A (zh) 一种多特征融合的矿区粉尘滤除方法
Zhou et al. High-squint SAR imaging for noncooperative moving ship target based on high velocity motion platform
Yan et al. A track-before-detect approach for UWB radar sensor networks
Feng et al. Research on information fusion method of millimetre wave radar and monocular camera for intelligent vehicle
CN109934840A (zh) 基于gmphd滤波器的圆周sar运动目标跟踪方法
AU2019236606B2 (en) Pseudo-range estimation from a passive sensor
Linnehan et al. Detecting slow moving targets in SAR images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20161207

RJ01 Rejection of invention patent application after publication