CN113392883B - 一种基于深度神经网络和注意力机制的坐标融合方法 - Google Patents

一种基于深度神经网络和注意力机制的坐标融合方法 Download PDF

Info

Publication number
CN113392883B
CN113392883B CN202110590471.2A CN202110590471A CN113392883B CN 113392883 B CN113392883 B CN 113392883B CN 202110590471 A CN202110590471 A CN 202110590471A CN 113392883 B CN113392883 B CN 113392883B
Authority
CN
China
Prior art keywords
ship
search
data
rescue
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110590471.2A
Other languages
English (en)
Other versions
CN113392883A (zh
Inventor
金建国
潘勉
吕帅帅
江晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110590471.2A priority Critical patent/CN113392883B/zh
Publication of CN113392883A publication Critical patent/CN113392883A/zh
Application granted granted Critical
Publication of CN113392883B publication Critical patent/CN113392883B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本发明公开了一种基于深度神经网络和注意力机制的坐标融合方法,包括以下步骤:S1,采集数据集;S2,对收到的数据进行预处理,将传感器数据转化为同一时间和同一坐标下,进行数据融合,需要预处理的数据包含五个部分:海事雷达距离‑坐标换算、红外光电立体相机距离‑坐标换算、无人艇和母船经纬度‑坐标换算、UWB传感器距离‑坐标换算、AIS经纬度‑坐标换算;S3,将预处理后的数据输入含注意力机制的深层循环神经网络进行训练;S4,训练得到的神经网络用于实际测试,无人艇相对救援船的最终坐标为(XW,YW),失事目标相对救援船的最终坐标为(XT,YT)。

Description

一种基于深度神经网络和注意力机制的坐标融合方法
技术领域
本发明属于数据融合领域技术领域,具体涉及一种基于深度神经网络和注意力机制的坐标融合方法。
背景技术
海上搜救一直是一个国际性的难题。海上搜救具有要求高、难预测、难度大的特点,如何进行准确快速定位一直是国内外救援事业所遇到的难点。及时定位、搜寻目标可以大大减少人员伤亡和财产损失。制定一副又快又有效的搜救方案一直是救援单位所致力的方向。
目前的灾后救援黄金期,因海上环境恶劣导致救援人员难以搜救和到达现场,海上生命应急搜救体系依靠救援英雄们“以命换命”来支撑。实现快速目标定位成为了生命救援的紧迫需求,这能够大幅减少救援时间,改变盲目危险的搜救现状,为抢救生命赢得宝贵时间。
传统的定位方式基于同类多传感器数据融合跟踪***,所测量的维数的比较单一,数据会有大量的冗余,传感器融合跟踪***的探测性能较低。因此如何实现海上救援的准确定位是目前亟需解决的问题。
发明内容
鉴于以上存在的技术问题,本发明用于提供一种于深度神经网络和注意力机制的坐标融合方法,该方法具有强大的抗干扰性能,实现对目标的精确定位跟踪。
为解决上述技术问题,本发明采用如下的技术方案:
一种基于深度神经网络和注意力机制的坐标融合方法,包括以下步骤:
S1,采集数据集:打开各项传感器,数据经过通信后传输至上位机,上位机不断收取到包括海事雷达、红外光电立体相机、无人艇RTK、搜救船RTK、船坞RTK、AIS示位标、UWB传感器上传的数据;
S2,对收到的数据进行预处理,将传感器数据转化为同一时间和同一坐标下,进行数据融合,需要预处理的数据包含五个部分:海事雷达距离-坐标换算、红外光电立体相机距离-坐标换算、无人艇和母船经纬度-坐标换算、UWB传感器距离-坐标换算、AIS经纬度-坐标换算;
S3,将预处理后的数据输入含注意力机制的深层循环神经网络进行训练;
S4,训练得到的神经网络用于实际测试,无人艇相对救援船的最终坐标为(XW,YW),失事目标相对救援船的最终坐标为(XT,YT)。
优选地,S2中,海事雷达距离-坐标转换具体包括:海事雷达安装在搜救船上,自动跟踪目标并返回目标数据,海事雷达返回的原始数据有无人艇到搜救船的相对距离RwL、无人艇与搜救船的相对角度RwA、失事目标到搜救船的相对距离RtL和失事目标与搜救船的相对角度RtA
无人艇相对搜救船的极坐标为(RwL,RwA),根据极坐标转直角坐标计算公式可得,无人艇相对搜救船的直角坐标计算公式为:
失事目标相对搜救船的极坐标为(RtL,RtA),则失事目标相对搜救船的直角坐标计算公式为:
优选地,S2中,红外光电立体相机距离-坐标转换具体包括:相机的位置与海事雷达相近,上传的数据有无人艇到搜救船的相对距离CwL、失事目标到搜救船的相对距离CtL,相机不具备计算角度功能,无人艇与搜救船的相对角度和失事目标与搜救船的相对角度用雷达数据RwA、RtA代替,
无人艇相对搜救船的坐标计算公式为:
失事目标相对搜救船的坐标计算公式为:
优选地,S2中,无人艇和搜救船经纬度-坐标换算具体包括:
无人艇和搜救船上装有RTK,不断返回无人艇的GPS坐标(Wlon,Wlat)和搜救船的GPS坐标(Mlon,Mlat),无人艇相对搜救船的经度差Δlon表示为:
Δlon=Wlon-Mlon
纬度差Δlat表示为:
Δlat=Wlat-Mlat
在小范围内,假设地面是平面的,设地球的平均半径为R,地球的南北极周长C为:
C=2πR
每一纬度对应的长度lat_len为:
则无人艇相对搜救船的Y轴坐标表示为:
相同经度间的距离会随着纬度的增加而减少,设当前的纬度lat为:
那么在纬度确定的条件下,每一经度对应的长度lon_len为:
则无人艇相对搜救船的X轴坐标可表示为:
优选地,S2中,UWB传感器距离-坐标换算具体包括:
UWB传感器不断返回无人艇到船坞的坐标(XU,YU),无人艇到搜救船的相对距离由船坞到搜救船的相对距离和无人艇到船坞的坐标计算得到,
船坞相对搜救船的经度差ΔDlon表示为:
ΔDlon=Dlon-Mlon
经度差ΔDlat表示为:
ΔDlat=Dlat-Mlat
船坞与搜救船的平均纬度Dlat为:
所以每一经度对应的长度是lat_len,每一纬度对应的长度Dlat_len是:
则船坞的相对坐标计算公式为:
XD=lon_len·ΔDlon
YD=Dlat_len·ΔDlat
无人艇到搜救船的相对坐标的计算公式为:
优选地,S2中,AIS经纬度-坐标换算具体包括:
失事目标带有AIS信标,不断返回失事目标的经纬度(Alon,Alat),其转换公式同无人艇和搜救船的经纬度-坐标换算,其坐标计算公式为:
ΔAlon=Alon-Mlon
ΔAlat=Alat-Mlat
其中ΔAlon为失事目标相对搜救船的经度差,ΔAlat为失事目标相对搜救船的纬度差,lon_len为每一经度对应的长度,Alat_len为当前经度下每一纬度对应的长度。
优选地,S3进一步包括:
S301,设当前时刻为t0,则是t0时刻的输入,/>到/>是t0之前四个时刻的输入是一个m维向量,当输入数据为无人艇数据时,m=8;当输入数据为失事目标数据时,m=6;t0-4之前的时刻数据与当前时刻的坐标影响较小可忽略不计,模型的输出只选取当前时刻和当前时刻之前四个时刻的数据作为输入,/>是t时刻第i个隐藏层的状态,/>是每个时刻的输出,是一个2维的向量[Xt,Yt];
深层循环神经网络由单层循环神经网络纵向扩展而来,系数U是输入层到隐藏层的权重矩阵,W是状态到隐藏层的权重矩阵,V是隐藏层到输出层的权重矩阵,
到/>是五个隐层状态,/>到/>为这五个神经元的输出,这里初始化状态/>其前向传播表示为:
St=f(UXt+WSt-1)
Ot=g(VSt)
其中f、g为激活函数,考虑到层数较多的激活函数需要其导数不宜小于1也不能大于1,大于1将导致梯度***,导数为1最好,relu函数满足这个条件,f选择relu激活函数,而激活函数softmax常用于多分类神经网络输出层,g选择softmax激活函数;
S302,前向传播,对于第一层的神经元的隐藏状态由输入层Xt以及上一个隐藏状态/>共同决定,由下面的公式进行计算:
当从一个隐藏状态进入下一个隐藏状态/>时,计算公式为:
最后得到的输出结果Ct为:
S303,反向传播,计算整个序列上的损失函数et
其中N为序列长度,为Ct的均值,
整个序列上的损失函数E为:
再将输出的误差值反向传递,再根据梯度下降算法进行参数的梯度更新:
对参数进行更新,根据链式求导法则,得到时刻为t0时的偏导数为:
对于直接展开得到下面的式子:
同样对展开,并且五个式子合并得:
最后参数W的计算为:
同理可得参数U的计算为:
参数V的计算为:
S304,注意力机制和分类器模型融合输出结果,输入经过三层神经网络后对最后得到的结果到/>通过加权均值后的输出结果为Ot,其计算公式为:
其中ak为分类器的输入特征,由以下公式计算得到:
ak=softmax(VTtanh(Whk-1+Uhk))
对五个输出结果通过注意力机制和分类器后,可得到最终融合的输出。
采用本发明具有如下的有益效果:通过多传感器数据融合,避免了同类单传感器出现误差大、精度低、失效等问题,快速有效地实现了对目标的定位跟踪。
附图说明
图1为本发明实施例的基于深度神经网络和注意力机制的坐标融合方法的步骤流程图;
图2为深层循环神经网络模型;
图3为单层循环神经网络模型。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,为本发明的一种基于深度神经网络和注意力机制的坐标融合算法流程图,具体实施步骤如下:
S1,采集数据集。数据经过通信后首先传输至上位机,上位机能够读取到海事雷达、红外光电立体相机、无人艇RTK、搜救船RTK、船坞RTK、AIS示位标、UWB传感器上传的数据。其中RTK(Real-time kinematic)为实时动态载波相位差分技术。、UWB(UWB,Ultra WideBand)为超宽带技术。AIS(Automatic Identification System)为船舶自动识别***。
S2,对收到的数据进行预处理,将传感器数据转化为同一时间和同一坐标下,进行数据融合,需要预处理的数据包含五个部分:海事雷达距离-坐标换算、红外光电立体相机距离-坐标换算、无人艇和母船经纬度-坐标换算、UWB传感器距离-坐标换算、AIS经纬度-坐标换算;
S3,将预处理后的数据输入含注意力机制的深层循环神经网络进行训练;
S4,训练得到的神经网络用于实际测试,无人艇相对救援船的最终坐标为(XW,YW),失事目标相对救援船的最终坐标为(XT,YT)。
具体应用实例中,S2中,海事雷达距离-坐标转换具体包括:
海事雷达数据中无人艇到搜救船的相对距离为RwL、无人艇与搜救船的相对角度为RwA、失事目标到搜救船的相对距离为RtL和失事目标与搜救船的相对角度为RtA。海事雷达无人艇相对搜救船的位置为:
失事目标相对搜救船的直角坐标为:
具体应用实例中,S2中,红外光电立体相机距离-坐标转换具体包括:
相机数据中无人艇到搜救船的相对距离为CwL、失事目标到搜救船的相对距离为CtL。无人艇相对搜救船的坐标为:
失事目标相对搜救船的坐标为:
其中无人艇与搜救船的相对角度和失事目标与搜救船的相对角度为海事雷达数据RwA、RtA
具体应用实例中,S2中,无人艇和搜救船经纬度-坐标换算具体包括:
无人艇、母船RTK数据:无人艇的GPS坐标为(Wlon,Wlat),搜救船的GPS坐标为(Mlon,Mlat)。设地球的平均半径为R,无人艇相对搜救船的X轴坐标可表示为:
无人艇相对搜救船的Y轴坐标可表示为:
具体应用实例中,S2中,UWB传感器距离-坐标换算具体包括:
UWB传感器:无人艇到船坞的相对坐标(XU,YU)。设地球半径为R,船坞相对搜救船的坐标(XD,YD)为:
其中搜救船的GPS坐标为(Alon,Alat),船坞的经纬度坐标(Dlon,Dlat)。
则无人艇到搜救船的相对坐标为:
具体应用实例中,S2中,AIS经纬度-坐标换算具体包括:
AIS信标数据:失事目标经纬度为(Alon,Alat)。其失事目标相对搜救船的坐标计算为:
通过处理完成后整理得到的数据,无人艇:海事雷达相机/> 无人艇和搜救船/>UWB传感器/>失事目标:海事雷达相机/>AIS信标/>最后转化为向量作为输入数据:
无人艇:
失事目标:
具体应用实例中,S3中,将预处理后的数据输入含注意力机制的深层循环神经网络进行训练。具体步骤如下:
S301:模型搭建。通过图2来解释模型的流程。设当前时刻为t0,则是t0时刻的输入,/>到/>是t0之前四个时刻的输入是一个m维向量,当输入数据为无人艇数据时,m=8;当输入数据为失事目标数据时,m=6。t0-4之前的时刻数据与当前时刻的坐标影响较小可忽略不计,模型的输出只选取当前时刻和当前时刻之前四个时刻的数据作为输入。是t时刻第i个隐藏层的状态。/>到/>是每个时刻的输出,是一个2维的向量[Xt,Yt]。
深层循环神经网络可由单层循环神经网络纵向扩展而来。用图3来解释单层循环神经网络的流程。系数U是输入层到隐藏层的权重矩阵,W是状态到隐藏层的权重矩阵,V是隐藏层到输出层的权重矩阵,它的参数是共享的,各个时间点对应的W、U、V都是不变的,这样大大降低了参数量。
到/>是五个隐层状态,/>到/>为这五个神经元的输出,这里初始化状态其前向传播可表示为:
St=f(UXt+WSt-1)
Ot=g(VSt)
其中f、g为激活函数,考虑到层数较多的激活函数需要其导数不宜小于1也不能大于1,大于1将导致梯度***,导数为1最好,relu函数满足这个条件,所以f选择relu激活函数,而激活函数softmax常用于多分类神经网络输出层,所以g选择softmax激活函数。
构建模型网络层和初始化输入并随机初始化参数W,U,V。
S302,前向传播。对于第一层的神经元的隐藏状态由输入层Xt以及上一个隐藏状态/>共同决定。表示为:
当从一个隐藏状态进入下一个隐藏状态/>时,计算公式为:
最后得到的输出结果Ct为:
S303,反向传播。计算整个序列上的损失函数et
其中N为序列长度,Ct为t时刻输出,为Ct的均值。
整个序列上的损失函数E为:
再将输出的误差值反向传递,再根据梯度下降算法进行参数的梯度更新:
参数U的计算:
参数U的计算:
参数V的计算:
S304,将三层循环神经网络的输出输入到注意力机制和分类器。对网络的输出结果到/>通过加权均值后的输出结果为Ot,其计算为:
其中ak为分类器的输入特征,由下式计算:
ak=softmax(VTtanh(Whk-1+Uhk))。
该方法首先将得到的原始数据进行预处理整理得到多维的向量;然后将向量作为输入通过多层循环神经网络计算得到每个时刻的输出;再通过注意力机制计算每一时刻输出的权重;最后将权重乘以对应输出后得到最终的输出结果。
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。

Claims (6)

1.一种基于深度神经网络和注意力机制的坐标融合方法,其特征在于,包括以下步骤:
S1,采集数据集:打开各项传感器,数据经过通信后传输至上位机,上位机不断收取到包括海事雷达、红外光电立体相机、无人艇RTK、搜救船RTK、船坞RTK、AIS示位标、UWB传感器上传的数据;
S2,对收到的数据进行预处理,将传感器数据转化为同一时间和同一坐标下,进行数据融合,需要预处理的数据包含五个部分:海事雷达距离-坐标换算、红外光电立体相机距离-坐标换算、无人艇和母船经纬度-坐标换算、UWB传感器距离-坐标换算、AIS经纬度-坐标换算;
S3,将预处理后的数据输入含注意力机制的深层循环神经网络进行训练;
S4,训练得到的神经网络用于实际测试,无人艇相对救援船的最终坐标为(XW,YW),失事目标相对救援船的最终坐标为(XT,YT);
S2中,无人艇和搜救船经纬度-坐标换算具体包括:
无人艇和搜救船上装有RTK,不断返回无人艇的GPS坐标(Wlon,Wlat)和搜救船的GPS坐标(Mlon,Mlat),无人艇相对搜救船的经度差Δlon表示为:
Δlon=Wlon-Mlon
纬度差Δlat表示为:
Δlat=Wlat-Mlat
在小范围内,假设地面是平面的,设地球的平均半径为R,地球的南北极周长C为:
C=2πR
每一纬度对应的长度lat_len为:
则无人艇相对搜救船的Y轴坐标表示为:
相同经度间的距离会随着纬度的增加而减少,设当前的纬度lat为:
那么在纬度确定的条件下,每一经度对应的长度lon_len为:
则无人艇相对搜救船的X轴坐标可表示为:
2.如权利要求1所述的基于深度神经网络和注意力机制的坐标融合方法,其特征在于,S2中,海事雷达距离-坐标转换具体包括:海事雷达安装在搜救船上,自动跟踪目标并返回目标数据,海事雷达返回的原始数据有无人艇到搜救船的相对距离RwL、无人艇与搜救船的相对角度RwA、失事目标到搜救船的相对距离RtL和失事目标与搜救船的相对角度RtA
无人艇相对搜救船的极坐标为(RwL,RwA),根据极坐标转直角坐标计算公式可得,无人艇相对搜救船的直角坐标计算公式为:
失事目标相对搜救船的极坐标为(RtL,RtA),则失事目标相对搜救船的直角坐标计算公式为:
3.如权利要求1所述的基于深度神经网络和注意力机制的坐标融合方法,其特征在于,S2中,红外光电立体相机距离-坐标转换具体包括:相机的位置与海事雷达相近,上传的数据有无人艇到搜救船的相对距离CwL、失事目标到搜救船的相对距离CtL,相机不具备计算角度功能,无人艇与搜救船的相对角度和失事目标与搜救船的相对角度用雷达数据RwA、RtA代替,
无人艇相对搜救船的坐标计算公式为:
失事目标相对搜救船的坐标计算公式为:
4.如权利要求1所述的基于深度神经网络和注意力机制的坐标融合方法,其特征在于,S2中,UWB传感器距离-坐标换算具体包括:
UWB传感器不断返回无人艇到船坞的坐标(XU,YU),无人艇到搜救船的相对距离由船坞到搜救船的相对距离和无人艇到船坞的坐标计算得到,
船坞相对搜救船的经度差ΔDlon表示为:
ΔDlon=Dlon-Mlon
经度差ΔDlat表示为:
ΔDlat=Dlat-Mlat
船坞与搜救船的平均纬度Dlat为:
所以每一经度对应的长度是lat_len,每一纬度对应的长度Dlat_len是:
则船坞的相对坐标计算公式为:
XD=lon_len·ΔDlon
YD=Dlat_len·ΔDlat
无人艇到搜救船的相对坐标的计算公式为:
5.如权利要求1所述的基于深度神经网络和注意力机制的坐标融合方法,其特征在于,S2中,AIS经纬度-坐标换算具体包括:
失事目标带有AIS信标,不断返回失事目标的经纬度(Alon,Alat),其转换公式同无人艇和搜救船的经纬度-坐标换算,其坐标计算公式为:
ΔAlon=Alon-Mlon
ΔAlat=Alat-Mlat
其中ΔAlon为失事目标相对搜救船的经度差,ΔAlat为失事目标相对搜救船的纬度差,lon_len为每一经度对应的长度,Alat_len为当前经度下每一纬度对应的长度。
6.如权利要求1至5任一所述的基于深度神经网络和注意力机制的坐标融合方法,其特征在于,S3进一步包括:
S301,设当前时刻为t0,则是t0时刻的输入,/>到/>是t0之前四个时刻的输入是一个m维向量,当输入数据为无人艇数据时,m=8;当输入数据为失事目标数据时,m=6;t0-4之前的时刻数据与当前时刻的坐标影响较小可忽略不计,模型的输出只选取当前时刻和当前时刻之前四个时刻的数据作为输入,/>是t时刻第i个隐藏层的状态,/>到/>是每个时刻的输出,是一个2维的向量[Xt,Yt];
深层循环神经网络由单层循环神经网络纵向扩展而来,系数U是输入层到隐藏层的权重矩阵,W是状态到隐藏层的权重矩阵,V是隐藏层到输出层的权重矩阵,
到/>是五个隐层状态,/>到/>为这五个神经元的输出,这里初始化状态其前向传播表示为:
St=f(UXt+WSt-1)
Ot=g(VSt)
其中f、g为激活函数,考虑到层数较多的激活函数需要其导数不宜小于1也不能大于1,大于1将导致梯度***,导数为1最好,relu函数满足这个条件,f选择relu激活函数,而激活函数softmax常用于多分类神经网络输出层,g选择softmax激活函数;
S302,前向传播,对于第一层的神经元的隐藏状态由输入层Xt以及上一个隐藏状态共同决定,由下面的公式进行计算:
当从一个隐藏状态进入下一个隐藏状态/>时,计算公式为:
最后得到的输出结果Ct为:
S303,反向传播,计算整个序列上的损失函数et
其中N为序列长度,为Ct的均值,
整个序列上的损失函数E为:
再将输出的误差值反向传递,再根据梯度下降算法进行参数的梯度更新:
对参数进行更新,根据链式求导法则,得到时刻为t0时的偏导数为:
对于直接展开得到下面的式子:
同样对展开,并且五个式子合并得:
最后参数W的计算为:
同理可得参数U的计算为:
参数V的计算为:
S304,注意力机制和分类器模型融合输出结果,输入经过三层神经网络后对最后得到的结果到/>通过加权均值后的输出结果为Ot,其计算公式为:
其中ak为分类器的输入特征,由以下公式计算得到:
ak=softmax(VTtanh(Whk-1+Uhk))
对五个输出结果通过注意力机制和分类器后,可得到最终融合的输出。
CN202110590471.2A 2021-05-28 2021-05-28 一种基于深度神经网络和注意力机制的坐标融合方法 Active CN113392883B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110590471.2A CN113392883B (zh) 2021-05-28 2021-05-28 一种基于深度神经网络和注意力机制的坐标融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110590471.2A CN113392883B (zh) 2021-05-28 2021-05-28 一种基于深度神经网络和注意力机制的坐标融合方法

Publications (2)

Publication Number Publication Date
CN113392883A CN113392883A (zh) 2021-09-14
CN113392883B true CN113392883B (zh) 2024-05-28

Family

ID=77619396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110590471.2A Active CN113392883B (zh) 2021-05-28 2021-05-28 一种基于深度神经网络和注意力机制的坐标融合方法

Country Status (1)

Country Link
CN (1) CN113392883B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12000945B2 (en) * 2021-05-28 2024-06-04 Nec Corporation Visual and RF sensor fusion for multi-agent tracking

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613532A (zh) * 2020-11-26 2021-04-06 西安电子科技大学 基于雷达与循环神经网络补全红外融合的动目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460740B (zh) * 2018-11-15 2020-08-11 上海埃威航空电子有限公司 基于ais与视频数据融合的船舶身份识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613532A (zh) * 2020-11-26 2021-04-06 西安电子科技大学 基于雷达与循环神经网络补全红外融合的动目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Attenton-LSTM 神经网络的船舶航行预测;徐国庆 等;舰船科学技术;20191231;第41卷(第12期);全文 *

Also Published As

Publication number Publication date
CN113392883A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
Wu et al. Survey of underwater robot positioning navigation
Rohan et al. Convolutional neural network-based real-time object detection and tracking for parrot AR drone 2
CN107255923B (zh) 基于rbf辨识的ica-cmac神经网络的欠驱动无人艇航迹跟踪控制方法
Feraru et al. Towards an autonomous UAV-based system to assist search and rescue operations in man overboard incidents
CN104656058B (zh) 分布式多移动节点协作定位***
Li et al. A survey of maritime unmanned search system: Theory, applications and future directions
Zhang et al. NavNet: AUV navigation through deep sequential learning
CN113392883B (zh) 一种基于深度神经网络和注意力机制的坐标融合方法
Zhou et al. GPS/INS integrated navigation with BP neural network and Kalman filter
CN102190081A (zh) 基于视觉的飞艇定点鲁棒控制方法
CN111090283A (zh) 一种无人艇组合定位定向方法和***
CN115265551A (zh) 一种无人驾驶复杂场景下的多传感器融合定位方法和***
Zhang et al. Trajectory prediction based on AIS and BP neural network
CN115080903A (zh) 一种基于智能优化算法的海上多目标多模态匹配融合方法
CN111857176A (zh) 一种gps无人机控制方法
CN114217303B (zh) 目标定位跟踪方法及装置、水下机器人和存储介质
CN103108281A (zh) 一种基于无线传感器网络的海上搜救目标实时定位方法
Ashour et al. Applications of UAVs in search and rescue
CN113392884B (zh) 基于lstm网络和注意力机制的坐标融合方法
CN110806760A (zh) 一种无人水下航行器的目标跟踪控制方法
Ellen et al. Effective searching of drowning victims in the river using deep learning method and underwater drone
Liu et al. Mode Design and Experiment of Unmanned Aerial Vehicle Search and Rescue in Inland Waters
CN113220001B (zh) 一种潜航器及潜航器的实时避障方法
Tanaka et al. Underwater vehicle localization considering the effects of its oscillation
Aparna et al. IMU based Tracking of a Person using Nonlinear Autoregressive Exogenous (NARX) Algorithm in GPS-denied Areas

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant