CN111413698A - 一种面向水下机器人搜寻探摸的目标定位方法 - Google Patents

一种面向水下机器人搜寻探摸的目标定位方法 Download PDF

Info

Publication number
CN111413698A
CN111413698A CN202010143341.XA CN202010143341A CN111413698A CN 111413698 A CN111413698 A CN 111413698A CN 202010143341 A CN202010143341 A CN 202010143341A CN 111413698 A CN111413698 A CN 111413698A
Authority
CN
China
Prior art keywords
underwater
target
underwater robot
sonar
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010143341.XA
Other languages
English (en)
Inventor
马杰
尉浩然
余逸飞
刘克中
张煜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202010143341.XA priority Critical patent/CN111413698A/zh
Publication of CN111413698A publication Critical patent/CN111413698A/zh
Priority to CN202011065672.2A priority patent/CN111983620B/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种面向水下机器人搜寻探摸的目标定位方法,包括以下步骤:提取并识别水下目标声呐图像的A‑KAZE特征点;测算水下目标相对于水下机器人的二维方位;测算水下机器人的仰角;测算水下目标相对于水下机器人的三维方位;修正水下机器人的仰角,修正水下目标点相对于水下机器人的三维方位。本发明面向水下机器人搜寻探摸的目标定位方法,基于前视声呐数据,运用深度卷积神经网络对水下目标特征点进行自动提取和识别,结合水下机器人姿态,实现了水下目标的精准定位,便于搜寻人员对于水下目标的位置进行精细化探测,实现水下搜寻探摸作业的可靠化、高效化、智能化,此发明用于水下目标搜寻探摸技术领域。

Description

一种面向水下机器人搜寻探摸的目标定位方法
技术领域
本发明涉及水下目标搜寻探摸技术领域,特别是涉及一种面向水下机器人搜寻探摸的目标定位方法。
背景技术
在对海洋进行科学研究时,水下机器人是最重要的研究工具,用于代替人类长时间水下作业或者在恶劣水下环境中工作。在复杂的水下环境中,最为可靠有效的探测手段是水声探测,也是水下机器人应用最为广泛的水下探测手段。综合利用现代声呐探测技术对遇难事故海域水下展开搜寻探摸,获取水下搜寻目标的关键特征点,同时结合目标特征点和探摸机器人的姿态信息,实现水下目标的准确定位。
现有的水下目标搜寻探摸方法获得的水下目标位置的精细化及准确性不高,研究水下目标搜寻探摸定位方法是而今乃至未来很长一段时间的科学研究中的焦点问题。
发明内容
本发明的目的在于至少解决现有技术中存在的技术问题之一,提供一种面向水下机器人搜寻探摸的目标定位方法,能够实现水下目标的精确定位。
根据本发明的实施例,提供一种面向水下机器人搜寻探摸的目标定位方法,包括以下步骤:
S1.通过水下机器人的前视声呐采集的声纳图像提取水下目标的A-KAZE特征点;
S2.将带有A-KAZE特征的声呐图像输入卷积神经网络方法识别声呐图像中目标的A-KAZE特征点;
S3.运用目标特征点与前置声呐的几何关系测算水下目标相对于水下机器人的二维方位;
S4.将水下目标特征点二维方位和水下机器人的姿态结合测算水下机器人的仰角θ,通过得到的仰角θ测算水下目标相对于水下机器人的三维方位;
S5.运用约束不足或约束充足的特征点修正水下机器人的仰角θ,修正水下目标点相对于水下机器人的三维方位。
根据本发明实施例所述的面向水下机器人搜寻探摸的目标定位方法,所述步骤S1中提取水下目标的A-KAZE特征点包括以下步骤:
S101.定义一组演化时间构建非线性尺度空间;
S102.将像素单位中的离散集转换为时间单位;
S103.给定输入图像和对比度因子,使用快速显式扩散方法;
S104.将快速显式扩散方法嵌入从粗到细的金字塔方法中;
S105.为每个声呐图像计算海森行列式;
S106.使用级联沙尔滤波器计算二阶导数。
根据本发明实施例所述的面向水下机器人搜寻探摸的目标定位方法,所述步骤S2的具体实现包括以下子步骤:
S201.使用GoogLeNet架构在声呐图像数据集上训练卷积神经网络。
根据本发明实施例所述的面向水下机器人搜寻探摸的目标定位方法,所述GoogLeNet架构包括五层,第一层和第二层为卷积层和最大池化层,第三层为inception层,第四层为特征层,是完全连接的层,第四层将先前的输出映射到Dim×1向量,第五层是完全连接的层,第五层将先前的特征层映射为3×1向量,并将映射为3×1向量的特征层与使用欧式损失的位置标签进行比较。
根据本发明实施例所述的面向水下机器人搜寻探摸的目标定位方法,所述步骤S3的具体实现包括以下子步骤:
S301.局部笛卡尔声呐坐标系与球面参数坐标系相互转化。
根据本发明实施例所述的面向水下机器人搜寻探摸的目标定位方法,所述步骤S4的具体实现包括以下子步骤:
S401.将水下目标特征点和水下机器人的姿态公式化为非线性最小二乘因子图优化,对于每个姿态Xt,包含以下6个参数(x,y,z,yaw,pitch,roll),对于每个特征点,包含以下3个参数(x,y,z);
S402.将因子图求解为非线性最小二乘优化;
S403.将特征点lj=(x,y,z)转换为声呐帧,获得局部坐标(xs,ys,zs)的方位角和距离;
S404.利用对数函数的单调性,通过声呐测量值的反投影找到特征点的初始估计;
S405.将未知仰角θ设置为0,然后使用水下机器人姿态Xt将点从声纳直角坐标(xs,ys,zs)转换为世界直角坐标(x,y,z),用作初始猜测特征点的三维方位;
S406.将预测的三维特征点位置转换为姿态Xt的声呐坐标系。
根据本发明实施例所述的面向水下机器人搜寻探摸的目标定位方法,所述步骤S5的具体实现包括以下子步骤:
S501.通过不同姿态观察目标特征点的仰角;
S502.将观察到的特征点分类为约束不足或约束充足的要素;
S503.为了确定点特征点是否受到充足约束,使用三自由度球面参数化;
S504.以特征点l0的初始估计为线性化点,使用测量函数的泰勒级数展开;
S505.将优化简化为线性最小二乘问题;
S506.确定优化是否受到测量约束;
S507.从状态向量中完全删除约束不足的特征点;
S508.仅从状态向量中完全删除约束不足的特征点的仰角,然后将约束不足的特征点建模为因子图中的二维方位距离点。
有益效果:本面向水下机器人搜寻探摸的目标定位方法,基于前视声呐数据,运用深度卷积神经网络对水下目标特征点进行自动提取和识别,结合水下机器人姿态,实现了水下目标的精准定位,便于搜寻人员对于水下目标的位置进行精细化探测,实现水下搜寻探摸作业的可靠化、高效化、智能化,此发明用于水下目标搜寻探摸技术领域。
附图说明
下面结合附图对本发明作进一步说明:
图1是本发明实施例的步骤框图;
图2是本发明实施例目标特征点与前置声呐的几何关系图;
图3是本发明实施例的因子图模型;
图4是本发明实施例水下目标的三维位置图;
图5是本发明实施例水下机器人绕z轴旋转的示意图;
图6是本发明实施例从状态向量删除约束不足的特征点的因子图修正模型;
图7是本发明实施例仅从状态向量中删除约束不足的特征点的仰角的因子图修正模型。
具体实施方式
本部分将详细描述本发明的具体实施例,本发明之较佳实施例在附图中示出,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象地理解本发明的每个技术特征和整体技术方案,但其不能理解为对本发明保护范围的限制。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下、前、后、左、右等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
参照图1,本发明实施例提供一种面向水下机器人搜寻探摸的目标定位方法,包括以下步骤:
S1.通过水下机器人的前视声呐采集的声纳图像提取水下目标的A-KAZE特征点,提取水下目标的A-KAZE特征点具体实现包括以下子步骤:
S101.定义一组演化时间构建非线性尺度空间,
σi(o,s)=2o+s/S,o∈[0…O-1],s∈[0…S-1],i∈[0…M],
其中O为经不同高斯核模糊的图像的集合,S为离散化的层,σ为像素M,是声呐图像的总数。
S102.将像素单位σi中的离散集转换为时间单位,
Figure BDA0002399864350000041
S103:给定输入图像和对比度因子,使用快速显式扩散方法,使用M-1个外部快速显式扩散循环,并为每个循环计算最小内部步数n。
S104.为了加快非线性尺度空间的计算,将快速显式扩散方法嵌入从粗到细的金字塔方法中。
快速显式扩散方法被嵌入从粗到细的金字塔分解中。为了尽可能快地达到稳态,级联快速显式扩散将解决从粗略级到精细级传播。使用平滑矩阵
Figure BDA0002399864350000042
对图像进行2倍降频采样,并将该降采样后的图像用作下一个集合中下一个快速显式扩散周期的起始图像。
S105.为每个声呐图像Li计算海森行列式,
Figure BDA0002399864350000043
使用考虑到非线性尺度空间中每个特定图像的集合的归一化像素因子即σi,norm=σi/2。
S106.为了计算二阶导数使用步长为σi,norm的级联沙尔滤波器。
在每个演化水平i处,检查检测器响应是否高于预定阈值,并且它是3×3像素窗口中的最大值。然后对于每个潜在的最大值,分别在大小为σi×σi像素的窗口中,检查响应相对于级别i+1和i-1中其他关键点的最大值是否分别为正上方和正下方。最后,通过在3×3像素邻域中拟合二维二次函数到海森响应的决定因素,并找到其最大值,可以以亚像素精度估算关键点的二维位置。
S2.将带有A-KAZE特征的声呐图像输入卷积神经网络方法识别声呐图像中目标的A-KAZE特征点,具体实现包括以下子步骤:
S201.使用GoogLeNet架构在声呐图像数据集上训练卷积神经网(CNN);
原始的GoogLeNet架构分为五层,第一、二层为卷积层和最大池化层,第三、四、五层为inception层。
为使原始网络适应本发明进行了两项改进:
(1)倒数第二层(即第四层)是完全连接的层,该层将先前的输出映射到Dim×1向量,称为特征层。
(2)最后一层(即第五层)是一个完全连接的层,该层将先前的特征层映射为3×1向量,并将其与使用欧式损失的位置标签进行比较。
S3.运用目标特征点与前置声呐的几何关系测算水下目标相对于水下机器人的二维方位,具体实现包括以下子步骤:
S301.在局部笛卡尔声呐坐标系中参数化的点C=[x y z]T。该点也可以使用球面参数化表示为Q,两者之间的转换为,
Figure BDA0002399864350000051
Figure BDA0002399864350000052
其中
Figure BDA0002399864350000053
是方位角,r是距离,θ是仰角。
r由发射的时间和水中的声速决定。收发器阵列允许将接收到的反射的方位角
Figure BDA0002399864350000054
计算为准确度<1°以内。同时这些测量没有提供关于仰角θ的任何信息。
从位于同一仰角弧上的曲面块反射的检测到的声呐反射将投射到最终成像声呐图像中的同一像素,如图2所示。
在传感器视野范围内编译所有测量结果将得到灰度级极坐标图像,其中列对应于离散方位角空间,行对应于离散范围空间。
对于单位像素σ,令
Figure BDA0002399864350000061
表示从像素空间到方位范围空间的转换。像素的强度对应于在指定的方位角和范围内从仰角反射的声音的强度。
S4.将水下目标特征点二维方位和水下机器人的姿态结合测算水下机器人的仰角θ,通过得到的仰角θ测算水下目标相对于水下机器人的三维方位,具体实现包括以下子步骤:
S401.将水下目标特征点和水下机器人的姿态公式化为非线性最小二乘因子图优化,对于每个姿态Xt,都有以下6个参数(x,y,z,yaw,pitch,roll),对于每个特征点,都有以下3个参数(x,y,z)。
因子图是一个二分图,其中待优化未知变量的变量节点连接到测量值的因子节点,如图3所示。
在每个时间t处,姿态Xt与里程表测量位置值ut-1一起作为新节点添加到因子图中,后者提供Xt-1和Xt之间的运动估计。将第j个特征点的方位和距离
Figure BDA0002399864350000062
测量值mk添加到图形中,从而将特征点lj连接到观察其的姿态。使用“基本姿态Xb”(观察到的特征点的第一个姿态)的框架的球面坐标,首先假设0°仰角生成特征点三维位置的初始估计。
S402.将因子图求解为非线性最小二乘优化,
Figure BDA0002399864350000063
其中状态向量X=[X0,X1,…,L0,L1,…]T包含所有未知变量:姿态和特征点。
第i个因子指定了预测函数hi(X),测量值Zi={ui,mk}和测量不确定度∑i。
在从姿态Xt测量特征点j的方位和距离
Figure BDA0002399864350000064
的情况下,预测函数:
hi(X)=π(Xt,lj)。
S403.hi(X)首先根据姿态Xt将特征点lj=(x,y,z)转换为声呐帧,获得局部坐标(xs,ys,zs)的方位角
Figure BDA0002399864350000065
和距离r,由以下公式获得;
Figure BDA0002399864350000066
Figure BDA0002399864350000067
S404.利用对数函数的单调性,通过声呐测量值的反投影找到特征点的初始估计。使用每个特征的第一个观察值,包括距离r和方位角
Figure BDA0002399864350000068
测量值,
Figure BDA0002399864350000071
S405.将未知仰角θ设置为0,然后使用水下机器人姿态Xt将点从声纳直角坐标(xs,ys,zs)转换为世界直角坐标(x,y,z),用作初始猜测特征点的三维方位。
S406.将预测的三维特征点位置转换为姿态Xt的声呐坐标系,相应的反投影函数π-1(Xb,mb,θ)根据基本姿态Xb,相应的方位和距离测量值mb和提供的高程来计算目标三维特征点位置角θ(水下机器人仰角θ),如图4所示;
S5.运用约束不足或约束充足的特征点修正水下机器人的仰角θ,修正水下目标点相对于水下机器人的三维方位,具体实现包括以下子步骤:
S501.通过不同姿态观察目标特征点的仰角。
控制水下机器人绕z轴作纯偏航旋转,旋转角度为yaw,前视声呐接收到的反射的方位角
Figure BDA0002399864350000076
特征点参数(x,y,z)参数转换:
Figure BDA0002399864350000072
如图5所示,当姿态通过纯偏航旋转分开时,仰角弧线具有最小的重叠。
从多个姿势中测量了该特征点,该点的仰角需要经过以下步骤进行修正。
S502.将观察到的特征点分类为约束不足或约束充足的要素。查看测量结果是否足以约束其仰角,如果是这样,则使用标准参数化将其作为约束充足的特征点添加到因子图中;
S503.为了确定点特征点是否受到充足约束,使用三自由度球面参数化,其中状态仅由特征点lj组成,
Figure BDA0002399864350000073
由于传感器的姿态不是状态变量,因此将它们视为常量,并且预测函数hi(lj)使用可从总体因子图状态估计中获得的最新估计。
S504.以特征点l0的初始估计为线性化点,使用测量函数的泰勒级数展开,
Figure BDA0002399864350000074
Figure BDA0002399864350000075
S505.将优化简化为线性最小二乘问题,
Figure BDA0002399864350000081
其中:
Figure BDA0002399864350000082
其中A和b:
Ai=∑i-1/2Hi
Figure BDA0002399864350000083
线性化点
Figure BDA0002399864350000084
被视为在零仰角处反投影的第一个方位和距离测量值。
S506.确定优化是否受到测量约束,其中检查ATA是确定优化是否受到测量约束的关键。
如果仰角完全不受约束,则3×3矩阵ATA的秩将不足随着仰角的约束越来越大,ATA的最小特征值λ3的幅度将相对于前两个特征值λ1和λ2增大。因此,特征点必须满足标准
Figure BDA0002399864350000085
才能被认为具有充足的约束力,其中ρ是用户定义的可调阈值。如果不符合标准,则将特征点分类为约束不足。
S507.从状态向量中删除约束不足的特征点,以使它们的位置不会在优化中明确建模。如图6所示,将与特征点lj对应的测量值收集到一个非参数因子fj中。该因子将特征点从其基本姿态Xb获得的第一个方位距离测量值mb视为常量,从而确定了特征点的两个球面坐标;
在优化的每次迭代中,该因子都会通过以均匀的增量采样仰角在可行的仰角范围内进行搜索,并选择总重投影误差最低的仰角作为当前预测值:
Figure BDA0002399864350000086
其中Θ={θminmin+Δθ,…,θmax-Δθ,θmax},
使用测量不确定度∑k,将重投影误差计算为特征点到姿态xk的投影与测量值mk之间的距离函数。
然后,此因子的成本函数是在最佳仰角下评估的总重投影误差:
Figure BDA0002399864350000087
S508.仅从状态向量中删除约束不足的特征点的仰角,然后将约束不足的特征点建模为因子图中的二维方位距离点。
如图7所示,约束不足的特征点lj的所有测量值都组合为单个联合测量因子sj。该联合测量因子与非参数因子fj相似,不同之处在于它在计算重投影误差时使用了特征点的方位和距离估计,而不是基础姿态的测量值。
应当理解的是,本说明书未详细阐述的部分属于现有技术。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所述技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (7)

1.一种面向水下机器人搜寻探摸的目标定位方法,其特征在于,包括以下步骤:
S1.通过水下机器人的前视声呐采集的声纳图像提取水下目标的A-KAZE特征点;
S2.将带有A-KAZE特征的声呐图像输入卷积神经网络方法识别声呐图像中目标的A-KAZE特征点;
S3.运用目标特征点与前置声呐的几何关系测算水下目标相对于水下机器人的二维方位;
S4.将水下目标特征点二维方位和水下机器人的姿态结合测算水下机器人的仰角θ,通过得到的仰角θ测算水下目标相对于水下机器人的三维方位;
S5.运用约束不足或约束充足的特征点修正水下机器人的仰角θ,修正水下目标点相对于水下机器人的三维方位。
2.根据权利要求1所述的面向水下机器人搜寻探摸的目标定位方法,其特征在于,所述步骤S1中提取水下目标的A-KAZE特征点包括以下步骤:
S101.定义一组演化时间构建非线性尺度空间;
S102.将像素单位中的离散集转换为时间单位;
S103.给定输入图像和对比度因子,使用快速显式扩散方法;
S104.将快速显式扩散方法嵌入从粗到细的金字塔方法中;
S105.为每个声呐图像计算海森行列式;
S106.使用级联沙尔滤波器计算二阶导数。
3.根据权利要求1所述的面向水下机器人搜寻探摸的目标定位方法,其特征在于,所述步骤S2的具体实现包括以下子步骤:
S201.使用GoogLeNet架构在声呐图像数据集上训练卷积神经网络。
4.根据权利要求3所述的面向水下机器人搜寻探摸的目标定位方法,其特征在于:所述GoogLeNet架构包括五层,第一层和第二层为卷积层和最大池化层,第三层为inception层,第四层为特征层,是完全连接的层,第四层将先前的输出映射到Dim×1向量,第五层是完全连接的层,第五层将先前的特征层映射为3×1向量,并将映射为3×1向量的特征层与使用欧式损失的位置标签进行比较。
5.根据权利要求1所述的面向水下机器人搜寻探摸的目标定位方法,其特征在于,所述步骤S3的具体实现包括以下子步骤:
S301.局部笛卡尔声呐坐标系与球面参数坐标系相互转化。
6.根据权利要求1所述的面向水下机器人搜寻探摸的目标定位方法,其特征在于,所述步骤S4的具体实现包括以下子步骤:
S401.将水下目标特征点和水下机器人的姿态公式化为非线性最小二乘因子图优化,对于每个姿态Xt,包含以下6个参数(x,y,z,yaw,pitch,roll),对于每个特征点,包含以下3个参数(x,y,z);
S402.将因子图求解为非线性最小二乘优化;
S403.将特征点lj=(x,y,z)转换为声呐帧,获得局部坐标(xs,ys,zs)的方位角和距离;
S404.利用对数函数的单调性,通过声呐测量值的反投影找到特征点的初始估计;
S405.将未知仰角θ设置为0,然后使用水下机器人姿态Xt将点从声纳直角坐标(xs,ys,zs)转换为世界直角坐标(x,y,z),用作初始猜测特征点的三维方位;
S406.将预测的三维特征点位置转换为姿态Xt的声呐坐标系。
7.根据权利要求1所述的面向水下机器人搜寻探摸的目标定位方法,其特征在于,所述步骤S5的具体实现包括以下子步骤:
S501.通过不同姿态观察目标特征点的仰角;
S502.将观察到的特征点分类为约束不足或约束充足的要素;
S503.为了确定点特征点是否受到充足约束,使用三自由度球面参数化;
S504.以特征点l0的初始估计为线性化点,使用测量函数的泰勒级数展开;
S505.将优化简化为线性最小二乘问题;
S506.确定优化是否受到测量约束;
S507.从状态向量中完全删除约束不足的特征点;
S508.仅从状态向量中完全删除约束不足的特征点的仰角,然后将约束不足的特征点建模为因子图中的二维方位距离点。
CN202010143341.XA 2020-03-04 2020-03-04 一种面向水下机器人搜寻探摸的目标定位方法 Pending CN111413698A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010143341.XA CN111413698A (zh) 2020-03-04 2020-03-04 一种面向水下机器人搜寻探摸的目标定位方法
CN202011065672.2A CN111983620B (zh) 2020-03-04 2020-09-30 一种面向水下机器人搜寻探摸的目标定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010143341.XA CN111413698A (zh) 2020-03-04 2020-03-04 一种面向水下机器人搜寻探摸的目标定位方法

Publications (1)

Publication Number Publication Date
CN111413698A true CN111413698A (zh) 2020-07-14

Family

ID=71489211

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010143341.XA Pending CN111413698A (zh) 2020-03-04 2020-03-04 一种面向水下机器人搜寻探摸的目标定位方法
CN202011065672.2A Active CN111983620B (zh) 2020-03-04 2020-09-30 一种面向水下机器人搜寻探摸的目标定位方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202011065672.2A Active CN111983620B (zh) 2020-03-04 2020-09-30 一种面向水下机器人搜寻探摸的目标定位方法

Country Status (1)

Country Link
CN (2) CN111413698A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801191A (zh) * 2021-02-02 2021-05-14 中国石油大学(北京) 管道事故处置的智能推荐方法、装置及设备
CN114283327A (zh) * 2021-12-24 2022-04-05 杭州电子科技大学 一种基于水下搜寻机器人的目标搜寻与抵近方法
CN116243720A (zh) * 2023-04-25 2023-06-09 广东工业大学 一种基于5g网联的auv水下寻物方法及***

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529072A (zh) * 2020-12-07 2021-03-19 中国船舶重工集团公司七五0试验场 一种基于声呐图像处理的水下沉埋物识别与定位方法
CN112859807B (zh) * 2021-01-10 2022-03-22 西北工业大学 基于态势模拟和蒙特卡罗的水下航行器协同搜索效能评估方法
CN113379710B (zh) * 2021-06-18 2024-02-02 上海大学 一种水下目标声呐精准测量***和方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103869824B (zh) * 2014-03-05 2017-02-08 河海大学常州校区 基于生物触角模型的多机器人水下目标搜寻方法及装置
KR20160073462A (ko) * 2014-12-16 2016-06-27 아진산업(주) 수중탐사로봇 모니터링 방법
WO2017131838A2 (en) * 2015-11-13 2017-08-03 Flir Systems, Inc. Sonar sensor fusion and model based virtual and augmented reality systems and methods
RU2625349C1 (ru) * 2016-06-28 2017-07-13 Акционерное общество "Научно-исследовательский институт "Вектор" Способ определения пространственных угловых координат радиосигнала в амплитудных моноимпульсных пеленгационных системах
US10528147B2 (en) * 2017-03-06 2020-01-07 Microsoft Technology Licensing, Llc Ultrasonic based gesture recognition
CN109676604B (zh) * 2018-12-26 2020-09-22 清华大学 机器人曲面运动定位方法及其运动定位***
CN110246151B (zh) * 2019-06-03 2023-09-15 南京工程学院 一种基于深度学习和单目视觉的水下机器人目标跟踪方法
CN110275169B (zh) * 2019-06-12 2023-05-16 上海大学 一种水下机器人近场检测感知***
CN110568407B (zh) * 2019-09-05 2023-06-27 武汉理工大学 一种基于超短基线和航位推算的水下导航定位方法
KR20190121275A (ko) * 2019-10-07 2019-10-25 엘지전자 주식회사 실내 측위 시스템, 장치 및 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801191A (zh) * 2021-02-02 2021-05-14 中国石油大学(北京) 管道事故处置的智能推荐方法、装置及设备
CN112801191B (zh) * 2021-02-02 2023-11-21 中国石油大学(北京) 管道事故处置的智能推荐方法、装置及设备
CN114283327A (zh) * 2021-12-24 2022-04-05 杭州电子科技大学 一种基于水下搜寻机器人的目标搜寻与抵近方法
CN114283327B (zh) * 2021-12-24 2024-04-05 杭州电子科技大学 一种基于水下搜寻机器人的目标搜寻与抵近方法
CN116243720A (zh) * 2023-04-25 2023-06-09 广东工业大学 一种基于5g网联的auv水下寻物方法及***
CN116243720B (zh) * 2023-04-25 2023-08-22 广东工业大学 一种基于5g网联的auv水下寻物方法及***

Also Published As

Publication number Publication date
CN111983620B (zh) 2024-02-20
CN111983620A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN111983620B (zh) 一种面向水下机器人搜寻探摸的目标定位方法
CN106679648B (zh) 一种基于遗传算法的视觉惯性组合的slam方法
CN112183171B (zh) 一种基于视觉信标建立信标地图方法、装置
CN105856230B (zh) 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
CN110880189B (zh) 联合标定方法及其联合标定装置和电子设备
JP5987823B2 (ja) 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
CN112184824A (zh) 一种相机外参标定方法、装置
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
JP2008014691A (ja) ステレオ画像計測方法とそれを実施する装置
CN112444246A (zh) 高精度的数字孪生场景中的激光融合定位方法
WO2018233514A1 (zh) 一种位姿测量方法、设备及存储介质
Zhuoins et al. 4drvo-net: Deep 4d radar–visual odometry using multi-modal and multi-scale adaptive fusion
CN112629565B (zh) 像机与惯性测量单元旋转关系校准方法、装置和设备
CN111924142B (zh) 一种基于序列图像的软着陆高精度避障方法
Olson Subpixel localization and uncertainty estimation using occupancy grids
CN116721166B (zh) 双目相机和imu旋转外参在线标定方法、装置及存储介质
US20240134033A1 (en) Method for determining a movement state of a rigid body
CN112991445B (zh) 模型训练方法、姿态预测方法、装置、设备及存储介质
CN115294280A (zh) 三维重建方法、装置、设备、存储介质和程序产品
CN115311353A (zh) 一种多传感器多手柄控制器图优化紧耦合追踪方法及***
CN111366162B (zh) 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法
CN114266824A (zh) 一种基于深度学习的非合作目标相对位姿测量方法、***
Butt et al. Multi-task Learning for Camera Calibration
CN117406185B (zh) 雷达与相机间的外参标定方法、装置、设备及存储介质
CN114018271B (zh) 一种基于陆标图像的精确定点着陆自主导航方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200714