CN103201693B - 根据相关传感器数据估计水下航行器的位置和方向 - Google Patents

根据相关传感器数据估计水下航行器的位置和方向 Download PDF

Info

Publication number
CN103201693B
CN103201693B CN201180050836.7A CN201180050836A CN103201693B CN 103201693 B CN103201693 B CN 103201693B CN 201180050836 A CN201180050836 A CN 201180050836A CN 103201693 B CN103201693 B CN 103201693B
Authority
CN
China
Prior art keywords
attitude
estimation
navigation device
submarine navigation
guidance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180050836.7A
Other languages
English (en)
Other versions
CN103201693A (zh
Inventor
S·C·坦吉那拉
W·K·费尔德曼
C·H·德布伦纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lockheed Martin Corp
Original Assignee
Lockheed Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lockheed Corp filed Critical Lockheed Corp
Publication of CN103201693A publication Critical patent/CN103201693A/zh
Application granted granted Critical
Publication of CN103201693B publication Critical patent/CN103201693B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明披露了一种可用于组合两个来源的位置和方向(姿态)信息的方法和***,其中来自一个来源的信息与来自另一个来源的信息相关联,并且所述来源以不同率产生信息。例如,所述方法和***通过组合由3D成像声纳计算的姿态信息和来自航行器导航***的姿态信息能够估计水下航行器相对于水下结构的位置和方向(姿态)。为了组合来自两个来源的信息,确定是否生成一个来源相对于另一个来源的姿态估计的正向预测,并且如果需要生成所述正向预测。根据融合的姿态估计确定水下航行器的更新的姿态,并且用于航行器引导和控制。

Description

根据相关传感器数据估计水下航行器的位置和方向
本申请要求申请日为2010年10月25日、发明名称为“ESTIMATINGPOSITIONANDORIENTATIONOFANUNDERWATERVEHICLEBASEDONCORRELATEDSAENSORDATA”的美国临时申请No.61/406,476的优先权,并且该专利文献在此以其全文形式被结合入本文作为引用。
技术领域
本发明涉及估计(判断)水下航行器的位置和方向,具有非常高的精确度。所述估计(判断)通过将根据所采集的传感器数据的航行器位置和方向的非常高精确度的估计与由航行器的导航***提供的位置和方向数据进行组合而获得。所组合的数据还被处理以便向航行器的航行器导航***提供更新的定位,随后更新航行器的位置和方向的其估计。
背景技术
需要有估计水下环境中航行器的位置和方向的能力。通常,存在有许多水下结构和其它设备,在所述水下结构和其它设备周围可能需要非常高精确度的导航。目前估计水下航行器的位置和方向的方法包括使用不提供所要求的非常高的精确度测量结果的一个或更多个传感器。
发明内容
本发明披露了一种可用于高精度扫描水下结构的方法和***,以便对水下结构有更好的了解,例如,用于估计水下航行器相对于水下结构的位置和方向。所述位置和方向的估计经常被称作“姿态”。所述能力可用于例如引导水下结构的检查、维修和操纵。
本文所述的方法和***可用于扫描任何类型的水下结构。例如,水下结构包括人造物体,例如海洋石油平台支撑结构和支柱和油井类设备,以及自然物体例如水下山脉。水下结构还可以包括固定和非固定的结构,以及全部或者部分在水下的结构,例如在水下环境中可能经受漂移的结构。一般地说,水下结构表示为任何具有深度变化的任意三维结构并且具有不同的复杂性。
当在本文中使用时,术语水下包括任何类型的水下环境,其中可能探明有水下结构并且可能需要利用本文所述的***扫描所述水下结构,包括但不限于咸水地点例如海和洋以及淡水地点。
一般,本文所述的方法和***采用来自两个来源对位置和方向(姿态)的估计。所述估计被组合成融合的估计,用于更新水下航行器相对于水下结构的位置和方向。
在一个实施例中,一种估计水下航行器的位置和方向的方法包括从一个来源接收位置和方向数据,并从另一个来源接收姿态数据。来自一个来源的数据与来自另一个来源的数据被组合,其中所述组合产生融合的姿态估计。确定是否生成从所述一个来源或另一来源接收到的数据的正向预测,并且如果需要则生成正向预测。根据融合的姿态估计确定水下航行器的更新的姿态。
在一个实施例中,一个来源是水下航行器的航行器导航***,被设置成提供所述水下航行器的姿态的估计。在一个实施例中,另一来源是基于声纳的传感器,被设置成提供水下结构的三维图像。
在一些实施例中,从所述基于声纳的传感器得到的姿态的估计可能由航行器导航***辅助,并因而会与从航行器导航***得到的估计相关联。所述这些估计的融合会说明这些相关性以便提供姿态的当前融合的估计,例如说明两个估计的相对频率。
在另一个实施例中,希望具有的***能够在水下航行器上进行估计。水下航行器是例如但不限于自主式水下航行器(AUV)和远程操纵水下航行器(ROV)中的一种。当在本文中使用时,ROV是通过线缆拴系至主机(主航行器)例如水面船只的远程操纵水下航行器。ROV是无人的并由在主机(主航行器)上的操纵员操作。系缆可在主机和ROV之间来回传送例如电力(取代或补充自含式***上的电池电源)、视频和数据信号。当在本文中使用时,AUV是无人驾驶(操纵)的并且不被栓系至主航行器(vessel)的自主式水下航行器。
在一个实施例中,所述估计水下航行器的姿态的***包括在水下航行器上的传感器。所述传感器被设置成引导声波声纳波朝向水下结构,其中所反射的声波声纳波被处理以便提供水下结构的三维图像并提供姿态的基于图像传感器的姿态估计。航行器导航***在水下航行器上。航行器导航***被设置成提供水下航行器的姿态的估计。通过处理声纳传感器声波而提供的基于成像传感器的姿态估计与通过由航行器导航***提供的辅助由航行器导航***提供的估计相关联。数据存储器在水下航行器上,被设置成接收基于成像传感器的姿态估计。
数据处理器在水下航行器上。所述数据处理器被设置成接收来自所述经处理的声纳传感器声波的基于成像传感器的姿态估计和来自所述航行器导航***的姿态估计。所述处理器被设置成将由传感器提供的估计和由航行器导航***提供的估计进行组合,所述组合产生融合的姿态估计。所述处理器还被设置成确定是否生成基于图像传感器的姿态估计的正向预测,并且被设置成如果需要生成所述正向预测。所述处理器被设置成根据融合的姿态估计确定水下航行器的更新的姿态估计。所述处理器还被设置成向航行器导航***提供融合的定位并确定何时提供该定位作为对航行器导航***的重置。
附图说明
图1示出用于估计水下航行器的姿态的方法的一个实施例的流程图。
图2示出用于处理与航行器导航***数据相关联的传感器数据和处理来自航行器导航***的姿态数据的一个实施例的流程图。
图3示出了用于估计水下航行器的姿态的***的示意图。
图4示出了正向传播从基于特征的传感器例如图像传感器获得的姿态的一个示例。
具体实施方式
估计水下航行器的姿态的方法
图1示出了用于估计水下航行器的姿态的方法10的一个实施例的流程图。一般,所述方法通过利用水下航行器的导航能力连同基于特征的传感器例如图像传感器(例如声纳成像传感器)和更新水下航行器的估计的姿态的处理器进行实施。在许多情况,估计可以例如通过利用合适的商用现货供应的嵌入式硬件和软件在水下航行器上实时进行。
方法10包括在步骤12从水下航行器导航***(例如辅助或独立的航行器导航***)接收姿态数据。在步骤14,从传感器接收估计的姿态数据,其与来自水下航行器导航***的估计的姿态数据相关联。
在一个实施例中,在步骤14从传感器接收到的数据包括引导声波声纳波朝向水下结构。在引导声波声纳波后,从水下结构接收反射的声波声纳响应。在一个实施例中,例如在三维(3D)成像声纳中,声波声纳波被处理以产生三维图像。3D成像声纳可以是任何3D声纳,由单个输出的声波声纳波或声纳脉冲形成3D图像。合适的3D声纳的一个示例是从CodaOctopusProducts可购得的CodaOctopusEchoscope。应当理解,3D声纳可被调整并被设置成指向水下结构,以便它可向水下结构发送声纳脉冲并可被定向成相对于纵向(垂直方向)成不同的希望的角度和不同的视角并距离水下结构有(不同的希望的)距离。
应当理解,航行器导航***是已知的,并用于确定水下航行器的位置、方向和速率(例如,运动的方向和速度)。在一些示例中,航行器导航***是惯性导航***(INS)。航行器导航***可包括多普勒速度计程仪(DVL)单元,所述多普勒速度计程仪(DVL)单元面向下用于确定速率,但应当理解,航行器导航***可以是可确定位置、方向和速率(例如,运动的方向和速度)的任何***。合适的航行器导航***的一个示例是可从KearfottCorporation购得的SeaDeVil,可包括例如TeledyneRDIDVL(多普勒速度计程仪)。
航行器导航***产生航行器导航***姿态估计,而3D声纳传感器产生基于成像传感器的姿态估计。一般,所述方法包括将来自航行器导航***和3D声纳传感器的估计组合以提供来自两个来源的融合的姿态估计,见步骤16。在适当和/或需要时,融合的估计用于在由基于传感器的姿态估计和航行器导航***的位置估计之间的相关时间所确定的某时间段定期校正航行器导航***中的偏移。所述定位可从融合过程高速获得,并被应用于航行器导航***,例如在由融合的估计的自相关所确定的低速下重置。
在一个实施例中,融合通过利用贝叶斯组合器(BayesianCombiner)来实现,所述贝叶斯组合器被设置成对最近的基于特征的姿态估计(例如基于图像传感器的姿态估计)进行运算,正向传播到对应于来自航行器导航***的最近可用的姿态估计的时间,例如来自INS的惯性姿态。因此,在步骤18可以调整来自3D声纳传感器(或图像传感器)的估计以便可应用于当前的时间。在步骤18,例如,可以利用来自航行器的导航***的惯性数据正向传播来自步骤14的位置和方向估计。另参见图4。
参见图4,从图像传感器获得的姿态例如来自3D声纳的姿态可例如通过***所用的处理器被正向传播。如图所示,如果新的航行器导航***姿态是可用的,最近的基于图像传感器的姿态可被传播到当前的航行器导航***姿态时间。参见图4左侧的框。作为另一实施例,如果新的基于成像传感器的姿态是可用的,其可利用航行器导航速率、角速率和协方差被传播到航行器导航***的当前的姿态时间。所传播的姿态随后被输入组合器(参见图4右侧的框),例如贝叶斯组合器。参见当前时间的基于图像传感器的姿态和协方差的箭头。航行器导航***姿态和协方差也被输入组合器,其中航行器导航***姿态和基于图像传感器的姿态随后被组合成具有协方差的融合的姿态。
再次参见图1,根据组合的估计和步骤18的调整或传播,如果需要,在步骤20水下航行器的姿态可被更新和重置,这可用于航行器引导和控制并作为初始状况用于将来的基于图像传感器的导航。在步骤20,例如,可根据组合的位置和方向数据重置航行器导航***的位置和方向估计。
图2示出了用于处理与航行器导航***数据相关联的传感器数据和处理来自航行器导航***的位置/方向数据的一个实施例的流程图300。
如图所示,航行器导航***310向处理单元330或导航融合(单元)(NavFusion)提供姿态数据。航行器导航***310为水下航行器提供姿态的估计。同样,在感知框中,姿态传感器320例如3D声纳传感器向导航融合单元330提供姿态数据。传感器320提供水下航行器的姿态的基于图像传感器的估计。如图所示,传感器320依赖于由导航融合单元330提供的估计的姿态数据,并从而它的估计的姿态数据与来自航行器导航***310的数据相关联。
仍参见导航融合单元330,进一步对来自航行器导航***310和传感器320的估计进行处理。估计在框332被组合。在所示的实施例中,例如上文所述的贝叶斯组合器被用于组合或融合估计。组合器被设置成对最近的基于图像传感器的姿态估计(例如,来自传感器320)进行运算,正向传播到最近可用的航行器导航***310姿态估计的时间。应当理解,组合器包括算法,所述算法根据每个所述传感器中误差的估计加权基于传感器的姿态和航行器导航***估计的姿态。
进一步关于正向传播,框334示出了通过正向预测进一步处理来自传感器320的估计,以便它可与最近可用的航行器导航***310姿态估计进行融合。经常性的,航行器导航***310姿态估计和传感器320姿态估计是以不同频率和在不同时间到导航单元330的不同的数据流,因此,需要对一个进行正向传播以便完成融合。例如,传感器估计可能在约5Hz的频率,而航行器导航***姿态估计可能在20Hz的频率。因此,在框334,正向传播传感器姿态估计以便它可以与航行器导航***姿态估计融合。
在框336,可采用误差/错误或故障检测处理。由于从传感器320进入的姿态估计可能易受误差/错误的影响,将其与最当前(最近)的融合的姿态估计相互对照可能是有帮助的。如果进入的传感器估计的不确定性超过某个阀值,或者如果其从融合的姿态估计的偏离超过某个阈值,传感器320可被重新初始化以便进行另外的处理以生成另一更为准确的姿态估计。这被称为监测协方差和创新散度,例如从当前接受的姿态估计。
一旦估计被组合,水下航行器的姿态可被更新。在框336的进一步处理示出可根据融合的姿态估计定期重置航行器导航***姿态估计。由于来自传感器320的数据要与航行器导航***协调以便融合,应当理解,当航行器导航***被重置时,传感器320被告知所述重置。
在一些实施例中,例如如框340所示,融合的姿态估计可被发送至其它航行器子***以及传感器320。
仍关于与导航***相关联的姿态传感器(例如3D声纳传感器),利用所述3D声纳传感器估计姿态已被披露于共同处于申请阶段的临时申请,所述临时申请的案号信息如下:律师案号20057.0145USP1–名称为ESTIMATINGPOSITIONANDORIENTATIONOFANUNDERWATERVEHICLERELATIVETOUNDERWATERSTRUCTURES;20057.146USP1–名称为DETECTINGSTRUCTURALCHANGESTOUNDERWATERSTRUCTURES;和20057.147USP1–名称为BUILDINGATHREEDIMENSIONALMODELOFANUNDERWATERSTRUCTURE,所述上述三个专利申请与本申请作为临时申请同时在2010年10月25日提交,其美国临时申请的序列号分别为61/406424、61/406435、和61/406444,并且所有上述专利文献在此以其全文形式被结合入本文作为引用。
估计水下航行器的姿态的***
应当理解,本文所述估计水下航行器的位置和方向(姿态)的方法可提供于水下航行器上的自主***中。在一些实施例中,水下航行器是具有适当的处理能力以便实时估计姿态的自主式水下航行器。不过,应当理解,所述***可以全部或部分在其它航行器上,例如ROV或载人的海船上。
在一个实施例中,所述***包括3D声纳传感器和航行器导航***,连同合适的处理能力,以便执行水下结构的模型建造或基于成像传感器的结构检查。
图3示出了用于估计水下航行器的姿态的***200。在适当的环境中,***200在水下航行器上并是水下航行器的一部分并具有实时处理能力,例如在约1秒并有时在更短的时间内估计姿态。
在所示的实施例中,3D成像声纳传感器210可以将来自3D声纳脉冲的响应电传送至数据存储器220。在一个实施例中,传感器在水下航行器上。传感器210被设置成引导声波声纳波朝向水下结构,其中从所述结构反射的声波声纳波由传感器进行处理以便产生三维图像和航行器姿态的估计。数据存储器220被设置成接收来自传感器210的响应,其中所述响应可以提供姿态的基于图像传感器的姿态估计。在一个实施例中,数据存储器220在水下航行器上。
在一个实施例中,水下航行器导航***240包括向水下航行器上的数据处理器230提供姿态的估计的航行器导航***。
处理器230被设置成接收基于图像传感器的姿态估计和来自航行器导航***的估计。在一个实施例中,数据处理器230在水下航行器上。数据处理器230被设置成接收基于图像传感器的姿态估计210和来自航行器导航***240的姿态估计,并被设置成将由传感器提供的基于图像传感器的姿态估计和由航行器导航***提供的姿态估计进行组合。所述组合产生融合的姿态估计。处理器230被设置成确定是否生成基于图像传感器的姿态估计的正向预测,并且被设置成如果需要生成所述正向预测。处理器230被设置成根据融合的姿态估计确定水下航行器的更新的姿态。
应当理解,所述***200的部件可由水下航行器提供动力(供电)。
上文所述的方法和***可用于相对于水下结构估计和更新水下航行器的姿态。所述应用可包括但不限于商用和军用的海底结构检查和维修、港口检查和水雷探测和/或对抗。在一个实施例中,采集来自3D声纳扫描的数据,采集来自航行器导航***的数据,并记录和处理所述数据。一般,所述数据被融合以生成融合的姿态,其可获得非常高水平的准确度,例如在一立方英尺或在立方厘米范围(cubiccentimeters)内。数据的采集、记录和处理可利用在水下航行器上的数据处理电子器件进行,具有实时处理能力。
本文所述用于估计姿态的所述方法和***在检查水下结构的损坏、变形时可能是有用的。上文所述的方法和***可用于例如水下航行器远离海底(例如超过1000米),使得其它导航辅助设备例如DVL不可用的情况。应当理解,本文所述的方法和***可应用于非惯性水下航行器导航***,例如包含磁罗盘和航行速度参照的那些***。还应当理解,本文所述的方法和***可避免对额外的基于图像的传感器的需要。还应当理解,利用本文的方法和***还可以检查非固定的水下结构。3D声纳的使用能扫描复杂的3D结构以便提供具有完全六自由度的全深度图像和姿态估计。
本申请所披露的示例在所有方面应被视为是说明性的而非限制性的。本发明的保护范围由所附权利要求书表示而非由前述的说明书限定;并且在权利要求的等同的含义和范围内的所有变化旨在包含在本发明的保护范围内。

Claims (8)

1.一种估计水下航行器的姿态的方法,包括:
通过处理器从一个来源接收姿态数据,所述一个来源是水下航行器的航行器导航***;
通过处理器从另一来源接收姿态数据,所述另一来源是不同于航行器导航***的基于图像传感器的来源;
利用处理器确定融合的姿态估计,确定步骤包括根据来自基于图像传感器的来源的姿态数据相对于来自航行器导航***的姿态数据的正向传播确定从基于图像传感器的来源接收到的姿态数据的正向预测,并利用处理器组合来自所述航行器导航***的姿态数据和来自基于图像传感器的来源的姿态数据的正向预测,所述组合产生融合的姿态估计;和
根据所述融合的姿态估计利用处理器估计水下航行器的更新的姿态。
2.根据权利要求1所述的方法,其中所述航行器导航***是水下航行器的惯性导航***,被设置成提供所述水下航行器的姿态的估计。
3.根据权利要求1所述的方法,其中所述基于图像传感器的来源是基于三维声纳的传感器,被设置成提供水下结构的三维图像和水下航行器的姿态的估计。
4.根据权利要求1所述的方法,其中估计更新的姿态的步骤包括校正航行器导航***中的偏移,所述校正偏移发生在由融合的姿态估计的相关时间确定的一时间段。
5.根据权利要求1所述的方法,还包括利用处理器重新初始化所述基于图像传感器的来源以便生成更为准确并且与当前的融合的姿态估计一致的不同的姿态数据;所述重新初始化步骤包括进行故障检测处理。
6.根据权利要求1所述的方法,还包括根据所述融合的姿态估计利用处理器重置所述航行器导航***的姿态。
7.根据权利要求1所述的方法,其中所述水下航行器是自主式水下航行器或远程操纵潜水器中的一种。
8.一种估计水下航行器的姿态的***,包括:
在水下航行器上的传感器,所述传感器被设置成引导待反射回传感器的声波声纳波朝向水下结构,并被设置成接收待处理的所反射的声波声纳波以产生基于图像传感器的姿态估计;
在所述水下航行器上的航行器导航***,所述航行器导航***被设置成提供所述水下航行器的姿态的估计;
在所述水下航行器上的数据存储器,所述数据存储器被设置成接收所述基于图像传感器的姿态估计;和
在所述水下航行器上的数据处理器,所述数据处理器被设置成接收基于图像传感器的姿态估计和来自航行器导航***的姿态的估计;
所述数据处理器被设置成确定融合的姿态估计,所述融合的姿态估计通过数据处理器来确定,所述数据处理器被设置成根据基于图像传感器的姿态估计相对于来自航行器导航***的姿态的估计的正向传播确定基于图像传感器的姿态估计的正向预测,并被设置成组合来自航行器导航***的姿态的估计和基于图像传感器的姿态估计的正向预测,其中所述组合产生融合的姿态估计;和
所述数据处理器被设置成根据融合的姿态估计来估计所述水下航行器的更新的姿态。
CN201180050836.7A 2010-10-25 2011-10-25 根据相关传感器数据估计水下航行器的位置和方向 Expired - Fee Related CN103201693B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US40647610P 2010-10-25 2010-10-25
US61/406,476 2010-10-25
PCT/US2011/057606 WO2012061099A1 (en) 2010-10-25 2011-10-25 Estimating position and orientation of an underwater vehicle based on correlated sensor data
US13/280,536 US8965682B2 (en) 2010-10-25 2011-10-25 Estimating position and orientation of an underwater vehicle based on correlated sensor data
US13/280,536 2011-10-25

Publications (2)

Publication Number Publication Date
CN103201693A CN103201693A (zh) 2013-07-10
CN103201693B true CN103201693B (zh) 2016-01-06

Family

ID=45973667

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180050836.7A Expired - Fee Related CN103201693B (zh) 2010-10-25 2011-10-25 根据相关传感器数据估计水下航行器的位置和方向

Country Status (9)

Country Link
US (1) US8965682B2 (zh)
EP (1) EP2633375B1 (zh)
JP (1) JP5968894B2 (zh)
CN (1) CN103201693B (zh)
AU (1) AU2011323845B2 (zh)
BR (1) BR112013010120A2 (zh)
CA (1) CA2814833C (zh)
MY (1) MY164768A (zh)
WO (1) WO2012061099A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107850899B (zh) * 2015-05-23 2022-04-19 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
WO2012061134A2 (en) * 2010-10-25 2012-05-10 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures
AU2011323801B2 (en) 2010-10-25 2015-12-10 Lockheed Martin Corporation Building a three dimensional model of an underwater structure
WO2012061097A2 (en) 2010-10-25 2012-05-10 Lockheed Martin Corporation Sonar data collection system
JP6057905B2 (ja) 2010-10-25 2017-01-11 ロッキード マーティン コーポレイションLockheed Martin Corporation 水中構造物の構造的変化の検出
US11480965B2 (en) 2010-11-19 2022-10-25 Maid Ip Holdings Pty/Ltd Automatic location placement system
US9778657B2 (en) 2010-11-19 2017-10-03 Bradley Tyers Automatic location placement system
US10254118B2 (en) 2013-02-21 2019-04-09 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
BR112015025449A2 (pt) 2013-04-05 2017-07-18 Lockheed Corp plataforma submarina com lidar e métodos relacionados
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
CN103760909B (zh) * 2014-01-23 2018-01-02 河海大学常州校区 一种水下探测装置的控制***
US9812018B2 (en) 2014-04-08 2017-11-07 University Of New Hampshire Optical based pose detection for multiple unmanned underwater vehicles
US10012504B2 (en) * 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps
US9658070B2 (en) 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
US10183732B2 (en) * 2015-04-09 2019-01-22 University of New Hamphire Pose detection and control of unmanned underwater vehicles (UUVs) utilizing an optical detector array
CN105241442B (zh) * 2015-09-01 2017-12-19 北京理工大学 基于“虚拟短基线”定位***的惯导/水声组合导航方法
US9915947B1 (en) 2016-02-26 2018-03-13 Waymo Llc System and method for determining pose data for a vehicle
US10203209B2 (en) 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
JP6722521B2 (ja) * 2016-06-23 2020-07-15 古野電気株式会社 水中探知システム
WO2018026544A1 (en) 2016-07-22 2018-02-08 Regents Of The University Of Minnesota Square-root multi-state constraint kalman filter for vision-aided inertial navigation system
KR101720327B1 (ko) * 2016-10-28 2017-03-28 한국지질자원연구원 수중 이상체의 위치 측정 장치 및 방법
DE102017108107A1 (de) * 2017-04-13 2018-10-18 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
CN107037821B (zh) * 2017-05-12 2019-10-29 中国人民解放军91550部队 连续冲击载荷下的水下潜器运动姿态估计及控制方法
KR101987655B1 (ko) * 2017-06-13 2019-06-12 주식회사 포스코 수중 지형 측정용 무인 보트
BR112020000387A2 (pt) * 2017-07-10 2020-07-14 3D at Depth, Inc. sistema de metrologia óptica subaquática
CN107276684B (zh) * 2017-07-19 2020-10-09 河海大学常州校区 水下传感器网络中基于auv位置预测的数据收集方法
US10907971B2 (en) 2017-12-08 2021-02-02 Regents Of The University Of Minnesota Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping
CN108444478B (zh) * 2018-03-13 2021-08-10 西北工业大学 一种用于水下航行器的移动目标视觉位姿估计方法
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
JP6800918B2 (ja) * 2018-07-12 2020-12-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd エラー回復を実行するための方法、システム、及びプログラム
CN112146654B (zh) * 2020-08-25 2022-08-23 浙江大学 基于关键约束帧的前视成像声呐水下定位与导航方法
CN113640780B (zh) * 2021-08-23 2023-08-08 哈尔滨工程大学 基于改进的联邦滤波的水下auv传感器时间配准方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991009375A1 (en) * 1989-12-11 1991-06-27 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
US5245587A (en) * 1990-12-14 1993-09-14 Hutson William H Multi-dimensional signal processing and display
JPH0717492A (ja) * 1993-07-01 1995-01-20 Japan Aviation Electron Ind Ltd 遠隔操縦方式の無人ヘリコプタシステム
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
JP4597423B2 (ja) * 2001-05-30 2010-12-15 本田技研工業株式会社 位置補正装置
WO2005033629A2 (en) * 2003-09-19 2005-04-14 University Of Miami Multi-camera inspection of underwater structures
JP2005348475A (ja) * 2004-06-01 2005-12-15 Matsushita Electric Ind Co Ltd 電動機駆動装置
CN1325932C (zh) * 2004-11-17 2007-07-11 中国科学院沈阳自动化研究所 载人潜水器的组合导航定位方法
US7528835B2 (en) * 2005-09-28 2009-05-05 The United States Of America As Represented By The Secretary Of The Navy Open-loop controller
JP2007210402A (ja) * 2006-02-08 2007-08-23 Kawasaki Heavy Ind Ltd 自律型無人潜水機およびその水中航行方法
JP5039392B2 (ja) * 2006-03-27 2012-10-03 三菱重工業株式会社 水中航走体、及び水中航走体の測位方法
US7599789B2 (en) * 2006-05-24 2009-10-06 Raytheon Company Beacon-augmented pose estimation
WO2008105948A2 (en) * 2006-10-06 2008-09-04 Irobot Corporation Robotic vehicle with tracks and flippers
CN101419464B (zh) * 2008-06-13 2010-07-07 哈尔滨工程大学 一种采用矢量推进器的无人潜水器定深航行控制方法
JP5328252B2 (ja) * 2008-07-30 2013-10-30 アルパイン株式会社 ナビゲーションシステムの位置検出装置および位置検出方法
AU2009327362A1 (en) * 2008-12-19 2011-08-04 Xollai, Llc System and method for determining an orientation and position of an object
CN101750611B (zh) * 2009-12-02 2012-05-09 哈尔滨工程大学 一种水下机器人目标探测装置及探测方法
WO2012061097A2 (en) 2010-10-25 2012-05-10 Lockheed Martin Corporation Sonar data collection system
WO2012061134A2 (en) 2010-10-25 2012-05-10 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures
AU2011323801B2 (en) 2010-10-25 2015-12-10 Lockheed Martin Corporation Building a three dimensional model of an underwater structure
US8917576B2 (en) 2010-10-25 2014-12-23 Lockheed Martin Corporation Remote flooded member detection
JP6057905B2 (ja) 2010-10-25 2017-01-11 ロッキード マーティン コーポレイションLockheed Martin Corporation 水中構造物の構造的変化の検出

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107850899B (zh) * 2015-05-23 2022-04-19 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合

Also Published As

Publication number Publication date
JP5968894B2 (ja) 2016-08-10
CA2814833C (en) 2018-11-06
MY164768A (en) 2018-01-30
CN103201693A (zh) 2013-07-10
US20120101715A1 (en) 2012-04-26
EP2633375B1 (en) 2018-12-05
CA2814833A1 (en) 2012-05-10
BR112013010120A2 (pt) 2018-07-24
EP2633375A1 (en) 2013-09-04
AU2011323845B2 (en) 2015-10-29
AU2011323845A1 (en) 2013-05-02
EP2633375A4 (en) 2015-01-14
US8965682B2 (en) 2015-02-24
JP2014502344A (ja) 2014-01-30
WO2012061099A1 (en) 2012-05-10

Similar Documents

Publication Publication Date Title
CN103201693B (zh) 根据相关传感器数据估计水下航行器的位置和方向
CN103620442B (zh) 判断水下航行器相对于水下结构的位置和方向
US8929176B2 (en) Building a three-dimensional model of an underwater structure
CN103477244B (zh) 检测水下结构的结构变化
CN105264402A (zh) 具有lidar的水下平台和相关方法
US20170242144A1 (en) Auv based seismic acquisition system and method
EP2732931B1 (en) Device for measuring location of underwater vehicle and method thereof
Zhou et al. Mapping the underside of an iceberg with a modified underwater glider
JP2018084445A (ja) 水中音響測位システム
Kim et al. Terrain-adaptive optimal guidance for near-bottom survey by an autonomous underwater vehicle
Ravichandran et al. Underwater dynamic position location of miner with respect to mother ship
Toal et al. Novel multi-sonar controller and other advanced features developed and tested on Latis, a smart, remotely operated vehicle
Bueno et al. Recent advances in navigation of underwater remotely operated vehicles
Zinni Analysis of the DiveTracker acoustical navigation system for the NPS AUV

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160106

Termination date: 20181025

CF01 Termination of patent right due to non-payment of annual fee