JP6230923B2 - Position detecting device and position detecting method for underwater moving body - Google Patents

Position detecting device and position detecting method for underwater moving body Download PDF

Info

Publication number
JP6230923B2
JP6230923B2 JP2014010413A JP2014010413A JP6230923B2 JP 6230923 B2 JP6230923 B2 JP 6230923B2 JP 2014010413 A JP2014010413 A JP 2014010413A JP 2014010413 A JP2014010413 A JP 2014010413A JP 6230923 B2 JP6230923 B2 JP 6230923B2
Authority
JP
Japan
Prior art keywords
image
unit
underwater
moving body
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014010413A
Other languages
Japanese (ja)
Other versions
JP2015137968A (en
JP2015137968A5 (en
Inventor
亮介 小林
亮介 小林
河野 尚幸
尚幸 河野
健一 大谷
健一 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi GE Nuclear Energy Ltd
Original Assignee
Hitachi GE Nuclear Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi GE Nuclear Energy Ltd filed Critical Hitachi GE Nuclear Energy Ltd
Priority to JP2014010413A priority Critical patent/JP6230923B2/en
Publication of JP2015137968A publication Critical patent/JP2015137968A/en
Publication of JP2015137968A5 publication Critical patent/JP2015137968A5/ja
Application granted granted Critical
Publication of JP6230923B2 publication Critical patent/JP6230923B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Monitoring And Testing Of Nuclear Reactors (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、3次元移動可能な水中移動体の位置を検知する水中移動体の位置検知装置に関する。   The present invention relates to an underwater moving body position detection device that detects the position of an underwater moving body capable of three-dimensional movement.

3次元移動が可能な水中移動体の位置を検出する水中移動体の位置検知装置を利用した技術としては、3次元移動可能な水中検査装置を用いて原子炉内の構造物の検査作業を行う原子炉内検査システムが知られている。   As a technique using a position detection device for an underwater moving body that detects the position of an underwater moving body that can move three-dimensionally, a structure in a nuclear reactor is inspected using an underwater inspection device that can move three-dimensionally. In-reactor inspection systems are known.

この種の技術の一例として、任意の水平面で水中移動体から周囲の構造物までの距離を計測することで当該水平面における当該構造物の形状を示す画像データ(測定画像)を作成し、次に、当該構造物の設計情報等から得られる当該水平面における当該構造物の形状を示す画像データであって、水平位置情報が付されている画像データ(記憶画像)を測定画像とマッチングすることで、水中移動体の水平位置を算出する位置検知装置がある(特開2010−203888号公報参照)。   As an example of this type of technology, image data (measurement image) indicating the shape of the structure on the horizontal plane is created by measuring the distance from the underwater moving body to the surrounding structure on an arbitrary horizontal plane, The image data indicating the shape of the structure in the horizontal plane obtained from the design information of the structure, etc., and matching the image data (stored image) with the horizontal position information with the measurement image, There is a position detection device that calculates the horizontal position of an underwater moving body (refer to JP 2010-203888 A).

特開2010−203888号公報JP 2010-203888 A

しかし、上記文献に係る位置検知装置は、既知の構造物の設計情報をもとに予め作成しておいた記憶画像と、その場で取得される測定画像とのマッチング処理により水中移動体の位置を算出しているため、実際の構造物の状態が記憶画像作成時と異なっている場合や測定画像にノイズ(構造物の有無と関係の無い画素)が含まれている場合には、両者のマッチング率が低下するため、マッチング箇所の同定に誤りが生じて水中移動体の位置算出精度が低下するおそれがある。すなわち、上記文献に係る位置検知装置は、設計情報と異なる環境下で使用する場合には、その位置検知精度の点で改善の余地がある。   However, the position detection device according to the above document is based on the position of an underwater moving body by matching processing between a stored image prepared in advance based on design information of a known structure and a measurement image acquired on the spot. Therefore, if the actual state of the structure is different from when the stored image was created, or if the measurement image contains noise (pixels that are not related to the presence or absence of the structure), both Since the matching rate is lowered, there is a possibility that an error occurs in identification of the matching portion and the position calculation accuracy of the underwater moving body is lowered. That is, when the position detection device according to the above document is used in an environment different from the design information, there is room for improvement in terms of position detection accuracy.

本発明の目的は、構造物の設計情報と測定情報が異なる環境下での位置検知精度を向上できる水中移動体の位置検知装置及び位置検知方法を提供することにある。   An object of the present invention is to provide a position detection apparatus and a position detection method for an underwater moving body that can improve position detection accuracy in an environment where design information and measurement information of a structure are different.

本発明は、上記目的を達成するために、3次元空間を移動可能な水中移動体と、構造物の設計情報に基づいて作成される複数の画像データであって、前記3次元空間内で互いに異なる複数の平面上における前記構造物の外形が位置情報と関連付けて表された複数の記憶画像が記憶された記憶装置と、前記3次元空間で前記水中移動体の位置する平面上において当該水中移動体の周囲を距離センサで走査することで得られる画像データであって、当該平面上における前記構造物の外形が表された測定画像を取得する画像取得部と、前記複数の記憶画像の中から前記水中移動体の位置情報を取得するために利用される記憶画像を、前記水中移動体の姿勢および垂直位置に基づいて選択し、当該選択された記憶画像を選択画像とする画像選択部と、当該画像選択部で選択された前記選択画像と、前記画像取得部で取得された前記測定画像とをそれぞれ簡略化することで修正する画像修正部と、当該画像修正部による修正後の前記選択画像と前記測定画像の対応関係と、前記修正後の前記選択画像に付された位置情報とに基づいて、前記水中移動体の位置する平面における当該水中移動体の位置を算出する位置算出部とを備える。   In order to achieve the above object, the present invention provides a plurality of image data created on the basis of design information of an underwater moving body that can move in a three-dimensional space and a structure. A storage device storing a plurality of stored images in which outer shapes of the structures on a plurality of different planes are associated with position information, and the underwater movement on the plane where the underwater moving body is positioned in the three-dimensional space Image data obtained by scanning the surroundings of the body with a distance sensor, an image acquisition unit for acquiring a measurement image representing the outer shape of the structure on the plane, and the plurality of stored images An image selection unit that selects a stored image used for acquiring position information of the underwater moving body based on a posture and a vertical position of the underwater moving body, and uses the selected stored image as a selection image; An image correcting unit that corrects the selected image selected by the image selecting unit and the measurement image acquired by the image acquiring unit by simplifying the selected image, and the selected image that has been corrected by the image correcting unit. And a position calculating unit that calculates the position of the underwater moving body in the plane on which the underwater moving body is located based on the correspondence relationship between the measurement image and the position information attached to the selected image after correction. Prepare.

本発明によれば、構造物の設計情報と測定情報が異なる環境下での水中移動体の位置の検知精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the detection accuracy of the position of the underwater moving body in the environment where the design information and measurement information of a structure are different can be improved.

本発明の実施の形態に係る原子炉内検査システムの概略図。1 is a schematic diagram of an in-reactor inspection system according to an embodiment of the present invention. 本発明の実施の形態に係る水中検査装置の構成を表す概略図。Schematic showing the structure of the underwater inspection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るレンジセンサユニットの水平断面図。The horizontal sectional view of the range sensor unit concerning an embodiment of the invention. 図3中の断面IV−IVにおけるレンジセンサユニットの垂直断面図。FIG. 4 is a vertical sectional view of the range sensor unit taken along section IV-IV in FIG. 3. 本発明の実施の形態に係るレンジセンサユニットの測定動作の説明図。Explanatory drawing of measurement operation | movement of the range sensor unit which concerns on embodiment of this invention. 本発明の実施の形態に係る制御装置の機能ブロック図。The functional block diagram of the control apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る制御装置の位置・姿勢算出機能に係わる制御処理内容を表すPAD図。The PAD figure showing the control processing content regarding the position and attitude | position calculation function of the control apparatus which concerns on embodiment of this invention. 図7における姿勢角算出処理の詳細を表すPAD図。The PAD figure showing the detail of the attitude angle calculation process in FIG. 図7における垂直位置算出処理の詳細を表すPAD図。The PAD figure showing the detail of the vertical position calculation process in FIG. 制御装置による測定画像算出処理及び水平位置算出処理の説明図。Explanatory drawing of the measurement image calculation process and horizontal position calculation process by a control apparatus. 図7における測定画像算出処理の詳細を表すPAD図。The PAD figure showing the detail of the measurement image calculation process in FIG. 図7における水平位置算出処理の詳細を表すPAD図。The PAD figure showing the detail of the horizontal position calculation process in FIG. 本発明の実施の形態に係る画像修正部の概略構成図。The schematic block diagram of the image correction part which concerns on embodiment of this invention. 本発明の実施の形態に係る表示装置の表示画面の一例を表す図。The figure showing an example of the display screen of the display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る表示装置の他の表示画面の一例を表す図。The figure showing an example of the other display screen of the display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る表示装置のさらに他の表示画面の一例を表す図。The figure showing an example of the other display screen of the display apparatus which concerns on embodiment of this invention.

以下、本発明の実施の形態について図面を用いて説明する。図1は本発明の実施の形態に係る原子炉内検査システムの概略図である。この図に示す原子炉1には、シュラウド2、上部格子板3、炉心支持板4、及びシュラウドサポート5等の構造物が設置されており、PLR(Primary Loop Re-circulation System:一次冷却材再循環系)配管6等の配管が接続されている。原子炉1の上部には作業スペースであるオペレーションフロア7があり、さらにその上方には燃料交換装置8がある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram of an in-reactor inspection system according to an embodiment of the present invention. In the nuclear reactor 1 shown in this figure, structures such as a shroud 2, an upper lattice plate 3, a core support plate 4, and a shroud support 5 are installed, and a PLR (Primary Loop Re-circulation System) is used. (Circulation system) Piping such as piping 6 is connected. There is an operation floor 7 as a work space at the upper part of the nuclear reactor 1, and further there is a fuel changer 8 above it.

本実施の形態の原子炉内検査システムは、原子炉1内の構造物の目視検査に用いる水中検査装置9(水中移動体)と、ケーブル10を介して水中検査装置9に接続された制御装置11と、この制御装置11に接続され、水中検査装置9のカメラ画像を表示するとともに水中検査装置9の位置や姿勢等を表示する表示装置12と、制御装置11に接続され、水中検査装置9を操作可能な操作装置13を備えている。原子炉1内の構造物の目視検査作業を行う場合、燃料交換装置8上の検査員14は、原子炉1内に水中検査装置9を投入し、この水中検査装置9の位置や姿勢を表示装置12で確認しつつ、操作装置13を操作する。   The in-reactor inspection system of the present embodiment includes an underwater inspection device 9 (underwater moving body) used for visual inspection of structures in the reactor 1 and a control device connected to the underwater inspection device 9 via a cable 10. 11, connected to the control device 11, displays a camera image of the underwater inspection device 9, and displays the position, posture, etc. of the underwater inspection device 9, and is connected to the control device 11, and is connected to the underwater inspection device 9. The operation device 13 is provided. When performing a visual inspection of the structure in the nuclear reactor 1, the inspector 14 on the fuel changer 8 puts the underwater inspection device 9 into the nuclear reactor 1 and displays the position and orientation of the underwater inspection device 9. While confirming with the device 12, the operating device 13 is operated.

図2は本発明の実施の形態に係る水中検査装置9の概略図である。   FIG. 2 is a schematic view of the underwater inspection apparatus 9 according to the embodiment of the present invention.

この図において、水中検査装置9は、本体の前面側(図2中左側)に設けられ原子炉1内の構造物等を撮像するカメラ15と、カメラ15の画像を電子情報化する画像取込部16を備えている。また、水中検査装置9は、本体の上面側(図2中上側)、後面側(図2中右側)、及び左側面側(図2中紙面に向かって手前側)にそれぞれ設けられた3つのスラスタ(推進機構)17を備えている。3つのスラスタ17は、それぞれ、スクリューと、スクリューを正回転又は逆回転に駆動するモータ(図示せず)で構成されている。スラスタ17は、水中検査装置9に対して上下方向(図2中上下方向)の推力、前後方向(図2中左右方向)の推力、及び左右方向(図2中紙面に対し垂直方向)の推力をそれぞれ付与する。すなわち、このスラスタ17により、水中検査装置9は水で満たされた3次元空間を自在に移動可能となっている。なお、以降、水中検査装置9の座標系は、本体における垂直下向き(検査装置9の高さ方向下向き)がZ軸正方向である右手座標系を定義して説明する。具体的には、本体の右方向(図2中紙面に向かって奥方向)がX軸正方向、前方向(図2中左方向)がY軸正方向、下方向(図2中下方向)がZ軸正方向となっており、X軸及びY軸はZ軸と直交しかつ互いに直交している。   In this figure, an underwater inspection device 9 is provided on the front side of the main body (left side in FIG. 2), and captures an image of a structure or the like in the nuclear reactor 1, and an image capture for converting the image of the camera 15 into electronic information. A portion 16 is provided. In addition, the underwater inspection device 9 has three main bodies provided on the upper surface side (upper side in FIG. 2), rear surface side (right side in FIG. 2), and left side surface (front side in FIG. 2). A thruster (propulsion mechanism) 17 is provided. Each of the three thrusters 17 includes a screw and a motor (not shown) that drives the screw to rotate forward or backward. The thruster 17 has a thrust in the vertical direction (up and down direction in FIG. 2), a thrust in the front and rear direction (left and right direction in FIG. 2), and a thrust in the left and right direction (perpendicular to the paper surface in FIG. 2). Are given respectively. That is, the thruster 17 enables the underwater inspection apparatus 9 to freely move in a three-dimensional space filled with water. Hereinafter, the coordinate system of the underwater inspection apparatus 9 will be described by defining a right-handed coordinate system in which the vertical downward direction (downward in the height direction of the inspection apparatus 9) in the main body is the Z axis positive direction. Specifically, the right direction of the main body (backward direction toward the paper surface in FIG. 2) is the X axis positive direction, the front direction (left direction in FIG. 2) is the Y axis positive direction, and the down direction (down direction in FIG. 2). Is the positive direction of the Z axis, and the X axis and the Y axis are orthogonal to the Z axis and orthogonal to each other.

水中検査装置9は、水中検査装置9に作用する水圧を検出する圧力センサ(垂直位置検出器)18と、原子炉1内における水中検査装置9の姿勢(姿勢角)を検出するための慣性センサ部(姿勢角検出器)19と、本体下部(底面)に取り付けられたレンジセンサユニット(相対距離検出器)23を備えている。   The underwater inspection apparatus 9 includes a pressure sensor (vertical position detector) 18 that detects water pressure acting on the underwater inspection apparatus 9 and an inertial sensor for detecting the attitude (attitude angle) of the underwater inspection apparatus 9 in the nuclear reactor 1. And a range sensor unit (relative distance detector) 23 attached to the lower part (bottom surface) of the main body.

圧力センサ18で検出された圧力は、原子炉1内における水中検査装置9の垂直位置(深度)の検出に用いられる。また、慣性センサ部19は、X軸、Y軸、及びZ軸周りの角速度をそれぞれ検出する3軸ジャイロ(角速度検出器)20と、X軸及びY軸周りの角度(傾斜角)を検出する傾斜計(傾斜角検出器)21と、Z軸周りの角度(方位角)を検出する地磁気センサ(方位角検出器)22を有しており、これらの検出値は水中検査装置9の姿勢角の検出に用いられる。   The pressure detected by the pressure sensor 18 is used to detect the vertical position (depth) of the underwater inspection apparatus 9 in the nuclear reactor 1. The inertial sensor unit 19 detects a three-axis gyro (angular velocity detector) 20 that detects angular velocities around the X, Y, and Z axes, and an angle (tilt angle) around the X and Y axes. It has an inclinometer (tilt angle detector) 21 and a geomagnetic sensor (azimuth angle detector) 22 that detects an angle (azimuth angle) around the Z axis, and these detected values are the attitude angles of the underwater inspection apparatus 9. Used for detection.

図3はレンジセンサユニット23の概略構造を表す水平断面図であり、図4は図3中の断面IV−IVにおける断面図(垂直断面図)である。   3 is a horizontal sectional view showing a schematic structure of the range sensor unit 23, and FIG. 4 is a sectional view (vertical sectional view) taken along a section IV-IV in FIG.

レンジセンサユニット23は、水で満たされた3次元空間で水中検査装置9の位置に応じて定められる水平面上において、水中検査装置9から当該水中検査装置9の周囲に存在する構造物までの相対距離を検出するものである。レンジセンサユニット23のケーシング25内には、水中検査装置9の前方側及び後方側に配置された合計2つの走査型のレーザセンサ(レーザレンジファインダ)24a,24bが収納されている。なお、本稿における「水平面」とは、完全な水平面のみを示すだけでなく、誤差等も含んだ実質的に水平な面を意味するものとする。   The range sensor unit 23 is relative to the structure existing around the underwater inspection apparatus 9 from the underwater inspection apparatus 9 on a horizontal plane determined according to the position of the underwater inspection apparatus 9 in a three-dimensional space filled with water. The distance is detected. In the casing 25 of the range sensor unit 23, a total of two scanning laser sensors (laser range finders) 24a and 24b arranged in the front side and the rear side of the underwater inspection apparatus 9 are housed. In this paper, “horizontal plane” means not only a complete horizontal plane but also a substantially horizontal plane including errors.

ケーシング25の材質は、レーザセンサ24a,24bから投光されるレーザが透過可能なものであれば良く、例えば、ポリエチレンテレフタレートやポリプロピレン等の透光性を有する樹脂がある。   The casing 25 may be made of any material as long as it can transmit the laser light emitted from the laser sensors 24a and 24b. Examples thereof include a resin having translucency such as polyethylene terephthalate and polypropylene.

レーザセンサ24a,24bは、それぞれ、レーザを投光する投光部26と、投光したレーザを受光する受光部27を有している。投光部26は、走査装置(図示せず)によってZ軸周りに回転されて、同一平面上(ここでは水平面上となる)にレーザを走査する。投光部26より投光及び走査されたレーザは周囲の構造物等に反射して受光部27で受光される。本実施の形態では、レーザの投光時刻からその反射光の受光時刻までのレーザ飛行時間に基づいて周囲の構造物までの相対距離を測定している。このように測定した相対距離は、測定画像算出部36(後述)における測定画像の算出に主に用いられる。   Each of the laser sensors 24a and 24b includes a light projecting unit 26 that projects a laser and a light receiving unit 27 that receives the projected laser. The light projecting unit 26 is rotated around the Z axis by a scanning device (not shown), and scans the laser on the same plane (here, on the horizontal plane). The laser light projected and scanned by the light projecting unit 26 is reflected by surrounding structures and received by the light receiving unit 27. In this embodiment, the relative distance to the surrounding structure is measured based on the laser flight time from the laser projection time to the reflected light reception time. The relative distance measured in this way is mainly used for measurement image calculation in a measurement image calculation unit 36 (described later).

ところで、本実施の形態のレーザセンサ24a,24bでは、投光部26と受光部27が分離されており、レーザセンサ24a,24bには投光部26側と受光部27側を区画する略U字状の遮光板26がそれぞれ設けられている。遮光板26は、投光部26からのレーザ光の一部がケーシング25の内表面で反射して生じる反射光が受光部27で受光されるのを防ぐためのものである。   By the way, in the laser sensors 24a and 24b of the present embodiment, the light projecting unit 26 and the light receiving unit 27 are separated, and the laser sensors 24a and 24b are substantially U that partition the light projecting unit 26 side and the light receiving unit 27 side. A letter-shaped light shielding plate 26 is provided. The light shielding plate 26 is used to prevent the light receiving unit 27 from receiving the reflected light generated by reflecting a part of the laser light from the light projecting unit 26 on the inner surface of the casing 25.

なお、図4に示すように、ケーシング25の前方側側面部は、その水平断面がレーザセンサ24aを中心とした円弧状になるように形成することが好ましく、また、ケーシング25の後方側側面部は、その水平断面がレーザセンサ24bを中心とした円弧状になるように形成することが好ましい。このようにケーシング25を形成すると、投光部26からのレーザ光が直交して出射するとともに、受光部27で受光する反射光が直交して入射するので、ケーシング25への出入射に伴うレーザ光の強度低下を抑制することができるからである。また、レーザセンサ24a,24bの構造は例えば特開2006−349449号公報に詳しい。   As shown in FIG. 4, the front side surface portion of the casing 25 is preferably formed so that the horizontal cross section thereof has an arc shape with the laser sensor 24 a as the center, and the rear side surface portion of the casing 25. Is preferably formed so that its horizontal cross section has an arc shape centered on the laser sensor 24b. When the casing 25 is formed in this way, the laser light from the light projecting unit 26 is emitted orthogonally and the reflected light received by the light receiving unit 27 is incident orthogonally. This is because a decrease in light intensity can be suppressed. The structure of the laser sensors 24a and 24b is detailed in, for example, Japanese Patent Application Laid-Open No. 2006-349449.

図5はレンジセンサユニット23の測定動作の説明図である。この図に示すように、本実施の形態におけるレンジセンサユニット23では、レーザセンサ24aは、水中検査装置9の前方側範囲となる走査角度θa(1)〜θa(n)の範囲(例えば−30°〜210°程度の範囲)でレーザ光を走査するとともにその反射光を受光して、構造物Aとの相対距離M(1)〜M(n)をそれぞれ検出する。   FIG. 5 is an explanatory diagram of the measurement operation of the range sensor unit 23. As shown in this figure, in the range sensor unit 23 in the present embodiment, the laser sensor 24a has a scanning angle range θa (1) to θa (n) that is a front side range of the underwater inspection apparatus 9 (for example, −30). The laser beam is scanned in the range of about ˜210 ° and the reflected light is received to detect the relative distances M (1) to M (n) with the structure A, respectively.

また、レーザセンサ24bは、水中検査装置9の後方側範囲となる走査角度θb(1)〜θb(n)の範囲(例えば150°〜390°程度の範囲)でレーザ光を走査するとともにその反射光を受光して、構造物Aとの相対距離M(n+1)〜M(2n)をそれぞれ検出する。これにより、レーザセンサ24a,24bが位置する平面上における水中検査装置9とその周囲の構造物との相対距離を検出することができる。   Further, the laser sensor 24b scans the laser beam in the range of the scanning angles θb (1) to θb (n) (for example, a range of about 150 ° to 390 °) that is the rear side range of the underwater inspection apparatus 9 and reflects the reflected light. Receiving light, relative distances M (n + 1) to M (2n) with the structure A are detected. Thereby, it is possible to detect the relative distance between the underwater inspection apparatus 9 and the surrounding structure on the plane on which the laser sensors 24a and 24b are located.

図2に戻り、水中検査装置9には信号伝送部29が設けられている。そして、信号伝送部29及びケーブル10を介して、圧力センサ18、慣性センサ部19(3軸ジャイロ20、傾斜計21、地磁気センサ22)、及びレンジセンサユニット23(レーザセンサ24a,24b)からの検出信号並びに画像取込部16からの画像信号が制御装置11に出力されている。そして、制御装置11は、前述した検出信号等に基づいて水中検査装置9の位置や姿勢を算出し、この算出した水中検査装置9の位置や姿勢を表示装置12に出力して表示している。また、制御装置11は、前述した画像信号を表示装置12に出力して、カメラ15の画像を表示している(後の図13で詳述)。また、制御装置11は、操作装置13からの操作信号に応じてスラスタ17を駆動制御する制御信号を生成し、この生成した制御信号をケーブル10及び信号伝送部29を介してスラスタ17に出力している。   Returning to FIG. 2, the underwater inspection apparatus 9 is provided with a signal transmission unit 29. Then, via the signal transmission unit 29 and the cable 10, the pressure sensor 18, the inertial sensor unit 19 (3-axis gyro 20, inclinometer 21, geomagnetic sensor 22), and the range sensor unit 23 (laser sensors 24a and 24b). The detection signal and the image signal from the image capturing unit 16 are output to the control device 11. And the control apparatus 11 calculates the position and attitude | position of the underwater inspection apparatus 9 based on the detection signal etc. which were mentioned above, and outputs and displays the calculated position and attitude | position of the underwater inspection apparatus 9 on the display apparatus 12. . Further, the control device 11 outputs the above-described image signal to the display device 12 to display the image of the camera 15 (detailed in FIG. 13 later). Further, the control device 11 generates a control signal for driving and controlling the thruster 17 according to the operation signal from the operation device 13, and outputs the generated control signal to the thruster 17 via the cable 10 and the signal transmission unit 29. ing.

圧力センサ18は、水中検査装置9の底面から外部に露出したセンサ部(図示せず)を有しており、当該センサ部に作用する水圧を検出することで圧力を検出している。なお、圧力センサ18の設置の有無は、センサ部を外部から視認することで容易に確認できる。   The pressure sensor 18 has a sensor part (not shown) exposed to the outside from the bottom surface of the underwater inspection device 9, and detects the pressure by detecting the water pressure acting on the sensor part. The presence or absence of the pressure sensor 18 can be easily confirmed by visually recognizing the sensor unit from the outside.

制御装置11は、コンピュータであり、ハードウェアとして、各種プログラムを実行するための演算手段としての演算処理装置(例えば、CPU)と、当該プログラムをはじめ各種データを記憶するための記憶手段としての記憶装置(例えば、ROM、RAMおよびフラッシュメモリ等の半導体メモリや、ハードディスクドライブ等の磁気記憶装置)と、各装置と水中検査装置9に係る各センサ等へのデータ及び指示等の入出力制御を行うための入出力演算処理装置を備えている(いずれも図示せず)。   The control device 11 is a computer, as hardware, an arithmetic processing device (for example, a CPU) as arithmetic means for executing various programs, and a storage as storage means for storing various data including the programs. Performs input / output control of data and instructions to devices (for example, semiconductor memories such as ROM, RAM and flash memory, and magnetic storage devices such as hard disk drives) and sensors associated with each device and underwater inspection device 9 Input / output arithmetic processing unit (none of which is shown).

次に、制御装置11の位置・姿勢算出機能について説明する。図6は制御装置11の機能ブロック図である。   Next, the position / attitude calculation function of the control device 11 will be described. FIG. 6 is a functional block diagram of the control device 11.

この図に示すように、制御装置11は、3軸ジャイロ20の角速度信号に基づきX軸、Y軸、及びZ軸周りの角速度をそれぞれ算出する角速度算出部30と、傾斜計21の角度信号に基づきX軸及びY軸周りの傾斜角をそれぞれ算出するとともに、地磁気センサ22の角度信号に基づきZ軸周りの方位角を算出する角度算出部31と、これら算出された角速度、傾斜角、及び方位角に基づき水中検査装置9の姿勢角(3軸周りの姿勢角)を算出する姿勢角算出部32として機能する。また、圧力センサ18の圧力信号に基づき水中における水中検査装置9の深度、すなわち垂直位置を算出する垂直位置算出部33としても機能する。   As shown in this figure, the control device 11 uses an angular velocity calculation unit 30 that calculates angular velocities around the X axis, the Y axis, and the Z axis based on the angular velocity signal of the triaxial gyro 20 and the angle signal of the inclinometer 21. An angle calculation unit 31 that calculates an inclination angle around the X axis and the Y axis based on the angle signal of the geomagnetic sensor 22 based on the angle signal of the geomagnetic sensor 22 based on the angle signal, an angle velocity, an inclination angle, and an azimuth It functions as a posture angle calculation unit 32 that calculates a posture angle (posture angle around three axes) of the underwater inspection apparatus 9 based on the angle. Further, it also functions as a vertical position calculation unit 33 that calculates the depth of the underwater inspection apparatus 9 in water, that is, the vertical position, based on the pressure signal of the pressure sensor 18.

また、制御装置11は、測定画像算出部36と、画像記憶部34と、画像選択部35と、画像修正部42と、対応部分特定部37と、水平位置算出部38と、位置・姿勢記憶部80として機能する。   Further, the control device 11 includes a measurement image calculation unit 36, an image storage unit 34, an image selection unit 35, an image correction unit 42, a corresponding part specifying unit 37, a horizontal position calculation unit 38, and a position / posture storage. The unit 80 functions.

測定画像算出部36は、レンジセンサユニット23で検出された水中検査装置9と構造物との相対距離に基づいて、その相対距離を検出した水平面(以下において「スキャン平面」と称することがある)における構造物の外形の画像データ(測定画像)を算出・作成する処理(ビットマップ化処理)を行う部分である。   The measurement image calculation unit 36 detects the relative distance based on the relative distance between the underwater inspection apparatus 9 and the structure detected by the range sensor unit 23 (hereinafter sometimes referred to as “scan plane”). This is a part for performing processing (bitmap processing) for calculating / creating image data (measurement image) of the outer shape of the structure.

本実施の形態における測定画像算出部36は、検出した相対距離を画像に変換する際に、距離[mm]を画素値[pixel]に変換する係数Kを使用してビットマップ化処理を行っている。このビットマップ化処理によって得られた画像は、複数の点(画素)の集合で表されており、原子炉1内の構造物をスキャン平面で切断したときの外形の一部を表すことになる。なお、本実施の形態では係数Kの値として、測定画像が一定のサイズ(例えば、640x480[pixel])のビットマップ画像となる値が採用されている。   When converting the detected relative distance into an image, the measurement image calculation unit 36 in the present embodiment performs bitmap processing using a coefficient K that converts the distance [mm] into the pixel value [pixel]. Yes. The image obtained by this bitmap processing is represented by a set of a plurality of points (pixels), and represents a part of the outer shape when the structure in the nuclear reactor 1 is cut along the scan plane. . In the present embodiment, as the value of the coefficient K, a value that makes the measurement image a bitmap image of a certain size (for example, 640 × 480 [pixel]) is employed.

画像記憶部34は、原子炉1およびその内部の構造物の設計情報に基づいて作成される複数の画像データであって、原子炉1内(3次元空間)で垂直位置の異なる複数の水平面における構造物の外形の画像データ(記憶画像)が記憶されている部分であり、制御装置11に係る記憶装置内の所定の領域に確保されている。   The image storage unit 34 is a plurality of image data created based on the design information of the nuclear reactor 1 and the structures inside the nuclear reactor 1, and in a plurality of horizontal planes having different vertical positions in the nuclear reactor 1 (three-dimensional space). This is a part in which image data (stored image) of the outer shape of the structure is stored, and is secured in a predetermined area in the storage device related to the control device 11.

本実施の形態に係る画像記憶部34に記憶されている各記憶画像は、垂直位置の異なる複数の水平面で原子炉1内の構造物を切断したときの当該構造物の外形を表しており、各記憶画像には、それぞれの切断位置を示す情報である原子炉1内における垂直位置情報が付与されている。なお、本記憶画像は、構造物の表面形状、すなわち構造物内部に存在する構造物の外形情報を削除したものである。   Each stored image stored in the image storage unit 34 according to the present embodiment represents an outer shape of the structure when the structure in the nuclear reactor 1 is cut by a plurality of horizontal planes having different vertical positions. Each stored image is given vertical position information in the nuclear reactor 1 which is information indicating the respective cutting positions. This stored image is obtained by deleting the surface shape of the structure, that is, the outline information of the structure existing inside the structure.

また、画像記憶部34に記憶された各記憶画像を構成する画素の少なくとも1つには、原子炉1内の3次元空間に対応する水平位置情報が付されており(以下、この水平位置情報が付された画素を「基準画素」と称することがある)、各記憶画像は原子炉1内における水平位置の地図として機能している。なお、水平位置の算出精度を向上させる観点からは、記憶画像の画像サイズは大きいほど好ましい。画像サイズを大きくするほど各画素に付与する水平位置情報の精度を向上させることができるからである。   Further, at least one of the pixels constituting each stored image stored in the image storage unit 34 is attached with horizontal position information corresponding to the three-dimensional space in the nuclear reactor 1 (hereinafter, this horizontal position information). Each of the stored images functions as a map of the horizontal position in the nuclear reactor 1. From the viewpoint of improving the calculation accuracy of the horizontal position, it is preferable that the stored image has a larger image size. This is because the accuracy of the horizontal position information given to each pixel can be improved as the image size is increased.

画像選択部35は、測定画像算出部36によって測定画像を得たときの水中検査装置9の垂直位置や、測定画像と画像記憶部34内の複数の記憶画像とのマッチング率等に基づいて、画像記憶部34に記憶された複数の記憶画像の中から水中検査装置9の位置算出に利用する記憶画像を最終的に1枚選択する処理を実行する部分である。   The image selection unit 35 is based on the vertical position of the underwater inspection device 9 when the measurement image is obtained by the measurement image calculation unit 36, the matching rate between the measurement image and a plurality of stored images in the image storage unit 34, and the like. This is a part for executing a process of finally selecting one stored image to be used for position calculation of the underwater inspection apparatus 9 from among a plurality of stored images stored in the image storage unit 34.

本実施の形態の画像選択部35は、圧力センサ18で検出された水中検査装置9の垂直位置に基づいて、画像記憶部34に記憶された複数の記憶画像の中からレンジセンサユニット23が相対距離を検出した水平面に対応する記憶画像を選択している。具体的には、画像選択部35は、垂直位置算出部33で算出された垂直位置と一致する垂直位置情報を有する記憶画像(一致するものが無い場合には垂直位置が最も近い画像)を選択画像として選択する。   In the image selection unit 35 of the present embodiment, based on the vertical position of the underwater inspection apparatus 9 detected by the pressure sensor 18, the range sensor unit 23 is relative from among the plurality of stored images stored in the image storage unit 34. A stored image corresponding to the horizontal plane from which the distance is detected is selected. Specifically, the image selection unit 35 selects a stored image having vertical position information that matches the vertical position calculated by the vertical position calculation unit 33 (the image having the closest vertical position when there is no match). Select as an image.

また、この選択画像の選択方法に追加・代替して行われる他の選択方法としては、水中検査装置9の垂直位置に近い垂直位置情報を有する記憶画像を所定の枚数だけ抽出し、その抽出した記憶画像のそれぞれと測定画像に対して画像相関処理によるマップマッチングを実行し、当該複数の記憶画像の中からマッチング率の高いものを1枚選択し、最終的にその1枚を選択画像とするものがある。   Further, as another selection method performed in addition to or in place of the selection method of the selected image, a predetermined number of stored images having vertical position information close to the vertical position of the underwater inspection device 9 are extracted and extracted. Map matching by image correlation processing is executed for each of the stored images and the measured image, and one image having a high matching rate is selected from the plurality of stored images, and finally that one image is selected. There is something.

また、上記の選択方法に追加・代替して行われる更に他の方法としては、初回の選択のみ水中検査装置9の位置(主に垂直方向位置)から最適な画像を選択し、その後の水平位置算出処理には、対応部分特定部37で算出されるマッチング率が選択画像の再選択が不要なことを示す閾値M2未満に到達したときに、マッチング率がM2以上に到達する他の記憶画像を改めて選択する方法がある。このマッチング率がM2以上の他の画像を改めて選択する場合の具体的手段としては、まず、現在の選択画像(マッチング率がM2未満のもの)に垂直方向情報が近い数枚の記憶画像であって、水中検査装置9の移動可能範囲内にあるものを再選択の候補として挙げ、次に、その候補に挙げた複数の記憶画像と測定画像とのマッチング率をそれぞれ算出し、最もマッチング率の高い記憶画像を選択画像として選択する方法がある。このように選択画像を選択すれば、常にマッチング率が一定値以上の記憶画像を用いることができるので、水中検査装置9の水平位置算出処理の精度を向上することができる。   Further, as another method performed in addition to or in place of the above selection method, an optimal image is selected from the position of the underwater inspection device 9 (mainly the vertical position) only for the first selection, and the horizontal position thereafter. In the calculation process, when the matching rate calculated by the corresponding portion specifying unit 37 reaches less than the threshold value M2 indicating that reselection of the selected image is unnecessary, other stored images whose matching rate reaches M2 or more are stored. There is a way to select again. As specific means for selecting another image with a matching rate of M2 or higher, first, there are several stored images whose vertical direction information is close to the current selected image (with a matching rate of less than M2). Then, those within the movable range of the underwater inspection device 9 are listed as candidates for reselection, and then the matching rates of the plurality of stored images and measurement images listed as candidates are respectively calculated, There is a method of selecting a high stored image as a selected image. If the selected image is selected in this way, a stored image having a matching rate equal to or greater than a certain value can be used at all times, so that the accuracy of the horizontal position calculation process of the underwater inspection apparatus 9 can be improved.

画像修正部42は、画像選択部35で選択された選択画像(記憶画像)と、測定画像算出部(画像取得部)36で取得された測定画像とをそれぞれ簡略化することで修正する処理を行う部分であり、画像選択部35から出力される選択画像の修正を行う選択画像修正部42aと、測定画像算出部36から出力される測定画像の修正を行う測定画像修正部42bを備えている。   The image correction unit 42 corrects the selection image (stored image) selected by the image selection unit 35 and the measurement image acquired by the measurement image calculation unit (image acquisition unit) 36 by simplifying each. A selection image correction unit 42a that corrects the selection image output from the image selection unit 35 and a measurement image correction unit 42b that corrects the measurement image output from the measurement image calculation unit 36. .

画像修正部42によって行われる画像修正処理は、対応部分特定部37による測定画像と選択画像のマッチング率の向上に寄与する。例えば、修正前の測定画像には、設計情報に存在する構造物の他にも、設計情報に無い構造物の外形や、計測誤差による構造物以外のデータ(画素)等が含まれる。そのため、設計情報に無い構造物の外形や計測誤差による構造物以外のデータを測定画像から削除したものを新たな測定画像(修正後の測定画像)とする。一方、選択画像については、修正前の選択画像から所定の大きさ未満の細かい構造物の外形や主要構造物の内部に収納された構造物の外形を捨象する等することで主要構造物の外形のみを抽出し、当該選択画像を簡略化したものを新たな選択画像(修正後の選択画像)とする。   The image correction process performed by the image correction unit 42 contributes to the improvement of the matching rate between the measurement image and the selected image by the corresponding part specifying unit 37. For example, the measurement image before correction includes, in addition to the structure existing in the design information, the outer shape of the structure not included in the design information, data (pixels) other than the structure due to measurement errors, and the like. Therefore, a new measurement image (corrected measurement image) is obtained by deleting from the measurement image data other than the structure due to the outer shape of the structure and the measurement error that are not included in the design information. On the other hand, with regard to the selected image, the outer shape of the main structure is removed by discarding the outer shape of the fine structure less than a predetermined size or the outer shape of the structure housed inside the main structure from the selected image before correction. Only the selected image is extracted and the selected image is simplified as a new selected image (selected image after correction).

対応部分特定部37は、画像修正部42で修正された選択画像と測定画像とに対してマップマッチングを行うことで、当該選択画像上における当該測定画像に対応する部分を特定する部分である。すなわち、対応部分特定部37は、測定画像に表れた構造物の外形が選択画像に表れた構造物の外形のどの部分に対応するかを探索する。測定画像と選択画像の一致(対応)の程度はマッチング率で表される。画像修正部42で画像修正処理を施した選択画像と測定画像をマッチングさせると、両者のマッチング率が向上する(測定画像と選択画像の更新方法は、図12において詳述する)。   The corresponding part specifying unit 37 is a part that specifies a part corresponding to the measurement image on the selected image by performing map matching on the selected image corrected by the image correcting unit 42 and the measurement image. That is, the corresponding part specifying unit 37 searches for which part of the outer shape of the structure that appears in the measurement image corresponds to the outer shape of the structure that appears in the measurement image. The degree of coincidence (correspondence) between the measurement image and the selected image is represented by a matching rate. When the selected image subjected to the image correction processing by the image correcting unit 42 is matched with the measurement image, the matching rate of both is improved (a method for updating the measurement image and the selected image will be described in detail in FIG. 12).

水平位置算出部38は、対応部分特定部37で特定された選択画像上の部分において相対距離を検出した位置(すなわち、水中検査装置9の位置(正確にはレンジセンサユニット23の位置、さらに正確にはレーザセンサ24a,24bの位置だが、本稿ではこれらを同じ意味で利用する))に対応する画素を特定し、その特定した画素の位置と基準画素の位置から水中検査装置9の水平位置を算出する部分である。   The horizontal position calculation unit 38 detects the relative distance in the part on the selected image specified by the corresponding part specification unit 37 (that is, the position of the underwater inspection device 9 (more precisely, the position of the range sensor unit 23, more accurately Are the positions of the laser sensors 24a and 24b, but in this paper, these are used in the same meaning)), and the horizontal position of the underwater inspection device 9 is determined from the position of the specified pixel and the position of the reference pixel. This is the part to calculate.

ここにおける「相対距離を検出した位置」とは、図5からも明らかなように、測定画像の中心に位置し、水中検査装置9の水平位置を示す。したがって、選択画像において測定画像の中心が位置する画素の位置が分かれば、当該画素と基準画素の距離を求めることにより、水平検査装置9の水平位置を算出することができる。なお、このとき画素から距離データへの変換が必要な場合には、距離から画素値に変換する際に用いた定数Kの逆数(すなわち、1/K)を画素値に乗じれば良い。   Here, the “position where the relative distance is detected” indicates the horizontal position of the underwater inspection apparatus 9 located at the center of the measurement image, as is apparent from FIG. Therefore, if the position of the pixel where the center of the measurement image is located in the selected image is known, the horizontal position of the horizontal inspection device 9 can be calculated by obtaining the distance between the pixel and the reference pixel. If conversion from pixel to distance data is necessary at this time, the pixel value may be multiplied by the reciprocal of the constant K (that is, 1 / K) used when converting from the distance to the pixel value.

位置・姿勢記憶部80は、上記のように垂直位置算出部33、水平位置算出部37、及び姿勢角算出部32で演算された水中検査装置9の垂直位置、水平位置、及び姿勢角を記憶する部分である。位置・姿勢記憶部80に記憶された垂直位置、水平位置、及び姿勢角は、水中検査装置9の垂直位置、水平位置、及び姿勢角として表示装置12に送信され、画像取込部16で電子情報化された目視検査用のカメラ15の映像とともに表示される。   The position / posture storage unit 80 stores the vertical position, horizontal position, and posture angle of the underwater inspection apparatus 9 calculated by the vertical position calculation unit 33, the horizontal position calculation unit 37, and the posture angle calculation unit 32 as described above. It is a part to do. The vertical position, horizontal position, and posture angle stored in the position / posture storage unit 80 are transmitted to the display device 12 as the vertical position, horizontal position, and posture angle of the underwater inspection device 9, and the image capturing unit 16 performs electronic It is displayed together with the computerized image of the visual inspection camera 15.

次に上記のように構成される制御装置11で行われる制御処理内容について説明する。図7は制御装置11の位置・姿勢算出機能に係わる制御処理内容を表すPAD図である。   Next, the contents of control processing performed by the control device 11 configured as described above will be described. FIG. 7 is a PAD diagram showing the contents of control processing related to the position / posture calculation function of the control device 11.

この図において、まずステップ39で水中検査装置9の初期位置・初期姿勢角が入力されて位置・姿勢記憶部38に記憶される。そして、ステップ40に進んで水中検査装置9の操作開始とともにその位置・姿勢算出処理に移る。この位置・姿勢算出処理において、姿勢角算出処理(ステップ41)と、垂直位置算出処理(ステップ42)と、測定画像算出処理(ステップ43)と、水平位置算出処理(ステップ44)が順次繰り返し行われ、その都度ごとにステップ41,42,44で算出された姿勢角、垂直位置及び水平位置が位置・姿勢記憶部38に記憶される(ステップ45)。以下、各算出処理の詳細を説明する。   In this figure, first, at step 39, the initial position / initial posture angle of the underwater inspection apparatus 9 is inputted and stored in the position / posture storage unit 38. Then, the process proceeds to step 40 and the operation of the underwater inspection apparatus 9 is started and the position / posture calculation process is started. In this position / orientation calculation process, the attitude angle calculation process (step 41), the vertical position calculation process (step 42), the measurement image calculation process (step 43), and the horizontal position calculation process (step 44) are sequentially repeated. Each time, the posture angle, vertical position and horizontal position calculated in steps 41, 42 and 44 are stored in the position / posture storage unit 38 (step 45). Details of each calculation process will be described below.

(1)姿勢角算出処理
図8は図7に示すステップ41の姿勢角算出処理の詳細を表すPAD図である。
姿勢角算出処理において、角速度算出部30は、まず、3軸ジャイロ20の角速度信号を取り込み、角度算出部31は、傾斜計21及び地磁気センサ22の角度信号を取り込む(ステップ46)。
(1) Posture Angle Calculation Processing FIG. 8 is a PAD diagram showing details of the posture angle calculation processing in step 41 shown in FIG.
In the attitude angle calculation process, the angular velocity calculation unit 30 first captures the angular velocity signal of the triaxial gyro 20, and the angle calculation unit 31 captures the angle signals of the inclinometer 21 and the geomagnetic sensor 22 (step 46).

そして、ステップ47に進み、角速度算出部30は、3軸ジャイロ20の角速度信号から各軸(X軸、Y軸、Z軸)周りの角速度を算出する角速度算出処理に移る。本実施の形態の3軸ジャイロ20は、静電浮上型ジャイロであり、角速度に比例する増減値が基準電圧(一定の電圧値)に加えられた正の電圧値を出力する。そのため、まずステップ48において、3軸ジャイロ20の各軸(X軸、Y軸、Z軸)周りの信号に対し基準電圧を減じる基本処理を行う。ここで、基準電圧は、通常、3軸ジャイロ20の固有スペックとして示されているが、本実施の形態では、角速度信号が入力されないときの電圧値を予め計測して平均化したものを用いる。その後、ステップ49に進んで、電圧−角速度換算係数(3軸ジャイロ20の固有のスペックとして示される一定値)を乗じて各軸周りの角速度を算出する。   Then, the process proceeds to step 47, where the angular velocity calculation unit 30 proceeds to an angular velocity calculation process for calculating an angular velocity around each axis (X axis, Y axis, Z axis) from the angular velocity signal of the triaxial gyro 20. The three-axis gyro 20 of the present embodiment is an electrostatic levitation gyro, and outputs a positive voltage value in which an increase / decrease value proportional to the angular velocity is added to a reference voltage (a constant voltage value). Therefore, first, in step 48, basic processing for reducing the reference voltage is performed on the signals around each axis (X axis, Y axis, Z axis) of the triaxial gyro 20. Here, the reference voltage is usually shown as a specific specification of the three-axis gyro 20, but in the present embodiment, a voltage value measured in advance and averaged when no angular velocity signal is input is used. Thereafter, the process proceeds to step 49, where the angular velocity around each axis is calculated by multiplying by a voltage-angular velocity conversion coefficient (a constant value indicated as a specific specification of the three-axis gyro 20).

ステップ47の角速度算出処理が終了すると、ステップ50に進み、角度算出部31は、傾斜計21の角度信号から各軸(X軸、Y軸)周りの傾斜角を算出する傾斜角算出処理に移る。本実施の形態の傾斜計21は、封入された電解液の液面変化(X軸及びY軸周りの傾斜角)を電圧変化に変換して出力するものである。そのため、まずステップ51において、各軸(X軸、Y軸)周りの信号から基準電圧(傾斜計21の固有スペックとして示される一定の電圧値)を減じる基本処理を行う。その後、ステップ52に進んで、傾斜角換算係数(傾斜計21の固有スペックとして示される一定値)を乗じて各軸周りの傾斜角を算出する。   When the angular velocity calculation process of step 47 is completed, the process proceeds to step 50, where the angle calculation unit 31 proceeds to an inclination angle calculation process for calculating an inclination angle around each axis (X axis, Y axis) from the angle signal of the inclinometer 21. . The inclinometer 21 of the present embodiment converts a change in the liquid level of the enclosed electrolyte (inclination angles around the X axis and the Y axis) into a voltage change and outputs the voltage change. For this reason, first, in step 51, basic processing for subtracting a reference voltage (a constant voltage value indicated as a specific specification of the inclinometer 21) from signals around each axis (X axis, Y axis) is performed. Thereafter, the process proceeds to step 52, where the inclination angle around each axis is calculated by multiplying by the inclination angle conversion coefficient (a constant value indicated as the specific specification of the inclinometer 21).

ステップ50の傾斜角算出処理が終了すると、ステップ53に進み、角度算出部31は、地磁気センサ22の角度信号からZ軸周りの方位角を算出する方位角算出処理に移る。本実施の形態の地磁気センサ22は、X軸方向及びY軸方向に感度を有するホール素子で捉えた磁力を出力するものである。そのため、まずステップ54において、X軸及びY軸の地磁気信号から基準電圧を減じ、ゲインを乗じる基本処理を行う。ここで、基準電圧及びゲインは、地磁気センサ22を使用する環境により異なるため、予め使用する領域で測定したものを用いる。その後、ステップ55に進んで、基本処理したX軸及びY軸の信号Mx,Myを用い、下記の式(1)によりZ軸周りの方位角θmを算出する。   When the tilt angle calculation process of step 50 is completed, the process proceeds to step 53, and the angle calculation unit 31 proceeds to an azimuth angle calculation process for calculating an azimuth angle around the Z axis from the angle signal of the geomagnetic sensor 22. The geomagnetic sensor 22 of the present embodiment outputs a magnetic force captured by a Hall element having sensitivity in the X-axis direction and the Y-axis direction. For this reason, first, in step 54, basic processing for subtracting the reference voltage from the X-axis and Y-axis geomagnetic signals and multiplying by the gain is performed. Here, since the reference voltage and the gain differ depending on the environment in which the geomagnetic sensor 22 is used, those measured in advance in the region to be used are used. Thereafter, the process proceeds to step 55, and the azimuth angle θm around the Z axis is calculated by the following equation (1) using the fundamentally processed X-axis and Y-axis signals Mx and My.

Figure 0006230923
Figure 0006230923

ステップ53の方位角算出処理が終了すると、ステップ56に進み、姿勢角算出部32は、上述したX軸、Y軸、及びZ軸周りの角速度、X軸及びY軸周りの傾斜角、Z軸周りの方位角をカルマンフィルタ(この種のものとして公知のものであり、例えば上記特許文献1参照)に入力し、水中検査装置9の姿勢角(3軸周りの姿勢角)の最適値を推定する。その後、ステップ57に進んで、推定した水中検査装置9の姿勢角を位置・姿勢記憶部38に記憶する。このステップ57の手順が終了すると姿勢角算出処理が終了する。   When the azimuth calculation process of step 53 is completed, the process proceeds to step 56, where the attitude angle calculation unit 32 determines the angular velocities around the X, Y, and Z axes, the tilt angles about the X and Y axes, and the Z axis. The surrounding azimuth angle is input to a Kalman filter (known as this type, see, for example, Patent Document 1 above), and an optimum value of the posture angle (posture angle around three axes) of the underwater inspection apparatus 9 is estimated. . Thereafter, the process proceeds to step 57, and the estimated posture angle of the underwater inspection apparatus 9 is stored in the position / posture storage unit 38. When the procedure of step 57 ends, the posture angle calculation process ends.

(2)垂直位置算出処理
図9は図7に示すステップ42の垂直位置算出処理の詳細を表すPAD図である。
垂直位置算出処理において、垂直位置算出部33は、まず、下記の式(2)に基づいて圧力Pを算出する。すなわち、まず、ステップ58において圧力センサ18の圧力信号(検出電圧)を取り込む。そして、ステップ59に進んで、検出電圧Vpから基準電圧Vp_base(圧力センサ18の固有スペックとして示される一定の電圧値)を減じ、さらに圧力換算係数Kv_p(圧力センサ18の固有スペックとして示される一定値)を乗じて圧力Pを算出する。
(2) Vertical Position Calculation Processing FIG. 9 is a PAD diagram showing details of the vertical position calculation processing in step 42 shown in FIG.
In the vertical position calculation process, the vertical position calculation unit 33 first calculates the pressure P based on the following equation (2). That is, first, in step 58, the pressure signal (detection voltage) of the pressure sensor 18 is captured. Then, the process proceeds to step 59, where the reference voltage Vp_base (a constant voltage value indicated as a specific specification of the pressure sensor 18) is subtracted from the detection voltage Vp, and further a pressure conversion coefficient Kv_p (a constant value indicated as a specific specification of the pressure sensor 18). ) To calculate the pressure P.

Figure 0006230923
Figure 0006230923

次に、垂直位置算出部33は、ステップ60に進んで、算出した圧力Pと原子炉1内の冷却材の密度ρと重力加速度gとを用い、下記の式(3)により水中検査装置9の深度Hを算出する。そして、算出した深度Hに例えばオペレーションフロア7から水面までの距離Lw(図1参照)を加えて、水中検査装置9の垂直位置とする。   Next, the vertical position calculation unit 33 proceeds to step 60 and uses the calculated pressure P, the density ρ of the coolant in the reactor 1 and the gravitational acceleration g, and the underwater inspection device 9 according to the following equation (3). The depth H is calculated. Then, for example, a distance Lw (see FIG. 1) from the operation floor 7 to the water surface is added to the calculated depth H to obtain a vertical position of the underwater inspection apparatus 9.

Figure 0006230923
Figure 0006230923

その後、ステップ61に進んで、算出した水中検査装置9の垂直位置を位置・姿勢記憶部38に記憶する。このステップ61の手順が終了すると垂直位置算出処理が終了する。
ところで、以下に続く測定画像算出処理(ステップ43)と水平位置算出処理(ステップ44)では、その理解を容易にするために、水中検査装置9で中空直方体内を検査する場合を適宜参照しながら説明する。
Thereafter, the process proceeds to step 61, where the calculated vertical position of the underwater inspection device 9 is stored in the position / posture storage unit 38. When the procedure of step 61 ends, the vertical position calculation process ends.
By the way, in the measurement image calculation process (step 43) and the horizontal position calculation process (step 44) that follow, in order to facilitate understanding thereof, the case where the hollow rectangular parallelepiped is inspected by the underwater inspection apparatus 9 is referred to as appropriate. explain.

図10は制御装置11による測定画像算出処理、画像修正処理及び水平位置算出処理の説明図である。この図に示す水中検査装置9は、水で満たされた中空直方体90内に配置されている。中空直方体90の内部には3つの小型構造物(例えば配管)45が配置されている。水中検査装置9の水平位置は、スキャン平面Sにおける選択画像91と、当該選択画像91に画像修正処理を施して得られる選択画像91Rと、平面Sで検出された測定画像92と、当該測定画像92に画像修正処理を施して得られる測定画像92Rとに基づいて算出される。なお、選択画像91,91R及び測定画像92,92Rのサイズは640×480[pixel]であり、選択画像91,91Rの中心点をC91とし、測定画像92,92Rの中心点をC92とする。   FIG. 10 is an explanatory diagram of a measurement image calculation process, an image correction process, and a horizontal position calculation process performed by the control device 11. The underwater inspection apparatus 9 shown in this figure is disposed in a hollow rectangular parallelepiped 90 filled with water. Three small structures (for example, pipes) 45 are arranged inside the hollow rectangular parallelepiped 90. The horizontal position of the underwater inspection apparatus 9 includes a selection image 91 on the scan plane S, a selection image 91R obtained by subjecting the selection image 91 to image correction processing, a measurement image 92 detected on the plane S, and the measurement image. It is calculated based on the measurement image 92R obtained by subjecting the image 92 to image correction processing. The sizes of the selected images 91 and 91R and the measured images 92 and 92R are 640 × 480 [pixel], the center point of the selected images 91 and 91R is C91, and the center point of the measured images 92 and 92R is C92.

(3)測定画像算出処理(構造物形状算出処理)
図11は図7に示すステップ43の測定画像算出処理の詳細を表すPAD図である。
測定画像算出処理において、測定画像算出部36は、まず、レーザセンサ24a,24bの出力信号を取り込む(ステップ62)。本実施の形態におけるレンジセンサユニット23(レーザセンサ24a,24b)では図5で説明した方法で水平なスキャン平面(図10の例では面S)における構造物との相対距離が測定されており、レーザセンサ23a,23bからの出力信号には、レーザの走査角度θ(θa,θb)、及びそれぞれの走査角度ごとに算出される構造物までの距離Mが情報として含まれている。測定画像算出部36は、下記の式(4)を用いて、ステップ62で取り込んだ出力信号から、スキャン平面上において構造物の表面(外形)が位置する座標値L(xL,yL)を算出する(ステップ63)。
(3) Measurement image calculation process (structure shape calculation process)
FIG. 11 is a PAD showing details of the measurement image calculation process in step 43 shown in FIG.
In the measurement image calculation process, the measurement image calculation unit 36 first captures output signals from the laser sensors 24a and 24b (step 62). In the range sensor unit 23 (laser sensors 24a and 24b) in the present embodiment, the relative distance to the structure on the horizontal scan plane (surface S in the example of FIG. 10) is measured by the method described in FIG. The output signals from the laser sensors 23a and 23b include the laser scanning angle θ (θa, θb) and the distance M to the structure calculated for each scanning angle as information. The measurement image calculation unit 36 uses the following equation (4) to calculate the coordinate value L (xL, yL) at which the surface (outer shape) of the structure is located on the scan plane from the output signal captured in step 62. (Step 63).

Figure 0006230923
Figure 0006230923

次に、測定画像算出部36は、ステップ63で算出した各座標値xL,yLに係数Kを乗じ、その値を測定画像における構造物の表面を示す画素の座標値L’(KxL,KyL)とする(ステップ64)。すなわち、図10の例においてステップ64で得られた点P1の座標値が例えば(120,100)であった場合には、測定画像92の中心かつ水中検査装置9の中心の点C92からX軸の正方向へ120[pixel],Y軸の正方向へ100[pixel]進んだ位置が構造物の表面上の点P1の位置となる。そして、測定画像算出部36は、検出したすべての走査角度θについてステップ63,64の算出処理を行って測定画像92を得る。測定画像算出部36は、このように取得した測定画像92のデータを保存し(ステップ65)、測定画像算出処理を終了する。   Next, the measurement image calculation unit 36 multiplies each coordinate value xL, yL calculated in step 63 by a coefficient K, and uses the value as a coordinate value L ′ (KxL, KyL) of a pixel indicating the surface of the structure in the measurement image. (Step 64). That is, in the example of FIG. 10, when the coordinate value of the point P1 obtained in step 64 is (120, 100), for example, the X axis from the center C92 of the measurement image 92 and the center of the underwater inspection apparatus 9 The position advanced by 120 [pixel] in the positive direction and 100 [pixel] in the positive direction of the Y axis is the position of the point P1 on the surface of the structure. Then, the measurement image calculation unit 36 obtains the measurement image 92 by performing the calculation processing of steps 63 and 64 for all the detected scanning angles θ. The measurement image calculation unit 36 stores the data of the measurement image 92 acquired in this way (step 65), and ends the measurement image calculation process.

(4)水平位置算出処理
図12は図7に示すステップ44の水平位置算出処理の詳細を表すPAD図である。
(4) Horizontal Position Calculation Processing FIG. 12 is a PAD diagram showing details of the horizontal position calculation processing in step 44 shown in FIG.

水平位置算出処理が開始すると、画像修正部42は、ステップ43で算出された測定画像92を取り込む(ステップ66)。   When the horizontal position calculation process starts, the image correction unit 42 captures the measurement image 92 calculated in step 43 (step 66).

一方、画像選択部35は、ステップ42で得られた水中検査装置9の垂直位置に基づいて、画像記憶部34内に記憶されている複数の記憶画像の中から、水中検査装置9の水平位置を算出するために利用する画像(選択画像91)を選択する(ステップ67)。すなわち、図10の例ではスキャン平面Sの垂直位置情報を有する記憶画像が選択画像91として選択される。   On the other hand, the image selection unit 35 selects the horizontal position of the underwater inspection device 9 from the plurality of stored images stored in the image storage unit 34 based on the vertical position of the underwater inspection device 9 obtained in step 42. An image (selected image 91) to be used for calculating is selected (step 67). That is, in the example of FIG. 10, a stored image having the vertical position information of the scan plane S is selected as the selection image 91.

なお、ステップ67における選択画像の選択方法として、画像選択部35の説明箇所で触れた他の方法を利用しても良い。例えば、2回目以降の水平位置算出処理において水中検査装置9が垂直方向に移動することで選択画像と測定画像のマッチング率がM2未満に到達したときは、マッチング率がM2以上となる選択画像を改めて選択しても良い。   In addition, as a selection method of the selection image in step 67, you may utilize the other method touched in the description location of the image selection part 35. FIG. For example, in the second and subsequent horizontal position calculation processes, when the underwater inspection device 9 moves in the vertical direction and the matching rate between the selected image and the measurement image reaches less than M2, a selected image with a matching rate of M2 or more is selected. You may choose again.

次に、画像修正部42は、ステップ66で取り込んだ測定画像92と、ステップ67で選択した選択画像91とに対して、画像修正処理を行う(ステップ68)。   Next, the image correction unit 42 performs an image correction process on the measurement image 92 captured in Step 66 and the selected image 91 selected in Step 67 (Step 68).

ここで、ステップ68の測定画像92と選択画像91の修正処理について詳しく説明する。図13は画像修正部42a,42bの概略構成図である。この図に示すように画像修正部42a,42bは、それぞれ、膨張処理部142と、縮小処理部144と、クラスタリング処理部146と、クラスタ面積算出処理部148と、画像更新部150を備えている。   Here, the correction process of the measurement image 92 and the selection image 91 in step 68 will be described in detail. FIG. 13 is a schematic configuration diagram of the image correction units 42a and 42b. As shown in this figure, the image correction units 42a and 42b include an expansion processing unit 142, a reduction processing unit 144, a clustering processing unit 146, a cluster area calculation processing unit 148, and an image update unit 150, respectively. .

画像修正処理に際して、膨張処理部142は、まず、取り込んだ選択画像91と測定画像92に対し、構造物形状を示す各画素を拡大する膨張処理を実施する。そして、縮小処理部144は、膨張処理が施された各画像に対して縮小処理を実施する。一般的に「測定画像」における構造物形状は点列で描かれるため、当該点列を構成する画素間に間隔が形成されることが多いが、上記の膨張処理部142と縮小処理部144による一連の処理により、当該画素間の間隔が満たされ、画素が線状に連続した構造物形状画像が得られる。   In the image correction processing, the expansion processing unit 142 first performs expansion processing for enlarging each pixel indicating the structure shape on the selected image 91 and measurement image 92 that have been captured. Then, the reduction processing unit 144 performs a reduction process on each image on which the expansion process has been performed. In general, since the structure shape in the “measurement image” is drawn as a point sequence, an interval is often formed between the pixels constituting the point sequence. However, the expansion processing unit 142 and the reduction processing unit 144 described above are used. By a series of processes, the interval between the pixels is satisfied, and a structure shape image in which the pixels are linearly obtained is obtained.

次に、クラスタリング処理部146は、縮小処理が施された各画像に対してクラスタリング処理を実施し、各画像に含まれる構造物の形状(外形)を複数のクラスタに分類する。そして、クラスタ面積算出処理部148は、クラスタリング処理が実施された各画像に対して、各クラスタの面積を算出する処理を実施する。画像更新部150は、クラスタ面積算出処理で算出した各クラスタの面積を基に、所定の閾値A1以下の面積のクラスタは、画像測定時に発生したノイズである、または、主要構造物ではない、等と判断し、当該クラスタは画像中より削除する処理(画像更新処理)を実施する。   Next, the clustering processing unit 146 performs a clustering process on each image subjected to the reduction process, and classifies the shape (outer shape) of the structure included in each image into a plurality of clusters. Then, the cluster area calculation processing unit 148 performs processing for calculating the area of each cluster for each image on which clustering processing has been performed. Based on the area of each cluster calculated by the cluster area calculation process, the image update unit 150 has a cluster with an area equal to or smaller than a predetermined threshold A1 as noise generated during image measurement or is not a main structure. And the cluster is deleted from the image (image update process).

上記の一連の画像修正処理により、各画像91,92は、閾値A1を超える面積を有し所定の大きさ以上のクラスタのみが存在することになり、図10に示した画像91R,92Rのように簡略化される。具体的に説明すれば、図10の選択画像91には3つの小型構造物45が存在していたが、上記の一連の処理により修正後の選択画像91Rからは小型構造物45は削除されている。また、図10の測定画像92は間隔を介して配置される複数の点の集合で描かれていたが、上記の一連の処理により修正後の測定画像92Rでは構造物の形状は線状に繋がった点列で描かれている。さらに小型構造物45に係る画素は削除されており直方体90の壁面のみが残っている。また図10中に示されていないが、測定画像92の取得中に画素として記録されたノイズ等の構造物を示さない画素も削除できる。   As a result of the series of image correction processes described above, the images 91 and 92 each have only a cluster having an area exceeding the threshold value A1 and a predetermined size or larger, as in the images 91R and 92R illustrated in FIG. To be simplified. More specifically, although the three small structures 45 exist in the selection image 91 of FIG. 10, the small structures 45 are deleted from the corrected selection image 91R by the above-described series of processing. Yes. In addition, although the measurement image 92 in FIG. 10 is drawn as a set of a plurality of points arranged at intervals, the structure of the structure is linearly connected in the measurement image 92R after correction by the above-described series of processing. It is drawn with a sequence of dots. Further, the pixels related to the small structure 45 are deleted, and only the wall surface of the rectangular parallelepiped 90 remains. Although not shown in FIG. 10, pixels that do not show structures such as noise recorded as pixels during acquisition of the measurement image 92 can also be deleted.

次に、対応部分特定部37は、ステップ68で画像修正処理を施した測定画像92Rと選択画像91Rに対して画像相関処理によるマップマッチングを行い、選択画像91R上で測定画像92Rに対応する部分を特定する。換言すれば、修正後の測定画像92Rと選択画像91Rがどのように重ね合わさるかが特定される(ステップ69)。ステップ68の画像修正処理を施した選択画像91Rと測定画像92Rでは、各画像で細かい構造物の形状を示す画素や構造物と無関係の画素が省略されており、面積の比較的大きい構造物のみが残っているので、記憶画像の作成時に存在しなかった小さな構造物やゴミが存在していたり、測定画像にノイズが混じったりしても、選択画像と測定画像のマッチング率が低下することを防止でき、構造物の設計情報と測定情報が異なる環境下での水中移動体9の位置の検知精度を向上させることができる。   Next, the corresponding portion specifying unit 37 performs map matching by image correlation processing on the measurement image 92R and the selection image 91R that have been subjected to the image correction processing in Step 68, and a portion corresponding to the measurement image 92R on the selection image 91R. Is identified. In other words, how the corrected measurement image 92R and the selected image 91R are superimposed is specified (step 69). In the selected image 91R and the measurement image 92R that have been subjected to the image correction processing in step 68, pixels that indicate the shape of a fine structure and pixels that are not related to the structure are omitted in each image, and only structures that have a relatively large area. Therefore, even if there is a small structure or dust that did not exist at the time of creating the stored image, or noise is mixed in the measurement image, the matching rate between the selected image and the measurement image will decrease. This can prevent the detection accuracy of the position of the underwater moving body 9 in an environment where design information and measurement information of the structure are different.

ステップ69において対応部分が特定できたら、水平位置算出部38は、まず、レンジセンサユニット23を利用して水中検査装置9から構造物までの距離を検出した位置(すなわち、測定画像の中心位置であって、水中検査装置9の中心位置)が、選択画像上のどの画素に対応するかを特定する。そして、その特定した画素の位置と、選択画像において水平位置情報が判明している画素(例えば、基準画素)の位置とから、水中検査装置9の水平位置を算出する(ステップ70)。   If the corresponding part can be specified in step 69, the horizontal position calculation unit 38 first uses the range sensor unit 23 to detect the position from the underwater inspection apparatus 9 to the structure (that is, at the center position of the measurement image). Thus, it is specified which pixel on the selected image corresponds to the center position of the underwater inspection apparatus 9. Then, the horizontal position of the underwater inspection device 9 is calculated from the position of the specified pixel and the position of a pixel (for example, a reference pixel) whose horizontal position information is known in the selected image (step 70).

ステップ70を図10の例で説明すると、修正後の選択画像91Rと測定画像92Rとは図10の右下に示したマッチングイメージ93が示すように重なるので、選択画像91R上において測定画像92Rの中心点C92に対応する画素を容易に特定できる。そして、選択画像91Rの中心点C91の画素は中空直方体90の中心に対応する基準画素なので、中心点C91と中心点C92との画素上における距離(シフト量94)を算出し、そのシフト量94を中空直方体90における距離データに変換すれば、中心点C92の水平位置(すなわち、水中検査装置9の水平位置)を算出することができる。なお、シフト量94を距離データへ変換する際には、測定画像算出部36において距離を画素値に変換する際に用いた定数Kの逆数(すなわち、1/K)をシフト量94(ξ,η)に乗じて算出すれば良い。このように水中検査装置9の水平位置の算出が終了したら、その算出した水平位置を位置・姿勢記憶部80に記憶する(ステップ71)。   The step 70 will be described with reference to the example of FIG. 10. Since the corrected selected image 91R and the measured image 92R overlap as shown by the matching image 93 shown in the lower right of FIG. 10, the measured image 92R is displayed on the selected image 91R. The pixel corresponding to the center point C92 can be easily specified. Since the pixel at the center point C91 of the selected image 91R is a reference pixel corresponding to the center of the hollow rectangular parallelepiped 90, the distance (shift amount 94) on the pixel between the center point C91 and the center point C92 is calculated. Is converted into distance data in the hollow rectangular parallelepiped 90, the horizontal position of the center point C92 (that is, the horizontal position of the underwater inspection apparatus 9) can be calculated. When the shift amount 94 is converted into distance data, the reciprocal of the constant K (that is, 1 / K) used when the distance is converted into the pixel value in the measurement image calculation unit 36 is used as the shift amount 94 (ξ, (η) may be calculated. When the calculation of the horizontal position of the underwater inspection apparatus 9 is thus completed, the calculated horizontal position is stored in the position / posture storage unit 80 (step 71).

ステップ71が終了したら一連の水平位置算出処理を終了する。上記の姿勢角算出処理(ステップ41)、垂直位置算出処理(ステップ42)、測定画像算出処理(ステップ43)、及び水平位置算出処理(ステップ44)で算出された水中検査装置値9の位置及び姿勢は位置・姿勢記憶部80を介して表示装置12に出力される。   When step 71 ends, a series of horizontal position calculation processing ends. The position of the underwater inspection apparatus value 9 calculated in the posture angle calculation process (step 41), the vertical position calculation process (step 42), the measurement image calculation process (step 43), and the horizontal position calculation process (step 44) The posture is output to the display device 12 via the position / posture storage unit 80.

なお、上記において画像修正部42の画像更新部150に利用される閾値A1は、画像更新部150による処理がユーザーの所望する結果となるように適宜変更可能とする。そして、閾値A1の変更時には、変更後の閾値に基づく画像修正結果が閾値A1とともに表示装置の画面上に表示されるように構成することが好ましく(後の図16参照)、このように構成することでユーザーの所望する結果に短時間で到達できるようになる。   In the above description, the threshold value A1 used by the image update unit 150 of the image correction unit 42 can be changed as appropriate so that the processing by the image update unit 150 has a result desired by the user. When the threshold value A1 is changed, it is preferable that the image correction result based on the changed threshold value is displayed on the screen of the display device together with the threshold value A1 (see FIG. 16 later). Thus, the result desired by the user can be reached in a short time.

また、上記のクラスタ面積算出処理部148と画像更新部150は、各クラスタの面積を算出し、当該算出面積が閾値A1以下のクラスタを削除して各画像の修正を行ったが、各クラスタの図形が開いた形状で面積の算定が容易ではない場合等には、面積に代えて各クラスタの画素数を算出し、当該算出画素数が画素数用の閾値以下のクラスタを削除して各画像の修正を行っても良い。   In addition, the cluster area calculation processing unit 148 and the image update unit 150 described above calculate the area of each cluster, delete clusters whose calculated area is equal to or less than the threshold A1, and correct each image. If it is not easy to calculate the area because the figure is open, calculate the number of pixels in each cluster instead of the area, and delete the clusters whose calculated number of pixels is less than the threshold for the number of pixels. May be corrected.

また、本実施の形態では、2つの画像修正部42がそれぞれ膨張処理部142、縮小処理部144、クラスタリング処理部146、クラスタ面積算出処理部148および画像更新部150を備える場合について説明したが、一般的に「選択画像」は線状に連続した画素によって形成されることが多いため、選択画像修正部42aからは膨張処理部142と、縮小処理部144を省略しても構わない。   In the present embodiment, the case where the two image correction units 42 each include the expansion processing unit 142, the reduction processing unit 144, the clustering processing unit 146, the cluster area calculation processing unit 148, and the image update unit 150 has been described. In general, since the “selected image” is often formed by pixels that are linearly continuous, the expansion processing unit 142 and the reduction processing unit 144 may be omitted from the selected image correction unit 42a.

また、上記の実施の形態では、水平位置算出の都度、選択画像修正部42aで選択画像を修正する場合について説明したが、選択画像修正部42aが行う修正処理を画像記憶部34の全ての記憶画像に予め施しておいて、水平位置算出処理時における選択画像修正部42aによる画像修正処理を省略しても良い。この場合にはその都度行われる処理が減少するので、水平位置算出に要する時間を短縮できる。   In the above embodiment, the case where the selected image correcting unit 42a corrects the selected image every time the horizontal position is calculated has been described. However, the correction processing performed by the selected image correcting unit 42a is all stored in the image storage unit 34. An image correction process by the selected image correction unit 42a during the horizontal position calculation process may be omitted in advance for the image. In this case, since the processing performed each time is reduced, the time required for calculating the horizontal position can be shortened.

また、上記の実施の形態では、測定画像と選択画像の双方に画像修正処理を施してマッチングさせることで水中検査装置9の水平位置を算出する場合について説明したが、測定画像と選択画像のいずれか一方のみに画像修正処理を施して水平位置を算出しても良い。   In the above embodiment, the case where the horizontal position of the underwater inspection apparatus 9 is calculated by performing image correction processing and matching both the measurement image and the selection image has been described. Only one of them may be subjected to image correction processing to calculate the horizontal position.

図14は表示装置12の表示画面の一例を表す図である。この図に示す表示画面120は、位置座標表示部95と、水平位置画像表示部96と、カメラ映像表示部99を有している。   FIG. 14 is a diagram illustrating an example of a display screen of the display device 12. The display screen 120 shown in this figure has a position coordinate display unit 95, a horizontal position image display unit 96, and a camera video display unit 99.

位置座標表示部95には、制御装置11の位置・姿勢記憶部38から読み込んだ水中検査装置9の絶対位置が表示される。水平位置画像表示部96には、水中検査装置9が位置する垂直位置における原子炉1内の水平断面画像とともに水中検査装置9の水平位置を示すマーカ94が表示される。   The position coordinate display unit 95 displays the absolute position of the underwater inspection apparatus 9 read from the position / posture storage unit 38 of the control device 11. The horizontal position image display unit 96 displays a marker 94 indicating the horizontal position of the underwater inspection apparatus 9 together with the horizontal cross-sectional image in the nuclear reactor 1 at the vertical position where the underwater inspection apparatus 9 is located.

水平位置画像表示部96における原子炉1内の水平断面画像は、例えば、制御装置11における構造物データ記憶部(図示せず)に記憶されている原子炉1の形状データ(例えば、CADデータ)と、垂直位置算出部33で算出された水中検査装置9の垂直位置とを利用して描かれており、水中検査装置9の垂直方向の移動に追従して随時変化する。また、水平位置画像表示部96には、水中検査装置9の投入位置(初期位置)をマーカ97でマークする機能や、水中検査装置9の移動軌跡98を表示又は非表示する機能が具備されている。   The horizontal cross-sectional image in the nuclear reactor 1 in the horizontal position image display unit 96 is, for example, the shape data (for example, CAD data) of the nuclear reactor 1 stored in the structure data storage unit (not shown) in the control device 11. And the vertical position of the underwater inspection apparatus 9 calculated by the vertical position calculation unit 33, and changes as needed following the vertical movement of the underwater inspection apparatus 9. Further, the horizontal position image display unit 96 has a function of marking the insertion position (initial position) of the underwater inspection apparatus 9 with a marker 97 and a function of displaying or hiding the movement locus 98 of the underwater inspection apparatus 9. Yes.

カメラ映像表示部99は、水中検査装置9に搭載されたカメラ15の映像が表示される部分である。   The camera image display unit 99 is a portion where an image of the camera 15 mounted on the underwater inspection apparatus 9 is displayed.

なお、表示装置12は、図示しない他の表示画面に切り換えられるようになっており、位置・姿勢記憶部80から読み込んだ水中検査装置9の姿勢等も表示されるようになっている。このように構成された表示画面120によれば、検査員14は原子炉1内のどこに水中検査装置9があるかを視覚的に把握しながら検査することができる。   The display device 12 can be switched to another display screen (not shown), and the posture of the underwater inspection device 9 read from the position / posture storage unit 80 is also displayed. According to the display screen 120 configured in this way, the inspector 14 can inspect while visually grasping where the underwater inspection device 9 is in the nuclear reactor 1.

図15は表示装置12の他の表示画面の一例を表す図である。この図に示す表示画面130は、水中検査装置9による測定画像が表示される測定画像表示部110と、画像記憶部34の記憶画像または選択画像(すなわち、原子炉の設計情報に基づいて作成した当初の記憶画像)が表示される記憶画像表示部115を有している。表示部110と表示部115に表示する画像は、それぞれ、画像修正部42a,42bによる修正後の画像へ切替可能な構成であり、操作者が修正前と修正後の画像を任意に選択して表示可能である。   FIG. 15 is a diagram illustrating an example of another display screen of the display device 12. The display screen 130 shown in this figure is created based on a measurement image display unit 110 on which a measurement image obtained by the underwater inspection apparatus 9 is displayed, and a storage image or a selection image stored in the image storage unit 34 (that is, based on reactor design information). It has a stored image display unit 115 on which the original stored image) is displayed. The images displayed on the display unit 110 and the display unit 115 can be switched to images corrected by the image correction units 42a and 42b, respectively, and the operator arbitrarily selects the images before and after the correction. It can be displayed.

なお、図15の例では測定画像と記憶画像を個別のウィンドウに表示したが、測定画像と記憶画像は1つのウィンドウ内に重ねて表示しても良い。その場合には、二つの画像の判別が容易になるように、各画像の色を異ならせること等して各画像の視認性の向上を図ることが好ましい。   In the example of FIG. 15, the measurement image and the stored image are displayed in separate windows, but the measurement image and the stored image may be displayed in a single window. In that case, it is preferable to improve the visibility of each image by making the colors of the images different so that the two images can be easily distinguished.

図16は表示装置12のさらに他の表示画面の一例を示す図である。この図に示す表示画面140は、画像修正部42による画像修正処理がユーザーの所望する結果となるように閾値A1を調整するための画面であり、選択画像修正部42aによる修正前の選択画像91と修正後の選択画像91Rが表示される選択画像表示部142と、測定画像修正部42bによる修正前の測定画像92と修正後の測定画像92Rが表示される測定画像表示部144と、ユーザーが閾値A1を入力するための入力部146を備えている。入力部146の閾値を変更すると、当該変更後の閾値に応じて修正後の選択画像91Rと測定画像92Rがリアルタイムに変化するので、ユーザーは所望する簡略化が施された修正画像を容易に得ることができる。   FIG. 16 is a diagram showing an example of still another display screen of the display device 12. The display screen 140 shown in this figure is a screen for adjusting the threshold value A1 so that the image correction processing by the image correction unit 42 has a result desired by the user, and the selection image 91 before correction by the selection image correction unit 42a. And a selected image display unit 142 that displays the corrected selected image 91R, a measurement image 92 that is corrected by the measurement image correcting unit 42b, a measurement image display unit 144 that displays the corrected measurement image 92R, and a user An input unit 146 for inputting the threshold value A1 is provided. When the threshold value of the input unit 146 is changed, the corrected selection image 91R and the measurement image 92R change in real time according to the changed threshold value, so that the user can easily obtain a correction image with a desired simplification. be able to.

なお、図16の例では、修正前後の選択画像と、修正前後の測定画像とを同じ画面上に表示したが、いずれか一方を表示する表示態様を採用しても良い。また、図16の例では修正前後の画像(選択画像または測定画像)を同じ画面上に表示したが、修正前後の画像を個別のウィンドウで表示する等して個別に表示しても良い。つまり図16の表示例は種々存在する表示例の1つに過ぎない。   In the example of FIG. 16, the selected image before and after the correction and the measurement image before and after the correction are displayed on the same screen, but a display mode in which either one is displayed may be adopted. In the example of FIG. 16, the images before and after correction (selected images or measurement images) are displayed on the same screen, but the images before and after correction may be displayed individually by displaying them in separate windows. That is, the display example of FIG. 16 is only one of various display examples.

以上のように、本実施の形態に係る原子炉内検査システムは、水中検査装置9が位置する水平面において水中検査装置9と周囲の構造物との距離を検出して測定画像を算出する測定画像算出部36と、設計情報に基づいて作成され、複数の平面上での構造物の外形が位置情報と関連付けて表された複数の記憶画像が記憶された画像記憶部34と、測定画像に対応する記憶画像を選択する画像選択部35と、画像選択部35で選択された選択画像91と測定画像算出部36で算出された測定画像92を修正する画像修正部42と、当該画像修正部で修正された選択画像91Rと測定画像92Rでマップマッチングを行うことで当該選択画像91R上における当該測定画像92Rに対応する部分を特定する対応部分特定部37と、対応部分特定部で特定された部分に基づいて水中検査装置の水平位置を算出する水平位置算出部38とを備えている。   As described above, the in-reactor inspection system according to the present embodiment detects the distance between the underwater inspection apparatus 9 and surrounding structures on the horizontal plane where the underwater inspection apparatus 9 is located, and calculates a measurement image. Corresponding to the calculation unit 36, the image storage unit 34 that is created based on the design information and stores a plurality of stored images in which the outer shape of the structure on a plurality of planes is associated with the position information, and the measurement image An image selection unit 35 that selects a stored image to be selected, an image correction unit 42 that corrects the selection image 91 selected by the image selection unit 35 and the measurement image 92 calculated by the measurement image calculation unit 36, and the image correction unit. Corresponding part specifying unit 37 that specifies a part corresponding to the measurement image 92R on the selected image 91R by performing map matching on the corrected selected image 91R and the measurement image 92R, and a corresponding part specifying unit And a horizontal position calculating unit 38 for calculating the horizontal position of the underwater inspection system based on the identified portion.

このように水中移動体の位置検知装置を構成すると、現実の構造物の状態が記憶画像作成時と異なっている場合や測定画像にノイズが含まれている場合に、選択画像と測定画像を修正してマップマッチングすることで水中検査装置9の水平位置を算出することができるので、選択画像の更新を実施せず水中検査装置9の絶対位置を算出する技術(特開2010−203888号公報等参照)と比較して、位置算出に伴う誤差を軽減することができる。したがって、本実施の形態によれば、構造物の設計情報と測定情報が異なる環境下での水中検査装置9の位置の検知精度を向上させることができる。   When the position detection device for an underwater moving body is configured in this way, the selected image and the measurement image are corrected when the state of the actual structure is different from that at the time of creating the stored image or when the measurement image contains noise. Since the horizontal position of the underwater inspection apparatus 9 can be calculated by performing map matching, a technique for calculating the absolute position of the underwater inspection apparatus 9 without updating the selected image (Japanese Patent Application Laid-Open No. 2010-203888, etc.) Compared with the reference), it is possible to reduce the error accompanying the position calculation. Therefore, according to this Embodiment, the detection accuracy of the position of the underwater inspection apparatus 9 in the environment where the design information and measurement information of a structure are different can be improved.

また、本実施の形態における水中検査装置9は、構造物との相対距離を検出する相対距離検出器として、投光部26及び受光部27を有するレーザセンサ23a,23bを備えたレンジセンサユニット23を設けているので、次の効果を発揮する。すなわち、例えば投光部及び受光部のうちのいずれか一方を水中検査装置側に設けて他方を構造物側に設けるような構成では、水中検査装置が狭隘部若しくは複雑な構造物が介在するような環境下に配置された場合に、水中検査装置の位置を検知することが困難となる。これに対し本実施の形態では、投光部26及び受光部27をともに水中検査装置9側に設けているので、狭隘部や複雑な構造物が存在する環境下に配置された場合でも、水中検査装置9の位置を検知することができる。   In addition, the underwater inspection apparatus 9 according to the present embodiment includes a range sensor unit 23 including laser sensors 23a and 23b each having a light projecting unit 26 and a light receiving unit 27 as a relative distance detector that detects a relative distance from a structure. The following effects are exhibited. That is, for example, in a configuration in which either one of the light projecting unit and the light receiving unit is provided on the underwater inspection device side and the other is provided on the structure side, the underwater inspection device may have a narrow portion or a complicated structure interposed. When it is arranged in a rough environment, it becomes difficult to detect the position of the underwater inspection apparatus. On the other hand, in the present embodiment, since both the light projecting unit 26 and the light receiving unit 27 are provided on the underwater inspection apparatus 9 side, even when arranged in an environment where a narrow portion or a complicated structure exists, The position of the inspection device 9 can be detected.

なお、上記では、記憶画像を構成する画素には水平位置情報が付された基準画素が1つ以上含まれている場合について説明したが、記憶画像を構成するすべての画素に水平位置情報を付しても良い。この場合には、選択画像上で測定画像の中心が位置する画素を特定できれば、当該画素に付された水平位置情報から水平位置を算出することができるようになるので、上記の場合と比較して水平処理算出処理を容易に行うことができる。   In the above description, the case where the pixels constituting the stored image include one or more reference pixels to which the horizontal position information is attached has been described. However, the horizontal position information is attached to all the pixels constituting the stored image. You may do it. In this case, if the pixel where the center of the measurement image is located on the selected image can be identified, the horizontal position can be calculated from the horizontal position information attached to the pixel. Thus, the horizontal processing calculation process can be easily performed.

また、上記の実施の形態では、多数の方向にレーザを走査してその反射光を受光する走査型のレーザセンサ24a,24bを距離センサの例として取りあげたが、相対距離検出器はこれに限られない。例えば、超音波の反響の影響が少なければ、超音波を送信してその反射波を受信する超音波センサを利用してもよい。この場合にもレーザセンサ同様の効果を得ることができる。   In the above embodiment, the scanning laser sensors 24a and 24b that scan the laser in many directions and receive the reflected light are taken as examples of the distance sensor. However, the relative distance detector is not limited to this. I can't. For example, an ultrasonic sensor that transmits ultrasonic waves and receives the reflected waves may be used if the influence of ultrasonic echoes is small. In this case, the same effect as the laser sensor can be obtained.

また、上記の説明では、位置算出に利用する測定画像と記憶画像は水平面に限定したが、測定画像と記憶画像は水平面に限らず、水平面と交差する他の面としても良い。この場合の構成例としては、検査対象である構造物の3次元モデルを記憶装置内に記憶しておき、測定画像を取得した時の水中検査装置9の垂直位置に近い位置で測定画像と平行な1以上の面でもって当該3次元モデルを切断し、その結果得られる1以上の画像を記憶画像とし、当該記憶画像を測定画像とマッチングさせることで水中検査装置9の水平位置を推定するものがある。なお、この場合には、水中検査装置9の姿勢から測定画像の水平面に対する傾きを推定し、当該傾きを有する1以上の画像を記憶画像として3次元モデルから切り出せば良い。   In the above description, the measurement image and the stored image used for position calculation are limited to the horizontal plane. However, the measurement image and the stored image are not limited to the horizontal plane and may be other planes that intersect the horizontal plane. As a configuration example in this case, a three-dimensional model of a structure to be inspected is stored in a storage device, and parallel to the measurement image at a position close to the vertical position of the underwater inspection device 9 when the measurement image is acquired. The three-dimensional model is cut by one or more planes, the one or more images obtained as a result are stored as images, and the stored image is matched with the measurement image to estimate the horizontal position of the underwater inspection apparatus 9 There is. In this case, the inclination of the measurement image with respect to the horizontal plane may be estimated from the attitude of the underwater inspection apparatus 9, and one or more images having the inclination may be cut out from the three-dimensional model as a stored image.

また、上記において図7およびこれに関連する図を利用して説明した各処理の順番は、一例に過ぎず、算出結果の変化が許容される範囲内で各処理の順番は適宜変更可能である。   Moreover, the order of each process demonstrated using FIG. 7 and the figure relevant to this in the above is only an example, and the order of each process is changeable suitably within the range to which the change of a calculation result is accept | permitted. .

さらに、以上の説明では原子炉内検査システムに用いられる水中移動体の位置検知装置について説明したが、本発明は、原子炉内の検査に用いる検査装置の位置検知だけでなく、水中で使用する移動体の位置検知に広く適用可能である。特に、本発明は、移動体を直接目視できない環境における当該移動体の位置把握に適している。   Furthermore, in the above description, the position detection device for the underwater mobile body used in the in-reactor inspection system has been described. It can be widely applied to the position detection of a moving body. In particular, the present invention is suitable for grasping the position of the moving body in an environment where the moving body cannot be directly visually observed.

なお、本発明は、上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内の様々な変形例が含まれる。例えば、本発明は、上記の実施の形態で説明した全ての構成を備えるものに限定されず、その構成の一部を削除したものも含まれる。   In addition, this invention is not limited to said embodiment, The various modifications within the range which does not deviate from the summary are included. For example, the present invention is not limited to the one having all the configurations described in the above embodiment, and includes a configuration in which a part of the configuration is deleted.

また、上記の制御装置11に係る各構成や当該各構成の機能及び実行処理等は、それらの一部又は全部をハードウェア(例えば各機能を実行するロジックを集積回路で設計する等)で実現しても良い。また、上記の制御装置11に係る構成は、演算処理装置(例えばCPU)によって読み出し・実行されることで当該制御装置の構成に係る各機能が実現されるプログラム(ソフトウェア)としてもよい。当該プログラムに係る情報は、例えば、半導体メモリ(フラッシュメモリ、SSD等)、磁気記憶装置(ハードディスクドライブ等)及び記録媒体(磁気ディスク、光ディスク等)等に記憶することができる。   In addition, each configuration related to the control device 11 and the functions and execution processes of the respective configurations are realized by hardware (for example, logic for executing each function is designed by an integrated circuit). You may do it. Further, the configuration related to the control device 11 may be a program (software) that realizes each function related to the configuration of the control device by being read and executed by an arithmetic processing device (for example, a CPU). Information related to the program can be stored in, for example, a semiconductor memory (flash memory, SSD, etc.), a magnetic storage device (hard disk drive, etc.), a recording medium (magnetic disk, optical disc, etc.), and the like.

また、上記の実施の形態の説明では、制御線や情報線は、当該実施の形態の説明に必要であると解されるものを示したが、必ずしも製品に係る全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えて良い。   In the description of the above embodiment, the control line and the information line are shown to be understood as necessary for the description of the embodiment. However, all the control lines and information lines related to the product are not necessarily included. It is not necessarily shown. In practice, it can be considered that almost all the components are connected to each other.

9…水中検査装置(水中移動体)、11…制御装置、18…圧力センサ(垂直位置検出器)、19…慣性センサ部(姿勢検出器)、20…3軸ジャイロ、21…傾斜計、22…地磁気センサ、23…レンジセンサユニット(相対距離検出器)、24a…レーザセンサ、24b…レーザセンサ、34…画像記憶部、35…画像選択部、36…測定画像算出部、37…対応部分特定部、38…水平位置算出部、110…測定画像表示部、115…記憶画像表示部   DESCRIPTION OF SYMBOLS 9 ... Underwater inspection apparatus (underwater moving body), 11 ... Control apparatus, 18 ... Pressure sensor (vertical position detector), 19 ... Inertial sensor part (attitude detector), 20 ... 3-axis gyro, 21 ... Inclinometer, 22 ... Geomagnetic sensor, 23 ... Range sensor unit (relative distance detector), 24a ... Laser sensor, 24b ... Laser sensor, 34 ... Image storage unit, 35 ... Image selection unit, 36 ... Measured image calculation unit, 37 ... Specification of corresponding part 38, horizontal position calculation unit, 110 ... measurement image display unit, 115 ... storage image display unit

Claims (6)

3次元空間を移動可能な水中移動体と、
構造物の設計情報に基づいて作成される複数の画像データであって、前記3次元空間内で互いに異なる複数の平面上における前記構造物の外形が位置情報と関連付けて表された複数の記憶画像が記憶された記憶装置と、
前記3次元空間で前記水中移動体の位置する平面上において当該水中移動体の周囲を距離センサで走査することで得られる画像データであって、当該平面上における前記構造物の外形が表された測定画像を取得する画像取得部と、
前記複数の記憶画像の中から前記水中移動体の位置情報を取得するために利用される記憶画像を、前記水中移動体の姿勢および垂直位置に基づいて選択し、当該選択された記憶画像を選択画像とする画像選択部と、
当該画像選択部で選択された前記選択画像と、前記画像取得部で取得された前記測定画像とをそれぞれ簡略化することで修正する画像修正部と、
当該画像修正部による修正後の前記選択画像と前記測定画像の対応関係と、前記修正後の前記選択画像に付された位置情報とに基づいて、前記水中移動体の位置する平面における当該水中移動体の位置を算出する位置算出部とを備え
前記画像修正部は、
前記画像取得部で取得された前記測定画像前記画像選択部で選択された前記選択画像の各画素を拡大する膨張処理部と、
前記膨張処理部の出力画像の各画素を縮小する縮小処理部と、
前記縮小処理部の出力画像の構造物の外形を分類するクラスタリング処理部と、
前記クラスタリング処理部の出力画像の各クラスタの面積を算出するクラスタ面積算出処理部と、
前記クラスタ面積算出処理部で算出された各クラスタの面積のうち、予め設定した閾値以下の面積のクラスタを前記画像取得部で取得された前記測定画像前記画像選択部で選択された前記選択画像から削除して前記修正後の前記測定画像および前記選択画像とする画像更新部とを備えることを特徴とする水中移動体の位置検知装置。
An underwater vehicle capable of moving in a three-dimensional space;
A plurality of image data created based on design information of a structure, wherein the outer shape of the structure on a plurality of different planes in the three-dimensional space is expressed in association with position information A storage device storing
Image data obtained by scanning the underwater moving body with a distance sensor on a plane on which the underwater moving body is located in the three-dimensional space, and the outer shape of the structure on the plane is represented. An image acquisition unit for acquiring a measurement image;
A storage image used for acquiring position information of the underwater moving body is selected from the plurality of stored images based on a posture and a vertical position of the underwater moving body, and the selected storage image is selected. An image selection unit as an image;
An image correcting unit that corrects the selected image selected by the image selecting unit and the measurement image acquired by the image acquiring unit by simplifying the selected image, and
Based on the correspondence between the selected image corrected by the image correcting unit and the measurement image, and the position information attached to the selected image after correction, the underwater movement in the plane where the underwater moving body is located A position calculation unit for calculating the position of the body ,
The image correction unit
An expansion processing unit for enlarging each pixel of the selected image selected by the measurement image acquired by the image acquisition unit and the image selection unit ;
A reduction processing unit for reducing each pixel of the output image of the expansion processing unit;
A clustering processing unit for classifying the outer shape of the structure of the output image of the reduction processing unit;
A cluster area calculation processing unit for calculating the area of each cluster of the output image of the clustering processing unit;
Of the area of each cluster calculated by the cluster area calculation processing unit, the measurement image acquired by the image acquisition unit and the selected image selected by the image selection unit for a cluster having an area equal to or smaller than a preset threshold value An underwater moving body position detection device comprising: an image updating unit that is deleted from the image and used as the corrected measurement image and the selected image.
請求項1に記載の水中移動体の位置検知装置において、
前記距離センサは、レーザセンサであることを特徴とする水中移動体の位置検知装置。
In the position detection apparatus of the underwater mobile object according to claim 1,
The position sensor of the underwater moving body, wherein the distance sensor is a laser sensor.
請求項1に記載の水中移動体の位置検知装置において、
前記距離センサは、超音波センサであることを特徴とする水中移動体の位置検知装置。
In the position detection apparatus of the underwater mobile object according to claim 1,
The position sensor of an underwater moving body, wherein the distance sensor is an ultrasonic sensor.
請求項1に記載の水中移動体の位置検知装置において、
前記水中移動体の垂直位置を算出するために、水中における前記水中移動体の深度を検出する圧力センサをさらに備えることを特徴とする水中移動体の位置検知装置。
In the position detection apparatus of the underwater mobile object according to claim 1,
In order to calculate the vertical position of the underwater moving body, the underwater moving body position detection apparatus further includes a pressure sensor that detects a depth of the underwater moving body in water.
請求項1に記載の水中移動体の位置検知装置において、
前記画像修正部による修正前後の選択画像および/または前記画像修正部による修正前後の測定画像が同時に表示される表示装置をさらに備えることを特徴とする水中移動体の位置検知装置。
In the position detection apparatus of the underwater mobile object according to claim 1,
A position detection device for an underwater vehicle, further comprising a display device that simultaneously displays a selection image before and after correction by the image correction unit and / or a measurement image before and after correction by the image correction unit.
構造物の設計情報に基づいて作成される複数の画像データであって、3次元空間内で互いに異なる複数の平面上における前記構造物の外形が位置情報と関連付けて表された複数の記憶画像を作成する第1ステップと、
前記3次元空間で水中移動体の位置する平面上において、当該水中移動体から当該水中移動体の周囲に存在する構造物までの距離を計測することで、当該平面上における前記構造物の外形が表された測定画像を取得する第2ステップと、
前記複数の記憶画像の中から前記水中移動体の位置情報を取得するために利用する記憶画像を、前記水中移動体の姿勢および垂直位置に基づいて選択し、当該選択された記憶画像を選択画像とする第3ステップと、
当該選択画像と前記測定画像をそれぞれ簡略化することで修正する第4ステップと、
当該第4ステップによる修正後の前記選択画像と前記測定画像の対応関係と、前記修正後の前記選択画像に付された位置情報とに基づいて、前記水中移動体の位置する平面における当該水中移動体の位置を算出する第5ステップとを備え
前記第4ステップは、
前記第2ステップの前記測定画像と前記第3ステップの前記選択画像の各画素を拡大する第6ステップと、
前記第6ステップによる出力画像の各画素を縮小する第7ステップと、
前記第7ステップによる出力画像の構造物の外形を分類する第8ステップと、
前記第8ステップによる出力画像の各クラスタの面積を算出する第9ステップと、
前記第9ステップで算出された各クラスタの面積のうち、予め設定した閾値以下の面積のクラスタを前記第2ステップの前記測定画像と前記第3ステップの前記選択画像から削除して前記修正後の前記測定画像および前記選択画像とする第10ステップとを有することを特徴とする水中移動体の位置検知方法。
A plurality of image data created based on the design information of the structure, and a plurality of stored images in which outer shapes of the structure on a plurality of different planes in a three-dimensional space are associated with position information. A first step to create,
By measuring the distance from the underwater moving body to the structure existing around the underwater moving body on the plane where the underwater moving body is located in the three-dimensional space, the outer shape of the structure on the plane can be determined. A second step of acquiring the represented measurement image;
A stored image to be used for acquiring position information of the underwater moving body is selected from the plurality of stored images based on a posture and a vertical position of the underwater moving body, and the selected stored image is selected. And the third step,
A fourth step of correcting the selected image and the measurement image by simplifying each;
The underwater movement in the plane where the underwater moving body is located based on the correspondence between the selected image after the correction in the fourth step and the measurement image and the positional information attached to the selected image after the correction. A fifth step of calculating the position of the body ,
The fourth step includes
A sixth step of enlarging each pixel of the measurement image of the second step and the selected image of the third step;
A seventh step of reducing each pixel of the output image in the sixth step;
An eighth step of classifying the outer shape of the structure of the output image according to the seventh step;
A ninth step of calculating the area of each cluster of the output image according to the eighth step;
Of the areas of the clusters calculated in the ninth step, clusters having an area equal to or smaller than a preset threshold are deleted from the measurement image in the second step and the selected image in the third step, and the corrected A method for detecting a position of an underwater moving body, comprising: a tenth step for setting the measurement image and the selection image .
JP2014010413A 2014-01-23 2014-01-23 Position detecting device and position detecting method for underwater moving body Active JP6230923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014010413A JP6230923B2 (en) 2014-01-23 2014-01-23 Position detecting device and position detecting method for underwater moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014010413A JP6230923B2 (en) 2014-01-23 2014-01-23 Position detecting device and position detecting method for underwater moving body

Publications (3)

Publication Number Publication Date
JP2015137968A JP2015137968A (en) 2015-07-30
JP2015137968A5 JP2015137968A5 (en) 2016-09-15
JP6230923B2 true JP6230923B2 (en) 2017-11-15

Family

ID=53769049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014010413A Active JP6230923B2 (en) 2014-01-23 2014-01-23 Position detecting device and position detecting method for underwater moving body

Country Status (1)

Country Link
JP (1) JP6230923B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904895B2 (en) * 2017-12-08 2021-07-21 日立Geニュークリア・エナジー株式会社 Position estimation device and position estimation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3125550B2 (en) * 1993-12-24 2001-01-22 日産自動車株式会社 Vehicle forward recognition device and vehicle travel control device
JP2009186319A (en) * 2008-02-06 2009-08-20 Fujitsu Microelectronics Ltd Defect inspection method and defect inspection apparatus
JP2009276913A (en) * 2008-05-13 2009-11-26 Pasuko:Kk Clustering analysis device, clustering analysis method, and clustering analysis program
JP5054718B2 (en) * 2009-03-03 2012-10-24 日立Geニュークリア・エナジー株式会社 Position detecting device and position detecting method for underwater moving body
JP5230778B2 (en) * 2011-07-14 2013-07-10 株式会社エヌ・ティ・ティ・ドコモ Object information providing apparatus, object information providing system, terminal, and object information providing method

Also Published As

Publication number Publication date
JP2015137968A (en) 2015-07-30

Similar Documents

Publication Publication Date Title
JP5054718B2 (en) Position detecting device and position detecting method for underwater moving body
US11181637B2 (en) Three dimensional target selection systems and methods
EP2993490B1 (en) Operating device, operating method, and program therefor
JP6192938B2 (en) 3D synthesis processing system and 3D synthesis processing method
JP6560366B2 (en) Structure identifying device and method for structure
JP2009300265A (en) Position detecting device of underwater mobile body
JP5303873B2 (en) Vehicle shape measuring method and apparatus
JP4774824B2 (en) Method for confirming measurement target range in three-dimensional measurement processing, method for setting measurement target range, and apparatus for performing each method
KR20190035496A (en) Positioning system for aerial non-destructive inspection
CN108474653B (en) Three-dimensional measurement device and measurement support processing method thereof
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
JP6320664B2 (en) Map creation apparatus and map creation method
JP7332353B2 (en) Inspection system and inspection method
US11391559B2 (en) System and method for determination of a spatial property of a submerged object in a 3D-space
JP6185866B2 (en) Position detecting device and position detecting method for underwater moving body
JP6904895B2 (en) Position estimation device and position estimation method
JP2022530246A (en) Simultaneous execution of self-position estimation and environmental map creation
JP6163391B2 (en) Underwater moving object position detection device
JP6230923B2 (en) Position detecting device and position detecting method for underwater moving body
KR101438514B1 (en) Robot localization detecting system using a multi-view image and method thereof
JP6076852B2 (en) Camera system, control method thereof and control program thereof
JP6423703B2 (en) Shape measurement system and shape measurement method
KR102564594B1 (en) 3D reconstruction device, 3D reconstruction system, 3D reconstruction method, and 3D reconstruction program
JP6580741B1 (en) Position detection system and position detection method
CN109669468B (en) Measuring device, unmanned aerial vehicle, control device and control method thereof, and storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171018

R150 Certificate of patent or registration of utility model

Ref document number: 6230923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150