JP2022045012A - Appearance inspection support system and appearance inspection support method - Google Patents

Appearance inspection support system and appearance inspection support method Download PDF

Info

Publication number
JP2022045012A
JP2022045012A JP2020150468A JP2020150468A JP2022045012A JP 2022045012 A JP2022045012 A JP 2022045012A JP 2020150468 A JP2020150468 A JP 2020150468A JP 2020150468 A JP2020150468 A JP 2020150468A JP 2022045012 A JP2022045012 A JP 2022045012A
Authority
JP
Japan
Prior art keywords
development
visual inspection
inspection support
generation unit
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020150468A
Other languages
Japanese (ja)
Inventor
泰隆 倉本
Yasutaka Kuramoto
真貴 榎本
Shinki Enomoto
裕司 藤田
Yuji Fujita
善太郎 渡邉
Zentaro Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SkymatiX Inc
Original Assignee
SkymatiX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SkymatiX Inc filed Critical SkymatiX Inc
Priority to JP2020150468A priority Critical patent/JP2022045012A/en
Publication of JP2022045012A publication Critical patent/JP2022045012A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To provide an appearance inspection support system that can support an object inspection better conforming to real requests and restrictions.SOLUTION: An appearance inspection support system 1 inspecting an appearance of an object comprises an image acquisition part 11 for acquiring a plurality of images on which the object is displayed, a development elevation generation part 14 for generating a development elevation of the object, and a state detection part 15 for detecting a prescribed area (for example, an abnormal area) on the development elevation in which a prescribed state of the object appears based on the image, and causes the development elevation and information on the prescribed area to be displayed. This system 1 is implemented onto, for example, a server computer capable of communicating with a user terminal.SELECTED DRAWING: Figure 1

Description

本発明は、人体よりサイズの大きい人工物又は自然物の外観検査を支援するためのコンピュータを利用したシステム及び方法に関する。 The present invention relates to a computer-based system and method for assisting in visual inspection of an artificial or natural object larger than the human body.

例えば、巨大な貯蔵タンクが林立するタンクヤードでは、各タンクの塗装の劣化や腐食などの異常状態を人が外観観察(例えば、目視と携帯カメラによる写真撮影)をすることによって調べる。異常部分の面積がある程度よりも広い範囲である場合には、タンクには修繕が施される。 For example, in a tank yard where huge storage tanks stand, a person observes the appearance (for example, visual inspection and photography with a portable camera) to investigate abnormal conditions such as deterioration and corrosion of the paint on each tank. If the area of the anomaly is larger than a certain area, the tank will be repaired.

このような大型の対象物の検査では、人が対象物の周囲を歩きまわって異常を見つけて写真撮影する。そして、撮影された沢山の写真を用いて検査結果レポートを作成するなどの作業に要する労力と時間は相当に大きい。また、タンクの高い部分のように、人が近づいて観察することが難しい個所も少なくない。 In the inspection of such a large object, a person walks around the object to find an abnormality and take a picture. And, the labor and time required for the work such as creating an inspection result report using many photographs taken are considerably large. In addition, there are many places where it is difficult for people to approach and observe, such as the high part of the tank.

こうした問題の解決の一助として、無人航空機の利用がある。例えば特許文献1には、カメラを備える飛行装置により撮影された検査対象物の複数の画像に基づいて、検査対象物の3次元モデルを生成するシステムが開示されている。このシステムは、上記複数の画像に基づいて検査対象の異常を検出し、検出した異常の3次元座標系における位置を特定し、異常の位置に対応付けて画像を記憶し、上記3次元モデル上での任意の位置(座標)の指定を受け付け、指定された位置に対応する画像を特定して表示する。 The use of unmanned aerial vehicles is one of the ways to solve these problems. For example, Patent Document 1 discloses a system that generates a three-dimensional model of an inspection object based on a plurality of images of the inspection object taken by a flight device including a camera. This system detects an abnormality to be inspected based on the plurality of images, identifies the position of the detected abnormality in the three-dimensional coordinate system, stores the image in association with the position of the abnormality, and stores the image on the three-dimensional model. Accepts the specification of an arbitrary position (coordinates) in, and identifies and displays the image corresponding to the specified position.

特開2019-211257号公報Japanese Unexamined Patent Publication No. 2019-21257

特許文献1に開示されたシステムによれば、検査物の複数の画像に基づいて生成される3次元モデル上に、検出した異常個所をマッピングする。これにより、異常個所に対応する写真画像を見ることができる。 According to the system disclosed in Patent Document 1, the detected abnormal part is mapped on the three-dimensional model generated based on a plurality of images of the inspection object. This makes it possible to see the photographic image corresponding to the abnormal part.

しかしながら、対象物の修繕の要否又は費用見積もりなどを判断する場合には、対象物の異常部分が対象物のどの位置に存在し、その面積の値又はその割合がいくつであるかというような、異常部分の定量的な情報が特定されることが求められる。すなわち、その定量的情報がレポートなどの書面上に図面や文を用いて的確に表現されることが求められる。この目的のためには、ディスプレイ画面に表示された3次元モデル上で異常個所の写真画像が見れるだけでは不十分である。 However, when deciding whether or not repair of the object is necessary or cost estimation, the position of the abnormal part of the object is located in the object, and the value of the area or its ratio is such as. , Quantitative information on abnormal parts is required to be identified. That is, it is required that the quantitative information is accurately expressed on documents such as reports using drawings and sentences. For this purpose, it is not enough to see the photographic image of the abnormal part on the 3D model displayed on the display screen.

また、無人飛行体での写真撮影が制限される対象物が存在する。例えば、ある貯蔵タンクの隣に近接して別の貯蔵タンクが存在し、両タンクに挟まれた領域が無人飛行体の飛行には狭すぎる場合、その領域に面したタンク部分を無人飛行体で撮影することが難しい。あるいは、安全上の理由からその上空に無人飛行体を飛行させることが禁じられている対象物の場合、対象物の屋根をその真上から無人飛行体で撮影することができない。 In addition, there are objects for which photography with unmanned aircraft is restricted. For example, if there is another storage tank next to one storage tank and the area between the two tanks is too narrow for the flight of an unmanned aircraft, the tank part facing that area should be an unmanned aircraft. Difficult to shoot. Alternatively, in the case of an object for which it is prohibited to fly an unmanned aircraft over it for safety reasons, the roof of the object cannot be photographed by the unmanned aircraft from directly above it.

本発明は、上記の問題に鑑みてなされたものであり、その一つの目的は、現実の要求や制限に、より適応した対象物検査を支援できる外観検査支援システムを提供することである。 The present invention has been made in view of the above problems, and one object thereof is to provide a visual inspection support system capable of assisting an object inspection more adapted to actual demands and restrictions.

一実施形態にかかる外観検査支援システムは、対象物が表示される複数の画像を取得する画像取得部と、対象物の展開図を生成する展開図生成部と、画像に基づいて対象物の所定の状態が現れる展開図上の所定の領域を検出する状態検出部とを備え、展開図と所定の領域に関する情報の表示をユーザに提供する。 The visual inspection support system according to one embodiment has an image acquisition unit that acquires a plurality of images on which an object is displayed, a development drawing generation unit that generates a development view of the object, and a predetermined object based on the image. It is provided with a state detection unit for detecting a predetermined area on the developed view in which the state of the above appears, and provides the user with a display of information on the developed view and the predetermined area.

外観検査支援システムの機能構成図。Functional configuration diagram of the visual inspection support system. 外観検査支援システムのハードウェア構成図。Hardware configuration diagram of visual inspection support system. 画像取得から3次元モデル生成そして展開図生成までの一例の説明図。An explanatory diagram of an example from image acquisition to 3D model generation and development drawing generation. 3次元モデル生成から展開図生成までの別の一例の説明図。Explanatory drawing of another example from 3D model generation to development view generation. 3次元モデル生成から展開図生成までのまた別の一例の説明図。Explanatory drawing of another example from 3D model generation to development drawing generation. 検出結果展開図の一例の説明図。An explanatory diagram of an example of a detection result development diagram. 編集された検出結果展開図の一例の説明図。An explanatory diagram of an example of the edited detection result development diagram. 外観検査支援システムが行う処理の全体的流れ図。An overall flow chart of the processing performed by the visual inspection support system. 図8のステップS4の展開図作成の流れ図。The flow chart of creating the development view of step S4 of FIG. 図9のステップS15の3次元点群生成の流れ図。The flow chart of the 3D point cloud generation of step S15 of FIG. 図9のステップS17の単純化モデル生成の流れ図。The flow chart of the simplified model generation of step S17 of FIG. 図9のステップS18の単純化モデルの色付け処理の流れ図。The flow chart of the coloring process of the simplified model of step S18 of FIG. 図8のステップS5の異常検出の流れ図。The flow chart of abnormality detection of step S5 of FIG.

図1は、一実施形態にかかる外観検査支援システム1の概略図である。外観検査支援システム1は、「対象物」の一例としての燃料タンクの外観検査を支援する。なお、外観検査支援システム1は、燃料タンクの外観検査に限らず、橋梁、船舶又は岩壁等、他の種類の物体の外観検査の支援をしてもよい。すなわち、外観検査支援システム1は、例えば人体よりも大きい人工物又は自然物について、「所定の状態」の一例としての錆の発生の有無や程度、あるいは、損傷や変形や変質などの異常の有無や程度について、外観観察を通して検査する作業を支援する。 FIG. 1 is a schematic diagram of a visual inspection support system 1 according to an embodiment. The visual inspection support system 1 supports visual inspection of a fuel tank as an example of an “object”. The visual inspection support system 1 is not limited to the visual inspection of the fuel tank, but may support the visual inspection of other types of objects such as bridges, ships, and rock walls. That is, the visual inspection support system 1 is, for example, whether or not an artificial object or a natural object larger than the human body is rusted as an example of a "predetermined state", or whether or not there is an abnormality such as damage, deformation, or alteration. Support the work of inspecting the degree through visual observation.

外観検査支援システム1は、例えば、「移動体」の一例としてのカメラ24を有する無人航空機2(以下、ドローン2と示す場合がある)と「携帯可能な撮影装置」の一例としての、ユーザに携行される携帯カメラ3の少なくとも一方から取得された、燃料タンクが表示される複数の画像に基づいて、外観検査を支援する。外観検査支援システム1は、例えば、ユーザに使用されるユーザ端末4と双方向通信可能に接続され、ユーザ端末4を介して(または、ユーザ端末4を介さずに)、ドローン2と携帯カメラ3のいずれか一方又は双方から、対象物を撮影した複数の画像を取得して、取得した対象物の複数の画像を、その対象物に関連付けて外観検査支援システム1内に登録する。 The visual inspection support system 1 is for users, for example, an unmanned aerial vehicle 2 having a camera 24 as an example of a "moving body" (hereinafter, may be referred to as a drone 2) and an example of a "portable photographing device". Visual inspection is assisted based on a plurality of images displaying the fuel tank obtained from at least one of the portable cameras 3 carried. The visual inspection support system 1 is connected to the user terminal 4 used by the user so as to be bidirectionally communicable, and the drone 2 and the mobile camera 3 are connected via the user terminal 4 (or not via the user terminal 4). A plurality of images of an object are acquired from either one or both of the above, and the acquired plurality of images of the object are associated with the object and registered in the visual inspection support system 1.

なお、ドローン2は、空中を飛行する移動体だけに限らず、燃料タンクつまり対象物を撮影する機能を備えた他の種類の移動体であってもよい。他の種類の移動体は、例えば、固体表面上を走行する装置、液体面上を航行する装置又は液中を潜航する装置、さらには、人工衛星のように宇宙空間を飛翔するもの等であり得る。さらには、ドローン2に代えて、または、それと組み合わせて、対象物を撮影する機能をもつ有人の移動体や、対象物の近くに設置された固定カメラのように特定の場所や領域に配置された撮影装置等も、対象物の画像を得るために使用されてよい。以下では、ドローン2が空中を飛行するものであって、燃料タンクの発錆状況の外観検査に使用される場合を例にとり、説明する。 The drone 2 is not limited to a moving body flying in the air, but may be a fuel tank, that is, another type of moving body having a function of photographing an object. Other types of moving objects are, for example, devices that travel on solid surfaces, devices that navigate on liquid surfaces or devices that dive in liquids, and even those that fly in space, such as artificial satellites. obtain. Furthermore, instead of or in combination with the drone 2, it is placed in a specific place or area such as a manned moving object having a function of photographing an object or a fixed camera installed near the object. An imaging device or the like may also be used to obtain an image of an object. In the following, a case where the drone 2 flies in the air and is used for visual inspection of the rusting condition of the fuel tank will be described as an example.

ドローン2は、燃料タンクの周囲又は上空を飛行することにより、燃料タンクの外観を撮影する。ドローン2は、例えば、飛行装置21と、位置測定装置22と、方位測定装置23と、カメラ24とを内蔵、搭載又は付属する。飛行装置21は、ドローン2を飛行させ、かつその飛行を制御する。 The drone 2 photographs the appearance of the fuel tank by flying around or over the fuel tank. The drone 2 includes, mounts, or is attached to, for example, a flight device 21, a position measuring device 22, an orientation measuring device 23, and a camera 24. The flight device 21 flies the drone 2 and controls the flight.

位置測定装置22は、ドローン2又はカメラ24の3次元位置情報を測定する。3次元位置情報は、例えば、緯度、経度又は高度等の3次元地理座標である。位置測定装置22には、例えば、GNSS(Global Navigation Satellite System)又はRTK(Real Time Kinematic)が用いられてもよい。なお、位置測定装置22には、GNSS又はRTKが用いられる装置に限られない。 The position measuring device 22 measures the three-dimensional position information of the drone 2 or the camera 24. The three-dimensional position information is, for example, three-dimensional geographic coordinates such as latitude, longitude, or altitude. For the position measuring device 22, for example, GNSS (Global Navigation Satellite System) or RTK (Real Time Kinematic) may be used. The position measuring device 22 is not limited to the device in which GNSS or RTK is used.

方位測定装置は、カメラ24の視線(光軸)又はドローン2の3次元方位を測定する。3次元方位は、例えば、ロール角、ピッチ角及びヨー角によって設定される。方位測定装置23は、例えば、ジャイロセンサである。なお、方位測定装置23は、ジャイロセンサに限られない。 The orientation measuring device measures the line of sight (optical axis) of the camera 24 or the three-dimensional orientation of the drone 2. The three-dimensional orientation is set by, for example, a roll angle, a pitch angle, and a yaw angle. The azimuth measuring device 23 is, for example, a gyro sensor. The orientation measuring device 23 is not limited to the gyro sensor.

カメラ24は、燃料タンクの外観を撮影する。本実施例において、カメラ24によって撮影される画像7(1),7(2)(図3参照)は、燃料タンクが表示される静止画を一例にあげて説明するが、撮影される画像7(1),7(2)は静止画に限らず動画でもよい。画像7(1),7(2)は、撮影される動画のうちの一つの静止画として設定されてもよい。以下、画像7(1),7(2)を特に区別しない場合には、画像7と示す場合がある。 The camera 24 captures the appearance of the fuel tank. In the present embodiment, the images 7 (1) and 7 (2) (see FIG. 3) taken by the camera 24 will be described by taking as an example a still image in which the fuel tank is displayed. (1) and 7 (2) are not limited to still images but may be moving images. The images 7 (1) and 7 (2) may be set as a still image of one of the moving images to be captured. Hereinafter, when the images 7 (1) and 7 (2) are not particularly distinguished, they may be referred to as an image 7.

携帯カメラ3は、手動で燃料タンクの外観を撮影するために使用される。携帯カメラ3は、例えば、写真撮影装置31と、位置測定装置32と、方位測定装置33とを内蔵、搭載又は付属する。写真撮影装置31は、燃料タンクの外観を撮影し、画像7を保存する。写真撮影装置31は、例えば、レンズ又はシャッター等のカメラ部品ある。 The portable camera 3 is used to manually capture the appearance of the fuel tank. The portable camera 3 includes, mounts, or is attached to, for example, a photography device 31, a position measuring device 32, and an orientation measuring device 33. The photography device 31 photographs the appearance of the fuel tank and stores the image 7. The photography device 31 is, for example, a camera component such as a lens or a shutter.

位置測定装置32は、携帯カメラ3の3次元位置を測定する。方位測定装置33は、携帯カメラ3の視線(光軸)の3次元方位を測定する。3次元方位は、例えば、水平面上の方位角と垂直面上の方位角とを含む。 The position measuring device 32 measures the three-dimensional position of the portable camera 3. The orientation measuring device 33 measures the three-dimensional orientation of the line of sight (optical axis) of the portable camera 3. The three-dimensional orientation includes, for example, an azimuth on a horizontal plane and an azimuth on a vertical plane.

携帯カメラ3は、ドローン2に代えて、又は、ドローン2よる撮影の補助として使用されてよい。例えば、ドローン2の飛行が困難又は禁止される場所があり得る。そのような場所は、例えば、燃料タンクとそれに近接する建造物との間の狭い空間、又は、安全確保のためにドローン2の飛行が制限される領域等の場所である。そのような場所で携帯カメラ3を用いた撮影が行われ得る。また、ドローン2の飛行可能な場所からは物陰に隠れて撮影できない部分が燃料タンクにある場合、その部分の撮影に携帯カメラ3が用いられてよい。 The portable camera 3 may be used in place of the drone 2 or as an aid to photography by the drone 2. For example, there may be places where the drone 2 is difficult or prohibited to fly. Such a place is, for example, a narrow space between the fuel tank and a building in the vicinity thereof, or a place where the flight of the drone 2 is restricted for safety. Shooting using the portable camera 3 can be performed in such a place. Further, if there is a portion in the fuel tank that cannot be photographed because it is hidden behind a flightable place of the drone 2, the portable camera 3 may be used for photographing the portion.

すなわち、携帯カメラ3は、ドローン2が撮影可能な燃料タンクの外観の範囲とは異なる他の範囲を撮影することによって、外観検査するのに不足する画像7を補ってもよい。なお、ドローン2からの画像7のみで外観検査支援システム1が燃料タンクの発錆状態を説明するレポートを生成することができる場合には、携帯カメラ3は必ずしも使用されなくてもよい。携帯カメラ3のみで外観検査支援システム1が燃料タンクの発錆状態を説明するレポートを生成することができる場合には、ドローン2は必ずしも使用されなくてもよい。 That is, the portable camera 3 may supplement the image 7 that is insufficient for visual inspection by photographing a range different from the range of the appearance of the fuel tank that the drone 2 can photograph. If the visual inspection support system 1 can generate a report explaining the rusted state of the fuel tank only by the image 7 from the drone 2, the portable camera 3 does not necessarily have to be used. The drone 2 may not necessarily be used if the visual inspection support system 1 can generate a report explaining the rusted state of the fuel tank only with the portable camera 3.

ユーザ端末4は、外観検査支援システム1のユーザ(燃料タンクなどの対象物の外観検査を行う者、対象物の写真撮影を行う者、外観検査の結果を受け取り利用する者、等)が使用する情報処理通信端末である。ユーザ端末4は、例えば、パーソナルコンピュータ、スマートフォン又はタブレット端末等である。なお、ユーザ端末4は、パーソナルコンピュータ、スマートフォン、タブレット端末に限られず、ドローン2又は携帯カメラ3と一体的に形成される装置でもよい。 The user terminal 4 is used by a user of the visual inspection support system 1 (a person who performs a visual inspection of an object such as a fuel tank, a person who takes a picture of the object, a person who receives and uses the result of the visual inspection, etc.). It is an information processing communication terminal. The user terminal 4 is, for example, a personal computer, a smartphone, a tablet terminal, or the like. The user terminal 4 is not limited to a personal computer, a smartphone, and a tablet terminal, and may be a device integrally formed with the drone 2 or the portable camera 3.

ユーザ端末4は、ドローン2及び/又は携帯カメラ3から、燃料タンクの多数の画像を取得する。取得された各画像7には、画像それ自体のデータと、それぞれの画像7に対応する付属データとが含まれる。 The user terminal 4 acquires a large number of images of the fuel tank from the drone 2 and / or the portable camera 3. Each acquired image 7 includes data of the image itself and attached data corresponding to each image 7.

各画像7の付属データには、例えば、その画像7についての外部標定要素と内部標定要素とが含まれる。外部標定要素のデータには、例えば、燃料タンクをドローン2又は携帯カメラ3が撮影した際における、ドローン2、カメラ24又は携帯カメラ3の3次元位置を表したパラメータと、ドローン2、カメラ24又は携帯カメラ3の3次元方位を表したパラメータ等が含まれる。 The attached data of each image 7 includes, for example, an external control element and an internal control element for the image 7. The data of the external orientation element includes, for example, a parameter representing the three-dimensional position of the drone 2, the camera 24 or the portable camera 3 when the drone 2 or the portable camera 3 takes a picture of the fuel tank, and the drone 2, the camera 24 or It includes parameters and the like representing the three-dimensional orientation of the portable camera 3.

内部標定要素には、例えば、カメラ24又は携帯カメラ3の、焦点距離のパラメータ、及び/又はレンズ歪み係数などのパラメータ等が含まる。ユーザ端末4は、取得された多数の画像7を外観検査支援システム1へと送る。 The internal control element includes, for example, a parameter of the focal length of the camera 24 or the portable camera 3 and / or a parameter such as a lens distortion coefficient. The user terminal 4 sends a large number of acquired images 7 to the visual inspection support system 1.

さらに、ユーザ端末4は、表示装置41を備える。ユーザ端末4は、外観検査支援システム1に含まれる後述の複数の機能11~17を制御するためのGUI(Graphical User Interface)を表示装置41に表示させる。 Further, the user terminal 4 includes a display device 41. The user terminal 4 causes the display device 41 to display a GUI (Graphical User Interface) for controlling a plurality of functions 11 to 17, which will be described later, included in the visual inspection support system 1.

外観検査支援システム1は、ユーザ端末4からの燃料タンクを撮影した多数の画像7に基づいて、燃料タンクの「所定の領域」の一例としての発錆個所を説明するレポートを生成する。外観検査支援システム1は、例えば、データベース10と、画像取得部11と、3次元モデル生成部12と、設計図取得部13と、展開図生成部14と、状態検出部15と、展開図編集部16と、レポート生成部17とを備える。なお、図中において、「部」を省略して示す場合がある。 The visual inspection support system 1 generates a report explaining a rusted portion as an example of a "predetermined area" of the fuel tank based on a large number of images 7 of the fuel tank taken from the user terminal 4. The appearance inspection support system 1 includes, for example, a database 10, an image acquisition unit 11, a three-dimensional model generation unit 12, a design drawing acquisition unit 13, a development drawing generation unit 14, a state detection unit 15, and a development drawing editing. A unit 16 and a report generation unit 17 are provided. In the figure, "part" may be omitted.

外観検査支援システム1は、典型的には、図2に示すように、ストレージ(記憶部)61、CPU62、メモリ63及び通信部64を含む。ストレージ61には、CPU62に実行されることにより、例えば、データベース10っと画像取得部11と、3次元モデル生成部12と、設計図取得部13と、展開図生成部14と、状態検出部15と、展開図編集部16と、レポート生成部17としてCPU62を動作させるコンピュータプログラムが記録される。 The visual inspection support system 1 typically includes a storage (storage unit) 61, a CPU 62, a memory 63, and a communication unit 64, as shown in FIG. In the storage 61, for example, the database 10 and the image acquisition unit 11, the three-dimensional model generation unit 12, the design drawing acquisition unit 13, the development drawing generation unit 14, and the state detection unit are executed by the CPU 62. A computer program that operates the CPU 62 as the development drawing editing unit 16, the development drawing editing unit 16, and the report generation unit 17 is recorded.

CPU62は、ストレージ61からメモリ63にロードされた上記コンピュータプログラムを実行することにより、ストレージ61に格納された各種のデータを操作及び加工する。これにより、外観検査支援システム1は機能10~17を実現する。 The CPU 62 operates and processes various data stored in the storage 61 by executing the computer program loaded from the storage 61 into the memory 63. As a result, the visual inspection support system 1 realizes the functions 10 to 17.

データベース10は、検査対象である1以上の燃料タンクのそれぞれについて、撮影された複数の画像7、並びに、後述される3次元モデル、設計図、単純化モデル、展開図、及びレポートなど、外観検査に利用される各種のデータを、ストレージ6に保存して管理する。データベース10は、他の機能部11~17の各々に対して、各機能部が読み込みを要求するデータを提供し、また、各機能部からその機能が保存を要求するデータを受け取って保存する。 The database 10 is a visual inspection of each of the one or more fuel tanks to be inspected, including a plurality of images 7 taken, and a three-dimensional model, a design drawing, a simplified model, a development drawing, and a report, which will be described later. Various data used in the storage 6 are stored and managed in the storage 6. The database 10 provides each of the other functional units 11 to 17 with data that each functional unit requests to read, and also receives and stores data that the function requests to save from each functional unit.

画像取得部11は、ユーザ端末4から、ある燃料タンクを撮影した複数(通常は多数)の撮影画像を取得する。画像取得部11は、取得されたその燃料タンクの画像を、その燃料タンクの識別情報に関連付けてデータベース10に登録する。したがって、異なる燃料タンクの画像が、それぞれの燃料タンクに関連付けれてデータベースに10に登録され得る。データベース10に登録された各燃料タンクの多数の画像は、画像3次元モデル生成部12、展開図生成部14及びレポート生成部17などの各種機能に供給され(読み込まれ)得る。 The image acquisition unit 11 acquires a plurality of (usually many) captured images of a certain fuel tank from the user terminal 4. The image acquisition unit 11 registers the acquired image of the fuel tank in the database 10 in association with the identification information of the fuel tank. Therefore, images of different fuel tanks may be associated with each fuel tank and registered in the database 10. A large number of images of each fuel tank registered in the database 10 can be supplied (read) to various functions such as the image 3D model generation unit 12, the development view generation unit 14, and the report generation unit 17.

3次元モデル生成部12は、ある燃料タンクの複数の撮影画像に基づいて、その燃料タンクの3次元モデル121(例えば、図3に示された三次元モデル121(1)あるいは図4に示された三次元モデル121(2)など)を生成する。3次元モデル生成部12は、生成された燃料タンクの3次元モデル121を、その燃料タンクに関連付けてデータベース10に登録する。登録された3次元モデル121は、展開図生成部14及び/又は状態検出部15等に供給され(読み込まれ)得る。 The three-dimensional model generation unit 12 is shown in the three-dimensional model 121 (for example, the three-dimensional model 121 (1) shown in FIG. 3 or FIG. 4) of the fuel tank based on a plurality of captured images of the fuel tank. (3D model 121 (2), etc.) is generated. The three-dimensional model generation unit 12 registers the generated three-dimensional model 121 of the fuel tank in the database 10 in association with the fuel tank. The registered three-dimensional model 121 can be supplied (read) to the development drawing generation unit 14 and / or the state detection unit 15 and the like.

3次元モデル生成部12は、燃料タンクの複数の画像7に基づいて、3次元モデル121の表面に色をつけてもよい。すなわち、3次元モデル生成部12は、画像7を3次元モデル121に投影させることによって、3次元モデル121の表面に画像7に基づく燃料タンクの表面色と実質的に同じ色、これに似た色、又は少なくとも燃料タンクの検出したい発錆個所が肉眼で識別可能な色をつけてもよい。以下、このような色のつけられた3次元モデル121を色付きの3次元モデル121と呼ぶ場合がある。 The 3D model generation unit 12 may color the surface of the 3D model 121 based on the plurality of images 7 of the fuel tank. That is, by projecting the image 7 onto the 3D model 121, the 3D model generation unit 12 has substantially the same color as the surface color of the fuel tank based on the image 7 on the surface of the 3D model 121, which is similar to the surface color of the fuel tank. The color, or at least the rusted part to be detected in the fuel tank, may be colored with the naked eye. Hereinafter, such a colored three-dimensional model 121 may be referred to as a colored three-dimensional model 121.

3次元モデル生成部12は、燃料タンクを撮影した画像に基づいて3次元モデル121を生成することに限られない。3次元モデル生成部12は、設計図取得部13から取得した燃料タンクの設計図に基づいて3次元モデル121を生成してもよい。 The three-dimensional model generation unit 12 is not limited to generating the three-dimensional model 121 based on an image of the fuel tank. The 3D model generation unit 12 may generate the 3D model 121 based on the fuel tank design drawing acquired from the design drawing acquisition unit 13.

設計図取得部13は、燃料タンクの設計図をユーザ端末4から取得する。設計図取得部13は、燃料タンクの設計図をその燃料タンクに関連付けてデータベース10に登録する。データベース10に登録された設計図は、3次元モデル生成部12及び/又は展開図生成部14に供給され得る。 The design drawing acquisition unit 13 acquires the design drawing of the fuel tank from the user terminal 4. The design drawing acquisition unit 13 associates the design drawing of the fuel tank with the fuel tank and registers it in the database 10. The design drawing registered in the database 10 may be supplied to the three-dimensional model generation unit 12 and / or the development drawing generation unit 14.

展開図生成部14は、データベース10に登録された燃料タンクの3次元モデル121に基づいて、その燃料タンクの3次元形状をそれに近い幾何学的形状に単純化した単純化モデル122(例えば、図3に示された単純化モデル122(1)、図4に示された単純化モデル122(2)、あるいは図5に示された単純化モデル122(3)等)を作成する。さらに展開図生成部14は、その単純化モデル122の表面を展開した平面的な1以上の図から構成される展開図141(例えば、図3又は図4の展開図141(1)、あるいは図5の展開図141(2)等)を生成する。 Based on the three-dimensional model 121 of the fuel tank registered in the database 10, the development drawing generation unit 14 simplifies the three-dimensional shape of the fuel tank to a geometric shape close to it (for example, FIG. The simplification model 122 (1) shown in FIG. 3, the simplification model 122 (2) shown in FIG. 4, the simplification model 122 (3) shown in FIG. 5, etc.) are created. Further, the development view generation unit 14 is a development view 141 (for example, the development view 141 (1) of FIG. 3 or FIG. 4) or a drawing, which is composed of one or more planar views obtained by developing the surface of the simplified model 122. Development of FIG. 141 (2) and the like) is generated.

図3に示された例では、屋根が側壁上端から下方へ若干距離下がっている燃料タンクの3次元モデル121(1)に基づいて、単純な円筒形の単純化モデル122(1)が作成される。そして、その単純化モデル121(1)の側壁と屋根をそれぞれ平面図に展開することで、その燃料タンクの展開図141(1)が作成される。他方、図4の例では、多角錐形の屋根を持つ燃料タンクの3次元モデル121(2)に基づいて、図3の場合と同様の単純な円筒形の単純化モデル122(2)が作成される。そして、その単純化モデル122(2)から、図3の場合と同様の展開図141(1)が作成される。あるいは、図5の例では、多角錐形の屋根を持つ燃料タンクの3次元モデル121(2)に基づいて、円錐形の屋根を持つ単純化モデル122(3)が作成される。そして、その単純化モデル122(3)の側壁と屋根をそれぞれ平面図に展開することで、展開図141(2)が作成される。このように、展開図生成部14は、異なる形状と構成をもつ単純化モデル122を生成して、それぞれの単純化モデル122からその展開図144を生成することができる。なお、図示の例に限られず、他の形状又は構造をもつ単純化モデルと展開図を生成してもよい。 In the example shown in FIG. 3, a simple cylindrical simplified model 122 (1) is created based on the three-dimensional model 121 (1) of the fuel tank whose roof is slightly lowered from the upper end of the side wall. To. Then, by unfolding the side wall and the roof of the simplified model 121 (1) in a plan view, a developed view 141 (1) of the fuel tank is created. On the other hand, in the example of FIG. 4, a simple cylindrical simplified model 122 (2) similar to the case of FIG. 3 is created based on the three-dimensional model 121 (2) of the fuel tank having a polygonal pyramid roof. Will be done. Then, from the simplified model 122 (2), the same development view 141 (1) as in the case of FIG. 3 is created. Alternatively, in the example of FIG. 5, a simplified model 122 (3) with a conical roof is created based on the three-dimensional model 121 (2) of a fuel tank with a polygonal pyramid roof. Then, by expanding the side wall and the roof of the simplified model 122 (3) into a plan view, the developed view 141 (2) is created. In this way, the development view generation unit 14 can generate a simplified model 122 having a different shape and configuration, and generate the developed view 144 from each of the simplified models 122. In addition, the present invention is not limited to the illustrated example, and a simplified model and a developed view having other shapes or structures may be generated.

展開図生成部14は、燃料タンクの複数の画像7に基づいて、単純化モデル122に展開図141に色を付与し、その結果として、展開図141に色が付与される。すなわち、展開図生成部14は、単純化モデル122の表面に複数の画像7の対応する画素の色を投影することで、単純化モデル122の表面に、燃料タンクと実質的に同じ色、又は、少なくとも燃料タンクの検出したい発錆個所が肉眼又は自動的な画像処理で識別可能な色を、付与する。このように色が付与された単純化モデル122を展開図141に変換することで、展開図141に上記の色が付与される。 The development drawing generation unit 14 gives a color to the development drawing 141 to the simplified model 122 based on the plurality of images 7 of the fuel tank, and as a result, the development drawing 141 is given a color. That is, the developed view generation unit 14 projects the colors of the corresponding pixels of the plurality of images 7 onto the surface of the simplified model 122, so that the surface of the simplified model 122 has substantially the same color as the fuel tank, or At least the rusted part to be detected in the fuel tank is given a color that can be identified by the naked eye or automatic image processing. By converting the simplified model 122 to which the color is given in this way into the developed view 141, the above-mentioned color is given to the developed view 141.

以下、展開図生成部14によって色が付与された単純化モデル122と展開図141をそれぞれ、色付き単純化モデル122及び色付きの展開図141と呼ぶ場合がある。展開図生成部14は、燃料タンクの色付き単純化モデル122と色付きの展開図141をその燃料タンクに関連付けてデータベース10に登録する。データベース10に登録された色付き単純化モデル122と色付きの展開図141は、状態検出部15に供給され得る。 Hereinafter, the simplified model 122 and the developed view 141 to which colors are given by the developed view generation unit 14 may be referred to as a colored simplified model 122 and a colored developed view 141, respectively. The development drawing generation unit 14 registers the colored simplification model 122 of the fuel tank and the colored development drawing 141 in association with the fuel tank in the database 10. The colored simplification model 122 and the colored development view 141 registered in the database 10 can be supplied to the state detection unit 15.

なお、展開図生成部14は、3次元モデル121に基づいて単純化モデル122と展開図141を生成することに限られない。展開図生成部14は、設計図取得部13から取得した設計図に基づいて単純化モデル122と展開図141を生成してもよいし、あるいは、ユーザの手動操作によって単純化モデル122と展開図141を作成してもよい。 The development drawing generation unit 14 is not limited to generating the simplified model 122 and the development drawing 141 based on the three-dimensional model 121. The development drawing generation unit 14 may generate the simplified model 122 and the development drawing 141 based on the design drawing acquired from the design drawing acquisition unit 13, or the simplified model 122 and the development drawing may be manually operated by the user. 141 may be created.

展開図生成部14は、複数の画像7に基づいて単純化モデル122と展開図144に色を付与することに限られない。展開図生成部14は、色付きの3次元モデル121に基づいて、単純化モデル122と展開図144に色を付与してもよい。 The development drawing generation unit 14 is not limited to adding colors to the simplified model 122 and the development drawing 144 based on the plurality of images 7. The development drawing generation unit 14 may add colors to the simplified model 122 and the development drawing 144 based on the colored three-dimensional model 121.

状態検出部15は、色付きの展開図141に基づいて、燃料タンクの特定状態の個所、例えば所定の異常個所、例えば発錆個所を検出する。すなわち、状態検出部15は、展開図141の表面色から燃料タンクの発錆個所を検出し、その発錆個所を示すために、展開図141に「印」の一例としての錆マーク151(図6参照)を記す。 The state detection unit 15 detects a specific state portion of the fuel tank, for example, a predetermined abnormal portion, for example, a rusted portion, based on the colored development drawing 141. That is, the state detection unit 15 detects the rusted portion of the fuel tank from the surface color of the developed view 141, and in order to show the rusted portion, the rust mark 151 as an example of the “mark” in the developed view 141 (FIG. 6) is described.

以下、発錆個所が示された展開図141を検出結果展開図152と示す場合がある。状態検出部15は、燃料タンクの検出結果展開図152をその燃料タンクに関連付けてデータベース10に登録する。登録された検出結果展開図152は展開図編集部16へ供給され得る。 Hereinafter, the developed view 141 showing the rusted portion may be shown as the detection result developed view 152. The state detection unit 15 associates the detection result development view 152 of the fuel tank with the fuel tank and registers it in the database 10. The registered detection result development view 152 can be supplied to the development view editing unit 16.

なお、状態検出部15は、色付きの展開図141に基づいて発錆個所などの特定状態個所を検出することだけに限られない。対象物の画像7に基づいて、又は、それらの画像7が投影された他のモデル、例えば3次元モデル121あるいは単純化モデル122に基づいて、同検出を行ってもよい。 The state detection unit 15 is not limited to detecting a specific state portion such as a rusted portion based on the colored development drawing 141. The detection may be performed based on the image 7 of the object or based on another model on which the image 7 is projected, for example, the 3D model 121 or the simplified model 122.

展開図編集部16は、いずれかのユーザ端末4から要求があれば、検出結果展開図152を、それをユーザが編集可能に構成されたGUI(グラフィカル・ユーザ・インタフェース)に組み込んだ上で、そのGUIをそのユーザ端末4の表示装置41へ表示させる。ユーザは、表示装置41上のGUIに表示される検出結果展開図152を編集することにより、検査結果レポートへの掲載に適したレポート用展開図153(図7参照)を作成することができる。 If there is a request from any of the user terminals 4, the development drawing editing unit 16 incorporates the detection result development drawing 152 into a GUI (graphical user interface) configured to be editable by the user, and then incorporates the detection result development drawing 152 into a GUI (graphical user interface) configured to be editable by the user. The GUI is displayed on the display device 41 of the user terminal 4. By editing the detection result development view 152 displayed on the GUI on the display device 41, the user can create a report development view 153 (see FIG. 7) suitable for publication in the inspection result report.

図6に例示されるように、検出結果展開図152は燃料タンクの異なる部分をそれぞれ表す複数の2次元図143、144から構成され得る。図6の例示では、一つの2次元図143は燃料タンクの側壁面を表し、別の2次元図144は燃料タンクの屋根面を表している。上述したGUIを操作することで、ユーザは、検出結果展開図152を構成する複数の2次元図143、144の相対位置を編集可能である。例えば、図6に例示された検出結果展開図152の屋根面を表す2次元図144の位置を、図7に例示される位置へ移動させるなどの編集ができる。 As illustrated in FIG. 6, the detection result development view 152 may consist of a plurality of two-dimensional views 143 and 144, each representing different parts of the fuel tank. In the example of FIG. 6, one two-dimensional view 143 represents the side wall surface of the fuel tank, and another two-dimensional view 144 represents the roof surface of the fuel tank. By operating the GUI described above, the user can edit the relative positions of the plurality of two-dimensional diagrams 143 and 144 constituting the detection result development diagram 152. For example, the position of the two-dimensional FIG. 144 showing the roof surface of the detection result development view 152 illustrated in FIG. 6 can be edited by moving it to the position illustrated in FIG. 7.

また、上述したGUIを操作することによって、例えば、図7に例示された修正ツール8を操作することによって、ユーザは検出結果展開図152上で、状態検出部15によって自動的に検出された錆マーク151を修正することができる。例えば、誤検出された錆マークを削除したり、検出漏れの発錆個所に新たな錆マークを追加したりすることができる。とくに錆は、雨水に溶けて発錆個所の下方の領域まで流れ落ちてその領域を錆色にしていることが多く、そのような領域(例えば、図7に示された錆マーク151の修正ツール8で囲まれた部分)も発錆個所として誤って自動検出されるおそれがある。そこで、人が肉眼で検出結果展開図152を観察して、自動検出結果を修正できることのメリットは大きい。 Further, by operating the GUI described above, for example, by operating the correction tool 8 illustrated in FIG. 7, the user can automatically detect rust on the detection result development view 152 by the state detection unit 15. Mark 151 can be modified. For example, it is possible to delete a rust mark that has been erroneously detected, or to add a new rust mark to a rusted portion of a detection omission. In particular, rust often dissolves in rainwater and flows down to the area below the rusted part to make that area rust-colored. The enclosed area) may also be erroneously automatically detected as a rusted area. Therefore, there is a great merit that a person can visually observe the detection result development view 152 and correct the automatic detection result.

展開図編集部16は、検出結果展開図152を編集することで作られたレポート用展開図153に基づいて、発錆個所の定量分析、例えば、燃料タンクの表面積に対する発錆個所の面積の割合の計算等、を行う。展開図編集部16は、燃料タンクのレポート用展開図153と定量分析結果とを、その燃料タンクに関連づけてデータベース10に登録する。登録されたレポート用展開図153と定量分析結果は、レポート生成部17に供給され得る。 The development view editing unit 16 performs quantitative analysis of rusted parts, for example, the ratio of the area of the rusted parts to the surface area of the fuel tank, based on the developed view 153 for the report created by editing the detection result development drawing 152. Calculation, etc. The development drawing editorial unit 16 registers the development drawing 153 for the report of the fuel tank and the quantitative analysis result in the database 10 in association with the fuel tank. The registered development diagram 153 for reporting and the quantitative analysis result may be supplied to the report generation unit 17.

レポート生成部17は、展開図編集部16によって生成されたレポート用展開図153と発錆個所の定量分析結果とに基づいて、外観検査結果を表すレポートを生成する。レポート生成部17は、いずれかのユーザ端末4から供給されると、レポートをユーザが編集可能なように構成されたGUI上にそのレポートを組み込んだ上で、そのGUIをそのユーザ端末4の表示装置41に表示させる。レポートには、少なくとも、発錆個所の定量分析の結果と、レポート用展開図153とが自動的に掲載される。 The report generation unit 17 generates a report showing the appearance inspection result based on the development view 153 for the report generated by the development drawing editing unit 16 and the quantitative analysis result of the rusted portion. When the report generation unit 17 is supplied from any of the user terminals 4, the report is incorporated in the GUI configured so that the user can edit the report, and the GUI is displayed on the user terminal 4. Displayed on the device 41. At least the result of the quantitative analysis of the rusted part and the development drawing 153 for the report are automatically included in the report.

レポートを編集できる上記GUI上でユーザによりレポート用展開図153が編集された場合には、レポート生成部17は、展開図編集部16を呼び出してレポート用展開図153を再生成してもよい。レポート生成部17は、再生成されるレポート用展開図153に基づいてレポートを再生成し、再生成されたレポートを表示装置41に表示させてもよい。 When the report development diagram 153 is edited by the user on the GUI that can edit the report, the report generation unit 17 may call the development diagram editing unit 16 to regenerate the report development diagram 153. The report generation unit 17 may regenerate the report based on the regenerated development diagram 153 for the report, and display the regenerated report on the display device 41.

レポート生成部17は、ユーザ端末4からのユーザの要求に応じて、燃料タンクのユーザにより所望された部位の画像7を表示装置41に表示させたり、その画像7をレポートに加えたりすることができる。すなわち、レポート生成部17は、例えば、GUI上に表示された発錆個所のうちのいずれかがユーザによって選択された場合には、ユーザによって選択された発錆個所の画像7をデータベース10から取得して、そのGUI上に表示することができる。レポート生成部17は、その表示された画像7をレポート中のユーザ所望の位置に加えることができる。 The report generation unit 17 may display an image 7 of a portion desired by the user of the fuel tank on the display device 41 or add the image 7 to the report in response to the user's request from the user terminal 4. can. That is, for example, when any one of the rusted parts displayed on the GUI is selected by the user, the report generation unit 17 acquires the image 7 of the rusted part selected by the user from the database 10. Then, it can be displayed on the GUI. The report generation unit 17 can add the displayed image 7 to a user-desired position in the report.

図8は、外観検査支援システム1が行う処理の全体的な流れ図である。 FIG. 8 is an overall flow chart of the processing performed by the visual inspection support system 1.

ステップS1で、画像取得部11が、いずれかのユーザ端末4から、1以上の検査対象、例えば1以上の燃料タンク、を撮影した複数の画像を取得し、取得した各燃料タンクの複数の画像を、各燃料タンクに関連付けてデータベース10に登録する。 In step S1, the image acquisition unit 11 acquires a plurality of images of one or more inspection targets, for example, one or more fuel tanks, from any user terminal 4, and acquires a plurality of images of each fuel tank. Is registered in the database 10 in association with each fuel tank.

その後、ステップS2で、いずれかのユーザ端末4からの対象物選択要求を受けて、展開図生成部14が、データベース10にと登録された1以上の検査対象の中から、一つの検査対象、例えば一つの燃料タンクを選択する。その後、ステップS3で、展開図生成部14が、選択された燃料タンクの展開図がデータベース10内に既にあるかどうかを判断する。その判断の結果がYesであれば、制御はステップS5へ進み、Noであれば、制御はステップS4へ進む。 After that, in step S2, upon receiving the object selection request from any user terminal 4, the development drawing generation unit 14 receives one inspection target from one or more inspection targets registered in the database 10. For example, select one fuel tank. Then, in step S3, the development map generation unit 14 determines whether or not the development map of the selected fuel tank already exists in the database 10. If the result of the determination is Yes, the control proceeds to step S5, and if No, the control proceeds to step S4.

ステップS4では、展開図生成部14が、選択された燃料タンクの展開図を作成する。その際、3次元モデル生成部12又は設計図取得部13も、必要に応じて、展開図作成に関与する。ここで作成される展開図は、燃料タンクの画像の色が投影された色付き展開図であってよい。その後、制御はステップS5へ進む。 In step S4, the development view generation unit 14 creates a development view of the selected fuel tank. At that time, the three-dimensional model generation unit 12 or the design drawing acquisition unit 13 is also involved in the development drawing creation as necessary. The developed view created here may be a colored developed view on which the color of the image of the fuel tank is projected. After that, the control proceeds to step S5.

ステップS5では、状態検出部15が、検査対象の燃料タンクの例えば色付き展開図から、異常個所、例えば発錆個所を検出する。その後、ステップS6で、状態検出部15が、検出された異常個所、例えば発錆個所を、その燃料タンクの展開図に投影する(例えば、展開図の発錆個所に錆マークを付ける)。発錆箇所が投影された(錆マークのつけられた)展開図が前述の検出結果展開図である。 In step S5, the state detection unit 15 detects an abnormal portion, for example, a rusted portion from, for example, a colored development view of the fuel tank to be inspected. Then, in step S6, the state detection unit 15 projects the detected abnormal portion, for example, a rusted portion on the developed view of the fuel tank (for example, a rust mark is added to the rusted portion on the developed view). The developed view on which the rusted portion is projected (with the rust mark) is the above-mentioned detection result developed view.

ステップS5の異常個所検出は、ステップS4の展開図作成の前に行われてもよい。その場合、状態検出部15は、燃料タンクの画像7に基づいて、又は、それらの画像7が投影された3次元モデル121に基づいて、異常個所の検出を行なうことができる。 The abnormal portion detection in step S5 may be performed before the development drawing of step S4 is created. In that case, the state detection unit 15 can detect the abnormal portion based on the image 7 of the fuel tank or based on the three-dimensional model 121 on which those images 7 are projected.

その後、ステップS7で、展開図編集部16が、いずれかのユーザ端末4からの要求に応じて、検出結果展開図をそのユーザ端末4に表示させてユーザに自動的な検査結果を確認させる。そして、そのユーザ端末4に入力されるユーザ操作に応じて、検出結果展開図の編集、及び必要があれば修正を行う。さらに、展開図編集部16が、更なる修正の必要がなくなった検出結果展開図に基づいて、発錆個所の面積や面積比などの定量的な計算を行う。 After that, in step S7, the development map editing unit 16 displays the detection result development diagram on the user terminal 4 in response to a request from any user terminal 4, and causes the user to confirm the automatic inspection result. Then, according to the user operation input to the user terminal 4, the detection result development diagram is edited and, if necessary, corrected. Further, the development map editing unit 16 performs quantitative calculations such as the area and area ratio of the rusted portion based on the detection result development map that does not require further correction.

その後、ステップS8で、レポート生成部16が、いずれかのユーザ端末4からの要求に応じて、その燃料タンクの検出結果展開図及び必要あれば特定個所の画像やその他の登録データを用いて、その燃料タンクの検査結果を表すレポートを作成する。 After that, in step S8, the report generation unit 16 responds to a request from any user terminal 4 by using a detection result development diagram of the fuel tank, an image of a specific location if necessary, and other registration data. Create a report showing the inspection results of the fuel tank.

図9は、図3のステップS4の展開図作成の流れを示す。 FIG. 9 shows a flow of creating a development view in step S4 of FIG.

S11で、ユーザがユーザ端末4から展開図生成部14に対して作成方法を選択する。ステップS12で、選択された作成方法が手動か自動かが判断され、前者であれば制御はステップS13へ進む。 In S11, the user selects a creation method from the user terminal 4 to the development drawing generation unit 14. In step S12, it is determined whether the selected creation method is manual or automatic, and if the former, the control proceeds to step S13.

ステップS13では、ユーザがユーザ端末4から展開図生成部14に対して、単純化モデルの諸元を指定する。その諸元には、例えば、形状種(例えば円筒、球、直方体、円錐、等)及び寸法(例えば高さ、半径、長さ、幅、等)等の単純化モデルの3次元形状を特定するための形状パラメータが含まれる。その後、ステップS15で、指定された形状パラメータに基づいて単純化モデルが作成される。その後、ステップS14で、展開図生成部14が、指定された諸元に基づいて、燃料タンクの単純化モデルを作成する。 In step S13, the user specifies the specifications of the simplified model from the user terminal 4 to the development drawing generation unit 14. The specifications specify, for example, a three-dimensional shape of a simplified model such as shape type (eg cylinder, sphere, rectangular parallelepiped, cone, etc.) and dimensions (eg height, radius, length, width, etc.). Contains shape parameters for. Then, in step S15, a simplified model is created based on the designated shape parameters. Then, in step S14, the development drawing generation unit 14 creates a simplified model of the fuel tank based on the designated specifications.

上述のステップS12で展開図の自動作成が選ばれた場合には、制御はステップS15へと進み、そこで、3次元モデル生成部12によって、検査対象の燃料タンクの多数の3次元点群が生成される。ここで、燃料タンクの3次元点群とは、その燃料タンクの多数の特徴点のそれぞれの3次元位置データを意味する。その後、ステップS16で、上述の3次元点群をメッシュ状に繋ぐことによって、その燃料タンクの3次元モデル(3次元メッシュモデル)121(図3、図4、図5参照)が生成される。 If automatic development drawing is selected in step S12 above, control proceeds to step S15, where the 3D model generator 12 generates a large number of 3D point clouds for the fuel tank to be inspected. Will be done. Here, the three-dimensional point cloud of the fuel tank means the three-dimensional position data of each of a large number of feature points of the fuel tank. Then, in step S16, by connecting the above-mentioned three-dimensional point cloud in a mesh shape, a three-dimensional model (three-dimensional mesh model) 121 (see FIGS. 3, 4, and 5) of the fuel tank is generated.

その後、ステップS17で、その燃料タンクの単純化モデル122(図3、図4、図5参照)が生成される。 Then, in step S17, a simplified model 122 of the fuel tank (see FIGS. 3, 4, and 5) is generated.

単純化モデル122の3次元形状は、それを2次元の展開図に展開することが可能なものであれば、特に限定はないが、ユーザにとって検査対象の実物と展開図との位置関係が把握しやすい構造の展開図(例えば、側面図と平面図とのセット、あるいは、正面図と右側面図と左側面図と背面図と平面図のセット、等)に展開され得るものが好ましい。例えば、単純化モデル122の形状は、燃料タンクの3次元形状の中から、検査目的に大きく影響しない細かい形状要素が簡略化又は省略された形状であってよい。また、単純化モデル122の形状は、例えば、円筒型、直方型、円錐型、多角錐型、球形又はそれらの組み合わせ等の幾何学的形状であってよい。 The three-dimensional shape of the simplified model 122 is not particularly limited as long as it can be expanded into a two-dimensional developed view, but the user can grasp the positional relationship between the actual object to be inspected and the developed view. It is preferable that the structure can be easily developed into a developed view (for example, a set of a side view and a plan view, or a set of a front view, a right side view, a left side view, a rear view, and a plan view, etc.). For example, the shape of the simplified model 122 may be a shape in which fine shape elements that do not significantly affect the inspection purpose are simplified or omitted from the three-dimensional shape of the fuel tank. Further, the shape of the simplified model 122 may be a geometric shape such as a cylindrical shape, a rectangular shape, a conical shape, a polygonal pyramid shape, a spherical shape, or a combination thereof.

ステップS14又はS17で燃料タンクの単純化モデル122が生成された後、ステップS18で、その燃料タンクの画像7に基づく色がその単純化モデル122に付けられる。その後、ステップS19で、色付きの単純化モデル122が、2次元の展開図141(図3、図4、図5参照)に変換される。 After the fuel tank simplification model 122 is generated in step S14 or S17, in step S18 a color based on image 7 of the fuel tank is added to the simplification model 122. Then, in step S19, the colored simplified model 122 is converted into a two-dimensional development view 141 (see FIGS. 3, 4, and 5).

ステップS18で生成された展開図141には、その展開図141と検査対象との位置関係又は方向関係を示す補助情報が記されていてもよい。例えば、図3に例示された燃料タンクを円筒形に単純化した展開図141(1)には、燃料タンクの各方向を示す補助情報、例えば、0°(正面方向)、90°(左側面方面)、180°(背面方向)及び270°(右側面方向)が付加されている。 The developed view 141 generated in step S18 may include auxiliary information indicating the positional relationship or the directional relationship between the developed view 141 and the inspection target. For example, in the developed view 141 (1) in which the fuel tank illustrated in FIG. 3 is simplified into a cylindrical shape, auxiliary information indicating each direction of the fuel tank is shown, for example, 0 ° (front direction) and 90 ° (left side surface). Direction), 180 ° (backward direction) and 270 ° (right side direction) are added.

図10は、図9のステップS15の3次元点群生成の流れを示す。 FIG. 10 shows the flow of three-dimensional point cloud generation in step S15 of FIG.

ステップS21で、3次元モデル生成部12が、データベース10から燃料タンクの複数の画像7を読み込む。その後、ステップS22で、3次元モデル生成部12が、それらの画像7から、その燃料タンクの特徴点に相当する画素が多数抽出される。3次元モデル生成部12は、燃料タンクの特徴的な形状、色又は模様をもつ部分の点を特徴点として抽出してよい。3次元モデル生成部12は、例えば、燃料タンクに備えられる階段、凸部、凹部又は窓等の点を特徴点として抽出してもよい。 In step S21, the three-dimensional model generation unit 12 reads a plurality of images 7 of the fuel tank from the database 10. After that, in step S22, the three-dimensional model generation unit 12 extracts a large number of pixels corresponding to the feature points of the fuel tank from those images 7. The three-dimensional model generation unit 12 may extract points having a characteristic shape, color, or pattern of the fuel tank as feature points. For example, the three-dimensional model generation unit 12 may extract points such as stairs, protrusions, recesses, and windows provided in the fuel tank as feature points.

その後、3次元モデル生成部12は、燃料タンクの複数の画像7から外部標定要素と内部標定要素とを算出する(S23)。3次元モデル生成部12は、画像7から抽出された多数の特徴点相当の画素と、外部標定要素と内部標定要素とに基づいて、燃料タンクの多数の特徴点のそれぞれの3次元位置(つまり3次元点群)を算出する(S24)。 After that, the three-dimensional model generation unit 12 calculates the external orientation element and the internal orientation element from the plurality of images 7 of the fuel tank (S23). The three-dimensional model generation unit 12 is based on the pixels corresponding to the large number of feature points extracted from the image 7, and the external and internal control elements, and the three-dimensional positions of the large number of feature points in the fuel tank (that is, that is). 3D point cloud) is calculated (S24).

なお、3次元モデル121の生成方法は、上述した方法に限られない。3次元モデル生成部12は、例えば、画像7から3次元モデル121を生成する方法を学習させたニューラルネットワークを用いることによって、3次元モデル121を生成してもよい。 The method of generating the three-dimensional model 121 is not limited to the method described above. The 3D model generation unit 12 may generate the 3D model 121, for example, by using a neural network trained in a method of generating the 3D model 121 from the image 7.

図11は、図9のステップS17の単純化モデル生成の流れを示す。 FIG. 11 shows the flow of generation of the simplified model in step S17 of FIG.

ステップS31で、展開図生成部14が、データベース10内に、検査対象の燃料タンクの設計図面があるかどうかを判定する。その判定結果がYesならば、設計図取得部13は、データベース10からその燃料タンクの設計図面を読み込む(S32)。その判定結果がNoならば、展開図生成部14が、データベース10からその燃料タンクの3次元モデルを読み込む(S33)。 In step S31, the development drawing generation unit 14 determines whether or not there is a design drawing of the fuel tank to be inspected in the database 10. If the determination result is Yes, the design drawing acquisition unit 13 reads the design drawing of the fuel tank from the database 10 (S32). If the determination result is No, the development drawing generation unit 14 reads the three-dimensional model of the fuel tank from the database 10 (S33).

その後、展開図生成部14は、その燃料タンクの設計図面又は3次元モデルに基づいて、単純化モデルの諸元、例えば、形状種や寸法を決定する(S34)。なお、展開図生成部14は、検査対象の形状又は種類等に応じて、単純化モデルの形状種を決定してもよい。また、展開図生成部14は、予め設定されている異なる種類の諸元の中から、検査対象物に応じて、特定の諸元を選択してもよい。その後、展開図生成部14は、決定された諸元に基づいて単純化モデルを生成する(S35)。 After that, the development drawing generation unit 14 determines the specifications of the simplified model, for example, the shape type and the dimensions, based on the design drawing of the fuel tank or the three-dimensional model (S34). The development drawing generation unit 14 may determine the shape type of the simplified model according to the shape or type of the inspection target. Further, the development drawing generation unit 14 may select a specific specification from different types of preset specifications according to the inspection target. After that, the development drawing generation unit 14 generates a simplified model based on the determined specifications (S35).

図12は、図9のステップS18の単純化モデルの色付け処理の流れを示す。 FIG. 12 shows the flow of the coloring process of the simplified model of step S18 of FIG.

ステップS41で、展開図生成部14が、データベース10から、検査対象の燃料タンクの複数の画像7を読み込むと共に、それらの画像7の外部評定要素と内部評定要素を取得する。その燃料タンクの3次元モデルがすでに作成されている場合には、各画像7の外部評定要素と内部評定要素は、図10のステップS23ですでに算出されてデータベース10に登録されているから、それを読み込めばいい。他方、その画像7の外部評定要素と内部評定要素がまだ計算されていない場合には、図10のステップS21からS23と同じ方法で、外部評定要素と内部評定要素を計算すればよい。 In step S41, the development drawing generation unit 14 reads a plurality of images 7 of the fuel tank to be inspected from the database 10 and acquires the external rating element and the internal rating element of those images 7. If a three-dimensional model of the fuel tank has already been created, the external rating element and the internal rating element of each image 7 have already been calculated in step S23 of FIG. 10 and registered in the database 10. Just load it. On the other hand, when the external rating element and the internal rating element of the image 7 have not been calculated yet, the external rating element and the internal rating element may be calculated by the same method as in steps S21 to S23 of FIG.

その後、ステップS42で、展開図生成部14が、それぞれの画像7の外部評定要素と内部評定要素に基づいて、単純化モデルの表面のすべての座標点を、それぞれの座標点が映っている1以上の画像7の画素に対応付ける。換言すれば、単純化モデルの各座標点がどの画像7のどの画素に写っているかを特定する。たいていの場合、各座標点は2枚以上の異なる画像7内の画素に写っているので、各座標点に対応する画素として2つ以上の画素が特定される。 Then, in step S42, the development drawing generation unit 14 shows all the coordinate points on the surface of the simplified model based on the external rating element and the internal rating element of each image 7. Corresponds to the pixels of the above image 7. In other words, it is specified in which pixel of which image 7 each coordinate point of the simplified model is reflected. In most cases, each coordinate point is reflected in two or more pixels in different images 7, so that two or more pixels are specified as pixels corresponding to each coordinate point.

その後、ステップS43で、展開図生成部14が、単純化モデルの表面の各座標点について、ステップS42で特定された2以上の対応画素の内から、その座標点をカメラの最も正面に近い位置で撮影した1つの対応画素を選択する。その座標点をカメラの正面に位置させて撮影した結果が、その座標点の色を最も正確に示していると判断されるからである。 After that, in step S43, the development drawing generation unit 14 sets the coordinate point of each coordinate point on the surface of the simplified model closest to the front of the camera from among the two or more corresponding pixels specified in step S42. Select one corresponding pixel taken in. This is because it is judged that the result of shooting with the coordinate point positioned in front of the camera most accurately indicates the color of the coordinate point.

その後、ステップS44で、展開図生成部14が、ステップ43で選択した対応画素の画素値を、単純化モデルのその座標点の色に設定する。ステップ45で、単純化モデルの全ての座標点について、ステップS43とS44の処理を行うことで、単純化モデルの全ての座標点の入りを設定する。これにより、色付き単純化モデルが出来上がる。 After that, in step S44, the development drawing generation unit 14 sets the pixel value of the corresponding pixel selected in step 43 to the color of the coordinate point of the simplified model. In step 45, the input of all the coordinate points of the simplified model is set by performing the processes of steps S43 and S44 for all the coordinate points of the simplified model. This completes a colored simplified model.

図13は、図8のステップS5の異常検出の流れを示す。 FIG. 13 shows the flow of abnormality detection in step S5 of FIG.

ステップS51で、ユーザがユーザ端末4を通じて状態検出部15に対して、異常検出のための解析方法を選択する。選択された解析方法が機械学習である場合(S52、Yes)には、制御はステップS53進む、ステップS15では、状態検出部15が、予め用意された学習済み異常検出モデル(例えば、検査対象である燃料タンクの表面色に基づいて発錆個所などの異常を検出する方法を学習したニューラルネットワーク)を用いて、その燃料タンクの発錆個所などの異常個所を検出する。このとき、異常検出モデルには、例えば、色付きの展開図141又は色付きの単純化モデル122が入力され、そして、異常検出モデルは、色付きの展開図141又は色付きの単純化モデル122の表面から、発錆などの異常がある個所を検出する。 In step S51, the user selects an analysis method for abnormality detection for the state detection unit 15 through the user terminal 4. When the selected analysis method is machine learning (S52, Yes), the control proceeds to step S53. In step S15, the state detection unit 15 is prepared in advance for a learned abnormality detection model (for example, in the inspection target). Using a neural network (neural network) that learned how to detect abnormalities such as rusted parts based on the surface color of a certain fuel tank, the abnormal parts such as rusted parts of the fuel tank are detected. At this time, for example, a colored development view 141 or a colored simplification model 122 is input to the anomaly detection model, and the anomaly detection model is input from the surface of the colored development view 141 or the colored simplification model 122. Detects areas with abnormalities such as rust.

ステップS52で、選択された解析方法が画像処理である場合(S52、No)には、状態検出部15は、色付き展開図141又は色付き単純化モデル122の色データを、必要に応じて、画像処理で異常個所を検出するのに適した所定の色空間の色データに変換する。例えば、元の色データがRGB系であるところ、これをHSV(Hue、Saturation、Brightness)系、又は、HLS(Hue、Lightness、Saturation)系の色データに変換する(S54)。 When the analysis method selected in step S52 is image processing (S52, No), the state detection unit 15 uses the color data of the colored development diagram 141 or the colored simplified model 122 as an image, if necessary. It is converted into color data in a predetermined color space suitable for detecting an abnormal part in the process. For example, where the original color data is RGB-based, it is converted into HSV (Hue, Saturation, Brightness) -based or HLS (Hue, Lightness, Saturation) -based color data (S54).

その後、ステップS55で、状態検出部15は、発錆などの異常個所を識別するために予め用意された多次元の特徴空間上で、色付き展開図141又は色付き単純化モデル122の各位置の色データを評価することにより、発錆などの異常個所を検出する。 After that, in step S55, the state detection unit 15 determines the color of each position of the colored development diagram 141 or the colored simplified model 122 on the multidimensional feature space prepared in advance for identifying an abnormal part such as rust. By evaluating the data, abnormal parts such as rust can be detected.

以上説明した一実施形態にかかる外観検査支援システム1は、展開図編集部16及びレポート生成部17を備えることによって、対象物の発錆個所等の所定状態個所の定量情報に基づいたレポートを表示装置41に表示させることができる。これにより、外観検査支援システム1は、所定状態個所の定量情報をレポートに図面や文を用いて的確に表現することができる。その結果、外観検査支援システム1は、現実の要求により適合した対象物検査を支援することができる。 The visual inspection support system 1 according to the above-described embodiment is provided with a development view editing unit 16 and a report generation unit 17, and displays a report based on quantitative information of a predetermined state location such as a rusted portion of an object. It can be displayed on the device 41. As a result, the visual inspection support system 1 can accurately express the quantitative information of the predetermined state portion by using drawings and sentences in the report. As a result, the visual inspection support system 1 can support the object inspection that is more suitable for the actual demand.

一実施形態にかかる外観検査支援システム1は、展開図編集部16を備えることによって、ユーザがGUI上で展開図121を編集することができる。これにより、外観検査支援システム1は、よりユーザに視認性の高い説明用展開図153をレポートに載せることができる。 The visual inspection support system 1 according to the embodiment includes the development drawing editing unit 16, so that the user can edit the development drawing 121 on the GUI. As a result, the visual inspection support system 1 can put the explanatory development drawing 153, which is more visible to the user, in the report.

一実施形態にかかる外観検査支援システム1は、展開図編集部16を備えることによって、錆マーク151等の自動検出結果をユーザが編集することができる。これにより、外観検査支援システム1は、より正確な検査結果をレポートに載せることができる。 The visual inspection support system 1 according to the embodiment includes the development drawing editing unit 16, so that the user can edit the automatic detection result of the rust mark 151 and the like. As a result, the visual inspection support system 1 can put a more accurate inspection result in the report.

一実施形態にかかる外観検査支援システム1は、レポート生成部17を備えることによって、検査対象のユーザが所望する部位が表示される画像をGUI上に表示させることができる。これにより、外観検査支援システム1の利便性が向上する。 By providing the report generation unit 17, the visual inspection support system 1 according to the embodiment can display an image on the GUI on which a portion desired by the user to be inspected is displayed. This improves the convenience of the visual inspection support system 1.

一実施形態にかかる外観検査支援システム1は、画像取得部11を備えることにより、ドローン2又は携帯カメラ3の少なくともいずれか一方から画像7を取得することができる。これにより、ドローン2では撮影できない検査対象の外観の範囲を携帯カメラ3の画像7で補完することができる。その結果、外観検査支援システム1は、現実の制限により適合した対象物検査を支援することができる。 The visual inspection support system 1 according to the embodiment can acquire an image 7 from at least one of the drone 2 and the portable camera 3 by including the image acquisition unit 11. As a result, the range of the appearance of the inspection target that cannot be photographed by the drone 2 can be complemented by the image 7 of the mobile camera 3. As a result, the visual inspection support system 1 can support the object inspection that is more suitable for the actual limitation.

一実施形態にかかる外観検査支援システム1は、燃料タンク以外の様々な種類の人工的な又は自然の検査対象物の外観検査に適用できる。 The visual inspection support system 1 according to an embodiment can be applied to visual inspection of various types of artificial or natural inspection objects other than fuel tanks.

以上、本発明の一実施形態を説明したが、これは本発明の説明のための例示にすぎず、それとは異なる様々な態様で本発明を実施することができる。例えば、状態検出部15は、色付きの展開図又は色付き単純化モデルに代えて、3次元モデル生成部12からの色付きの3次元モデル121又は検査対象の画像7に基づいて、発錆箇所などの異常個所を検出してもよい。 Although one embodiment of the present invention has been described above, this is merely an example for explaining the present invention, and the present invention can be carried out in various aspects different from the above. For example, the state detection unit 15 replaces the colored development view or the colored simplified model with the colored 3D model 121 from the 3D model generation unit 12 or the rusted portion based on the image 7 to be inspected. An abnormal part may be detected.

また、例えば、展開図生成部14は、単純化モデル122に代えて、検査対象の設計図面に基づいて展開図141を生成してもよい。その場合、展開図生成部14は、設計図面から作成した展開図の各座標点を、検査対象物の複数の画像7の中の1以上の画素に対応付け、その1以上の対応画素の画素値に基づいて各座標点の色を設定することにより、色付きの展開図を作成することができる。 Further, for example, the development drawing generation unit 14 may generate the development drawing 141 based on the design drawing to be inspected instead of the simplified model 122. In that case, the development drawing generation unit 14 associates each coordinate point of the development drawing created from the design drawing with one or more pixels in the plurality of images 7 of the inspection target, and the pixels of the one or more corresponding pixels. By setting the color of each coordinate point based on the value, it is possible to create a colored development view.

また、例えば、展開図生成部14は、単純化モデル122に代えて、検査対象の設計図面に基づいて展開図141を生成してもよい。その場合、展開図生成部14は、設計図面から作成した展開図の各座標点を、検査対象物の複数の画像7の中の1以上の画素に対応付け、その1以上の対応画素の画素値に基づいて各座標点の色を設定することにより、色付きの展開図を作成することができる。 Further, for example, the development drawing generation unit 14 may generate the development drawing 141 based on the design drawing to be inspected instead of the simplified model 122. In that case, the development drawing generation unit 14 associates each coordinate point of the development drawing created from the design drawing with one or more pixels in the plurality of images 7 of the inspection target, and the pixels of the one or more corresponding pixels. By setting the color of each coordinate point based on the value, it is possible to create a colored development view.

1・・・外観検査支援システム,11・・・画像取得部,12・・・3次元モデル生成部,13・・・設計図取得部,14・・・展開図生成部,15・・・状態検出部,16・・・展開図編集部,17・・・レポート生成部,2・・・ドローン,21・・・飛行装置,22・・・位置測定装置,23・・・方位測定装置,24・・・カメラ,3・・・携帯カメラ,31・・・写真撮影装置,32・・・位置測定装置,33・・・方位測定装置,4・・・ユーザ端末,41・・・表示装置 1 ... Visual inspection support system, 11 ... Image acquisition unit, 12 ... 3D model generation unit, 13 ... Design drawing acquisition unit, 14 ... Development drawing generation unit, 15 ... State Detection unit, 16 ... development map editing unit, 17 ... report generation unit, 2 ... drone, 21 ... flight device, 22 ... position measurement device, 23 ... orientation measurement device, 24 ... camera, 3 ... portable camera, 31 ... photography device, 32 ... position measuring device, 33 ... orientation measuring device, 4 ... user terminal, 41 ... display device

Claims (12)

対象物が表示される複数の画像を取得する画像取得部と、
前記対象物の展開図を生成する展開図生成部と、
前記画像に基づいて前記対象物の所定の状態が現れる前記展開図上の所定の領域を検出する状態検出部と、
前記展開図と前記所定の領域に関する情報との表示を出力する手段と
を備える外観検査支援システム。
An image acquisition unit that acquires multiple images in which an object is displayed,
A development drawing generation unit that generates a development drawing of the object, and a development drawing generation unit.
A state detection unit that detects a predetermined area on the developed view in which a predetermined state of the object appears based on the image, and a state detection unit.
A visual inspection support system including means for outputting a display of the developed view and information about the predetermined area.
さらに、前記外観検査支援システムは、前記展開図を構成する複数の2次元図の相対位置を調整可能に表示させる展開図編集部を備える
請求項1に記載の外観検査支援システム。
The visual inspection support system according to claim 1, further comprising a development view editing unit that adjustably displays the relative positions of a plurality of two-dimensional views constituting the development view.
さらに、前記外観検査支援システムは、前記展開図に基づいて、前記所定の領域を説明するレポートを生成するレポート生成部を備える
請求項1又は請求項2に記載の外観検査支援システム。
The visual inspection support system according to claim 1 or 2, further comprising a report generation unit that generates a report explaining the predetermined area based on the development drawing.
前記状態検出部は、前記所定の領域の定量情報を算出し、
前記レポート生成部は、前記定量情報に基づいて前記レポートを生成する
請求項3に記載の外観検査支援システム。
The state detection unit calculates quantitative information in the predetermined region and calculates the quantitative information.
The visual inspection support system according to claim 3, wherein the report generation unit generates the report based on the quantitative information.
前記状態検出部は、前記所定の領域の検出結果を前記展開図上に印付けをし、
前記展開図編集部は、前記印を追加又は削除可能に表示させる
請求項2に記載の外観検査支援システム。
The state detection unit marks the detection result of the predetermined area on the development view, and marks the detection result.
The visual inspection support system according to claim 2, wherein the development drawing editing unit displays the mark so that it can be added or deleted.
さらに、前記外観検査支援システムは、前記複数の画像に基づいて、前記対象物の3次元モデルを生成する3次元モデル生成部を備え、
前記展開図生成部は、前記複数の画像と前記3次元モデルとに基づいて、前記画像が投影される色付きの展開図を生成し、
前記状態検出部は、前記色付きの展開図に基づいて、前記所定の領域を検出する
請求項1乃至5のいずれか1項に記載の外観検査支援システム。
Further, the visual inspection support system includes a three-dimensional model generation unit that generates a three-dimensional model of the object based on the plurality of images.
The development drawing generation unit generates a colored development drawing on which the image is projected based on the plurality of images and the three-dimensional model.
The visual inspection support system according to any one of claims 1 to 5, wherein the state detection unit detects a predetermined area based on the colored development drawing.
前記3次元モデル生成部は、前記3次元モデルを単純化した単純化モデルを生成し、
前記展開図生成部は、前記単純化モデルに基づいて、前記展開図を生成する
請求項6に記載の外観検査支援システム。
The three-dimensional model generation unit generates a simplified model that is a simplification of the three-dimensional model.
The visual inspection support system according to claim 6, wherein the development drawing generation unit generates the development drawing based on the simplified model.
前記レポート生成部は、前記レポートを編集可能に表示させ、ユーザによって指定される前記展開図の一部が表示される前記画像を前記レポートに加える
請求項3又は請求項4に記載の外観検査支援システム。
The visual inspection support according to claim 3 or 4, wherein the report generation unit displays the report editably and adds the image in which a part of the developed view specified by the user is displayed to the report. system.
前記画像取得部は、カメラが備えられる移動体又は携帯可能な撮影装置の少なくとも一方によって撮影される前記画像を取得する
請求項1乃至8のいずれか1項に記載の外観検査支援システム。
The visual inspection support system according to any one of claims 1 to 8, wherein the image acquisition unit acquires the image taken by at least one of a mobile body provided with a camera or a portable photographing device.
前記画像取得部は、空中を飛行する前記移動体の飛行装置によって撮影される前記画像を取得する
請求項9に記載の外観検査支援システム。
The visual inspection support system according to claim 9, wherein the image acquisition unit acquires the image taken by the flight device of the moving object flying in the air.
前記所定の状態は、錆又は腐食の少なくともいずれか一方である
請求項1乃至請求項10のいずれか1項に記載の外観検査支援システム。
The visual inspection support system according to claim 1, wherein the predetermined state is at least one of rust and corrosion.
対象物が表示される複数の画像を取得し、
前記対象物の展開図を生成し、
前記画像に基づいて前記対象物の所定の状態が現れる前記展開図上の所定の領域を検出し、
前記展開図と前記所定の領域に関する情報とを表示させる
外観検査支援方法。
Get multiple images showing the object and
Generate a development view of the object
Based on the image, a predetermined region on the developed view in which a predetermined state of the object appears is detected.
A visual inspection support method for displaying the developed view and information about the predetermined area.
JP2020150468A 2020-09-08 2020-09-08 Appearance inspection support system and appearance inspection support method Pending JP2022045012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020150468A JP2022045012A (en) 2020-09-08 2020-09-08 Appearance inspection support system and appearance inspection support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020150468A JP2022045012A (en) 2020-09-08 2020-09-08 Appearance inspection support system and appearance inspection support method

Publications (1)

Publication Number Publication Date
JP2022045012A true JP2022045012A (en) 2022-03-18

Family

ID=80682000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020150468A Pending JP2022045012A (en) 2020-09-08 2020-09-08 Appearance inspection support system and appearance inspection support method

Country Status (1)

Country Link
JP (1) JP2022045012A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117723547A (en) * 2023-12-13 2024-03-19 江苏嘉耐高温材料股份有限公司 Quality monitoring system and method for finished product preparation based on magnesia carbon bricks

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117723547A (en) * 2023-12-13 2024-03-19 江苏嘉耐高温材料股份有限公司 Quality monitoring system and method for finished product preparation based on magnesia carbon bricks

Similar Documents

Publication Publication Date Title
EP3208774B1 (en) Methods for localization using geotagged photographs and three-dimensional visualization
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
CN112793564B (en) Autonomous parking auxiliary system based on panoramic aerial view and deep learning
US7986825B2 (en) Model forming apparatus, model forming method, photographing apparatus and photographing method
CN112184890B (en) Accurate positioning method of camera applied to electronic map and processing terminal
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
JP6996925B2 (en) Pile head analysis system, pile head analysis method, and pile head analysis program
KR101871764B1 (en) Industrial infrastructure management platform building system based on virtual reality
Adams et al. Unmanned aerial vehicle data acquisition for damage assessment in hurricane events
JP2019070631A (en) Deterioration diagnosis system using flight vehicle
JP6877293B2 (en) Location information recording method and equipment
CN113870343A (en) Relative pose calibration method and device, computer equipment and storage medium
CN113137955B (en) Unmanned aerial vehicle aerial survey virtual simulation method based on scene modeling and virtual photography
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
EP3330928A1 (en) Image generation device, image generation system, and image generation method
JP4588369B2 (en) Imaging apparatus and imaging method
CN110796032A (en) Video fence based on human body posture assessment and early warning method
WO2019230604A1 (en) Inspection system
JP2011169658A (en) Device and method for pinpointing photographed position
WO2022025283A1 (en) Measurement processing device, method, and program
JP2022045012A (en) Appearance inspection support system and appearance inspection support method
CN117557931A (en) Planning method for meter optimal inspection point based on three-dimensional scene
JP6725736B1 (en) Image specifying system and image specifying method
CN115357052B (en) Method and system for automatically exploring interest points in video picture by unmanned aerial vehicle
Pratama et al. An Overview of Generating VR Models for Disaster Zone Reconstruction Using Drone Footage

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528