JP6890193B1 - Joint discrimination method and joint discrimination device - Google Patents

Joint discrimination method and joint discrimination device Download PDF

Info

Publication number
JP6890193B1
JP6890193B1 JP2020059906A JP2020059906A JP6890193B1 JP 6890193 B1 JP6890193 B1 JP 6890193B1 JP 2020059906 A JP2020059906 A JP 2020059906A JP 2020059906 A JP2020059906 A JP 2020059906A JP 6890193 B1 JP6890193 B1 JP 6890193B1
Authority
JP
Japan
Prior art keywords
joint
image
pipe
discrimination
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020059906A
Other languages
Japanese (ja)
Other versions
JP2021156829A (en
Inventor
宏史 二宮
宏史 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toho Gas Co Ltd
Original Assignee
Toho Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toho Gas Co Ltd filed Critical Toho Gas Co Ltd
Priority to JP2020059906A priority Critical patent/JP6890193B1/en
Application granted granted Critical
Publication of JP6890193B1 publication Critical patent/JP6890193B1/en
Publication of JP2021156829A publication Critical patent/JP2021156829A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】配管を構成する継手の判別作業の効率化および継手の判別基準や精度の平準化を図りつつ、継手の判別精度のさらなる向上を図ることができる継手判別方法および継手判別装置を提供する。【解決手段】本開示の一態様として、継手判別方法において、画像処理を行った学習用画像を用いて機械学習を行うことにより、直管継手判別モデルを構築する判別モデル学習行程(ステップS1,2)と、画像処理を行った配管内画像を直管継手判別モデルに入力して、配管内画像が直管画像であるか継手画像であるかを判別する直管継手判別行程(ステップS3,4)と、直管継手判別行程(ステップS4)における判別結果に基づいて、継手部分画像群IGを抽出する継手部分抽出行程(ステップS5)と、継手部分画像群IGを構成する各々の継手画像について画像処理を行って継手の種類を判別する継手判別演算段階(ステップS6,7)と、を有する。【選択図】図1PROBLEM TO BE SOLVED: To provide a joint discriminating method and a joint discriminating device capable of further improving the discriminating accuracy of the joint while improving the efficiency of the discriminating work of the joint constituting the pipe and leveling the discriminating standard and the accuracy of the joint. .. SOLUTION: In one aspect of the present disclosure, a discriminant model learning process (step S1,) for constructing a straight pipe joint discriminating model by performing machine learning using an image-processed learning image in a joint discriminating method. 2) and the image-processed image inside the pipe are input to the straight pipe joint discrimination model, and the straight pipe joint discrimination process (step S3,) for discriminating whether the image inside the pipe is a straight pipe image or a joint image. 4), the joint portion extraction process (step S5) for extracting the joint portion image group IG based on the discrimination result in the straight pipe joint discrimination process (step S4), and each joint image constituting the joint portion image group IG. It has a joint discrimination calculation step (steps S6 and 7) for discriminating the type of the joint by performing image processing on the above. [Selection diagram] Fig. 1

Description

本開示は、配管を構成する継手を判別する継手判別方法および継手判別装置に関するものである。 The present disclosure relates to a joint discriminating method and a joint discriminating device for discriminating joints constituting a pipe.

地中の配管(例えば、ガス管など)を非掘削で更生させる配管の更生修理工法がある。この更生修理工法においては、まず、ライニング(すなわち、配管の更生)に必要な樹脂(例えば、エポキシ樹脂やウレタン樹脂)を配管内に注入し、水圧流で所定の箇所まで送り込む。具体的には、図24に示すように、配管P内において、ライニングピグPIG1と遮水ピグPIG2との間にゲル状の樹脂REを充填した状態で、遮水ピグPIG2により樹脂REとの間で遮断されるようにして充填される水WAに圧力を加えて、ライニングピグPIG1を配管Pの先端Paまで送り込む。 There is a pipe rehabilitation repair method for rehabilitating underground pipes (for example, gas pipes) without excavation. In this rehabilitation repair method, first, a resin (for example, epoxy resin or urethane resin) required for lining (that is, rehabilitation of a pipe) is injected into the pipe and sent to a predetermined place by a hydraulic flow. Specifically, as shown in FIG. 24, in the pipe P, a gel-like resin RE is filled between the lining pig PIG1 and the impermeable pig PIG2, and the impermeable pig PIG2 is used between the lining pig PIG1 and the impermeable pig PIG2. Pressure is applied to the water WA filled so as to be cut off by, and the lining pig PIG1 is sent to the tip Pa of the pipe P.

次に、真空ポンプで吸引して排水およびライニングを行う。具体的には、図25に示すように、真空ポンプVPの吸引により水WAを配管P外に排出し、これに伴い、ライニングピグPIG1と遮水ピグPIG2を配管Pの入口Pb側へ戻す。すると、このとき、ライニングピグPIG1は、配管Pの内面に樹脂REの膜を形成しながら戻る。このようにして、配管Pの内面に樹脂REの膜が形成されて、ライニングが行われる。 Next, suction is performed with a vacuum pump for drainage and lining. Specifically, as shown in FIG. 25, the water WA is discharged to the outside of the pipe P by suction of the vacuum pump VP, and the lining pig PIG1 and the impermeable pig PIG2 are returned to the inlet Pb side of the pipe P accordingly. Then, at this time, the lining pig PIG1 returns while forming a resin RE film on the inner surface of the pipe P. In this way, a resin RE film is formed on the inner surface of the pipe P, and lining is performed.

このような更生修理工法において、配管Pの内面に精度よく樹脂REの膜を形成してライニングを行うためには、図24に示すようにライニングピグPIG1を配管Pの先端Paまで送り込む作業において、ライニングピグPIG1の到達位置の精度向上を図る必要がある。ここで、配管Pをストレート管STのみで構成する場合と、配管Pをストレート管STと継手の組み合わせで構成する場合とでは、配管Pの容積が異なる。また、継手の種類によっても、その容積が異なるので、配管Pの容積が異なる。そのため、ライニングピグPIG1を配管Pの先端Paまで送り込む作業において、ライニングピグPIG1の到達位置の精度向上を図るためには、配管Pの容積を正確に把握しておくため、予め配管Pを構成する継手の種類と数を判別しておく必要がある。 In such a rehabilitation repair method, in order to accurately form a resin RE film on the inner surface of the pipe P and perform lining, as shown in FIG. 24, in the work of feeding the lining pig PIG1 to the tip Pa of the pipe P, It is necessary to improve the accuracy of the arrival position of the lining pig PIG1. Here, the volume of the pipe P is different between the case where the pipe P is composed of only the straight pipe ST and the case where the pipe P is composed of the combination of the straight pipe ST and the joint. Further, the volume of the pipe P is different because the volume is different depending on the type of the joint. Therefore, in order to improve the accuracy of the arrival position of the lining pig PIG1 in the work of feeding the lining pig PIG1 to the tip Pa of the pipe P, the pipe P is configured in advance in order to accurately grasp the volume of the pipe P. It is necessary to determine the type and number of joints.

また、ライニングを行う前に予め必要な樹脂REの量(すなわち、ライニングピグPIG1と遮水ピグPIG2との間に充填する樹脂REの必要量)を把握しておく必要もある。ここで、配管Pを構成する管のうち、ストレート管STと継手とでは、内部の形状(例えば、内径など)が異なるので、樹脂REの膜を形成するために必要な樹脂REの量が異なる。さらに、継手の種類によって、内部の形状が異なるので、樹脂REの膜を形成するために必要な樹脂REの量が異なる。そのため、ライニングを行うために必要な樹脂REの量を正確に把握しておくためにも、予め配管Pを構成する継手の種類と数を判別しておく必要がある。 It is also necessary to know in advance the amount of resin RE required before lining (that is, the required amount of resin RE to be filled between the lining pig PIG1 and the impermeable pig PIG2). Here, among the pipes constituting the pipe P, the straight pipe ST and the joint have different internal shapes (for example, inner diameter), so that the amount of resin RE required to form the resin RE film is different. .. Further, since the internal shape differs depending on the type of joint, the amount of resin RE required to form the resin RE film differs. Therefore, in order to accurately grasp the amount of resin RE required for lining, it is necessary to determine in advance the type and number of joints constituting the pipe P.

そこで、更生修理工法を行う前に、配管P内をカメラで撮影し、撮影した配管P内の画像をもとに継手の種類と数を判別することが行われている。このとき、従来より、作業者が配管P内の画像をそのまま目視して継手の種類と数を判別している。しかしながら、目視による継手の判別では、判別作業に時間を要するとともに、目視を行う作業者によって継手の判別基準や精度が異なるおそれがあるので、継手の判別作業の効率化および継手の判別基準や精度の平準化を図ることができない。 Therefore, before performing the rehabilitation repair method, the inside of the pipe P is photographed with a camera, and the type and number of joints are determined based on the photographed image in the pipe P. At this time, conventionally, the operator visually observes the image in the pipe P as it is to determine the type and number of joints. However, in the visual discrimination of the joint, it takes time for the discrimination work, and the judgment standard and accuracy of the joint may differ depending on the operator who performs the visual inspection. Therefore, the efficiency of the joint discrimination work and the discrimination standard and accuracy of the joint may be improved. Cannot be leveled.

ここで、カメラで撮影した配管内の画像を用いた従来技術として、特許文献1には、カメラで撮影した配管内の画像から、当該画像中の2点間の距離を算出する技術が開示されている。また、特許文献2には、カメラで撮影した配管内の画像から、目視にて障害物を確認する技術が開示されている。 Here, as a conventional technique using an image in a pipe taken by a camera, Patent Document 1 discloses a technique for calculating a distance between two points in the image from an image in the pipe taken by a camera. ing. Further, Patent Document 2 discloses a technique for visually confirming an obstacle from an image in a pipe taken by a camera.

特開2017−151031号公報Japanese Unexamined Patent Publication No. 2017-151031 特開平11−223086号公報Japanese Unexamined Patent Publication No. 11-22308

特許文献1に開示される技術は配管内の画像中の2点間の距離を算出するものに過ぎず、特許文献2に開示される技術は目視にて障害物を確認するものに過ぎない。このように、特許文献1,2には、配管を構成する継手の判別作業の効率化および継手の判別基準や精度の平準化を図る技術は何ら開示されていない。 The technique disclosed in Patent Document 1 merely calculates the distance between two points in the image in the pipe, and the technique disclosed in Patent Document 2 merely visually confirms an obstacle. As described above, Patent Documents 1 and 2 do not disclose any technique for improving the efficiency of the discriminating work of the joints constituting the pipes and leveling the discriminating criteria and accuracy of the joints.

そこで、本開示は上記した問題点を解決するためになされたものであり、配管を構成する継手の判別作業の効率化および継手の判別基準や精度の平準化を図りつつ、継手の判別精度のさらなる向上を図ることができる継手判別方法および継手判別装置を提供することを目的とする。 Therefore, the present disclosure has been made in order to solve the above-mentioned problems, and while improving the efficiency of the discrimination work of the joints constituting the pipes and leveling the discrimination criteria and accuracy of the joints, the discrimination accuracy of the joints is improved. It is an object of the present invention to provide a joint discriminating method and a joint discriminating device capable of further improvement.

上記課題を解決するためになされた本開示の一形態は、配管を構成する継手の種類を判別する継手判別方法において、前記配管を構成する直管が撮影された直管画像と前記継手が撮影された継手画像とにラベル付けされた学習用画像に対して画像処理を行う学習用画像前処理行程と、前記学習用画像前処理行程にて画像処理を行った前記学習用画像を用いて機械学習を行うことにより、前記配管内を撮影した画像である配管内画像について前記直管画像であるか前記継手画像であるかの判別結果を出力する直管継手判別モデルを構築する判別モデル学習行程と、前記学習用画像とは異なる画像であって実際に前記継手の種類を判別するに当たって取得された前記配管内画像に対して画像処理を行う配管内画像前処理行程と、前記配管内画像前処理行程にて画像処理を行った前記配管内画像を前記直管継手判別モデルに入力して、前記配管内画像が前記直管画像であるか前記継手画像であるかを判別する直管継手判別行程と、前記直管継手判別行程における判別結果に基づいて、前記配管の軸方向について順に複数枚撮影した前記配管内画像中から、連続する複数の前記継手画像の集まりである継手部分画像群を抽出する継手部分抽出行程と、前記継手部分画像群を構成する各々の前記継手画像について画像処理を行い、当該画像処理を行った前記継手画像に基づいて前記継手の種類を判別する継手判別演算行程と、を有すること、を特徴とする。 One form of the present disclosure made to solve the above problems is a joint discriminating method for discriminating the type of a joint constituting a pipe, in which a straight pipe image of the straight pipe constituting the pipe and the joint are photographed. A machine using the learning image preprocessing process in which image processing is performed on the learning image labeled with the joint image and the learning image in which the image processing is performed in the learning image preprocessing process. Discrimination model learning process for constructing a straight pipe joint discrimination model that outputs the discrimination result of whether it is the straight pipe image or the joint image for the pipe inside image which is an image of the inside of the pipe by performing learning. An image before the image in the pipe that is different from the image for learning and that performs image processing on the image in the pipe acquired when actually determining the type of the joint, and an image in front of the image in the pipe. The straight pipe joint discrimination model is input to the straight pipe joint discrimination model, and the straight pipe joint discrimination is performed to discriminate whether the pipe internal image is the straight pipe image or the joint image. Based on the stroke and the discrimination result in the straight pipe joint discrimination stroke, a joint partial image group which is a collection of a plurality of continuous joint images from the images in the pipe taken in order in the axial direction of the pipe is obtained. An image processing is performed on the joint portion extraction process to be extracted and each of the joint images constituting the joint portion image group, and a joint discrimination calculation process for determining the type of the joint based on the image-processed joint image. It is characterized by having and.

この態様によれば、複数枚撮影した配管内画像の中から抽出した継手部分画像群を構成する各々の継手画像について画像処理を行い、当該画像処理を行った継手画像に基づいて継手の種類を判別する。そのため、作業者が配管内画像をそのまま目視で判別する場合にて生じていた作業者の違いによる判別結果の差異が無くなる。そのため、継手の判別時において、その判別基準および精度が平準化される。 According to this aspect, image processing is performed on each joint image constituting the joint partial image group extracted from a plurality of images in the pipe, and the type of joint is determined based on the image-processed joint image. Determine. Therefore, the difference in the discrimination result due to the difference in the worker, which occurs when the worker visually discriminates the image in the pipe as it is, is eliminated. Therefore, when discriminating the joint, the discriminant standard and accuracy are leveled.

また、作業者が配管内画像をそのまま目視で判別する場合よりも、短時間で継手の種類を判別できるので、継手の判別の効率化を図ることができる。また、作業者は、カメラの挿入と引抜きのみに専念でき、継手の判別を行う負担が軽減されるので、継手の判別時の作業負荷を軽減できる。 Further, since the type of the joint can be discriminated in a shorter time than when the operator visually discriminates the image in the pipe as it is, the efficiency of discriminating the joint can be improved. In addition, the operator can concentrate only on inserting and removing the camera, and the burden of discriminating the joint is reduced, so that the workload at the time of discriminating the joint can be reduced.

そのため、本態様によれば、配管を構成する継手の判別作業の効率化および継手の判別基準や精度の平準化を図ることができる。 Therefore, according to this aspect, it is possible to improve the efficiency of the discriminating work of the joints constituting the pipe and to equalize the discriminating criteria and the accuracy of the joints.

そして、さらに、本態様では、前記のように継手の種類を判別するに際して複数枚の配管内画像の中から継手部分画像群を抽出するが、このとき、画像処理の技術と機械学習の技術を活用して構築した直管継手判別モデルを用いて継手部分画像群を抽出する。 Further, in this embodiment, when determining the type of the joint as described above, the joint partial image group is extracted from a plurality of images in the pipe. At this time, the image processing technique and the machine learning technique are used. The joint part image group is extracted using the straight pipe joint discrimination model constructed by utilizing it.

これにより、カメラにより配管内画像を撮影するときに、任意の速度でカメラの挿入・引抜きが行われて画像のフレームレートが任意である複数の配管内画像が得られた場合でも、撮影された複数の配管内画像の中から継手部分画像群のみを抽出できる。そして、このようにして複数の配管内画像の中から継手画像のみを特定したうえで、特定した継手画像をもとに継手の種類を判別するので、継手の判別精度のさらなる向上を図ることができる。 As a result, when the in-pipe image is taken by the camera, even if the camera is inserted and pulled out at an arbitrary speed to obtain a plurality of in-pipe images having an arbitrary frame rate of the image, the images are taken. Only the joint part image group can be extracted from the images in a plurality of pipes. Then, in this way, only the joint image is specified from the plurality of images in the pipe, and then the type of the joint is determined based on the specified joint image, so that the accuracy of the joint identification can be further improved. it can.

上記の態様においては、前記継手部分抽出行程では、前記直管継手判別行程における判別結果に対して平滑化処理を行い、前記平滑化処理を行った前記判別結果に基づいて前記継手部分画像群を抽出し、前記平滑化処理として、前記配管内画像について当該画像を撮影した順に並べたときに、前記直管継手判別行程にて前記継手画像であるとの判別がなされた前記配管内画像の前後の所定枚数の前記配管内画像については、その判別結果を前記継手画像とする処理を行うこと、が好ましい。 In the above aspect, in the joint portion extraction stroke, a smoothing process is performed on the discrimination result in the straight pipe joint discrimination stroke, and the joint portion image group is displayed based on the discrimination result obtained by the smoothing treatment. Before and after the image in the pipe, which was determined to be the joint image in the straight pipe joint determination process when the images in the pipe were arranged in the order in which the images were taken as the smoothing process. It is preferable to perform a process of using the determination result as the joint image for the predetermined number of images in the pipe.

この態様によれば、例えば直管と継手の境界部分など、直管画像か継手画像かの判別がし難い部分が存在する場合であっても、継手部分画像群を精度よく抽出できる。そのため、より効果的に、継手の判別精度の向上を図ることができる。 According to this aspect, even when there is a portion where it is difficult to distinguish between the straight pipe image and the joint image, such as the boundary portion between the straight pipe and the joint, the joint portion image group can be accurately extracted. Therefore, it is possible to more effectively improve the discrimination accuracy of the joint.

上記の態様においては、前記画像処理として、グレースケール化と、ヒストグラム平坦化と、リサイズと、画像の輝度値の範囲を0から1とする0−1正規化と、を行うこと、が好ましい。 In the above aspect, it is preferable to perform grayscale, histogram flattening, resizing, and 0-1 normalization in which the range of the brightness value of the image is 0 to 1 as the image processing.

この態様によれば、直管継手判別モデルを構築し易くなり、また、直管継手判別モデルを用いて配管内画像が直管画像であるか継手画像であるかを判別し易くなる。そのため、より効果的に、継手の判別精度の向上を図ることができる。 According to this aspect, it becomes easy to construct a straight pipe joint discrimination model, and it becomes easy to discriminate whether the image in the pipe is a straight pipe image or a joint image by using the straight pipe joint discrimination model. Therefore, it is possible to more effectively improve the discrimination accuracy of the joint.

上記の態様においては、前記判別モデル学習行程では、前記機械学習の手法として、ディープラーニングを用いること、が好ましい。 In the above aspect, it is preferable to use deep learning as the machine learning method in the discrimination model learning process.

この態様によれば、直管継手判別モデルを精度よく構築できる。そのため、さらに、継手の判別精度が向上する。 According to this aspect, a straight pipe joint discrimination model can be constructed with high accuracy. Therefore, the accuracy of discriminating the joint is further improved.

上記課題を解決するためになされた本開示の他の形態は、配管を構成する継手の種類を判別する継手判別装置において、前記配管を構成する直管が撮影された直管画像と前記継手が撮影された継手画像とにラベル付けされた学習用画像に対して画像処理を行う学習用画像前処理部と、前記学習用画像前処理部にて画像処理を行った前記学習用画像を用いて機械学習を行うことにより、前記配管内を撮影した画像である配管内画像について前記直管画像であるか前記継手画像であるかの判別結果を出力する直管継手判別モデルを構築する判別モデル学習部と、前記学習用画像とは異なる画像であって実際に前記継手の種類を判別するに当たって取得された前記配管内画像に対して画像処理を行う配管内画像前処理部と、前記配管内画像前処理部にて画像処理を行った前記配管内画像を前記直管継手判別モデルに入力して、前記配管内画像が前記直管画像であるか前記継手画像であるかを判別する直管継手判別部と、前記直管継手判別部における判別結果に基づいて、前記配管の軸方向について順に複数枚撮影した前記配管内画像中から、連続する複数の前記継手画像の集まりである継手部分画像群を抽出する継手部分抽出部と、前記継手部分画像群を構成する各々の前記継手画像について画像処理を行い、当該画像処理を行った前記継手画像に基づいて前記継手の種類を判別する継手判別演算部と、を有すること、を特徴とする。 In another form of the present disclosure made to solve the above problems, in a joint discriminating device for discriminating the type of a joint constituting a pipe, a straight pipe image of the straight pipe constituting the pipe and the joint are captured. Using the learning image preprocessing unit that performs image processing on the learning image labeled with the captured joint image and the learning image that has undergone image processing in the learning image preprocessing unit. Discrimination model learning to construct a straight pipe joint discrimination model that outputs the discrimination result of whether it is the straight pipe image or the joint image for the pipe inside image which is an image of the inside of the pipe by performing machine learning. An image in the pipe that is different from the image for learning and that performs image processing on the image in the pipe acquired when actually discriminating the type of the joint. The straight pipe joint that has been image-processed by the preprocessing unit is input to the straight pipe joint discrimination model to discriminate whether the image in the pipe is the straight pipe image or the joint image. A joint part image group which is a collection of a plurality of continuous images of the joint from the images in the pipe taken in order in the axial direction of the pipe based on the discrimination result of the discriminating unit and the straight pipe joint discriminating unit. A joint discrimination calculation that performs image processing on the joint partial extraction unit for extracting the image and each of the joint images constituting the joint partial image group, and discriminates the type of the joint based on the image-processed joint image. It is characterized by having a part and.

本開示の継手判別方法および継手判別装置によれば、配管を構成する継手の判別作業の効率化および継手の判別基準や精度の平準化を図りつつ、継手の判別精度のさらなる向上を図ることができる。 According to the joint discriminating method and the joint discriminating device of the present disclosure, it is possible to further improve the discriminating accuracy of the joint while improving the efficiency of the discriminating work of the joint constituting the pipe and leveling the discriminating standard and the accuracy of the joint. it can.

本実施形態の継手判別方法および継手判別装置の概要を示す図である。It is a figure which shows the outline of the joint discriminating method and the joint discriminating apparatus of this embodiment. 本実施形態の継手判別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the joint discriminating device of this embodiment. 本実施形態の継手判別方法の全体概要を示すフローチャート図である。It is a flowchart which shows the whole outline of the joint discriminating method of this embodiment. 学習段階における前処理行程の内容を示すフローチャート図である。It is a flowchart which shows the content of the pre-processing process in a learning stage. RGB画像の一例を示す図である。It is a figure which shows an example of the RGB image. グレースケール画像の一例を示す図である。It is a figure which shows an example of a grayscale image. ヒストグラム平坦化後画像の一例を示す図である。It is a figure which shows an example of the image after the histogram flattening. リサイズ後画像の一例を示す図である。It is a figure which shows an example of the image after resizing. ディープラーニングの内容を示す図である。It is a figure which shows the content of deep learning. 継手部分抽出段階における前処理行程の内容を示すフローチャート図である。It is a flowchart which shows the content of the pretreatment process in the joint part extraction stage. 直管継手判別行程の内容を示すフローチャート図である。It is a flowchart which shows the content of the straight pipe joint discrimination process. 継手部分抽出行程にて行われる平坦化処理の手法の一例を示す図である。It is a figure which shows an example of the method of the flattening processing performed in the joint part extraction process. 継手部分抽出行程にて行われた平坦化処理の結果の一例を示す図である。It is a figure which shows an example of the result of the flattening process performed in the joint partial extraction process. 配管の一例を示す模式図である。It is a schematic diagram which shows an example of piping. エルボの外観斜視図である。It is an external perspective view of an elbow. ストリートエルボの外観斜視図である。It is an external perspective view of a street elbow. カメラがエルボの内部を通過するときに撮影された配管内画像の一例を示す図である。It is a figure which shows an example of the image in a pipe taken when a camera passes through the inside of an elbow. カメラがストリートエルボとエルボの組み合わせからなるものの内部を通過するときに撮影された配管内画像の一例を示す図である。It is a figure which shows an example of the image in a pipe taken when a camera passes through the inside of the thing consisting of the street elbow and the elbow. ソケットの外観斜視図である。It is an external perspective view of a socket. 円形状部分が抽出されない配管内画像の一例を示す図である。It is a figure which shows an example of the image in a pipe in which a circular part is not extracted. 円形状部分が抽出される配管内画像の一例を示す図である。It is a figure which shows an example of the image in a pipe in which a circular part is extracted. 継手判別行程の内容を示すフローチャート図である。It is a flowchart which shows the content of the joint discrimination process. 配管内画像の輝度値を記録した一例を示す図である。It is a figure which shows an example which recorded the brightness value of the image in a pipe. 配管の更生修理工法についての説明図である。It is explanatory drawing about the rehabilitation repair method of a pipe. 配管の更生修理工法についての説明図である。It is explanatory drawing about the rehabilitation repair method of a pipe.

以下、本開示の継手判別方法および継手判別装置の実施形態について説明する。 Hereinafter, the joint discrimination method and the embodiment of the joint discrimination device of the present disclosure will be described.

<継手判別装置の概要について>
まず、本実施形態の継手判別方法により継手の判別を行う継手判別装置1について説明する。図1と図2に示すように、継手判別装置1は、通信部12と、画像保存部13と、学習部14と、継手部分抽出部15と、継手判別演算部16と、表示部17を有する。
<Overview of joint discriminator>
First, a joint discriminating device 1 that discriminates a joint by the joint discriminating method of the present embodiment will be described. As shown in FIGS. 1 and 2, the joint discriminating device 1 includes a communication unit 12, an image storage unit 13, a learning unit 14, a joint portion extraction unit 15, a joint discriminating calculation unit 16, and a display unit 17. Have.

通信部12は、配管P内においてカメラ11(撮影部)が照明を当てながら撮影することにより得られた配管Pの内部の画像(以下、単に「配管内画像」という。)を画像保存部13へ送信する通信機器である。画像保存部13は、通信部12から受信した配管内画像を保存する機器である。 The communication unit 12 uses an image storage unit 13 to capture an image of the inside of the pipe P (hereinafter, simply referred to as an “image inside the pipe”) obtained by taking a picture while the camera 11 (photographing unit) illuminates the inside of the pipe P. It is a communication device that sends to. The image storage unit 13 is a device that stores the image in the pipe received from the communication unit 12.

学習部14は、後述する直管継手判別モデルを構築する演算機器である。この学習部14は、前処理部21と判別モデル学習部22を備えている。なお、前処理部21は、本開示の「学習用画像前処理部」の一例である。 The learning unit 14 is an arithmetic device for constructing a straight pipe joint discrimination model, which will be described later. The learning unit 14 includes a preprocessing unit 21 and a discrimination model learning unit 22. The preprocessing unit 21 is an example of the “learning image preprocessing unit” of the present disclosure.

前処理部21は、直管画像と継手画像とにラベル付けされた学習用画像に対して画像処理を行う。ここで使用する学習用画像は、後述する継手部分抽出部15の前処理部31が画像保存部13から取得する配管内画像とは異なり、学習用に予め用意された直管画像と継手画像とにラベル付けされた学習用画像である。 The preprocessing unit 21 performs image processing on the learning image labeled on the straight pipe image and the joint image. The learning image used here is different from the in-pipe image acquired from the image storage unit 13 by the preprocessing unit 31 of the joint portion extraction unit 15 described later, and is a straight pipe image and a joint image prepared in advance for learning. It is a learning image labeled with.

判別モデル学習部22は、前処理部21にて画像処理を行った学習用画像を用いて機械学習を行うことにより、直管継手判別モデルを構築する。なお、直管画像とは、配管Pを構成する直管、すなわち、ストレート管STが撮影された画像である。また、継手画像とは、配管Pを構成する継手(例えば、エルボELやストリートエルボSEやソケットSO)が撮影された画像である。さらに、直管継手判別モデルとは、詳しくは後述するように、配管内画像について直管画像であるか継手画像であるかの判別結果を出力する学習モデルである。 The discrimination model learning unit 22 constructs a straight pipe joint discrimination model by performing machine learning using the learning image processed by the preprocessing unit 21. The straight pipe image is an image of the straight pipe constituting the pipe P, that is, the straight pipe ST. The joint image is an image of a joint (for example, an elbow EL, a street elbow SE, or a socket SO) constituting the pipe P. Further, the straight pipe joint discrimination model is a learning model that outputs a discrimination result of whether the image in the pipe is a straight pipe image or a joint image, as will be described in detail later.

継手部分抽出部15は、詳しくは後述するように、継手部分画像群IG(すなわち、継手候補画像群)を抽出する演算機器である。この継手部分抽出部15は、前処理部31と直管継手判別部32と各種継手部分抽出部33を備えている。なお、前処理部31は、本開示の「配管内画像前処理部」の一例である。また、各種継手部分抽出部33は、本開示の「継手部分抽出部」の一例である。 The joint portion extraction unit 15 is an arithmetic device that extracts a joint portion image group IG (that is, a joint candidate image group), as will be described in detail later. The joint portion extraction unit 15 includes a pretreatment unit 31, a straight pipe joint determination unit 32, and various joint portion extraction units 33. The pretreatment unit 31 is an example of the “in-pipe image preprocessing unit” of the present disclosure. Further, the various joint portion extraction units 33 are examples of the “joint portion extraction unit” of the present disclosure.

前処理部31は、画像保存部13(または、通信部12)から取得した配管内画像に対して画像処理(具体的には、学習部14の前処理部21で行われる画像処理と共通した内容の画像処理)を行う。ここで、前処理部31で使用される配管内画像(すなわち、評価用映像)は、学習部14の前処理部21で使用される学習用画像とは異なる画像であって、実際に継手の種類と数を判別するに当たって取得された配管内画像(すなわち、実際に継手の種類と数を判別するに当たってカメラ11から通信部12と画像保存部13(または、通信部12のみ)を介して得られた配管内画像)である。 The pre-processing unit 31 is common to the image processing (specifically, the image processing performed by the pre-processing unit 21 of the learning unit 14) for the image in the pipe acquired from the image storage unit 13 (or the communication unit 12). Image processing of the contents) is performed. Here, the image in the pipe (that is, the evaluation image) used by the preprocessing unit 31 is an image different from the learning image used by the preprocessing unit 21 of the learning unit 14, and is actually an image of the joint. An image in the pipe acquired in determining the type and number (that is, obtained from the camera 11 via the communication unit 12 and the image storage unit 13 (or only the communication unit 12) in actually determining the type and number of joints). Image of the inside of the pipe.

このように、カメラ11が撮影した各々の配管内画像は、前処理部31にて画像処理を行う前に画像保存部13に一旦保存された後に、前処理部31にて画像処理が行われる(すなわち、バッチ処理が行われる)。 In this way, each image in the pipe taken by the camera 11 is temporarily stored in the image storage unit 13 before the image processing is performed by the preprocessing unit 31, and then the image processing is performed by the preprocessing unit 31. (That is, batch processing is done).

なお、本実施形態では、画像処理としてこのようなバッチ処理が行われることに限定されず、前処理部31は、画像処理として、カメラ11が撮影した各々の配管内画像について、リアルタイムに(画像保存部13にて一旦保存されることなく)画像処理を行う処理を行ってもよい(すなわち、リアルタイム処理を行ってもよい)。 In the present embodiment, the image processing is not limited to such batch processing, and the preprocessing unit 31 performs real-time (image) for each in-pipe image taken by the camera 11 as the image processing. The image processing may be performed (that is, the real-time processing may be performed) without being temporarily stored in the storage unit 13.

直管継手判別部32は、前処理部31にて画像処理を行った配管内画像を直管継手判別モデルに入力して、配管内画像が直管画像であるか継手画像であるかを判別する。各種継手部分抽出部33は、直管継手判別部32における判別結果に基づいて、配管Pの軸方向について順に複数枚撮影した配管内画像の中から、継手部分画像群IGを抽出する。 The straight pipe joint discriminating unit 32 inputs the image in the pipe that has been image-processed by the preprocessing unit 31 into the straight pipe joint discriminating model, and discriminates whether the image in the pipe is a straight pipe image or a joint image. To do. The various joint portion extraction units 33 extract the joint portion image group IG from a plurality of images in the pipe taken in order in the axial direction of the pipe P based on the determination result in the straight pipe joint determination unit 32.

継手判別演算部16は、継手部分抽出部15から取得した継手部分画像群IGをもとに、配管Pを構成する継手の種類と数を判別する演算機器である。この継手判別演算部16は、画像処理部41と継手判別部42を備えている。 The joint discrimination calculation unit 16 is a calculation device that determines the type and number of joints constituting the pipe P based on the joint portion image group IG acquired from the joint portion extraction unit 15. The joint discrimination calculation unit 16 includes an image processing unit 41 and a joint discrimination unit 42.

画像処理部41は、継手部分画像群IGを構成する各々の継手画像について、当該画像の特徴を抽出する画像処理を行う。 The image processing unit 41 performs image processing for extracting the features of each joint image constituting the joint portion image group IG.

また、継手判別部42は、画像処理部41が画像処理を行った継手画像をもとに、継手の種類と数を判別する。 Further, the joint discriminating unit 42 discriminates the type and number of joints based on the joint image processed by the image processing unit 41.

表示部17は、継手判別演算部16の継手判別部42で行われた継手の判別結果を表示するモニタである。 The display unit 17 is a monitor that displays the result of discrimination of the joint performed by the joint discrimination unit 42 of the joint discrimination calculation unit 16.

このような構成の継手判別装置1において、カメラ11は、配管Pの先端Paまで挿入された後、図1に示すように配管Pの入口Pbへ向かって戻されて配管Pから引き抜かれる時までに、配管内画像を配管Pの軸方向(すなわち、配管Pの中心軸方向)について順に複数枚撮影する。そして、カメラ11が撮影した配管内画像は、通信部12により画像保存部13へ送信される。そして、継手部分抽出部15は、学習部14で構築された直管継手判別モデルを用いて、画像保存部13から取得した複数の配管内画像の中から継手部分画像群IGを抽出する。そして、継手判別演算部16は、継手部分抽出部15から取得した継手部分画像群IGを用いて、継手の種類と数を判別する。そして、継手判別演算部16で行われた継手の判別結果は、表示部17に表示される。 In the joint discriminating device 1 having such a configuration, the camera 11 is inserted up to the tip Pa of the pipe P, and then returned toward the inlet Pb of the pipe P and pulled out from the pipe P as shown in FIG. In addition, a plurality of images in the pipe are taken in order in the axial direction of the pipe P (that is, the central axial direction of the pipe P). Then, the image in the pipe taken by the camera 11 is transmitted to the image storage unit 13 by the communication unit 12. Then, the joint portion extraction unit 15 extracts the joint portion image group IG from the plurality of in-pipe images acquired from the image storage unit 13 by using the straight pipe joint discrimination model constructed by the learning unit 14. Then, the joint discrimination calculation unit 16 determines the type and number of joints by using the joint portion image group IG acquired from the joint portion extraction unit 15. Then, the determination result of the joint performed by the joint determination calculation unit 16 is displayed on the display unit 17.

<本実施形態で行われる継手判別方法について>
次に、本実施形態で行われる継手判別方法について説明する。
<About the joint discrimination method performed in this embodiment>
Next, the joint discrimination method performed in the present embodiment will be described.

図3に示すように、本実施形態では、まず、学習段階として、前処理行程(ステップS1)と直管継手判別モデルの学習行程(ステップS2)が行われる。なお、前処理行程(ステップS1)は、本開示の「学習用画像前処理行程」の一例である。また、直管継手判別モデルの学習行程(ステップS2)は、本開示の「判別モデル学習行程」の一例である。 As shown in FIG. 3, in the present embodiment, first, as a learning step, a pretreatment process (step S1) and a learning process of the straight pipe joint discrimination model (step S2) are performed. The preprocessing process (step S1) is an example of the "learning image preprocessing process" of the present disclosure. Further, the learning process of the straight pipe joint discrimination model (step S2) is an example of the “discrimination model learning process” of the present disclosure.

前処理行程(ステップS1)において、学習部14の前処理部21は、事前に人手で直管画像と各種継手画像(本開示の「継手画像」)とにラベル付された学習用画像(すなわち、後述する継手部分抽出段階の前処理行程(ステップS3)で使用される配管内画像とは異なる画像であって、学習用に予め用意された直管画像と継手画像とにラベル付けされた学習用画像)に対して、画像処理を行う。 In the preprocessing process (step S1), the preprocessing unit 21 of the learning unit 14 manually labels the straight pipe image and various joint images (“joint image” of the present disclosure) for learning images (that is, that is). , An image different from the in-pipe image used in the pretreatment process (step S3) of the joint partial extraction step described later, and the learning labeled on the straight pipe image and the joint image prepared in advance for learning. Image processing is performed on the image).

具体的には、図4に示すように、前処理部21は、生画像、すなわち、学習用画像のRGB画像に対して、以下の数式を用いて、グレースケール化の画像処理を行う(ステップS101)。これにより、例えば図5に示すような学習用画像のRGB画像(カラー画像、前処理未実施の元画像)は、例えば図6に示すようなグレースケール画像(白黒画像)へと変換される。このようにして、RGBの画素値を輝度値に変換して得られたグレースケール画像より、輝度値ピークが抽出される。

Figure 0006890193
Specifically, as shown in FIG. 4, the preprocessing unit 21 performs grayscale image processing on the raw image, that is, the RGB image of the learning image by using the following mathematical formula (step). S101). As a result, for example, the RGB image (color image, original image that has not been preprocessed) of the learning image as shown in FIG. 5 is converted into a grayscale image (black and white image) as shown in FIG. 6, for example. In this way, the luminance value peak is extracted from the grayscale image obtained by converting the RGB pixel values into the luminance values.
Figure 0006890193

次に、前処理部21は、以下の数式を用いて、ヒストグラム平坦化の画像処理を行う(ステップS102)。これにより、例えば図7に示すように、グレースケール画像の輝度分布(すなわち、ヒストグラム)を一定にしたヒストグラム平坦化後画像が作成される。このようにして、輝度分布が一様にされることにより、カメラ11の照明変化に対して頑健となる。

Figure 0006890193
Next, the preprocessing unit 21 performs image processing for histogram flattening using the following mathematical formula (step S102). As a result, for example, as shown in FIG. 7, a histogram-flattened image in which the luminance distribution (that is, the histogram) of the grayscale image is constant is created. By making the brightness distribution uniform in this way, it becomes robust against changes in the illumination of the camera 11.
Figure 0006890193

次に、前処理部21は、以下の数式(すなわち、バイリニア補間)を用いて、リサイズの画像処理を行う(ステップS103)。これにより、ヒストグラム平坦化後画像から、例えば図8に示すようなリサイズ後画像が作成される。このようにして、機械学習モデル(すなわち、直管継手判別モデル)への入力次元数が固定される。

Figure 0006890193
Next, the preprocessing unit 21 performs resizing image processing using the following mathematical formula (that is, bilinear interpolation) (step S103). As a result, a resized image as shown in FIG. 8, for example, is created from the histogram flattened image. In this way, the number of input dimensions to the machine learning model (that is, the straight pipe joint discrimination model) is fixed.
Figure 0006890193

次に、前処理部21は、以下の数式を用いて、リサイズ後画像の輝度値の範囲を0から1とする0−1正規化の画像処理を行う(ステップS104)。このようにして、機械学習モデルの学習の安定化・効率化を図ることができる。

Figure 0006890193
Next, the preprocessing unit 21 performs 0-1 normalization image processing in which the range of the brightness value of the image after resizing is set to 0 to 1 by using the following mathematical formula (step S104). In this way, it is possible to stabilize and improve the efficiency of learning of the machine learning model.
Figure 0006890193

以上のようにして、前処理部21は、生画像(すなわち、直管画像と各種継手画像とにラベル付された学習用画像のRGB画像)に対して画像処理を行うことにより、前処理後画像(すなわち、0−1正規化の画像処理を行った後の画像)を作成する。 As described above, the preprocessing unit 21 performs image processing on the raw image (that is, the RGB image of the learning image labeled on the straight pipe image and the various joint images), and after the preprocessing. An image (that is, an image after performing 0-1 normalization image processing) is created.

そして、このように前処理部21が前処理行程(ステップS1)を行うことにより、後述する直管継手判別モデルの学習行程(ステップS2)における学習の高精度化を図ることができる。例えば、直管継手判別モデルの学習行程(ステップS2)において、学習用画像のRGB画像をそのまま用いると、継手の内面の色や光沢等が錆や経年劣化等で変化している場合に、ストレート管ST(直管)か継手かの判別が難しくなり学習精度の低下が生じるおそれがある。これに対し、直管継手判別モデルの学習行程(ステップS2)において、前処理部21で作成した前処理後画像を用いることにより、継手の内面の色や光沢等が錆や経年劣化等で変化している場合でも、安定してストレート管STか継手かの判別ができ学習精度の低下を抑制できる。 Then, by performing the pretreatment process (step S1) by the pretreatment unit 21 in this way, it is possible to improve the accuracy of learning in the learning process (step S2) of the straight pipe joint discrimination model described later. For example, if the RGB image of the learning image is used as it is in the learning process (step S2) of the straight pipe joint discrimination model, it is straight when the color and gloss of the inner surface of the joint are changed due to rust or deterioration over time. It becomes difficult to distinguish between the pipe ST (straight pipe) and the joint, and the learning accuracy may decrease. On the other hand, in the learning process (step S2) of the straight pipe joint discrimination model, by using the pre-processed image created by the pre-processing unit 21, the color and gloss of the inner surface of the joint change due to rust, deterioration over time, etc. Even if this is the case, it is possible to stably determine whether the straight pipe ST or the joint is used, and it is possible to suppress a decrease in learning accuracy.

次に、直管継手判別モデルの学習行程(ステップS2)において、学習部14の判別モデル学習部22は、前処理行程(ステップS1)にて画像処理を行った学習用画像(すなわち、前処理後画像)のデータを用いて機械学習を行うことにより、直管継手判別モデルを構築する。この直管継手判別モデルは、配管内画像について直管画像であるか継手画像であるかの判別結果を出力する学習モデルである。 Next, in the learning process (step S2) of the straight pipe joint discrimination model, the discrimination model learning unit 22 of the learning unit 14 performs image processing in the preprocessing process (step S1) for the learning image (that is, preprocessing). A straight pipe joint discrimination model is constructed by performing machine learning using the data in the rear image). This straight pipe joint discrimination model is a learning model that outputs the discrimination result of whether the image in the pipe is a straight pipe image or a joint image.

具体的には、判別モデル学習部22は、前処理行程(ステップS1)にて画像処理を行った学習用画像のデータをもとに、ディープラーニング(Deep Learning、深層学習)などの機械学習の技術を用いて直管継手判別モデルを構築する。ここでは、判別モデル学習部22は、AlexNet(ImageNet Classification with Deep Convolutional Neural Networks(Alexら、2012)という論文で発表されたモデル)をベースとしたモデルを構築する。 Specifically, the discrimination model learning unit 22 performs machine learning such as deep learning based on the data of the learning image that has undergone image processing in the preprocessing process (step S1). Build a straight pipe joint discrimination model using technology. Here, the discriminant model learning unit 22 builds a model based on AlexNet (a model published in a paper called ImageNet Classication with Deep Convolutional Neural Networks (Alex et al., 2012)).

詳しくは、判別モデル学習部22は、例えば、図9に示すようにしてモデルを構築する。本実施形態では、前処理行程(ステップS1)において学習用画像のRGB画像をグレースケール画像へと変換することにより、入力するフィルタ枚数(すなわち、入力画像)を「1」としている。また、全結合層は、最終的には2個の出力(すなわち、直管画像であるか継手画像であるかの2種類の出力)を持つソフトマックス層に結合されるように構成されている。 Specifically, the discrimination model learning unit 22 builds a model as shown in FIG. 9, for example. In the present embodiment, the number of filters to be input (that is, the input image) is set to "1" by converting the RGB image of the learning image into the grayscale image in the preprocessing step (step S1). Further, the fully connected layer is configured to be finally bonded to a softmax layer having two outputs (that is, two types of outputs, a straight pipe image and a joint image). ..

以上のような学習段階の次に、図2に示すように、継手部分抽出段階として、前処理行程(ステップS3)と、直管継手判別行程(ステップS4)と、各種継手部分抽出行程(ステップS5)が行われる。なお、前処理行程(ステップS3)は、本開示の「配管内画像前処理行程」の一例である。また、各種継手部分抽出行程(ステップS5)は、本開示の「継手部分抽出行程」の一例である。 After the learning stage as described above, as shown in FIG. 2, as a joint part extraction step, a pretreatment step (step S3), a straight pipe joint discrimination step (step S4), and various joint part extraction steps (steps). S5) is performed. The pretreatment process (step S3) is an example of the “in-pipe image preprocessing process” of the present disclosure. Further, the various joint portion extraction processes (step S5) are examples of the “joint portion extraction process” of the present disclosure.

前処理行程(ステップS3)において、継手部分抽出部15の前処理部31は、評価用映像、すなわち、継手の判別に用いる配管内画像(すなわち、学習段階の前処理行程(ステップS1)で使用される学習用画像とは異なる画像であって、実際に継手の種類と数を判別するに当たって取得された配管内画像(すなわち、実際に継手の種類と数を判別するに当たってカメラ11から通信部12と画像保存部13(または、通信部12のみ)を介して得られた配管内画像))に対して、画像処理を行う。 In the pretreatment process (step S3), the pretreatment unit 31 of the joint portion extraction unit 15 is used in the evaluation image, that is, the image in the pipe used for discriminating the joint (that is, the preprocessing process (step S1) in the learning stage). It is an image different from the learning image to be performed, and is an image in the pipe acquired when actually discriminating the type and number of joints (that is, when actually discriminating the type and number of joints, the camera 11 to the communication unit 12 Image processing is performed on the image storage unit 13 (or the image in the pipe obtained via the communication unit 12 only)).

具体的には、図10に示すように、前処理部31は、生の評価用映像、すなわち、画像保存部13から取得した配管内画像に対して、図4に示す前処理行程(ステップS1)と共通した内容の画像処理を行う。このようにして、直管継手判別モデルの構築時と同様の前処理が評価用映像に対しても行われる。 Specifically, as shown in FIG. 10, the preprocessing unit 31 refers to the raw evaluation video, that is, the image in the pipe acquired from the image storage unit 13, in the preprocessing process (step S1) shown in FIG. ) And perform image processing with the same contents. In this way, the same preprocessing as when constructing the straight pipe joint discrimination model is performed on the evaluation image.

次に、直管継手判別行程(ステップS4)において、継手部分抽出部15の直管継手判別部32は、図11に示すように、前処理後の評価用映像、すなわち、前処理行程(ステップS3)にて画像処理を行った後の配管内画像に対して、学習済みの直管継手判別モデルによる判別を行い、判別結果付き評価用映像(直管画像であるか継手画像であるかの判別結果が付された配管内画像)を作成する。このようにして、直管継手判別部32は、前処理行程(ステップS3)にて画像処理を行った配管内画像を直管継手判別モデルに入力して、配管内画像が直管画像であるか継手画像であるかを判別する。 Next, in the straight pipe joint discrimination process (step S4), as shown in FIG. 11, the straight pipe joint discrimination unit 32 of the joint portion extraction unit 15 is an evaluation image after pretreatment, that is, a pretreatment process (step). The image in the pipe after the image processing in S3) is discriminated by the trained straight pipe joint discrimination model, and the evaluation video with the discrimination result (whether it is a straight pipe image or a joint image). Create an image of the inside of the pipe with the discrimination result). In this way, the straight pipe joint discriminating unit 32 inputs the image in the pipe subjected to the image processing in the preprocessing process (step S3) into the straight pipe joint discriminating model, and the image in the pipe is the straight pipe image. It is determined whether it is a joint image or a joint image.

次に、各種継手部分抽出行程(ステップS5)において、継手部分抽出部15の各種継手部分抽出部33は、判別結果付き評価用映像に基づいて、すなわち、直管継手判別行程(ステップS4)における判別結果に基づいて、配管Pの軸方向について順に複数枚撮影された配管内画像の中から継手部分画像群IGを抽出する。なお、継手部分画像群IGは、連続する複数の継手画像の集まりである。 Next, in the various joint portion extraction steps (step S5), the various joint portion extraction units 33 of the joint portion extraction unit 15 are based on the evaluation image with the determination result, that is, in the straight pipe joint determination process (step S4). Based on the determination result, the joint portion image group IG is extracted from a plurality of images in the pipe taken in order in the axial direction of the pipe P. The joint partial image group IG is a collection of a plurality of continuous joint images.

具体的には、各種継手部分抽出行程(ステップS5)において、各種継手部分抽出部33は、判別結果付き評価用映像に対して平滑化処理を行い、平滑化処理を行った判別結果付き評価用映像に基づいて継手部分画像群IGを抽出する。ここで、各種継手部分抽出部33は、平滑化処理として、配管内画像について当該画像を撮影した順に並べたときに、直管継手判別行程(ステップS4)にて継手画像であるとの判別がなされた配管内画像の前後の所定枚数の配管内画像については、その判別結果を直管画像と判別されたものから継手画像へと変換する処理を行う。 Specifically, in the various joint portion extraction steps (step S5), the various joint portion extraction units 33 perform a smoothing process on the evaluation image with the discrimination result, and perform the smoothing process for the evaluation with the discrimination result. The joint part image group IG is extracted based on the image. Here, as a smoothing process, the various joint portion extraction units 33 determine that the images in the pipe are joint images in the straight pipe joint determination process (step S4) when the images are arranged in the order in which they were taken. With respect to a predetermined number of in-pipe images before and after the made in-pipe image, a process is performed in which the determination result is converted from the image determined to be a straight pipe image into a joint image.

例えば、図12に示すように、任意のフレーム(配管内画像)である当該フレームを含む15個のフレーム(前後の7個のフレーム)の中で一つでも「各種継手」(継手画像)と判別されたフレームがあれば、当該フレームの判別結果がもともと「直管」であっても「各種継手」と処理される。そして、各種継手部分抽出部33は、各種継手部分の抽出として、連続して「各種継手」と判別されたフレームを1つの群にまとめて、例えば図13に示すように、「各種継手部分1」や「各種継手部分2」のような1つの継手部分画像群IGを抽出する。なお、図13に示す「直管部」は、連続する複数の直管画像の集まりである直管部分画像群である。 For example, as shown in FIG. 12, even one of the 15 frames (7 frames before and after) including the frame, which is an arbitrary frame (image in the pipe), is referred to as "various joints" (joint image). If there is a discriminated frame, even if the discriminant result of the frame is originally "straight pipe", it is treated as "various joints". Then, as an extraction of various joint portions, the various joint portion extraction units 33 continuously group the frames determined to be "various joints" into one group, and as shown in FIG. 13, for example, "various joint portions 1". And "Various joint parts 2", one joint part image group IG is extracted. The "straight tube portion" shown in FIG. 13 is a straight tube partial image group which is a collection of a plurality of continuous straight tube images.

以上のような継手部分抽出段階の次に、図2に示すように、継手判別演算段階として、特徴抽出行程(ステップS6)と継手判別行程(ステップS7)が行われる。この継手判別演算段階においては、継手部分画像群IGを構成する各々の継手画像について画像処理を行い、当該画像処理を行った継手画像に基づいて継手の種類を判別する。なお、継手判別演算段階は、本開示の「継手判別演算行程」の一例である。 Following the joint partial extraction step as described above, as shown in FIG. 2, a feature extraction step (step S6) and a joint discrimination step (step S7) are performed as a joint discrimination calculation step. In this joint discrimination calculation stage, image processing is performed on each joint image constituting the joint partial image group IG, and the type of joint is discriminated based on the joint image after the image processing. The joint discrimination calculation stage is an example of the “joint discrimination calculation process” of the present disclosure.

特徴抽出行程(ステップS6)において、継手判別演算部16の画像処理部41は、継手部分画像群IGを構成する継手画像について当該画像の特徴を抽出する画像処理を行う。 In the feature extraction process (step S6), the image processing unit 41 of the joint discrimination calculation unit 16 performs image processing for extracting the features of the joint image constituting the joint portion image group IG.

次に、継手判別行程(ステップS7)において、継手判別演算部16の継手判別部42は、画像処理部41にて画像処理を行った継手画像について当該画像を撮影した順に並べたときの継手画像の特徴の推移をもとに、継手の種類を判別する。 Next, in the joint discrimination process (step S7), the joint discrimination unit 42 of the joint discrimination calculation unit 16 arranges the joint images subjected to image processing by the image processing unit 41 in the order in which the images were taken. The type of joint is determined based on the transition of the characteristics of.

ここで、継手判別演算段階において行われる継手判別方法について、詳しく説明する。本実施形態では、画像処理技術を活用し、画像の輝度変化や、各種継手形状に由来する配管内での見え方の違い等をもとに、配管Pを構成している継手の種類を判別する。 Here, the joint discrimination method performed in the joint discrimination calculation stage will be described in detail. In the present embodiment, the image processing technology is utilized to determine the type of the joint constituting the pipe P based on the change in the brightness of the image, the difference in the appearance in the pipe due to various joint shapes, and the like. To do.

まず、継手の種類として、エルボEL(図15参照)とストリートエルボSE(図16参照)を判別する方法について説明する。ここでは、例えば図14に示すような配管Pの例を考える。図14においては、配管Pの先端Pa側から入口Pb側に向かって順に、ストレート管ST(直管)、エルボEL、ストレート管ST、エルボEL、ストレート管ST、ストリートエルボSE、エルボEL、ストレート管STが設けられている。 First, a method of discriminating between an elbow EL (see FIG. 15) and a street elbow SE (see FIG. 16) as a type of joint will be described. Here, for example, consider an example of the pipe P as shown in FIG. In FIG. 14, straight pipe ST (straight pipe), elbow EL, straight pipe ST, elbow EL, straight pipe ST, street elbow SE, elbow EL, straight pipe ST (straight pipe), elbow EL, straight pipe ST, elbow EL, straight pipe ST, street elbow SE, elbow EL, straight pipe P from the tip Pa side to the inlet Pb side. A tube ST is provided.

ここで、ストレート管STは、直線状に形成される円筒形状(以下、「直線円筒状」という。)の管である。また、図15と図16に示すように、エルボELとストリートエルボSEは、直角または略直角に曲がっている管である。エルボELは、配管Pを2次元的に曲げるときに使用される。その一方で、ストリートエルボSEは、配管Pを3次元的に曲げるときに使用され、エルボELと組み合わせて使用される。 Here, the straight pipe ST is a cylindrical pipe (hereinafter, referred to as "straight cylindrical shape") formed in a straight line. Further, as shown in FIGS. 15 and 16, the elbow EL and the street elbow SE are tubes that are bent at right angles or substantially at right angles. The elbow EL is used when the pipe P is bent two-dimensionally. On the other hand, the street elbow SE is used when bending the pipe P three-dimensionally, and is used in combination with the elbow EL.

そこで、まず、画像処理部41は、カメラ11が撮影した各々の配管内画像、すなわち、継手部分抽出部15にて抽出された継手部分画像群IGを構成する各々の継手画像について、当該画像の特徴を抽出する画像処理を行う。 Therefore, first, the image processing unit 41 describes each of the images in the pipe taken by the camera 11, that is, each joint image constituting the joint portion image group IG extracted by the joint portion extraction unit 15. Perform image processing to extract features.

具体的には、画像処理部41は、画像処理を行うときに、継手画像の特徴として継手画像の輝度値を算出する処理を行う。なお、継手画像の輝度値は、画像中心部分の画素値の平均値である。また、継手画像の輝度値は、例えば、1枚の継手画像についてその全体の輝度の合計値または平均値であってもよい。 Specifically, the image processing unit 41 performs a process of calculating the brightness value of the joint image as a feature of the joint image when performing the image processing. The brightness value of the joint image is an average value of the pixel values of the central portion of the image. Further, the brightness value of the joint image may be, for example, the total value or the average value of the total brightness of one joint image.

次に、継手判別部42は、画像処理部41が画像処理を行った継手画像について当該画像を撮影した順に並べたときの継手画像の特徴の推移をもとに、継手の種類を判別する。 Next, the joint discriminating unit 42 determines the type of the joint based on the transition of the characteristics of the joint image when the image processing unit 41 arranges the image-processed joint images in the order in which the images are taken.

ここで、エルボELやストリートエルボSEにおいては、その内部の管路は、曲がって形成されている。そのため、カメラ11がエルボELやストリートエルボSEの内部を通過するときには、カメラ11の撮影面がエルボELやストリートエルボSEの内面に対向する。そして、このとき、カメラ11の照明光がエルボELやストリートエルボSEの内面に反射するので、エルボELやストリートエルボSEの内面に反射した光が配管内画像に写り込む。したがって、カメラ11がエルボELやストリートエルボSEの内部を通過するときには、配管内画像が明るくなるので、配管内画像の輝度値が高くなる。 Here, in the elbow EL and the street elbow SE, the pipeline inside the elbow EL and the street elbow SE is formed by bending. Therefore, when the camera 11 passes through the inside of the elbow EL or the street elbow SE, the shooting surface of the camera 11 faces the inner surface of the elbow EL or the street elbow SE. At this time, since the illumination light of the camera 11 is reflected on the inner surface of the elbow EL or street elbow SE, the light reflected on the inner surface of the elbow EL or street elbow SE is reflected in the image inside the pipe. Therefore, when the camera 11 passes through the inside of the elbow EL or the street elbow SE, the image in the pipe becomes bright, so that the brightness value of the image in the pipe becomes high.

また、例えば図14に示すように、配管Pにおいて、エルボELは単独で設けられるが、ストリートエルボSEは単独で設けられておらずエルボELとの組み合わせで設けられている。そのため、カメラ11がエルボELの内部を通過するときには一度だけ配管内画像が明るくなるが、カメラ11がストリートエルボSEの内部を通過するときにはその後にエルボELの内部を通過するため二度配管内画像が明るくなる。 Further, for example, as shown in FIG. 14, in the pipe P, the elbow EL is provided independently, but the street elbow SE is not provided independently but is provided in combination with the elbow EL. Therefore, when the camera 11 passes through the inside of the elbow EL, the image in the pipe becomes bright only once, but when the camera 11 passes through the inside of the street elbow SE, it passes through the inside of the elbow EL after that, so that the image in the pipe is twice. Becomes brighter.

具体的には、カメラ11がエルボELの内部を通過するときに撮影された配管内画像について、例えば図17に示すように、図中(b)〜(i)の画像群において、配管内画像の輝度値が高くなる画像群が1つ(例えば、図中(d)〜(g)の画像群)である。そして、特に輝度値が高い配管内画像は、1枚である(例えば、図中(e)の画像である)。 Specifically, regarding the image in the pipe taken when the camera 11 passes through the inside of the elbow EL, for example, as shown in FIG. 17, in the image group (b) to (i) in the figure, the image in the pipe There is one image group in which the brightness value of (for example, (d) to (g) in the figure is high). The image in the pipe having a particularly high brightness value is one (for example, the image (e) in the figure).

一方、カメラ11がストリートエルボSEとエルボELの組み合わせからなるものの内部を通過するときに撮影された配管内画像について、例えば図18に示すように、図中(b)〜(i)の画像群において、配管内画像の輝度値が高くなる配管内画像の画像群が2つ(例えば、図中(b)〜(d)の画像群と図中(f)〜(h)の画像群)である。そして、特に輝度値が高い配管内画像は、2枚(例えば、図中(c)と(g)の画像)である。 On the other hand, with respect to the images in the pipe taken when the camera 11 passes through the inside of the combination of the street elbow SE and the elbow EL, for example, as shown in FIG. 18, the image groups (b) to (i) in the figure. In, there are two image groups of the in-pipe image in which the brightness value of the in-pipe image is high (for example, the image group of (b) to (d) in the figure and the image group of (f) to (h) in the figure). is there. The images in the pipe having a particularly high brightness value are two images (for example, the images (c) and (g) in the figure).

なお、図17と図18においては、(a)、(b)、(c)、・・・の順に、カメラ11により撮影されたものとして示している。また、図17と図18の(b)〜(i)の画像群は、配管Pの軸方向について連続して撮影された所定枚数(図17と図18の例では、例えば8枚)の配管内画像を継手画像として選出した継手部分画像群IGに相当する。 In addition, in FIG. 17 and FIG. 18, it is shown that the image was taken by the camera 11 in the order of (a), (b), (c), .... Further, in the image groups of FIGS. 17 and 18 (b) to 18 (i), a predetermined number of images (for example, 8 images in the examples of FIGS. 17 and 18) were continuously photographed in the axial direction of the pipe P. Corresponds to the joint partial image group IG in which the inner image is selected as the joint image.

そこで、本実施形態では、継手判別部42は、継手部分画像群IGにて、継手画像の輝度値の推移を確認したときに、輝度値が所定値α以上である継手画像の枚数が1枚であるときには、継手の種類はエルボELであると判別する。一方、継手判別部42は、前記の継手部分画像群IGにて、継手画像の輝度値の推移を確認したときに、輝度値が所定値α以上である継手画像の枚数が2枚であるときには、継手の種類はストリートエルボSEとエルボELの組み合わせからなるものであると判別する。 Therefore, in the present embodiment, when the joint determination unit 42 confirms the transition of the brightness value of the joint image in the joint portion image group IG, the number of joint images whose brightness value is equal to or more than a predetermined value α is one. When is, it is determined that the type of joint is elbow EL. On the other hand, when the joint determination unit 42 confirms the transition of the brightness value of the joint image in the joint portion image group IG, when the number of joint images whose brightness value is equal to or more than a predetermined value α is two. , It is determined that the type of joint is a combination of street elbow SE and elbow EL.

次に、継手の種類として、ソケットSOを判別する方法について説明する。この判別においては、画像処理部41は、画像処理を行うときに、継手画像中の円形状部分の抽出を行う処理を行う。具体的には、画像処理部41は、ハフ変換と呼ばれる画像中の円形状部分を抽出する処理を行う。なお、ソケットSOは、図19に示すように直線円筒状の継手である。 Next, a method of determining the socket SO as a type of joint will be described. In this determination, the image processing unit 41 performs a process of extracting a circular portion in the joint image when performing the image processing. Specifically, the image processing unit 41 performs a process called Hough transform for extracting a circular portion in the image. The socket SO is a straight cylindrical joint as shown in FIG.

そして、ソケットSOを判別する場合においても、継手判別部42は、画像処理部41が画像処理を行った継手画像について当該画像を撮影した順に並べたときの継手画像の特徴の推移をもとに継手の種類を判別する。 Then, even in the case of discriminating the socket SO, the joint discriminating unit 42 is based on the transition of the characteristics of the joint image when the image processing unit 41 arranges the image-processed joint images in the order in which the images are taken. Determine the type of fitting.

ここで、ソケットSOは、直線円筒状の管であり、同様に直線円筒状の管であるストレート管STと接続している。そのため、カメラ11がソケットSOの内部を通過するときには、ストレート管STとソケットSOの接続部分、すなわち、円形状部分が配管内画像に写り込む。 Here, the socket SO is a straight cylindrical tube, and is also connected to a straight tube ST, which is also a straight cylindrical tube. Therefore, when the camera 11 passes through the inside of the socket SO, the connecting portion between the straight pipe ST and the socket SO, that is, the circular portion is reflected in the image inside the pipe.

そこで、本実施形態では、継手判別部42は、継手画像の特徴の推移を確認したときに、継手画像の輝度値が小さい状態のまま、円形状部分が抽出されない継手画像(図20参照)から円形状部分(図21にて破線で示す部分)が抽出される継手画像(図21参照)に変化したときには、継手の種類はソケットSOであると判別する。このようにして、継手判別部42は、継手の種類としてソケットSOを判別する。 Therefore, in the present embodiment, when the joint discriminating unit 42 confirms the transition of the features of the joint image, the circular portion is not extracted from the joint image (see FIG. 20) while the brightness value of the joint image remains small. When the circular portion (the portion shown by the broken line in FIG. 21) changes to the extracted joint image (see FIG. 21), it is determined that the type of the joint is socket SO. In this way, the joint discriminating unit 42 discriminates the socket SO as the type of the joint.

そこで、以上のような継手判別演算段階において行われる継手判別方法についてまとめると、継手判別部42は、画像処理部41にて抽出した特徴をもとに、図22に示す手順に従って、継手の判別を行う。 Therefore, to summarize the joint discrimination method performed in the joint discrimination calculation stage as described above, the joint discrimination unit 42 discriminates the joint according to the procedure shown in FIG. 22 based on the features extracted by the image processing unit 41. I do.

図22に示すように、継手部分映像、すなわち、継手部分画像群IGにて、ピークが2つ以上、すなわち、輝度値が所定値α以上である継手画像の枚数が2枚以上である場合(ステップS201:YES)には、継手判別部42は、継手の種類がストリートエルボSEとエルボELの組み合わせからなるものであると判別する。例えば、図23に示すように、ピークが2つである各種継手部分2,3については、ストリートエルボSEとエルボELの組み合わせからなるものであると判別される。 As shown in FIG. 22, in the joint portion image, that is, in the joint portion image group IG, when the number of peaks is two or more, that is, the number of joint images having a brightness value of a predetermined value α or more is two or more ( In step S201: YES), the joint discriminating unit 42 determines that the type of joint is a combination of street elbow SE and elbow EL. For example, as shown in FIG. 23, it is determined that the various joint portions 2 and 3 having two peaks are composed of a combination of the street elbow SE and the elbow EL.

また、継手部分画像群IGにて、ピークが2つ未満である場合(ステップS201:NO)に、ピークが1つのみ、すなわち、輝度値が所定値α以上である継手画像の枚数が1枚である場合(ステップS202:YES)には、継手判別部42は、継手の種類がエルボELであると判別する。 Further, in the joint partial image group IG, when there are less than two peaks (step S201: NO), there is only one peak, that is, the number of joint images having a brightness value of a predetermined value α or more is one. In the case of (step S202: YES), the joint discriminating unit 42 determines that the type of the joint is elbow EL.

また、継手部分画像群IGにて、ピークが0である場合、すなわち、輝度値が所定値α以上である配管内画像の枚数が0枚である場合(ステップS202:NO)に、円形抽出数が1つ以上である場合、すなわち、継手画像において円形状部分が抽出された場合(ステップS203:YES)には、継手判別部42は、継手の種類がソケットSOであると判別する。例えば、図23に示すように、ピークが0で円形抽出が1つである各種継手部分4は、ソケットSOであると判別される。 Further, in the joint partial image group IG, when the peak is 0, that is, when the number of images in the pipe whose brightness value is a predetermined value α or more is 0 (step S202: NO), the number of circular extractions When there is one or more, that is, when the circular portion is extracted in the joint image (step S203: YES), the joint determination unit 42 determines that the type of the joint is socket SO. For example, as shown in FIG. 23, various joint portions 4 having a peak of 0 and one circular extraction are determined to be socket SO.

なお、円形抽出数が0である場合、すなわち、継手画像において円形状部分が抽出されなかった場合(ステップS203:NO)には、継手判別部42は、継手ではなくストレート管STであると判別する。例えば、図23に示すように、ピークが0で円形抽出も0である各種継手部分1は、継手ではなくストレート管STであると判別される。 When the number of circular extractions is 0, that is, when the circular portion is not extracted in the joint image (step S203: NO), the joint determination unit 42 determines that the joint is not a joint but a straight pipe ST. To do. For example, as shown in FIG. 23, the various joint portions 1 having a peak of 0 and a circular extraction of 0 are determined to be straight pipe STs rather than joints.

このようにして、継手判別部42は、継手の種類として、エルボELであるか、ストリートエルボSE(詳しくは、ストリートエルボSEとエルボELの組み合わせからなるもの)であるか、を判別する。 In this way, the joint discriminating unit 42 determines whether the type of the joint is an elbow EL or a street elbow SE (specifically, a combination of the street elbow SE and the elbow EL).

なお、継手判別部42は、カメラ11が配管Pの先端Paから引き戻されて配管Pの入口Pbから引き抜かれるまでの間に撮影した全ての配管内画像において、継手の種類としてエルボELであると判別した回数、および、継手の種類としてストリートエルボSEとエルボELの組み合わせからなるものであると判別した回数を集計することにより、継手の数として、エルボELとストリートエルボSEの数を判別することができる。 The joint discriminating unit 42 is said to have an elbow EL as the type of joint in all the images in the pipe taken while the camera 11 is pulled back from the tip Pa of the pipe P and pulled out from the inlet Pb of the pipe P. To determine the number of elbow EL and street elbow SE as the number of joints by totaling the number of times determined and the number of times it is determined that the type of joint consists of a combination of street elbow SE and elbow EL. Can be done.

同様に、継手判別部42は、カメラ11が配管Pの先端Paから引き戻されて配管Pの入口Pbから引き抜かれるまでの間に撮影した全ての配管内画像において、継手の種類がソケットSOであると判別した回数を集計することにより、ソケットSOの数を判別することもできる。 Similarly, in the joint discriminating unit 42, the type of the joint is socket SO in all the images in the pipe taken while the camera 11 is pulled back from the tip Pa of the pipe P and pulled out from the inlet Pb of the pipe P. It is also possible to determine the number of socket SOs by aggregating the number of times it is determined.

このようにして、継手判別演算部16は、各種継手部分抽出行程(ステップS5)にて抽出した継手部分画像群IGを用いて、継手の種類と数を判別する。 In this way, the joint discrimination calculation unit 16 discriminates the type and number of joints by using the joint portion image group IG extracted in the various joint portion extraction steps (step S5).

<本実施形態の作用効果>
以上のように本実施形態の継手判別方法および継手判別装置1において、学習段階として、まず、前処理部21は、直管画像と各種継手画像とにラベル付けされた学習用画像に対して画像処理を行う(ステップS1の前処理行程)。次に、判別モデル学習部22は、前処理部21にて画像処理を行った学習用画像を用いて機械学習を行うことにより、直管継手判別モデルを構築する(ステップS2の直管継手判別モデルの学習行程)。
<Action and effect of this embodiment>
As described above, in the joint discriminating method and the joint discriminating device 1 of the present embodiment, as a learning step, first, the preprocessing unit 21 is imaged with respect to the learning images labeled with the straight pipe image and the various joint images. Perform processing (preprocessing process in step S1). Next, the discrimination model learning unit 22 constructs a straight pipe joint discrimination model by performing machine learning using the learning image processed by the preprocessing unit 21 (straight pipe joint discrimination in step S2). Model learning process).

そして、このようにして学習段階にて直管継手判別モデルを構築したうえで、継手判別の実作業時に、継手部分抽出段階として、まず、前処理部31は、配管内画像(すなわち、学習段階の前処理行程(ステップS1)で使用される学習用画像とは異なる画像であって、実際に継手の種類と数を判別するに当たって取得された配管内画像)に対して画像処理を行う(ステップS3の前処理行程)。次に、直管継手判別部32は、前処理部31にて画像処理を行った配管内画像を直管継手判別モデルに入力して、配管内画像が直管画像であるか継手画像であるかを判別する(ステップS4の直管継手判別行程)。次に、各種継手部分抽出部33は、直管継手判別部32における判別結果に基づいて、配管Pの軸方向について順に複数枚撮影した配管内画像の中から、継手部分画像群IGを抽出する(ステップS5の各種継手部分抽出行程)。 Then, after constructing the straight pipe joint discrimination model in the learning stage in this way, at the time of the actual work of the joint discrimination, first, as the joint portion extraction step, the pretreatment unit 31 first performs the image in the pipe (that is, the learning stage). Image processing is performed on the image different from the learning image used in the preprocessing process (step S1) of (step S1) and the image in the pipe acquired when actually determining the type and number of joints (step). Pretreatment process of S3). Next, the straight pipe joint discriminating unit 32 inputs the image in the pipe subjected to the image processing by the preprocessing unit 31 into the straight pipe joint discriminating model, and the image in the pipe is a straight pipe image or a joint image. (The straight pipe joint determination process in step S4). Next, the various joint portion extraction units 33 extract the joint portion image group IG from a plurality of images in the pipe taken in order in the axial direction of the pipe P based on the determination result in the straight pipe joint determination unit 32. (Various joint part extraction steps in step S5).

そして、このようにして継手部分抽出段階にて継手部分画像群IGを抽出したうえで、継手判別演算段階として、継手判別演算部16は、継手部分画像群IGを構成する各々の継手画像について画像処理を行い(ステップS6の特徴抽出行程)、当該画像処理を行った継手画像に基づいて継手の種類を判別する(ステップS7の継手判別行程)。 Then, after extracting the joint portion image group IG at the joint portion extraction stage in this way, the joint discrimination calculation unit 16 sets an image for each joint image constituting the joint portion image group IG as the joint discrimination calculation step. Processing is performed (feature extraction process in step S6), and the type of joint is determined based on the image of the joint to which the image processing has been performed (joint determination process in step S7).

このように、本実施形態では、複数枚撮影した配管内画像の中から抽出した継手部分画像群IGを構成する各々の継手画像について画像処理を行い、当該画像処理を行った継手画像に基づいて継手の種類を判別する。そのため、作業者が配管内画像をそのまま目視で判別する場合にて生じていた作業者の違いによる判別結果の差異が無くなる。そのため、継手の判別時において、その判別基準および精度が平準化される。 As described above, in the present embodiment, image processing is performed on each joint image constituting the joint partial image group IG extracted from the images in the pipe taken by a plurality of images, and the image processing is performed based on the joint image. Determine the type of fitting. Therefore, the difference in the discrimination result due to the difference in the worker, which occurs when the worker visually discriminates the image in the pipe as it is, is eliminated. Therefore, when discriminating the joint, the discriminant standard and accuracy are leveled.

また、作業者が配管内画像をそのまま目視で判別する場合よりも、短時間で継手の種類を判別できるので、継手の判別の効率化を図ることができる。また、作業者は、カメラ11の挿入と引抜きのみに専念でき、継手の判別を行う負担が軽減されるので、継手の判別時の作業負荷を軽減できる。 Further, since the type of the joint can be discriminated in a shorter time than when the operator visually discriminates the image in the pipe as it is, the efficiency of discriminating the joint can be improved. Further, the operator can concentrate only on inserting and pulling out the camera 11, and the burden of discriminating the joint is reduced, so that the work load at the time of discriminating the joint can be reduced.

そのため、本実施形態によれば、配管Pを構成する継手の判別作業の効率化および継手の判別基準や精度の平準化を図ることができる。 Therefore, according to the present embodiment, it is possible to improve the efficiency of the discriminating work of the joints constituting the pipe P and to standardize the discriminating criteria and the accuracy of the joints.

そして、さらに、本実施形態では、前記のように継手の種類を判別するに際して複数枚の配管内画像の中から継手部分画像群IGを抽出するが、このとき、画像処理の技術と機械学習の技術を活用して構築した直管継手判別モデルを用いて継手部分画像群IGを抽出する。 Further, in the present embodiment, the joint partial image group IG is extracted from a plurality of images in the pipe when determining the type of the joint as described above. The joint partial image group IG is extracted using the straight pipe joint discrimination model constructed by utilizing the technology.

すなわち、まず、画像処理の技術と機械学習の技術を活用し、配管Pを構成するストレート管STと継手について、その形状の違いに由来する配管内画像での見え方の違い等をもとに、直管継手判別モデルを構築する。ここで、配管内画像での見え方の違いとして、継手は、エルボELやストリートエルボSEのように、湾曲形状のため壁面が大きく映りこむことや、ソケットSOのように直管同士をつなぐ部分が円形に映りこむなど、見え方の違いの変化が大きい。一方、ストレート管STは、形状が一様であり、見え方の違いの変化が小さい。次に、構築した直管継手判別モデルを用いて各配管内画像について直管画像か継手画像かを判別して、配管Pの軸方向について順に撮影した複数枚の配管内画像の中から継手部分画像群IGを抽出する。 That is, first, utilizing image processing technology and machine learning technology, the straight pipe ST and the joint that make up the pipe P are based on the difference in appearance in the image inside the pipe due to the difference in shape. , Build a straight pipe joint discrimination model. Here, the difference in appearance in the image inside the pipe is that the joint has a curved shape like the elbow EL and street elbow SE, so the wall surface is greatly reflected, and the part connecting the straight pipes like the socket SO. There is a big change in the appearance, such as the reflection of the image in a circle. On the other hand, the straight tube ST has a uniform shape, and the change in appearance is small. Next, using the constructed straight pipe joint discrimination model, it is discriminated whether the image in each pipe is a straight pipe image or a joint image, and the joint portion is selected from a plurality of images in the pipe taken in order in the axial direction of the pipe P. Extract the image group IG.

これにより、カメラ11により配管内画像を撮影するときに、任意の速度でカメラ11の挿入・引抜きが行われて画像のフレームレートが任意である複数の配管内画像が得られた場合でも、撮影された複数の配管内画像の中から継手部分画像群IGのみを精度よく抽出できる。そして、このようにして複数の配管内画像の中から継手画像のみを特定したうえで、特定した継手画像をもとに継手の種類を判別するので、継手の判別精度のさらなる向上を図ることができる。 As a result, when an image in the pipe is taken by the camera 11, even if the camera 11 is inserted / removed at an arbitrary speed and a plurality of images in the pipe having an arbitrary frame rate of the image are obtained, the image is taken. Only the joint part image group IG can be accurately extracted from the plurality of images in the pipe. Then, in this way, only the joint image is specified from the plurality of images in the pipe, and then the type of the joint is determined based on the specified joint image, so that the accuracy of the joint identification can be further improved. it can.

そして、本実施形態によれば、継手の種類と数を判別できるので、配管Pの容積を正確に推測でき、図24に示すようにライニングピグPIG1を配管Pの先端Paまで送り込む作業において、ライニングピグPIG1の到達位置の精度向上を図ることができる。また、継手の種類と数を判別できるので、配管Pの更生修理工法において必要な樹脂量を正確に推測できる。そのため、配管Pの更生修理工法において、配管Pの内面に精度よく樹脂の層を形成してライニングを行うことができる。 Then, according to the present embodiment, since the type and number of joints can be determined, the volume of the pipe P can be accurately estimated, and as shown in FIG. 24, the lining is used in the work of feeding the lining pig PIG1 to the tip Pa of the pipe P. It is possible to improve the accuracy of the arrival position of the pig PIG1. Further, since the type and number of joints can be determined, the amount of resin required in the rehabilitation repair method of the pipe P can be accurately estimated. Therefore, in the rehabilitation repair method of the pipe P, the resin layer can be accurately formed on the inner surface of the pipe P and the lining can be performed.

また、各種継手部分抽出行程(ステップS5)において、各種継手部分抽出部33は、直管継手判別行程(ステップS4)における判別結果に対して平滑化処理を行い、当該平滑化処理を行った判別結果に基づいて継手部分画像群IGを抽出する。そして、このとき、平滑化処理として、配管内画像について当該画像を撮影した順に並べたときに、直管継手判別行程(ステップS4)にて継手画像であるとの判別がなされた配管内画像の前後の所定枚数の配管内画像については、その判別結果を継手画像とする処理を行う。 Further, in the various joint partial extraction processes (step S5), the various joint partial extraction units 33 perform a smoothing process on the discrimination result in the straight pipe joint discrimination process (step S4), and perform the smoothing process. Based on the result, the joint partial image group IG is extracted. Then, at this time, as a smoothing process, when the images in the pipe are arranged in the order in which the images were taken, the image in the pipe determined to be the joint image in the straight pipe joint determination process (step S4). For a predetermined number of images in the pipe before and after, a process is performed in which the discrimination result is used as a joint image.

これにより、例えばストレート管STと継手の境界部分など、直管画像か継手画像かの判別がし難い部分が存在する場合であっても、継手部分画像群IGを精度よく抽出できる。そのため、より効果的に、継手の判別精度の向上を図ることができる。 As a result, even when there is a portion where it is difficult to distinguish between the straight pipe image and the joint image, such as the boundary portion between the straight pipe ST and the joint, the joint portion image group IG can be accurately extracted. Therefore, it is possible to more effectively improve the discrimination accuracy of the joint.

また、前処理行程(ステップS1,S3)における画像処理として、前処理部21,31は、グレースケール化と、ヒストグラム平坦化と、リサイズと、画像の輝度値の範囲を0から1とする0−1正規化と、を行う。 Further, as image processing in the preprocessing steps (steps S1 and S3), the preprocessing units 21 and 31 perform grayscale, histogram flattening, resizing, and 0 to set the range of the brightness value of the image from 0 to 1. -1 Normalization and.

これにより、直管継手判別モデルを構築し易くなり、また、直管継手判別モデルを用いて配管内画像が直管画像であるか継手画像であるかを判別し易くなる。そのため、より効果的に、継手の判別精度の向上を図ることができる。 This makes it easier to build a straight pipe joint discrimination model, and also makes it easier to discriminate whether the in-pipe image is a straight pipe image or a joint image using the straight pipe joint discrimination model. Therefore, it is possible to more effectively improve the discrimination accuracy of the joint.

また、直管継手判別モデルの学習行程(ステップS2)では、判別モデル学習部22は、機械学習の手法として、ディープラーニング(深層学習)を用いる。 Further, in the learning process of the straight pipe joint discrimination model (step S2), the discrimination model learning unit 22 uses deep learning as a machine learning method.

これにより、直管継手判別モデルを精度よく構築できる。そのため、さらに、継手の判別精度が向上する。 As a result, the straight pipe joint discrimination model can be constructed with high accuracy. Therefore, the accuracy of discriminating the joint is further improved.

なお、上記した実施の形態は単なる例示にすぎず、本開示を何ら限定するものではなく、その要旨を逸脱しない範囲内で種々の改良、変形が可能であることはもちろんである。 It should be noted that the above-described embodiment is merely an example and does not limit the present disclosure in any way, and it goes without saying that various improvements and modifications can be made without departing from the gist thereof.

例えば、本実施形態の継手判別方法や継手判別装置1は、配管Pとして、ガス管に限定されず、水道管などにも適用できる。 For example, the joint discrimination method and the joint discrimination device 1 of the present embodiment can be applied not only to gas pipes but also to water pipes and the like as pipe P.

また、上記の説明では、カメラ11を配管Pから引き抜く時にカメラ11で撮影した配管内画像を使用したが、これに限定されず、カメラ11を配管Pに挿入する時にカメラ11で撮影した配管内画像を使用してもよい。 Further, in the above description, the image inside the pipe taken by the camera 11 when the camera 11 is pulled out from the pipe P is used, but the present invention is not limited to this, and the inside of the pipe taken by the camera 11 when the camera 11 is inserted into the pipe P is used. Images may be used.

また、継手判別部42は、継手部分画像群IGにて、継手画像の輝度値が所定値α以上である継手画像の枚数が、2枚以上の第1の所定枚数であるときに継手の種類はエルボELであると判別し、第1の所定枚数よりも多い第2の所定枚数であるときに継手の種類はストリートエルボSEとエルボELの組み合わせからなるものであると判別してもよい。 Further, the joint discriminating unit 42 determines the type of the joint when the number of joint images in which the brightness value of the joint image is a predetermined value α or more is the first predetermined number of two or more in the joint portion image group IG. Is determined to be an elbow EL, and when the number is a second predetermined number that is larger than the first predetermined number, it may be determined that the type of joint is a combination of a street elbow SE and an elbow EL.

また、画像処理部41は、画像処理を行うときに、継手画像の特徴として継手画像内の円形状以外の所定形状部分(例えば、多角形の形状部分)を抽出する処理を行ってもよく。このとき、継手判別部42は、継手画像の特徴の推移を確認したときに、所定形状部分が抽出されない継手画像から所定形状部分が抽出される継手画像に変化したときには、継手の種類は直線状の所定形状の筒状の継手であると判別してもよい。 Further, the image processing unit 41 may perform a process of extracting a predetermined shape portion (for example, a polygonal shape portion) other than the circular shape in the joint image as a feature of the joint image when performing the image processing. At this time, when the joint discriminating unit 42 confirms the transition of the features of the joint image, when the joint image in which the predetermined shape portion is not extracted changes to the joint image in which the predetermined shape portion is extracted, the type of the joint is linear. It may be determined that the joint has a tubular shape having a predetermined shape.

1 継手判別装置
11 カメラ
12 通信部
13 画像保存部
14 学習部
15 継手部分抽出部
16 継手判別演算部
17 表示部
21 前処理部
22 判別モデル学習部
31 前処理部
32 直管継手判別部
33 各種継手部分抽出部
41 画像処理部
42 継手判別部
P 配管
RE 樹脂
ST ストレート管(直管)
EL エルボ
SE ストリートエルボ
SO ソケット
IG 継手部分画像群
1 Fitting discriminating device 11 Camera 12 Communication unit 13 Image storage unit 14 Learning unit 15 Coupling part extraction unit 16 Coupling discrimination calculation unit 17 Display unit 21 Preprocessing unit 22 Discrimination model learning unit 31 Preprocessing unit 32 Straight pipe joint discriminating unit 33 Various Joint part extraction part 41 Image processing part 42 Joint discrimination part P Piping RE Resin ST Straight pipe (straight pipe)
EL Elbow SE Street Elbow SO Socket IG Joint Part Image Group

Claims (5)

配管を構成する継手の種類を判別する継手判別方法において、
前記配管を構成する直管が撮影された直管画像と前記継手が撮影された継手画像とにラベル付けされた学習用画像に対して画像処理を行う学習用画像前処理行程と、
前記学習用画像前処理行程にて画像処理を行った前記学習用画像を用いて機械学習を行うことにより、前記配管内を撮影した画像である配管内画像について前記直管画像であるか前記継手画像であるかの判別結果を出力する直管継手判別モデルを構築する判別モデル学習行程と、
前記学習用画像とは異なる画像であって実際に前記継手の種類を判別するに当たって取得された前記配管内画像に対して画像処理を行う配管内画像前処理行程と、
前記配管内画像前処理行程にて画像処理を行った前記配管内画像を前記直管継手判別モデルに入力して、前記配管内画像が前記直管画像であるか前記継手画像であるかを判別する直管継手判別行程と、
前記直管継手判別行程における判別結果に基づいて、前記配管の軸方向について順に複数枚撮影した前記配管内画像中から、連続する複数の前記継手画像の集まりである継手部分画像群を抽出する継手部分抽出行程と、
前記継手部分画像群を構成する各々の前記継手画像について画像処理を行い、当該画像処理を行った前記継手画像に基づいて前記継手の種類を判別する継手判別演算行程と、
を有すること、
を特徴とする継手判別方法。
In the joint discrimination method for discriminating the types of fittings that make up piping,
A learning image preprocessing process in which image processing is performed on a learning image labeled with a straight pipe image in which the straight pipe constituting the pipe is photographed and a joint image in which the joint is photographed.
By performing machine learning using the learning image that has been image-processed in the learning image preprocessing process, the image inside the pipe, which is an image taken inside the pipe, is the straight pipe image or the joint. A discriminant model learning process for constructing a straight pipe joint discriminant model that outputs the discriminant result of whether it is an image,
An image preprocessing process in the pipe that performs image processing on the image in the pipe acquired when actually determining the type of the joint, which is an image different from the image for learning,
Image in pipe The image in pipe that has been image-processed in the preprocessing process is input to the straight pipe joint discrimination model to determine whether the image in pipe is the straight pipe image or the joint image. Straight pipe joint discrimination process and
Based on the discrimination result in the straight pipe joint discrimination stroke, a joint that extracts a joint partial image group which is a collection of a plurality of continuous joint images from the images in the pipe taken in order in the axial direction of the pipe. Partial extraction process and
An image processing is performed on each of the joint images constituting the joint partial image group, and a joint discrimination calculation process for determining the type of the joint based on the image-processed joint image.
To have
A joint discrimination method characterized by.
請求項1の継手判別方法において、
前記継手部分抽出行程では、
前記直管継手判別行程における判別結果に対して平滑化処理を行い、前記平滑化処理を行った前記判別結果に基づいて前記継手部分画像群を抽出し、
前記平滑化処理として、前記配管内画像について当該画像を撮影した順に並べたときに、前記直管継手判別行程にて前記継手画像であるとの判別がなされた前記配管内画像の前後の所定枚数の前記配管内画像については、その判別結果を前記継手画像とする処理を行うこと、
を特徴とする継手判別方法。
In the joint determination method of claim 1,
In the joint part extraction process,
A smoothing process is performed on the discrimination result in the straight pipe joint discrimination process, and the joint partial image group is extracted based on the discrimination result obtained by the smoothing treatment.
As the smoothing process, when the images in the pipe are arranged in the order in which the images are taken, a predetermined number of sheets before and after the image in the pipe that is determined to be the joint image in the straight pipe joint determination process. With respect to the image in the pipe, the determination result is used as the joint image.
A joint discrimination method characterized by.
請求項1または2の継手判別方法において、
前記画像処理として、グレースケール化と、ヒストグラム平坦化と、リサイズと、画像の輝度値の範囲を0から1とする0−1正規化と、を行うこと、
を特徴とする継手判別方法。
In the joint determination method of claim 1 or 2,
As the image processing, grayscale, histogram flattening, resizing, and 0-1 normalization in which the range of the brightness value of the image is 0 to 1 are performed.
A joint discrimination method characterized by.
請求項1乃至3のいずれか1つの継手判別方法において、
前記判別モデル学習行程では、前記機械学習の手法として、ディープラーニングを用いること、
を特徴とする継手判別方法。
In the joint determination method according to any one of claims 1 to 3,
In the discriminant model learning process, deep learning is used as the machine learning method.
A joint discrimination method characterized by.
配管を構成する継手の種類を判別する継手判別装置において、
前記配管を構成する直管が撮影された直管画像と前記継手が撮影された継手画像とにラベル付けされた学習用画像に対して画像処理を行う学習用画像前処理部と、
前記学習用画像前処理部にて画像処理を行った前記学習用画像を用いて機械学習を行うことにより、前記配管内を撮影した画像である配管内画像について前記直管画像であるか前記継手画像であるかの判別結果を出力する直管継手判別モデルを構築する判別モデル学習部と、
前記学習用画像とは異なる画像であって実際に前記継手の種類を判別するに当たって取得された前記配管内画像に対して画像処理を行う配管内画像前処理部と、
前記配管内画像前処理部にて画像処理を行った前記配管内画像を前記直管継手判別モデルに入力して、前記配管内画像が前記直管画像であるか前記継手画像であるかを判別する直管継手判別部と、
前記直管継手判別部における判別結果に基づいて、前記配管の軸方向について順に複数枚撮影した前記配管内画像中から、連続する複数の前記継手画像の集まりである継手部分画像群を抽出する継手部分抽出部と、
前記継手部分画像群を構成する各々の前記継手画像について画像処理を行い、当該画像処理を行った前記継手画像に基づいて前記継手の種類を判別する継手判別演算部と、
を有すること、
を特徴とする継手判別装置。
In a fitting discriminating device that discriminates the types of fittings that make up a pipe
A learning image preprocessing unit that performs image processing on a learning image labeled with a straight pipe image in which the straight pipe constituting the pipe is photographed and a joint image in which the joint is photographed.
By performing machine learning using the learning image that has been image-processed by the learning image preprocessing unit, the image inside the pipe, which is an image taken inside the pipe, is the straight pipe image or the joint. A discrimination model learning unit that builds a straight pipe joint discrimination model that outputs the discrimination result of whether it is an image,
An in-pipe image preprocessing unit that performs image processing on the in-pipe image obtained when actually determining the type of the joint, which is an image different from the learning image,
The image inside the pipe image processed by the preprocessing unit is input to the straight pipe joint discrimination model to determine whether the image inside the pipe is the straight pipe image or the joint image. Straight pipe joint discriminating part and
Based on the discrimination result in the straight pipe joint discriminating portion, a joint that extracts a joint partial image group which is a collection of a plurality of continuous images of the joint from the images in the pipe taken in order in the axial direction of the pipe. Partial extraction part and
An image processing is performed on each of the joint images constituting the joint partial image group, and a joint discrimination calculation unit that determines the type of the joint based on the image of the joint that has undergone the image processing.
To have
A joint discriminating device characterized by.
JP2020059906A 2020-03-30 2020-03-30 Joint discrimination method and joint discrimination device Active JP6890193B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020059906A JP6890193B1 (en) 2020-03-30 2020-03-30 Joint discrimination method and joint discrimination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020059906A JP6890193B1 (en) 2020-03-30 2020-03-30 Joint discrimination method and joint discrimination device

Publications (2)

Publication Number Publication Date
JP6890193B1 true JP6890193B1 (en) 2021-06-18
JP2021156829A JP2021156829A (en) 2021-10-07

Family

ID=76429574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020059906A Active JP6890193B1 (en) 2020-03-30 2020-03-30 Joint discrimination method and joint discrimination device

Country Status (1)

Country Link
JP (1) JP6890193B1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3802594B2 (en) * 1995-11-01 2006-07-26 オリンパス株式会社 Wound inspection apparatus and endoscope apparatus provided with the same
JPH11223086A (en) * 1998-02-06 1999-08-17 Osaka Gas Co Ltd Contact target identification method in work other than cut and cover tunneling work
JP2009250943A (en) * 2008-04-11 2009-10-29 Nec Corp Method and system for lattice distortion measurement
JP6668106B2 (en) * 2016-02-26 2020-03-18 株式会社水道技術開発機構 In-pipe inspection method and flexible joint
JP6809689B2 (en) * 2016-05-26 2021-01-06 桂川電機株式会社 Transport device
JP7050470B2 (en) * 2017-11-21 2022-04-08 千代田化工建設株式会社 Inspection support system, learning device, and judgment device
JP2019138755A (en) * 2018-02-09 2019-08-22 オリンパス株式会社 Tube traveling device

Also Published As

Publication number Publication date
JP2021156829A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
CN111192198B (en) Pipeline panoramic scanning method based on pipeline robot
US10931871B2 (en) Pipeline detection method and apparatus, and storage medium
CN109829904B (en) Method and device for detecting dust on screen, electronic equipment and readable storage medium
CN113284109B (en) Pipeline defect identification method, device, terminal equipment and storage medium
CN110378884B (en) Method for carrying out eccentricity correction and expansion transformation on in-tube visual detection video
CN110598792B (en) Drainage pipeline defect detection training data generation method based on PGGAN transfer learning
JP2014006222A (en) Method and apparatus for detecting change of concrete surface
JP7412983B2 (en) Information processing device, information processing method, and program
CN104899891B (en) A kind of method, apparatus and uterine cavity suction device identifying pregnant bursa tissue
CN110473189A (en) A kind of definition of text images judgment method and system
CN110130987B (en) Tunnel convergence deformation monitoring method based on image analysis
JP2012202859A (en) Method of detecting deformed area on concrete surface
JP6890193B1 (en) Joint discrimination method and joint discrimination device
CN113763363A (en) Drainage pipeline fracture defect detection and grade evaluation method
CN109767426B (en) Shield tunnel water leakage detection method based on image feature recognition
CN114399505B (en) Detection method and detection device in industrial detection
CN116805416A (en) Drainage pipeline defect identification model training method and drainage pipeline defect identification method
JP6913782B1 (en) Joint discrimination method and joint discrimination device
CN112070748A (en) Metal oil pipe defect detection method and device
CN112285876A (en) Camera automatic focusing method based on image processing and bubble detection
CN116625249A (en) Workpiece automatic detection method and device based on 2D and 3D vision and related medium thereof
CN115234845A (en) Oil-gas pipeline inner wall defect image visual detection method based on projection model
CN110823920A (en) Device, system and method for collecting surface defects of inner hole side wall
CN110320211A (en) Small-bore pipeline inner wall defect identification device based on digital picture
GB2624002A (en) Method and system for characterizing perforations in a tubular

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6890193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150