JPWO2017217185A1 - Server apparatus, image processing system, and image processing method - Google Patents

Server apparatus, image processing system, and image processing method Download PDF

Info

Publication number
JPWO2017217185A1
JPWO2017217185A1 JP2018523607A JP2018523607A JPWO2017217185A1 JP WO2017217185 A1 JPWO2017217185 A1 JP WO2017217185A1 JP 2018523607 A JP2018523607 A JP 2018523607A JP 2018523607 A JP2018523607 A JP 2018523607A JP WO2017217185 A1 JPWO2017217185 A1 JP WO2017217185A1
Authority
JP
Japan
Prior art keywords
crack
image
information
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018523607A
Other languages
Japanese (ja)
Other versions
JP6626970B2 (en
Inventor
佐藤 康平
康平 佐藤
学斌 胡
学斌 胡
康彦 金子
康彦 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2017217185A1 publication Critical patent/JPWO2017217185A1/en
Priority to JP2019218028A priority Critical patent/JP6944506B2/en
Application granted granted Critical
Publication of JP6626970B2 publication Critical patent/JP6626970B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にするサーバ装置、画像処理システム及び画像処理方法を提供する。複数の画像と画像の位置情報とをユーザ端末から受信する受信部と、受信した複数の画像及び画像の位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部(26)と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部(28)と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部(30)とを備える。A server device, an image processing system, and an image processing system capable of analyzing an image of a cracked portion without requiring an expensive device and presenting a composite image of the cracked portion and an image analysis result without complicating a user's operation An image processing method is provided. A reception unit that receives a plurality of images and image position information from the user terminal, and a composite image generation unit that generates a composite image indicating the surface of the structure based on the received plurality of images and image position information (26 ), A crack detection unit (28) for detecting cracks on the surface of the structure by analyzing the synthesized image or the image before synthesis, a crack image corresponding to the detected crack, and a feature amount of the detected crack And a crack information generation unit (30) for generating crack information indicating the above.

Description

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にするサーバ装置、画像処理システム及び画像処理方法に関する。   The present invention is a server device that analyzes an image of a cracked portion without requiring an expensive device and presents a composite image of the cracked portion and an image analysis result without complicating the user's operation, The present invention relates to an image processing system and an image processing method.

社会的なインフラストラクチャーとして、橋梁、トンネルといった構造物が存在する。これらの構造物には損傷が発生し、その損傷は進行する性質を持つため、定期的に点検を行うことが求められている。また的確な点検結果を報告することが求められている。例えば、構造物の表面に生じたひび割れの性状を的確に把握して点検結果を報告することが求められており、その報告に基づいてひび割れの進行程度に応じた適切な維持管理を行う必要がある。   There are structures such as bridges and tunnels as social infrastructure. Since these structures are damaged and the damage is progressive, it is required to periodically inspect. It is also required to report accurate inspection results. For example, it is required to accurately grasp the properties of cracks generated on the surface of the structure and report the inspection results, and it is necessary to perform appropriate maintenance management according to the progress of the cracks based on the reports. is there.

特許文献1には、コンクリート壁面をレーザ発射体付きのカメラで撮像して得られたレーザ光点付きの遠景画像及び近接画像をモバイルパソコンから送信すると、遠景画像及び近接画像をコンクリート壁面の正面から見た画像に正規化し、更に画像解析対象の近接画像を指定するために近接画像が遠景画像のどのエリアのものかを割り付ける操作をモバイルパソコンで行って解析指示を送信すると、指定の近接画像を画像解析してひび割れ幅を計測するサーバ装置が、記載されている。   In Patent Document 1, when a distant view image and a close image with a laser beam spot obtained by imaging a concrete wall surface with a camera with a laser projectile are transmitted from a mobile personal computer, the distant view image and the close image are viewed from the front of the concrete wall surface. Normalize the viewed image, and then assign the proximity image to which area of the distant image in order to specify the close image for image analysis. A server device that analyzes images and measures the crack width is described.

特許文献2には、パーソナルコンピュータにおいて、点検現場での作業時に野帳に記入された撮影位置の情報に基づいてコンクリート構造物の画像をCAD(computer aided design)図面上に貼り付ける操作を行うと、その操作に応じて画像をCAD図面と関連付け、更に画像上でひび割れをトレースする操作を行うと、その操作に応じて画像上のひび割れをCAD図面に写像し、CAD図面の情報を用いてひび割れの幅及び長さを算出することが、記載されている。   In Patent Document 2, when an operation of pasting an image of a concrete structure on a CAD (computer aided design) drawing is performed on a personal computer based on information on a photographing position written in a field book at the time of work at an inspection site. In accordance with the operation, the image is associated with the CAD drawing, and further, the operation of tracing the crack on the image is performed. In accordance with the operation, the crack on the image is mapped to the CAD drawing, and the information on the CAD drawing is used to crack. It is described to calculate the width and length of.

特許文献3には、パーソナルコンピュータにおいて、カメラからコンクリート壁面までの距離とカメラの光軸に対するコンクリート壁面の傾斜角とを計測して、複数枚の画像を接合し且つコンクリート壁面の正面から見た画像に補正し、更にコンクリート壁面のひび割れの分布状態とひび割れの幅とを求めて状態図を表示することが、記載されている。実際はひび割れであるにもかかわらず認識できていないひび割れは、マウスやペン入力装置を用いてトレースする操作により入力することができる。   In Patent Document 3, in a personal computer, the distance from the camera to the concrete wall surface and the inclination angle of the concrete wall surface with respect to the optical axis of the camera are measured, and a plurality of images are joined and viewed from the front of the concrete wall surface It is described that the distribution of cracks on the concrete wall surface and the width of the cracks are obtained and a state diagram is displayed. Cracks that are actually cracked but cannot be recognized can be input by tracing with a mouse or pen input device.

特許文献4には、ひび割れの識別処理をサポートベクトルマシンアルゴリズムを用いて機械学習する際に、複数の領域画像のうち各領域画像の中心と各領域画像中の識別対象物(ひび割れ、汚れ、他の凹凸など)の重心とが一致する領域画像だけを学習対象のサンプルとして選択することが、記載されている。   In Patent Document 4, when machine learning is performed using a support vector machine algorithm for crack identification processing, the center of each area image and the identification object in each area image (crack, dirt, etc.) In other words, it is described that only a region image whose center of gravity coincides with the center of gravity of the object is selected as a learning target sample.

特開2004−69434号公報JP 2004-69434 A 特開2005−310044号公報JP 2005-310044 A 特開平10−78305号公報JP-A-10-78305 特開2003−216953号公報Japanese Patent Laid-Open No. 2003-216953

特許文献1〜4には、構造物を分割撮像して得られた複数の画像と共に各画像の位置情報をユーザ端末から送信してサーバ装置で一枚の画像に合成することについて、開示が無い。   Patent Documents 1 to 4 do not disclose that the position information of each image is transmitted from the user terminal together with a plurality of images obtained by dividing and imaging the structure and is combined into one image by the server device. .

また、特許文献1に記載されたモバイルパソコン(ユーザ端末の一形態である)及びサーバ装置からなるシステムでは、レーザ発射体を設けたカメラが必要となるだけではなくて、遠景画像及び近接画像が必要であり、更には遠景画像に対して近接画像を割り付けるユーザ操作により画像解析対象の近接画像を指定する必要がある。従って、高額な装置が必要になるだけでなく、ひび割れの画像解析結果を得るまでのユーザの操作が煩雑であると言える。   In addition, in the system including the mobile personal computer (which is a form of the user terminal) and the server device described in Patent Document 1, not only a camera provided with a laser projectile is required, but also a distant view image and a close-up image are displayed. In addition, it is necessary to designate a close image to be analyzed by a user operation for assigning a close image to a distant view image. Therefore, it can be said that not only an expensive apparatus is required, but also a user's operation until obtaining a crack image analysis result is complicated.

また、ユーザ端末でひび割れ箇所の合成画像を生成し且つひび割れの画像解析を行う場合には、高額なハードウエア又は高額なソフトウエアが必要であった。つまり、高額な装置を必要とした。   Further, when a composite image of a cracked part is generated and a crack image analysis is performed on the user terminal, expensive hardware or expensive software is required. In other words, expensive equipment was required.

特許文献2には、パーソナルコンピュータ(ユーザ端末の一形態である)において、画像をCAD図面上に貼り付ける操作と、画像上でひび割れをトレースする操作とを行うと、ひび割れの幅及び長さを算出することが記載されているにすぎない。   In Patent Document 2, when an operation of pasting an image on a CAD drawing and an operation of tracing a crack on the image are performed in a personal computer (which is a form of a user terminal), the width and length of the crack are set. It is only described to calculate.

特許文献3に記載された技術では、ひび割れ情報を修正する場合にはマウスやペン入力装置を用いて一本ずつトレースする操作が必要となる。このようなトレース操作によるひび割れ情報の修正機能を用いれば、どのようなパターンのひび割れに対しても一本ずつ個別に修正できるけれども、操作が煩雑であり、作業時間が掛かってしまうため、繁忙な作業員にとって実際には行えない場合がある。   In the technique described in Patent Document 3, in order to correct crack information, an operation of tracing one by one using a mouse or a pen input device is required. By using the crack information correction function by such trace operation, it is possible to individually correct each pattern crack one by one, but the operation is cumbersome and it takes a lot of work time. It may not be actually possible for workers.

特許文献4には、構造物の画像に基づいてひび割れの識別処理を学習することが記載されているにすぎない。   Patent Document 4 merely describes learning of crack identification processing based on an image of a structure.

以上のように構造物の表面に生じるひび割れの性状を的確に把握して点検結果を報告することを支援するための各種の装置が提案又は提供されてきたが、ひび割れ箇所の画像を解析してひび割れの画像解析結果をユーザに提示するためには、高額な装置が必要になるとともに、ひび割れ箇所の複数の画像を合成するためのユーザの負荷が大きいといった問題があった。   As described above, various devices have been proposed or provided to assist in accurately grasping the properties of cracks generated on the surface of structures and reporting inspection results. In order to present the image analysis result of the crack to the user, an expensive device is required, and there is a problem that the load on the user for synthesizing a plurality of images of the cracked portion is large.

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にするサーバ装置、画像処理システム及び画像処理方法を提供することを目的とする。   The present invention is a server device that analyzes an image of a cracked portion without requiring an expensive device and presents a composite image of the cracked portion and an image analysis result without complicating the user's operation, An object is to provide an image processing system and an image processing method.

上述した目的を達成するため、本発明の第1の態様に係るサーバ装置は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信する受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、を備える。   In order to achieve the above-described object, a server device according to the first aspect of the present invention includes a receiving unit that receives a plurality of images indicating the surface of a structure and position information of the plurality of images from a user terminal; Based on the received multiple images and position information, a composite image generation unit that generates a composite image showing the surface of the structure and image analysis of the composite image or pre-composite image to detect cracks on the surface of the structure And a crack information generating unit that generates crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack.

本態様によれば、ユーザ端末から構造物の表面を示す複数の画像とその複数の画像の位置情報とを送信すると、サーバ装置により複数の画像及び画像の位置情報に基づいて合成画像が生成され、且つひび割れ情報が生成されるので、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。また、本態様によれば、ユーザ端末から送信された画像及びその位置情報、更にはサーバ装置で生成された合成画像及びひび割れ情報を、蓄積してビッグデータ化することが可能になるので、そのビッグデータの二次利用により適切な合成画像及び適切な画像解析結果を導き出せるようにすることが可能になるとも言える。   According to this aspect, when a plurality of images indicating the surface of the structure and the position information of the plurality of images are transmitted from the user terminal, a composite image is generated based on the plurality of images and the position information of the images by the server device. In addition, since the crack information is generated, it is possible to analyze the image of the cracked portion without requiring an expensive device and present the composite image of the cracked portion and the image analysis result without complicating the user's operation. It becomes possible. Further, according to this aspect, it is possible to accumulate and convert the image transmitted from the user terminal and its position information, and further, the composite image and crack information generated by the server device into big data. It can be said that it is possible to derive an appropriate composite image and an appropriate image analysis result by secondary use of big data.

本発明の第2の態様に係るサーバ装置では、合成画像とひび割れ情報とをユーザ端末に送信してユーザ端末の画面に合成画像とひび割れ情報とを表示させる送信部を備え、受信部は、ユーザ端末でのマニュアル操作に応じたひび割れ情報の修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求に基づいてひび割れ情報を修正し、送信部は、修正されたひび割れ情報をユーザ端末に送信する。本態様によれば、ユーザ端末の画面に合成画像及びひび割れ情報が表示され、その表示の内容に対してユーザがマニュアル操作を行った場合、そのマニュアル操作に応じた修正要求をサーバに蓄積することが可能になる。従って、より適切な画像解析結果を導き出せるように、サーバ装置での画像解析処理を改良することが容易になる。つまり、画像処理結果の修正のための煩雑なユーザ操作を減らしつつ、より適切な画像解析結果をユーザに対して提示することが可能になる。   In the server device according to the second aspect of the present invention, the server device includes a transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on the screen of the user terminal. A crack information correction request according to a manual operation on the terminal is received from the user terminal, the crack information generation unit corrects the crack information based on the correction request, and the transmission unit sends the corrected crack information to the user terminal. Send. According to this aspect, when a composite image and crack information are displayed on the screen of the user terminal, and the user performs a manual operation on the content of the display, a correction request corresponding to the manual operation is stored in the server. Is possible. Therefore, it is easy to improve the image analysis processing in the server device so that a more appropriate image analysis result can be derived. That is, it is possible to present a more appropriate image analysis result to the user while reducing complicated user operations for correcting the image processing result.

本発明の第3の態様に係るサーバ装置では、受信部は、ひび割れ情報の修正内容を特徴量で示した修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。本態様によれば、ひび割れの特徴量でひび割れ情報の修正要求を示すユーザ操作が可能になる。例えばトレース操作に基づいてひび割れ情報を一本ずつ修正する場合と比較して、簡易な操作でひび割れ情報を修正することが可能になる。   In the server device according to the third aspect of the present invention, the receiving unit receives the correction request indicating the correction content of the crack information as a feature amount from the user terminal, and the crack information generating unit is the feature indicated by the correction request. Modify the crack information based on the amount. According to this aspect, it is possible to perform a user operation indicating a request for correction of crack information using a crack feature amount. For example, it is possible to correct the crack information with a simple operation as compared with the case where the crack information is corrected one by one based on the trace operation.

本発明の第4の態様に係るサーバ装置では、特徴量に対する合成画像中の線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末でのスライダを用いたユーザ操作に応じてひび割れ情報を修正する。本態様によれば、特徴量に対する線分の検出度数を見ながらスライダを操作するという簡易な操作で、ひび割れ情報を修正することが可能になる。   In the server device according to the fourth aspect of the present invention, the frequency distribution indicating the detection frequency of the line segment in the composite image with respect to the feature amount, and the slider for instructing and inputting the correction content of the crack information by the feature amount are cracked. It is added to the information, and the crack information is corrected according to the user operation using the slider on the user terminal. According to this aspect, it is possible to correct the crack information by a simple operation of operating the slider while viewing the detection frequency of the line segment with respect to the feature amount.

本発明の第5の態様に係るサーバ装置では、ひび割れ情報生成部は、特徴量に基づいてひび割れ画像をグルーピングして、ユーザ端末でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。本態様によれば、ひび割れ画像のグループを選択するという簡易な操作で、ひび割れ情報を修正することが可能になる。   In the server device according to the fifth aspect of the present invention, the crack information generation unit groups the crack images based on the feature amount, and generates the crack information according to a manual operation for selecting a group of crack images on the user terminal. Correct it. According to this aspect, the crack information can be corrected by a simple operation of selecting a group of crack images.

本発明の第6の態様に係るサーバ装置では、ユーザ端末でのマニュアル操作に基づいて、ひび割れの検出を機械学習する機械学習部を備える。本態様によれば、ユーザ端末でのマニュアル操作に基づいてひび割れの検出が機械学習されるので、画像解析結果を修正するための煩雑なユーザ操作を着実に減少させてゆくことが可能になる。   The server device according to the sixth aspect of the present invention includes a machine learning unit that performs machine learning to detect a crack based on a manual operation on a user terminal. According to this aspect, since crack detection is machine-learned based on a manual operation on the user terminal, it is possible to steadily reduce troublesome user operations for correcting image analysis results.

本発明の第7の態様に係るサーバ装置では、特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。   In the server device according to the seventh aspect of the present invention, the feature amount includes at least one of a crack direction, length, width, edge strength, and edge density.

本発明の第8の態様に係る画像処理方法では、合成画像生成部は、複数の画像に対して、画像位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う。   In the image processing method according to the eighth aspect of the present invention, the composite image generation unit corrects at least one of the image position information, the scale, the tilt, and the rotation angle with respect to the plurality of images.

本発明の第9の態様に係るサーバ装置では、合成画像生成部は、複数の画像に基づいて補正パラメータを導き出し、補正を行う。   In the server device according to the ninth aspect of the present invention, the composite image generation unit derives correction parameters based on a plurality of images and performs correction.

本発明の第10の態様に係るサーバ装置では、ひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、ひび割れ情報生成部は、スケール画像をひび割れ情報に付加する。   The server device according to the tenth aspect of the present invention includes a scale image generation unit that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal based on the crack information, The crack information generation unit adds the scale image to the crack information.

本発明の第11の態様に係るサーバ装置では、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える。   The server device according to the eleventh aspect of the present invention includes a crack evaluation unit that evaluates the degree of cracking based on at least cracking information and discriminates the evaluation category of the cracking degree of the structure.

本発明の第12の態様に係るサーバ装置では、判別された評価区分を含む構造物の点検結果を示す帳票を作成する帳票作成部を備える。   The server device according to the twelfth aspect of the present invention includes a form creation unit that creates a form indicating the inspection result of the structure including the judged evaluation category.

本発明の第13の態様に係るサーバ装置では、合成画像とひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える。   A server device according to a thirteenth aspect of the present invention includes a data conversion unit that converts a composite image and crack information into CAD data in a predetermined data format.

本発明の第14の態様に係るサーバ装置では、構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、ひび割れ情報とに基づいて、ひび割れの進行を予測する予測部を備える。   In the server device according to the fourteenth aspect of the present invention, based on structure information, environmental condition information, use condition information, maintenance management history information, and disaster history information of the structure, and crack information. And a prediction unit for predicting the progress of cracks.

本発明の第15の態様に係る画像処理システムは、ユーザ端末及びサーバ装置を含む画像処理システムであって、ユーザ端末は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを入力する端末入力部と、サーバ装置に対して、複数の画像及び位置情報を送信する端末送信部と、サーバ装置から、複数の画像に対する画像処理結果を受信する端末受信部と、画像処理結果を表示する端末表示部と、を備え、サーバ装置は、ユーザ端末から、複数の画像と位置情報とを受信するサーバ受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、複数の画像に対する画像処理結果として、合成画像とひび割れ情報とをユーザ端末に送信するサーバ送信部と、を備え、端末表示部は、合成画像とひび割れ情報とを表示する。   An image processing system according to a fifteenth aspect of the present invention is an image processing system including a user terminal and a server device, and the user terminal includes a plurality of images indicating the surface of a structure, position information of the plurality of images, and the like. A terminal input unit that inputs a plurality of images and position information to the server device, a terminal reception unit that receives image processing results for the plurality of images from the server device, and an image processing result A server display unit that displays a plurality of images and position information from a user terminal, and a server reception unit that receives a plurality of images and position information received from the user terminal. A composite image generation unit that generates a composite image showing the surface, a crack detection unit that detects a crack on the surface of the structure by performing image analysis on the composite image or an image before synthesis, and corresponding to the detected crack A crack information generating unit that generates crack information indicating a crack image and a feature amount of the detected crack; a server transmission unit that transmits a composite image and crack information to a user terminal as an image processing result for a plurality of images; The terminal display unit displays the composite image and the crack information.

本発明の第16の態様に係る画像処理方法では、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信するステップと、受信された複数の画像及び画像位置情報に基づいて、構造物の表面を示す合成画像を生成するステップと、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するステップと、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、を含む。   In the image processing method according to the sixteenth aspect of the present invention, a step of receiving, from a user terminal, a plurality of images indicating the surface of a structure and position information of the plurality of images, and the received plurality of images and images Based on the position information, generate a composite image that shows the surface of the structure, analyze the composite image or the image before composite to detect cracks on the surface of the structure, and respond to the detected cracks Generating crack information indicating a crack image to be detected and a feature amount of the detected crack.

本発明よれば、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。   According to the present invention, it is possible to analyze an image of a cracked portion without requiring an expensive device and present a composite image of the cracked portion and an image analysis result without complicating the user's operation.

図1は、本発明が適用される構造物の一例である橋梁を示す斜視図である。FIG. 1 is a perspective view showing a bridge as an example of a structure to which the present invention is applied. 図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the image processing system according to the first embodiment. 図3は、度数分布及びスライダの第1の表示例を示す図である。FIG. 3 is a diagram illustrating a first display example of the frequency distribution and the slider. 図4は、度数分布及びスライダの第2の表示例を示す図である。FIG. 4 is a diagram illustrating a second display example of the frequency distribution and the slider. 図5は、度数分布及びスライダの第3の表示例を示す図である。FIG. 5 is a diagram illustrating a third display example of the frequency distribution and the slider. 図6は、度数分布及びスライダの第4の表示例を示す図である。FIG. 6 is a diagram illustrating a fourth display example of the frequency distribution and the slider. 図7は、ひび割れ画像を特徴量に基づいてグルーピングした場合の表示例を示す図である。FIG. 7 is a diagram illustrating a display example when crack images are grouped based on feature amounts. 図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。FIG. 8 is a flowchart showing the flow of the first image processing example in the first embodiment. 図9は、第1実施形態における第1の画像処理例の説明に用いる説明図である。FIG. 9 is an explanatory diagram used for describing a first image processing example according to the first embodiment. 図10は、複数の画像を並べる操作の説明に用いる説明図である。FIG. 10 is an explanatory diagram used for explaining an operation of arranging a plurality of images. 図11は、合成画像及びひび割れ画像の表示例を示す図である。FIG. 11 is a diagram illustrating a display example of a composite image and a crack image. 図12は、ひび割れの進行モデルの一例を模式的に示す図である。FIG. 12 is a diagram schematically illustrating an example of a crack progression model. 図13は、帳票としての損傷図の一例を示す図である。FIG. 13 is a diagram illustrating an example of a damage diagram as a form. 図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。FIG. 14 is a flowchart showing the flow of the second image processing example in the first embodiment. 図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。FIG. 15 is a flowchart showing the flow of the third image processing example in the first embodiment. 図16は、第1実施形態における第3の画像処理例の説明に用いる説明図である。FIG. 16 is an explanatory diagram used for describing a third image processing example according to the first embodiment. 図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。FIG. 17 is a flowchart showing the flow of a fourth image processing example in the first embodiment. 図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 18 is a block diagram illustrating a configuration example of an image processing system according to the second embodiment. ひび割れ画像のベクトル化の説明に用いる第1の説明図である。It is the 1st explanatory view used for explanation of vectorization of a crack picture. ひび割れ画像のベクトル化の説明に用いる第2の説明図である。It is the 2nd explanatory view used for explanation of vectorization of a crack picture. ひび割れ画像のベクトル化の説明に用いる第3の説明図である。It is the 3rd explanatory view used for explanation of vectorization of a crack picture. ひび割れ画像のベクトル化の説明に用いる第4の説明図である。It is the 4th explanatory view used for explanation of vectorization of a crack picture. ひび割れ画像のベクトル化の説明に用いる第5の説明図である。It is the 5th explanatory view used for explanation of vectorization of a crack picture. ひび割れ画像のベクトル化の説明に用いる第6の説明図である。It is the 6th explanatory view used for explanation of vectorization of a crack picture. スケール画像の表示例を示す図である。It is a figure which shows the example of a display of a scale image.

以下、添付図面に従って、本発明に係るサーバ装置、画像処理システム及び画像処理方法を実施するための形態について説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for implementing a server device, an image processing system, and an image processing method according to the present invention will be described with reference to the accompanying drawings.

[構造物例]
図1は、本発明が適用される構造物の一例である橋梁の構造を示す斜視図である。図1に示す橋梁1は複数の主桁3を有し、主桁3同士は接合部3Aで接合されている。主桁3の上部には、コンクリート製の部材である床版2が打設されている。橋梁1は、床版2及び主桁3の他に、図示しない横桁、対傾構、及び横構等の部材を有する。
[Example of structure]
FIG. 1 is a perspective view showing a structure of a bridge as an example of a structure to which the present invention is applied. The bridge 1 shown in FIG. 1 has a plurality of main girders 3, and the main girders 3 are joined together by a joint 3A. On the upper part of the main girder 3, a floor slab 2 which is a member made of concrete is placed. In addition to the floor slab 2 and the main girder 3, the bridge 1 includes members such as a cross girder, a tilted frame, and a horizontal frame (not shown).

尚、本発明における「構造物」は、橋梁に限定されない。構造物は、トンネル、ダム、建築物などでもよい。   The “structure” in the present invention is not limited to a bridge. The structure may be a tunnel, a dam, a building, or the like.

[第1の実施形態]
図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。
[First Embodiment]
FIG. 2 is a block diagram illustrating a configuration example of the image processing system according to the first embodiment.

ユーザ端末10とサーバ装置20とにより、クライアントサーバ型の画像処理システムが構成される。実際には複数のユーザ端末10がネットワークNWに接続される。ユーザ端末10はユーザに対するフロントエンド処理を行うコンピュータ装置によって構成され、サーバ装置20は画像処理等のバックエンド処理を行うコンピュータ装置によって構成される。ユーザ端末10として、例えば、パーソナルコンピュータ、タブレット、スマートフォン等のコンピュータ装置を用いることができる。サーバ装置20は、複数のコンピュータ装置で構成してもよい。本例のサーバ装置20は、説明の便宜上、データベース50を含んで構成される。サーバ装置20とデータベース50とを異なる装置として設けてよい。   The user terminal 10 and the server device 20 constitute a client server type image processing system. Actually, a plurality of user terminals 10 are connected to the network NW. The user terminal 10 is configured by a computer device that performs front-end processing for a user, and the server device 20 is configured by a computer device that performs back-end processing such as image processing. As the user terminal 10, for example, a computer device such as a personal computer, a tablet, or a smartphone can be used. The server device 20 may be composed of a plurality of computer devices. The server device 20 of this example includes a database 50 for convenience of explanation. The server device 20 and the database 50 may be provided as different devices.

ユーザ端末10は、構造物の表面を示す複数の画像と、複数の画像の位置情報を含む画像合成に必要な情報とを入力する端末入力部11と、入力された複数の画像と画像合成に必要な情報とをサーバ装置20に対して送信する端末送信部12と、サーバ装置20から複数の画像に対する画像処理結果を受信する端末受信部13と、サーバ装置20の画像処理結果を表示する端末表示部14と、ユーザのマニュアル操作を受け付ける端末操作部15と、ユーザ端末10用のフロントエンドプログラムに従ってユーザ端末10の各部を制御する端末制御部16と、フロントエンドプログラムとそのフロントエンドプログラムの実行に必要な各種情報とを記憶する端末記憶部17とを備える。   The user terminal 10 includes a terminal input unit 11 for inputting a plurality of images showing the surface of the structure and information necessary for image composition including position information of the plurality of images, and a plurality of input images for image composition. A terminal transmitting unit 12 that transmits necessary information to the server device 20, a terminal receiving unit 13 that receives image processing results for a plurality of images from the server device 20, and a terminal that displays the image processing results of the server device 20. Display unit 14, terminal operation unit 15 that accepts a user's manual operation, terminal control unit 16 that controls each part of user terminal 10 according to the front-end program for user terminal 10, execution of the front-end program and its front-end program And a terminal storage unit 17 for storing various information necessary for the communication.

端末入力部11は、例えば、無線通信又は有線通信により画像及び画像の位置情報を入力する通信デバイスにより構成することができる。メモリカード等の記憶媒体から画像を入力する記憶媒体インタフェースデバイスと、人から画像の位置情報の入力操作を受け付ける操作デバイスとを含んで、端末入力部11を構成してもよい。端末送信部12及び端末受信部13は、ネットワークNWを介して、サーバ装置20を含む他の装置と通信するための通信デバイスによって構成することができる。端末表示部14は、液晶表示デバイス等の表示デバイスによって構成することができる。端末操作部15は、キーボード、マウス、タッチパネル等の操作デバイスによって構成することができる。端末制御部16は、例えばCPU(central processing unit)によって構成することができる。端末記憶部17は、メモリデバイスによって構成することができる。   The terminal input unit 11 can be configured by a communication device that inputs an image and position information of the image by wireless communication or wired communication, for example. The terminal input unit 11 may be configured to include a storage medium interface device that inputs an image from a storage medium such as a memory card, and an operation device that receives an input operation of image position information from a person. The terminal transmitter 12 and the terminal receiver 13 can be configured by a communication device for communicating with other devices including the server device 20 via the network NW. The terminal display unit 14 can be configured by a display device such as a liquid crystal display device. The terminal operation unit 15 can be configured by operation devices such as a keyboard, a mouse, and a touch panel. The terminal control unit 16 can be configured by a CPU (central processing unit), for example. The terminal storage unit 17 can be configured by a memory device.

サーバ装置20は、ユーザ端末10から複数の画像と複数の画像の位置情報を含む画像合成に必要な情報とを受信する受信部22と、サーバ装置20での画像処理結果をユーザ端末10に対して送信する送信部24と、複数の画像及び画像合成に必要な情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部26と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部28と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部30と、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する機械学習部32と、を含んで構成される。送信部24は、合成画像とひび割れ情報とをユーザ端末10に送信して、ユーザ端末10の画面に合成画像とひび割れ情報とを表示させる。受信部22は、ユーザ端末10でのユーザ操作に応じたひび割れ情報の修正要求をユーザ端末10から受信する。ひび割れ情報生成部30は、修正要求に基づいてひび割れ情報を修正する。送信部24は、修正されたひび割れ情報をユーザ端末10に送信する。データベース50は、ユーザ端末10から受信した情報(複数の画像、画像合成に必要な情報、マニュアル操作情報等)と、サーバ装置20での画像処理結果(合成画像、ひび割れ情報等)とを関連付けて蓄積する。   The server device 20 receives a plurality of images and information necessary for image composition including position information of the plurality of images from the user terminal 10 and the image processing results in the server device 20 to the user terminal 10. A transmission unit 24 that transmits the image, a composite image generation unit 26 that generates a composite image showing the surface of the structure based on a plurality of images and information necessary for image synthesis, and image analysis of the composite image or the image before synthesis A crack detecting unit 28 for detecting a crack on the surface of the structure, a crack information generating unit 30 for generating crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack, and a user And a machine learning unit 32 that performs machine learning to detect cracks based on a user operation on the terminal 10. The transmission unit 24 transmits the composite image and the crack information to the user terminal 10 to display the composite image and the crack information on the screen of the user terminal 10. The receiving unit 22 receives from the user terminal 10 a crack information correction request according to a user operation on the user terminal 10. The crack information generation unit 30 corrects the crack information based on the correction request. The transmission unit 24 transmits the corrected crack information to the user terminal 10. The database 50 associates information received from the user terminal 10 (a plurality of images, information necessary for image composition, manual operation information, etc.) and an image processing result (synthesized image, crack information, etc.) in the server device 20. accumulate.

また、サーバ装置20は、生成されたひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末10の画面上で測定するためのスケール画像を生成するスケール画像生成部34を備える。ひび割れ情報生成部30は、生成されたスケール画像をひび割れ情報に付加する。送信部24は、スケール画像が付加されたひび割れ情報をユーザ端末10に送信する。   In addition, the server device 20 includes a scale image generation unit 34 that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal 10 based on the generated crack information. The crack information generation unit 30 adds the generated scale image to the crack information. The transmission unit 24 transmits the crack information to which the scale image is added to the user terminal 10.

本例のサーバ装置20は、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分(以下「ランク情報」ともいう)を判別するひび割れ評価部36を備える。ひび割れ情報生成部30は、判別されたランク情報をひび割れ情報に付加する。送信部24は、ランク情報が付加されたひび割れ情報をユーザ端末10に送信する。   The server device 20 of this example includes a crack evaluation unit 36 that evaluates the degree of cracking based on at least cracking information and discriminates an evaluation classification (hereinafter also referred to as “rank information”) of the cracking degree of a structure. The crack information generating unit 30 adds the determined rank information to the crack information. The transmission unit 24 transmits the crack information to which the rank information is added to the user terminal 10.

更に、サーバ装置20は、合成画像とひび割れ情報とを予め決められたデータ形式のCAD(computer aided design)データに変換することによりCADデータを取得するCADデータ取得部38(「データ変換部」の一形態である)を備える。   Further, the server device 20 converts the synthesized image and the crack information into CAD (computer aided design) data in a predetermined data format, thereby acquiring CAD data, which is a CAD data acquisition unit 38 (“data conversion unit”). One form).

更に、サーバ装置20は、判別されたひび割れ程度の評価区分を含む構造物の点検結果を示す帳票(以下「点検調書」ともいう)を作成する帳票作成部40を備える。送信部24は、作成された帳票をユーザ端末10に送信する。   Furthermore, the server device 20 includes a form creation unit 40 that creates a form (hereinafter, also referred to as “inspection record”) indicating the inspection result of the structure including the evaluation category of the determined degree of cracking. The transmission unit 24 transmits the created form to the user terminal 10.

また、サーバ装置20は、バックエンドプログラムとそのバックエンドプログラムの実行に必要な各種情報とを記憶する記憶部42を備える。   The server device 20 also includes a storage unit 42 that stores a back-end program and various types of information necessary for executing the back-end program.

受信部22及び送信部24は、ネットワークNWを介して、ユーザ端末10を含む他の装置と通信するための通信デバイスによって構成することができる。合成画像生成部26、ひび割れ検出部28、ひび割れ情報生成部30、機械学習部32、スケール画像生成部34、ひび割れ評価部36、CADデータ取得部38、及び帳票作成部40は、例えばCPUによって構成することができる。複数のCPUにより構成してもよい。記憶部42は、メモリデバイスによって構成することができる。   The receiving unit 22 and the transmitting unit 24 can be configured by a communication device for communicating with other devices including the user terminal 10 via the network NW. The composite image generation unit 26, crack detection unit 28, crack information generation unit 30, machine learning unit 32, scale image generation unit 34, crack evaluation unit 36, CAD data acquisition unit 38, and form creation unit 40 are configured by, for example, a CPU. can do. You may comprise by several CPU. The storage unit 42 can be configured by a memory device.

ユーザ端末10からサーバ装置20に送信される画像の位置情報(以下「画像位置情報」ともいう)は、構造物の表面に対する各画像の位置関係を示す場合(つまり構造物の表面における複数の被撮像領域のそれぞれの位置を示す場合)と、複数の画像同士の相対的な位置関係を示す場合とがある。   Image position information (hereinafter also referred to as “image position information”) transmitted from the user terminal 10 to the server device 20 indicates the positional relationship of each image with respect to the surface of the structure (that is, a plurality of objects on the surface of the structure). A case where each position of the imaging region is shown) and a case where a relative positional relationship between a plurality of images is shown.

<画像補正>
サーバ装置20の合成画像生成部26は、複数の画像を画像補正後に合成する。本例の合成画像生成部26は、複数の画像に基づいて補正パラメータを導き出し、複数の画像に対して補正を行うことができる。本例の合成画像生成部26は、複数の画像に対して次の画像補正1〜4のうち少なくとも一つの補正を行う機能を有する。
<Image correction>
The composite image generation unit 26 of the server device 20 combines a plurality of images after image correction. The composite image generation unit 26 of this example can derive correction parameters based on a plurality of images and can correct the plurality of images. The composite image generation unit 26 of this example has a function of performing at least one of the following image corrections 1 to 4 on a plurality of images.

画像補正1(画像位置情報補正):複数の画像同士の相対的な位置関係を、被撮像面(例えば橋梁の床版)における複数の被撮像領域同士の相対的な位置関係にマッチングさせる画像処理である。つまり、不正確な画像位置情報をユーザ端末10から受信したと判定した場合、その不正確な画像位置情報をより正確な画像位置情報に補正する。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐひび割れが存在するのにそのひび割れ画像が隣接する画像間で離間していて繋がっていない場合、そのひび割れを隣接する画像間で繋がらせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、本補正を行ってもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて画像位置情報を補正してもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて画像位置情報補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて画像位置情報補正を行う機能を有する。これにより、不正確な画像位置情報を正確な画像位置情報に容易に補正することが可能である。正確な画像位置情報をユーザ端末10から受信したと判定した場合には、本補正を行わなくてよい。   Image correction 1 (image position information correction): Image processing for matching a relative positional relationship between a plurality of images with a relative positional relationship between a plurality of imaged regions on a surface to be imaged (for example, a floor slab of a bridge) It is. That is, when it is determined that inaccurate image position information has been received from the user terminal 10, the inaccurate image position information is corrected to more accurate image position information. For example, based on a crack vector obtained by vectorizing cracks in an image, if there are cracks that straddle between adjacent images but the cracked images are separated from each other and are not connected, the cracks are adjacent. Connect between images. You may perform this correction | amendment based on the non-crack vector which vectorized the non-crack (for example, pattern of a structure) of the structure in an image. When imaging is performed for each space of the floor slab 2 of the bridge 1, the image position information may be corrected based on the edge of the space in the image. In addition to the function of correcting the image position information based on the latest image at the time of inspection, the composite image generation unit 26 of the present example, in addition to the latest image at the time of inspection and the image at the time of past inspection (the combined image or the image before combining) Image position information correction based on (image). This makes it possible to easily correct inaccurate image position information to accurate image position information. When it is determined that accurate image position information has been received from the user terminal 10, this correction need not be performed.

画像補正2(縮尺補正):複数の画像の縮尺を一致させる画像処理(「拡縮」ともいう)である。つまり、撮像装置60から構造物の被撮像面までの距離が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面までの距離がより一致した複数の画像(「一定距離の画像」ともいう)に補正する。画像に距離情報が関連付けられている場合、その距離情報に基づいて拡縮すればよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐ複数のひび割れが存在するのにひび割れ画像の間隔が隣接する画像間で一致していない場合、その複数のひび割れ画像の間隔を隣接する画像間で一致させる画像処理が挙げられる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて縮尺補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて縮尺補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて縮尺補正を行う機能を有する。一定距離で分割撮像を行った場合には、本補正を行わなくてよい。   Image correction 2 (scale correction): Image processing for matching the scales of a plurality of images (also referred to as “enlargement / reduction”). That is, when it is determined that a plurality of images whose distances from the imaging device 60 to the imaging target surface of the structure are inconsistent are received from the user terminal 10, a plurality of images (“ It is also referred to as “a constant distance image”). When distance information is associated with an image, the image may be scaled based on the distance information. For example, based on a crack vector obtained by vectorizing cracks in an image, if there are multiple cracks that straddle between adjacent images but the interval between cracked images does not match between adjacent images, the multiple cracks Image processing for matching the image interval between adjacent images is exemplified. You may correct | amend based on the non-crack vector which vectorized the non-crack (for example, pattern of a structure) of the structure in an image. When imaging is performed for each space of the floor slab 2 of the bridge 1, the scale correction may be performed based on the edge of the space in the image. The composite image generation unit 26 of the present example has a function of performing scale correction based on the latest image at the time of inspection, as well as the latest image at the time of inspection and the image at the time of past inspection (an image before synthesis or an image before synthesis). Has a function of performing scale correction based on the above. When divided imaging is performed at a constant distance, this correction need not be performed.

画像補正3(あおり補正):複数の画像のそれぞれのあおりを補正する画像処理である。つまり、撮像装置の撮像方向に対する構造物の被撮像面の傾き角度が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面の傾き角度がより一致した複数の画像(「一定傾き角度の画像」ともいう)に補正する。画像に傾き角度情報が関連付けられている場合、その傾き角度情報に基づいてあおり補正を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいてあおり補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいてあおり補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいてあおり補正を行う機能を有する。一定傾き角度で分割撮像を行った場合には、本補正を行わなくてよい。   Image correction 3 (tilt correction): Image processing for correcting each tilt of a plurality of images. That is, when it is determined that a plurality of images in which the tilt angles of the imaging surface of the structure with respect to the imaging direction of the imaging device are mismatched are received from the user terminal 10, a plurality of images in which the inclination angles of the imaging surfaces are more consistent. (Also referred to as “an image with a fixed inclination angle”). When tilt angle information is associated with an image, tilt correction may be performed based on the tilt angle information. For example, the direction of a crack is matched based on a crack vector obtained by vectorizing a crack in an image. You may correct | amend based on the non-crack vector which vectorized the non-crack (for example, pattern of a structure) of the structure in an image. When imaging is performed for each space of the floor slab 2 of the bridge 1, tilt correction may be performed based on the edge of the space in the image. The composite image generation unit 26 of the present example has a function of performing tilt correction based on the latest image at the time of inspection, as well as an image at the time of the latest inspection and an image at the time of past inspection (composite image or image before composition). Has a function of performing tilt correction based on the above. When divided imaging is performed at a constant tilt angle, this correction need not be performed.

画像補正4(回転角度補正):複数の画像のそれぞれの被撮像面に対する回転角度を補正する画像処理である。つまり、構造物の被撮像面に対する撮像装置の撮像方向回りの回転角度(「方位角」ともいう)が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面に対する回転角度がより一致した複数の画像(「一定回転角度の画像」ともいう)に補正する。画像に回転角度情報が関連付けられている場合、その回転角度情報に基づいて回転を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて回転角度補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて回転角度補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて回転角度補正を行う機能を有する。一定回転角度で分割撮像を行った場合には、本補正を行わなくてよい。   Image correction 4 (rotation angle correction): Image processing for correcting the rotation angle of each of a plurality of images with respect to the imaged surface. In other words, when it is determined that a plurality of images with different rotation angles (also referred to as “azimuth angles”) around the imaging direction of the imaging device with respect to the imaging surface of the structure are received from the user terminal 10, Correction is made to a plurality of images (also referred to as “images having a fixed rotation angle”) with more consistent rotation angles. When rotation angle information is associated with an image, rotation may be performed based on the rotation angle information. For example, the direction of a crack is matched based on a crack vector obtained by vectorizing a crack in an image. You may correct | amend based on the non-crack vector which vectorized the non-crack (for example, pattern of a structure) of the structure in an image. When imaging is performed for each space of the floor slab 2 of the bridge 1, the rotation angle may be corrected based on the edge of the space in the image. In addition to the function of correcting the rotation angle based on the latest image at the time of inspection, the composite image generation unit 26 of the present example, in addition to the latest image at the time of inspection and the image at the time of past inspection (the composite image or the image before composition) ) Based on the rotation angle correction. When divisional imaging is performed at a constant rotation angle, this correction need not be performed.

<ひび割れ情報の一括修正>
ユーザ端末10でのユーザ操作に応じて本例のサーバ装置20のひび割れ情報生成部30で行うひび割れ情報の修正処理について、説明する。
<Batch correction of crack information>
The crack information correction process performed by the crack information generation unit 30 of the server device 20 according to the user operation on the user terminal 10 will be described.

本例のサーバ装置20のひび割れ情報生成部30は、ユーザ端末10でユーザが指示したひび割れの特徴量に基づいて、複数のひび割れに関して一括してひび割れ情報を修正する機能(以下「一括修正」という)を有する。サーバ装置20の受信部22は、ひび割れ情報の修正内容をひび割れの特徴量で示した修正要求を、ユーザ端末10から受信する。サーバ装置20のひび割れ情報生成部30は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。このような特徴量に基づいたひび割れ情報の修正(一括修正)の態様として、各種の態様が挙げられる。   The crack information generation unit 30 of the server device 20 of the present example is a function that collectively corrects crack information regarding a plurality of cracks (hereinafter referred to as “batch correction”) on the basis of the feature amount of the crack specified by the user at the user terminal 10. ). The receiving unit 22 of the server device 20 receives from the user terminal 10 a correction request indicating the correction content of the crack information by the feature amount of the crack. The crack information generation unit 30 of the server device 20 corrects the crack information based on the feature amount indicated by the correction request. Various modes can be cited as modes for correcting crack information (collective correction) based on such feature amounts.

第1の一括修正の態様として、ユーザ端末10の画面に表示させたスライダを用いたマニュアル操作(以下「スライド操作」という)に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に対する合成画像中の線分(以下「線状パターン」ともいう)の検出度数を示す度数分布(「ヒストグラム」ともいう)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ユーザ端末10に対して送信されるひび割れ情報に付加し、ユーザ端末10でのスライダを用いた操作に応じて、ひび割れ情報を修正する。   As a first batch correction mode, a mode in which batch correction is performed in accordance with a manual operation using a slider displayed on the screen of the user terminal 10 (hereinafter referred to as “slide operation”) can be given. The crack information generation unit 30 according to this aspect includes a frequency distribution (also referred to as “histogram”) indicating the frequency of detection of a line segment (hereinafter also referred to as “linear pattern”) in the composite image with respect to the feature amount, and crack information based on the feature amount. Is added to the crack information transmitted to the user terminal 10, and the crack information is corrected in accordance with the operation using the slider on the user terminal 10.

図3は、度数分布及びスライダの第1の表示例を示す図である。本例では、ユーザ端末10の画面に表示された合成画像IMG1上に、検出されたひび割れを示すひび割れ画像CR1、CR2、CR3、CR4を表示させる。更に、合成画像IMG1の近傍に、特徴量に対する合成画像IMG1中の線分(ひび割れ候補である)の検出度数を示す度数分布HG1(ヒストグラム)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダSL1とを表示させる。度数分布HG1のy方向(画面の上下方向)がひび割れ候補である線分の特徴量を示し、度数分布HG1のx方向(画面の左右方向)がひび割れ候補である線分の度数を示す。スライダSL1は、合成画像IMG1中の線分がひび割れであるか否かの判定基準を調節するためのスライド式のGUI(graphical user interface)である。本例のスライダSL1は一本のバーBR1を有し、その一本のバーBR1の表示位置を基準にして、度数分布HG1のうちのひび割れ対象領域AR1が決まる。図3の上下方向(x方向)において、度数分布HG1のうち、バーBR1の表示位置よりも上の領域がひび割れ対象領域AR1であり、そのひび割れ対象領域AR1内の特徴量を持つ線分が「ひび割れ」として検出される。   FIG. 3 is a diagram illustrating a first display example of the frequency distribution and the slider. In this example, crack images CR1, CR2, CR3, and CR4 indicating the detected cracks are displayed on the composite image IMG1 displayed on the screen of the user terminal 10. Further, a frequency distribution HG1 (histogram) indicating the detection frequency of the line segment (which is a crack candidate) in the composite image IMG1 with respect to the feature amount and the correction contents of the crack information are input in the vicinity of the composite image IMG1. The slider SL1 for displaying is displayed. The y direction (up and down direction of the screen) of the frequency distribution HG1 indicates the feature amount of the line segment that is a crack candidate, and the x direction (left and right direction of the screen) of the frequency distribution HG1 indicates the frequency of the line segment that is a crack candidate. The slider SL1 is a sliding GUI (graphical user interface) for adjusting a criterion for determining whether or not the line segment in the composite image IMG1 is cracked. The slider SL1 of this example has a single bar BR1, and a crack target area AR1 in the frequency distribution HG1 is determined based on the display position of the single bar BR1. In the vertical direction (x direction) in FIG. 3, in the frequency distribution HG1, an area above the display position of the bar BR1 is a crack target area AR1, and a line segment having a feature amount in the crack target area AR1 is “ Detected as “crack”.

図4は、度数分布及びスライダの第2の表示例を示す図である。本例のスライダSL2は二本のバーBR21、BR22を有し、その二本のバーBR21、BR22の表示位置を基準にしてひび割れ対象領域AR2が決まる。図4のy方向(画面の上下方向)において、度数分布HG1のうち二本のバーBR21、BR22で挟まれた領域がひび割れ対象領域AR2であり、そのひび割れ対象領域AR2内の特徴量を持つ線分が「ひび割れ」として検出される。   FIG. 4 is a diagram illustrating a second display example of the frequency distribution and the slider. The slider SL2 of this example has two bars BR21 and BR22, and the crack target area AR2 is determined based on the display position of the two bars BR21 and BR22. In the y direction (up and down direction of the screen) in FIG. 4, a region between the two bars BR21 and BR22 in the frequency distribution HG1 is a crack target region AR2, and a line having a feature amount in the crack target region AR2 Minutes are detected as "cracks".

図5は、度数分布及びスライダの第3の表示例を示す図である。本例では、二つのスライダSL1、SL2を表示して、複数の特徴量に基づいて、ひび割れ対象領域AR1、AR2を選択入力することができる。   FIG. 5 is a diagram illustrating a third display example of the frequency distribution and the slider. In this example, two sliders SL1 and SL2 are displayed, and the crack target areas AR1 and AR2 can be selectively input based on a plurality of feature amounts.

図6は、度数分布及びスライダの第4の表示例を示す図である。本例では、チェックボックスBX1,BX2,BX3を表示して、損傷の種類を選択入力することができる。   FIG. 6 is a diagram illustrating a fourth display example of the frequency distribution and the slider. In this example, the check boxes BX1, BX2, and BX3 are displayed, and the type of damage can be selected and input.

特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。他の特徴量でもよい。ひび割れ情報生成部30は、度数分布(ヒストグラム)とスライダとをひび割れ情報に付加し、ユーザ端末10でのスライダを用いたマニュアル操作に応じて、ひび割れ情報を修正する。   The feature amount includes at least one of a crack direction, length, width, edge strength, and edge density. Other feature amounts may be used. The crack information generation unit 30 adds the frequency distribution (histogram) and the slider to the crack information, and corrects the crack information according to a manual operation using the slider on the user terminal 10.

以上のように、特徴量(ひび割れ検出部28により検出された線分の特徴量である)に対する線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末10でのスライダを用いたスライド操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。   As described above, the frequency distribution indicating the detection frequency of the line segment with respect to the feature value (the feature value of the line segment detected by the crack detection unit 28) and the instruction for inputting the correction content of the crack information by the feature value By adding the slider to the crack information and correcting the crack information according to the slide operation using the slider in the user terminal 10, it becomes possible to correct the crack information with higher accuracy by a simple operation. .

第2に、ユーザ端末10の画面に表示させたひび割れ画像に対するグループ選択操作に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。   Secondly, there is a mode in which collective correction is performed according to a group selection operation for a cracked image displayed on the screen of the user terminal 10. The crack information generation unit 30 of this aspect groups the crack images based on the feature amount, and corrects the crack information according to a manual operation for selecting a group of crack images on the user terminal 10.

図7は、ひび割れ画像を方向(特徴量の一形態である)に基づいてグルーピングしてグループ毎に異なる線種で表示した例を示す。本例では、同一方向及び類似方向の複数のひび割れ画像(ひび割れ検出部28によりひび割れとして検出された線分に対応する画像である)で一つのグループを形成した。第1のグループG1のひび割れ画像を実線で表示させ、第2のグループG2のひび割れ画像を破線で表示させ、第3のグループG3のひび割れ画像を一点鎖線で表示させている。尚、図示の都合上、グループ毎に異なる線種で表示させた場合を例示したが、グループ毎に異なる色で表示させてもよい。   FIG. 7 shows an example in which crack images are grouped based on a direction (which is one form of feature amount) and displayed with different line types for each group. In this example, one group is formed by a plurality of crack images in the same direction and similar directions (images corresponding to line segments detected as cracks by the crack detection unit 28). The crack image of the first group G1 is displayed with a solid line, the crack image of the second group G2 is displayed with a broken line, and the crack image of the third group G3 is displayed with a one-dot chain line. For the convenience of illustration, the case of displaying with different line types for each group is illustrated, but it may be displayed with different colors for each group.

ユーザは、ユーザ端末10の画面の表示を見て、削除対象のグループのうち少なくとも一本のひび割れ画像を囲うタッチ操作を行う。そうすると囲まれたひび割れ画像の方向に基づいて、そのひび割れ画像が属するグループ内の全てのひび割れ画像(同一方向及び類似方向のひび割れ画像である)が一括して消去される。同時に、選択されたグループのひび割れ情報がサーバ装置20で削除される。図7に示す例では、タッチ操作で囲われた選択領域ARに含まれる同一グループのひび割れ画像が画面から消去され、かつ同一グループのひび割れ情報が削除される。   The user looks at the display on the screen of the user terminal 10 and performs a touch operation surrounding at least one cracked image in the group to be deleted. Then, based on the direction of the enclosed crack image, all the crack images in the group to which the crack image belongs (crack images in the same direction and similar directions) are erased collectively. At the same time, the crack information of the selected group is deleted by the server device 20. In the example shown in FIG. 7, the crack image of the same group included in the selection area AR surrounded by the touch operation is deleted from the screen, and the crack information of the same group is deleted.

ひび割れ画像を囲う操作ではなくて、削除対象のグループをユーザに直接的に選択させてもよい。例えば、図7の点線表示された第2のグループG2のひび割れ情報を削除する場合、「点線」を選択する操作をユーザ端末10で受け付ける。グループ毎に異なる色でひび割れ画像を表示させた場合には、色(例えば「赤」)を選択する操作を受け付ける。グループの識別情報(例えばグループ番号)を選択する操作を受け付けてもよい。   Instead of the operation of surrounding the cracked image, the user may directly select the group to be deleted. For example, when deleting the crack information of the second group G2 displayed in dotted lines in FIG. 7, an operation of selecting “dotted lines” is received at the user terminal 10. When a crack image is displayed in a different color for each group, an operation for selecting a color (for example, “red”) is accepted. You may receive operation which selects the identification information (for example, group number) of a group.

また、ひび割れ情報の「削除」に限らず、ひび割れ情報の「追加」、「増加」及び「減少」の操作を受け付けることが好ましい。   Further, it is preferable to accept not only “deletion” of crack information but also “addition”, “increase” and “decrease” operations of crack information.

以上のように、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するユーザ操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。   As described above, the crack images are grouped based on the feature amount, and the crack information is corrected according to the user operation for selecting the group of crack images on the user terminal 10, so that the cracks can be more accurately performed with a simple operation. It becomes possible to correct the information.

<機械学習>
サーバ装置20の機械学習部32は、例えば人工知能によって構成される。人工知能として、例えば人工ニューラルネットワークを用いてもよいし、他の公知の人工知能を用いてもよい。ただし、本発明は機械学習部32として人工知能を用いない場合(例えば単なる検索手段を用いて情報を取得する場合)にも適用可能であり、また機械学習部32を省略することも可能である。
<Machine learning>
The machine learning unit 32 of the server device 20 is configured by, for example, artificial intelligence. As the artificial intelligence, for example, an artificial neural network may be used, or other known artificial intelligence may be used. However, the present invention can also be applied to a case where artificial intelligence is not used as the machine learning unit 32 (for example, when information is acquired using a simple search means), and the machine learning unit 32 can be omitted. .

機械学習部32は、第1の学習として、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10でのひび割れ情報の編集のためのユーザ操作の履歴と、データベース50に記憶された画像(合成画像又は合成前の画像である)と、データベース50に記憶されたひび割れ情報とに基づいて、ひび割れの検出を機械学習する。   As the first learning, the machine learning unit 32 performs machine learning to detect a crack based on a user operation on the user terminal 10. The machine learning unit 32 in this example includes at least a history of user operations for editing crack information on the user terminal 10, images stored in the database 50 (composite images or images before synthesis), a database Based on the crack information stored in 50, machine learning is performed to detect cracks.

本例の機械学習部32は、データベース50に記憶されたひび割れ情報に関する操作履歴に基づいて、データベース50に記憶された編集履歴(ひび割れ情報の修正の内容を示す履歴である)のうちから学習すべき編集履歴を特定し、特定された編集履歴と、その特定された編集履歴に対応する合成画像及びひび割れ情報とに基づいて、合成画像(又は合成前の画像)から検出すべきひび割れの特徴量を機械学習する。つまり、ひび割れ検出部28のひび割れ検出で用いるモデルを更新する。   The machine learning unit 32 of this example learns from the edit history (which is a history indicating the content of the crack information correction) stored in the database 50 based on the operation history related to the crack information stored in the database 50. The feature quantity of the crack to be detected from the synthesized image (or the image before synthesis) based on the identified editing history, the synthesized image corresponding to the identified editing history, and the crack information Machine learning. That is, the model used for crack detection by the crack detection unit 28 is updated.

尚、本例のひび割れ情報生成部30は、前述のようにひび割れ情報の修正指示を特徴量単位で受け付ける「一括修正」の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での特徴量単位のユーザ操作の履歴と、合成画像及びひび割れ情報との対応関係に基づいて、ひび割れ検出を機械学習する。合成前の画像を画像解析してひび割れを検出する場合には、特徴量単位の操作の履歴と合成前の画像及びひび割れ情報との対応関係に基づいて機械学習する。   Note that the crack information generation unit 30 of this example has a “batch correction” function that accepts a crack information correction instruction in units of feature amounts as described above. Therefore, the machine learning unit 32 of this example performs machine learning for crack detection based on the correspondence between the user operation history in the feature amount unit in the user terminal 10 and the composite image and crack information. When cracks are detected by image analysis of the pre-combination image, machine learning is performed based on the correspondence between the operation history of the feature amount unit and the pre-combination image and crack information.

また、機械学習部32は、第2の学習として、ユーザ端末10でのユーザ操作に基づいて、画像補正を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10での画像補正のためのユーザ操作の履歴と、データベース50に記憶された画像(補正前の画像及び補正後の画像である)とに基づいて、画像補正を機械学習する。   In addition, the machine learning unit 32 performs machine learning on image correction based on a user operation on the user terminal 10 as the second learning. The machine learning unit 32 of this example is based on at least a history of user operations for image correction at the user terminal 10 and images stored in the database 50 (an image before correction and an image after correction). Machine learning for image correction.

本例の機械学習部32は、データベース50に記憶された画像補正の操作履歴に基づいて、データベース50に記憶された画像補正履歴(画像の補正の内容を示す履歴である)のうちから学習すべき画像補正履歴を特定し、特定された画像補正履歴と、その特定された画像補正履歴に対応する補正前の画像及び補正後の画像(合成画像でよい)とに基づいて、補正前の画像と画像補正の内容との対応関係を機械学習する。つまり、合成画像生成部26の画像補正で用いるモデルを更新する。   The machine learning unit 32 of this example learns from the image correction history stored in the database 50 (which is a history indicating the contents of image correction) based on the image correction operation history stored in the database 50. An image before correction based on the specified image correction history, an image before correction corresponding to the specified image correction history, and an image after correction (may be a composite image) And machine learning of the correspondence between the image and the content of image correction. That is, the model used for the image correction of the composite image generation unit 26 is updated.

尚、本例の合成画像生成部26は、前述のように画像位置情報補正、縮尺補正、あおり補正及び回転角度補正の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での画像位置情報補正、縮尺補正、あおり補正又は回転角度補正のためのユーザ操作の履歴と、補正前の画像及び補正後の画像(合成画像でよい)との対応関係に基づいて、画像補正を機械学習する。   Note that the composite image generation unit 26 of this example has functions of image position information correction, scale correction, tilt correction, and rotation angle correction as described above. Therefore, the machine learning unit 32 of the present example, the history of user operations for image position information correction, scale correction, tilt correction, or rotation angle correction in the user terminal 10, the image before correction, and the image after correction (composite image) Image correction is machine-learned based on the corresponding relationship.

人工知能技術の進歩が著しく、優秀な人の頭脳を超える画像解析を行い得る人工知能が期待されている。ただし、未学習の事象の発生時(例えば学習初期段階)には修正操作が必要になる場合がある。従って、機械学習部32として人工知能を採用した場合でも、前述の「一括修正」のように、簡易なユーザ操作でひび割れ情報を編集する機能を、機械学習機能と併せてサーバ装置20に実装することが好ましい。   Artificial intelligence technology has made significant progress, and artificial intelligence that can perform image analysis that exceeds the brains of excellent human beings is expected. However, a correction operation may be required when an unlearned event occurs (for example, at the initial learning stage). Therefore, even when artificial intelligence is employed as the machine learning unit 32, a function for editing crack information by a simple user operation is implemented in the server device 20 together with the machine learning function, as in the above-described “batch correction”. It is preferable.

<第1の画像処理例>
図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。
<First Image Processing Example>
FIG. 8 is a flowchart showing the flow of the first image processing example in the first embodiment.

本図の左側のフロントエンド処理はユーザ端末10の端末記憶部17に記憶されたプログラム(フロントエンドプログラム)に従ってユーザ端末10で開始される(ステップS2)。また、本図の右側のバックエンド処理は、サーバ装置20の記憶部42に記憶されたプログラム(バックエンドプログラム)に従ってサーバ装置20で開始される(ステップS4)。   The front end process on the left side of the figure is started at the user terminal 10 in accordance with a program (front end program) stored in the terminal storage unit 17 of the user terminal 10 (step S2). Further, the back end process on the right side of the figure is started in the server device 20 in accordance with a program (back end program) stored in the storage unit 42 of the server device 20 (step S4).

本例では、図9に示すように点検現場で撮像装置60により得られた複数の画像が事務所のユーザ端末10に入力され(ステップS6)、且つ点検現場でユーザにより野帳に記入された画像位置情報が事務所のユーザ端末10に入力される(ステップS8)。   In this example, as shown in FIG. 9, a plurality of images obtained by the imaging device 60 at the inspection site are input to the user terminal 10 in the office (step S6), and are entered in the field book by the user at the inspection site. Image position information is input to the user terminal 10 in the office (step S8).

複数の画像は、撮像装置60により橋梁の床版の格間を複数に分割撮像して得られる。これらの複数の画像は、例えば有線通信又は近距離無線通信を用いて、端末入力部11により入力する。メモリカード等の記憶媒体から入力してもよい。撮像装置60からネットワークNW上の図示しない記憶デバイスに複数の画像をアップロードし、その記憶デバイスからネットワークNWを介して複数の画像を入力してもよい。   The plurality of images are obtained by dividing and imaging the space between the bridge floor slabs into a plurality by the imaging device 60. The plurality of images are input by the terminal input unit 11 using, for example, wired communication or short-range wireless communication. You may input from storage media, such as a memory card. A plurality of images may be uploaded from the imaging device 60 to a storage device (not shown) on the network NW, and the plurality of images may be input from the storage device via the network NW.

野帳には、ユーザが橋梁の床版を目視して得た情報が記入されている。図示を省略した計測器を用いて計測した情報を野帳に記入してもよい。以下の説明では、少なくとも、橋梁の床版に対する複数の画像の位置関係を示す手書きの情報(手書きの画像位置情報)が、野帳に記入されているものとする。   The field book is filled with information obtained by the user viewing the bridge deck. Information measured using a measuring instrument (not shown) may be entered in the field book. In the following description, it is assumed that at least handwritten information (handwritten image position information) indicating the positional relationship of a plurality of images with respect to a bridge floor slab is entered in the field book.

橋梁の床版を表したCAD(computer aided design)図面が作成済である場合、そのCAD図面を端末表示部14に表示させて、その表示されたCAD図面中の床版の格間の被撮影位置に対して各画像を嵌め込むマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、CAD図面中の床版の基準位置に対する各画像の位置関係を示す画像位置情報が入力される。   If a CAD (computer aided design) drawing representing a bridge slab has already been created, the CAD drawing is displayed on the terminal display unit 14 and the space between the floor slabs in the displayed CAD drawing is photographed. A manual operation for fitting each image to the position is received by the terminal operation unit 15. In response to such a manual operation, image position information indicating the positional relationship of each image with respect to the reference position of the floor slab in the CAD drawing is input.

橋梁の床版を表したCAD図面が未作成である場合、図10に示すように、端末表示部14の画面上で複数の画像を並べるマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、複数の画像同士の相対的な位置関係を示す画像位置情報が入力される。この態様では、サーバ装置20において、複数の画像同士の相対的な位置関係を、床版の基準位置に対する各画像の位置関係に変換することが、好ましい。隣接する画像同士の共通部分を重ね合わせるマニュアル操作を受け付けてもよい。   When the CAD drawing representing the bridge slab has not been created, the terminal operation unit 15 accepts a manual operation for arranging a plurality of images on the screen of the terminal display unit 14 as shown in FIG. In response to such a manual operation, image position information indicating a relative positional relationship between a plurality of images is input. In this aspect, it is preferable that the server device 20 converts the relative positional relationship between the plurality of images into the positional relationship of each image with respect to the reference position of the floor slab. A manual operation for overlapping common portions between adjacent images may be received.

また、必要に応じて、後の画像補正(ステップS16)の示唆となる情報(以下「補正ヒント情報」という)が、ユーザ端末10に入力される(ステップS10)。   Further, if necessary, information (hereinafter referred to as “correction hint information”) that suggests subsequent image correction (step S16) is input to the user terminal 10 (step S10).

例えば、複数の画像の全部について床版の正面から撮像した場合には「全部正面」、複数の画像の全部について床版の非正面から撮像した場合には「全部あおり」、複数の画像のうち一部だけ床版の非正面から撮像した場合には「一部あおり」といったような、あおり補正のヒント情報を入力するマニュアル操作を、端末操作部15により受け付ける。具体的なあおりの角度(撮像装置60の撮像方向に対する床版の傾き角度である)の入力を受け付けてもよいが、この場合には概略の角度が入力される可能性があり、後の工程でサーバ装置20において、概略の角度を詳細な角度に補正することが、好ましい。縮尺補正(拡縮)、回転角度補正等、他の画像補正のための補正ヒント情報の入力を受け付けてもよい。あおり補正、縮尺補正及び回転角度補正が不要である場合には、本ステップを省略してよい。   For example, when all the multiple images are captured from the front of the floor slab, “all front”, when all the multiple images are captured from the non-front of the floor slab, “all tilt”, among the multiple images When a part of the image is taken from the front of the floor slab, the terminal operation unit 15 accepts a manual operation for inputting tilt correction hint information such as “partial tilt”. Although an input of a specific tilt angle (which is the inclination angle of the floor slab with respect to the imaging direction of the imaging device 60) may be received, in this case, an approximate angle may be input, and a later process In the server device 20, it is preferable to correct the approximate angle to a detailed angle. Input of correction hint information for other image corrections such as scale correction (enlargement / reduction) and rotation angle correction may be accepted. If tilt correction, scale correction, and rotation angle correction are not necessary, this step may be omitted.

次に、ユーザ端末10の端末制御部16により画像処理要求情報を生成して、ユーザ端末10の端末送信部12により、生成された画像処理要求情報をサーバ装置20に対して送信する(ステップS12)。画像処理要求情報は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS14)。   Next, the image processing request information is generated by the terminal control unit 16 of the user terminal 10, and the generated image processing request information is transmitted to the server device 20 by the terminal transmission unit 12 of the user terminal 10 (step S12). ). The image processing request information is received by the receiving unit 22 of the server device 20 and registered in the database 50 (step S14).

画像処理要求情報には、ステップS6で入力された複数の画像と、ステップS8で入力された画像位置情報とが含まれる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報も画像処理要求情報に含まれる。   The image processing request information includes a plurality of images input in step S6 and the image position information input in step S8. When correction hint information is input in step S10, the correction hint information is also included in the image processing request information.

次に、サーバ装置20の合成画像生成部26により、複数の画像を補正する(ステップS16)。例えば、前述の画像補正(画像位置情報補正、縮尺補正、あおり補正、及び回転角度補正)のうち、必要な補正が行われる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報に基づいて、画像補正が行われる。   Next, the composite image generation unit 26 of the server device 20 corrects a plurality of images (step S16). For example, necessary correction is performed among the above-described image correction (image position information correction, scale correction, tilt correction, and rotation angle correction). When correction hint information is input in step S10, image correction is performed based on the correction hint information.

次に、サーバ装置20の合成画像生成部26により、複数の画像及び画像位置情報に基づいて、床版の格間ごとに一枚の合成画像が生成される(ステップS18)。合成画像は、データベース50に登録される。   Next, the composite image generation unit 26 of the server device 20 generates one composite image for each space between floor slabs based on the plurality of images and the image position information (step S18). The composite image is registered in the database 50.

次に、サーバ装置20の機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS20)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間で構造物上の模様が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。合成画像が不適切であると判断された場合(ステップS20でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS20でNOの場合)、ステップS22に進む。   Next, the machine learning unit 32 of the server device 20 determines whether or not the composite image is inappropriate (step S20). The machine learning unit 32 learns an event for which the composite image is appropriate and an event for which the composite image is inappropriate based on various types of information stored in the database 50, and the current composite image is invalid based on the learning result. It can be determined whether it is appropriate. The machine learning unit 32 can have, as a learning result, a function of detecting an abnormality such as a pattern on a structure not being connected between original images (images before synthesis), for example. If it is determined that the composite image is inappropriate (YES in step S20), the parameters relating to image correction and image composition are changed and the process returns to step S16. If it is determined that the composite image is appropriate (NO in step S20) ), The process proceeds to step S22.

次に、サーバ装置20のひび割れ検出部28により、床版の格間ごとの合成画像を画像解析して、床版のひび割れを格間ごとに検出する(ステップS22)。   Next, the crack detection unit 28 of the server device 20 performs image analysis on the composite image of each floor slab space to detect a crack of the floor slab for each space (step S22).

次に、サーバ装置20のひび割れ情報生成部30により、検出されたひび割れに対応するひび割れ画像と、検出されたひび割れの特徴量とを示す、ひび割れ情報を生成する(ステップS24)。特徴量には、ひび割れの幅、長さ、間隔等、床版のひび割れ程度の評価区分を判別するために必要な情報が含まれる。また、特徴量には、一括編集に必要な情報が含まれる。生成されたひび割れ情報は、データベース50に登録される。   Next, the crack information generation unit 30 of the server device 20 generates crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack (step S24). The feature quantity includes information necessary for discriminating the evaluation category of the cracking degree of the floor slab, such as crack width, length, and interval. The feature amount includes information necessary for batch editing. The generated crack information is registered in the database 50.

本例は、一括編集に必要な、度数分布、スライダ、グループ情報等が、ひび割れ情報に付加される。また、スケール画像生成部34により生成されたスケール画像がひび割れ情報に付加されてもよい。スケール画像の具体例は後述する。   In this example, the frequency distribution, slider, group information, and the like necessary for batch editing are added to the crack information. Further, the scale image generated by the scale image generation unit 34 may be added to the crack information. A specific example of the scale image will be described later.

ひび割れ評価部36により、少なくともひび割れ情報に基づいて、橋梁の床版におけるひび割れの程度を評価して、そのひび割れ程度の評価区分を示すランク情報を生成し、そのランク情報をひび割れ情報に付加してもよい。以下では、説明の便宜上、ランク情報がひび割れ情報に付加されなかったものとする。   The crack evaluation unit 36 evaluates the degree of cracks in the bridge slab based on at least crack information, generates rank information indicating an evaluation category of the crack degree, and adds the rank information to the crack information. Also good. In the following, for convenience of explanation, it is assumed that rank information has not been added to crack information.

次に、サーバ装置20の送信部24により、床版の格間ごとの合成画像とひび割れ情報とをユーザ端末10に対して送信する(ステップS26)。合成画像及びひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS28)。   Next, the transmission unit 24 of the server device 20 transmits the composite image and crack information for each space between floor slabs to the user terminal 10 (step S26). The composite image and the crack information are received by the terminal receiving unit 13 of the user terminal 10 and displayed on the terminal display unit 14 (step S28).

例えば、図11に示すように、端末表示部14の画面に、床版の格間ごとの合成画像IMG2と、ひび割れ画像CRを含むひび割れ情報が表示される。本例では、合成画像IMG2中のひび割れが検出された位置に、ひび割れ画像CRが重ね合される。尚、図11では、スケール画像を省略しているが、合成画像IMG2に更にスケール画像を重ね合わせて表示してもよい。   For example, as shown in FIG. 11, crack information including a composite image IMG2 for each space between floor slabs and a crack image CR is displayed on the screen of the terminal display unit 14. In this example, the crack image CR is superimposed at a position where a crack is detected in the composite image IMG2. In FIG. 11, the scale image is omitted, but the scale image may be further superimposed on the composite image IMG2.

次に、ユーザ端末10の端末操作部15によりユーザからひび割れ情報の修正操作を受け付けたか否かを判定し(ステップS32)、修正操作を受け付けた場合(ステップS32でYESの場合)、ユーザ端末10の端末送信部12により、ユーザの修正操作に対応したひび割れ情報の修正要求をサーバ装置20に対して送信する(ステップS34)。修正要求は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS36)。   Next, it is determined whether or not a crack information correction operation has been received from the user by the terminal operation unit 15 of the user terminal 10 (step S32). When the correction operation is received (YES in step S32), the user terminal 10 The terminal transmission unit 12 transmits a crack information correction request corresponding to the user's correction operation to the server device 20 (step S34). The correction request is received by the receiving unit 22 of the server device 20 and registered in the database 50 (step S36).

また、ユーザは、端末表示部14の表示を見て、ひび割れ程度の評価区分を示すランク情報を端末操作部15により入力することができる。   Further, the user can input rank information indicating an evaluation category of the degree of cracking through the terminal operation unit 15 while viewing the display on the terminal display unit 14.

図12は、ひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、ランク情報が「RANK1」〜「RANK5」の五段階で表される。各ランク情報とひび割れ状態との対応関係は次の通りである。   FIG. 12 is a diagram schematically illustrating an example of a crack progression model. In this progression model, the rank information is expressed in five levels “RANK1” to “RANK5”. The correspondence relationship between each rank information and the crack state is as follows.

RANK1:損傷なし。   RANK1: No damage.

RANK2:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。   RANK2: A state in which a plurality of cracks are generated in parallel along the lateral direction (short direction perpendicular to the direction of vehicle travel). This is the stage where multiple cracks due to drying shrinkage become parallel beams.

RANK3:縦方向(車輌の通行方向に平行な長手方向)のひび割れ及び横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版の上下方向(床版下面に直交する垂直方向)で貫通する。   RANK3: A state in which a crack in the vertical direction (longitudinal direction parallel to the vehicle traveling direction) and a crack in the horizontal direction intersect each other. This is a stage in which a plurality of cracks are formed in a lattice shape due to a live load, and the crack density in the lattice-shaped region increases. In the second half, cracks penetrate in the vertical direction of the floor slab (vertical direction perpendicular to the floor slab lower surface).

RANK4:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版がせん断抵抗を失う段階である。   RANK4: A state in which the crack density in the lattice-like region exceeds a specified value, and the fracture surfaces of a plurality of cracks that have penetrated are smoothed. This is the stage where the slab loses shear resistance due to the polishing action.

RANK5:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。   RANK5: A state in which dropout has occurred. Dropout occurs due to wheel load exceeding the reduced punching shear strength.

次に、サーバ装置20のひび割れ情報生成部30により、受信された修正要求に基づいて、ひび割れ情報を修正する(ステップS38)。ランク情報がユーザ端末10で入力された場合には、そのランク情報をひび割れ情報に付加する。   Next, the crack information generation unit 30 of the server device 20 corrects the crack information based on the received correction request (step S38). When rank information is input on the user terminal 10, the rank information is added to the crack information.

次に、サーバ装置20の送信部24により、修正後のひび割れ情報をユーザ端末10に対して送信する(ステップS40)。修正後のひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS42)。   Next, the crack information after correction is transmitted to the user terminal 10 by the transmission unit 24 of the server device 20 (step S40). The corrected crack information is received by the terminal receiving unit 13 of the user terminal 10 and displayed on the terminal display unit 14 (step S42).

次に、ユーザ端末10の端末操作部15によりユーザから帳票作成指示の入力を受け付けたか否かを判定し(ステップS44)、帳票作成指示の入力を受け付けた場合(ステップS44でYESの場合)、ユーザ端末10の端末送信部12により、帳票要求がサーバ装置20に対して送信される(ステップS46)。帳票要求は、サーバ装置20の受信部22により受信される(ステップS48)。   Next, it is determined whether or not an input of a form creation instruction has been received from the user by the terminal operation unit 15 of the user terminal 10 (step S44). If an input of a form creation instruction has been accepted (YES in step S44), A form request is transmitted to the server device 20 by the terminal transmission unit 12 of the user terminal 10 (step S46). The form request is received by the receiving unit 22 of the server device 20 (step S48).

次に、サーバ装置20の帳票作成部40により、橋梁の床版の点検結果を示す帳票(点検調書)を作成する(ステップS50)。帳票は、橋梁の床版におけるひび割れ程度の評価区分を示すランク情報を含む。   Next, the form creation unit 40 of the server device 20 creates a form (inspection record) indicating the inspection result of the bridge floor slab (step S50). The form includes rank information indicating an evaluation category of a crack degree in the bridge slab.

次に、サーバ装置20の送信部24により、ユーザ端末10に対して帳票を送信する(ステップS52)。帳票は、ユーザ端末10の端末受信部13により受信され、端末表示部14により帳票受信がユーザに対して報知される(ステップS54)。帳票は、ユーザの操作に応じて、端末表示部14に表示させることが可能であり、またネットワークNWに接続されたプリンタ(図示を省略)に印刷させることも可能である。   Next, the form is transmitted to the user terminal 10 by the transmission unit 24 of the server device 20 (step S52). The form is received by the terminal receiving unit 13 of the user terminal 10, and the terminal display unit 14 notifies the user of receipt of the form (step S54). The form can be displayed on the terminal display unit 14 in accordance with a user operation, and can also be printed by a printer (not shown) connected to the network NW.

図13は、帳票としての損傷図の一例を示す図である。この損傷図は、点検対象である橋梁の床版に生じた各損傷について、格間ごとに、損傷表示(ひび割れ表示、漏水表示、遊離石灰表示等)、部材名(「床版」等)、要素番号(Ds0201等)、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)、損傷程度の評価区分(ランク情報)が記載されたものである。尚、図13では、図12に示した五段階の評価区分(「RANK1」〜「RANK5」)を、アルファベットの「a」〜「e」で表している。   FIG. 13 is a diagram illustrating an example of a damage diagram as a form. This damage chart shows damage indications (cracking indication, water leakage indication, free lime indication, etc.), component names (“floor”, etc.) The element number (Ds0201 etc.), the type of damage (“crack”, “leakage”, “free lime”, etc.), and the evaluation category (rank information) of the degree of damage are described. In FIG. 13, the five-level evaluation categories (“RANK1” to “RANK5”) shown in FIG. 12 are represented by alphabets “a” to “e”.

<第2の画像処理例>
図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。
<Second Image Processing Example>
FIG. 14 is a flowchart showing the flow of the second image processing example in the first embodiment.

本例のステップS2〜S16は、図8に示した第1の画像処理例と同様である。   Steps S2 to S16 in this example are the same as those in the first image processing example shown in FIG.

本例では、合成前の各画像を画像解析してひび割れを検出し(ステップS218)、合成画像を生成する(ステップS220)。次に、機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS222)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び合成画像が不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間でひび割れ画像が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。不適切であると判断された場合(ステップS222でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS222でNOの場合)、ステップS24に進む。   In this example, each image before composition is analyzed to detect cracks (step S218), and a composite image is generated (step S220). Next, the machine learning unit 32 determines whether or not the composite image is inappropriate (step S222). The machine learning unit 32 learns an event that the composite image is appropriate and an event that the composite image is inappropriate based on various types of information stored in the database 50, and based on the learning result, It can be determined whether or not the image is inappropriate. The machine learning unit 32 can have, as a learning result, a function for detecting an abnormality such as, for example, a cracked image is not connected between original images (images before synthesis). When it is determined to be inappropriate (in the case of YES in step S222), the parameters relating to image correction and image composition are changed and the process returns to step S16, and when it is determined to be appropriate (in the case of NO in step S222). The process proceeds to step S24.

ステップS24〜S54は、図8に示した第1の画像処理例と同様である。   Steps S24 to S54 are the same as those in the first image processing example shown in FIG.

<第3の画像処理例>
図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。
<Third image processing example>
FIG. 15 is a flowchart showing the flow of the third image processing example in the first embodiment.

本例では、図16に示すように点検現場でロボット装置70に搭載された撮像装置62により分割撮像して得られた複数の二視点画像がユーザ端末10により入力され(ステップS306)、且つロボット装置70の撮像装置制御に従った撮像装置制御情報がユーザ端末10により入力される(ステップS308)。本例の撮像装置制御情報は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む。   In this example, as shown in FIG. 16, a plurality of two-viewpoint images obtained by division imaging with the imaging device 62 mounted on the robot device 70 at the inspection site are input by the user terminal 10 (step S306), and the robot Imaging device control information according to the imaging device control of the device 70 is input by the user terminal 10 (step S308). The imaging device control information in this example includes image position information, distance information, tilt angle information, and rotation angle information.

本例のロボット装置70は、橋梁に懸垂した懸垂式ロボットであり、図16ではその撮像に関する要部のみを示している。尚、懸垂式ロボットは、橋梁に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。   The robot apparatus 70 of this example is a suspended robot suspended from a bridge, and FIG. 16 shows only the main part relating to the imaging. The suspended robot may be a robot that hangs on a traveling body (vehicle) on the bridge instead of hanging on the bridge. Further, the present invention can also be applied to a case where an unmanned flying robot such as a drone (unmanned flying vehicle) is used instead of the suspended robot.

本例の撮像装置62は、複眼式であり、二視点でそれぞれ構造物の被撮像面を撮像することにより、二視点画像(「立体視画像」ともいう)を取得する。ロボット装置70は、二視点画像に対して画像処理を行うことにより、撮像装置62から被撮像面内の各点までの距離を算出することができる。また、本例のロボット装置70は、撮像装置62の回動及び移動の制御を行う撮像装置制御機構72を備える。撮像装置制御機構72は、撮像装置62を互いに直交するX方向、Y方向及びZ方向のそれぞれで移動可能なXYZ移動機構と、撮像装置62をパン方向P及びチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。撮像装置制御機構72により、構造物の被撮像面(表面)の基準点に対する撮像装置62の位置を自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの位置情報を自在に設定することができる。また、撮像装置制御機構72により、撮像装置62と構造物の被撮像面との距離、撮像装置62の撮像方向と構造物の被撮像面との傾き角度、及び撮像装置62の撮像方向と構造物の被撮像面との回転角度を、それぞれ自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの距離情報、傾き角度情報、回転角度情報を自在に設定することができる。   The imaging device 62 of this example is a compound eye type, and acquires a two-viewpoint image (also referred to as a “stereoscopic image”) by capturing an imaged surface of a structure with two viewpoints. The robot device 70 can calculate the distance from the imaging device 62 to each point in the imaging surface by performing image processing on the two-viewpoint image. Further, the robot apparatus 70 of this example includes an imaging apparatus control mechanism 72 that controls the rotation and movement of the imaging apparatus 62. The imaging device control mechanism 72 can rotate the imaging device 62 in the X direction, the Y direction, and the Z direction orthogonal to each other, and the imaging device 62 can rotate in the pan direction P and the tilt direction T, respectively. It also serves as a pan / tilt mechanism. By the imaging device control mechanism 72, the position of the imaging device 62 relative to the reference point of the imaging surface (front surface) of the structure can be freely set. That is, position information of each of a plurality of images obtained by a plurality of divided imaging can be freely set. Further, the imaging device control mechanism 72 controls the distance between the imaging device 62 and the imaging surface of the structure, the inclination angle between the imaging direction of the imaging device 62 and the imaging surface of the structure, and the imaging direction and structure of the imaging device 62. The rotation angle between the object and the surface to be imaged can be set freely. That is, the distance information, the tilt angle information, and the rotation angle information of each of the plurality of images obtained by the multiple divided imaging can be freely set.

ユーザ端末10の端末入力部11は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む撮像装置制御情報を、複数の画像と共に、メモリカード等の記憶媒体、又はネットワークNWを介して、入力することができる。   The terminal input unit 11 of the user terminal 10 receives the imaging device control information including the image position information, the distance information, the tilt angle information, and the rotation angle information together with a plurality of images via a storage medium such as a memory card or the network NW. Can be entered.

ステップS12〜S54は、図8に示した第1の画像処理例と同様である。   Steps S12 to S54 are the same as those in the first image processing example shown in FIG.

尚、画像位置情報、距離情報、傾き角度情報及び回転角度情報等の画像合成又は画像補正に必要な全ての情報が、計測により正確に取得された場合には、適切な合成画像が生成されることになるので、ステップS20(合成画像が不適切か否かの判定)を省略することができる。   In addition, when all information necessary for image composition or image correction such as image position information, distance information, tilt angle information, and rotation angle information is accurately obtained by measurement, an appropriate composite image is generated. Therefore, step S20 (determination as to whether the composite image is inappropriate) can be omitted.

<第4の画像処理例>
図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。
<Fourth image processing example>
FIG. 17 is a flowchart showing the flow of a fourth image processing example in the first embodiment.

本例のステップS2、S4、S306〜S308、及びS12〜S16は、図15に示した第3の画像処理例と同様である。第3の画像処理例と同様に、ロボット装置70に搭載された複眼式の撮像装置62により分割撮像して得られた複数の二視点画像が入力され(ステップS306)、且つロボット装置70の撮像装置制御機構72の撮像装置制御に従った撮像装置制御情報が入力される(ステップS308)。   Steps S2, S4, S306 to S308, and S12 to S16 in this example are the same as those in the third image processing example shown in FIG. As in the third image processing example, a plurality of two-viewpoint images obtained by dividing and imaging with the compound-eye imaging device 62 mounted on the robot device 70 are input (step S306), and the imaging of the robot device 70 is performed. Imaging device control information according to the imaging device control of the device control mechanism 72 is input (step S308).

ステップS218〜S222は、図14に示した第2の画像処理例と同様である。つまり、ステップS218で合成前の画像を解析してひび割れを検出した後、ステップS220で合成画像の生成及び登録を行い、ステップS222で合成画像が不適切であるか否か判定する。ステップS222は、第3の画像処理例のS20と同様、省略することができる。   Steps S218 to S222 are the same as those in the second image processing example shown in FIG. That is, after analyzing the pre-combination image in step S218 to detect cracks, a composite image is generated and registered in step S220, and it is determined in step S222 whether the composite image is inappropriate. Step S222 can be omitted similarly to S20 of the third image processing example.

ステップS24〜S54は、第1の画像処理例と同様である。   Steps S24 to S54 are the same as in the first image processing example.

尚、人が撮像装置を操作して構造物を撮像した場合の画像処理例(第1の画像処理例及び第2の画像処理例)と、ロボット装置70が撮像装置を制御して構造物を撮像した場合の画像処理例(第3の画像処理例及び第4の画像処理例)とを、便宜上、別々に説明したが、本発明は、いずれか一方の場合に閉じた構成で実施される場合には限定されず、むしろ両方の場合を含むオープンな構成で実施されることが、好ましい。即ち、本例のサーバ装置20は、人が撮像装置を操作した場合の画像、画像の合成及び補正に必要な情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させるだけでなく、ロボット装置70が撮像装置を制御した場合の画像、撮像装置制御情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させて、両方の場合について機械学習を行う。これにより、人が撮像装置を操作して構造物を撮像した場合でも、ロボット装置70が撮像装置を制御した場合の画像処理の機械学習結果に基づいて、クローズした構成よりも適切な合成画像を生成することが可能になる。   It should be noted that an image processing example (first image processing example and second image processing example) when a person operates the imaging device to image a structure, and the robot device 70 controls the imaging device to capture the structure. The image processing examples (third image processing example and fourth image processing example) when imaged have been described separately for convenience, but the present invention is implemented in a closed configuration in either case. It is not limited to a case, but rather it is preferably implemented in an open configuration including both cases. That is, the server device 20 of this example not only stores in the database 50 images when a person operates the imaging device, information necessary for image composition and correction (including image position information), operation history, and the like. The image when the robot apparatus 70 controls the imaging apparatus, imaging apparatus control information (including image position information), operation history, and the like are stored in the database 50, and machine learning is performed in both cases. Thereby, even when a person operates the imaging device to capture an image of a structure, based on the machine learning result of the image processing when the robot device 70 controls the imaging device, a composite image that is more appropriate than the closed configuration is obtained. Can be generated.

[第2の実施形態]
図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。本図のユーザ端末10は第1実施形態と同じである。本図のサーバ装置200は、図2に示した第1の実施形態のサーバ装置20に対して、ひび割れの進行を予測する予測部44を追加した構成である。
[Second Embodiment]
FIG. 18 is a block diagram illustrating a configuration example of an image processing system according to the second embodiment. The user terminal 10 in this figure is the same as in the first embodiment. The server apparatus 200 of this figure is the structure which added the prediction part 44 which estimates the progress of a crack with respect to the server apparatus 20 of 1st Embodiment shown in FIG.

予測部44は、データベース50に記憶された橋梁に関する各種情報と、ひび割れ情報生成部30によって生成されたひび割れ情報とに基づいて、橋梁のひび割れの進行を予測する。送信部24は、ひび割れの進行の予測結果をユーザ端末10に送信する。   The prediction unit 44 predicts the progress of cracks in the bridge based on various information related to the bridge stored in the database 50 and the crack information generated by the crack information generation unit 30. The transmission unit 24 transmits the prediction result of the progress of the crack to the user terminal 10.

本例のデータベース50は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報を記憶する。本例の予測部44は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報と、橋梁のひび割れ情報とに基づいて、橋梁におけるひび割れの進行を予測する。   The database 50 of this example stores bridge structure information, bridge environmental condition information, bridge use condition information, bridge maintenance history information, and bridge disaster history information. The prediction unit 44 of this example includes at least one of bridge structure information, bridge environmental condition information, bridge use condition information, bridge maintenance history information, and bridge disaster history information, and bridge crack information. Based on the above, the progress of cracks in the bridge is predicted.

ランク情報は、例えば橋梁の点検部位(例えば床版の格間)ごとの評価区分である。ランク情報は、橋梁の健全性を段階的又は数値的に表した「健全度」を含んでもよい。   The rank information is, for example, an evaluation category for each bridge inspection site (for example, a floor slab space). The rank information may include a “soundness level” that represents the soundness of the bridge stepwise or numerically.

橋梁の構造情報は、橋梁全体のうち少なくとも評価対象である床版及びその周辺の部材を含む部分の構造を示す。例えば、構造形式、構造的特徴が挙げられる。荷重と床版との関係、地震の震動と床版との関係、雨水と床版との関係、温度と床版との関係等、床版のひび割れの進行に関連する構造上の情報を含む。アルカリ骨材反応を生じ易い材料を使用しているか否か等の化学的な情報でもよい。ひび割れが発生し易い部分を直接的に表した情報でもよい。   The structural information of the bridge indicates the structure of a portion including at least the floor slab to be evaluated and its peripheral members in the entire bridge. For example, a structural form and a structural feature are mentioned. Includes structural information related to the progress of cracks in the floor slab, such as the relationship between load and floor slab, the relationship between earthquake vibration and floor slab, the relationship between rainwater and floor slab, the relationship between temperature and floor slab, etc. . Chemical information such as whether or not a material that easily causes an alkali-aggregate reaction is used may be used. Information directly representing a portion where cracks are likely to occur may be used.

橋梁の環境条件情報は、例えば塩分が飛来するか否か等の立地条件が挙げられる。   The environmental condition information of the bridge includes, for example, location conditions such as whether or not salinity flies.

橋梁の使用条件情報は、例えば、車輌の交通量、大型車混入率が挙げられる。   The usage condition information of the bridge includes, for example, the traffic volume of the vehicle and the large vehicle mixing rate.

橋梁の維持管理履歴情報は、例えば凍結防止剤の散布履歴情報が挙げられる。補修及び補強の履歴情報を含んでもよい。   The bridge maintenance management history information includes, for example, antifreezing agent spray history information. Repair and reinforcement history information may be included.

橋梁の災害履歴情報は、橋梁が受けた台風、地震等の災害の履歴情報である。   The disaster history information of the bridge is history information of disasters such as typhoons and earthquakes received by the bridge.

本例のデータベース50は、更に、橋梁のひび割れ程度の評価区分を示すランク情報を、橋梁の合成画像及びひび割れ情報と関連付けて、記憶する。本例の予測部44は、ひび割れ評価部36で評価された橋梁のランク情報が未来どのように変化するかを予測するシミュレーション処理を実行する。   The database 50 of this example further stores rank information indicating the evaluation category of the degree of cracking of the bridge in association with the composite image and cracking information of the bridge. The prediction unit 44 of the present example executes a simulation process for predicting how the bridge rank information evaluated by the crack evaluation unit 36 will change in the future.

また、予測部44により、過去から現在までどのように変化したかをシミュレーションしてもよい。ひび割れ情報生成部30により、過去から現在までのシミュレーション結果と現在の画像(合成画像又は合成前の画像)とに基づいて、ひび割れ情報を生成することで、ひび割れ情報の精度を更に向上させることができる。   Further, the prediction unit 44 may simulate how it has changed from the past to the present. The crack information generation unit 30 can further improve the accuracy of the crack information by generating the crack information based on the simulation result from the past to the present and the current image (the synthesized image or the image before the synthesis). it can.

本例の機械学習部32は、操作履歴、画像(合成画像又は合成前の画像)、及びひび割れ情報のほかに、予測部44の予測結果にも基づいて、ひび割れ検出を機械学習することが可能である。機械学習部32は、更に、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報にも基づいて、ひび割れ検出を学習することが、好ましい。   The machine learning unit 32 of this example can perform machine learning for crack detection based on the prediction result of the prediction unit 44 in addition to the operation history, the image (the synthesized image or the image before synthesis), and the crack information. It is. The machine learning unit 32 further cracks based on at least one of the bridge structure information, the bridge environmental condition information, the bridge use condition information, the bridge maintenance history information, and the bridge disaster history information. It is preferred to learn the detection.

[ベクトル化]
ひび割れ画像のベクトル化について、図19〜図22を用いて説明する。
[Vectorization]
Vectorization of a crack image will be described with reference to FIGS.

サーバ装置20のひび割れ情報生成部30は、合成画像又は合成前の画像から抽出したひび割れの部分をベクトル化して、ひび割れのベクトルデータ(以下「ひび割れベクトル」又は単に「ベクトル」という)を生成する。つまり、ひび割れ情報生成部30は、ひび割れ部分をベクトル化する。サーバ装置20の送信部24は、ベクトル化されたひび割れ画像であるひび割れベクトルを含むひび割れ情報を、合成画像と共に、ユーザ端末10に送信する。ユーザ端末10の端末表示部14には、ベクトル化されたひび割れ画像が合成画像に重ね合されて表示される。   The crack information generation unit 30 of the server device 20 vectorizes the crack portion extracted from the combined image or the image before combining, and generates crack vector data (hereinafter referred to as “crack vector” or simply “vector”). That is, the crack information generation unit 30 vectorizes the crack portion. The transmission unit 24 of the server device 20 transmits crack information including a crack vector that is a vectorized crack image to the user terminal 10 together with the composite image. On the terminal display unit 14 of the user terminal 10, the vectorized cracked image is displayed superimposed on the composite image.

ひび割れ情報生成部30は、ベクトル化に際して、検出されたひび割れを必要に応じ2値化及び/または細線化する。「ベクトル化」とは、ひび割れに対し始点及び終点で定まる線分を求めることであり、ひび割れが曲線状の場合、曲線と線分の距離が閾値以下になるようにひび割れを複数の区間に分割し、複数の区間のそれぞれについてひび割れベクトルを生成する。   The crack information generating unit 30 binarizes and / or thins the detected crack as necessary when vectorizing. “Vectorization” is to find a line segment determined by the start point and end point for a crack. When the crack is curved, the crack is divided into multiple sections so that the distance between the curve and the line segment is less than the threshold. Then, a crack vector is generated for each of the plurality of sections.

ひび割れベクトルの生成に際しては、例えば床版2の特徴点を座標系の原点とし、ひび割れベクトルのグループ(ベクトルグループ)について、原点からの距離が最小になる端点を第1の始点とし、以下ひび割れベクトルの走行方向に沿って順次終点、始点を決定することができる。図19の例では、床版2上の点P0を座標系の原点、図の右方向及び下方向をそれぞれ座標系のX軸方向、Y軸方向としたときに、ベクトルグループC7の点P13,P14,P15,P16のうち点P0からの距離dが最も短くなる点P13をひび割れベクトルC7−1の始点とし、以下、点P14をひび割れベクトルC7−1の終点(かつひび割れベクトルC7−2,C7−3の始点)、点P15,P16をそれぞれひび割れベクトルC7−2,C7−3の終点とすることができる。   When generating a crack vector, for example, the feature point of the floor slab 2 is the origin of the coordinate system, and for a group of crack vectors (vector group), the end point that minimizes the distance from the origin is the first start point. The end point and start point can be determined sequentially along the running direction. In the example of FIG. 19, when the point P0 on the floor slab 2 is the origin of the coordinate system, and the right direction and the downward direction in the figure are the X-axis direction and Y-axis direction of the coordinate system, respectively, Among the points P14, P15, and P16, the point P13 having the shortest distance d from the point P0 is set as the starting point of the crack vector C7-1. Hereinafter, the point P14 is the end point of the crack vector C7-1 (and the crack vectors C7-2 and C7). −3), and points P15 and P16 can be the end points of the crack vectors C7-2 and C7-3, respectively.

しかしながら、同様の手法でベクトルグループC8の始点を決定すると、点P17がひび割れベクトルC8−1の始点、点P18がひび割れベクトルC8−2,C8−3の始点となり、ひび割れベクトルC8−3の走行方向(点P18から点P20へ向かう方向)がひび割れベクトルC8−1の走行方向と逆行してしまう。そこでこのような場合は、図20に示すように点P19をひび割れベクトルC8A−1の始点とし、以下、点P18をひび割れベクトルC8A−1の終点(かつひび割れベクトルC8A−2,C8A−3の始点)、点P17,P20をそれぞれひび割れベクトルC8A−2,C8A−3の終点とするようにしてもよい。なおこの場合のひび割れベクトルの集合体をベクトルグループC8Aと表記する。   However, when the start point of the vector group C8 is determined by the same method, the point P17 becomes the start point of the crack vector C8-1, the point P18 becomes the start point of the crack vectors C8-2 and C8-3, and the traveling direction of the crack vector C8-3. (The direction from point P18 to point P20) is opposite to the traveling direction of crack vector C8-1. Therefore, in such a case, as shown in FIG. 20, the point P19 is the start point of the crack vector C8A-1, and the point P18 is the end point of the crack vector C8A-1 (and the start points of the crack vectors C8A-2 and C8A-3). ), And points P17 and P20 may be the end points of the crack vectors C8A-2 and C8A-3, respectively. A set of crack vectors in this case is represented as a vector group C8A.

上述のようにしてひび割れベクトルを生成する場合、ひび割れが床版2の内部では連続しているが表面では分離していると、分離したひび割れベクトルとして認識されてしまう可能性がある。そこで、複数のひび割れベクトルを連結して1または複数のベクトルを生成する。   When the crack vector is generated as described above, if the crack is continuous inside the floor slab 2 but separated on the surface, it may be recognized as a separated crack vector. Therefore, one or more vectors are generated by concatenating a plurality of crack vectors.

図21はひび割れベクトルの連結の例を示す図であり、ひび割れベクトルC3−1(点P21、点P22がそれぞれ始点、終点)を含むベクトルグループC3と、ひび割れベクトルC4−1(点P23、点P24がそれぞれ始点、終点)を含むベクトルグループC4とが抽出された状況を示している。また、ひび割れベクトルC3−1が点P22及び点P23を結ぶ線分となす角をα1とし、点P22及び点P23を結ぶ線分がひび割れベクトルC4−1となす角をα2とする。このとき、角α1及び角α2が共に閾値以下ならば、ひび割れベクトルC3−1及びC4−1を連結し、またベクトルグループC3及びC4を融合させる。具体的には、図22に示すように新たなひび割れベクトルC5−2を生成してその他のひび割れベクトルC5−1(ひび割れベクトルC3−1と同一)及びC5−3(ひび割れベクトルC4−1と同一)と連結させ、これらひび割れベクトルC5−1,C5−2,及びC5−3を含む新たなベクトルグループをベクトルグループC5とする。このように、空間的に(床版2の表面で)分離したベクトルを適宜連結させることにより、ベクトル同士の連結関係を正確に把握することができる。   FIG. 21 is a diagram illustrating an example of concatenation of crack vectors. A vector group C3 including a crack vector C3-1 (points P21 and P22 are start points and end points, respectively) and a crack vector C4-1 (points P23 and P24). Indicates a state in which a vector group C4 including a start point and an end point is extracted. Further, the angle formed by the crack vector C3-1 and the line segment connecting the points P22 and P23 is α1, and the angle formed by the line segment connecting the point P22 and the point P23 by the crack vector C4-1 is α2. At this time, if both the angle α1 and the angle α2 are equal to or less than the threshold value, the crack vectors C3-1 and C4-1 are connected, and the vector groups C3 and C4 are merged. Specifically, as shown in FIG. 22, a new crack vector C5-2 is generated, and other crack vectors C5-1 (same as crack vector C3-1) and C5-3 (same as crack vector C4-1). And a new vector group including the crack vectors C5-1, C5-2, and C5-3 is defined as a vector group C5. In this way, by appropriately connecting the spatially separated vectors (on the surface of the floor slab 2), the connection relationship between the vectors can be accurately grasped.

尚、上述のベクトル連結は一例であり、他の方法を用いてもよい。   The above-described vector connection is an example, and other methods may be used.

また、ひび割れ情報生成部30は、複数のベクトル同士の相対角度を算出する。つまり、一のベクトルと他のベクトルとが成す角度を算出する。   Moreover, the crack information generation unit 30 calculates a relative angle between a plurality of vectors. That is, the angle formed by one vector and another vector is calculated.

また、ひび割れ情報生成部30は、ひび割れベクトルの階層構造を示す階層構造情報を生成する。階層構造情報は、ベクトル同士の連結関係を階層的に表現した情報である。階層構造情報は、複数のベクトルによって構成されるベクトルグループのうちで各ベクトルがどの階層に属するかを示す階層識別情報(「所属階層情報」ともいう)を含む。階層識別情報は、例えば、数字で表現された階層番号を用いることができる。数字以外のコード(例えば英字、記号)で表現してもよい。   In addition, the crack information generation unit 30 generates hierarchical structure information indicating a hierarchical structure of crack vectors. Hierarchical structure information is information that hierarchically represents the connection relationship between vectors. The hierarchical structure information includes hierarchy identification information (also referred to as “affiliation hierarchy information”) indicating to which hierarchy each vector belongs in a vector group composed of a plurality of vectors. As the hierarchy identification information, for example, a hierarchy number expressed by a number can be used. It may be expressed by a code other than numerals (for example, alphabetic characters and symbols).

図23は、ベクトルグループC1を示す図である。ベクトルグループC1は、ひび割れベクトルC1−1〜C1−6により構成されており、これらひび割れベクトルは点P1〜P7を始点または終点としている。このような状況において、ひび割れベクトルが分岐する(あるひび割れベクトルの終点が他の複数のひび割れベクトルの始点となっている)ごとに階層が下位になるとしている。具体的にはひび割れベクトルC1−1の階層を最も上位の“レベル1”として、ひび割れベクトルC1−1の終点である点P2を始点とするひび割れベクトルC1−2及びC1−3の階層は、ひび割れベクトルC1−1よりも下位である“レベル2”とする。同様に、ひび割れベクトルC1−3の終点である点P4を始点とするひび割れベクトルC1−5及びC1−6の階層は、ひび割れベクトルC1−3よりも下位である“レベル3”とする。一方、ひび割れベクトルC1−2の終点である点P3はひび割れベクトルC1−4の始点であるが、点P3を始点とするひび割れベクトルはひび割れベクトルC1−4だけであり分岐はないので、ひび割れベクトルC1−4の階層はC1−2と同じ“レベル2”とする。このようにして決定した各ひび割れベクトルの階層は、階層構造情報に含まれる。   FIG. 23 is a diagram showing the vector group C1. The vector group C1 is composed of crack vectors C1-1 to C1-6, and these crack vectors have points P1 to P7 as start points or end points. In such a situation, every time a crack vector branches (the end point of a certain crack vector is the start point of other crack vectors), the hierarchy becomes lower. Specifically, the hierarchy of the crack vector C1-1 is set to the highest "level 1", and the hierarchy of the crack vectors C1-2 and C1-3 starting from the point P2 that is the end point of the crack vector C1-1 is the crack. It is assumed that “level 2” is lower than the vector C1-1. Similarly, the hierarchy of the crack vectors C1-5 and C1-6 starting from the point P4 that is the end point of the crack vector C1-3 is “level 3”, which is lower than the crack vector C1-3. On the other hand, the point P3 that is the end point of the crack vector C1-2 is the start point of the crack vector C1-4, but the crack vector starting from the point P3 is only the crack vector C1-4 and has no branch, so the crack vector C1. The level of −4 is “level 2” which is the same as C1-2. The hierarchy of each crack vector determined in this way is included in the hierarchical structure information.

図24は、ベクトルグループC1(ひび割れベクトル同士の連結関係は図23に示すものと同一)を示す図である。本例では、連結するひび割れベクトルのうち他のひび割れベクトルとなす角度が閾値以下であるもの(木構造における「幹」に相当するひび割れベクトル)は同一の階層に属するものとしている。具体的には図24の点線内(参照符号Lv1で示す範囲)に存在するひび割れベクトルC1−1,C1−2,及びC1−4は同一の階層である“レベル1”(最上位)とする。また、それ以外のひび割れベクトルC1−3,C1−5,及びC1−6については、ひび割れベクトルが分岐するごとに階層が下位になるとしており、ひび割れベクトルC1−3(木構造における「枝」に相当)を“レベル2”、ひび割れベクトルC1−5及びC1−6(木構造における「葉」に相当)を“レベル3”としている。このようにして決定した各ひび割れベクトルの階層及び種別(幹、枝、あるいは葉)は、階層構造情報に含まれる。   FIG. 24 is a diagram showing a vector group C1 (the connection relationship between crack vectors is the same as that shown in FIG. 23). In this example, among the crack vectors to be connected, those having an angle with another crack vector equal to or smaller than a threshold value (crack vectors corresponding to “trunk” in the tree structure) are assumed to belong to the same hierarchy. Specifically, the crack vectors C1-1, C1-2, and C1-4 existing within the dotted line (the range indicated by the reference symbol Lv1) in FIG. 24 are set to “level 1” (the highest level) that is the same hierarchy. . Further, the crack vectors C1-3, C1-5, and C1-6 other than the above are assumed to have a lower hierarchy each time the crack vector branches, and the crack vector C1-3 (the “branch” in the tree structure) "Level 2", and crack vectors C1-5 and C1-6 (corresponding to "leaves" in the tree structure) are "Level 3". The hierarchy and type (stem, branch, or leaf) of each crack vector determined in this way is included in the hierarchical structure information.

尚、図23及び図24を用いて説明した階層構造化は例であり、変形した方法あるいは異なる方法で階層構造化してよい。   The hierarchical structure described with reference to FIGS. 23 and 24 is an example, and the hierarchical structure may be formed by a modified method or a different method.

更に、ひび割れ情報生成部30は、ベクトルに各種の付加情報(属性情報)を付加する。例えば、各ひび割れの幅を示す情報(幅情報)を各ベクトルに付加する。   Furthermore, the crack information generation unit 30 adds various types of additional information (attribute information) to the vector. For example, information indicating the width of each crack (width information) is added to each vector.

以上のように、サーバ装置20のひび割れ情報生成部30によってひび割れ画像のベクトル化及び階層構造化を行うので、生成されたひび割れベクトル及び階層構造情報を用いて各種の処理を効率良く且つ適切に行うことが可能になる。   As described above, since the crack information generation unit 30 of the server apparatus 20 performs vectorization and hierarchical structure of the crack image, various processes are efficiently and appropriately performed using the generated crack vector and hierarchical structure information. It becomes possible.

例えば、ひび割れベクトル及び階層構造情報を用いて、画像補正を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、合成画像が不適切であるか否かを判定することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、機械学習を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れ程度の評価区分を判別することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れの進行を予測することが可能になる。   For example, it is possible to perform image correction using a crack vector and hierarchical structure information. Further, it is possible to determine whether or not the composite image is inappropriate using the crack vector and the hierarchical structure information. In addition, machine learning can be performed using the crack vector and the hierarchical structure information. Moreover, it becomes possible to discriminate the evaluation category of the degree of cracking using the crack vector and the hierarchical structure information. Further, it is possible to predict the progress of the crack using the crack vector and the hierarchical structure information.

[スケール画像例]
スケール画像生成部34によって生成されるスケール画像の例を説明する。スケール画像生成部34は、ひび割れ画像によって示されるひび割れの特徴量(例えばひび割れの幅)をユーザ端末10の画面上で測定するための各種のスケール画像を生成する。スケール画像は、ひび割れ情報に付加される。
[Scale image example]
An example of the scale image generated by the scale image generation unit 34 will be described. The scale image generation unit 34 generates various scale images for measuring the feature amount (for example, crack width) of the crack indicated by the crack image on the screen of the user terminal 10. The scale image is added to the crack information.

図25は、スケール画像の表示例を示す図である。図示及び説明の便宜上、測定対象のひび割れを示すひび割れ画像CR11(CR11−1、CR11−2、CR11−3)を、拡大して示す。   FIG. 25 is a diagram illustrating a display example of a scale image. For convenience of illustration and explanation, a crack image CR11 (CR11-1, CR11-2, CR11-3) showing a crack to be measured is shown in an enlarged manner.

スケール画像CS1、CS2、CS3、CS4は、構造物の測定面(本例では橋梁の床版である)に生じたひび割れの測定を行うための画像である。これらのスケール画像CS1〜CS4は、サーバ装置20のスケール画像生成部34により生成される。本例のスケール画像生成部34は、ひび割れの長さを測定するための目盛りが付されたスケールを示すスケール画像CS1、CS2と、ひび割れの幅を測定するための線画及び数字が付されたスケールを示すスケール画像CS3、CS4を生成する。スケール画像CS1〜CS4は、撮像装置と測定面との距離、及び撮像装置の撮像方向に対する測定面の傾き角度に応じたスケールを示す。スケール画像生成部34は、距離及び角度に応じて、スケールの種類、形状、大きさ等を異ならせる。本例のスケール画像生成部34は、距離及び傾き角度に応じて、長さ測定用のスケール画像CS1、CS2の目盛りを異ならせ、幅測定用のスケール画像CS3、CS4の線画及び数字を異ならせている。   The scale images CS1, CS2, CS3, and CS4 are images for measuring cracks generated on the measurement surface of the structure (in this example, a bridge slab). These scale images CS <b> 1 to CS <b> 4 are generated by the scale image generation unit 34 of the server device 20. The scale image generation unit 34 of this example has scale images CS1 and CS2 showing scales with scales for measuring the length of cracks, and scales with line drawings and numbers for measuring the width of cracks. Scale images CS3 and CS4 are generated. Scale images CS1 to CS4 indicate scales according to the distance between the imaging device and the measurement surface and the inclination angle of the measurement surface with respect to the imaging direction of the imaging device. The scale image generation unit 34 varies the type, shape, size, and the like of the scale according to the distance and angle. The scale image generation unit 34 of the present example varies the scales of the length measurement scale images CS1 and CS2 according to the distance and the tilt angle, and varies the line drawings and numbers of the width measurement scale images CS3 and CS4. ing.

サーバ装置20のひび割れ情報生成部30は、スケール画像CS1〜CS4をひび割れ情報に付加する。サーバ装置20の送信部24は、スケール画像CS1〜CS4が付加されたひび割れ情報を、構造物の合成画像と共に、ユーザ端末10に送信する。送信されたスケール画像付きのひび割れ情報及び合成画像は、ユーザ端末10の端末受信部13により受信される。   The crack information generation unit 30 of the server device 20 adds the scale images CS1 to CS4 to the crack information. The transmission unit 24 of the server device 20 transmits the crack information to which the scale images CS1 to CS4 are added to the user terminal 10 together with the composite image of the structure. The transmitted crack information with the scale image and the composite image are received by the terminal receiving unit 13 of the user terminal 10.

ユーザ端末10の端末表示部14における表示領域DAは、構造物の合成画像及びスケール画像を表示する画像表示領域IAと、その画像表示領域IAに表示可能な種類のスケール画像(つまりユーザが選択可能なスケール画像)を表示するスケール画像選択領域SAとを含む。スケール画像選択領域SAには、スケール画像CS1〜CS4の他に、スケール画像の選択を確定するためのOKボタンBU1、スケール画像の選択をキャンセルするためのキャンセルボタンBU2、画像表示領域IAに表示されたスケール画像を消去するための消去ボタンBU3が表示されている。   The display area DA in the terminal display unit 14 of the user terminal 10 is an image display area IA that displays a composite image and a scale image of a structure, and a scale image that can be displayed in the image display area IA (that is, a user can select it). A scale image selection area SA for displaying a scale image). In the scale image selection area SA, in addition to the scale images CS1 to CS4, an OK button BU1 for confirming the selection of the scale image, a cancel button BU2 for canceling the selection of the scale image, and an image display area IA are displayed. An erase button BU3 for erasing the scale image is displayed.

端末操作部15は、スケール画像選択領域SAに表示されたスケール画像CS1〜CS4に対するユーザの選択操作を受け付ける。ユーザは、ボタン、マウス等を用いて選択操作を行う。スケール画像選択領域SAに表示された複数のスケール画像CS1〜CS4のうちから、ユーザの選択操作に対応したスケール画像(本例ではCS2及びCS3)が画像表示領域IAに表示される。   The terminal operation unit 15 receives a user's selection operation for the scale images CS1 to CS4 displayed in the scale image selection area SA. The user performs a selection operation using a button, a mouse, or the like. Of the plurality of scale images CS1 to CS4 displayed in the scale image selection area SA, scale images (CS2 and CS3 in this example) corresponding to the user's selection operation are displayed in the image display area IA.

端末表示部14は、画像表示領域IAに、合成画像とスケール画像とを重ね合わせて表示する。合成画像におけるひび割れ画像の位置及び方向に応じて、スケール画像の位置及び方向が決まる。本例のひび割れ画像CR11は、階層構造であって、親のひび割れ画像CR11−1と、子のひび割れ画像CR11−2及びCR11−3とを含む。長さ測定用のスケール画像CS2は、ひび割れ画像CR11−2の方向に沿って、且つひび割れ画像CR11−2の近傍の位置に、表示されている。幅測定用のスケール画像CS3は、ひび割れ画像CR11−1の方向と直交した方向に沿って、且つひび割れ画像CR11−1の幅に最も近い幅を有する線画(本例では1.4mmの線画)がひび割れ画像CR11−1に位置合わせされて、表示されている。   The terminal display unit 14 superimposes and displays the composite image and the scale image in the image display area IA. The position and direction of the scale image are determined according to the position and direction of the crack image in the composite image. The crack image CR11 of this example has a hierarchical structure, and includes a parent crack image CR11-1 and child crack images CR11-2 and CR11-3. The scale image CS2 for length measurement is displayed along the direction of the crack image CR11-2 and at a position near the crack image CR11-2. The scale image CS3 for width measurement has a line drawing having a width closest to the width of the crack image CR11-1 along the direction orthogonal to the direction of the crack image CR11-1 (1.4 mm line drawing in this example). It is displayed in alignment with the crack image CR11-1.

図示を省略したが、スケール画像を移動させるための移動ボタン、スケール画像を回転するための回転ボタン、スケール画像を拡大するための拡大ボタン、スケール画像を縮小するための縮小ボタン等もスケール画像選択領域SAに表示させることが好ましい。マウスの移動操作により、スケール画像の移動、回転、拡大、縮小等を指示してもよい。   Although not shown, a scale button is also available for a move button for moving the scale image, a rotate button for rotating the scale image, an enlarge button for enlarging the scale image, a reduce button for reducing the scale image, etc. It is preferable to display in the area SA. Movement, rotation, enlargement, reduction, etc. of the scale image may be instructed by a mouse movement operation.

尚、画像表示領域IAに二つのスケール画像CS2、CS3を表示させた場合を例示したが、画像表示領域IAに表示させるスケール画像の数は限定されない。   Although the case where two scale images CS2 and CS3 are displayed in the image display area IA is illustrated, the number of scale images displayed in the image display area IA is not limited.

以上、本発明を実施するための形態に関して説明してきたが、本発明は上述した実施形態及び変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。   As mentioned above, although the form for implementing this invention has been demonstrated, this invention is not limited to embodiment and the modification which were mentioned above, A various deformation | transformation is possible in the range which does not deviate from the main point of this invention.

1 橋梁
2 床版
3 主桁
3A 接合部
10 ユーザ端末
11 端末入力部
12 端末送信部
13 端末受信部
14 端末表示部
15 端末操作部
16 端末制御部
17 端末記憶部
20、200 サーバ装置
22 受信部
24 送信部
26 合成画像生成部
28 ひび割れ検出部
30 ひび割れ情報生成部
32 機械学習部
34 スケール画像生成部
36 ひび割れ評価部
38 CADデータ取得部(データ変換部)
40 帳票作成部
42 記憶部
44 予測部
50 データベース
60、62 撮像装置
70 ロボット装置
72 撮像装置制御機構
AR 選択領域
AR1、AR2 ひび割れ対象領域
BR1、BR21、BR22 バー
BU1 OKボタン
BU2 キャンセルボタン
BU3 消去ボタン
BX1、BX2、BX3 チェックボックス
C1、C3、C4、C5、C7、C8、C8A ベクトルグループ
C1−1、C1−2、C1−3、C1−4、C1−5、C3−1、C4−1、C5−1、C5−2、C7−1、C7−2、C8−1、C8−2、C8−3、C8A−1、C8A−2 ベクトル
CR、CR1、CR2、CR3、CR4、CR11、CR11−1、CR11−2、CR11−3 ひび割れ画像
CS1、CS2、CS3、CS4 スケール画像
DA 表示領域
G1 第1のグループ
G2 第2のグループ
G3 第3のグループ
HG1、HG2 度数分布
IA 画像表示領域
IMG1、IMG2 合成画像
NW ネットワーク
SA スケール画像選択領域
SL1、SL2 スライダ
d 距離
α1、α2 角
DESCRIPTION OF SYMBOLS 1 Bridge 2 Floor slab 3 Main girder 3A Joint part 10 User terminal 11 Terminal input part 12 Terminal transmission part 13 Terminal reception part 14 Terminal display part 15 Terminal operation part 16 Terminal control part 17 Terminal storage part 20, 200 Server apparatus 22 Reception part 24 transmitting unit 26 composite image generating unit 28 crack detecting unit 30 crack information generating unit 32 machine learning unit 34 scale image generating unit 36 crack evaluating unit 38 CAD data acquiring unit (data converting unit)
40 Form creation unit 42 Storage unit 44 Prediction unit 50 Database 60, 62 Imaging device 70 Robot device 72 Imaging device control mechanism AR Selection area AR1, AR2 Crack target area BR1, BR21, BR22 Bar BU1 OK button BU2 Cancel button BU3 Delete button BX1 , BX2, BX3 Check boxes C1, C3, C4, C5, C7, C8, C8A Vector groups C1-1, C1-2, C1-3, C1-4, C1-5, C3-1, C4-1, C5 -1, C5-2, C7-1, C7-2, C8-1, C8-2, C8-3, C8A-1, C8A-2 Vector CR, CR1, CR2, CR3, CR4, CR11, CR11-1 , CR11-2, CR11-3 Crack image CS1, CS2, CS3, CS4 Scale image DA Display area G1 1st group G2 2nd group G3 3rd group HG1, HG2 Frequency distribution IA Image display area IMG1, IMG2 Composite image NW Network SA Scale image selection area SL1, SL2 Slider d Distance α1, α2 Angle

Claims (16)

構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを、ユーザ端末から受信する受信部と、
前記受信された複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、
を備えるサーバ装置。
A receiving unit that receives a plurality of images indicating the surface of the structure and position information of the plurality of images from a user terminal;
A composite image generation unit configured to generate a composite image indicating a surface of the structure based on the plurality of received images and the position information;
A crack detection unit for detecting a crack on the surface of the structure by performing image analysis on the synthesized image or the image before synthesis;
A crack information generating unit that generates crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack;
A server device comprising:
前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信して前記ユーザ端末の画面に前記合成画像と前記ひび割れ情報とを表示させる送信部を備え、
前記受信部は、前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求に基づいて前記ひび割れ情報を修正し、
前記送信部は、前記修正されたひび割れ情報を前記ユーザ端末に送信する、
請求項1に記載のサーバ装置。
A transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on a screen of the user terminal;
The receiving unit receives a request for correction of the crack information according to a user operation on the user terminal from the user terminal,
The crack information generation unit corrects the crack information based on the correction request,
The transmitter transmits the corrected crack information to the user terminal;
The server device according to claim 1.
前記受信部は、前記ひび割れ情報の修正内容を前記特徴量で示した前記修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求で示された前記特徴量に基づいて、前記ひび割れ情報を修正する、
請求項2に記載のサーバ装置。
The receiving unit receives the correction request indicating the correction content of the crack information by the feature amount from the user terminal,
The crack information generation unit corrects the crack information based on the feature amount indicated in the correction request.
The server device according to claim 2.
前記特徴量に対する前記合成画像中の線分の検出度数を示す度数分布と、前記特徴量で前記ひび割れ情報の修正内容を指示入力するためのスライダとを、前記ひび割れ情報に付加し、前記ユーザ端末での前記スライダを用いた前記ユーザ操作に応じて前記ひび割れ情報を修正する、
請求項3に記載のサーバ装置。
A frequency distribution indicating the frequency of detection of a line segment in the composite image with respect to the feature quantity, and a slider for instructing and inputting a correction content of the crack information by the feature quantity, are added to the crack information, and the user terminal Correcting the crack information in response to the user operation using the slider at
The server device according to claim 3.
前記ひび割れ情報生成部は、前記特徴量に基づいて前記ひび割れ画像をグルーピングして、前記ユーザ端末での前記ひび割れ画像のグループを選択するユーザ操作に応じて前記ひび割れ情報を修正する、
請求項3に記載のサーバ装置。
The crack information generation unit groups the crack images based on the feature amount, and corrects the crack information according to a user operation to select the group of crack images on the user terminal.
The server device according to claim 3.
前記ユーザ端末での前記ユーザ操作に基づいて、前記ひび割れの検出を機械学習する機械学習部を備える、
請求項2から5のうちいずれか一項に記載のサーバ装置。
A machine learning unit that machine-learns the detection of the crack based on the user operation on the user terminal;
The server apparatus as described in any one of Claims 2-5.
前記特徴量は、前記ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む、
請求項1から6のうちいずれか一項に記載のサーバ装置。
The feature amount includes at least one of the direction, length, width, edge strength, and edge density of the crack.
The server apparatus as described in any one of Claims 1-6.
前記合成画像生成部は、前記複数の画像に対して、前記位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う、
請求項1から7のうちいずれか一項に記載のサーバ装置。
The composite image generation unit corrects at least one of the position information, scale, tilt, and rotation angle with respect to the plurality of images.
The server apparatus as described in any one of Claims 1-7.
前記合成画像生成部は、前記複数の画像に基づいて補正パラメータを導き出し、前記補正を行う、
請求項8に記載のサーバ装置。
The composite image generation unit derives a correction parameter based on the plurality of images and performs the correction.
The server device according to claim 8.
前記ひび割れ情報に基づいて、前記ひび割れ画像によって示されるひび割れの幅を前記ユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、
前記ひび割れ情報生成部は、前記スケール画像を前記ひび割れ情報に付加する、
請求項1から9のうちいずれか一項に記載のサーバ装置。
A scale image generation unit that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal based on the crack information;
The crack information generation unit adds the scale image to the crack information.
The server apparatus as described in any one of Claims 1-9.
少なくとも前記ひび割れ情報に基づいて、前記ひび割れの程度を評価し、前記構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える、
請求項1から10のうちいずれか一項に記載のサーバ装置。
Based on at least the crack information, a crack evaluation unit that evaluates the degree of the crack and discriminates an evaluation category of the crack degree of the structure,
The server apparatus as described in any one of Claims 1-10.
前記判別された評価区分を含む前記構造物の点検結果を示す帳票を作成する帳票作成部を備える、
請求項11に記載のサーバ装置。
Comprising a form creation unit for creating a form showing an inspection result of the structure including the determined evaluation category;
The server device according to claim 11.
前記合成画像と前記ひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える、
請求項1から12のうちいずれか一項に記載のサーバ装置。
A data conversion unit that converts the composite image and the crack information into CAD data in a predetermined data format;
The server apparatus as described in any one of Claims 1-12.
前記構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、前記ひび割れ情報とに基づいて、前記ひび割れの進行を予測する予測部を備える、
請求項1から13のうちいずれか一項に記載のサーバ装置。
A prediction unit that predicts the progress of the crack based on at least one of the structure information, environmental condition information, use condition information, maintenance history information, and disaster history information of the structure and the crack information; Prepare
The server apparatus as described in any one of Claims 1-13.
ユーザ端末及びサーバ装置を含む画像処理システムであって、
前記ユーザ端末は、
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを入力する端末入力部と、
前記サーバ装置に対して、前記複数の画像及び前記位置情報を送信する端末送信部と、
前記サーバ装置から、前記複数の画像に対する画像処理結果を受信する端末受信部と、
前記画像処理結果を表示する端末表示部と、
を備え、
前記サーバ装置は、
前記ユーザ端末から、前記複数の画像と前記位置情報とを受信する受信部と、
前記受信された前記複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、
前記複数の画像に対する前記画像処理結果として、前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信する送信部と、
を備え、
前記端末表示部は、前記合成画像と前記ひび割れ情報とを表示する、
画像処理システム。
An image processing system including a user terminal and a server device,
The user terminal is
A terminal input unit for inputting a plurality of images showing the surface of the structure and position information of the plurality of images;
A terminal transmission unit that transmits the plurality of images and the position information to the server device;
A terminal receiver for receiving image processing results for the plurality of images from the server device;
A terminal display unit for displaying the image processing result;
With
The server device
A receiving unit that receives the plurality of images and the position information from the user terminal;
A composite image generation unit that generates a composite image indicating a surface of the structure based on the received plurality of images and the position information;
A crack detection unit for detecting a crack on the surface of the structure by performing image analysis on the synthesized image or the image before synthesis;
A crack information generating unit that generates crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack;
As the image processing result for the plurality of images, a transmission unit that transmits the composite image and the crack information to the user terminal;
With
The terminal display unit displays the composite image and the crack information.
Image processing system.
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを、ユーザ端末から受信するステップと、
前記受信された複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成するステップと、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するステップと、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、
を含む画像処理方法。
Receiving a plurality of images showing the surface of the structure and positional information of the plurality of images from a user terminal;
Generating a composite image showing a surface of the structure based on the received plurality of images and the position information;
Analyzing the composite image or the image before synthesis to detect cracks on the surface of the structure;
Generating crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack;
An image processing method including:
JP2018523607A 2016-06-14 2017-05-19 Server device, image processing system, and image processing method Active JP6626970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218028A JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016117868 2016-06-14
JP2016117868 2016-06-14
PCT/JP2017/018917 WO2017217185A1 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019218028A Division JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program

Publications (2)

Publication Number Publication Date
JPWO2017217185A1 true JPWO2017217185A1 (en) 2019-02-28
JP6626970B2 JP6626970B2 (en) 2019-12-25

Family

ID=60664350

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018523607A Active JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Country Status (2)

Country Link
JP (4) JP6626970B2 (en)
WO (1) WO2017217185A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833356B2 (en) * 2016-06-16 2021-02-24 キヤノン株式会社 Information processing equipment, information processing methods and programs
WO2019130391A1 (en) * 2017-12-25 2019-07-04 富士通株式会社 Image processing program, image processing method, and image processing device
WO2019163118A1 (en) * 2018-02-26 2019-08-29 株式会社オプティム Computer system, drone control method, and program
WO2020075756A1 (en) * 2018-10-12 2020-04-16 パナソニックIpマネジメント株式会社 Prediction device and prediction method
JP7263074B2 (en) * 2019-03-22 2023-04-24 キヤノン株式会社 Information processing device, its control method, program, and storage medium
JP7309227B2 (en) * 2019-04-01 2023-07-18 アイポア株式会社 Machine learning program, method, and device for measuring transient changes in ion current accompanying passage of particles to be measured through pores by pore electrical resistance method and analyzing the pulse waveform
JP7316097B2 (en) * 2019-05-24 2023-07-27 日本放送協会 Object trajectory generator and its program
JP7151652B2 (en) * 2019-07-18 2022-10-12 株式会社デンソー Crack width measuring device
JP7427381B2 (en) * 2019-07-22 2024-02-05 キヤノン株式会社 Information processing device, system, information processing method and program
JPWO2021200675A1 (en) 2020-04-01 2021-10-07
EP4148663A4 (en) 2020-05-07 2023-10-25 FUJIFILM Corporation Damage evaluating device, method, and program
JP7453848B2 (en) * 2020-05-21 2024-03-21 清水建設株式会社 Face image processing device, face image processing method
KR102374840B1 (en) * 2020-10-20 2022-03-15 두산중공업 주식회사 Defect image generation method for deep learning and system therefor
DE112022000936T5 (en) * 2021-04-02 2023-12-14 Fujifilm Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING PROGRAM
JPWO2023047859A1 (en) * 2021-09-22 2023-03-30
KR102635926B1 (en) * 2023-08-29 2024-02-13 디엘이앤씨 주식회사 Facility Crack Measuring System

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1078305A (en) * 1996-09-04 1998-03-24 Kansai Electric Power Co Inc:The Method and device for measuring concrete crack
JP2001195589A (en) * 2000-01-14 2001-07-19 Ishikawajima Harima Heavy Ind Co Ltd Graphic processing method using elliptic area
JP2003185589A (en) * 2001-12-20 2003-07-03 Nishimatsu Constr Co Ltd Investigation system and investigation method for change in surface state of concrete
JP2004069434A (en) * 2002-08-05 2004-03-04 Tokyo Electric Power Co Inc:The Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP2009085785A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP2015138467A (en) * 2014-01-23 2015-07-30 デ・ファクト・スタンダード合同会社 concrete structure maintenance management system
WO2015163107A1 (en) * 2014-04-25 2015-10-29 ソニー株式会社 Information processing device, information processing method, and computer program
WO2015163106A1 (en) * 2014-04-25 2015-10-29 ソニー株式会社 Control device, imaging device, control method, imaging method, and computer program
JP2016065809A (en) * 2014-09-25 2016-04-28 前田建設工業株式会社 Concrete structure inspection support device, inspection support method and program
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148089A (en) * 1992-05-29 1994-05-27 Shimizu Corp Craze measuring processor
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP2005062041A (en) * 2003-08-15 2005-03-10 Junichi Izumo Soundness evaluation method, evaluation program and evaluation device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1078305A (en) * 1996-09-04 1998-03-24 Kansai Electric Power Co Inc:The Method and device for measuring concrete crack
JP2001195589A (en) * 2000-01-14 2001-07-19 Ishikawajima Harima Heavy Ind Co Ltd Graphic processing method using elliptic area
JP2003185589A (en) * 2001-12-20 2003-07-03 Nishimatsu Constr Co Ltd Investigation system and investigation method for change in surface state of concrete
JP2004069434A (en) * 2002-08-05 2004-03-04 Tokyo Electric Power Co Inc:The Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP2009085785A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP2015138467A (en) * 2014-01-23 2015-07-30 デ・ファクト・スタンダード合同会社 concrete structure maintenance management system
WO2015163107A1 (en) * 2014-04-25 2015-10-29 ソニー株式会社 Information processing device, information processing method, and computer program
WO2015163106A1 (en) * 2014-04-25 2015-10-29 ソニー株式会社 Control device, imaging device, control method, imaging method, and computer program
JP2016065809A (en) * 2014-09-25 2016-04-28 前田建設工業株式会社 Concrete structure inspection support device, inspection support method and program
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program

Also Published As

Publication number Publication date
JP2022000646A (en) 2022-01-04
JP6944506B2 (en) 2021-10-06
JP2020038227A (en) 2020-03-12
JP2023078205A (en) 2023-06-06
WO2017217185A1 (en) 2017-12-21
JP7241139B2 (en) 2023-03-16
JP6626970B2 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
JP6944506B2 (en) Image processing method, image processing device, and image processing program
CN111459166B (en) Scene map construction method containing trapped person position information in post-disaster rescue environment
JP6857218B2 (en) Damage information processing device and damage information processing method
EP3410102B1 (en) Crack information detection device, crack information detection method, and crack information detection program
WO2017110278A1 (en) Information processing device and information processing method
KR102423579B1 (en) Integral maintenance control method and system for managing dam safety based on 3d modelling
JP7146013B2 (en) Server device, image processing method, and program
US20210256679A1 (en) System for building photogrammetry
CN112241950A (en) Detection method of tower crane crack image
US11144590B2 (en) Similar damage search device and a similar damage search method
Park et al. A framework for improving object recognition of structural components in construction site photos using deep learning approaches
CN109754665A (en) A kind of machine-building mould virtual assembly training information processing system and Training Methodology
Qureshi et al. Smart rebar progress monitoring using 3D point cloud model
JP2021012141A (en) Abnormality inspection system, abnormality inspection device, abnormality inspection method and abnormality inspection program
JP7401478B2 (en) Information processing device, information processing method, and program
Saeedfar et al. Dynamic Space Conflict Modeling for Construction Operations
Lin et al. Bridge Inspection with Aerial Robots and Computer Vision: A Japanese National Initiative
JP2024066079A (en) Measurement device, measurement system, and measurement method
Karamoozian et al. Applications of Big Data and Opportunities for the Construction Industry
CN116703835A (en) Intelligent reinforcement detection method and system based on convolutional neural network and binocular vision
Zhang Four-dimensional and vision-based framework for infrastructure maintenance management
JP2023051168A (en) Determination device for joint bolts
NAZIM et al. URBAN ANALYTICS AND GENERATIVE DEEP LEARNING FOR CONTEXT RESPONSIVE DESIGN IN DIGITAL TWINS
JP2012099046A (en) Inspection support method and device, and inspection support program

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R150 Certificate of patent or registration of utility model

Ref document number: 6626970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250