JP7315089B2 - 対象領域検出装置、対象領域検出方法、及び対象領域検出プログラム - Google Patents

対象領域検出装置、対象領域検出方法、及び対象領域検出プログラム Download PDF

Info

Publication number
JP7315089B2
JP7315089B2 JP2022502652A JP2022502652A JP7315089B2 JP 7315089 B2 JP7315089 B2 JP 7315089B2 JP 2022502652 A JP2022502652 A JP 2022502652A JP 2022502652 A JP2022502652 A JP 2022502652A JP 7315089 B2 JP7315089 B2 JP 7315089B2
Authority
JP
Japan
Prior art keywords
target
area
region
candidate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022502652A
Other languages
English (en)
Other versions
JPWO2021171411A1 (ja
Inventor
慎吾 安藤
智彦 長田
和彦 村崎
潤 島村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021171411A1 publication Critical patent/JPWO2021171411A1/ja
Application granted granted Critical
Publication of JP7315089B2 publication Critical patent/JP7315089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0033Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by determining damage, crack or wear
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0091Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by using electromagnetic excitation or detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N25/00Investigating or analyzing materials by the use of thermal means
    • G01N25/72Investigating presence of flaws
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Nonlinear Science (AREA)
  • Quality & Reliability (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Description

本開示の技術は、対象領域検出装置、対象領域検出方法、及び対象領域検出プログラムに関する。
電子計算機の能力向上や機械学習技術の進展にともない、各種カメラ画像を用いてさまざまな構造物の劣化事象を自動検出できるようになってきた。ひび割れ等の特定の劣化事象については近年実用化レベルに達しつつある。そのような中、可視光カメラ以外の光学機器で撮影した画像を用いることで、目視判断が難しい劣化事象をより精度良く検出できないかの検討がなされている。例えば、特許文献1では、ハイパースペクトルカメラ画像を基に、管路等の錆腐食度合いをより精度良く自動推定する手段が提案されている。
特開2019-144099号公報
しかし、赤外線カメラで目視確認可能とされる“浮きサビ”の検出などは、背景にある他のノイズよりも明らかにシグナルが弱い上、形状パターンも極めて多様なため、深層学習など最新の機械学習技術をもってしても実用に耐える検出精度に達するのは未だ困難である。また、ハイパースペクトルカメラや赤外線カメラなどの特殊カメラでは、チャネル数が多数であったり、ダイナミックレンジが極端に広かったりするため、目視確認するにも多くのパラメータを調整しながら画像化を繰り返しつつ探索せねばならない。近年の建物壁面検査ではドローンを用いて一つの建物の壁面をさまざまな位置、方向から網羅的に撮影し、それらの画像を一枚一枚検査して劣化箇所を特定しているが、この作業では数千枚~数万枚の画像を目視確認せねばならない。また、これらを前述の確認方法で全て探索するのには膨大な時間がかかっているのが現状である。この作業時間を事前スクリーニングにて短縮できれば、かなりの作業効率化が期待できる。
開示の技術は、上記の点に鑑みてなされたものであり、複数の対象画像から、簡易な処理で、特定の検出対象領域を検出することができる対象領域検出装置、対象領域検出方法、および対象領域検出プログラムを提供することを目的とする。
本開示の第1態様は、対象領域検出装置であって、特定の検出対象領域を検出する対象となる複数の対象画像を取得する対象画像取得部と、前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出する候補検出部と、前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得する領域ラベル取得部と、前記一部の対象画像と、前記領域ラベル取得部によって取得された前記探索領域の位置情報とに基づいて、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、半教師学習処理で前記探索領域の位置情報を付与する領域特定部と、前記取得した複数の対象画像の各々について、前記候補検出部で検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行うフィルタリング部と、を含んで構成される。
本開示の第2態様は、対象領域検出方法であって、対象画像取得部が、特定の検出対象領域を検出する対象となる複数の対象画像を取得し、候補検出部が、前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出し、領域ラベル取得部が、前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得し、領域特定部が、前記一部の対象画像と、前記領域ラベル取得部によって取得された前記探索領域の位置情報とに基づいて、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、半教師学習処理で前記探索領域の位置情報を付与し、フィルタリング部が、前記取得した複数の対象画像の各々について、前記候補検出部で検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う。
本開示の第3態様は、対象領域検出プログラムであって、特定の検出対象領域を検出する対象となる複数の対象画像を取得し、前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出し、前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得し、前記一部の対象画像と、前記取得された前記探索領域の位置情報とに基づいて、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、半教師学習処理で前記探索領域の位置情報を付与し、前記取得した複数の対象画像の各々について、前記検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行うことをコンピュータに実行させるためのプログラムである。
開示の技術によれば、複数の対象画像から、簡易な処理で、特定の検出対象領域を検出することができる。
劣化領域を説明するためのイメージ図である。 探索領域を切り出した画像を説明するためのイメージ図である。 教師ラベルとして与えられた探索領域を説明するためのイメージ図である。 特定された探索領域を説明するためのイメージ図である。 候補領域のフィルタリングを説明するためのイメージ図である。 本実施形態の学習装置及び対象領域検出装置として機能するコンピュータの一例の概略ブロック図である。 本実施形態の学習装置の機能構成を表すブロック図である。 入出力曲線の例を示す図である。 本実施形態の対象領域検出装置の機能構成を表すブロック図である。 複数種類の入出力曲線の例を示す図である。 本実施形態の学習処理の流れを表すフローチャートである。 本実施形態の対象領域検出処理の流れを表すフローチャートである。
以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
<本実施形態の概要>
本実施形態は、“浮きサビ”に代表されるような、S/N比が極めて低く、形状パターンが多種多様な劣化領域を、高精度に自動検出可能な手段を提供するものである。
ここでは、赤外線カメラ等の特殊光学機器を含む各種カメラを用いて撮影された画像データを入力とし、まずは収集された複数枚の劣化領域を表す画像を基に学習処理を行う。学習過程では、さまざまな建物の劣化事象を撮影した画像について、その画像のどこに劣化事象を表す劣化領域が含まれるかを示す矩形領域あるいはフリーフォームで囲んだ領域を人間が教師ラベルとして与え、それと劣化領域を表す画像を紐づける(図1)。その後、対象となる劣化事象が発生し得る特定部位のみが背景として含まれるように画像を切り出して学習用画像とする(図2)。劣化事象が発生し得る特定部位としては、例えば、浮きサビなら“壁面タイル”等が写っている画像内領域がこれに該当し、以降は統一的に“探索領域”と呼ぶ。劣化領域を識別するための識別器には、Mask R-CNNなど一般的に知られた手法を利用すれば良い。
一方、検出時には、前述の識別器とは別に、半教師学習手法を用いて複数の対象画像から探索領域を特定する。ここで、半教師学習データとして、図3のドット領域のように、複数の対象画像の一部に対して探索領域を人手で指定することとする。必要とされる枚数は数枚と少なくて良いため、実運用上でも現実的な時間で作業が可能である。指定方法は、劣化領域の教師ラベルの与え方と同じである。この教師ラベルを基にして、半教師学習器が残りの対象画像に探索領域の位置情報を自動付与する(図4右側のドット領域)。このことにより、入力された全ての対象画像の探索領域が特定される。特定された探索領域を指定したマスク画像を用いて、識別器が出力した候補領域のフィルタリングを行う(図5)。図5のドット領域は、探索領域を示し、太線の枠は、候補領域を示している。なお、識別器では探索領域のみが背景になるように切り出した学習用画像しか入力されていないため、識別器が解くべき識別問題はより簡易化され、学習処理の負担は軽減している。結果として、候補領域のフィルタリングと併せて劣化事象の誤検出を効果的に抑制できる。
さらに、この抑制効果を増幅させるため、対象画像が赤外線画像である場合には次のような前処理を追加することもできる。すなわち、学習用画像の切り出しの後に当該学習用画像の劣化領域内にある各画素の温度の平均値を求め、その値を中央値とした特定の温度範囲で画素値の線形変換を実施する。ここで、中央値は、例えば、8ビットのモノクロ画像ならば128である。線形変換となる範囲外の画素値は、特定の温度範囲の最大値または最小値にサチュレーションさせる。そのようにして出力された学習用画像を用いて学習する。そして、検出時には学習時と同じ幅を持つ特定の範囲を、低温から高温へ少しずつずらしながら線形変換を施し、それによって出来る複数の対象画像を全て探索することで劣化検出を行う。これにより、S/N比の低いシグナルでも適切な振幅の信号に変換されるため、より効果的に劣化検出処理を実施できる。
<本実施形態に係る学習装置の構成>
図6は、本実施形態の学習装置10のハードウェア構成を示すブロック図である。
図6に示すように、学習装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、ニューラルネットワークを学習するための学習プログラムが格納されている。学習プログラムは、1つのプログラムであっても良いし、複数のプログラム又はモジュールで構成されるプログラム群であっても良い。
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
入力部15は、構造物の表面において所定の劣化事象が生じている劣化領域を含む学習用画像と、教師ラベルとして与えられた、学習用画像における劣化領域の位置情報との組の入力を複数受け付ける。なお、入力の際には、探索領域のみが背景として含まれるように切り出した画像を、学習用画像とする(図2)。
表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能しても良い。
通信インタフェース17は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
次に、学習装置10の機能構成について説明する。図7は、学習装置10の機能構成の例を示すブロック図である。
学習装置10は、機能的には、図7に示すように、学習画像取得部101、劣化ラベル取得部102、学習前処理部103、劣化学習部104、劣化辞書記録部105、及び劣化辞書106を備えている。
学習画像取得部101は、入力部15により受け付けた、複数の学習用画像を取得し、劣化ラベル取得部102及び学習前処理部103へ伝送する。
劣化ラベル取得部102は、入力部15により教師ラベルとして受け付けた、学習用画像における劣化領域の位置情報を取得する。
具体的には、劣化領域が矩形である場合、左上の位置座標(x,y)および矩形幅widthと矩形高さheightの4つのパラメータで表現される位置情報を取得する。劣化領域が、フリーフォームで入力される場合、対応する画素を1、それ以外の画素を0とした2値画像で表現される位置情報を取得する。
学習前処理部103は、画像値を特定の範囲の画素値に変換する変換関数を用いて、学習用画像の各画素の画素値を変換する。
具体的には、学習前処理部103は、学習画像取得部101により取得した学習用画像と、劣化ラベル取得部102により取得した劣化領域の位置情報とから得られる、劣化領域内の画素値情報を基に、入出力曲線で表される変換関数を作成し、変換関数を用いて、学習用画像の各画素の画素値を変換することでコントラストを調整する画素値変換処理を行い、変換後の学習用画像を、劣化学習部104へ伝送する。
例えば、学習画像取得部101で取得された各学習用画像に対し、劣化領域内にある全画素値の平均を求め、各画素値を、その値が中央値となるような特定の範囲の画素値に線形変換する。なお、特定の範囲に線形変換される所定範囲外の画素値は、特定の範囲の最大値または最小値にサチュレーションさせる。具体的には、図8のような入出力曲線で表される変換関数を用いて画素値を変換すれば良い。ここで、μは劣化領域内にある全画素値の平均、aはあらかじめ決められた特定の範囲の幅を表しており、変換後の学習用画像は8ビットのモノクロ画像である。なお、aの値は劣化パターンの振幅成分より十分に大きいレンジとしてユーザの経験に基づき設定する値になるが、劣化領域内の画素値の標準偏差を求め、それを全画像で平均した値に適当な係数を掛けて算出するのでも構わない。
劣化学習部104は、学習前処理部103による変換後の学習用画像と、教師ラベルとして与えられた、当該学習用画像における劣化領域の位置情報とに基づいて、教師あり学習より、劣化領域を識別するための識別器の重みパラメータを最適化する。
具体的には、劣化学習部104では、学習前処理部103による変換後の学習用画像と教師ラベルとを用いて機械学習を行う。ここではMask R-CNNに代表されるような一般的に性能が良いとされる識別器を用いて実施する。学習後は最適化された重みパラメータ値を劣化辞書記録部105へ伝送する。
劣化辞書記録部105は、劣化学習部104で最適化された識別器の重みパラメータを劣化辞書106に記録する。
<本実施形態に係る対象領域検出装置の構成>
上記図6は、本実施形態の対象領域検出装置50のハードウェア構成を示すブロック図である。
上記図6に示すように、対象領域検出装置50は、学習装置10と同様に、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。本実施形態では、ROM12又はストレージ14には、劣化領域を検出するための対象領域検出プログラムが格納されている。対象領域検出プログラムは、1つのプログラムであっても良いし、複数のプログラム又はモジュールで構成されるプログラム群であっても良い。
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入力部15は、構造物の表面を表す複数の対象画像と、一部の対象画像における教師ラベルとしての探索領域の位置情報とを、入力として受け付ける。なお、本実施形態では、複数の対象画像はあらかじめ全て撮影済みであり、まとめてデータ入力が可能であるとする。また、図3のように、入力部15で入力した複数の対象画像の一部に対して教師ラベルとして探索領域の位置情報を人手で入力する。
次に、対象領域検出装置50の機能構成について説明する。図9は、対象領域検出装置50の機能構成の例を示すブロック図である。
対象領域検出装置50は、機能的には、図9に示すように、対象画像取得部116、前処理部117、候補検出部118、劣化辞書119、領域ラベル取得部120、領域特定部121、フィルタリング部122、及び結果出力部123を備えている。
対象画像取得部116は、入力部15により受け付けた複数の対象画像を取得する。
前処理部117は、画像値を特定の範囲の画素値に変換する変換関数を用いて、対象画像の各画素の画素値を変換する。本実施形態では、各々特定の範囲が異なる複数種類の変換関数の各々について、当該変換関数を用いて、対象画像の各画素の画素値を変換することにより、1つの対象画像に対して、コントラスト調整した複数の変換後の対象画像を生成して、候補検出部118に伝送する。
具体的には、前処理部117では、図10のように特定の範囲をさまざまに変えた複数種類の変換関数210を用いて、変換後の対象画像212を複数生成して、それらの画像全てを、候補検出部118に伝送する。ここで、特定の範囲は、学習前処理部103で設定したaの値をそのまま利用し、その値を固定したまま一定の割合で温度が大きくなる方向に特定の範囲をスライドさせつつ、画素値を当該特定の範囲の画素値に変換する変換関数を用いた変換後の対象画像を出力させる。これにより、背景温度の高いところも低いところも劣化を示すシグナルを潰すことなく適切なコントラスト調整が可能となる。
候補検出部118は、取得した複数の対象画像の各々に対し、当該対象画像から得られた変換後の対象画像の各々から、学習装置10により予め学習された識別器を用いて、劣化領域を表す候補領域を検出する。そして、候補検出部118は、当該対象画像から得られた変換後の対象画像の各々から検出された候補領域をOR演算により統合して、当該対象画像における候補領域とし、フィルタリング部122へ伝送する。
劣化辞書119は、学習装置10の劣化辞書106と同一の識別器の重みパラメータを格納している。
領域ラベル取得部120は、取得した複数の対象画像のうちの一部の対象画像について入力部15により教師ラベルとして受け付けた、当該対象画像における探索領域の位置情報を取得し、領域特定部121へ伝送する。
領域特定部121は、教師ラベルを受け付けた一部の対象画像と、教師ラベルとして取得された探索領域の位置情報とに基づいて、取得した複数の対象画像のうちの一部の対象画像でない対象画像の各々に対し、半教師学習処理で探索領域の位置情報を付与する。
具体的には、領域特定部121では、半教師学習手法を用いて複数の対象画像の各々から探索領域を特定する。ここでは、領域ラベル取得部120から伝送された教師ラベルを用いた半教師学習処理によって、教師ラベルを受け付けていない残りの対象画像の各々に対して探索領域の位置情報を自動的に付与する。半教師学習手法としては、例えば、非特許文献1に記載の手法を用いることができるが、従来既知のさまざまな方法を用いることができる。
[非特許文献1]Hoffer, Ailon, “Semi-supervised deep learning by metric embedding” ICLR Workshop, 2017
これにより、対象画像取得部116で入力された全ての対象画像に対して探索領域が特定されることになる(図4)。特定された探索領域を表すマスク画像を別途生成し、フィルタリング部111に伝送する。
フィルタリング部122は、取得した複数の対象画像の各々について、候補検出部118で検出された当該対象画像の候補領域のうち、探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う。
具体的には、フィルタリング部122では、候補検出部118で検出された候補領域の個々の領域に対し、領域特定部121で特定された探索領域がどの程度重複しているかを表す重なり度合を割合として求め、その値があらかじめ定められた閾値よりも大きければその候補領域を“劣化領域”と特定し出力する。具体的には、以下の式に基づいて重なり度合Cを算出する。

(1)
ここで、Sdetect(i,j)は、一つの候補領域について、当該候補領域内の画素(i,j)であればSdetect(i,j)=1、当該候補領域外の画素(i,j)であればSdetect(i,j)=0とする。また、Ssearch(i,j)は、探索領域内の画素(i,j)であればS_search (i,j)=1、探索領域外の画素(i,j)であればSsearch(i,j)=0とする。特定された劣化領域の情報は結果出力部112に伝送される。
結果出力部123は、フィルタリング部122で特定された劣化領域を、表示部16に出力する。具体的には、結果出力部112は、劣化領域として特定された領域を示した画像または該当位置を示す矩形位置データとしてディスプレイに出力する。あるいは、結果出力部123は、フィルタリング部122で特定された劣化領域を、HDD等の記録媒体に出力してもよい。
<本実施形態に係る学習装置の作用>
次に、学習装置10の作用について説明する。図11は、学習装置10による学習処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から学習プログラムを読み出して、RAM13に展開して実行することにより、学習処理が行なわれる。また、学習装置10に、構造物の表面において所定の劣化事象が生じている劣化領域を表す学習用画像と、教師ラベルとして与えられた、学習用画像における劣化領域の位置情報との組が複数入力される。
ステップS201において、CPU11は、学習画像取得部101として、入力部15により受け付けた、構造物の表面において所定の劣化事象が生じている劣化領域を含む複数の学習用画像を取得し、劣化ラベル取得部102及び学習前処理部103へ伝送する。
ステップS202において、CPU11は、劣化ラベル取得部102として、入力部15により教師ラベルとして受け付けた、複数の学習用画像における劣化領域の位置情報を取得する。
ステップS203において、CPU11は、学習前処理部103として、複数の学習用画像における劣化領域の画素値情報に基づいて、画像値を特定の範囲の画素値に変換する変換関数を求める。そして、CPU11は、求めた変換関数を用いて、複数の学習用画像の各画素の画素値を変換する。
ステップS204において、CPU11は、劣化学習部104として、学習前処理部103による変換後の複数の学習用画像と、教師ラベルとして与えられた、複数の学習用画像における劣化領域の位置情報とに基づいて、教師あり学習より、劣化領域を識別するための識別器の重みパラメータを最適化する。
ステップS205において、CPU11は、劣化辞書記録部105として、劣化学習部104で最適化された識別器の重みパラメータを劣化辞書106に記録する。
<本実施形態に係る対象領域検出装置の作用>
次に、本実施形態に係る対象領域検出装置50の作用について説明する。
図12は、対象領域検出装置50による対象領域検出処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から対象領域検出プログラムを読み出して、RAM13に展開して実行することにより、対象領域検出処理が行なわれる。また、対象領域検出装置50に、構造物の表面を表す複数の対象画像が入力される。
ステップS206で、CPU11は、対象画像取得部116として、入力部15により受け付けた複数の対象画像を取得する。
ステップS207で、CPU11は、前処理部117として、対象画像毎に、各々特定の範囲が異なる複数種類の変換関数の各々について、当該変換関数を用いて、対象画像の各画素の画素値を変換する。そして、CPU11は、対象画像毎に、コントラスト調整した複数の変換後の対象画像を生成して、候補検出部118に伝送する。
ステップS208で、CPU11は、候補検出部118として、取得した複数の対象画像の各々に対し、当該対象画像から得られた変換後の対象画像の各々から、学習装置10により予め学習された識別器を用いて、劣化領域を表す候補領域を検出する。そして、CPU11は、当該対象画像から得られた変換後の対象画像の各々から検出された候補領域をOR演算により統合して、当該対象画像における候補領域とし、フィルタリング部122へ伝送する。
ステップS209で、CPU11は、領域ラベル取得部120として、取得した複数の対象画像のうちの一部の対象画像について入力部15により教師ラベルとして受け付けた、当該対象画像における探索領域の位置情報を取得し、領域特定部121へ伝送する。
ステップS210で、CPU11は、領域特定部121として、教師ラベルを受け付けた一部の対象画像と、教師ラベルとして取得された探索領域の位置情報とに基づいて、取得した複数の対象画像のうちの一部の対象画像でない対象画像の各々に対し、半教師学習処理で探索領域の位置情報を付与することにより、探索領域を特定する。
ステップS211で、CPU11は、フィルタリング部122として、取得した複数の対象画像の各々について、候補検出部118で検出された当該対象画像の候補領域のうち、探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う。
ステップS212で、CPU11は、結果出力部123として、フィルタリング部122で特定された劣化領域を、表示部16に出力する。
以上説明したように、本実施形態に係る対象領域検出装置は、複数の対象画像から、識別器を用いて、劣化領域を表す候補領域を検出し、複数の対象画像のうちの一部の対象画像について、対象画像における探索領域の位置情報を教師ラベルとして取得する。対象領域検出装置は、一部の対象画像と、取得された探索領域の位置情報とに基づいて、一部の対象画像でない対象画像の各々に対し、半教師学習処理で探索領域の位置情報を付与する。対象領域検出装置は、取得した複数の対象画像の各々について、検出された候補領域から、探索領域との重なり度合が一定の閾値以上となる候補領域を出力する。これにより、複数の対象画像から、簡易な処理で、劣化領域を検出することができる。
また、浮きサビに代表されるような、背景にある他のノイズよりも明らかにシグナルが弱い上、形状パターンも極めて多様な劣化事象を表す劣化領域を、各種カメラ画像から精度良く自動抽出することができる。
なお、本発明は、上述した実施形態の装置構成及び作用に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、学習装置では手動で画像を切り出して学習用画像を入力する場合を例に記載したが、これに限定されるものではなく、領域特定部121で実施した方法を用いて探索領域を自動的に求め、それに内接する矩形で切り出すアルゴリズムを実装して自動化しても良い。この場合、手動で行っていた学習過程での画像切り出し作業が一部削減できる点でより優れている。
また、検出したい劣化事象の種類が複数種類ある場合でも、それぞれの劣化事象について個別に識別器を構成するか、マルチクラスの識別器を構成することで対応が可能である。
また、学習装置と対象領域検出装置とを別々に構成する場合を例に説明したが、これに限定されるものではなく、学習装置と対象領域検出装置とを一つの装置として構成してもよい。
また、検出対象領域が、構造物の表面における所定の劣化事象が生じている劣化領域である場合を例に説明したが、これに限定されるものではなく、劣化事象以外の事象が生じている領域を、検出対象領域としてもよい。
また、上記実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、学習処理及び対象領域検出処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、学習プログラム及び対象領域検出プログラムがストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
以上の実施形態に関し、更に以下の付記を開示する。
(付記項1)
メモリと、
前記メモリに接続された少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
特定の検出対象領域を検出する対象となる複数の対象画像を取得し、
前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出し、
前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得し、
前記一部の対象画像と、前記取得された前記探索領域の位置情報とに基づいて、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、半教師学習処理で前記探索領域の位置情報を付与し、
前記取得した複数の対象画像の各々について、前記検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う
対象領域検出装置。
(付記項2)
対象領域検出処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時的記憶媒体であって、
前記対象領域検出処理は、
特定の検出対象領域を検出する対象となる複数の対象画像を取得し、
前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出し、
前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得し、
前記一部の対象画像と、前記取得された前記探索領域の位置情報とに基づいて、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、半教師学習処理で前記探索領域の位置情報を付与し、
前記取得した複数の対象画像の各々について、前記検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う
非一時的記憶媒体。
10 学習装置
15 入力部
16 表示部
50 対象領域検出装置
101 学習画像取得部
102 劣化ラベル取得部
103 学習前処理部
104 劣化学習部
105 劣化辞書記録部
106 劣化辞書
111 フィルタリング部
112 結果出力部
116 対象画像取得部
117 前処理部
118 候補検出部
119 劣化辞書
120 領域ラベル取得部
121 領域特定部
122 フィルタリング部
123 結果出力部

Claims (7)

  1. 特定の検出対象領域を検出する対象となる複数の対象画像を取得する対象画像取得部と、
    前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出する候補検出部と、
    前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得する領域ラベル取得部と、
    前記一部の対象画像と、前記領域ラベル取得部によって前記一部の対象画像について前記教師ラベルとして取得された前記探索領域の位置情報とを用いた半教師学習処理によって、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、探索領域の位置情報を特定する領域特定部と、
    前記取得した複数の対象画像の各々について、前記候補検出部で検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行うフィルタリング部と、
    を含む対象領域検出装置。
  2. 画像値を特定の範囲の画素値に変換する変換関数を用いて、前記対象画像の各画素の画素値を変換する前処理部を更に含み、
    前記候補検出部は、前記前処理部によって変換された、前記複数の対象画像の各々について、前記対象画像から、前記識別器を用いて、前記候補領域を検出する請求項1記載の対象領域検出装置。
  3. 前記前処理部は、各々前記特定の範囲が異なる複数種類の前記変換関数の各々について、前記変換関数を用いて、前記対象画像の各画素の画素値を変換し、
    前記候補検出部は、前記前処理部によって複数種類の前記変換関数の各々を用いて変換された前記対象画像の各々から、前記識別器を用いて、前記候補領域を検出し、前記検出された前記候補領域を統合する請求項2記載の対象領域検出装置。
  4. 前記識別器は、前記特定の検出対象領域を含む学習用画像と、教師ラベルとして与えられた、前記学習用画像における前記特定の検出対象領域の位置情報とに基づいて予め学習されたものである請求項1~請求項3の何れか1項記載の対象領域検出装置。
  5. 前記特定の検出対象領域は、構造物の表面における所定の劣化事象を表す劣化領域である請求項1~請求項4の何れか1項記載の対象領域検出装置。
  6. 対象画像取得部が、特定の検出対象領域を検出する対象となる複数の対象画像を取得し、
    候補検出部が、前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出し、
    領域ラベル取得部が、前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得し、
    領域特定部が、前記一部の対象画像と、前記領域ラベル取得部によって前記一部の対象画像について前記教師ラベルとして取得された前記探索領域の位置情報とを用いた半教師学習処理によって、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、探索領域の位置情報を特定し、
    フィルタリング部が、前記取得した複数の対象画像の各々について、前記候補検出部で検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う
    対象領域検出方法。
  7. 特定の検出対象領域を検出する対象となる複数の対象画像を取得し、
    前記取得した複数の対象画像の各々について、前記対象画像から、前記特定の検出対象領域を識別するための予め学習された識別器を用いて、前記特定の検出対象領域を表す候補領域を検出し、
    前記取得した複数の対象画像のうちの一部の対象画像について、前記対象画像における探索領域の位置情報を教師ラベルとして取得し、
    前記一部の対象画像と、前記一部の対象画像について前記教師ラベルとして取得された前記探索領域の位置情報とを用いた半教師学習処理によって、前記取得した複数の対象画像のうちの前記一部の対象画像でない対象画像の各々に対し、探索領域の位置情報を特定し、
    前記取得した複数の対象画像の各々について、前記検出された候補領域から、前記探索領域との重なり度合が一定の閾値以上となる候補領域を出力するフィルタリング処理を行う
    ことをコンピュータに実行させるための対象領域検出プログラム。
JP2022502652A 2020-02-26 2020-02-26 対象領域検出装置、対象領域検出方法、及び対象領域検出プログラム Active JP7315089B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/007657 WO2021171411A1 (ja) 2020-02-26 2020-02-26 対象領域検出装置、対象領域検出方法、及び対象領域検出プログラム

Publications (2)

Publication Number Publication Date
JPWO2021171411A1 JPWO2021171411A1 (ja) 2021-09-02
JP7315089B2 true JP7315089B2 (ja) 2023-07-26

Family

ID=77489983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022502652A Active JP7315089B2 (ja) 2020-02-26 2020-02-26 対象領域検出装置、対象領域検出方法、及び対象領域検出プログラム

Country Status (3)

Country Link
US (1) US20230093034A1 (ja)
JP (1) JP7315089B2 (ja)
WO (1) WO2021171411A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229040A (zh) * 2022-07-15 2023-06-06 深圳市速腾聚创科技有限公司 目标区域的定位方法和目标区域的定位装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001020662A (ja) 1999-07-07 2001-01-23 Fujita Corp 安定性評価方法
CN106780551A (zh) 2016-11-18 2017-05-31 湖南拓视觉信息技术有限公司 一种三维运动目标检测方法和***
JP2017166956A (ja) 2016-03-16 2017-09-21 株式会社Screenホールディングス 欠陥検出装置、欠陥検出方法およびプログラム
WO2018179559A1 (ja) 2017-03-27 2018-10-04 三菱重工業株式会社 航空機用部品の欠陥検出システム及び航空機用部品の欠陥検出方法
JP2019066265A (ja) 2017-09-29 2019-04-25 清水建設株式会社 ひび割れ検出装置、ひび割れ検出方法、および、コンピュータプログラム
JP2019082853A (ja) 2017-10-30 2019-05-30 日立造船株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2019207535A (ja) 2018-05-29 2019-12-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019537839A (ja) 2016-10-14 2019-12-26 ケーエルエー コーポレイション 半導体用途向けに構成された深層学習モデルのための診断システムおよび方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8238635B2 (en) * 2008-03-21 2012-08-07 General Electric Company Method and system for identifying defects in radiographic image data corresponding to a scanned object

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001020662A (ja) 1999-07-07 2001-01-23 Fujita Corp 安定性評価方法
JP2017166956A (ja) 2016-03-16 2017-09-21 株式会社Screenホールディングス 欠陥検出装置、欠陥検出方法およびプログラム
JP2019537839A (ja) 2016-10-14 2019-12-26 ケーエルエー コーポレイション 半導体用途向けに構成された深層学習モデルのための診断システムおよび方法
CN106780551A (zh) 2016-11-18 2017-05-31 湖南拓视觉信息技术有限公司 一种三维运动目标检测方法和***
WO2018179559A1 (ja) 2017-03-27 2018-10-04 三菱重工業株式会社 航空機用部品の欠陥検出システム及び航空機用部品の欠陥検出方法
JP2019066265A (ja) 2017-09-29 2019-04-25 清水建設株式会社 ひび割れ検出装置、ひび割れ検出方法、および、コンピュータプログラム
JP2019082853A (ja) 2017-10-30 2019-05-30 日立造船株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2019207535A (ja) 2018-05-29 2019-12-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20230093034A1 (en) 2023-03-23
WO2021171411A1 (ja) 2021-09-02
JPWO2021171411A1 (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
US11386542B2 (en) Training data creation method and device, and defect inspection method and device
US10699400B2 (en) Image processing apparatus, image processing method, and storage medium
US10510148B2 (en) Systems and methods for block based edgel detection with false edge elimination
EP3239929B1 (en) Image processing apparatus, image processing method and program
JPWO2020031984A1 (ja) 部品の検査方法及び検査システム
US8413493B1 (en) Method for detecting a defect on an operating turbine rotor blade
CN107111872B (zh) 信息处理装置、信息处理方法、及存储介质
JP4232800B2 (ja) ラインノイズ除去装置、ラインノイズ除去方法、ラインノイズ除去プログラム
EP3016383B1 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
JP4821663B2 (ja) 文字ノイズ除去装置、文字ノイズ除去方法、文字ノイズ除去プログラム
CN113781424A (zh) 一种表面缺陷检测方法、装置及设备
JP2008065390A (ja) 文字ノイズ除去装置、文字ノイズ除去方法、文字ノイズ除去プログラム
JP7315089B2 (ja) 対象領域検出装置、対象領域検出方法、及び対象領域検出プログラム
JP2022003495A (ja) 検査装置、ユニット選択装置、検査方法、及び検査プログラム
JPWO2018025336A1 (ja) 劣化検出装置、劣化検出方法、及びプログラム
KR101799143B1 (ko) 타깃 사이즈를 추정하기 위한 시스템 및 방법
EP3309710A1 (en) Human body detection apparatus, control method for human body detection apparatus, and program
US8682081B2 (en) Pattern noise removal device, pattern noise removal method, and pattern noise removal program
CN112580711A (zh) 一种基于风电机组故障识别的视频图像融合方法
Choudhary et al. A novel approach for edge detection for blurry images by using digital image processing
JP6818353B2 (ja) 力計測方法及び力計測装置
JP2007156954A (ja) 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム
Le et al. Statistical detector of resampled tiff images
US9639776B2 (en) Image evaluation device and image evaluation system
JP2005303705A (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7315089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150