JP6773061B2 - 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体 - Google Patents

評価システム、評価装置、評価方法、評価プログラム、及び記録媒体 Download PDF

Info

Publication number
JP6773061B2
JP6773061B2 JP2018026097A JP2018026097A JP6773061B2 JP 6773061 B2 JP6773061 B2 JP 6773061B2 JP 2018026097 A JP2018026097 A JP 2018026097A JP 2018026097 A JP2018026097 A JP 2018026097A JP 6773061 B2 JP6773061 B2 JP 6773061B2
Authority
JP
Japan
Prior art keywords
evaluation
image
region
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018026097A
Other languages
English (en)
Other versions
JP2019141927A (ja
Inventor
可也 中野
可也 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Original Assignee
Sintokogio Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd filed Critical Sintokogio Ltd
Priority to JP2018026097A priority Critical patent/JP6773061B2/ja
Priority to CN201880089071.XA priority patent/CN111712352B/zh
Priority to US16/968,680 priority patent/US11941796B2/en
Priority to PCT/JP2018/037250 priority patent/WO2019159424A1/ja
Priority to DE112018005573.6T priority patent/DE112018005573T5/de
Priority to TW107138631A priority patent/TW201935415A/zh
Publication of JP2019141927A publication Critical patent/JP2019141927A/ja
Application granted granted Critical
Publication of JP6773061B2 publication Critical patent/JP6773061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B24GRINDING; POLISHING
    • B24CABRASIVE OR RELATED BLASTING WITH PARTICULATE MATERIAL
    • B24C1/00Methods for use of abrasive blasting for producing particular effects; Use of auxiliary equipment in connection with such methods
    • B24C1/10Methods for use of abrasive blasting for producing particular effects; Use of auxiliary equipment in connection with such methods for compacting surfaces, e.g. shot-peening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30156Vehicle coating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Description

本発明は、評価システム、評価装置、評価方法、評価プログラム、及び記録媒体に関する。
機械部品等の強度を向上させるために、機械部品等の表面にショットピーニング処理が施されることがある。このようなショットピーニング処理の仕上げの程度を評価するカバレージ測定装置が知られている。例えば、特許文献1には、加工面を撮影した画像に基づいて、カバレージを算出し、カバレージを表示するカバレージ測定装置が開示されている。
特開2011−152603号公報
ショットピーニングには、様々な大きさの投射材が用いられ得る。このため、加工面に形成される打痕の大きさは、投射材の大きさに応じて変化する。しかしながら、異なる大きさの投射材に対して、同じ面積の表面を評価対象とすると、投射材の大きさがカバレージの評価に影響を及ぼすおそれがある。例えば、投射材の大きさに対して、評価対象の表面が十分な面積を有しない場合には、1つの打痕がカバレージに与える影響が大きくなり、対象物に対する全体的(平均的)なカバレージを評価できないおそれがある。
本技術分野では、カバレージの評価精度を向上させることが望まれている。
本発明の一側面に係る評価システムは、評価対象物の撮像画像を用いて、評価対象物のカバレージの評価を行うシステムである。この評価システムは、撮像画像を取得する画像取得部と、撮像画像を補正することで評価用画像を生成する補正部と、評価用画像に基づいて評価を行う評価部と、評価部による評価結果を出力する出力部と、を備える。補正部は、撮像画像に含まれる打痕領域の大きさに基づいて、撮像画像から評価領域を抽出し、評価領域に基づいて評価用画像を生成する。打痕領域は、評価対象物に生じている打痕の画像である。
本発明の別の側面に係る評価装置は、評価対象物の撮像画像を用いて、評価対象物のカバレージの評価を行う装置である。この評価装置は、撮像画像を取得する画像取得部と、撮像画像を補正することで評価用画像を生成する補正部と、評価用画像に基づいて評価を行う評価部と、評価部による評価結果を出力する出力部と、を備える。補正部は、撮像画像に含まれる打痕領域の大きさに基づいて、撮像画像から評価領域を抽出し、評価領域に基づいて評価用画像を生成する。打痕領域は、評価対象物に生じている打痕の画像である。
本発明のさらに別の側面に係る評価方法は、評価対象物の撮像画像を用いて、評価対象物のカバレージの評価を行う方法である。この評価方法は、撮像画像を取得するステップと、撮像画像を補正することで評価用画像を生成するステップと、評価用画像に基づいて評価を行うステップと、評価を行うステップにおける評価結果を出力するステップと、を備える。評価用画像を生成するステップでは、撮像画像に含まれる打痕領域の大きさに基づいて、撮像画像から評価領域が抽出され、評価領域に基づいて評価用画像が生成される。打痕領域は、評価対象物に生じている打痕の画像である。
本発明のさらに別の側面に係る評価プログラムは、コンピュータに、評価対象物の撮像画像を取得するステップと、撮像画像を補正することで評価用画像を生成するステップと、評価用画像に基づいて、評価対象物のカバレージの評価を行うステップと、評価を行うステップにおける評価結果を出力するステップと、を実行させるためのプログラムである。評価用画像を生成するステップでは、撮像画像に含まれる打痕領域の大きさに基づいて、撮像画像から評価領域が抽出され、評価領域に基づいて評価用画像が生成される。打痕領域は、評価対象物に生じている打痕の画像である。
本発明のさらに別の側面に係る記録媒体は、コンピュータに、評価対象物の撮像画像を取得するステップと、撮像画像を補正することで評価用画像を生成するステップと、評価用画像に基づいて、評価対象物のカバレージの評価を行うステップと、評価を行うステップにおける評価結果を出力するステップと、を実行させるための評価プログラムを記録したコンピュータ読み取り可能な記録媒体である。評価用画像を生成するステップでは、撮像画像に含まれる打痕領域の大きさに基づいて、撮像画像から評価領域が抽出され、評価領域に基づいて評価用画像が生成される。打痕領域は、評価対象物に生じている打痕の画像である。
これらの評価システム、評価装置、評価方法、評価プログラム、及び記録媒体では、評価対象物の撮像画像から評価領域が抽出され、評価領域に基づいて評価用画像が生成される。そして、評価用画像に基づいてカバレージの評価が行われ、評価結果が出力される。評価領域は、評価対象物に生じている打痕の画像である打痕領域の大きさに基づいて撮像画像から抽出される。このため、例えば、打痕領域が大きい場合には、評価領域の面積が大きくなるように評価領域が抽出され得る。これにより、打痕領域の大きさに応じた範囲を対象として、カバレージの評価が行われる。その結果、カバレージの評価精度を向上させることが可能となる。
補正部は、打痕領域の大きさが大きいほど、評価領域が大きくなるように、撮像画像から評価領域を抽出してもよい。この場合、打痕の大きさによるカバレージの誤差を低減できる。その結果、カバレージの評価精度をさらに向上させることが可能となる。
補正部は、打痕領域の大きさに予め定められた定数を乗算することで、評価領域の大きさを設定し、撮像画像から評価領域を抽出してもよい。この場合、打痕領域の大きさに対して、評価対象の範囲(面積)を十分に大きくできるので、1つの打痕がカバレージに与える影響を低減することが可能となる。その結果、カバレージの評価精度をさらに向上させることが可能となる。
補正部は、打痕領域の大きさを所定の大きさに合わせるように、評価領域を拡大又は縮小してもよい。この場合、ニューラルネットワークによる評価を適切に行うことができる。
補正部は、撮像画像に含まれる参照領域の色に基づいて、評価領域の色を補正してもよい。参照領域は、特定の色が付された参照体の画像であってもよい。同じ評価対象物であっても、撮影に用いられた光源の色調によって、撮像画像の色調が変わることがある。また、同じ評価対象物であっても、光の照射量によって、撮像画像の明るさが異なることがある。上記構成では、参照領域の色が特定の色と異なっている場合、撮像画像における色が光の影響を受けていると考えられる。そこで、例えば、参照領域の色が特定の色(元の色)になるように、評価領域の色の補正を行うことで、光の影響を低減することができる。これにより、カバレージの評価精度をさらに向上させることが可能となる。
補正部は、評価領域から鏡面反射を除去してもよい。評価対象物に強い光が照射されると鏡面反射が生じることがあり、その状態で評価対象物が撮像されると撮像画像に白飛びが生じることがある。白飛びが生じている領域では、色情報が失われている。このため、鏡面反射(白飛び)を除去することで、色情報が復元され得る。これにより、カバレージの評価精度をさらに向上させることが可能となる。
評価部は、ニューラルネットワークを用いて評価を行ってもよい。この場合、ニューラルネットワークを学習させることによって、カバレージの評価精度をさらに向上させることが可能となる。
本発明の各側面及び各実施形態によれば、カバレージの評価精度を向上させることができる。
図1は、第1実施形態に係る評価装置を含む評価システムを概略的に示す構成図である。 図2は、図1に示されるユーザ端末のハードウェア構成図である。 図3は、図1に示される評価装置のハードウェア構成図である。 図4は、図1に示される評価システムが行う評価方法を示すシーケンス図である。 図5は、図4に示される補正処理を詳細に示すフローチャートである。 図6の(a)〜(f)は、マーカの例を示す図である。 図7は、歪み補正を説明するための図である。 図8の(a)及び(b)は、評価領域の抽出を説明するための図である。 図9の(a)及び(b)は、色補正を説明するための図である。 図10は、ニューラルネットワークの一例を示す図である。 図11は、評価結果の一例を示す図である。 図12の(a)及び(b)は、評価結果の表示例を示す図である。 図13の(a)及び(b)は、評価結果の修正例を示す図である。 図14は、第2実施形態に係る評価装置を含む評価システムを概略的に示す構成図である。 図15は、図14に示される評価システムが行う評価方法を示すシーケンス図である。 図16は、第3実施形態に係る評価装置を含む評価システムを概略的に示す構成図である。 図17は、図16に示される評価システムが行う評価方法を示すフローチャートである。 図18の(a)〜(d)は、マーカの変形例を示す図である。 図19は、評価領域の抽出方法の変形例を説明するための図である。 図20は、評価領域の抽出方法の変形例を説明するための図である。
以下、図面を参照しながら本発明の実施形態が詳細に説明される。なお、図面の説明において同一要素には同一符号が付され、重複する説明は省略される。
(第1実施形態)
図1は、第1実施形態に係る評価装置を含む評価システムを概略的に示す構成図である。図1に示される評価システム1は、評価対象物のカバレージの評価を行うシステムである。評価対象物の例としては、アルメンストリップ、ギア、及びバネが挙げられる。カバレージは、測定の対象となる全表面積に対してショットによって打痕が発生した面積の割合である。
評価システム1は、1又は複数のユーザ端末10と、評価装置20と、を備えている。ユーザ端末10と、評価装置20とは、ネットワークNWによって互いに通信可能に接続されている。ネットワークNWは、有線及び無線のいずれで構成されてもよい。ネットワークNWの例としては、インターネット、移動体通信網、及びWAN(Wide Area Network)が挙げられる。
ユーザ端末10は、ユーザにより用いられる端末装置である。ユーザ端末10は、評価対象物を撮像することによって評価対象物の撮像画像を生成し、撮像画像を評価装置20に送信する。ユーザ端末10は、評価装置20から評価結果を受信し、評価結果をユーザに出力する。ユーザ端末10は、撮像装置を内蔵した携帯端末に適用されてもよく、撮像装置と通信可能な装置に適用されてもよい。本実施形態では、撮像装置を内蔵した携帯端末を用いて説明する。携帯端末の例としては、スマートフォン、タブレット端末、及びノートPC(Personal Computer)が挙げられる。
図2は、図1に示されるユーザ端末のハードウェア構成図である。図2に示されるように、ユーザ端末10は、物理的には、1又は複数のプロセッサ101、主記憶装置102、補助記憶装置103、通信装置104、入力装置105、出力装置106、及び撮像装置107等のハードウェアを備えるコンピュータとして構成され得る。プロセッサ101としては、処理速度が速いプロセッサが用いられる。プロセッサ101の例としては、GPU(Graphics Processing Unit)及びCPU(Central Processing Unit)が挙げられる。主記憶装置102は、RAM(Random Access Memory)及びROM(Read Only Memory)等で構成される。補助記憶装置103の例としては、半導体メモリ、及びハードディスク装置が挙げられる。
通信装置104は、ネットワークNWを介して他の装置とデータの送受信を行う装置である。通信装置104の例としては、ネットワークカードが挙げられる。ネットワークNWを介したデータの送受信には、暗号化が用いられてもよい。つまり、通信装置104は、データを暗号化し、暗号化されたデータを他の装置に送信してもよい。通信装置104は、暗号化されたデータを他の装置から受信し、暗号化されたデータを復号してもよい。暗号化には、トリプルDES(Data Encryption Standard)及びRijndael等の共通鍵暗号方式、又はRSA及びElGamal等の公開鍵暗号方式が用いられ得る。
入力装置105は、ユーザがユーザ端末10の操作を行う際に用いられる装置である。入力装置105の例としては、タッチパネル、キーボード、及びマウスが挙げられる。出力装置106は、各種情報をユーザ端末10のユーザに出力する装置である。出力装置106の例としては、ディスプレイ、スピーカ、及びバイブレータが挙げられる。
撮像装置107は、撮像(画像化)するための装置である。撮像装置107は、例えば、カメラモジュールである。具体的には、撮像装置107は、レンズ及び撮像素子等の複数の光学系の部品と、それらを駆動制御する複数の制御系の回路と、撮像素子によって生成された撮像画像を表す電気信号をデジタル信号である画像信号に変換する信号処理系の回路部と、を含む。
ユーザ端末10の図1に示される各機能は、主記憶装置102等のハードウェアに1又は複数の所定のコンピュータプログラムを読み込ませることにより、1又は複数のプロセッサ101の制御のもとで各ハードウェアを動作させるとともに、主記憶装置102及び補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。
ユーザ端末10は、機能的には、画像取得部11と、補正部13と、送信部14と、受信部15と、出力部16と、修正情報取得部17と、を備えている。
画像取得部11は、評価対象物を含む撮像画像を取得するための部分である。画像取得部11は、例えば、撮像装置107によって実現される。撮像画像は、静止画像であってもよく、動画像であってもよい。撮像画像は、例えば、各画素(ピクセル)の画素値を示す画像データとして取得されるが、説明の便宜上、撮像画像として表現する。ユーザ端末10が撮像装置107を有しない場合、画像取得部11は、例えば、他の装置(例えばカメラ機能を有する端末等)によって撮像された撮像画像を当該他の装置から受け取ることにより、撮像画像を取得する。例えば、画像取得部11が他の装置からネットワークNWを介して撮像画像を受信する場合、撮像画像の受信処理を行う部分(図2の通信装置104等)が画像取得部11として機能する。画像取得部11は、撮像画像を補正部13に出力する。
補正部13は、撮像画像を補正することで評価用画像を生成するための部分である。補正部13は、撮像画像から評価領域を抽出し、評価領域に基づいて評価用画像を生成する。評価領域は、撮像画像に含まれる打痕の画像である打痕領域の大きさに応じて定められる。補正部13は、例えば、撮像画像に対して、サイズ補正、歪み補正、色補正、鏡面反射除去、ノイズ除去、及びブレ補正を行う。各補正処理の詳細については、後述する。補正部13は、評価用画像を送信部14に出力する。
送信部14は、評価用画像を評価装置20に送信するための部分である。送信部14は、ネットワークNWを介して評価用画像を評価装置20に送信する。送信部14は、さらに、修正情報取得部17によって取得される修正情報を評価装置20に送信する。送信部14は、例えば、通信装置104によって実現される。受信部15は、評価装置20から評価結果を受信するための部分である。受信部15は、ネットワークNWを介して評価結果を評価装置20から受信する。受信部15は、例えば、通信装置104によって実現される。
出力部16は、評価結果を出力するための部分である。出力部16は、例えば、出力装置106によって実現される。他の装置が有するディスプレイ等の出力装置において評価結果を出力する場合、出力部16は、例えば、ネットワークNWを介して評価結果を他の装置に送信する。この場合、評価結果の送信処理を行う部分(図2の通信装置104等)が出力部16として機能する。
修正情報取得部17は、評価結果の修正情報を取得するための部分である。例えば、ユーザは、出力部16によって出力された評価結果を確認した後、入力装置105を用いて評価結果を修正する場合がある。このとき、修正情報取得部17は、修正された評価結果を修正情報として取得する。修正情報取得部17は、修正情報を送信部14に出力する。
評価装置20は、評価対象物の撮像画像(評価用画像)を用いて、評価対象物のカバレージの評価を行う装置である。評価装置20は、例えば、コンピュータ等の情報処理装置(サーバ装置)によって構成される。
図3は、図1に示される評価装置のハードウェア構成図である。図3に示されるように、評価装置20は、物理的には、1又は複数のプロセッサ201、主記憶装置202、補助記憶装置203、及び通信装置204等のハードウェアを備えるコンピュータとして構成され得る。プロセッサ201としては、処理速度が速いプロセッサが用いられる。プロセッサ201の例としては、GPU及びCPUが挙げられる。主記憶装置202は、RAM及びROM等で構成される。補助記憶装置203の例としては、半導体メモリ、及びハードディスク装置が挙げられる。
通信装置204は、ネットワークNWを介して他の装置とデータの送受信を行う装置である。通信装置204の例としては、ネットワークカードが挙げられる。ネットワークNWを介したデータの送受信には、暗号化が用いられてもよい。つまり、通信装置204は、データを暗号化し、暗号化されたデータを他の装置に送信してもよい。通信装置204は、暗号化されたデータを他の装置から受信し、暗号化されたデータを復号してもよい。暗号化には、トリプルDES及びRijndael等の共通鍵暗号方式、又はRSA及びElGamal等の公開鍵暗号方式が用いられ得る。
なお、通信装置204は、ユーザ端末10のユーザが正規ユーザか非正規ユーザかを判定するユーザ認証を実施してもよい。この場合、評価装置20は、ユーザが正規ユーザである場合にカバレージの評価を行い、ユーザが非正規ユーザである場合にはカバレージの評価を行わなくてもよい。ユーザ認証には、例えば、予め登録されたユーザID(identifier)及びパスワードが用いられる。ユーザ認証には、ワンタイムパッド(ワンタイムパスワード)が用いられてもよい。
評価装置20の図1に示される各機能は、主記憶装置202等のハードウェアに1又は複数の所定のコンピュータプログラムを読み込ませることにより、1又は複数のプロセッサ201の制御のもとで各ハードウェアを動作させるとともに、主記憶装置202及び補助記憶装置203におけるデータの読み出し及び書き込みを行うことで実現される。
評価装置20は、機能的には、受信部21と、評価部22と、送信部23と、を備えている。
受信部21は、ユーザ端末10から評価用画像を受信するための部分である。受信部21は、ネットワークNWを介して評価用画像をユーザ端末10から受信する。受信部21は、さらに、ユーザ端末10から修正情報を受信する。受信部21は、例えば、通信装置204によって実現される。受信部21は、評価用画像及び修正情報を評価部22に出力する。
評価部22は、評価用画像に基づいて評価対象物のカバレージの評価を行うための部分である。評価部22は、ニューラルネットワークを用いて、評価対象物のカバレージの評価を行う。ニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)でもよく、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)でもよい。評価部22は、評価結果を送信部23に出力する。
送信部23は、ユーザ端末10に評価結果を送信するための部分である。送信部23は、ネットワークNWを介して評価結果をユーザ端末10に送信する。送信部23は、例えば、通信装置204によって実現される。なお、送信部23は、評価結果をユーザ端末10に出力(送信)しているので、出力部とみなされ得る。
次に、図4〜図13の(b)を参照して、評価システム1が行う評価方法を説明する。図4は、図1に示される評価システムが行う評価方法を示すシーケンス図である。図5は、図4に示される補正処理を詳細に示すフローチャートである。図6の(a)〜(f)は、マーカの例を示す図である。図7は、歪み補正を説明するための図である。図8の(a)及び(b)は、評価領域の抽出を説明するための図である。図9の(a)及び(b)は、色補正を説明するための図である。図10は、ニューラルネットワークの一例を示す図である。図11は、評価結果の一例を示す図である。図12の(a)及び(b)は、評価結果の表示例を示す図である。図13の(a)及び(b)は、評価結果の修正例を示す図である。
図4に示される評価方法の一連の処理は、例えば、ユーザ端末10のユーザが撮像装置107を用いて評価対象物を撮影することを契機として開始される。まず、画像取得部11が評価対象物の撮像画像を取得する(ステップS01)。例えば、画像取得部11は、撮像装置107によって生成された評価対象物の画像を撮像画像として取得する。そして、画像取得部11は、取得した撮像画像を補正部13に出力する。
なお、評価対象物の撮像画像を取得する前に、評価対象物にマーカMKが付されてもよい。マーカMKは、後述の画像処理において、撮像画像を補正するために用いられる。マーカMKは、マーカMKの向きを特定可能な形状を有する。マーカMKは、上下方向及び幅方向の少なくともいずれかにおいて非対称である。具体的には、図6の(a)〜(f)に示されるように、マーカMKは、白色が付された領域Rwと黒色が付された領域Rbとを含む。後述の画像処理を容易化するために、マーカMKは、四角形の縁F1を有している。縁F1は、領域Rbの縁である。図6の(b)〜(f)に示されるように、マーカMKは、枠F2によって囲まれ、枠F2と領域Rbとの間には、間隙Rgapが設けられてもよい。
マーカMKは、シート状部材に描かれる。例えば、ユーザ端末10のユーザが、マーカMKを含むシート状部材を評価対象物に直接張り付ける。ユーザは、UAV(Unmanned Aerial Vehicle)又は伸縮棒等を用いて、マーカMKを含むシート状部材を評価対象物に張り付けてもよい。
なお、マーカMKは、互いに異なる色が付された2以上の領域から構成されていればよい。例えば、領域Rwに付される色は、白色でなくてもよく、灰色等であってもよい。領域Rbに付される色は、黒色でなくてもよく、彩度を有する色でもよい。本実施形態では、図6の(a)に示されるマーカMKが用いられる。
続いて、補正部13は、撮像画像を補正する(ステップS02)。図5に示されるように、ステップS02の補正処理では、まず、補正部13は、撮像画像の歪みを補正するために歪み補正を行う(ステップS21)。評価対象物を正面から撮影した画像と比較して、撮像画像が歪むことがある。例えば、撮像装置107がデプスカメラである場合、撮像装置107と評価対象物の各位置との距離が得られる。この場合、補正部13は、撮像装置107と評価対象物の各位置との距離に基づいて、撮像画像を正面から撮影した画像に変換することで歪み補正を行う。補正部13は、評価対象物がバネ等の局面を有する構造物である場合、歪み補正として局面補正をさらに行ってもよい。
補正部13は、マーカMKを用いて歪み補正を行ってもよい。マーカMKが付された評価対象物の撮像画像は、マーカMKの画像(画像領域)であるマーカ領域Rmを含む。この場合、まず、補正部13は、撮像画像からマーカ領域Rmを抽出する。補正部13は、例えば、撮像画像に対して物体検出処理又はエッジ検出処理を行うことで、マーカ領域Rmを抽出する。マーカMKが簡易な形状を有する場合には、物体検出処理よりもエッジ検出処理の方が、検出精度が高く、処理速度が速いことがあるので、エッジ検出処理が用いられてもよい。
そして、補正部13は、抽出されたマーカ領域RmがマーカMKの画像であるか否かを確認する。補正部13は、例えば、マーカ領域Rmに対してヒストグラムの平均化処理を行った後に、マーカ領域Rmに対して二値化処理を行う。そして、補正部13は、二値化されたマーカ領域RmとマーカMKとを比較して、両者が一致する場合にマーカ領域RmがマーカMKの画像であると判定する。これにより、撮像画像におけるマーカMKの頂点座標が取得される。補正部13は、両者が一致しない場合にマーカ領域RmがマーカMKの画像でないと判定し、マーカ領域Rmの抽出を再度行う。
そして、補正部13は、マーカ領域Rmを用いて撮像画像におけるマーカMKの向きを計算する。マーカMKは、上下方向及び幅方向の少なくともいずれかにおいて非対称であるので、撮像画像におけるマーカMKの向きが計算され得る。そして、図7に示されるように、補正部13は、撮像画像におけるマーカMKの頂点座標及び向きから、本来のマーカMKの形状が復元されるように、撮像画像を射影変換することで、撮像画像を正面から撮影した画像に変換する。具体的には、補正部13は、頂点Pm1を原点とし、頂点Pm1から頂点Pm2に向かう方向をX1軸方向とし、頂点Pm1から頂点Pm4に向かう方向をY1軸方向とする。そして、補正部13は、X1−Y1座標系をX−Y直交座標系に変換することで、マーカMKの形状を復元する。これにより、歪み補正が行われる。
続いて、補正部13は、撮像画像から評価領域Reを抽出する(ステップS22)。1回のショットピーニングは、投射材の大きさを揃えて行われるので、打痕の大きさは同程度となる。しかし、ショットピーニングに用いられる投射材の種類には、例えば、0.1mm〜1mm程度の直径(粒径)を有する投射材がある。このため、一のショットピーニングで用いられる投射材の大きさは、別のショットピーニングで用いられる投射材の大きさと異なる場合がある。これらの投射材に対して同じ面積でカバレージを評価した場合、1つの打痕がカバレージの評価に与える影響が投射材の大きさ(直径)に応じて異なる。そこで、図8の(a)及び(b)に示されるように、補正部13は、撮像画像Gに含まれる打痕領域Deの大きさに基づいて、撮像画像Gから評価領域Reを抽出し、評価領域Reに基づいて評価用画像を生成する。打痕領域Deは、評価対象物に生じている打痕の画像である。
打痕領域Deの大きさには、例えば、撮像画像Gに含まれる複数の打痕領域Deの平均サイズ(例えば、平均直径)が用いられる。補正部13は、例えば、物体検出によって、撮像画像Gに含まれる複数の打痕領域Deを検出する。そして、補正部13は、撮像画像Gに含まれる複数の打痕領域Deの平均サイズ(例えば、平均直径)を計算し、打痕領域Deの平均サイズが大きいほど、評価領域Reが大きくなるように、撮像画像Gから評価領域Reを抽出する。具体的には、補正部13は、打痕領域Deの平均サイズ(平均直径)に予め定められた倍率(例えば、5〜10倍)を乗算することで、評価領域Reの大きさを設定する。例えば、補正部13は、乗算結果を一辺の長さとする正方形の領域を評価領域Reとして撮像画像から抽出する。
続いて、補正部13は、評価領域Reのサイズを補正する(ステップS23)。評価領域Reの大きさは、打痕領域Deの大きさに応じて変化し得る。このため、サイズ補正では、補正部13は、打痕領域Deの大きさを所定の大きさ(基準粒径)に合わせるように、評価領域Reの伸縮処理を行う。これにより、評価領域Reのサイズは、所定の評価サイズに合わせられる。評価サイズは、ニューラルネットワークNNの学習に用いられる基準画像(教師データ)のサイズである。
伸縮処理では、まず、補正部13は、打痕領域Deの大きさ(平均直径)と基準粒径とを比較し、拡大処理及び縮小処理のいずれを行うかを決定する。補正部13は、打痕領域Deの平均直径が基準粒径よりも小さい場合には、拡大処理を行い、打痕領域Deの平均直径が基準粒径よりも大きい場合には、縮小処理を行う。つまり、補正部13は、評価領域Reを拡大又は縮小することで、評価用画像のサイズを評価サイズに合わせる。拡大処理には、例えば、バイリニア補間法が用いられる。縮小処理には、例えば、平均画素法が用いられる。拡大処理及び縮小処理には、他の伸縮アルゴリズムが用いられてもよいが、伸縮処理を行っても画像の状態が保たれることが望ましい。
続いて、補正部13は、評価領域Reの色補正を行う(ステップS24)。同じ評価対象物であっても、撮影環境に応じて、画像の明暗が変化し得る。また、撮影に用いられた光源の色が異なると、画像の色も異なり得る。撮影環境の影響を低減するために、色補正が行われる。補正部13は、撮像画像に含まれる参照領域の色に基づいて、評価領域Reの色を補正する。参照領域は、特定の色が付された参照体の画像(画像領域)である。
図9の(a)に示されるように、参照体としては、マーカMKの領域Rwが用いられ得る。この場合、マーカMKの領域Rwの色がカラーメータ等で予め測定され、測定された色を示す基準値が不図示のメモリに記憶されている。色を示す値としては、RGB値及びHSV値等が用いられる。図9の(b)に示されるように、補正部13は、撮像画像(評価領域Re)に含まれるマーカ領域Rmにおける領域Rwの色の値を取得し、取得した値と基準値とを比較して、これらの差分が小さく(例えば、ゼロに)なるように色補正を行う。色補正には、ガンマ補正等が用いられる。色補正として、各画素値に差分が加えられてもよい(オフセット処理)。
参照体としてマーカMKが用いられなくてもよい。この場合、予め色の測定が行われている試料(例えば、グレーボード)を参照体として、評価対象物とともに撮影することで、マーカMKを用いる場合と同様に評価領域Reの色補正が行われてもよい。補正部13は、灰色仮説に基づいて色補正を行ってもよい。
続いて、補正部13は、評価領域Reから鏡面反射を除去する(ステップS25)。鏡面反射は、評価対象物が金属光沢を有する場合に引き起こされることがある。評価対象物の塗膜の状態によっても、鏡面反射が引き起こされることがある。画像では、鏡面反射を引き起こした部分は通常強い白色として現れる。つまり、鏡面反射を起こした部分は画像において白飛びを生じてしまう。色補正後には、鏡面反射を起こした部分は、白色部分として検出され得るので、補正部13は、色補正後の画像(評価領域Re)を用いて鏡面反射の除去を行う。
そこで、補正部13は、評価領域Reに含まれる各画素の画素値に基づいて鏡面反射部分を特定する。例えば、補正部13は、RGBの画素値がいずれも所定の閾値よりも大きい場合に当該画素は鏡面反射部分の一部であると判定する。補正部13は、画素値をHSVに変換し、明るさ(V)、又は明るさ(V)及び彩度(S)の両方に対して同様の閾値処理をすることで鏡面反射部分を特定してもよい。
そして、補正部13は、鏡面反射部分から鏡面反射を除去し、元の画像情報(画素値)を復元する。補正部13は、例えば、ナビエ・ストークスを用いた方法、及びAlexandru Teleaのファストマーチング方法等により、鏡面反射部分の近傍の画像情報で鏡面反射部分の画像情報を自動補間(復元)する。補正部13は、機械学習により、様々なカバレージの値を有する画像を予め学習しておくことで、鏡面反射部分の画像情報を復元してもよい。機械学習には、例えば、GAN(Generative Adversarial Network)が用いられる。なお、補正部13は、鏡面反射部分の外縁を拡張した領域(つまり、鏡面反射部分を含み、鏡面反射部分よりも大きい領域)に対して画像情報の復元を行ってもよい。
続いて、補正部13は、評価領域Reからノイズを除去する(ステップS26)。補正部13は、例えば、ガウシアンフィルタ、及びローパスフィルタ等のデノイズフィルタ(デノイズ関数)を用いて、評価領域Reからノイズを除去する。
続いて、補正部13は、評価領域Reのブレ補正を行う(ステップS27)。ユーザがユーザ端末10を用いて撮影を行う際に、手振れ等のブレが生じることがある。補正部13は、例えば、Wienerフィルタ、及びブラインドデコンボリューションアルゴリズムを用いて画像のブレ補正を行う。
なお、図5の補正処理は、一例であって、補正部13が行う補正処理はこれに限られない。ステップS21,S23〜S27の一部又は全部は省略されてもよい。ステップS21〜S27は、任意の順番で行われてもよい。上述のように、色補正の後に鏡面反射除去を行う場合、画像において鏡面反射部分は強い白色として現れるので、鏡面反射部分の特定精度が向上する。
また、図7に示されるように、補正部13は、マス目状に並んだ複数のブロックによってマーカ領域Rmが構成されているとみなし、マーカ領域Rm(マーカMK)の4頂点の座標を用いて、各ブロックの頂点座標を求めてもよい。これにより、補正部13は、マーカ領域Rmを複数のブロックに分割して取り扱うことができる。例えば、補正部13は、各ブロックを用いて、マーカ領域RmがマーカMKの画像であるか否かを判定する。また、補正部13は、いずれかのブロックを、色補正に用いられる参照領域としてもよい。さらに、補正部13は、各ブロックの座標から撮像画像の歪み具合を算出し、撮像装置107のキャリブレーションを行ってもよい。
続いて、補正部13は、ステップS02の補正処理によって補正された撮像画像を評価用画像として送信部14に出力し、送信部14は、ネットワークNWを介して評価用画像を評価装置20に送信する(ステップS03)。このとき、送信部14は、ユーザ端末10を一意に識別可能な端末IDとともに、評価用画像を評価装置20に送信する。端末IDとして、例えば、IP(Internet Protocol)アドレスが用いられてもよい。そして、受信部21は、ユーザ端末10から送信された評価用画像を受信し、評価用画像を評価部22に出力する。なお、補正部13は、評価用画像の鮮明さが不足する場合には、評価用画像を送信部14に出力しなくてもよい。また、送信部14は、上述のように、評価用画像を暗号化し、暗号化された評価用画像を評価装置20に送信してもよい。この場合、受信部21は、暗号化された評価用画像をユーザ端末10から受信し、暗号化された評価用画像を復号して、評価部22に出力する。
続いて、評価部22は、評価用画像に基づいて、評価対象物のカバレージの評価を行う(ステップS04)。この例では、評価部22は、図10に示されるニューラルネットワークNNを用いて、評価対象物のカバレージを評価する。なお、評価部22は、評価用画像を受け取ると、評価用画像を一意に識別可能な画像IDを評価用画像に付与する。
ニューラルネットワークNNは、評価用画像を入力し、各カテゴリの適合率を出力する。カテゴリとしては、カバレージを所定の割合単位に纏めた値が用いられ得る。例えば、カバレージがパーセントで表記される場合、0〜98%までを10%単位でカテゴリが設定される。なお、カバレージに関する規格としては、JIS B2711、及びSAE J2277が挙げられる。一例として、SAE J2277では、カバレージを測定することが可能な上限値を、98%(フルカバレージ)としている。カテゴリは、10%単位に限られず、5%単位で設定されてもよいし、1%単位で設定されてもよい。
図11に示されるように、本実施形態では、カテゴリとして、カバレージを0〜98%まで10%単位で纏めた値が用いられる。この例では、説明の便宜上、カテゴリ「100%」が用いられている。適合率は、評価対象物のカバレージがそのカテゴリに属する確率を表している。適合率が大きいほど、評価対象物のカバレージがそのカテゴリに属する可能性が高いことを意味する。
評価部22は、評価用画像を1又は複数のチャネルに分離して、各チャネルの画像情報(画素値)をニューラルネットワークNNの入力としてもよい。評価部22は、例えば、評価用画像を色空間の各成分に分離する。色空間としてRGB色空間が用いられる場合には、評価部22は、評価用画像をR成分の画素値、G成分の画素値、及びB成分の画素値に分離する。色空間としてHSV色空間が用いられる場合には、評価部22は、評価用画像をH成分の画素値、S成分の画素値、及びV成分の画素値に分離する。評価部22は、評価用画像をグレースケールに変換し、変換した画像をニューラルネットワークNNの入力としてもよい。
図10に示されるように、ニューラルネットワークNNは、入力層L1と、中間層L2と、出力層L3と、を有する。入力層L1は、ニューラルネットワークNNの入口に位置し、入力層L1には、M個の入力値x(iは1〜Mの整数)が入力される。入力層L1は、複数のニューロン41を有する。ニューロン41は、入力値xに対応して設けられており、ニューロン41の数は、入力値xの総数Mと等しい。つまり、ニューロン41の数は、評価用画像の各チャネルに含まれる画素数の総和と等しい。i番目のニューロン41は、入力値xを、中間層L2の第1中間層L21の各ニューロン421に出力する。入力層L1は、ノード41bを含む。ノード41bは、各ニューロン421にバイアス値b(jは1〜M1の整数)を出力する。
中間層L2は、入力層L1と出力層L3との間に位置する。中間層L2は、ニューラルネットワークNNの外部から隠れているので隠れ層とも呼ばれる。中間層L2は、1又は複数の層を含む。図10に示される例では、中間層L2は、第1中間層L21と第2中間層L22とを含む。第1中間層L21は、M1個のニューロン421を有する。このとき、j番目のニューロン421は、式(1)に示されるように、各入力値xを重み係数wijによって重み付けした値の総和に、さらにバイアス値bを加算することで計算値zを得る。なお、ニューラルネットワークNNが畳み込みニューラルネットワークである場合には、ニューロン421は、例えば、畳み込み、活性化関数を用いた計算、及びプーリングを順に行う。この場合、活性化関数には、例えば、ReLU関数が用いられる。
そして、j番目のニューロン421は、第2中間層L22の各ニューロン422に計算値zを出力する。第1中間層L21は、ノード421bを含む。ノード421bは、各ニューロン422にバイアス値を出力する。以下、各ニューロンは、ニューロン421と同様の計算を行い、後段の層の各ニューロンに計算値を出力する。中間層L2の最終段のニューロン(ここでは、ニューロン422)は、出力層L3の各ニューロン43に計算値を出力する。
出力層L3は、ニューラルネットワークNNの出口に位置し、出力値y(kは1〜Nの整数)を出力する。出力値yは、各カテゴリに割り当てられており、そのカテゴリの適合率に対応する値である。出力層L3は、複数のニューロン43を有する。ニューロン43は、出力値yに対応して設けられており、ニューロン43の数は、出力値yの総数Nと等しい。つまり、ニューロン43の数は、カバレージを示すカテゴリの数と等しい。各ニューロン43は、ニューロン421と同様の計算を行い、その計算結果を引数として活性化関数を計算し、出力値yを得る。活性化関数の例としては、softmax関数、ReLU関数、双曲線関数、シグモイド関数、恒等関数、及びステップ関数が挙げられる。本実施形態では、softmax関数が用いられる。このため、各出力値yは、N個の出力値yの合計が1になるように正規化されている。つまり、出力値yに100を乗算することによって、適合率(%)が得られる。
続いて、評価部22は、例えば、N個の出力値yを評価用画像の画像IDとともに評価用画像の評価結果として送信部23に出力する。N個の出力値yの配列は予め定められており、各出力値yは、N個のカテゴリのいずれかのカテゴリに対応付けられている。なお、評価部22は、N個の出力値yのうち、最も大きい出力値をその出力値に対応するカテゴリ名又はインデックス(図11に示される「番号」に相当)とともに評価結果としてもよい。ここでは、図11に示される適合率に対応する出力値の配列が評価結果として送信部23に出力される。この場合、ユーザ端末10が、ユーザにどのように出力するかを決定することができる。
そして、送信部23は、ネットワークNWを介して評価結果をユーザ端末10に送信する(ステップS05)。このとき、送信部23は、評価用画像とともにユーザ端末10から送信された端末IDに基づいて、送信先のユーザ端末10を識別し、当該ユーザ端末10に評価結果を送信する。そして、受信部15は、評価装置20から送信された評価結果を受信し、評価結果を出力部16に出力する。なお、送信部23は、上述のように、評価結果を暗号化し、暗号化された評価結果をユーザ端末10に送信してもよい。この場合、受信部15は、暗号化された評価結果を評価装置20から受信し、暗号化された評価結果を復号して、出力部16に出力する。
続いて、出力部16は、評価結果をユーザに通知するための出力情報を生成し、出力情報に基づいて評価結果をユーザに出力する(ステップS06)。出力部16は、例えば、適合率が最も高いカテゴリの名称(カバレージ 〇〇%)と、その適合率とを表示する。また、出力部16は、例えば、各カテゴリの値と適合率とを乗算した結果を合算することでカバレージを計算し、その計算結果を評価結果として表示してもよい。図11の例では、カバレージは45%(=40%×0.5+50%×0.5)である。
図12の(a)及び(b)に示されるように、出力部16は、矢印Paを用いて、グラフ上でカバレージの評価結果を表示してもよい。出力部16は、テキストで評価結果を表示してもよい。例えば、出力部16は、「結果:カバレージ 45%」等と表示する。出力部16は、全てのカテゴリの名称とその適合率とをテキストで表示してもよい。
出力部16は、評価結果を用いて、ショットピーニング処理が合格であるか不合格であるかをユーザに通知してもよい。出力部16は、音声で評価結果を出力してもよく、振動で評価結果を出力してもよい。出力部16による出力の形態は、ユーザによって設定されてもよい。
続いて、修正情報取得部17は、ユーザによって評価結果の修正操作が行われたか否かを判定する。例えば、ユーザは、出力部16によって出力された評価結果を確認した後、入力装置105を用いて評価結果を修正するための画面を表示するように操作する。
例えば、図13の(a)及び(b)に示されるように、ユーザは、入力装置105を操作し、ポインタMPを用いて矢印Paを移動することで、グラフ上でカバレージを指定する。つまり、ユーザが評価対象物を目視で検査することによってカバレージを判定し、ユーザによって判定されたカバレージに対応する数値を示すように、ユーザは矢印Paを移動する。
ユーザがカバレージを指定するために、テキストボックスが用いられてもよい。ユーザがカテゴリを選択するために、ラジオボタン、ドロップダウンリスト、又はスライダ等のオブジェクトが用いられてもよい。
修正情報取得部17が修正操作は行われなかったと判定した場合、評価システム1による評価方法の一連の処理が終了する。一方、修正情報取得部17は、入力装置105によって修正操作が行われたと判定した場合、修正後のカテゴリを示す情報を、当該修正操作が行われた評価用画像の画像IDとともに修正情報として取得する(ステップS07)。
そして、修正情報取得部17は、修正情報を送信部14に出力し、送信部14は、ネットワークNWを介して修正情報を評価装置20に送信する(ステップS08)。そして、受信部21は、ユーザ端末10から送信された修正情報を受信し、修正情報を評価部22に出力する。なお、送信部14は、上述のように、修正情報を暗号化し、暗号化された修正情報を評価装置20に送信してもよい。この場合、受信部21は、暗号化された修正情報をユーザ端末10から受信し、暗号化された修正情報を復号して、評価部22に出力する。
続いて、評価部22は、修正情報に基づいて学習を行う(ステップS09)。具体的には、評価部22は、修正後のカテゴリと評価用画像との組を教師データとする。評価部22は、オンライン学習、ミニバッチ学習、及びバッチ学習のいずれの方法でニューラルネットワークNNの学習を行ってもよい。オンライン学習は、新たな教師データを取得するごとにその教師データを用いて学習を行う方法である。ミニバッチ学習は、一定量の教師データを1単位として、1単位の教師データを用いて学習を行う方法である。バッチ学習は、全ての教師データを用いて学習を行う方法である。学習には、バックプロパゲーション等のアルゴリズムが用いられる。なお、ニューラルネットワークNNの学習とは、ニューラルネットワークNNで用いられる重み係数及びバイアス値をより最適な値に更新することを意味する。
以上のようにして、評価システム1による評価方法の一連の処理が終了する。
なお、ユーザ端末10及び評価装置20における各機能部は、各機能を実現させるためのプログラムモジュールが、ユーザ端末10及び評価装置20を構成するコンピュータにおいて実行されることにより実現される。これらのプログラムモジュールを含む評価プログラムは、例えば、ROM又は半導体メモリ等のコンピュータ読み取り可能な記録媒体によって提供される。また、評価プログラムは、データ信号としてネットワークを介して提供されてもよい。
以上説明した評価システム1、評価装置20、評価方法、評価プログラム、及び記録媒体では、評価対象物の撮像画像から評価領域Reが抽出され、評価領域Reに基づいて評価用画像が生成される。そして、評価用画像に基づいてカバレージの評価が行われ、評価結果が出力される。評価領域Reは、評価対象物に生じている打痕の画像である打痕領域Deの大きさに基づいて撮像画像から抽出される。具体的には、打痕領域Deが大きいほど、評価領域Re(の面積)が大きくなるように、撮像画像から評価領域Reが抽出される。これにより、打痕領域Deの大きさに応じた範囲を対象として、カバレージの評価が行われ、1つの打痕がカバレージに与える影響を低減できる。その結果、カバレージの評価精度を向上させることが可能となる。
より具体的には、打痕領域Deの大きさ(例えば、平均直径)に予め定められた定数を乗算することで、評価領域Reの大きさが設定される。このため、打痕領域Deの大きさに対して、評価領域Reの範囲(面積)を十分に大きくできるので、1つの打痕がカバレージに与える影響を低減することが可能となる。その結果、カバレージの評価精度を向上させることが可能となる。
打痕領域Deの大きさを所定の大きさ(例えば、基準粒径)に合わせるように、評価領域Reが拡大又は縮小される。このため、ニューラルネットワークNNによる評価を適切に行うことができる。また、互いに異なる粒径の投射材に対して共通の基準でカバレージを評価することができるので、カバレージの評価精度を向上させることが可能となる。
同じ評価対象物であっても、撮影に用いられた光源の色調によって、撮像画像の色調が変わることがある。また、同じ評価対象物であっても、光の照射量によって、撮像画像の明るさが異なることがある。このため、撮像画像に含まれる参照領域(例えば、マーカ領域Rmにおける領域Rw)の色に基づいて、評価領域Reの色が補正される。マーカ領域Rmにおける領域Rwの色が、マーカMKにおける領域Rwの色(白色)と異なっている場合、撮像画像における色が光の影響を受けていると考えられる。そこで、マーカ領域Rmにおける領域Rwの色がマーカMKにおける領域Rwの色になるように、評価領域Reの色の補正が行われる。これにより、光の影響を低減することができる。その結果、カバレージの評価精度をさらに向上させることが可能となる。
評価対象物に強い光が照射されると鏡面反射が生じることがあり、その状態で評価対象物が撮像されると撮像画像に白飛びが生じることがある。白飛びが生じている領域では、色情報が失われている。このため、評価領域Reから鏡面反射(白飛び)を除去することで、色情報が復元され得る。これにより、カバレージの評価精度をさらに向上させることが可能となる。
ニューラルネットワークNNを用いてカバレージの評価が行われる。ショットピーニング処理によって評価対象物の表面に生じた模様は、不定形である。このため、一般的な物体検出では、不定形な物体の位置及び状態を特定することが困難であり、パターン認識では無数に存在する模様を認識することには向いていない。これに対し、ニューラルネットワークNNを学習させることによって、カバレージの評価が可能となり、カバレージの評価精度をさらに向上させることが可能となる。
(第2実施形態)
図14は、第2実施形態に係る評価装置を含む評価システムを概略的に示す構成図である。図14に示される評価システム1Aは、ユーザ端末10に代えてユーザ端末10Aを備える点、及び評価装置20に代えて評価装置20Aを備える点において、評価システム1と主に相違する。
ユーザ端末10Aは、補正部13を備えない点、及び評価用画像に代えて撮像画像を評価装置20Aに送信する点においてユーザ端末10と主に相違する。なお、ユーザ端末10Aでは、画像取得部11は、撮像画像を送信部14に出力する。送信部14は、撮像画像を評価装置20Aに送信する。
評価装置20Aは、評価用画像に代えて撮像画像をユーザ端末10Aから受信する点、及び補正部24をさらに備える点において評価装置20と主に相違する。受信部21は、撮像画像をユーザ端末10Aから受信し、撮像画像を補正部24に出力する。なお、受信部21は、撮像画像をユーザ端末10Aから取得しているので、画像取得部とみなされ得る。補正部24は、補正部13と同様の機能を有する。つまり、補正部24は、撮像画像から評価領域を抽出し、評価領域に基づいて評価用画像を生成する。そして、補正部24は、評価用画像を評価部22に出力する。
次に、図15を参照して、評価システム1Aが行う評価方法を説明する。図15は、図14に示される評価システムが行う評価方法を示すシーケンス図である。まず、画像取得部11が評価対象物の撮像画像を取得する(ステップS31)。例えば、画像取得部11は、ステップS01と同様に、撮像装置107によって生成された評価対象物の画像を撮像画像として取得する。
そして、画像取得部11は、取得した撮像画像を送信部14に出力し、送信部14は、ネットワークNWを介して撮像画像を評価装置20Aに送信する(ステップS32)。このとき、送信部14は、ユーザ端末10Aを一意に識別可能な端末IDとともに、撮像画像を評価装置20Aに送信する。そして、受信部21は、ユーザ端末10Aから送信された撮像画像を受信し、撮像画像を補正部24に出力する。なお、送信部14は、上述のように、撮像画像を暗号化し、暗号化された撮像画像を評価装置20Aに送信してもよい。この場合、受信部21は、暗号化された撮像画像をユーザ端末10Aから受信し、暗号化された撮像画像を復号して、補正部24に出力する。
続いて、補正部24は、撮像画像を補正する(ステップS33)。ステップS33の処理は、ステップS02の処理と同様であるので、その詳細な説明を省略する。補正部24は、ステップS33の補正処理によって補正された撮像画像を評価用画像として、評価部22に出力する。以降、ステップS34〜ステップS39の処理は、ステップS04〜ステップS09の処理と同様であるので、その詳細な説明を省略する。以上のようにして、評価システム1Aによる評価方法の一連の処理が終了する。
なお、ユーザ端末10A及び評価装置20Aにおける各機能部は、各機能を実現させるためのプログラムモジュールが、ユーザ端末10A及び評価装置20Aを構成するコンピュータにおいて実行されることにより実現される。これらのプログラムモジュールを含む評価プログラムは、例えば、ROM又は半導体メモリ等のコンピュータ読み取り可能な記録媒体によって提供される。また、評価プログラムは、データ信号としてネットワークを介して提供されてもよい。
第2実施形態に係る評価システム1A、評価装置20A、評価方法、評価プログラム、及び記録媒体においても、第1実施形態に係る評価システム1、評価装置20、評価方法、評価プログラム、及び記録媒体と同様の効果が奏される。また、第2実施形態に係る評価システム1A、評価装置20A、評価方法、評価プログラム、及び記録媒体では、ユーザ端末10Aが補正部13を有しないので、ユーザ端末10Aの処理負荷を軽減することができる。
(第3実施形態)
図16は、第3実施形態に係る評価装置を含む評価システムを概略的に示す構成図である。図16に示される評価システム1Bは、ユーザ端末10に代えてユーザ端末10Bを備える点、及び評価装置20を備えない点において、評価システム1と主に相違する。ユーザ端末10Bは、評価部18をさらに備える点、並びに、送信部14及び受信部15を備えない点においてユーザ端末10と主に相違する。この場合、ユーザ端末10Bは、スタンドアロン型の評価装置でもある。
なお、ユーザ端末10Bでは、補正部13は、評価用画像を評価部18に出力する。修正情報取得部17は、修正情報を評価部18に出力する。評価部18は、評価部22と同様の機能を有する。つまり、評価部18は、評価用画像に基づいて評価対象物のカバレージの評価を行う。そして、評価部18は、評価結果を出力部16に出力する。
次に、図17を参照して、評価システム1B(ユーザ端末10B)が行う評価方法を説明する。図17は、図16に示される評価システムが行う評価方法を示すフローチャートである。
まず、画像取得部11が、ステップS01と同様に評価対象物の撮像画像を取得する(ステップS41)。そして、画像取得部11は、撮像画像を補正部13に出力する。続いて、補正部13は、撮像画像を補正する(ステップS42)。ステップS42の処理は、ステップS02の処理と同様であるので、その詳細な説明を省略する。そして、補正部13は、ステップS42の補正処理によって補正された撮像画像を評価用画像として、評価部18に出力する。
続いて、評価部18は、評価用画像に基づいて、評価対象物のカバレージの評価を行う(ステップS43)。ステップS43の処理は、ステップS04の処理と同様であるので、その詳細な説明を省略する。そして、評価部18は、評価結果を出力部16に出力する。続いて、出力部16は、評価結果をユーザに通知するための出力情報を生成し、出力情報に基づいて評価結果をユーザに出力する(ステップS44)。ステップS44の処理は、ステップS06の処理と同様であるので、その詳細な説明を省略する。
続いて、修正情報取得部17は、ユーザによって評価結果の修正操作が行われたか否かを判定する(ステップS45)。修正情報取得部17が、修正操作が行われなかったと判定した場合(ステップS45:NO)、評価システム1Bによる評価方法の一連の処理は終了する。一方、修正情報取得部17は、修正操作が行われたと判定した場合(ステップS45:YES)、修正後のカテゴリを示す情報を、当該修正操作が行われた評価用画像の画像IDとともに修正情報として取得する。そして、修正情報取得部17は、修正情報を評価部18に出力する。
続いて、評価部18は、修正情報に基づいて学習を行う(ステップS46)。ステップS46の処理は、ステップS09の処理と同様であるので、その詳細な説明を省略する。以上のようにして、評価システム1Bによる評価方法の一連の処理が終了する。
なお、ユーザ端末10Bにおける各機能部は、各機能を実現させるためのプログラムモジュールが、ユーザ端末10Bを構成するコンピュータにおいて実行されることにより実現される。これらのプログラムモジュールを含む評価プログラムは、例えば、ROM又は半導体メモリ等のコンピュータ読み取り可能な記録媒体によって提供される。また、評価プログラムは、データ信号としてネットワークを介して提供されてもよい。
第3実施形態に係る評価システム1B、ユーザ端末10B、評価方法、評価プログラム、及び記録媒体においても、第1実施形態に係る評価システム1、評価装置20、評価方法、評価プログラム、及び記録媒体と同様の効果が奏される。また、第3実施形態に係る評価システム1B、ユーザ端末10B、評価方法、評価プログラム、及び記録媒体では、ネットワークNWを介したデータの送受信を行う必要がないので、ネットワークNWを介した通信に伴うタイムラグが生じず、応答速度を向上させることが可能となる。また、ネットワークNWのトラフィック及び通信料を削減することが可能となる。
なお、本発明に係る評価システム、評価装置、評価方法、評価プログラム、及び記録媒体は上記実施形態に限定されない。
例えば、ユーザによる評価結果の修正を行わない場合には、ユーザ端末10,10A,10Bは、修正情報取得部17を備えていなくてもよい。
また、ニューラルネットワークNNでは、バッチ正規化が行われてもよい。バッチ正規化とは、各層の出力値を分散が一定になるように変換する処理である。この場合、バイアス値を用いる必要が無いので、バイアス値を出力するノード(ノード41b、及びノード421b等)が省略され得る。
また、評価部18,22は、ニューラルネットワーク以外の手法を用いて、評価用画像に基づいてカバレージの評価を行ってもよい。
また、出力部16は、評価結果を不図示のメモリ(記憶装置)に出力し、評価結果をメモリに保存してもよい。出力部16は、例えば、評価結果を一意に識別可能な管理番号、及び当該評価が行われた日付等と評価結果とを対応付けた管理データを作成し、管理データを保存する。
マーカMKの形状は、正方形に限られない。マーカMKの形状は、長方形であってもよい。
上記実施形態では、マーカMKは、マーカMKの向きを特定可能な形状を有しているが、マーカMKの形状は指向性を有する形状に限られない。マーカMKの形状は、無指向性の形状であってもよい。例えば、図18の(a)に示されるように、領域Rbの形状が正方形であり、領域Rwの形状が領域Rbよりも一回り小さい正方形であってもよい。領域Rbの中心点と領域Rwの中心点とが重なり、かつ領域Rbの各辺と領域Rwの各辺とが互いに平行となるように配置されていてもよい。マーカMKが無指向性の形状を有している場合、マーカMKの形状が単純であるので、マーカMKの作成を容易化することができる。また、マーカMKの向きは重要ではないので、ユーザが評価対象物の撮影を容易に行うことができる。
図18の(b)に示されるように、マーカMKは、開口部Hmを有してもよい。開口部Hmは、マーカMKが描かれるシート状部材を貫通する貫通孔である。開口部Hmの開口面積は、抽出され得る評価領域Reの面積よりも十分に大きい。このため、補正部13,24は、評価領域Reの抽出の前処理として、撮像画像から開口部Hmを介して露出している領域を抽出してもよい。そして、補正部13,24は、抽出した領域に含まれる打痕領域Deの大きさに基づいて、抽出した領域から評価領域Reを抽出してもよい。
枠F2に囲まれていないマーカMKを用いた場合、光の反射等に起因してマーカ領域Rmと評価対象物の領域との境界が不明確となることがある。このような場合には、エッジ検出処理では、エッジを検出できない場合がある。物体検出では、判定閾値を小さくし過ぎると誤検出が多くなり、判定閾値を大きくし過ぎると検出漏れが多くなる。また、物体検出自体ではマーカ領域Rmの向き(角度)を得ることができない。さらに、物体検出処理でマーカ領域Rmを抽出した上で、エッジ強調処理を行い、さらにエッジ検出処理を行う場合、検出精度は向上するものの、マーカ領域Rmの外縁部分の色とマーカ領域Rmの周辺の色とがほとんど変わらないような場合には、検出漏れが生じ得る。
一方、図6の(b)〜(f)、図18の(c)及び(d)に示されるマーカMKでは、マーカMKが枠F2によって囲まれており、枠F2と領域Rbとの間に間隙Rgapが設けられる。間隙Rgapは、縁F1に沿って領域Rbを囲んでいる。間隙Rgapの色は、マーカMKの外縁部分(つまり、領域Rb)の色とは異なる。このため、マーカ領域Rmの周辺(枠F2の外側)の色が、マーカ領域Rmの外縁部分(領域Rb)の色と類似していたとしても、マーカ領域Rmの外縁(縁F1)は明確であるので、マーカ領域Rmの外縁を検出することができる。例えば、物体検出処理でマーカ領域Rmを抽出した上で、エッジ強調処理を行い、さらにエッジ検出処理を行う場合、領域Rbの頂点(頂点Pm1〜Pm4)をより確実に検出することができる。したがって、高速かつ高精度にマーカ領域Rmを抽出することが可能となる。その結果、カバレージの評価精度をさらに向上させることが可能となる。なお、枠F2と領域Rbとの距離(間隙Rgapの幅)は、例えば、間隙Rgapを確保するために、マーカMKの一辺の10分の1以上であってもよい。枠F2と領域Rbとの距離(間隙Rgapの幅)は、例えば、マーカMKの使いやすさを考慮して、マーカMKの一辺の半分以下であってもよい。
また、図18の(c)及び(d)に示されるように、枠F2は、マーカMKを完全に囲む枠でなくてもよい。つまり、枠F2には、欠落部Fgapが設けられてもよい。例えば、枠F2は、実線に限られず、破線でもよい。この場合、枠F2は、枠F2の枠線が途中で途切れた形状を有する。枠F2に欠落部Fgapが設けられる場合には、エッジ検出処理等によって、枠F2によって囲まれた領域がマーカ領域Rmとして検出される可能性を低減することができるので、マーカ領域Rmの検出精度が向上する。つまり、枠F2の頂点が検出される可能性を低減することができるので、マーカ領域Rm(領域Rb)の頂点をさらに確実に検出することが可能となる。その結果、カバレージの評価精度をさらに向上させることが可能となる。
図19に示されるように、補正部13,24は、打痕領域Deに基づいて設定された大きさの評価領域Reを撮像画像Gから抽出する際に、撮像画像Gからランダムに評価領域Reを決定し、決定した評価領域Reを抽出してもよい。この場合、まず、補正部13,24は、評価領域Reの基準点Prが取り得る座標の最大値を求める。基準点Prとは、評価領域Reの4つの頂点のうちの1つであり、ここでは、評価領域Reの4つの頂点のうちのX−Y座標の原点に最も近い頂点である。例えば、評価領域Reの一辺の長さが100ピクセルである場合、基準点PrのX座標の最大値xcrop_maxとY座標の最大値ycrop_maxとは、以下の式(2)で表される。なお、撮像画像Gの頂点Pg1は原点(0,0)に位置し、頂点Pg2は(X,0)に位置し、頂点Pg3は(X,Y)に位置し、頂点Pg4は(0,Y)に位置する。
補正部13,24は、式(3)を用いて、評価領域Reの基準点の座標(xcrop,ycrop)をランダムに決定する。なお、関数random(最小値,最大値)は、最小値から最大値までの範囲に含まれる任意の値を返す関数である。
補正部13,24は、決定された評価領域Reとマーカ領域Rmとが重なる場合には、評価領域Reの基準点の座標を再度決定してもよい。
図20に示されるように、補正部13,24は、マーカ領域Rmから抽出方向を指定して、撮像画像Gから評価領域Reを抽出してもよい。この場合、まず、補正部13,24は、撮像画像Gの中心位置Cgの座標(xcg,ycg)と、マーカ領域Rmの中心位置Cmの座標(xcm,ycm)と、を計算する。そして、補正部13,24は、式(4)に示されるように、中心位置Cmから中心位置Cgに向かうベクトルVを計算する。
補正部13,24は、マーカ領域RmからベクトルVが示す方向において、評価領域Reの位置を決定する。補正部13,24は、例えば、中心位置CmからベクトルVが示す方向に評価領域Reの基準点Prが位置するように、評価領域Reの位置を決定する。ここでは、基準点Prは、評価領域Reの4つの頂点のうちのマーカ領域Rmに最も近い頂点である。補正部13,24は、例えば、マーカ領域Rmと重複しないように、評価領域Reの位置を決定する。具体的には、補正部13,24は、基準点Prが取り得る座標のうち、マーカ領域Rmから最も離れた基準点Pr_maxの座標(xcrop_max,ycrop_max)と、マーカ領域Rmに最も近い基準点Pr_minの座標(xcrop_min,ycrop_min)と、を計算する。そして、補正部13,24は、これらの2点間の線分上に基準点Prが位置するように、評価領域Reの位置を決定する。
1,1A,1B…評価システム、10,10A,10B…ユーザ端末、11…画像取得部、13,24…補正部、16…出力部、17…修正情報取得部、18,22…評価部、20,20A…評価装置、21…受信部(画像取得部)、23…送信部(出力部)、De…打痕領域、G…撮像画像、NN…ニューラルネットワーク、Re…評価領域。

Claims (11)

  1. 評価対象物の撮像画像を用いて、前記評価対象物のカバレージの評価を行う評価システムであって、
    前記撮像画像を取得する画像取得部と、
    前記撮像画像を補正することで評価用画像を生成する補正部と、
    前記評価用画像に基づいて前記評価を行う評価部と、
    前記評価部による評価結果を出力する出力部と、
    を備え、
    前記補正部は、前記撮像画像に含まれる打痕領域の大きさに基づいて、前記撮像画像から評価領域を抽出し、前記評価領域に基づいて前記評価用画像を生成し、
    前記打痕領域は、前記評価対象物に生じている打痕の画像である、評価システム。
  2. 前記補正部は、前記打痕領域の大きさが大きいほど、前記評価領域が大きくなるように、前記撮像画像から前記評価領域を抽出する、請求項1に記載の評価システム。
  3. 前記補正部は、前記打痕領域の大きさに予め定められた定数を乗算することで、前記評価領域の大きさを設定し、前記撮像画像から前記評価領域を抽出する、請求項2に記載の評価システム。
  4. 前記補正部は、前記打痕領域の大きさを所定の大きさに合わせるように、前記評価領域を拡大又は縮小する、請求項1〜請求項3のいずれか一項に記載の評価システム。
  5. 前記補正部は、前記撮像画像に含まれる参照領域の色に基づいて、前記評価領域の色を補正し、
    前記参照領域は、特定の色が付された参照体の画像である、請求項1〜請求項4のいずれか一項に記載の評価システム。
  6. 前記補正部は、前記評価領域から鏡面反射を除去する、請求項1〜請求項5のいずれか一項に記載の評価システム。
  7. 前記評価部は、ニューラルネットワークを用いて前記評価を行う、請求項1〜請求項6のいずれか一項に記載の評価システム。
  8. 評価対象物の撮像画像を用いて、前記評価対象物のカバレージの評価を行う評価装置であって、
    前記撮像画像を取得する画像取得部と、
    前記撮像画像を補正することで評価用画像を生成する補正部と、
    前記評価用画像に基づいて前記評価を行う評価部と、
    前記評価部による評価結果を出力する出力部と、
    を備え、
    前記補正部は、前記撮像画像に含まれる打痕領域の大きさに基づいて、前記撮像画像から評価領域を抽出し、前記評価領域に基づいて前記評価用画像を生成し、
    前記打痕領域は、前記評価対象物に生じている打痕の画像である、評価装置。
  9. 評価対象物の撮像画像を用いて、前記評価対象物のカバレージの評価を行う評価方法であって、
    前記撮像画像を取得するステップと、
    前記撮像画像を補正することで評価用画像を生成するステップと、
    前記評価用画像に基づいて前記評価を行うステップと、
    前記評価を行うステップにおける評価結果を出力するステップと、
    を備え、
    前記評価用画像を生成するステップでは、前記撮像画像に含まれる打痕領域の大きさに基づいて、前記撮像画像から評価領域が抽出され、前記評価領域に基づいて前記評価用画像が生成され、
    前記打痕領域は、前記評価対象物に生じている打痕の画像である、評価方法。
  10. コンピュータに、
    評価対象物の撮像画像を取得するステップと、
    前記撮像画像を補正することで評価用画像を生成するステップと、
    前記評価用画像に基づいて、前記評価対象物のカバレージの評価を行うステップと、
    前記評価を行うステップにおける評価結果を出力するステップと、
    を実行させるための評価プログラムであって、
    前記評価用画像を生成するステップでは、前記撮像画像に含まれる打痕領域の大きさに基づいて、前記撮像画像から評価領域が抽出され、前記評価領域に基づいて前記評価用画像が生成され、
    前記打痕領域は、前記評価対象物に生じている打痕の画像である、評価プログラム。
  11. コンピュータに、
    評価対象物の撮像画像を取得するステップと、
    前記撮像画像を補正することで評価用画像を生成するステップと、
    前記評価用画像に基づいて、前記評価対象物のカバレージの評価を行うステップと、
    前記評価を行うステップにおける評価結果を出力するステップと、
    を実行させるための評価プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記評価用画像を生成するステップでは、前記撮像画像に含まれる打痕領域の大きさに基づいて、前記撮像画像から評価領域が抽出され、前記評価領域に基づいて前記評価用画像が生成され、
    前記打痕領域は、前記評価対象物に生じている打痕の画像である、記録媒体。
JP2018026097A 2018-02-16 2018-02-16 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体 Active JP6773061B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018026097A JP6773061B2 (ja) 2018-02-16 2018-02-16 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体
CN201880089071.XA CN111712352B (zh) 2018-02-16 2018-10-04 评价***、评价装置、评价方法、评价程序以及记录介质
US16/968,680 US11941796B2 (en) 2018-02-16 2018-10-04 Evaluation system, evaluation device, evaluation method, evaluation program, and recording medium
PCT/JP2018/037250 WO2019159424A1 (ja) 2018-02-16 2018-10-04 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体
DE112018005573.6T DE112018005573T5 (de) 2018-02-16 2018-10-04 Evaluationssystem, Evaluationsvorrichtung, Evaluationsverfahren, Evaluationsprogramm und Aufzeichnungsmedium
TW107138631A TW201935415A (zh) 2018-02-16 2018-10-31 評估系統、評估裝置、評估方法、評估程式及記錄媒體

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018026097A JP6773061B2 (ja) 2018-02-16 2018-02-16 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体

Publications (2)

Publication Number Publication Date
JP2019141927A JP2019141927A (ja) 2019-08-29
JP6773061B2 true JP6773061B2 (ja) 2020-10-21

Family

ID=67618641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018026097A Active JP6773061B2 (ja) 2018-02-16 2018-02-16 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体

Country Status (6)

Country Link
US (1) US11941796B2 (ja)
JP (1) JP6773061B2 (ja)
CN (1) CN111712352B (ja)
DE (1) DE112018005573T5 (ja)
TW (1) TW201935415A (ja)
WO (1) WO2019159424A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210035975A (ko) * 2019-09-25 2021-04-02 주식회사 코아칩스 열화상을 이용한 도장 품질 관리 장치 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039192A1 (ja) * 2019-08-30 2021-03-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN111401205B (zh) * 2020-03-11 2022-09-23 深圳市商汤科技有限公司 动作识别方法及装置、电子设备、计算机可读存储介质
JP7393321B2 (ja) * 2020-12-14 2023-12-06 株式会社神戸製鋼所 機械学習装置および該方法ならびに膜密着性評価装置および該方法
JP7008957B1 (ja) * 2021-10-05 2022-01-25 三信トレーディング株式会社 錦鯉評価装置および方法並びにプログラム
CN117067112B (zh) * 2023-10-17 2024-01-16 杭州泓芯微半导体有限公司 一种水切割机及其控制方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5293320A (en) * 1992-03-13 1994-03-08 General Electric Company Measurment of shot peening coverage by impact dent characterization
JPH06174452A (ja) * 1992-12-07 1994-06-24 Asutoro Design Kk 光学計測器の照明装置
US5581483A (en) * 1994-09-19 1996-12-03 General Electric Company Measurement of shot peening coverage by correlation analysis of surface line data
JPH09292349A (ja) * 1996-04-25 1997-11-11 Bridgestone Sports Co Ltd ゴルフボールの外観検査方法及びその装置
JP3455031B2 (ja) * 1996-10-23 2003-10-06 シャープ株式会社 バンプ外観検査装置
KR101051503B1 (ko) * 2002-08-28 2011-07-22 신토고교 가부시키가이샤 쇼트블라스트 처리에서의 타흔 분포도의 묘화방법 및 시스템, 및 처리조건의 설정 방법 및 쇼트블라스트 장치
JP4799426B2 (ja) * 2007-01-10 2011-10-26 菱栄エンジニアリング株式会社 輪郭部の欠け検査方法およびその装置
JP5219663B2 (ja) * 2008-07-10 2013-06-26 中央発條株式会社 カバレージを測定する装置、方法、プログラム
DE102010001286A1 (de) * 2010-01-27 2011-07-28 Rolls-Royce Deutschland Ltd & Co KG, 15827 Verfahren zum Erfassen der Flächenbedeckung beim Kugelstrahlen
JP5511407B2 (ja) * 2010-01-27 2014-06-04 東洋精鋼株式会社 カバレージ測定装置
JP5427198B2 (ja) * 2011-03-14 2014-02-26 株式会社日立製作所 設備劣化診断装置、設備劣化診断方法および設備劣化診断プログラム
WO2013071114A1 (en) * 2011-11-11 2013-05-16 Alcoa Inc. Apparatus and method for imparting selected topographies to aluminum sheet metal
JP2013240815A (ja) * 2012-05-22 2013-12-05 Daido Steel Co Ltd 製品識別方法
JP2014190890A (ja) * 2013-03-28 2014-10-06 Mitsutoyo Corp 硬さ試験機、及び硬さ試験方法
JP6424822B2 (ja) 2013-08-29 2018-11-21 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
JP6335548B2 (ja) * 2014-02-27 2018-05-30 中央発條株式会社 ばねのカバレージ測定方法及びカバレージ測定装置
JP2015160282A (ja) * 2014-02-27 2015-09-07 中央発條株式会社 カバレージ測定方法及びカバレージ測定装置
CN104451079B (zh) * 2014-12-11 2016-07-06 南车戚墅堰机车车辆工艺研究所有限公司 一种齿轮齿面喷丸强化精整方法
KR102127138B1 (ko) * 2015-10-22 2020-06-26 한화정밀기계 주식회사 플립 칩의 플럭스 도포 상태 검사 방법
JP7188870B2 (ja) * 2017-05-31 2022-12-13 株式会社キーエンス 画像検査装置
JP6881347B2 (ja) 2018-02-16 2021-06-02 新東工業株式会社 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体
US10755403B2 (en) * 2018-08-17 2020-08-25 The Boeing Company Apparatus and methods for shot peening evaluation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210035975A (ko) * 2019-09-25 2021-04-02 주식회사 코아칩스 열화상을 이용한 도장 품질 관리 장치 및 방법
KR102251855B1 (ko) 2019-09-25 2021-05-13 주식회사 코아칩스 열화상을 이용한 도장 품질 관리 장치 및 방법

Also Published As

Publication number Publication date
TW201935415A (zh) 2019-09-01
US11941796B2 (en) 2024-03-26
CN111712352A (zh) 2020-09-25
JP2019141927A (ja) 2019-08-29
US20210004947A1 (en) 2021-01-07
WO2019159424A1 (ja) 2019-08-22
DE112018005573T5 (de) 2020-07-02
CN111712352B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
JP6773061B2 (ja) 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体
JP6881347B2 (ja) 評価システム、評価装置、評価方法、評価プログラム、及び記録媒体
CN109325933B (zh) 一种翻拍图像识别方法及装置
KR102574141B1 (ko) 이미지 디스플레이 방법 및 디바이스
US11508038B2 (en) Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system
CN109934065B (zh) 一种用于手势识别的方法和装置
CN111311523B (zh) 图像处理方法、装置、***和电子设备
US10970821B2 (en) Image blurring methods and apparatuses, storage media, and electronic devices
CN111667416A (zh) 图像处理方法、装置、学习模型制造方法和图像处理***
US10122912B2 (en) Device and method for detecting regions in an image
US20160245641A1 (en) Projection transformations for depth estimation
CN111985427A (zh) 活体检测方法、设备及可读存储介质
JP7086878B2 (ja) 学習装置、学習方法、プログラムおよび認識装置
US10956782B2 (en) Training for camera lens distortion
US8903124B2 (en) Object learning method, object tracking method using the same, and object learning and tracking system
CN115496673A (zh) 图像处理方法、图像处理装置、图像处理***、以及存储介质
KR20190067438A (ko) 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
EP4116929A1 (en) Information processing method, information processing system, and information processing device
CN111222446B (zh) 人脸识别方法、人脸识别装置及移动终端
CN112991159A (zh) 人脸光照质量评估方法、***、服务器与计算机可读介质
Ji et al. Robust single image deblurring using gyroscope sensor
Rajakaruna et al. Image deblurring for navigation systems of vision impaired people using sensor fusion data
CN114140349A (zh) 干扰图像的生成方法和装置
JP2018160024A (ja) 画像処理装置、画像処理方法及びプログラム
CN111428707A (zh) 图形识别码的识别方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6773061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250