JP7077485B2 - 画像取得装置および画像取得方法 - Google Patents

画像取得装置および画像取得方法 Download PDF

Info

Publication number
JP7077485B2
JP7077485B2 JP2021522789A JP2021522789A JP7077485B2 JP 7077485 B2 JP7077485 B2 JP 7077485B2 JP 2021522789 A JP2021522789 A JP 2021522789A JP 2021522789 A JP2021522789 A JP 2021522789A JP 7077485 B2 JP7077485 B2 JP 7077485B2
Authority
JP
Japan
Prior art keywords
image
work
region
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021522789A
Other languages
English (en)
Other versions
JPWO2020241648A1 (ja
Inventor
洋太朗 中根
誠司 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020241648A1 publication Critical patent/JPWO2020241648A1/ja
Application granted granted Critical
Publication of JP7077485B2 publication Critical patent/JP7077485B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本開示は、撮像対象となるワークの合焦点画像を撮像する技術に関する。
一般に、高倍率のレンズを使用する撮像装置(カメラ)で撮像対象を撮影する場合、被写界深度(画像の中で焦点が合っているかのように見える範囲)が浅くなる。撮像対象となるワークの凹凸によっては、ワーク中の評価対象部分に焦点が合わず、ワークの評価(検査、位置決めなど)に悪影響を及ぼしやすい。
その対策として、撮像対象となるワークの全焦点画像を作成し、この全焦点画像に基づいてワーク中の評価を行なう方法が知られている(たとえば特開2016-21115号公報参照)。全焦点画像とは、ワークと撮像装置との距離を撮像装置の光軸方向に変化させながら焦点の異なる複数の画像を撮影し、局所領域ごとに合焦度(焦点が合っている度合い)を評価し、合焦度の高い局所画像を組合せて全体画像を再構成したものである。このようにして作成された全焦点画像は、全てのピクセルにおいてほぼ焦点が合ったものとなる。
特開2016-21115号公報
特開2016-21115号公報に開示された方法では、評価対象となるワークを撮像するたびに全焦点画像を生成する必要がある。被写界深度に対してワークの凹凸が大きい場合には多数の画像に対して全焦点画像を生成することになり、画像処理の計算量が大きくなる。そのため、高速で全焦点画像を生成することができず、ワークの評価に時間が掛かってしまうという問題がある。
本開示は、上述の課題を解決するためになされたものであって、その目的は、評価対象となるワークの合焦点画像を高速に取得することを可能にすることである。
本開示による画像取得装置は、ワークの画像を取得する。この画像取得装置は、モデル登録の対象となるワークの画像であるモデル画像を用いて合焦点画像を取得する対象となる第1領域を登録する第1登録部と、モデル画像を用いて位置合わせに用いられる第2領域を登録する第2登録部と、評価対象となるワークの画像であるワーク画像を撮影する撮像装置と、撮像装置およびワークの少なくとも一方を撮像装置の光軸方向に移動可能に構成された移動装置と、移動装置を作動させながら撮像装置が撮像した焦点の異なる複数のワーク画像のうちの最も合焦度の高い画像の深さ位置を合焦点位置として取得する第1取得部と、合焦点位置のワーク画像に対して第2領域との位置合わせを実施することによってワーク画像における第2領域に対応する領域を特定する位置合わせ部と、モデル画像における第2領域とワーク画像における第2領域に対応する領域との位置関係に基づいて撮像時のワークの姿勢を示す情報を取得可能に構成された姿勢推定部と、ワークの姿勢を示す情報を用いてワーク画像における第1領域に対応する領域の位置を出力する領域出力部と、を備える。
本開示によれば、評価対象となるワークの合焦点画像を高速に取得することを可能にすることができる。
画像取得システムの構成を概略的に示す図(その1)である。 モデル領域の登録手順の一例を示すフローチャート(その1)である。 ワーク対象領域の計算手順の一例を示すフローチャート(その1)である。 画像取得システムの構成を概略的に示す図(その2)である。 モデル領域の登録手順の一例を示すフローチャート(その2)である。 ワーク対象領域の計算手順の一例を示すフローチャート(その2)である。 画像取得システムの構成を概略的に示す図(その3)である。 モデル領域の登録手順の一例を示すフローチャート(その3)である。 ワーク対象領域の計算手順の一例を示すフローチャート(その3)である。 画像取得システムの構成を概略的に示す図(その4)である。 モデル領域の登録手順の一例を示すフローチャート(その4)である。 ワーク対象領域の計算手順の一例を示すフローチャート(その4)である。 画像取得システムの構成を概略的に示す図(その5)である。 ニューラルネットワークのモデルの一例を示す図である。 モデル領域の登録手順の一例を示すフローチャート(その5)である。 モデル領域の学習手順の一例を示すフローチャートである。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。
実施の形態1.
図1は、本実施の形態による画像取得装置1を含む画像取得システムの構成を概略的に示す図である。この画像取得システムは、画像取得装置1と、撮像対象であるワーク2が設置される台座3とを含む。
画像取得装置1は、撮像装置11と、移動装置12と、画像処理部13と、モデル登録部14と、姿勢推定部15と、合焦点画像取得部16とを含む。
撮像装置11は、カメラ111と、トリガ発生装置112とを含む。カメラ111は、CCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を用いてワーク2を撮影する。トリガ発生装置112は、カメラ111の撮像タイミングを示すトリガ入力信号Trigをカメラ111に出力する。カメラ111は、トリガ発生装置112からのトリガ入力信号Trigに基づいてワーク2を撮影する。
移動装置12は、アクチュエータ121を含む。アクチュエータ121は、撮像装置11(カメラ111)を光軸方向に移動させることによって、ワーク2と撮像装置11との光軸方向の相対距離を調整可能に構成される。以下では、図1に示すように、撮像装置11の光軸方向に沿う方向を「Z軸方向」、光軸方向に垂直であってかつ互いに垂直な方向をそれぞれ「X軸方向」および「Y軸方向」とも称する。
なお、移動装置12は、ワーク2が設置される台座3をX軸方向およびY軸方向に沿って移動させることによって、ワーク2をX軸方向およびY軸方向(平面方向)に移動させる機能を有してもよい。なお、本実施の形態では、ワーク2の撮像時において台座3のXY座標位置(X軸方向およびY軸方向の位置)は固定されているものとする。
また、移動装置12は、ワーク2が設置される台座3をZ軸方向に沿って移動させることによって、ワーク2と撮像装置11のZ軸方向の相対距離を調整する機能を有してもよい。なお、以下では、説明の便宜上、ワーク2の撮像時において台座3のZ座標位置(Z軸方向の位置)は固定されているものとして説明する。
移動装置12は、撮像装置11のXYZ座標位置を示す情報を移動部位置情報Encとしてトリガ発生装置112に出力する機能を有してもよい。この場合、トリガ発生装置112は、移動部位置情報Encに基づいてトリガ入力信号Trigをカメラ111に出力するようにしてもよい。たとえば、撮像装置11をZ軸方向に移動させながらあるワーク2を撮像する場合に、トリガ発生装置112は、移動部位置情報Encに基づいて撮像装置11のZ座標位置が所定量変化したと判定される毎にトリガ入力信号Trigをカメラ111に出力するようにしてもよい。このようにすると、撮像装置11をZ軸方向に移動させながら複数枚の画像を撮像することができる。
撮像装置11をZ軸方向に移動させながら複数枚の画像を撮像する場合、撮像装置11は、撮像された複数枚の画像(以下「画像スタックStack」ともいう)を画像処理部13およびモデル登録部14に出力する。
画像処理部13は、合焦点位置取得部(第1取得部)131と、位置合わせ部132とを含む。合焦点位置取得部131は、画像スタックStackに含まれる複数枚の画像の各々に対して合焦点指標を計算し、計算された合焦点指標の大きさに基づいて画像スタックStackの合焦点位置(深さ位置)PosZを計算する。なお、合焦点指標が計算される対象となる各画像の領域は、各画像の全体の領域であってもよいし、予め決められた局所領域であってもよい。
「合焦点位置PosZ」は、たとえば、画像スタックStackに含まれる複数の画像のうちの、最も焦点が合っている画像が撮像されたときの撮像装置11のZ座標位置で表わすことができる。したがって、合焦点位置PosZの計算に用いられる「合焦点指標」は、撮像装置11でワーク2を撮像した画像をもとに計算可能で、かつ撮像装置11とワーク2のZ軸方向の相対距離に従って変化し、合焦度が最も高い時に極大あるいは極小をとる指標であることが望ましい。
たとえば、合焦点位置取得部131は、下記の式(1)および式(2)に示す行列を画像の各画素に対して畳み込んだ画像の要素の総和を合焦点指標として計算することができる。
Figure 0007077485000001
上記の手法で合焦点指標を計算する場合、合焦点位置取得部131は、画像スタックStackに含まれる複数枚の画像のうちの合焦点指標が最大である画像を選択し、選択された画像が撮像されたときの撮像装置11のZ座標位置を合焦点位置PosZとして計算する。合焦点位置取得部131は、計算された合焦点位置PosZを位置合わせ部132に出力する。
位置合わせ部132は、撮像装置11から取得した画像スタックStackのうちから、合焦点位置PosZに対応する画像を選択し、選択された画像におけるワーク基準領域WRoiPosを計算する。
「ワーク基準領域WRoiPos」は、画像スタックStackにおけるモデル基準領域MRoiPosに対応する領域であり、XYZ座標位置によって特定される。「モデル基準領域MRoiPos」は、位置合わせの基準となるモデル基準画像(たとえばワーク2上のパターンの境界など)が含まれる領域であり、XYZ座標位置によって特定される。モデル基準領域MRoiPosは、後述のモデル基準登録部142によって予め登録される。
たとえば、位置合わせ部132は、画像スタックStackの画像に対してモデル基準領域MRoiPos内の画像をXY軸方向にずらしながら画像スタックStackの各領域とモデル基準領域MRoiPos内の画像との差を順次計算し、計算された差が最小となる領域のXY座標位置をワーク基準領域WRoiPosのXY座標位置として特定する処理(以下「平面位置合わせ」ともいう)を行なう。そして、位置合わせ部132は、平面位置合わせによって特定されたワーク基準領域WRoiPosのXY座標位置に合焦点位置PosZ(Z座標位置)を組合せた信号を、ワーク基準領域WRoiPos(XYZ座標位置)を示す信号として姿勢推定部15に出力する。
モデル登録部14は、モデル対象登録部(第1登録部)141と、モデル基準登録部(第2登録部)142とを含む。モデル対象登録部141およびモデル基準登録部142は、たとえば図示しないコンピュータに設けられる。
モデル対象登録部141は、作業者がワーク2上の領域のうちからワーク2の評価のために合焦点画像IFocusを取得したい領域として指定した領域のXYZ座標位置を「モデル対象領域MRoiPat」として登録する。作業者は、ディスプレイに表示された画像に対してコンピュータを操作して指定したい領域を囲む等の操作を行なうことによって、モデル対象領域MRoiPatを指定することができる。
モデル基準登録部142は、作業者がワーク2上の領域のうちからモデル基準画像が含まれる領域として指定した領域のXYZ座標位置を、上述の「モデル基準領域MRoiPos」として登録する。作業者は、ディスプレイに表示された画像に対してコンピュータを操作して指定したい領域を囲む等の操作を行なうことによって、モデル基準領域MRoiPosを指定することができる。
なお、モデル対象領域MRoiPatおよびモデル基準領域MRoiPosを指定する際にディスプレイに表示される画像は、画像スタックStackに含まれる複数枚の画像のうちから、作業者が選択した画像であってもよいし、コンピュータが自動的に選択した画像であってもよい。
姿勢推定部15は、位置合わせ部132によって計算されたワーク基準領域WRoiPosと、モデル基準登録部142によって予め登録されているモデル基準領域MRoiPosとに基づいて、評価対象として撮像されたワーク2の姿勢を推定する。
なお、ワーク2の姿勢を3次元的に推定するためには少なくとも3つ以上のワーク基準領域WRoiPosが存在することが望ましい。そのため、本実施の形態においては、モデル基準登録部142によって、3つ以上のモデル基準領域MRoiPosが予め登録される。そして、上述の位置合わせ部132は、3つ以上のモデル基準領域MRoiPosにそれぞれ対応する3つ以上のワーク基準領域WRoiPosを姿勢推定部15に出力する。
姿勢推定部15は、ワーク姿勢推定部151と、合焦点領域出力部152とを含む。ワーク姿勢推定部151は、ワーク基準領域WRoiPosとモデル基準領域MRoiPosとに基づいて、撮像されたワーク2の姿勢を推定する。
ワーク2の3つ以上の領域のXYZ座標位置が既知であるとき、下記の式(3)が成り立つ。
Figure 0007077485000002
式(3)において、右辺の行列Aの各成分(a11,a12,…,a34)は任意の定数である。式(3)において、x,y,zが任意のモデル基準領域MRoiPosのXYZ座標位置を表わし、x’,y’,z’がワーク基準領域WRoiPosのXYZ座標位置を表わすとき、上記の式(3)の右辺の行列Aがワーク2の3次元的な姿勢Pを表わす。したがって、3つ以上のモデル基準領域MRoiPosとワーク基準領域WRoiPosとの位置関係の組合わせをもとに式(3)の右辺と左辺が等しいと近似できる行列Aの各成分を求めることで、ワーク2の姿勢Pを3次元的に推定することができる。なお、上記の推定手法はあくまで一例であって、ワーク2の姿勢を推定する手法は上記の推定手法に限定されるものではない。
合焦点領域出力部152は、ワーク姿勢推定部151によって推定されたワーク2の姿勢Pと、モデル対象登録部141によって予め登録されているモデル対象領域MRoiPatとに基づいて、画像スタックStackにおけるモデル対象領域MRoiPatに対応する領域のXYZ座標位置を「ワーク対象領域WRoiPat」として計算する。ワーク対象領域WRoiPatは、ワーク2の全体画像のうちの合焦点画像IFocusを取得したい部分領域であり、ワーク2の評価対象となる領域である。
合焦点領域出力部152は、計算されたワーク対象領域WRoiPatを外部に出力する。外部に出力されたワーク対象領域WRoiPatは、たとえばワーク2の位置決め等に用いられる。また、合焦点領域出力部152は、計算されたワーク対象領域WRoiPatを合焦点画像取得部16にも出力する。
合焦点画像取得部16は、画像スタックStackに含まれる複数枚の画像のうちから、ワーク対象領域WRoiPatに最も焦点が合っている画像を画像処理部13と同様の手法で特定し、特定された画像のワーク対象領域WRoiPat内の画像を合焦点画像IFocusとして取得して外部に出力する。合焦点画像IFocusは、たとえばワーク2の検査などに用いられる。なお、合焦点画像取得部16は、画像取得装置1の外部に設けられてもよい。また、ワーク2の評価に合焦点画像IFocusは用いられない場合には、合焦点画像取得部16を省略可能である。
<モデル領域の登録手順>
図2は、モデル領域(モデル対象領域MRoiPatおよびモデル基準領域MRoiPos)の登録手順の一例を示すフローチャートである。図2のフローチャートは、モデル登録の対象となるワーク2が画像取得装置1にセットされた状態で開始される。
まず、モデル登録の対象となるワーク2の画像スタックStack(以下「モデル画像スタックMStack」ともいう)を取得する処理が実行される(ステップS10)。たとえば、移動装置12を用いて撮像装置11をZ軸方向に移動させながら撮像装置11で複数枚の画像を撮像することによって、モデル画像スタックMStackが取得される。
次いで、モデル対象領域MRoiPatを登録する処理が実行される(ステップS20)。たとえば、作業者が、モデル対象登録部141を用いて、モデル画像スタックMStackに対してモデル対象領域MRoiPatとして登録したい領域を囲む等の操作を行なうことによって、モデル対象領域MRoiPatが登録される。
次いで、モデル基準領域MRoiPosを登録する処理が実行される(ステップS30)。たとえば、作業者が、モデル基準登録部142を用いて、モデル画像スタックMStackに対してモデル基準領域MRoiPosとして登録したい領域を囲む等の操作を行なうことによって、モデル基準領域MRoiPosが登録される。
<ワーク対象領域WRoiPatの計算手順>
図3は、ワーク対象領域WRoiPat(ワーク2の全体画像のうちの合焦点画像IFocusを取得したい部分領域)の計算手順の一例を示すフローチャートである。図3のフローチャートは、評価対象となるワーク2が画像取得装置1にセットされた状態で開始される。
まず、評価対象となるワーク2の画像スタックStack(以下「ワーク画像スタックWStack」ともいう)を取得する処理が実行される(ステップS11)。たとえば、移動装置12を用いて撮像装置11をZ軸方向に移動させながら撮像装置11で複数枚の画像を撮像することによって、ワーク画像スタックWStackが取得される。
次いで、合焦点位置取得部131によって、ワーク画像スタックWStackの合焦点位置PosZを計算する処理が実行される(ステップS40)。この処理では、たとえば、ワーク画像スタックWStack内の画像において、モデル基準登録部142により予め登録されている3つ以上のモデル基準領域MRoiPosをそれぞれ含む3つ以上の計算領域が抽出され、抽出された3つ以上の計算領域ごとに合焦点位置PosZが計算される。これにより、モデル基準領域MRoiPosの数と同じ数(3つ以上)の合焦点位置PosZが計算される。
なお、ステップS40で抽出される各計算領域は、たとえばモデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置とが大きくは異なってはいないことを想定して、各モデル基準領域MRoiPosを中心として各モデル基準領域MRoiPosを所定量拡大した領域に設定される。このようにすることで、各計算領域内に各モデル基準領域MRoiPosが含まれる状態にすることができる。
次に、位置合わせ部132によって、ワーク基準領域WRoiPosを計算する処理が行なわれる(ステップS50)。この処理では、ステップS40で計算された合焦点位置PosZ毎にワーク基準領域WRoiPosを計算する処理が行なわれる。各処理では、合焦点位置PosZの計算領域に対して上述の平面位置合わせを行なってワーク基準領域WRoiPosのXY座標位置が特定され、特定されたワーク基準領域WRoiPosのXY座標位置に合焦点位置PosZを組合せた信号が、ワーク基準領域WRoiPos(XYZ座標位置)とされる。上記の処理が合焦点位置PosZ毎に順次行なわれることによって、モデル基準領域MRoiPosの数と同じ数(3つ以上)のワーク基準領域WRoiPosが計算される。
次に、ワーク姿勢推定部151によって、撮像されたワーク2の姿勢を推定する処理が行なわれる(ステップS60)。この処理では、たとえば、上述のように、3つ以上のモデル基準領域MRoiPosと3つ以上のワーク基準領域WRoiPosとの位置関係の組合わせをもとに上述の式(3)の行列Aの各成分を求めることで、ワーク2の姿勢Pが3次元的に推定される。
次に、合焦点領域出力部152によって、ワーク対象領域WRoiPatを計算する処理が行なわれる(ステップS70)。この処理では、ステップS60で推定されたワーク2の姿勢Pを加味して、ワーク画像スタックWStackにおけるモデル対象領域MRoiPatに対応する領域が、ワーク対象領域WRoiPatとして計算される。なお、ワーク対象領域WRoiPatがワーク画像スタックWStackに含まれない場合には、図示しないブザー等を用いて作業者に報知してもよい。
最後に、合焦点画像取得部16によって、ワーク対象領域WRoiPatに最も焦点が合っている画像を合焦点画像IFocusとして取得する処理が行なわれる(ステップS71)。
以上のように、本実施の形態による画像取得装置1によれば、予め登録されたモデル基準領域MRoiPosについてのみ合焦点位置PosZ、ワーク基準領域WRoiPos、ワーク姿勢Pの推定を行なうことによって、ワーク対象領域WRoiPatおよびその合焦点画像IFocusを取得することができる。すなわち、全焦点画像を生成することなく、ワーク対象領域WRoiPatおよびその合焦点画像IFocusを取得することができる。そのため、全焦点画像を生成する場合に比べて、少ない計算量でワーク対象領域WRoiPatおよびその合焦点画像IFocusを取得することができる。
仮に全焦点画像を生成する場合には、画像取得エリアごとに平面方向、高さ方向の位置決めを実施する必要があり、評価領域の大きさに応じて計算量が線形に増加する。これに対し、本実施の形態による画像取得装置1によれば、全焦点画像を生成しないため、計算量が大幅に軽減される。その結果、評価対象となるワーク2の合焦点画像IFocusを高速に取得することができる。
実施の形態2.
上述の実施の形態1においては、モデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置とが大きくは異なってはいない場合を想定していた。しかしながら、実際には、モデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置とが大きく異なる場合も想定され得る。
そこで、本実施の形態2においては、撮像視野内の位置合わせのための基準となる領域(以下「視野位置合わせ領域」ともいう)を予め登録しておき、視野位置合わせ領域に対する位置合わせ(粗位置合わせ)を行なった上で、上述の実施の形態1と同様の処理を行なう。これにより、モデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置とが大きく異なる場合にも対応可能となる。
図4は、本実施の形態2による画像取得装置1Aを含む画像取得システムの構成を概略的に示す図である。画像取得装置1Aは、上述の図1に示す画像取得装置1に対して、モデル登録部14の内部にモデル視野登録部(第3登録部)143を追加するとともに、視野画像処理部17を追加したものである。その他の構造、機能、処理は、上述の図1に示す画像取得装置1と同じであるため、ここでの詳細な説明は繰返さない。
モデル視野登録部143は、たとえば図示しないコンピュータに設けられており、視野位置合わせ領域を登録する。作業者は、ディスプレイに表示された画像に対してコンピュータを操作して指定したい領域を囲む等の操作を行なうことによって、視野位置合わせ領域を登録することができる。なお、視野位置合わせ領域には、モデル登録時の視野フォーカス位置の計算領域MRoiVFocusと、モデル視野位置合わせ領域MRoiVPatとが含まれる。モデル視野登録部143は、登録された視野位置合わせ領域を視野画像処理部17に出力する。
視野画像処理部17は、視野合焦点位置取得部(第2取得部)171と、視野位置合わせ部172とを含む。視野合焦点位置取得部171は、合焦点位置取得部131と同様の手法で、視野合焦点位置VFocusを計算して視野位置合わせ部172に出力する。視野位置合わせ部172は、位置合わせ部132と同様の手法で、視野位置VPos(後述の視野位置ずれ量OffsetXYZ)を出力する。
図5は、本実施の形態2によるモデル領域の登録手順の一例を示すフローチャートである。図5のフローチャートは、図2のフローチャートに対して、ステップS80,S81を追加したものである。その他のステップ(上述の図2に示したステップと同じ番号を付しているステップ)については、既に説明したため詳細な説明はここでは繰り返さない。
モデル画像スタックMStackの取得(ステップS10)、モデル対象領域MRoiPatの登録(ステップS20)、モデル基準領域MRoiPosの登録(ステップS30)が行なわれた後、モデル視野登録部143によって、視野位置合わせ領域を登録する処理が行なわれる(ステップS80)。この処理では、モデル登録時の視野フォーカス位置の計算領域MRoiVFocusとモデル視野位置合わせ領域MRoiVPatとが登録される。
次いで、モデル視野合焦点位置MVFocusを登録する処理が行なわれる(ステップS81)。この処理では、モデル画像スタックMStack中の各画像の計算領域MRoiVFocusについて、視野合焦点位置取得部171を用いて合焦点指標が計算され、合焦点指標が最大である画像のZ座標位置がモデル視野合焦点位置MVFocusとして登録される。
図6は、本実施の形態2によるワーク対象領域WRoiPatの計算手順の一例を示すフローチャートである。図6のフローチャートは、上述の図3のステップS40,S50をそれぞれステップS41,S51に変更し、さらにステップS90,S100を追加したものである。その他のステップ(上述の図3に示したステップと同じ番号を付しているステップ)については、既に説明したため詳細な説明はここでは繰り返さない。
ワーク画像スタックWStackの取得(ステップS11)が行なわれた後、視野合焦点位置取得部171によって、ワーク視野合焦点位置WVFocusを計算する処理が行なわれる(ステップS90)。この処理では、ワーク画像スタックWStack中の各画像の計算領域MRoiVFocusについて合焦点指標が計算され、合焦点指標に基づいて合焦度が最も高いと判定される画像のZ座標位置がワーク視野合焦点位置WVFocusとして計算される。
次いで、視野位置合わせ部172によって、視野位置合わせが行なわれる(ステップS100)。この処理では、モデル視野合焦点位置MVFocusに対するワーク視野合焦点位置WVFocusの深さ位置ずれ量OffsetZを加味して、モデル視野位置合わせ領域MRoiVPatに対応するワーク視野位置合わせ領域WRoiVPatが計算され、ワーク視野位置合わせ領域WRoiVPatとモデル視野位置合わせ領域MRoiVPatとの位置ずれ量が、視野位置ずれ量OffsetXYZとして計算される。この視野位置ずれ量OffsetXYZが、モデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置との3次元的な位置ずれ量に相当する。上述の視野位置VPosは、ステップS100で計算される視野位置ずれ量OffsetXYZと同義である。
次に、合焦点位置取得部131によって、ワーク画像スタックWStackの合焦点位置PosZを計算する処理が実行される(ステップS41)。この処理では、ステップS100で計算された視野位置ずれ量OffsetXYZを加味してモデル基準領域MRoiPosに対応するワーク基準領域WRoiPosが計算され、上述の図3のステップS40と同様に、ワーク基準領域WRoiPosごとの合焦点位置PosZが計算される。
次に、位置合わせ部132によって、ワーク基準領域WRoiPosを計算する処理が行なわれる(ステップS51)。この処理では、ステップS100で計算された視野位置ずれ量OffsetXYZを加味してワーク基準領域WRoiPosを計算し、上述の図3のステップS50と同様にワーク基準領域WRoiPosごとの位置ずれ量が計算される。
以降においては、上述の図3で説明したワーク2の姿勢を推定する処理(ステップS60)、ワーク対象領域WRoiPatを計算する処理(ステップS70)、ワーク対象領域WRoiPatの合焦点画像IFocusを取得する処理(ステップS71)が行なわれる。
以上のようにすることで、本実施の形態2による画像取得装置1Aにおいては、上述の実施の形態1と同様に、評価対象となるワーク2のワーク対象領域WRoiPatおよびその合焦点画像IFocusを高速に取得することができる。さらに、モデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置との視野位置ずれ量OffsetXYZを加味してワーク対象領域WRoiPatを計算することができる。そのため、モデル登録時のワーク2のセット位置と評価対象となるワーク2のセット位置とが大きく異なる場合にも、ワーク対象領域WRoiPatおよびその合焦点画像IFocusを取得することができる。
実施の形態3.
上述の実施の形態1,2においては、撮像装置11あるいは台座3をZ軸方向に移動させた場合の撮像視野内に、位置合わせのための基準として登録できる図柄が存在する場合を想定している。しかしながら、実際には、ワーク2のXY軸方向の大きさが大きいために、撮像装置11あるいは台座3をZ軸方向に移動させた場合の撮像視野内に、位置合わせのための基準として登録できる図柄がない場合も想定され得る。
上記の点に鑑み、本実施の形態3においては、撮像装置11あるいは台座3をZ軸方向に加えてXY軸方向にも移動させることによってXY軸方向にスライドさせた複数の撮像視野でワーク2を撮像し、複数の撮像視野のうちのいずれかの視野の画像で位置合わせのための基準を登録するようにしている。
図7は、本実施の形態3による画像取得装置1Bを含む画像取得システムの構成を概略的に示す図である。画像取得装置1Bは、上述の図4に示す画像取得装置1Aに対して、撮像位置記録部122を追加したものである。その他の構造、機能、処理は、上述の画像取得装置1Aと同じであるため、ここでの詳細な説明は繰返さない。
撮像位置記録部122は、ワーク2を撮像した時の移動部位置情報Encを撮像位置信号VPosとして記録し、記録した撮像位置信号VPosをワーク姿勢推定部151に出力する。なお、本実施の形態3においては、上述のように、撮像装置11あるいは台座3をZ軸方向に加えてXY軸方向にも移動させることによって、XY軸方向にスライドさせた複数の撮像視野でワーク2を撮像することを想定している。
ワーク姿勢推定部151は、実施の形態1および実施の形態2で説明した機能に加えて、撮像位置記録部122からの撮像位置信号VPosを受ける機能を有する。
図8は、本実施の形態3によるモデル領域の登録手順の一例を示すフローチャートである。図8のフローチャートは、図5のフローチャートに対して、ステップS110,S120を追加したものである。その他のステップ(上述の図5に示したステップと同じ番号を付しているステップ)については、既に説明したため詳細な説明はここでは繰り返さない。
まず、XY軸方向のすべての視野の撮像が完了したかどうかが判定される(ステップS110)。XY軸方向のすべての視野の撮像が完了していない場合(ステップS110においてNO)、撮像位置記録部122によって現在の撮像位置信号VPosを記録する処理が行なわれる(ステップS120)。その後、上述の図5に示すステップS10~S81の処理が行なわれる。その後、処理はステップS110に戻され、XY軸方向のすべての視野の撮像が完了するまで、ステップS110,S120,S10~S81までの処理がXY軸方向の視野毎に繰り返される。そして、XY軸方向のすべての視野の撮像が完了した場合(ステップS110においてYES)、モデル登録処理は終了される。
図9は、本実施の形態3によるワーク対象領域WRoiPatの計算手順の一例を示すフローチャートである。なお、図9に示したステップのうち、上述の図6に示したステップと同じ番号を付しているステップについては、既に説明したため詳細な説明はここでは繰り返さない。
まず、XY軸方向のすべての視野の撮像が完了したかどうかが判定される(ステップS111)。XY軸方向のすべての視野の撮像が完了していない場合(ステップS111においてNO)、撮像位置記録部122によって現在の撮像位置信号VPosを記録する処理が行なわれる(ステップS121)。その後、上述の図6に示すステップS11~S51の処理が行なわれる。その後、処理はステップS111に戻され、XY軸方向のすべての視野の撮像が完了するまでステップS111,S121,S11~S51までの処理が視野毎に繰り返される。
そして、XY軸方向のすべての視野の撮像が完了した場合(ステップS111においてYES)、ワーク2の姿勢を推定する処理が行なわれる(ステップS61)。この処理では、ステップS41で計算された各視野の合焦点位置PosZと、ステップS51で計算された各視野のワーク基準領域WRoiPosと、ステップS121で記録された各視野の撮像位置信号VPosとに基づいて、ワーク2の姿勢が推定される。
以後は、実施の形態1,2と同様に、ワーク対象領域WRoiPatを計算する処理(ステップS70)、合焦点画像IFocusとして取得する処理(ステップS71)が行なわれる。
以上のようにすることで、本実施の形態3による画像取得装置1Bにおいては、上述の実施の形態1,2と同様に、評価対象となるワーク2のワーク対象領域WRoiPatおよびその合焦点画像IFocusを高速に取得することができる。さらに、本実施の形態3による画像取得装置1Bは、XY軸方向にスライドさせた複数の撮像視野でワーク2を撮像し、複数の視野のうちのいずれかの視野の画像で位置合わせのための基準を登録するようにしている。そのため、1つの撮像視野内に位置合わせのための基準として登録できる構造物がない場合にも、ワーク対象領域WRoiPatおよびその合焦点画像IFocusを取得することができる。
実施の形態4.
実施の形態1、2、3においては、ワーク2の位置合わせの基準と、撮像装置11による撮像領域との間に位置ずれがないことを想定している。しかしながら、ワーク2が複数の部品を組み立てて構成されるモジュールなどの場合には、ワーク2の組み立て誤差の影響で、位置合わせの基準と撮像領域の間に多少の位置ずれが生じる場合も想定され得る。
上記の点に鑑み、本実施の形態4においては、撮像領域ごとに位置合わせの基準に対する位置ずれを補正するための位置合わせの基準を登録するようにしている。
図10は、本実施の形態4による画像取得装置1Cを含む画像取得システムの構成を概略的に示す図である。画像取得装置1Cは、上述の図1に示す画像取得装置1に対して、モデル登録部14の内部に部位基準登録部144と、部位画像処理部18とを追加したものである。その他の構造、機能、処理は、上述の図1に示す画像取得装置1と同じであるため、ここでの詳細な説明は繰返さない。
部位基準登録部144は、たとえば図示しないコンピュータに設けられており、ワーク2の部位ごとの位置合わせのための基準となる「部位位置合わせ領域」を登録する。作業者が、ディスプレイに表示された画像に対してコンピュータを操作して指定したい領域を囲む等の操作を行なうことによって、部位位置合わせ領域を登録することを想定している。なお、部位位置合わせ領域には、モデル登録時の部位フォーカス位置の計算領域MRoiPFocusと、モデル部位位置合わせ領域MRoiPPatとが含まれる。部位基準登録部144は、登録された部位位置合わせ領域を部位画像処理部18に出力する。
部位画像処理部18は、部位合焦点位置取得部181と、部位位置合わせ部182とを含む。
部位合焦点位置取得部181は、合焦点位置取得部131と同様の手法で、部位合焦点位置PFocusを計算して部位位置合わせ部182に出力する。部位位置合わせ部182は、位置合わせ部132と同様の手法で、部位位置Ppos(後述の部位位置ずれ量POffsetXYZ)を計算して合焦点領域出力部152に出力する。
本実施の形態4による合焦点領域出力部152は、上述による実施の形態1~3の合焦点領域出力部152の機能に加えて、部位位置ずれ量POffsetXYZを受ける機能を有する。
図11は、本実施の形態4によるモデル領域の登録手順の一例を示すフローチャートである。図11のフローチャートは、図2のフローチャートに対して、ステップS130,S131を追加したものである。その他のステップ(上述の図2に示したステップと同じ番号を付しているステップ)については、既に説明したため詳細な説明はここでは繰り返さない。
本実施の形態4によるモデル領域の登録では、モデル画像スタックMStackの取得(ステップS10)、モデル対象領域MRoiPatの登録(ステップS20)、モデル基準領域MRoiPosの登録(ステップS30)が行なわれた後、部位位置合わせ領域を登録する処理が行われる(ステップS130)。この処理では、部位基準登録部144によって、モデル登録時の部位フォーカス位置の計算領域MRoiPFocusと、モデル部位位置合わせ領域MRoiPPatが登録される。
次いで、モデル部位合焦点位置MPFocusを登録する処理が行なわれる(ステップS131)。この処理では、モデル画像スタックMStack中の各画像の部位フォーカス位置の計算領域MRoiPFocusについて、部位合焦点位置取得部181を用いて合焦点指標が算出され、モデル画像スタックMStack中の各画像の計算領域MRoiVFocusについて、視野合焦点位置取得部171を用いて合焦点指標が計算され、求められた合焦点位置(合焦点指標が最大である画像のZ座標位置)がモデル部位合焦点位置MPFocusとして登録される。
図12は、本実施の形態4によるワーク対象領域WRoiPatの計算手順の一例を示すフローチャートである。図12のフローチャートは、上述の図3のフローチャートに対して、ステップS140、S150を追加したものである。その他のステップ(上述の図3に示したステップと同じ番号を付しているステップ)については、既に説明したため詳細な説明はここでは繰り返さない。
ワーク画像スタックWStackの取得(ステップS11)が行なわれた後、ワーク部位合焦点位置WPFocusを計算する処理が行なわれる(ステップS140)。この処理では、部位基準登録部144に部位フォーカス位置の計算領域MRoiPFocusとして登録された領域についてのワーク部位合焦点位置WPFocusを、部位合焦点位置取得部181により計算する処理が実施される。
ステップ140の実施後、ステップ150の処理が行なわれる。ステップS150では、部位基準登録部144によりモデル部位位置合わせ領域MRoiPPatとして登録された領域について、モデル部位合焦点位置MPFocusに対するワーク部位合焦点位置WPFocusの部位深さ位置ずれ量POffsetZを加味した深さ位置をもとに、ワーク部位位置合わせ領域WRoiPPatが算出され、ワーク部位位置合わせ領域WRoiPPatとモデル部位位置合わせ領域MRoiPPatとの位置ずれ量が、部位位置ずれ量POffsetXYZとして算出される。
次に、上述の図3で説明した、合焦点位置PosZを計算する処理(ステップS40)、ワーク基準領域WRoiPosを計算する処理(ステップS50)、ワーク2の姿勢Pを推定する処理(ステップS60)が行なわれる。
実施の形態4における、ワーク対象領域WRoiPatを計算する処理(ステップS70)においては、ステップS60で推定されたワーク2の姿勢Pと、モデル対象領域MRoiPatの位置と、ステップ150で算出された部位位置ずれ量POffsetXYZをもとに、ワーク画像スタックWStackにおけるワーク対象領域WRoiPatが算出される。
最後に、上述の図3で説明したワーク対象領域WRoiPatの合焦点画像IFocusを取得する処理(ステップS71)が行なわれる。
以上のようにすることで、本実施の形態4による画像取得装置1Cにおいては、上述の実施の形態1、2、3と同様に、評価対象となるワーク2のワーク対象領域WRoiPatおよびその合焦点画像IFocusを高速に取得することができる。さらに、本実施の形態4による画像取得装置1Cは、撮像領域ごとに位置ずれを補正するための位置合わせの基準を登録するようにしている。そのため、複数の部品を組み立てて構成されるモジュールなどを撮像する場合に、組み立て誤差を吸収して、部品ごとの位置ずれの影響を受けずに合焦点画像を取得することが可能である。
実施の形態5.
実施の形態1、2、3、4においては、合焦点画像を取得したい領域ごとに、作業者がモデル領域の登録する作業を行なうことを想定している。しかしながら、ワーク2について合焦点画像を取得したい領域が大量にある場合には、登録作業に莫大な時間がかかることが懸念される。
上記の点に鑑み、本実施の形態5においては、過去に登録した撮像領域の画像をもとに撮像領域の候補を作成する機械学習機能を用いて、撮像領域の候補をもとにモデル領域を登録する。これにより、合焦点画像を取得したい領域が大量にある場合にも、モデル領域の登録を効率的に行うことができる。
図13は、本実施の形態5による画像取得装置1Dを含む画像取得システムの構成を概略的に示す図である。画像取得装置1Dは、上述の図1に示す画像取得装置1に対して、学習部19を追加したものである。その他の構造、機能、処理は、上述の図1に示す画像取得装置1と同じであるため、ここでの詳細な説明は繰返さない。
学習部19は、サンプル画像生成部191、機械学習部192、学習データ記録部193、画像切り出し部194、判定部195を含む。なお、学習部19は、必ずしも画像取得装置1Dに内蔵されることに限定されず、画像取得装置1Dの外部(たとえばクラウドサーバ)に存在していてもよい。
サンプル画像生成部191は、画像スタックStackとモデル対象領域MRoiPatとをもとに、画像スタックStackにおけるモデル対象領域MRoiPatの画像であるサンプル画像MRoiPatImgと、サンプル画像MRoiPatImgがモデル対象領域MRoiPatであるかどうかの真偽値である真偽値isMRoiPatとの組合せを出力する。真偽値isMRoiPatが偽の場合のサンプル画像MRoiPatImgは、モデル対象領域MRoiPatを元に、同程度の大きさで、モデル対象領域MRoiPatを含まない領域を出力する。
機械学習部192は、サンプル画像MRoiPatImgとその真偽値isMRoiPatとの組合せに従って、モデル対象領域である確率を示す確率MRoiPatPを学習し、学習結果を学習データCとして学習データ記録部193に記録する。また、機械学習部192は、学習データ記録部193に記録されている学習データCと、画像切り出し部194からの部分画像データRoiImgとを入力として、部分画像データRoiImgがモデル対象領域である確率を示す確率MRoiPatPを出力する推論手段として機能する。機械学習部192は、例えば、ニューラルネットワークモデルに従って、いわゆる教師あり学習を実施する装置である。
ここで、教師あり学習とは、ある入力と出力結果(ラベル)とのデータセットを大量に学習装置に与えることで、それらのデータセットにある特徴を学習し、入力から出力結果を推定するモデルをいう。ニューラルネットワークは、複数のニューロンからなる入力層、複数のニューロンからなる中間層(隠れ層)、及び複数のニューロンからなる出力層で構成される。中間層は、1層、又は2層以上でもよい。
図14は、ニューラルネットワークのモデルの一例を示す図である。図14に示すような3層のニューラルネットワークであれば、複数の入力が入力層(X1~X3)に入力されると、その値に重みW1(w11~w16)を掛けた結果が中間層(Y1,Y2)に入力され、その結果にさらに重みW2(w21~w26)を掛けた結果が出力層(Z1~Z3)から出力される。この出力結果は、重みW1とW2の値によって変わる。
本願において、ニューラルネットワークは、サンプル画像MRoiPatImgと真偽値isMRoiPatとの組合せに基づいて作成されるデータセットに従って、いわゆる教師あり学習により上述の確率MRoiPatPを学習し、その学習結果を学習データCとして学習データ記録部193に記録する。
図13に戻って、学習データ記録部193は、機械学習部192の学習結果である学習データCを保存する機能を有する。
また、機械学習部192の学習は、複数種類のワーク2に対して作成されるデータセットに従って、学習してもよい。なお、機械学習部192は、同一の現場で使用される複数のワーク2からデータセットを取得してもよいし、異なる現場で独立して稼働する複数の工作機械から収集されるデータセットを利用して確率MRoiPatPを学習してもよい。さらに、データセットを収集するワーク2を途中で対象に追加し、或いは、逆に対象から除去することも可能である。
画像切り出し部194は、画像スタックStackを元に、部分画像データRoiImgを切り出して機械学習部192に出力する。部分画像データRoiImgの切り出し方は、画像スタックStackを構成する各画像に対して、縦方向、横方向に等ピッチ、等サイズで画像を切り出す方法であってもよい。
判定部195は、機械学習部192からの確率MRoiPatPを元に、部分画像データRoiImgがモデル対象領域の候補となるか否かを判定し、モデル対象領域の候補となると判定された部分画像データRoiImgを、推定モデル対象領域MRoiPatEとして出力する。例えば、確率MRoiPatPが予め設定されたしきい値Thとを比較した結果で、推定モデル対象領域MRoiPatEを出力するようにしてもよい。
実施の形態5によるモデル対象登録部141は、画像スタックStackと、推定モデル対象領域MRoiPatEを入力として受け、モデル対象領域MRoiPatを出力する。
モデル対象登録部141は、図示省略のコンピュータに設けられている。推定モデル対象領域MRoiPatEがある場合には、推定モデル対象領域MRoiPatEを作業者に提示する。作業者は、コンピュータを操作して、推定モデル対象領域MRoiPatEをモデル対象領域MRoiPatとして登録する。あるいは、画像が表示された画面上で推定モデル対象領域MRoiPatEを修正する等の操作を行って、モデル対象領域MRoiPatとして登録することを想定している。
図15は、本実施の形態5によるモデル領域の登録手順の一例を示すフローチャートである。図15のフローチャートは、図2のフローチャートに対して、ステップS160,S170,S180を追加したものである。その他のステップ(上述の図2に示したステップと同じ番号を付しているステップ)については、既に説明したため詳細な説明はここでは繰り返さない。
本実施の形態5によるモデル登録では、ステップS10の後、ステップS160が実施される。ステップS160では、機械学習部192で利用できる学習データCが学習データ記録部193にあるかどうかが確認される。学習データCがなければ(ステップS160においてNO)、ステップS20、すなわち実施の形態1のモデル領域の登録手順と同様の方法で、モデル領域の登録が実施される。
学習データCがある場合(ステップS160においてYES)には、ステップ170が実施される。ステップS170では、ステップS10で取得した画像スタックStackに対して画像切り出し部194により部分画像データRoiImgが切り出され、学習データCと合わせて機械学習部192に入力される。機械学習部192では、部分画像データRoiImgがモデル対象領域である確率MRoiPatPを計算する。この確率MRoiPatPを元に、判定部195は、部分画像データRoiImgがモデル対象領域の候補となるかどうかを判定し、モデル対象領域の候補となると判定された部分画像データRoiImgを推定モデル対象領域MRoiPatEとして、モデル対象登録部141に出力する。
本実施の形態5によるステップS20では、推定モデル対象領域MRoiPatEを参照しつつ、作業者が、合焦点画像を取得したい領域をモデル対象領域MRoiPatとして登録する。
さらに、本実施の形態5では、ステップS30完了後、ステップS180が実施される。ステップS180では、後述の図16に示すモデル領域の学習手順を実施するため、モデル画像スタックMStackとモデル対象領域MRoiPatとの組合せをサンプル画像生成部191に記録する。
図16は、本実施の形態5におけるモデル領域の学習手順の一例を示すフローチャートである。モデル領域の学習においては、まず、ステップS200が実施される。ステップS200では、上述の図15のステップS180において予め記録された、モデル画像スタックMStackとモデル対象領域MRoiPatとの組合せをもとに、サンプル画像生成部191が、サンプル画像MRoiPatImgと真偽値isMRoiPatとの組合せを出力する。次に、機械学習部192が、サンプル画像MRoiPatImgと真偽値isMRoiPatとの組合せの群からなるデータセットを学習し、与えられた画像が、モデル対象領域である確率である確率MRoiPatPを推論するように学習する。
続いて、ステップS201が実施される。ステップS201では、機械学習部192の学習した結果である学習データCがモデル領域登録において使用できるように、学習データCが学習データ記録部193に記録される。
以上のようにすることで、本実施の形態5による画像取得装置1Dにおいては、上述の実施の形態1、2、3と同様に評価対象となるワーク2のワーク対象領域WRoiPatおよびその合焦点画像IFocusを高速に取得することができる。さらに、本実施の形態5による画像取得装置1Dは、過去に登録した撮像領域の画像をもとに撮像領域の候補を作成する機械学習機能を用いて、撮像領域の候補をもとに領域を登録する。これにより、合焦点画像を取得したい領域が大量にある場合にも、手間なく登録作業を行うことができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A,1B,1C,1D 画像取得装置、2 ワーク、3 台座、11 撮像装置、12 移動装置、13 画像処理部、14 モデル登録部、15 姿勢推定部、16 合焦点画像取得部、17 視野画像処理部、18 部位画像処理部、19 学習部、122 撮像位置記録部、131 合焦点位置取得部、132 位置合わせ部、141 モデル対象登録部、142 モデル基準登録部、143 モデル視野登録部、144 部位基準登録部、151 ワーク姿勢推定部、152 合焦点領域計算部、171 視野合焦点位置取得部、172 視野位置合わせ部、181 部位合焦点位置取得部、182 部位位置合わせ部、191 サンプル画像生成部、192 機械学習部、193 学習データ記録部、194 画像切り出し部、195 判定部。

Claims (10)

  1. ワークの画像を取得する画像取得装置であって、
    モデル登録の対象となるワークの画像であるモデル画像を用いて合焦点画像を取得する対象となる第1領域を登録する第1登録部と、
    前記モデル画像を用いて位置合わせに用いられる第2領域を登録する第2登録部と、
    評価対象となるワークの画像であるワーク画像を撮影する撮像装置と、
    前記撮像装置および前記ワークの少なくとも一方を前記撮像装置の光軸方向に移動可能に構成された移動装置と、
    前記移動装置を作動させながら前記撮像装置が撮像した焦点の異なる複数のワーク画像のうちの最も合焦度の高い画像の深さ位置を合焦点位置として取得する第1取得部と、
    前記合焦点位置のワーク画像に対して前記第2領域との位置合わせを実施することによって前記ワーク画像における前記第2領域に対応する領域を特定する位置合わせ部と、
    前記モデル画像における前記第2領域と前記ワーク画像における前記第2領域に対応する領域との位置関係に基づいて撮像時の前記ワークの姿勢を示す情報を取得可能に構成された姿勢推定部と、
    前記ワークの姿勢を示す情報を用いて前記ワーク画像における前記第1領域に対応する領域の位置を出力する領域出力部と、
    を備える、画像取得装置。
  2. 前記モデル画像を用いて撮像視野の位置合わせに用いられる第3領域を登録する第3登録部と、
    前記撮像装置が撮像した焦点の異なる複数の前記ワーク画像のうちの前記第3領域において最も合焦度の高い画像の深さ位置を視野合焦点位置として取得する第2取得部と、
    前記合焦点位置のワーク画像における前記第3領域に対応する領域と、前記モデル画像における前記第3領域との位置合わせを実施することによって、前記ワーク画像における前記第3領域に対応する領域と前記モデル画像における前記第3領域との位置との位置ずれ量を取得する視野位置合わせ部とをさらに備え、
    前記第1取得部は、前記位置ずれ量を加味して前記合焦点位置を取得する、請求項1に記載の画像取得装置。
  3. 前記撮像装置の光軸方向の撮像位置を視野毎に記録する位置記録部をさらに備え、
    前記姿勢推定部は、前記撮像位置に基づいて前記ワークの姿勢を示す情報を取得する、請求項1または2に記載の画像取得装置。
  4. 前記モデル画像の部位ごとの位置合わせに用いられる部位領域を登録する部位領域登録部と、
    前記モデル画像の部位ごとの合焦点位置である部位合焦点位置を取得する部位焦点位置取得部と、
    前記部位合焦点位置のワーク画像における前記部位領域に対応する領域と、前記モデル画像における前記部位領域との位置合わせを実施する部位位置合わせ部とをさらに備える、請求項1~3のいずれか1項に記載の画像取得装置。
  5. 前記第1登録部により登録された第1領域と前記撮像装置によって撮像された画像データの複数の組合せに基づいて前記第1領域と前記画像データとの対応を機械学習し、機械学習の結果を用いて、与えられた画像データが前記第1領域の候補となるかどうかを判定する機械学習部をさらに備える、請求項1~4のいずれか1項に記載の画像取得装置。
  6. ワークの画像を取得する画像取得方法であって、
    モデル登録の対象となるワークの画像であるモデル画像を用いて合焦点画像を取得する対象となる第1領域を登録するステップと、
    前記モデル画像を用いて位置合わせに用いられる第2領域を登録するステップと、
    評価対象となるワークの画像であるワーク画像を撮像装置で撮影するステップと、
    前記撮像装置が撮像した焦点の異なる複数のワーク画像のうちの最も合焦度の高い画像の深さ位置を合焦点位置として取得するステップと、
    前記合焦点位置のワーク画像に対して前記第2領域との位置合わせを実施することによって前記ワーク画像における前記第2領域に対応する領域を特定するステップと、
    前記モデル画像における前記第2領域と前記ワーク画像における前記第2領域に対応する領域との位置関係に基づいて撮像時の前記ワークの姿勢を示す情報を取得するステップと、
    前記ワークの姿勢を示す情報を用いて前記ワーク画像における前記第1領域に対応する領域の位置を出力するステップと、
    を含む、画像取得方法。
  7. 前記モデル画像を用いて撮像視野の位置合わせに用いられる第3領域を登録するステップと、
    前記撮像装置が撮像した焦点の異なる複数の前記ワーク画像のうちの前記第3領域において最も合焦度の高い画像の深さ位置を視野合焦点位置として取得するステップと、
    前記合焦点位置のワーク画像における前記第3領域に対応する領域と、前記モデル画像における前記第3領域との位置ずれ量を取得するステップとをさらに含み、
    前記合焦点位置を取得するステップは、前記位置ずれ量を加味して前記合焦点位置を取得するステップを含む、請求項6に記載の画像取得方法。
  8. 前記撮像装置の光軸方向の撮像位置を視野毎に記録するステップをさらに含み、
    前記ワークの姿勢を示す情報を取得するステップは、前記撮像位置に基づいて前記ワークの姿勢を示す情報を取得する、請求項6または7に記載の画像取得方法。
  9. 前記モデル画像の部位ごとの位置合わせに用いられる部位領域を登録するステップと、
    前記モデル画像の部位ごとの合焦点位置である部位合焦点位置を取得するステップと、 前記部位合焦点位置のワーク画像における前記部位領域に対応する領域と、前記モデル画像における前記部位領域との位置合わせを実施するステップとをさらに含む、請求項6~8のいずれか1項に記載の画像取得方法。
  10. 登録された前記第1領域と前記撮像装置によって撮像された画像データの複数の組合せに基づいて前記第1領域と前記画像データとの対応を機械学習するステップと、
    機械学習の結果を用いて、与えられた画像データが前記第1領域の候補となるかどうかを判定するステップとをさらに備える、請求項6~9のいずれか1項に記載の画像取得方法。
JP2021522789A 2019-05-30 2020-05-26 画像取得装置および画像取得方法 Active JP7077485B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019100835 2019-05-30
JP2019100835 2019-05-30
PCT/JP2020/020781 WO2020241648A1 (ja) 2019-05-30 2020-05-26 画像取得装置および画像取得方法

Publications (2)

Publication Number Publication Date
JPWO2020241648A1 JPWO2020241648A1 (ja) 2021-10-28
JP7077485B2 true JP7077485B2 (ja) 2022-05-30

Family

ID=73552218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522789A Active JP7077485B2 (ja) 2019-05-30 2020-05-26 画像取得装置および画像取得方法

Country Status (2)

Country Link
JP (1) JP7077485B2 (ja)
WO (1) WO2020241648A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225431A (ja) 2006-02-23 2007-09-06 Mitsubishi Electric Corp 外観検査装置
JP2013255972A (ja) 2012-06-14 2013-12-26 Shinnichi Kogyo Co Ltd ワーク搬送装置およびその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225431A (ja) 2006-02-23 2007-09-06 Mitsubishi Electric Corp 外観検査装置
JP2013255972A (ja) 2012-06-14 2013-12-26 Shinnichi Kogyo Co Ltd ワーク搬送装置およびその制御方法

Also Published As

Publication number Publication date
JPWO2020241648A1 (ja) 2021-10-28
WO2020241648A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
US9124873B2 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
US20190122378A1 (en) Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
US8600192B2 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
US6751338B1 (en) System and method of using range image data with machine vision tools
US11403780B2 (en) Camera calibration device and camera calibration method
JP6274794B2 (ja) 情報処理装置、情報処理方法、プログラム、及び画像測定装置
JP2007256091A (ja) レンジファインダ校正方法及び装置
US20120147149A1 (en) System and method for training a model in a plurality of non-perspective cameras and determining 3d pose of an object at runtime with the same
WO2017149869A1 (ja) 情報処理装置、方法、プログラム及びマルチカメラシステム
Liu et al. Robust camera calibration by optimal localization of spatial control points
JPWO2012029662A1 (ja) 画像処理方法および画像処理装置
Niola et al. A new real-time shape acquisition with a laser scanner: first test results
JP2008217526A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP5563930B2 (ja) 非接触三次元計測装置及び非接触三次元計測方法
JP7077485B2 (ja) 画像取得装置および画像取得方法
US10818020B2 (en) Apparatus and a method for obtaining a registration error map representing a level of sharpness of an image
JP2006195790A (ja) レンズ歪推定装置、レンズ歪推定方法、及びレンズ歪推定プログラム
RU2647645C1 (ru) Способ устранения швов при создании панорамных изображений из видеопотока кадров в режиме реального времени
WO2021177245A1 (ja) 画像処理装置、作業指示作成システム、作業指示作成方法
CN118119972A (zh) 生成用于相机校准的相机模型的方法和***
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム
WO2018096669A1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
Braunreuther et al. Welding joint detection by calibrated mosaicking with laser scanner systems
Kopparapu et al. The effect of measurement noise on intrinsic camera calibration parameters
JP3849030B2 (ja) カメラキャリブレーション装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220518

R150 Certificate of patent or registration of utility model

Ref document number: 7077485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150