JPWO2020144784A1 - 画像処理装置、作業ロボット、基板検査装置および検体検査装置 - Google Patents

画像処理装置、作業ロボット、基板検査装置および検体検査装置 Download PDF

Info

Publication number
JPWO2020144784A1
JPWO2020144784A1 JP2020565086A JP2020565086A JPWO2020144784A1 JP WO2020144784 A1 JPWO2020144784 A1 JP WO2020144784A1 JP 2020565086 A JP2020565086 A JP 2020565086A JP 2020565086 A JP2020565086 A JP 2020565086A JP WO2020144784 A1 JPWO2020144784 A1 JP WO2020144784A1
Authority
JP
Japan
Prior art keywords
dimensional
image
image processing
feature
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020565086A
Other languages
English (en)
Other versions
JP7174074B2 (ja
Inventor
雅史 天野
雅史 天野
信夫 大石
信夫 大石
隆人 行方
隆人 行方
真人 岩渕
真人 岩渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2020144784A1 publication Critical patent/JPWO2020144784A1/ja
Application granted granted Critical
Publication of JP7174074B2 publication Critical patent/JP7174074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置は、対象物が有する複数の特徴点の特徴量および三次元の位置情報が対応付けられた三次元形状モデルを記憶する記憶部と、カメラにより撮像された対象物の二次元画像から特徴点の特徴量および二次元の位置情報を抽出する抽出処理部と、二次元画像の特徴点と三次元形状モデルの特徴点とのマッチングを特徴量を用いて行うことにより、二次元画像の特徴点の三次元の位置情報を特定して対象物の位置および姿勢を認識する認識処理部と、を備えるものである。

Description

本明細書は、画像処理装置、作業ロボット、基板検査装置および検体検査装置を開示する。
従来、画像処理装置として、対象物の二次元画像(平面画像)の画像データを取得し、その画像データに基づいて三次元空間における対象物の位置および姿勢を検出するものが提案されている(例えば、特許文献1参照)。この装置では、対象物の各面のテンプレート画像を用意しておき、取得した画像データに含まれる対象物の画像から可視面を検出して各可視面に対応するテンプレート画像をそれぞれ読み込み、テンプレート画像毎に視線方向を画像データの視線方向に合わせて変更した変換画像データを作成する。そして、画像処理装置は、画像データと変換画像データとの一致度を計算し、一致度が閾値を超えて有効とされる面のうち信頼性が最も高い面に基づいて、対象物の位置および姿勢を求めるものとしている。
特開2012−185752号公報
上述した画像処理装置では、撮像された画像データの可視面に存在する全ての点について変換行列を用いた変換処理を施して変換画像データを作成する。このため、画像処理装置の処理負担が大きくなって、位置や姿勢を認識するのに時間がかかる場合がある。
本開示は、処理負担を抑えつつ対象物の位置や姿勢を精度よく認識することを主目的とする。
本開示は、上述の主目的を達成するために以下の手段を採った。
本開示の画像処理装置は、対象物の複数の特徴点の特徴量および三次元の位置情報が対応付けられた三次元形状モデルを記憶する記憶部と、カメラにより撮像された前記対象物の二次元画像から特徴点の特徴量および二次元の位置情報を抽出する抽出処理部と、前記二次元画像の特徴点と前記三次元形状モデルの特徴点とのマッチングを前記特徴量を用いて行うことにより、前記二次元画像の特徴点の三次元の位置情報を特定して前記対象物の位置および姿勢を認識する認識処理部と、を備えることを要旨とする。
本開示の画像処理装置は、カメラにより撮像された対象物の二次元画像から特徴点の特徴量および二次元の位置情報を抽出し、二次元画像の特徴点と三次元形状モデルの特徴点とのマッチングを特徴量を用いて行うことにより対象物の位置および姿勢を認識する。これにより、対象物の位置および姿勢を認識する際に、対象物の二次元画像から抽出した特徴点と三次元形状モデルの特徴点とのマッチングを行えばよく、画像内の全ての点の処理を行う必要がないから処理負担を軽減することができる。また、各特徴点の特徴量を用いてマッチングを適切に行うことができる。したがって、処理負担を抑えつつ対象物の位置や姿勢を精度よく認識することができる。
第1実施形態のロボットシステム10の構成の概略を示す構成図。 準備処理の一例を示すフローチャート。 画像取得処理の一例を示すフローチャート。 モデル作成処理の一例を示すフローチャート。 画像取得処理における複数の視点の一例を示す説明図。 複数の二次元画像Giの一例を示す説明図。 二次元画像Giから作成される三次元形状モデルMの一例を示す説明図。 認識処理の一例を示すフローチャート。 二次元画像Gaの一例を示す説明図。 マッチング処理の一例を示すフローチャート。 マッチング処理の様子の一例を示す説明図。 第2実施形態の基板作業ライン100の構成の概略を示す構成図。 第3実施形態の検体検査装置200の構成の概略を示す構成図。
次に、本開示を実施するための形態について図面を参照しながら説明する。
[第1実施形態]
図1は第1実施形態のロボットシステム10の構成の概略を示す構成図である。なお、図1の左右方向がX軸方向であり、前後方向がY軸方向であり、上下方向がZ軸方向である。第1実施形態のロボットシステム10は、図示するように、供給装置12と、搬送装置14と、作業ロボット20と、制御装置18とを備える。供給装置12は、前後方向(Y軸方向)に離して配置された駆動ローラおよび従動ローラに架け渡されたコンベアベルト12aを備え、駆動ローラの回転駆動により、コンベアベルト12a上の機械部品や電子部品などの複数のワークWを後方から前方へ供給する。搬送装置14は、コンベアベルトにより構成され、ワークWの供給方向と直交する方向(X軸方向)にトレイTを搬送し、中央位置にて位置決め保持する。制御装置18は、CPUやROM,RAM,HDD,入出力ポートなどを備え、供給装置12と搬送装置14と作業ロボット20の各動作を制御する。
作業ロボット20は、先端に作業ツールとしてのチャックを備える垂直多関節のロボットアーム22と、ロボットアーム22の先端に取り付けられるカメラ24と、カメラ24により撮像された画像を処理する画像処理装置30とを備える。作業ロボット20は、ロボットアーム22の作動により、コンベアベルト12a上のワークWをチャックでピックアップして、トレイT上にプレースする作業や所定箇所に組み付ける作業などを行う。カメラ24は、ワークWの位置および姿勢を認識するために二次元画像を撮像し、画像処理装置30に出力する。画像処理装置30は、HDD等によって構成され、画像処理に必要なプログラムや三次元形状モデルMなどを記憶する記憶部32を備え、キーボードやマウス等の入力装置38と、ディスプレイ等の出力装置39とが接続されている。
次に、ロボットシステム10がワークWの位置および姿勢を認識するための各種処理を説明する。まず、認識するための準備処理を説明する。図2は準備処理の一例を示すフローチャートであり、主に画像処理装置30の機能により実行される。この処理では、画像処理装置30は、基準となるワークWの複数の二次元画像Giを取得する画像取得処理を実行して(S100)、各二次元画像Giの特徴点Pを複数抽出する(S110)。そして、画像処理装置30は、各特徴点Pから三次元モデルMを作成するモデル作成処理を実行して(S120)、準備処理を終了する。S100の画像取得処理は図3のフローチャートに基づいて実行され、S120のモデル作成処理は図4のフローチャートに基づいて実行される。また、図5は画像取得処理における複数の視点の一例を示す説明図であり、図6は複数の二次元画像Giの一例を示す説明図であり、図7は二次元画像Giから作成される三次元形状モデルMの一例を示す説明図である。本実施形態では、形状を簡略化した立方体形状のワークWを示す。
図3(S100)の画像取得処理では、画像処理装置30は、まず、所定の撮像領域の中心にワークWを配置するように出力装置39に指示を出力する(S200)。本実施形態では、この指示に基づいて作業者がワークWを配置するものとする。次に、画像処理装置30は、制御装置18による作業ロボット20の制御により撮像領域の中心の視点E0上の所定高さ位置にカメラ24を移動させて(S210)、視点E0上でカメラ24により二次元画像G0を撮像させる(S220,図5A)。二次元画像G0は、ワークWを真上から撮像した画像となる。続いて、画像処理装置30は、二次元画像G0におけるワークWの中心位置の位置ずれ量を算出し(S230)、位置ずれ量が所定量未満であるか否かを判定する(S240)。なお、ワークWは、S200で撮像領域の中心への配置が指示されるため、S220で撮像された二次元画像G0の画像中心と、二次元画像G0内のワークWの中心とが基本的には一致する。ただし、ワークWが撮像領域の中心からずれて配置されていると、位置ずれ量が所定量以上となる場合がある。
画像処理装置30は、S240で位置ずれ量が所定量以上であると判定すると、ワークWの位置ずれの警告を出力装置39に出力し(S250)、作業者によりワークWが撮像領域の中心に再配置されるのを待つ(S260)。作業者は、ワークWを再配置すると、入力装置38を用いてその旨を入力する。画像処理装置30は、ワークWが再配置されたと判定すると、S220に戻り処理を行う。一方、画像処理装置30は、S240で位置ずれ量が所定量未満であると判定すると、制御装置18による作業ロボット20の制御により複数の視点Ei上にカメラ24を順次水平移動させて複数の二次元画像Giを撮像して(S270)、画像取得処理を終了する。図5に示すように、複数の視点Eiは、視点E0と、視点E0を中心とする矩形領域(例えば正方形領域)の各頂点や各辺の中点などに定められた視点E1〜E8との計9視点であり、各視点E1〜E8間の距離が予め定められたものとなっている。図5Bは、視点E0上から視点E1上に水平移動したカメラ24が二次元画像G1を撮像する様子を示す。二次元画像G1では、二次元画像G0と異なりワークWの側面も写るものとなる。また、図6は、各視点E0〜E8でそれぞれ撮像された二次元画像G0〜G8を示す。図示するように、異なる視点で様々な視差の二次元画像Giが取得される。なお、本実施形態は、二次元画像Giが撮像される複数の視点として9視点を例示するが、2以上の視点であればよい。また、ワークWとカメラ24とが相対的に移動して複数の視点で二次元画像Giが撮像されればよく、カメラ24ではなくワークWが移動するものとしてもよい。
こうしてS100で二次元画像Giを取得すると、画像処理装置30は、S110で各二次元画像Giからキーポイントである特徴点P(特徴データ2Di(x,y;f))を抽出する。画像処理装置30は、例えば、各二次元画像Giにおける各画素の輝度値から互いに直交する二方向の輝度分布を求め、それらの変化量が所定量以上となる点を特徴点Pとして抽出する。このため、特徴点Pは、ワークWの頂点やワークWの異なる材質の境界点、ワークWの異なる表面性状の境界点などに現れやすく、光の反射やノイズの影響などを抑えやすいものとなる。図7では特徴点Pを丸印で示す。図示するように、特徴点Pは、その殆どがワークWの頂点から抽出されるが、光の反射やノイズの影響などによりワークWの面内から抽出されるものもある。本実施形態では、各二次元画像Giからの特徴点Pの抽出を、例えばDNN(ディープニューラルネットワーク)などの機械学習を用いて行い、特徴点近傍の固有の輝度分布が各特徴点Pの特徴記述子f(特徴量)として出力される。画像処理装置30は、各特徴点Pの特徴データ2Di(x,y;f)として、二次元画像Gi内の所定位置を基準とする各特徴点Pの位置座標(x,y)と、各特徴点Pの特徴記述子fとを含むデータを抽出する。なお、位置座標(x、y)の基準となる所定位置は、例えば二次元画像Gi内のワークWの正面の中心となる位置やワークWの重心となる位置などに適宜定めることができる。
図4(S120)のモデル作成処理では、画像処理装置30は、まず、異なる二次元画像Giから抽出された特徴点Pの対応付けを行うと共に(S300)、対応付けられた特徴点Pが各二次元画像Giに出現する度数である出現数をカウントする(S310)。S300,S310では、画像処理装置30は、主に特徴点Pの特徴記述子fに基づいて、位置座標(x,y)を参照しながら、特徴点Pの対応付けを行い、対応付けられた特徴点Pの出現数をカウントする。図7では、二次元画像G0のワークW正面の四隅の特徴点P(例えばPs)は、二次元画像G1〜G8のワークW正面の四隅の特徴点Pにそれぞれ対応付けられ、各二次元画像G0〜G8に出現するため、出現数がそれぞれ値9とカウントされる。また、二次元画像G1のワークW側面における奥側の2つの特徴点P(Pt,Pu)は、二次元画像G1〜G4,G8の5つの画像に出現する特徴点P(Pt)か、二次元画像G1,G2,G6〜G8の5つの画像に出現する特徴点P(Pu)にそれぞれ対応付けられるため、出現数がそれぞれ値5とカウントされる。また、二次元画像G4,G5のワークW正面の面内の特徴点Pは、いずれも当該画像にのみ出現しており、他の二次元画像Giの特徴点Pと対応付けられないため、出現数はそれぞれ値1とカウントされる。このような出現数の少ない特徴点Pは、上述したように光の反射やノイズの影響などよって抽出される。
次に、画像処理装置30は、特徴点Pの出現数が所定数以上であるか否かを判定し(S320)、所定数以上であると判定すると、その特徴点Pを三次元形状モデルMの登録対象の特徴点Pmに設定し(S330)、所定数以上でないと判定すると、その特徴点Pを三次元形状モデルMの登録対象から除外する(S340)。所定数は、図7の二次元画像G4,G5のみに出現するような特徴点Pを排除できる値に適宜定められるものとする。これにより、画像処理装置30は、光の反射やノイズの影響を排除して、三次元形状モデルMの登録対象の特徴点Pmを適切に設定することができる。また、画像処理装置30は、登録対象に設定した特徴点Pmの高さzを二次元画像Gi同士の視差から算出し三次元情報(x,y,z)を生成する(S350)。上述したように、各視点Eiは、その間の距離が定められ、また、カメラ24が二次元画像Giを撮像する際の所定高さ位置も定められている。このため、画像処理装置30は、いわゆるステレオカメラの原理により、二次元画像Gi同士の視差から特徴点Pの高さzを算出することができる。そして、画像処理装置30は、各特徴点Pについての処理が完了したか否かを判定し(S360)、完了していないと判定すると、S300に戻り処理を繰り返す。一方、画像処理装置30は、S360で各特徴点Pの処理が完了したと判定すると、三次元情報(x,y,z)と特徴記述子fとを有する特徴点Pmの特徴データ3Di(x,y,z;f)で構成された三次元形状モデルMを作成し記憶部32に記憶して(S370,図7参照)、モデル作成処理を終了する。このようにして、画像処理装置30は、複数視点の二次元画像Giから三次元形状モデルMを作成する。
続いて、ロボットシステム10がワークWに対する作業を行う際に、対象物であるワークWの位置および姿勢を認識するための処理を説明する。図8は認識処理の一例を示すフローチャートであり、主に画像処理装置30の機能により実行される。この処理が開始されると、画像処理装置30は、まず、コンベアベルト12a上の作業対象のワークWの二次元画像Gaをカメラ24により撮像する(S400)。なお、カメラ24は、制御装置18の制御により、上述した所定高さ位置で撮像する。次に、画像処理装置30は、二次元画像GaからワークWの特徴点Pの特徴データ2Di(x,y;f)を抽出する(S410)。図9は二次元画像Gaの一例を示す説明図である。図9の二次元画像Gaでは、4つのワークWからそれぞれ特徴点P(丸印)が抽出される。なお、特徴点Pは、各ワークWの頂点以外に正面の面内からも抽出されている。続いて、画像処理装置30は、二次元画像Gaの各特徴点Pと三次元モデルMの特徴点Pmとをマッチングするマッチング処理を実行して(S420)、認識処理を終了する。S420のマッチング処理は、図10のフローチャートに基づいて実行される。また、図11はマッチング処理の様子の一例を示す説明図である。
図10(S420)のマッチング処理では、画像処理装置30は、まず、S410で抽出した二次元画像Gaの特徴点Pと三次元形状モデルMの特徴点Pmとをマッチングする(S500,図11A参照)。S500では、画像処理装置30は、二次元画像Ga内のいずれかのワークWにおける各特徴点Pの特徴データ2Di(x,y;f)と、三次元形状モデルMの各特徴点Pmの特徴データ3Di(x,y,z;f)とを、上述した特徴記述子fを用いてマッチングする。画像処理装置30は、マッチングにより、二次元画像Gaの特徴点Pに同一またはより類似度の高い三次元形状モデルMの特徴点Pmを選定し、各特徴点Pの粗位置Pr(x,y,z,Rx,Ry,Rz)を設定する(S510)。Rx,Ry,Rzは、それぞれX軸,Y軸,Z軸に対する回転量(回転角度)を示す。画像処理装置30は、位置座標の誤差や回転量の誤差ができるだけ均等に分散されるように、粗位置Pr(x,y,z,Rx,Ry,Rz)を設定する。
次に、画像処理装置30は、設定した粗位置Prに基づいて三次元形状モデルMの画像を二次元画像Ga上に投影する(S520,図11B参照)。なお、図11Bでは投影画像を点線で示す。続いて、画像処理装置30は、三次元形状モデルMの投影画像と二次元画像Ga内のワークWとの重なり具合が大きくなるように位置調整を行い(S530)、重なり具合が最大となる位置(x,y,z,Rx,Ry,Rz)を特徴点Pの三次元の位置に特定しワークWの位置および姿勢を認識して(S540)、マッチング処理を終了する。画像処理装置30は、例えばS530,S540では、投影画像を画素単位で位置調整しながら、着目画素とそれに重なる画素との輝度差を取得し、その点を補間した波形の変化率が値0となる位置をサブ画素単位で検出することで重なり具合が最大となる位置を特定する。図11Bの例では、図中の矢印方向に投影画像の位置を調整することになる。このようにして、画像処理装置30は、二次元画像Gaと三次元形状モデルMとからワークWの位置および姿勢を認識することができる。また、制御装置18は、認識されたワークWの位置および姿勢に基づいてロボットアーム22を制御するから、ワークWを適切にピックアップさせることができる。
ここで、第1実施形態の構成要素と本開示の構成要素との対応関係を明らかにする。第1実施形態の記憶部32が記憶部に相当し、図8の認識処理のS410を実行する画像処理装置30が抽出処理部に相当し、認識処理のS420を実行する画像処理装置30が認識処理部に相当し、画像処理装置30が画像処理装置に相当する。図2の準備処理のS120を実行する画像処理装置30が作成処理部に相当する。図3の画像取得処理のS230〜S250を実行する画像処理装置30と出力装置39とが報知部に相当する。また、カメラ24がカメラに相当し、作業ロボット20が作業ロボットに相当する。
以上説明した第1実施形態の作業ロボット20では、画像処理装置30が、カメラ24に撮像されたワークWの二次元画像Gaの特徴点Pと三次元形状モデルMの特徴点PmとのマッチングによりワークWの位置および姿勢を認識する。このため、画像処理装置30は、二次元画像Ga内の全ての点の処理を行う必要がなく、特徴点Pの特徴記述子fに基づいてマッチングを適切に行うことができるから、処理負担を抑えつつワークWの位置や姿勢を精度よく認識することができる。また、作業ロボット20は、ワークWを適切にピックアップして作業精度を向上させることができる。また、作業ロボット20は、三次元画像を撮像するための比較的大型のカメラや比較的高額のカメラを備える必要がないものとなる。
また、画像処理装置30は、ワークWの三次元形状データを取得できない場合でも、ワークWの複数の二次元画像Giから三次元形状モデルMを作成することができる。また、画像処理装置30は、中心位置からワークWがずれている場合に警告を報知するから、視差が適切に現れた二次元画像Giから特徴点Pの高さzを適切に求めることができる。また、画像処理装置30は、出現数の少ない特徴点Pを排除して三次元形状モデルMを作成するから、マッチングの処理負担を軽減しつつワークWの認識精度をより向上させることができる。また、画像処理装置30は、三次元形状モデルMの投影画像と二次元画像Gaとの重なり度合いがより大きくなるように粗位置Prを調整するから、マッチングの誤差を適切に修正することができる。また、画像処理装置30は、DNNなどの機械学習により、特徴点Pの特徴記述子fの抽出精度を向上させることができる。
[第2実施形態]
次に、第2実施形態について説明する。図12は第2実施形態の基板作業ライン100の構成の概略を示す構成図である。基板作業ライン100は、基板Bに粘性流体であるはんだを印刷する印刷装置110と、印刷状態を検査する印刷検査装置115と、基板Bに部品を実装する実装装置120と、部品の実装状態を検査する実装検査装置125とを備える。各装置は、図示しない管理装置に接続されており、管理装置から受信した作業指示に基づいて各作業を実行したり、各作業の実行状況を管理装置に送信したりする。また、各装置は、下記の構成以外に入力装置と出力装置とをそれぞれ備える。
印刷装置110は、印刷制御装置111と、印刷部112と、カメラ113とを備える。印刷部112は、スクリーンマスクのパターン孔にスキージを用いてはんだを押し込んで基板Bにはんだを印刷する。印刷制御装置111は、カメラ113により撮像された二次元画像に基づいて所定の印刷位置にはんだを印刷するように印刷部112を制御する。印刷検査装置115は、検査制御装置116と、画像処理装置117と、カメラ119とを備える。画像処理装置117は、カメラ119により撮像された基板Bの二次元画像に各種画像処理を行うものであり、基板Bに印刷されたはんだの三次元形状モデルMbなどを記憶する記憶部118を備える。検査制御装置116は、カメラ119により撮像された二次元画像に対してなされた画像処理装置117の処理結果に基づいて印刷状態を検査したり、印刷検査装置115の全体を制御したりする。
実装装置120は、実装制御装置121と、実装部122と、カメラ123とを備える。実装部122は、吸着ノズルを備えるヘッドを備え、図示しない供給ユニットにより供給された部品を吸着ノズルで吸着し、ヘッドを基板B上に移動させて基板Bに部品を実装する。実装制御装置121は、カメラ123により撮像された二次元画像に基づいて所定の実装位置に部品を実装するように実装部122を制御する。実装検査装置125は、検査制御装置126と、画像処理装置127と、カメラ129とを備える。画像処理装置127は、カメラ129により撮像された基板Bの二次元画像に各種画像処理を行うものであり、基板Bに実装された部品の三次元形状モデルMcなどを記憶する記憶部128を備える。検査制御装置116は、カメラ129により撮像された二次元画像に対してなされた画像処理装置127の処理結果に基づいて部品の実装状態を検査したり、実装検査装置125の全体を制御したりする。
この第2実施形態では、例えば、基板Bに印刷されたはんだなどの印刷物(結果物)を対象物として、印刷検査装置115(基板検査装置)の画像処理装置117により、上述した準備処理や認識処理と同様な処理が実行される。準備処理では、画像処理装置117は、基準となる印刷物を対象物として、複数の二次元画像Giを撮像し、各二次元画像Giから印刷物の頂点などの特徴点Pを抽出する。そして、画像処理装置117は、抽出した各特徴点Pの特徴データ3Di(x,y,z;f)を生成し、三次元形状モデルMbを作成して記憶部118に記憶する。また、認識処理では、画像処理装置117は、印刷物が形成された基板Bの二次元画像Gaを撮像して特徴点Pを抽出し、特徴点Pと三次元形状モデルMbの特徴点Pmとを特徴記述子fを用いてマッチングして、印刷物の各頂点位置や姿勢などを認識する。この認識結果に基づいて、検査制御装置116は、基板Bに印刷されたはんだの高さが適切であるか否かや、はんだの量(体積)が適切であるか否かなどの印刷状態の検査を行うことができる。即ち、印刷検査装置115は、印刷物の二次元画像から基板Bの立体的な印刷状態の検査を行うことができる。
また、第2実施形態において、印刷物を対象物とするものに限られず、以下のようにしてもよい。例えば、基板Bに実装された部品(結果物)を対象物として、実装検査装置125(基板検査装置)の画像処理装置127が準備処理を実行して三次元形状モデルMcを記憶部128に記憶する。また、部品の二次元画像Gaと三次元形状モデルMcとに基づく画像処理装置127の認識処理の結果に基づいて、検査制御装置126は、基板Bに実装された部品の高さが正常であるか否かや傾き度合いが許容範囲内であるか否かなどの実装状態の検査を行うものとしてもよい。また、検査制御装置126は、三次元形状モデルMcの特徴点Pmとは異なる位置に特徴点Pが現れるか否かに基づいて部品の疵の有無を検査することもできる。あるいは、実装装置120が画像処理装置を備え、供給される部品を対象物として準備処理や認識処理を実行してもよい。このような実装装置120には、複数の部品をバラバラの状態で収容してそれらを整列させながら供給するバルクフィーダや複数の部品を平板状のトレイに収容して供給するトレイフィーダなどが用いられるものがある。そのようなフィーダから供給された部品の位置や姿勢を適切に認識して、部品を適切にピックアップ(吸着)することができる。
[第3実施形態]
次に、第3実施形態について説明する。図13は第3実施形態の検体検査装置200の構成の概略を示す構成図である。検体検査装置200は、顕微鏡装置210と、画像処理装置230と、検査制御装置202とを備える。顕微鏡装置210は、検査対象物としての検体の像を拡大するための顕微鏡部212と、顕微鏡装置210に内蔵され拡大された検体の二次元画像を撮像するカメラ213とを備える。顕微鏡部212は、検体が載置されるステージ212aと対物レンズ212bの他、図示は省略するが、ステージ212aを水平方向や垂直方向に移動させるステージ駆動部や対物レンズ212bを合焦させる焦準部、検体に光を照射する照射部、検体の観察光をカメラ213に導く光学系などを備える。画像処理装置230は、カメラ213により撮像された検体の二次元画像に各種画像処理を行う。また、画像処理装置230は、検体の三次元形状モデルMdなどを記憶する記憶部232を備え、キーボードやマウス等の入力装置238と、ディスプレイ等の出力装置239とが接続されている。検査制御装置202は、カメラ213により撮像された二次元画像に対してなされた画像処理装置230の処理結果に基づいて検体の検査を行ったり、検体検査装置200の全体を制御したりする。
この第3実施形態では、例えば、検体中の特定の検査対象を対象物として、画像処理装置230により、上述した準備処理や認識処理と同様な処理が実行される。なお、対象物(特定の検査対象)としては、例えば細菌やウイルス、タンパク質などが挙げられるが、これらに限定されるものではない。画像処理装置230は、基準となる対象物の複数の二次元画像Giを撮像し、各二次元画像Giから対象物の頂点などの特徴点Pを抽出する。そして、画像処理装置230は、抽出した各特徴点Pの特徴データ3Di(x,y,z;f)を生成し、三次元形状モデルMdを作成して記憶部232に記憶する。また、認識処理では、画像処理装置230は、検体の二次元画像Gaを撮像して特徴点Pを抽出し、特徴点Pと三次元形状モデルMdの特徴点Pmとを特徴記述子fを用いてマッチングして、検出物の各頂点位置や姿勢などを認識する。この認識結果に基づいて、検査制御装置202は、検体中の対象物の検出や検査を行うことができる。即ち、検体検査装置200は、検体の二次元画像から検体中の三次元形状の対象物の検査を精度よく行うことができる。また、このような検査では、対象物の三次元CADデータなどを取得するのは困難であるが、複数の二次元画像Giから三次元形状モデルMdを適切に作成することができる。
なお、本開示は上述した実施形態に何ら限定されることはなく、本開示の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
例えば、上述した実施形態では、複数の二次元画像Giから三次元形状モデルMを作成するものとしたが、これに限られず、対象物のCADデータなどの図面データから三次元形状モデルMを作成するものとしてもよい。また、画像処理装置30が三次元形状モデルMを作成するものに限られず、他の装置により作成された三次元形状モデルMが記憶部32などに記憶されるものとしてもよい。
上述した実施形態では、複数の二次元画像Giを撮像する際に中心位置からワークWがずれている場合に警告を報知するものとしたが、これに限られず、そのような警告を報知しないものとしてもよい。ただし、視差が適切に現れた二次元画像Giを取得するために報知するものが好ましい。
上述した実施形態では、出現数の少ない特徴点Pを排除して三次元形状モデルMを作成するものとしたが、これに限られず、出現数に拘わらず、抽出した特徴点Pを含む三次元形状モデルMを作成するものとしてもよい。
上述した実施形態では、三次元形状モデルMを投影した投影画像と二次元画像Gaとの重なり度合いがより大きくなるように粗位置Prを調整して特徴点Pの三次元の位置情報を特定するものとしたが、これに限られるものではない。そのような重ね合わせを行うことなく、マッチングにより特徴点Pの位置を特定するものなどとしてもよい。
上述した実施形態では、DNNなどの機械学習を用いて特徴量を抽出するものとしたが、これに限られず、SURF特徴量やSIFT特徴量など特徴点Pの特徴量を抽出するものであれば如何なる手法を用いてもよい。
上述した第1実施形態では、垂直多関節の作業ロボット20を例示したが、これに限られず、水平多関節ロボットやパラレルリンクロボットなどであってもよい。また、本開示の内容を作業ロボットや基板検査装置、検体検査装置に適用するものに限られず、工作機械などの他の装置に適用するものとしてもよい。また、画像処理装置は、それらの装置が備えるものに限られず、独立した装置として構成してもよい。上述した第3実施形態では、タンパク質などの検出に本開示の内容を適用するものを例示したが、これに限られず、マイクロメートルオーダやナノメートルオーダなどの微小な対象物の画像処理に適用するものであればよい。また、そのような微小な対象物に対して、マイクロマニピュレータなどを用いた所定操作が行われる際の画像処理に本開示の内容を適用するものでもよい。
ここで、本開示の画像処理装置は、以下のように構成してもよい。例えば、本開示の画像処理装置において、前記抽出処理部は、基準となる前記対象物が所定位置に配置された状態で前記カメラにより複数の視点で撮像された前記対象物の複数の二次元画像を取得し、該複数の二次元画像から前記特徴点の特徴量および二次元の位置情報を抽出し、前記二次元画像間の視差から前記特徴点の高さ情報を求めて三次元の位置情報を作成し、特徴量および三次元の位置情報を前記特徴点に対応付けた前記三次元形状モデルを作成して前記記憶部に記憶する作成処理部を備えるものとしてもよい。こうすれば、対象物の三次元形状データを取得できない場合でも三次元形状モデルを作成することができる。
本開示の画像処理装置において、前記抽出処理部は、前記複数の二次元画像として、基準となる前記対象物が前記所定位置に配置された状態で前記カメラが前記所定位置を基準とする前記複数の視点に順次移動して撮像した画像を取得し、前記所定位置に対する前記対象物の位置ずれ量が所定の許容量以上である場合に警告を報知する報知部を備えるものとしてもよい。こうすれば、視差が適切に現れた二次元画像から特徴点の高さ情報を求めることができるから、三次元形状モデルを精度よく作成することができる。
本開示の画像処理装置において、前記作成処理部は、前記複数の二次元画像から抽出した前記特徴点の各々について、前記複数の二次元画像に出現する度数をカウントし、該カウントした度数が所定数以上となる前記特徴点を用いて前記三次元形状モデルを作成するものとしてもよい。こうすれば、出現する度数が少なく信頼性の低い特徴点を排除した三次元形状モデルを作成することができるから、マッチングの処理負担を軽減しつつ対象物の認識精度をより向上させることができる。
本開示の画像処理装置において、前記認識処理部は、前記マッチングにより前記特徴点の粗位置を設定し、該設定した粗位置に基づいて前記二次元画像上に前記三次元形状モデルの画像を投影し、該投影した画像と前記二次元画像との重なり度合いがより大きくなるように前記粗位置を調整して前記特徴点の三次元の位置情報を特定するものとしてもよい。こうすれば、マッチングの誤差を適切に修正して、対象物の位置および姿勢をより精度よく認識することができる。
本開示の画像処理装置において、前記抽出処理部は、前記特徴量の抽出を所定の機械学習により行うものとしてもよい。こうすれば、特徴点の特徴量の抽出精度を向上させつつマッチングを適切に行うことができる。
本開示の作業ロボットは、上述したいずれかの画像処理装置と、前記対象物としてのワークの前記二次元画像を撮像するカメラと、を備え、前記カメラにより撮像された前記二次元画像から前記画像処理装置により認識された前記ワークの認識結果に基づいて前記ワークをピックアップして所定作業を行うものである。本開示の作業ロボットは、上述したいずれかの画像処理装置により認識されたワークの認識結果に基づいてワークをピックアップして所定作業を行うから、ワークを適切にピックアップして作業精度を向上させることができる。
本開示の基板検査装置は、上述したいずれかの画像処理装置と、基板に対する所定作業により該基板に設けられた結果物を前記対象物として二次元画像を撮像するカメラと、を備え、前記カメラにより撮像された前記二次元画像から前記画像処理装置により認識された前記結果物の認識結果に基づいて前記基板の検査を行うものである。本開示の基板検査装置は、上述したいずれかの画像処理装置により認識された結果物の認識結果に基づいて基板の検査を行うから、結果物の二次元画像を用いて基板の検査を精度よく行うことができる。
本開示の検体検査装置は、上述したいずれかの画像処理装置と、前記対象物としての検体の像を拡大する顕微鏡装置と、前記顕微鏡装置により拡大された前記検体の二次元画像を撮像するカメラと、を備え、前記カメラにより撮像された前記二次元画像から前記画像処理装置により認識された前記検体の認識結果に基づいて該検体の検査を行うものである。本開示の検体検査装置は、上述したいずれかの画像処理装置により認識された検体の認識結果に基づいて検体の検査を行うから、顕微鏡装置により拡大された検体の二次元画像を用いて検体の検査を精度よく行うことができる。
本開示は、画像処理装置、作業ロボット、基板検査装置および検体検査装置の製造産業などに利用可能である。
10 ロボットシステム、12 供給装置、12a コンベアベルト、14 搬送装置、18 制御装置、20 作業ロボット、22 ロボットアーム、24,113,119,123,129,213 カメラ、30,117,127,230 画像処理装置、32,118,128,232 記憶部、38,238 入力装置、39,239 出力装置、100 基板作業ライン、110 印刷装置、111 印刷制御装置、112 印刷部、115 印刷検査装置、116,126,202 検査制御装置、120 実装装置、121 実装制御装置、122 実装部、125 実装検査装置、200 検体検査装置、210 顕微鏡装置、212 顕微鏡部、212a ステージ、212b レンズ、M,Mb,Mc,Md 三次元形状モデル、B 基板、T トレイ、W ワーク。

Claims (9)

  1. 対象物の複数の特徴点の特徴量および三次元の位置情報が対応付けられた三次元形状モデルを記憶する記憶部と、
    カメラにより撮像された前記対象物の二次元画像から特徴点の特徴量および二次元の位置情報を抽出する抽出処理部と、
    前記二次元画像の特徴点と前記三次元形状モデルの特徴点とのマッチングを前記特徴量を用いて行うことにより、前記二次元画像の特徴点の三次元の位置情報を特定して前記対象物の位置および姿勢を認識する認識処理部と、
    を備える画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記抽出処理部は、基準となる前記対象物が所定位置に配置された状態で前記カメラにより複数の視点で撮像された前記対象物の複数の二次元画像を取得し、該複数の二次元画像から前記特徴点の特徴量および二次元の位置情報を抽出し、
    前記二次元画像間の視差から前記特徴点の高さ情報を求めて三次元の位置情報を作成し、特徴量および三次元の位置情報を前記特徴点に対応付けた前記三次元形状モデルを作成して前記記憶部に記憶する作成処理部を備える
    画像処理装置。
  3. 請求項2に記載の画像処理装置であって、
    前記抽出処理部は、前記複数の二次元画像として、基準となる前記対象物が前記所定位置に配置された状態で前記カメラが前記所定位置を基準とする前記複数の視点に順次移動して撮像した画像を取得し、
    前記所定位置に対する前記対象物の位置ずれ量が所定の許容量以上である場合に警告を報知する報知部を備える
    画像処理装置。
  4. 請求項2または3に記載の画像処理装置であって、
    前記作成処理部は、前記複数の二次元画像から抽出した前記特徴点の各々について、前記複数の二次元画像に出現する度数をカウントし、該カウントした度数が所定数以上となる前記特徴点を用いて前記三次元形状モデルを作成する
    画像処理装置。
  5. 請求項1ないし4のいずれか1項に記載の画像処理装置であって、
    前記認識処理部は、前記マッチングにより前記特徴点の粗位置を設定し、該設定した粗位置に基づいて前記二次元画像上に前記三次元形状モデルの画像を投影し、該投影した画像と前記二次元画像との重なり度合いがより大きくなるように前記粗位置を調整して前記特徴点の三次元の位置情報を特定する
    画像処理装置。
  6. 請求項1ないし5のいずれか1項に記載の画像処理装置であって、
    前記抽出処理部は、前記特徴量の抽出を所定の機械学習により行う
    画像処理装置。
  7. 請求項1ないし6のいずれか1項に記載の画像処理装置と、
    前記対象物としてのワークの前記二次元画像を撮像するカメラと、
    を備え、
    前記カメラにより撮像された前記二次元画像から前記画像処理装置により認識された前記ワークの認識結果に基づいて前記ワークをピックアップして所定作業を行う
    作業ロボット。
  8. 請求項1ないし6のいずれか1項に記載の画像処理装置と、
    基板に対する所定作業により該基板に設けられた結果物を前記対象物として二次元画像を撮像するカメラと、
    を備え、
    前記カメラにより撮像された前記二次元画像から前記画像処理装置により認識された前記結果物の認識結果に基づいて前記基板の検査を行う
    基板検査装置。
  9. 請求項1ないし6のいずれか1項に記載の画像処理装置と、
    前記対象物としての検体の像を拡大する顕微鏡装置と、
    前記顕微鏡装置により拡大された前記検体の二次元画像を撮像するカメラと、
    を備え、
    前記カメラにより撮像された前記二次元画像から前記画像処理装置により認識された前記検体の認識結果に基づいて該検体の検査を行う
    検体検査装置。
JP2020565086A 2019-01-09 2019-01-09 画像処理装置、作業ロボット、基板検査装置および検体検査装置 Active JP7174074B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/000412 WO2020144784A1 (ja) 2019-01-09 2019-01-09 画像処理装置、作業ロボット、基板検査装置および検体検査装置

Publications (2)

Publication Number Publication Date
JPWO2020144784A1 true JPWO2020144784A1 (ja) 2021-09-30
JP7174074B2 JP7174074B2 (ja) 2022-11-17

Family

ID=71521602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565086A Active JP7174074B2 (ja) 2019-01-09 2019-01-09 画像処理装置、作業ロボット、基板検査装置および検体検査装置

Country Status (5)

Country Link
US (1) US11972589B2 (ja)
EP (1) EP3910593A4 (ja)
JP (1) JP7174074B2 (ja)
CN (1) CN113196337B (ja)
WO (1) WO2020144784A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
CN111447504B (zh) * 2020-03-27 2022-05-03 北京字节跳动网络技术有限公司 三维视频的处理方法、装置、可读存储介质和电子设备
US20210316450A1 (en) * 2020-04-14 2021-10-14 3Deo, Inc. Robotics for three-dimensional printing
US11366983B2 (en) * 2020-09-09 2022-06-21 International Business Machines Corporation Study-level multi-view processing system
JP7506565B2 (ja) * 2020-09-14 2024-06-26 株式会社Screenホールディングス 画像処理装置、検査装置およびプログラム
CN112465890A (zh) * 2020-11-24 2021-03-09 深圳市商汤科技有限公司 深度检测方法、装置、电子设备和计算机可读存储介质
CN114820613B (zh) * 2022-06-29 2022-10-28 深圳市瑞亿科技电子有限公司 一种smt贴片加工用来料测量及定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016192132A (ja) * 2015-03-31 2016-11-10 Kddi株式会社 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
JP2016197287A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3326851B2 (ja) * 1993-03-08 2002-09-24 株式会社デンソー 視覚に基く三次元位置および姿勢の認識方法とその装置
EP0631250B1 (en) * 1993-06-21 2002-03-20 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
US6985620B2 (en) 2000-03-07 2006-01-10 Sarnoff Corporation Method of pose estimation and model refinement for video representation of a three dimensional scene
JP2010146303A (ja) * 2008-12-18 2010-07-01 Fuji Electric Holdings Co Ltd 3次元物体姿勢・位置検出装置、方法、およびプログラム
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
US9098744B2 (en) * 2010-05-19 2015-08-04 Tokyo Institute Of Technology Position estimation device, position estimation method, and program
JP5699697B2 (ja) 2011-03-07 2015-04-15 セイコーエプソン株式会社 ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
EP2994883B1 (en) * 2013-05-06 2018-12-12 Hercules LLC Device and method for analysis of coating additive performance
JP6369131B2 (ja) * 2014-05-27 2018-08-08 村田機械株式会社 物体認識装置及び物体認識方法
CN108965690B (zh) * 2017-05-17 2021-02-26 欧姆龙株式会社 图像处理***、图像处理装置及计算机可读存储介质
US9990767B1 (en) * 2017-10-24 2018-06-05 Lowe's Companies, Inc. Generation of 3D models using stochastic shape distribution
JP7457968B2 (ja) * 2020-03-09 2024-03-29 パナソニックIpマネジメント株式会社 情報処理方法、学習済みモデルの生成方法、装置、及びプログラム
EP4145338A4 (en) * 2020-05-13 2023-06-21 Huawei Technologies Co., Ltd. TARGET DETECTION METHOD AND APPARATUS
JP2021193538A (ja) * 2020-06-09 2021-12-23 ソニーグループ株式会社 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
JP7453192B2 (ja) * 2021-09-27 2024-03-19 Kddi株式会社 ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016192132A (ja) * 2015-03-31 2016-11-10 Kddi株式会社 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
JP2016197287A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP7174074B2 (ja) 2022-11-17
CN113196337B (zh) 2023-08-29
EP3910593A4 (en) 2022-01-19
US20220092330A1 (en) 2022-03-24
CN113196337A (zh) 2021-07-30
EP3910593A1 (en) 2021-11-17
WO2020144784A1 (ja) 2020-07-16
US11972589B2 (en) 2024-04-30

Similar Documents

Publication Publication Date Title
JP7174074B2 (ja) 画像処理装置、作業ロボット、基板検査装置および検体検査装置
JP6506731B2 (ja) ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法
JP6000579B2 (ja) 情報処理装置、情報処理方法
JP5564349B2 (ja) 画像処理装置及び外観検査方法
JP6503153B2 (ja) ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法
US12002240B2 (en) Vision system for a robotic machine
JP2011083882A (ja) ロボットシステム
JP6983828B2 (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
CN112276936A (zh) 三维数据生成装置以及机器人控制***
US20190278991A1 (en) Control apparatus, robot system, and method of detecting object
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2011107083A (ja) 姿勢認識方法およびこの方法を用いた3次元視覚センサ
JPWO2017081773A1 (ja) 基板用の画像処理装置および画像処理方法
CN113495073A (zh) 视觉检查***的自动对焦功能
CN116188559A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN116175542A (zh) 抓取控制方法、装置、电子设备和存储介质
Sansoni et al. Combination of 2D and 3D vision systems into robotic cells for improved flexibility and performance
JP7221409B2 (ja) 高さ測定装置
JP7508206B2 (ja) 画像処理方法、エッジモデル作成方法、ロボットシステム、および物品の製造方法
WO2023089981A1 (ja) ロボットアーム用のツールチェック装置、ツールチェックプログラム、及びツールチェック方法
TWI747500B (zh) 自動物件取像方法及裝置
WO2022168617A1 (ja) ワーク検出装置、ワーク検出方法、ワーク検出システム及びワーク検出プログラム
WO2023140266A1 (ja) ピッキング装置及び画像生成プログラム
US20240070910A1 (en) Processing method and processing device for generating cross-sectional image from three-dimensional position information acquired by visual sensor
TW202333920A (zh) 取得工件位置之裝置、機器人之控制裝置、機器人系統及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221104

R150 Certificate of patent or registration of utility model

Ref document number: 7174074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150