JP2018077089A - 認識装置、決定方法、および物品製造方法 - Google Patents

認識装置、決定方法、および物品製造方法 Download PDF

Info

Publication number
JP2018077089A
JP2018077089A JP2016218160A JP2016218160A JP2018077089A JP 2018077089 A JP2018077089 A JP 2018077089A JP 2016218160 A JP2016218160 A JP 2016218160A JP 2016218160 A JP2016218160 A JP 2016218160A JP 2018077089 A JP2018077089 A JP 2018077089A
Authority
JP
Japan
Prior art keywords
image data
correlation degree
imaging
processing unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016218160A
Other languages
English (en)
Inventor
匡貴 中島
Masataka Nakajima
匡貴 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016218160A priority Critical patent/JP2018077089A/ja
Priority to US15/792,292 priority patent/US20180130230A1/en
Publication of JP2018077089A publication Critical patent/JP2018077089A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】認識される物体の照明および撮像のうち少なくとも一方の条件の決定に有利な認識装置を提供する。【解決手段】物体4の位置および姿勢のうち少なくとも一方を認識する認識装置は、物体の照明を行い、照明を行われた物体の撮像を行って物体の画像データを取得する取得部(1〜3、5、6)と、画像データと、当該少なくとも一方に関する基準データとの間の相関度としての第1相関度に基づいて、当該少なくとも一方を取得する処理部7と、を有する。処理部は、画像データと基準データとの間の相関度としての第2相関度に基づいて、照明および撮像のうち少なくとも一方の条件を決定する。【選択図】図1

Description

本発明は、認識装置、決定方法、および物品製造方法に関する。
物体を撮像して得られた画像に基づいて、物体の位置および姿勢を認識する認識装置が知られている。特許文献1の撮影システムは、生体認証に適した画像かどうかを示す指標(スコア)を画像中の生体部位の面積に基づいて算出する。そして、当該指標に基づき、認証生体情報としての画像の取得に用いる環境と、生体部位の姿勢を検出するための画像の取得に用いる環境とを切り替える。
特開2012−155405号公報
特許文献1の撮影システムは、生体認証に適した画像かどうかを判断するための指標を生体部位の面積に基づいて得ているに過ぎないため、物体の位置および姿勢の高精度な認識に十分であるとはいえない。認識装置においては、物体の照明の条件や物体の撮像の条件が物体の位置および姿勢の認識に大きな影響を与えうる。例えば、物体の輝度が適切でない場合、画像上の物体の輪郭や稜線(エッジ情報)が明確でないことから、物体の位置および姿勢の高精度な認識が困難となる。また、物体にピント(フォーカス)が合っていない場合なども、物体の位置および姿勢の高精度な認識が困難となる。
本発明は、例えば、物体の照明および撮像のうち少なくとも一方の条件であって、当該物体の位置および姿勢のうち少なくとも一方を認識するのに有利な条件を決定できる認識装置を提供することを目的とする。
本発明の一つの側面は、物体の位置および姿勢のうち少なくとも一方を認識する認識装置であって、
前記物体の照明を行い、前記照明を行われた前記物体の撮像を行って前記物体の画像データを取得する取得部と、
前記画像データと、前記位置および姿勢に関する基準データとの間の相関度としての第1相関度に基づいて、前記少なくとも一方を取得する処理部と、を有し、
前記処理部は、前記画像データと前記基準データとの間の相関度としての第2相関度に基づいて、前記照明および前記撮像のうち少なくとも一方の条件を決定することを特徴とする認識装置である。
本発明によれば、例えば、物体の照明および撮像のうち少なくとも一方の条件であって、当該物体の位置および姿勢のうち少なくとも一方を認識するのに有利な条件を決定できる認識装置を提供することができる。
認識装置の構成例を示す図 認識装置における処理の流れを例示する図 条件を決定する処理の流れを例示する図 物体の位置および姿勢の入力方法を例示する図 パターン光を例示する図 空間符号を例示する図 第1評価値および第2評価値が高い状態を例示する図 条件を決定する処理の流れの別の例を示す図 認識装置とロボットとを含むシステムを例示する図
以下、添付図面を参照して本発明の実施形態を説明する。なお、実施形態を説明するための全図を通して、原則として(断りのない限り)、同一の部材等には同一の符号を付し、その繰り返しの説明は省略する。
〔実施形態1〕
図1は、認識装置の構成例を示す図である。図1において、1は、光源であり、2は、光源からの光を変調して物体4に投影するパターン(光)を生成するパターン生成部である。3(3a、3b)は、物体4にパターン光を投影するための光学素子(レンズ等)である。以上の1ないし3は、物体の照明を行う照明部を構成している。5(5a、5b)は、物体4で反射されたパターン光を集光する光学素子(レンズ等)であり、6は、光学素子5からの光により、照明を行われた物体4の撮像を行う撮像素子である。以上の5および6は、撮像部を構成している。また、上述の照明部と撮像部とは、取得部を構成している。7は、処理部である。処理部7は、光源1の発光や、パターン生成部2によるパターン光の生成、撮像部(撮像素子6)による撮像(露光)の時間やゲイン(信号の増幅の度合い)を制御しうる。また、処理部7は、撮像部による撮像により得られた画像データに基づいて、物体4の位置および姿勢のうち少なくとも一方を認識(取得)しうる。なお、認識対象は、位置および姿勢のうち少なくとも一方としうるが、以下の説明では、位置および姿勢(の両方)として説明する。処理部7は、光源1の制御(例えば、発光強度および発光時間の少なくとも一方の制御)を行う光源制御部7aを含みうる。また、処理部7は、パターン生成部2によるパターン光の生成の制御を行うパターン制御部7bを含みうる。また、処理部7は、撮像部の制御(例えば、撮像の時間およびゲインの少なくとも一方の制御)を行う撮像部制御部7cを含みうる。また、処理部7は、物体4の位置および姿勢を認識するのに用いる物体4の形状の情報を記憶する記憶部7eを含みうる。さらに、処理部7は、画像データおよび形状情報(基準データ)とに基づいて、物体の位置および姿勢を認識(取得)する解析部7dを含みうる。
ここで、本実施形態の認識装置は、概ね均一な光で照明された物体を撮像して得た画像データから抽出したエッジ情報を特徴量として用いる。また、認識装置は、空間符号化パターン光で照明された物体を撮像して得たパターン画像データから抽出した距離情報を特徴量として用いる。そして、認識装置は、当該エッジ情報および当該距離情報に基づいて物体の位置および姿勢を認識する。なお、当該距離情報を得るには、空間符号化パターン光での照明に限定されず、位相シフトパターン光での照明やスリット光での照明などを用いてもよい。また、認識装置は、当該エッジ情報および当該距離情報のうち一方のみに基づいて、物体の位置および姿勢の認識を行ってもよいし、また、画像データの他の特徴量に基づいて、物体の位置および姿勢の認識を行ってもよい。
光源1は、例えばLED(Light Emitting Diode)を含み、パターン生成部2に向けて光を発する。パターン生成部2は、例えば、明部と暗部とが格子状(周期的)に並ぶパターン光を生成する。パターン生成部2は、透光部と遮光部とが規則的に並んだマスクパターンを含みうる。また、パターン生成部2は、液晶素子またはデジタルミラーデバイス(DMD)等を含むことにより、モノクロパターンまたは正弦波状パターン等、種々のパターンを生成することができる。
物体4は、パターン生成部2および光学素子3a、3bを介して、格子状のパターン光で照明される。照明された物体4は、光学素子5a、5bを介して、撮像素子6により撮像される。撮像素子6は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を含みうる。処理部7は、CPU(Central Processing Unit)や、メモリ、ディスプレイ、ハードディスク等の外部記憶装置、入出力用の各種インターフェース等を具備する汎用のコンピュータにより構成されうる。ここで、光源制御部7aは、光源の発光強度を制御する。パターン制御部7bは、物体4に投影されるパターン光が順次変更されるようにパターン生成部2を制御する。撮像部制御部7cは、撮像部による撮像の時間およびゲインのうちの少なくとも一方を、パターン光の変更に同期して制御する。このような制御により、物体の撮像を複数回行う。
記憶部7eは、物体4に関するCAD(Computer‐aided Design;コンピュータ支援設計)により得られた設計データまたは物体4に関する形状計測により得られた計測データ等の物体4の形状を表す形状データを予め記憶している。解析部7dは、当該形状データと取得部に含まれる光学系の特性とに基づいて、物体4を様々な位置および姿勢に配置した場合に観測される輪郭や稜線等に係るエッジ情報と、物体4の各部の距離情報を取得する。そして、それらを基準データのデータベースとして記憶部7eに記憶させておく。そして、解析部7dは、撮像部で取得された画像データ(概ね均一な照明に係る画像データ)からエッジ情報(特徴量)を抽出する。また、解析部7dは、撮像部で取得されたパターン画像データ(パターン投影法による照明に係る画像データ)から距離情報(特徴量)を抽出(取得)する。当該距離情報の抽出は、取得部における照明部と撮像部と間の幾何学的関係の情報にも基づいている。解析部7dは、画像データから抽出したエッジ情報とデータベース中のエッジ情報との間の相関度または一致度を算出(取得)する。また、解析部7dは、パターン画像データから抽出した距離情報とデータベース中の距離情報との間の相関度または一致度を算出(取得)する。そして、解析部7dは、これらの相関度に基づいて(例えば、各相関度が最も高くなる基準データを探索することにより)、物体4の位置および姿勢を認識する。このような処理により、例えば、バラ積みされた部品等の物体の位置および姿勢の認識を行いうる。
以上のようにして物体の認識を行うにあたり、予め記憶した基準データと、位置および姿勢の認識を行いたい物体の画像データとが著しく相違する場合、当該認識は困難である。例えば、認識対象が山積みされた部品等の物体である場合、物体の表面での光の反射特性が光の入射角により異なりうるため、認識装置から観測される物体の形や明るさ等の状態は様々である。そのため、特許文献1のように物体の面積のみで画像データの適性を判断しても、物体の位置および姿勢の認識を高精度に行えるようになるとは限らない。そこで、当該認識を高精度に行えるような画像データを取得する条件の決定方法を以下に説明する。
図2は、本実施形態に係る認識装置における処理の流れを例示する図である。当該処理は、処理部7により実行される。まず、ステップS101では、エッジ情報を得るための第1画像データの第1評価値が許容条件を満たす条件、および距離情報を得るための第2画像データの第2評価値が許容条件を満たす条件を探索する。例えば、条件ごとに第1画像データ(または第2画像データ)を取得し、各画像に関して第1評価値(または第2評価値)を取得(算出)し、第1評価値(または第2評価値)が許容条件を満たす(例えば最大となる)条件を探索する。なお、画像データを取得する条件は、それには限定されないが、ここでは、認識される物体の照明および撮像のうち少なくとも一方の条件とする。
当該条件を決定するための具体的な手順を図3に示す。ここで、図3は、条件を決定する処理の流れを例示する図である。まず、ステップS101−1では、物体の形状情報を入力する。当該形状情報は、例えば、3次元CADデータであるのが望ましいが、3次元計測器等で物体を計測して得た計測データであってもよい。
次に、ステップS101−2では、認識対象としての物体(例えば山積みにされた物体)の画像データを取得する。ここで、画像を取得する条件は、照明(光)の強度、撮像の時間、および撮像における信号の増幅(ゲイン)のうち少なくとも1つを選択しうるが、それには限定されない。例えば、撮像部のフォーカスやズームに関する条件を選択してもよい。なお、選択した条件における設定値の範囲は、例えば、画像データから人間が物体を判別できるような範囲としうる。なお、本ステップ以下のステップは、物体の山積みの状態が大きく変化した場合に行うのが効果的である。そのような場合とは、例えば、ピッキングロボット等が物体をピッキングすることにより山積みされた物体が崩れた場合や、当該ピッキングを繰り返すことにより物体の山積みの高さが大きく変化した場合である。
次に、ステップS101−3では、ステップS101−2で取得した画像データに写っている(含まれている)物体の位置および姿勢の情報を、認識装置のユーザ(操作者)による入力部の操作を介して入力する。当該情報は、後のステップS101−5での第1評価値および第2評価値の取得に必要である。位置および姿勢の情報を入力する対象となる物体の数は、最低1つである。より高精度に位置および姿勢を認識するのに有利な条件を決定するためには、画像データ中のできる限り多くの物体に対して位置および姿勢の情報を入力することが望ましい。なお、位置および姿勢の情報を入力するには、ステップS101−1で入力された物体の形状情報に基づいて、物体の位置および姿勢を認識するのに使用する形状モデルを生成しておくのがよい。ここで、図4は、物体の位置および姿勢の入力方法を例示する図である。図4において、ステップS101−2で取得された画像に、当該形状モデルにより生成される画像を重畳して表示している。そして、生成される画像は、その形状が、取得された画像中の物体の形状に概ね等しくなるように、調整する。当該調整は、処理部7に含まれるユーザ・インタフェース(入力部)を介して行いうる。形状モデルによる調整後の画像の形状から物体の位置および姿勢を取得することにより、本ステップでの入力を自動または手動で行いうる。
次に、ステップS101−4では、各条件で評価用画像を取得する。評価用画像は、エッジ情報を抽出するための画像と距離情報(物体までの距離の情報)を抽出(取得)するための画像とを含む。エッジ情報を抽出するための画像データ(第1画像データ)は、計測対象領域全体を(概ね均一な光で)照明して撮像することにより得られた画像データである。また、距離情報を抽出するための画像データ(第2画像データ)は、本実施形態では、空間符号化パターン投影法に係るパターン光で照明して撮像することにより得られた画像データである。空間符号化パターン投影法は、例えば、図5の(a)ないし(j)に示すような強度パターンの光(パターン光)で物体を照明する。ここで、図5は、パターン光を例示する図である。この例では、空間符号化パターン投影法に係る4ビットのグレイコードパターンを用いている(図6参照)。条件の変更は、例えば、撮像時間をより長くしていくことにより、取得される画像がより明るくなるようにしてもよいし、その逆にしてもよい。また、ステップS101−2での条件を初期条件として、最急勾配法等の最大値探索アルゴリズムに基づいて条件を変更してもよい。なお、条件の変更は、それには限定されないが、照明の強度、撮像の時間、および撮像のゲインのうち少なくとも1つの変更としうる。
次に、ステップS101−5では、ステップS101−4で取得されたエッジ情報抽出用の各画像データから抽出したエッジ情報(第2画像データ)と、予め記憶しておいた物体のエッジ情報(第2基準データ)との間の相関度(第2相関度)を取得する。また、距離情報抽出用の各画像データから抽出した距離情報(第2画像データ)と、予め記憶しておいた物体の距離情報(第2基準データ)との間の相関度(第2相関度)を取得する。ここで、相関度は、一致度ともいう。また、エッジ情報の抽出は、それには限定されないが、Cannyフィルタを用いて行いうる。エッジ情報に関する評価値(第1評価値)は、例えば、次のようなものである。すなわち、各画像から抽出されたエッジ情報(第2画像データ)と、ステップS101−3で入力された位置および姿勢の情報に基づいて上記の形状モデルから得られたエッジ情報(第2基準データ)との間の相関度L1、・・・、Lの平均値である。ここで、nは、ステップS101−3で位置および姿勢を入力された物体の数である。当該評価値は、相関度L1、・・・、Lの最小値または総和であってもよい。距離情報に関する評価値(第2評価値)は、例えば、次のようなものである。すなわち、Dref1、・・・、Drefと、Dmes1、・・・、Dmesとの差Δ1、・・・、Δの逆数(第2相関度)の平均値である。ここで、DrefないしDrefは、ステップS101−3で入力された各物体の位置および姿勢の情報に基づいて上記の形状モデルから得られた認識装置から各物体までの距離(第2基準データ)である。また、DmesないしDmesは、ステップS101−4で取得された各画像から抽出された物体までの距離である。ここで、Δは以下の式で表わされる。
Δ=abs(Dmes−Dref)・・・(1)
なお、本ステップで用いられる相関度(第2相関度)は、後述のステップS105で物体の位置および姿勢を認識するのに用いられる相関度(第1相関度)とは、互いに異なりうるが、互いに同一の相関度であるのが好ましい。また、式(1)におけるabs()は、括弧内の数値の絶対値を出力する関数である。また、距離情報に関する第2評価値は、Δ1、・・・、Δの逆数の最小値または総和であってもよい。
ここで、物体までの距離DmesないしDmesは、ステップS101−3で取得した各bitのパターン画像データから取得する。そのためには、まず、画像データの輝度情報から明暗判定を行い、画像データの領域毎に空間符号を付与する。例えば、図5(a)の全明パターン画像データと図5(f)の全暗パターン画像データとの間で対応する各画素において、行画像データの画素値の平均値を閾値として空間符号を付与する。すなわち、当該閾値より明るい画素を1、暗い画素を0として各bitのパターン画像データに対して2値化を行えば、図6に示すように空間符号を生成することができる。このようにして得られた空間符号と、照明部と撮像部との間の幾何学的関係とに基づいて、認識装置から物体までの距離DmesないしDmesを取得することができる。なお、輝度が正弦波状に変化する正弦波パターンを、その位相をシフトさせながら投影する位相シフトパターン投影法に従う場合は、各画素における位相を算出することにより、当該距離を取得することができる。
図7は、第1評価値および第2評価値が高い状態を例示する図である。図7(a)は、バラ積み状態の物体(部品等)を示す。図7(b)は、当該物体を撮像して取得したエッジ抽出用の画像データを示す。図7(c)は、図7(b)に示す画像データから抽出したエッジ情報を示す。また、図7(d)は、パターン画像データから抽出(取得)した距離情報を示す。ここで、第1評価値が高くなる状態は、次のような状態である。すなわち、エッジ抽出用の画像データから抽出されたエッジ情報と、ステップS101−3で入力された位置および姿勢の情報に基づいて、予め記憶された形状情報(図7(e))から取得された物体のエッジ情報とがよく一致している状態である。例えば、図7(g)に示されているような状態である。また、第2評価値が高くなる状態は、次のような状態である。すなわち、距離抽出用の画像データから抽出された距離情報と、ステップS101−3で入力された位置および姿勢の情報に基づいて、予め記憶された形状情報(図7(f))から取得された物体の距離情報とがよく一致している状態である。例えば、図7(h)に示されているような状態である。
次に、ステップS101−6で、第1評価値が許容条件を満たす(例えば最大となる)条件および第2評価値が許容条件を満たす(例えば最大となる)条件が見つけられたか判断を行う。見つけられた場合は、ステップS101−7で、各条件を記憶して本探索を終了する。見つけられなかった場合は、第1評価値が許容条件を満たす条件および第2評価値が許容条件を満たす条件が見つかるまで、ステップS101−4およびステップS101−5を繰り返す。
ここで、図2に戻って、認識装置における処理の流れのつづきを説明する。ステップS102では、ステップS101での探索により得られた第1評価値が許容条件を満たす条件および第2評価値が許容条件を満たす条件に、認識装置が画像を取得する条件を設定する。なお、当該条件は、上述のように、例えば、照明の強度ならびに撮像の時間およびゲインのうちの少なくとも一つとしうる。なお、ステップS103でエッジ情報を抽出するための画像データを取得する場合は、第1評価値が許容条件を満たす条件に設定し、距離情報を抽出するための画像データを取得する場合は、第2評価値が許容条件を満たす条件に設定する。
次に、ステップS103では、ステップS102で設定した条件にしたがって、物体を撮像して画像データを取得する。ステップS104では、後述のステップS105でエッジ情報および距離情報を取得するのに必要な画像データが揃ったか判断を行う。そうなった場合は、処理をステップS105に進め、そうならなかった場合は、ステップS102とステップS103とを繰り返す。
ステップS105では、ステップS103で取得されたエッジ抽出用の画像データからCannyフィルタ等のエッジ抽出フィルタを用いてエッジ情報を抽出する。また、距離抽出用の画像データから、上述のように、空間符号の付与を介して距離情報を抽出する。
つづくステップS106では、工程S105で取得したエッジ情報および距離情報に基づいて、物体の位置および姿勢を認識する。こうして処理は終了する。
以上のように、本実施形態は、物体の位置および姿勢のうち少なくとも一方を認識するのに用いる基準データ(の特徴量)と画像データ(の特徴量)との間の相関度(第2相関度)に基づいて、当該物体の照明および撮像のうち少なくとも一方の条件を決定する。そのため、本実施形態によれば、例えば、物体の照明および撮像のうち少なくとも一方の条件であって、当該物体の位置および姿勢のうち少なくとも一方を認識するのに有利な条件を決定できる認識装置を提供することができる。
〔実施形態2〕
本実施形態は、物体の位置および姿勢の入力を、ユーザによる入力部の操作を介することなく行う点が実施形態1とは異なっている。すなわち、実施形態1とは図2におけるステップS101(すなわち図3)における処理の内容が異なっている。当該内容について、図8を参照して説明する。ここで、図8は、条件を決定する処理の流れの別の例を示す図である。図8において、図3(実施形態1)と異なっているのは、ステップS101−2´、ステップS101−3´およびステップS101−5´のみであるため、それらのステップについて説明する。
ステップS101−2´では、認識対象としての物体(例えば山積みにされた物体)の画像データを取得する。ここで、画像を取得する条件は、照明(光)の強度、撮像の時間、および撮像における信号の増幅(ゲイン)のうち少なくとも1つを選択しうるが、それには限定されない。例えば、撮像部のフォーカスやズームに関する条件を選択してもよい。当該条件は、例えば、画像データにおける物体の領域が飽和しない範囲で出来る限り明るく取得される条件であることが望ましい。また、取得する画像データの数は、1つとしてもよいし、次のステップで生成するデータベースによる位置および姿勢の認識のロバスト性を高めるためには、複数としてもよい。複数とする場合、画像データを取得するたびに物体の山積み状態を変化させると、よりロバスト性の高いデータベースを作成しうる。
次に、ステップS101−3´では、位置および姿勢認識用のデータベースを生成する。ここで、当該データベースは、実施形態1において記憶部7eに記憶させておくものとして上述した基準データのデータベースに相当するものである。当該データベースは、ステップS101−1で入力された物体の形状情報に基づいて、幾何学的原理により、物体の位置および姿勢ごとに画像上でのエッジ情報または距離情報として生成しうる。このデータベースは、ステップS105において物体の位置および姿勢を認識するのに使用されうるものである。また、後述のステップS101−5´において第2相関度LないしLを取得するための物体のエッジ情報(第2基準データ)は、ステップS105における抽出と同等の抽出により、ここで特定して記憶しておく。同様に、後述のステップS101−5´において第2相関度Δの逆数ないしΔの逆数を取得するための物体の距離情報(第2基準データ)は、ステップS105における抽出と同等の抽出により、ここで特定して記憶しておく。
ステップS101−5´では、ステップS101−4で取得されたエッジ情報または距離情報(第2画像データ)と、ステップS101−3´で記憶しておいた物体のエッジ情報または距離情報(第2基準データ)との間の相関度(第2相関度)を取得する。本ステップにおいて第1評価値および第2評価値を取得する処理は、実施形態1のステップS101−5におけるものと同等としうる。
本実施形態は、物体の位置および姿勢のうち少なくとも一方の入力を、ユーザによる入力部の操作を介することなく行えるため、実施形態1の効果に加えて、ユーザの負担を軽減できるという効果を有する。
〔実施形態3〕
上述の認識装置は、ある支持部材に支持された状態で使用されうる。本実施形態は、一例として、図9のように、ロボットアーム300(単にロボットまたは把持装置ともいう)と、ロボットアーム300に支持された(備え付けられた)認識装置100とを含むシステムを説明する。認識装置100は、支持台350に置かれた物体210に照明を行って撮像し、画像データを取得する。そして、認識装置100の処理部、または認識装置100の処理部から画像データを取得した制御部310が、物体210の位置および姿勢のうち少なくとも一方を取得(認識)し、当該少なくとも一方の情報を制御部310が取得する。制御部310は、当該情報(認識結果)に基づいて、ロボットアーム300に駆動指令を送ってロボットアーム300を制御する。ロボットアーム300は、その先端のロボットハンドなど(把持部)で物体210を保持して、並進や回転などの移動を行う。さらに、ロボットアーム300によって物体210を他の物体(部品等)に組み付けることにより、複数の物体(部品等)で構成された物品、例えば電子回路基板や機械などを製造することができる。また、ロボットアーム300により移動された物体210を処理することにより、物品を製造することができる。当該処理は、例えば、加工、切断、搬送、組立(組付)、検査、および選別のうちの少なくともいずれか一つを含みうる。制御部310は、CPUなどの演算装置やメモリなどの記憶装置を含みうる。なお、ロボットを制御する制御部を制御部310の外部に設けてもよい。また、認識装置100により得られた画像データや認識されたデータをディスプレイなどの表示部320に表示してもよい。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能・品質・生産性・生産コストのうちの少なくとも1つにおいて有利である。
〔その他の実施形態〕
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がソフトウェアを読み出して実行する処理である。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。
1−3、5、6 取得部
7 処理部

Claims (13)

  1. 物体の位置および姿勢のうち少なくとも一方を認識する認識装置であって、
    前記物体の照明を行い、前記照明を行われた前記物体の撮像を行って前記物体の画像データを取得する取得部と、
    前記画像データと、前記少なくとも一方に関する基準データとの間の相関度としての第1相関度に基づいて、前記少なくとも一方を取得する処理部と、を有し、
    前記処理部は、前記画像データと前記基準データとの間の相関度としての第2相関度に基づいて、前記照明および前記撮像のうち少なくとも一方の条件を決定することを特徴とする認識装置。
  2. 前記位置および前記姿勢のうち少なくとも一方に関する情報を入力するための入力部を有し、
    前記処理部は、前記入力部により入力された前記情報に基づいて、前記基準データを生成することを特徴とする請求項1に記載の認識装置。
  3. 前記処理部により用いられる前記第1相関度と前記第2相関度とは互いに同一の相関度であることを特徴とする請求項1に記載の認識装置。
  4. 前記処理部は、前記第2相関度として、前記画像データに含まれるエッジ情報に関する相関度を得ることを特徴とする請求項1ないし請求項3のうちいずれか1項に記載の認識装置。
  5. 前記処理部は、前記第2相関度として、前記画像データに含まれる距離情報に関する相関度を得ることを特徴とする請求項1ないし請求項3のうちいずれか1項に記載の認識装置。
  6. 前記処理部は、前記画像データの特徴量と前記基準データの特徴量とに基づいて前記第2相関度を得ることを特徴とする請求項1ないし請求項5のうちいずれか1項に記載の認識装置。
  7. 前記処理部は、前記画像データの特徴量と前記基準データの特徴量との間の差に基づいて前記第2相関度を得ることを特徴とする請求項6に記載の認識装置。
  8. 前記処理部は、前記物体の形状を表す形状データを取得し、前記形状データに基づいて前記基準データを生成することを特徴とする請求項1ないし請求項7のうちいずれか1項に記載の認識装置。
  9. 前記処理部は、前記物体に関するコンピュータ支援設計または形状計測により得られた形状データを取得し、前記形状データに基づいて前記基準データを生成することを特徴とする請求項1ないし請求項7のうちいずれか1項に記載の認識装置。
  10. 前記処理部は、前記条件として、前記照明の強度、前記撮像の時間、および前記撮像における信号の増幅のうち少なくとも一つに関する条件を決定することを特徴とする請求項1ないし請求項9のうちいずれか1項に記載の認識装置。
  11. 物体の位置および姿勢のうち少なくとも一方を認識する請求項1ないし請求項10のうちいずれか1項に記載の認識装置と、
    前記認識装置による認識結果に基づいて前記物体を保持して移動するロボットと、
    を有することを特徴とするシステム。
  12. 請求項1ないし請求項10のうちいずれか1項に記載の認識装置を用いて物体を認識する工程と、
    前記工程で認識された前記物体を処理する工程と、
    を含むことを特徴とする物品製造方法。
  13. 物体の照明を行い、前記照明を行われた前記物体の撮像を行って前記物体の画像データを取得し、前記画像データと、前記物体の位置および姿勢のうち少なくとも一方に関する基準データとの間の相関度としての第1相関度に基づいて前記少なくとも一方を認識するための、前記照明および前記撮像のうち少なくとも一方の条件を決定する決定方法であって、
    前記画像データと前記基準データとの間の相関度としての第2相関度に基づいて、前記条件を決定することを特徴とする決定方法。
JP2016218160A 2016-11-08 2016-11-08 認識装置、決定方法、および物品製造方法 Pending JP2018077089A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016218160A JP2018077089A (ja) 2016-11-08 2016-11-08 認識装置、決定方法、および物品製造方法
US15/792,292 US20180130230A1 (en) 2016-11-08 2017-10-24 Recognition apparatus, determination method, and article manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218160A JP2018077089A (ja) 2016-11-08 2016-11-08 認識装置、決定方法、および物品製造方法

Publications (1)

Publication Number Publication Date
JP2018077089A true JP2018077089A (ja) 2018-05-17

Family

ID=62064615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218160A Pending JP2018077089A (ja) 2016-11-08 2016-11-08 認識装置、決定方法、および物品製造方法

Country Status (2)

Country Link
US (1) US20180130230A1 (ja)
JP (1) JP2018077089A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053326A (zh) * 2020-08-13 2020-12-08 无锡先导智能装备股份有限公司 电芯对齐度检测方法、***、装置和设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116858134B (zh) * 2023-07-07 2023-12-05 北京控制工程研究所 一种高精度光电角位移传感器位置解算方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053326A (zh) * 2020-08-13 2020-12-08 无锡先导智能装备股份有限公司 电芯对齐度检测方法、***、装置和设备
CN112053326B (zh) * 2020-08-13 2023-12-08 无锡先导智能装备股份有限公司 电芯对齐度检测方法、***、装置和设备

Also Published As

Publication number Publication date
US20180130230A1 (en) 2018-05-10

Similar Documents

Publication Publication Date Title
EP3163497B1 (en) Image transformation for indicia reading
JP6548422B2 (ja) 情報処理装置、情報処理方法、プログラム
US10937179B2 (en) System and method for 3D scene reconstruction with dual complementary pattern illumination
US20070176927A1 (en) Image Processing method and image processor
US10083522B2 (en) Image based measurement system
JP5564349B2 (ja) 画像処理装置及び外観検査方法
JP2018116599A (ja) 情報処理装置、情報処理方法およびプログラム
JP2008246631A (ja) 対象物取出装置
TWI672937B (zh) 三維影像處理之裝置及方法
JP6662449B2 (ja) 検出装置、検出システム、検出方法、及び検出プログラム
JP5342413B2 (ja) 画像処理方法
US9107613B2 (en) Handheld scanning device
US11080511B2 (en) Contactless rolled fingerprints
JP2007508557A (ja) 三次元物体を走査するための装置
JP2018077089A (ja) 認識装置、決定方法、および物品製造方法
US9752870B2 (en) Information processing apparatus, control method thereof and storage medium
CN110274911B (zh) 图像处理***、图像处理装置、存储介质
JP5445064B2 (ja) 画像処理装置および画像処理プログラム
JP6368593B2 (ja) 画像処理プログラム、情報処理システム、画像処理方法
JP5375479B2 (ja) 三次元測定システムおよび三次元測定方法
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP2020008434A (ja) 3次元測定装置及び方法
JP6326243B2 (ja) 画像処理装置および立体形状計測装置
JP7222795B2 (ja) 画像検査システム及び画像検査方法
JP7306858B2 (ja) 画像検査システム及び画像検査方法