JP2016061622A - 情報処理システム、及び情報処理方法 - Google Patents

情報処理システム、及び情報処理方法 Download PDF

Info

Publication number
JP2016061622A
JP2016061622A JP2014188555A JP2014188555A JP2016061622A JP 2016061622 A JP2016061622 A JP 2016061622A JP 2014188555 A JP2014188555 A JP 2014188555A JP 2014188555 A JP2014188555 A JP 2014188555A JP 2016061622 A JP2016061622 A JP 2016061622A
Authority
JP
Japan
Prior art keywords
pattern
information processing
parallax
image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014188555A
Other languages
English (en)
Inventor
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014188555A priority Critical patent/JP2016061622A/ja
Priority to EP15181808.5A priority patent/EP3001141B1/en
Priority to CN201510925578.2A priority patent/CN105578169B/zh
Publication of JP2016061622A publication Critical patent/JP2016061622A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】情報認識精度の低下を防止する、情報処理システム、情報処理方法を提供する。
【解決手段】ピッキングシステム10のステレオカメラ20において、所定のパターンが表面処理により形成された、又は前記パターンを表示する機能を有するパターン部50と、被写体11を撮像する撮像部21,22と、撮像部21,22から得られたパターンと被写体11とが含まれた画像を用いて、距離情報を算出する算出部とを有する。
【選択図】図1

Description

本願は、情報処理システム、及び情報処理方法に関する。
従来から、例えば工場での部品ピッキング用として、テクスチャの少ない部品の画像を複数撮影して視差を算出し、この視差を利用して部品に対する物体認識処理を施すピッキングシステム100が知られている(図20参照)。なお、「テクスチャ」とは、例えば画像上の各画素の明暗で現れ得る模様、柄、色、ドット等をいう。
例えば、図20のピッキングシステム100に示すように、ステレオカメラ120において撮像部121〜122により画像データを取得し、画像マッチング部123において両画像データの各画素を探索してマッチングをとり、視差画像生成部124において画素ごとに視差を算出するシステムが知られている。また、認識処理部130は、輝度画像と視差画像に基づいて部品を認識する。アーム制御部140は、部品の認識結果に基づいて認識された部品をピッキングするためアームの駆動を制御する。
ここで、撮像部121により撮像された画像を基準画像とし、撮像部122により撮像された画像を比較画像として、基準画像における所定画素に対して周辺画素のテクスチャが少ない比較画像を探索してマッチングをとると、類似する画素が連なってしまう。そのため、対応画素をうまくマッチングさせることが困難となり、所望の視差(以下「正解視差」という。)が得られにくい。
そこで、図20に示すパターン投光部150によって各種パターンを物体に向けて投光し、各種パターンが投影された画像に対してマッチングをとることにより、視差算出精度を向上させる技術が開示されている。これに関連する技術が、例えば特許文献1に開示されている。
しかしながら、図20で示すパターン投光部150の設置位置が適切でない場合に、投光された光の照り返しが撮像され(図21参照)、情報認識精度に影響が生じてしまう(図22参照)。
1つの側面では、本発明は、情報認識精度の低下防止を目的とする。
一態様の情報処理システムにおいて、所定のパターンが表面処理により形成された、又は前記パターンを表示する機能を有するパターン部と、被写体を撮像する撮像部と、前記撮像部から得られた前記パターンと前記被写体とが含まれた画像を用いて、距離情報を算出する算出部とを有する。
情報認識精度の低下防止が可能となる。
本実施形態の情報処理装置を適用したピッキングシステムの概略構成図である。 部品がパターン部に直接載置された例を示す図である。 パターン部が部品を支持していない例を示す図である。 本実施形態におけるステレオカメラのハードウェア構成図である。 本実施形態におけるステレオカメラの処理構成図である。 画像マッチング部及び視差画像生成部の処理構成図である。 小数視差算出部による小数視差の算出について説明する模式図である。 前処理部を設けたステレオカメラの処理構成図である。 本実施形態において適用される測距の原理について説明する模式図である。 本実施形態におけるシフト量の算出について説明する概念図である。 シフト量ごとのコスト値を示すグラフである。 本実施形態における合成コスト値の算出について説明する模式図である。 8方向からの経路コスト値Lrを集約する例を示す図である。 本実施形態における視差値ごとの合成コスト値を示すグラフである。 本実施形態のパターンの有無による合成コスト値を比較するグラフである。 本実施形態における被写体視差と背景視差について説明する模式図である。 パターン部に形成されたパターンの位置について説明する図である。 本実施形態のピッキングシステムの撮像対象とする基準画像の一例である。 本実施形態のパターンを形成して得られた視差画像の一例である。 従来のパターン投光部を用いたピッキングシステムの概略構成図である。 図20の従来システムにより撮像した基準画像の一例である。 図21の基準画像についてパターン投光により得られた視差画像の一例である。
以下、本実施形態に関し、図面を用いて説明するが、本発明の趣旨を越えない限り、本実施形態に限定されるものではない。各図において、同一又は相当する部分には同一の符号を付し、その重複説明は適宜に簡略化して省略する。
本実施形態では、例えば、被写体領域の外側に各種パターンを形成し、例えばステレオカメラで撮像した被写体及びパターンを含む2画像に対してマッチング処理を施し、SGM(Semi Global Matching)アルゴリズムを採用する構成をとる。上述した図20に示すパターン投光部により部品に所定パターンを投光する代わりに、被写体及びパターンを含む2画像に対して、例えばSGMアルゴリズムを用いて視差画像を得る。
本実施形態の情報処理システムについて、例えば情報処理機能を備えたステレオカメラを含むピッキングシステムを例に、図1を参照して説明する。なお、本実施形態の情報処理システムは、ピッキングシステムにのみ適用されるものではなく、例えばステレオカメラを採用する技術分野において理想的な視差画像を得るために適用することが可能である。
また、本実施形態において、例えばステレオカメラが情報処理機能を備えた構成について説明するが、これに限定されるものではない。例えば、ステレオカメラとして撮像画像を得るために撮像部等の最低限の構成をとり、例えば情報処理機能については、ステレオカメラと物理的に分離したパーソナルコンピュータ等の情報処理装置が担う構成としても良い。
<ピッキングシステムの概略構成>
本実施形態におけるピッキングシステム10の概略について、図1を参照して説明する。図1は、本実施形態の情報処理装置を適用したピッキングシステムの概略構成図である。図1に示すピッキングシステム10は、ステレオカメラ20と、認識処理部30と、アーム制御部40と、パターン部50とを有している。
被写体の一例としての部品が入った箱(以下、「部品」という)11を撮像するステレオカメラ20は、撮像部21〜22と、画像マッチング部23と、視差画像生成部24を有している。なお、撮像部の台数は、2台に限定されず、3台以上であっても良い。ここで、ステレオカメラ20は、対象物としての物体(例えば、図1に示す部品11)を異なる方向から同時に撮影することにより、その奥行方向の情報も記録することが可能である。
画像マッチング部23は、例えば撮像部21〜22により撮像された画像(撮像画像)における画素ごとの輝度値の非類似度であるコスト値を算出する。コスト値の算出の詳細については後述する。
視差画像生成部24は、例えば2つの撮像画像に基づいて、少なくとも被写体である部品11の画像領域の全画素に対応した視差画像を生成する。視差画像の生成の詳細については後述する。
認識処理部30は、例えば撮像部21〜22から得られた輝度画像と、視差画像生成部24により生成された視差画像の比較に基づいて部品11を認識する。
アーム制御部40は、認識処理部30による認識結果に基づき、部品11をピッキングするためのアームの駆動を制御する。
パターン部50は、所定のパターンが表面処理により形成されている。パターン部50は、所定のパターンを表示する機能を有していても良い。パターン部50は、例えば部品11を載置(配置)するためのパネルや台等である。図2は、部品がパターン部に直接載置された例を示す図である。図2に示すように、部品11は、パターン部50に対して直接載置されても良いが、これに限定されるものではない。図3は、パターン部が部品を支持していない例を示す図である。図3に示すように、部品11は、パターン部50との間に所定の空間を有し、パターン部50を背景とした位置に配置されても良い。このように、パターン部50は、部品11を支持していなくても良い。
パターン部50は、例えば部品11が配置される領域(物体領域)の外側の領域(例えば、背景領域)に各種パターンが形成されると良い。各種パターンは、表面処理として、例えばパターン部50に対して白黒等の複数の明度を有するパターンとして印刷(印字)されても良く、パターン部50に加工することで設けられる表面の凹凸によりパターンが形成されても良い。なお、パターン部50には、部品11から離れた場所にパターンとして印刷(印字)等されたシートやパネルを置いても良い。また、パターンが表面処理により形成されたパターン部50上に、透明部材等を置いても良い。
また、パターン部50は、各種パターンに対応する画像を表示する機能を有し、例えば液晶ディスプレイ(パネル)等の表示部を有していても良い。
上述した図2や図3に示す撮像部21〜22で撮影される画像において、例えば被写体としての部品11は、例えばパターン部50のパターンと重なっていない。
本実施形態では、ステレオカメラ20を用いた構成を示すが、ステレオカメラ20ではなく、単眼カメラを用いても良い。この場合に、単眼カメラを移動させて被写体としての部品11を複数回撮像し、撮像した画像を用いることで測距しても良い。以下の実施例では、ステレオカメラ20を用いて説明するが、上述した通り、単眼カメラを用いることも可能である。
<ステレオカメラ20のハードウェア構成>
次に、本実施形態におけるステレオカメラ20のハードウェア構成の一例について、図4を参照して説明する。図4は、本実施形態におけるステレオカメラのハードウェア構成図である。
図4に示すステレオカメラ20は、CPU(Central Processing Unit)60と、ROM(Read Only Memory)61と、ROM I/F62と、画像処理部63とを有する。また、ステレオカメラ20は、2つの撮像部64と、RAM(Random Access Memory)65と、RAM I/F66と、撮像部制御用I/F67とを有する。
CPU60は、本実施形態における情報処理全体を制御するための制御機能を担う。ROM61は、例えば本実施形態における情報処理プログラムを記憶する。ROM I/F62は、ROM61とCPU60を含むその他の機能部とを接続するインタフェースである。画像処理部63は、本実施形態における視差画像の生成処理等を行う。
2つの撮像部64は、例えば図1に示す撮像部21〜22に相当する。2つの撮像部64は、例えば所定の距離離間した位置で固定治具等に固定され、それぞれ対象物(物体)を撮像する。なお、2つの撮像部64は、撮像部21〜22が一体に形成された1つの撮像部であっても良い。2つの撮像部64は、光学像をアナログ信号に変換し、更にデジタル信号に変換して画像データを出力する。画像データとしては、例えば8ビット/画素を有し、例えば0〜255階調(輝度値)が得られると良い。
RAM65は、例えば2つの撮像部64から、撮像部制御用I/F67等を介して入力された撮像画像を格納するバッファやキャッシュメモリとして機能する。
<ステレオカメラ20の処理構成>
次に、本実施形態における情報処理装置の機能ブロックについて、図5を参照して説明する。図5は、本実施形態におけるステレオカメラの処理構成図である。なお、図1を参照して既に説明した構成については説明を省略する。
本機能ブロックにおける概略処理手順について説明する。図5に示すように、撮像部21〜22は、被写体としての部品11を撮像する。画像マッチング部23は、撮像部21〜22で撮像された画像のマッチングを行い、画素ごとの輝度値の非類似度であるコスト値C(p、d)を算出する。
視差画像生成部24は、画像マッチング部23により得られるマッチングコスト値Cに対し、例えばSGMアルゴリズムによりコスト値Cを集約する。また、視差画像生成部24は、視差ごとの各方向からの経路コスト値Lr(p、d)の和である合成コスト値Ls(p、d)を計算して、整数視差、小数視差を算出し、算出結果から視差画像を生成して出力する。
<画像マッチング部23及び視差画像生成部24の処理構成>
次に、画像マッチング部23及び視差画像生成部24の詳細について、図6を参照して説明する。図6は、画像マッチング部及び視差画像生成部の処理構成図である。図6に示すように、画像マッチング部23は、高域強調フィルタ部71〜72と、コスト算出部73とを有する。視差画像生成部24は、合成コスト算出部81と、整数視差算出部82と、小数視差算出部83とを有する。
画像マッチング部23で算出されるコスト値Cの算出方法は、例えばSAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、NCC(Normalized Cross−Correlation)等の算出方法を選択しても良い。合成コスト算出部81、整数視差算出部82による各処理内容の詳細は後述する。
小数視差算出部83は、算出視差を小数まで追求する場合にサブピクセル推定手法を使って、図7に示すような小数視差δを算出する。図7は、小数視差算出部による小数視差の算出について説明する模式図である。例えば等角直線法では、図7に示すような視差「△−1」、「△」、「△+1」に対応する3つの合成コスト値Lsを使って小数視差δを算出しても良い。
また、パラボラフィット法や、多項式による近似手法でも、上記3つの合成コスト値Lsを使って小数視差δを算出しても良い。更に、上述した手法において、視差「△−2」、「△−1」、「△」、「△+1」、「△+2」に対応する5つの合成コスト値Lsを使って小数視差δを算出しても良い。また、等角直線法、パラボラフィット法、多項式による近似手法によらず、所望のサブピクセル推定手法を用いて小数視差δを算出しても良い。
<前処理部を設けたステレオカメラの処理構成>
また、図8に示すように、撮像部21〜22から取得した画像に対して処理を行う前処理部を設けても良い。図8は、前処理部を設けたステレオカメラの処理構成図である。図8に示す前処理部91〜92は、歪み補正やガンマ補正等の処理を施す。例えば、基準画像と比較画像の歪み状態が、視差を算出する際に画像マッチング部23で算出するコスト値Cの結果に大きな影響を与え、その影響が視差画像生成部24にも影響を与える。したがって、上述した影響は、画像マッチング部23に入る前に極力取り除いておくことが望ましい。
例えばレンズとセンサの光軸ずれや、レンズの光学的歪み状態が基準画像と比較画像とで異なる場合は、前処理部91〜92に歪みを補正するための補正パラメータを保持し、キャリブレーション結果を補正パラメータに反映させる手段を有しても良い。
上述した各ブロックにおける処理は、上述した図4のハードウェア構成により実現することが可能である。例えば、画像マッチング部23や視差画像生成部24、前処理部91〜92は、RAM65と画像処理部63とにより各処理機能を実現することが可能である。
<測距の原理>
本実施形態において適用される測距の原理について、図9を参照して説明する。図9は、本実施形態において適用される測距の原理について説明する模式図である。ここでは、例えば、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。以下、説明を簡略化するため、所定領域ではなく1画素単位により説明する。
<視差値算出>
まず、撮像装置64−1a及び撮像装置64−1bによって撮像された各画像を、それぞれ基準画像Ia及び比較画像Ibとする。なお、図9の例では、撮像装置64−1a及び撮像装置64−1bが平行等位に設置されているものとする。図9の例では、3次元空間内の物体E上のS点は、撮像装置64−1a及び撮像装置64−1bの同一水平線上の位置に写像される。
すなわち、各画像中のS点は、基準画像Iaの点Sa(x、y)及び比較画像Ibの点Sb(X、y)において撮像される。このとき、視差値△は、撮像装置64−1a上の座標におけるSa(x、y)と撮像装置64−1b上の座標におけるSb(X、y)とを用いて、次式のように表される。
△=X−x 〔式1〕
図9に示すように、基準画像Iaの点Sa(x、y)と撮像レンズ64−2aから撮像面上におろした垂線の交点との距離を△aにし、比較画像Ibの点Sb(X、y)と撮像レンズ64−2bから撮像面上におろした垂線の交点との距離を△bにすると、視差値△=△a+△bとなる。
<距離算出>
また、視差値△を用いることで、撮像装置64−1a〜64−1bと物体Eとの間の距離Zを導き出せる。具体的には、距離Zは、撮像レンズ64−2aの焦点位置と撮像レンズ64−2bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。
図9に示すように、撮像レンズ64−2a及び撮像レンズ64−2bの焦点距離f、撮像レンズ64−2aと撮像レンズ64−2bとの間の長さである基線長B、及び視差値△を用いて、次式により、距離Zを算出することが可能である。
Z=(B×f)/△ 〔式2〕
上記の式2に示すように、視差値△が大きいほど距離Zは小さく、視差値△が小さいほど距離Zは大きくなる。
<SGM法>
次に、本実施形態において採用するSGM法を用いた測距方法について、図10〜図15を参照して説明する。SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出すために採用する方法であり、テクスチャが弱い物体等の詳細な情報を表すことにより、詳細な測距を行うことが可能である。
また、このSGM法は、非類似度であるコスト値を算出した後、直ちに視差値を算出せず、コスト値を算出後、合成非類似度である合成コスト値を算出することで視差値を導出し、最終的に全ての画素における視差値を示す視差画像を導き出す。なお、本実施形態ではSGM法を採用しているが、これには限定されず、例えば周辺画素のコスト値計算結果に基づいて最終的に全ての画素における視差値を導出する手法であれば良い。
<コスト値の算出>
まず、図10及び図11を用いて、コスト値C(p、d)の算出方法について説明する。図10は、本実施形態におけるシフト量の算出について説明する概念図である。なお、図10(a)は、基準画像における基準画素を示す概念図である。図10(b)は、図10(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら、シフト量すなわちズレ量を算出する際の概念図である。図11は、シフト量ごとのコスト値を示すグラフである。ここで、対応画素とは、基準画像内の基準画素に最も類似する比較画像内の画素のことをいう。
図10(a)に示すように、基準画像内の所定の基準画素p(x、y)と、基準画素p(x、y)に対する比較画像内におけるエピポーラ線(Epipolar Line)上の複数の対応画素の候補q(x+d、y)との各輝度値に基づいて、基準画素p(x、y)に対する各対応画素の候補q(x+d、y)のコスト値C(p、d)が算出される。dは、基準画素pと対応画素の候補qのシフト量、すなわちズレ量であり、本実施形態では、画素単位のシフト量が表される。
図10の例では、対応画素の候補q(x+d、y)を予め指定された範囲(例えば、0<d<25)において順次1画素分シフトしながら、対応画素の候補q(x+d、y)と基準画素p(x、y)との輝度値の非類似度であるコスト値C(p、d)が算出される。
上述のように算出されたコスト値C(p、d)は、図11に示すように、シフト量dごとに示されるグラフによって表せる。なお、図11の例では、コスト値Cは、シフト量d=5、12、19の場合の値が「0」となるため、最小値を求めることができない。このようにテクスチャが弱い物体の場合には、コスト値Cの最小値を求めることが困難になる。
<合成コスト値の算出>
次に、図12〜図14を用いて、合成コスト値Ls(p、d)の算出方法について説明する。図12は、本実施形態における合成コスト値の算出について説明する模式図である。本実施形態における合成コスト値の算出は、例えばSGM法により行うがこれに限定されるものではない。本実施形態では、コスト値C(p、d)の算出だけでなく、所定の基準画素p(x、y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x、y)におけるコスト値C(p、d)に集約させて、合成コスト値Ls(p、d)を算出する。
合成コスト値の算出方法について、より詳細に説明する。合成コスト値Ls(p、d)を算出するためには、まず経路コスト値Lr(p、d)を算出する必要がある。次式は、経路コスト値Lr(p、d)を算出するための式である。
Lr(p、d)=C(p、d)+min{Lr(p−r、d)、Lr(p−r、d−1)+P1、Lr(p−r、d+1)+P1、min(Lr(p−r、d))+p2} 〔式3〕
ここで、rは、集約方向の方向ベクトルであり、x方向及びy方向の2成分を有する。min{}は、最小値を求める関数である。Lrは、式3に示されているように再帰的に適用される。min(Lr(p−r、d))は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r、d)の最小値である。また、P1及びP2は、予め実験等により定められた固定パラメータであり、経路上で隣接する基準画素の視差値△が連続になりやすいパラメータになっている。
また、式3に示すように、Lr(p、d)は、基準画素p(x、y)におけるコスト値Cに、図12に示すr方向の各画素における各画素の経路コスト値Lrの最小値を加算することで求められる。このように、r方向の各画素におけるLrを求めるため、基準画像p(x、y)のr方向の一番端の画素からLrを求め、r方向に沿ってLrを求める。
例えば、図12に示す8方向のLr、Lr45、Lr90、Lr135、Lr180、Lr225、Lr270、Lr315が求められ、最終的に次式に基づいて合成コスト値Lsが求められる。
Ls(p、d)=Σ{Lr(p、d)} 〔式4〕
ここで、図13は、8方向からの経路コスト値Lrを集約する例である。図13(a)に示すように、参照画素に対して左に隣接している画素からの集約を、0°方向からの集約としたとき、0°方向からの経路コストL0は、下記の算出式により算出される。
L0(p、d)=C(p、d)+min{L0(左の画素、d)、L0(左の画素、d−1)+P1、L0(左の画素、d+1)+P1、min(L0(左の画素、d))+p2} 〔式5〕
同様にして、図13(b)に示すように、参照画素に対して左上に隣接している画素からの集約を、45°方向からの集約としたとき、45°方向からの経路コストL45は、下記の算出式により算出される。
L45(p、d)=C(p、d)+min{L45(左上の画素、d)、L45(左上の画素、d−1)+P1、L45(左上の画素、d+1)+P1、min(L45(左上の画素、d))+p2} 〔式6〕
同様にして、図13(c)に示すように、参照画素に対して上に隣接している画素からの集約を、90°方向からの集約としたとき、90°方向からの経路コストL90は、下記の算出式により算出される。
L90(p、d)=C(p、d)+min{L90(上の画素、d)、L90(上の画素、d−1)+P1、L90(上の画素、d+1)+P1、min(L90(上の画素、d))+p2} 〔式7〕
同様にして、図13(d)に示すように、参照画素に対して右上に隣接している画素からの集約を、135°方向からの集約としたとき、135°方向からの経路コストL135は、下記の算出式により算出される。
L135(p、d)=C(p、d)+min{L135(右上の画素、d)、L135(右上の画素、d−1)+P1、L135(右上の画素、d+1)+P1、min(L135(右上の画素、d))+p2} 〔式8〕
同様にして、図13(e)に示すように、参照画素に対して右に隣接している画素からの集約を、180°方向からの集約としたとき、180°方向からの経路コストL180は、下記の算出式により算出される。
L180(p、d)=C(p、d)+min{L180(右の画素、d)、L180(右の画素、d−1)+P1、L180(右の画素、d+1)+P1、min(L180(右の画素、d))+p2} 〔式9〕
同様にして、図13(f)に示すように、参照画素に対して右下に隣接している画素からの集約を、225°方向からの集約としたとき、225°方向からの経路コストL225は、下記の算出式により算出される。
L225(p、d)=C(p、d)+min{L225(右下の画素、d)、L225(右下の画素、d−1)+P1、L225(右下の画素、d+1)+P1、min(L225(右下の画素、d))+p2} 〔式10〕
同様にして、図13(g)に示すように、参照画素に対して下に隣接している画素からの集約を、270°方向からの集約としたとき、270°方向からの経路コストL270は、下記の算出式により算出される。
L270(p、d)=C(p、d)+min{L270(下の画素、d)、L270(下の画素、d−1)+P1、L270(下の画素、d+1)+P1、min(L270(下の画素、d))+p2} 〔式11〕
同様にして、図13(h)に示すように、参照画素に対して左下に隣接している画素からの集約を、315°方向からの集約としたとき、315°方向からの経路コストL315は、下記の算出式により算出される。
L315(p、d)=C(p、d)+min{L315(左下の画素、d)、L315(左下の画素、d−1)+P1、L315(左下の画素、d+1)+P1、min(L315(左下の画素、d))+p2} 〔式12〕
上述した8方向の経路コスト値を用いて、参照画素の合成コスト値Ls(p,d)を算出する。
Ls=L0(p、d)+L45(p、d)+L90(p、d)+L135(p、d)+L180(p、d)+L225(p、d)+L270(p、d)+L315(p、d) 〔式13〕
上述した合成コスト値Ls(p、d)は、図14に示すように、シフト量dごとに示されるグラフによって表せる。図14は、本実施形態における視差値ごとの合成コスト値を示す図である。図14の例では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値△=3として算出される。なお、上述の説明ではrの経路数を8として説明しているがこれには限定されない。例えば6方向や16方向等にしても良い。
SGM法は、視差ごとに値が極力変化しているマッチングコスト値C(p、d)を経路ごとに集約して、合成コスト値Ls(p、d)を得る手法であり、それによって精度の高い視差を取得する。そのため、所定のパターンが形成されている方向からコスト値を集約すると効果的である。
ここで、図15は、本実施形態のパターンの有無による合成コスト値を比較するグラフである。例えば背景領域のように、物体領域(物体の撮像領域)が重複しない領域(例えば、物体の外側の領域)にパターンを形成する場合と、背景領域にパターンを形成しない場合とで比較すると、背景領域にパターンを形成する方が合成コスト値Ls(p、d)のコントラストが大きくなる。そのため、注目画素の視差値△を精度良く決定しやすい。
パターンを形成せずにテクスチャが少ない状態でマッチングした場合、SGMアルゴリズムの演算過程で得られる合成コスト値Ls(p、d)は大きなコントラストが得られない。すなわち、視差△'において最小値が得られているとしても、その視差△'は、信頼度に乏しく正解視差からかけ離れた結果となる。したがって、視差画像生成結果は、図15に示すように、背景全体の視差でさえも一定とならず、精度が良くない視差画像結果となり好ましくない。
したがって、背景領域にパターンを形成することにより、画像の部品部分の画素の視差データを精度良く算出させることが可能となる。また、本実施形態におけるSGM法により、画像の部品部分の画素の視差データ抜けを抑制することが可能となる。視差データ抜けが改善されることにより、物体認識処理での部品情報認識精度を向上させる効果が生じる。
ここで、図16は、本実施形態における被写体視差と背景視差について説明する模式図である。図16に示すように、工場のピッキングシステムでは、ステレオカメラから背景部までの背景視差d1は、予め分かっている情報である。すなわち、ステレオカメラから背景部までの距離Zは、予め分かっているため、背景視差d1=〔基線長〕×〔レンズとセンサ面の距離〕/〔距離Z〕は、予め計算することが可能である。
したがって、予め探索視差dの範囲を有限範囲として設定しておき、探索視差範囲内でコスト値Cの算出とSGM法を実行させることも可能である。予め有限範囲で探索視差範囲を設定しておくことで、かけ離れた視差△'の誤検出を低減し、精度の良い物体視差を算出することが可能となる。
上述したように、パターン部50における部品11の背景領域となる位置に形成されるパターンは、複数の明度を持つパターンが好ましい。図17は、パターン部に形成されたパターンの位置について説明する図である。図17(a)は、基準画像の一例を示し、図17(b)は、比較画像の一例を示している。パターン部50に形成されるパターンは、例えば所定の画素数、所定のピッチ、乱数等を用いてパターンを形成すれば良い。なお、例えば繰り返し周期を持つパターンは、コスト値Cの値が繰り返す場合があるため、好ましくない。
例えば、パターン部50に形成されるパターンは、図17に示すパターンBのように、所定の物体Aに対して、その外側の左右のサイドにのみ形成されても良く、上下左右の4つのサイドに形成されても良く、物体Aの領域(物体領域)と背景領域の境界まで形成しても良い。物体Aが、例えばドーナツ型等のように中央に空洞等を有する場合には、その物体Aを配置する位置を固定とし、その中央(内側)の空洞部に対応する位置にパターンが形成されても良い。パターン部50のパターンと物体Aとが撮像される画像において、物体Aとパターン部50のパターンとが重なっていない。
なお、SGM法は、繰り返し周期を持たないパターンに対して効果的であり、かつパターンが画像の背景領域の全領域に及んでいるほど効果がある。そのため、パターンとしては、繰り返し周期を持たない、例えば種々の周波数成分を持っている乱数を、物体領域と背景領域の境界まで配置するのが望ましい。
また、被写体の外側にパターンを形成することとSGM法をセットで用いることで、視差の画素抜けを生じさせること無く、物体及び背景の視差を算出することが可能となる。そのため、認識処理部は、物体領域と背景領域の境界を受信した視差画像に基づいて判断することが可能となる。これにより、アーム制御部40によるアームの誤制御を防止することが可能となる。
[部品の設置]
本実施形態を適用した具体例について図18及び図19を参照して説明する。図18は、本実施形態のピッキングシステムの撮像対象とする基準画像の一例である。上述した図1に示すピッキングシステム10において、金属製の黒い太ネジ部品がバラ積みされている箱11の外側の領域に乱数パターンが形成された場合に、ステレオカメラ20の撮像部21から得られた撮像画像を基準画像とする(図18参照)。なお、図18の例では、画像サイズが横1280ピクセル×縦960ピクセルとなっているが、これに限定されるものではない。
撮像部21から見て、例えば座標(x、y)=(630、450)の位置に黒い太ネジ部品バラ積み状態の部品のうちの1つが最も手前に来るように設置している。予め測定した距離として、撮像部21から背景までの距離=0.973m、撮像部21から箱11の縁までの距離=0.908m、撮像部21から一番手前の黒い太ネジ部品までの距離=0.928mとなるように設置している。ステレオカメラ20で得られる正解視差は、例えば背景視差=63ピクセル、箱の縁=82ピクセル、一番手前の黒い太ネジ部品=76ピクセルである。
[ステレオカメラ動作]
次に、ステレオカメラ20を動作させ、例えばSGMアルゴリズムにより箱中の金属製の黒い太ネジ部品の視差を算出する。図19は、本実施形態のパターンを形成して得られた視差画像の一例である。ここで、探索視差範囲dは、例えば60〜90ピクセルとする。この結果、背景視差=63ピクセル、箱の縁の視差=82ピクセル、一番手前の黒い太ネジ部品=76ピクセルとする正解視差が得られた(図19参照)。また、箱11の内部の部品視差は、部品画像領域内の各画素において視差データが抜けることなく安定した結果が得られた。
[ピッキングシステム動作]
次に、アーム制御部40でアームの駆動を制御することで、座標(x、y)=(630、450)にある一番手前の黒い太ネジ部品位置において、アームの爪部分により一番手前の黒い太ネジ部品を取得することが可能となった。
本実施形態によれば、従来のような物体(上述した部品等)へのパターン投光ではなく、予め物体の背景にパターンを形成した撮像画像に基づいて視差画像を得るため、所望の視差を得て、ピッキング部品等の物体についての情報認識精度(例えば、距離測定精度)の低下を防止することが可能となる。これにより、アーム制御部40はアームによる物体のピッキングを正確に制御することが可能となる。また、本実施形態によれば、従来のパターン投光部のような外部装置を備える必要がないため、システムの肥大化を防止し、システムの製造工数や製造コストを削減することが可能となる。
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の情報処理装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
10,100 ピッキングシステム
11 部品が入った箱(被写体の一例)
20,120 ステレオカメラ
21,22,121,122 撮像部
23,123 画像マッチング部
24,124 視差画像生成部(算出部の一例)
30,130 認識処理部
40,140 アーム制御部
50 パターン部
60 CPU
61 ROM
62 ROM I/F
63 画像処理部
64 2つの撮像部
64−1 撮像装置
64−2 撮像レンズ
65 RAM
66 RAM I/F
67 撮像部制御用 I/F
71,72 高域強調フィルタ部
73 コスト算出部
81 合成コスト算出部
82 整数視差算出部
83 小数視差算出部
91,92 前処理部
150 パターン投光部
特開2013−190394号公報

Claims (14)

  1. 所定のパターンが表面処理により形成された、又は前記パターンを表示する機能を有するパターン部と、
    被写体を撮像する撮像部と、
    前記撮像部から得られた前記パターンと前記被写体とが含まれた画像を用いて、距離情報を算出する算出部とを有することを特徴とする情報処理システム。
  2. 前記パターンと前記被写体とが含まれた画像において、前記被写体に前記パターンが重なっていないことを特徴とする請求項1に記載の情報処理システム。
  3. 前記パターン部は、
    前記パターンが印字されているか、又は、表面の凹凸により前記パターンが形成されていることを特徴とする請求項1又は2に記載の情報処理システム。
  4. 前記パターン部は、
    液晶ディスプレイ上に、前記パターンに対応する画像を表示することを特徴とする請求項1乃至3のいずれか一項に記載の情報処理システム。
  5. 前記撮像部は、
    ステレオカメラであることを特徴とする請求項1乃至4のいずれか一項に記載の情報処理システム。
  6. 前記算出部は、
    前記パターンと前記被写体とが含まれた画像の画素ごとの輝度値の非類似度を算出し、算出結果から少なくとも前記被写体の画像領域の全画素に対応した視差を算出することを特徴とする請求項1乃至5のいずれか一項に記載の情報処理システム。
  7. 前記算出部は、
    各方向の経路ごとに集約された合成非類似度を算出することで、前記被写体の画像領域の全画素に対応した視差を算出することを特徴とする請求項6に記載の情報処理システム。
  8. 前記算出部は、
    予め設定された探索視差範囲内で前記非類似度の算出を行うことを特徴とする請求項6又は7に記載の情報処理システム。
  9. 所定のパターンが表面処理により形成された、又は前記パターンを表示する機能を有するパターン部上の被写体を撮像部により撮像する撮像手順と、
    前記撮像手順で得られた前記パターンと前記被写体とが含まれた画像を用いて、距離情報を算出する算出手順とを有することを特徴とする情報処理方法。
  10. 前記パターンと前記被写体とが含まれた画像において、前記被写体に前記パターンが重なっていないことを特徴とする請求項9に記載の情報処理方法。
  11. 前記撮像手順は、
    前記撮像部としてステレオカメラを用いることを特徴とする請求項9又は10に記載の情報処理方法。
  12. 前記算出手順は、
    前記パターンと前記被写体とが含まれた画像の画素ごとの輝度値の非類似度を算出し、算出結果から少なくとも前記被写体の画像領域の全画素に対応した視差を算出することを特徴とする請求項9乃至11のいずれか一項に記載の情報処理方法。
  13. 前記算出手順は、
    各方向の経路ごとに集約された合成非類似度を算出することで、前記被写体の画像領域の全画素に対応した視差を算出することを特徴とする請求項12に記載の情報処理方法。
  14. 前記算出手順は、
    予め設定された探索視差範囲内で前記非類似度の算出を行うことを特徴とする請求項12又は13に記載の情報処理方法。
JP2014188555A 2014-09-17 2014-09-17 情報処理システム、及び情報処理方法 Pending JP2016061622A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014188555A JP2016061622A (ja) 2014-09-17 2014-09-17 情報処理システム、及び情報処理方法
EP15181808.5A EP3001141B1 (en) 2014-09-17 2015-08-20 Information processing system and information processing method
CN201510925578.2A CN105578169B (zh) 2014-09-17 2015-09-14 信息处理***和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014188555A JP2016061622A (ja) 2014-09-17 2014-09-17 情報処理システム、及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2016061622A true JP2016061622A (ja) 2016-04-25

Family

ID=53887021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014188555A Pending JP2016061622A (ja) 2014-09-17 2014-09-17 情報処理システム、及び情報処理方法

Country Status (3)

Country Link
EP (1) EP3001141B1 (ja)
JP (1) JP2016061622A (ja)
CN (1) CN105578169B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101856344B1 (ko) * 2016-08-22 2018-06-25 현대자동차주식회사 스테레오 영상 정합을 통한 시차맵 생성 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09170914A (ja) * 1995-12-19 1997-06-30 Canon Inc 画像計測方法及び画像計測装置
JP2003058869A (ja) * 2001-08-20 2003-02-28 Minolta Co Ltd 対応点探索方法および撮影システム
US6546356B1 (en) * 2000-05-01 2003-04-08 Genovation Inc. Body part imaging method
JP2012181142A (ja) * 2011-03-02 2012-09-20 National Institute Of Advanced Industrial & Technology ステレオ画像処理装置及びステレオ画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877891B2 (ja) * 2001-08-03 2012-02-15 株式会社トプコン 校正用被写体
GB2398469B (en) * 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
JP3779308B2 (ja) * 2004-07-21 2006-05-24 独立行政法人科学技術振興機構 カメラ校正システム及び三次元計測システム
JP5440927B2 (ja) * 2009-10-19 2014-03-12 株式会社リコー 測距カメラ装置
JP5214811B2 (ja) * 2009-11-13 2013-06-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
CN103109158B (zh) * 2010-10-05 2015-03-04 英派尔科技开发有限公司 一种生成深度数据的方法、装置及***
DE102010038177B3 (de) * 2010-10-14 2012-04-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Erfassen eines die Bilder von Punktemustern beeinflussenden Zustands eines Objekts
JP5966467B2 (ja) 2012-03-15 2016-08-10 株式会社リコー 測距装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09170914A (ja) * 1995-12-19 1997-06-30 Canon Inc 画像計測方法及び画像計測装置
US6546356B1 (en) * 2000-05-01 2003-04-08 Genovation Inc. Body part imaging method
JP2003058869A (ja) * 2001-08-20 2003-02-28 Minolta Co Ltd 対応点探索方法および撮影システム
JP2012181142A (ja) * 2011-03-02 2012-09-20 National Institute Of Advanced Industrial & Technology ステレオ画像処理装置及びステレオ画像処理方法

Also Published As

Publication number Publication date
CN105578169A (zh) 2016-05-11
EP3001141A1 (en) 2016-03-30
EP3001141B1 (en) 2018-10-10
CN105578169B (zh) 2018-07-24

Similar Documents

Publication Publication Date Title
US10430944B2 (en) Image processing apparatus, image processing method, and program
US10142612B2 (en) One method of binocular depth perception based on active structured light
US9759548B2 (en) Image processing apparatus, projector and projector system including image processing apparatus, image processing method
CN108381549B (zh) 一种双目视觉引导机器人快速抓取方法、装置及存储介质
US10540784B2 (en) Calibrating texture cameras using features extracted from depth images
TWI744245B (zh) 產生具有減少過度平滑之視差圖
JPWO2012039043A1 (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
TWI526879B (zh) 互動系統、遙控器及其運作方法
US11803982B2 (en) Image processing device and three-dimensional measuring system
KR101453143B1 (ko) 스테레오 매칭 처리 시스템, 스테레오 매칭 처리 방법, 및 기록 매체
JP2016075658A (ja) 情報処理システムおよび情報処理方法
WO2014108976A1 (ja) 物体検出装置
CN112184811A (zh) 单目空间结构光***结构校准方法及装置
CN105513074B (zh) 一种羽毛球机器人相机以及车身到世界坐标系的标定方法
US11348271B2 (en) Image processing device and three-dimensional measuring system
JP6188860B1 (ja) オブジェクト検出装置
TWI571099B (zh) 深度估測裝置及方法
JP5336325B2 (ja) 画像処理方法
JP2013044597A (ja) 画像処理装置および方法、プログラム
JP2016061622A (ja) 情報処理システム、及び情報処理方法
JP6241083B2 (ja) 撮像装置及び視差検出方法
JP6476629B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20220254035A1 (en) Image processing apparatus, head-mounted display, and method for acquiring space information
JPH10289315A (ja) 視差算出装置、距離算出装置およびこれらの方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181030