JP6642968B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP6642968B2
JP6642968B2 JP2015023714A JP2015023714A JP6642968B2 JP 6642968 B2 JP6642968 B2 JP 6642968B2 JP 2015023714 A JP2015023714 A JP 2015023714A JP 2015023714 A JP2015023714 A JP 2015023714A JP 6642968 B2 JP6642968 B2 JP 6642968B2
Authority
JP
Japan
Prior art keywords
orientation
posture
dimensional shape
target object
shape model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015023714A
Other languages
English (en)
Other versions
JP2015194478A (ja
Inventor
大輔 渡邊
大輔 渡邊
潤 庭山
潤 庭山
岡崎 洋
洋 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015023714A priority Critical patent/JP6642968B2/ja
Priority to EP15765726.3A priority patent/EP3120108A4/en
Priority to CN201580014916.5A priority patent/CN106104198A/zh
Priority to PCT/JP2015/001291 priority patent/WO2015141178A1/en
Priority to US15/126,989 priority patent/US10456918B2/en
Publication of JP2015194478A publication Critical patent/JP2015194478A/ja
Application granted granted Critical
Publication of JP6642968B2 publication Critical patent/JP6642968B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、三次元形状が既知である物体の位置姿勢を計測する技術に関する。
工場などの生産ラインにおいて、山積みされた物体の中から一個体をビジョンシステムを用いて特定し、三次元位置姿勢を計測することで、ロボットに取り付けたハンドにより把持を行う技術が近年開発されている。
物体の三次元位置姿勢を計測する方法として、対象物体の撮影画像から一個体のおおよその位置姿勢を検出し、その位置姿勢を初期値として、画像データに対して物体の三次元形状モデルをあてはめる(モデルフィッティング)方法がある。この方法では、前段の検出処理において適切な位置姿勢を求められないと、後段のモデルフィッティングを行っても正しい位置姿勢を算出できない。たとえば、表と裏で互いに形状が類似する物体の場合には、表側が観測されているにも関わらず、検出処理において裏側の位置姿勢を誤検出したとする。このとき、その位置姿勢を初期値としてモデルフィッティングを行っても誤った解に収束してしまい、正しい位置姿勢を算出できない。
これに対して特許文献1では、互いに誤りやすい関係にある、対称的に配置した2つの姿勢からフィッティングを行い、両者の結果を比較することで、誤認識の抑制を行う方法が記載されている。具体的には、三次元形状モデルと画像とのフィッティングを行い、その際に姿勢収束に大きく寄与する(姿勢収束がしやすい)軸を求める。そして、フィッティングして算出した位置姿勢に対して、求めた軸の向きが反転するように対象物体を回転させた位置姿勢を新たな初期値として作成し、そこから別途フィッティングを行う。そしてこれらのフィッティング結果を比較し、最良のものを選択することで誤認識の抑制を行っている。
特開2012−163450号公報
しかしながら、特許文献1に記載の方法では、誤りやすい2つの位置姿勢が、姿勢が収束しやすい軸回りに互いに180度回転させた関係であるような物体(例えば図2に示すような表と裏で形状が類似する物体)に対しては、正しい位置姿勢を求められない。
この物体に対して特許文献1の方法を適用すると、長手方向の軸の向きを入れ替えたような姿勢を候補として作成することになる。しかし、そもそも、表側の対象物体に対して前段の検出処理において裏側の位置姿勢が求められた場合には、特許文献1の方法で新たに初期値を作成してもフィッティングにより正しい位置姿勢を算出できない。
また、互いに誤りやすい関係にある姿勢が存在するにもかかわらず、フィッティング過程においていずれの姿勢も大差なく収束するような物体では、軸の算出が困難となるため、特許文献1の方法を適用することは困難である。
本発明は、以上の課題を鑑みてなされたものであり、誤認識しやすい形状の対象物体の位置姿勢をより精度よく取得することを目的とする。
本発明の情報処理装置は、例えば、対象物体の三次元形状モデルを取得するモデル取得手段と、前記三次元形状モデルを表示する表示手段と、前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、前記導出される変換パラメータを記憶する記憶手段とを備えることを特徴とする。
本発明によれば、誤認識しやすい形状の対象物体の位置姿勢をより精度よく取得することが可能となる。
第1の実施形態における情報処理装置1の構成を示す図である。 第1の実施形態における対象物体の三次元形状モデルを示す図である。 第1の実施形態における変換パラメータ算出およびそれを利用した対象物体の位置姿勢算出の処理手順を示すフローチャートである。 第1の実施形態における変換パラメータ算出を行うGUIの説明図である。 第1の実施形態における変換パラメータ算出を行うGUIの説明図である。 第1の実施形態における対象物体の位置姿勢算出処理を説明する図である。 変形例における対象物体の三次元形状モデルおよび変換パラメータの算出を説明する図である。 第2の実施形態における変換パラメータ算出を行うGUIの説明図である。 第2の実施形態における変換パラメータ算出を行うGUIの説明図である。 本願発明にかかる情報処理装置のハードウェア構成を示す図である。 第3の実施形態の構成を示す図である。 第4の実施形態で扱う対象物体を示す図である。 第4の実施形態における変換パラメータ算出を行うGUIの説明図である。 第4の実施形態における変換パラメータ算出を行うGUIの説明図である。 第4の実施形態における変換パラメータ算出を行うGUIの説明図である。 第4の実施形態における変換パラメータ算出を行うGUIの説明図である。 第4の実施形態における変換パラメータ算出を行うGUIの説明図である。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施形態の1つである。
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図10を用いて説明する。
図10は、本実施形態における情報装置100のハードウェア構成図である。同図において、CPU1010は、バス1000を介して接続する各デバイスを統括的に制御する。CPU1010は、読み出し専用メモリ(ROM)1020に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1020に記憶されており、ランダムアクセスメモリ(RAM)1030に一時記憶され、CPU1010によって適宜実行される。また、入力I/F1040は、外部の装置(撮像装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
(第1の実施形態)
第1の実施形態では、山積みされた対象物体(部品)の位置姿勢を正確に求め、求められた位置姿勢に基づいて、ロボットハンドにより対象物体を把持する際に本発明を適用した場合について説明する。
概略位置姿勢の認識を誤りやすい対象物体に対して、互いに誤りやすい関係にある2つの位置姿勢をGUIを用いて設定する。そして、その位置姿勢間の変換パラメータを登録しておく。そして、その登録された変換パラメータを用いて、誤認識の発生を抑制し、正しく位置姿勢を算出する方法について述べる。本実施形態で対象とする対象物体は、所定の軸に対して回転させた場合に誤認識しやすい物体である(例えば、表裏で形状がよく似ている物体)。
具体的には表示装置15に表示されるGUIを用いて誤認識しやすい2つの位置姿勢にモデルを配置し、その変換パラメータを事前に登録、保持しておく。そして、位置姿勢算出時には、概略位置姿勢から一度フィッティングを行った後、登録された変換パラメータに基づき、フィッティング結果と誤りやすい関係にある位置姿勢を作成する。そして、作成された位置姿勢を初期値として新たにフィッティングを行う。そして両フィッティング結果のうち、評価値の高い位置姿勢を採用する。
図1は、本実施形態にかかる情報処理装置100の構成を示している。同図に示したように、本実施形態にかかる情報処理装置100は、三次元形状モデル保持部10、変換パラメータ算出部11、概略位置姿勢認識部12、位置姿勢算出部13によって構成され、撮像装置14、表示装置15、操作装置16に接続されている。本実施形態では、このように、情報処理装置1の外部に撮像装置14、表示装置15、操作装置16を接続しているが、撮像装置14、表示装置15、操作装置16を含めて一体として情報処理装置として構成しても良い。
以下、情報処理装置100を構成する各部について説明する。
三次元形状モデル保持部10は、山積みピッキングの対象とする物体の三次元形状モデルを保持する。三次元形状モデルには、たとえば、対象物体の三次元形状を複数ポリゴンの組み合わせにより近似表現したポリゴンモデルを用いることができる。各ポリゴンは、対象物体表面上の点の位置(三次元座標)と、面を近似するポリゴンを構成するための各点の連結情報によって構成される。なお、ポリゴンは三角形で構成されるのが一般的であるが、四角形や五角形であってもよい。その他、表面点の三次元座標とその連結情報により物体形状を近似表現できるポリゴンモデルであればいかなるものであってもよい。あるいは、三次元形状モデルとして、CADデータのように、B−Rep(Boundary−Representation)表現と呼ばれる、区分されたパラメータ曲面の集合で形状を表現したモデルであってもよい。その他、物体の三次元形状を表現可能なモデルであればいかなるものであってもかまわない。三次元形状モデルは、概略位置姿勢認識部12において誤認識を行いやすい複数の姿勢関係を登録するために、表示装置15のGUIを介して2つのモデルを操作するのに用いられる。さらに、位置姿勢算出部13により対象物体の位置姿勢計測を行う際にも用いられる。なお、モデルにはあらかじめ対象物体表面上の点の座標などを表す基準となる座標系(モデル座標系)が設定されているものとする。図2に本実施形態で取り扱う対象物体とそのモデル座標系を示す。三次元形状モデル保持部10は、メモリやハードディスクなどで構成されるが、記憶媒体等から三次元形状モデルを取得してもかまわない(三次元形状モデル取得)。
変換パラメータ算出部11は、対象物体の三次元形状モデルを仮想的なの三次元空間上に表示し、ユーザによる操作を介して、互いに誤りやすい異なる2つの位置姿勢の関係(変換パラメータ)を登録する。本実施形態では、変換パラメータ算出部11は、表示装置15に三次元モデル保持部10が保持する三次元モデルを送出し、表示装置15のGUIに対象物体の三次元形状モデル2つをレンダリングする。そして、表示装置15のGUIに対して、操作装置16によりユーザによる操作を取得して、互いに誤りやすいような位置姿勢関係に配置する。そしてこのときの2つのモデルの仮想的な三次元空間における位置姿勢を取得し、2つの位置姿勢間の変換パラメータを算出して記録することで登録(パラメータ保持)を行う。そして、登録した変換パラメータは、変換パラメータ算出部11に入力される。なお、本実施形態で利用するGUIと登録手順については後述する。変換パラメータ算出部11は登録した変換パラメータを、位置姿勢算出部13に入力する。
概略位置姿勢認識部12は、三次元形状モデル保持部10から対象物体の三次元モデルを取得する。また、撮像装置14から画像(濃淡画像、距離画像)を取得する。本実施形態では、画像は山積みされた対象物体を含んでいるとする。そして、概略位置姿勢認識部12は、三次元モデル画像に含まれる山積みされた物体の中から一個体を検出し、撮像装置14に対する物体の位置及び姿勢の概略値を算出することにより、1個体の概略位置姿勢を認識する。撮像装置14には、位置及び姿勢計測の基準となる三次元の座標系(基準座標系)が規定されているものとする。
本実施形態では、撮像部14に使用するセンサの中心を原点とし、取得される画像の水平方向をx軸、垂直方向をy軸、センサの光軸をz軸とした座標系を基準座標系とする。撮像部14に対する物体の位置及び姿勢とは、基準座標系における物体の位置及び姿勢を表す。本実施形態では、センサで取得した距離画像および濃淡画像に対して、複数の視点から観測した画像をテンプレートとしてパターンマッチングを行うことによりその一個体のおおまかな位置姿勢を算出する。ただし、概略位置姿勢の認識方法は他の方法であってもかまわない。その他、山積みの中から一個体を発見し、その三次元位置姿勢を算出できる方法であれば、ここで述べた以外のいかなる方法であってもかまわない。本実施形態では、対象物体が所定の軸に対して回転させた場合に、誤認識しやすい物体を対象にしているため、ここで取得した概略位置姿勢は誤認識されている可能性が高い。概略位置姿勢認識12で算出した位置姿勢は、概略位置姿勢として位置姿勢算出部13に入力される。
位置姿勢算出部13は、三次元形状モデル保持部10から、三次元形状モデルを取得する。また、位置姿勢算出部13は、概略位置姿勢認識部12から概略位置姿勢を取得する。また、位置姿勢算出部13は、変換パラメータ算出部11が保持する変換パラメータを取得する。また、位置姿勢算出部13は、撮像部14から計測情報(濃淡画像、距離画像)を取得する。そしてそれらの情報から、対象物体の位置姿勢を算出する。
具体的には、まず、取得した概略位置姿勢に基づき、対象物体の三次元形状モデルと、撮像装置14により取得した画像中の対象物体とがもっともフィットするような三次元モデルの位置姿勢を算出(導出)する。その後、取得した変換パラメータに基づき、算出された位置姿勢と誤りやすい関係にある位置姿勢を求め、その位置姿勢を初期値として別途フィッティングを行う。その後、フィッティング結果の評価値を比較し、評価値のよい方の位置姿勢を最終結果として出力する。フィッティングは、たとえば、対象物体の三次元形状モデルとセンサにより取得した計測情報(濃淡画像、距離画像)とがフィットするように位置姿勢を補正することで行う。ただし、フィッティング方法は他の方法であってもかまわない。たとえば、距離画像のみあるいは濃淡画像のみを用いてフィッティングを行ってもよい。
撮像装置14は、対象物体の位置姿勢を認識するために必要な計測情報を取得するセンサである。たとえば、二次元画像を撮影するカメラでもよいし、各画素が奥行きの情報を持つ距離画像を撮影する距離センサでもよいし、これらを併用してもよい。距離センサとしては、対象に照射したレーザ光やスリット光の反射光をカメラで撮影し、三角測量により距離を計測する方式のほか、光の飛行時間を利用するTime−of−flight方式がある。また、ステレオカメラで撮影する画像から三角測量により距離を計算する方式も利用できる。その他、物体の三次元位置姿勢を認識するのに必要な情報を取得できればいかなるセンサであっても本発明の本質を損なうものではない。
撮像装置14は、対象物体に対して上方または横方などに固定されていても良いし、またロボットハンドなどに備えつけられていてもよい。本実施形態では、距離画像および濃淡画像をともに取得可能なセンサを利用するものとする。上述したように、撮像装置14が取得した計測情報は概略位置姿勢認識部12、位置姿勢算出部13に入力される。なお、撮像装置14に設定された座標系を以後、センサ座標系と呼ぶことにする。
表示装置15は、三次元形状モデル保持部10から変換パラメータ算出部11を介して三次元形状モデルを取得し、表示する。また、撮像装置から取得した画像や、位置姿勢算出部13によって算出される位置姿勢を表示し、ユーザに確認させるようにしてもよい。表示装置14は例えば液晶ディスプレイやCRTディスプレイ等が用いられる。
操作装置16は、キーボードやとマウスであり、ユーザからの指示を入力するのに用いられ、特にマウスはGUIを操作するのに用いられる。
図3は、本実施形態における対象物体の位置姿勢を算出する処理手順を示すフローチャートである。
(ステップS301)
ステップS301において、変換パラメータ算出部11および位置姿勢算出部13は、三次元形状モデル保持部10から、対象物体の3次元形状モデルを取得する。
(ステップS302)
ステップS302において、変換パラメータ算出部11は、互いに誤りやすい、異なる2つの位置姿勢(第1の姿勢、第2の姿勢)の関係(変換パラメータ)を登録する。本実施形態ではGUIを用いて本ステップの処理を行う。
図4は変換パラメータの登録に利用するGUIの例である。以下、GUIを構成する各機能と変換パラメータの登録方法について説明する。なお、ユーザは、変換パラメータ算出部を介して、操作装置16(マウス、キーボードなど)を用いてGUIを操作する。
三次元形状モデル保持部10は、変換パラメータ算出部11を介して、表示装置15に三次元形状モデルを送出し、表示装置15は、取得した3次元形状モデルを2つ、仮想空間内に配置した状態を表示する。具体的には、仮想空間内に撮像装置14を見立てた仮想カメラを配置し、仮想カメラから対象物体の全体が観測可能な位置姿勢を算出し、その位置姿勢に3次元形状モデルを2つ配置する。
ここで、表示された2つのモデルのうち一方を基準モデル、もう一方のモデルを操作モデルとする。初期の表示において両者が完全に重なっているとモデルが2つ表示されていることが分かりづらいため、いずれか一方のモデルの位置または姿勢はずらして表示してもよい。そして仮想カメラによる観測画像をレンダリングして表示装置15の表示画面に表示する。
なお、両者の重なり具合を視認しやすくするため、2つのモデルは異なる色で描画し、少なくとも一方は半透明で表示してもよい。ここで、初期の表示を行ったときの、仮想カメラ、基準モデル、操作モデルのそれぞれの位置姿勢は初期配置として記録しておく。ユーザはボタン1を押すことで、表示画面の表示をいつでも初期配置に戻すことができる。
表示装置15の表示画面に表示された操作モデルを情報処理装置100のユーザに操作させ、基準モデルに対して見た目が類似するような異なる位置姿勢に重ね合わせた状態を作成する。操作モード変更用スプリットボタンが押されると、「視点の変更」と「モデルの操作」の2つのモードを候補として表示し、ユーザはモードを選択していずれかに切り替えることができる。「モデルの操作」モードでは、ユーザはマウスにより、3次元空間内で操作モデルの位置姿勢を操作できる。たとえばマウス操作の左ボタンのドラッグでカメラ光軸に垂直な面内での並進移動、右ボタンのドラッグで回転、マウスホイールでモデルの拡大縮小(カメラ光軸方向の並進移動)を行う。これにより、基準モデルに対して操作モデルの見た目が類似するような異なる姿勢に重ね合わせる。
一方、「視点の変更」モードでは、ユーザはマウスにより、仮想カメラの位置姿勢を変更できる。これに関してもモデルの操作と同様に、マウス操作の左ボタンのドラッグでカメラ光軸に垂直な面内での並進移動、右ボタンのドラッグで回転、マウスホイールでカメラ光軸方向の並進移動を行う。これにより、ユーザは操作モデルと基準モデルとの重なり具合を3次元的に確認することができる。
なお、モデルの操作および視点の変更はここで述べた方法以外のものであっても構わない。たとえば、スプリットボタンを用いず、ラジオボタンでの選択によりモード変更を行ってもよい。あるいは、キーバインドとマウス操作とを組み合わせ、Ctrlキーを押した状態でのマウス操作を「視点の変更」、押されていない状態でのマウス操作を「モデルの操作」としてもよい。あるいはマウスを用いず、タッチパネルを用いてモデルを操作してもよい。
具体的には、タッチパネル上の三次元形状モデル領域をドラッグすることでカメラ光軸に垂直な面内での並進移動、背景領域をドラッグすることで回転、ピンチイン/アウトによりモデルの縮小/拡大を行う。その他、基準モデルと操作モデルとを、見た目が類似するような異なる位置姿勢関係に配置可能であれば、いかなる方法であっても構わない。
ボタン2は、ユーザのモデルの操作を補助するためのサポート機能を呼び出す。ボタン2が押されると、位置姿勢算出部13により、ボタンが押された状態の位置姿勢から、操作モデルを基準モデルに対してフィッティングさせた位置姿勢を算出して、操作モデルの配置を更新する。具体的には、基準モデルおよび操作モデルに対して、それぞれ三次元形状モデル表面上から均一に点群をサンプリングし、ICP(Iterative Closest Point)を用いることで、両者(三次元形状モデル同士)のフィッティングを行う。ただし、フィッティングの方法はこれに限るものではない。
たとえば、メインウィンドウと同様に、仮想カメラの観測画像平面を用意し、画像平面上に基準モデルのみレンダリングした画像を生成する。さらに、この結果画像を格納するフレームバッファ中から、カラーバッファおよびデプスバッファを取得する。取得した2つのバッファを輝度画像および距離画像として、位置姿勢算出部13で用いるのと同様の方法により、操作モデルと両画像とのフィッティングを実施してもよい。その他、操作モデルを基準モデルに対してフィッティング可能なものであればいかなる方法を用いてもよい。
姿勢候補選択用スプリットボタンは、ユーザのモデルの操作を補助するためのサポート機能を呼び出す。3次元空間上でユーザ自身の操作により2つのモデルを重ね合わせた状態に配置するのは難しく、手間を要する。そこで、あらかじめ、基準モデルに対して見た目が類似しやすくなりそうな位置姿勢を候補としていくつか算出し、スプリットボタンから候補を選択することで、選択された位置姿勢に操作モデルを配置する。
ユーザは表示された操作モデルと基準モデルとの配置を足がかりとして、前述したモデルの操作を行う。本実施形態では、3次元形状モデル表面上から均一にサンプリングした点群の分布の主成分の第1軸、第2軸、第3軸を求め、各軸回りに基準モデルを180度回転させた姿勢を、それぞれ操作モデルの位置姿勢候補として選択可能とする。これにより、形状がおよそ平面で、その主平面の一方を表、他方を裏として表裏を誤認識しやすいような物体に対して、表と裏とを変換したような姿勢を候補として作成することができる。
ただし、位置姿勢候補の作成方法は、これに限るものではない。たとえば、基準モデルをモデル座標系X/Y/Zの各軸に対して180度回転させた位置姿勢を位置姿勢候補としてもよい。あるいは、基準モデルをX/Y/Z軸回りに30度刻みで回転させたような位置姿勢を多数生成し、各位置姿勢に操作モデルを配置して、前述のフィッティング機能を利用し、基準モデルとのフィッティングを行った結果から候補を作成してもよい。この場合、基準モデルに操作モデルを一致させた結果を真値として、基準モデルに操作モデルをフィッティングした結果の操作モデルの位置姿勢が真値とは異なるにもかかわらず、真値とほぼ同等の評価値をもつようなものを候補として採用する。
真値と異なる位置姿勢の判断基準としては、たとえば、フィッティング結果の姿勢から真値の姿勢への姿勢変換を回転軸回転角表現で表した時の角度が10度以上であった場合、異なる位置姿勢であると判断する。
また、同等の評価値であるか否かの判断基準としては、たとえばフィッティングを行った結果における、ICPの残差、すなわち点間距離の平均値を利用できる。この場合、点間距離の平均値が所定の値以下で合った場合、その結果の位置姿勢を候補とする。
あるいは、基準モデルと、フィッティング後の操作モデルとが3次元的に重なる領域の割合を算出し、その値が90%以上であった場合に、フィッティング後の位置姿勢を候補として採用する、といった方法でもよい。その他、互いに誤りやすい関係にある2つの位置姿勢を候補として作成可能であればいかなる方法でも構わない。
ボタン3は、前述した各機能を利用して基準モデルと見た目が類似するような異なる位置姿勢に操作モデルを重ね合わせた後、両者の変換パラメータを算出して、リストに追加する機能を呼び出す。この機能を図5を用いて説明する。
図5の表示画面に、前述した機能を利用することで、基準モデルに対して見た目が類似する、異なる位置姿勢に操作モデルを重ね合わせた状態の一例を示す。この状態でボタン3を押すと、その時点における、仮想カメラに対する基準モデルの位置姿勢と、仮想カメラに対する操作モデルの位置姿勢とに基づいて、2つの三次元形状モデル間の変換パラメータを算出する。
ここで、基準モデルおよび操作モデルのそれぞれの三次元形状モデルに対して設定されているモデル座標系をそれぞれ基準モデル座標系、操作モデル座標系と呼ぶ。さらに、仮想カメラに設定された座標系を仮想カメラ座標系と呼ぶ。なお、仮想カメラ座標系は、撮像部14の基準座標系と同様に設定するものとする。このとき、基準モデル座標系から仮想カメラ座標系への姿勢変換を行う3×3の回転行列、位置の変換を行う3列の並進ベクトルをそれぞれ、RVB、tVBとする。このとき、基準モデル座標系X=[X,Y,Zから仮想カメラ座標系X=[X,Y,Zへの変換は、4×4行列TVBを用いて以下のように表すことができる。
’=TVB
ここで、
’=[X,Y,Z,1]’=[X,Y,Z,1]
Figure 0006642968

である。これ以後、TVBを基準モデル位置姿勢(第1の位置姿勢)と呼ぶ。
一方、操作モデル座標系から仮想カメラ座標系への姿勢変換を行う3×3の回転行列、位置の変換を行う3列の並進ベクトルをそれぞれ、RVO、tVOとする。このとき、操作モデル座標系X=[X,Y,Zから仮想カメラ座標系X=[X,Y,Zへの変換は、4×4行列TVOを用いて以下のように表すことができる。
’=TVO
ここで、
’=[X,Y,Z,1]’=[X,Y,Z,1]
Figure 0006642968

である。これ以後、TVOを操作モデル位置姿勢(第2の位置姿勢)と呼ぶことにする。
基準モデル位置姿勢TVBと、操作モデル位置姿勢TVOより、2つの三次元形状モデル間の相対位置姿勢を求める。求める相対位置姿勢をTとすると、Tは以下により求まる。
=(TVB−1VO
算出したTは位置を表す3パラメータ、姿勢を表す3パラメータの合計6パラメータで表現可能である。そこで、Tから位置姿勢を表す6パラメータの値を取得し、これらを一組にしたものを変換パラメータとしてリストに追加する。なお、6パラメータの値の代わりに、4×4行列を構成する16個のパラメータの値を一組にしたものを変換パラメータとしても問題ない。あるいは、基準モデルの位置姿勢を表す6パラメータ、操作モデルの位置姿勢を表す6パラメータを一組にして変換パラメータとしてももちろんよい。その他、基準モデルと操作モデルとの相対位置姿勢Tを復元可能、すなわち、2つのモデル間の位置姿勢を互いに変換可能であればいかなるパラメータを変換パラメータとしてもかまわない。また、姿勢を表す3パラメータのみを変換パラメータとしてもかまわない。
変換パラメータのリストへの追加が完了すると、登録姿勢サムネイル表示ウィンドウに、ボタン3が押された状態のメインウィンドウのキャプチャ画像をサムネイル表示する(登録姿勢サムネイル1)。サムネイルは、リストに登録を行った変換パラメータと関連付けておく。これにより、ユーザは、サムネイル右上の×ボタンを押すことで、リストから一度登録した変換パラメータを削除可能である。
なお、本実施形態では変換パラメータを1つだけ登録したが、見た目を誤りやすい姿勢が複数存在する場合には、ここまで述べてきた操作を複数回実行することで、各変換パラメータの算出、リストへの追加を行えばよい。これについては、後述の変形例で説明する。
ボタン4、および、ボタン5は変換パラメータの登録作業を終えるためのボタンである。ボタン4が押されると、それまでにリストに追加されたN組の変換パラメータを位置姿勢算出部13に入力する。ボタン5が押されると、それまでにリストに追加されたN組の変換パラメータをすべて破棄する。
以上、GUIを用いた変換パラメータの登録方法について述べたが、ここで述べたGUIは一例であり、これ以外のものを利用してももちろん構わない。
以下、図6を用いて、ステップS303〜S210の処理について説明する。
(ステップS303)
ステップS303において、概略位置姿勢認識部12および位置姿勢算出部13は、撮像部14により、撮像された対象物体の距離画像および濃淡画像をインタフェースを介して取得する。撮影した画像を図6(a)に示す。
(ステップS304)
ステップS304において、概略位置姿勢認識部12は、撮影画像中に存在する山積みされた多数の対象物体の中から一個体の検出を行い、センサ座標系における対象物体の概略位置姿勢を表す6つのパラメータを算出して記録する。ここで算出した6つのパラメータに基づくモデル座標系からセンサ座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRSM、位置を表す3つのパラメータで表現される3列の並進ベクトルをtSMとする。このとき、モデル座標系X=[X,Y,Zからセンサ座標系X=[X,Y,Zへの変換は、4×4行列T’を用いて以下のように表すことができる。
’=T’X
ここで、
’=[X,Y,Z,1]’=[X,Y,Z,1]
Figure 0006642968

である。これ以後、T’を概略位置姿勢と呼ぶことにする。図6(b)に、概略位置姿勢T’に基づき、撮影画像上に三次元形状モデルを投影した結果を示す。
(ステップS305)
ステップS305において、位置姿勢算出部13は、概略位置姿勢T’を初期値として三次元モデルと画像中の対象物体とのモデルフィッティングを行うことで、対象物体の位置姿勢を算出する。具体的には、三次元形状モデルを撮像装置のパラメータと概略位置姿勢とに基づいて撮影画像に投影する。そして、投影された三次元形状モデルの特徴と画像中の対象物体の特徴とを対応付けてその残差を小さくすることにより、対象物体の位置姿勢を算出する。対象物体の高精度な位置姿勢を算出する。ここで算出した位置姿勢の6パラメータにより表現可能な、モデル座標系からセンサ座標系への座標変換を行う4×4の回転行列をTとする。ここで、図6(c)に、フィッティング後の位置姿勢Tに基づき、撮影画像上に3次元形状モデルを投影した結果を示す。この例では、概略位置姿勢認識部12が表と裏とを誤って一個体を検出したために、本ステップにおいて高精度な位置姿勢算出を行っても、正しい位置姿勢が算出されていない。
(ステップS306)
ステップS306において、位置姿勢算出部13は、ステップS305で算出した位置姿勢に対してスコアを算出し、所定の閾値と比較を行うことで位置姿勢の正誤を判定し、後段の処理を実施するか否かの判定を行う。たとえばフィッティング後の位置姿勢におけるモデル表面上の幾何特徴と、画像中の幾何特徴との三次元的な距離を残差とする(ずれ量取得)。そして、全幾何特徴の残差の平均値Eをスコアとして用いることができる。
算出した残差の平均値Eが所定の閾値(たとえば0.1mm)よりも小さければ、正しい位置姿勢が導出できたと判定してステップS310へ進む。一方、残差の平均値が閾値よりも大きければ、誤った位置姿勢が求まったものと判定して、ステップS307へ進む。閾値は、例えば、予めユーザによって設定しておけばよい。また、位置姿勢の正誤判定方法はこれに限るものではない。たとえば、算出されたTに基づき、モデルを投影してレンダリングした画像と、撮影画像とでの、物体領域内の輝度の正規化相互相関係数Rを求め、この値を利用してもよい。この場合、Rが所定値(たとえば0.9)よりも大きければステップS310へ進む。一方、小さければステップS307へ進む。このほか、ステップS305で算出された位置姿勢の正誤を峻別可能な方法であればいかなる方法であっても構わない。
なお、この処理を省略し、必ずステップS307へ進むようにしてもよい。
(ステップS307)
ステップS307において、位置姿勢算出部13は、位置姿勢Tと、変換パラメータ算出部11から取得したN組の各変換パラメータとを用いて、新たな初期位置姿勢の候補をN個生成する。なお、本実施形態ではN=1とする。ここで、N組の各変換パラメータから復元可能な相対位置姿勢をTr_i(i=1〜N)と表現し、それぞれを用いて作成した新たな候補の位置姿勢をT’とする。T’は以下により算出する。
’=Tr_i −1
図6(d)は、新たな候補の位置姿勢T’に基づき、撮影画像上に3次元形状モデルを投影したものである。
(ステップS308)
ステップS308において、位置姿勢算出部13は、ステップS307で生成された新たな候補の位置姿勢T’を初期値として、ステップS305と同様に撮影画像と三次元形状モデルとがフィットするように、対象物体の位置姿勢を算出(導出)する。ここで算出された位置姿勢をTとする。
(ステップS309)
ステップS309において、位置姿勢算出部13は、ステップS307で生成されたN個の新たな候補位置姿勢T’に対して、ステップS308でそれぞれフィッティングを行い、N個のTの算出が完了しているかを判定する。N個のTの算出が完了していればステップS310へ処理を進め、完了していなければステップS307へと処理を戻す。
なお、N個の新たな候補位置姿勢に対してステップS307〜S308の処理を並列化して実施してもよい。
(ステップS310)
ステップS310において、位置姿勢算出部13は、ステップS309で算出した(N+1)個の位置姿勢T(i=0〜N)に対して、それぞれ位置姿勢の評価値を算出し、最良の評価値となった位置姿勢を最終的な対象物体の位置姿勢として出力する。ここで用いる評価値には、ステップS306と同様に残差を用いてもよいし、算出された位置姿勢に基づいて対象物体を投影した画像と、撮影画像との正規化相互相関を用いてもよい。その他、複数の位置姿勢の正誤を評価値に基づいて峻別可能な方法であればいかなる方法であっても構わない。図6(e)は、T、Tの2つの位置姿勢を評価し、Tを最終位置姿勢として出力した様子を示す。
以上、第1の実施形態では、概略位置姿勢の認識を誤りやすい対象物体に対してあらかじめ、互いに誤りやすい関係にある2つの位置姿勢間の変換パラメータをGUIから登録しておく。そして、その情報を利用することで、誤認識の発生を抑制し、正しく位置姿勢を算出する方法について述べた。
具体的にはGUIを用いて互いに誤りやすい2つの位置姿勢にモデルを配置し、その変換パラメータを登録、保持しておく。そして、位置姿勢算出時には、登録された変換パラメータに基づき、フィッティング結果と誤りやすい関係にある位置姿勢を作成し、その位置姿勢を初期値として新たに別途フィッティングを行う。そして両フィッティング結果のうち、評価値の高い位置姿勢を採用する。
この方法により、誤認識しやすい形状で、フィッティングにより真値算出が期待できる初期値の作成が困難な物体に対しても、直観的な入力により適切な初期値候補を作成して誤認識を抑制することが可能となる。
また、本実施形態では、ステップS305で概略位置姿勢T’に対して一度フィッティングを行い、算出した位置姿勢Tに対して、各変換パラメータTr_iを用いて新たな位置姿勢候補を作成した。これに対して、概略位置姿勢T’に対して、各変換パラメータTr_iを用いて新たな位置姿勢候補を作成してもよい。
(変形例1−1)
第1の実施形態では、表と裏とを誤りやすい対象物体に対して、誤認識なく正しく位置姿勢を算出する方法について述べた。本変形例では、誤りやすい関係にある姿勢を多数有する対象物体に対して、それぞれ誤りやすい位置姿勢を事前登録することで、誤認識の抑制を行う方法について述べる。
なお、本変形例の装置構成は第1の実施形態の図1と同様のため省略する。また、本変形例の処理フローも基本的には第1の実施形態の図2と同様のため省略する。
図7を用いて本実施形態の説明を行う。図7(a)は、本実施形態で取り扱う対象物体の三次元形状モデルの例である。対象物体はプロペラのような形状をしているが3枚の羽部分はいずれも異なる形状であり、回転対称ではない。この対象物体を撮影した画像を図7(b)とする。なお、ここでは以後の説明簡略化のため、センサのZ軸と三次元形状モデルのZ軸とで、方向が一致した姿勢の観測画像を用いている。この画像に対して、撮影画像中から一個体の概略位置姿勢を算出し、その位置姿勢を初期値として画像データと三次元形状モデルとのフィッティングを実施したとする。
このとき、観測情報が類似するため概略位置姿勢認識部12で誤検出が発生しうる。その結果、モデルフィッティング後に算出される位置姿勢として、図7(c)〜(h)にそれぞれ破線部で示すような6パターンの結果が予想される。このうち、正しい位置姿勢は図7(c)である。図7(d)(e)は、図7(c)に対して、モデルZ軸回りの姿勢をそれぞれ−120度、+120度誤った位置姿勢である。また、図7(f)(g)(h)は、Z軸の正方向を物体の表としたときの裏面を誤って検出した結果である。
そこで、これらの誤りやすい関係にある位置姿勢をそれぞれ登録しておき、誤認識の抑制を行う。具体的には、ステップS302にて、第1の実施形態と同様のGUIにより、基準モデルと操作モデルとが、図7(d)〜(h)における、撮影画像上の対象物体の位置姿勢と、誤認識結果の位置姿勢、の関係と同様になるように配置してそれぞれ登録を行う。つまり、本実施形態では変換パラメータを5組登録する(N=5)。そして、ステップ307〜309では、第1の実施形態と同様に、概略位置姿勢からフィッティングを行った結果に対して、N個の誤りやすい位置姿勢を求め、それぞれを初期値としたフィッティングを実施する。最後に、ステップS310で、(N+1)個のフィッティング結果Ti(i=0〜N)の中から評価値の最もよいものを最終位置姿勢として出力する。
以上の方法により、誤りやすい関係にある姿勢を多数有する対象物体に対しても、直観的な入力により適切な初期値候補を作成して誤認識の抑制が可能となる。
(第2の実施形態)
第1の実施形態では、三次元形状モデルを操作可能なGUIを表示装置15の表示画面に表示しユーザによる操作に基づいて、互いに誤りやすい2つの位置姿勢にモデルを設定する。そして、その位置姿勢間の変換パラメータを登録(保持)しておくという処理を事前に行い、実際の位置姿勢処理においては、その変換パラメータを用いることにより誤認識を抑制する方法について述べた。
これに対して本実施形態では、第1の実施形態のように三次元形状モデルを使った事前の処理は行わない。本実施形態では、実際の対象物体が山積みされている画像に対して、一度位置姿勢計測を行い、その結果の中から一個体に対する正しい計測結果と、誤った計測結果とを対にして選択し、両者の変換パラメータを算出、登録(保持)する。本実施形態では、一個体に対して実際に算出された正しい位置姿勢と誤った位置姿勢との関係を事前登録することで、誤認識抑制の確実性を高めることができる。
本実施形態にかかる情報処理装置100の構成は第1の実施形態と同様であるため説明を省略する。
次に、本実施形態の処理手順について説明する。本実施形態では、図3に示す第1の実施形態のフローチャートにおいて、ステップS302の処理のみが異なる。ステップS302以外の処理は共通であるため、以下、ステップS302について詳しく説明し、その他の処理については説明を省略する。
(ステップS302)
ステップS302において、変換パラメータ算出部11は、互いに誤りやすい、異なる2つの位置姿勢の関係(変換パラメータ)を算出して登録(保持)する。本ステップでは図9に示すような表示装置14の表示画面に表示されるGUIを用いて変換パラメータの登録を行う。なお、表示画面に表示されている画像は、撮像装置14により撮像された対象物体の山積み画像である。
以下、GUIを構成する各機能と変換パラメータの登録方法について説明する。
ボタン6は、山積み画像の撮影、山積み画像中の個体の検出および概略位置姿勢認識、概略位置姿勢に基づくモデルフィッティング、の一連の処理を実施するためのボタンである。ボタン6が押されると第1の実施形態におけるステップS303〜S305の処理を実施する。ただし、ここでは山積み画像中の一個体の位置姿勢を算出するのではなく、M個の位置姿勢を算出する(複数導出する)。
具体的には、概略位置姿勢認識部12による概略位置姿勢認識処理において、評価値の高かったものから上位M個を抽出し、M個の概略位置姿勢をそれぞれ初期値としてモデルフィッティングを行ってM個の位置姿勢を算出する。ここで、Mの値はあらかじめ定めておいてもよいし、概略位置姿勢認識の評価値などに応じて動的に設定してもよいが、算出されるM個の位置姿勢の中に、同一個体に対する正しい位置姿勢と、誤った位置姿勢とがともに含まれるように設定する。つまり、ある1つの物体に対して、正しい概略位置姿勢と誤った概略位置姿勢とを含む複数の概略位置姿勢が認識され、それぞれの概略位置姿勢に基づいて、モデルフィッティングを行って、正しい位置姿勢と誤った位置姿勢を求める。ここで、例えば表向きの部品に対して表向きの概略位置姿勢は正しい概略位置姿勢であり、裏向きの位置姿勢は誤った概略位置姿勢である。
ボタン6が押されると、位置姿勢表示ウィンドウは、モデルフィッティング後のM個の位置姿勢を表すパラメータ(x、y、z、Rx、Ry、Rz)をそれぞれ表示する。図9においてはM=6である。一方で、メインウィンドウは、撮像装置14により計測した対象物体の山積み画像を表示する。さらに位置姿勢表示ウィンドウに表示されたM個の中からユーザが選択した位置姿勢(太線表示)に基づき、メインウィンドウ上の画像に対して三次元形状モデルを重畳表示する(図8破線部)。
ユーザは、M個の位置姿勢を切り替え、メインウィンドウにそれぞれ切り替え表示される三次元形状モデルを確認する。そして、M個の位置姿勢の中に、同一個体に対する正しい位置姿勢と、誤った位置姿勢とがあれば、各位置姿勢に関連付いた位置姿勢選択チェックボックスをともにチェックすることで、それらを選択する。図8は、M(=6)個の位置姿勢のうち、位置姿勢(3)を、撮影画像右端の個体に対する誤った位置姿勢であるとして選択した状態である。これに加え、図9は、さらに位置姿勢(1)を、撮影画像右端の同一の個体に対する正しい位置姿勢であるとして選択した状態を示す。なお、位置姿勢選択チェックボックスは、位置姿勢が2つチェックされた時点でそれ以上選択できないようにする。
ボタン7は、位置姿勢選択チェックボックスで2つ位置姿勢が選択されると有効になる。ボタン7を押すことで、第1の実施形態におけるボタン3が押された時と同様に、選択された2つの位置姿勢間の変換パラメータを算出して変換パラメータのリストへ追加する。なお、リストへの追加が完了した時点で、位置姿勢選択チェックボックスはすべて未選択状態にリセットする。
変換パラメータのリストへの追加が完了すると、第1の実施形態と同様、登録姿勢サムネイル表示ウィンドウ2に、変換パラメータ算出に用いた2つの位置姿勢の三次元形状モデルを重ね合わせてサムネイル表示する(登録姿勢サムネイル2)。サムネイルは、リストに登録を行った変換パラメータと関連付けておき、ユーザは、サムネイル右上の×ボタンを押すことで、リストから一度登録した変換パラメータを削除可能である。
ボタン8およびボタン9は第1の実施形態におけるボタン4およびボタン5と同様の処理を行うためのものであるため説明を省略する。
なお、本実施形態で述べたGUIを用いた変換パラメータの登録方法は一例であり、これ以外のものを利用してももちろん構わない。
以上、第2の実施形態では、山積み画像に対して、誤りやすい位置姿勢関係を登録せずに一度位置姿勢計測を行う。そして、その結果の中から一個体に対する正しい計測結果と、誤った計測結果とを対にして選択することで、両者の変換パラメータを算出し、登録する方法について述べた。本実施形態では、一個体に対して実際に算出された正しい位置姿勢と誤った位置姿勢との関係を事前登録することで、誤認識抑制の確実性を高めることが可能である。
(第3の実施形態)
本発明に係る情報処理装置の好適な適用事例としては、産業用ロボットアームで部品の把持、移動、解放といった動作を行うシステムにおいて対象部品の位置姿勢計測に利用することが挙げられる。以下、図11を用いて、本発明に係る情報処理装置の適用例を説明する。
図11は、本実施形態に係る情報処理装置を含むロボットシステムの概略構成の一例を示す模式図である。情報処理装置1501はロボットハンドを制御するPC(Personal Computer)である。撮像装置1502は撮像装置であり、カメラやプロジェクタからなる。情報処理装置1501は、第1、第2の実施形態で説明した情報処理装置100の機能を実現するソフトウェアが供給されている。そして、撮像装置1502は、第1、第2の実施形態で説明した撮像装置14と同様の構成である。本実施形態では、撮像装置1502は、ロボットアーム上に設置されているが、対象物体から重力方向に上方に固定して設置してもかまわない。また、第1、第2の実施形態で説明したGUIを表示する表示装置やユーザ操作を受け付ける操作装置は図15においては不図示だが、情報処理装置1501に接続されている。情報処理装置1501は、先に説明した処理手順が記述されたプログラムを格納し、対象部品1505の位置姿勢の計測が可能である。対象物体1505は、図の簡略化のため、1個体しか表示していないが、もちろん第1または第2の実施形態のように山積みされていてもかまわない。
ロボットコントローラ1503は、ロボットアームを制御する。ロボットアーム1504は、ロボットアームであり、回転軸及び/または並進移動軸からなる可動軸を有する。ロボットコントローラは情報処理1201に接続されており、ロボットアームへの命令は情報処理装置1501から受け取ったものを具体的な制御命令に変換してロボットアームを動かす。また、ロボットアームの先端に備え付けられているロボットハンドは、対象物体を把持する。しかし、ロボットハンドとしては、把持(つかむ)ためのものだけでなく、例えば、吸盤を備えることによる吸着により物体を保持することのできるハンド(対象物体保持手段)でかまわない。
本実施形態におけるロボットシステムは、第1または第2の実施形態で説明した処理手順により対象物体の位置姿勢を認識する。そして、その結果をカメラの座標系からロボット座標系に変換する。次に変換された部品のロボット座標系における位置姿勢を元にロボットコントローラを介してロボットアームが部品を把持できる位置姿勢に移動させる。
このように、本実施形態によれば、ロボットアームを有するロボットシステムにおいて、本発明による部品の位置姿勢の計測結果に基づいてロボットアームを処理することで未知である部品の把持(保持)をすることができる。
(第4の実施形態)
第1の実施形態では、それぞれの候補位置姿勢において対象物体全体についての評価値を比較した。本実施形態では、誤った姿勢と正しい姿勢との比較において評価値に差が出やすいような特定部位を事前に設定しておき、特定部位のみで評価値の比較を行うことでより確実に誤認識の抑制を行う方法について述べる。図12の対象物体は、姿勢Aと、姿勢Aを回転軸まわりに180度回転させた姿勢Bとで重ね合わせたときに見た目の差が少なく、判別が難しい。本実施形態は、このような互いに誤りやすい関係にある複数の姿勢において、対象物体の見た目の差分が小さい認識に対して特に有効な方法である。
本実施形態の装置構成は、基本的に第1の実施形態の図1と同様のため省略するものとし、第1の実施形態とは異なる処理を行う変換パラメータ算出部11、および位置姿勢算出部13についてのみ述べる。
変換パラメータ算出部11は、仮想的な三次元空間におけるモデルの2つの位置姿勢間の変換パラメータを算出して記録するとともに、登録した2つの位置姿勢において見た目が顕著に異なる部位を特定部位としてユーザが指定し、その部位を記憶する。たとえば図12の物体であれば、回転軸まわりに物体を回転させた姿勢A、姿勢Bの配置において位置がわずかに変化する回転軸付近の2つの小さい円を特定部位として指定するのがよい。本実施形態で利用するGUIと登録手順については後述する。
位置姿勢算出部13は、三次元形状モデル保持部10から、三次元形状モデルを取得する。また、位置姿勢算出部13は、概略位置姿勢認識部12から概略位置姿勢を取得する。また、位置姿勢算出部13は、変換パラメータ算出部11が保持する変換パラメータを取得する。また、位置姿勢算出部13は、撮像部14から計測情報(濃淡画像、距離画像)を取得する。また、位置姿勢算出部13は、変換パラメータ算出部11から、記憶しておいた特定部位を取得する。そしてこれらの情報から、対象物体の位置姿勢を算出する。
具体的には、まず、取得した概略位置姿勢に基づき、対象物体の三次元形状モデルと、撮像装置14により取得した画像中の対象物体とがもっともフィットするような三次元モデルの位置姿勢を算出(導出)する。その後、取得した変換パラメータに基づき、算出された位置姿勢と誤りやすい関係にある位置姿勢を求め、その位置姿勢を初期値として別途フィッティングを行う。ここまでの処理は第1の実施形態と同様である。その後、フィッティング結果の評価値を比較する際に、特定部位に関する評価値を算出し、評価値のよい方の位置姿勢を最終結果として出力する。
なお、本実施形態の処理フローも基本的には、図3に示される第1の実施形態と同様のため省略することとし、第1の実施形態とは処理内容の異なるステップS302、S310について述べる。
(ステップS302)
図13は、本実施形態で利用するGUIの例である。ユーザはこのGUIを用いて誤りやすい姿勢とともに特定部位の登録を行う。第1の実施形態と同様に、ユーザは変換パラメータ算出部を介して操作装置16(マウス、キーボードなど)を用いてGUIを操作する。モデルの操作方法や姿勢のリセットボタン、フィッティングボタン、姿勢の登録ボタンの機能についても第1の実施形態と同様である。GUIについての第1の実施形態との違いは、特定部位を指定・登録するための特定部位メニュー1300が追加されている点である。特定部位指定メニュー1300は、誤りやすい姿勢が登録されるまでは無効となっており、ユーザが操作することができない。まず、ユーザはGUIで表示された対象物の基準モデルに対して誤りやすい相対的な位置姿勢になるように、操作モデルを移動・回転させる。ユーザが操作モデルを移動・回転させて姿勢の登録ボタンを押下し、誤りやすい姿勢を登録すると、図14に示すように、登録姿勢サムネイル表示ウィンドウ1410にキャプチャ画像がサムネイル表示される。なお、登録された誤りやすい位置姿勢については、第1の実施形態と同様に、登録姿勢サムネイル表示ウィンドウ1410右上の「×」ボタンを押下することによって登録を解除することができる。なお、ここまでの処理は第1の実施形態と同様である。
誤りやすい姿勢を登録すると、図14のGUI下部に示すように特定部位メニュー1300のうちの特定部位追加/キャンセルボタン1420が有効となる。特定部位追加/キャンセルボタン1420を押下すると、GUI中央部に示すような特定部位を選択するための矩形1430が表示され、この矩形を操作(移動・拡大・縮小)することにより、登録する特定部位を選択する。ここで、特定部位追加/キャンセルボタン1420を押下して特定部位を選択するための矩形1430が表示されると、図15のように、同時に特定部位メニュー11300のうちの特定部位登録ボタン1510が有効となる。
特定部位登録ボタン1510を押下すると、その時点で特定部位指定用矩形1430に囲まれていた操作モデル上の領域が特定部位として登録される。具体的には、矩形1430を選択した時の仮想カメラから観測可能な操作モデル表面について、画面上で指定した矩形内における奥行き方向の存在範囲を算出する。そして算出した存在範囲と画面上の矩形とにより定義される3次元空間(ここでは直方体)を算出し、仮想カメラに対する操作モデルの位置姿勢に基づき、モデル座標系に変換し直して記録する。同時に、モデル座標系に変換した3次元矩形を操作モデルに重ねて仮想空間に表示する。なお、登録された特定部位として表示される3次元矩形は、登録解除しない限り、操作モデルに固定された状態で、操作モデルの操作に合わせて表示され続ける。なお、特定部位の指定にあたり、ここでは矩形を用いた方法について述べたが、矩形に限らず円、楕円、多角形など、他の幾何形状を用いた指定であっても構わない。また複数の幾何形状からユーザが選択できるような構成であっても良い。矩形以外の幾何形状を用いて領域の指定を行う場合においても、領域を選択した時の仮想カメラから観測可能な操作モデル表面について、画面上で操作した幾何形状の領域内における奥行き方向の存在範囲を算出する。そして算出した奥行き方向の存在範囲と画面上の幾何形状とにより定義される3次元空間を算出し、仮想カメラに対する操作モデルの位置姿勢に基づき、モデル座標系に変換し直して記録すればよい。たとえば、画面上で円を用いて特定部位を指定した場合には、仮想カメラから観測可能な操作モデル表面の奥行き方向の存在範囲だけ円を伸ばしたような円柱を記録する。
特定部位を選択した後でもう一度特定部位追加/キャンセルボタン1420を押下すると、矩形が消えて特定部位の選択を取り消すことができる。
特定部位の登録が実行された場合には、それと同時に図16のGUI下部に示すように特定部位メニュー1300のうちの特定部位リストに登録した登録部位の名前が表示され、かつ特定部位登録解除ボタンが有効となる。登録部位の名前は任意に設定でき、ユーザが手動で直接入力して決定しても良い。あるいは自動的に決定されても構わない。
以上の操作を複数繰り返すことで、特定部位を複数登録することが可能である。特定部位を新たに追加登録すると、図17に示すように特定部位リストと操作モデルに対応した情報(特定部位の名前、特定部位に対応した特定部位指定用矩形)が追加される。
ここで、ユーザが特定部位の登録を解除したい場合には、対象となる特定部位を特定部位リストから選択してから特定部位登録解除ボタンを押下する。特定部位リストからいずれかの特定部位を選択すると、特定部位登録ボタンが無効となる。ここでさらに登録解除ボタンを押下すると、対象となる特定部位は特定部位リストから削除される。
すべての特定部位の登録が完了し、OKボタンが押されると、記録した各特定部位に対して、登録された誤りやすい姿勢に基づき、対になる特定部位を新たに算出して記録する。たとえば、図17に示すように、図12における姿勢Aと姿勢Bとの関係で誤りやすい姿勢が登録されているものとし、さらに、両者において形状に差異が発生する特定部位として、モデル回転軸付近の2つの円形状が登録されたものとする。ここで、姿勢Aにおいて観測できるモデル表面と姿勢Bにおいて観測できるモデル表面は裏表の関係にある。したがって、位置姿勢算出時に両者の評価値を比較するためには、双方に関して特定部位を記録しておく必要がある。そこで、操作モデルを用いて記録した特定部位の三次元空間を、変換パラメータに基づき、互いに誤りやすい姿勢に配置した基準モデルのモデル座標系に変換し、双方の三次元空間を記録する。これにより、互いに誤りやすい2つの姿勢において、それぞれ比較すべき特定部位を記録することが可能である。なお、変換パラメータ、あるいは特定部位が複数登録されている場合には、それぞれの組み合わせについて本処理を実施する。
(ステップS310)
ステップS310において、位置姿勢算出部13は、ステップS309で算出した(N+1)個の位置姿勢T(i=0〜N)に対して、ステップS302で指定した特定部位内に関して、それぞれ位置姿勢の評価値を算出し、最良の評価値となった位置姿勢を最終的な対象物体の位置姿勢として出力する。すなわち、本実施形態では、上記述べた方法で登録された特定部位のみで評価値の比較を行うことでより確実に誤認識の抑制を行う。
なお、ここで用いる評価値には、ステップS306と同様に残差を用いてもよいし、算出された位置姿勢に基づいて対象物体を投影した画像と、撮影画像との正規化相互相関を用いてもよい。たとえば、評価値として残差を用いるのであれば、特定部位として記録された複数の三次元空間のいずれかに内包される幾何特徴のみに基づいて残差を算出する。あるいは、正規化相互相関を用いるのであれば、特定部位として記録した三次元空間をそれぞれモデルの位置姿勢に基づき画面上に投影し、投影領域内における両者の相関を用いて評価を行う。なお、ここで記載した以外の、複数の位置姿勢の正誤を峻別するそのほかの評価値に対しても、記録しておいた特定部位に着目して比較を行う方法が利用可能なのはいうまでもない。
以上の方法により、互いに誤りやすい関係にある複数の姿勢において、対象物体の見た目の差分が小さい認識においても、2つの形状の差異が発生しやすい特定部位に着目した評価が可能となるため、より確実に誤認識の抑制が可能となる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (17)

  1. 対象物体の三次元形状モデルを取得するモデル取得手段と、
    前記三次元形状モデルを表示手段に表示させる表示制御手段と、
    前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
    前記導出される変換パラメータを記憶する記憶手段とを備えることを特徴とする情報処理装置。
  2. 前記第1の姿勢と前記第2の姿勢とを設定する設定手段を備え、
    前記設定手段は、前記表示手段に表示される三次元形状モデルに対するユーザ操作に基づき、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の姿勢と前記第2の姿勢とを設定する設定手段を備え、
    前記設定手段は、
    複数の異なる位置姿勢に応じた複数の前記三次元形状モデルを前記表示手段に表示し、前記表示された三次元形状モデル同士を対応付けることで、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする請求項1に記載の情報処理装置。
  4. 前記第1の姿勢と前記第2の姿勢とを設定する設定手段と、
    前記対象物体を含む画像を取得する取得手段と、
    前記画像に前記対象物体の三次元形状モデルを対応づけることにより前記対象物体の位置姿勢を複数導出する導出手段とを備え、
    前記表示手段は、前記三次元形状モデルを前記導出される複数の位置姿勢それぞれで表示し、
    前記設定手段は、
    前記導出手段によって導出される対象物体の複数の位置姿勢が同一の対象物体であるかに基づいて、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする請求項1に記載の情報処理装置。
  5. 前記第2の姿勢は、前記第1の姿勢を所定の軸を中心に180度回転させた位置姿勢であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 更に、前記表示手段に表示される前記三次元形状モデルの特定領域をユーザ操作に基づいて決定する決定手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 対象物体の三次元形状モデルを取得するモデル取得手段と、
    前記三次元形状モデルを表示手段に表示させる表示制御手段と、
    前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
    前記導出される変換パラメータを記憶する記憶手段と、
    前記第1の姿勢と前記第2の姿勢とを設定する設定手段と、を備え、
    前記設定手段は、
    複数の異なる位置姿勢に応じた複数の前記三次元形状モデルを前記表示手段に表示し、前記表示された三次元形状モデル同士を対応付けることで、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする情報処理装置。
  8. 対象物体の三次元形状モデルを取得するモデル取得手段と、
    前記三次元形状モデルを表示手段に表示させる表示制御手段と、
    前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
    前記導出される変換パラメータを記憶する記憶手段とを備え、
    前記第2の姿勢は、前記第1の姿勢を所定の軸を中心に180度回転させた位置姿勢であることを特徴とする情報処理装置。
  9. 対象物体を含む画像を取得する取得手段と、
    前記対象物体の三次元形状モデルを保持するモデル保持手段と、
    前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
    前記変換パラメータを保持するパラメータ保持手段と、
    前記画像中の対象物体の概略位置姿勢を取得する取得手段と、
    前記概略位置姿勢と前記変換パラメータと前記三次元形状モデルとに基づいて、前記画像中の前記対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする情報処理装置。
  10. 前記概略位置姿勢で前記三次元形状モデルを前記画像中の対象物体に対応付けてフィッティングを行う第1のフィッティング手段と、
    前記フィッティング後の三次元形状モデルの位置姿勢を前記変換パラメータで変換する変換手段と、
    前記変換手段により変換された位置姿勢で前記三次元形状モデルを前記対象物体に対応づける第2のフィッティング手段とを更に備え、
    前記導出手段は、
    前記第1のフィッティング手段の結果と前記第2のフィッティング手段の結果とに基づいて、前記対象物体の位置姿勢を導出することを特徴とする請求項9に記載の情報処理装置。
  11. 更に、前記第1のフィッティング手段によりフィッティングされた結果のずれ量を取得するずれ量取得手段を備え、
    前記変換手段は、前記ずれ量が閾値よりも大きい場合に、前記フィッティング後の三次元形状モデルの位置姿勢を前記変換パラメータで変換することを特徴とする請求項10に記載の情報処理装置。
  12. 前記第1のフィッティング手段および、前記第2のフィッティング手段は、前記三次元形状モデルの一部分である、予め指定された特定部位を、前記画像中の対象物体の一部分である、特定部位に対応付けてフィッティングを行うことを特徴とする請求項10又は11に記載の情報処理装置。
  13. 対象物体を含む画像を取得する取得手段と、
    前記対象物体の三次元形状モデルを保持するモデル保持手段と、
    前記対象物体の第1の姿勢と、該第1の姿勢とは異なる第2の姿勢との間の変換パラメータを保持するパラメータ保持手段と、
    前記画像中の対象物体の概略位置姿勢を取得する取得手段と、
    前記概略位置姿勢と前記変換パラメータと前記三次元形状モデルとに基づいて、前記画像中の前記対象物体の位置姿勢を導出する導出手段と
    前記概略位置姿勢で前記三次元形状モデルを前記画像中の対象物体に対応付けてフィッティングを行う第1のフィッティング手段と、
    前記フィッティング後の三次元形状モデルの位置姿勢を前記変換パラメータで変換する変換手段と、
    前記変換手段により変換された位置姿勢で前記三次元形状モデルを前記対象物体に対応づける第2のフィッティング手段と、を備え、
    前記導出手段は、前記第1のフィッティング手段の結果と前記第2のフィッティング手段の結果とに基づいて、前記対象物体の位置姿勢を導出し、
    前記第1のフィッティング手段および記第2のフィッティング手段は、前記三次元形状モデルの一部分である、予め指定された特定部位を、前記画像中の対象物体の一部分である、特定部位に対応付けてフィッティングを行うことを特徴とする情報処理装置。
  14. 請求項9乃至13のいずれか1項に記載の情報処理装置と、
    前記対象物体を保持する対象物体保持手段と、を備え、
    前記対象物体保持手段は、前記導出された位置姿勢に基づいて、前記対象物体を保持することを特徴とするシステム
  15. 対象物体の三次元形状モデルを取得するモデル取得工程と、
    前記三次元形状モデルを表示手段に表示させる表示制御工程と、
    前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出工程とを備えることを特徴とする情報処理方法。
  16. 対象物体を含む画像を取得する取得工程と、
    前記画像中の対象物体の概略位置姿勢を取得する取得工程と、
    前記対象物体の三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する第1の導出工程と、
    前記概略位置姿勢と、前記対象物体の第1の姿勢と、前記変換パラメータと、前記次元形状モデルとに基づいて、前記画像中の前記対象物体の位置姿勢を導出する第2の導出工程とを備えることを特徴とする情報処理方法。
  17. コンピュータ請求項1乃至1のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2015023714A 2014-03-20 2015-02-09 情報処理装置、情報処理方法、プログラム Active JP6642968B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015023714A JP6642968B2 (ja) 2014-03-20 2015-02-09 情報処理装置、情報処理方法、プログラム
EP15765726.3A EP3120108A4 (en) 2014-03-20 2015-03-10 Information processing apparatus, information processing method, and program
CN201580014916.5A CN106104198A (zh) 2014-03-20 2015-03-10 信息处理设备、信息处理方法和程序
PCT/JP2015/001291 WO2015141178A1 (en) 2014-03-20 2015-03-10 Information processing apparatus, information processing method, and program
US15/126,989 US10456918B2 (en) 2014-03-20 2015-03-10 Information processing apparatus, information processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014058491 2014-03-20
JP2014058491 2014-03-20
JP2015023714A JP6642968B2 (ja) 2014-03-20 2015-02-09 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2015194478A JP2015194478A (ja) 2015-11-05
JP6642968B2 true JP6642968B2 (ja) 2020-02-12

Family

ID=54144164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023714A Active JP6642968B2 (ja) 2014-03-20 2015-02-09 情報処理装置、情報処理方法、プログラム

Country Status (5)

Country Link
US (1) US10456918B2 (ja)
EP (1) EP3120108A4 (ja)
JP (1) JP6642968B2 (ja)
CN (1) CN106104198A (ja)
WO (1) WO2015141178A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2602386C1 (ru) * 2015-05-26 2016-11-20 Общество с ограниченной ответственностью "Лаборатория 24" Способ визуализации объекта
US9830703B2 (en) * 2015-08-12 2017-11-28 Nvidia Corporation Model-based three-dimensional head pose estimation
JP6601180B2 (ja) * 2015-11-19 2019-11-06 株式会社大林組 長尺材測位方法及び長尺材測位支援装置
US10556305B2 (en) * 2016-02-03 2020-02-11 The Boeing Company Aligning parts using multi-part scanning and feature based coordinate systems
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10570736B2 (en) * 2016-06-09 2020-02-25 Abb Schweiz Ag Robot automated mining
JP6894685B2 (ja) * 2016-09-29 2021-06-30 株式会社カブク 情報処理装置、情報処理方法及びプログラム
JP2018091656A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP6846951B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボット設定装置、ロボットシステム、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
WO2019013736A1 (en) * 2017-07-10 2019-01-17 Siemens Mobility GmbH CALIBRATION OF USER FEEDBACK BASED MODEL DATA
JP6936974B2 (ja) 2017-12-19 2021-09-22 オムロン株式会社 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP7119606B2 (ja) * 2018-06-11 2022-08-17 オムロン株式会社 計測システムおよび計測方法
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
JP7134016B2 (ja) * 2018-08-10 2022-09-09 キヤノン株式会社 情報処理装置、情報処理方法
JP7000361B2 (ja) 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
JP7362453B2 (ja) * 2019-11-28 2023-10-17 株式会社日立製作所 モデル作成装置及びモデル作成方法
JP7470511B2 (ja) 2019-12-17 2024-04-18 荏原環境プラント株式会社 情報処理システム、情報処理方法、情報処理プログラム
JP7496546B2 (ja) 2020-05-28 2024-06-07 パナソニックIpマネジメント株式会社 画像処理方法、プログラム及び画像処理システム
CN112462385A (zh) * 2020-10-21 2021-03-09 南开大学 一种基于激光雷达的室外大环境下的地图拼接定位方法
US20230234233A1 (en) * 2022-01-26 2023-07-27 Nvidia Corporation Techniques to place objects using neural networks

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01283677A (ja) * 1988-05-11 1989-11-15 Fujitsu Ltd 視覚認識装置
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP2002063567A (ja) * 2000-08-23 2002-02-28 Nec Corp 物***置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
US7983487B2 (en) * 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5310130B2 (ja) 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
JP5393318B2 (ja) 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5471355B2 (ja) * 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
JP5257335B2 (ja) * 2009-11-24 2013-08-07 オムロン株式会社 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP5460341B2 (ja) * 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
JP5229253B2 (ja) * 2010-03-11 2013-07-03 株式会社安川電機 ロボットシステム及びロボット装置並びにワーク取り出し方法
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5496008B2 (ja) 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5800494B2 (ja) 2010-11-19 2015-10-28 キヤノン株式会社 特定領域選択装置、特定領域選択方法及びプログラム
JP5759161B2 (ja) 2010-12-16 2015-08-05 キヤノン株式会社 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム
JP5863440B2 (ja) * 2010-12-28 2016-02-16 キヤノン株式会社 情報処理装置および方法
JP5716434B2 (ja) * 2011-02-07 2015-05-13 株式会社Ihi 形状認識装置、形状認識方法、および、そのプログラム
JP5716433B2 (ja) * 2011-02-07 2015-05-13 株式会社Ihi 形状認識装置、形状認識方法、および、そのプログラム
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP5132832B1 (ja) 2011-07-11 2013-01-30 キヤノン株式会社 計測装置および情報処理装置
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
CN106572810A (zh) * 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的***、方法和装置
JP6364856B2 (ja) * 2014-03-25 2018-08-01 セイコーエプソン株式会社 ロボット
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法

Also Published As

Publication number Publication date
JP2015194478A (ja) 2015-11-05
WO2015141178A1 (en) 2015-09-24
CN106104198A (zh) 2016-11-09
EP3120108A4 (en) 2017-11-01
EP3120108A1 (en) 2017-01-25
US10456918B2 (en) 2019-10-29
US20170106540A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
US10363664B2 (en) Information processing apparatus, information processing method, and recording medium
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP2017168077A (ja) 画像処理方法、表示装置および点検システム
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2015171745A (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US11015930B2 (en) Method for 2D picture based conglomeration in 3D surveying
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP6141108B2 (ja) 情報処理装置およびその方法
US20150339859A1 (en) Apparatus and method for navigating through volume image
JP2008309595A (ja) オブジェクト認識装置及びそれに用いられるプログラム
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP2021177144A (ja) 情報処理装置、情報処理方法及びープログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
US20140142900A1 (en) Information processing apparatus, information processing method, and program
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R151 Written notification of patent or utility model registration

Ref document number: 6642968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151