JP6642968B2 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP6642968B2 JP6642968B2 JP2015023714A JP2015023714A JP6642968B2 JP 6642968 B2 JP6642968 B2 JP 6642968B2 JP 2015023714 A JP2015023714 A JP 2015023714A JP 2015023714 A JP2015023714 A JP 2015023714A JP 6642968 B2 JP6642968 B2 JP 6642968B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- posture
- dimensional shape
- target object
- shape model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Description
第1の実施形態では、山積みされた対象物体(部品)の位置姿勢を正確に求め、求められた位置姿勢に基づいて、ロボットハンドにより対象物体を把持する際に本発明を適用した場合について説明する。
ステップS301において、変換パラメータ算出部11および位置姿勢算出部13は、三次元形状モデル保持部10から、対象物体の3次元形状モデルを取得する。
ステップS302において、変換パラメータ算出部11は、互いに誤りやすい、異なる2つの位置姿勢(第1の姿勢、第2の姿勢)の関係(変換パラメータ)を登録する。本実施形態ではGUIを用いて本ステップの処理を行う。
XV’=TVBXB’
ここで、
XV’=[XV,YV,ZV,1]T XB’=[XB,YB,ZB,1]T
XV’=TVOXO’
ここで、
XO’=[XO,YO,ZO,1]T XV’=[XV,YV,ZV,1]T
Tr=(TVB)−1TVO
算出したTrは位置を表す3パラメータ、姿勢を表す3パラメータの合計6パラメータで表現可能である。そこで、Trから位置姿勢を表す6パラメータの値を取得し、これらを一組にしたものを変換パラメータとしてリストに追加する。なお、6パラメータの値の代わりに、4×4行列を構成する16個のパラメータの値を一組にしたものを変換パラメータとしても問題ない。あるいは、基準モデルの位置姿勢を表す6パラメータ、操作モデルの位置姿勢を表す6パラメータを一組にして変換パラメータとしてももちろんよい。その他、基準モデルと操作モデルとの相対位置姿勢Trを復元可能、すなわち、2つのモデル間の位置姿勢を互いに変換可能であればいかなるパラメータを変換パラメータとしてもかまわない。また、姿勢を表す3パラメータのみを変換パラメータとしてもかまわない。
ステップS303において、概略位置姿勢認識部12および位置姿勢算出部13は、撮像部14により、撮像された対象物体の距離画像および濃淡画像をインタフェースを介して取得する。撮影した画像を図6(a)に示す。
ステップS304において、概略位置姿勢認識部12は、撮影画像中に存在する山積みされた多数の対象物体の中から一個体の検出を行い、センサ座標系における対象物体の概略位置姿勢を表す6つのパラメータを算出して記録する。ここで算出した6つのパラメータに基づくモデル座標系からセンサ座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRSM、位置を表す3つのパラメータで表現される3列の並進ベクトルをtSMとする。このとき、モデル座標系XM=[XM,YM,ZM]Tからセンサ座標系XS=[XS,YS,ZS]Tへの変換は、4×4行列T0’を用いて以下のように表すことができる。
XS’=T0’XM’
ここで、
XS’=[XS,YS,ZS,1]T XM’=[XM,YM,ZM,1]T
ステップS305において、位置姿勢算出部13は、概略位置姿勢T0’を初期値として三次元モデルと画像中の対象物体とのモデルフィッティングを行うことで、対象物体の位置姿勢を算出する。具体的には、三次元形状モデルを撮像装置のパラメータと概略位置姿勢とに基づいて撮影画像に投影する。そして、投影された三次元形状モデルの特徴と画像中の対象物体の特徴とを対応付けてその残差を小さくすることにより、対象物体の位置姿勢を算出する。対象物体の高精度な位置姿勢を算出する。ここで算出した位置姿勢の6パラメータにより表現可能な、モデル座標系からセンサ座標系への座標変換を行う4×4の回転行列をT0とする。ここで、図6(c)に、フィッティング後の位置姿勢T0に基づき、撮影画像上に3次元形状モデルを投影した結果を示す。この例では、概略位置姿勢認識部12が表と裏とを誤って一個体を検出したために、本ステップにおいて高精度な位置姿勢算出を行っても、正しい位置姿勢が算出されていない。
ステップS306において、位置姿勢算出部13は、ステップS305で算出した位置姿勢に対してスコアを算出し、所定の閾値と比較を行うことで位置姿勢の正誤を判定し、後段の処理を実施するか否かの判定を行う。たとえばフィッティング後の位置姿勢におけるモデル表面上の幾何特徴と、画像中の幾何特徴との三次元的な距離を残差とする(ずれ量取得)。そして、全幾何特徴の残差の平均値Eをスコアとして用いることができる。
ステップS307において、位置姿勢算出部13は、位置姿勢T0と、変換パラメータ算出部11から取得したN組の各変換パラメータとを用いて、新たな初期位置姿勢の候補をN個生成する。なお、本実施形態ではN=1とする。ここで、N組の各変換パラメータから復元可能な相対位置姿勢をTr_i(i=1〜N)と表現し、それぞれを用いて作成した新たな候補の位置姿勢をTi’とする。Ti’は以下により算出する。
Ti’=T0Tr_i −1
図6(d)は、新たな候補の位置姿勢Ti’に基づき、撮影画像上に3次元形状モデルを投影したものである。
ステップS308において、位置姿勢算出部13は、ステップS307で生成された新たな候補の位置姿勢Ti’を初期値として、ステップS305と同様に撮影画像と三次元形状モデルとがフィットするように、対象物体の位置姿勢を算出(導出)する。ここで算出された位置姿勢をTiとする。
ステップS309において、位置姿勢算出部13は、ステップS307で生成されたN個の新たな候補位置姿勢Ti’に対して、ステップS308でそれぞれフィッティングを行い、N個のTiの算出が完了しているかを判定する。N個のTiの算出が完了していればステップS310へ処理を進め、完了していなければステップS307へと処理を戻す。
ステップS310において、位置姿勢算出部13は、ステップS309で算出した(N+1)個の位置姿勢Ti(i=0〜N)に対して、それぞれ位置姿勢の評価値を算出し、最良の評価値となった位置姿勢を最終的な対象物体の位置姿勢として出力する。ここで用いる評価値には、ステップS306と同様に残差を用いてもよいし、算出された位置姿勢に基づいて対象物体を投影した画像と、撮影画像との正規化相互相関を用いてもよい。その他、複数の位置姿勢の正誤を評価値に基づいて峻別可能な方法であればいかなる方法であっても構わない。図6(e)は、T0、T1の2つの位置姿勢を評価し、T1を最終位置姿勢として出力した様子を示す。
第1の実施形態では、表と裏とを誤りやすい対象物体に対して、誤認識なく正しく位置姿勢を算出する方法について述べた。本変形例では、誤りやすい関係にある姿勢を多数有する対象物体に対して、それぞれ誤りやすい位置姿勢を事前登録することで、誤認識の抑制を行う方法について述べる。
第1の実施形態では、三次元形状モデルを操作可能なGUIを表示装置15の表示画面に表示しユーザによる操作に基づいて、互いに誤りやすい2つの位置姿勢にモデルを設定する。そして、その位置姿勢間の変換パラメータを登録(保持)しておくという処理を事前に行い、実際の位置姿勢処理においては、その変換パラメータを用いることにより誤認識を抑制する方法について述べた。
ステップS302において、変換パラメータ算出部11は、互いに誤りやすい、異なる2つの位置姿勢の関係(変換パラメータ)を算出して登録(保持)する。本ステップでは図9に示すような表示装置14の表示画面に表示されるGUIを用いて変換パラメータの登録を行う。なお、表示画面に表示されている画像は、撮像装置14により撮像された対象物体の山積み画像である。
本発明に係る情報処理装置の好適な適用事例としては、産業用ロボットアームで部品の把持、移動、解放といった動作を行うシステムにおいて対象部品の位置姿勢計測に利用することが挙げられる。以下、図11を用いて、本発明に係る情報処理装置の適用例を説明する。
第1の実施形態では、それぞれの候補位置姿勢において対象物体全体についての評価値を比較した。本実施形態では、誤った姿勢と正しい姿勢との比較において評価値に差が出やすいような特定部位を事前に設定しておき、特定部位のみで評価値の比較を行うことでより確実に誤認識の抑制を行う方法について述べる。図12の対象物体は、姿勢Aと、姿勢Aを回転軸まわりに180度回転させた姿勢Bとで重ね合わせたときに見た目の差が少なく、判別が難しい。本実施形態は、このような互いに誤りやすい関係にある複数の姿勢において、対象物体の見た目の差分が小さい認識に対して特に有効な方法である。
図13は、本実施形態で利用するGUIの例である。ユーザはこのGUIを用いて誤りやすい姿勢とともに特定部位の登録を行う。第1の実施形態と同様に、ユーザは変換パラメータ算出部を介して操作装置16(マウス、キーボードなど)を用いてGUIを操作する。モデルの操作方法や姿勢のリセットボタン、フィッティングボタン、姿勢の登録ボタンの機能についても第1の実施形態と同様である。GUIについての第1の実施形態との違いは、特定部位を指定・登録するための特定部位メニュー1300が追加されている点である。特定部位指定メニュー1300は、誤りやすい姿勢が登録されるまでは無効となっており、ユーザが操作することができない。まず、ユーザはGUIで表示された対象物の基準モデルに対して誤りやすい相対的な位置姿勢になるように、操作モデルを移動・回転させる。ユーザが操作モデルを移動・回転させて姿勢の登録ボタンを押下し、誤りやすい姿勢を登録すると、図14に示すように、登録姿勢サムネイル表示ウィンドウ1410にキャプチャ画像がサムネイル表示される。なお、登録された誤りやすい位置姿勢については、第1の実施形態と同様に、登録姿勢サムネイル表示ウィンドウ1410右上の「×」ボタンを押下することによって登録を解除することができる。なお、ここまでの処理は第1の実施形態と同様である。
ステップS310において、位置姿勢算出部13は、ステップS309で算出した(N+1)個の位置姿勢Ti(i=0〜N)に対して、ステップS302で指定した特定部位内に関して、それぞれ位置姿勢の評価値を算出し、最良の評価値となった位置姿勢を最終的な対象物体の位置姿勢として出力する。すなわち、本実施形態では、上記述べた方法で登録された特定部位のみで評価値の比較を行うことでより確実に誤認識の抑制を行う。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (17)
- 対象物体の三次元形状モデルを取得するモデル取得手段と、
前記三次元形状モデルを表示手段に表示させる表示制御手段と、
前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
前記導出される変換パラメータを記憶する記憶手段とを備えることを特徴とする情報処理装置。 - 前記第1の姿勢と前記第2の姿勢とを設定する設定手段を備え、
前記設定手段は、前記表示手段に表示される三次元形状モデルに対するユーザ操作に基づき、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする請求項1に記載の情報処理装置。 - 前記第1の姿勢と前記第2の姿勢とを設定する設定手段を備え、
前記設定手段は、
複数の異なる位置姿勢に応じた複数の前記三次元形状モデルを前記表示手段に表示し、前記表示された三次元形状モデル同士を対応付けることで、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする請求項1に記載の情報処理装置。 - 前記第1の姿勢と前記第2の姿勢とを設定する設定手段と、
前記対象物体を含む画像を取得する取得手段と、
前記画像に前記対象物体の三次元形状モデルを対応づけることにより前記対象物体の位置姿勢を複数導出する導出手段とを備え、
前記表示手段は、前記三次元形状モデルを前記導出される複数の位置姿勢それぞれで表示し、
前記設定手段は、
前記導出手段によって導出される対象物体の複数の位置姿勢が同一の対象物体であるかに基づいて、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする請求項1に記載の情報処理装置。 - 前記第2の姿勢は、前記第1の姿勢を所定の軸を中心に180度回転させた位置姿勢であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 更に、前記表示手段に表示される前記三次元形状モデルの特定領域をユーザ操作に基づいて決定する決定手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 対象物体の三次元形状モデルを取得するモデル取得手段と、
前記三次元形状モデルを表示手段に表示させる表示制御手段と、
前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
前記導出される変換パラメータを記憶する記憶手段と、
前記第1の姿勢と前記第2の姿勢とを設定する設定手段と、を備え、
前記設定手段は、
複数の異なる位置姿勢に応じた複数の前記三次元形状モデルを前記表示手段に表示し、前記表示された三次元形状モデル同士を対応付けることで、前記第1の姿勢と前記第2の姿勢とを設定することを特徴とする情報処理装置。 - 対象物体の三次元形状モデルを取得するモデル取得手段と、
前記三次元形状モデルを表示手段に表示させる表示制御手段と、
前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
前記導出される変換パラメータを記憶する記憶手段とを備え、
前記第2の姿勢は、前記第1の姿勢を所定の軸を中心に180度回転させた位置姿勢であることを特徴とする情報処理装置。 - 対象物体を含む画像を取得する取得手段と、
前記対象物体の三次元形状モデルを保持するモデル保持手段と、
前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出手段と、
前記変換パラメータを保持するパラメータ保持手段と、
前記画像中の対象物体の概略位置姿勢を取得する取得手段と、
前記概略位置姿勢と前記変換パラメータと前記三次元形状モデルとに基づいて、前記画像中の前記対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする情報処理装置。 - 前記概略位置姿勢で前記三次元形状モデルを前記画像中の対象物体に対応付けてフィッティングを行う第1のフィッティング手段と、
前記フィッティング後の三次元形状モデルの位置姿勢を前記変換パラメータで変換する変換手段と、
前記変換手段により変換された位置姿勢で前記三次元形状モデルを前記対象物体に対応づける第2のフィッティング手段とを更に備え、
前記導出手段は、
前記第1のフィッティング手段の結果と前記第2のフィッティング手段の結果とに基づいて、前記対象物体の位置姿勢を導出することを特徴とする請求項9に記載の情報処理装置。 - 更に、前記第1のフィッティング手段によりフィッティングされた結果のずれ量を取得するずれ量取得手段を備え、
前記変換手段は、前記ずれ量が閾値よりも大きい場合に、前記フィッティング後の三次元形状モデルの位置姿勢を前記変換パラメータで変換することを特徴とする請求項10に記載の情報処理装置。 - 前記第1のフィッティング手段および、前記第2のフィッティング手段は、前記三次元形状モデルの一部分である、予め指定された特定部位を、前記画像中の対象物体の一部分である、特定部位に対応付けてフィッティングを行うことを特徴とする請求項10又は11に記載の情報処理装置。
- 対象物体を含む画像を取得する取得手段と、
前記対象物体の三次元形状モデルを保持するモデル保持手段と、
前記対象物体の第1の姿勢と、該第1の姿勢とは異なる第2の姿勢との間の変換パラメータを保持するパラメータ保持手段と、
前記画像中の対象物体の概略位置姿勢を取得する取得手段と、
前記概略位置姿勢と前記変換パラメータと前記三次元形状モデルとに基づいて、前記画像中の前記対象物体の位置姿勢を導出する導出手段と、
前記概略位置姿勢で前記三次元形状モデルを前記画像中の対象物体に対応付けてフィッティングを行う第1のフィッティング手段と、
前記フィッティング後の三次元形状モデルの位置姿勢を前記変換パラメータで変換する変換手段と、
前記変換手段により変換された位置姿勢で前記三次元形状モデルを前記対象物体に対応づける第2のフィッティング手段と、を備え、
前記導出手段は、前記第1のフィッティング手段の結果と前記第2のフィッティング手段の結果とに基づいて、前記対象物体の位置姿勢を導出し、
前記第1のフィッティング手段および前記第2のフィッティング手段は、前記三次元形状モデルの一部分である、予め指定された特定部位を、前記画像中の対象物体の一部分である、特定部位に対応付けてフィッティングを行うことを特徴とする情報処理装置。 - 請求項9乃至13のいずれか1項に記載の情報処理装置と、
前記対象物体を保持する対象物体保持手段と、を備え、
前記対象物体保持手段は、前記導出された位置姿勢に基づいて、前記対象物体を保持することを特徴とするシステム。 - 対象物体の三次元形状モデルを取得するモデル取得工程と、
前記三次元形状モデルを表示手段に表示させる表示制御工程と、
前記表示手段に表示される前記三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する導出工程とを備えることを特徴とする情報処理方法。 - 対象物体を含む画像を取得する取得工程と、
前記画像中の対象物体の概略位置姿勢を取得する取得工程と、
前記対象物体の三次元形状モデルに対して設定された第1の姿勢を、前記三次元形状モデルに対して設定され該第1の姿勢と異なる第2の姿勢に変換する変換パラメータを導出する第1の導出工程と、
前記概略位置姿勢と、前記対象物体の第1の姿勢と、前記変換パラメータと、前記三次元形状モデルとに基づいて、前記画像中の前記対象物体の位置姿勢を導出する第2の導出工程とを備えることを特徴とする情報処理方法。 - コンピュータを請求項1乃至13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015023714A JP6642968B2 (ja) | 2014-03-20 | 2015-02-09 | 情報処理装置、情報処理方法、プログラム |
EP15765726.3A EP3120108A4 (en) | 2014-03-20 | 2015-03-10 | Information processing apparatus, information processing method, and program |
CN201580014916.5A CN106104198A (zh) | 2014-03-20 | 2015-03-10 | 信息处理设备、信息处理方法和程序 |
PCT/JP2015/001291 WO2015141178A1 (en) | 2014-03-20 | 2015-03-10 | Information processing apparatus, information processing method, and program |
US15/126,989 US10456918B2 (en) | 2014-03-20 | 2015-03-10 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058491 | 2014-03-20 | ||
JP2014058491 | 2014-03-20 | ||
JP2015023714A JP6642968B2 (ja) | 2014-03-20 | 2015-02-09 | 情報処理装置、情報処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015194478A JP2015194478A (ja) | 2015-11-05 |
JP6642968B2 true JP6642968B2 (ja) | 2020-02-12 |
Family
ID=54144164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015023714A Active JP6642968B2 (ja) | 2014-03-20 | 2015-02-09 | 情報処理装置、情報処理方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10456918B2 (ja) |
EP (1) | EP3120108A4 (ja) |
JP (1) | JP6642968B2 (ja) |
CN (1) | CN106104198A (ja) |
WO (1) | WO2015141178A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2602386C1 (ru) * | 2015-05-26 | 2016-11-20 | Общество с ограниченной ответственностью "Лаборатория 24" | Способ визуализации объекта |
US9830703B2 (en) * | 2015-08-12 | 2017-11-28 | Nvidia Corporation | Model-based three-dimensional head pose estimation |
JP6601180B2 (ja) * | 2015-11-19 | 2019-11-06 | 株式会社大林組 | 長尺材測位方法及び長尺材測位支援装置 |
US10556305B2 (en) * | 2016-02-03 | 2020-02-11 | The Boeing Company | Aligning parts using multi-part scanning and feature based coordinate systems |
JP6333871B2 (ja) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | 入力画像から検出した対象物を表示する画像処理装置 |
US10570736B2 (en) * | 2016-06-09 | 2020-02-25 | Abb Schweiz Ag | Robot automated mining |
JP6894685B2 (ja) * | 2016-09-29 | 2021-06-30 | 株式会社カブク | 情報処理装置、情報処理方法及びプログラム |
JP2018091656A (ja) * | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 |
JP6846951B2 (ja) * | 2017-03-03 | 2021-03-24 | 株式会社キーエンス | ロボット設定装置、ロボットシステム、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6889574B2 (ja) * | 2017-03-03 | 2021-06-18 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6438512B2 (ja) * | 2017-03-13 | 2018-12-12 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
US20180268614A1 (en) * | 2017-03-16 | 2018-09-20 | General Electric Company | Systems and methods for aligning pmi object on a model |
DE102017207069A1 (de) * | 2017-04-27 | 2018-10-31 | Robert Bosch Gmbh | Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung |
WO2019013736A1 (en) * | 2017-07-10 | 2019-01-17 | Siemens Mobility GmbH | CALIBRATION OF USER FEEDBACK BASED MODEL DATA |
JP6936974B2 (ja) | 2017-12-19 | 2021-09-22 | オムロン株式会社 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
JP7119606B2 (ja) * | 2018-06-11 | 2022-08-17 | オムロン株式会社 | 計測システムおよび計測方法 |
US11226408B2 (en) * | 2018-07-03 | 2022-01-18 | Panasonic Intellectual Property Management Co., Ltd. | Sensor, estimating device, estimating method, and recording medium |
JP7134016B2 (ja) * | 2018-08-10 | 2022-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP7000361B2 (ja) | 2019-01-24 | 2022-01-19 | ファナック株式会社 | 追随ロボットおよび作業ロボットシステム |
JP7362453B2 (ja) * | 2019-11-28 | 2023-10-17 | 株式会社日立製作所 | モデル作成装置及びモデル作成方法 |
JP7470511B2 (ja) | 2019-12-17 | 2024-04-18 | 荏原環境プラント株式会社 | 情報処理システム、情報処理方法、情報処理プログラム |
JP7496546B2 (ja) | 2020-05-28 | 2024-06-07 | パナソニックIpマネジメント株式会社 | 画像処理方法、プログラム及び画像処理システム |
CN112462385A (zh) * | 2020-10-21 | 2021-03-09 | 南开大学 | 一种基于激光雷达的室外大环境下的地图拼接定位方法 |
US20230234233A1 (en) * | 2022-01-26 | 2023-07-27 | Nvidia Corporation | Techniques to place objects using neural networks |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01283677A (ja) * | 1988-05-11 | 1989-11-15 | Fujitsu Ltd | 視覚認識装置 |
JP2001283216A (ja) * | 2000-04-03 | 2001-10-12 | Nec Corp | 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体 |
JP2002063567A (ja) * | 2000-08-23 | 2002-02-28 | Nec Corp | 物***置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法 |
JP4199264B2 (ja) * | 2006-05-29 | 2008-12-17 | ファナック株式会社 | ワーク取り出し装置及び方法 |
US7983487B2 (en) * | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
JP4565023B2 (ja) * | 2008-07-04 | 2010-10-20 | ファナック株式会社 | 物品取り出し装置 |
JP5310130B2 (ja) | 2009-03-11 | 2013-10-09 | オムロン株式会社 | 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ |
US9533418B2 (en) * | 2009-05-29 | 2017-01-03 | Cognex Corporation | Methods and apparatus for practical 3D vision system |
JP5333344B2 (ja) * | 2009-06-19 | 2013-11-06 | 株式会社安川電機 | 形状検出装置及びロボットシステム |
JP5393318B2 (ja) | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5471355B2 (ja) * | 2009-11-24 | 2014-04-16 | オムロン株式会社 | 3次元視覚センサ |
JP5257335B2 (ja) * | 2009-11-24 | 2013-08-07 | オムロン株式会社 | 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ |
JP5460341B2 (ja) * | 2010-01-06 | 2014-04-02 | キヤノン株式会社 | 3次元計測装置及びその制御方法 |
JP5665333B2 (ja) * | 2010-03-10 | 2015-02-04 | キヤノン株式会社 | 情報処理装置および情報処理装置の制御方法 |
JP5229253B2 (ja) * | 2010-03-11 | 2013-07-03 | 株式会社安川電機 | ロボットシステム及びロボット装置並びにワーク取り出し方法 |
FI20105732A0 (fi) * | 2010-06-24 | 2010-06-24 | Zenrobotics Oy | Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä |
JP5496008B2 (ja) | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5800494B2 (ja) | 2010-11-19 | 2015-10-28 | キヤノン株式会社 | 特定領域選択装置、特定領域選択方法及びプログラム |
JP5759161B2 (ja) | 2010-12-16 | 2015-08-05 | キヤノン株式会社 | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム |
JP5863440B2 (ja) * | 2010-12-28 | 2016-02-16 | キヤノン株式会社 | 情報処理装置および方法 |
JP5716434B2 (ja) * | 2011-02-07 | 2015-05-13 | 株式会社Ihi | 形状認識装置、形状認識方法、および、そのプログラム |
JP5716433B2 (ja) * | 2011-02-07 | 2015-05-13 | 株式会社Ihi | 形状認識装置、形状認識方法、および、そのプログラム |
JP5835926B2 (ja) * | 2011-04-11 | 2015-12-24 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
US9437005B2 (en) * | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP5132832B1 (ja) | 2011-07-11 | 2013-01-30 | キヤノン株式会社 | 計測装置および情報処理装置 |
JP5854815B2 (ja) * | 2011-12-20 | 2016-02-09 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP6000579B2 (ja) | 2012-03-09 | 2016-09-28 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP6021533B2 (ja) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | 情報処理システム、装置、方法及びプログラム |
CN106572810A (zh) * | 2014-03-24 | 2017-04-19 | 凯内蒂科尔股份有限公司 | 去除医学成像扫描的预期运动校正的***、方法和装置 |
JP6364856B2 (ja) * | 2014-03-25 | 2018-08-01 | セイコーエプソン株式会社 | ロボット |
JP5778311B1 (ja) * | 2014-05-08 | 2015-09-16 | 東芝機械株式会社 | ピッキング装置およびピッキング方法 |
-
2015
- 2015-02-09 JP JP2015023714A patent/JP6642968B2/ja active Active
- 2015-03-10 US US15/126,989 patent/US10456918B2/en active Active
- 2015-03-10 EP EP15765726.3A patent/EP3120108A4/en not_active Withdrawn
- 2015-03-10 WO PCT/JP2015/001291 patent/WO2015141178A1/en active Application Filing
- 2015-03-10 CN CN201580014916.5A patent/CN106104198A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2015194478A (ja) | 2015-11-05 |
WO2015141178A1 (en) | 2015-09-24 |
CN106104198A (zh) | 2016-11-09 |
EP3120108A4 (en) | 2017-11-01 |
EP3120108A1 (en) | 2017-01-25 |
US10456918B2 (en) | 2019-10-29 |
US20170106540A1 (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6642968B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US10363664B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6415026B2 (ja) | 干渉判定装置、干渉判定方法、コンピュータプログラム | |
JP6892286B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6723061B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6632208B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6092530B2 (ja) | 画像処理装置、画像処理方法 | |
JP2017168077A (ja) | 画像処理方法、表示装置および点検システム | |
JP6054831B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2015171745A (ja) | ワークの取出工程をシミュレーションするロボットシミュレーション装置 | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US11015930B2 (en) | Method for 2D picture based conglomeration in 3D surveying | |
JP2018091656A (ja) | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
JP2008309595A (ja) | オブジェクト認識装置及びそれに用いられるプログラム | |
JP5858773B2 (ja) | 3次元計測方法、3次元計測プログラム及びロボット装置 | |
JP2021177144A (ja) | 情報処理装置、情報処理方法及びープログラム | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
US20140142900A1 (en) | Information processing apparatus, information processing method, and program | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6452658B2 (ja) | 情報処理装置、およびその制御方法ならびにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6642968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |