JP6594129B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP6594129B2
JP6594129B2 JP2015179096A JP2015179096A JP6594129B2 JP 6594129 B2 JP6594129 B2 JP 6594129B2 JP 2015179096 A JP2015179096 A JP 2015179096A JP 2015179096 A JP2015179096 A JP 2015179096A JP 6594129 B2 JP6594129 B2 JP 6594129B2
Authority
JP
Japan
Prior art keywords
orientation
information processing
processing apparatus
dimensional shape
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015179096A
Other languages
English (en)
Other versions
JP2016109669A (ja
Inventor
大輔 小竹
圭祐 立野
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2015/005596 priority Critical patent/WO2016084316A1/en
Priority to US15/529,438 priority patent/US10325336B2/en
Publication of JP2016109669A publication Critical patent/JP2016109669A/ja
Application granted granted Critical
Publication of JP6594129B2 publication Critical patent/JP6594129B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、計測対象である物体の位置及び姿勢を高精度に計測するための計測装置の配置を決定する方法に関する。
近年、ロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。工業製品の組立作業における部品の把持や部品同士の組付けをロボットが行うためには、ロボットから見た部品の位置及び姿勢を高精度に計測する必要がある。部品の位置及び姿勢の計測方法としては、カメラや距離センサから得られる濃淡画像や距離画像に対して部品の3次元形状モデルが当てはまるように位置及び姿勢を算出するモデルフィッティングが代表的な方法である。この方法では、濃淡画像から検出される画像特徴や距離画像から得られる3次元点と3次元形状モデルに含まれるモデル特徴との対応付けを行い、それぞれの対応についての画像平面上または3次元空間中の誤差の和が最小となるように位置及び姿勢を算出する。
濃淡画像や距離画像に対するモデルフィッティングにより部品の位置及び姿勢を計測する場合、部品に対するカメラや距離センサの配置が位置及び姿勢の計測精度を決める大きな要因となるため、なるべく高精度な計測ができるような配置にする必要がある。例えば距離センサを利用する場合には、互いに法線ベクトルが異なる3つの面上の点が十分観測できるように距離センサを配置することで部品の高精度な位置及び姿勢の計測が可能になる。非特許文献1では、距離センサから得られる計測データに含まれる不確実性(誤差)をもとに計測対象物体の位置及び姿勢の不確実性を予測することで、距離センサの複数の配置の候補の中から最適な配置を選択する方法が開示されている。
特開2011−027623号公報
見持、金出、"3台のレンジファインダを用いた物体の姿勢決定における最適センサ配置の設計"、電子情報通信学会論文誌、vol.J78−D2、no.12、pp.1777−1786、1995.
非特許文献1では、計測データと3次元形状モデル間の対応付けに誤りはなく、モデルフィッティングによって得られる位置及び姿勢の誤差は計測データの誤差のみに起因することを前提としている。しかし、実用上は計測データと3次元形状モデルとの対応付けには誤りが生じるため、計測データにのみ誤差が含まれている場合に比べて計測される位置及び姿勢の精度は低い。例えば、濃淡画像から検出されるエッジに物体の3次元形状モデル(線分モデル)を当てはめる際に、画像上で複数のエッジが近接している場合には誤ったエッジにモデルの線分が当てはまることによって位置及び姿勢の精度が著しく低下する。そのため、非特許文献1の方法に基づいてカメラや距離センサの配置を決定したとしても、対応付けに誤りが生じる場合には、計測される位置及び姿勢は必ずしも高精度ではないという課題がある。
本発明は、以上の課題に鑑みてなされたものであり、高精度に位置及び姿勢を計測可能なカメラや距離センサの配置を決定できるようにする。
上記課題を解決するために、本発明の情報処理装置は、例えば、物体を撮像する位置姿勢を決定するための情報処理装置であって、物体の三次元形状を表す三次元形状モデルを保持する保持手段と、前記物体に対する撮像装置の位置姿勢の候補を生成する生成手段と、前記生成手段によって生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータと、前記三次元形状モデルとを対応づけた結果に基づいて、前記物体の位置姿勢を導出する導出手段と、前記導出手段で導出された位置姿勢を評価することにより、前記物体に対する撮像装置の位置姿勢の候補を評価する評価手段と、前記評価手段により評価された結果に基づいて、前記物体に対する撮像装置の位置姿勢を決定する決定手段とを備え、前記導出手段は、前記生成手段によって生成された位置姿勢の近傍に、前記位置姿勢とは異なる複数の位置姿勢を生成し、前記位置姿勢から観察される前記物体を仮想的に生成したデータの特徴と、前記位置姿勢の近傍で生成された位置姿勢それぞれで前記三次元形状モデルを配置した際の前記三次元形状モデルの特徴と、を対応づけることにより、前記物体の複数の位置姿勢を導出することを特徴とする。
本発明によって、高精度に位置及び姿勢を計測可能なカメラや距離センサの配置を決定することができる。
第1の実施形態における情報処理装置1の構成を示す図である。 第1の実施形態におけるロボット、カメラ、部品の配置を説明する図である。 第1の実施形態におけるカメラの配置を決定する処理手順を示すフローチャートである。 濃淡画像上のエッジと3次元形状モデルとの対応付けについて説明する図である。 第2の実施形態における位置及び姿勢のサンプリング方法を説明する図である。 第3の実施形態におけるGUIの一例を示す図である。 本発明の情報処理装置のハードウェア構成の例を示す図である。 第1の実施形態におけるカメラの配置の候補の決定の一例を示す図である。
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図7を用いて説明する。
図7は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU710は、バス700を介して接続する各デバイスを統括的に制御する。CPU710は、読み出し専用メモリ(ROM)720に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM720に記憶されており、ランダムアクセスメモリ(RAM)730に一時記憶され、CPU710によって適宜実行される。また、入力I/F740は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F750は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
これらの各機能部は、CPU710が、ROM720に格納されたプログラムをRAM730に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU710を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
(第1の実施形態)
第1の実施形態では、カメラから得られる濃淡画像を用いたモデルフィッティングにより物体(例えば工業製品を構成する部品)の位置及び姿勢の計測を行う場合に、部品に対する複数のカメラの配置の候補の中から最適な配置を決定する方法について説明する。本実施形態では計測対象の部品がシーン中(例えば作業台上)に固定されており、カメラは垂直多関節ロボットのアーム上に設置されている場合を想定する(図2)。本実施形態で説明する方法は、例えば工業製品の組立の工程設計におけるロボットの移動経路の決定に利用される。実際に組立を行う際には、本実施形態における方法により決定された部品に対するカメラの配置になるようにロボットを移動させる。
図1は、本実施形態における情報処理装置1の構成を示す図である。情報処理装置1は、配置候補生成部10、モデル保持部20、配置評価部30、配置決定部40から構成されている。また、配置決定部40は情報処理装置1の外部にある配置情報保存部50に接続されている。
図2は、本実施形態におけるロボット、カメラ、部品の配置を説明する図である。垂直多関節ロボットのアームの先端には部品を把持するためのハンドが取り付けられている。垂直多関節ロボットはハンドによって把持した部品を作業台に置かれた別の部品に組付ける。垂直多関節ロボットのアーム上には作業台に置かれた部品のロボット(ハンド)に対する位置及び姿勢を計測するためのカメラが搭載されている。カメラには情報処理装置1が接続されており、カメラによって撮像された画像は情報処理装置1に送られる。垂直多関節ロボット上のハンドとカメラとの相対位置及び姿勢は、例えば以下の非特許文献の方法により予めキャリブレーションされているものとし、部品のハンドに対する位置及び姿勢はカメラに対する位置及び姿勢に変換可能であるとする。
R.Horaud and F.Dornaika,“Hand−Eye Calibration,” International Journal of Robotics Research,vol.14,no.3,pp.195−210,1995.
また、カメラの焦点距離や画像中心(光軸と画像面の交点の座標)、レンズ歪みパラメータといった内部パラメータは、例えば以下の方法により予めキャリブレーションされているものとする。
Z.Zhang,“A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.22,no.11,pp.1330−1334,2000.
以下、情報処理装置1を構成する各部について説明する。
配置候補生成部10は、計測対象の部品に対するカメラの配置の候補を複数生成する。ここで計測対象の部品に対するカメラ(撮像装置)の配置とは、計測対象の部品に対するカメラの3次元空間における6自由度の位置及び姿勢である。本実施形態では、カメラはロボットのアーム上に設置されていることを想定しているため、候補として生成されるカメラの位置及び姿勢をアームの稼働範囲内でとり得る位置及び姿勢に限定する。以下では、モデルフィッティングにより計測される部品の位置及び姿勢と、カメラの配置を表す位置及び姿勢の混同を避けるため、前者を計測時位置姿勢、後者を配置時位置姿勢と呼ぶものとする。
モデル保持部20は、計測対象の部品の三次元形状モデルを保持する。本実施形態では、3次元形状モデルとして計測対象の部品のポリゴンモデルを保持する。ポリゴンモデルは物体の形状を多面体近似したモデルであり、多面体の頂点、辺、面の情報から構成される。頂点情報にはモデル上に規定された3次元の座標系(以下、モデル座標系)における各頂点の3次元座標が含まれている。辺の情報には頂点の接続関係が含まれている。面の情報には面の法線の情報が含まれている。ポリゴンモデルは、例えば部品の設計データ(CADデータ)から作成してもよいし、実物の画像や3次元計測データ(三次元点群)をもとに作成してもよい。本実施形態では、モデルフィッティングによる位置及び姿勢の計測方法として、多面体を構成する辺を画像上のエッジに当てはめる方法を用いる。この方法は、例えば、以下の非特許文献に開示されている。
T.Drummond and R.Cipolla,“Real−time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.24,no.7,pp.932−946,2002.
配置評価部30は、配置候補生成部10において生成された配置時位置姿勢の候補の各々について配置の適切度を表す指標を算出する。この配置の適切度は、計測時位置姿勢の精度を表す指標であり、計測データの誤差の影響と対応付けの誤りの影響の双方を考慮する指標である。配置の適切度を表す指標は、計測データの誤差に起因する計測時位置姿勢の不確実性、及び候補の配置時位置姿勢を中心とした一定範囲内で生成した位置及び姿勢を初期値とした時に実際にモデルフィッティングによって導出される位置及び姿勢をもとに算出する。
配置決定部40は、配置評価部40において算出された各配置候補の配置の適切度を表す指標をもとに配置候補の中から、最も適切度の高い配置を選択(決定)し、配置情報保存部50に出力する。実際に組立を行う際には、配置情報保存部50に保存されたカメラの配置になるようにロボットを制御し、その配置で撮影した画像をもとに部品の位置及び姿勢を計測する。
これらの各機能部は、CPU710が、ROM720に格納されたプログラムをRAM730に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU710を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
次に、高精度に計測対象の部品の位置及び姿勢を計測できる配置を決定する処理手順について説明する。図3は、本実施形態におけるカメラの配置を決定する処理手順を示すフローチャートである。
(ステップS1005)
ステップS1005では、配置評価部30は、計測対象の部品の3次元形状モデルをモデル保持部20から読み込むことにより取得する。前述したように、本実施形態では部品の3次元形状モデルとして計測対象の部品のポリゴンモデルを保持する。
(ステップS1010)
ステップS1010では、配置評価部30は、カメラの配置の候補をN個生成する。前述したように、カメラの配置は6自由度の位置及び姿勢で表される。また、カメラはロボットのアーム上に設置されていることを想定しているため、生成される配置時位置姿勢はアームの稼働範囲内でとり得る位置及び姿勢の範囲に含まれるようにする。カメラの配置の候補の決定は、例えば次のように行う。まず、部品の重心を中心とした半径Rの球を設定し、球を多面体(例えば、八十面体)近似する。半径Rはカメラからの部品の観察距離である。半径Rとして、例えばカメラのレンズ中心からピント位置までの距離を用いる。多面体の頂点毎に、頂点位置にカメラのレンズ中心があり、カメラの光軸が球の中心を向くような部品の位置及び姿勢を設定することにより、多面体の頂点数と同じ数(正八十面体の場合には80個)の位置及び姿勢が得られる。得られたカメラの位置及び姿勢を前述のハンドとカメラとの相対位置及び姿勢を用いてハンドの位置及び姿勢に変換し、変換されたハンドの位置及び姿勢がアームの可動範囲内にない場合には候補から除外する。
(ステップS1020)
ステップS1020では、配置評価部30は、初期化を行う。具体的には、配置候補の番号を表すiを1に初期化する。
(ステップS1030)
ステップS1030では、配置評価部30は、i番目の配置候補に相当する配置時位置姿勢において計測を行う場合の計測データの誤差に起因する計測時位置姿勢の不確実性Uの算出を行う。本実施形態では、計測データは濃淡画像上のエッジであるため、エッジの検出誤差をもとに計測時位置姿勢の不確実性を算出する。計測データ(エッジ検出誤差)に基づく位置及び姿勢の不確実性の算出には、以下の非特許文献に記載の方法を用いる。
W.Hoff and T.Vincent,“Analysis of head pose accuracy in augmented reality,” IEEE Transactions on Visualization and Computer Graphics,vol.6,no.4,pp.319−334,2000.)
Hoffらの方法では、計測データと位置及び姿勢の関係が線形であると仮定した上で、計測データの誤差の共分散行列を位置及び姿勢の誤差の共分散行列に変換する。本実施形態ではエッジを用いた位置及び姿勢の算出を行うため、エッジ検出誤差の共分散行列が必要となる。エッジ検出誤差の共分散行列は、例えば各エッジの検出誤差は互いに独立であると仮定し、非対角成分がゼロで対角成分に共通の分散の値を持つ行列として与える。共通の分散の値は、例えば計測対象の部品をカメラの前に固定して撮影した複数枚の画像からエッジ検出を行い、同一箇所のエッジの検出位置の分散の平均値として求める。位置及び姿勢の不確実性を表す共分散行列は6×6行列である。共分散行列同士は比較しにくいため、部品の3次元形状モデルに含まれる頂点のうち、モデル座標系の原点から最も遠い点Pのばらつきを不確実性の指標として用いる。Pのモデル座標系における3次元座標をX=(X,Y,Z)、点Pのカメラ座標をX=(X,Y,Z)とする。Xはカメラの位置及び姿勢を用いてXを座標変換することで得られる。部品に対するカメラの位置を表す3次元ベクトルをt、姿勢を表す3×3回転行列をRと表すとXからXへの座標変換は数1のように表すことができる。
=R+t (数1)
姿勢を表す3×3回転行列Rの自由度は3である。姿勢を表す3自由度のパラメータをωと表す。ここでi番目の配置候補に相当するカメラの配置時位置姿勢を表す6自由度のパラメータをsと表す。sは、位置を表す3自由度のパラメータt、姿勢を表す3自由度のパラメータωとから構成される。カメラ座標Xの位置及び姿勢についてのヤコビ行列をJとすると、位置及び姿勢sの微小変化Δsとカメラ座標Xの微小変化の関係は数2のように近似される。
Figure 0006594129

カメラの位置及び姿勢の6×6共分散行列をCcamとすると、数2の関係からXの3×3共分散行列Cは数3のように算出することができる。
=JCcam (数3)
点Pのばらつきを不確実性の指標としては、共分散行列Cの最大固有値の平方根σmaxを用いる。σmaxは点Pの位置が最もばらつく方向における標準偏差に相当する。以上のようにして得られた最遠点Pの不確実性の指標σmaxをi番目の配置候補に相当する配置時位置姿勢における計測時位置姿勢の不確実性の指標Uとする。
(ステップS1040)
ステップS1040では、配置評価部30は、i番目の配置候補に相当する配置時位置姿勢sを中心とした一定範囲内で生成した位置及び姿勢を初期値とした時に実際にモデルフィッティングによって得られる位置及び姿勢を算出する。なお、ここではモデルフィッティングに実際の画像からのエッジ検出は行わずに、配置時位置姿勢s及びキャリブレーション済みのカメラの内部パラメータ用いて算出された線分の画像上の位置を利用する。すなわち、配置位置姿勢から物体を観察した際に得られるべき画像データを、三次元形状モデルを用いて仮想的に描画する。
まず配置時位置姿勢sの近傍において位置及び姿勢のサンプリングを行う。サンプリングを行う範囲は実際の利用場面を想定して決定する。例えば、カメラ(ロボット)の位置・姿勢制御の精度、作業台に部品を置く時の配置の精度などをもとに位置及び姿勢のサンプリングを行う範囲を決定する。本実施形態では、3自由度の位置のそれぞれの成分を±δ[mm]の範囲で、3自由度の姿勢のうち光軸周りの回転成分を±θ[度]の範囲でサンプリングするものとする。なお、サンプリングはランダムサンプリングであっても一様サンプリングであってもよい。なおサンプルされる位置及び姿勢の数はM個とする。
前述の範囲でランダムにサンプルされたM個の位置及び姿勢のそれぞれをh(j=1,2,...,M)と表す。まず、h(j=1,2,...,M)を位置及び姿勢の初期値として、前述のDrummondらの方法により位置及び姿勢の算出を行う。Drummondらの方法では撮影画像からエッジ検出を行っている。これに対し、本実施形態では画像からのエッジ検出は行わない。その代わりに、位置及び姿勢s及びキャリブレーション済みのカメラの内部パラメータ用いて3次元形状モデルを構成する各線分の画像上の位置を算出しておく。対応付けの際には、線分の画像上の位置の算出結果からモデルに最も近いエッジを探索する。
(j=1,2,...,M)を位置及び姿勢の初期値として算出された計測時位置姿勢をh’(j=1,2,...,M)とする。ある位置及び姿勢sが計測される確率が正規分布に従うとすると、その確率はステップS1030で求めた位置及び姿勢の共分散Ccamから数4のように計算できる。
Figure 0006594129

ここでは、h’が得られる確率が閾値(例えば0.9)を下回る場合にはh’は計測データのばらつき以外の要因による誤差を持つ解(以下、局所解)であると判定し、局所解と判定されるh’の個数Lを計数する。局所解と判定されるh’をh’’(k=1,2,...,L)と表す。
(ステップS1050)
ステップS1050では、配置評価部30は、ステップS1030、S1040で得られた各配置時位置姿勢sの不確実性の指標Uと局所解に関する情報を用いてsの適切度を表す指標Aを算出する。UとLは計量空間が異なるため、統一された計量空間での指標となるようにする。ここでは、数5の指標Aを用いる。
Figure 0006594129

ここでX(h’’)、X(s)はそれぞれh’’、sによって変換した時の点Pのカメラ座標である。指標Aの分母の第2項、第3項ともに3次元空間における長さによって表されるため、指標Aは計量空間が統一された指標となる。また、指標Aは局所解の数及び局所解のsとの差が減るほど値が大きくなるような指標であり、指標Aの値が大きいほど適切度が高い。
(ステップS1060)
ステップS1060では、配置評価部30は、すべての配置候補について適切度を表す指標Aを算出したかどうかの判定を行い、算出していればステップS1080に、していなければステップS1070に進む。
(ステップS1070)
ステップS1070では、配置評価部30は、iを1増分する。
(ステップS1080)
ステップS1080では、配置決定部40は、ステップS1050で算出された適切度を表す指標Aをもとに、高精度に部品の位置及び姿勢を計測するために最も適した配置を選択する。ここでは、指標Aが最大となる配置時位置姿勢sbestを選択する。選択された配置時位置姿勢は配置情報保存部50に保存され、実際に位置及び姿勢の計測を行う場合には、部品に対するカメラの配置時位置姿勢がsbestとなるようにロボットを移動させる。
以上述べたように、第1の実施形態では、部品に対するカメラ配置の各候補について計測される位置及び姿勢の不確定性及び実際にモデルフィッティングを行ったときに得られる局所解の情報に基づいて配置の適切度を算出し、最も適した配置の選択を行った。
第1の実施形態における方法により、計測データの誤差の影響による計測時位置姿勢の不確実性及び計測データの対応付けの誤りの影響における計測時位置姿勢の誤差の双方を考慮して、部品に対して最も良いカメラの配置を決定することができる。
(変形例)
第1の実施形態のステップS1080では、配置決定部40は、ステップS1050で算出された適切度を表す指標Aをもとに、高精度に部品の位置及び姿勢を計測するために最も適した配置を選択する例を示した。しかしながら、適切度を表す指標Aをもとに、新たに位置姿勢を計測するための配置を生成するようにしてもよい。例えば、ここでは、指標Aが最大となる配置時位置姿勢と2番目の指標をもつ配置位置姿勢とを選択し、それら2つの間に新たに位置姿勢を生成するようにしてもよい。また、その際には、中間となる位置姿勢に生成してもよいし、指標の値に応じて重みづけすることにより位置姿勢を生成してもよい。
(第2の実施形態)
第1の実施形態では、候補となるカメラの配置時位置姿勢の近傍で位置及び姿勢のサンプリングを行い、サンプリングされた各位置及び姿勢を初期値として実際にモデルフィッティングを行って局所解が存在するか調べた。第2の実施形態では、モデルフィッティングは行わずに評価関数の値の計算のみで局所解の存在を調べる方法について説明する。
第2の実施形態における情報処理装置の構成は第1の実施形態と同一であるので説明を省略する。また、第2の実施形態におけるカメラの配置を決定する処理手順も基本的には第1の実施形態と同一であるので図及び重複する部分の説明を省略し、ステップS1040に相当する処理をステップS2040として説明する。
(ステップS2040)
ステップS2040では、配置評価部30は、i番目の配置候補に相当する配置時位置姿勢sの近傍におけるモデルフィッティングの局所解の存在を調べる。
まず、第1の実施形態のステップS1040と同様に、配置時位置姿勢sの近傍において複数の位置及び姿勢をサンプリングする。ただし、本ステップではモデルフィッティングによる位置及び姿勢の算出は行わず、サンプリングされた各位置及び姿勢における評価関数の値をもとに局所解の有無を調べる。ここで評価関数とは、モデルフィッティングによる位置及び姿勢の算出を行う際に最小化の対象とする関数のことである。本実施形態では、第1の実施形態のようにランダムなサンプリングではなく、位置及び姿勢の空間を等間隔かつ密にサンプリングする。サンプリングを行う範囲は、第1の実施形態と同様に決定する。本実施形態では、6自由度すべてのサンプリングは行わず、カメラ座標系における位置のX座標、Y座標の2自由度空間をサンプリングする。サンプリングされるX座標、Y座標の数をS個とすると、サンプリングされる位置及び姿勢の数はS個となる。サンプリングされたS個の位置及び姿勢のそれぞれをh(j=1,2,...,S)と表し、各hにおいてモデルフィッティングにおいて位置及び姿勢の最適化を行うための評価関数を算出する。
次に、配置時位置姿勢s及びキャリブレーション済みのカメラの内部パラメータ用いて3次元形状モデルを構成する各線分の画像上の位置を算出し、位置及び姿勢が配置時位置姿勢sの場合の画像上でのエッジ位置を算出しておく。
次に、サンプリングされた位置及び姿勢h(j=1,2,...,S)についてモデルフィッティングの評価関数を算出する。前述のDrummondらの方法では、3次元形状モデルにおける線分を位置及び姿勢の初期値とカメラの内部パラメータを用いて画像上に投影する。そして、図4に示すように、投影された線分を画像上で等間隔になるように分割して分割点を設定し、分割点毎に投影された線分の法線方向に近接するエッジを探索して対応付ける。そして、対応付けられたエッジと3次元形状モデル(線分)との距離の二乗和を評価関数(誤差関数)として、評価関数が最小になるように位置及び姿勢を推定する。そこで、各サンプリングされた位置及び姿勢hの評価関数の算出を次のように行う。まず3次元形状モデルの各線分の両端点の画像上の座標をサンプリングされた位置及び姿勢h及びカメラの内部パラメータ用いて算出し画像上の線分とする。そして、算出された画像上の線分上に等間隔(Tピクセル)に分割点を設定し、分割点毎に線分の法線方向において最も分割点に近接するエッジを前述のエッジ位置算出結果から探索する。設定された分割点の画像上の位置を(u,v)、対応付けられたエッジの位置を(u’,v’)、モデルの線分を投影して得られた画像上の線分の法線ベクトルを(nxs,nys)とする。画像上に投影されたすべての線分から得られる分割点の数をNとすると、評価関数Eは数6のようになる。
Figure 0006594129

サンプリングされた各位置及び姿勢hについて数6の評価関数を用いて評価値を算出した後、評価値が極小となる位置及び姿勢の存在を調べる。図5に示すように、本実施形態ではカメラ座標系におけるX座標、Y座標の2自由度空間を等間隔にサンプリングしているので、X方向、Y方向に隣接するサンプリングされた位置のすべてに対して評価値が極小となる局所解hが存在するか調べる。局所解と判定されるhをh’’(k=1,2,...,L)と表す。Lは局所解の数である。
以降のカメラの配置を決定する処理手順は実施形態と同一であるため説明を省略する。
以上述べたように、第2の実施形態では、モデルフィッティングを行ったときに得られる局所解の情報を得る際に、実際にモデルフィッティングは行わずに評価関数の値の計算のみでサンプリングされた位置及び姿勢における評価値を利用して局所解の有無を調べた。
第2の実施形態で示す方法により、局所解となりそうな位置及び姿勢を予め知ることができるため、それらを回避してより精度の高い位置及び姿勢の計測が可能な配置にすることができる。また、第2の実施形態では密にサンプリングされた位置及び姿勢のそれぞれについて評価を行っているため、配置を決定する段階では想定できない解が実利用場面で得られる可能性を考慮して最善な配置を決定することができる。
(第3の実施形態)
第3の実施形態では、第1の実施形態または第2の実施形態で説明した部品に対するカメラの配置の決定方法をユーザがグラフィカルユーザインタフェース(以下、GUI)を介して利用する方法について説明する。
図6は、本実施形態におけるGUIの一例を示す図である。GUI3000は、モデル読込みボタン3100、カメラパラメータ読込みボタン3200、観察距離設定用スライダー3300、計算ボタン3400、配置決定ボタン3500、前の候補ボタン3600、次の候補ボタン3700、評価値提示部3800、モデル表示部3900を備える。
ユーザは、まずモデル読込みボタン3100を用いて計測対象部品の3次元形状モデルを読み込む。モデル読込みボタン3100が押下されると、例えばファイル選択用のダイアログが表示され、ユーザは所望の3次元形状モデルのファイルを選択する。第1の実施形態で述べたように、3次元形状モデルは例えば部品のポリゴンモデルである。
次に、ユーザは、カメラパラメータ読込みボタン3200を用いて、位置及び姿勢の計測に利用するカメラの内部パラメータを読み込む。カメラパラメータ読込みボタン3200が押下されると、例えばファイル選択用のダイアログが表示され、ユーザは所望の内部パラメータのファイルを選択する。第1の実施形態で述べたように、カメラの内部パラメータは予めキャリブレーションされており、読込み対象のファイルにはキャリブレーションされた内部パラメータが記載されている。なお、三次元形状モデルの読込みと内部パラメータの読込みは順番が前後してもよい。
続いて、ユーザは、観察距離設定用スライダー3300を用いて、位置及び姿勢を計測するための画像を撮影する際の、カメラから部品までの距離を入力する。スライダーの両端には、設定可能な観察距離の最小値と最大値を割り当てる。観察距離の最小値と最大値はGUIを介してユーザが入力してもよいし、前述の内部パラメータのファイルに記載しておいてもよい。ここで設定された観察距離は、第1の実施形態のステップS1010におけるカメラの配置の候補を生成する際の球の半径Rとして利用される。
三次元形状モデル及びカメラの内部パラメータの読込み、及び観察距離の設定が完了した後で、ユーザは計算ボタン3400を押すことにより、カメラ配置の候補を複数生成し、各配置候補の適切度を表す指標を算出し、最も適切な配置を選択する。選択された配置の適切度を表す指標は、評価値提示部3800に数値として提示される。同時に、選択された配置でのカメラによって部品を撮影した時の部品の見えがモデル表示部3900に提示される。モデル表示部3900に提示される部品の見えは、例えば3次元形状モデルを選択された配置における部品に対するカメラの位置及び姿勢と内部パラメータを用いてCG画像をレンダリングすることにより生成する。3次元形状モデルのレンダリングは、例えばOpenGLなどのグラフィクスライブラリを用いて行う。なお、例えば局所解となる位置及び姿勢での見えをワイヤフレームモデルなどでレンダリングして重畳表示し、どの程度ずれが生じる可能性があるのかをユーザが確認できるようにしてもよい。また、部品全体ではなく、部品の部位を指定し、指定した部位がどの程度ずれが生じる可能性があるのかをユーザに提示してもよい。なお、部品の見えの画像をレンダリングする際に、位置及び姿勢の計測に利用する3次元形状モデルをそのまま用いる必要はなく、レンダリングされた時にユーザが視認可能であれば他のモデルであってもよい。例えば、形状が粗いポリゴンモデルであってもよい。
さらには、最遠点Pの場所を一緒に提示してもよいし、エッジ検出誤差に起因するカメラ位置及び姿勢のばらつきに関する情報を提示してもよい。
さらにユーザは、次の候補ボタン3700を用いて、配置候補の適切度が次点の配置に関する情報を提示させることができる。この機能によって、例えば最も適切な配置と判断された配置が物理的に実現させにくい場合などに、他の候補の情報を確認することによって選択肢を拡大することができる。前の候補ボタン3600を用いることで、より適切度が高い配置に戻すことも可能である。
最終的に利用する配置をユーザが判断したら、ユーザは配置決定ボタン3500を押下することによって配置を確定させる。確定した配置は配置情報保存部50に保存される。
以上述べたように、第3の実施形態では、GUIを用いることでユーザが配置の適切度を視認したり、ユーザ判断を加えてより適切な配置を決定したりすることができる。
(変形例1)
以上述べた実施形態では、カメラから得られる濃淡画像上で検出されたエッジに対するモデルフィッティングにより部品の位置及び姿勢を計測していた。しかしながら、部品の位置及び姿勢の計測方法はこれに限るものではない。例えば、濃淡画像上で検出された特徴点を利用してもよい。また、濃淡画像の各画素の輝度値を用いた方法であってもよい。
また、距離センサによって計測される3次元点群に部品の3次元形状モデルを当てはめて位置及び姿勢を計測してもよい。距離センサとしては、複数台のカメラ(ステレオカメラ)から構成されるパッシブ式のセンサや、カメラとプロジェクタによって構成されるアクティブ式のセンサを利用することができる。また、Time−of−Flight方式によって計測を行う距離センサを用いてもよい。この場合、距離センサがカメラの代わりにロボットアーム上に設置され、部品に対する距離センサの配置を決定する。
他にも、特許文献1に記載の方法 のように、濃淡画像上の画像特徴と距離センサによって計測される3次元点群の双方に3次元形状モデルを当てはめて位置及び姿勢を計測してもよい。この場合、撮影装置としては、濃淡画像撮影用のカメラと距離センサがリジッドに組み合わされた装置を利用してもよいし、前述のカメラとプロジェクタによって構成される距離センサのカメラを濃淡画像撮影用にも利用できる装置でもよい。
(変形例2)
以上述べた実施形態では、各エッジの検出誤差は互いに独立でかつ共通の分散の値を持つと仮定してエッジ検出誤差の共分散行列を与えていた。しかしながら、エッジ検出誤差の共分散行列の与え方はこれに限るものではない。例えば、反射特性を含む3次元形状モデルと光源の情報、カメラの内部パラメータ、カメラのノイズパラメータに基づいて各候補の位置及び姿勢における画像を複数生成し、生成された画像から検出されたエッジの位置の分散を算出してもよい。また、エッジ周辺の輝度値からのエッジ位置の算出方法をもとに、輝度値のばらつきをエッジ位置のばらつきに変換してもよい。なおカメラのノイズパラメータは、例えば同一のシーンの画像を複数枚撮影したときの各画素の輝度値の分散を求め、その中央値を利用する。また、実際にロボットアームを制御してカメラと部品の配置を各配置候補と類似させた画像を複数枚撮影し、複数枚の撮影画像からのエッジ検出結果からエッジ位置の分散を求めてもよい。
(変形例3)
以上述べた実施形態では、計測時位置姿勢の不確実性を表す指標として、モデル座標系の原点から最も遠い点Pのばらつきを用いていた。しかしながら、計測時位置姿勢の不確実性を表す指標はこれに限るものではなく、他の指標であってもよい。例えば、モデル座標系の原点から最も遠い点ではなく、他の点のばらつきであってもよい。例えば、モデル座標系の原点からの距離が中央値になる点を用いてもよい。また、点のばらつきは、点の位置の共分散行列の最大固有値の平方根である必要はなく、点の位置の共分散行列の固有値の和であってもよい。さらには、位置及び姿勢の共分散行列の固有値に基づく指標であってもよい。例えば、位置及び姿勢の共分散行列の最大固有値や、固有値の和を指標として用いてもよい。
(変形例4)
以上述べた実施形態では、配置時位置姿勢の適切度を表す指標として、数5で表される指標を用いていた。しかしながら、配置時位置姿勢の適切度を表す指標はこれに限るものではなく、他の指標であってもよい。例えば、数5における分母の第2項と第3項の重み付けを変えてもよい。第1項の重みを大きくすると、局所解に陥らない場合のばらつきを重視した指標となる。第2項の重みを大きくすると、局所解になるべく陥らないような配置がより適切な配置として評価される。
(変形例5)
以上述べた実施形態では、モデルフィッティングを行う場合の画像上のエッジ位置として計算により求めたものを利用していた。しかしながら、エッジ位置を計算で求める必要は必ずしもない。例えば、実際にロボットアームを制御してカメラと部品の配置を各配置候補と類似させて撮影された複数枚の撮影画像それぞれについてエッジ検出を行ってモデルフィッティングを行ってもよい。また、反射特性を含む3次元形状モデルと光源の情報、カメラの内部パラメータ、カメラのノイズパラメータに基づいて各候補の位置及び姿勢における画像を複数生成し、生成された画像からエッジ検出を行ってモデルフィッティングしてもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<定義>
位置姿勢候補生成手段は、計測対象の部品に対するカメラの配置の候補を生成する手段であればいかなる手段であってもよい。例えば、第1の実施形態で述べたように、部品の重心を中心とした半径Rの球を多面体近似し、多面体の頂点毎にカメラのレンズ中心を置き、カメラの光軸が球の中心を向くように配置の候補を生成してもよい。これ以外にも、部品の重心を中心とした立方体の上や内部にランダムに点を配置し、各点にカメラのレンズ中心を置いて配置の候補を生成してもよい。
また、カメラがロボットのアーム上に設置される場合には、カメラの位置及び姿勢をロボットハンドの位置及び姿勢に変換し、変換されたハンドの位置及び姿勢がアームの可動範囲内にない場合には候補から除外するようにしてもよい。
また、以上述べた第1の実施形態では、候補の位置及び姿勢の近傍における位置及び姿勢のサンプリングを行う際に、位置3自由度、姿勢1自由度の範囲でのサンプリングを行っていた。しかしながら、サンプリングする自由度はこれに限るものではない。例えば、位置3自由度、姿勢3自由度の範囲からサンプリングすることで6自由度すべてをサンプリングしてもよい。
また第2の実施形態でも、カメラ座標系における位置のX座標、Y座標の2自由度空間のサンプリングを行っていた。しかしながら、サンプリングする自由度はこれに限るものではない。例えば、位置のX座標、Y座標に加えて、カメラの光軸まわりの回転についてサンプリングしてもよい。
さらに、以上述べた実施形態では、カメラはロボットのアーム上に固定され、シーン中に固定された部品のハンドに対する位置及び姿勢を計測するための画像を撮影することを前提としていた。しかしながらカメラの配置はこれに限るものではない。例えば、カメラがシーン中に固定され、ロボットのハンドが把持する部品の計測を高精度に行うための配置の決定を行ってもよい。また、部品を把持しているロボットとは別のロボットにカメラを固定し、ロボットに把持されている部品とロボット上のカメラとの配置を決定してもよい。
位置姿勢評価手段は、計測対象の部品に対するカメラの配置を評価する手段であればいかなる手段であってもよい。例えば、第1の実施形態で述べたように、配置時位置姿勢の近傍において複数の位置及び姿勢をサンプリングし、サンプリングされた位置及び姿勢を初期値としてモデルフィッティングを行った時に得られる位置及び姿勢をもとにカメラ配置を評価してもよい。また、第2の実施形態で述べたように、配置時位置姿勢の近傍において複数の位置及び姿勢を密にサンプリングし、それぞれの位置及び姿勢におけるモデルフィッティングの最小化の対象となる評価関数の値から局所解の有無を調べてカメラ配置を評価してもよい。
位置姿勢決定部は、計測対象の部品に対するカメラの複数の配置候補の中から適切な配置を選択する方法であればいかなる方法であってもよい。第1の実施形態で述べたように適切度が最大となる配置を選択してもよいし、第3の実施形態で述べたように適切度で順位付けされた配置のリストを示し選択はユーザが行ってもよい。
モデル保持手段は、記憶装置から読み込まれた計測対象の部品の3次元形状モデルを保持する手段であればいかなる手段であってもよい。例えば、モデル保持手段はコンピュータ上のRAMとして実現される。また、以上述べた実施形態では、部品の3次元形状モデルとして部品を多面体近似したポリゴンモデルを利用していた。しかしながら3次元形状モデルはこれに限るものではなく、濃淡画像や距離画像に対してモデルフィッティングが可能であればいかなるモデルであってもよい。例えば、モデルフィッティングに利用する点をあらかじめポリゴンモデル上からサンプリングすることによって得られる点の集合データであってもよい。また、点の集合データは、ポリゴンモデルからサンプリングしたものに限らず、実際の部品を計測することによって得られるデータであってもよい。さらには、多面体近似したモデルではなく、正確な形状を保持したSTEP形式などのCADデータであってもよい。
<効果のまとめ>
本発明により、計測データの誤差の影響による計測時位置姿勢の不確実性に加えて、計測データの対応付けの誤りの影響における計測時位置姿勢の誤差を考慮した指標を用いることにより、より計測対象の部品に対するカメラの配置をより適切に決定することができる。
さらに、上記指標とGUIを組み合わせることでユーザが配置の適切度を視認したり、ユーザ判断を加えてより適切な配置を決定したりすることができる。
1 情報処理装置
10 配置候補生成部
20 モデル保持部
30 配置評価部
40 配置決定部
50 配置情報保存部

Claims (12)

  1. 物体を撮像する撮像装置の位置姿勢を決定するための情報処理装置であって、
    物体の三次元形状を表す三次元形状モデルを保持する保持手段と、
    前記物体に対する撮像装置の位置姿勢の候補を生成する生成手段と、
    前記生成手段によって生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータと、前記三次元形状モデルとを対応づけた結果に基づいて、前記物体の位置姿勢を導出する導出手段と、
    前記導出手段で導出された位置姿勢を評価することにより、前記物体に対する撮像装置の位置姿勢の候補を評価する評価手段と、
    前記評価手段により評価された結果に基づいて、前記物体に対する撮像装置の位置姿勢を決定する決定手段とを備え
    前記導出手段は、前記生成手段によって生成された位置姿勢の近傍に、前記位置姿勢とは異なる複数の位置姿勢を生成し、前記位置姿勢から観察される前記物体を仮想的に生成したデータの特徴と、前記位置姿勢の近傍で生成された位置姿勢それぞれで前記三次元形状モデルを配置した際の前記三次元形状モデルの特徴と、を対応づけることにより、前記物体の複数の位置姿勢を導出することを特徴とする情報処理装置。
  2. 前記導出手段は、前記生成手段によって生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータの特徴と、前記三次元形状モデルの特徴とを対応づけることにより、前記物体の位置姿勢を導出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記評価手段は、前記導出された位置姿勢が得られる確率を求め、該確率に基づいて、前記導出された位置姿勢を評価することを特徴とする請求項1に記載の情報処理装置。
  4. 前記複数の位置姿勢それぞれに対して、前記評価手段により前記確率が閾値よりも小さい位置姿勢の個数を算出し、該個数に基づいて、前記物体に対する撮像装置の位置姿勢を決定することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  5. 前記評価手段は、前記対応づけた結果から得られる誤差関数に基づいて、前記物体に対する撮像装置の位置姿勢の候補を評価することを特徴とする請求項1に記載の情報処理装置。
  6. 前記生成手段は、複数の位置姿勢の候補を生成し、
    前記評価手段は、前記複数の位置姿勢の候補それぞれから導出される位置姿勢をそれぞれ評価し、
    前記決定手段は、前記評価手段によって評価された結果に基づいて、前記複数の位置姿勢の候補の中から、1つの位置姿勢を選択することにより、前記物体に対する撮像装置の位置姿勢を決定することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  7. 前記生成手段は、複数の位置姿勢の候補を生成し、
    前記評価手段は、前記複数の位置姿勢の候補それぞれから導出される位置姿勢をそれぞれ評価し、
    前記決定手段は、前記評価手段によって評価された結果に基づいて、前記複数の位置姿勢の候補に基づいて、新たに1つの位置姿勢を生成することにより、前記物体に対する撮像装置の位置姿勢を決定することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  8. 前記撮像装置は、濃淡画像を取得するカメラであることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  9. 前記撮像装置は、距離画像または三次元点群を取得する距離センサであることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  10. 更に、前記決定された位置姿勢をユーザに提示する提示手段を備えることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  11. 物体を撮像する撮像装置の位置姿勢を決定するための情報処理方法であって、
    前記物体に対する撮像装置の位置姿勢の候補を生成する生成工程と、
    前記生成工程において生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータと、物体の三次元形状を表す三次元形状モデルとを対応づけた結果に基づいて、前記物体の位置姿勢を導出する導出工程と、
    前記導出工程で導出された位置姿勢を評価することにより、前記物体に対する撮像装置の位置姿勢の候補を評価する評価工程と、
    前記評価手段により評価された結果に基づいて、前記物体に対する撮像装置の位置姿勢を決定する決定工程とを備え
    前記導出工程では、前記生成手段によって生成された位置姿勢の近傍に、前記位置姿勢とは異なる複数の位置姿勢を生成し、前記位置姿勢から観察される前記物体を仮想的に生成したデータの特徴と、前記位置姿勢の近傍で生成された位置姿勢それぞれで前記三次元形状モデルを配置した際の前記三次元形状モデルの特徴と、を対応づけることにより、前記物体の複数の位置姿勢を導出することを特徴とする情報処理方法。
  12. コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2015179096A 2014-11-28 2015-09-11 情報処理装置、情報処理方法、プログラム Active JP6594129B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/005596 WO2016084316A1 (en) 2014-11-28 2015-11-09 Information processing apparatus, information processing method, and program
US15/529,438 US10325336B2 (en) 2014-11-28 2015-11-09 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014242439 2014-11-28
JP2014242439 2014-11-28

Publications (2)

Publication Number Publication Date
JP2016109669A JP2016109669A (ja) 2016-06-20
JP6594129B2 true JP6594129B2 (ja) 2019-10-23

Family

ID=56122173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179096A Active JP6594129B2 (ja) 2014-11-28 2015-09-11 情報処理装置、情報処理方法、プログラム

Country Status (2)

Country Link
US (1) US10325336B2 (ja)
JP (1) JP6594129B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200409382A1 (en) * 2014-11-10 2020-12-31 Carnegie Mellon University Intelligent cleaning robot
JP6677522B2 (ja) * 2016-02-15 2020-04-08 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
CN110753952A (zh) * 2017-02-28 2020-02-04 优质视觉技术国际公司 3d模型到测试对象的自动对准
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
JP7046567B2 (ja) * 2017-11-13 2022-04-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10225360B1 (en) 2018-01-24 2019-03-05 Veeva Systems Inc. System and method for distributing AR content
US10957072B2 (en) * 2018-02-21 2021-03-23 Cognex Corporation System and method for simultaneous consideration of edges and normals in image features by a vision system
US11094121B2 (en) * 2018-03-23 2021-08-17 Current Lighting Solutions, Llc Mobile application for signage design solution using augmented reality
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
US12002240B2 (en) * 2018-09-04 2024-06-04 Fastbrick Ip Pty Ltd. Vision system for a robotic machine
EP3938919A4 (en) * 2019-04-02 2022-05-18 Buildots Ltd. DETERMINING THE POSITION OF AN IMAGE CAPTURE DEVICE
JP2021051031A (ja) * 2019-09-26 2021-04-01 株式会社ミツトヨ 測定支援システム
CN112132163B (zh) * 2020-09-21 2024-04-02 杭州睿琪软件有限公司 识别对象边缘的方法、***及计算机可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US8401276B1 (en) * 2008-05-20 2013-03-19 University Of Southern California 3-D reconstruction and registration
JP5393318B2 (ja) 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5440461B2 (ja) * 2010-09-13 2014-03-12 株式会社リコー 校正装置、距離計測システム、校正方法および校正プログラム
JP6121746B2 (ja) 2013-02-20 2017-04-26 Necソリューションイノベータ株式会社 撮影位置決定装置、プログラム、および方法
US20140270362A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Fast edge-based object relocalization and detection using contextual filtering
WO2015027196A1 (en) * 2013-08-22 2015-02-26 Bespoke, Inc. Method and system to create custom products
US10025886B1 (en) * 2015-09-30 2018-07-17 X Development Llc Methods and systems for using projected patterns to facilitate mapping of an environment

Also Published As

Publication number Publication date
US20170358048A1 (en) 2017-12-14
US10325336B2 (en) 2019-06-18
JP2016109669A (ja) 2016-06-20

Similar Documents

Publication Publication Date Title
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20200284573A1 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5548482B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP6740033B2 (ja) 情報処理装置、計測システム、情報処理方法及びプログラム
JP6004809B2 (ja) 位置姿勢推定装置、情報処理装置、情報処理方法
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP6324025B2 (ja) 情報処理装置、情報処理方法
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
JP2012026895A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2020027439A (ja) 情報処理装置、情報処理方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2009175012A (ja) 計測装置および計測方法
WO2016084316A1 (en) Information processing apparatus, information processing method, and program
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
WO2022172471A1 (ja) 支援システム、画像処理装置、支援方法およびプログラム
JP2021077290A (ja) 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法
JP2013120091A (ja) 位置姿勢計測装置、その処理方法及びプログラム
JP2021043075A (ja) 情報処理装置及びその制御方法及びプログラム
JP2019168473A (ja) 位置姿勢計測装置及び方法
JP2015215300A (ja) 光源の配光分布および物体の双方向反射率分布関数測定のための装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190924

R151 Written notification of patent or utility model registration

Ref document number: 6594129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151