JP6594129B2 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP6594129B2 JP6594129B2 JP2015179096A JP2015179096A JP6594129B2 JP 6594129 B2 JP6594129 B2 JP 6594129B2 JP 2015179096 A JP2015179096 A JP 2015179096A JP 2015179096 A JP2015179096 A JP 2015179096A JP 6594129 B2 JP6594129 B2 JP 6594129B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- information processing
- processing apparatus
- dimensional shape
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
第1の実施形態では、カメラから得られる濃淡画像を用いたモデルフィッティングにより物体(例えば工業製品を構成する部品)の位置及び姿勢の計測を行う場合に、部品に対する複数のカメラの配置の候補の中から最適な配置を決定する方法について説明する。本実施形態では計測対象の部品がシーン中(例えば作業台上)に固定されており、カメラは垂直多関節ロボットのアーム上に設置されている場合を想定する(図2)。本実施形態で説明する方法は、例えば工業製品の組立の工程設計におけるロボットの移動経路の決定に利用される。実際に組立を行う際には、本実施形態における方法により決定された部品に対するカメラの配置になるようにロボットを移動させる。
R.Horaud and F.Dornaika,“Hand−Eye Calibration,” International Journal of Robotics Research,vol.14,no.3,pp.195−210,1995.
また、カメラの焦点距離や画像中心(光軸と画像面の交点の座標)、レンズ歪みパラメータといった内部パラメータは、例えば以下の方法により予めキャリブレーションされているものとする。
Z.Zhang,“A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.22,no.11,pp.1330−1334,2000.
以下、情報処理装置1を構成する各部について説明する。
T.Drummond and R.Cipolla,“Real−time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.24,no.7,pp.932−946,2002.
配置評価部30は、配置候補生成部10において生成された配置時位置姿勢の候補の各々について配置の適切度を表す指標を算出する。この配置の適切度は、計測時位置姿勢の精度を表す指標であり、計測データの誤差の影響と対応付けの誤りの影響の双方を考慮する指標である。配置の適切度を表す指標は、計測データの誤差に起因する計測時位置姿勢の不確実性、及び候補の配置時位置姿勢を中心とした一定範囲内で生成した位置及び姿勢を初期値とした時に実際にモデルフィッティングによって導出される位置及び姿勢をもとに算出する。
ステップS1005では、配置評価部30は、計測対象の部品の3次元形状モデルをモデル保持部20から読み込むことにより取得する。前述したように、本実施形態では部品の3次元形状モデルとして計測対象の部品のポリゴンモデルを保持する。
ステップS1010では、配置評価部30は、カメラの配置の候補をN個生成する。前述したように、カメラの配置は6自由度の位置及び姿勢で表される。また、カメラはロボットのアーム上に設置されていることを想定しているため、生成される配置時位置姿勢はアームの稼働範囲内でとり得る位置及び姿勢の範囲に含まれるようにする。カメラの配置の候補の決定は、例えば次のように行う。まず、部品の重心を中心とした半径Rの球を設定し、球を多面体(例えば、八十面体)近似する。半径Rはカメラからの部品の観察距離である。半径Rとして、例えばカメラのレンズ中心からピント位置までの距離を用いる。多面体の頂点毎に、頂点位置にカメラのレンズ中心があり、カメラの光軸が球の中心を向くような部品の位置及び姿勢を設定することにより、多面体の頂点数と同じ数(正八十面体の場合には80個)の位置及び姿勢が得られる。得られたカメラの位置及び姿勢を前述のハンドとカメラとの相対位置及び姿勢を用いてハンドの位置及び姿勢に変換し、変換されたハンドの位置及び姿勢がアームの可動範囲内にない場合には候補から除外する。
ステップS1020では、配置評価部30は、初期化を行う。具体的には、配置候補の番号を表すiを1に初期化する。
ステップS1030では、配置評価部30は、i番目の配置候補に相当する配置時位置姿勢において計測を行う場合の計測データの誤差に起因する計測時位置姿勢の不確実性Uiの算出を行う。本実施形態では、計測データは濃淡画像上のエッジであるため、エッジの検出誤差をもとに計測時位置姿勢の不確実性を算出する。計測データ(エッジ検出誤差)に基づく位置及び姿勢の不確実性の算出には、以下の非特許文献に記載の方法を用いる。
W.Hoff and T.Vincent,“Analysis of head pose accuracy in augmented reality,” IEEE Transactions on Visualization and Computer Graphics,vol.6,no.4,pp.319−334,2000.)
Hoffらの方法では、計測データと位置及び姿勢の関係が線形であると仮定した上で、計測データの誤差の共分散行列を位置及び姿勢の誤差の共分散行列に変換する。本実施形態ではエッジを用いた位置及び姿勢の算出を行うため、エッジ検出誤差の共分散行列が必要となる。エッジ検出誤差の共分散行列は、例えば各エッジの検出誤差は互いに独立であると仮定し、非対角成分がゼロで対角成分に共通の分散の値を持つ行列として与える。共通の分散の値は、例えば計測対象の部品をカメラの前に固定して撮影した複数枚の画像からエッジ検出を行い、同一箇所のエッジの検出位置の分散の平均値として求める。位置及び姿勢の不確実性を表す共分散行列は6×6行列である。共分散行列同士は比較しにくいため、部品の3次元形状モデルに含まれる頂点のうち、モデル座標系の原点から最も遠い点Pfのばらつきを不確実性の指標として用いる。Pfのモデル座標系における3次元座標をXf=(Xf,Yf,Zf)、点Pfのカメラ座標をXc=(Xf,Yf,Zf)とする。Xcはカメラの位置及び姿勢を用いてXfを座標変換することで得られる。部品に対するカメラの位置を表す3次元ベクトルをti、姿勢を表す3×3回転行列をRiと表すとXfからXcへの座標変換は数1のように表すことができる。
Xc=RiXf+ti (数1)
姿勢を表す3×3回転行列Riの自由度は3である。姿勢を表す3自由度のパラメータをωiと表す。ここでi番目の配置候補に相当するカメラの配置時位置姿勢を表す6自由度のパラメータをsiと表す。siは、位置を表す3自由度のパラメータti、姿勢を表す3自由度のパラメータωiとから構成される。カメラ座標Xcの位置及び姿勢についてのヤコビ行列をJとすると、位置及び姿勢siの微小変化Δsiとカメラ座標Xcの微小変化の関係は数2のように近似される。
カメラの位置及び姿勢の6×6共分散行列をCcamとすると、数2の関係からXcの3×3共分散行列Cfは数3のように算出することができる。
Cf=JCcamJT (数3)
点Pfのばらつきを不確実性の指標としては、共分散行列Cfの最大固有値の平方根σmaxを用いる。σmaxは点Pfの位置が最もばらつく方向における標準偏差に相当する。以上のようにして得られた最遠点Pfの不確実性の指標σmaxをi番目の配置候補に相当する配置時位置姿勢における計測時位置姿勢の不確実性の指標Uiとする。
ステップS1040では、配置評価部30は、i番目の配置候補に相当する配置時位置姿勢siを中心とした一定範囲内で生成した位置及び姿勢を初期値とした時に実際にモデルフィッティングによって得られる位置及び姿勢を算出する。なお、ここではモデルフィッティングに実際の画像からのエッジ検出は行わずに、配置時位置姿勢si及びキャリブレーション済みのカメラの内部パラメータ用いて算出された線分の画像上の位置を利用する。すなわち、配置位置姿勢から物体を観察した際に得られるべき画像データを、三次元形状モデルを用いて仮想的に描画する。
ここでは、h’jが得られる確率が閾値(例えば0.9)を下回る場合にはh’jは計測データのばらつき以外の要因による誤差を持つ解(以下、局所解)であると判定し、局所解と判定されるh’jの個数Liを計数する。局所解と判定されるh’jをh’’k(k=1,2,...,Li)と表す。
ステップS1050では、配置評価部30は、ステップS1030、S1040で得られた各配置時位置姿勢siの不確実性の指標Uiと局所解に関する情報を用いてsiの適切度を表す指標Aiを算出する。UiとLiは計量空間が異なるため、統一された計量空間での指標となるようにする。ここでは、数5の指標Aiを用いる。
ここでXc(h’’k)、Xc(si)はそれぞれh’’k、siによって変換した時の点Pfのカメラ座標である。指標Aiの分母の第2項、第3項ともに3次元空間における長さによって表されるため、指標Aiは計量空間が統一された指標となる。また、指標Aiは局所解の数及び局所解のsiとの差が減るほど値が大きくなるような指標であり、指標Aiの値が大きいほど適切度が高い。
ステップS1060では、配置評価部30は、すべての配置候補について適切度を表す指標Aiを算出したかどうかの判定を行い、算出していればステップS1080に、していなければステップS1070に進む。
ステップS1070では、配置評価部30は、iを1増分する。
ステップS1080では、配置決定部40は、ステップS1050で算出された適切度を表す指標Aiをもとに、高精度に部品の位置及び姿勢を計測するために最も適した配置を選択する。ここでは、指標Aiが最大となる配置時位置姿勢sbestを選択する。選択された配置時位置姿勢は配置情報保存部50に保存され、実際に位置及び姿勢の計測を行う場合には、部品に対するカメラの配置時位置姿勢がsbestとなるようにロボットを移動させる。
第1の実施形態のステップS1080では、配置決定部40は、ステップS1050で算出された適切度を表す指標Aiをもとに、高精度に部品の位置及び姿勢を計測するために最も適した配置を選択する例を示した。しかしながら、適切度を表す指標Aiをもとに、新たに位置姿勢を計測するための配置を生成するようにしてもよい。例えば、ここでは、指標Aiが最大となる配置時位置姿勢と2番目の指標をもつ配置位置姿勢とを選択し、それら2つの間に新たに位置姿勢を生成するようにしてもよい。また、その際には、中間となる位置姿勢に生成してもよいし、指標の値に応じて重みづけすることにより位置姿勢を生成してもよい。
第1の実施形態では、候補となるカメラの配置時位置姿勢の近傍で位置及び姿勢のサンプリングを行い、サンプリングされた各位置及び姿勢を初期値として実際にモデルフィッティングを行って局所解が存在するか調べた。第2の実施形態では、モデルフィッティングは行わずに評価関数の値の計算のみで局所解の存在を調べる方法について説明する。
ステップS2040では、配置評価部30は、i番目の配置候補に相当する配置時位置姿勢siの近傍におけるモデルフィッティングの局所解の存在を調べる。
サンプリングされた各位置及び姿勢hjについて数6の評価関数を用いて評価値を算出した後、評価値が極小となる位置及び姿勢の存在を調べる。図5に示すように、本実施形態ではカメラ座標系におけるX座標、Y座標の2自由度空間を等間隔にサンプリングしているので、X方向、Y方向に隣接するサンプリングされた位置のすべてに対して評価値が極小となる局所解hjが存在するか調べる。局所解と判定されるhjをh’’k(k=1,2,...,Li)と表す。Liは局所解の数である。
第3の実施形態では、第1の実施形態または第2の実施形態で説明した部品に対するカメラの配置の決定方法をユーザがグラフィカルユーザインタフェース(以下、GUI)を介して利用する方法について説明する。
以上述べた実施形態では、カメラから得られる濃淡画像上で検出されたエッジに対するモデルフィッティングにより部品の位置及び姿勢を計測していた。しかしながら、部品の位置及び姿勢の計測方法はこれに限るものではない。例えば、濃淡画像上で検出された特徴点を利用してもよい。また、濃淡画像の各画素の輝度値を用いた方法であってもよい。
以上述べた実施形態では、各エッジの検出誤差は互いに独立でかつ共通の分散の値を持つと仮定してエッジ検出誤差の共分散行列を与えていた。しかしながら、エッジ検出誤差の共分散行列の与え方はこれに限るものではない。例えば、反射特性を含む3次元形状モデルと光源の情報、カメラの内部パラメータ、カメラのノイズパラメータに基づいて各候補の位置及び姿勢における画像を複数生成し、生成された画像から検出されたエッジの位置の分散を算出してもよい。また、エッジ周辺の輝度値からのエッジ位置の算出方法をもとに、輝度値のばらつきをエッジ位置のばらつきに変換してもよい。なおカメラのノイズパラメータは、例えば同一のシーンの画像を複数枚撮影したときの各画素の輝度値の分散を求め、その中央値を利用する。また、実際にロボットアームを制御してカメラと部品の配置を各配置候補と類似させた画像を複数枚撮影し、複数枚の撮影画像からのエッジ検出結果からエッジ位置の分散を求めてもよい。
以上述べた実施形態では、計測時位置姿勢の不確実性を表す指標として、モデル座標系の原点から最も遠い点Pfのばらつきを用いていた。しかしながら、計測時位置姿勢の不確実性を表す指標はこれに限るものではなく、他の指標であってもよい。例えば、モデル座標系の原点から最も遠い点ではなく、他の点のばらつきであってもよい。例えば、モデル座標系の原点からの距離が中央値になる点を用いてもよい。また、点のばらつきは、点の位置の共分散行列の最大固有値の平方根である必要はなく、点の位置の共分散行列の固有値の和であってもよい。さらには、位置及び姿勢の共分散行列の固有値に基づく指標であってもよい。例えば、位置及び姿勢の共分散行列の最大固有値や、固有値の和を指標として用いてもよい。
以上述べた実施形態では、配置時位置姿勢の適切度を表す指標として、数5で表される指標を用いていた。しかしながら、配置時位置姿勢の適切度を表す指標はこれに限るものではなく、他の指標であってもよい。例えば、数5における分母の第2項と第3項の重み付けを変えてもよい。第1項の重みを大きくすると、局所解に陥らない場合のばらつきを重視した指標となる。第2項の重みを大きくすると、局所解になるべく陥らないような配置がより適切な配置として評価される。
以上述べた実施形態では、モデルフィッティングを行う場合の画像上のエッジ位置として計算により求めたものを利用していた。しかしながら、エッジ位置を計算で求める必要は必ずしもない。例えば、実際にロボットアームを制御してカメラと部品の配置を各配置候補と類似させて撮影された複数枚の撮影画像それぞれについてエッジ検出を行ってモデルフィッティングを行ってもよい。また、反射特性を含む3次元形状モデルと光源の情報、カメラの内部パラメータ、カメラのノイズパラメータに基づいて各候補の位置及び姿勢における画像を複数生成し、生成された画像からエッジ検出を行ってモデルフィッティングしてもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
位置姿勢候補生成手段は、計測対象の部品に対するカメラの配置の候補を生成する手段であればいかなる手段であってもよい。例えば、第1の実施形態で述べたように、部品の重心を中心とした半径Rの球を多面体近似し、多面体の頂点毎にカメラのレンズ中心を置き、カメラの光軸が球の中心を向くように配置の候補を生成してもよい。これ以外にも、部品の重心を中心とした立方体の上や内部にランダムに点を配置し、各点にカメラのレンズ中心を置いて配置の候補を生成してもよい。
本発明により、計測データの誤差の影響による計測時位置姿勢の不確実性に加えて、計測データの対応付けの誤りの影響における計測時位置姿勢の誤差を考慮した指標を用いることにより、より計測対象の部品に対するカメラの配置をより適切に決定することができる。
10 配置候補生成部
20 モデル保持部
30 配置評価部
40 配置決定部
50 配置情報保存部
Claims (12)
- 物体を撮像する撮像装置の位置姿勢を決定するための情報処理装置であって、
物体の三次元形状を表す三次元形状モデルを保持する保持手段と、
前記物体に対する撮像装置の位置姿勢の候補を生成する生成手段と、
前記生成手段によって生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータと、前記三次元形状モデルとを対応づけた結果に基づいて、前記物体の位置姿勢を導出する導出手段と、
前記導出手段で導出された位置姿勢を評価することにより、前記物体に対する撮像装置の位置姿勢の候補を評価する評価手段と、
前記評価手段により評価された結果に基づいて、前記物体に対する撮像装置の位置姿勢を決定する決定手段とを備え、
前記導出手段は、前記生成手段によって生成された位置姿勢の近傍に、前記位置姿勢とは異なる複数の位置姿勢を生成し、前記位置姿勢から観察される前記物体を仮想的に生成したデータの特徴と、前記位置姿勢の近傍で生成された位置姿勢それぞれで前記三次元形状モデルを配置した際の前記三次元形状モデルの特徴と、を対応づけることにより、前記物体の複数の位置姿勢を導出することを特徴とする情報処理装置。 - 前記導出手段は、前記生成手段によって生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータの特徴と、前記三次元形状モデルの特徴とを対応づけることにより、前記物体の位置姿勢を導出することを特徴とする請求項1に記載の情報処理装置。
- 前記評価手段は、前記導出された位置姿勢が得られる確率を求め、該確率に基づいて、前記導出された位置姿勢を評価することを特徴とする請求項1に記載の情報処理装置。
- 前記複数の位置姿勢それぞれに対して、前記評価手段により前記確率が閾値よりも小さい位置姿勢の個数を算出し、該個数に基づいて、前記物体に対する撮像装置の位置姿勢を決定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記評価手段は、前記対応づけた結果から得られる誤差関数に基づいて、前記物体に対する撮像装置の位置姿勢の候補を評価することを特徴とする請求項1に記載の情報処理装置。
- 前記生成手段は、複数の位置姿勢の候補を生成し、
前記評価手段は、前記複数の位置姿勢の候補それぞれから導出される位置姿勢をそれぞれ評価し、
前記決定手段は、前記評価手段によって評価された結果に基づいて、前記複数の位置姿勢の候補の中から、1つの位置姿勢を選択することにより、前記物体に対する撮像装置の位置姿勢を決定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記生成手段は、複数の位置姿勢の候補を生成し、
前記評価手段は、前記複数の位置姿勢の候補それぞれから導出される位置姿勢をそれぞれ評価し、
前記決定手段は、前記評価手段によって評価された結果に基づいて、前記複数の位置姿勢の候補に基づいて、新たに1つの位置姿勢を生成することにより、前記物体に対する撮像装置の位置姿勢を決定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記撮像装置は、濃淡画像を取得するカメラであることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記撮像装置は、距離画像または三次元点群を取得する距離センサであることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 更に、前記決定された位置姿勢をユーザに提示する提示手段を備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
- 物体を撮像する撮像装置の位置姿勢を決定するための情報処理方法であって、
前記物体に対する撮像装置の位置姿勢の候補を生成する生成工程と、
前記生成工程において生成された位置姿勢に前記撮像装置を配置した場合に観察される前記物体を仮想的に生成したデータと、物体の三次元形状を表す三次元形状モデルとを対応づけた結果に基づいて、前記物体の位置姿勢を導出する導出工程と、
前記導出工程で導出された位置姿勢を評価することにより、前記物体に対する撮像装置の位置姿勢の候補を評価する評価工程と、
前記評価手段により評価された結果に基づいて、前記物体に対する撮像装置の位置姿勢を決定する決定工程とを備え、
前記導出工程では、前記生成手段によって生成された位置姿勢の近傍に、前記位置姿勢とは異なる複数の位置姿勢を生成し、前記位置姿勢から観察される前記物体を仮想的に生成したデータの特徴と、前記位置姿勢の近傍で生成された位置姿勢それぞれで前記三次元形状モデルを配置した際の前記三次元形状モデルの特徴と、を対応づけることにより、前記物体の複数の位置姿勢を導出することを特徴とする情報処理方法。 - コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/005596 WO2016084316A1 (en) | 2014-11-28 | 2015-11-09 | Information processing apparatus, information processing method, and program |
US15/529,438 US10325336B2 (en) | 2014-11-28 | 2015-11-09 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014242439 | 2014-11-28 | ||
JP2014242439 | 2014-11-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016109669A JP2016109669A (ja) | 2016-06-20 |
JP6594129B2 true JP6594129B2 (ja) | 2019-10-23 |
Family
ID=56122173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015179096A Active JP6594129B2 (ja) | 2014-11-28 | 2015-09-11 | 情報処理装置、情報処理方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10325336B2 (ja) |
JP (1) | JP6594129B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200409382A1 (en) * | 2014-11-10 | 2020-12-31 | Carnegie Mellon University | Intelligent cleaning robot |
JP6677522B2 (ja) * | 2016-02-15 | 2020-04-08 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
CN110753952A (zh) * | 2017-02-28 | 2020-02-04 | 优质视觉技术国际公司 | 3d模型到测试对象的自动对准 |
DE102017207069A1 (de) * | 2017-04-27 | 2018-10-31 | Robert Bosch Gmbh | Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung |
JP7046567B2 (ja) * | 2017-11-13 | 2022-04-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10225360B1 (en) | 2018-01-24 | 2019-03-05 | Veeva Systems Inc. | System and method for distributing AR content |
US10957072B2 (en) * | 2018-02-21 | 2021-03-23 | Cognex Corporation | System and method for simultaneous consideration of edges and normals in image features by a vision system |
US11094121B2 (en) * | 2018-03-23 | 2021-08-17 | Current Lighting Solutions, Llc | Mobile application for signage design solution using augmented reality |
JP6888580B2 (ja) * | 2018-04-05 | 2021-06-16 | オムロン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US12002240B2 (en) * | 2018-09-04 | 2024-06-04 | Fastbrick Ip Pty Ltd. | Vision system for a robotic machine |
EP3938919A4 (en) * | 2019-04-02 | 2022-05-18 | Buildots Ltd. | DETERMINING THE POSITION OF AN IMAGE CAPTURE DEVICE |
JP2021051031A (ja) * | 2019-09-26 | 2021-04-01 | 株式会社ミツトヨ | 測定支援システム |
CN112132163B (zh) * | 2020-09-21 | 2024-04-02 | 杭州睿琪软件有限公司 | 识别对象边缘的方法、***及计算机可读存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6980690B1 (en) * | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
US8401276B1 (en) * | 2008-05-20 | 2013-03-19 | University Of Southern California | 3-D reconstruction and registration |
JP5393318B2 (ja) | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5440461B2 (ja) * | 2010-09-13 | 2014-03-12 | 株式会社リコー | 校正装置、距離計測システム、校正方法および校正プログラム |
JP6121746B2 (ja) | 2013-02-20 | 2017-04-26 | Necソリューションイノベータ株式会社 | 撮影位置決定装置、プログラム、および方法 |
US20140270362A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Fast edge-based object relocalization and detection using contextual filtering |
WO2015027196A1 (en) * | 2013-08-22 | 2015-02-26 | Bespoke, Inc. | Method and system to create custom products |
US10025886B1 (en) * | 2015-09-30 | 2018-07-17 | X Development Llc | Methods and systems for using projected patterns to facilitate mapping of an environment |
-
2015
- 2015-09-11 JP JP2015179096A patent/JP6594129B2/ja active Active
- 2015-11-09 US US15/529,438 patent/US10325336B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20170358048A1 (en) | 2017-12-14 |
US10325336B2 (en) | 2019-06-18 |
JP2016109669A (ja) | 2016-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP6635690B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20200284573A1 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP5548482B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 | |
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
JP5612916B2 (ja) | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム | |
JP6092530B2 (ja) | 画像処理装置、画像処理方法 | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
US20180290300A1 (en) | Information processing apparatus, information processing method, storage medium, system, and article manufacturing method | |
JP2012026895A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2020027439A (ja) | 情報処理装置、情報処理方法 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2009175012A (ja) | 計測装置および計測方法 | |
WO2016084316A1 (en) | Information processing apparatus, information processing method, and program | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
WO2022172471A1 (ja) | 支援システム、画像処理装置、支援方法およびプログラム | |
JP2021077290A (ja) | 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法 | |
JP2013120091A (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
JP2021043075A (ja) | 情報処理装置及びその制御方法及びプログラム | |
JP2019168473A (ja) | 位置姿勢計測装置及び方法 | |
JP2015215300A (ja) | 光源の配光分布および物体の双方向反射率分布関数測定のための装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190924 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6594129 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |