JP2009128075A - 物体認識方法 - Google Patents
物体認識方法 Download PDFInfo
- Publication number
- JP2009128075A JP2009128075A JP2007301022A JP2007301022A JP2009128075A JP 2009128075 A JP2009128075 A JP 2009128075A JP 2007301022 A JP2007301022 A JP 2007301022A JP 2007301022 A JP2007301022 A JP 2007301022A JP 2009128075 A JP2009128075 A JP 2009128075A
- Authority
- JP
- Japan
- Prior art keywords
- model
- point
- object recognition
- scene
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
【解決手段】距離を計測できるセンサによって計測したシーンデータと、目的物体の3次元形状を表すモデルデータとを、各点の表面形状を表す特徴量について照合することにより物体の3次元位置姿勢を検出する3次元物体認識方法において、(1)モデルデータの各点の特徴量を算出する前に、物体認識の運用条件を入力することによって、当該運用条件に基づき照合に有効な点を選定する第1のステップ、又は(2)モデルデータの各点の特徴量を算出した後に、各点の特徴量の類似度を解析し、照合に有効な特徴量を持つ点を選定する第2のステップ、の少なくとも一方のステップを含む。
【選択図】図6
Description
(1)前記モデルデータの各点の特徴量を算出する前に、物体認識の運用条件を入力することによって、当該運用条件に基づき照合に有効な点を選定する第1のステップ、又は
(2)前記モデルデータの各点の特徴量を算出した後に、各点の特徴量の類似度を解析し、照合に有効な特徴量を持つ点を選定する第2のステップ、の少なくとも一方のステップを含むこと、にある。
「モデルデータ」は、三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーンデータ」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルデータと同様に点群と三角メッシュから構成される。
「所定%」の初期値はパラメータで与えられる。類似度が非常に高い(正規化相関係数がほぼゼロの)クラスタに、モデルデータ点数の10%以上が含まれている場合、そのクラスタを除外する。この値を初期値として、実際にモデルデータとシーンデータの照合を繰り返し、学習により最適な値を得る。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
運用条件とは、例えば(1)ある物体は裏返しになることはない(なっていたらエラーとして処理して良い)という条件に基づいて、物体の底面頂点は照合に使用しない、(2)見えていることが必須な箇所が予め決まっており、その部分を抽出して照合する、(3)シーンデータ上に物体が何個存在するか決まっているときにその数値(個数)を使って照合する。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
3Dセンサは、三角測量方式・光切断方式を採用するアクティブセンサや、ビジョンセンサによるステレオ方式を採用するパッシブセンサを使い分けることが好ましい。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段、高精度化手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
まず、スピンイメージについて説明する。
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値
単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン頂点のペアである対応点ペアを複数作成する。
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
検証の結果得られた変換式をモデルの初期位置姿勢として、高精度化処理により最終的な位置姿勢を算出する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
パーツ分割は、3次元形状を、その構成部品(以下、適宜「パーツ」と言う)ごとに分割するものである。曲率が大きく変化する個所などで切断して、一つのモデルを複数の構成部品に分割する処理である。
パーツの有効/無効判定は、オペレータまたは外部機器が、3次元形状モデルに対して床面や視点を指定することによって、計測可能なパーツと不可能なパーツを選別し、計測可能なパーツは照合に有効なパーツ、計測不可能なパーツは照合に無効なパーツと判定する処理である。無効なパーツは、今後、照合に使用しない。また、補助的に、オペレータが有効/無効なパーツを直接指定できる機能を持つことが好ましい。
(1)床面の指定
モデルを回転、拡大縮小、平行移動させることができるアプリケーション上でモデルを回転させ、モデルを床下から除く姿勢にして、床面登録を行う。
(2)視点の指定
モデルを回転、拡大縮小、平行移動させることができるアプリケーション上でモデルを回転させ、センサの位置からモデルを見る姿勢にして、視点登録を行う。
(3)床面に基づく選別
モデルサイズを基準値として、比較的床面に近いパーツ、および、表面法線が床面を向いていて、表面が床面にほぼ並行なパーツは、通常計測できないため、照合に使用しないようにする。
(4)視点に基づく選別
視点からモデルを計測したとき、モデル自身の影になって計測できないパーツは、照合に使用しないようにする。
モデルの各点の特徴量を算出する。以下に特徴量がスピンイメージである場合について説明する。なお、無効なパーツと判定されたパーツについては、特徴量の算出は不要である。
(4−1)法線ベクトル算出
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。同図に示すように、法線を求める頂点の周囲の各三角形の法線を求める。三角形の法線は、三角形の2辺のベクトルの外積から算出することができる。周囲の全三角形の法線の平均を、単位ベクトル化する。
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
特徴量のクラスタリングは、特徴空間における特徴量を部分集合に分割する処理である。例えば凝集型階層的クラスタリングにより、各終端ノードが各点(各特徴量)を表し、併合されてできたクラスタを非終端ノードで表した二分木(デンドログラム)を生成する。凝集型階層的クラスタリングは、(1)N個の対象からなるデータが与えられたときに1個の対象だけを含むN個のクラスタがある初期状態を作り、(2)対象x1とx2の間の距離D(x1,x2)(非類似度)からクラスタC1とC2の間の距離D(C1,C2)を計算し、(3)この距離が最も近い二つのクラスタを逐次的に併合し、(4)この併合を、全ての対象が一つのクラスタに併合されるまで、繰り返すことで階層構造を獲得する。
特徴量がスピンイメージである場合、モデルの頂点p1のスピンイメージと、頂点p2のスピンイメージとの間の距離Dは、[数1]に示すスピンイメージ同士の正規化相関係数R(P,Q)から求める。
クラスタの有効/無効判定は、クラスタごとに、照合に関して有効か無効かを判定する処理である。使用する特徴量に応じた物体認識に関する知識ベースに基づき判定する。
一例として、シーンからのある点の特徴量を算出して、モデルの各点の特徴量と類似度を計算して、突出して類似度が高い対応を見つけるような処理においては、もともと突出した対応が得られない特徴量との照合は無駄な処理となる。そこで、あるクラスタがモデル全体の点数の所定%以上を含んでいれば、そのクラスタに類似した特徴量がシーンから得られても、照合に使用できないことは明らかなので、そのクラスタに属する点は照合に使用しない、というような知識ベースに基づき、多くの点を含むクラスタは無効と判定する。
「所定%」の初期値はパラメータで与えられる。類似度が非常に高い(正規化相関係数がほぼゼロの)クラスタに、モデルデータ点数の10%以上が含まれている場合、そのクラスタを除外する。この値を初期値として、実際にモデルとシーンの照合を繰り返し、学習により最適な値を得る。
また、一例として、特徴量がスピンイメージである場合は、原理的に単純な平面の照合は困難であるため、平面を表すクラスタは無効と判定する。
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
作成されたスピンイメージが照合に有効な特徴量であるかを評価するために、作成されたスピンイメージとモデルのクラスタリング結果を比較する。
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(s1,m1)と対応点ペアC2(s2,m2)が同時に成り立つ場合、s1からs2までの距離と、m1からm2までの距離は同じで、かつs1法線とs2法線とベクトルs1→s2が成す3つの角の角度と、m1法線とm2法線とベクトルm1→m2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβm%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
一致度の検証の結果得られた対応点ペアのグループから算出される座標変換式によってモデルの位置姿勢を決定し、これを初期位置姿勢として、高精度化処理により最終的な位置姿勢を算出する。
図18に高精度化処理フローを示す。以下、各ステップについて説明する。
グループG’i内の対応点ペアから、モデルとシーンの頂点間距離を最小にする座標変換式T’iを算出する。T’iは、3x3の回転行列Rと、3x1の並進ベクトルtを含む、4x4の剛体変換式である。このT’iによって得られるモデルの位置姿勢を、初期位置姿勢とする。
モデルの位置姿勢を高精度化する。詳細は後述する。
モデルの初期位置姿勢と、高精度化処理の結果得られた位置姿勢を比較し、重心の移動距離を算出する。重心の移動距離がしきい値(パラメータδ)より大きければ、初期位置姿勢が確実でなく、高精度化処理の結果にも信頼が置けないものと判断して、このグループを除去する。
重心の移動距離がしきい値以内であれば、この高精度化処理の結果を最終的な物体の位置姿勢の一つとして登録する。
図19に、高精度化処理の基本概念を示す。同図に示すように、高精度化処理の基本は、モデルを初期位置姿勢に配置し(同図(a))、モデルとシーンとで対応する頂点を決め(同図(b))、対応する頂点間距離の総和が最小となるようなモデルの座標変換式を算出し、モデルに座標変換を加え(同図(c))、その後、モデルとシーンの対応を新たに作成する(同図(d))、という処理を、終了条件を満たすまで繰り返し実施するものである。
高精度化処理の主要なパラメータを以下に述べる。
(1)対応点間距離のしきい値:モデルとシーンの対応点ペアを作成する際、極端に大きくはなれた頂点同士を対応点ペアとして結び付けてしまうと、正しい変換式が得られない。よって、しきい値以上離れた頂点同士は対応しないものとする。
高精度化処理に対して、以下の改良を行った。
(1)データの表面を表す三角メッシュにおいて、表面の輪郭部分を成す頂点に関する対応は、最小化処理の対象としない。これにより、誤対応を減らし、精度を向上させる。
図20に、輪郭部分を使用しない処理のイメージを示す。
図21に、双方向対応点ペア決定のイメージを示す。
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット
Claims (4)
- 距離を計測できるセンサによって計測したシーンデータと、目的物体の3次元形状を表すモデルデータとを、各点の表面形状を表す特徴量について照合することにより物体の3次元位置姿勢を検出する3次元物体認識方法において、
前記モデルデータの各点の特徴量を算出する前に、物体認識の運用条件を入力することによって、当該運用条件に基づき照合に有効な点を選定する第1のステップ、又は
前記モデルデータの各点の特徴量を算出した後に、各点の特徴量の類似度を解析し、照合に有効な特徴量を持つ点を選定する第2のステップ、の少なくとも一方のステップを含むことを特徴とする3次元物体認識方法。 - 前記第2のステップは、各点の特徴量の類似度を解析し、前記類似度に基づいて各点の特徴量をクラスタリングするステップと、
モデルデータ全体の点数の所定%以上を含むクラスタが存在する場合は、当該クラスタに属する点をシーンデータとの照合の対象から除外するステップと、
を含むことを特徴とする請求項1に記載の3次元物体認識方法。 - 前記第1のステップは、前記モデルデータを複数のパーツに分解するステップと、
前記物体認識の運用条件として床面又は視点の少なくとも一方を指定する情報を入力することによって、照合に使用しないパーツを決定するステップと、
を含むことを特徴とする請求項1又は2に記載の3次元物体認識方法。 - 前記特徴量がスピンイメージであることを特徴とする請求項1乃至3のいずれか一項に記載の3次元物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007301022A JP5251080B2 (ja) | 2007-11-20 | 2007-11-20 | 物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007301022A JP5251080B2 (ja) | 2007-11-20 | 2007-11-20 | 物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009128075A true JP2009128075A (ja) | 2009-06-11 |
JP5251080B2 JP5251080B2 (ja) | 2013-07-31 |
Family
ID=40819172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007301022A Active JP5251080B2 (ja) | 2007-11-20 | 2007-11-20 | 物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5251080B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008309671A (ja) * | 2007-06-15 | 2008-12-25 | Ihi Corp | 物体認識方法および装置 |
WO2012014545A1 (ja) * | 2010-07-27 | 2012-02-02 | 株式会社三次元メディア | 3次元物体認識装置及び3次元物体認識方法 |
JP2012141758A (ja) * | 2010-12-28 | 2012-07-26 | Toshiba Corp | 三次元データ処理装置、方法及びプログラム |
JP2013124923A (ja) * | 2011-12-14 | 2013-06-24 | Ihi Corp | 溶接ビード位置検出方法及び溶接ビード位置検出装置 |
JP2014053018A (ja) * | 2013-09-30 | 2014-03-20 | Canon Inc | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2014059654A (ja) * | 2012-09-14 | 2014-04-03 | Nara Institute Of Schience And Technology | 動体の3次元運動検出装置及び検出方法 |
US8705795B2 (en) | 2010-11-19 | 2014-04-22 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
JP2015062017A (ja) * | 2014-09-30 | 2015-04-02 | オムロン株式会社 | モデル作成装置、モデル作成プログラム、および画像認識システム |
JP2015135333A (ja) * | 2015-02-13 | 2015-07-27 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP2016024191A (ja) * | 2014-07-21 | 2016-02-08 | ジック アーゲー | 物体の認識及び距離測定のための距離測定センサ |
US9841271B2 (en) | 2010-02-24 | 2017-12-12 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium |
KR101917515B1 (ko) | 2016-05-25 | 2018-11-09 | 도요타지도샤가부시키가이샤 | 물체 인식 장치, 물체 인식 방법 및 프로그램 |
TWI692648B (zh) * | 2017-06-20 | 2020-05-01 | 美商惠普發展公司有限責任合夥企業 | 感測器位置判定技術 |
CN113811740A (zh) * | 2019-06-17 | 2021-12-17 | 欧姆龙株式会社 | 计测装置、计测方法以及计测程序 |
CN114070426A (zh) * | 2021-11-15 | 2022-02-18 | 上海创远仪器技术股份有限公司 | 针对mimo信道模拟器的异常校准数据进行剔除处理的方法、装置、处理器及其存储介质 |
CN116147521A (zh) * | 2023-04-18 | 2023-05-23 | 菲特(天津)检测技术有限公司 | 非接触式工件尺寸测量装置及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143073A (ja) * | 1999-11-10 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | 物体の位置姿勢決定の方法 |
JP2006065419A (ja) * | 2004-08-24 | 2006-03-09 | Matsushita Electric Works Ltd | 人検出装置 |
WO2007046763A1 (en) * | 2005-10-18 | 2007-04-26 | Morphic Technologies Aktiebolag (Publ.) | A method and an arrangement for locating and picking up objects from a carrier |
-
2007
- 2007-11-20 JP JP2007301022A patent/JP5251080B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143073A (ja) * | 1999-11-10 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | 物体の位置姿勢決定の方法 |
JP2006065419A (ja) * | 2004-08-24 | 2006-03-09 | Matsushita Electric Works Ltd | 人検出装置 |
WO2007046763A1 (en) * | 2005-10-18 | 2007-04-26 | Morphic Technologies Aktiebolag (Publ.) | A method and an arrangement for locating and picking up objects from a carrier |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008309671A (ja) * | 2007-06-15 | 2008-12-25 | Ihi Corp | 物体認識方法および装置 |
US9841271B2 (en) | 2010-02-24 | 2017-12-12 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium |
WO2012014545A1 (ja) * | 2010-07-27 | 2012-02-02 | 株式会社三次元メディア | 3次元物体認識装置及び3次元物体認識方法 |
CN102472612A (zh) * | 2010-07-27 | 2012-05-23 | 3维媒体有限公司 | 三维物体识别装置以及三维物体识别方法 |
US8705795B2 (en) | 2010-11-19 | 2014-04-22 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
JP2012141758A (ja) * | 2010-12-28 | 2012-07-26 | Toshiba Corp | 三次元データ処理装置、方法及びプログラム |
JP2013124923A (ja) * | 2011-12-14 | 2013-06-24 | Ihi Corp | 溶接ビード位置検出方法及び溶接ビード位置検出装置 |
JP2014059654A (ja) * | 2012-09-14 | 2014-04-03 | Nara Institute Of Schience And Technology | 動体の3次元運動検出装置及び検出方法 |
JP2014053018A (ja) * | 2013-09-30 | 2014-03-20 | Canon Inc | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2016024191A (ja) * | 2014-07-21 | 2016-02-08 | ジック アーゲー | 物体の認識及び距離測定のための距離測定センサ |
JP2015062017A (ja) * | 2014-09-30 | 2015-04-02 | オムロン株式会社 | モデル作成装置、モデル作成プログラム、および画像認識システム |
JP2015135333A (ja) * | 2015-02-13 | 2015-07-27 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
KR101917515B1 (ko) | 2016-05-25 | 2018-11-09 | 도요타지도샤가부시키가이샤 | 물체 인식 장치, 물체 인식 방법 및 프로그램 |
TWI692648B (zh) * | 2017-06-20 | 2020-05-01 | 美商惠普發展公司有限責任合夥企業 | 感測器位置判定技術 |
US11263779B2 (en) | 2017-06-20 | 2022-03-01 | Hewlett-Packard Development Company, L.P. | Sensors positions determinations |
CN113811740A (zh) * | 2019-06-17 | 2021-12-17 | 欧姆龙株式会社 | 计测装置、计测方法以及计测程序 |
CN113811740B (zh) * | 2019-06-17 | 2023-11-21 | 欧姆龙株式会社 | 计测装置、计测方法以及计测程序 |
CN114070426A (zh) * | 2021-11-15 | 2022-02-18 | 上海创远仪器技术股份有限公司 | 针对mimo信道模拟器的异常校准数据进行剔除处理的方法、装置、处理器及其存储介质 |
CN114070426B (zh) * | 2021-11-15 | 2024-04-19 | 上海创远仪器技术股份有限公司 | 针对mimo信道模拟器的异常校准数据进行剔除处理的方法、装置、处理器及其存储介质 |
CN116147521A (zh) * | 2023-04-18 | 2023-05-23 | 菲特(天津)检测技术有限公司 | 非接触式工件尺寸测量装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5251080B2 (ja) | 2013-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5251080B2 (ja) | 物体認識方法 | |
JP5092711B2 (ja) | 物体認識装置およびロボット装置 | |
JP4900204B2 (ja) | 物体認識方法 | |
Yang et al. | A fast and robust local descriptor for 3D point cloud registration | |
JP4686762B2 (ja) | 三次元形状の位置あわせ方法及びプログラム | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
US10684116B2 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
JP5677798B2 (ja) | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 | |
JP5863440B2 (ja) | 情報処理装置および方法 | |
CN102782723B (zh) | 位置和方位估计方法及其设备 | |
CN111598946B (zh) | 一种物***姿测量方法、装置及存储介质 | |
JP5104248B2 (ja) | 物体認識装置およびロボット装置 | |
EP4016392A1 (en) | Machine-learning for 3d object detection | |
Li et al. | Differential evolution algorithm-based range image registration for free-form surface parts quality inspection | |
CN115690184A (zh) | 一种基于三维激光扫描的隧道掌子面位移量测方法 | |
Jiang et al. | Learned local features for structure from motion of uav images: A comparative evaluation | |
Wojciechowski et al. | Optical scanner assisted robotic assembly | |
Wang et al. | Research of fast point cloud registration method in construction error analysis of hull blocks | |
Srivastava et al. | Drought stress classification using 3D plant models | |
Liu et al. | Robust 3-d object recognition via view-specific constraint | |
JP2009216480A (ja) | 三次元位置姿勢計測方法および装置 | |
Cao et al. | Aircraft pipe gap inspection on raw point cloud from a single view | |
CN113267122B (zh) | 一种基于3d视觉传感器的工业零件尺寸测量方法 | |
Dong et al. | Pose estimation of components in 3c products based on point cloud registration | |
JP4525526B2 (ja) | パターンマッチング方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5251080 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |