JP2009128075A - 物体認識方法 - Google Patents

物体認識方法 Download PDF

Info

Publication number
JP2009128075A
JP2009128075A JP2007301022A JP2007301022A JP2009128075A JP 2009128075 A JP2009128075 A JP 2009128075A JP 2007301022 A JP2007301022 A JP 2007301022A JP 2007301022 A JP2007301022 A JP 2007301022A JP 2009128075 A JP2009128075 A JP 2009128075A
Authority
JP
Japan
Prior art keywords
model
point
object recognition
scene
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007301022A
Other languages
English (en)
Other versions
JP5251080B2 (ja
Inventor
Teruyuki Shima
輝行 島
Toshihiro Hayashi
俊寛 林
Hideo Terada
英雄 寺田
Yukihiro Kono
幸弘 河野
Masaaki Tomizawa
正明 富沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2007301022A priority Critical patent/JP5251080B2/ja
Publication of JP2009128075A publication Critical patent/JP2009128075A/ja
Application granted granted Critical
Publication of JP5251080B2 publication Critical patent/JP5251080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】距離センサから得られる距離データを用いて、対象物体の三次元的な位置姿勢を認識する。
【解決手段】距離を計測できるセンサによって計測したシーンデータと、目的物体の3次元形状を表すモデルデータとを、各点の表面形状を表す特徴量について照合することにより物体の3次元位置姿勢を検出する3次元物体認識方法において、(1)モデルデータの各点の特徴量を算出する前に、物体認識の運用条件を入力することによって、当該運用条件に基づき照合に有効な点を選定する第1のステップ、又は(2)モデルデータの各点の特徴量を算出した後に、各点の特徴量の類似度を解析し、照合に有効な特徴量を持つ点を選定する第2のステップ、の少なくとも一方のステップを含む。
【選択図】図6

Description

本発明は、認識すべき対象物体の三次元表面形状データと、距離センサ等を用いて得られる実際の環境をサンプリングした三次元表面形状データを照合することによって、物体の位置姿勢を認識する方法に関する。
従来は、モデルデータとして、モデルの輪郭、凹凸、模様などを画像から直線、円弧等で近似して抽出したものを用いる。これらの特徴データはステレオ計測などで得られた三次元位置データを持ち、計測データと三点以上照合することで対象物体の位置姿勢を求める(例えば、特許文献1参照)。
特許第3763215号公報
従来方法には、(1)特徴として使用する輪郭や穴などを人間が指定する必要がある、(2)少数の対応で位置姿勢を決めるため、精度が低い、(3)二次元画像において物体の輪郭などを表す直線、円弧を安定して抽出することは困難であり、認識の安定性が低い、などの問題がある。
本発明の第1の特徴は、距離を計測できるセンサによって計測したシーンデータと、目的物体の3次元形状を表すモデルデータとを、各点の表面形状を表す特徴量について照合することにより物体の3次元位置姿勢を検出する3次元物体認識方法において、
(1)前記モデルデータの各点の特徴量を算出する前に、物体認識の運用条件を入力することによって、当該運用条件に基づき照合に有効な点を選定する第1のステップ、又は
(2)前記モデルデータの各点の特徴量を算出した後に、各点の特徴量の類似度を解析し、照合に有効な特徴量を持つ点を選定する第2のステップ、の少なくとも一方のステップを含むこと、にある。
「モデルデータ」は、三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーンデータ」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルデータと同様に点群と三角メッシュから構成される。
本発明の第2の特徴は、前記第2のステップが、(1)各点の特徴量の類似度を解析し、前記類似度に基づいて各点の特徴量をクラスタリングするステップと、(2)モデルデータ全体の点数の所定%以上を含むクラスタが存在する場合は、当該クラスタに属する点をシーンデータとの照合の対象から除外するステップと、を含むことにある。
「所定%」の初期値はパラメータで与えられる。類似度が非常に高い(正規化相関係数がほぼゼロの)クラスタに、モデルデータ点数の10%以上が含まれている場合、そのクラスタを除外する。この値を初期値として、実際にモデルデータとシーンデータの照合を繰り返し、学習により最適な値を得る。
本発明の第3の特徴は、前記第1のステップが、(1)前記モデルデータを複数のパーツに分解するステップと、(2)前記物体認識の運用条件として床面又は視点の少なくとも一方を指定する情報を入力することによって、照合に使用しないパーツを決定するステップと、を含むことにある。
本発明の第4の特徴は、特徴量がスピンイメージであることにある。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
本発明の物体認識方法によれば、スピンイメージなどの特徴量ベースの高速な位置決めを行うことで、対象物体の三次元形状データ(モデルデータ)と、距離センサから得られる距離データ(シーンデータ)を照合して、対象物体の三次元的な位置姿勢を迅速に認識することができる。
また、物体認識の運用条件を入力し、当該運用条件に基づき照合に有効な点を選定することによって、照合すべきデータが削減されるので、照合処理が高速化される。
運用条件とは、例えば(1)ある物体は裏返しになることはない(なっていたらエラーとして処理して良い)という条件に基づいて、物体の底面頂点は照合に使用しない、(2)見えていることが必須な箇所が予め決まっており、その部分を抽出して照合する、(3)シーンデータ上に物体が何個存在するか決まっているときにその数値(個数)を使って照合する。
また、(1)各点の特徴量の類似度を解析し、前記類似度に基づいて各点の特徴量をクラスタリングするステップと、(2)モデルデータ全体の点数の所定%以上を含むクラスタが存在する場合は、当該クラスタに属する点をシーンデータとの照合の対象から除外するステップと、を含むことによっても、照合すべきデータが削減され、照合処理が高速化される。
特徴量としてスピンイメージを用いた場合、スピンイメージは物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況においても物体を認識することができる。
以下本発明の好ましい実施形態について、図面を参照して説明する。なお、各図において、共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明の物体認識方法を適用した物体認識装置の全体構成図である。図1に示すように、物体認識装置40は、物体(ワーク)までの距離を計測する3Dセンサ41、物体認識処理を実行する物体認識処理部42、物体の三次元形状を表すデータ(例えば、CADデータ)を記憶するモデルデータベース部43を具備する。物体認識処理部42において認識された物体の位置や姿勢を、ロボット制御部45へ出力し、ロボット制御部45からロボット46へ制御信号を出力し、ハンド47を動かして物体を把持したりすることができる。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
3Dセンサは、三角測量方式・光切断方式を採用するアクティブセンサや、ビジョンセンサによるステレオ方式を採用するパッシブセンサを使い分けることが好ましい。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
図2は、物体認識処理部の構成の一例を示す。この図に示すように、物体認識処理部42は、内部記憶装置34、中央処理装置35を備える。物体認識処理部42は、データ入力装置32および外部記憶装置33からデータを受け取り、ロボット制御部45へデータを送る。
データ入力装置32は、上述した距離センサを有し、三次元形状上の座標値を物体認識処理部42に入力する。また、例えばゴニオメータ、オドメータ等を併用して、距離センサの位置姿勢や移動距離も入力するのがよい。なお、データ入力装置32は、キーボード等の通常の入力手段も有するのがよい。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段、高精度化手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
上述した本発明の装置は、上述した距離センサと通常のPC(コンピュータ)を組み合わせたものでもよく、或いは、全体を一体にした装置であってもよい。また、自走可能な装置内に一体的に組み込んでもよい。
[1]スピンイメージ
まず、スピンイメージについて説明する。
[1.1]スピンイメージの定義
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
図3に、CADデータとスピンイメージの例を示す。三角メッシュで構成されるデータのスピンイメージを生成する際は、三角メッシュの頂点ごとに生成する。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
図4に円筒座標系のイメージを示す。頂点Pの周辺の頂点をα、βの二次元平面(スピンマップと呼ぶ)にプロットすることでスピンイメージを作成する。その際、α、βをある分解能で量子化し、枠内に存在する頂点数を輝度に変換する。
[1.2]類似度算出
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
数1に正規化相関係数R(P,Q)の算出式を示す。ただし、この正規化相関において対象となるのは、重なりがある画素のみである。
Figure 2009128075
N:スピンイメージP、Qで重なりがある画素の数
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値

単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
図5は、本発明の実施形態に係る三次元物体認識の処理フローである。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
(2)シーン計測:ステップS20
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
(3)対応点ペア作成:ステップS30
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン頂点のペアである対応点ペアを複数作成する。
(4)グループ化:ステップS40
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
(5)一致度の検証:ステップS50
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
(6)高精度化:ステップS60
検証の結果得られた変換式をモデルの初期位置姿勢として、高精度化処理により最終的な位置姿勢を算出する。
一連の物体認識処理(オンライン処理)を実施した後、得られた物体の位置姿勢を外部機器に通知する。例えば、ロボットアームを対象物体の把持位置に移動させる、などの処理を行う。
以下、図5の処理フローの各ステップの詳細を説明する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
(1)三次元形状データ読込:ステップS11
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
(2)3次元形状データのパーツ分解:ステップS12
パーツ分割は、3次元形状を、その構成部品(以下、適宜「パーツ」と言う)ごとに分割するものである。曲率が大きく変化する個所などで切断して、一つのモデルを複数の構成部品に分割する処理である。
(3)パーツの有効/無効判定:ステップS13
パーツの有効/無効判定は、オペレータまたは外部機器が、3次元形状モデルに対して床面や視点を指定することによって、計測可能なパーツと不可能なパーツを選別し、計測可能なパーツは照合に有効なパーツ、計測不可能なパーツは照合に無効なパーツと判定する処理である。無効なパーツは、今後、照合に使用しない。また、補助的に、オペレータが有効/無効なパーツを直接指定できる機能を持つことが好ましい。
(1)床面の指定
モデルを回転、拡大縮小、平行移動させることができるアプリケーション上でモデルを回転させ、モデルを床下から除く姿勢にして、床面登録を行う。
(2)視点の指定
モデルを回転、拡大縮小、平行移動させることができるアプリケーション上でモデルを回転させ、センサの位置からモデルを見る姿勢にして、視点登録を行う。
(3)床面に基づく選別
モデルサイズを基準値として、比較的床面に近いパーツ、および、表面法線が床面を向いていて、表面が床面にほぼ並行なパーツは、通常計測できないため、照合に使用しないようにする。
(4)視点に基づく選別
視点からモデルを計測したとき、モデル自身の影になって計測できないパーツは、照合に使用しないようにする。
(4)モデルの各点の特徴量算出:ステップS14
モデルの各点の特徴量を算出する。以下に特徴量がスピンイメージである場合について説明する。なお、無効なパーツと判定されたパーツについては、特徴量の算出は不要である。
(4−1)法線ベクトル算出
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。同図に示すように、法線を求める頂点の周囲の各三角形の法線を求める。三角形の法線は、三角形の2辺のベクトルの外積から算出することができる。周囲の全三角形の法線の平均を、単位ベクトル化する。
(4−2)モデルの各頂点のスピンイメージ作成
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
なお、一度算出した法線ベクトル、スピンイメージ、およびパラメータλは、ファイルとして記録し、必要に応じて読み込むことができる。よって、一度スピンイメージを作成したモデルを再度読み込む場合は、(2)法線ベクトル作成、(3)モデルの全頂点のスピンイメージ作成処理を省略できる。
(5)特徴量のクラスタリング:ステップS15
特徴量のクラスタリングは、特徴空間における特徴量を部分集合に分割する処理である。例えば凝集型階層的クラスタリングにより、各終端ノードが各点(各特徴量)を表し、併合されてできたクラスタを非終端ノードで表した二分木(デンドログラム)を生成する。凝集型階層的クラスタリングは、(1)N個の対象からなるデータが与えられたときに1個の対象だけを含むN個のクラスタがある初期状態を作り、(2)対象x1とx2の間の距離D(x1,x2)(非類似度)からクラスタC1とC2の間の距離D(C1,C2)を計算し、(3)この距離が最も近い二つのクラスタを逐次的に併合し、(4)この併合を、全ての対象が一つのクラスタに併合されるまで、繰り返すことで階層構造を獲得する。
特徴量がスピンイメージである場合、モデルの頂点p1のスピンイメージと、頂点p2のスピンイメージとの間の距離Dは、[数1]に示すスピンイメージ同士の正規化相関係数R(P,Q)から求める。
(6)クラスタの有効/無効判定:ステップS16
クラスタの有効/無効判定は、クラスタごとに、照合に関して有効か無効かを判定する処理である。使用する特徴量に応じた物体認識に関する知識ベースに基づき判定する。
一例として、シーンからのある点の特徴量を算出して、モデルの各点の特徴量と類似度を計算して、突出して類似度が高い対応を見つけるような処理においては、もともと突出した対応が得られない特徴量との照合は無駄な処理となる。そこで、あるクラスタがモデル全体の点数の所定%以上を含んでいれば、そのクラスタに類似した特徴量がシーンから得られても、照合に使用できないことは明らかなので、そのクラスタに属する点は照合に使用しない、というような知識ベースに基づき、多くの点を含むクラスタは無効と判定する。
「所定%」の初期値はパラメータで与えられる。類似度が非常に高い(正規化相関係数がほぼゼロの)クラスタに、モデルデータ点数の10%以上が含まれている場合、そのクラスタを除外する。この値を初期値として、実際にモデルとシーンの照合を繰り返し、学習により最適な値を得る。
また、一例として、特徴量がスピンイメージである場合は、原理的に単純な平面の照合は困難であるため、平面を表すクラスタは無効と判定する。
[シーン計測]
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
(1)距離データ取得:ステップS21
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
(2)メッシュ生成:ステップS22
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
(3)法線ベクトル算出:ステップS23
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
[対応点ペア作成]
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
(1)シーン頂点を一つ選びスピンイメージを作成:ステップS31
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
(2)作成されたスピンイメージとモデルのクラスタリング結果を比較:ステップS32
作成されたスピンイメージが照合に有効な特徴量であるかを評価するために、作成されたスピンイメージとモデルのクラスタリング結果を比較する。
作成されたスピンイメージが照合に有効なクラスタに属していれば、ステップS34へ進む。作成されたスピンイメージが照合に有効なクラスタに属していなければ、このシーン頂点は照合に使わず、別のシーン頂点を照合に使用する。
(2)シーン頂点とモデル各頂点の類似度算出:ステップS33
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
(3)突出して類似しているペアを対応点ペアに追加:ステップS34
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
ステップS31〜34の処理により、シーンのある1つの頂点を対応点とする対応点ペアが作成される。この処理を、シーン頂点数のある割合(パラメータαsとして設定される)だけ繰り返す。例えば、パラメータαsとして20%が設定されているとき、シーン頂点数が1000点あれば、ステップS31〜34の処理が200回繰り返される。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
[グループ化]
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
(1)対応点ペアCiのみを含むグループGiを作成:ステップS41
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
(2)Giに最も追加しやすい対応点ペアCjを決定:ステップS42
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(s1,m1)と対応点ペアC2(s2,m2)が同時に成り立つ場合、s1からs2までの距離と、m1からm2までの距離は同じで、かつs1法線とs2法線とベクトルs1→s2が成す3つの角の角度と、m1法線とm2法線とベクトルm1→m2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
(3)CjをGiに追加する:ステップS43
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
(4)含まれている対応点ペアが多い順にグループを並び替え:ステップS44
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
[一致度の検証]
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
(1)シーン頂点のKDツリー作成:ステップS51
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
(2)グループGiの初期位置姿勢算出:ステップS52
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
(3)対応点ペアの拡張:ステップS53
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
(4)Giを位置姿勢候補G’に登録:ステップS54
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβm%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
このパラメータβmは、運用条件に応じて設定すべきであるが、一般的な運用であれば、対応点ペア数がモデル頂点の10%以上であればそのグループが対象物体を捉えている可能性が高い。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
(5)G’を対応点ペア数が多い順に並び替え:ステップS55
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
[高精度化]
一致度の検証の結果得られた対応点ペアのグループから算出される座標変換式によってモデルの位置姿勢を決定し、これを初期位置姿勢として、高精度化処理により最終的な位置姿勢を算出する。
図18に高精度化処理フローを示す。以下、各ステップについて説明する。
(1)グループG’iから初期位置姿勢を算出:ステップS61
グループG’i内の対応点ペアから、モデルとシーンの頂点間距離を最小にする座標変換式T’iを算出する。T’iは、3x3の回転行列Rと、3x1の並進ベクトルtを含む、4x4の剛体変換式である。このT’iによって得られるモデルの位置姿勢を、初期位置姿勢とする。
(2)位置姿勢の高精度化:ステップS62
モデルの位置姿勢を高精度化する。詳細は後述する。
(3)モデルの重心移動距離算出:ステップS63
モデルの初期位置姿勢と、高精度化処理の結果得られた位置姿勢を比較し、重心の移動距離を算出する。重心の移動距離がしきい値(パラメータδ)より大きければ、初期位置姿勢が確実でなく、高精度化処理の結果にも信頼が置けないものと判断して、このグループを除去する。
(4)最終的な物体の三次元位置姿勢の登録:ステップS64
重心の移動距離がしきい値以内であれば、この高精度化処理の結果を最終的な物体の位置姿勢の一つとして登録する。
全ての位置姿勢候補に対して高精度化を行い、物体の最終的な位置姿勢を得る。対象物体がシーン上に存在しない場合や、複数存在することがあるため、最終的に1つも位置姿勢が得られないことや、2つ以上の位置姿勢が得られることがある。
[高精度化処理の定義]
図19に、高精度化処理の基本概念を示す。同図に示すように、高精度化処理の基本は、モデルを初期位置姿勢に配置し(同図(a))、モデルとシーンとで対応する頂点を決め(同図(b))、対応する頂点間距離の総和が最小となるようなモデルの座標変換式を算出し、モデルに座標変換を加え(同図(c))、その後、モデルとシーンの対応を新たに作成する(同図(d))、という処理を、終了条件を満たすまで繰り返し実施するものである。
[主要なパラメータ]
高精度化処理の主要なパラメータを以下に述べる。
(1)対応点間距離のしきい値:モデルとシーンの対応点ペアを作成する際、極端に大きくはなれた頂点同士を対応点ペアとして結び付けてしまうと、正しい変換式が得られない。よって、しきい値以上離れた頂点同士は対応しないものとする。
(2)対応点間法線角度のしきい値:モデルとシーンの対応点ペアを作成する際、法線方向が大きく異なる頂点同士を対応点ペアとして結び付けてしまうと、例えば直方体の異なる面同士を結び付けているような状態となり、正しい変換式が得られない。よって、法線の角度差がしきい値以上の場合、対応しないようにする。
(3)終了条件を表すパラメータ:高精度化処理の終了条件として、対応点間距離が縮まらなくなった場合に終了する方法や、ある回数以上繰り返した場合に終了する方法などがある。その際、距離しきい値や、繰り返し回数上限値がパラメータとなる。
[高精度化処理の改良点]
高精度化処理に対して、以下の改良を行った。
(1)データの表面を表す三角メッシュにおいて、表面の輪郭部分を成す頂点に関する対応は、最小化処理の対象としない。これにより、誤対応を減らし、精度を向上させる。
図20に、輪郭部分を使用しない処理のイメージを示す。
(2)モデルの各頂点から最小距離にあるシーン頂点を見つけ、対応点ペアとするだけでなく、シーンの各頂点から最小距離にあるモデル頂点を見つけて対応点ペアとする処理を加え、双方向から対応点ペアを見つける。これにより、収束演算回数を減らし、最終的な精度を向上させる。
図21に、双方向対応点ペア決定のイメージを示す。
(3)対応点間距離の最小化演算処理の際、対応点間の単純なユークリッド距離を最小にするのではなく、対応方向を表すベクトルと対応先の頂点の法線ベクトルの内積をユークリッド距離に掛けた値を最小化する。これにより、点と点の距離を最小にするのではなく、点と面の距離を最小にするような効果が得られるので、精度を向上させることができる。図22に、内積を考慮した距離の最小化のイメージを示す。
(4)全ての対応点間距離を算出した後、対応点間距離が極端に大きい対応点ペアは、最小化処理の対象としない。これにより、誤対応を減らし、精度を向上させる。具体的には、対応点間距離が平均値のx倍(パラメータ。例えば10倍など。)を超える対応点ペアは対象から外す、という処理を行う。
前記の如く、スピンイメージを用いた特徴量ベースの高速な位置決めを行った後、高精度化処理による精密な位置決めを行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を認識することができる。
スピンイメージは、物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況における物体認識に適用できる。
ただし、特徴量ベースの位置決めは高速だが、モデルとシーンの対応箇所が比較的少ない状態で位置決めを行うため、精度が粗い可能性がある。そこで、特徴量ベースの位置決め結果を初期位置として、高精度化処理による精密な位置決めを行うことにより、高速・高精度な位置姿勢検出が可能となる。
3D−CADデータをモデルデータとして導入するメリットは、以下のとおりである。(1)実物による教示の手間を削減できる、(2)工業部品の設計では3D−CADの導入が進んでおり、認識したい物体については既に3D−CADデータが存在することが多いので、既存データを活用することで作業量を削減できる。
前記の物体認識手法の大まかな性能として、モデル頂点数1000点程度、シーン頂点数5000点程度のとき、モデルがある程度(モデルの全表面の15%程度以上)出現していれば、3秒程度(CPU Celeron(登録商標)2.8GHz、メモリ512MB)で物体の位置姿勢を認識できた。
実施形態として、三次元形状の計測について説明したが、二次元形状を三次元形状の特別な場合として見ることにより、二次元形状も同様に計測できる。
なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。
本発明の実施形態に係る物体認識装置の全体構成図である。 本発明の実施形態に係る物体認識処理部の構成の一例を示す図である。 本発明の実施形態に係るCADデータとスピンイメージの例を示す図である。 本発明の実施形態に係る円筒座標系のイメージを示す図である。 本発明の実施形態に係る三次元物体認識の処理フローを示す図である。 本発明の実施形態に係るモデル入力処理フローを示す図である。 本発明の実施形態に係るPLY形式のファイルの例を示す図である。 本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す図である。 本発明の実施形態に係る法線算出手順を示す図である。 本発明の実施形態に係るシーン計測処理フローを示す図である。 本発明の実施形態に係る対応点ペア作成処理フローを示す図である。 本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す図である。 本発明の実施形態に係るグループ化処理フローを示す図である。 本発明の実施形態に係る幾何学的一貫性の概念図である。 (A)及び(B)は本発明の実施形態に係るグループ化された対応点ペアの例を示す図である。 本発明の実施形態に係る一致度の検証処理フローを示す図である。 本発明の実施形態に係る対応点ペア拡張処理の例を示す図であって、(A)は拡張前を示し、(B)は拡張後を示す。 本発明の実施形態に係る高精度化処理による高精度化処理フローを示す図である。 高精度化処理の基本概念を示す図である。 本発明の実施形態において高精度化処理の改良のために行う「輪郭部分を使用しない処理」のイメージを示す図である。 本発明の実施形態において高精度化処理の改良のために行う「双方向対応点ペア決定」のイメージを示す図である。 本発明の実施形態において高精度化処理の改良のために行う「内積を考慮した距離の最小化」のイメージを示す図である。
符号の説明
32 データ入力装置
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット

Claims (4)

  1. 距離を計測できるセンサによって計測したシーンデータと、目的物体の3次元形状を表すモデルデータとを、各点の表面形状を表す特徴量について照合することにより物体の3次元位置姿勢を検出する3次元物体認識方法において、
    前記モデルデータの各点の特徴量を算出する前に、物体認識の運用条件を入力することによって、当該運用条件に基づき照合に有効な点を選定する第1のステップ、又は
    前記モデルデータの各点の特徴量を算出した後に、各点の特徴量の類似度を解析し、照合に有効な特徴量を持つ点を選定する第2のステップ、の少なくとも一方のステップを含むことを特徴とする3次元物体認識方法。
  2. 前記第2のステップは、各点の特徴量の類似度を解析し、前記類似度に基づいて各点の特徴量をクラスタリングするステップと、
    モデルデータ全体の点数の所定%以上を含むクラスタが存在する場合は、当該クラスタに属する点をシーンデータとの照合の対象から除外するステップと、
    を含むことを特徴とする請求項1に記載の3次元物体認識方法。
  3. 前記第1のステップは、前記モデルデータを複数のパーツに分解するステップと、
    前記物体認識の運用条件として床面又は視点の少なくとも一方を指定する情報を入力することによって、照合に使用しないパーツを決定するステップと、
    を含むことを特徴とする請求項1又は2に記載の3次元物体認識方法。
  4. 前記特徴量がスピンイメージであることを特徴とする請求項1乃至3のいずれか一項に記載の3次元物体認識方法。
JP2007301022A 2007-11-20 2007-11-20 物体認識方法 Active JP5251080B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007301022A JP5251080B2 (ja) 2007-11-20 2007-11-20 物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007301022A JP5251080B2 (ja) 2007-11-20 2007-11-20 物体認識方法

Publications (2)

Publication Number Publication Date
JP2009128075A true JP2009128075A (ja) 2009-06-11
JP5251080B2 JP5251080B2 (ja) 2013-07-31

Family

ID=40819172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007301022A Active JP5251080B2 (ja) 2007-11-20 2007-11-20 物体認識方法

Country Status (1)

Country Link
JP (1) JP5251080B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309671A (ja) * 2007-06-15 2008-12-25 Ihi Corp 物体認識方法および装置
WO2012014545A1 (ja) * 2010-07-27 2012-02-02 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP2012141758A (ja) * 2010-12-28 2012-07-26 Toshiba Corp 三次元データ処理装置、方法及びプログラム
JP2013124923A (ja) * 2011-12-14 2013-06-24 Ihi Corp 溶接ビード位置検出方法及び溶接ビード位置検出装置
JP2014053018A (ja) * 2013-09-30 2014-03-20 Canon Inc 情報処理装置、情報処理装置の制御方法及びプログラム
JP2014059654A (ja) * 2012-09-14 2014-04-03 Nara Institute Of Schience And Technology 動体の3次元運動検出装置及び検出方法
US8705795B2 (en) 2010-11-19 2014-04-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2015062017A (ja) * 2014-09-30 2015-04-02 オムロン株式会社 モデル作成装置、モデル作成プログラム、および画像認識システム
JP2015135333A (ja) * 2015-02-13 2015-07-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2016024191A (ja) * 2014-07-21 2016-02-08 ジック アーゲー 物体の認識及び距離測定のための距離測定センサ
US9841271B2 (en) 2010-02-24 2017-12-12 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
KR101917515B1 (ko) 2016-05-25 2018-11-09 도요타지도샤가부시키가이샤 물체 인식 장치, 물체 인식 방법 및 프로그램
TWI692648B (zh) * 2017-06-20 2020-05-01 美商惠普發展公司有限責任合夥企業 感測器位置判定技術
CN113811740A (zh) * 2019-06-17 2021-12-17 欧姆龙株式会社 计测装置、计测方法以及计测程序
CN114070426A (zh) * 2021-11-15 2022-02-18 上海创远仪器技术股份有限公司 针对mimo信道模拟器的异常校准数据进行剔除处理的方法、装置、处理器及其存储介质
CN116147521A (zh) * 2023-04-18 2023-05-23 菲特(天津)检测技术有限公司 非接触式工件尺寸测量装置及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143073A (ja) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> 物体の位置姿勢決定の方法
JP2006065419A (ja) * 2004-08-24 2006-03-09 Matsushita Electric Works Ltd 人検出装置
WO2007046763A1 (en) * 2005-10-18 2007-04-26 Morphic Technologies Aktiebolag (Publ.) A method and an arrangement for locating and picking up objects from a carrier

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143073A (ja) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> 物体の位置姿勢決定の方法
JP2006065419A (ja) * 2004-08-24 2006-03-09 Matsushita Electric Works Ltd 人検出装置
WO2007046763A1 (en) * 2005-10-18 2007-04-26 Morphic Technologies Aktiebolag (Publ.) A method and an arrangement for locating and picking up objects from a carrier

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309671A (ja) * 2007-06-15 2008-12-25 Ihi Corp 物体認識方法および装置
US9841271B2 (en) 2010-02-24 2017-12-12 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
WO2012014545A1 (ja) * 2010-07-27 2012-02-02 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
CN102472612A (zh) * 2010-07-27 2012-05-23 3维媒体有限公司 三维物体识别装置以及三维物体识别方法
US8705795B2 (en) 2010-11-19 2014-04-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2012141758A (ja) * 2010-12-28 2012-07-26 Toshiba Corp 三次元データ処理装置、方法及びプログラム
JP2013124923A (ja) * 2011-12-14 2013-06-24 Ihi Corp 溶接ビード位置検出方法及び溶接ビード位置検出装置
JP2014059654A (ja) * 2012-09-14 2014-04-03 Nara Institute Of Schience And Technology 動体の3次元運動検出装置及び検出方法
JP2014053018A (ja) * 2013-09-30 2014-03-20 Canon Inc 情報処理装置、情報処理装置の制御方法及びプログラム
JP2016024191A (ja) * 2014-07-21 2016-02-08 ジック アーゲー 物体の認識及び距離測定のための距離測定センサ
JP2015062017A (ja) * 2014-09-30 2015-04-02 オムロン株式会社 モデル作成装置、モデル作成プログラム、および画像認識システム
JP2015135333A (ja) * 2015-02-13 2015-07-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
KR101917515B1 (ko) 2016-05-25 2018-11-09 도요타지도샤가부시키가이샤 물체 인식 장치, 물체 인식 방법 및 프로그램
TWI692648B (zh) * 2017-06-20 2020-05-01 美商惠普發展公司有限責任合夥企業 感測器位置判定技術
US11263779B2 (en) 2017-06-20 2022-03-01 Hewlett-Packard Development Company, L.P. Sensors positions determinations
CN113811740A (zh) * 2019-06-17 2021-12-17 欧姆龙株式会社 计测装置、计测方法以及计测程序
CN113811740B (zh) * 2019-06-17 2023-11-21 欧姆龙株式会社 计测装置、计测方法以及计测程序
CN114070426A (zh) * 2021-11-15 2022-02-18 上海创远仪器技术股份有限公司 针对mimo信道模拟器的异常校准数据进行剔除处理的方法、装置、处理器及其存储介质
CN114070426B (zh) * 2021-11-15 2024-04-19 上海创远仪器技术股份有限公司 针对mimo信道模拟器的异常校准数据进行剔除处理的方法、装置、处理器及其存储介质
CN116147521A (zh) * 2023-04-18 2023-05-23 菲特(天津)检测技术有限公司 非接触式工件尺寸测量装置及方法

Also Published As

Publication number Publication date
JP5251080B2 (ja) 2013-07-31

Similar Documents

Publication Publication Date Title
JP5251080B2 (ja) 物体認識方法
JP5092711B2 (ja) 物体認識装置およびロボット装置
JP4900204B2 (ja) 物体認識方法
Yang et al. A fast and robust local descriptor for 3D point cloud registration
JP4686762B2 (ja) 三次元形状の位置あわせ方法及びプログラム
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
US10684116B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP5677798B2 (ja) 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法
JP5863440B2 (ja) 情報処理装置および方法
CN102782723B (zh) 位置和方位估计方法及其设备
CN111598946B (zh) 一种物***姿测量方法、装置及存储介质
JP5104248B2 (ja) 物体認識装置およびロボット装置
EP4016392A1 (en) Machine-learning for 3d object detection
Li et al. Differential evolution algorithm-based range image registration for free-form surface parts quality inspection
CN115690184A (zh) 一种基于三维激光扫描的隧道掌子面位移量测方法
Jiang et al. Learned local features for structure from motion of uav images: A comparative evaluation
Wojciechowski et al. Optical scanner assisted robotic assembly
Wang et al. Research of fast point cloud registration method in construction error analysis of hull blocks
Srivastava et al. Drought stress classification using 3D plant models
Liu et al. Robust 3-d object recognition via view-specific constraint
JP2009216480A (ja) 三次元位置姿勢計測方法および装置
Cao et al. Aircraft pipe gap inspection on raw point cloud from a single view
CN113267122B (zh) 一种基于3d视觉传感器的工业零件尺寸测量方法
Dong et al. Pose estimation of components in 3c products based on point cloud registration
JP4525526B2 (ja) パターンマッチング方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R151 Written notification of patent or utility model registration

Ref document number: 5251080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250