JP4042780B2 - 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 - Google Patents
物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 Download PDFInfo
- Publication number
- JP4042780B2 JP4042780B2 JP2005321620A JP2005321620A JP4042780B2 JP 4042780 B2 JP4042780 B2 JP 4042780B2 JP 2005321620 A JP2005321620 A JP 2005321620A JP 2005321620 A JP2005321620 A JP 2005321620A JP 4042780 B2 JP4042780 B2 JP 4042780B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- model
- coordinates
- point
- rotation angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Description
図12は、前記基準画像上の任意のモデルエッジ点の登録情報を示す。図中の30は基準画像であり、点Oは前記モデルの基準点、点M(座標を(X0,Y0)とする。)は前記モデルエッジ点である。基準点Oには、モデルの中心点が用いられることが多いが、これに限らず、ユーザーにより指定された任意の点を基準点Oにすることもできる。
上記のエッジ点Eが前記モデルエッジ点Mに該当するならば、認識対象物の回転によりエッジ方向が変化しても、前記基準点Oに対する関係を表す角度φ、距離Rは、モデルエッジ点Mと同一になるはずである。よって、エッジ点Eの座標(x,y)、角度β、および登録された角度φ、距離Rを用いて、基準点Oの座標を特定することができる。またこのとき、エッジ方向を示す角度βと前記登録された角度αとの差Θ(Θ=β−α)は、処理対象画像上の物体の回転角度に相当することになる。
たとえば、Rの値が最適値よりも小さく設定されている場合に処理対象画像に多数のノイズが含まれていると、ノイズに対しても、R回を超える連続投票が発生する可能性がある。反対にRの値が最適値よりも大きく設定されている場合には、認識対象物のエッジ点でも連続投票回数がR回に達しない可能性がある。
また、たとえば、カラー画像を対象とする場合には、互いに独立した3つの色変数(たとえばR,G,B)により規定された各画素の情報のうちの少なくとも1つの変数についての変化の勾配が所定値を超える画素を、エッジ点として抽出することができる。なお、変数は、明度や色相、R,G,Bの各強度のほか、その他の色彩を表現する3変数のいずれかや、それらを用いて得られる色情報であってもよい。
まずエッジ点とモデルエッジ点との組み合わせ毎に、この組につき求めた回転角度Θに基づき、水平方向から角度Θ回転した方向を表す単位ベクトルの水平成分および垂直成分を表す数値を算出し、前記回転角度Θとともに算出された基準点の候補の座標を対象位置として、前記ベクトルの各成分につき算出された数値をそれぞれ成分毎に個別に設定された投票平面の前記対象位置に投票する。
さらに、全ての組み合わせに係る投票が終了した後に、投票のあった座標毎に、各投票平面の当該座標に投票された数値を投票平面毎に累計した値の自乗和を用いて、投票された各数値の水平成分および垂直成分によるベクトルの合成ベクトルの長さを算出する。
さらに、前記投票処理および合成ベクトルの長さの算出処理が終了したことに応じて、前記投票のあった座標の中から前記合成ベクトルの長さが所定のしきい値を超える座標を抽出し、抽出された座標を前記モデルに対応する輪郭パターンの基準点として認識するとともに、この抽出された座標に対応する合成ベクトルが示す方向に基づいて前記輪郭パターンの回転角度を認識する。
一方、輪郭パターンの回転角度については、たとえば前記合成ベクトルの長さが所定値を超える座標における当該合成ベクトルが水平方向(X軸方向)に対してなす角度を求めることができる。
この態様では、前記合成ベクトルの長さに基づき抽出した座標により認識した基準点の位置、およびこの合成ベクトルが示す方向に基づき認識した前記輪郭パターンの回転角度を、それぞれ基準点の仮の位置および輪郭パターンの仮の回転角度として設定する。そして、処理対象画像において、前記仮の位置および仮の回転角度に基づき1つのモデルエッジ点への対応点を求めるステップa;ステップaで処理対象としたモデルエッジ点に前記ステップaで求めた対応点を含む局所領域内のエッジ点を順に組み合わせて、前記モデルエッジ点の登録された第2角度φおよび距離Rとエッジ点の座標およびエッジ方向を用いて基準点の候補の座標を算出する処理と、モデルエッジ点側のエッジ方向を基準にしたエッジ点側のエッジ方向の回転角度Θ V を算出する処理とを実行するステップb;の各ステップを各モデルエッジ点に対して実行する。さらに各モデルエッジ点に対するステップa,bにより算出された基準点の候補の座標を平均化して、この平均化された基準点の座標を前記モデルに対応する輪郭パターンの基準点の座標として最終決定し、各モデルエッジ点に対するステップbで算出された回転角度Θ V につきそれぞれ水平方向から角度Θ V 回転した方向を表す単位ベクトルを設定して、これらの単位ベクトルによる合成ベクトルが示す角度を求め、この合成ベクトルの角度を前記輪郭パターンのモデルに対する回転角度として最終決定する。
ステップbでは、前記対応点を中心とする局所領域(マスク)を設定し、その領域に含まれる各エッジ点に前記対応点の算出に使用したモデルエッジ点を対応づけ、基準点の座標および前記エッジ方向の回転角度を算出する。これら局所領域内のエッジ点は、前記モデルエッジ点に対応するか、モデルエッジ点にきわめて近い点である可能性が高いから、算出された座標や角度の分散もきわめて小さいと考えられる。よって、これらの基準点の座標を平均化することによって、真の基準点の座標を精度良く求めることができる。また、各基準点の座標とともに求められたエッジ方向の回転角度による単位ベクトルの合成ベクトルが示す角度により回転角度を精度良く求めることができる。
なお、平均値を算出するのに代えて、前記局所領域において求めた座標および角度に対応するベクトルを、先の投票処理時よりスケールの細かい投票平面に投票してもよい。
この態様では、前記輪郭パターンの基準点の位置および回転角度を認識した後に、前記モデルに対応する輪郭形状を有する1または複数種の濃淡画像モデルを用いて、前記輪郭パターンの位置および回転角度を反映した正規化相関演算を実行する。
これに対し、上記の態様Bによれば、先に一般化ハフ変換によって、対象物のおよその位置および回転角度が求められているので、たとえば、認識された物体の位置に濃淡画像モデルを設定し、このモデルを前記回転角度を基準に回転補正して正規化相関演算を実行すれば良くなり、正規化相関演算にかかる処理時間を大幅に削減できる。しかも、その限定された処理時間において、精度の高い検索処理を実行することができる。
この態様では、処理対象画像上の各エッジ点について、それぞれ周辺の画素との間の濃度または色彩の変化の方向に基づき、相反する2方向をエッジ方向として設定し、エッジ点とモデルエッジ点との組み合わせ毎に、前記2とおりのエッジ方向に基づき、基準点の候補の座標および回転角度Θの組み合わせを2組求め、組み合わせ毎に前記投票処理を実行する。
この態様では、前記各モデルエッジ点についての登録処理が終了したことを条件に、前記基準画像上の各エッジ点につき、それぞれ前記各モデルエッジ点の前記登録情報を用いて基準点の候補の座標およびエッジ方向の回転角度を求めた後、これらの算出結果を用いて、前記処理対象画像に対するのと同様の投票処理および前記合成ベクトルの長さを示す数値を算出する処理を実行する。そして、すべてのエッジ点にかかる投票および合成ベクトルの長さを算出する処理が終了したときの合成ベクトルの長さが所定のしきい値を下回るとき、前記基準点を異なる座標に設定して、各モデルエッジ点についての登録処理を再度実行する。
このような処理によれば、対象物の位置および回転角度を求めるのに適した基準点を設定することができるから、認識対象物の形状に関わらず、精度の高い認識処理を実行することができる。
この態様では、基準画像上の座標が異なる複数の点を基準点に設定し、処理対象画像について、前記基準点の候補の座標を求める処理および投票処理を基準点毎に実行する。
たとえば、モデルの中心点や重心のみが基準点に設定されていると、処理対象画像中に、モデルに対応する輪郭が複数重ね合わせられた形状の物体が存在する場合でも、モデルに対応する形状毎の基準点が重なって1点として抽出され、物体全体としての輪郭形状を正しく認識できない可能性がある。
認識手段は、座標抽出手段により抽出された座標を前記モデルに対応する輪郭パターンの基準点として認識するとともに、この抽出された座標に対応する合成ベクトルが示す方向に基づいて前記輪郭パターンの回転角度を認識する。
図1は、この発明が適用された画像処理装置の設置例を示す。
この実施例の画像処理装置は、カメラ1、コントローラ2、モニタ3、コンソール4などにより構成されており、工場の検査ラインLにおいて、搬送されてくるワークWを順に撮像して画像を生成し、その画像を処理することによって、前記ワークW上の認識対象物7(この実施例では、文字列「ABC」が印刷されたラベル)の適否を判別する。
前記コントローラ2は、CPU21を制御主体として、フラッシュメモリ22、RAM23、グラフィックコントローラ24、カメラ用インターフェース25、入力用インターフェース26、外部用インターフェース27などを具備する。
カメラ用インターフェース25には、前記カメラ1の駆動回路、画像信号を受け付けるためのバッファ、A/D変換回路(いずれも図示せず。)などが含まれる。入力用インターフェース26は、前記コンソール4からの信号を受け付けるためのものである。外部用インターフェース27は、図示しない外部機器(パーソナルコンピュータ、PLCなど)と通信する際に使用される。グラフィックコントローラ24は、前記モニタに対する表示制御を実行する。
また、この実施例の画像処理装置は、モノクロ濃淡画像を処理するものであるが、これに代えて、カラー濃淡画像を生成して処理することも可能である。
この実施例の画像処理装置では、前記ワークW毎に処理対象画像を生成し、各処理対象画像に一般化ハフ変換の手法を用いた物体認識処理を行うことによって、認識対象物7を抽出している。
一般化ハフ変換を行うには、従来と同様に、ワークWのモデルを撮像して得られた画像を基準画像として、この基準画像を用いた登録処理を行う必要がある。たとえば、基準画像上のラベルのうち、前記「ABC」の文字列を含む領域を指定して、その領域の任意の1点を基準点に設定する。また、前記指定領域中に含まれる複数のエッジ点(ラベルおよびA,B,Cの各文字の輪郭線を構成する点)をモデルエッジ点として抽出し、これらについて、エッジ方向を表す角度α、基準点に対する方位を示す角度φ、基準点との距離Rをそれぞれ算出し、RAM23に登録する。なお、この実施例におけるα,φ,Rは、いずれも前記図12に示した従来例と同様に定義づけられ、前記図13に示したのと同様の構成のテーブルに登録される(以下、このテーブルを「モデルテーブル」という。)。
X=Ri*cos(φi+β)+x ・・・(1)
Y=Ri*sin(φi+β)+y ・・・(2)
Θ=β−αi ・・・(3)
すなわち、各平面S,Cには、基準点の候補として算出された座標毎に、投票された値の累積値が格納されることになる。
ここで、座標(X,Y)が基準点Oの正しい座標にあたらなければ、複数の投票があったとしても、各投票における角度Θの分散が大きくなり、その結果、合成ベクトルは小さくなると考えられる。これに対し、座標(X,Y)が基準点Oの正しい座標であれば、各投票における角度Θの分散はきわめて小さくなり、その結果、合成ベクトルの長さは、他の座標で得られるものより大きくなると考えられる。
以下、上記の一般化ハフ変換による認識対象物の抽出処理を中心に、前記画像処理装置で実行される検査の流れを説明する。
まず、図4は、検査時にコントローラ2で実施される処理手順を示す。
この図5の処理では、前記初期サーチおよび詳細サーチに使用されるモデルエッジ点の情報とともに、前記差分演算処理に用いる基準部分画像が登録される。
なお、角度αi、角度φi、距離Riは、いずれも図12の従来例に示したのと同様の基準で算出される。
この後は、ST107に戻り、新たに設定された基準点Oに基づき、各モデルエッジ点にかかる登録処理を再度実行する。
さらにST118では、前記基準画像から前記ST102で指定された領域内の画像を切り出し、これを、前記画像間差分演算用の基準部分画像として登録する。
まず最初のST201では、前記3つの投票平面S,C,Pを構成する2次元配列を初期化(ゼロクリア)する。
この結果、すべてのエッジ点に対する処理が終了すると、ST209が「YES」となってST210に進み、前記平面S,Cのすべての座標毎に、S(X,Y)とC(X,Y)との自乗和を求め、これをP(X,Y)に格納する。
この実施例の詳細サーチでは、前記基準点Oの座標および回転角度をより正確に求めることを目的として、初期サーチの結果を用いて、モデルエッジ点毎に処理対象画像の限定された範囲のエッジ点を用いた処理を実行している。
まず最初のST301において、前記モデルエッジ点を特定するためのカウンタiに初期値0をセットする。つぎにST302では、前記初期サーチで求めたXP,YP,ΘPを用いてつぎの(5)(6)式により、i番目のモデルエッジ点に対応する座標(xm、ym)を求める。
ym=Xp+Ri*sin(ΘP−φi) ・・・(6)
XV=xj+Ri*cos(βj+φi) ・・・(7)
YV=yj+Ri*sin(βj+φi) ・・・(8)
ΘV=βj−αi ・・・・(9)
このため、この実施例では、前記ST306で求めた(XV,YV,ΘV)と前記初期サーチで求めた(XP,YP,ΘP)とをそれぞれ3次元空間の1点として捉えて、これらの点の間の距離Dを求め、この距離を所定のしきい値D0と比較するようにしている(ST307,308)。ここで前記距離Dが距離D0より大きい場合には、(XV,YV,ΘV)は、ST309の演算の対象から除外される。
かくして、すべてのモデルエッジ点について上記の処理が実行されると、ST313に進み、基準点Oの座標について、前記累積値Xc,Ycおよび処理回数ncを用いて平均値を算出し、これを最終の値XR,YRとする。また回転角度についても、前記Sc,Ccを用いて、前記合成ベクトルの角度を求め、これを最終の値ΘRとする。
またいずれのモデルエッジ点についても、その対応点およびその近傍のエッジ点から求めた座標や回転角度を求めるので、最終的に算出されたXR,YR,ΘRは、初期サーチで求めたXP,YP,ΘPよりも精度の良いものとなる。
上記実施例に示した画像処理装置では、さらに以下のa,b,c,dに示すような処理を実行することができる。
前記図4に示した検査の手順では、前記初期サーチや詳細サーチによって、基準点Oの座標(XR,YR)および認識対象物の回転角度ΘRを特定した後は、画像間差分演算を実行しているが、この処理に代えて、またはこの処理に加えて、正規化相関演算による認識処理を実行してもよい。この場合、処理対象画像から基準部分画像に対応する画像を切り出して回転ずれ補正を実行し、その補正後の画像に前記基準部分画像を用いた正規化相関演算を実行することによって、基準部分画像に対する類似度を求めることができる。または、基準部分画像を前記回転角度ΘRにより補正した後に、その基準点を前記処理対象画像上の座標(XR,YR)に合わせて正規化相関演算を実行してもよい。
また、基準部分画像を複数種登録しておき、基準部分画像毎に正規化相関演算を実行してもよい。
しかし、一般化ハフ変換によって、認識対象物の位置や回転角度を求めておけば、正規化相関演算を実行する範囲を限定でき、また回転モデルを作成する必要もなくなるから、処理時間を大幅に短縮して、精度の高い認識処理を実行することができる。
前記図5に示したモデル登録処理では、認識対象物の形状に応じて複数の基準点を設定してもよい。
たとえば、図9(A)に示すように、所定の形状を有するモデルについて、その中心点が基準点Oとして設定されている場合に、モデルと同じ形状とこれに反転する形状とが重なって点対称の形状になった認識対象物が存在すると、前記したように、基準点Oに対する得票が小さくなり、基準点Oを正しく抽出できなくなる可能性がある。また、基準点Oを抽出できた場合でも、モデルに対応する形状が2つ存在することまでは認識できない。
たとえば、図10に示すように、モデルと認識対象物との間で明暗の関係が逆になっていると、処理対象画像のエッジ点における濃度勾配方向も基準画像とは反対の方向を向くことになる。このようなケースが想定される場合には、図11に示すように、処理対象画像上の各エッジ点Eについて、前記角度βが示す方向h1およびこれに反転する方向h2からそれぞれ反時計回りに角度φ回転した方向において、基準点の候補点O1,O2の座標を求める必要がある。
前記した実施例では、回転角度Θの正弦および余弦の値を投票するようにしたが、これに代えて、回転角度Θに対応するベクトルの水平成分および垂直成分を投票してもよい。この場合の各成分は、回転角度Θに応じた正または負の値で表されるから、前記図3に示したのと同様に、投票のあった座標(X,Y)毎に各成分の累積値を求め、最終的な値の自乗和を求める方法によって、認識対象物の位置や回転角度を精度良く求めることができる。
7 認識対象物
21 CPU
22 フラッシュメモリ
23 RAM
30 基準画像
31 処理対象画像
Claims (11)
- 所定の輪郭形状を有するモデルを含む基準画像を用いて、基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点に個別に着目して、モデルエッジ点毎に、周辺の画素との間に生じている濃度または色彩の変化の方向または当該方向に直交する方向をエッジ方向として求め、このエッジ方向を特定の一方向を基準に表した第1角度αと、前記基準点に対するモデルエッジ点の方位を前記エッジ方向を基準に表した第2角度φと、前記基準点からモデルエッジ点までの距離Rとを、それぞれ登録し、
周辺の画素に対する濃度または色彩の変化の大きさが所定値を超える画素をエッジ点とする場合の当該エッジ点を複数含む画像を処理対象として、その処理対象画像上の複数のエッジ点について、それぞれそのエッジ点の座標および当該エッジ点における前記エッジ方向を求め、
前記処理対象画像上の各エッジ点と前記複数のモデルエッジ点とを1点ずつ組み合わせて、組み合わせ毎に、モデルエッジ点の登録された第2角度φおよび距離Rとエッジ点の座標およびエッジ方向を用いて基準点の候補の座標を算出する処理と、前記登録された第1角度αが示すモデルエッジ点側のエッジ方向に対するエッジ点側のエッジ方向の回転角度Θを算出する処理と、算出された各値に基づく投票処理とを実行し、全ての組み合わせにおける投票処理の結果を用いて前記モデルに対応する輪郭パターンの位置および前記モデルを基準にした輪郭パターンの回転角度を認識する方法であって、
前記エッジ点とモデルエッジ点との組み合わせ毎に、この組につき求めた回転角度Θに基づき、水平方向から角度Θ回転した方向を表す単位ベクトルの水平成分および垂直成分を表す数値を算出し、前記回転角度Θとともに算出された基準点の候補の座標を対象位置として、前記ベクトルの各成分につき算出された数値をそれぞれ成分毎に個別に設定された投票平面の前記対象位置に投票し、
全ての組み合わせに係る投票が終了した後に、投票のあった座標毎に、各投票平面の当該座標に投票された数値を投票平面毎に累計した値の自乗和を用いて、投票された各数値の水平成分および垂直成分によるベクトルの合成ベクトルの長さを算出し、
前記投票処理および合成ベクトルの長さの算出処理が終了したことに応じて、前記投票のあった座標の中から前記合成ベクトルの長さが所定のしきい値を超える座標を抽出し、抽出された座標を前記モデルに対応する輪郭パターンの基準点として認識するとともに、この抽出された座標に対応する合成ベクトルが示す方向に基づいて前記輪郭パターンの回転角度を認識することを特徴とする物体認識方法。 - 所定の輪郭形状を有するモデルを含む基準画像を用いて、基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点に個別に着目して、モデルエッジ点毎に、周辺の画素との間に生じている濃度または色彩の変化の方向または当該方向に直交する方向をエッジ方向として求め、このエッジ方向を特定の一方向を基準に表した第1角度αと、前記基準点に対するモデルエッジ点の方位を前記エッジ方向を基準に表した第2角度φと、前記基準点からモデルエッジ点までの距離Rとを、それぞれ登録し、
周辺の画素に対する濃度または色彩の変化の大きさが所定値を超える画素をエッジ点とする場合の当該エッジ点を複数含む画像を処理対象として、その処理対象画像上の複数のエッジ点について、それぞれそのエッジ点の座標および当該エッジ点における前記エッジ方向を求め、
前記処理対象画像上の各エッジ点と前記複数のモデルエッジ点とを1点ずつ組み合わせて、組み合わせ毎に、モデルエッジ点の登録された第2角度φおよび距離Rとエッジ点の座標およびエッジ方向を用いて基準点の候補の座標を算出する処理と、前記登録された第1角度αが示すモデルエッジ点側のエッジ方向に対するエッジ点側のエッジ方向の回転角度Θを算出する処理と、算出された各値に基づく投票処理とを実行し、全ての組み合わせにおける投票処理の結果を用いて前記モデルに対応する輪郭パターンの位置および前記モデルを基準にした輪郭パターンの回転角度を認識する方法であって、
前記エッジ点とモデルエッジ点との組み合わせ毎に、この組につき求めた回転角度Θに基づき、水平方向から角度Θ回転した方向を表す単位ベクトルの水平成分および垂直成分を表す数値を算出し、前記回転角度Θとともに算出された基準点の候補の座標を対象位置として、前記ベクトルの各成分につき算出された数値をそれぞれ成分毎に個別に設定された投票平面の前記対象位置に投票し、
全ての組み合わせに係る投票が終了した後に、投票のあった座標毎に、各投票平面の当該座標に投票された数値を投票平面毎に累計した値の自乗和を用いて、投票された各数値の水平成分および垂直成分によるベクトルの合成ベクトルの長さを算出し、
前記投票処理および合成ベクトルの長さの算出処理が終了したことに応じて、前記投票のあった座標の中から前記合成ベクトルの長さが最大になる座標を抽出し、抽出された座標を前記モデルに対応する輪郭パターンの基準点として認識するとともに、この抽出された座標に対応する合成ベクトルが示す方向に基づいて前記輪郭パターンの回転角度を認識することを特徴とする物体認識方法。 - 請求項1または2に記載された物体認識方法において、
前記投票処理では、エッジ点とモデルエッジ点との組み合わせ毎に、この組につき求めた回転角度Θの正弦および余弦を算出し、余弦の算出値を前記水平成分に設定された投票平面の前記対象位置に、正弦の算出値を前記垂直成分に設定された投票平面の前記対象位置に、それぞれ投票し、
全ての組み合わせに係る投票が終了した後に、前記投票のあった座標毎に、各投票平面の当該座標に投票された値の累計値の自乗和を前記合成ベクトルの長さとして算出する物体認識方法。 - 請求項1〜3のいずれかに記載された物体認識方法において、
前記合成ベクトルの長さに基づき抽出した座標により認識した基準点の位置、およびこの合成ベクトルが示す方向に基づき認識した前記輪郭パターンの回転角度を、それぞれ基準点の仮の位置および輪郭パターンの仮の回転角度として設定し、
前記処理対象画像において、前記仮の位置および仮の回転角度に基づき1つのモデルエッジ点への対応点を求めるステップa;ステップaで処理対象としたモデルエッジ点に前記ステップaで求めた対応点を含む局所領域内のエッジ点を順に組み合わせて、前記モデルエッジ点の登録された第2角度φおよび距離Rとエッジ点の座標およびエッジ方向を用いて基準点の候補の座標を算出する処理と、モデルエッジ点側のエッジ方向を基準にしたエッジ点側のエッジ方向の回転角度Θ V を算出する処理とを実行するステップb;の各ステップを各モデルエッジ点に対して実行し、
各モデルエッジ点に対するステップa,bにより算出された基準点の候補の座標を平均化して、この平均化された基準点の座標を前記モデルに対応する輪郭パターンの基準点の座標として最終決定し、
各モデルエッジ点に対するステップbで算出された回転角度Θ V につきそれぞれ水平方向から角度Θ V 回転した方向を表す単位ベクトルを設定して、これらの単位ベクトルによる合成ベクトルが示す角度を求め、この合成ベクトルの角度を前記輪郭パターンのモデルに対する回転角度として最終決定する物体認識方法。 - 請求項1〜3のいずれかに記載された物体認識方法において、
前記輪郭パターンの基準点の位置および回転角度を認識した後に、前記モデルに対応する輪郭形状を有する1または複数種の濃淡画像モデルを用いて、前記輪郭パターンの位置および回転角度を反映した正規化相関演算を実行する物体認識方法。 - 請求項1〜5のいずれかに記載された物体認識方法において、
処理対象画像上の各エッジ点について、それぞれ周辺の画素との間の濃度または色彩の変化の方向に基づき、相反する2方向をエッジ方向として設定し、エッジ点とモデルエッジ点との組み合わせ毎に、前記2とおりのエッジ方向に基づき、基準点の候補の座標および回転角度Θの組み合わせを2組求め、組み合わせ毎に前記投票処理を実行する物体認識方法。 - 請求項1〜6のいずれかに記載された物体認識方法において、
前記各モデルエッジ点についての登録処理が終了したことを条件に、前記基準画像上の各エッジ点につき、それぞれ前記各モデルエッジ点の前記登録情報を用いて基準点の候補の座標およびエッジ方向の回転角度を求めた後、これらの算出結果を用いて、前記処理対象画像に対するのと同様の投票処理および前記合成ベクトルの長さを示す数値を算出する処理を実行し、
すべてのエッジ点にかかる投票および合成ベクトルの長さを算出する処理が終了したときの合成ベクトルの長さが所定のしきい値を下回るとき、前記基準点を異なる座標に設定して、各モデルエッジ点についての登録処理を再度実行する物体認識方法。 - 請求項1〜7のいずれかに記載された物体認識方法において、
前記基準画像上の座標が異なる複数の点を基準点に設定し、処理対象画像について、前記基準点の候補の座標を求める処理および投票処理を、基準点毎に実行する物体認識方法。 - 所定の輪郭形状を有するモデルを含む基準画像を用いて、基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点に個別に着目して、モデルエッジ点毎に、周辺の画素との間に生じている濃度または色彩の変化の方向または当該方向に直交する方向をエッジ方向としたときの当該エッジ方向を特定の一方向を基準に表した第1角度αと、前記基準点に対するモデルエッジ点の方位を前記エッジ方向を基準に表した第2角度φと、前記基準点からモデルエッジ点までの距離Rとを、それぞれ算出して登録する機能;および周辺の画素に対する濃度または色彩の大きさが所定値を超える画素をエッジ点とする場合の当該エッジ点を複数含む画像を処理対象として、その処理対象画像上の複数のエッジ点について、それぞれそのエッジ点の座標および当該エッジ点における前記エッジ方向を求める機能を有するコンピュータに対し、前記処理対象画像から前記モデルに対応する輪郭パターンの位置および前記モデルを基準にした輪郭パターンの回転角度を認識する機能を、設定するためのプログラムであって、
前記処理対象画像上の複数のエッジ点と前記複数のモデルエッジ点とを1点ずつ組み合わせて、組み合わせ毎に、モデルエッジ点の登録された第2角度φおよび距離Rとエッジ点の座標およびエッジ方向とを用いて基準点の候補の座標を算出する処理と、前記登録された第1角度αが示すモデルエッジ点側のエッジ方向に対するエッジ点側のエッジ方向の回転角度Θを算出する処理とを実行する候補値算出手段;
前記候補値算出手段により算出された回転角度Θに基づき水平方向から角度Θ回転した方向を表す単位ベクトルを設定した場合の当該ベクトルの水平成分および垂直成分を表す数値を、それぞれ前記回転角度Θとともに算出される基準点の候補の座標が同じもの毎に累計した値を記憶するための記憶手段;
前記候補値算出手段により基準点の候補の座標および回転角度Θの算出が行われる都度、算出された回転角度Θによる前記単位ベクトルの水平成分および垂直成分を表す数値を算出し、これらの数値により前記算出された基準点の候補の座標に対応する前記記憶手段内の累計値を更新する情報更新手段;
前記候補値算出手段および情報更新手段による処理が終了したことに応じて、前記記憶手段に累計値が記憶された座標毎に、その座標に対応する2種類の累計値の自乗和を求め、前記累計値が記憶された座標の中から前記累計値の自乗和が所定のしきい値を超える座標を抽出する座標抽出手段;
前記座標抽出手段により抽出された座標を前記モデルに対応する輪郭パターンの基準点として認識するとともに、この抽出された座標に対応する合成ベクトルが示す方向に基づいて前記輪郭パターンの回転角度を認識する認識手段;
の各手段として前記コンピュータを機能させるための物体認識処理用のプログラム。 - 請求項9に記載されたプログラムが記憶された記憶媒体。
- 周辺の画素に対する濃度または色彩の大きさが所定値を超える画素をエッジ点とする場合の当該エッジ点を複数含む画像を入力するための画像入力手段;
所定の輪郭形状を有するモデルを含む基準画像が前記画像入力手段から入力されたとき、この基準画像を用いて基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点について、周辺の画素との間に生じている濃度または色彩の変化の方向または当該方向に直交する方向をエッジ方向としたときの当該エッジ方向を特定の一方向を基準に表した第1角度αと、前記基準点に対するモデルエッジ点の方位を前記エッジ方向を基準に表した第2角度φと、前記基準点からモデルエッジ点までの距離Rとを、それぞれ算出して登録する登録処理手段;
前記画像入力手段から処理対象画像が入力されたとき、その処理対象画像上の複数のエッジ点について、それぞれそのエッジ点の座標および当該エッジ点における前記エッジ方向を求めるエッジ点検出手段;
処理対象画像上の複数のエッジ点と前記複数のモデルエッジ点とを1点ずつ組み合わせて、組み合わせ毎に、モデルエッジ点の登録された第2角度φおよび距離Rとエッジ点の座標およびエッジ方向とを用いて基準点の候補の座標を算出する処理と、前記登録された第1角度αが示すモデルエッジ点側のエッジ方向に対するエッジ点側のエッジ方向の回転角度Θを算出する処理とを実行する候補値算出手段;
前記候補値算出手段により算出された回転角度Θに基づき水平方向から角度Θ回転した方向を表す単位ベクトルを設定した場合の当該ベクトルの水平成分および垂直成分を表す数値を、それぞれ前記回転角度Θとともに算出される基準点の候補の座標が同じもの毎に累計した値を記憶するための記憶手段;
前記候補値算出手段により基準点の候補の座標および回転角度Θの算出が行われる都度、算出された回転角度Θによる前記単位ベクトルの水平成分および垂直成分を表す数値を算出し、これらの数値により前記算出された基準点の候補の座標に対応する前記記憶手段内の累計値を更新する情報更新手段;
前記候補値算出手段および情報更新手段による処理が終了したことに応じて、前記記憶手段に累計値が記憶された座標毎に、その座標に対応する水平成分および垂直成分の各累計値の自乗和を求め、前記累計値が記憶された座標の中から前記累計値の自乗和が最大になる座標を抽出する座標抽出手段;
前記座標抽出手段により抽出された座標を前記モデルに対応する輪郭パターンの基準点として認識するとともに、この抽出された座標に対応する合成ベクトルが示す方向に基づいて前記輪郭パターンの回転角度を認識する認識手段;
の各手段を具備する物体認識装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005321620A JP4042780B2 (ja) | 2005-11-04 | 2005-11-04 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
EP06022163A EP1783663A3 (en) | 2005-11-04 | 2006-10-23 | Object recognizing method, program and storage medium for recognizing object, and object recognizing apparatus |
US11/588,427 US20070104358A1 (en) | 2005-11-04 | 2006-10-27 | Object recognizing method, program and storage medium for recognizing object, and object recognizing apparatus |
CNB2006101432578A CN100430960C (zh) | 2005-11-04 | 2006-11-01 | 物体识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005321620A JP4042780B2 (ja) | 2005-11-04 | 2005-11-04 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007128374A JP2007128374A (ja) | 2007-05-24 |
JP4042780B2 true JP4042780B2 (ja) | 2008-02-06 |
Family
ID=37845298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005321620A Expired - Fee Related JP4042780B2 (ja) | 2005-11-04 | 2005-11-04 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20070104358A1 (ja) |
EP (1) | EP1783663A3 (ja) |
JP (1) | JP4042780B2 (ja) |
CN (1) | CN100430960C (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4001162B2 (ja) * | 2005-11-04 | 2007-10-31 | オムロン株式会社 | 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置 |
US7945117B2 (en) * | 2006-08-22 | 2011-05-17 | Siemens Medical Solutions Usa, Inc. | Methods and systems for registration of images |
JP5022045B2 (ja) * | 2007-01-24 | 2012-09-12 | 富士通株式会社 | 作業位置を特定するためのシステム、作業セル、方法、製品の製造方法、およびマーカ |
CN101388077A (zh) * | 2007-09-11 | 2009-03-18 | 松下电器产业株式会社 | 目标形状检测方法及装置 |
CN100538726C (zh) * | 2008-01-31 | 2009-09-09 | 浙江工业大学 | 基于图像矢量化技术的服装样片自动录入装置 |
CN101853514B (zh) * | 2009-04-02 | 2011-10-05 | 肖克炎 | 彩色地质图图像的交互式矢量化方法及其*** |
WO2010127179A1 (en) * | 2009-04-29 | 2010-11-04 | Coherix, Inc. | Method for fixed-rotation and rotation-independent image correlation |
JP5561214B2 (ja) * | 2011-03-15 | 2014-07-30 | オムロン株式会社 | 画像処理装置および画像処理プログラム |
US9013714B2 (en) * | 2011-12-06 | 2015-04-21 | The Procter & Gamble Company | Method of analyzing video or image data of an absorbent article |
WO2014164901A1 (en) * | 2013-03-11 | 2014-10-09 | Magic Leap, Inc. | System and method for augmented and virtual reality |
CN104574434B (zh) * | 2013-10-24 | 2017-09-29 | 株式会社理光 | 物体检测方法和装置 |
JP5928748B2 (ja) * | 2014-07-31 | 2016-06-01 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 同一種類の複数の認識対象物体が検索対象画像中に存在する場合に、それぞれの認識対象物体の位置および向きを精度良く求める手法 |
EP3109823A1 (en) * | 2015-06-22 | 2016-12-28 | Sick IVP AB | Method and arrangements for estimating one or more dominating orientations in a digital image |
US11367266B2 (en) * | 2017-02-14 | 2022-06-21 | Nec Corporation | Image recognition system, image recognition method, and storage medium |
JP6717425B2 (ja) * | 2017-04-03 | 2020-07-01 | 富士通株式会社 | 距離情報処理装置、距離情報処理方法および距離情報処理プログラム |
CN107273608B (zh) * | 2017-06-13 | 2020-06-30 | 中国石油大学(华东) | 一种油藏地质剖面图矢量化方法 |
CN112238032A (zh) * | 2020-09-04 | 2021-01-19 | 上海尧崇智能科技有限公司 | 一种涂胶路径生成方法、生成装置、生成***及计算机可读存储介质 |
CN113409370B (zh) * | 2021-06-25 | 2023-04-18 | 浙江商汤科技开发有限公司 | 图像配准方法及相关装置、设备 |
CN116036421B (zh) * | 2023-01-19 | 2023-12-22 | 成都市凯瑞医疗科技有限公司 | 一种智能可穿戴式自动穿刺设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5247587A (en) * | 1988-07-15 | 1993-09-21 | Honda Giken Kogyo Kabushiki Kaisha | Peak data extracting device and a rotary motion recurrence formula computing device |
JPH0488489A (ja) * | 1990-08-01 | 1992-03-23 | Internatl Business Mach Corp <Ibm> | 一般化ハフ変換を用いた文字認識装置および方法 |
US5638465A (en) * | 1994-06-14 | 1997-06-10 | Nippon Telegraph And Telephone Corporation | Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor |
US6721444B1 (en) * | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
US6807286B1 (en) * | 2000-04-13 | 2004-10-19 | Microsoft Corporation | Object recognition using binary image quantization and hough kernels |
US7062093B2 (en) * | 2000-09-27 | 2006-06-13 | Mvtech Software Gmbh | System and method for object recognition |
US7085432B2 (en) * | 2002-06-10 | 2006-08-01 | Lockheed Martin Corporation | Edge detection using Hough transformation |
-
2005
- 2005-11-04 JP JP2005321620A patent/JP4042780B2/ja not_active Expired - Fee Related
-
2006
- 2006-10-23 EP EP06022163A patent/EP1783663A3/en not_active Withdrawn
- 2006-10-27 US US11/588,427 patent/US20070104358A1/en not_active Abandoned
- 2006-11-01 CN CNB2006101432578A patent/CN100430960C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN100430960C (zh) | 2008-11-05 |
EP1783663A2 (en) | 2007-05-09 |
EP1783663A9 (en) | 2007-07-25 |
EP1783663A3 (en) | 2007-05-30 |
JP2007128374A (ja) | 2007-05-24 |
CN1959706A (zh) | 2007-05-09 |
US20070104358A1 (en) | 2007-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4042780B2 (ja) | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 | |
US10996062B2 (en) | Information processing device, data management device, data management system, method, and program | |
JP2776757B2 (ja) | 指紋指頭軸方向検出装置 | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN110926330B (zh) | 图像处理装置和图像处理方法 | |
US20040066964A1 (en) | Fast two dimensional object localization based on oriented edges | |
JP5468332B2 (ja) | 画像特徴点抽出方法 | |
US10776657B2 (en) | Template creation apparatus, object recognition processing apparatus, template creation method, and program | |
JPS62267610A (ja) | 対象パタ−ンの回転角検出方式 | |
US20130058526A1 (en) | Device for automated detection of feature for calibration and method thereof | |
JP4635862B2 (ja) | 画像処理装置 | |
CN115359021A (zh) | 一种基于激光雷达和相机信息融合的目标定位检测方法 | |
CN112598922B (zh) | 车位检测方法、装置、设备及存储介质 | |
KR20080032856A (ko) | 조선소 소조립 용접부재 위치 인식 방법 | |
CN111507908A (zh) | 图像矫正处理方法、装置、存储介质及计算机设备 | |
US20090136137A1 (en) | Image processing apparatus and method thereof | |
JP4694624B2 (ja) | 画像補正装置及び方法、並びにコンピュータプログラム | |
JP2009216503A (ja) | 三次元位置姿勢計測方法および装置 | |
JP2003216931A (ja) | 特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置 | |
CN114863129A (zh) | 仪表数值分析方法、装置、设备及存储介质 | |
CN114549400A (zh) | 一种图像识别方法及装置 | |
CN114936997A (zh) | 检测方法、装置、电子设备及可读存储介质 | |
CN116977328A (zh) | 车底机器人主动视觉中的图像质量评估方法 | |
JP2011107878A (ja) | 位置検出装置、位置検出方法 | |
JP5160366B2 (ja) | 電子部品のパターンマッチング方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20070313 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20070409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4042780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111122 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131122 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |