JPH0921610A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法

Info

Publication number
JPH0921610A
JPH0921610A JP7169039A JP16903995A JPH0921610A JP H0921610 A JPH0921610 A JP H0921610A JP 7169039 A JP7169039 A JP 7169039A JP 16903995 A JP16903995 A JP 16903995A JP H0921610 A JPH0921610 A JP H0921610A
Authority
JP
Japan
Prior art keywords
image
model
local
probability
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7169039A
Other languages
English (en)
Inventor
Akinori Kosako
明徳 小迫
Naoki Takegawa
直樹 武川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP7169039A priority Critical patent/JPH0921610A/ja
Publication of JPH0921610A publication Critical patent/JPH0921610A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 画像中から任意の物体の画像を抽出し、且
つ、その位置を安定的に求めることができる画像処理装
置及び画像処理方法を提供することである。 【解決手段】 抽出対象物の局所部分について、撮像環
境による変化をパラメータとして反映した局所モデルを
予め作成してモデル記憶部12に格納する。これらのモ
デルを用いて、画像入力部11から入力された画像の各
部分画像について、マッチング処理部13で各局所モデ
ルとのマッチングを行う。局所情報統合部21は、マッ
チング処理部13でのマッチングの結果に従って、各部
分画像がどの程度局所モデルに一致しているかという観
点から、画像の位置情報も含めたパラメータ空間におい
て抽出対象物の位置を確率的に表示し、さらに、これら
の確率を統合する。物***置決定部17は、パラメータ
空間内で最も確率の高い部分を抽出することにより、入
力画像内の抽出対象物の位置を判別して出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、入力画像中から
任意の物体を抽出し、その位置を判別する画像処理装置
及び画像処理方法に関する。
【0002】
【従来の技術】従来の局所的な情報を統合して物体の抽
出(検出)或いは認識を行う技術としては、得られた局
所情報を組み合わせて逐次仮説検証する手法と、Hou
gh変換に代表されるような局所情報からの投票に基づ
いた手法(和田俊和、松山隆司「Hough変換に基づ
く図研検出法の新展開」、情報処理学会誌、Vol.3
6,No.3,1995)が知られている。
【0003】
【発明が解決しようとする課題】仮説検証による方法で
は、画像中から得られた物体の局所情報の多数の候補を
逐次組み合わせて検証する。このため、組み合わせの爆
発(組み合わせ数の膨大化)が起こり、演算量が膨大に
なってしまう。投票による方法は、真値を指示する情報
が多数ある場合には有効である。しかし、少数の情報が
指示する結果のみが真値であり得るような場合には、必
ずしも良好な結果が得られない。また、撮影される物体
は一部が隠れていたり、大きさや明るさや、見える方向
などの撮影環境の違いにより画像上で様々に変化する。
このため、従来の物体抽出装置及び方法では、撮影され
た画像から抽出対象物を正確に抽出し、その位置を正確
に求めることが困難であった。
【0004】この発明は上記実状に鑑みてなされたもの
で、任意の画像中から任意の物体の画像を抽出し、且
つ、その位置を安定的に求めることができる画像処理装
置及び画像処理方法を提供することを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するた
め、この発明の画像処理装置は、抽出対象物の複数の局
所部分のモデルを記憶するモデル記憶手段と、画像を入
力する画像入力手段と、前記モデル記憶手段に記憶され
た各モデルと、前記画像入力手段の入力画像の各部との
一致度(マッチ度)を算出するマッチング手段と、前記
マッチング手段により算出された各一致度に基づいて、
抽出対象物の位置の確率分布を求める局所情報統合手段
と、前記局所情報統合手段により算出された確率分布の
中の確率が最も高い位置を抽出対象物の位置として出力
する出力手段と、を備えることを特徴とする。
【0006】上記構成によれば、少数でも高い確率で真
値を示す局所部分の画像があれば、その情報に基づいて
抽出対象物の位置情報の正確な位置に高い確率分布が得
られる。このため、入力画像中の抽出対象物の一部が隠
れている場合等でも、抽出対象物とその位置を検出する
ことができる。
【0007】前記モデル記憶手段に、撮像環境による変
化をパラメータとして反映した各局所部分の画像のモデ
ルを記憶させ、前記マッチング手段は、前記入力画像か
ら前記局所部分と同一サイズの部分画像を順次切り出
し、各局所部分のモデルとの一致度を算出し、前記局所
情報統合手段が、前記マッチング手段により算出された
一致度を用いて、画像の位置情報を含めたパラメータ空
間における、抽出対象物の位置の確率分布を求める、よ
うに構成してもよい。
【0008】このように構成すれば、撮影環境による変
化も考慮してモデルを作成しているので、撮影環境の変
化にかかわらず、安定的に抽出対象物の位置を検出する
ことができる。
【0009】例えば、前記局所情報統合手段を、各部分
画像について、前記マッチング手段により各モデルにつ
いて算出された一致度を用いて、部分画像毎に、前記入
力画像内の前記抽出対象物の位置の確率の分布を求める
確率算出手段と、局所部分毎に前記確率算出手段により
算出された確率分布を統合する第1の統合手段と、前記
第1の統合手段により統合された確率分布を統合する第
2の統合手段と、より構成するようにしてもよい。
【0010】また、前記モデル記憶手段に、抽出対象物
の異なる回転角θに対する各局所部分の画像の変化を、
所定の固有ベクトルで表した固有空間で、曲線として表
現する第1のモデルと、抽出対象物の異なる回転角θに
対する各局所部分の位置を曲線で表現する第2のモデル
と、を記憶させ、前記マッチング手段で、前記画像入力
手段により入力された画像の各部の画像を前記固有空間
に射影した時に、射影点と前記第1のモデルの曲線との
距離から、第1のモデルとの一致度を算出し、前記統合
手段で、入力画像の各部の画像について、前記マッチン
グ手段により第1のモデルについて算出された一致度に
基づいて、第1の確率分布を設定し、対応する第2のモ
デルに基づいて第2の確率分布を設定し、前記第1と第
2の確率分布を乗算し、前記乗算手段により得られた部
分画像毎の確率分布を統合するように構成してもよい。
【0011】前記局所情報統合手段で、位置と前記回転
角θをパラメータとするパラメータ空間上の確率分布を
求め、前記出力手段で、最も高い確率が得られた位置情
報と回転角θを出力するようにしてもよい。このような
構成とすることにより、検出対象物の回転角θも検出す
ることができる。
【0012】また、前記モデル記憶手段に、複数の抽出
対象物の局所部分の画像のモデルを記憶させ、前記局所
情報統合手段で、各抽出対象物の位置の確率分布を求
め、前記出力手段は、最も高い確率が得られた抽出対象
物とその位置を示す情報を出力するようにしてもよい。
このような構成とすることにより、位置情報だけでな
く、抽出された物体等も判別することができる。
【0013】上記目的を達成するため、この発明の画像
処理方法は、画像を入力する画像入力ステップと、予め
用意された抽出対象物の複数の局所部分のモデルと前記
画像入力ステップにより入力された画像の各部との一致
度を算出するマッチングステップと、入力画像の各部の
一致度に基づいて、抽出対象物の位置の確率分布を求め
る確率算出ステップと、前記確率算出ステップにより算
出された確率分布を統合する統合ステップと、前記統合
ステップにより統合された確率分布中の最も確率が高い
位置を抽出対象物の位置として出力する出力ステップ
と、を備えることを特徴とする。
【0014】この方法でも、少数でも高い確率で真値を
示す局所部分の画像があれば、その情報に基づいて抽出
対象物の位置情報の正確な位置に高い確率分布が得られ
る。従って、抽出対象物とその位置を正確に検出するこ
とができる。
【0015】
【発明の実施の形態】以下、本発明の一実施形態にかか
る画像処理(抽出)装置及び画像処理(抽出)方法につ
いて、図1〜図9を参照して説明する。図1に示すよう
に、この実施形態の画像処理装置は、画像入力部11
と、モデル記憶部12と、マッチング処理部13と、確
率算出部14と、局所情報内統合部15と、局所情報間
統合部16と、物***置決定部17とを備える。
【0016】画像入力部11は、CCDカメラ、イメー
ジリーダなどの撮影装置とこの撮影装置で取得された画
像をデジタル画像に変換する変換部と、変換された画像
を一時記憶する画像メモリを備える。
【0017】モデル記憶部12は、メモリから構成さ
れ、抽出(検出)対象物体のモデルを記録する。3次元
物体の見かけ上の画像は、その物体の方向、向き等によ
り変化する。このような3次元物体の抽出を適切に行う
ため、モデル記憶部12は、抽出対象物の特徴部分(局
所部分)のパラメトリック固有空間表現法によるモデル
(パターンモデル)と、モデル生成用画像内での各局所
部分の位置の変化を表すモデル(ロケーションモデル)
とを記憶する。なお、パターンモデルとロケーションモ
デルの詳細については後述する。
【0018】マッチング処理部13は、データ読み出し
回路及び演算装置から構成され、画像入力部11から入
力された入力画像の各部の画像(部分画像)とモデル記
憶部12に記憶された各パターンモデルとのマッチング
をとり、一致度(マッチ度)を算出する。
【0019】確率算出部14は演算回路から構成され、
マッチング処理部13で求めた一致度を元に、入力画像
の部分画像毎に、抽出対象物の位置の確率分布(確率
場、確率密度)を算出する。局所情報内統合部15は、
部分画像毎に得られた確率分布を局所部分毎に統合す
る。局所情報間統合部16は、さらに、局所部分毎に得
られた確率分布をベイズの枠組みで統合する。なお、確
率算出部14と、局所情報内統合部15と、局所情報間
統合部16とは局所情報統合部21を構成する。
【0020】物***置決定部17は、出力装置等から構
成され、局所情報統合部21で統合された確率分布中の
最も高い確率を示す位置を抽出対象物の位置として出力
する。
【0021】次に、モデル記憶部12に記憶されるパタ
ーンモデル及びロケーションモデルの作成方法について
具体的に説明する。3次元物体の画像は、その物体の方
向、向き等により変化する。例えば、椅子を抽出対象物
と考えると、椅子を回転させると、図2に示すような多
様な画像(モデル作成用画像)が得られる。
【0022】そこで、抽出対象物を中心にカメラを移動
させて(又は、カメラを固定して抽出対象体をその場で
回転させて)、図2に示すように、抽出対象物の回転角
θを変化させながらモデル作成用画像を順次取得する。
次に、取得したモデル作成用画像のうち、抽出対象物、
即ち、椅子以外の部分にデータ”0”を代入して抽出対
象物の画像のみを取得する。
【0023】次に、各モデル作成用画像から抽出対象物
の特徴部分(局所部分)の画像を所定サイズで切り出
す。角度θの数(モデル作成用画像の数)をR、特徴部
分の数をSとすると、R×S個の局所部分の画像(局所
画像)が得られる。例えば、図2に示す椅子の局所部分
を図3に示す3つの部分A1〜A3とすると、各モデル
作成用画像からそれぞれ3つの局所画像A1〜A3が抽
出される。
【0024】続いて、回転角θをパラメータとして、各
局所画像をパラメトリック固有空間表現によって作成し
た固有空間に投影し、これらをつなげることにより局所
部分それぞれについて1つののパターンモデルを曲線と
して得る。
【0025】ここで、θの数(モデル作成用画像の数)
をRとし、θを変えて取得した各局所画像の集合を数1
のように表現する。ここで、Xiは各局所部分のi番目
の局所画像を示し、それぞれ、数2で表される。数2に
おいて、Xnmはn番目の局所画像のm番目の画素の階調
を示す。なお、数1の集合は、局所部分毎に形成され、
図3の例では、局所部分A1〜A3にそれぞれ1セット
形成される。
【0026】
【数1】{x1,x2,x3,・・・,xR
【数2】x1={x11,x12,x13,・・・,x1N} x2={x21,x22,x23,・・・,x2N}・・・・・・ xR={xR1,xR2,xR3,・・・,xRN
【0027】続いて、各局所画像の集合の平均cを数3
に従って求め、各局所画像から平均画像を差し引いて、
数4に示す行列Xを生成する。
【0028】
【数3】c=(1/R)Σxr r=1〜R
【数4】 X≡{x1−c,x2−c,x3−c,・・・,xR−c}
【0029】この画像集合Xの共分散行列Qは数5によ
り表される。
【数5】Q≡XXT Tは直交関数を示す。
【0030】k次元の固有空間は数6の固有方程式を解
き、k個の大きい固有値λ1〜λN(λ1≧・・・≧λk≧・・・
≧λN)に対応する固有ベクトル(e1,e2,・・・ek
を基底ベクトルとすることにより得られる。
【数6】λi・ei=Q・ei
【0031】各局所画像をk次元の固有空間に投影する
と、1枚の局所画像が固有空間上の1つの点に対応す
る。さらに、各回転角θでの各局所画像を固有空間に投
影すると、それは点の系列になる。これらの点を補間法
を用いて結ぶことにより、1つの局所画像について1つ
のパターンモデルが曲線として得られる。
【0032】図4に、抽出対象物である椅子の局所画像
A1を、θの変化に伴って4次元(k=4)の固有空間
上にプロットして、パターンモデルを作成する例を示
す。このパターンモデルは、局所画像A2,A3につい
ても同様に生成される。モデル記憶部12は、このよう
にして得られた各局所部分についてのパターンモデルを
記憶する。
【0033】次に、ロケーションモデルについて説明す
る。回転角θを変化させるに従って、各モデル作成用画
像内の局所画像の位置は変化する。ロケーションモデル
は、図5に示すように、この位置変化を、モデル作成用
画像の左上の位置を原点とした(x,y)座標系で表し
たモデルである。
【0034】次に、予め作成されたパターンモデルとロ
ケーションモデルを用いて、入力画像中の抽出対象物の
位置を抽出する手順を図6〜図9を参照して説明する。
【0035】画像入力部11は、例えば、図6に示すよ
うな、任意の画像を取得し、これをディジタル画像に変
換し、さらに、取得した画像を記憶する。
【0036】マッチング処理部13は、入力画像の中か
ら、図7に示すように、局所画像と同一サイズの画像
(部分画像)をX方向とY方向に順次1画素ずつシフト
しながら順次切り出す。マッチング処理部13は、パタ
ーンモデル作成時と同様にして、各部分画像を固有空間
に投射する。すると、切り出された各部分画像は、固有
空間上で1つの点で表される。そして、この点と各局所
画像のパターンモデルとの回転角θの変化による距離D
Ai(θ)を求める。この距離DAi(θ)は、局所部分A
i(i=1,2,3)のパターンモデルにおける一致度
を表す指標である。
【0037】確率算出部14は、マッチングの結果得ら
れた各(X,Y)座標位置における一致度を用いて、任
意の回転角θに関して、その位置の部分画像がその局所
画像に一致する確率Ppatternを数7に従って求める。
【0038】
【数7】 ここで、σ1は任意の定数である。
【0039】例えば、図7に示す(0,0)座標での部
分画像を固有空間に投影した時、局所部分A1のパター
ンモデルに着目すると、このパターンについて距離DA1
(θ)が求められ、この距離DA1(θ)を用いて数7に
従って局所部分A1についての確率Ppatternが算出さ
れる。この確率Ppatternはθに対する関数となる。
【0040】次に、確率算出部14は、各部分画像につ
いて、数8により新たな座標(α,β)を、任意の回転
角θに関して設定する。
【数8】 (α,β)=(X,Y)−(xAi(θ),yAi(θ))
(i=1,2,3)
【0041】図8に示すように、(X,Y)は入力画像
内の部分画像の座標であり、(xAi(θ),y
Ai(θ))は任意のθにおいて、ロケーションモデルに
記述されているモデル作成用画像内の局所画像の位置で
あり、(α,β)は入力画像内の部分画像の基準点の座
標である。
【0042】マッチングが正確に行われていれば、各局
所部分についての一致度の高い場所は、同一の座標
(α,β)を示す。次に、数9に従って、新たな座標
(α,β)が抽出対象物の基準位置である確率P
locationを求める。
【0043】
【数9】 ここでσ2は任意の定数である。
【0044】この確率Plocationは、座標(X,Y)の
位置の部分画像がいずれかの局所画像に正確にマッチン
グしている場合に、抽出対象物の基準点が座標(α,
β)に位置し、抽出対象物の角度がθである確率を表
す。
【0045】続いて、確率算出部14は、Ppattern
locationとの対応するもの同士を乗算してPpattern
・Plocationを算出し、パラメータ空間(α,β,θ)
における確率分布を生成する。即ち、(X,Y)位置の
部分画像に基づいて、座標(α,β)に抽出対象物の基
準点が位置し、且つ、その回転角がθである確率の分布
を算出する。この確率分布は、例えば、図9に模式的に
示すような分布となる。なお、図9において、符号P1
〜P4はそれぞれ確率を示す。
【0046】確率算出部14は、入力画像の全ての位置
における部分画像に対して確率分布を計算する。従っ
て、入力画像内の部分画像の数をmとすると、局所部分
(A1〜A3)毎にm組の確率分布が得られる。
【0047】局所情報内統合部15は、同一の局所部分
について得られた全ての確率分布の和をとり、パラメー
タ空間内に新たに確率分布を生成する。この結果、各局
所部分につき、パラメータ空間上に1つの確率分布が得
られる。上述の椅子の例では、局所部分A1〜A3につ
いて、それぞれ、確率分布が得られる。
【0048】局所情報間統合部16は、局所情報内統合
部15により得られた局所部分毎の確率分布を、ベイズ
の枠組みにより統合する。局所情報内統合部15が得た
各確率分布を確率密度関数pk(α,β,θ)=f
k(α,β,θ)(ただし、k=1,2,・・・,nは局所
部分を示す番号)で表すと、統合後の確率分布は、数1
0で表される。
【0049】
【数10】
【0050】数10により、逐次確率を統合して、最終
的に得られた確率分布pn(α,β,θ)が全ての情報
を統合した確率分布となる。なお、p0は初期の事前確
率であり、無知識の場合は、均等確率を用いる。
【0051】最後に、物***置決定部17は、最終的に
得られたパラメータ空間の確率分布において、最も高い
確率を示す場所(αhigh,βhigh,θhigh)を決定し、
これを出力する。(α,β)はモデル作成用画像の座標
系(x,y)の原点に対応する。従って、入力画像の座
標(αhigh,βhigh)の位置が抽出対象物の基準点とな
る。また、θhighは入力画像から抽出された抽出対象物
の回転角を表す。
【0052】以上説明したように、この実施形態におい
ては、抽出対象物の各局所部分について、撮像環境によ
る変化をパラメータとして反映した局所モデルを予め作
成する。そして、入力画像の各部分画像について、各局
所モデルとのマッチングを行い、各部分画像がどの程度
局所モデルに一致しているかという観点から、画像の位
置情報も含めたパラメータ空間において位置対象物の位
置を確率的に表示する。最後にこれらの確率を統合し、
パラメータ空間内で最も確率の高い部分を抽出すること
により、入力画像内の抽出対象物の位置及び回転角を抽
出する。
【0053】このような手法を採用することにより、局
部情報の組み合わせの検証を逐次行うことなく、少数で
も高い確率で真値を示す情報があれば良好な結果が得ら
れる。さらに、撮影環境による変化も考慮して安定的に
抽出対象物の位置を抽出することができる。
【0054】従って、例えば、図10に示すように、他
の物体により抽出対象物の一部が隠されているため、局
所部分A2の情報が欠落した場合でも、局所部分A1と
A3の画像に基づいて、抽出対象物の位置及び回転角が
高い確率で得られる。従って、情報の欠落等に影響され
ず、安定的に抽出対象物の位置を抽出することができ
る。
【0055】なお、上記実施形態では、演算速度を高速
化するため、入力された画像を、パイプライン的に、各
処理部で順次演算する例を示したが、図11に示す構成
の画像処理装置により、演算処理を順次行うようにして
もよい。
【0056】また、上記実施形態においては、各局所部
分のパターンモデルについての一致度DAi(θ)を求
め、各局所部分について確率分布を求めた。しかし、例
えば、各部分画像について、最も一致度が高いパターン
モデルを求め、このモデルを用いて以後の計算を行って
もよい。例えば、ある部分画像を固有空間上に射影した
際に、最も近似する(距離D(θ)の最小値が得られ
た)パターンモデルが局所部分A1のパターンモデルで
ある場合に、局所部分A1のパターンモデルのD(θ)
を用いて以後の確率計算を行うようにしてもよい。この
ような手法を採用することにより、以後の確率分布の計
算に要する時間を短縮することができ、局所部分の数が
多い場合等に有効である。
【0057】図示するように、この画像処理装置は、C
PU31と、RAM32、ROM33、補助記憶装置3
4、撮像装置35、入出力装置36、これらを相互に接
続するバス37を備える。
【0058】CPU31は、RAM32及びROM33
に記憶された制御プログラムに従って動作し、演算処理
及び制御処理を実行する。RAM32は、主メモリ及び
拡張メモリ等を含み、処理対象のデータ、制御プログラ
ム等を記憶する。ROM33は、固定データ、固定制御
プログラム等を記憶する。補助記憶装置34は、ハード
デスク装置、フロッピーデスク装置、CD−ROM装置
等から構成され、CPU31の動作プログラム、モデル
等を記憶しており、RAM32にこれらのデータを必要
に応じて転送する。撮像装置35は、処理対象の画像デ
ータを取得し、RAM32に転送する。入出力装置36
は、制御情報を入力すると共に抽出された物体の位置、
回転角度等を出力する。
【0059】次に、図11の画像処理装置の動作を図1
2のフローチャートを参照して説明する。先ず、パター
ンモデル、ロケーションモデル等は補助記憶装置34に
格納されており、必要に応じてRAM32に転送され
る。また、入力画像(処理対象の画像データ)は、撮像
装置35により取得され、RAM32に格納されている
ものとする。
【0060】この場合、CPU31は、入力画像から部
分画像を切り出し(ステップS1)、予め用意されてい
る各パターンモデルとマッチングを行い、最も高い一致
度を示すパターンモデルを求める(ステップS2)。続
いて、全ての部分画像について、マッチング処理が終了
したか否かを判別し(ステップS3)、終了するまでマ
ッチング処理を繰り返す。
【0061】全ての部分画像について、マッチング処理
が終了したとステップS3で判断されると、各部分画像
について、確率Ppatternと、Plocationと、これらの
積Pp attern・Plocationとを求める(ステップS4,
S5、S6)。続いて、全ての部分画像について、確率
算出処理が終了したか否かを判別し(ステップS7)、
終了するまで確率算出処理を繰り返す。
【0062】全ての部分画像について、確率算出処理が
終了したとステップS7で判断されると、各局所部分に
ついて、確率Ppattern・Plocationを統合し、局所部
分毎の、パラメータ空間内の確率分布を求める(ステッ
プS8)。続いて、各局所部分の確率分布が統合され、
最終的な確率分布が求められる(ステップS9)。最終
的な確率分布中の確率が最大値を示す位置の座標(α
high,βhigh)及び回転角θhighを入出力装置36を介
して出力する(ステップS10)。
【0063】このような構成とすることにより、処理プ
ログラム及びモデル(又は、これらのモデルを作成する
ためのプログラム等)をフロッピーディスク、CD−R
OM等に格納させておき、必要に応じて補助記憶装置3
4に装着することにより、撮像装置等を備える汎用コン
ピュータを画像処理装置として機能させることも可能で
ある。
【0064】なお、上記実施形態では、理解を容易にす
るため、抽出対象物として椅子、局所部分が3つの例を
示したが、抽出対象物、入力画像のサイズ、局所部分の
サイズ及び数などは一切限定されない。
【0065】また、確率分布の計算式も数8〜数10に
限定されない。数8〜数10以外の算出式に基づいて確
率分布を算出してもよい。
【0066】また、上記実施例においては、抽出対象物
の画像の変化を制御するパラメータの1つとして回転角
θを採用したが、抽出対象物の画像のサイズ、明るさ、
色の変化等をパラメータとして採用してもよい。この場
合、導入したパラメータに基づいたパターンモデル及び
ロケーションモデルを同様に作成して、マッチング及び
確率算出に使用する。
【0067】また、抽出対象物は1種類である必要はな
い。複数の抽出対象物の局所画像のモデルをモデル記憶
部12又はRAM32に記憶させておき、これらと入力
画像とを比較して抽出対象物毎に確率分布を求め、最も
高い確率が得られる抽出対象物とその位置を出力するよ
うにしてもよい。
【0068】
【発明の効果】以上説明したように、この発明の画像処
理装置及び画像処理方法によれば、正確に任意の画像か
ら抽出対象物を抽出し、その位置を判別することができ
る。
【図面の簡単な説明】
【図1】この発明の一実施形態にかかる画像処理装置の
構成を示す回路ブロック図である。
【図2】回転角θに応じて画像の見え方が変化する様子
を例示する図である。
【図3】抽出対象物と局所部分とを示す図である。
【図4】パターンモデルの作成方法を説明する図であ
る。
【図5】ロケーションモデルの作成方法を説明する図で
ある。
【図6】入力画像の一例を示す図である。
【図7】入力画像から部分画像を切り出す処理を説明す
る図である。
【図8】入力画像の座標系と、モデル作成用画像の座標
系との関係を示す図である。
【図9】パラメータ空間上の確率分布の一例を模式的に
示す図である。
【図10】入力画像に含まれる抽出対象物の一部が他の
物体により隠されている事例を示す図である。
【図11】画像処理装置の他の構成例を示す回路ブロッ
ク図である。
【図12】図11に示す画像処理装置の動作を説明する
ためのフローチャートである。
【符号の説明】
11・・・画像入力部、12・・・モデル記憶部、13・・・マ
ッチング処理部、14・・・確率算出部、15・・・局所情報
内統合部、16・・・局所情報間統合部、17・・・物***置
決定部、21・・・局所情報統合部、31・・・CPU、32
・・・RAM、33・・・ROM、34・・・補助記憶装置、3
5・・・撮像装置、36・・・入出力装置、37・・・バス

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】抽出対象物の複数の局所部分のモデルを記
    憶するモデル記憶手段と、 画像を入力する画像入力手段と、 前記モデル記憶手段に記憶された各モデルと、前記画像
    入力手段の入力画像の各部との一致度を算出するマッチ
    ング手段と、 前記マッチング手段により算出された各一致度に基づい
    て、抽出対象物の位置の確率分布を求める局所情報統合
    手段と、 前記局所情報統合手段により算出された確率分布の中の
    確率が最も高い位置を抽出対象物の位置として出力する
    出力手段と、 を備えることを特徴とする画像処理装置。
  2. 【請求項2】前記モデル記憶手段は、撮像環境による変
    化をパラメータとして反映した各局所部分の画像のモデ
    ルを記憶し、 前記マッチング手段は、前記入力画像から前記局所部分
    と同一サイズの部分画像を順次切り出し、各局所部分の
    モデルとの一致度を求め、 前記局所情報統合手段は、前記マッチング手段により求
    められた一致度を用いて、画像の位置情報を含めたパラ
    メータ空間において、抽出対象物の位置の確率分布を求
    める、 ことを特徴とする請求項1に記載の画像処理装置。
  3. 【請求項3】前記局所情報統合手段は、 各部分画像について、前記マッチング手段により各モデ
    ルについて算出された一致度を用いて、部分画像毎に、
    前記入力画像内の前記抽出対象物の位置の確率の分布を
    求める確率算出手段と、 局所部分毎に前記確率算出手段により算出された確率分
    布を統合する第1の統合手段と、 前記第1の統合手段により統合された確率分布を統合す
    る第2の統合手段と、 より構成されることを特徴とする請求項2に記載の画像
    処理装置。
  4. 【請求項4】前記モデル記憶手段は、抽出対象物の異な
    る回転角θに対する各局所部分の画像の変化を、所定の
    固有ベクトルで表した固有空間で、曲線として表現する
    第1のモデルと、抽出対象物の異なる回転角θに対する
    各局所部分の位置を曲線で表現する第2のモデルと、を
    記憶し、 前記マッチング手段は、前記画像入力手段により入力さ
    れた画像の各部の画像を前記固有空間に射影した時に、
    射影点と前記第1のモデルの曲線との距離から第1のモ
    デルとの一致度を算出し、 前記統合手段は、入力画像の各部の画像について、前記
    マッチング手段により第1のモデルについて算出された
    一致度に基づいて、第1の確率分布を設定し、対応する
    第2のモデルに基づいて第2の確率分布を設定し、前記
    第1と第2の確率分布を乗算し、乗算により得られた部
    分画像毎の確率分布を統合する、 ことを特徴とする請求項1、2又は3に記載の画像処理
    装置。
  5. 【請求項5】前記局所情報統合手段は、位置と回転角θ
    をパラメータとするパラメータ空間上の確率分布を求
    め、 前記出力手段は、最も高い確率が得られた位置情報と回
    転角θを出力する、 ことを特徴とする請求項4に記載の画像処理装置。
  6. 【請求項6】前記モデル記憶手段は、複数の抽出対象物
    の局所部分の画像のモデルを記憶し、 前記局所情報統合手段は、各抽出対象物の位置の確率分
    布を求め、 前記出力手段は、最も高い確率が得られた抽出対象物と
    その位置を示す情報を出力する、 ことを特徴とする請求項1乃至5のいずれか1つに記載
    の画像処理装置。
  7. 【請求項7】画像を入力する画像入力ステップと、 予め用意された抽出対象物の複数の局所部分のモデルと
    前記画像入力ステップにより入力された画像の各部との
    一致度を算出するマッチングステップと、 マッチングステップにおいて算出された一致度に基づい
    て、抽出対象物の位置の確率分布を求める確率算出ステ
    ップと、 前記確率算出ステップにより算出された確率分布を統合
    する統合ステップと、 前記統合ステップにより統合された確率分布中の最も確
    率が高い位置を抽出対象物の位置として出力する出力ス
    テップと、 を備えることを特徴とする画像処理方法。
JP7169039A 1995-07-04 1995-07-04 画像処理装置及び画像処理方法 Pending JPH0921610A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7169039A JPH0921610A (ja) 1995-07-04 1995-07-04 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7169039A JPH0921610A (ja) 1995-07-04 1995-07-04 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JPH0921610A true JPH0921610A (ja) 1997-01-21

Family

ID=15879188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7169039A Pending JPH0921610A (ja) 1995-07-04 1995-07-04 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JPH0921610A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101405A (ja) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd 画像認識方法及び画像認識装置
US6999623B1 (en) 1999-09-30 2006-02-14 Matsushita Electric Industrial Co., Ltd. Apparatus and method for recognizing an object and determining its position and shape
JP2006155594A (ja) * 2004-11-08 2006-06-15 Toshiba Corp パターン認識装置、パターン認識方法
JP2008508513A (ja) * 2004-07-30 2008-03-21 イーグル・ヴィジョン・システムズ・ベスローテン・フェンノートシャップ 容器を検査する装置及び方法
JP2011210054A (ja) * 2010-03-30 2011-10-20 Secom Co Ltd 対象物検知装置及びその学習装置
JP2014135092A (ja) * 2009-06-18 2014-07-24 Canon Inc 画像認識方法及び画像認識装置
KR20150108567A (ko) * 2014-03-18 2015-09-30 에스케이플래닛 주식회사 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US20220152453A1 (en) * 2019-03-18 2022-05-19 Nippon Telegraph And Telephone Corporation Rotation state estimation device, method and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101405A (ja) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd 画像認識方法及び画像認識装置
US6999623B1 (en) 1999-09-30 2006-02-14 Matsushita Electric Industrial Co., Ltd. Apparatus and method for recognizing an object and determining its position and shape
US7054489B2 (en) 1999-09-30 2006-05-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for image recognition
JP2008508513A (ja) * 2004-07-30 2008-03-21 イーグル・ヴィジョン・システムズ・ベスローテン・フェンノートシャップ 容器を検査する装置及び方法
JP4724182B2 (ja) * 2004-07-30 2011-07-13 イーグル・ヴィジョン・システムズ・ベスローテン・フェンノートシャップ 容器を検査する方法及び装置
JP2006155594A (ja) * 2004-11-08 2006-06-15 Toshiba Corp パターン認識装置、パターン認識方法
JP2016001489A (ja) * 2009-06-18 2016-01-07 キヤノン株式会社 画像認識方法及び画像認識装置
JP2014135092A (ja) * 2009-06-18 2014-07-24 Canon Inc 画像認識方法及び画像認識装置
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US10891329B2 (en) 2009-06-18 2021-01-12 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2011210054A (ja) * 2010-03-30 2011-10-20 Secom Co Ltd 対象物検知装置及びその学習装置
KR20150108567A (ko) * 2014-03-18 2015-09-30 에스케이플래닛 주식회사 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
US20220152453A1 (en) * 2019-03-18 2022-05-19 Nippon Telegraph And Telephone Corporation Rotation state estimation device, method and program

Similar Documents

Publication Publication Date Title
CN109859296B (zh) Smpl参数预测模型的训练方法、服务器及存储介质
CN110675487B (zh) 基于多角度二维人脸的三维人脸建模、识别方法及装置
US10762704B2 (en) Method for establishing a deformable 3D model of an element, and associated system
US7324670B2 (en) Face image processing apparatus and method
CN110659582A (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
KR20210002606A (ko) 의료 영상 처리 방법 및 장치, 전자 기기 및 저장 매체
JP6624794B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109934847B (zh) 弱纹理三维物体姿态估计的方法和装置
JP2000306095A (ja) 画像照合・検索システム
EP3905194A1 (en) Pose estimation method and apparatus
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
Ozbay et al. A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms
CN111680573B (zh) 人脸识别方法、装置、电子设备和存储介质
JPH0921610A (ja) 画像処理装置及び画像処理方法
CN117372604B (zh) 一种3d人脸模型生成方法、装置、设备及可读存储介质
JP2000099760A (ja) 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
CN112270748B (zh) 基于图像的三维重建方法及装置
JPH1115945A (ja) 画像処理装置及び方法、及び、危険物検出システム及び方法
Boukamcha et al. A real-time auto calibration technique for stereo camera
JP7405448B2 (ja) 画像処理方法及び画像処理システム
JP2020101922A (ja) 画像処理装置、画像処理方法およびプログラム
Jankó et al. Registration of an uncalibrated image pair to a 3D surface model
JP7369247B2 (ja) 情報処理装置、情報処理方法およびプログラム
TWI776668B (zh) 影像處理方法及影像處理系統
WO2024019032A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム