JP2007141107A - 画像処理装置およびその方法 - Google Patents
画像処理装置およびその方法 Download PDFInfo
- Publication number
- JP2007141107A JP2007141107A JP2005336395A JP2005336395A JP2007141107A JP 2007141107 A JP2007141107 A JP 2007141107A JP 2005336395 A JP2005336395 A JP 2005336395A JP 2005336395 A JP2005336395 A JP 2005336395A JP 2007141107 A JP2007141107 A JP 2007141107A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- image processing
- processing method
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 顔の特徴点の座標や格子状に分割した座標を用いて主成分分析を行っても、これら物理的特徴の変動には非線形の要素があるため、次元数は減らなかった。
【解決手段】 画像内に存在する物体の二次元画像を合成する際に参照されるモデル画像を合成パラメータに基づいて合成する。このとき、該合成パラメータは、例えば顔画像における目領域等、前記モデル画像を区分した複数の領域内における局所的な座標系に基づいて、該モデル画像の特徴点を示す情報を主成分分析することによって、効率的な次元圧縮がなされている。したがって、モデル画像においてより少ない次元数による形状表現が可能となる。
【選択図】 図3D
【解決手段】 画像内に存在する物体の二次元画像を合成する際に参照されるモデル画像を合成パラメータに基づいて合成する。このとき、該合成パラメータは、例えば顔画像における目領域等、前記モデル画像を区分した複数の領域内における局所的な座標系に基づいて、該モデル画像の特徴点を示す情報を主成分分析することによって、効率的な次元圧縮がなされている。したがって、モデル画像においてより少ない次元数による形状表現が可能となる。
【選択図】 図3D
Description
本発明は画像処理装置およびその方法に関し、特に、画像内の物体認識処理を行う画像処理装置およびその方法に関する。
近年、デジタルカメラや、携帯電話、デジタルビデオカムコーダ等が低価格で市場に投入されている。また、テレビチューナーカード、MPEG2、MPEG4に代表される動画圧縮技術がハードウェア化されたエンコーダ、デコーダカードの登場により、パーソナルコンピュータ(PC)がビデオデッキとしての機能を実現している。このようなPCではさらに、インターネットを通じた動画配信など、手軽に大量のデジタル動画・画像が入手可能である。
ハードディスクや光ディスクの大容量化により、普及価格帯のPCでも大量の動画・画像を蓄積することが可能であるが、蓄積されたコンテンツから、内容が類似している動画の箇所や画像を検索したいというニーズが増している。中でも被写体が同じ画像を探したいという検索ニーズが高い。
被写体が同じ画像を探すには、まず、画像から被写体、特に顔領域を検出することが必要である。顔検出技術としては、カーネギーメロン大学のRowley氏らが提案したニューラルネットワークを用いた手法などが知られており、この手法によれば、画像中の顔の位置、大きさ、回転角度などが得られる。
また、検出された顔が誰であるかを判別する顔認識技術としては、国際規格としてMPEG7(Moving Pictures Experts Group−7)の一部である顔認識記述子が存在する。これは、画像から顔領域を切り出して正規化した顔画像の輝度画像に対して、輝度情報や周波数空間に変換した情報を用いている。すなわち、主成分分析や線形判別分析を組み合わせて、顔画像の特徴量を抽出するための基底ベクトルを求め、線形射影することで顔特徴量を抽出している。この方法では、両目を基準として顔を切り出しており、周波数空間へ変換することで多少の位置のずれにも対応できるが、顔の各器官同士の対応が取れていないことによる性能劣化という問題がある。
顔の各器官の対応を合わせるように変形する手法として、特許文献1やマンチェスター大学のCootes氏らが提案したAAM(アクティブアピアランスモデル)がある。
前者は顔画像に対して格子状の基準点を設定し、基準点の変異量行列を遺伝的手法によって更新しながら変形して、基準画像と入力画像をマッチングするものである。各基準点の変異量が顔画像の特徴量となる。
また、後者は大量の2次元の顔画像データベースを用意し、画像中の各顔について複数の特徴点の座標と輝度値等から形状情報とテクスチャ情報とを抽出し、抽出した複数の形状情報とテクスチャ情報の平均を求めたものを平均顔とする。そして、各顔画像の平均顔からの差分を主成分分析を行ない、形状や表情の変化に対応した部分空間を求める。そして、求めた部分空間のそれぞれの座標軸に沿って合成パラメータを変化させることにより、顔画像を合成する。このモデルを画像認識方法として用いる場合には、先に求めた部分空間内で合成パラメータを動かして画像を合成し、入力された認識の対象となる顔画像との差が最も小さくなるときの合成画像についての合成パラメータを求める。
入力された顔画像に相関の高い合成顔画像の合成パラメータは、以下の手法によって求められる。すなわち、入力された顔画像と合成された顔画像の差分情報からパラメータの修正量へ射影するための行列を予め求めておき、差分評価とパラメータの更新、顔の再合成を繰り返す。またこの時、マルチ解像度の手法を用い、1段で解像度の比が半分になるような解像度を多段用意し、各解像度で射影行列を求めておく。そして粗い解像度で、入力画像に合成顔画像を近似させ、一段ずつ解像度を上げながら近似を繰り返し、最終的な解像度で、入力画像に相関の高い合成パラメータを得ている。
特開2000−113197号公報
上記従来の顔表現モデルでは、顔の形状を表すために、顔の特徴点の座標や格子状に分割した座標を用いて主成分分析を行っていた。これらの物理的特徴の変動には非線形の要素があり、これが主成分分析を行っても次元数が減らない原因となっていた。
本発明は上述した問題を解決するためになされたものであり、画像合成の際に参照されるモデル画像において、より少ない次元数による形状表現を可能とする画像処理装置およびその方法を提供することを目的とする。
上記目的を達成するための一手法として、本発明の画像処理方法は以下の工程を備える。
すなわち、画像内に存在する物体の二次元画像を合成する際に参照されるモデル画像を構築する画像処理方法であって、前記モデル画像の合成パラメータを設定する設定ステップと、前記設定ステップにおいて設定された合成パラメータに基づいてモデル画像を合成する合成ステップと、を有し、前記合成パラメータは、前記モデル画像を区分した複数の領域内における局所的な座標系に基づいて、該モデル画像の特徴点を示す情報を主成分分析して次元圧縮されていることを特徴とする。
以上の構成からなる本発明によれば、画像合成の際に参照されるモデル画像における次元圧縮効果が高くなり、より少ない次元数による形状表現が可能となる。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の各実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<第1実施形態>
●装置構成
図1は、本実施形態に係る画像処理装置の構成を示すブロック図である。本実施形態の画像処理装置において、201はROM202やRAM203に格納されたプログラムに従って命令を実行するCPUである。202は本実施形態の動作を実現するプログラムやその他の制御に必要なプログラムやデータを格納するROM、203は一時的にデータを格納するための作業エリアとして利用されるRAMである。204はIDEやSCSIなどの外部記憶装置とのインターフェースを実現するドライブI/F、205は画像や画像検索のための特徴量やプログラムなどを記憶する記憶装置としてのHDDである。206はデジタルカメラやスキャナなどの装置から画像を入力する画像入力部、208はキーボードやマウスなど、オペレータからの入力を受ける操作入力部である。209はブラウン管や液晶ディスプレイなどの表示部、210はインターネットやイントラネットなどのネットワークと接続を行なうモデムやLANなどのネットワークI/Fである。211はバスであり、上記各構成を接続して相互のデータ入出力を可能とする。
●装置構成
図1は、本実施形態に係る画像処理装置の構成を示すブロック図である。本実施形態の画像処理装置において、201はROM202やRAM203に格納されたプログラムに従って命令を実行するCPUである。202は本実施形態の動作を実現するプログラムやその他の制御に必要なプログラムやデータを格納するROM、203は一時的にデータを格納するための作業エリアとして利用されるRAMである。204はIDEやSCSIなどの外部記憶装置とのインターフェースを実現するドライブI/F、205は画像や画像検索のための特徴量やプログラムなどを記憶する記憶装置としてのHDDである。206はデジタルカメラやスキャナなどの装置から画像を入力する画像入力部、208はキーボードやマウスなど、オペレータからの入力を受ける操作入力部である。209はブラウン管や液晶ディスプレイなどの表示部、210はインターネットやイントラネットなどのネットワークと接続を行なうモデムやLANなどのネットワークI/Fである。211はバスであり、上記各構成を接続して相互のデータ入出力を可能とする。
本実施形態の画像処理装置は、PCにオペレーティングシステムとしてマイクロソフト社のWINDOWS(登録商標) XP(登録商標)がインストールされ、その上で動作するアプリケーションとして実装される。
●顔モデル
図2に、本実施形態における顔モデルの概要を示し、説明する。同図に示すように顔モデルは、形状情報301、テクスチャ情報302、拘束条件303、パラメータ更新テーブル304から構成される。形状情報301は、多数の顔画像から得られる形状ベクトルの平均と、該平均からの変位について主成分分析した部分空間の形状基底ベクトルから構成される。テクスチャ情報302は、多数の顔画像から得られる画像の輝度平均と、該平均からの変位について主成分分析した部分空間のテクスチャ基底ベクトルから構成される。拘束条件情報303は、形状ベクトルの各次元において取りうる範囲である最大値と最小値を示す。パラメータ更新テーブル304は、256×256,128×128,64×64,32×32,16×16,8×8の解像度ごとに、テーブルを有する。
図2に、本実施形態における顔モデルの概要を示し、説明する。同図に示すように顔モデルは、形状情報301、テクスチャ情報302、拘束条件303、パラメータ更新テーブル304から構成される。形状情報301は、多数の顔画像から得られる形状ベクトルの平均と、該平均からの変位について主成分分析した部分空間の形状基底ベクトルから構成される。テクスチャ情報302は、多数の顔画像から得られる画像の輝度平均と、該平均からの変位について主成分分析した部分空間のテクスチャ基底ベクトルから構成される。拘束条件情報303は、形状ベクトルの各次元において取りうる範囲である最大値と最小値を示す。パラメータ更新テーブル304は、256×256,128×128,64×64,32×32,16×16,8×8の解像度ごとに、テーブルを有する。
以下、顔モデルの各部について、その構築手順を説明する。なお、顔画像を統計的に処理するため、本実施形態の顔モデルの構築にあたっては、予め大量の顔画像を含む画像を用意しておく。
・顔の特徴点
まず、形状情報301を構築するために必要となる、本実施形態における顔の特徴点の設定方法について、図3A〜図3Fを用いて説明する。
まず、形状情報301を構築するために必要となる、本実施形態における顔の特徴点の設定方法について、図3A〜図3Fを用いて説明する。
図3A〜図3Fは、正面を向いた顔における形状情報の一例を示す図である。本実施形態では、顔の部分によってローカルな座標系を定義し、該ローカルな座標系で特徴点の取りうる範囲を限定し、この限定された条件の下で座標が特定可能な情報を形状ベクトルとして、顔の特徴点を表現する。
図3Aは、顔座標の例を示す図である。顔座標は、両目の中心を結ぶ線をX軸、両目の中央で直交する直線をY軸とする平面であり、原点から目の中心までの長さを1単位とする。
図3Bは、目部分の詳細を示す図である。目の中心は、目頭と目尻を結ぶ線分の中心としている。左目におけるこの線分の長さをL1、両目の中心を結ぶ線とのなす角度をA1、この線分を4等分した点から垂直方向に伸ばした線分と瞼との交点までの長さをL2からL7としている。右目についても左目と同数のパラメータが設定される。すなわち、図3BのL1に対応するL8から、L7に対応するL14、およびA1に対応するA2が設定される。
図3Cは、鼻付近の詳細を示す図である。顔座標系における鼻の最下部の位置P1を原点とし、そこから両目を結ぶ線分の中央を結ぶ線をY軸とし、X軸は原点でY軸と直行させる。両目を結ぶ線分の中央との交点をY=1とする鼻座標系を定義し、鼻座標系における鼻の特徴点をP2,またP2からの相対でP3をあらわす。また鼻の端を向かって右端をP4とし、P3からの相対座標であらわす。P2,P3は鼻の穴がある場合はその端にあたるようにし、ない場合にはP1−P2,P2−P3,P3−P4が等しい長さになる間隔で、鼻のエッジに沿って設定する。鼻の右側部分についても同様に、P5〜P7を設定する。また、鼻の穴が存在するときには穴のエッジ上にP8、P9を設定し、なければ鼻のエッジ上でP2とP3間を2分する箇所に設定する。
図3Dは、眉毛付近の詳細を示す図である。眉毛の目頭側端とその下の目の中心を結ぶ線と、両目の中心間を結ぶ線のなす角度をA3,また、眉毛の目頭側端とその下の目の中心を結ぶ線と、眉毛の目尻側端とその下の目の中心を結ぶ線とのなす角度をA4とする。そして、角度A4を4等分する3本の線を引き、眉のエッジとの交点を特徴点とする。各特徴点から目中心までの長さL8〜12、まゆの幅L13〜L15を設定する。右の眉毛も同様に、A5,A6およびL16〜L23を設定する。眉毛の表現は局座標系での座標と等価である。
図3Eは、口領域の詳細を示す図である。口領域には鼻座標系を用いる。鼻座標系のY軸上で上唇の上部をP11とし、上唇の下部P12をP11からの相対で、下唇の上部P13をP12からの相対で、下唇の下部P14をP13からの相対であらわす。また、唇の向かって右端をP15とし、P11〜P15までの唇のエッジ上を4等分するようにP16〜P18を定める。同様に、P12〜P15間にP19〜P21を設定し、下唇も同様にP22〜P27を設定する。ここで、P16〜P27の各座標は、左隣の特徴点からの相対座標で表すとする。唇の向かって左側についても同様に、P28〜P40を設定する。
図3Fは顔の輪郭を示す図である。顔の輪郭は、鼻座標系と原点を同じくした局座標系と等価である。鼻座標系(図3C)におけるP1を中心とする局座標において、P11方向を0とし、−5/8πから5/8πラジアンの範囲を1/8単位で等分し、顔の輪郭の中心(P1)からの距離をL28〜L33で示す。
本実施形態における顔の特徴点は、以上のように設定される。
以下、図2に示す顔モデルの各構成について、その構築方法について詳細に説明する。 ・形状情報の構築手順
形状情報301を構築するために、形状ベクトルxを以下のように設定する。
形状情報301を構築するために、形状ベクトルxを以下のように設定する。
X = {A1,...,A6,L1,・・・,L33,P1x,P1y,P2x,P2y,...,P40x,P40y}
また、顔座標軸上における各特徴点からなる特徴点座標ベクトルsを以下のように設定する。
また、顔座標軸上における各特徴点からなる特徴点座標ベクトルsを以下のように設定する。
s = {x1,x2,・・・・,y1,y2,・・・}
以下、形状情報301の構築手順について、図4のフローチャートを用いて説明する。 まずステップS501では、顔画像が存在する対象画像を表示部209に表示する。次にステップS502で、画像中の顔画像における両目の座標を、入力部208から指定する。ここで指定される座標系は、画像の左上を原点とするXY座標系である。次にステップS503でアフィン変換を行って、ステップS502で指定した目の座標が所定の位置になるように顔画像の切り出しを行なう。
以下、形状情報301の構築手順について、図4のフローチャートを用いて説明する。 まずステップS501では、顔画像が存在する対象画像を表示部209に表示する。次にステップS502で、画像中の顔画像における両目の座標を、入力部208から指定する。ここで指定される座標系は、画像の左上を原点とするXY座標系である。次にステップS503でアフィン変換を行って、ステップS502で指定した目の座標が所定の位置になるように顔画像の切り出しを行なう。
次にステップ504で、顔画像上における各特徴点座標を入力部208から指定する。そして、指定された特徴点の座標を上述したローカル座標系に変換し、形状情報に変換する。ここで、拡大表示を行ったり均等の角度や間隔で設定されるべき特徴点については、その都度ガイドラインを表示したり、計算によって位置の微調整を行なうことで、入力誤差を低減することができる。
1つの顔画像について全ての特徴点の指定が終了したらステップS505に進み、画像上での両目座標、また、形状ベクトル、画像ファイル名と対応付けてHDD205に記録する。
次にステップS506に進み、すべての顔画像に対して特徴点の指定が終了したか否かを判定し、未設定の顔画像があればステップS501に戻るが、すべて終了していればステップS507に進む。
ステップS507では、前段で指定したすべての顔画像について、各特徴点の平均的な座標(平均形状)を求める。次にステップS508に進み、所定の各サンプル点における平均形状からの差分により、差分形状ベクトルを生成する。次にステップS509に進み、全サンプルの形状ベクトルについて主成分分析を行なう。この結果、寄与率の大きいものから順に寄与率の合計が所定の割合になるまでの主成分からなる、部分空間のための基底行列を得る。この基底行列がすなわち、形状基底ベクトルとなる。
そしてステップS510において、得られた平均形状および形状基底ベクトルを形状情報301として、HDD205に記録する。
・テクスチャ情報の構築手順
以下、テクスチャ情報302の構築手順について、図5のフローチャートを用いて説明する。
以下、テクスチャ情報302の構築手順について、図5のフローチャートを用いて説明する。
まずステップS601では、上記ステップS505でHDD205に記録した1つの顔画像に対応する両目の座標、また、切り出した形状ベクトルを読み出し、アフィン変換によって顔画像を切り出す。
次にステップS602に進み、特徴点が平均の位置に移動するようなモーフィングを行なう。なおモーフィングは次のように表すこととする。
Im = M(I,Ss,Sd) ・・・(1)
なお、(1)式においてImはモーフィングされた合成顔画像、Iは切り出した顔画像、Ssは変換元の特徴点座標列、Sdは変換先の特徴点座標列である。特徴点座標列は切り出した顔画像上での座標となるが、形状ベクトルから一意に求めることができる。
なお、(1)式においてImはモーフィングされた合成顔画像、Iは切り出した顔画像、Ssは変換元の特徴点座標列、Sdは変換先の特徴点座標列である。特徴点座標列は切り出した顔画像上での座標となるが、形状ベクトルから一意に求めることができる。
このようなモーフィングにより、異なる顔の各器官の位置が顔座標系で同じ位置となり、対応付けが確保される。
次にステップS603に進み、マスキングを行なう。すなわち、特徴点平均座標列で示される平均顔形状の顔の輪郭の外側をマスキングし、顔以外の領域をこれ以降で行なわれる処理の対象から除外する。
次にステップS604に進み、輝度分布の正規化を行なう。これは、画像の平均輝度、輝度の分散を所定の値に揃うようにする。また、ヒストグラム平滑化を行って輝度分布を平滑化する処理を行なう。
次にステップS605に進み、すべての顔画像に対して上記モーフィング、マスキング、正規化処理が終了したか否かを判定し、未終了の顔画像があればステップS601に戻るが、全て終了していればステップS606に進む。
ステップS606では、画素ごとに全顔サンプルの平均輝度を求めることによって、平均テクスチャを得る。
次にステップS607に進み、各顔サンプルについて前段で求めた平均輝度との差分を得て、非マスキング画素数からなる輝度差ベクトルを生成する。次にステップS608に進み、全顔サンプル数の輝度差ベクトルを主成分分析する。これを寄与率の大きいものから順に、寄与率の合計が所定の割合になるまでの主成分からなる部分空間のための基底行列を得る。この基底行列がすなわち、テクスチャ基底ベクトルとなる。
そしてステップS609において、得られた平均テクスチャおよびテクスチャ基底ベクトルをテクスチャ情報302として、HDD205に記録する。
・拘束条件情報の構築手順
以下、拘束条件情報303の構築手順について説明する。
以下、拘束条件情報303の構築手順について説明する。
本実施形態の特徴である拘束条件は、実在する可能性が低い顔が合成される確率を低減するために設定される。本実施形態では、形状ベクトルxの各次元の取りうる値の範囲を設定し、これを超えたか否かによって、実在する可能性が低いか否かを判定し、範囲外の場合は範囲内に収まるようクリッピングをかけることで形状ベクトルの修正を行う。具体的には、次に示す(2)式によって判定と修正を行う。
xi ≦ xav i-kσi のとき、
f(xi) = xav i-kσi
xi ≧ xav i+kσi のとき、
f(xi) = xav i+kσi
その他のとき、
f(xi) = xi
・・・(2)
ただし(2)式において、xav iはi番目の次元におけるサンプルの平均であり、σiはi番目の次元におけるサンプルの標準偏差である。また、kは所定の定数であり、実在確率の閾値となる。サンプル顔画像の特徴ベクトルの各次元について値の分布を正規分布で近似しており、たとえば、99.7%を網羅したい場合はk=3である。
f(xi) = xav i-kσi
xi ≧ xav i+kσi のとき、
f(xi) = xav i+kσi
その他のとき、
f(xi) = xi
・・・(2)
ただし(2)式において、xav iはi番目の次元におけるサンプルの平均であり、σiはi番目の次元におけるサンプルの標準偏差である。また、kは所定の定数であり、実在確率の閾値となる。サンプル顔画像の特徴ベクトルの各次元について値の分布を正規分布で近似しており、たとえば、99.7%を網羅したい場合はk=3である。
本実施形態ではすなわち、(2)式におけるxav i-kσiを形状最小値を示す拘束条件情報303として、HDD205に記憶する。同様に、
xav i+kσiを形状最大値を示す拘束条件情報303としてHDD205に記憶する。
xav i+kσiを形状最大値を示す拘束条件情報303としてHDD205に記憶する。
・パラメータ更新テーブルの構築
以下、パラメータ更新テーブル304の構築手順について説明する。
以下、パラメータ更新テーブル304の構築手順について説明する。
パラメータ更新テーブル304の実体は、入力された顔画像と合成された顔画像の差分情報から差分を低減するために、次に合成すべき顔画像の合成パラメータの修正量へ射影するための行列である。この行列を、顔画像に対する256×256,128×128,64×64,32×32,16×16,8×8ピクセルの各解像度において求める。
以下、ある1つの解像度におけるパラメータ更新テーブル304の構築手順を、図6のフローチャートを用いて説明する。
まずステップS701において第1合成パラメータを設定する。ここでは第1合成パラメータとして、顔画像の合成パラメータをランダムに設定する。ただし各パラメータの平均モデルからの変位の上限は、近似成功確率から実験的に求めておく必要がある。
次にステップS702に進んで第2合成パラメータを設定する。第2合成パラメータは、第1合成パラメータの要素の1つを正または負に変更したものとする。変更量は、そのパラメータ要素のデータの分散に基づいて決定するが、実験的に求める必要がある。
次にステップS703に進み、第1および第2合成パラメータに基づいて2つの顔画像を合成する。このとき、本実施形態の特徴である拘束条件が適用されるが、その詳細については後述する。
次にステップS704に進み、2つの合成画像の差分ベクトルを求める。この差分ベクトルは、画素数分の次元で、各画素の輝度差を値とするベクトルである。合成された顔の輪郭と平均の顔とでは顔の輪郭が異なり、画素数も異なる。ここでは、差分ベクトルを集めて行列として扱うために、解像度毎に画素数を一定にする必要がある。そこで、上記ステップS603と同じ形状のマスキングをかけることによって、平均顔の占める領域の画素により差分ベクトルを構成する。
次にステップS705に進み、所定回数のループを行ったか否かを判定する。ループ回数は最低でも顔の差分ベクトルの次元数分必要である。さらにループする必要がある場合はステップS701に戻るが、ループが所定回数に達した場合にはステップS706に進む。
ステップS706では、多変数線形回帰を求める。具体的には、以下に示す行列式(3)となるような射影行列Aを求める。
ΔC = AΔI ・・・(3)
なお、式(3)において、ΔCは第1合成パラメータと第2合成パラメータの差の組、ΔIは対応する合成画像の差分ベクトルの組である。
なお、式(3)において、ΔCは第1合成パラメータと第2合成パラメータの差の組、ΔIは対応する合成画像の差分ベクトルの組である。
射影行列Aは、以下に示す行列式(4)によって導き出すことができる。
A = ΔCΔI+ ・・・(4)
なお、式(4)において、ΔI+はΔIの擬似逆行列である。
なお、式(4)において、ΔI+はΔIの擬似逆行列である。
次にステップS707に進み、求められた射影行列Aをパラメータ更新テーブル304として、HDD205に記録する。
・顔画像の合成方法
以下、上記ステップS703における、合成パラメータを使用した顔画像の合成方法について図7のフローチャートを用いて説明する。
以下、上記ステップS703における、合成パラメータを使用した顔画像の合成方法について図7のフローチャートを用いて説明する。
まずステップS801において、以下の(5)式に示すように、平均テクスチャと主成分毎の強さである合成パラメータの線形和によって、テクスチャGを作成する。
G = gav + P+ gbg ・・・(5)
式(5)において、gavは平均テクスチャ、P+ gはテクスチャの基底ベクトルの擬似逆行列であり、事前に求めておいてよい。bgは輝度の合成パラメータである。
式(5)において、gavは平均テクスチャ、P+ gはテクスチャの基底ベクトルの擬似逆行列であり、事前に求めておいてよい。bgは輝度の合成パラメータである。
次にステップS802に進み、平均形状ベクトルと主成分ごとの強さである合成パラメータの線形和によって、形状ベクトルXを作成する。
X = xav + P+ xbx ・・・(6)
式(6)において、xavは平均形状、P+ xは形状の基底ベクトルの擬似逆行列であり、事前に求めておいてよい。bxは形状の合成パラメータである。
式(6)において、xavは平均形状、P+ xは形状の基底ベクトルの擬似逆行列であり、事前に求めておいてよい。bxは形状の合成パラメータである。
次にステップS803に進み、合成された顔画像が実在する可能性のある顔を示しているか否かを判定する。ここではすなわち式(7)に示すように、合成された形状ベクトルXの各次元の値が所定の範囲内にあるか否かを判定する。このとき、上述した拘束条件情報303(この場合、kσi)が参照される。
|Xi-xav i| ≦ kσi ・・・(7)
ここで、当該顔画像は実在する可能性が無いものであると判定された場合はステップS804に進み、実在し得る場合はステップS805に進む。
ここで、当該顔画像は実在する可能性が無いものであると判定された場合はステップS804に進み、実在し得る場合はステップS805に進む。
ステップS804では、上記式(2)を適用して、合成された顔に近く、実在する可能性のある顔形状ベクトルX'に変換する。
X' ← f(X) ・・・(8)
ステップS805では、式(9)に基づいて形状ベクトルXを顔座標上での特徴点座標に変換する。
ステップS805では、式(9)に基づいて形状ベクトルXを顔座標上での特徴点座標に変換する。
S = S(X') ・・・(9)
また、平均形状ベクトルから平均座標値への変換も同様に行うが、これは式(10)に示すように、平均形状ベクトルxavに基づいて事前に求めておけばよい。
また、平均形状ベクトルから平均座標値への変換も同様に行うが、これは式(10)に示すように、平均形状ベクトルxavに基づいて事前に求めておけばよい。
sav = S(xav) ・・・(10)
次にステップS806において、式(11)に示すように平均的な顔形状から合成された形状へのモーフィングを行なうことによって、合成顔画像Imが得られる。
次にステップS806において、式(11)に示すように平均的な顔形状から合成された形状へのモーフィングを行なうことによって、合成顔画像Imが得られる。
Im = M(G,sav,S) ・・・(11)
なお、ここでは説明を分かりやすくするために、形状とテクスチャの成分を分けて主成分分析を行う例を示したが、これらをまとめて主成分分析を行なって合成パラメータとした方が、次元数が削減できるという効果がある。ただし、ダイナミックレンジが大きく異なる次元が混在している場合には、計算誤差の影響が大きくなるため、ダイナミックレンジをそろえるためのスケーリング調整を行うことが好ましい。
なお、ここでは説明を分かりやすくするために、形状とテクスチャの成分を分けて主成分分析を行う例を示したが、これらをまとめて主成分分析を行なって合成パラメータとした方が、次元数が削減できるという効果がある。ただし、ダイナミックレンジが大きく異なる次元が混在している場合には、計算誤差の影響が大きくなるため、ダイナミックレンジをそろえるためのスケーリング調整を行うことが好ましい。
●画像検索システム
以上、本実施形態における顔モデルの構築方法について説明した。以下、該顔モデルを用いた、本実施形態における画像処理の概要について説明する。
以上、本実施形態における顔モデルの構築方法について説明した。以下、該顔モデルを用いた、本実施形態における画像処理の概要について説明する。
本実施形態では、画像中の顔領域に着目し、与えられたクエリ画像に対して類似した顔が映っている画像を類似画像として出力する画像検索システムを例として説明する。この場合の画像処理としては、検索に必要な画像から特徴量を抽出して記録する画像登録処理と、検索条件が与えられたときに特徴量の照合を行って最も類似した画像を獲得する画像検索処理から構成される。以下、この画像登録処理および画像検索処理のそれぞれについて説明する。
・画像登録処理
本実施形態における画像登録処理を、図8のフローチャートを用いて説明する。
本実施形態における画像登録処理を、図8のフローチャートを用いて説明する。
まずステップS901にて画像入力部206から画像を入力する。次にステップS902に進み、入力された画像から顔領域を検出する。この検出処理としては、上述したRowley氏らによる手法を適用する。次にステップS903に進み、得られる両目の座標から顔の大きさや傾きを補正し、ステップS503と同様に顔画像の切り出しを行なう。次にステップS904に進み、輝度の正規化を行なう。すなわち、輝度分布が一定になるようにヒストグラムの均一化などの処理を行なう。
次にステップS905に進み、特徴抽出を行なう。ここでは入力された顔画像に最も相関の高い合成顔モデルの合成パラメータを決定し、これを特徴量とする。この特徴抽出処理の詳細については後述する。
次にステップS906に進み、特徴抽出処理で得られた合成パラメータをHDD205に記録する。次にステップS907に進み、画像入力部206において未処理の画像が残っていないか判定し、残っていなければステップS908に進むが、処理対象の画像が存在する場合はステップS901に戻る。
ステップS908では、検索時の特徴量間の距離計算を行うために、線形判別分析を行って、判別用の空間の基底ベクトルを求める。線形判別分析は、特徴量のクラス分けを行ない、同一クラス内の特徴量間の距離とクラス間の距離の比が最大になるような判別空間の基底ベクトルを求めるものである。システムの目的に応じて、類似している顔とは同一人物の顔であるとか、類似している顔とは表情が似た顔であるなど、類似している顔を定義し、その定義に従ってクラス分けを行った上で線形判別分析を行なうことで、目的にあった機能が実現される。
判別空間への射影方法としては例えば、下記文献に記載されているような、非線形空間へ射影する技術も知られている。この詳細は下記文献に記載されているため、ここでは詳細な説明を省略する。
J.Lu,K.Plateniotis,and A.Venetsanopoulos;"Face recognition using kernel direct discriminant analysis algorithms"。 IEEE Transactions on Neural Networks,14(1),Jan.2003
本実施形態では、画像入力部206から入力された画像を対象に登録処理を行う例を示したが、本発明はこれに限るものではない。例えば、登録対象となる画像を所定のフォルダに格納し、そのフォルダを指定することによって、該フォルダ下にある画像ファイルを対象として登録処理を行っても良い。この場合、登録処理のプロセスとしては、対象フォルダが新しく追加された場合は全てのファイルを対象に処理するが、その後は、更新されたファイルのみを対象にすればよい。また、バックグラウンドプロセスとして起動しておき、対象フォルダの更新を監視しておくことも可能である。
本実施形態では、画像入力部206から入力された画像を対象に登録処理を行う例を示したが、本発明はこれに限るものではない。例えば、登録対象となる画像を所定のフォルダに格納し、そのフォルダを指定することによって、該フォルダ下にある画像ファイルを対象として登録処理を行っても良い。この場合、登録処理のプロセスとしては、対象フォルダが新しく追加された場合は全てのファイルを対象に処理するが、その後は、更新されたファイルのみを対象にすればよい。また、バックグラウンドプロセスとして起動しておき、対象フォルダの更新を監視しておくことも可能である。
・特徴抽出処理
以下、ステップS905に示した特徴抽出処理、すなわち、入力された顔画像に最も相関の高い合成顔モデルの合成パラメータを決定する処理について、図9のフローチャートを用いて詳細に説明する。
以下、ステップS905に示した特徴抽出処理、すなわち、入力された顔画像に最も相関の高い合成顔モデルの合成パラメータを決定する処理について、図9のフローチャートを用いて詳細に説明する。
まずステップS1001において、初期解像度を設定する。ここでは、解像度を8×8ピクセルに設定している。次にステップS1002でループカウンタnを1に初期化し、ステップS1003で合成パラメータを初期設定する。初回では、平均的な形状とテクスチャとなるように、合成パラメータが設定される。そしてステップS1004で、合成パラメータから上述した方法により顔画像を合成する。
次にステップS1005に進み、ループカウンタnが2以上であるか否かを判定する。2回目以上でない場合はステップS1007に進み、2回目以上であればステップS1006に進む。
ステップS1006では、合成した顔が収束しているか否かを判定する。これは前回の合成顔からの差分が閾値以下であるか否かによって判定される。差分は各画素の輝度差の2乗和とし、これと解像度別に予め設定した所定の閾値とを比較して判定する。差分が閾値以下であれば収束していると判断され、この場合は近似失敗として処理を終了する。一方、差分が閾値よりも大きければ収束していないと判断され、ステップS1007へ進む。
ステップS1007では、入力画像の顔画像と合成された顔画像の差分ベクトルを求める。ここで、差分ベクトルは、入力画像と合成画像の対応する画素の輝度差であるが、ステップS707で記録したパラメータ更新テーブルを構築する際に求めた差分ベクトルの対応する解像度と同じ次元数すなわち画素数のものが必要である。そこで、差分画像は以下の式(12)に示すように、平均の顔形状にモーフィングしてステップS603と同じマスキングを行った画像として得る。
ΔIrn = M(Irs-Irn,Srn,sav) ・・・(12)
式(12)において、Irsは解像度rでの入力画像の顔画像、Irnは解像度r,ループカウンタnでの合成された顔画像である。また、Srnはループカウンタnにおける顔特徴座標ベクトル、savは平均座標値ベクトルである。
式(12)において、Irsは解像度rでの入力画像の顔画像、Irnは解像度r,ループカウンタnでの合成された顔画像である。また、Srnはループカウンタnにおける顔特徴座標ベクトル、savは平均座標値ベクトルである。
次にステップS1008に進み、以下の式(13)によって差分Eが所定値以下であるかを判定する。なお、差分Eは差分ベクトルのL2ノルム(ユークリッド距離)である。
E = |ΔIrn| ・・・(13)
差分Eが所定の値以下であれば、入力画像に対して合成画像の近似が成功しているとしてステップS1012に進むが、そうでない場合はステップS1009に進む。
差分Eが所定の値以下であれば、入力画像に対して合成画像の近似が成功しているとしてステップS1012に進むが、そうでない場合はステップS1009に進む。
ステップS1009では、ループカウンタnを評価し、所定回数(L回)の繰り返しがなされていたら近似失敗として終了する。所定回数以下の繰り返しであればステップS1010に進む。
ステップS1010では、以下の式(14)によって差分から合成パラメータ変更量への射影を行うことによって、合成パラメータを更新する。
br(n+1) = brn + ArΔIrn ・・・(14)
式(14)において、brnは、解像度r,ループカウンタnの時の合成パラメータである。
式(14)において、brnは、解像度r,ループカウンタnの時の合成パラメータである。
その後、ステップS1011でループカウンタnをインクリメントして、ステップS1004に戻る。
一方、ステップS1008で合成画像の近似が成功したと判定された場合にはステップS1012において、最終解像度に達しているか否かを判定する。ここで最終解像度は256×256ピクセルである。最終解像度であれば近似が成功したとして最終的な合成パラメータを特徴量として出力するが、最終解像度でなければステップS1013に進み、解像度を2倍に上げてステップS1002に戻る。
本実施形態の特徴抽出処理においては、拘束条件情報303を課したために合成パラメータを変更しても合成した顔画像に変化がない場合が発生する。そこで、合成画像を評価して極所解での収束状態を検出し、収束状態から抜け出せるようにしている。
なお、近似処理が失敗した場合にはステップS1003での合成パラメータの設定値を新たな値に設定してリトライを行っても良い。新たな値の設定方法としては、簡単にはランダムに行なうことである。また、探索途中に得られる入力画像と相関の高い他のパラメータ候補や、遺伝的手法によって、変更パラメータでビット列を作って遺伝子とみなし、入力画像と相関の高かったパラメータのビット列を部分的に切り貼りしても良い。また、近似に残された時間や、リトライの数に応じて、ランダムに生成された合成パラメータと平均顔画像または前回の変更パラメータからの標準化ユークリッド距離での制限範囲を設定し、制限範囲内でランダムな合成パラメータに設定しても良い。
また、複数の顔モデルを用意しておき、ある顔モデルでの近似が失敗した場合には、他のモデルでのリトライを行っても良い。
・画像検索処理
以上のように抽出された特徴量すなわち合成パラメータに基づき、近似される合成画像を顔モデルから検索する。以下、本実施形態における画像検索処理を、図10のフローチャートを用いて説明する。
以上のように抽出された特徴量すなわち合成パラメータに基づき、近似される合成画像を顔モデルから検索する。以下、本実施形態における画像検索処理を、図10のフローチャートを用いて説明する。
まずステップS1101で、画像入力部206からクエリ画像を入力する。もしくはHDD205内にある画像ファイルを指定してもよい。次にステップS1102に進み、当該クエリ画像には特徴量が存在するか否かを判定する。すなわち、すでに登録処理を済ませた画像であるか否かを判定する。特徴量が存在すればステップS1108に進む。
一方、ステップS1102でクリエ画像に特徴量が存在しない、すなわち未登録画像であればステップS1103に進み、ステップS1107までの処理を行う。ここで、ステップS1103からステップS1106の処理については、上述した図8に示す画像登録処理におけるステップS902からステップS905と同様の処理をクエリ画像に対してかけるものである。したがって、ここでの詳細な説明は省略する。そして、ステップS1107において、ステップS1106で抽出した特徴量を判別空間へ線形射影する。
そしてステップS1108およびステップS1109において、実質的な検索処理を行う。すなわち、まずステップS1108で判別空間上において、クエリ画像と検索対象の顔画像の特徴ベクトルについて、その差分ベクトルのL2ノルムを求め、これを距離とする。次にステップS1109において画像出力を行なう。例えば、検索対象画像をクエリ画像と距離の近い順に並べ替え、その縮小画像を一覧表示する。
以上説明したように本実施形態によれば、顔形状を示すモデル画像を、顔の器官ごとのローカル座標系の組み合わせによって表現された顔特徴量として扱う。これを主成分分析することによって、寄与率が主成分側に集約され、次元圧縮効果が高くなる。したがって、特徴量記憶コストや特徴の照合コスト、パラメータ更新テーブルのサイズや学習コスト等、システム全体におけるコストダウンが実現される。
<第2実施形態>
以下、本発明に係る第2実施形態について説明する。
以下、本発明に係る第2実施形態について説明する。
上述した第1実施形態では、形状情報の多くをローカル座標系での相対的な座標などで表現する例を示したが、第2実施形態においては、これを従来のように各特徴点の顔座標系での座標値とする例を示す。
第2実施形態における顔の特徴点の設定例を図11に示す。ここで拘束条件を各特徴値のとりうる範囲とした場合、これはすなわち、X座標、Y座標の最大最小値を定義することであり、特徴点を含む座標軸と平行な辺を含む短形の領域を示すことになる。そのため、評価条件としては緩いものとなってしまう。そこで第2実施形態においては、より効果的な評価条件を与える。
第2実施形態における、形状情報を座標値とした場合の拘束条件情報の構築手順を、図12のフローチャートを用いて説明する。
まずステップS1301において、顔の各特徴点について、すべての顔サンプルの対応する特徴点集合の凸包領域を求める。次にステップS1202進み、顔の各特徴点について平均座標を中心として、対応する凸包領域を所定倍率拡大する。次にステップS1203に進み、凸包領域を顔の各特徴点と対応付けてHDD205に記録する。
すると第2実施形態では、顔画像の合成を上述した第1実施形態と同様に図7に示す手順により行うが、ステップS803では合成される顔の各特徴点の座標が凸包領域内であるかを判定することによって、顔でない可能性を判定する。またステップS804では各特徴点の座標が凸包領域外に存在する場合、この点と平均的な特徴位置を結ぶ線と凸領域境界の交点の座標に変換する処理をすべての次元で行なうことによって、実在可能性のある顔に変換すればよい。
なお、第2実施形態で示した凸領域は頂点数が不定の多角形であるが、これを四角形や楕円で近似すれば、処理コストを低減することも可能である。
以上説明したように第2実施形態によれば、形状情報を顔座標系での座標値として扱っても、第1実施形態と同様の効果が得られる。
<第3実施形態>
以下、本発明に係る第3実施形態について説明する。
以下、本発明に係る第3実施形態について説明する。
図13は、第3実施形態における画像処理装置の構成を示すブロック図である。同図において、上述した第1実施形態に示す図1と共通する構成には同一番号を付し、説明を省略する。
図13によれば、第3実施形態においては本発明の特徴的なプログラムを記録したDVDまたはCDのような光ディスク212およびそのインタフェースを構成として加えたことを特徴とする。すなわち、ドライブインタフェース204にCD/DVDドライブなどの外部記憶読書装置213が接続されている。
本発明の特徴的なプログラムを記録した光ディスク212を外部記憶読書装置213に挿入すると、CPU201が光ディスク212から当該プログラムを読み取ってRAM203に展開する。これにより、上述した第1および第2実施形態と同様の処理を実現することができる。
<その他の実施形態>
本発明は上述した第1乃至第3実施形態に限定されず、その主旨を逸脱しない範囲で種々の変形が可能である。以下、各種変形例を挙げる。
本発明は上述した第1乃至第3実施形態に限定されず、その主旨を逸脱しない範囲で種々の変形が可能である。以下、各種変形例を挙げる。
・奥行き情報
各特徴点に奥行き情報を持たせても良い。この場合、形状情報の次元が特徴点数分増えることになるが、これは顔特徴を表す有意な情報であり、顔の向きの影響とは独立なモデルとなる。奥行き情報を持った特徴点により、物体を3次元上で仮想的に合成し、さらに視点や照明方法のパラメータにより画像化した場合は本発明の主旨の範囲内である。奥行き情報は、たとえば間隔を空けた2台の入力装置による三角法や、レーザー測距計によって取得可能である。
各特徴点に奥行き情報を持たせても良い。この場合、形状情報の次元が特徴点数分増えることになるが、これは顔特徴を表す有意な情報であり、顔の向きの影響とは独立なモデルとなる。奥行き情報を持った特徴点により、物体を3次元上で仮想的に合成し、さらに視点や照明方法のパラメータにより画像化した場合は本発明の主旨の範囲内である。奥行き情報は、たとえば間隔を空けた2台の入力装置による三角法や、レーザー測距計によって取得可能である。
・パラメータ更新テーブル
パラメータ更新テーブルの構築方法は第1実施形態に示した方法に限定されず、様々な変形が考えられる。例えば第1実施形態においては、ステップS701でランダムな合成パラメータを設定したが、これをサンプル顔画像から射影した合成パラメータとしてもよい。
パラメータ更新テーブルの構築方法は第1実施形態に示した方法に限定されず、様々な変形が考えられる。例えば第1実施形態においては、ステップS701でランダムな合成パラメータを設定したが、これをサンプル顔画像から射影した合成パラメータとしてもよい。
また、顔全体の多少の移動や拡大率、アスペクト比、回転などに対応可能とするために、合成パラメータの要素としてXY移動量や拡大率、アスペクト比、回転などの新たな次元を追加しても良い。このとき特徴点として、対象となる物体における少なくとも2つの特徴点を基準にして拡大縮小、回転による正規化を行った画像上の座標情報を用いればよい。
また、パラメータ更新テーブルは、第1合成パラメータの設定方法によって近似成功確率が変わってくる。そこで、近似成功確率を評価関数として、評価値の高いパラメータ更新テーブルを求めた時の第1合成パラメータの組を遺伝的手法などを用いて交配し、近似成功確率を高めていく手法をとることも有効である。
・制限時間
上述した第1実施形態においては、図9のステップS1009でループカウンタnのみを評価していたが、それに加え、制限時間内か否かの評価を加えてもよい。すなわち、制限時間を越えていたら近似失敗として終了することが考えられる。
上述した第1実施形態においては、図9のステップS1009でループカウンタnのみを評価していたが、それに加え、制限時間内か否かの評価を加えてもよい。すなわち、制限時間を越えていたら近似失敗として終了することが考えられる。
・差分ベクトル
上述した第1実施形態では、合成した顔画像と入力画像中の顔画像の差分ベクトルを、平均顔形状の占める領域の各画素の輝度差として説明したが、本発明はそれに限定されるものではない。例えば、FFTやDCTなどの周波数変換を行ない、各周波数成分における強度、位相情報を用いても良いし、オプティカルフローの手法を用いてもよい。また、平均顔形状の占める領域のすべての画素を利用することも限定しないが、一部の画素を利用することで入力画像の物体の一部が隠れていた場合のロバスト性が向上する。
上述した第1実施形態では、合成した顔画像と入力画像中の顔画像の差分ベクトルを、平均顔形状の占める領域の各画素の輝度差として説明したが、本発明はそれに限定されるものではない。例えば、FFTやDCTなどの周波数変換を行ない、各周波数成分における強度、位相情報を用いても良いし、オプティカルフローの手法を用いてもよい。また、平均顔形状の占める領域のすべての画素を利用することも限定しないが、一部の画素を利用することで入力画像の物体の一部が隠れていた場合のロバスト性が向上する。
また、複数のガボールフィルタでコンボリュージョンを行ない、強度画像を用いてもよい。以下の式(15)に、ガボールフィルタG(x,y)を示す。
G(x,y) = exp[-π{(x-x0)2/A + (y-y0)2/B}]・exp[2πi{u(x-x0)+v(y-y0)}]
・・・(15)
ただし、iは虚数単位、x=0〜s-1,y=0〜s-1,x0=s/2,y0=s/2,Aは水平方向の影響範囲、Bは垂直方向の影響範囲である。また、tan-1(u/v)は波の方向、(u2+v2)1/2は周波数である。sはフィルタの縦横サイズであり、ここでは正方形としている。
・・・(15)
ただし、iは虚数単位、x=0〜s-1,y=0〜s-1,x0=s/2,y0=s/2,Aは水平方向の影響範囲、Bは垂直方向の影響範囲である。また、tan-1(u/v)は波の方向、(u2+v2)1/2は周波数である。sはフィルタの縦横サイズであり、ここでは正方形としている。
また、波の方向8方向、周波数5種類、水平垂直方向の影響範囲は周波数ごとに1種類の40種類のフィルタを生成している。
画像中の任意の位置でのフィルタ出力値は、フィルタと画像間のコンボリューションにより計算する。ガボールフィルタの場合は実数フィルタと虚数フィルタ(虚数フィルタは実数フィルタと半波長分位相がずれたフィルタ)が存在するため、それらの2乗平均値をフィルタ出力値とする。実数フィルタと画像間のコンボリューションがRc,虚数フィルタとのコンボリューションがIcであったとすると、出力値Pは以下の式(16)により算出される。
P = (Rc2+Ic2)1/2 ・・・(16)
また、パラメータ更新テーブル構築中に得られる差分ベクトルのばらつきを主成分分析によって次元数を減らし、入力画像と合成画像の差分ベクトルも同じ射影を行って次元数を減らしもよい。各解像度において一定の次元の差ベクトルが得られるのならば、本発明の主旨の範囲内である。
また、パラメータ更新テーブル構築中に得られる差分ベクトルのばらつきを主成分分析によって次元数を減らし、入力画像と合成画像の差分ベクトルも同じ射影を行って次元数を減らしもよい。各解像度において一定の次元の差ベクトルが得られるのならば、本発明の主旨の範囲内である。
・拘束方法
主成分分析された部分空間上で表された合成パラメータのベクトルについて、多数の顔画像から各次元の分散を求め、各次元の分散が等しくなるように標準化を行った上で平均形状とのユークリッド距離を求め、これにより近似の正否を判定してもよい。ここで求めるユークリッド距離とは、パラメータの各要素の2乗誤差を要素の分散で除して和をとった標準化ユークリッド平方距離である。得られたユークリッド距離が所定の値以下であれば、入力画像に対して合成画像の近似が成功していると判定される。
主成分分析された部分空間上で表された合成パラメータのベクトルについて、多数の顔画像から各次元の分散を求め、各次元の分散が等しくなるように標準化を行った上で平均形状とのユークリッド距離を求め、これにより近似の正否を判定してもよい。ここで求めるユークリッド距離とは、パラメータの各要素の2乗誤差を要素の分散で除して和をとった標準化ユークリッド平方距離である。得られたユークリッド距離が所定の値以下であれば、入力画像に対して合成画像の近似が成功していると判定される。
合成パラメータを実在可能性のある顔が得られるように変換するためには、図14に示すように、標準化された形状ベクトルの各次元の値の絶対値が所定の範囲内に収まるようにする。すなわち、この範囲を狭めながらユークリッド距離が所定の値に収まったときの形状ベクトルを出力する。
・ハイブリッド化
本発明を従来技術の前処理として組み合わせて利用することが可能である。例えば、本発明の画像処理装置によって変形した顔をMPEG−7の特徴抽出手法に対する入力画像とすることが考えられる。この場合、出力される顔特徴記述子に合成パラメータを追加したものを顔の特徴量として併せたもの、またこれらの出力行列を部分空間法で射影した行列を、顔特徴としても良い。
本発明を従来技術の前処理として組み合わせて利用することが可能である。例えば、本発明の画像処理装置によって変形した顔をMPEG−7の特徴抽出手法に対する入力画像とすることが考えられる。この場合、出力される顔特徴記述子に合成パラメータを追加したものを顔の特徴量として併せたもの、またこれらの出力行列を部分空間法で射影した行列を、顔特徴としても良い。
・顔画像以外への適用
また、上述した第1実施形態では類似画像検索を行うシステムを示したが、誰の顔かを判別する顔弁別システムや、判別空間を構築する際のクラス分けの基準によって性別や年齢を判別するシステムに本発明を実装することも容易である。
また、上述した第1実施形態では類似画像検索を行うシステムを示したが、誰の顔かを判別する顔弁別システムや、判別空間を構築する際のクラス分けの基準によって性別や年齢を判別するシステムに本発明を実装することも容易である。
また、本発明は顔以外の任意の物体に対しても適用可能である。たとえば、人体全身、生物、自動車などを対象とすることが考えられる。また、医療分野においてはX線写真やCTスキャン画像における骨や臓器などの位置同定、工業、流通分野などにおける工業生産物、部品、流通物品などの同定や検査などに適用できる。
・その他
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。複数の機器から構成されるシステムとしては、画像入力装置と画像蓄積装置が複合または接続されたものが考えられる。画像入力装置としては例えば、ビデオカメラ、デジタルカメラ、監視カメラなど各種CCDを利用したカメラやスキャナ、アナログ画像入力装置からAD変換によりデジタル画像に変換された画像入力装置が挙げられる。画像蓄積装置としては例えば、外部ハードディスク、ビデオレコーダが挙げられる。このようなシステムにおいて、該システムを構成する全てまたはいずれかの機器に備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。複数の機器から構成されるシステムとしては、画像入力装置と画像蓄積装置が複合または接続されたものが考えられる。画像入力装置としては例えば、ビデオカメラ、デジタルカメラ、監視カメラなど各種CCDを利用したカメラやスキャナ、アナログ画像入力装置からAD変換によりデジタル画像に変換された画像入力装置が挙げられる。画像蓄積装置としては例えば、外部ハードディスク、ビデオレコーダが挙げられる。このようなシステムにおいて、該システムを構成する全てまたはいずれかの機器に備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。
尚本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される。なお、この場合のプログラムとは、実施形態において図に示したフローチャートに対応したプログラムである。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するための記録媒体としては、以下に示す媒体がある。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD-ROM、CD-R、CD-RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD-ROM,DVD-R)などである。
プログラムの供給方法としては、以下に示す方法も可能である。すなわち、クライアントコンピュータのブラウザからインターネットのホームページに接続し、そこから本発明のコンピュータプログラムそのもの(又は圧縮され自動インストール機能を含むファイル)をハードディスク等の記録媒体にダウンロードする。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD-ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせることも可能である。すなわち該ユーザは、その鍵情報を使用することによって暗号化されたプログラムを実行し、コンピュータにインストールさせることができる。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、実行されることによっても、前述した実施形態の機能が実現される。すなわち、該プログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行うことが可能である。
Claims (14)
- 画像内に存在する物体の二次元画像を合成する際に参照されるモデル画像を構築する画像処理方法であって、
前記モデル画像の合成パラメータを設定する設定ステップと、
前記設定ステップにおいて設定された合成パラメータに基づいてモデル画像を合成する合成ステップと、を有し、
前記合成パラメータは、前記モデル画像を区分した複数の領域内における局所的な座標系に基づいて、該モデル画像の特徴点を示す情報を主成分分析して次元圧縮されていることを特徴とする画像処理方法。 - 前記合成パラメータは、前記局所的な座標系における前記特徴点の座標によって定量化された前記モデル画像の形状特徴が主成分分析により次元圧縮されていることを特徴とする請求項1記載の画像処理方法。
- 前記局所的な座標系は直交座標系を含むことを特徴とする請求項1または2記載の画像処理方法。
- 前記局所的な座標系は極座標系を含むことを特徴とする請求項3記載の画像処理方法。
- 前記特徴点の座標は、前記局所的な座標系における他の特徴点からの相対座標であることを特徴とする請求項2乃至4のいずれかに記載の画像処理方法
- さらに、前記合成ステップにおいて合成されたモデル画像について、その実在可能性を評価する評価ステップ(S803)と、
前記評価ステップにおいて実在可能性が低いと判定された場合に、前記モデル画像の実在可能性が高くなるように前記合成パラメータを変更する変更ステップ(S804)と、
を有することを特徴とする請求項1乃至5のいずれかに記載の画像処理方法。 - 前記評価ステップにおいては、前記合成パラメータの要素値が所定範囲外であれば実在可能性が低いと判定することを特徴とする請求項6記載の画像処理方法。
- 前記所定範囲は、対象となる物体の集合における統計的な分布に基づいて設定されることを特徴とする請求項7記載の画像処理方法。
- 前記変更ステップにおいては、前記合成パラメータの要素値を、前記所定範囲の境界値に変更することを特徴とする請求項7または8記載の画像処理方法。
- 前記物体は、人物の顔であることを特徴とする請求項1乃至9のいずれかに記載の画像処理方法。
- 画像内に存在する物体の二次元画像を合成する際に参照されるモデル画像を構築する画像処理装置であって、
前記モデル画像の合成パラメータを設定する設定手段と、
前記設定ステップにおいて設定された合成パラメータに基づいてモデル画像を合成する合成手段と、を有し、
前記合成パラメータは、前記モデル画像を区分した複数の領域内における局所的な座標系に基づいて、該モデル画像の特徴点を示す情報を主成分分析して次元圧縮されていることを特徴とする画像処理装置。 - 請求項1乃至10のいずれかに記載の画像処理方法によって構築されたモデル画像を用いて、画像内に存在する物体に対する合成画像を近似する画像処理システム。
- コンピュータ上で動作することによって、該コンピュータ上で請求項1乃至10のいずれかに記載の画像処理方法を実現することを特徴とするプログラム。
- 請求項13記載のプログラムを記録したことを特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005336395A JP2007141107A (ja) | 2005-11-21 | 2005-11-21 | 画像処理装置およびその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005336395A JP2007141107A (ja) | 2005-11-21 | 2005-11-21 | 画像処理装置およびその方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007141107A true JP2007141107A (ja) | 2007-06-07 |
Family
ID=38203861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005336395A Withdrawn JP2007141107A (ja) | 2005-11-21 | 2005-11-21 | 画像処理装置およびその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007141107A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211425A (ja) * | 2008-03-04 | 2009-09-17 | Global Security Design Inc | 顔画像の特徴抽出方法及び識別信号作成方法 |
US20100202699A1 (en) * | 2009-02-12 | 2010-08-12 | Seiko Epson Corporation | Image processing for changing predetermined texture characteristic amount of face image |
US8290278B2 (en) | 2009-02-10 | 2012-10-16 | Seiko Epson Corporation | Specifying position of characteristic portion of face image |
JP2014032605A (ja) * | 2012-08-06 | 2014-02-20 | Nec Corp | 画像認識装置、画像認識方法および画像認識プログラム |
CN103729616A (zh) * | 2012-10-11 | 2014-04-16 | 英属维京群岛速位互动股份有限公司 | 高精确度的脸形追踪方法 |
KR20140109496A (ko) * | 2012-01-12 | 2014-09-15 | 알까뗄 루슨트 | 3d 모델 모핑을 위한 방법 및 장치 |
WO2019221293A1 (ja) * | 2018-05-18 | 2019-11-21 | 国立大学法人東京大学 | 画像生成装置、画像生成方法及び画像生成プログラム |
-
2005
- 2005-11-21 JP JP2005336395A patent/JP2007141107A/ja not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211425A (ja) * | 2008-03-04 | 2009-09-17 | Global Security Design Inc | 顔画像の特徴抽出方法及び識別信号作成方法 |
US8290278B2 (en) | 2009-02-10 | 2012-10-16 | Seiko Epson Corporation | Specifying position of characteristic portion of face image |
US20100202699A1 (en) * | 2009-02-12 | 2010-08-12 | Seiko Epson Corporation | Image processing for changing predetermined texture characteristic amount of face image |
KR20140109496A (ko) * | 2012-01-12 | 2014-09-15 | 알까뗄 루슨트 | 3d 모델 모핑을 위한 방법 및 장치 |
JP2015507272A (ja) * | 2012-01-12 | 2015-03-05 | アルカテル−ルーセント | 3dモデル・モーフィングのための方法および装置 |
KR101602593B1 (ko) * | 2012-01-12 | 2016-03-10 | 알까뗄 루슨트 | 3d 모델 모핑을 위한 방법 및 장치 |
JP2014032605A (ja) * | 2012-08-06 | 2014-02-20 | Nec Corp | 画像認識装置、画像認識方法および画像認識プログラム |
CN103729616A (zh) * | 2012-10-11 | 2014-04-16 | 英属维京群岛速位互动股份有限公司 | 高精确度的脸形追踪方法 |
CN103729616B (zh) * | 2012-10-11 | 2017-10-03 | 爱唯秀股份有限公司 | 高精确度的脸形追踪方法 |
WO2019221293A1 (ja) * | 2018-05-18 | 2019-11-21 | 国立大学法人東京大学 | 画像生成装置、画像生成方法及び画像生成プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127304B (zh) | 跨域图像转换 | |
Bronstein et al. | Calculus of nonrigid surfaces for geometry and texture manipulation | |
EP2893491B1 (en) | Image processing apparatus and method for fitting a deformable shape model to an image using random forest regression voting | |
US9968845B2 (en) | Image processing device and image processing method, and program | |
US8861800B2 (en) | Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction | |
Fisher et al. | Dictionary of computer vision and image processing | |
Berretti et al. | Representation, analysis, and recognition of 3D humans: A survey | |
Tevs et al. | Animation cartography—intrinsic reconstruction of shape and motion | |
Zhang et al. | 3-D face structure extraction and recognition from images using 3-D morphing and distance mapping | |
JP2009211178A (ja) | 画像処理装置、画像処理方法、プログラム及び記憶媒体 | |
JP2007141107A (ja) | 画像処理装置およびその方法 | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
TW200828176A (en) | Apparatus and method for processing video data | |
Grewe et al. | Fully automated and highly accurate dense correspondence for facial surfaces | |
Zheng et al. | Fusing shape and spatio-temporal features for depth-based dynamic hand gesture recognition | |
Yung et al. | Efficient feature-based image registration by mapping sparsified surfaces | |
Wu et al. | Privacy leakage of sift features via deep generative model based image reconstruction | |
Salam et al. | A survey on face modeling: building a bridge between face analysis and synthesis | |
Maity et al. | Multimodal low resolution face and frontal gait recognition from surveillance video | |
Dai et al. | 3D morphable models: The face, ear and head | |
Ahn et al. | Implement of an automated unmanned recording system for tracking objects on mobile phones by image processing method | |
JP2007141106A (ja) | 画像処理装置およびその方法 | |
JP2007141105A (ja) | 画像処理装置およびその方法 | |
JP6717049B2 (ja) | 画像解析装置、画像解析方法およびプログラム | |
Wilson et al. | Computer Analysis of Images and Patterns: 15th International Conference, CAIP 2013, York, UK, August 27-29, 2013, Proceedings, Part I |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090203 |