JP4419543B2 - 検出装置および検出方法 - Google Patents

検出装置および検出方法 Download PDF

Info

Publication number
JP4419543B2
JP4419543B2 JP2003407063A JP2003407063A JP4419543B2 JP 4419543 B2 JP4419543 B2 JP 4419543B2 JP 2003407063 A JP2003407063 A JP 2003407063A JP 2003407063 A JP2003407063 A JP 2003407063A JP 4419543 B2 JP4419543 B2 JP 4419543B2
Authority
JP
Japan
Prior art keywords
probability
likelihood
candidates
hidden
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003407063A
Other languages
English (en)
Other versions
JP2005165923A (ja
Inventor
雄介 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003407063A priority Critical patent/JP4419543B2/ja
Publication of JP2005165923A publication Critical patent/JP2005165923A/ja
Application granted granted Critical
Publication of JP4419543B2 publication Critical patent/JP4419543B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は検出装置および検出方法に関し、特に、複数の部位から構成される検出対象を画像から検出する検出装置および検出方法に関する。
画像から人物を検出し、その姿勢を推定する技術は、動作解析や動作認識に応用可能であり、近年盛んに研究が行われている。このような技術は、セキュリティシステムや、医療・福祉、マンマシンインタフェース、コンピュータグラフィックス、ゲームなどの分野など様々な分野において応用が考えられる。
監視カメラ等の分野において、撮影された画像から人体を検出する手法が知られている。従来の人体検知方法として、以下の特許文献1に記載された、「侵入者識別システム」や、特許文献2に記載された「複合型監視装置」が知られている。
これらは、映像に対してフレーム差分等を用いて移動物体を検出する、または、赤外線カメラ等の別センサを使用して人物を検出する方法である。
一方、マンマシンインタフェース等の人間工学分野や、VR(ヴァーチャル・リアリティ)、アニメーション等のCG分野における手法では、厳密な人体モデルを利用して人間の姿勢や動作を再現しようとする研究がある。
例えば、非特許文献1の「キーフレーム拘束を利用した単眼動画像からの人体動作の追跡」では、3次元人体モデルを画像中の人物に当てはめる方法が用いられている。ここでは、当てはめ誤差の増大を防ぐためキーフレームを設定し、モデルの位置と姿勢を拘束することが提案されている。
また、認証分野においては、例えば、顔認証で眼や口といった部位の標準的な位置関係を利用して顔領域を特定するといった方法が、特許文献3の「人物の顔の検出装置」に示されている。
さらに、頭部検知を行うために部位の標準的な位置関係を利用して頭部領域を特定し、エレベータの待機乗客数を求める技術が、特許文献4に開示されている。ここでは、頭部の確信度を計算するために、髪の毛領域と顔領域の確信度および領域間の上下関係の情報を利用している。
また、人体の一部が隠れていても人体を検出する技術が、特許文献5に開示されている。
特開平6−20049号公報 特開2000−331252号公報 特開平7−311833号公報 特開平8−127476号公報 特開2002−99918号公報 電子情報通信学会論文誌Vol.J81−D−II、No.9、1998、pp.2008−2018、「キーフレーム拘束を利用した単眼動画像からの人体動作の追跡」
しかし特許文献1および2のいずれの方法でも、人数計測や姿勢推定、また動作認識等の高度な処理は行えないという課題があった。
非特許文献1の手法では、初期値の設定などキーフレームでの照合は手動で行わなければならないという問題があった。また3次元モデルは多くの姿勢パラメータがあるため、計算負荷が大きいという課題もあった。
特許文献3の技術では、照明条件の変化やサングラスの着用等(自己オクルージョン、相互オクルージョンによる一部の部位の消失)によって眼が検出されなかった場合に、顔領域を検出できないといった問題がある。
特許文献4の技術は頭部検出に限られており、自由に姿勢が変化する人体に適用できないという問題がある。
また、特許文献5に開示された技術では、まず動き領域を色でラベリングし、特徴量をノードに、特徴量距離をエッジにしてネットワークを構成する。ついで、時系列のネットワーク構造の変化でオクルージョンを検出するものであるが、ラベリング処理による領域統合があるため、計算に時間がかかるという問題がある。また、画像の時系列変化を調べるため、1枚の画像からは人体を抽出することができないという問題があった。
本発明は上述の問題点を解決するためになされたものであり、オクルージョンや撮影環境の変化に対してロバストかつ計算コストを増大させることなく、検出を行うことができる検出装置および検出方法を提供することを目的としている。
上記課題を解決するため、複数の部位から構成される検出対象を画像から検出する検出装置は、画像から複数の部位の候補となる部位候補を抽出する抽出部と、抽出された部位候補ごとに、各部位のうち少なくとも1つとしての確率を算出する確率算出部と、各部位の隠れ確率を推定する推定部と、確率算出部によって算出された確率、推定部で推定された隠れ確率、および部位候補の配置関係に基づき、検出対象としての確率の高い部位候補の組合せを選択する選択部とを備える。
好ましくは推定部は、確率算出部によって算出された確率、および部位候補の配置関係に基づき隠れ確率を推定する。
好ましくは推定部は、平均的な人体モデルから最も離れた部位尤度、および平均的な人体モデルから最も離れた部位関係尤度を計算し、その計算結果に基づき隠れ確率を推定する。
好ましくは推定部は、部位が隠れていると判断するときの部位尤度を他の部位候補の部位尤度から算出し、部位が隠れていると判断するときの部位関係尤度を他の部位候補の部位関係尤度から計算する。
好ましくは選択部は、部位が隠れている場合を含む複数の組合せから、エネルギー関数を用いて検出対象としての確率の高い部位候補の組合せを選択する。
好ましくは選択部は、確率算出部によって算出された確率、推定部で推定された隠れ確率、および部位候補の配置関係に基づき、最適化処理により検出対象としての確率の高い部位候補の組合せを選択する。
この発明の他の局面に従うと、複数の部位から構成される検出対象を画像から検出する検出方法は、画像から複数の部位の候補となる部位候補を抽出する抽出ステップと、抽出された部位候補ごとに、各部位のうち少なくとも1つとしての確率を算出する確率算出ステップと、各部位の隠れ確率を推定する推定ステップと、確率算出部によって算出された確率、推定ステップで推定された隠れ確率、および部位候補の配置関係に基づき、検出対象としての確率の高い部位候補の組合せを選択する選択ステップとを備える。
好ましくは推定ステップは、確率算出ステップによって算出された確率、および部位候補の配置関係に基づき隠れ確率を推定する。
好ましくは推定ステップは、平均的な人体モデルから最も離れた部位尤度、および平均的な人体モデルから最も離れた部位関係尤度を計算し、その計算結果に基づき隠れ確率を推定する。
好ましくは推定ステップは、部位が隠れていると判断するときの部位尤度を他の部位候補の部位尤度から算出し、部位が隠れていると判断するときの部位関係尤度を他の部位候補の部位関係尤度から計算する。
好ましくは選択ステップは、部位が隠れている場合を含む複数の組合せから、エネルギー関数を用いて検出対象としての確率の高い部位候補の組合せを選択する。
好ましくは選択ステップは、確率算出ステップによって算出された確率、推定ステップで推定された隠れ確率、および部位候補の配置関係に基づき、最適化処理により検出対象としての確率の高い部位候補の組合せを選択する。
この発明に従うと、確率算出部によって算出された確率に基づき、検出対象としての確率の高い部位候補の組合せを選択するため、オクルージョンや撮影環境の変化に対して計算コストを増大させることなく、ロバストに検出を行うことができる検出装置および方法を提供することが可能となる。
[第1の実施の形態]
以下に本発明の実施の形態における検出装置および方法について説明する。本実施の形態における装置および方法では、画像から簡単に抽出される人体部位候補の部位らしさの確率と部位間の相互関係とを利用して、人体らしさを確率的に計算することにより、オクルージョンや撮影環境の変化に対してロバストかつ計算コストを増大させることなく、人体検知や姿勢推定を行うことを目的としている。
図1は、本発明の第1の実施の形態における物体姿勢推定装置の構成を示すブロック図である。
図を参照して、物体姿勢推定装置は、画像入力部101と、特徴抽出部102と、部位確率算出部103と、部位確率データベース107と、部位結合確率算出部104と、部位結合確率データベース108と、人物確率算出部105と、出力部106とを備えている。
画像入力部101は、画像を入力する部材である。画像入力部101は、デジタルカメラ、スキャナ、デジタルビデオカメラから直接画像を入力しても良いし、記憶媒体に保存された画像、動画像を入力しても良い。
特徴抽出部102は、入力画像から物体の特徴を検出する。
図2は、特徴抽出部102の基本構成を示すブロック図である。
図2を参照して、特徴抽出部102は、前処理部201と、部位候補抽出部202と、部位候補パラメータ算出部203とを備えている。
前処理部201は、入力画像から画像特徴を抽出するため画像にエッジ抽出や色抽出などを施す。また、人物の大きさの変化に対応するため1つの画像から複数のサイズの画像(多重解像度画像)を生成する。
部位候補抽出部202は、前処理部201で変換した画像に対して、楕円や直線、曲線、平行線分などの形状や、特定の大きさの色領域など部位候補を抽出する。
部位候補パラメータ算出部203は、部位候補抽出部202で選択された各部位候補に対して、パラメータ値を計算する。
図1に戻り、部位確率算出部103は、各部位候補に対して、部位毎の部位確率を計算する。部位確率を計算するための確率密度関数(あるいは尤度関数)は、部位確率データベース107に蓄えられている。
部位結合確率算出部104は、一つの部位候補のパラメータと別の部位候補のパラメータとの組合せに対する結合尤度を求める。部位結合確率を計算するための確率密度関数(あるいは尤度関数)は、部位結合確率データベース108に蓄えられている。
人物確率算出部105は、各部位候補に付随した部位確率と、部位間の関係に基づいて計算された部位結合確率とを用いて、人物として最適な部位候補の組み合わせを計算する。
出力部106は、人物数や部位姿勢の結果をモニタなどに表示する。
まず、図を参照しながら、実際の画像から人物を検出する処理について説明する。
図3は、図1の画像入力部101に入力された画像の具体例を示す図である。図を参照して、この画像には座った2名の人物が含まれているものとする。
図4は、図3の画像が図2の前処理部201で処理された結果を示す図である。前処理部201では、入力画像から画像特徴を抽出するため画像にエッジ抽出や色抽出などが施され、結果的に図4に示されるようなエッジ画像が得られる。
図5は、図4の画像が図2の部位候補抽出部202で処理された結果を模式的に示す図である。
部位候補抽出部202は、前処理部201で変換した画像に対して、楕円や直線、曲線、平行線分などの形状や、特定の大きさの色領域など人体を構成すると考えられる部位候補を抽出する。ここでは、部位候補抽出部202ではエッジ画像中から頭部に対応すると考えられる楕円と、人体の腕、胴、脚に対応すると考えられる平行線分とを抽出するものとする。図5の円、楕円で囲まれた部分が、抽出された楕円または平行線分を示している。
この後、部位候補パラメータ算出部203が、部位候補抽出部202で選択された各部位候補に対して、パラメータ値を計算(測定)する。
ここでは、図6に示されるように、楕円に対してはその短軸直径、および座標などを測定するものとし、図7に示されるように平行線分に関しては、線分間の幅(距離)、および座標などを測定するものとする。
図8は、部位確率算出部103の処理を説明するための図である。
図を参照して、部位確率算出部103は、各部位候補D1,D2,D11〜D15のそれぞれに対して、部位毎の部位確率(例えば、平行線分であればそれが上腕である確率、下肢である確率など)を計算する。これにより、各部位候補が人体を構成するどの部位に相当するかの確率が求められる。
部位確率を計算するためには、部位確率データベース107に蓄えられた確率密度関数(あるいは尤度関数)が用いられるが、これは図8のグラフにおいてはピークを持つ関数として表されており、頭部、上腕、下肢それぞれ別の関数とされている。
図8においては、部位候補D1,D2は楕円であり、頭部の確率密度関数p1(x)と比較が行なわれる。ここでは頭部の確率密度関数は、楕円の半径に対して、その楕円が人物の頭部である確率を示す関数であるものとする。これを人物の大きさの変化に対応するために生成された多重解像度画像(A)〜(C)のそれぞれにおいて適用し、それぞれの解像度における楕円の頭部らしさ(部位確率)p1(D1),p1(D2)を求めてゆく。
また、部位候補D11〜D15は平行線分であり、それぞれ上腕の確率密度関数、および下肢の確率密度関数と比較が行なわれる。これにより、各部位候補が人体のどの部位にどの程度近いものであるかを数値で表現することができる。
部位結合確率算出部104は、各部位候補D1,D2,D11〜D15の位置関係などに基づき、どの部位候補の組合せが1の人体を構成するものであると考えられるかを、部位結合確率データベースの内容に従って計算する。
最終的に、人物確率算出部105により、部位確率算出部103の算出結果および部位結合確率算出部104の算出結果に基づき、画像中の人物の数やその姿勢が判断され、出力部106で出力される。
次に、全体の処理の流れを図9のシーケンス・フローを用いて説明する。
今、説明を簡単にするために、人体は、図10に示されるように、頭部、上腕、下腕、胴体、上肢、下肢の部位から構成されるものとする。他にも肩や首、腰部、手や足など様々な部位を検出対象としてもよい。
画像から検出する要素(部位候補)としては、楕円(頭部)、平行線(腕、胴体、脚部、首)、線分(肩、首、腕、胴体、脚部)、曲線(肩、胴体、腰部)、肌色領域(顔、手、脚部)、黒領域(髪)などが考えられる。
それらから得るパラメータとしては、大きさ、位置、姿勢、長さ、幅、曲率、尖度、周波数特性などがある。
ここでは、頭部の部位候補の特徴として楕円形状を、他の部位候補の特徴として平行線分を考えることにする。パラメータは、楕円形状に関しては、中心のx座標、y座標および短軸の長さとする(長軸は短軸の定数倍、例えば1.2倍など)。また平行線分は、重心のx座標、y座標、2直線間の距離、さらに角度をパラメータとする。また部位確率データベースでは、部位の尤度関数が記憶されているものと仮定する。
図9を参照して、まず画像入力部101から人物を検出したい画像を入力する(s1)。
次に特徴抽出部102の前処理部201で、画像から微分フィルタを用いてエッジを抽出する。微分フィルタとしては、例えばソーベルフィルタなどがある。多重解像度戦略に従い、エッジ画像の多重解像度画像を用意する(s2)。
エッジ画像からある方向の直線を検出し、細線化およびラベリング処理を施す。得られた直線群に対して、平行線の組を見出し部位候補とする(s3)。
s3のステップについて図11のフローを用いて説明する。
ここでは、ある方向の平行線を抽出するため、画像の方向を変化させる処理を繰り返し行なう方法を採用する。
方向は、例えば、0[deg],30[deg],60[deg],90[deg]の四方向や、0[deg],45[deg],90[deg]の三方向などとするが、それ以上としてもよい。
ある方向(角度θとする)の平行線分を抽出する処理について以下に述べる(S21)。これはその方向性を持つ線分のみを抽出し、それらの中から、平行線のペアとなるものを選ぶ処理である。
実際には、処理の容易さのため、まず、残したい方向が水平方向に一致するように画像を回転させる(S22)。その後、エッジ画像を二値化し(S23)、二値化画像に対して水平方向の線分を抜き出し(S24)、その中からペアとなる線分を抽出し(S25)、最後に画像を−θ[deg]回転させて元の座標系に戻す(S26)。
次に水平方向の線分の抽出について図12のフローを用いて説明する(S31)。ここでは、一方向のモルフォロジ処理を行なうことにより、水平方向線分を抽出するものとする。
まずエッジを細線化する。次に、画像を最近傍法を用いて縦方向に4倍し、その画像に最小値フィルタ、最大値フィルタを順に施す。再び最近傍法を用いて画像を縦方向に1/4倍に縮小し、元の画像サイズに戻す(S32)。得られたエッジ画像を再び細線化する(S33)。
分岐線がある場合、その分岐を除去するため、画素の交差数を計算し、交差数が3あるいは4である場合は、その画素をエッジ画素ではなくす(S34)。この処理により分岐点を除去できる。
その後、画素数が10以下のものを消去する(S35)。以上のようにして水平方向線分のみが抽出される。
次にペアの抽出について図13を用いて述べる(S41)。
まず、得られたエッジについてラベリング処理(ラベル番号1,2,…,LabelMax)を行なう(S42)。次に、ラベル番号1から順に、そのラベルについてペアとなる線分を探す(S44)(詳細に付いては後述する)。上記処理をラベル番号LabelMaxまで繰り返す(S43〜S46)。
あるラベルのエッジ(ラベル番号LabelNoとする)について、図14を参照して、そのペアを探す処理について述べる(S51)。
線分aが線分bとペアになる場合、線分bは必ず線分aとペアになる。したがって、ペアとなるかどうかを調べるのは、例えば、(LabelNo)+1〜LabelMaxの線分についてだけでよい(S52〜S56)。
エッジ[LabelNo]と、エッジ[SubNo](SubNo=[(LabelNo)+1,…,LabelMax])がペアかどうかの判断は以下のように行なう(S53)。
すなわち、図15を参照して、エッジ[LabelNo]の上端点と下端点を通る垂直線を引き、エッジ[SubNo]の一部分でもその範囲に含まれていれば、エッジ[LabelNo]とエッジ[SubNo]はペアであるとする。
これに対して、図16に示されるように、エッジ[LabelNo]の上端点と下端点を通る垂直線を引き、エッジ[SubNo]の一部分でもその範囲に含まれていなければ、エッジ[LabelNo]とエッジ[SubNo]はペアではないとする。
図9に戻って、得られた平行線分のパラメータを計算する(s4)。このパラメータは、後で部位確率を抽出するためのものである。
パラメータは、(1)平行線ペアの幅d、(2)平行線ペアの方向θ、(3)平行線ペアの位置mの3つとする。
このパラメータの説明を行なうために、まず、直線エッジの方向と位置について述べる。
図17を参照して、エッジ1について、その端点をP1a及びP1bとする。このエッジの位置は、P1aとP1bの中点とする。また、P1a−P1bの方向を、このエッジの方向とする。ただし、方向については、平行線の抽出で述べたようにある方向のエッジのみを抽出する方法を採用しているなら、その方向をエッジの方向としても良い。
ここで、エッジ1とエッジ2がペアであるとし、それぞれの位置をm1及びm2とする。また、それぞれのエッジの方向をθ1及びθ2とする。このとき、
(1) 平行線ペアの幅dは各々の直線エッジの位置の差d=|m1−m2|、
(2) 平行線ペアの方向θは各々の直線エッジの方向の平均θ=(θ1+θ2)/2、
(3) 平行線ペアの位置mは各々の位置の中点m=(m1+m2)/2、
とする。
図9のフローに戻って原画像に対してs3とs4の処理を行えば、各階層における同じ平行線の特徴は、自動で計算できる。
また、エッジ画像からハフ変換などを用いて、楕円形状を抽出し、頭部候補とする(s5)。各階層で検出する楕円サイズを固定した場合、検出結果から対応するすべての階層での大きさが決定できる。すべての階層に対して、以下のステップでの処理を行う。
なお、ステップs3での処理は部位候補抽出部202で、ステップs4での処理は部位候補パラメータ算出部203で、ステップs5での処理は部位候補抽出部202および部位候補パラメータ算出部203で行う。
次に部位確率算出部103で、各部位候補に対し、部位毎の部位尤度を求める。
まず、楕円の候補に対し、短軸パラメータを用いて頭部の尤度を求める(s6)。これにより、その楕円が頭部である確率が算出される。
さらに平行線の候補に対し、太さパラメータ(平行線ペアの幅d)に関して上腕、下腕、胴体、上肢、下肢のそれぞれの尤度を求める(s7)。
なお、部位尤度を求めるためのパラメータは、楕円の大きさや平行線の太さ(幅)に限られない(詳細に付いては後述する)。
尤度の値は部位確率データベースの尤度関数から計算される。尤度関数は、複数の人物画像から統計的に求めることができる。例えば上腕の尤度関数は、身長や頭のサイズなどで正規化した複数の人物画像に対し、上腕の太さを計算し、太さに関するヒストグラムを正規化すれば得られる。あるいは平均と分散を計算し、ガウス分布で尤度関数を近似することもできる。
すなわち、距離(幅)パラメータをd、平均をmd、標準偏差をσdとすれば、上腕の尤度関数p(d)を以下に記載する式(1)で近似することができる。
平行線の特徴を用いる他の部位についても同様である。
頭部の尤度は、頭部検出のサイズで正規化しておけば、尤度はいつも1になる。身長で正規化した場合、平均の頭部サイズになる階層を計算し、その前後の階層で人物尤度を計算することになる。
現在得られている一つの平行線の部位候補l1の距離パラメータをd1とすれば、p(d1)で上腕の尤度を求めることができる。d1に対して他の部位の尤度も同様に計算できるので、一つの部位候補l1に対して、以下の式(2)ような部位尤度ベクトルが付随することになる。
ここでpの下付添え字は、平行線の特徴を用いる各部位を表している。Dはその総数であり、例えば5である。
こうして求めたすべての部位候補に対して、部位尤度ベクトルを計算し、これを人体記述として記憶する。
次に、部位結合確率算出部104では、一つの部位候補のパラメータをある部位に属するとし、他の部位候補のパラメータを別の部位に属するとした時の部位関係尤度を部位の任意の組合せに対して計算する。
まず、楕円の候補と平行線の候補に対し、楕円平行線部位関係尤度を求める(s8)。
例えば、2つの部位の組合せとして、頭部と上腕を例に説明する。
楕円パラメータをD1=(X1,Y1,r1)、平行線パラメータをl1=(x1,y1,d1,θ1)とする。
ここで(X1,Y1)は楕円の中心座標、r1は楕円の短軸の長さ、(x1,y1)は平行線の中心座標、d1は平行線の幅である。θ1は平行線とx軸のなす角である。
この時、2つの部位間の距離に基づく尤度を次式(3)で計算する。
尤度関数L1は、部位確率と同じように身長などで正規化された頭部位置と上腕位置の距離lenに関する統計的なヒストグラムとして計算できる。またガウス分布などで近似することができる。
なお、L1と、2つの部位の大きさの比に基づく尤度関数L2(式(4))を組み合わせて用いても良い。式(4)のL2も、pに関する統計的なヒストグラムとして計算できる。
部位間の距離の特徴量と部位の大きさの比の特徴量とは、統計的に独立と考えると、部位関係尤度を、式(5)のように計算することもできる。
頭部と他の平行線特徴を用いる部位との間についても同様に部位関係尤度を計算する。
ステップs8で楕円平行線部位関係尤度を計算した後、平行線平行線部位関係尤度を求める(s9)。
例えば、2つの部位の組合せとして、上腕と下腕を例に説明する。
平行線1のパラメータをl1=(x1,y1,d1,θ1)、平行線2のパラメータをl2=(x2,y2,d2,θ2)と仮定する。
この時、2つの部位間の距離に基づく尤度を次式(6)で計算する。
ここでも尤度関数L3は統計的なヒストグラムとして計算できる。またガウス分布などで近似することができる。
3と、2つの部位間の幅の差に基づく尤度関数L4(式(7))を組み合わせて用いても良い。ここで、L4を用いるときには、幅の差の絶対値を取らないことが望ましい。L4として負になる確率が小さくなるような分布を選べば、長袖であっても半袖であっても、上腕が下腕より細くなることはないという一般的な傾向を尤度関数に反映することができる。自明な人体モデルから適切な分布を仮定してもよい。
楕円平行線部位関係尤度と同じように、式(8)で尤度を定義することもできる。
なお、以上において部位間の一つの変量に基づく1次元の尤度関数を定義したが、部位関係尤度関数を2つ以上の変量に基づいて定義することもできる。
例えば、平行線間の距離lenに、2つ平行線のなす角ψ=|θ1−θ2|を変量とし、(len,ψ)の2次元パラメータとしての尤度を計算することもできる。尤度関数を統計的に求めることを考えると、距離lenが長い時に角度ψが小さくなったり、反対に距離lenが短い時に角度ψが大きくなるようなことはないという傾向を反映した分布が現れるはずである。
ここでは上腕と下腕を例にして説明したが、他の平行線特徴を用いる部位同士の組合せに対しても同様の部位関係尤度を計算する。
なお、部位尤度、部位関係尤度を計算するのに、色情報(色相、彩度、明度、同じ人物の顔と手などの肌の色は同じと見なせること)、服の模様やしわなどのテクスチャ情報、合焦度情報、エッジの強さ、それらの連続性なども用いることができる。また、肩や腰などの直線や曲線、上腕や下肢は先がやや細くなっている。このような直線や曲線の曲率や角度なども尤度を求めるのに利用できる。部位毎のエッジ画像を主成分分析した特徴量からも尤度を計算できる。また、時系列情報が得られる場合、部位の移動の速さや変化方向、周期性などからも尤度関数を生成できる。
人物確率算出部105は、部位の結合体として人体を検出するため、部位確率結合ネットワーク(以下PPCNと呼ぶ)を構成する(s10)。
PPCNのネットワーク構成の例は図18に示されている。
縦軸の部位候補と横軸の部位の組み合わせに対して、1つのノードが割り当てられる。ここでは、上腕、下腕および上肢、下肢を左右2つに区別するため、全部で10個の部位(図10参照)を割り当てることにする。さらに、最下行には、候補なしに対応するノードが設けられる。任意の2つのノード間には重みが定義されている。
各ノードには、対応する部位候補と部位に対する部位尤度が付与されている。一方2つのノード間のエッジ(アーク)には、対応する2つの部位候補を対応する2つの部位とみなした場合の部位関係尤度が重みとして付与されている。
PPCNの意味について説明する。最右列を除いた各列から、1つずつノードを選択すると、人体を構成する各部位の候補を選択することになる。選択された部位集合から、人体としての尤度を次のように計算することができる。
例えば、図18のように太線のノードが選択されたとする。
これらのノードには、P11,Pk2,P43,…,P3,10という部位尤度が付与されている。また任意の2つのノードPij,Pklの間には、部位関係尤度重みLij klが付与されている。
これらの尤度が統計的に独立な特徴量から計算されたものと仮定すると、人体としての尤度は、
L=P11・Pk2・P43・・・・P310・L11k2・L1143・・・・L11310・Lk243・・・
と計算することができる。
一般に、j番目の部位列から選ばれたk(j)番目の部位尤度をPk(j)jとすれば、人体尤度は、
となる。
ここで、選ばれたノード列に対し、任意の2つのノード間での部位関係尤度を考慮することにより、ある部位の候補がない場合(最下行のノードが選択された場合)でも、他の部位間との相互関係によって人体尤度をロバストに計算することができる。最下行のノードが選択された場合、そのノードの部位と他の部位の部位関係尤度は、最大尤度Lmaxのα倍(0<α<1の定数)に固定しておくことができる。この仕組みは、オクルージョンや撮影環境により画像特徴がうまく抽出できなかったときでもロバストに人体を検出するために役立つ。
今PPCNの説明として、ノードに部位尤度が付与され、エッジには、部位関係尤度が重みとして付与されている場合を説明したが、2つのノードの部位尤度と部位関係尤度の積を部位結合尤度としてエッジに付与させる構造を考えることもできる。
この場合、部位尤度の計算を省略できる場合がある。例えば、平行線l1が上腕、平行線l2が下腕である部位結合尤度として、(d1,d2)の2つのパラメータに対する尤度関数の値とL3=L3(len)との積を用いることができる。
以上の処理の後、さらにPPCNの最適化処理を行う(図9のs11)。これは、部位候補の組み合わせ最適化の問題に帰着される。
今回の説明では、人体形状特徴として楕円と平行線を挙げたが、他にも肩のラインの曲線や平行線として検出できない直線などがあることを考えると、候補数の増大に伴って、計算量が増えることが予想される。そこで効果的なアルゴリズムを適用するため、PPCNの最適化処理をエネルギーの最小化問題として定式化する。
上記式(9)の両辺の対数を取れば、エネルギー関数として次の2次形式を得ることができる。
制約式(11)は、オクルージョンなどで部位候補が存在しない場合や部位候補がすべて誤検出であるような場合のために必要な制約条件である。
Eを最小化する方法として、シミューレーティッド・アニーリングや遺伝アルゴリズムなどを用いれば良い。
例えば、シミューレーティッド・アニーリングを用いた場合の処理の流れを図19のシーケンス・フローを用いて説明する。
ここではネットワークの状態変数をΩi,jで表すことにする。ただしΩi,jは{0,1}に値をとる2値変数であり、i,jはネットワークの2次元上の位置を表している。iは1から部位数+1、jは1から候補数+1まで変化する。
初期状態として、すべてのi,jに対し、変数Ωi,jに対しランダムに0か1を割り当てる(s1)。
ネットワークの温度を初期温度T0とする(s2)。(Nb+n)個のネットワークのノードから反転ノードを一つランダムに選択する(s3)。
新しい状態をΛijとする。選択したノードが0であれば1、1であれば0にした状態である。
2つの状態のエネルギー関数の値の差E(Ωi,j)−E(Λij)を計算し、減少したか調べる(s4)。
もし減少したならば、新しい状態Λijをネットワークの状態として採用し、ステップs8に移行する(s5)。
関数値の差が増加した場合は、新しい状態を採用するかどうかを決定するため採用確率を次式で計算する(s6)。
確率pで、新しい状態を採用する(s7)。次に現在の温度値に対し、新しい温度を計算する(s8)。具体的には、定数α(0<α<1)を乗じ、T*αを新たな温度Tとする。
所定の回数を計算させても、状態変数が変化しないなら収束したと見なして、最適化を終了する。
最適解を計算した後、その経路をとることができないように最適解に相当する項をエネルギー関数に加算し、大きな重み係数を加えることにする。
最適解を検出後、その解を除くようにエネルギーを設定し、次の最適解を探索していく。
1つの解に対する人物尤度(エネルギー関数の第一項と第二項の和)とともに、各部位の位置や姿勢が得られるので、人数係数や動作解析を行うことができる(図9のステップs12)。
なお、(10)式のエネルギー関数を最小化する方法として、部位の組み合わせとして確率の高いノード間、あるいは、逆に確率の低いノード間を一塊のクラスタと見て大胆な状態遷移を行うことも考えられる。さらに遺伝アルゴリズムを用いる場合、遺伝子コーディングとして部位の順に候補番号を並べた構造を使うこともできる。
[第2の実施の形態]
図20は、本発明の第2の実施形態における検出装置の構成を示すブロック図である。
図における符号102〜108は、第1の実施の形態と同様であるので説明を繰りかえさない。
検出装置は、動画像を入力する動画像入力部101aを備える。動画像入力部101aは、デジタルビデオカメラから動画像を直接入力しても良いし、記憶媒体に保存された動画像を入力しても良い。
また、検出装置は、人物である確率が高い部位候補を追尾した結果のパラメータ時系列情報を記憶する時系列情報記憶部109を備える。
次に、検出装置の全体の処理の流れを図21のシーケンス・フローを用いて説明する。
今、説明を簡単にするために、第1の実施の形態と同じように、頭部の特徴として楕円形状を、他の部位の特徴として平行線分を考えることにする。
まず動画像入力部101から人物を検出したい動画像を入力する(s1)。フレーム間差分によって動き領域を抽出し、候補領域を制限する(s2)。
ステップs3からs8までの処理は、第1の実施の形態と同じであるので説明を繰り返さない。
次に部位確率結合分布(以下PPCDと呼ぶことにする)を生成する(s9)。
以下、PPCDの生成について図22を用いて説明する。
第1の実施の形態と同じように、頭部候補の楕円パラメータをD1=(X1,Y1,r1),D2=(X2,Y2,r2)・・・、平行線パラメータをl1=(x1,y1,d1,θ1),l2=(x2,y2,d2,θ2)とする。
また各楕円候補の頭部尤度をph(D1),ph(D2),…、平行線候補の上腕尤度をpua(l1),pua(l2),…、下腕尤度をpda(l1),pda(l2),…とする。他の平行線候補部位についても同様であるので、上腕と下腕のみで説明する。
各部位毎および各部位候補毎に部位尤度を用いて、部位尤度分布を以下のように生成する(図22のs1)。頭部に対しては、楕円部位候補の頭部尤度に分布を持たせる。
を頭部候補毎に計算する。
上腕に対しては、平行線部位候補の上腕尤度に分布を持たせる。
を上腕候補毎に計算する。
下腕に対しては、平行線部位候補の下腕尤度に分布を持たせる。
を下腕候補毎に計算する。
次に、部位毎に尤度分布の加算正規化を行う(図22のs2)。
となる。
パラメータ空間を部位に関して結合し、連接パラメータ空間に対して結合尤度関数を用いて総合尤度分布を生成する(図22のs3)。この総合尤度分布がPPCDとなる。
より詳しくは、各部位のパラメータベクトルを一列に並べ、連接パラメータ空間とする。すなわち、
図21のフローに戻って、連接パラメータ空間内のランダム・サンプリングを行う(s10)。
その際、動き領域を考慮した制限内で、ランダムサンプリングし、PPCDを用いて各サンプリング点の総合尤度を計算する(例えばサンプリング総数を1000とする)(s11)。
適当な閾値を決め、閾値以上のサンプリング点を残すことにする。それを、s0,s1,…,sNとする。また対応する総合尤度π0,π1,…,πNをとする。
さらに、以下の反復で使用するため、累積確率分布{cn}を次式で計算しておく。
0=π0
1=π0+π1
...
N=π0+π1+・・・+πN
なお、これらは最大で1になるように、正規化しておく。
そして、次のフレームの画像を読み込む(s12)。前フレームの事後確率と時系列運動方程式の状態遷移確率を事前情報として、サンプリング予測を行う(s13)。
サンプリング予測結果と新しい観測画像からサンプリング尤度の修正を行う(s14)。予測と尤度修正を新しい画像に対して繰り返していく。ステップs13とs14での処理については後述する。
情報が必要な時に人物確率を計算する(s15)。
現在のサンプル点s0,s1,…,sNと対応する尤度値π0,π1,…,πNを用いて、尤度値の高い点から順に初期値に用いて、最急降下法などの最適化手法によって極値を計算できる。
ステップs13とs14のステップに関して、図23のフローを用いて説明する。
区間[0 1]からのrの一様抽出を行う(s1)。先に求めた累積確率分布による対応パラメータの選定を行う(s2)。具体的には、r<cmとなる最小の整数値mを求め(2分探索などを用いる)、対応するパラメータsmを求める。
状態遷移確率p(st+1|st=sm)を用いて、ガウスサンプリングより、新しい連接パラメータst+1=s1’を求める(s3)。
ここで、p(st+1|st)は、時系列運動方程式を仮定することによって計算できる。例えば、
t+1=Axt+Bwt
(ここで、xtは時刻tにおける状態変数、Aは運動モデル行列、wはBによって正規化された標準ガウス分布で、BBTはノイズ共分散行列と仮定する。)
この時、
となる。
ここで状態変数xtが1つ固定されるとxt+1に関するガウス分布になる。
AやBは時系列情報記憶部107に記憶されたサンプル点の時系列データから最尤法などを用いて推定される。部位毎の速度情報がモデル化されることになる。
この過程をサンプル数N回繰り返す(s4)。
新しいN個のサンプルs1’,s2’,…,sN’を得、時系列情報記憶部107に記憶しておく。
次に新しいサンプル点を利用して、パラメータ領域を制限する(s5)。
これは次のフレームの画像に対して、各部位の候補領域や特徴を制限するものである。つまり各部位の位置や大きさ、方向に関して予測を与え、以下のステップの中で利用する。
フレーム間差分を用いて動き領域を抽出する(s6)。動き領域内のエッジ画像を生成する(s7)。
この時、ステップs5で得た情報を用いて関係する領域のみエッジ抽出し、予測される平行線が出易いよう2値化の閾値を調整したり、予測される方向範囲から方向性フィルタを選択し、人体に関係した特徴のみを高速に抽出する。
ステップs6とs7での処理は、特徴抽出部102の前処理部201で行われる。
ステップs8からs11までの処理は、図21のステップs4からs9までの処理と同じであるので説明は繰り返さない。
制限されたパラメータ領域の情報から計算されたPPCDを用いて、予測サンプルの総合尤度を評価する(s12)。
これは、予測サンプルs1’,s2’,・・・,sN’に対する事後確率を計算することを意味する。それらの総合尤度をπ0’,π1’,・・・,πN’とし、累積確率分布を計算する(s13)。
[第3の実施の形態]
図24は、本発明の第3の実施の形態における、プログラムを実行するコンピュータの構成を示すブロック図である。
図を参照して、コンピュータは、装置全体の制御を行なうCPU521と、表示部524と、ネットワークに接続したり外部と通信を行なうためのLAN(ローカルエリアネットワーク)カード530(またはモデムカード)と、キーボードやマウスなどにより構成される入力部523と、フレキシブルディスクドライブ525と、CD−ROMドライブ526と、ハードディスクドライブ527と、ROM528と、RAM529とを備えている。
上述のフローチャートに示される、CPU(コンピュータ)521を駆動させるためのプログラムは、フレキシブルディスク(F1)やCD−ROM(C1)などの記録媒体に記録することができる。このプログラムは、記録媒体からRAMその他の記録媒体に送られ、記録される。なお、プログラムはハードディスク、ROM、RAM、メモリカードなどの記録媒体に記録してユーザに提供するようにしてもよい。また、インターネットを介して外部のサイトなどよりそのようなプログラムをワークステーションやコンピュータにダウンロードして実行させるようにしてもよい。
[第4の実施の形態]
第4の実施の形態における検出装置および検出方法は、第1〜第3の実施の形態における検出装置および検出方法において、部位候補のパラメータ値として、さらに画像のエッジ情報、画像の色情報および画像のテクスチャ情報のうち少なくとも1つを測定し、それを用いて各部位ごとの部位確率を計算することを特徴としている。
すなわち、部位候補の判定を行なうときに、大きさ、位置、姿勢、長さ、幅、曲率、尖度、周波数特性などの少なくとも1つとともに(またはこれらに代えて)、色、テクスチャ、エッジのうち少なくとも1つの情報を用いるのである。
また、部位候補の任意の組合せに対して尤度を計算するときにおいても、大きさ、位置、姿勢、長さ、幅、曲率、尖度、周波数特性などの少なくとも1つとともに(またはこれらに代えて)、色、テクスチャ、エッジの情報を用いることとする。
本実施の形態における検出装置および検出方法の主要な部分は、上述の第1〜第3の実施の形態におけるそれと同じであるため、ここでの説明を繰返さない。ここでは本実施の形態における検出装置および方法が第1〜第3の実施の形態におけるそれらと異なる部分について説明する。
まず、本実施の形態において部位確率算出部103(図1、図20参照)での処理の具体例について説明する。ここでは、部位確率算出部103において行なわれる頭部候補楕円パラメータ抽出処理(図9のS5または図21のS6)および、楕円頭部確率計算処理(図9のS6または図21のS7)を例示して説明する。
第1〜第3の実施の形態と同様に、頭部である可能性の高い部分を得るために、まずエッジ画像からハフ変換などを用いて楕円形状を抽出し、頭部特徴候補とする。各階層で検出する楕円サイズを固定した場合、すべての階層において、部位確率算出部103で、各頭部特徴候補に対し、尤度が求められる。
頭部特徴候補に対し、その大きさに関する尤度p(d)および楕円内の色情報に関する尤度p(c)を用いて頭部の尤度を求める。
楕円の大きさについては、抽出した楕円のパラメータを参照すればよい。楕円の大きさについての尤度の値は部位確率データベースの尤度関数から計算される。尤度関数は、複数の人物画像から統計的に求めることができる。たとえば、身長や頭のサイズなどで正規化した複数の人物画像から、部位の大きさを計算しておき、大きさに関するヒストグラムを正規化するなどすればよい。すなわち、パラメータをd、平均をmd、標準偏差をσdとすると、尤度関数は上述の式(1)で近似することができる。これにより楕円の大きさに基づき、その楕円が人の頭である尤度p(d)を求めることができる。
楕円の位置と大きさとがわかっているので、画像における楕円領域を知ることができる。その領域内またはその近傍を含めた色情報を用いて、頭部の尤度を求めることができる。
たとえば以下のように、楕円内の黒色領域と肌色領域とを用いて、その楕円が頭部である尤度を算出することができる。すなわち、抽出された楕円内における髪の色領域(主に黒色系で定義)と肌色領域の占める割合である、
[(髪+肌)色画素数]/(全画素数)
を計算し、その値をパラメータRcとしておく。その値が大きければ、その楕円は頭部である確率が高いことを意味する。尤度の計算を行なうために、
p(c)=p(Rc
の関数を想定する。なお、色空間はRGB空間を用いることができる。YIQ空間など肌色抽出に適した空間を用いてもよいし、またはそれ以外の色空間を用いてもよい。
以上のように、楕円の大きさとその楕円内の色情報とにより、楕円が頭部である確率pheadは、例えば、
head=p(d)・p(c)
で表わすことができる。
以上のようにして、色情報を考慮して頭部の尤度を求めることが可能となる。
また、たとえば楕円内のテクスチャ情報を用いて頭部の尤度を求めるためには、以下の処理を行なうとよい。すなわち、楕円特徴候補に対し、その大きさに関する尤度p(d)および楕円内のテクスチャ情報に関する尤度p(T)を用いて頭部の尤度を求めるものである。
楕円の大きさに関する尤度については、上述したように関数p(d)を用いて求めることができる。
楕円内のテクスチャ情報については、以下の例による。楕円の位置と大きさとがわかっているので、画像における楕円領域がわかる。その領域内またはその近傍を含めたテクスチャ情報を用いて頭部の尤度が求められる。テクスチャ解析には、既知のさまざまな方法を用いることができる。たとえば、濃度共起行列を作成し、それをもとにエネルギ、エントロピ、相関、局所一様性、慣性などを求めて比較する方法や、画像を周波数変換し、そのパワースペクトルおよび周波数成分を比較する方法、さらに局所的にマッチングを行なう方法などを用いることができる。
たとえば、頭部候補領域の単独部位確率を求めるには、複数の人物画像から、頭部の平均的なテクスチャのパラメータTMを求めておき、頭部候補領域のパラメータTNとを比較し、その結果に応じて頭部である尤度p(T)を求める。
すなわち、以下のような関数を想定する。
p(T)=f(TN,TM
以上のようにして、大きさとテクスチャ情報とを用いて、楕円が頭部である確率pheadは、
head=p(d)・p(T)
で表わされる。
次に、部位結合確率算出部104(図1、図20)での処理の具体例について説明する。ここでは、平行線平行線部位関係確率計算(図9のS9、図21のS8)での処理を例に挙げて説明する。ここでは、関係を調べる2つの部位の組合せとして、上腕と下腕とを例に説明する。
平行線1と平行線2との相互の関係を求めるため、平行線1から抽出される特徴量をl1=(x1(l1),y1(l1),d1(l1),θ1(l1),C1(l1))、平行線2から抽出される特徴量をl2=(x2(l2),y2(l2),d2(l2),θ2(l2),C2(l2))とする。ここで、x(l),y(l),d(l),θ(l),C(l)は、それぞれ平行線のx座標、y座標、太さ、方向(平行線と画像のx軸(水平方向)とのなす角度)、および平行線内またはその近傍を含めた領域の色情報を表わす。
これらは、平行線のパラメータである4つの端点から求めることができる。平行線の位置(x座標およびy座標)、平行線の太さおよび方向の抽出方法については既に述べた。ここでは、色情報の抽出方法について述べる。
図17を参照して、エッジ1とエッジ2の端点を結んで得られる四角形P1a,P1b,P2b,P2aについて、その四角形内の色を1つの色で代表してよいかどうかを判断する。これは、単色度合いに基づき判断するものである。代表してよいのであればその代表色(平均値、最も多く出現する色、中間値など)を、よくなければ、単色でないという情報を記録しておく。
領域内の単色度合いを判断するためには、領域内の画素の色の分散値などから判断する方法や、領域内の階調数を落とし、ある階調に属する画素数が非常に多ければ単色であると判断する方法を用いることができる。この際、色空間はたとえばRGB空間が用いられるが、それ以外の色空間を用いてもよい。
2つの部位間の距離に基づく尤度を以下の式で計算する。
尤度関数は統計的なヒストグラムとして計算できる。また、ガウス分布などで近似することができる。L3と2つの部位間の幅の差に基づく尤度関数を組合せてもよい。この尤度関数はたとえば、以下のように表わされる。
4=L4(d) (ただしd=d1−d2
ここで、幅の差の絶対値をとらないことにより、L4として、負になる確率が小さくなるような分布を選べば、長袖であっても半袖であっても、上腕が下腕より細くなることはないという一般的な傾向を反映することができる。たとえば、γ分布を用いることができる。
また、平行線の色情報を用いて、部位ごとの色の類似度により確率を付与する。なお、単色度合いが強い(代表色を求めることができる)と判断された場合にのみ、色の類似度を尤度に反映させる。ある色空間でのそれぞれの代表色の間の距離を測り、その距離を色の類似度とする。色の類似度による部位間の結合確率を以下のように定義する。
5=L5(col)
(ただし、col=|C1−C2|:それぞれの平行線ペアの代表色の色空間内での距離)
このようにして、平行線平行線部位関係尤度は、平行線間の距離、太さの差および色の類似性によって、
L=L3・L4・L5
と定義できる。
また、テクスチャ情報を用いて部位同士の関係を調べる処理について説明する。
平行線1から抽出される特徴量をl=(x1(l1),y1(l1),d1(l1),θ1(l1),T1(l1))、平行線2から抽出される特徴量をl2=(x2(l2),y2(l2),d2(l2),θ2(l2),T2(l2))とする。ここで、x(l),y(l),d(l),θ(l),T(l)は、それぞれ平行線のx座標、y座標、太さ、方向(平行線と画像のx軸(水平方向)とのなす角度)、および平行線内の領域またはその近傍を含めた領域のテクスチャ情報を表わす。これらは、平行線のパラメータである4つの端点から求めることができる。
テクスチャ情報の抽出においては、図17で示されるエッジ1とエッジ2との端点を結んで得られる四角形P1a,P1b,P2b,P2aについて、その四角形内部のテクスチャ解析を行ない、その結果を記憶しておく。テクスチャ解析の手法は、前述したとおり既知のさまざまな方法を用いることができる。
2つの部位間の距離に基づく尤度L3、および2つの部位の幅の差に基づく尤度L4の求め方については既に述べた。
平行線のテクスチャ情報を用いて、部位ごとのテクスチャの類似度による確率を付与するために、類似度による部位間の結合確率を以下の式により定義する。
5=L5(T1,T2
このようにして、平行線平行線部位関係尤度は、平行線間の距離、太さの差およびテクスチャの類似性によって、
L=L3・L4・L5
で定義できる。
なお、ここでは平行線と平行線との間の尤度を求める例を示したが、楕円と平行線との間の尤度をテクスチャ情報や色情報などに基づいて求めるようにしてもよい。
このようにして、本実施の形態においては部位尤度、部位関係尤度を計算するのに色情報(色相、彩度、明度など)、髪の毛、服の模様や皺などのテクスチャ情報を考慮することができる。なお、このような色情報やテクスチャ情報に代えて、部位ごとのエッジ画像を主成分分析した特徴量から尤度を計算するようにしてもよい。
このようにして本実施の形態においては、人体部位候補の部位らしさおよび部位間の相互関係を利用し、人体らしさを確率的に計算する方法において、特徴量として色およびテクスチャ情報をも考慮することで、部位らしさの確率、または人体らしさの確率の計算精度向上を図ることが可能となる。
また、本実施の形態における処理も、人体のみならず形状などが変化する物体の認識に用いることが可能である。
[第5の実施の形態]
第5の実施の形態における検出装置および検出方法は、第1〜第4の実施の形態における検出装置および検出方法が作成する図18のネットワークにおいて、候補なしのノード(図18における最下行に位置するノードであり、「オクルージョンノード」と呼ぶ。)が選択される確率(ある部位が隠れていると判断される確率)を、他のノードが選択される確率に基づいて算出することとしている。
図25は、本実施の形態における装置での処理を示すフローチャートである。
図を参照して、本実施の形態においては、図9のフローチャートと比較して、ステップS9の後に、オクルージョンノードの項が計算される(S10)。
すなわち図26に示される、ハッチングが他の部分と異なる最下行のオクルージョンノードが人体を構成するノードとして選択される確率は、オクルージョンノード以外のノードの要素に基づき決定される。
より詳しくは、ある部位bとして選択されるオクルージョンノードの人体尤度への寄与は、以下のように計算される。まず平均的な人体モデルから最も離れた部位尤度、および部位関係尤度が計算される。計算された部位尤度および部位関係尤度の総和がオクルージョンノードの項として割り当てられる。これにより、人体モデルを構成するノードとしてオクルージョンノードが選択される可能性を低くすることができる。
たとえば、L(b)を部位候補kが部位bである部位尤度、CL(b,j)をノードbとjとの間の部位部位関係尤度と定義すると、ある部位bのオクルージョンノードの項(または、部位が隠れている確率)Kは、式(25)により計算される。
すなわち、式(25)によって、人体モデルとして仮定できる様々な人体姿勢に対応する尤度値を求め、その最大値以上をKに設定することで、オクルージョンノードが選択される可能性を低くするものである。
または、式(25)に代えて、仮定した尤度関数を用いた以下の式(26)を採用することとしてもよい。
なお、式(26)において、L(x)は部位bの部位尤度を求めるための尤度関数を示し、Lbj(x)は部位b、j間の部位関係尤度を求める尤度関数を示し、K、KCLはそれぞれ経験的に求められる定数を示す。
これにより、配置に信頼関係が少ないところでは、オクルージョンノードの人体尤度への寄与が小さめに設定されることになる。2つの部位の配置関係に対する自由度が高い場合、尤度関数が一様分布であると仮定すると、オクルージョンノードを含むある2つのノードのペアの部位関係尤度は低い値をとることとなり、そのペアが選択される可能性(図28)は低くなる。
オクルージョンノードに関するエネルギー関数として、下記の式(27)を用いる。なお、式(27)におけるKの値として、上記式(25)または(26)のKを用いる。
なお、式(29)は、人体において、各部位を1つとするための(図26において縦方向に並ぶノードからは1つのみを選択するための)制約条件である。
なお、Eを最小化する方法として、以下のようにして遺伝アルゴリズムを用いることができる。
図27は、遺伝アルゴリズムを用いた最適化処理を示すフローチャートである。
遺伝子コーディングとして、部位の順に候補番号を並べた構造を用いる。ステップS01で、遺伝プールの中に初期染色体を満たす。
ステップS02で、任意の2つの染色体をランダムに選択する。
ステップS03で、確率pで交叉処理を行う。
ステップS04で、確率qで突然変異処理を行う。
ステップS05で、ステップS02からステップS04までの処理をN回繰り返す。
ステップS07で、適応度を計算し、ステップS08で遺伝子プールを更新する。
なお、上記ステップS03で交叉確率を計算する処理は、以下のステップに従う。
(ステップS101)
親1の任意の2つの遺伝子i,jの間の局所尤度の値を計算する。
遺伝子iの部位尤度をP、遺伝子jの部位尤度をP、遺伝子iとjの間の結合尤度をLi,jとすれば、局所対数尤度LLi,jは、式(30)により計算される。
(ステップS102)
親1の任意の2つの遺伝子i,jの間に、局所尤度の値に依存した確率Pbond(LL)でボンドを生成するか否かを決定する。遺伝子i,jの間にボンドが生成された時、B(i,j)=1と表現する。
(ステップS103)
互いにボンドで連結した遺伝子から構成されるクラスタを抽出する。すなわち、クラスタの集合を、{C,C,・・・,C}、C={g,g,・・・,gim}とすれば、各クラスタiに対して、任意のs,tについて、B(g,g)=1である。
(ステップS104)
クラスタサイズの大きいものから順にN個、子2にコピーする。同一サイズのクラスタが複数ある場合には、内部の局所対数尤度が低いものから順にコピーする。
(ステップS105)
子2の残りの遺伝子座に親2の遺伝子をコピーする。
(ステップS106)
親2についてもステップS101からS103を繰り返し、クラスタを抽出する。
(ステップS107)
子1に対してステップS104からS105を繰り返す。
(ステップS108)
交叉確率外であれば、2つの親の染色体を2つの子にコピーする。
[第6の実施の形態]
第6の実施の形態は、第5の実施の形態と同様に、オクルージョンノードが選択される確率を他のノードに基づいて算出するものであるが、各々のオクルージョンノード毎に、部位尤度を求め、オクルージョンノードと他のノードとの部位関係尤度を求めることを特徴としている。
より詳しくは、本実施の形態ではPPCNにおいて、オクルージョンノードを含めて、各々のノードには、対応する部位候補と、その部位に対する部位尤度が付与される。一方、2つのノード間のエッジ(アーク)には、対応する2つの部位候補を、対応する2つの部位とみなした時の部位関係尤度が重みとして付与される。
オクルージョンノードの部位尤度L、各部位候補とオクルージョンノードとの間の部位関係尤度CLk,Mを式(31)で定義する。
ここで、σ1、σ2として適当な減少関数(シグモンド関数など)を仮定することにより、あるオクルージョンノードは部位尤度、部位関係尤度が共に低いノードとして存在することになる。
これにより配置に信頼関係が少ないところでは、オクルージョンノードの部位尤度、部位関係尤度が小さめに設定される。2つの部位の配置関係に対する自由度が高い場合、尤度関数が一様分布であると仮定すると、オクルージョンノードを含むある2つのノードのペアの部位関係尤度は低い値をとることとなり、そのペアが選択される可能性は低くなる。
[実施の形態における効果]
上述の実施の形態によると、画像から簡単に抽出される人体部位候補の部位らしさの確率と部位間の相互関係とを利用して人体らしさを確率的に計算することにより、オクルージョンや撮影環境の変化に対してロバストかつ計算コストを増大させることなく、人体検知や姿勢推定を行うことができる。
また、本実施の形態における構成は、3次元人体モデルを画像に当てはめる際の初期値推定の自動化に適用することができる。
さらに、複数部位から構成され、かつ、部位間の関係が既知であり、かつ、その関係に自由度があるために全体として形状が複雑に変化するような物体の認識であれば、本発明は認識対象オブジェクトを人体に限定せずに適用することができる(例:動植物、変形可能な機械、例えば、ホースや取っ手等の変形可能な部品があり、吸い込み口の形状が数タイプ存在する掃除機等)。
(発明の他の構成例)
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。
(1) 複数の部位から構成される検出対象を画像から検出する検出方法をコンピュータに実行させるプログラムであって、
前記画像から前記複数の部位の候補となる部位候補を抽出する抽出ステップと、
抽出された部位候補ごとに、前記各部位のうち少なくとも1つとしての確率を算出する確率算出ステップと、
前記各部位の隠れ確率を推定する推定ステップと、
前記確率算出部によって算出された確率、前記推定ステップで推定された隠れ確率、および前記部位候補の配置関係に基づき、前記検出対象としての確率の高い部位候補の組合せを選択する選択ステップとをコンピュータに実行させる、検出プログラム。
(2) (1)に記載の検出プログラムを記録した、コンピュータ読取可能な記録媒体。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の第1の実施の形態における物体姿勢推定装置の構成を示すブロック図である。 特徴抽出部102の基本構成を示すブロック図である。 図1の画像入力部101に入力された画像の具体例を示す図である。 図3の画像が図2の前処理部201で処理された結果を示す図である。 図4の画像が図2の部位候補抽出部202で処理された結果を示す図である。 楕円に対してのパラメータ値の計算例を示す図である。 平行線分に対してのパラメータ値の計算例を示す図である。 部位確率算出部103の処理を説明するための図である。 図1の装置での全体の処理の流れを示すフローチャートである。 人体の構成モデルを示す図である。 図9のステップs3の詳細を示すフローチャートである。 水平方向線分の抽出方法を示すフローチャートである。 線分のペアの抽出方法を示すフローチャートである。 あるラベルについてペアを探す処理を示すフローチャートである。 ペアであるエッジを示す図である。 ペアでないエッジを示す図である。 平行線のペアのパラメータの求め方を説明するための図である。 PPCNのネットワーク構成の具体例を示す図である。 シミューレーティッド・アニーリングを用いたエネルギー最小化処理を示すフローチャートである。 第2の実施形態における検出装置の構成を示すブロック図である。 図20の検出装置の全体の処理の流れを示すフローチャートである。 PPCDの生成について説明するための図である。 図21のステップs13とs14の処理を示す図である。 本発明の第3の実施の形態における、プログラムを実行するコンピュータの構成を示すブロック図である。 第4の実施の形態での全体の処理の流れを示すフローチャートである。 PPCNのネットワーク作成における部位と部位候補を示す図である。 遺伝アルゴリズムを用いた最適化処理を示すフローチャートである。 PPCNのネットワーク作成における部位と部位候補を示す図である。
符号の説明
101 画像入力部、101a 動画像入力部、102 特徴抽出部、103 部位確率算出部、104 部位結合確率算出部、105 人物確率算出部、106 出力部、107 部位確率データベース、108 部位結合確率データベース、109 時系列情報記憶部、201 前処理部、202 部位候補抽出部、203 部位候補パラメータ算出部。

Claims (10)

  1. 複数の部位から構成される検出対象を画像から検出する検出装置であって、
    前記画像から前記複数の部位の候補となる部位候補を抽出する抽出部と、
    抽出された部位候補ごとに、前記各部位のうち少なくとも1つとしての確率を算出する確率算出部と、
    前記各部位の隠れ確率を推定する推定部と、
    前記確率算出部によって算出された確率、前記推定部で推定された隠れ確率、および前記部位候補の配置関係に基づき、前記検出対象としての確率の高い部位候補の組合せを選択する選択部とを備え
    前記推定部は、前記確率算出部によって算出された確率、および前記部位候補の配置関係に基づき前記隠れ確率を推定する、検出装置。
  2. 前記推定部は、平均的な人体モデルから最も離れた部位尤度、および平均的な人体モデルから最も離れた部位関係尤度を計算し、その計算結果に基づき前記隠れ確率を推定する、請求項1に記載の検出装置。
  3. 前記推定部は、部位が隠れていると判断するときの部位尤度を他の部位候補の部位尤度から算出し、部位が隠れていると判断するときの部位関係尤度を他の部位候補の部位関係尤度から計算する、請求項に記載の検出装置。
  4. 前記選択部は、部位が隠れている場合を含む複数の組合せから、エネルギー関数を用いて検出対象としての確率の高い部位候補の組合せを選択する、請求項1〜3のいずれかに記載の検出装置。
  5. 前記選択部は、前記確率算出部によって算出された確率、前記推定部で推定された隠れ確率、および前記部位候補の配置関係に基づき、最適化処理により前記検出対象としての確率の高い部位候補の組合せを選択する、請求項1〜4のいずれかに記載の検出装置。
  6. 複数の部位から構成される検出対象を画像から検出する検出方法であって、
    前記画像から前記複数の部位の候補となる部位候補を抽出する抽出ステップと、
    抽出された部位候補ごとに、前記各部位のうち少なくとも1つとしての確率を算出する確率算出ステップと、
    前記各部位の隠れ確率を推定する推定ステップと、
    前記確率算出部によって算出された確率、前記推定ステップで推定された隠れ確率、および前記部位候補の配置関係に基づき、前記検出対象としての確率の高い部位候補の組合せを選択する選択ステップとを備え、
    前記推定ステップは、前記確率算出ステップによって算出された確率、および前記部位候補の配置関係に基づき前記隠れ確率を推定する、検出方法
  7. 前記推定ステップは、平均的な人体モデルから最も離れた部位尤度、および平均的な人体モデルから最も離れた部位関係尤度を計算し、その計算結果に基づき前記隠れ確率を推定する、請求項6に記載の検出方法。
  8. 前記推定ステップは、部位が隠れていると判断するときの部位尤度を他の部位候補の部位尤度から算出し、部位が隠れていると判断するときの部位関係尤度を他の部位候補の部位関係尤度から計算する、請求項に記載の検出方法。
  9. 前記選択ステップは、部位が隠れている場合を含む複数の組合せから、エネルギー関数を用いて検出対象としての確率の高い部位候補の組合せを選択する、請求項6〜8のいずれかに記載の検出方法。
  10. 前記選択ステップは、前記確率算出ステップによって算出された確率、前記推定ステップで推定された隠れ確率、および前記部位候補の配置関係に基づき、最適化処理により前記検出対象としての確率の高い部位候補の組合せを選択する、請求項6〜9のいずれかに記載の検出方法。
JP2003407063A 2003-12-05 2003-12-05 検出装置および検出方法 Expired - Fee Related JP4419543B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003407063A JP4419543B2 (ja) 2003-12-05 2003-12-05 検出装置および検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003407063A JP4419543B2 (ja) 2003-12-05 2003-12-05 検出装置および検出方法

Publications (2)

Publication Number Publication Date
JP2005165923A JP2005165923A (ja) 2005-06-23
JP4419543B2 true JP4419543B2 (ja) 2010-02-24

Family

ID=34729225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003407063A Expired - Fee Related JP4419543B2 (ja) 2003-12-05 2003-12-05 検出装置および検出方法

Country Status (1)

Country Link
JP (1) JP4419543B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145346A (ja) * 2007-12-14 2009-07-02 Palo Alto Research Center Inc 検知システム
US20170213360A1 (en) * 2011-01-24 2017-07-27 Panasonic Corporation Posture state estimation apparatus and posture state estimation method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7436980B2 (en) * 2004-05-27 2008-10-14 Siemens Corporate Research, Inc. Graphical object models for detection and tracking
JP4699056B2 (ja) * 2005-03-15 2011-06-08 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
DE102005037841B4 (de) * 2005-08-04 2010-08-12 Gesellschaft zur Förderung angewandter Informatik e.V. Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
KR100682953B1 (ko) * 2005-12-14 2007-02-15 삼성전자주식회사 인물 검출장치 및 방법
JP5027741B2 (ja) * 2008-06-18 2012-09-19 セコム株式会社 画像監視装置
CN102257529B (zh) 2008-12-22 2014-03-19 日本电气株式会社 判断人的设备、方法
CN103004236B (zh) 2010-07-23 2015-09-09 日本电气株式会社 音频设备和振荡单元
CN103210421B (zh) 2010-12-09 2016-03-02 松下电器产业株式会社 物体检测装置及物体检测方法
JP5801237B2 (ja) 2012-03-29 2015-10-28 パナソニック株式会社 部位推定装置、部位推定方法、および部位推定プログラム
JP2014135948A (ja) * 2013-01-18 2014-07-28 Dainippon Printing Co Ltd 培地情報登録システム、コロニー検出装置、プログラム及び衛生管理システム
US10043084B2 (en) * 2016-05-27 2018-08-07 Toyota Jidosha Kabushiki Kaisha Hierarchical context-aware extremity detection
JP6750931B1 (ja) * 2020-02-10 2020-09-02 株式会社 テクノミライ デジタル・モーションフォーミュラ・セキュリティシステム、方法及びプログラム
CN112651322B (zh) * 2020-12-22 2024-05-24 北京眼神智能科技有限公司 脸颊遮挡检测方法、装置及电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145346A (ja) * 2007-12-14 2009-07-02 Palo Alto Research Center Inc 検知システム
US20170213360A1 (en) * 2011-01-24 2017-07-27 Panasonic Corporation Posture state estimation apparatus and posture state estimation method
US10600207B2 (en) * 2011-01-24 2020-03-24 Panasonic Corporation Posture state estimation apparatus and posture state estimation method

Also Published As

Publication number Publication date
JP2005165923A (ja) 2005-06-23

Similar Documents

Publication Publication Date Title
JP4318465B2 (ja) 人物検出装置および人物検出方法
JP6891351B2 (ja) 多特徴検索と変形に基づく人体髪型の生成方法
JP4419543B2 (ja) 検出装置および検出方法
JP4571628B2 (ja) 顔認識システム及び方法
Samko et al. Selection of the optimal parameter value for the Isomap algorithm
Liang et al. Pose-invariant facial expression recognition
Liu Discriminative face alignment
CN111310659B (zh) 基于增进式图卷积神经网络的人体动作识别方法
US8311954B2 (en) Recovery of 3D human pose by jointly learning metrics and mixtures of experts
US20060210168A1 (en) Apparatus and method for generating shape model of object and apparatus and method for automatically searching for feature points of object employing the same
JP2011022994A (ja) パターン処理装置及びその方法、プログラム
KR20130013122A (ko) 객체 자세 검색 장치 및 방법
CN114616588A (zh) 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质
JP2005351814A (ja) 検出装置および検出方法
Krzeszowski et al. Gait recognition based on marker-less 3D motion capture
Lanitis et al. Locating facial features using genetic algorithms
Yu et al. Explicit occlusion detection based deformable fitting for facial landmark localization
JP7054760B2 (ja) 物体認識システム、位置情報取得方法、及びプログラム
JP4238537B2 (ja) 画像処理装置
Deng et al. View-invariant gait recognition based on deterministic learning and knowledge fusion
CN114998966A (zh) 基于特征融合的人脸表情识别方法
Jaiswal et al. Brief description of image based 3D face recognition methods
Soni et al. Deep neural network and 3D model for face recognition with multiple disturbing environments
Zhang et al. Intelligent measurement of spinal curvature using cascade gentle AdaBoost classifier and region-based DRLSE
JP2022518036A (ja) ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4419543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees