JP2004005384A - 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置 - Google Patents
画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置 Download PDFInfo
- Publication number
- JP2004005384A JP2004005384A JP2002371033A JP2002371033A JP2004005384A JP 2004005384 A JP2004005384 A JP 2004005384A JP 2002371033 A JP2002371033 A JP 2002371033A JP 2002371033 A JP2002371033 A JP 2002371033A JP 2004005384 A JP2004005384 A JP 2004005384A
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- area
- region
- eye
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】画像処理装置は、入力されたカラー画像をデジタルデータとして出力する画像入力部11と、このカラー画像から肌色領域を抽出する肌色領域抽出部12と、カラー画像及び肌色領域から人物の頭頂部の位置を検出する頭頂部検出部13と、肌色領域及び頭頂部の位置から人物の口を検出する口検出部14と、カラー画像並びに肌色領域及び頭頂部の位置から人物の眼を検出する眼検出部15と、眼及び口の位置から人物の顎位置を算出する顎検出部16と、カラー画像並びに口及び眼の位置から人物の顔の中心線を検出する中心線検出部17と、頭頂部、眼、顎の位置及び顔中心線に基づき顔領域を修正する領域修正部18と、カラー画像、肌色領域、眼及び口の位置、並びに修正済み長方形領域が入力され、抽出された肌色領域が人物の顔であるか否かを判定する判定部19とから構成される。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、例えば、ビデオカメラ、スチルカメラ、監視用カメラ、TV電話、画像データベース及びプリンタ等から入力される画像から人物の顔領域を抽出し、人物の追尾、パラメータ制御、画質補正、又は検索等を行なう際等に使用される画像処理方法、画像処理装置、画像処理を実行するプログラム及びそのプログラムを記録した記録媒体、並びにその画像処理を使用した自動トリミング装置及び肖像写真撮影装置に関する。
【0002】
【従来の技術】
画像から人物の顔領域を抽出する方法は大きく2つに分類できる。第1の方法は、顔の顕著な特徴の1つである色の情報を利用するものであり、何らかの色空間上において、肌色に相当する範囲を予め設定しておき、その範囲内に含まれる色を有する画素の集合として顔領域を抽出する。この方法は処理が簡単なこと及び顔の向きや大きさが変化しても色自体はあまり変化しない等の理由から広く用いられているが、顔以外の物体が同一の色を有する可能性は排除できず、本質的に過検出を回避することは不可能である。そこで抽出された領域を最終的に抽出すべき領域の候補とみなし、その後段において領域形状や領域内の濃淡パターン等を用いてより詳細に判別を施す方法が多く提案されている。この場合、顔には対応しない領域が色情報によって抽出されたとしても、その他の情報によって除去することが可能となり、より正確な抽出処理を行なうことができる(従来例1)。
【0003】
一方、第2の方法は、顔の特徴を表すテンプレートを予め用意しておき、入力された画像上の全ての位置においてパターンマッチングを行うものであり、テンプレートとの一致度が大きい領域を顔領域と判定する。この方法では、顔の濃淡パターンの特徴を用いることで、照明条件及び人種の違い等による顔色の変化に影響を受けにくいという利点を有する。また、多くのデータを用いた適切な学習により、良質なテンプレートが生成できれば、精度の高い抽出が期待できる(従来例2)。
【0004】
ところで、各種照明写真では、顔領域の大きさ及び位置に対する制約がある場合があり、本来必要とされるよりも大きなサイズで撮影した後、顔領域が所定の大きさとなるようにトリミングが施されている。
【0005】
例えば下記特許文献1には、均一な色の背景上に上半身が撮影された肖像画像を所定の大きさのフレーム内において人物の頭部が所定位置になるように処理する画像処理装置が開示されている(以下、従来例3という。)。
【0006】
従来例3に記載の画像処理装置においては、先ず、読み込んだ肖像画像に対し、肖像画像内の人物の頭部が収まるように、例えば証明写真入りカードに印刷される顔写真の大きさのフレームをオペレータにより設定し、次に、フレーム内の人物の頭部左端、頭部右端及び頭頂部を検出し、この検出結果に基づきフレームの位置を修正し、最後にフレームの外側の背景を削除するトリミングを行うものである。
【0007】
また、下記特許文献2には、1枚の画像から背景画像を消去して前景画像を抽出する前景画像抽出方法が開示されている(以下、従来例4という。)。
【0008】
従来例4に記載の前景画像抽出方法においては、先ず、対象物が存在しない背景画像を撮影し、この背景画像と同一フレームで前景に対象物を位置させた対象画像を撮影し、次いで背景画像と対象画像との所定共通領域における明るさの差分を算出する。そして、背景画像と対象画像とから差分画像を求め、上記共通領域の差分から差分画像を補正し、第1のマスク画像を得る。次に、この第1のマスク画像に対して、明るさの膨張・縮小処理及び色の膨張・縮小処理を施し、更に、対象物と背景との境界を判別してこの境界にて領域を分割した第2のマスク画像を生成する。最後に、対象画像と第2のマスク画像とを重ね合わせ、対象画像の背景を単一色に変換した画像を生成する。
【特許文献1】
特開2002−42116号公報
【特許文献2】
特開2000−36032号公報
【0009】
【発明が解決しようとする課題】
ところで、色に基づく領域抽出において、個体差及び照明条件等の変化に対応するために抽出する色の範囲をある程度広く設定すると、不要な領域を抽出してしまう過検出が増加してしまう。一方、過検出を抑制するために、色の範囲を小さくすると、個体差及び照明条件等の変化による影響により、所望の領域が抽出されない検出漏れが増加するという問題点がある。
【0010】
しかしながら、従来例1のように、後段になんらかの判別処理を設けることを前提とすれば、前処理における検出漏れは大きな問題となり、むしろ過検出は許容され得ると考えられるが、実際には過検出された領域が判別処理の性能を大きく劣化させる可能性がある。例えば、隣接する異なる物体が類似した色を有する場合、各物体に対応する領域が画像上で連結し、1つの領域として抽出される可能性があるが、この場合、もはやその領域形状及び領域内部の濃淡パターンは対応する物体の性質を反映しないため、正しい判別を行なうことが困難になるという問題点がある。
【0011】
これに対して、従来例2のように、抽出された領域内を走査し、特定の形状及び濃淡パターンを探索する方法もあるが、大きさの正規化処理等が複雑になり、判別処理に要する演算量が大きくなるといった問題点がある。
【0012】
また、従来例3に記載の技術においては、多くの画像を取り込んだ後、一括してトリミングを行うものであるが、少なくとも1枚目の画像についてはフレーム位置を決定するためにオペレータの介在を必要とする。このように、通常の各種照明写真の撮影は、顔領域の位置及び大きさの要求条件を満足するため、その撮影及び後処理等に人手の介入が必要となり、煩雑となるといった問題点がある。
【0013】
更に、従来例3に記載の技術においては、2枚目以降の画像に対しては、1枚目のフレームの設定条件を使用することにより、再度フレームを設定し直すことなく自動処理を行うことができるものの、処理対象となる肖像画像における頭部が全て1枚目の画像で設定したフレーム位置の内部に存在するとは限らず、撮影時に頭部の位置を制限するか、又はトリミング処理時にフレームの再設定を繰り返す必要がある。更にまた、頭部左端、頭部右端及び頭頂部は、輝度情報が大きく変化した位置として検出するものであるが、このような検出方法は、背景輝度の影響を受けやすく、例えば、背景輝度が均一であることを仮定しても、実際には証明条件等によって陰影及び背景の輝度ムラ等が生じ、このことにより、誤った位置が検出される可能性があるという問題点がある。
【0014】
また、従来例4に記載の技術においては、背景画像と対象画像との差分によって被写体を抽出するため、予め背景のみの画像を撮影しておく必要がある。更に、背景画像との差分を求めるため、対象画像の背景色の変化に上記差分が影響を受ける虞がある。このため、従来例4に記載の技術においては、背景画像の背景色の補正を行っているものの、背景画像を補正するための閾値の設定が難しく必ずしも正確に補正できるとは限らない。また、従来例4に記載されている大局的な方法では、照明条件によっては被写体自身による影が背景部分に生じる等の局所的な変化を補正することができない。
【0015】
更にまた、従来例4に記載の技術においては、顔画像の中心線を肌色画像の水平方向の重心配列により求めているが、顔に水平方向の陰影がある場合、暗い部分が肌色画素として抽出されずに中心線が大きくずれる可能性がある。また、肌色閉鎖領域の最下部をあごの位置としているため、顔の領域が首の領域と連結した閉鎖領域となった場合、あごの位置が大きくずれてしまうという問題が生じる。この問題を回避するため、抽出する肌色の範囲を明るさによって変化させているものの、これについても閾値の問題であり、常に顔と首とが分離されるとは限らないという問題点がある。
【0016】
また、上述の従来例1乃至4においては、複数の人物が存在する画像、即ち、複数の顔領域(肌色領域)が存在するような画像においては、適切なトリミングができないという問題点がある。
【0017】
本発明はこのような事情に鑑みて提案なされたものであり、肌色による顔抽出処理と簡単な判別処理の組み合わせにより、複数の顔領域が存在する場合であっても、高速かつ正確に顔領域を抽出する方法、装置及びそれらをコンピュータによって実行するためのプログラムを記録した記録媒体、これらの処理によって抽出された顔領域を自動でトリミングする自動トリミング装置、この自動トリミングの機能を備えた肖像画像撮影装置を提供することを目的とする。
【0018】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係る画像処理方法は、入力されたカラー画像から、人物の顔領域を抽出するための画像処理方法において、肌色の領域を抽出する肌色領域抽出工程と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出工程と、上記肌色領域及び上記特徴点の位置に基づき、上記肌色領域が顔領域であるか否かを判定する判定工程とを有することを特徴とする。
【0019】
本発明においては、入力画像から肌色領域を抽出し、この肌色領域に基づき顔の特徴点の位置を検出し、この特徴点の位置に基づき肌色領域が顔であるか否かを判定するため、複数の肌色領域が抽出された場合においても、それらの肌色領域が顔か否か判定することが可能であり、誤検出を低減し、精度よく顔領域を抽出することができる。
【0020】
また、上記特徴点検出工程は、上記肌色領域を含む閉領域における水平方向の赤みの強さを示す赤み強度分布に基づき口の位置としての垂直方向の座標を検出する工程を有し、例えば、上記赤み強度の平均値が最も大きい垂直方向の位置座標を口の位置とすることができ、赤みの強さを示す赤み強度の分布に基づいて口の位置を検出するため、口の位置を精度よく検出することができる。
【0021】
更に、上記赤み強度は、各画素における3原色の値をR、G、Bとしたとき、GがBよりも大きい場合はGに対するRの比とGに対するBの比とを積算した値とし、GがBよりも小さい場合はBに対するRの比とBに対するGの比とを積算した値とすることができる。
【0022】
更にまた、上記口検出工程では、上記閉領域内に存在し、かつ肌色領域に属さない画素の上記赤み強度のみを使用して上記口の位置を検出することができ、口となる領域は、肌色領域には属さないことを利用して口の位置を検出するため、口の位置検出の精度を更に高いものとすることができる。
【0023】
また、上記口検出工程では、上記閉域内における画素の位置及び/又は明るさに応じて上記赤み強度に異なる重み付けをし、上記水平方向の重み付け平均値の最も大きい位置の垂直方向の座標位置を上記口の位置として検出することができ、これにより、口となる領域の位置及び輝度情報が事前に把握できる場合等の検出精度を向上することができる。
【0024】
更に、上記特徴点検出工程は、上記人物の頭頂部における垂直方向の座標位置を検出する頭頂部検出工程と、上記閉領域における水平方向の赤み強度分布に基づき口の位置としての垂直方向の座標を検出する口検出工程とを有し、上記眼検出工程は、上記口の位置と上記頭頂部の位置とに基づき眼の探索範囲を設定し、この探索範囲内から上記眼の位置を検出することができ、検索範囲を設定して眼の位置を検出するため、検出精度が極めて高い。
【0025】
更にまた、上記頭頂部検出工程では、人物の背景が単一色である場合、上記肌色領域の上方の領域を上記入力カラー画像最上部から下部方向に走査し、上記背景色と異なる色の画素が出現する位置を上記頭頂部の位置として検出することができ、更に、上記入力カラー画像最上部から下部方向への走査では、随時更新した背景色と各画素との色の比較することができ、これにより、精度よく頭頂部の検出をすることができる。
【0026】
また、上記頭頂部検出工程では、上記人物を含まない背景のみの画像と、上記人物が含まれる画像との画素毎の差分を算出し、この差分が予め設定された閾値以上の画素のうち、最も上部に存在する画素の座標を上記頭頂部の位置として検出してもよく、差分画像を使用することにより、更に高精度に頭頂部を検出することができる。
【0027】
更に、上記特徴点検出工程は、上記人物の頭頂部における垂直方向の座標位置を検出する頭頂部検出工程を有し、上記頭頂部検出工程は、上記頭頂部が上記入力カラー画像内に存在するか否かを判定する頭頂部判定工程を有し、該頭頂部判定結果に基づき上記肌色領域が顔領域であるか否かを判定することができ、上記頭頂部判定工程では、上記肌色領域の上方の領域を上記入力カラー画像最上部から下方へ予め設定された数の走査線における画素値の分散が算出され、この分散値が所定の閾値よりも大きい場合には、上記頭頂部が上記入力カラー画像内に存在しないと判定することができ、画像中に頭頂部が含まれていない場合、適切に人物の顔領域が撮影されていないとして、撮影のしなおしを促すことが可能となる。
【0028】
更にまた、上記特徴点検出工程は、上記口の位置に基づき、上記人物の顔を左右に分割する中心線の位置を検出する中心線検出工程を有することができ、更に、上記中心線検出工程では、上記口の位置近傍座標における上記赤み強度が大きい画素の重心位置を算出しこの重心位置の水平方向の位置座標を検出するか、又はロバスト推定を使用して重心位置を算出することができ、極めて高精度に顔中心線を検出することができる。
【0029】
また、上記中心線検出工程では、上記口の位置近傍の座標において上記肌色領域に属さず、かつ上記赤み強度が大きい画素の重心位置を算出し、この重心位置の水平方向の位置座標を検出することが好ましく、これにより、肌色領域に属さず、赤み強度が所定の閾値以上であるような大きい画素の重心位置を算出して顔中心線を求めれば、肌色領域に属す画素の影響を受けることなく、更に高精度に顔中心線を検出することができる。
【0030】
更に、上記特徴点検出工程は、上記肌色領域を構成する画素の空間的な分布から顔を左右に分割する中心線の位置を検出する中心線検出工程を有し、上記口検出工程では、上記赤み強度に対して上記中心線からの距離に応じた重み付けを行って上記口の位置が検出することができ、赤みが強い服を着用している場合にも、正確に口の位置及び中心線を検出することが可能となる。
【0031】
更にまた、上記口検出工程では、検出された上記口の位置近傍における画素の赤み強度の空間的な分布から、上記口の位置の信頼度を算出し、上記信頼度が所定の閾値以上である場合に、例えばロバスト推定により上記中心線の位置を修正することができ、これにより、肌色領域が影などの影響で欠落している場合にも正確に中心線を検出することが可能となる。
【0032】
更に、上記判定工程では、上記眼の位置近傍における水平方向のエッジの分布状態から眼のパターンらしさを算出し、上記口の位置近傍における水平方向のエッジの分布状態及び色の分布状態から口のパターンらしさを算出し、上記眼のパターンらしさ及び上記口のパターンらしさが所定の閾値以上である場合に上記肌色領域が顔領域であると判定することができる。
【0033】
ここで、上記眼のパターンらしさは、上記眼の位置近傍に右眼領域及び左眼領域を設定し、該右眼領域及び左眼領域内の水平方向のエッジを構成する画素が上記眼の位置近傍における該右眼領域及び左眼領域以外の領域内の水平方向のエッジを構成する画素よりも多い場合か、該右眼領域及び左眼領域内の水平方向のエッジを構成する画素の密度が大きい場合か、又は上記右眼領域及び上記左眼領域、並びに該右眼領域と左眼領域との間の両眼間領域内の水平方向のエッジを構成する画素の密度が大きい場合に、大きいと判定することができる。
【0034】
また、上記判定工程は、眼鏡の有無を検出する眼鏡検出工程を有し、この眼鏡検出結果に応じて眼のパターンらしさを評価することができ、眼鏡装着の有無の判定を行うことにより、眼鏡装着の場合にもより正確に眼のパターンらしさを判定することが可能となる。
【0035】
更に、上記眼検出工程では、上記眼の位置として順位付けされた1以上の眼の位置候補が検出され、上記判定工程では、上記1以上の眼の位置候補のうち順位が高いものから眼のパターンらしさが算出することができ、複数の眼の位置の候補を算出し、それぞれの候補に対して眼のパターンらしさの評価を行うため、眼の位置の検出における誤検出を軽減することが可能となる。
【0036】
また、上記口のパターンらしさは、上記口の位置近傍に口領域を設定し、この口領域内の水平方向のエッジを構成する画素が上記口の位置近傍における上記口領域以外の領域内の水平方向のエッジを構成する画素よりも多い場合か、この口領域内の水平方向のエッジを構成する画素の密度が大きい場合か、この口領域内の赤み強度が大きい場合か、又はこの口領域内の赤み強度が、上記口領域以外の領域内の赤み強度より大きい場合に、大きいと判定することができる。
【0037】
更に、上記口検出工程では、検出された上記口の位置近傍における画素の赤み強度の空間的な分布から、上記口の位置の信頼度が算出され、上記判定工程では、上記口の位置の信頼度に応じて上記口のパターンらしさが評価されるため、口の位置の信頼度を考慮することにより、より正確に口パターンらしさを評価することが可能となる。
【0038】
更にまた、上記判定工程では、上記眼の位置と上記口の位置との間の距離が、上記口領域の幅から算出される上限値よりも大きい場合、又は上記口領域の幅から算出される下限値よりも小さい場合には、上記眼のパターンらしさ及び上記口のパターンらしさが小さいと評価することができ、口の幅に対する眼と口の距離を評価し、口のパターンらしさ及び眼のパターンらしさに反映させるため、より正確に顔領域の判定を行うことが可能となる。
【0039】
また、上記眼の位置近傍及び上記口の位置近傍に、大きさが異なる複数の夫々右眼領域及び左眼領域並びに口領域を設定し、上記眼のパターンらしさ及び口のパターンらしさを算出することができ、各特徴点に対応する複数の領域を使用することにより、信頼性が高い判定結果を得ることができる。
【0040】
更に、上記判定工程において、複数の上記肌色領域が顔領域であると判定された場合に、この複数の顔領域の例えば位置等に基づいて1以上の顔領域を選択する選択工程を有することができ、複数の顔領域から目的に応じて例えば1つの顔領域を選択して抽出することができ、複数の顔領域を有する画像、即ち、複数の人物が存在している画像から特定の顔を抽出してトリミング等を行うことができる。
【0041】
本発明に係る画像処理装置は、入力されたカラー画像から、人物の顔領域を抽出するための画像処理装置において、肌色の領域を抽出する肌色領域抽出手段と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出手段と、上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定手段とを有することを特徴とする。
【0042】
本発明に係るプログラムは、入力されたカラー画像から、人物の顔領域を抽出する動作を実行するためのプログラムにおいて、肌色の領域を抽出する肌色領域抽出工程と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出工程と、上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定工程とを有することを特徴とする。
【0043】
本発明に係る記録媒体は、入力されたカラー画像から、人物の顔領域を抽出する動作をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体において、肌色の領域を抽出する肌色領域抽出工程と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出工程と、上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定工程とを有することを特徴とする。
【0044】
本発明に係る自動トリミング装置は、入力されたカラー画像から、人物の顔領域を抽出し該顔領域が所定の位置となるようにトリミングを行なう自動トリミング装置において、肌色の領域を抽出する肌色領域抽出手段と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出手段と、上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定手段と、上記判定手段で顔領域であると判定された肌色領域を含む閉領域を顔領域として抽出する抽出手段とを具備する顔領域抽出手段と、上記顔領域抽出手段によって抽出された顔領域から、トリミングの対象となる顔領域を選択する選択手段と、上記選択された顔の領域からトリミングの位置決めを行なう位置決め手段とを有することを特徴とする。
【0045】
本発明においては、顔領域抽出手段により顔領域が検出されると共に、人物の顔における特徴点の位置が検出されるため、これらのデータを使用してトリミングを行うため、自動処理が可能であると共に極めて精度よくトリミング処理を行うことができる。
【0046】
また、上記顔領域抽出手段は、上記特徴点の位置に基づき上記人物の顔を左右に分割する顔中心線の位置を検出し、上記位置決め手段は、上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置と、上記顔中心線とに基づきトリミングの位置決めを行なうことができ、精度よくトリミングの位置決めを行うことができる。
【0047】
本発明に係る肖像写真撮影装置は、人物を撮影して肖像写真の作成を行なう肖像写真撮影装置において、入力カラー画像から肌色の領域を抽出する肌色領域抽出手段と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出手段と、上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定手段と、上記判定手段で顔領域であると判定された肌色領域を含む閉領域を顔領域として抽出する抽出手段を具備する顔領域抽出手段と、上記顔領域抽出手段によって抽出された顔領域から、トリミングの対象となる顔領域を選択する選択手段と、上記選択された顔の領域からトリミングの位置決めを行なう位置決め手段とを有し、上記カラー画像から上記人物の顔領域を抽出し該顔領域が所定の位置となるように自動的にトリミングを行なう自動トリミング手段を有することを特徴とする。
【0048】
本発明によれば、顔領域抽出手段により、入力カラー画像から高速且つ正確に顔領域を抽出し、正確に顔領域を顔であるか否かを判定することができ、顔領域抽出手段より検出された肌色領域及び各特徴点の位置情報を使用してトリミング処理をするため、正確に自動トリミング処理を行なうことが可能であり、これにより、良好な肖像写真を自動で撮影することが可能となる。
【0049】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0050】
第1の実施の形態
この実施の形態は、入力されたカラー画像から人物の顔領域を抽出する画像処理装置に適用したものである。図1は、本発明の第1の実施の形態における画像処理装置10を示すブロック図である。
【0051】
図1に示すように、画像処理装置10は、電子スチルカメラ、ビデオカメラ、又はスキャナ等からカラー画像が入力され、このカラー画像をデジタルデータ(以下、これを単にカラー画像という。)として出力する画像入力部11と、このカラー画像から肌色領域を抽出する肌色領域抽出部12と、カラー画像及び肌色領域が入力され、人物の頭頂部を検出する頭頂部検出部13と、肌色領域及びカラー画像が入力され、人物の口を検出する口検出部14と、カラー画像、肌色領域並びに頭頂部及び口のデータが入力され、人物の眼を検出する眼検出部15と、眼及び口のデータから人物の顎位置を算出する顎検出部16と、カラー画像及び口及び眼のデータが入力され人物の顔の中心線を検出する中心線検出部17と、頭頂部、眼、顎及び顔の中心線のデータが入力され顔領域を修正する領域修正部18と、カラー画像と、肌色領域、眼、口、及び領域修正部18からの修正データとが入力され、抽出された肌色領域が人物の顔であるか否かを判定する判定部19とから構成されている。
【0052】
画像入力部11から出力されたカラー画像は、肌色領域抽出部12、頭頂部検出部13、口検出部14、眼検出部15、中心線検出部16及び判定部19に送られる。なお、画像入力部11から出力されるカラー画像における色の表現方法には各種のものがあるが、本実施の形態においては、各画素は色の3原色であるR、G、Bで表されているものとする。また、画像上の位置(x,y)における値を表す場合には、R(x,y)、G(x,y)、B(x,y)として表現することとする。更に、位置(座標)(x,y)は、xは入力カラー画像の水平方向の座標、yは入力カラー画像の垂直方向の座標を示すものとする。
【0053】
以下、本実施の形態の画像処理装置の各構成要素について詳細に説明する。
【0054】
(1)肌色抽出
肌色領域抽出部12は、肌色を有する画素の集合として肌色領域を抽出する。肌色領域を抽出する方法としては、既存のどのようなものを使用してもよい。例えば、下記式(1)に示すようなr,gを2つの座標軸とする2次元平面において、予め抽出すべき肌色の範囲を設定し、この肌色範囲に含まれる色を有する画素を肌色画素として抽出することができる。
【0055】
【数1】
【0056】
ここで、R、G、Bは、各画素の3原色の値を示す。また、抽出すべき肌色の範囲は、例えば、r及びgの各値に対する夫々下限値rmin及びgminと、夫々上限値rmax及びgmaxとを定めた下記式(2)により設定することができる。
【0057】
【数2】
【0058】
これにより、上記式(2)を満たす画素の集合として肌色領域が抽出される。但し、図2に示すように、抽出された肌色画素41が、画像40上において、例えば塊42,43等の複数の塊を構成している場合には、この画素の塊42,43毎に領域40を分割し、各塊を異なる領域として区別する。画像40の分割には、例えば、連結する画素の集合を1つの塊とし、この塊に対応する領域を抽出するラベリング処理等を使用することができる。
【0059】
抽出された各肌色領域は、固有の番号が割り当てられ、2次元配列である領域マップA(x,y)上に多値画像として表現される。即ち、座標(x,y)の色が肌色領域nに含まれている場合、領域マップAは、下記式(3)として示される。
【0060】
【数3】
【0061】
また、各肌色領域に対しては、それを取り囲む閉領域が算出される。閉領域としては、例えば、図3に示すように、肌色領域51,52を夫々取り囲む長方形領域53,54とすることができる。長方形領域は、図4に示すように、対角線上で相対する2つの頂点座標で示されるが、1つの肌色領域に対応する頂点座標{(stx、sty),(edx、edy)}は、例えば、次のように算出することができる。即ち、先ず、肌色領域に含まれる画素のx座標の平均値xave、y座標の平均値yave、x座標の標準偏差xsdv、及びy座標の標準偏差ysdvを夫々下記式(4)により算出する。
【0062】
【数4】
【0063】
ここで、nは現在注目している肌色領域を識別する上記式(3)に示す番号である。これらの値を用いて、長方形領域の頂点座標は下記式(5)により算出することができる。
【0064】
【数5】
【0065】
ここで、aは予め設定された係数である。肌色領域nに対して算出された長方形領域の頂点座標は、1次元配列である頂点リストVに下記式(6)として格納される。
【0066】
【数6】
【0067】
肌色領域を表す領域マップAは、口検出部14及び判定部19へ送られ、頂点リストVは、頭頂部検出部13、口検出部14及び眼検出部15へ送られる。
【0068】
(2)特徴点検出
特徴点検出部では、肌色領域抽出部12によって抽出された各肌色領域を顔領域と仮定し、この肌色領域に対応する頂点座標V(n)が示す長方形領域に基づき、各特徴点が検出される。特徴点検出部は、人物の頭頂部の位置を検出する頭頂部検出部13と、肌色領域内の赤みの強さに基づき、人物の口の位置を検出する口検出部14と、頭頂部及び口の位置に基づき検索範囲を設定して眼を検出する眼検出部15と、眼及び口の位置から顎の位置を算出する顎検出部16と、口の位置から口領域を設定し、この口領域内の赤み強度に基づいて顔の中心線を検出する中心線検出部17と、頭頂部、顎及び顔中心線の位置から、肌色抽出部12にて算出された頂点座標V(n)を修正する領域修正部18とから構成される。以下、各検出部について更に詳細に説明する。
【0069】
(2−1)人物の頭頂部の検出
頭頂部検出部13は、肌色領域を顔として有する人物の頭頂部を検出する。頭頂部の検出は、例えば人物以外の背景領域は単一色であること及び人物の上方、即ち、垂直座標が小さい側には背景領域のみが存在し得ることを仮定し、背景色とは異なる色を有する画素の中で垂直座標が最も小さい位置を検出する。以下、頭頂部の位置における垂直方向の座標を頭頂部の高さという。
【0070】
具体的には、図5に示すように、画像入力部11から送られる入力カラー画像60において、注目する肌色領域61に対応する長方形領域62の図中上方の領域、即ち、長方形領域62よりも垂直座標が小さい領域であって、V(n).stx≦水平座標(x座標)≦V(n).edxの範囲に設定した頭頂部探索範囲63を図中上方から走査し、各画素の値と背景領域64の背景色との差dを下記式(7)によって算出する。
【0071】
【数7】
【0072】
ここで、R(x,y)、G(x,y)、B(x,y)はカラー画像上の座標(x,y)における画素のR、G、Bの値であり、Rbg、Gbg、Bbgは背景色のR、G、Bの値である。この背景色としては、例えば下記式(8)に示すように、現在の注目画素よりも上方、即ち、垂直座標(y座標)が小さい領域における画素の平均値を使用することができる。
【0073】
【数8】
【0074】
ここで、V(n)は肌色領域抽出部12において得られた肌色領域nに対応する長方形領域の頂点座標であり、従って、上記式(8)は、探索範囲63の内部において、現在の注目画素の座標位置(x,y)の上方のmライン分の平均値を背景色とすることを示している。この場合、画像60の最上部からmラインにおいては上記式(8)による背景色の算出が不可能となる。即ち、画像60最上部のy座標をy=y0としたとき背景を算出する際に使用されるのは、最上部(y=y0)からy=y1=y0+mまでであり、従って、この領域(y0≦y≦y1)の背景を利用する最小の注目画素のy座標=y2=y1+1=y0+(m+1)であり、最上部(y=y0)からm+1ライン目となる。この場合は、利用できるラインのみを使用して上記式(8)と同様に背景色を算出したり、又は探索範囲63の開始を、画像最上部からm+1ライン目から始める等の方法をとることができる。
【0075】
上記式(8)によって順次更新される背景色に対し、上記式(7)の色の差dを算出し、この値が所定の閾値Tよりも大きい画素が出現した時点で、その垂直座標yを頭頂部の高さTOHとする。検出された頭頂部の高さTOHは眼検出部15及び領域修正部18に送られる。
【0076】
なお、検索範囲の各画素の値と背景色との差dに対する閾値は、予め設定された固定値を使用することもできるが、次に述べるように適応的に変化させることもできる。即ち、例えば背景色の更新に応じて、注目画素(x,y)の上方mラインにおける画素値の分散から下記式(9)により閾値Tを算出することができる。このように、背景色の更新に応じて差dに対する閾値を変化させることにより、より正確に頭頂部の検出を行うことができる。
【0077】
【数9】
【0078】
ここで、wは予め設定された係数である。またvar(R(x,y))、var(G(x,y))、var(B(x,y))はそれぞれR、G、Bの値の分散であり下記式(10)によって算出される。
【0079】
【数10】
【0080】
(2−2)人物の口検出
次に、口検出部14は、肌色領域抽出部12により抽出された各肌色領域に対し、口の位置(高さ)を検出する。先ず、頂点リストV(n)によって表される長方形領域内において、肌色領域としては抽出されていない各画素(x,y)に対して、赤みの強さを示す下記式(11)の値rdsh(x,y)を算出する。
【0081】
【数11】
【0082】
ここで、R(x,y)、G(x,y)、B(x,y)はカラー画像の座標(x,y)における各値を示す。算出された値rdsh(x,y)は、図6に示すように水平方向(x軸方向)に累積されて、下記式(12)に示すヒストグラムHrdsh(y)が生成される。
【0083】
【数12】
【0084】
ここで、V(n)及びA(x,y)は、いずれも肌色領域抽出部12から送られたデータであって、夫々肌色領域nに対応する長方形領域の頂点座標、及び領域マップを示す。
【0085】
次に、ヒストグラムHrdsh(y)は、ノイズ等を除去するため、必要に応じて1次元ローパスフィルタによって平滑化された後、ヒストグラムHrdsh(y)の最大値における垂直座標yが口の高さHOMとして検出される。検出された口の高さMOUは、眼検出部15、顎検出部16、中心線検出部17、及び判定部19に送られる。
【0086】
なお、更に正確に口の高さを検出するために、赤みの強さrdshを算出する際に、注目画素の位置及び注目画素の明るさ等に応じて重み付けすることもできる。例えば、頂点リストVにおける頂点座標V(n)で表される長方形領域内において、水平方向の中央位置に口が出現する可能性が高いことが予め期待できる場合には、注目画素のx座標が(V(n).stx+V(n).edx)/2に近いほど大きな係数を上記式(11)で算出される値rdshに積算し、その結果を上記式(12)によって累積することもできる。また、口の領域の明るさとして適当な範囲を限定できる場合には、注目画素の明るさがその範囲に近いほど大きな係数を上記式(11)で算出される値rdshに積算し、その結果を上記式(12)によって累積すること等もできる。
【0087】
(2−3)人物の眼検出
次に、眼検出部15は、肌色領域抽出部12で抽出された各肌色領域に対して眼の位置(高さ)を検出する。先ず、頭頂部検出部13によって検出された頭頂部の高さTOHと口検出部14によって検出された口の高さHOMとから、垂直方向(y軸方向)の眼の探索範囲を例えば下記式(13)により算出する。
【0088】
【数13】
【0089】
ここで、e1及びe2は予め設定された係数である。etop及びebtmは、夫々検索範囲の垂直座標における下限値及び上限値である。そして、これら垂直座標における下限値及び上限値に挟まれ、且つ注目する肌色領域に対応する長方形領域内に存在する画素に対して水平方向のエッジ(以下、水平エッジという。)の強度edge(x,y)を検出する。水平エッジの強度を検出する方法としては、既存のどのようなものを使用してもよいが、例えば図7に示すようなフィルタ係数を有する微分フィルタを、R、G、Bの各画像に施し、各画像に対するフィルタ出力の絶対値和を水平エッジの強度として使用することができる。
【0090】
入力カラー画像の各座標において算出された水平エッジの強度edge(x,y)は、水平方向(x軸方向)に累積されて、長方形領域内における垂直方向の水平エッジを示すヒストグラムHedge(y)が下記式(14)により算出される。
【0091】
【数14】
【0092】
ここで、V(n)は肌色領域抽出部12で得られた肌色領域nに対応する長方形領域の頂点座標である。図8は、生成されたヒストグラムHedge(y)と肌色領域71に対応する長方形領域72との関係を示す模式図である。
【0093】
ヒストグラムHedge(y)は、ノイズ等を除去するため、必要に応じて1次元ローパスフィルタによって平滑化された後、その最大値に対応する垂直座標yが眼の高さHOEとして検出される。
【0094】
なお、眼の高さの探索範囲としては、上記式(13)に示したものの他に、対応する長方形領域の頂点座標を使用して、下記式(15)により設定することもできる。
【0095】
【数15】
【0096】
ここで、e3、e4は予め設定された係数である。また、上記式(13)によって算出されるebtmが、肌色領域を囲む長方形領域の頂点座標のV(n).styより小さい場合、頭頂部の高さTOH又は口の高さHOMの検出が適切に行なわれていない可能性が高い。そこで、このような場合には、対応する長方形領域の頂点座標V(n)に位置座標としては無効な値である例えば−1を格納して頂点リストVを修正することができる。
【0097】
検出された眼の高さHOEは、顎検出部16及び判定部19に送られる。また、修正された頂点リストVは顎検出部16、中心線検出部17、及び領域修正部18に送られる。
【0098】
(2−4)人物の顎検出
顎検出部16では、眼検出部15において修正された頂点リストVに無効ではない頂点座標を有する各肌色領域に対して、顎の位置(高さ)を検出する。顎の高さの検出は、例えば図9に示すように、人物の顔80においては顎と口との間の距離81と、眼と口との間の距離82との比がほぼ一定であると仮定して、下記式(15)により推定することができる。
【0099】
【数16】
【0100】
ここで、cは、予め設定された係数であり、HOCは顎の高さを示す。算出された顎の高さHOCは領域修正部18に送られる。
【0101】
(2−5)人物の顔の中心線検出
次に、顔の中心線検出部17は、眼検出部15において修正された頂点リストVに無効ではない頂点座標を有する各肌色領域に対して、顔を左右に分割する中心線の位置を検出する。
【0102】
ここでは、はじめに口検出部14で検出された口の高さHOMを中心として垂直方向の座標における口探索範囲を設定する。この探索範囲は、例えば対応する長方形領域の垂直方向における幅から下記式(17)により算出することができる。
【0103】
【数17】
【0104】
ここで、mは予め設定された係数であり、V(n)は肌色領域nに対応する長方形領域の頂点座標である。上記式(17)により算出された夫々mtop及びmbtmを、探索範囲のy座標の夫々下限値及び上限値とする。また、水平方向の探索範囲は、長方形領域の水平方向の幅とすることができる。即ち、x座標の上限及び下限は、長方形領域の夫々左端V(n).stx及び右端V(n).edxとすることができる。図10は、肌色領域91に対応する長方形領域92における口の高さHOM及び検索範囲mtop、mbtmを示す模式図である。
【0105】
次に、設定された探索範囲に存在し、かつ肌色領域に含まれない画素に対して上記式(11)により赤みの強さを算出し、図10に示すように、赤みの強さの値が閾値よりも大きくなる画素の水平座標の平均値を中心線の水平座標位置COHとして検出する。赤みの強さを算出する際に、肌色領域に属する画素を除くことにより、肌色領域に属する画素の影響を排除することができ、極めて高精度に顔の中心線を検出することができる。こうして、検出された顔中心線の位置COHは領域修正部18及び判定部19に送られる。
【0106】
なお、赤みの強さに対する閾値は予め設定された固定値を使用することもできるが、次に述べるように適応的に変化させることもできる。即ち、はじめに探索範囲内における全ての画素の平均値、又は最大値を算出し、これらに予め設定された係数を積算して得られる値を閾値として使用ようにすることもできる。
【0107】
また、水平座標の平均値を算出する際、ノイズ等の影響を軽減するために,ロバスト推定と呼ばれる方法を使用することもできる。即ち、例えば赤みの強さが閾値よりも大きい画素のx座標の算術平均値を初期値center(0)として、下記式(18)に示す演算を繰り返し行なう。
【0108】
【数18】
【0109】
ここで、center(n)は第n回目の繰り返しにおいて算出される中心位置であり、rdsh(x,y)は座標(x,y)おける赤みの強さを示し、Trdshはその赤みの強さに対する閾値を表している。h(d)は、各x座標に対する重みを示し、既に算出されている中心位置center(n)とx座標との差dの関数として与えられる。関数h(d)としては、差dが大きいx座標ほど小さな重みが与えられるように、例えば下記式(19)に示すものを使用することができる。
【0110】
【数19】
【0111】
gは、関数h(d)の広がりを示すパラメータであり、各繰り返し毎に予め定められた方法により減少させていく。繰り返し処理は、gの値が予め設定された閾値よりも小さくなるか、あるいは算出されたcenter(n+1)と前の繰り返しにおいて算出されたcenter(n)との差が、予め設定された別の閾値よりも小さくなるまで行なわれる。
【0112】
なお、収束するまでの繰り返し回数は増大するが、より確実に正しい値に収束させるために、同じgを使用して、上記式(18)の演算を繰り返すこともできる。即ち、同じgを使用して、center(n+1)とcenter(n)との差が閾値よりも小さくなるまで繰り返し、center(n)が収束した後、gの値を所定の方法により減少させる。この場合、gの値が閾値よりも小さくなった時点で繰り返し処理を終了する。
【0113】
(2−6)長方形領域の修正
領域修正部18は、眼検出部15において修正された頂点リストVに無効ではない頂点座標を有する各肌色領域に対して、長方形領域を改めて算出し、頂点リストVの修正を行なう。例えば、頭頂部検出部13で得られた頭頂部の高さTOH、顎検出部16で得られた顎の高さHOC、及び中心線検出で得られた中心線の位置COHを使用して、図11に示すように、長方形領域100を設定することができる。即ち、修正後の長方形領域100を示す2つの頂点座標{(stx、sty),(edx、edy)}は下記式(20)により算出することができる。
【0114】
【数20】
【0115】
ここで、aspは人物の顔の幅に対する高さの比を示す係数であり、適当な値が予め設定されているものとする。
【0116】
肌色領域nに対して新たに算出された頂点座標は、頂点リストVに上書きされ判定部19に送られる。
【0117】
(3)顔判定
判定部19は、領域修正部18において修正された頂点リストVに無効ではない頂点座標を有する各肌色領域に対して、その肌色領域が顔領域であるか否かの判定を行なう。顔領域の判定は、例えば人物の顔領域では眼の部分及び口の部分に水平エッジが多く分布すること、また唇の色が他の部分に比べて赤みが強いことを利用し、これらの条件が口検出部13で検出された口の高さHOM、及び眼検出部14で検出された眼の高さHOEにおいて成立しているか否かを検証することにより行なうことができる。判定結果は、顔領域であるか否かを表す2値のフラグfaceflagとして出力される。
【0118】
以下、判定部19について更に詳細に説明する。図12は判定部19を示すブロック図である。図12に示すように、判定部19は、領域修正部18において修正された頂点リストVと、口の高さHOM、眼の高さHOE及び顔の中心線の位置COHとが入力され、左右の眼の領域及び口領域を設定する領域設定部21と、修正された頂点リストVとカラー画像とが入力されて、長方形領域内の肌色画素における水平方向のエッジ(水平エッジ)を算出する水平エッジ検出部22と、左右の眼の領域データ及び長方形領域の水平方向のエッジデータが入力され、眼であるか否かを判定する眼パターン判定部23と、口領域のデータ及び長方形領域の水平方向のエッジデータが入力され、口であるか否かを判定する口パターン判定部24と、眼パターン判定部23及び口パターン判定部24の判定結果から顔であるか否かを判定する総合判定部25とから構成される。
【0119】
(3−1)各特徴点の領域設定
領域設定部21は、頂点座標V(n)、口の高さHOM、及び眼の高さHOEから推定される右眼、左眼及び口の領域を図13に示すように、口の高さHOM、及び眼の高さHOE近傍の長方形領域として設定する。
【0120】
即ち、右眼領域は、例えば下記式(21)によって算出される頂点座標{(eyeRstx、eyeRsty),(eyeRedx、eyeRedy)}を有する長方形領域とすることができる。
【0121】
【数21】
【0122】
ここで、eyesizexは片眼の領域の水平方向の幅を示し、頂点座標V(n)で表される長方形領域の幅に係数s1を積算することで算出する。また、beyesは両眼間の距離であり、同様に、頂点座標V(n)で表される長方形領域の幅に係数s2を積算することで算出することができる。また、eyesizeyは眼の領域の高さ(垂直方向の幅)を示し、上記眼の幅に予め設定された割合eyeaspを積算することで算出する。
【0123】
同様に、左眼の領域は、下記式(22)によって算出される頂点座標{(eyeRstx、eyeLsty),(eyeLedx、eyeLedy)}を有する長方形領域とすることができる。
【0124】
【数22】
【0125】
ここで、eyesizex、eyesizey、beyesは上記式(21)と同一の値を有する。
【0126】
一方、口領域は下記式(23)によって算出される頂点座標{(moustx、mousty),(mouedx、mouedy)}を有する長方形領域とすることができる。
【0127】
【数23】
【0128】
ここで、mousizexは口領域の水平方向の幅を示し、頂点座標V(n)で表される長方形領域の水平方向の幅に係数s3を積算することで算出する。また、mousizeyは口領域の高さ(垂直方向の幅)を示し、口の幅に予め設定された割合mouaspを積算することで算出することができる。
【0129】
設定された右眼領域、左眼領域、及び口領域の頂点座標は、夫々頂点リストVeyeR、VeyeL、Vmouに上記式(6)と同様に格納される。VeyeR、VeyeLは眼パターン判定部23に、Vmouは口パターン判定部24にそれぞれ送られる。
【0130】
(3−2)各領域の水平エッジの検出
水平エッジ検出部22は、各肌色領域に対して、頂点座標V(n)で表される長方形領域内に存在し、且つ領域マップA(x,y)の値がnである肌色画素において水平方向のエッジの検出を行なう。水平エッジを検出する方法は既存のどのようなものを用いてもよいが、例えば対象となる画素毎において、図7に示すフィルタ係数を有する微分フィルタで水平方向のエッジ強度を算出し、図14に示す微分係数を有する微分フィルタを使用して垂直方向のエッジ強度を算出し、下記式(20)に示す条件を満たす画素を水平方向のエッジを構成する画素(水平方向のエッジが所定の閾値以上である画素)として検出する等の方法がある。
【0131】
【数24】
【0132】
ここで、edgeH、edgeV及びTeは、夫々水平方向のエッジ強度、垂直方向のエッジ強度及び閾値を表している。
【0133】
水平方向のエッジを構成する画素の検出結果は、2次元配列であるエッジマップMedgeに2値画像として格納される。例えば、座標(x,y)の画素が上記式(24)の条件を満足する画素、即ち、水平エッジを構成する画素として検出された場合には1がMedge(x,y)に格納され、座標(x,y)の画素が水平エッジを構成しない場合には0がMedge(x,y)に格納される。生成されたエッジマップMedgeは眼パターン判定部23、及び口パターン判定部24に送られる。
【0134】
なお、水平エッジ検出のための閾値Teは、予め設定された固定値を使用することもできるが、次のように適応的に変化させることも可能である。即ち、例えば予め対象となる画素、即ち、肌色領域抽出部12において抽出された肌色領域に含まれる画素全てに対して水平エッジ強度を算出し、その平均値に予め設定された係数を積算した値を閾値として使用することもできる。
【0135】
また、ここでは肌色領域抽出部12において抽出された肌色領域に含まれる画素のみを対象に水平エッジの検出を行なう例を示したが、通常、眼及び口の部分の色は肌色とは異なるため、これらの部分自体は肌色領域としては抽出されない。従って、眼及び口のエッジはちょうど肌色領域と非肌色領域との境界部に相当するため、肌色領域上のみでエッジの検出を行なうとエッジを構成する十分な数の画素が検出されない可能性がある。従って、より安定にエッジを検出するためには、例えば、領域修正部18により修正された頂点座標により示される長方形領域内の肌色ではない画素であって、その隣接画素が肌色領域nに含まれるものに対しても水平エッジを検出するようにしてもよい。
【0136】
(3−3)眼領域における眼パターンらしさの判定
眼パターン判定部23は、右眼頂点リストVeyeR及び左眼頂点リストVeyeL、及びエッジマップMedgeを使用して、眼検出部15において検出された眼の高さHOE近傍の領域が眼の特徴を備えているか否かを判定する。
【0137】
ここでは、先ず、右眼頂点リストVeyeR及び左眼頂点リストVeyeLで示される夫々右眼領域及び左眼領域内に存在する水平方向のエッジを構成する夫々画素数ecountR及びecountLを下記式(25)としてカウントする。
【0138】
【数25】
【0139】
ここで、eyeR及びeyeLは、夫々右眼領域及び左眼領域の内部に存在する画素の集合である。
【0140】
また、垂直方向の座標が右眼領域又は左眼領域の下限と上限との間であり、且ついずれの眼領域にも含まれていない水平エッジの画素数ecountOを下記式(26)としてカウントする。
【0141】
【数26】
【0142】
一般に、人物の顔領域の眼の位置においては、実際に眼が存在する部分(領域)に多くの水平方向のエッジを構成する画素が多く存在し、それ以外の部分では水平方向のエッジを構成する画素が少ない。これに従い、下記式(27)に示す眼のパターンらしさの条件が満たされた場合に、眼検出部15において検出された眼の高さHOE近傍の領域が眼の特徴を備えているものと判定する。
【0143】
【数27】
【0144】
ここで、上記式(27)の第1の条件における左辺の値は、右眼と左眼の領域に含まれる水平方向のエッジを構成する画素が多く、またそれ以外の領域に水平方向のエッジを構成する画素数が少ない場合に大きくなる。また、上記式(27)の第2の条件におけるareaR及びareaLは、夫々右眼領域及び左眼領域の内部に存在する画素の総数であり、左辺全体は右眼領域及び左眼領域における水平方向のエッジを構成する画素の密度を示す。即ち、いずれの条件も上述した眼の特徴を反映していることになる。この各条件における閾値であるTedst及びTednsは、予め適切な値が設定される。
【0145】
上記式(27)による判定結果は2値のフラグによって表される。例えば、上記式(27)の条件が全て満たされる場合には、フラグに1を設定し、判定結果が眼であることを示す。一方、上記式(27)の条件がいずれか一方でも満足されない場合は、フラグに0を設定し判定結果が眼ではないことを示す。判定結果を表すフラグeyeflagは総合判定器25に送られる。
【0146】
なお、ここでは判定条件として上記式(27)式を使用したが、上述した眼の特徴を反映したものであれば他の条件を使用することも可能である。
【0147】
(3−4)口領域における口パターンらしさの判定
口パターン判定部24では、口領域Vmou及びエッジマップMedgeを使用して、口検出部14において検出された口の高さHOM近傍の領域が口の特徴を備えているか否かを判定する。
【0148】
ここでは、先ず、口領域Vmouの内部に存在する水平方向のエッジを構成する画素数mcountM及び口領域Vmou内部に存在する全画素の赤み強さの平均値averdshMを下記式(28)により算出する。
【0149】
【数28】
【0150】
ここで、mouは口領域内部に存在する画素の集合であり、NMは口領域内部に存在する画素の総数である。また、rdsh(x,y)は画素(x,y)における赤み強さで、例えば上記式(11)によって算出される値を使用することができる。
【0151】
次に、垂直方向の座標が口領域の下限と上限との間であり、且つ口領域に含まれていない画素のうち、水平エッジを構成する画素の数mcountO、及び垂直方向の座標が口領域の下限と上限との間であり、且つ口領域に含まれていない全画素の赤み強さの平均値averdshOを下記式(29)により算出する。
【0152】
【数29】
【0153】
ここで、NOは、対象としている領域、即ち、垂直方向の座標が口領域の下限と上限との間であり、且つ口領域に含まれていない画素の総数を示す。
【0154】
一般に、人物の顔領域の口の高さ位置では、実際に口が存在する部分(領域)に水平方向のエッジを構成する画素が多く存在し、それ以外の部分では水平方向のエッジを構成する画素が少ない。また、口の部分はその他の部分と比べて赤みが強い。これに従い、下記式(30)に示す口のパターンらしさの条件が満たされた場合に、口検出部14において検出された口の高さHOM近傍の領域(口領域)が口の特徴を備えているものと判定する。
【0155】
【数30】
【0156】
ここで、上記式(30)の第1の条件における左辺の値は、口領域に含まれる水平方向のエッジを構成する画素が多く、口領域以外の領域に水平方向のエッジを構成する画素が少ない場合に大きくなる。また、上記式(30)の第2の条件の左辺におけるareaMは、口眼領域内に存在する画素の総数であり、左辺全体は口領域における水平方向のエッジを構成する画素の密度を示す。更に、上記式(30)の第3の条件における左辺の値は、口領域における赤みが強く、口領域以外の領域における赤みが弱い場合に大きくなる。更にまた、上記式(30)の第4の条件は、口領域内部の赤みの強さ自体が所定の閾値Trdshmより大きいことを要求するものである。即ち、いずれの条件も上述した口の特徴を反映していることになる。上記式(30)の第1乃至第4の条件における夫々閾値Tedstm、Tednsm、Tcdstm及びTrdshmは、予め適切な値が設定される。
【0157】
上記式(30)による判定結果は、2値のフラグによって表される。例えば、上記式(30)の条件が全て満たされる場合には、フラグに1に設定し、口領域を口のパターンと判定したことを示す。一方、上記式(30)のうち、いずれか1つでも条件が満たされていない場合には、フラグに0を設定し、口領域を口ではないと判定したことを示す。この判定結果を表すフラグmouflagは総合判定器25に送られる。
【0158】
なお、ここでは判定条件として上記式(30)を使用したが、上述した口の特徴を反映したものであれば他の条件を使用することも可能である。
【0159】
(3−5)抽出された領域が顔であるか否かの判定
総合判定部25は、眼判定部23及び口領域24から送られてくる夫々フラグeyeflag及びmouflagがいずれも1である場合、即ち、領域設定部21で設定した眼の領域及び口の領域が、夫々眼の特徴及び口の特徴を具えていると判定された場合に限り、現在注目している肌色領域を顔領域と判定し、その結果を2値のフラグfaceflagとして出力する。
【0160】
なお、本実施の形態では、頭頂部の高さTOHは眼の探索範囲を制限するために使用されているが、眼の高さHOEが検出された後、この眼の高さHOEと口の高さHOMとを使用し、頭頂部の高さTOHの検証を行なうようにしてもよい。即ち、眼と口との距離から頭頂部が存在すべき上限及び下限を例えば夫々下記式(31)により算出する。
【0161】
【数31】
【0162】
頭頂部の高さTOHがこれら2つの値の間にない場合には、頭頂部検出部13において正しい高さが検出されなかったものとして、予め定められた方法により頭頂部の高さの修正を行なう。例えば、眼と口との距離に対する頭頂部と口との距離の比h3を予め設定しておき、下記式(32)により、頭頂部の高さTOHを設定し直す。
【0163】
【数32】
【0164】
また、ここでは眼の領域、両眼間距離、及び口の領域の大きさを、上記式(21)、(22)、及び(23)に示す肌色領域を囲む長方形領域の大きさに対して相対的に算出する方法について述べたが、肌色領域抽出において、影によって顔の一部が欠けて抽出されたり、又は、顔から肩のあたりまでが1つの肌色領域として抽出された場合、眼領域や口領域が適切に設定されない可能性がある。この問題を回避するために、例えば上記式(21)乃至(23)において、領域の大きさを決める係数S1、S2、S3を複数用意しておき、それぞれの値に対して判定を行なうようにすることができる。そして、何れかの係数に対して顔領域であるという判定が得られた場合、現在注目している肌色領域を顔領域と判定する。
【0165】
本実施の形態においては、抽出された肌色領域に基づき、頭頂部及び口の位置を検出し、これらの位置から眼の検索範囲を設定して眼の位置を検出するため、極めて高精度に眼の位置を検出することができる。また、顎の位置は、眼と口の位置から算出することにより、顔と首との輝度及び色の差が小さく、高精度に検出することが難しい場合にも顎の位置の検出を正確に行うことができる。更に、顔の中心線は、口の赤みの強さに基づき検出されるため、極めて高精度に顔中心線を検出することができる。更にまた、顔判定部において、眼のパターンらしさ及び口のパターンらしさを判定し、この判定結果に基づき顔であるか否かの総合判定をするため、複数の顔が含まれている場合であっても、顔であるか否かの判定結果の信頼性が高い。
【0166】
また、判定部19により顔と判定される肌色領域が複数存在する場合に、複数の顔領域から、例えばその顔領域の位置に基づき1つの顔領域を選択する選択部(図示せず)を設けることもできる。これにより、例えば、複数の顔領域が存在する画像から1つの顔領域を抽出してトリミング処理を施すことができる。なお、判定部19に、顔領域を選択する機能をもたせるようにしてもよい。
【0167】
第2の実施の形態
次に、本発明の第2の実施の形態について説明する。図15は、本実施の形態の肖像画像撮影装置を示すブロック図である。本実施の形態においては、第1の実施の形態における画像処理装置を肖像画像(写真)撮影装置に応用したものである。
【0168】
図15に示すように、肖像画像撮像装置30は、電子スチルカメラ及びビデオカメラ等により、人物が撮影されたカラー画像が入力され、デジタルデータとして出力する撮像器31と、画像データが入力されて顔領域を検出する顔検出器32と、検出された顔領域が複数ある場合に、トリミングの対象となる顔領域を選択する領域選択器33と、選択された顔領域のトリミングを行うトリミング器34とから構成される。
【0169】
顔領域抽出器32は、第1の実施の形態における画像処理装置の処理方法に従って、人物の顔領域を抽出する。但し、第1の実施の形態における判定部19では、各肌色領域に対して顔であるか否かを表すフラグfaceflagを出力するものとしたが、本実施の形態では、顔領域ではないと判定された肌色領域に対応する頂点座標V(n)に、位置座標として無効な値の例えば−1を格納した後、これを領域選択器33に送る。
【0170】
領域選択器33では、顔領域判定器32によって複数の領域が顔と判定された場合、これらの複数の領域の中からトリミングの対象となる顔領域を1つ選択する。例えば、撮像された画像には1人の人物しか存在していないことが明らかであれば、真の顔領域は1つであり、その他の領域は顔領域判定器32における誤検出と考えられる。このような場合、真の顔領域は他の肌色領域よりも上部に位置するものと推定される場合は、頂点リストVに含まれる有効な長方形のうち、その中心が最も上部に位置するものを選択するようにすることができる。
【0171】
また、撮像された画像に複数の人物が存在している可能性がある場合でも、撮像時の指示等により、入力画像においてトリミングの対象となる人物の顔が、例えば最も画像中央に近い位置に存在することを期待できる場合には、頂点リストVに含まれる有効な長方形のうち、その中心が画像中央に最も近いものを選択するようにすることができる。
【0172】
更に、複数の顔の領域が抽出される主な理由が、例えば子供の顔を撮像するために、親がその子供を抱いて撮像することである場合、トリミングの対象となる子供の顔領域は、抽出された顔の領域の中で最も下部に位置すると推定できるため、頂点リストVに含まれる有効な長方形のうち、その中心が最も下部に位置するものを選択するようにすることができる。
【0173】
これら対象領域選択の方法は、利用形態を考慮して予め設定しておく他に、インターフェース(図示せず)を設けることにより、撮影者及び/又は被撮影者等が手動で設定できるようにしておくことも可能である。
【0174】
選択された顔の領域以外の肌色領域に対応する頂点リストVには位置座標として無効な値、例えば−1等が格納される。修正された頂点リストVは、トリミング器34に送られる。
【0175】
トリミング器34は、送られてきた頂点リストVに含まれる有効な長方形領域V(n)に対応して、切り出す部分画像の位置を決定する。図16は、入力カラー画像から切り出す部分画像の切り出し位置を示す模式図である。図16に示すように、カラー画像110において、頂点リストVの頂点座標V(n)によって示される長方形領域111の中心位置(x0、y0)がトリミング後の画像112の所定の位置(tx0,ty0)と一致するように、下記式(33)に示す2つの頂点座標で表される長方形領域を部分画像112として切り出す。
【0176】
【数33】
【0177】
ここで、twdt及びthgtは、予め設定されたトリミング後の画像の夫々幅(水平方向の長さ)及び高さ(垂直方向の長さ)を示す。
【0178】
トリミングされた画像は、プリンタ及びモニタ等、図示しない画像表示装置や、画像記憶装置等に出力される。
【0179】
なお、トリミング器34におけるトリミング処理は、ここで述べたものに限定されるものではなく、例えば次に述べるような方法を用いることも可能である。
【0180】
即ち、顔領域抽出器32は、頂点リストVのほかに、各顔領域に対して算出された眼の高さHOE、及び中心線位置COHをトリミング器34に送る。トリミング器34では、眼の高さと中心線がトリミングされた画像上において所定の位置となるように部分画像の切り出しを行なう。眼の高さHOEの代わりに頭頂部の高さTOH又は口の高さHOMを使用してもよい。
【0181】
特に、トリミング後の画像において頭部がはみ出すことが許容されない場合には、頭頂部の高さTOHを用いることが有効である。但し、図17に示すように、同一の入力カラー画像120において、複数の人物121,122が存在し、この人物121,122が水平方向に重なっている場合には、夫々頭頂部探索123,124範囲も重なってしまうため、人物121,122のうち、真の頭頂部がより下方(垂直座標が大きい)に位置する顔領域、即ち、肌色領域に対応する長方形領域の水平方向の辺のうち垂直座標が小さい方の辺における垂直座標が、より大きい顔領域を有する人物122に対しては頭頂部の高さTOHが正しく検出できないことになる。従って、頭頂部の高さを使用したトリミングでは、トリミングすべき顔領域が一番上に位置していない限り、良好な結果が得られない可能性がある。このような問題を回避するために、頭頂部の高さのチェックを行なうと共に、その値が不適切である場合には修正を行なうようにしてもよい。
【0182】
例えば、TOHのチェックとしては、既に検出されている眼の高さHOE及び口の高さを使用し、下記式(34)に示す条件が満たされているか否かを判定する。
【0183】
【数34】
【0184】
ここで、medstは眼の高さと口の高さとの差HOE−HOMであり、h1,h2は予め設定された係数である。上記式(34)に示す条件が満たされない場合には、下記式(35)によってTOHの値を修正する。
【0185】
【数35】
【0186】
また、顔領域判定器32において複数の領域が顔と判定された場合、複数の領域全てをトリミングの対象として選択するようにすることもできる。この場合、トリミング器34では、顔と判定された複数の領域を全て含むような部分画像を切り出し、必要に応じて縮小処理を施して所定の大きさの画像を得る。
【0187】
本実施の形態においては、第1の実施の形態における画像処理装置を使用しているため、顔領域検出器により顔として検出された領域の信頼性が高く、更に顔領域検出器により、顔領域だけでなく、特徴点情報、即ち、人物の頭頂部、顔の口及び眼、顔中心線の位置を検出し、これらのデータを使用してトリミングを行うため、誤検出がなく、高信頼度及び高精度で所望の顔領域のトリミングが自動的に行える肖像画像撮影装置を得ることができる。
【0188】
また、画像に複数の人物が含まれている場合においても、アプリケーションに応じて適切なトリミングを行うことができる。例えば、病院等におけるフォトブースで親が子供を抱いて撮影した場合、抽出される顔領域の位置又は大きさ等の情報に基づき、領域選択器33により、複数の顔領域から特定の顔領域を選択することができる。即ち、例えば、顔領域が2つ抽出された場合に、領域選択器33により、その位置が画面下方又はその大きさが小さいものを選択するように設定しておけば、親が子供を抱いて撮影した場合に、子供の顔を抽出してトリミングすることができる。また、何れの顔領域についてもトリミングを行うように設定しておけば、1回の画像で複数のトリミング画像を得ることができる。
【0189】
第3の実施の形態
次に、本発明の第3の実施の形態について説明する。本実施の形態は、第2の実施の形態と同様に画像処理装置を肖像画像撮影装置に適用したものであって、図15に示す第2の実施の形態と同様の構成を有する。即ち、撮像器31、顔領域抽出器32、領域選択器33及びトリミング器34から構成されるものであるが、トリミング器34における処理が異なる。第2の実施の形態では、入力画像から所定の大きさの部分画像を切り出すことでトリミングを行なっているが、本実施の形態においては、切り出す顔領域の大きさの調整も合わせて行なうものとする。
【0190】
例えば、上述した第1の実施の形態と同様の方法で顔領域を抽出する図15に示す顔領域抽出器32により、頂点リストVのほかに、人物の眼の高さHOE、口の高さHOM、及び中心線COHがトリミング器34に送られる。
【0191】
トリミング器34は、先ず、トリミング画像上で要求される眼と口との間隔medstと、入力カラー画像から得られたHOEとHOMとの差の比pとを下記式(35)により算出し、縦及び横の長さがそれぞれp倍となるように入力画像を拡大又は縮小する。
【0192】
【数36】
【0193】
画像の拡大又は縮小に応じて、眼の高さHOE、口の高さHOM、及び中心線位置COHの値もそれぞれ修正を行なう。画像の拡大処理及び縮小処理については既存のいかなる方法を使用してもよい。
【0194】
拡大又は縮小の施された画像に対して、眼の高さと中心線とがトリミングされた画像上において所定の位置となるように部分画像の切り出しを行なう。
【0195】
なお、ここでは大きさの調整を行なうために眼と口との間の間隔を使用したが、顔領域検出器32で算出されている他の情報を使用できることもできることはいうまでもない。例えば、頭頂部と顎との間の間隔に基づいて上記式(35)の比の値を算出してもよい。
【0196】
また、トリミングのための位置決めは、大きさの調整に使用した特徴点、即ち、眼及び口とは異なる特徴点に基づいて行なうことも可能である。即ち、眼と口との間の間隔で大きさの調整を行うとともに、頭頂部の高さ又は顎の高さと中心線とによって位置決めを行なうこともできる。
【0197】
更に、頭頂部の高さを使用する場合には、第2の実施の形態と同様、眼及び口の高さを使用してその値TOHを修正するようにしてもよい。
【0198】
本実施の形態においては、第2の実施の形態と同様に、顔領域抽出器から極めて高精度に検出された顔領域が入力されると共に、人物(顔)の特徴点を示す各データが入力されるため、トリミングの位置決め精度が高く、トリミングの際に拡大・縮小処理を行うことができる。
【0199】
第4の実施の形態
次に、本発明の第4の実施の形態について説明する。図18は、本実施の形態における画像処理装置を示すブロック図である。本実施の形態は、上述の第1の実施の形態の画像処理装置と同様に、入力されたカラー画像から人物の顔領域を抽出する画像処理装置に適用したものであり、以下に示す第4の実施の形態において、図1乃至図14に示す第1の実施の形態とは異なる部分についてのみ詳細な説明を行う。
【0200】
本実施の形態における画像処理装置210は、カラー画像が入力され、このカラー画像をデジタルデータとして出力する画像入力部211と、このカラー画像から肌色領域を抽出する肌色領域抽出部212と、人物の頭頂部を検出する頭頂部検出部213と、人物の顔の中心線を検出する中心線検出部217と、人物の口を検出する口検出部214と、必要に応じて中心線を再検出し、中心線の修正を行う中心線修正部220と、人物の眼を検出する眼検出部215と、人物の顎位置を算出する顎検出部216と、顔領域を修正する領域修正部218と、抽出された肌色領域が人物の顔であるか否かを判定する判定部219とから構成されている。
【0201】
画像入力部211は、第1の実施の形態と同じものであるが、その出力であるカラー画像は、肌色領域抽出部212、頭頂部検出部213、口検出部214、眼検出部215、判定部219、及び中心線修正部220に送られる。
【0202】
また、肌色領域抽出部212も第1の実施の形態と同じものであるが、算出された領域マップAは口検出部214、中心線検出部217、判定部219、及び中心線修正部220へ、頂点リストV(n)は頭頂部検出部213へ送られる。
【0203】
頭頂部検出部213は、第1の実施の形態と同様に、頭頂部の高さTOHを検出するものであるが、その検出に先立ち、頭頂部がカラー画像内に含まれているか否かの判定を行う機能を有している。頭頂部がカラー画像内に存在するか否かの判定には、例えば上記式(10)と同様な方法によって、画像最上部からmラインにおけるR(x,y),G(x,y),B(x,y)の値の分散を算出し、それらの和が予め設定された閾値以下であるか否かで判定することができる。即ち、上記分散値の和が予め設定された閾値より大きい場合には、頭頂部がカラー画像内に存在しないと判定する。カラー画像内に頭頂部が存在しないと判定された肌色領域に対応する頂点リストV(n)には、位置座標としては無効な値、例えばー1が格納される。ここで、頭頂部がカラー画像内に存在しないと判定された場合、カラー画像の最上端を頭頂部の位置としてもよい。又は、頭頂部が検出されなかった旨を例えば音声又は音等により通知し、使用者に再度撮影するよう催促するようにしてもよい。
【0204】
一方、頭頂部が存在すると判定された場合は、頭頂部の高さTOHの検出を行い、検出された頭頂部の高さTOHは、眼検出部215、及び領域修正部218に送られ、修正された頂点リストV(n)は、口検出部214、眼検出部215、顎検出部216、中心線検出部217、領域修正部218、及び中心線修正部220に送られる。
【0205】
中心線検出部217は、頭頂部検出部213で修正された頂点リストV(n)に無効ではない頂点座標を持つ各肌色領域に対して、肌色領域を左右に2分割する中心線の位置を検出する。但しここでは、第1の実施の形態と異なり、頂点リストV(n)によって表される長方形内部において、肌色領域として抽出された画素(x,y)の水平方向の座標xの平均値を中心線の位置COHとして検出する。検出された中心線位置COHは口検出部214、及び中心線修正部220に送られる。
【0206】
口検出部214は、頭頂部検出部213で修正された頂点リストV(n)に無効ではない頂点座標を持つ各肌色領域に対して、口の高さを検出する。第1の実施の形態と同様に、本実施の形態においても、赤みの強さを表す上記式(11)の値rdsh(x,y)を水平方向に累積して得られるヒストグラムHrdsh(y)を用いる。このとき、その累積範囲は、図19の斜線で示すように、中心線検出部217によって検出された中心線位置COHの周辺部の領域241に制限する。すなわち本実施の形態におけるヒストグラムHrdsh(y)は下記式(37)によって生成される。
【0207】
【数37】
【0208】
ここで、lwは、あらかじめ設定された0より大きく1より小さい係数である。ヒストグラムHrdsh(y)は、必要に応じて1次元ローパスフィルタによって平滑化された後、その最大値に対応する垂直座標yが口の高さHOMとして検出される。
【0209】
更に、本実施の形態においては、赤みの強い画素の空間的な分布に応じて検出された口の高さHOMの信頼度lipconfを算出する。口は、水平方向には顔の中心にあり、口を構成する画素は中心線位置COHを中心として比較的狭い範囲に存在していると推測できる。そこで、赤みの強い画素が空間的に大きく広がっている場合、即ち、赤みが所定の閾値以上である画素の分布が大きい場合には、検出された口の高さの信頼度が低いと評価する。
【0210】
信頼度lipconfは例えば、次のように算出することができる。即ち、先ず、検出された中心線位置COHと口の高さHOMとから決まる座標(COH,HMO)を中心とする図20に斜線で示すような長方形領域Rmを設定して、この長方形領域Rmの内部に存在する各画素に対して上記式(11)によって定義される赤みの強さを算出すると共に、算出された赤みの強さrdsh(x,y)が予め設定された閾値Trdshよりも大きい画素を選択し、それらの水平座標xの標準偏差をxsdv算出する。即ち、xsdvの算出は、下記式(38)に示すように行われる。
【0211】
【数38】
【0212】
信頼度lipconfを算出するための長方形領域Rmは、中心線位置COHと現在注目している肌色領域に対応する頂点リストV(n)から、例えば下記式(39)のように設定することができる。
【0213】
【数39】
【0214】
ここで、mtop,mbtmは上記式(17)に示したものと同じである。
【0215】
次に、下記式(40)に示すように、値域が0以上1以下である適当な単調増加関数Fを用い、算出された標準偏差xsdvを信頼度lipconfに変換する。
【0216】
【数40】
【0217】
ここで、V(n).edx−V(n).stx+1は、現在注目している肌色領域を囲む長方形領域の水平方向の幅を表している。
【0218】
検出された口の高さHOMは眼検出部215、顎検出部216、中心線修正部220及び判定部219に送られる。また、信頼度lipconfは中心線修正部220、判定部219に送られる。
【0219】
なお、更に正確に口の高さを検出するために、第1の実施の形態と同様に、注目画素の位置やその注目画素の明るさに応じて赤みの強さrdshに重み付けを行なうようにすることもできることはいうまでもない。また、口の高さの信頼度lipconfを算出する際には、各画素の水平座標に対して同様の重み付けを行うこともできる。更に、ここでは信頼度の計算に寄与する画素を予め設定された閾値Trdshに基づいて選択しているが、この閾値を適応的に設定することも可能である。例えば、図19に斜線で示した領域244の内部において、各画素の赤みの強さの平均値を算出し、その値に適当な係数を積算して得られる値を信頼度算出のための閾値Trdshとして用いることもできる。
【0220】
中心線修正部220は、頭頂部検出部213で修正された頂点リストV(n)に無効ではない頂点座標を持つ各肌色領域に対して、口検出部214で算出された口の高さの信頼度lipconfの値が予め設定された閾値よりも大きい場合にのみ、第1の実施の形態における中心線検出部17と同様の方法、即ち例えば赤みの強さの値が閾値よりも大きくなる画素の水平座標の平均値をロバスト推定により求め、これを中心線の水平座標位置として検出する再検出を行い、その結果を出力する。信頼度lipconfが閾値以下であるときは、第1の実施の形態のように、赤みの強さに基づいて中心線を検出すると誤検出が生じるおそれがあるため、既に中心線検出部217で検出された中心線位置COHをそのまま出力する。出力された中心線位置COHは領域修正部218、判定部219に送られる。
【0221】
眼検出部215は、頭頂部検出部213で修正された頂点リストV(n)に無効ではない頂点座標を持つ各肌色領域に対して、眼の高さを検出する。但し、第1の実施の形態では、上記式(14)に示したエッジ強度のヒストグラムHedge(y)の最大値に対応する唯一の垂直座標のみを眼の高さHOEとして検出したが、本実施の形態においては、このヒストグラムの極大点に対応する複数の垂直座標を眼の高さ候補として検出するものとする。ヒストグラムHedge(y)の極大点座標は、例えば下記式(41)を満たすような座標yとして検出することができる。
【0222】
【数41】
【0223】
肌色領域nに対して検出された眼の高さの候補の座標は、予め定められた優先順位iに従って、リストeyelist(n,i)に格納される。優先順位の決定には、例えば、ヒストグラムHedge(y)の値を用いることができる。この場合、リストeyelist(n,i)には、肌色領域nに対して得られたヒストグラムHedge(y)の値がi番目に大きな極大点の垂直座標が格納されることになる。眼の高さの候補の座標が格納されたリストeyelist(n,i)は、顎検出部216及び判定部219に送られる。
【0224】
なお、各肌色領域に対する眼の高さ候補の座標リストeyelist(n,i)には、検出された全ての極大点の垂直座標を格納する必要はなく、例えばノイズなどの影響を避けるため、ヒストグラムの値が大きいものから順に、あらかじめ設定された個数の極大点のみを格納するようにしてもよい。
【0225】
顎検出部216では、頭頂部検出部213で修正された頂点リストV(n)に無効ではない頂点座標を持つ各肌色領域に対して、第1の実施の形態1と同様の方法によって顎の高さを検出する。但し、本実施の形態においては、第1の実施の形態にて説明した1つの眼の高さHOEではなく、複数の眼の高さ候補があるため、各眼の高さ候補に対して顎の高さの候補を算出し、顎の高さリストchinlist(n,i)に格納する。ここで、nは現在処理している肌色領域の番号であり、iは対応する眼の高さ候補の優先順位を表している。算出されたリストchinlist(n,i)は、領域修正部218に送られる。
【0226】
領域修正部218は、頭頂部検出部213で修正された頂点リストV(n)に無効ではない頂点座標を持つ各肌色領域に対して、第1の実施の形態における上記式(20)と同様の方法によって肌色領域nを囲む長方形領域を算出する。但し、本実施の形態においては、目の高さ候補に対応して複数の顎の高さ候補chinlist(i)が存在するため、各顎の高さ候補に対して長方形領域を算出するとともに、その頂点座標を上記式(6)で示したのと同様の方法によって頂点リストV’(n,i)に格納する。ここで、iは顎の高さ候補に対応する眼の高さ候補の優先順位を表している。算出された新たな頂点リストV’(n,i)は、判定部219に送られる。なお、肌色領域nに対応する頂点リストV(n)に格納された頂点座標が無効である場合には、新たな頂点リストV’(n,i)の全ての優先順位iに対しても無効な座標値を格納することとする。
【0227】
判定部219は、領域修正部218において算出された頂点リストV’(n,i)に無効ではない頂点座標を持つ各肌色領域に対して、その肌色領域が顔領域であるか否かの判定を行ない、その判定結果を表す2値のフラグfaceflagを出力するが、その判定の方法が第1の実施の形態とは異なる。第1の実施の形態においては、眼の高さHOEと口の高さHOMとがそれぞれ1つずつ検出されるため、その組み合わせは1通りであり、第1の実施の形態における判定部19ではこの1つの組み合わせについて顔領域であるか否かの判定を行う。これに対して、本実施の形態において、眼の高さに関して複数の眼の高さ候補が検出されており、眼の高さ候補の数をN個とした場合、口の高さHOMとの組み合わせはN個存在することになる。判定部219は、これら複数個の組み合わせに対して顔領域であるか否かの判定を行い、いずれかの組み合わせにおいて顔領域の条件を満足するものが存在した場合には、対応する肌色領域を顔領域と判定すると共に、その組み合わせにおける眼の高さ候補を真の眼の高さHOEとする。顔領域の条件を満たす複数の組み合わせが存在する場合には、最も優先順位iが高い眼の高さ候補をHOEとする。なお、いずれの組み合わせに対しても顔領域の条件が満足されない場合、対応する肌色領域が顔領域ではないと判定する。
【0228】
図21は、本実施の形態の判定部219を示すブロック図である。図21に示すように、判定部219は、左右の眼の領域及び口領域を設定する領域設定部231と、長方形領域内の肌色画素における水平方向のエッジ(水平エッジ)を算出する水平エッジ検出部232と、眼であるか否かを判定する眼パターン判定部233と、口であるか否かを判定する口パターン判定部234と、口の高さに基づき眼の高さが正確か否かを判定する目口間距離判定部236と、眼パターン判定部233、口パターン判定部234及び目口間距離判定部236の判定結果から顔であるか否かを判定する総合判定部235とから構成される。
【0229】
領域設定部231では、肌色領域nに対して、口の高さHOM及び頂点リストV’(n,i)から、第1の実施の形態と同様な方法によって口領域が設定され、その結果がVmouに格納される。一方、リストeyelist(n,i)から眼の高さ候補が1つ選択され、これと頂点リストV’(n,i)から、第1の実施の形態と同様な方法によって右眼領域、及び左眼領域が設定され、夫々VeyeR及びVeyeLに格納される。このとき、選択される眼の高さ候補は、この時点までにいまだ顔領域の判定に用いていないものの中で、もっとも優先順位iが高いものとする。設定された右眼領域VeyeR、左眼領域VeyeL及び口領域Vmouは、眼口間距離判定部66に送られると共に、VeyeR、VeyeLは眼パターン判定部233へ、Vmouは口判定部234へも送られる。
【0230】
なお、この領域設定部231において設定された右眼領域、左眼領域及び口領域に基づいて顔領域の判定が行われるが、その結果である2値のフラグfaceflagは後述する総合判定部235から領域設定部231に戻される。この判定結果が顔領域でないことを示す場合には、リストeyelist(n,i)に格納された眼の高さ候補のうち、次に優先順位iの高い眼の高さ候補が選択されて、右眼領域VeyeR。左眼領域VeyeLが再設定されると共に。これらを用いた顔領域の判定が繰り返される。
【0231】
また、ここで用いた眼の高さ候補がリストeyelist(n,i)における最低順位のものである場合には、2値のフラグlastoflistに、例えば1の値を設定する。これに対し、判定に用いるべき眼の高さ候補がまだ存在する場合には、フラグlastoflistに、例えば0の値を設定する。値の設定されたフラグlastoflistは後述の総合判定部235に送られる。
【0232】
眼口間距離判定部236では,図22に示すように、口の高さHOMに対して領域設定部231で選択された眼の高さ候補eyelist(n,i)が適切であるか否かの判定を行う。この判定は、例えば、領域設定部231で設定された口領域の幅mousizexを用いて、下記式(42)式が満たされるか否かを調べることによって行うことができる。
【0233】
【数42】
【0234】
ここで、t1,t2は眼と口との間の垂直方向の距離Lmeに対する閾値を決めるための係数であり、あらかじめ適切な値が設定されている。
【0235】
上記式(42)が満たされない場合には、口の幅mousizexに対して、眼と口との間の距離Lmeが大きすぎるか、又は小さすぎると判断し、眼の高さ候補eyelist(n,i)が不適切であると判定する。これに対し、上記式(42)が満足される場合には、眼の高さ候補eyelist(n,i)が適切であると判定する。この判定結果は2値のフラグeyelipdstで表され、例えば眼の高さ候補が適切であると判定された場合には1の値が、また、不適切であると判定された場合には0の値が設定される。ここで設定されたフラグeyelipdstは後述の総合判定部235に送られる。
【0236】
水平エッジ検出部212は、第1の実施の形態のものと同一のものとすることができ、ここで生成されたエッジマップMedgeは眼パターン判定部213,及び口パターン判定部214に送られる。
【0237】
眼パターン判定部233は、図12に示した第1の実施の形態における眼パターン判定部23とほぼ同様の処理を行うが、本実施の形態では、更に眼鏡の有無を判定し、その判定結果に応じて眼のパターン判定を行う点が異なる。
【0238】
被写体が眼鏡を装着している場合、図23に示すように眼鏡フレーム242の両眼2つのレンズをつなぐ部分242aが両眼の間に存在するため、眼鏡のデザインによっては、水平エッジ検出部232において両眼間の領域に多くのエッジが検出される。ところが、上記式(27)に示した第1の判定条件は、両眼間に存在する水平エッジが少ないことを仮定しているため、被写体が眼鏡を装着している場合には、その眼のパターンが正しく判定されない可能性が高くなる。
【0239】
そこで本実施例では、領域設定部231で設定した右眼領域及び左眼領域の周辺部分において、眼鏡の特徴を示すパターンが存在するか否かを調べ、眼鏡の特徴が検出された場合には、上記式(27)の閾値Tedstとして、より小さい値を用いることで、眼鏡を装着した被写体の眼のパターンが正しく判定されるようにする。
【0240】
眼鏡の特徴としては、例えば、両眼間に存在する眼鏡のフレームが水平方向に細長く伸びていることを利用し、下記式(43)に示すような条件によって、その特徴の存在を判定することができる。
【0241】
【数43】
【0242】
上記式(43)の第1の不等式において、areaMは,右眼領域243Rと左眼領域243Lとに挟まれた、図24に斜線で示すような両眼間の領域244に存在する画素の総数であり、ecountMはこの両眼間領244において下記式(44)のようにカウントされる水平エッジの画素数である。
【0243】
【数44】
【0244】
ここでeyeMは両眼間領域244に存在する画素の集合を現す。また、(43)式の第2の不等式におけるesdvx,及びesdvyは、両眼間領域244における夫々水平エッジ画素の水平座標xの標準偏差及び垂直座標yの標準偏差を表している。Tglsdnsty,Tglsaspctは、予め設定された閾値である。
【0245】
以上のことより、上記式(43)式の条件は、両眼間領域244における水平エッジの密度が高く、またそれらの水平エッジが水平方向に広がっている場合に、これを眼鏡のフレームによるパターンであるとみなして被写体が眼鏡を装着しているものと判定することを表している。
【0246】
口パターン判定部234は、図12に示した第1の実施の形態における口パターン判定部24とほぼ同様の処理を行うが、本実施の形態では、更に口検出部234で算出された口の高さの信頼性lipconfに応じて口のパターン判定を行う点が異なる。
【0247】
第1の実施の形態の口パターン判定部24では、上記式(30)によって口のパターン判定を行うが、その中の第3の判定条件は、口の高さにおいて、口領域Vmou内部における赤みの強さがその周辺よりも強いという仮定に基づいている。しかしながら、図25に示すように、赤い服の着用等により赤みの強い領域が口と同じ高さに存在すると、上述の仮定が必ずしも成立するとは限らず、正しい顔領域の判定が行えない場合がある。
【0248】
そこで、本実施の形態においては、口の高さを検出する際に算出した口の高さの信頼性lipconfが低い場合には、上記式(30)における第3の判定条件を緩和する。図25の例のように、赤みの強い服245を着用する等、被写体の着用した服によって顔の両側に赤みの強い領域が存在する場合、赤みの強い画素は水平方向に広く分布することになるが、これにより、上記式(38)によって算出される赤みの強い画素の水平座標xの標準偏差は大きな値となるため、口の高さの信頼性lipconfが低下する。このとき、上記式(30)の第3の判定条件における閾値Tcdstmを、例えば下記式(45)に示すようにlipconfに応じて小さくすることにより、口パターンを正しく判定することができるようになる。
【0249】
【数45】
【0250】
総合判定部235では、眼口間距離判定部236、眼パターン判定部233、並びに口パターン判定部234から送られてくる2値のフラグeyelipdst、eyeflag、及びmouflagがいずれも1である場合、即ち、領域設定部231で設定した眼の領域及び口の領域がそれぞれ眼の特徴、口の特徴を備えていると判定された場合、判定結果を表す2値のフラグfaceflagに、例えば1の値を設定して出力するとともに、現在の肌色領域nに対する顔領域の判定処理を修了し、次の肌色領域n+1に対する顔領域の判定を開始する。
【0251】
一方,eyelipdst、eyeflag及びmouflagのいずれかのフラグが1でない場合には、フラグfaceflagに例えば0の値を設定する。このとき、領域設定部231から送られてくるフラグlastoflistを参照し、その値が1である場合、即ち用いた眼の高さ候補がリストeyelist(n,i)の最低順位のものである場合には、現在の肌色領域nが顔領域ではないと判定し、例えば0に設定されたfaceflagを出力すると共に、現在の肌色領域nに対する顔領域の判定処理を修了し、次の肌色領域n+1に対する顔領域の判定を開始する。
【0252】
これに対して、フラグ(制御信号)lastoflistが0である場合には、判定結果であるfaceflagを領域判定部231に戻し、次に優先順位iが大きい眼の高さ候補を用いて同じ肌色領域nに対する顔領域の判定処理を継続する。
【0253】
なお、本実施の形態においても、第1の実施の形態と同様、顔や肌色領域の連結の問題を回避するために、上記式(21)、(23)において領域の大きさを決める係数S1,S2,S3を複数用意しておき、それぞれの値に対して判定を行なうようにすることが可能なことは言うまでもない。
【0254】
本実施の形態においては、カラー画像内に頭頂部が含まれていない場合、適切に人物の顔領域が撮影されていないとして、撮影のしなおしを促すことが可能となる。
【0255】
また、顔を左右に分割する中心線を、肌色領域を構成する画素の空間的な分布から算出すると共に、口の高さを中心線周辺における赤みの強さから検出するため、赤みの強い服を着用している場合にも、正確に口の高さ及び中心線を検出することができ、検出された口の高さの信頼度を算出し、この信頼度が高い場合にはロバスト推定によって中心線位置の修正を行うため、肌色領域が影などの影響で欠落している場合にも、正確に中心線を検出することが可能となる。
【0256】
更に、口の高さの信頼度を考慮することにより、より正確に口パターンらしさを評価することができ、また、複数の眼の高さの候補を算出し、各眼の高さ候補に対して眼のパターンらしさの判定を行うと共に、眼鏡装着の有無の判定を行うことにより、眼鏡装着の場合にもより正確に眼のパターンらしさを判定することができ、眼の高さの検出における誤検出を軽減することが可能となる。
【0257】
更にまた、口の幅に対する眼と口との間の距離を評価し、口のパターンらしさ及び眼のパターンらしさに反映させるため、より正確に顔領域の判定を行うことが可能となる。
【0258】
なお、本実施の形態における画像処理装置を上述した第2及び第3の実施の形態における肖像画像撮影装置に適用できることは言うまでもない。
【0259】
【発明の効果】
以上詳細に説明したように本発明に係る画像処理方法によれば、入力されたカラー画像から肌色の領域を抽出する肌色領域抽出工程と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点を検出する特徴点検出工程と、上記特徴点に基づき、上記肌色領域が顔領域であるか否かを判定する判定工程とを有して顔領域を抽出するので、抽出した肌色領域に基づき顔の特徴点を検出し、この特徴点に基づき肌色領域が顔であるか否かを判定することができ、誤検出を低減し、入力カラー画像から高速且つ正確に顔領域を抽出することが可能となると共に、特徴点に基づき顔か否かを判定するため、正確な判定をすることができる。
【0260】
また、本発明に係る肖像写真撮影装置によれば、人物を撮影して肖像写真の作成を行なう肖像写真撮影装置において、入力カラー画像から肌色の領域を抽出する肌色領域抽出手段と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点を検出する特徴点検出手段と、上記特徴点から、上記肌色領域が顔領域であるか否かを判定する判定手段とを具備し、顔領域を抽出する顔領域抽出手段と、上記顔領域抽出手段によって抽出された顔領域から、トリミングの対象となる顔領域を選択する選択手段と、上記選択された顔の領域からトリミングの位置決めを行なう位置決め手段とを有し、上記カラー画像から上記人物の顔領域を抽出し該顔領域が所定の位置となるように自動的にトリミングを行なう自動トリミング手段を有するので、顔領域抽出手段により、入力カラー画像から高速且つ正確に顔領域を抽出し、正確に顔領域を顔であるか否かを判定することができ、顔領域抽出手段より検出された肌色領域及び各特徴点の情報を使用してトリミング処理をするため、正確に自動トリミング処理を行なうことが可能であり、これにより、良好な肖像写真を自動で撮影することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における画像処理装置10を示すブロック図である。
【図2】抽出された肌色画素を示す模式図である。
【図3】肌色領域を囲む閉領域を示す模式図である。
【図4】長方形領域の頂点座標を示す模式図である。
【図5】カラー画像における人物の頭頂部を検索する際の検索範囲を示す模式図である。
【図6】長方形領域の水平方向の赤み強度が累積されて生成されたヒストグラムHrdshと長方形領域との関係を示す模式図である。
【図7】水平エッジの強度を算出する際に使用される微分フィルタの微分係数を示す図である。
【図8】人物の眼、口及び顎の位置の関係を示す模式図である。
【図9】エッジを構成する画素が水平方向に累積されて生成されたヒストグラムHedge(y)と肌色領域71に対応する長方形領域72との関係を示す模式図である。
【図10】肌色領域に対応する長方形領域における口の高さHOM及び検索範囲mtop、mbtmを示す模式図である。
【図11】修正後の長方形領域の頂点座標{(stx、sty),(edx、edy)}を示す模式図である。
【図12】本発明の第1の実施の形態における画像処理装置の判定部を示すブロック図である。
【図13】口の高さHOM、及び眼の高さHOEから推定され、頂点座標V(n)が示す長方形領域内に設定された右眼、左眼及び口の領域を示す模式図である。
【図14】垂直エッジ強度を算出する際に使用する微分フィルタの微分係数を示す図である
【図15】本発明の第2の実施の形態の肖像画像撮影装置を示すブロック図である。
【図16】入力カラー画像から切り出す部分画像の切り出し位置を示す模式図である
【図17】同一の入力カラー画像120において、複数の人物121,122が存在し、この人物121,122が水平方向に重なっている場合の頭頂部検索範囲を示す模式図である。
【図18】本発明の第4の実施の形態における画像処理装置を示すブロック図である。
【図19】長方形領域における赤み強さの累積範囲を示す模式図である。
【図20】口の高さの信頼性を算出するために設定される長方形領域Rmを示す模式図である。
【図21】本発明の第4の実施の形態における画像処理装置の判定部を詳細に示すブロック図である。
【図22】口の高さHOMに対して眼の高さ候補eyelist(n,i)が適切であるか否かの判定を行う眼口間距離判定部における判定方法を説明するための模式図である。
【図23】眼鏡を装着している被写体を示す模式図である。
【図24】右眼領域と左眼領域とに挟まれた両眼間の領域を示す模式図である。
【図25】赤い服の着用等により赤みの強い領域が口と同じ高さに存在する場合を示す模式図である。
【符号の説明】
10,210 画像処理装置、11,211 画像入力部、12,212 肌色領域抽出部、13,213 頭頂部検出部、14,214 口検出部、15,215 眼検出部、16,216 顎検出部、17,217 中心線検出部、18,218 領域修正部、19,219 判定部、21,231 領域設定部、22,232 水平エッジ検出部、23,233 眼パターン判定部、24,234 口パターン判定部、25,235 総合判定部、30 肖像画像撮像装置、31 撮像器、32 顔検出器、33 領域選択器、34 トリミング器、220 中心線修正部、 236 目口間距離判定部
Claims (60)
- 入力されたカラー画像から、人物の顔領域を抽出するための画像処理方法において、
肌色の領域を抽出する肌色領域抽出工程と、
上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出工程と、
上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定工程と
を有することを特徴とする画像処理方法。 - 上記特徴点検出工程は、上記肌色領域を含む閉領域における水平方向の赤み強度分布に基づき口の位置としての垂直方向の位置座標を検出する口検出工程を有する
ことを特徴とする請求項1記載の画像処理方法。 - 上記特徴点検出工程は、上記肌色領域を含む閉領域における水平方向の赤み強度の累積値が最も大きい垂直方向の位置座標を口の位置として検出する口検出工程を有する
ことを特徴とする請求項2記載の画像処理方法。 - 上記赤み強度は、各画素における3原色の値をR、G、Bとしたとき、GがBよりも大きい場合はGに対するRの比とGに対するBの比とを積算した値とし、GがBよりも小さい場合はBに対するRの比とBに対するGの比とを積算した値とする
ことを特徴とする請求項2記載の画像処理方法。 - 上記口検出工程では、上記閉領域内に存在し、かつ肌色領域に属さない画素の上記赤み強度のみを使用して上記口の位置が検出される
ことを特徴とする請求項2記載の画像処理方法。 - 上記口検出工程では、上記閉域内における画素の位置に応じて上記赤み強度に異なる重み付けをして上記赤み強度分布が求められる
ことを特徴とする請求項2記載の画像処理方法。 - 上記口検出工程では、上記閉域内における画素の明るさに応じて上記赤み強度に異なる重み付けをして上記赤み強度分布が求められる
ことを特徴とする請求項2記載の画像処理方法。 - 上記特徴点検出工程は、上記肌色領域を含む閉領域内の水平方向のエッジの強度分布に基づき眼の位置としての垂直方向の位置座標を検出する眼検出工程を有する
ことを特徴とする請求項1記載の画像処理方法。 - 上記特徴点検出工程は、上記閉領域内の水平方向のエッジの強度の水平方向の累積値が最も大きい垂直方向の位置座標を眼の位置として検出する眼検出工程を有する
ことを特徴とする請求項8記載の画像処理方法。 - 上記特徴点検出工程は、上記人物の頭頂部における垂直方向の座標位置を検出する頭頂部検出工程と、上記閉領域における水平方向の赤み強度分布に基づき口の位置としての垂直方向の位置座標を検出する口検出工程とを有し、
上記眼検出工程では、上記口の位置と上記頭頂部の位置とに基づき眼の探索範囲を設定し、この探索範囲内から上記眼の位置が検出される
ことを特徴とする請求項9記載の画像処理方法。 - 上記頭頂部検出工程では、人物の背景が単一色である場合、上記肌色領域の上方の領域を上記入力カラー画像最上部から下方へ走査し、上記背景色と異なる色の画素が出現する位置が上記頭頂部の位置として検出される
ことを特徴とする請求項10記載の画像処理方法。 - 上記入力カラー画像最上部から下方への走査では、随時更新した背景色と各画素との色の比較する
ことを特徴とする請求項11記載の画像処理方法。 - 上記頭頂部検出工程では、上記人物を含まない背景のみの画像と、上記人物が含まれる画像との画素毎の差分を算出し、この差分が予め設定された閾値以上の画素のうち、最上部に存在する画素の座標が上記頭頂部の位置として検出される
ことを特徴とする請求項10記載の画像処理方法。 - 上記特徴点検出工程は、上記人物の頭頂部における垂直方向の座標位置を検出する頭頂部検出工程を有し、
上記頭頂部検出工程は、上記頭頂部が上記入力カラー画像内に存在するか否かを判定する頭頂部判定工程を有し、該頭頂部判定結果に基づき上記肌色領域が顔領域であるか否かを判定することを特徴とする請求項1記載の画像処理方法。 - 上記頭頂部判定工程では、上記肌色領域の上方の領域を上記入力カラー画像最上部から下方へ予め設定された数の走査線における画素値の分散が算出され、この分散値が所定の閾値よりも大きい場合には、上記頭頂部が上記入力カラー画像内に存在しないと判定されることを特徴とする請求項14記載の画像処理方法。
- 上記特徴点検出工程では、上記頭頂部判定工程にて、上記頭頂部が上記入力カラー画像内に存在しないと判定された場合、該入力カラー画像の最上部が上記頭頂部の位置とされることを特徴とする請求項14記載の画像処理方法。
- 上記判定工程では、上記頭頂部判定工程にて、上記頭頂部が上記入力カラー画像内に存在しないと判定された場合、上記肌色領域が顔領域ではないと判定されることを特徴とする請求項14記載の画像処理方法。
- 上記特徴点検出工程は、上記口の位置に基づき、上記人物の顔を左右に分割する中心線の位置を検出する中心線検出工程を有する
ことを特徴とする請求項2記載の画像処理方法。 - 上記中心線検出工程では、上記口の位置近傍の座標における上記赤み強度が大きい画素の重心位置を算出し、この重心位置の水平方向の位置座標を検出する
ことを特徴とする請求項18記載の画像処理方法。 - 上記中心線検出工程では、上記口の位置近傍の座標において上記肌色領域に属さず、かつ上記赤み強度が所定の閾値以上の画素の重心位置を算出し、この重心位置の水平方向の位置座標を検出する
ことを特徴とする請求項18記載の画像処理方法。 - 上記中心線検出工程では、ロバスト推定を使用して上記重心位置を算出する
ことを特徴とする請求項19記載の画像処理方法。 - 上記特徴点検出工程は、上記肌色領域を構成する画素の空間的な分布から顔を左右に分割する中心線の位置を検出する中心線検出工程を有し、
上記口検出工程では、上記赤み強度に対して上記中心線からの距離に応じた重み付けを行って上記口の位置が検出されることを特徴とする請求項2記載の画像処理方法。 - 上記口検出工程では、検出された上記口の位置近傍における画素の赤み強度の空間的な分布から、上記口の位置の信頼度を算出し、上記信頼度が所定の閾値以上である場合に、上記中心線の位置を修正することを特徴とする請求項22記載の画像処理方法。
- 上記口の位置の信頼度は、上記検出された口の位置近傍における赤み強度が所定の閾値以上の画素の空間的な分布が大きいほど小さくなることを特徴とする請求項23記載の画像処理方法。
- 上記検出された口の位置近傍における赤みの強度が所定の閾値以上の画素の空間的な分布は、当該画素の位置座標に当該画素の明るさに応じた重み付けがなされて算出されることを特徴とする請求項24記載の画像処理方法。
- 上記中心線の位置の修正には、ロバスト推定が使用されることを特徴とする請求項23記載の画像処理方法。
- 上記判定工程では、上記眼の位置近傍の領域における水平方向のエッジが所定の閾値以上となる画素の分布状態に基づき眼のパターンらしさを評価し、上記口の位置近傍の領域における水平方向のエッジが所定の閾値以上となる画素の分布状態及び色の分布状態に基づき口のパターンらしさを評価し、上記眼のパターンらしさ及び上記口のパターンらしさの評価が所定の閾値以上である場合に上記肌色領域が顔領域であると判定する
ことを特徴とする請求項8記載の画像処理方法。 - 上記判定工程は、眼鏡の有無を検出する眼鏡検出工程を有し、この眼鏡検出結果に応じて眼のパターンらしさを評価することを特徴とする請求項27記載の画像処理方法。
- 上記眼の位置近傍に右眼領域及び左眼領域を設定し、該右眼領域及び左眼領域内の水平方向のエッジが所定の閾値以上となる画素が上記眼の位置近傍における該右眼領域及び左眼領域以外の領域内の水平方向のエッジが所定の閾値以上となる画素よりも多い場合に、上記眼のパターンらしさの評価が大きくなる
ことを特徴とする請求項28記載の画像処理方法。 - 上記眼鏡検出工程では、上記右眼領域と上記左眼領域とにはさまれた両眼間の領域の水平エッジの密度が所定の閾値以上であり、且つ上記両眼間の領域内における当該所定の閾値以上の水平エッジを構成する画素の水平方向の分布が所定の閾値以上である場合に、眼鏡有りと検出されることを特徴とする請求項29記載の画像処理方法。
- 該右眼領域及び左眼領域内の水平方向のエッジが所定の閾値以上となる画素密度が大きい場合に、上記眼のパターンらしさの評価が大きくなる
ことを特徴とする請求項27記載の画像処理方法。 - 上記右眼領域及び上記左眼領域、並びに該右眼領域と左眼領域との間の両眼間領域内の水平方向のエッジが所定の閾値以上となる画素密度が大きい場合に、上記眼のパターンらしさの評価が大きくなる
ことを特徴とする請求項27記載の画像処理方法。 - 上記眼検出工程では、上記眼の位置として順位付けされた1以上の眼の位置候補が検出され、
上記判定工程では、上記1以上の眼の位置候補のうち順位が高いものから眼のパターンらしさが算出されることを特徴とする請求項27記載の画像処理方法。 - 上記眼の位置候補の順位は、上記水平方向のエッジ強度の水平方向の累積値が大きい垂直座標ほど高くなることを特徴とする請求項33記載の画像処理方法。
- 上記口の位置近傍に口領域を設定し、この口領域内の水平方向のエッジが所定の閾値以上となる画素が上記口の位置近傍における上記口領域以外の領域内の水平方向のエッジが所定の閾値以上となる画素よりも多い場合に、上記口のパターンらしさの評価が大きくなる
ことを特徴とする請求項27記載の画像処理方法。 - 上記口の位置近傍に口領域を設定し、この口領域内の水平方向のエッジが所定の閾値以上となる画素密度が大きい場合に、上記口のパターンらしさの評価が大きくなる
ことを特徴とする請求項27記載の画像処理方法。 - 上記口の位置近傍に口領域を設定し、この口領域内の赤み強度が大きい場合に、上記口のパターンらしさの評価が大きくなる
ことを特徴とする請求項27記載の画像処理方法。 - 上記口の位置近傍に口領域を設定し、この口領域内の赤み強度が、上記口領域以外の領域内の赤み強度より大きい場合に、上記口のパターンらしさの評価が大きくなる
ことを特徴とする請求項27記載の画像処理方法。 - 上記口検出工程では、検出された上記口の位置近傍における画素の赤み強度の空間的な分布から、上記口の位置の信頼度が算出され、
上記判定工程では、上記口の位置の信頼度に応じて上記口のパターンらしさが評価されることを特徴とする請求項27記載の画像処理方法。 - 上記口の位置の信頼度が所定の閾値未満である場合、上記口領域内の赤み強度と上記口の位置近傍におけるその他の領域内の赤み強度との関係を示す値が上記口のパターンらしさの評価に寄与する度合いを小さくすることを特徴とする請求項39記載の画像処理方法。
- 上記判定工程では、上記眼の位置と上記口の位置との間の距離が、上記口領域の幅から算出される上限値よりも大きい場合、又は上記口領域の幅から算出される下限値よりも小さい場合には、上記眼のパターンらしさ及び上記口のパターンらしさが小さいと評価されることを特徴とする請求項1記載の画像処理方法。
- 上記眼の位置近傍及び上記口の位置近傍に、大きさが異なる複数の夫々右眼領域及び左眼領域並びに口領域を設定し、この複数の夫々右眼領域及び左眼領域並びに口領域における上記眼のパターンらしさ及び口のパターンらしさを算出する
ことを特徴とする請求項27記載の画像処理方法。 - 上記判定工程において、複数の上記肌色領域が顔領域であると判定された場合に、この複数の顔領域から1以上の顔領域を選択する選択工程を有する
ことを特徴とする請求項1記載の画像処理方法。 - 上記選択工程では、複数の上記顔領域の位置に基づいて1つの顔領域を選択する
ことを特徴とする請求項43記載の画像処理方法。 - 入力されたカラー画像から、人物の顔領域を抽出するための画像処理装置において、
肌色の領域を抽出する肌色領域抽出手段と、
上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出手段と、
上記肌色領域及び特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定手段と
を有することを特徴とする画像処理装置。 - 入力されたカラー画像から、人物の顔領域を抽出する動作を実行するためのプログラムにおいて、
肌色の領域を抽出する肌色領域抽出工程と、
上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出工程と、
上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定工程と
を有することを特徴とするプログラム。 - 入力されたカラー画像から、人物の顔領域を抽出する動作をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体において、
肌色の領域を抽出する肌色領域抽出工程と、
上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出工程と、
上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定工程と
を有することを特徴とするプログラムを記録した記録媒体。 - 入力されたカラー画像から、人物の顔領域を抽出し該顔領域が所定の位置となるようにトリミングを行なう自動トリミング装置において、
肌色の領域を抽出する肌色領域抽出手段と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出手段と、上記肌色領域及び特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定手段と、上記判定手段で顔領域であると判定された肌色領域を含む閉領域を顔領域として抽出する抽出手段とを具備する顔領域抽出手段と、
上記顔領域抽出手段によって抽出された顔領域から、トリミングの対象となる顔領域を選択する選択手段と、
上記選択された顔の領域からトリミングの位置決めを行なう位置決め手段と
を有することを特徴とする自動トリミング装置。 - 上記顔領域抽出手段は、上記特徴点の位置に基づき上記人物の顔を左右に分割する顔中心線の位置を検出し、
上記位置決め手段は、上記頭頂部の位置と上記顔中心線とに基づきトリミングの位置決めを行なう
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記顔領域抽出手段は、上記特徴点の位置に基づき上記人物の顔を左右に分割する顔中心線の位置を検出し、
上記位置決め手段は、上記人物の眼の位置と上記顔中心線とに基づきトリミングの位置決めを行なう
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記顔領域抽出手段は、上記特徴点の位置に基づき上記人物の顔を左右に分割する顔中心線の位置を検出し、
上記位置決め手段は、上記人物の口の位置と上記顔中心線とに基づきトリミングの位置決めを行なう
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記人物の顎の位置は、上記人物の眼及び口の位置から算出されることを特徴とする請求項48記載の自動トリミング装置。
- 上記顔領域抽出手段は、上記特徴点の位置に基づき上記人物の顔を左右に分割する顔中心線の位置を検出し、
上記位置決め手段は、上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置と、上記顔中心線とに基づきトリミングの位置決めを行なう
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記選択手段は、上記カラー画像上における上記顔領域の位置に基づいてトリミングの対象を選択する
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記選択手段は、上記カラー画像において中央に最も近い位置の上記顔領域をトリミングの対象として選択する
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記選択手段は、上記カラー画像において最も上部に位置する上記顔領域をトリミングの対象として選択する
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記選択手段は、上記カラー画像において最も下部に位置する上記顔領域をトリミングの対象として選択する
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記選択手段は、抽出された全ての顔領域をトリミングの対象として選択する
ことを特徴とする請求項48記載の自動トリミング装置。 - 上記位置決め手段は、トリミング後の画像において顔領域が所定の位置及び大きさとする拡大又は縮小処理を行なうことを特徴とする請求項48記載の自動トリミング装置。
- 人物を撮影して肖像写真の作成を行なう肖像写真撮影装置において、
入力カラー画像から肌色の領域を抽出する肌色領域抽出手段と、上記肌色領域に基づき上記人物の頭頂部、上記人物の口、上記人物の眼、及び上記人物の顎からなる群から選択される1以上の特徴点の位置を検出する特徴点検出手段と、上記肌色領域及び上記特徴点の位置に基づき上記肌色領域が顔領域であるか否かを判定する判定手段と、上記判定手段で顔領域であると判定された肌色領域を含む閉領域を顔領域として抽出する抽出手段とを具備する顔領域抽出手段と、上記顔領域抽出手段によって抽出された顔領域から、トリミングの対象となる顔領域を選択する選択手段と、上記選択された顔の領域からトリミングの位置決めを行なう位置決め手段とを有し、上記カラー画像から上記人物の顔領域を抽出し該顔領域が所定の位置となるように自動的にトリミングを行なう自動トリミング手段を有する
ことを特徴とする肖像写真撮影装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002371033A JP2004005384A (ja) | 2002-04-19 | 2002-12-20 | 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002118519 | 2002-04-19 | ||
JP2002371033A JP2004005384A (ja) | 2002-04-19 | 2002-12-20 | 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004005384A true JP2004005384A (ja) | 2004-01-08 |
JP2004005384A5 JP2004005384A5 (ja) | 2006-02-02 |
Family
ID=30447241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002371033A Pending JP2004005384A (ja) | 2002-04-19 | 2002-12-20 | 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004005384A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005269563A (ja) * | 2004-03-22 | 2005-09-29 | Fuji Photo Film Co Ltd | 画像処理装置及び画像再生装置 |
JP2006072506A (ja) * | 2004-08-31 | 2006-03-16 | Noritsu Koki Co Ltd | 写真処理装置 |
JP2007233517A (ja) * | 2006-02-28 | 2007-09-13 | Fujifilm Corp | 顔検出装置および方法並びにプログラム |
JP2008027401A (ja) * | 2006-07-25 | 2008-02-07 | Fujifilm Corp | 画像トリミング装置 |
JP2008520039A (ja) * | 2004-11-10 | 2008-06-12 | イーストマン コダック カンパニー | 人間の画像における虹彩及び瞳孔の検出方法 |
US7840035B2 (en) | 2006-03-02 | 2010-11-23 | Fuji Xerox, Co., Ltd. | Information processing apparatus, method of computer control, computer readable medium, and computer data signal |
JP2011210280A (ja) * | 2011-06-29 | 2011-10-20 | Aisin Seiki Co Ltd | 顔向き判別装置 |
US8116536B2 (en) | 2006-08-04 | 2012-02-14 | Sony Corporation | Face detection device, imaging apparatus, and face detection method |
US8385607B2 (en) | 2006-11-21 | 2013-02-26 | Sony Corporation | Imaging apparatus, image processing apparatus, image processing method and computer program |
US8897501B2 (en) | 2006-08-04 | 2014-11-25 | Sony Corporation | Face detection device, imaging apparatus, and face detection method |
EP3585053A1 (en) * | 2018-06-19 | 2019-12-25 | Panasonic Intellectual Property Management Co., Ltd. | Intercom door station, intercom system, control method, and program |
CN111402407A (zh) * | 2020-03-23 | 2020-07-10 | 杭州相芯科技有限公司 | 基于单幅rgbd图像的高精度肖像模型快速生成方法 |
JP2020135034A (ja) * | 2019-02-13 | 2020-08-31 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
CN111626143A (zh) * | 2020-05-06 | 2020-09-04 | 深圳市梦网视讯有限公司 | 一种基于眼睛定位的反向人脸检测方法、***及设备 |
WO2021054217A1 (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051375A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051376A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN117036411A (zh) * | 2023-08-21 | 2023-11-10 | 深圳伯德睿捷健康科技有限公司 | 人脸健康特征对象的跟踪方法、***及存储介质 |
-
2002
- 2002-12-20 JP JP2002371033A patent/JP2004005384A/ja active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005269563A (ja) * | 2004-03-22 | 2005-09-29 | Fuji Photo Film Co Ltd | 画像処理装置及び画像再生装置 |
JP2006072506A (ja) * | 2004-08-31 | 2006-03-16 | Noritsu Koki Co Ltd | 写真処理装置 |
JP2008520039A (ja) * | 2004-11-10 | 2008-06-12 | イーストマン コダック カンパニー | 人間の画像における虹彩及び瞳孔の検出方法 |
JP2007233517A (ja) * | 2006-02-28 | 2007-09-13 | Fujifilm Corp | 顔検出装置および方法並びにプログラム |
US7840035B2 (en) | 2006-03-02 | 2010-11-23 | Fuji Xerox, Co., Ltd. | Information processing apparatus, method of computer control, computer readable medium, and computer data signal |
US8116535B2 (en) | 2006-07-25 | 2012-02-14 | Fujifilm Corporation | Image trimming apparatus |
JP2008027401A (ja) * | 2006-07-25 | 2008-02-07 | Fujifilm Corp | 画像トリミング装置 |
JP4683339B2 (ja) * | 2006-07-25 | 2011-05-18 | 富士フイルム株式会社 | 画像トリミング装置 |
US9495578B2 (en) | 2006-08-04 | 2016-11-15 | Sony Corporation | Face detection device, imaging apparatus and face detection method |
US8897501B2 (en) | 2006-08-04 | 2014-11-25 | Sony Corporation | Face detection device, imaging apparatus, and face detection method |
US10037455B2 (en) | 2006-08-04 | 2018-07-31 | Sony Corporation | Face detection device, imaging apparatus, and face detection method |
US8116536B2 (en) | 2006-08-04 | 2012-02-14 | Sony Corporation | Face detection device, imaging apparatus, and face detection method |
US8385607B2 (en) | 2006-11-21 | 2013-02-26 | Sony Corporation | Imaging apparatus, image processing apparatus, image processing method and computer program |
JP2011210280A (ja) * | 2011-06-29 | 2011-10-20 | Aisin Seiki Co Ltd | 顔向き判別装置 |
EP3585053A1 (en) * | 2018-06-19 | 2019-12-25 | Panasonic Intellectual Property Management Co., Ltd. | Intercom door station, intercom system, control method, and program |
TWI818035B (zh) * | 2018-06-19 | 2023-10-11 | 日商松下知識產權經營股份有限公司 | 對講機門站、對講機系統、控制方法及程式 |
JP2020135034A (ja) * | 2019-02-13 | 2020-08-31 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
JP2021051376A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2021054217A1 (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051375A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN111402407B (zh) * | 2020-03-23 | 2023-05-02 | 杭州相芯科技有限公司 | 基于单幅rgbd图像的高精度肖像模型快速生成方法 |
CN111402407A (zh) * | 2020-03-23 | 2020-07-10 | 杭州相芯科技有限公司 | 基于单幅rgbd图像的高精度肖像模型快速生成方法 |
CN111626143A (zh) * | 2020-05-06 | 2020-09-04 | 深圳市梦网视讯有限公司 | 一种基于眼睛定位的反向人脸检测方法、***及设备 |
CN111626143B (zh) * | 2020-05-06 | 2023-12-08 | 深圳市梦网视讯有限公司 | 一种基于眼睛定位的反向人脸检测方法、***及设备 |
CN117036411A (zh) * | 2023-08-21 | 2023-11-10 | 深圳伯德睿捷健康科技有限公司 | 人脸健康特征对象的跟踪方法、***及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
US9251589B2 (en) | Depth measurement apparatus, image pickup apparatus, and depth measurement program | |
JP4954081B2 (ja) | 人間の画像における虹彩及び瞳孔の検出方法 | |
JP4772839B2 (ja) | 画像識別方法および撮像装置 | |
CN105122302B (zh) | 无重影高动态范围图像的产生 | |
US8861806B2 (en) | Real-time face tracking with reference images | |
EP1918872B1 (en) | Image segmentation method and system | |
US8135184B2 (en) | Method and apparatus for detection and correction of multiple image defects within digital images using preview or other reference images | |
JP2004005384A (ja) | 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置 | |
JP3684017B2 (ja) | 画像処理装置及び方法 | |
JP4078334B2 (ja) | 画像処理装置および画像処理方法 | |
US9256928B2 (en) | Image processing apparatus, image processing method, and storage medium capable of determining a region corresponding to local light from an image | |
WO2012120697A1 (ja) | 画像処理装置、画像処理方法、および制御プログラム | |
JP2004520735A (ja) | 電子画像の自動クロッピング方法および装置 | |
US8885971B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2013026938A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20080199073A1 (en) | Red eye detection in digital images | |
JP2007048108A (ja) | 画像評価システム及び画像評価方法並びに画像評価プログラム | |
JP2004005383A (ja) | 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置並びに肖像写真撮影装置 | |
M Corcoran et al. | Advances in the detection & repair of flash-eye defects in digital images-a review of recent patents | |
JP6776532B2 (ja) | 画像処理装置、撮像装置、電子機器及び画像処理プログラム | |
JP5093540B2 (ja) | 目の位置の検出方法および検出システム | |
JP3927979B2 (ja) | 画像処理装置及び方法 | |
JP2009086834A (ja) | 人物顔面画像についての両眼位置検出方法および検出装置 | |
JP4831361B2 (ja) | 目の位置の検出方法および検出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090217 |