JP3927979B2 - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP3927979B2
JP3927979B2 JP2004321129A JP2004321129A JP3927979B2 JP 3927979 B2 JP3927979 B2 JP 3927979B2 JP 2004321129 A JP2004321129 A JP 2004321129A JP 2004321129 A JP2004321129 A JP 2004321129A JP 3927979 B2 JP3927979 B2 JP 3927979B2
Authority
JP
Japan
Prior art keywords
red
eye
area
image
saturation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004321129A
Other languages
English (en)
Other versions
JP2005071389A (ja
Inventor
仁 大野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004321129A priority Critical patent/JP3927979B2/ja
Publication of JP2005071389A publication Critical patent/JP2005071389A/ja
Application granted granted Critical
Publication of JP3927979B2 publication Critical patent/JP3927979B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、フラッシュ撮影などで赤目が生じた人物像を含む顔画像から、赤目を除去した自然な画像を生成する画像処理装置及び方法に関するものである。
人物をフラッシュを用いてカメラ撮影すると、人物の目が赤く写ってしまう赤目という現象が知られている。
銀塩写真では、赤目を除去する方法として、プリントした写真にスポッティングを施し赤い領域を黒く塗り潰すことで赤目を除去していた。
今日では、人物をデジタルカメラで撮影したデジタル画像データ、あるいは銀塩カメラで撮影したフィルムをスキャナで読み込んだデジタル画像データにおいて、赤目領域を別の色に変更することにより赤目を除去することが行われる。
こうした画像データに対して赤目除去を行う場合、赤目が生じている領域の一点をマウスなどのポインティング・デバイスでオペレータが指示したり、あるいはオペレータが赤目領域を囲むように領域を指定して、その範囲内の赤い領域の色を全て変更するなどの方法が存在する。
しかし、赤目領域の一点をオペレータが指定する場合、被写体の撮影倍率が低いとき、あるいはディスプレイの表示解像度が低い場合などには、画像を拡大表示してから赤目領域の一部をポイントしなければならず、煩わしい操作を伴っていた。
また、赤目領域を囲んで指定する場合も、指定領域内の唇など、赤い領域はすべて修正してしまうので、他の赤い領域を囲まないように入力する必要が有り、この場合も画像を拡大表示して領域をしなければならないなどオペレータに負荷が生じていた。
こうした方法であっても、例えば撮影倍率が大きいポートレートなど被修正被写体数が少ない場合はまだ負荷は少ないが、集合写真など被修正被写体が多数存在する写真から赤目を修正する場合には、一人一人の顔を拡大表示してからマウスで正確に領域を指定しなければならず、非常に面倒であった。
本発明は上述の課題を解決するためのものであり、本発明の第1の目的は、簡便なオペレーションに基づき赤目領域の検出精度を高め、また検出スピードを早め、さらに自然に赤目を除去することができる画像処理方法を提供することに有る。
本発明の第2の目的は、被写体の撮影倍率がどのような場合であっても、正確に赤目領域を検出・除去できる画像処理方法を提供する画像処理方法を提供することに有る。
本発明の第3の目的は、赤目を探索する領域を顔領域に限定することにより、不要な領域を検出対象とすることなく高速かつ正確な赤目領域検出の方法を提供することに有る。
本発明の第4の目的は、非常に高速に赤目領域を検出する画像処理方法を提供することに有る。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理方法であって、
前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
赤目領域として判断された領域の周辺について、彩度と明度の両方を段階的に低減することにより赤目を除去した画像を生成し、
前記周辺についての彩度の低減範囲を明度の低減範囲よりも広く設定したことを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理方法であって、
前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
赤目領域として判断された領域の周辺も、彩度あるいは明度、あるいはその両方を段階的に低減することにより赤目を除去した画像を生成し、
オペレータが指定した範囲情報、被写体の撮影倍率情報の何れか一つのデータに基づき、彩度あるいは明度、あるいはその両方の低減量をそれぞれ適応的に設定するようにし、
被写体の撮影倍率情報に基づき、赤目領域として判断された領域の周辺の彩度あるいは明度、あるいはその両方の低減量を適応的に設定するようにしたことを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理装置であって、
前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
赤目領域として判断された領域の周辺について、彩度と明度の両方を段階的に低減することにより赤目を除去した画像を生成し、
前記周辺についての彩度の低減範囲を明度の低減範囲よりも広く設定したことを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理装置であって、
前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
赤目領域として判断された領域の周辺も、彩度あるいは明度、あるいはその両方を段階的に低減することにより赤目を除去した画像を生成し、
オペレータが指定した範囲情報、被写体の撮影倍率情報の何れか一つのデータに基づき、彩度あるいは明度、あるいはその両方の低減量をそれぞれ適応的に設定するようにし、
被写体の撮影倍率情報に基づき、赤目領域として判断された領域の周辺の彩度あるいは明度、あるいはその両方の低減量を適応的に設定するようにしたことを特徴とする。
本発明によれば、対象とする画像から赤目領域を高速、且つ高精度に検出するともに、自然な赤目除去が可能となる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
<第1の実施形態>
はじめに、本発明を適用する画像処理装置の全体構成を図1を参照して説明する。図1は、本発明を適用する画像処理装置としてのパーソナルコンピュータのブロック構成図である。
図中、21は装置の全体制御を司るCPU、22は処理画像を表示するCRT等のディスプレイ、23は操作者よりの各種指示データなどを入力するキーボード、24は処理プログラム等を記憶しているROM、25は各種処理結果を一時記憶するRAM、26は本発明の顔領域検出処理、特徴領域検出処理、赤目領域検出処理等の各種処理を行なうプログラム等を記憶するハードディスクドライブ(HDD)等の記憶装置、27は外部の装置と通信回線31を介して通信するための通信インタフェースである。
また、28は、入力補助手段としてのマウス等のポインティング装置である。29は、所謂CCDを含み、被写体を撮影してデジタル画像信号を生成する画像入力装置である。これらの各構成は、内部バス30を介して接続されている。後述の特徴領域の検出処理の対象となるデジタル画像信号(自然画像)は、画像入力装置29により得られた情報であっても、外部の画像処理装置(例えば、デジタルカメラ、スキャナ等)からの情報を通信インタフェース27を介して入手したものでも良い。
以上の構成を備える本発明の実施の形態例における赤目領域の特定処理を図2のフローチャートを参照して以下に説明する。
まず、ステップS1において、赤目処理を行なうべき赤目部分が含まれている領域を大まかに指定する。この指定は、厳密なものである必要はなく、赤目部分が含まれている顔の一部を指定した様な状態であってもよい。続いてステップS2において、ステップS1で指定された領域が含まれる領域を検出する。このかう領域検出時に同時に撮影倍率も算出する。
顔領域及び撮影倍率が検出されたらステップS3で顔領域に含まれる特徴領域の検出を行なう。例えばここでは、目、眉、口等の特徴的な領域の検出を行なう。更にステップS4で検出した特徴点の色を判別し、輝度情報を基準として毛、黒目部分影等の黒領域及び白目部分などの白領域を検出し、彩度情報を基準としてしみ、赤目、唇等の赤領域の判別等の各特徴点の色を判別する。
そしてステップS5で各色の判別結果に加え、特徴点の形状なども考慮して総合的に判断し、赤目領域を検出する。そしてステップS6で検出した赤目領域に対する赤目除去処理を行なう。
以下、図2に示す各処理の詳細を説明する。
図3は図2のステップステップS1の処理領域の指定処理及びステップS2の顔領域の画像領域の検出処理の詳細処理を示すフローチャートである。顔領域の検出処理は、CPU21によって実行される処理であり、記憶装置26の画像記憶部領域に記憶されている処理対象の画像データにより表される画像から、顔の画像領域を検出する処理である。
まずステップS51で、オペレータの指示に従い、処理対象の画像データを画像表示部2に表示する。この表示例を図4の3Aに示す。続いてステップS52で、オペレータはキーボード23を用いて、赤目領域が含まれる顔の一点あるいは、一部範囲を指示する。例えば図4の3Bに示す点Aを指示する。以上の処理が図1のステップS1に示す処理である。
続いてステップS53で指示された領域を含むこの領域を一定範囲拡大した画像領域の検索範囲Bを初期設定する。検索範囲Bの設定範囲の例を図4の3Cに示す。なお、ここでいきなり広範囲を検索範囲に設定すると、画像領域の検索に時間がかかるだけでなく、探索対象の画像が画像全体に占める割合が小さい場合、無駄な範囲を探索することになるので、初期の検索範囲Bは比較的小さな範囲に設定することが望ましい。また、検索範囲Bは矩形である必要はなく、どのような形状でもよい。
次にステップS54で、肌領域の検出に用いる基準色を設定する。この基準色とは、検出しようとする顔の画像領域の基本的な色、つまり肌の色のことで、CPU21はステップS52で指示された領域周辺の画素の色、あるいは、検索範囲Bの全部または一部の画素の色を参照して基準色を設定する。例えば、図4の3Dに示すように、検索範囲Bを拡大した場合に、点Aからの距離が所定値以内(例えば点Aを中心とする半径が所定値の円内)の近傍画素の集合Cに含まれる画素を参照し、それら画素の値の例えば平均値を基準色にする。
また、図4の3Eに示すように、点Aを例えば中心とする矩形の画素集合Dに含まれる画素の色を参照して基準色を決定してもよい。
基準色を決定するための色空間は、モニタ画面の表示に用いられているRGB色空間でも、テレビ放送で用いられるYIQ色空間、画像圧縮などに用いられるYCbCr色空間など、どのような色空間であってもよいが、後に、複数画素間の色差を評価することを考慮すると、人間の視覚特性に近い色差を表現できる色空間が望ましく、例えば、CIEにより定義されるLab色空間またはLuv色空間などの均等色空間が望ましい。
また、指定された点Aが顔の画像領域のエッジに近い場合、領域Cや領域Dには顔の画像領域ではない背景などが含まれる可能性があるし、ノイズなどの影響で肌の色とは異なる色の画素が領域Cや領域Dに存在する可能性もある。このような場合、背景色やノイズによって生じる色の影響を受けて、基準色が本来の肌の色とは異なった色になることもある。このような基準色のずれを考慮すると、肌の色の色相は、多くの場合、赤の近傍にあるという性質を利用して、領域Cまたは領域Dの画素の内、色相が赤から離れた画素を基準色の算出対象から外すのが望ましい。このようにすれば、背景色やノイズの影響を低減して、より正しく肌の色を表す基準色を得ることができる。
次に、ステップS55で肌領域を検出する。例えば、検索範囲Bのすべての画素の色と基準色を比較し、それらの色差が所定のしきい値Tdより小さい画素の集合を、肌を構成する画素群とする。Luv色空間において、基準色が(L0,a0,b0)であり、画素の色が(L1,a1,b1)であるとすると、色差dは次の演算により得られる。
d = √{(L1 - L0)^2 + (u1 - u0)^2 + (v1 - v0)^2} …(1) ただし、a^2はaの二乗を表す
(1)式により得られる式差dは、視覚的に感じられる色の差に比例した値を表す。
前述したように色差の評価は、均等色空間で行うことが望ましいが、原画像が他の色空間のデータで表されていて、その色空間から均等色空間への変換に時間がかかる場合などは、原画像の色空間で色差dを算出してもよい。例えば、原画像がRGB色空間で表されている場合、基準色が(R0,G0,B0)、画素の色が(R1,G1,B1)であるとすると、色差dは次の演算により得られる。
d = √{(R1 - R0)^2 + (G1 - G0)^2 + (B1 - B0)^2} …(2)
(2)式の結果は、均等色空間などで算出した色差dに比べて、人間の視覚特性からずれたものになるが、演算時間を短縮したい場合などには有効である。
図4の3Fは検索範囲Bを拡大した図で、この場合は領域Eが肌領域として検出される。
そしてステップS56で肌領域の拡大もしくは処理の終了を判定する。この判定は、検索範囲Bと肌領域Eとの重なりを判定することにより行う。図4の3Fを例にとると、矩形の検索範囲Bの四辺それぞれについて、肌領域Eがどれだけ重なっているかを評価する。
図4の3Fの場合、検索範囲Bの左辺は肌領域Eに完全に重なるので重なり率を100%とし、同様に、上辺の重なり率は80%、下辺の重なり率は50%、右辺の重なり率は0%とする。そして、所定のしきい値Tpより重なり率が大きい辺を検出した場合、まだ顔領域の全てが検出できていないとして肌領域の拡大を指示するために終了判定フラグを‘0’にする。
また、しきい値Tpより重なり率が大きい辺を検出しなかった場合には顔領域の検出が終了したとして処理の終了を指示終了判定フラグを‘1’にする。しきい値Tpは、検出精度と検出時間との兼ね合いから設定されるが、例えば5%に設定される。図4に示す3Fの例では、左辺、上辺および右辺の重なり率が5%を超えるので、終了判定フラグは‘0’に設定される。
次に、ステップS57で終了判定フラグを判定し、‘1’であればステップS58に進み、‘0’であればステップS53に戻り、顔の画像領域の検索を続行する。
ステップS53に処理が戻った場合、次の手順で検索範囲Bを拡大する。つまり、CPU21は、しきい値Tpを超える重なり率をもつ辺の情報より、重なり率がTpより大きかった辺の方向に検索範囲Bを拡大する。図4の3Fの場合は、右辺を除く方向に検索範囲Bが拡大され、図4の3Gに示す領域B’が新たな検索範囲になる。
ここで、範囲Bを範囲B’に拡大する率は、固定値、重なり率に比例した値にする、など様々な方法が考えられるが、例えば、元の検索範囲Bの幅がW、高さがHの場合、左および/または右方向へW×S、上および/または下方向へH×S、検索範囲を広げて領域B’とする。
ここで、Sは一次元の拡大率であり、零より大きい値を有する。Sが0.5の場合、左および/または右へ0.5W、上および/または下へ0.5H検索範囲は拡大される。なお、このような方法で検索範囲Bを拡大する場合、検出する顔の画像領域の中心近傍に点Aを指定させた方が、検出時間を短縮することができる。従って、ステップS52で点Aの指定を受ける際に「検出する画像の中心付近を指定してください」などのメッセージを表示して、オペレータに注意を促すのが好ましい。
処理は、次にステップS54に移るが、既に基準色が決っているので何も行わずステップS55に移る。そして、ステップS55で、新たな検索範囲B’に対して肌領域の検出を行う。ただし、前回肌領域の検出を行った範囲Bに対して肌領域の検出を行う必要はない。そして、ステップS56で前回と同様の拡大/終了判定を行う。以上の処理を繰返すことにより、検索範囲Bは徐々に拡大され、顔の画像領域を囲むようになるまで拡大され、肌領域E、つまり顔の画像領域が検出される。
また、再びステップS54に処理が移動した際に、拡大された検索範囲B’に対して、初回と同様の手続により、再度、基準色を設定してもよいし、検出された肌領域Eの画素全体の平均値を新しい基準色として設定してもよい。検索範囲Bが拡大される毎に基準色を更新すれば、画像領域の一部における局所的な色の変動の影響を低減し、正確な基準色を常に維持することができる。
通常、検索範囲Bの拡大は画像全体の四辺で制限されるが、画像の撮影条件が限定され被写体の撮影倍率が所定値以上にならないことが分かっている場合は検索範囲に上限を設け、可能性として最も大きい顔の画像領域を検索範囲の上限としてもよい。また、ステップS52で、顔の画像全体を含む矩形領域を、点Aとともにオペレータに指定させ、指定された矩形領域を検索範囲の上限としてもよい。このようにして、検索範囲の上限を設け、検索範囲が上限に達したか否かを判定すれば、必要以上に検索範囲が拡がってしまうケースを低減することができる。
また、顔の領域が検出されると、ステップS58に進み、撮影倍率の算出処理が行われる。撮影倍率の算出処理においては、ステップS57までの処理で検出した回領域より顔の輪郭(顔の大きさ)を算出し、この顔の大きさが予め定量化している標準的な顔の大きさと比べてどの位の大きさかを算出し、撮影倍率を算出している。なお、この撮影倍率は、赤目の部分の大きさに関連して以下の処理が多少異なるためであり、例えばかうの大きさが表示標準より大きい人や小さい人がいても、赤目の部分の大きさをパラメータに加えるのが目的であるから何らの不具合は発生しない。
なお、以上の説明においては、撮影倍率の算出が顔領域の大きさが判明してから行ったが、予め撮影倍率が判明している場合には、この撮影倍率に従って検出対象画像を間引く等して処理対象データ量を軽減してもよい。このようにすることにより、高速での処理が可能となる。また例えば、最初は粗い解像度での顔領域検出を行い、もし、この処理で十分な検出結果が得られない場合に始めで高解像度での検出処理を行なうように制御することも考えられる。このように制御しても、赤目処理を実行する対象である顔部分が小さい場合はまれであることより、左程の障害にはならないものと考えられる。そして、同じ原画像の異なる領域が再度指定されたような場合には、先の処理で算出した解像度に対応して処理対象のデータを間引く等して処理の高速化を図ることも考えられる。
以上説明したように、本発明の実施の形態例の顔領域の検出処理によれば、操作者に指示された画像の領域が例え一点であっても、一点を基準に、検索範囲を徐々に拡大することで、画像全体に検索を行う必要がなく、短時間に顔領域の範囲を検出することができる。
また、指示された画像の一点の近傍画素から例えば肌の色を表す基準色を設定し、この基準色により所望の画像領域を検出するので、例えば、照明などの周囲環境、体調や化粧、撮影システムの状態などによる影響を低減して、多種多様な肌の色をもつ人の顔の画像領域を正確に検出することができる。
次にこのようにして検出した顔領域内に対する図2のステップS3に示す特徴点の検出処理を図5のフローチャートを参照して詳細に説明する。図5は、本発明の実施の形態例における特徴領域の検出処理を示すフローチャートである。
図5において、まずステップS101で自然画像中に含まれる先に検出した顔領域(閉領域)を設定する。続いてステップS102でステップS101において設定された閉領域内の画素を対象として、隣接する画素との色の差が少ないもの同士でグループを構成する。これは一般的にクラスタリングあるいはグルーピング等と呼ばれる。
このクラスタリング処理の詳細を図6を参照して説明する。図6は本発明の実施の形態例における特徴検出処理におけるクラスタリングを説明する図である。
図6において、各格子は画像の1画素を表わしており、この画像は幅m画素×高さn画素の矩形領域からなる。本発明の実施の形態例においては、説明の便宜上左上の画素を座標(0,0)としている。101は、該矩形領域のうち、ステップS101において設定された顔画像の領域に外接する画素を示す。また、画素102は、注目画素である。
ここで、図6上部に示す矢印の如く、画像の左上から右下に注目画素102を移動しながら、各画素毎に以下に説明する処理を行う。
同図において注目画素102の座標を(x,y)とし、この注目画素の色は色空間L*a*b*において、(L0,a0,b0)であるとする。ここで、この注目画素102に隣接する1つ上の画素(x,y−1)の色が、(L1,a1,b1)であるとき、これら2つの画素の色差dは、d={(L1−L0)↑2+(a1−a0)↑2+(b1−b0)↑2}↑(1/2)で表わされる(但し、X↑YはXのY乗を表わすものとする。以下同様)。
これは、視覚的に感じる色の差に比例した値を表わすものとなっている。この色差dが、第1のしきい値Td1(ここで、しきい値Td1は、均等色空間における色差に関するしきい値である。)以下である場合は、2つの画素は同じクラスタを構成するものとする。また、色差dが、第1のしきい値Td1より大きい場合は、2つの画素は別のクラスタを構成する可能性があると判断する。
更に、同様の判断処理を、注目画素102の左側の画素(x−1,y)に対しても行い、これら2つの画素が同じクラスタを構成するか、或は別のクラスタを構成する可能性が有るか否かを判断する。
また、注目画素102が顔領域以外の領域である場合は、抽出対象外であるものとして無視する。また、注目画素102と比較される画素(以下、比較画素)が、顔領域以外の領域である場合や、比較画素の座標がx<0またはy<0等の場合には、色差の比較を行わずに別の領域として判断する。
上記のような判断を、矩形領域101の全画素について行い、クラスタ毎に番号を割り付けると、色が類似している領域毎に番号が振られることになる。従って、近似色で連続する領域毎に領域が分割され、領域分割が完了する。
上記の均等色空間における色差に関するしきい値Td1は、比較的小さい値が好ましく、本願発明者らによる検討によると、しきい値Td1は3〜10程度(但し、この値はL*a*b*空間における値である。)に設定すると人間の肌の領域を1つの大きなクラスタとして領域分割することが可能であることが分かった。
次に、このしきい値Td1によりクラスタリングを行った場合の効果を図7を用いて説明する。図7は、本発明の実施の形態例における特徴検出処理におけるクラスタリングによる結果を説明する図である。
図7に示す(a)は図3に示す顔領域検出処理で検出された顔漁期画像の例である。この画像に対して小さい値のしきい値Td1でクラスタリングを行うと、領域分割の結果は図7の(b)に示すようになる。
(b)に示すように、人間の肌の部分は、ほくろ染み、微妙な陰影等の様々な要因で細かくクラスタリングされてしまう領域は幾つか存在するが、その大きさはかなり小さいことが多く、しきい値Td1を比較的小さい値にしてクラスタリングを行っても、まとまった領域として分割される。
これは、顔画像においては、隣接する画素間における色差の相関が高いためである。一方、顔画像の特徴領域である目や口、眉等は、隣接する画素間において色差の変動が大きい場合が多いため、細かな領域としてバラバラの領域にクラスタリングされる。
以上のようにしてクラスタリングが行われると、次に、図5のステップS103の処理に移行し、クラスタリングにより生成された各領域についてその大きさを調べ、各領域の大きさと第1の所定値Ta1との大小関係より領域の大きさがTa1より大きければその領域は顔の特徴的部位を含まない領域として抽出対象から除外する処理を行う。
即ち、図7の(b)に示す如く分割された全ての領域の大きさを調べて、第1の所定値Ta1より大きい領域は除外する。この除外処理により残った領域は、図7に(c)に示す明部の領域となり、肌の大部分は除外することが可能となる。但し、前述したように肌のほくろや染み等、細かな陰影等により一部領域が点々と残る。
ここで、ステップS102のクラスタリングにより生成された各領域の大きさの評価要素として、各領域の画素数や、高さ、幅等が評価対象となるが、このうちどれか1つを対象に所定値Ta1を設定しても良い。複数の要素に対してそれぞれ所定値Ta1に相当する所定値を複数設定しても良いことは言うまでもない。
また、本発明の形態例においては、上述した顔領域の検出時に顔画像の撮影倍率を算出しており、所定値Ta1は、撮影倍率が高倍率の場合と低倍率の場合とで変更する。これは、底撮影倍率の場合には誤差が大きくなるためである。なお、顔画像の撮影倍率が予め分からない場合には、ステップS101において設定された顔領域の大きさから、適当な大きさの所定値Ta1を設定することが好ましく、例えば、設定された顔領域の面積の15%の面積をTa1に設定すると、撮影倍率によらず一定の結果を得ることが可能となる。
次に、ステップS104に移り、再びクラスタリング処理を実施する。クラスタリングの手順自体はステップS102で実施した内容と同様であるが、ステップS103において検出対象から除外した領域は無視することと、色差の大小を評価するしきい値が異なる。ここで用いる第2のしきい値Td2は第1のしきい値Td1より大きい値を用いる。このクラスタリングによる領域分割結果は図7の(d)に示すようになり、特徴的な部位はそれぞれ1つのクラスタとして形成される。
第2のしきい値Td2は、比較的大きい値が好ましく本願発明者らによる検討によれば、しきい値Td2は30以上(但し、この値はL*a*b*空間における値である。)に設定すると人間の特徴的な部位(例えば、同図に示すように白目と黒目の部位)をそれぞれ1つのクラスタとして領域分割することが可能であることが分かった。
そしてステップS105でステップS104のクラスタリングにより生成された各領域についてその大きさを調べ、これらの各領域の大きさと第2の所定値Ta2との大小関係を調べ、領域の大きさがしきい値Ta2より小さければ、その領域は顔の特徴的部位を含まない領域として検出対象から除外する処理を行う。即ち、図7の(d)に示すように分割された全ての領域の大きさを調べて、第2の所定値Ta2より小さい領域は除外する。この除外処理により残った領域は、図7の(e)に示す明部の領域となり、図7の(d)において肌等に残っていた細かい領域を除外することができる。
ここで、ステップS104のクラスタリングにより生成された各領域大きさの評価要素としては、各領域の画素数や高さ、幅等が考えられる。このうちどれか1つを対象に撮影倍率に応じた所定値Ta2を設定しても良い。また、複数の要素に対してそれぞれ所定値Ta2に相当する所定値を複数設定しても良いことは言うまでもない。
また、顔画像の撮影倍率が予め分からない場合には、ステップS101において設定された顔領域の大きさから、適切な所定値Ta2を設定することが好ましく、例えばステップS101において設定された顔領域の面積の3%の面積をTa2に設定すると、撮像倍率によらず一定の結果を得ることが可能となる。
以上の処理により残った領域は、顔画像の中から目や口、眉等の特徴的部位を表わす領域となる。
尚、被写体である顔画像が、ステップS101で設定する矩形領域に対して真正面に位置する(正対する)ことが予め分かっている場合等には、次のような判断を加えることにより、特徴領域の検出確度を向上することができる。即ち、顔画像が真正面を向いている場合は、図7の(a)の如く目や口、眉等の特徴的部位は顔画像の輪郭内に存在する。そこで、ステップS105の処理により残った領域のうち、顔画像の輪郭線(図6の顔領域と顔領域外の領域との境界)に接している領域は、更に除外するという判断を加えることで、特徴領域の検出確度を向上することができる。
最後にステップS106で最終的に残った領域の情報の出力が行われる。この出力結果は図2のステップS4の処理に利用される。
尚、以上の処理で検出すべき画像の種類としきい値とを対応付けて記憶した記憶媒体(フロッピディスク(FD)、光磁気ディスク(MO)等)を用意(個別に用意しても良い)すれば、様々な画像に対して本発明の実施の形態例に示した処理を応用できることは明らかである。
なお、以上の処理において、ステップS102のクラスタリング処理の前に、顔の領域の大きさに応じて検出解像度を設定して以下の処理を行ってもよい。この検出の解像度を設定するのは、処理の高速化のためである。即ち、顔領域の画素数は撮影倍率の2乗に比例して大きくなるので、高速化を実現するために顔領域として設定された領域の大きさに応じて間引きを行う処理を行なうことにより処理量を減らす。間引き間隔は、(間引き間隔)=(設定された領域の幅)/300により算出する。尚、この間引きは、設定された領域の幅方向に間引くが、設定された領域の高さ方向に間引いても、幅方向及び高さ方向の両方向に間引いても良いことは言うまでもない。
以降の処理においては、顔領域の画像を算出した間引き間隔で間引いた状態のデータに対して処理を行う。但し、実際に間引いた画像を新たに生成する必要はなく、高速での特徴点検出ができる。
次にこのようにして検出した特徴点より赤目領域を検出する処理を説明する。まず図8を参照して先の処理で検出した特徴領域の色の判別処理を説明する。図8は本発明の実施の計他例における特徴領域の色判別処理の詳細を示すフローチャートである。
まず図8のステップS201において、検出された最初の特徴点の各画素毎の色相と彩度とを調べる。そして続くステップS202において算出した彩度の最大値を抽出し、ステップS203で検出した彩度の最小値を抽出する。そしてステップS204で検出した彩度の最大値と最小値より彩度しきい値Tsatを設定する。この彩度しきい値Tsatは、3種類設定される。
Tsat1={(彩度の最大値)−(彩度の最小値)}×0.7+(彩度の最小値)
Tsat2=0.15Tsat=max(Tsat1,Tsat2)
続いてステップS205で検出領域の全ての画素に対して以下の条件で色相と彩度を演算してステップS206で赤目を構成する可能性のある画素を抽出する。この検出条件は、
条件1:−30°<色相<13°条件2:Tsat<彩度である。
ステップS207で抽出画素数を調べる。そして抽出画素数がまったく無い場合には候補となる画素が特徴領域に存在しないため、ステップS208でこの特徴領域を赤目対象領域より外すことになる。そしてステップS210に進む。一方、ステップS207で対象となる画素がある場合にはステップS209に進み、この画素数を保持する。そしてステップS210に進む。
ステップS210では、全ての特徴領域に対する処理が終了したか否かを調べ、全ての領域に対する処理が終了していない場合にはステップS201に戻り次の特徴領域に対する処理を行なう。処理が終了している場合には当該処理を終了する。
最後に図2のステップS6に示す赤目除去処理の詳細を図9を参照して説明する。図9は本発明に係る発明の実施の形態例における赤目除去処理の詳細を示すフローチャートである。
まずステップS301からステップS304で画素配列を個々の領域にクラスタリングして領域の形状・大きさの判断を行なう。即ち、ステップS301で先のステップS206で抽出された画素の対してラベリングを実施してこの抽出画素の固まるを有効画素の塊として取り扱えるようにクラスタリングする。このラベリングの例を図9に示す。
続いてステップS302でラベリングされた領域毎に領域の特性を演算する。この領域の特性の演算については後述する。そして、ステップS303で領域の演算結果に従って当該領域が所定評価値に達しているか否かを調べる。そして、ステップS304でこの結果、赤目候補領域があるか否かを判断する。赤目領域が残っていない場合には例えばステップS320で赤目領域が検出されなかったことを表示などにより報知して操作者の判断を仰ぐ。
一方、ステップS304で候補がある場合にはステップS305に進み、領域の周辺の状況を調べて候補を限定する。この領域の周辺の状況を調べる処理の詳細は後述する。そしてステップS306においてこの時点での赤目候補領域が存在するか否かを調べる。赤目候補領域が存在しない場合にはステップS320に進む。
一方、ステップS306で赤目候補が存在すればすればステップS307に進み、候補領域の評価指数を元に領域の優先順位付けを行なう。そしてステップS308に進み、複数の候補が存在するか否かを調べる。複数の候補が存在せず1つの特徴領域のみが候補である場合にはステップS315に進み、単一領域に置ける詳細をく述する赤目除去ウ処理を実行して赤目除去画像を作成し、ステップS316で除去画像を表示する。操作者はステップS317でこの画像を確認してこの処理で良い場合には原画像にこの赤目除去処理を実行させるコマンドを作成して登録する。
この赤目除去では十分に赤目が除去されていない場合にはステップS319で手動による赤目除去処理を行なう。
一方、ステップS308で赤目領域候補が複数存在した場合には更に候補の絞り込みを行なうため、ステップS309で特徴領域の組み合わせを検出する。ここでは、複数の領域から左右の赤目ペアとして妥当な領域の組み合わせを検出する。組み合わせの要素は、2領域間の色相の差、2領域間の彩度の差、2領域間の明度の差、2領域間の面積比、2領域間の距離(顔領域の大きさより算出した基準値を基に比較する。)、面積の平均値、2領域間の類似度等を総合的に判断してペアとして妥当か否かを検出する。
この処理は特に3つ以上の領域が検出された時に任意の2つの領域がペアを構成するか否かを判断する際に有効である。例えば、色の差については、2つの領域の画素の平均値からそれらの色差を求め、これが所定値以下であればペアとして合格とする。また、大きさの差のチェックでは、面積比があまりにも大きく異なる場合にはペアでないと判断する。
ここでは、赤目の直径が6画素以下の低倍率での撮影時には誤差が大きくなるため、撮影倍率を考慮して(大きい方の面積)/(小さい方の面積)<6赤目の直径が12画素以下では(大きい方の面積)/(小さい方の面積)<3その他の場合には(大きい方の面積)/(小さい方の面積)<1.5とすればよい。
また、間隔の検出では、顔領域の大きさより実際の目の間隔を推定し、この距離が一定の範囲に含まれているか否かを基準に行なう。一般的に人の目の間隔は、併記65mmであり、誤差を考慮に入れても50mm〜80mm程度と見込むことができ、また、赤目の大きさは4mm〜14mm程度であることより、2つの領域の大きさと間隔の関係が(両領域の間隔/大きさ):最大値(80mm/4mm)=20 最小値(50mm/14mm)=3.5の範囲内であればペアとして合格とする。
なお、ペアの評価要素には、上述した要素に加えて、水平方向に並んでいるかどうかも評価要素に加えてもよい。この場合には、条件を満たす領域が複数検出された場合に、もっとも確率の高い候補を選択するために、連続的な値を得る評価関数を設定する。
そして、次のステップS310でこのようにしてペア候補が検出されたか否かを調べる。検出されていない場合にはステップS315に進む。
ペア候補が検出された場合にはステップS311に進み、検出領域に対して優先順位付けが行われる。そして、ステップS312で2つの領域の赤目領域に対して詳細を後述する赤目除去処理を実行して赤目除去画像を作成する。そしてステップS316に進む。
以上の処理における赤目除去処理の詳細を図11を参照して以下に説明する。図11は本発明に係る発明の実施の形態例における赤目除去処理を説明するための図である。
赤目を除去する際には、落とす彩度と明度の低減レベルを1画素毎に決定する。基本的には、赤目を除去する際に、落とす彩度と明度の低減レベルを1画素毎に決定する。基本的には、図11のように赤目領域は彩度又は明度を元のl[%]に低減し、その周辺w[画素]ではぼかし効果を持たせて、自然な修正とするために、図のような傾斜を持たせて低減を行う。
ここで、Dは赤目領域の直径であり、領域画素数に基づき算出した値である。これらのデータに基づき、赤目領域およびその周辺の明度と彩度の低減レベルデータを作成する。
ここで、ぼかし領域の低減レベル設定は、横スキャンと縦スキャンの2回で、1レベル分設定できるようにしている。ぼかし幅wが例えば5の場合、この横スキャンと縦スキャンを交互に5回ずつ行えば、設定が完了する。スキャン中、値の変化点を検出し、変化点の前後に低減レベルを設定している。この場合、距離は4近傍距離で検出するのに相当する。
最後に、この低減レベルデータに基づいて、明度と彩度を画素毎に下げ、赤目の修正が完了する。
本発明の実施の形態例においては、決定された赤目領域の画像データに対して、図11に示すように、彩度(Saturation Level)を20%に、明度(Luminancy Level)を50%に低下させる処理を行なう。
更に、赤目領域の周辺と滑らかに接続するために、周辺の領域もなだらかに彩度、明度を低下させている。この低下範囲は、彩度は赤目領域の平均直径(D)1/3、明度は平均直径(D)の1/5としている。
なお、この割合は以上の例に限定されるものではない。例えば撮影倍率に対応して低下率を修正することにより、更に自然な赤目除去効果が得られる。この場合には、撮影倍率が小さい場合には低下量を軽めに制御し、撮影倍率が大きいときには重めに制御すればよい。
例えば、撮影倍率が0.04以下の場合であれば彩度の低減レベルは20%、ぼかしはD/3、明度の低減レベルは50%ぼかしはD/4に設定する。
撮影倍率が0.04〜0.02の場合であれば彩度の低減レベルは30%、ぼかしはD/6、明度の低減レベルは50%ぼかしはD/8に設定する。
撮影倍率が0.02以上の場合であれば彩度の低減レベルは40%、ぼかしは2固定、明度の低減レベルは80%ぼかしは2固定に設定する。
以上の様に制御することにより、、更に自然な赤目除去効果が得られる。
次にステップS302における特性の演算処理理の詳細を説明する。
この処理では、以下に示す各評価要素をステップS301でクラスタリングされた各赤目領域に対して順次演算し、最後にこれらの評価が所定しきい値以上であれば赤目領域候補とする。
(1)中央部に白領域が存在するか撮影倍率が高い場合には、赤目領域内にキャッチライトによる明領域が含まれていることがある。したがって、領域内に白領域を含む領域は赤目である可能性が高いとして評価することができる。
白領域は輝度を基準にして判断し、2つの領域の重心位置の距離と赤目候補領域の平均的な半径の評価値、及び、{(白領域の大きさ)/(赤領域の大きさ)} ≦ (しきい値)を評価し、このしきい値を0.5程度に設定すればよい。
(2)円らしさの判定赤目領域は基本的には丸いはずだが以下の要因により、丸とは異なった形状を有するようになってくる。
・キャッチライトが赤目の円周部に発生・画素の間引きで絵が荒くなり、円というより矩形に近づく・肌の一部として結合してしまう。特に撮影倍率が低い場合など、色がなだらかにつながってしまう。
こうした要因で、赤目であっても円にならない場合があり、完全な丸らしさを評価要因とするのは危険である。そこで、円らしさの評価式として(領域の周囲長)2/(領域の面積)=(2πγ)2/πγ2=4πを採用しており、上式で=以降は完全な円を仮定した場合の値である。領域の形状が円から遠ざかる程、この値は4πより大きくなっていく。
本例ではこの評価しきい値を前述の理由により50と大きめに設定している。
(3)実際の大きさ大きさの評価などでは赤目領域の実際の大きさを、領域の画素長と画像サイズや撮影倍率から算出し、この大きさが赤目として妥当なものかどうかを評価する。
(4)その他以上の他に、領域の周囲長、領域に外接する矩形、領域内の最大長、色相平均値、彩度平均値、輝度平均値をそれぞれ検出し、赤目領域として妥当な範囲内か否かを評価する。
更に、ステップステップ305の領域の周辺状態との比較処理においては、以下の各要素を評価する。
(1)近傍に黒領域が存在するか赤目が存在する周辺にはほとんど黒領域が存在するため、周辺赤領域以外で肌の基準色より明度が低い画素について色差の積分を行う。これを有効だった画素数で割り、低輝度部の平均色差を算出する。これにより、囲いに黒い画素が多い程、数値が高くなる評価関数が生成できる。
(2)近傍に白領域が存在するか(白目があるか?)
赤目が存在する集変位は白領域が存在することが多い。このため、周辺赤領域以外で肌の基準色より明度が高い画素について色差の積分を行う。これを有効だった画素数で割り、高輝度部の平均色差を算出する。これにより、囲いに白画素が多い程、数値が高くなる評価関数が生成できる。
しかし、白領域が存在しない例も多いため、この評価ウエイトは低く設定されている。
(3)彩度の発散赤目領域は周辺が黒領域で囲まれていることが多く、彩度の変化が急峻であることが多い。そこで、赤目領域の周辺に沿って周回路に垂直な方向に彩度の微分を演算し、この演算値を周回路に沿って積分することにより、赤目領域の周辺の変化量を表す目安となる値が得られる。この値を評価値とする。
以上説明した各要素毎に評価の重み付けを行い、確実かつ御検出の無い赤目領域の検出を行っている。
なお、以上の各フローチャートの各処理は、それぞれ記憶装置26又はRAM25或はROM24中の所定領域にモジュール単位で格納されている。
また、以上の説明では複数の赤目領域の検出方法を実行可能であるが、顔領域検出の結果に基づいて撮影倍率を検出することにより、赤目領域検出時の検出方法を切り替える例について説明したが、顔の領域の大きさにより切換えてもよい。
<他の実施形態>
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或は装置に供給し、そのシステム或は装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROM等を用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
更に、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明に係る一発明の実施の形態例の画像処理装置の構成を示すブロック図である。 本発明の実施の形態例における赤目除去処理を示すフローチャートである。 本発明の実施の形態例における顔領域の検出処理を示すフローチャーである。 本発明の実施の形態例における顔領域の検出処理例を説明するための図である。 本発明の実施の形態例における特徴領域の検出処理を示すフローチャートである。 本発明の実施の形態例における特徴検出処理におけるクラスタリングを説明する図である。 本発明の実施の形態例における特徴検出処理におけるクラスタリングによる結果を説明する図である。 本発明の実施の形態例における特徴領域の色判別処理の詳細を示すフローチャートである。 本発明に係る発明の実施の形態例における赤目除去処理の詳細を示すフローチャートである。 図9におけるラベリング処理におけるラベリングの例を示す図である。 本発明に係る発明の実施の形態例における赤目除去処理を説明するための図である。
符号の説明
21 CPU
22 ディスプレイ
23 キーボード
24 ROM
25 RAM
26 記憶装置
27 通信インタフェース
28 ポインティング装置
29 画像入力装置
30 内部バス
31 通信回線

Claims (4)

  1. 顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理方法であって、
    前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
    赤目領域として判断された領域の周辺について、彩度と明度の両方を段階的に低減することにより赤目を除去した画像を生成し、
    前記周辺についての彩度の低減範囲を明度の低減範囲よりも広く設定したことを特徴とする画像処理方法。
  2. 顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理方法であって、
    前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
    赤目領域として判断された領域の周辺も、彩度あるいは明度、あるいはその両方を段階的に低減することにより赤目を除去した画像を生成し、
    オペレータが指定した範囲情報、被写体の撮影倍率情報の何れか一つのデータに基づき、彩度あるいは明度、あるいはその両方の低減量をそれぞれ適応的に設定するようにし、
    被写体の撮影倍率情報に基づき、赤目領域として判断された領域の周辺の彩度あるいは明度、あるいはその両方の低減量を適応的に設定するようにしたことを特徴とする画像処理方法。
  3. 顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理装置であって、
    前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
    赤目領域として判断された領域の周辺について、彩度と明度の両方を段階的に低減することにより赤目を除去した画像を生成し、
    前記周辺についての彩度の低減範囲を明度の低減範囲よりも広く設定したことを特徴とする画像処理装置。
  4. 顔画像を含む自然画像の中から赤目領域を検出し、検出した赤目領域の色を変更することにより自然な顔画像に変換する画像処理装置であって、
    前記検出した赤目領域について、彩度あるいは明度、あるいはその両方を低減することにより赤目を除去した画像を生成すると共に、
    赤目領域として判断された領域の周辺も、彩度あるいは明度、あるいはその両方を段階的に低減することにより赤目を除去した画像を生成し、
    オペレータが指定した範囲情報、被写体の撮影倍率情報の何れか一つのデータに基づき、彩度あるいは明度、あるいはその両方の低減量をそれぞれ適応的に設定するようにし、
    被写体の撮影倍率情報に基づき、赤目領域として判断された領域の周辺の彩度あるいは明度、あるいはその両方の低減量を適応的に設定するようにしたことを特徴とする画像処理装置。
JP2004321129A 2004-11-04 2004-11-04 画像処理装置及び方法 Expired - Fee Related JP3927979B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004321129A JP3927979B2 (ja) 2004-11-04 2004-11-04 画像処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004321129A JP3927979B2 (ja) 2004-11-04 2004-11-04 画像処理装置及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP03538097A Division JP3684017B2 (ja) 1997-02-19 1997-02-19 画像処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2005071389A JP2005071389A (ja) 2005-03-17
JP3927979B2 true JP3927979B2 (ja) 2007-06-13

Family

ID=34420390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004321129A Expired - Fee Related JP3927979B2 (ja) 2004-11-04 2004-11-04 画像処理装置及び方法

Country Status (1)

Country Link
JP (1) JP3927979B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4909009B2 (ja) * 2006-10-25 2012-04-04 キヤノン株式会社 撮像装置及び画像処理方法及びプログラム及び記憶媒体
US8306320B2 (en) * 2008-03-07 2012-11-06 Samsung Electro-Mechanics Co., Ltd. 2D image segmentation apparatus and method, and apparatus and method for removing red-eye in the image
JP5251637B2 (ja) * 2009-03-16 2013-07-31 株式会社リコー ノイズ低減装置、ノイズ低減方法、ノイズ低減プログラム、記録媒体

Also Published As

Publication number Publication date
JP2005071389A (ja) 2005-03-17

Similar Documents

Publication Publication Date Title
JP3684017B2 (ja) 画像処理装置及び方法
US20190130169A1 (en) Image processing method and device, readable storage medium and electronic device
US7734098B2 (en) Face detecting apparatus and method
JP3810776B2 (ja) ディジタル画像中の赤目を検出し補正する方法
JP5089405B2 (ja) 画像処理装置及び画像処理方法並びに撮像装置
US20060280363A1 (en) Image processing apparatus and method, computer program, and storage medium
US20170323465A1 (en) Image processing apparatus, image processing method, and storage medium
JP2003036438A (ja) 画像中の赤目を特定するプログラム、記録媒体、画像処理装置及び赤目特定方法
WO2015070723A1 (zh) 眼部图像处理方法和装置
JP2011141622A (ja) 検出装置およびその方法
JP5779089B2 (ja) エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
JP7292905B2 (ja) 画像処理装置及び画像処理方法、及び撮像装置
JP2017130794A (ja) 情報処理装置、評価用チャート、評価システム、および性能評価方法
JP2004005384A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP4251635B2 (ja) 画像処理装置及び方法
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP4990876B2 (ja) 画像処理装置
JP4148903B2 (ja) 画像処理装置、画像処理方法およびデジタルカメラ
JP2006268820A (ja) 画像識別方法、画像処理方法、画像識別装置、画像識別プログラムおよび集積回路
JP4496005B2 (ja) 画像処理方法および画像処理装置
JP3927979B2 (ja) 画像処理装置及び方法
JP2005346474A (ja) 画像処理方法及び装置及びプログラム及び記憶媒体
JP5042251B2 (ja) 画像処理装置および画像処理方法
JP3754786B2 (ja) 画像処理装置およびその方法
JP2005316958A (ja) 赤目検出装置および方法並びにプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees