JP4076777B2 - 顔領域抽出装置 - Google Patents

顔領域抽出装置 Download PDF

Info

Publication number
JP4076777B2
JP4076777B2 JP2002060043A JP2002060043A JP4076777B2 JP 4076777 B2 JP4076777 B2 JP 4076777B2 JP 2002060043 A JP2002060043 A JP 2002060043A JP 2002060043 A JP2002060043 A JP 2002060043A JP 4076777 B2 JP4076777 B2 JP 4076777B2
Authority
JP
Japan
Prior art keywords
region
area
hair
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002060043A
Other languages
English (en)
Other versions
JP2003256834A (ja
Inventor
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002060043A priority Critical patent/JP4076777B2/ja
Publication of JP2003256834A publication Critical patent/JP2003256834A/ja
Application granted granted Critical
Publication of JP4076777B2 publication Critical patent/JP4076777B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、入力された人物画像から、毛髪領域を含む顔領域を抽出し、更に顔の構成要素である両目、口、鼻位置を画像の座標値として求める装置に関するものである。
【0002】
【従来の技術】
図16は第1の従来例として、例えば、特開平8−153197に示された従来の画像処理装置がある。この装置によれば、入力画像データを色の属性である輝度データ、色相データ、彩度データに変換する座標変換器と、これらの変換した3属性データに基づく肌色画素のヒストグラムを生成するヒストグラム生成器と、抽出した肌色画素に基づいて顔領域を判定する顔領域判定器からなる。
【0003】
次に動作について説明する。
まず、座標変換器において、入力された画像データから輝度データ、色相データ、彩度データの3属性データに変換する。そして、ヒストグラム生成器において変換した3属性データに基づき、画像の水平位置毎に垂直方向の肌色画素の累積ヒストグラムを生成する。最後に顔領域判定器において、肌色画素が密集している領域を顔領域として抽出する。
【0004】
また、第2の従来例として、特開平9−101579に示された顔領域抽出方法および複写条件決定方法がある。この方法によれば、画像から肌色領域を抽出後、エッジ抽出結果を用いて肌色領域を再度分割することにより、肌色と類似した背景の前で撮影した画像に対して、背景と顔が同時に抽出されることを防いでいる。
【0005】
【発明が解決しようとする課題】
上記した第1の従来例である画像処理装置では、肌色に類似した領域が顔の周辺に存在する場合、その領域が顔領域と統合されて抽出されるという課題がある。
一方、第2の従来例である顔領域抽出方法および複写条件決定方法では、肌色領域抽出後、エッジ抽出結果を用いて過少分割部分を補正しているが、一般にエッジ抽出によって得られた輪郭線は欠損を生じている場合が多く、顔領域が輪郭線で囲まれた領域とならず、結局背景領域を除去できないという課題がある。
また、この方法を眼鏡をかけた人物に適用すると、顔領域が眼鏡のフレームで分断されて領域を誤ってしまう。
【0006】
この発明は上記のような課題を解決するためになされたもので、任意の背景の前で撮影された人物画像から頭部領域を正確に抽出し、目、鼻、口の位置を定める。
【0007】
【課題を解決するための手段】
この発明に係る顔領域抽出及び顔構成要素位置判定装置は、入力された人物画像データを解析して顔領域を抽出し、目や鼻等の構成要素の位置を求める装置において、
人物画像データを各画素の色情報に基づいて複数の抽出単位領域に分割する候補領域特定部と、
人物画像データから顔領域を特定する顔領域特定部と、
人物画像データから毛髪部を特定する毛髪領域特定部とを備えて、得られた顔領域を記得られた抽出単位領域と特定した毛髪部で表現し、かつ顔の構成要素の位置を座標値として求めるようにした。
【0008】
また更に、人物画像データをフィルタリングして、その後、標準色をもとに肌色領域候補を抽出し、この抽出した肌色領域候補中の最大領域を抽出する肌色領域抽出部を備えた。
【0009】
また更に、候補領域特定部は、複数の領域特定手段の1つとして輪郭を抽出するエッジ抽出手段を用いた。
【0010】
また更に、顔領域特定部は、肌色領域抽出部の出力を参照して顔領域を推定し、かつこの推定した顔領域中の画像データの欠落を膨張と収縮処理に基づいて補正して、顔領域を特定するようにした。
【0011】
また更に、毛髪領域特定部は、毛髪色データベースを設け、顔領域特定部の出力を参照して毛髪領域探索範囲を設定し、この毛髪領域探索範囲から毛髪色データベースに基づいて毛髪部を特定するようにした。
【0012】
また更に、顔領域特定部の出力に基づいて目、鼻、口位置の探索範囲を設定し、入力された人物画像データの輝度を正規化して上記目、鼻、口位置を定めるようにした。
【0013】
【発明の実施の形態】
実施の形態1.
本発明の主旨は、毛髪部を含めた顔領域の正確な特定にあり、そのために複数の候補領域を組み合わせて確からしい領域を推定抽出する。即ち先ず抽出単位となる領域を細分化する候補領域特定部と、更に眼鏡や、顔の中にある髪の毛や装身具等の影響を除いて顔の最大輪郭を特定する顔領域特定部と、範囲を推定して毛髪部を特定する毛髪特定部を備えて、これらを総合して顔領域を確定する。以下、全体の構成、各部の構成と動作を順に説明する。
図1は、本実施の形態における特徴領域抽出頭部位置判定装置の構成を示す図である。図において、1は画像を入力するための画像入力部、2は入力された画像から頭部領域を抽出するための頭部領域抽出部、3は抽出された頭部領域から両目、口、鼻などの部位の位置を検出するための部位検出部である。
頭部領域抽出部2はさらに、画像から肌色領域を抽出するための肌色領域抽出部5、顔領域および毛髪領域の候補を特定するための候補領域特定部6、肌色領域抽出部5および候補領域特定部6の結果に基づき顔領域を特定するための顔領域特定部7、顔領域特定部7と候補領域特定部6の結果に基づき髪の毛領域を特定するための毛髪領域特定部8から構成される。
【0014】
肌色領域抽出部5はさらに、画像をぼかすためのフィルタリング手段9、肌色画素を抽出するための肌色抽出手段10、肌色抽出手段10で抽出した肌色画素を連結した領域のうち最大の領域を抽出するための最大領域抽出手段11から構成される。
本実施の形態において第1の重要構成要素である、候補領域特定部6はさらに、画像のエッジを抽出するためのエッジ抽出手段12、画像を領域分割するための領域分割手段13、領域分割手段13の結果をエッジ抽出手段12の結果を用いて補正するための領域分割補正手段14から構成される。
同じく第2の重要要素である、顔領域特定部7はさらに、肌色領域抽出部5の結果と候補領域特定部6の結果から顔領域を特定するための顔領域判定手段15、顔領域判定手段15の結果得られた顔領域に発生している穴や亀裂などの欠落を補正するための顔領域補正手段16から構成される。
【0015】
毛髪領域特定部8はさらに、顔領域特定部7の結果に基づいて毛髪領域が含まれる範囲を特定するための毛髪候補領域選定手段17、髪毛色を格納する毛髪色データベース19、候補領域特定部6で得られた領域のうち、毛髪候補領域選定手段17で設定した範囲に含まれる領域の中で、毛髪色データベース19に格納されている毛髪色に類似した領域を毛髪領域として判定するための毛髪領域判定手段18から構成される。
【0016】
部位検出部3はさらに、頭部領域抽出部2の結果から両目、口、鼻領域の探索範囲を設定するための部位領域マスク設定手段20、部位領域マスク設定手段20で設定した各探索範囲の中から部位領域を特定するための部位領域特定手段21から構成される。
【0017】
次に本実施の形態における特徴領域抽出頭部位置判定合成装置の動作をその全体動作フローチャートである図2を用いて説明する。
まず、画像入力手段1において画像を入力する(ステップS1−1)。次に、頭部領域抽出部2において入力画像から人物の頭部領域を抽出する(ステップS1−2)。そして、部位検出部3において、頭部領域抽出部2で抽出した頭部領域から両目、口、鼻の位置を検出する(ステップS1−3)。画像出力を編集する場合は、図示していない画像合成手段において抽出した頭部領域を、任意の背景画像と、背景画像に付随した合成パラメータを用いて合成する(ステップS1−4)。
【0018】
次に頭部領域抽出部2の動作をその動作フローチャートである図3を用いて説明する。
頭部領域抽出部2は、画像入力部1で入力した画像からまず肌色領域抽出部5において肌色領域を抽出する(ステップS2−1)。また、候補領域特定部6において画像を領域分割する(ステップS2−2)。次に、顔領域特定部7において、候補領域特定部6で得られた領域分割結果から、肌色領域抽出部5で抽出した肌色領域と重なる領域を顔領域として抽出し、内部に発生している穴や亀裂等の欠落を補正する(ステップS2−3)。最後に、毛髪領域特定部8において、顔領域特定部7で抽出した顔領域から、髪の毛領域が含まれる範囲を設定し、その範囲に含まれる領域に対して毛髪色DBに格納された毛髪色と類似している領域を毛髪領域として特定する(ステップS2−4)。
【0019】
更に、個別に各要素の動作を説明する。まず肌色領域抽出部5の動作をフローチャート図4および説明用の図5を用いて詳細に説明する。図5は、フィルタリング手段9でぼかし処理を行ったときの処理前および処理後の画像例である。
肌色領域抽出部5は、フィルタリング手段9において画像入力部1で入力された画像をぼかす処理を行う(ステップS3−1)。これは、例えば眼鏡をかけた人物から後述の肌色画素を抽出して顔領域を特定する際、眼鏡で顔領域が分断される場合がある。顔領域を抽出する際には、顔領域が1領域として抽出されることが望ましい。もし、顔領域が分断された場合、どの領域までが顔領域かを判定することが困難となる問題がある。よって、肌色画素を抽出する前にぼかし処理を施すことにより、眼鏡などの画素を肌色と同化させることにより、顔領域が分断されず、一領域として抽出される効果がある。
【0020】
ぼかし処理には、例えば「画像ハンドブック」(高木幹雄,下田陽久監修、東京大学出版会)(文献1)に記載のメディアンフィルタを用いてもよい。メディアンフィルタのフィルタリングサイズを画像の大きさに合わせて調整すると、例えば入力画像が図5(a)の形状26であった場合、その結果は図5(b)の形状27のようになり、眼鏡のエッジ部分がかすれるようになる。よって、後の肌色抽出処理を行った場合、顔領域が眼鏡等によって分断されること無く1領域として抽出される。
フィルタリング手段9で入力画像のぼかし処理を行った後、肌色抽出手段10において肌色画素を抽出する(ステップS3−2)。
【0021】
肌色画素の抽出は、例えば“PicToSeek:Combining Color and Shape Invariant Features forimage Retrieval,”Theo Gerers and Arnold W.M.Smeulders,IEEE Transaction on Image Processing,Vol.9,No.1,(文献2)に記載の肌色モデルを用いて行う。つまり、入力画像の画素値(R,G,B)を肌色抽出のための別の色空間に写像し、肌色が属する範囲に入る画素を抽出する。
【0022】
この方法は具体的には、色空間として、R、G,Bを画素の色データとしたとき、まず次式により色を正規化する。
【0023】
【数1】
Figure 0004076777
【0024】
上記式で正規化した色をさらに次式で変換する。
C1=c2/c1 (式4)
C2=c3/c2 (式5)
肌色領域抽出手段8では、(式4)および(式5)でRGB空間からC1−C2空間に写像した色が、次式で定義した肌色範囲の範疇に入っているか否かを判断して、入力画像から肌色領域を抽出する。
th<C1<th2 (式6)
th3<C2<th4 (式7)
最後に、最大領域抽出手段11において、肌色抽出手段10で抽出した肌色画素を4連結あるいは8連結で連結し領域ごとに分類し、分類した肌色領域の中で最大のものを顔領域として抽出する(ステップS3−4)。
【0025】
次に、第1の重要構成要素である候補領域特定部6の動作をフローチャート図6および説明図の図7を用いて詳細に説明する。図7は、領域分割補正手段14において、領域分割手段13の処理結果をエッジ抽出手段12の結果を用いて補正した結果を示した図である。
まず、領域分割手段13において入力画像を領域分割する(ステップS4−1)。領域分割の手法には様々なものがあるが、例えば、“Color Quantization by Dynamic Programming and Principal Analysis,”Xiaolin Wu,Transaction on Graphics,Vol.11,No.4,1992.(文献3)に記載の色による領域分割を用いる。この手法は、画像の画素値(RGB値)を主成分分析し、第一主成分に直行する平面で色を指定された色数で分類するものである。この手法では、原画像の画素値と分類後の各クラスターの代表色(平均色)との色差が大きくならないようにDynamic Programmingを用いて最適解を求めている。
領域分割手段13では、以上でクラスタリングした各画素を、同じクラスタIDを持つものどおしで4連結あるいは8連結で連結した領域を生成し、生成した領域にユニークなIDを振りなおすことで画像を領域分割する(ステップS4−1)。
なお、領域分割の手法は、別の手法を用いてもよく、いずれにせよ、ひとまず第1の細分化領域を得る。
【0026】
次に、エッジ抽出手段12において、画像からエッジを抽出する(ステップS4−2)。エッジ抽出の手法は、例えば先に引用した(文献1)に記載のCannyエッジ抽出法を用いる。
ここで、領域分割手段13の処理結果が図7の分割28でエッジ抽出手段12の結果が図7の分割29となったと仮定する。
この例では、本来の領域数は4である。しかしながら領域分割結果では領域数は3となっている。このように、領域分割手法による領域分割結果は、画像を大まかに分割するようにパラメータを設定すると過少分割(本来別領域の領域を1領域として分割する)を起こすことがある。そこで、領域分割補正手段14において、領域分割手段13で得られた領域分割結果28に、エッジ抽出手段12で得られたエッジ29に沿って例えばどの領域にも属さないという意味のID=0を設定する。そして過少分割を起こした領域を分断し、領域IDを再設定した後、エッジ画素のIDを、画素に接した領域IDでおき直すことにより図7の分割30に示すように、領域分割手段13で得られた結果を補正する。即ちOR(細分化)効果が得られる。
【0027】
次に、第2の重要構成要素である顔領域特定部7の動作をフローチャートの図8から説明図の図11を用いて詳細に説明する。図9は顔領域判定手段15で得られた顔領域の一例を示す図である。図10は、顔領域補正手段16において、顔領域に発生した亀裂を補正した画像例である。図11は、顔領域補正手段16において、顔領域に発生した穴領域を埋める処理を説明するための図である。
まず、顔領域判定手段15において、候補領域特定部6で得られた領域のうち、肌色領域抽出部5で抽出した肌色領域と重なる領域を求める(ステップS5−1)。このとき、(式8)に示す重なり率を求める。
OR=op/rp (式8)
ここで、ORは重なり率、opは1領域中の画素のうち肌色領域と重なる画素数、rpは領域の画素数である。
【0028】
顔領域判定手段15では、(式8)で求めた重なり率が、ある閾値以上のものを顔領域と判定する。この重なり率を導入することにより肌色領域抽出手段5において、顔領域の周囲にある背景画素を誤って抽出したとしても、その画素が属する領域の重なり率は低くなることから、顔領域判定手段15でそのような背景画素を削除することが可能となる効果がある。
顔領域判定手段15で求めた顔領域には、図9に示すように、穴や亀裂が生じている場合がある。そこで、顔領域補正手段16において、図9に示すような穴や亀裂等の欠落を補正することにより顔領域全体を抽出する(ステップS5−2)。
【0029】
裂け目部分の修復は、肌色領域抽出手段5で抽出した肌色領域の画素を1、それ以外を0とした2値画像に対して図8(b)に示す近傍パターンを用いて、(文献1)に示される膨張と収縮処理を行って修復ができる。即ち膨張処理で近傍パターンに基いて領域をいったん拡大し、その後、収縮処理では別の近傍パターン図5(b)を用いる膨張収縮処理により、図10の29示すような裂け目が修復され30のようになる。また、この処理により微小の穴も埋めることが可能である。
膨張収縮処理により頭部領域に発生した裂け目が修復された後は、頭部領域内の全ての穴を埋めることにより頭部全体を一領域として抽出できる。この穴埋め処理は、図11に示す論理演算処理により行う。
まず図11(a)では、裂け目修復処理(領域の欠落補正)により得られた顔領域31と、画素値が全て1のマスク32との排他的論理和(xor)を求める。その結果、背景領域と頭部領域内の穴が得られる。次に、図11(b)に示すように、得られた画像33から、画像の外辺に接している領域(背景領域)除去し、除去した画像34と元の顔領域画像31と論理和を求めることにより、顔領域全体35を抽出することができる。
【0030】
次に、第3の重要構成要素である、髪の毛領域特定部8の動作をフローチャート図12および説明図図13を用いて説明する。図13は髪の毛領域特定手段8の処理過程を示す図である。
まず、髪の毛候補領域選定手段17において、顔領域特定部7で抽出した顔領域の大きさに基づき、髪の毛領域の探索範囲36を設定する(ステップS6−1)。次に、顔領域を現在の頭部領域として設定し(ステップS6−2)、探索範囲内に処理対象領域が無くなるまで以下の処理を繰り返す(ステップS6−3)。
【0031】
まず、頭部領域に接している全ての領域を対象とする(ステップS6−4)。次に、全ての対象領域に対して以下の処理を繰り返す(ステップS6−5)。
即ち、毛髪色データベース19内に格納されている毛髪色サンプルと、領域の平均色との式差を求め(ステップS6−6)、色差が閾値以下の領域を髪の毛領域とする(ステップS6−7、ステップS6−8)。
ここで、色差とは、例えば(文献1)に記載のL*a*b*色空間におけるユークリッド距離として求めることができる。
以上で求めた髪の毛領域を含めた領域を新たな頭部領域として設定し(ステップS6−10)、ステップS6−3から処理を繰り返すことにより髪の毛領域を抽出することができる。
【0032】
例えば、図13(a)での領域36のように髪の毛領域探索範囲を設定した場合、1回目の処理で図13(b)の領域37に示す領域が抽出され、2回目の処理で図13(c)の領域38に示す領域が抽出される。3回目の処理では、探索範囲内に処理対象となる領域が残らなくなるため、領域38が毛髪領域抽出結果となる。
ここで、単純に毛髪色に類似した領域を抽出した場合、頭部領域に接しない単独な領域が抽出される可能性があるが、顔領域に接する領域から徐々に処理することにより、そのような単独領域をノイズとして除去することが可能となる効果がある。
また、毛髪色DBを用いて髪の毛であるか否かを判定すれば、茶髪や金髪などの様々な髪の毛に対応して適切に髪の毛領域を抽出できる。
【0033】
次に、部位検出部3の動作をフローチャート図14および説明図図15を用いて説明する。図15は、頭部領域抽出部2で抽出した頭部領域に基づき、両目、口、鼻の探索範囲を設定したときの結果を示した説明図である。
まず、頭部領域抽出部2で抽出した頭部領域の幅、高さから、両目、鼻、口の探索範囲39、40、41、42を設定する(ステップS7−1)。
【0034】
次に、“GRAPHICS GEMS IV,”Paul S.Heckbert,Morgan Kaufmann(文献4)に記載の適応型ヒストグラム平均化法を用いて各探索範囲内の画素の輝度を正規化し、閾値以下(暗い)の画素を抽出し、4連結あるいは8連結で連結し領域とする(ステップS7−2)。次に、鼻探索範囲内41の領域に着目し、探索範囲内の領域のうち、探索範囲の中心と領域の中心との距離が最も近い領域を鼻領域として求め、求めた領域の中心座標を鼻位置とする(ステップS7−3)。
次に、左目探索範囲内39の領域のうち、領域の中心と、上記鼻位置との距離が最も近い領域を左目領域とし、その中心を左目位置とする(ステップS7−4)。同様に右目探索範囲内40の領域のうち、領域の中心と鼻位置との距離が最も近い領域を右目領域とし、その中心を右目位置とする(ステップS7−4)。
最後に、口探索範囲内42の領域のうち、領域の中心と、鼻位置との距離が最も近い領域を口領域とし、その中心を口位置とする(ステップS7−5)。
以上のように、抽出した頭部領域の幅、高さから両目、口、鼻が存在するおおよその範囲を限定することにより、同部位位置を的確に求めることが可能となる効果がある。
【0035】
【発明の効果】
以上のようにこの発明によれば、複数の細分化領域を全て抽出単位とする候補領域特定部と、顔領域特定部と、毛髪領域特定部とを備えたので、正確に顔、毛髪領域を抽出できる効果がある。
【0036】
また更に、候補領域中の最大領域を抽出する肌色領域抽出部を備えたので、顔領域の推定が更に正確に行える効果がある。
【0037】
また更に、画像データの欠落を膨張と収縮処理で補正する顔領域特定部としたので、顔領域の推定が更に正確に行える効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1における特徴領域抽出頭部位置判定装置の構成を示す図である。
【図2】 特徴領域抽出頭部位置判定装置が行う全体としての動作フロー図である。
【図3】 頭部領域抽出部の動作フロー図である。
【図4】 肌色領域抽出部の動作フロー図である。
【図5】 肌色領域抽出部が行う動作を説明する図である。
【図6】 候補領域特定部の動作フロー図である。
【図7】 候補領域特定部が行う動作を説明する図である。
【図8】 顔領域特定部の動作フロー図である。
【図9】 顔領域特定部が行う動作を説明する図である。
【図10】 顔領域特定部が行う動作を説明する図である。
【図11】 顔領域特定部が行う動作を説明する図である。
【図12】 毛髪領域特定部の動作フロー図である。
【図13】 毛髪領域特定部が行う動作を説明する図である。
【図14】 部位検出部の動作フロー図である。
【図15】 部位検出部が行う動作を説明する図である。
【図16】 第1の従来例における画像処理装置の構成を示す図である。
【符号の説明】
1 画像入力部、2 頭部領域抽出部、3 部位検出部、5 肌色領域抽出部、6 候補領域特定部、7 顔領域特定部、8 毛髪領域特定部、9 フィルタリング手段、10 肌色抽出手段、11 最大領域抽出手段、12 エッジ抽出手段、13 領域分割手段、14 領域分割補正手段、15 顔領域判定手段、16 顔領域補正手段、17 毛髪候補領域選定手段、18 毛髪領域判定手段、19 毛髪色データベース、20 部位領域マスク設定手段、21 部位領域特定手段。

Claims (3)

  1. 入力された人物の画像を解析して顔領域を抽出し、目、鼻、口等の構成要素の位置を求める装置において、
    上記人物の画像を構成する各画素の色情報に基づいて所定の手法で肌色領域を抽出する肌色領域抽出部と、
    上記人物の画像を構成する各画素の色情報に基づいて上記手法とは異なる手法で領域を分割し、また該画像が変化するエッジを抽出して、上記分割した領域を該エッジで分断して複数の抽出単位領域を得る候補領域特定部と、
    上記人物の画像で上記候補領域特定部が得た各抽出単位領域のうち、上記各肌色領域と所定の割合以上に重なる抽出単位領域、を顔領域として特定する顔領域特定部と、を備えて、
    上記特定された顔領域にある顔の構成要素の位置を求めることを特徴とする顔領域抽出判定装置。
  2. 人物の画像から毛髪部を特定する毛髪領域特定部を備えて、該毛髪特定部は、毛髪を探索するための色を記録した毛髪色データベースを設け、顔領域特定部の出力を参照して毛髪領域探索範囲を設定し、該毛髪領域探索範囲から上記毛髪色データベースに基づいて毛髪部を特定するようにしたことを特徴とする請求項1記載の顔領域抽出装置。
  3. 顔領域特定部の出力に基づいて目、鼻、口の位置の探索範囲を設定し、入力された人物の画像の輝度を正規化して上記目、鼻、口の位置を定めるようにしたことを特徴とする請求項1記載の顔領域抽出装置。
JP2002060043A 2002-03-06 2002-03-06 顔領域抽出装置 Expired - Fee Related JP4076777B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002060043A JP4076777B2 (ja) 2002-03-06 2002-03-06 顔領域抽出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002060043A JP4076777B2 (ja) 2002-03-06 2002-03-06 顔領域抽出装置

Publications (2)

Publication Number Publication Date
JP2003256834A JP2003256834A (ja) 2003-09-12
JP4076777B2 true JP4076777B2 (ja) 2008-04-16

Family

ID=28669515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002060043A Expired - Fee Related JP4076777B2 (ja) 2002-03-06 2002-03-06 顔領域抽出装置

Country Status (1)

Country Link
JP (1) JP4076777B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991360A (zh) * 2016-01-20 2017-07-28 腾讯科技(深圳)有限公司 人脸识别方法及人脸识别***
CN108009470A (zh) * 2017-10-20 2018-05-08 深圳市朗形网络科技有限公司 一种图像提取的方法和装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4683200B2 (ja) * 2004-04-30 2011-05-11 花王株式会社 髪領域の自動抽出方法
JP2008092297A (ja) * 2006-10-02 2008-04-17 Olympus Corp 画像処理装置、画像処理プログラム、画像製造方法、及び記録媒体
KR100970328B1 (ko) * 2008-04-04 2010-07-15 엔에이치엔(주) 성인물 판단 방법 및 시스템
JP2010082245A (ja) * 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd 毛情報測定方法
JP5399887B2 (ja) * 2009-12-28 2014-01-29 本田技研工業株式会社 車両周辺監視装置
JP5892588B2 (ja) * 2011-11-24 2016-03-23 学校法人東京電機大学 人物誘導ロボット
JP5971108B2 (ja) * 2012-12-18 2016-08-17 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6604413B1 (ja) 2018-10-09 2019-11-13 日本電気株式会社 画像検索装置、画像検索システム、画像検索方法及びプログラム
CN111507994B (zh) * 2020-04-24 2023-10-03 Oppo广东移动通信有限公司 一种人像提取方法、人像提取装置及移动终端

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991360A (zh) * 2016-01-20 2017-07-28 腾讯科技(深圳)有限公司 人脸识别方法及人脸识别***
CN106991360B (zh) * 2016-01-20 2019-05-07 腾讯科技(深圳)有限公司 人脸识别方法及人脸识别***
CN108009470A (zh) * 2017-10-20 2018-05-08 深圳市朗形网络科技有限公司 一种图像提取的方法和装置
CN108009470B (zh) * 2017-10-20 2020-06-16 深圳市朗形网络科技有限公司 一种图像提取的方法和装置

Also Published As

Publication number Publication date
JP2003256834A (ja) 2003-09-12

Similar Documents

Publication Publication Date Title
JP3549013B2 (ja) 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
Li et al. Multi-angle head pose classification when wearing the mask for face recognition under the COVID-19 coronavirus epidemic
US7747071B2 (en) Detecting and correcting peteye
JP4076777B2 (ja) 顔領域抽出装置
US9762773B2 (en) Image processing apparatus and method for increasing sharpness of images
CN109544464A (zh) 一种基于轮廓提取的火灾视频图像分析方法
CN110268442B (zh) 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
CN110930321A (zh) 一种能够自动选取目标区域的蓝/绿幕数字图像抠取方法
JP2021517281A (ja) スマートホームシーン向けのマルチジェスチャー精分割方法
JP4599110B2 (ja) 画像処理装置及びその方法、撮像装置、プログラム
CN114792310A (zh) 一种LCD屏幕中边缘模糊的Mura缺陷检测方法
Arsic et al. Improved lip detection algorithm based on region segmentation and edge detection
US10872229B2 (en) Image processing device, image processing method, and recording medium
CN111414877A (zh) 去除颜色边框的表格裁切方法、图像处理设备和存储介质
Priya et al. A novel approach to the detection of macula in human retinal imagery
CN110930358A (zh) 一种基于自适应算法的太阳能面板图像处理方法
TWI416433B (zh) 紅眼影像偵測方法及其相關裝置
CN111738934B (zh) 基于mtcnn的红眼自动修复方法
CN110458012B (zh) 多角度人脸识别方法及装置、存储介质和终端
JP2007299113A (ja) ヘアカラー・メイクアップシミュレーションシステム
CN112488031A (zh) 一种基于颜色分割的安全帽检测方法
Tian et al. Multimodal retinal image registration and fusion based on sparse regularization via a generalized minimax-concave penalty
CN105809628B (zh) 基于局部曲率流分析的胶囊图像滤波方法
CN110751078B (zh) 一种确定三维人脸的非肤色区域的方法和设备

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040518

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees