JP2010108494A - 画像内の顔の特性を判断する方法及びシステム - Google Patents

画像内の顔の特性を判断する方法及びシステム Download PDF

Info

Publication number
JP2010108494A
JP2010108494A JP2009235928A JP2009235928A JP2010108494A JP 2010108494 A JP2010108494 A JP 2010108494A JP 2009235928 A JP2009235928 A JP 2009235928A JP 2009235928 A JP2009235928 A JP 2009235928A JP 2010108494 A JP2010108494 A JP 2010108494A
Authority
JP
Japan
Prior art keywords
patch
image
face
patches
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009235928A
Other languages
English (en)
Inventor
Michael Jeffrey Jones
マイケル・ジェフリー・ジョーンズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2010108494A publication Critical patent/JP2010108494A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】顔の画像から、性別、年齢、人種、心的状態、表情、及び、姿勢のような顔の特性を判断する。
【解決手段】入力画像110を入力パッチのセット125に分割する(120)。各パッチを、原型パッチのセット140と比較する(130)。この比較の結果、マッチする原型パッチのセットがもたらされる。該マッチする原型パッチのセットの特性に基づいて、顔の画像の特性が判断される(400)。
【選択図】図1

Description

本発明は、包括的には顔の画像を分析することに関し、より詳細には、画像内の顔の特性を判断することに関する。
人間は顔の特性を認識することに非常に長けているが、コンピュータはそうではない。性別、年齢、人種、心的状態、表情、及び、姿勢(または態度)のような、顔のさまざまな特性を判断するために画像の自動分析を必要とする多くの用途が存在する。コンピュータビジョン技法を使用して画像から顔の概括的な特性を自動的に判断することができれば、大きな商業上の利益となるであろう。
顔分析のためのいくつかの従来のコンピュータビジョン方法が存在するが、それらのすべてがいくつかの欠点を抱えている。一般的な従来の方法は、最初に、教師付きの学習技法を使用してトレーニングしなければならない分類器を使用するが、これは資源及び時間を消費する。分類器の例は、ブースト分類器、サポートベクタマシン(SVM)、及び、ニューラルネットワーク又はベイズネットワークを含む。これらの分類器のうちのいくつかは、生の画素画像に対して動作し、一方で、他のものはガボール特徴又はハール状特徴のような、画像から抽出される特徴に対して動作する。
従来の分類器
Golomb他は非特許文献1において、30×30画素画像から成るヒトの顔画像から性別を特定する、完全接続2層ニューラルネットワークを記載している。
Cottrell他も非特許文献2において、顔の感情及び性別の認識にニューラルネットワークを適用している。該ニューラルネットワークは、自動符号化器ネットワークを介して4096×4096画像のセットの解像度を40×40に低減する。次いで、該ネットワークの出力は、トレーニング及び認識のためにもう1つの層のネットワークに入力される。
Brunelli他は非特許文献3において、性別分類のためのハイパーBF(HyperBF)ネットワークを開発している。該ハイパーBFネットワークでは、一方が男性用でもう一方が女性用である2つの競合する放射基底関数(RBF)ネットワークが、たとえば、瞳から眉毛までの距離、眉毛の太さ、及び、鼻の幅のような16個の幾何学的特徴を入力として使用してトレーニングされる。
グレイレベルのラスタ走査ベクトルを使用して顔画像を表現する代わりに、Wiskott他は、非特許文献4において、顔を記述するための2次元ビューのラベルを付されたグラフを使用するシステムを記載している。ノードは、ウェーブレット変換に基づいて計算されるローカルテンプレートの特別なクラスであるジェットを表し、エッジは距離ベクトルを用いてラベル付けされる。それらは男性及び女性の制御されたモデルグラフの小さなセットを使用して概括的な顔の知識を符号化する。
最近では、Gutta他が非特許文献5において、ニューラルネットワーク(RBF)と帰納的決定木(inductive decision tree)との組み合わせを含むハイブリッド方法を記載している。
画像内の顔の特性を判断する、単純で、しかし正確な方法が望まれている。明示的に画像をトレーニングすることなく画像内の顔の特性を判断することも望まれている。
Golomb他著「SEXNET: A neural network identifies sex from human faces」(Advances in Neural Information Processing Systems, pp. 572-577, 1991) Cottrell他著「Empath: face, emotion, and gender recognition using holons」(Advances in Neural Information Processing Systems, pp. 564-571, 1991) Brunelli他著「HyperBF networks for gender classification」(Proceedings of the DARPA Image Under-standing Workshop, pp. 311-314, 1992) Wiskott他著「Face recognition and gender determination」(Proceedings of the International Workshop on Automatic Face and Gesture Recognition, pp. 92-97, 1995) Gutta他著「Gender and ethnic classification of Face Images」(Proceedings of the IEEE International Automatic Face and Gesture Recognition, pp. 194-199, 1998)
本発明の目的は、顔の画像から、限定ではないが、性別、年齢、人種、心的状態、表情、及び、姿勢のような顔の特性を判断する方法を提供することである。
本発明のさらなる目的は、ほとんどの従来の顔分類器に使用される明示的な又は暗黙的なトレーニングを必要としない方法を提供することである。
本発明による方法の主要な利点は、該方法が従来の解決策よりも単純且つ正確であることである。本発明の実施の形態は、年齢のような特性が3つ以上の可能な値を有する場合にマルチクラス問題に対する解決策も提供する。
本方法はまた、分類器のトレーニングという負担も取り除く。
本発明は、他の人間の顔の画像の複数の小さな領域を合成することによって顔の画像を良好に近似することができるという認識に基づく。換言すれば、異なる複数の人間から取得される、たとえば、鼻、眼、頬、及び、口のような顔の画像部分を合成することによって顔を特性化することができる。さらに、これらの画像部分は顔全体の特性のセットを保持することができる。たとえば、男性の鼻の画像部分は、女性の顔のセット内の鼻よりも、男性の顔のセット内の鼻に最も類似している可能性が高い。
したがって、未知の顔の画像の鼻部分が、男性の顔の画像内の鼻部分と類似している場合、或る程度の確率性をもって、画像内の未知の顔が男性であると言うことができる。
同様に、年齢、人種、及び表情のような顔の画像の他の特性を、既知の特性を有するパッチのセットを用いて比較することによって発見することができる。
意外なことに、また驚くべきことに、本発明による比較的単純な方法はパッチのみを比較し、従来技術のように画像は比較しない。本方法は従来の画像分類ベースの手法と比較した場合にはるかに優れた結果をもたらす。これらの結果はより正確であり、同時に複数の特性を判断することができる。
従来技術の分類器ベースの方法では、これには複数の分類器をトレーニングする必要があり、また画像全体にわたって複数回トレーニングする必要があった。したがって、本発明の実施の形態による方法はリアルタイムのコンピュータビジョンの用途に特に適している。
本発明の実施形態による、取得される顔の画像を使用して顔の特性を判断する方法の流れ図である。 本発明の実施形態による、原型パッチのセットを用いての顔の画像のパッチの比較の概略図である。 本発明の実施形態による、顔の分割された画像の図である。 本発明の実施形態による、顔の分割された画像の図である。 本発明の実施形態による、顔のクロッピングされた画像の図である。 本発明の実施形態による、マッチする原型パッチの特性から顔の特性を判断する流れ図である。
図1は、本発明の実施の形態による入力画像110内の顔の特性のセット115を判断する方法100を示す。本方法100はリアルタイムで実施することができる。本明細書において使用される場合、特性のセットは1つ又は複数の特性を含むことができる。
一実施形態では、顔の入力画像110はカメラによって取得される。他の実施形態では、方法100はコンピュータ可読メモリ(図示せず)から、又はネットワークを介して入力画像110を取り出す。
入力画像110を入力パッチのセット125に分割する(120)。一実施形態では、分割は、特に関心のある入力パッチのサブセットを選択することによって達成される。たとえば、1つのみのパッチ又はいくつかのパッチが選択され得る。
原型パッチのセット140は、異なる原型顔の画像のパッチを含む。本明細書において定義される「原型」の使用は従来どおりである。顔は、「或る個人の顔が特定のタイプの基本的な特徴を呈する」場合に原型である。原型セット140内の各パッチは、そのタイプの1つ又は複数の関連付けられる特性141を有する。特性のセット141の例は、限定ではないが、性別、人種、年齢、たとえば楽しい表情又は悲しい表情のような顔の表情である。
入力パッチのセット125内の各パッチを、原型パッチのセット140と比較する(130)。入力パッチ125に最良にマッチする原型パッチが、マッチする原型パッチのセット135として選択される。このように、すべての入力パッチ125に関して、最良にマッチする原型パッチ135が原型パッチ140から選択される。
マッチする特性155を、マッチする原型パッチのセット135から取り出す(150)。次いで、マッチする特性を使用して、入力画像110内の顔の(1つ又は複数の)特性のセット115を判断する(400)。
パッチ比較
図2は、本発明の実施形態による、パッチ125とパッチ140との比較130を概略的に示す。
本発明は、さまざまな人間から取られた、たとえば、鼻、眼、及び、頬のような既知の顔の部分を合成することによって未知の顔を特性化することができるという認識の結果である。さらに、顔のこれらの部分は通常、顔全体の特性を保持する。たとえば、男性の眼を含むパッチ112は、女性の画像の中からよりも、他の男性の画像の中から発見される可能性が高い。したがって、入力画像110内の眼のパッチ112が「男性」の性別特性141を有する原型パッチとマッチする場合、或る程度の確率性をもって、入力画像110は男性から取得されたと言うことができる。
同様に、既知の特性141を有する原型パッチのセット140との比較130によって、年齢及び人種のような、入力画像110の他の特性を判断することができる。
パッチはさまざまな方法で比較する(130)ことができる。いくつかの実施形態は、画素値の差分絶対値和(L1ノルム)若しくは画素値の残差平方和(L2ノルム)、又は、正規化相互相関を使用する。パッチから抽出される特徴を比較することもできる。この実施形態では、たとえばガボール特徴、勾配特徴のヒストグラム、又は、ハール状特徴のような特徴ベクトルのセットをすべてのパッチに関して求める。次いで、特徴ベクトルを比較することができる。特徴の比較は画素ごとの比較よりも少ない時間で行うことができる。特徴を、特性を検知しやすいように設計することもできる。
画像分割
図3Aは、画像全体上に規則的な格子を使用する、入力画像110の、パッチ125への一例の分割120を示す。パッチ125は、サイズが同じであっても異なっていてもよく、また重なっていても重なっていなくてもよい。同じ分割方式を使用して原型パッチ140を生成することができる。
パッチが矩形形状を有する必要はない。図3Bは他の例のパッチを示す。パッチは、矩形形状125a、楕円形状125b、又は、任意形状125cを有することができる。さらに、パッチ125を複数の分離している画素125dから形成することができる。分割後、関心のある特性を最良に特性化する最適なパッチのセットを、原型パッチ及び入力パッチの双方に対して選択することができる。たとえば、強い特徴、たとえば眼及び口を有するパッチを保持することができ、一方で特徴の少ないパッチ、たとえば額又は頬を廃棄することができる。その結果、特定の関心のある特性を判断するのに最適な原型パッチ及び入力パッチのセットがもたらされる。
画像位置合わせ
パッチ比較130の精度を向上させるために、顔の各画像、すなわち入力画像110及び原型パッチ140の選択に使用される画像の双方を位置合わせする。位置合わせはパッチに対して行うこともできる。たとえば、画像は、縮尺(scale)、面内回転及び平行移動に関して正規化される。本発明の一実施形態では、画像位置合わせは、たとえば眼の中心のような特徴点を使用する位置合わせ方法を使用して行われる。顔検出器及び眼検出器をこの目的に使用して、画像の位置合わせを自動化することができる。少なくとも2つの特徴点が与えられると、特徴点を或る目標特徴ロケーションにマッピングする4つのパラメータ(縮尺、面内回転角、xオフセット及びyオフセット)を、線形最小二乗問題を解くことによって計算することができる。次いで、双線形補間を使用して入力画像110を変形させて(warp)一定のサイズの位置合わせされた画像をもたらすことができる。図3Cに示すように、クロッピング300によって、毛髪のような外部の特徴を除去することができる。
原型パッチ
関連する特性及び用途に応じて、種々のソースから原型パッチ140を取得することができる。たとえば、性別特性に関して、ワールドワイドウェブ又は写真集からデジタル写真を収集することによって数百又は数千の原型顔画像を得ることができる。手作業で又はコンピュータビジョン技法を使用して特性を指定することができる。原型パッチの最適なセットを上述のように選択することができる。
画像特性
マッチする原型パッチのセット135が求められた後、特性155を使用して入力画像110の特性を判断することができるいくつかの方法が存在する。
図4は、特性115を判断する一例を示す。一実施形態では、スコア415を、特定の値を有するマッチする原型パッチ135の特性155のパーセンテージとして求める(410)。たとえば、マッチするパッチ135の60%が男性であり且つ40%が女性である場合、スコア415は60である。画像スコア415を求めた後、該スコア415を閾値425と比較して(430)、特性115を判断する。たとえば、男性のスコアが60である場合、閾値425mが60未満である場合は画像110の性別の特性は「男性」であり、それ以外の場合は画像110の特性は「女性」である。このプロセスを各タイプの特性に対して繰り返すことができる。
男性の顔の画像及び女性の顔の画像の試験セットを使用して、男性の顔に関する失敗対女性の顔に対する失敗のパーセンテージをプロットする受信者動作特性(ROC)曲線から、閾値425を得ることができる。なお、このためにこの方法を使用してスコアが計算されている。閾値が非常に低く設定されている場合、すべての顔が男性であると予測されることになり、これによって女性の顔のすべてに関してエラーが生じるが、男性の顔に関してはいずれもエラーはない。逆に、閾値が非常に高く設定されている場合、すべての顔が女性であると予測されることになり、これによって男性の顔のすべてに関してエラーが生じるが、女性の顔に関してはエラーは全くない。したがって、最適な閾値425はこれらの値の間にあり、特定の用途に関して、女性に対するエラーに対して男性に対するエラーをどの程度重み付けするかによって決まる。ROC曲線は閾値の各可能な値に対する試験セットに関する全体のエラーレートをプロットする。
連続値とすることができる、年齢のような特性に関して、すべてのマッチする原型パッチの特性の平均又は加重平均を使用することができる。
本発明を好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内でさまざまな他の適合及び変更を行うことができることは理解されたい。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲内に入るこのようなすべての変形及び変更を包含することである。

Claims (12)

  1. 画像内の顔の特性を判断する方法であって、
    顔の入力画像を入力パッチのセットに分割するステップと、
    各前記入力パッチを原型パッチのセットと比較して、マッチする原型パッチを求めるステップであって、各該マッチする原型パッチは、該マッチする原型パッチに関連付けられる特性のセットを形成する少なくとも1つの特性に関連付けられる、ステップと、
    前記マッチする原型パッチに関連付けられる前記特性のセットに従って、前記入力画像内の前記顔の特性のセットを判断するステップと、
    を含む、画像内の顔の特性を判断する方法。
  2. カメラによって前記顔の前記画像を取得するステップをさらに含む、請求項1に記載の方法。
  3. 前記マッチする原型パッチに関連付けられる前記特性を取り出すステップをさらに含む、請求項1に記載の方法。
  4. 前記比較するステップは、
    各前記入力パッチ及び各前記原型パッチから特徴ベクトルを抽出するステップと、
    前記特徴ベクトルを比較して、前記マッチする原型パッチを求めるステップと、
    をさらに含む、請求項1に記載の方法。
  5. 前記分割するステップは、
    前記比較のために前記入力パッチの最適なセットを選択するステップをさらに含む、請求項1に記載の方法。
  6. 前記入力パッチ及び前記原型パッチは位置合わせされた画像から得られる、請求項1に記載の方法。
  7. 前記原型パッチのセットは最適であるように選択される、請求項1に記載の方法。
  8. 前記判断するステップは、
    前記マッチする原型パッチに関連付けられる前記特性のセットに従ってスコアを求めるステップと、
    前記スコアを閾値化して、前記顔の前記特性のセットを判断するステップと、
    をさらに含む、請求項1に記載の方法。
  9. 前記セット内の前記特性は、性別、年齢、前記顔の表情、姿勢、人種、及び、それらの組合せから成る群から選択される、請求項1に記載の方法。
  10. 画像内の顔の特性を判断する方法であって、
    顔の画像のパッチを取得するステップと、
    前記パッチを原型パッチのセットと比較して、マッチする原型パッチを求めるステップであって、該マッチする原型パッチは関連付けられる特性のセットを有する、ステップと、
    前記マッチする原型パッチに関連付けられる前記特性のセットに従って前記画像内の前記顔の特性のセットを判断するステップと、
    を含む、画像内の顔の特性を判断する方法。
  11. 画像内の顔の特性を判断するシステムであって、
    顔の入力画像の入力パッチのセットを原型パッチのセットと比較して、マッチする原型パッチを求めるように構成されたパッチ比較モジュールであって、各該マッチする原型パッチは、該マッチする原型パッチに関連付けられる特性のセットを形成する少なくとも1つの特性に関連付けられる、パッチ比較モジュールと、
    前記マッチする原型パッチに関連付けられる前記特性のセットに従って前記入力画像内の前記顔の特性のセットを判断するように構成された特性比較モジュールと、
    を備える、画像内の顔の特性を判断するシステム。
  12. 前記顔の前記入力画像を前記入力パッチのセットに分割するように構成される画像分割モジュールをさらに備える、請求項11に記載のシステム。
JP2009235928A 2008-10-31 2009-10-13 画像内の顔の特性を判断する方法及びシステム Pending JP2010108494A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/263,191 US20100111375A1 (en) 2008-10-31 2008-10-31 Method for Determining Atributes of Faces in Images

Publications (1)

Publication Number Publication Date
JP2010108494A true JP2010108494A (ja) 2010-05-13

Family

ID=42131452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009235928A Pending JP2010108494A (ja) 2008-10-31 2009-10-13 画像内の顔の特性を判断する方法及びシステム

Country Status (2)

Country Link
US (1) US20100111375A1 (ja)
JP (1) JP2010108494A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161569A (ja) * 2015-02-26 2016-09-05 三菱電機株式会社 オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8599215B1 (en) * 2008-05-07 2013-12-03 Fonar Corporation Method, apparatus and system for joining image volume data
WO2012002047A1 (ja) * 2010-06-30 2012-01-05 Necソフト株式会社 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
US10120879B2 (en) 2013-11-29 2018-11-06 Canon Kabushiki Kaisha Scalable attribute-driven image retrieval and re-ranking
CN105160317B (zh) * 2015-08-31 2019-02-15 电子科技大学 一种基于区域分块行人性别识别方法
US9665567B2 (en) 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
CN107346408A (zh) * 2016-05-05 2017-11-14 鸿富锦精密电子(天津)有限公司 基于脸部特征的年龄识别方法
US10409132B2 (en) 2017-08-30 2019-09-10 International Business Machines Corporation Dynamically changing vehicle interior
LU100492B1 (en) * 2017-10-23 2019-05-22 Neuraltrain Gmbh Computing System and Method for Treating of a Brain Dysfunction
CN111279135B (zh) * 2017-10-30 2022-06-14 大金工业株式会社 集中度推断装置
CN109376604B (zh) * 2018-09-25 2021-01-05 苏州飞搜科技有限公司 一种基于人体姿态的年龄识别方法和装置
CN110163151B (zh) * 2019-05-23 2022-07-12 北京迈格威科技有限公司 人脸模型的训练方法、装置、计算机设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
EP1653279B1 (en) * 2003-07-15 2019-02-06 Omron Corporation Object decision device and imaging device
EP1748390A4 (en) * 2004-04-15 2014-01-01 Panasonic Corp DEVICE AND METHOD FOR CREATING IMAGES OF THE FACE
JP4352980B2 (ja) * 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
KR100738080B1 (ko) * 2005-11-08 2007-07-12 삼성전자주식회사 성별을 이용한 얼굴 인식 방법 및 장치
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
JP2009118009A (ja) * 2007-11-02 2009-05-28 Sony Corp 撮像装置、その制御方法およびプログラム
JP2009129237A (ja) * 2007-11-26 2009-06-11 Toshiba Corp 画像処理装置及びその方法
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161569A (ja) * 2015-02-26 2016-09-05 三菱電機株式会社 オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム

Also Published As

Publication number Publication date
US20100111375A1 (en) 2010-05-06

Similar Documents

Publication Publication Date Title
JP2010108494A (ja) 画像内の顔の特性を判断する方法及びシステム
Makhmudkhujaev et al. Facial expression recognition with local prominent directional pattern
Zhu et al. Recover canonical-view faces in the wild with deep neural networks
Borji et al. Exploiting local and global patch rarities for saliency detection
JP5639478B2 (ja) デジタル画像における顔の表情の検出
Rajan et al. Facial expression recognition techniques: a comprehensive survey
US20070172099A1 (en) Scalable face recognition method and apparatus based on complementary features of face image
WO2019033525A1 (zh) Au特征识别方法、装置及存储介质
JP2016062253A (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
Rattani et al. Gender prediction from mobile ocular images: A feasibility study
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
Moallem et al. Fuzzy inference system optimized by genetic algorithm for robust face and pose detection
US11631277B2 (en) Change-aware person identification
Azzopardi et al. Fast gender recognition in videos using a novel descriptor based on the gradient magnitudes of facial landmarks
George et al. Smile detection from still images using KNN algorithm
JP2013228847A (ja) 顔表情解析装置および顔表情解析プログラム
Booysens et al. Ear biometrics using deep learning: A survey
Biglari et al. Illumination invariant face recognition using SQI and weighted LBP histogram
Rajeswari et al. Literature survey on facial expression recognition techniques
Fung-Lung et al. An image acquisition method for face recognition and implementation of an automatic attendance system for events
Duan et al. Local feature learning for face recognition under varying poses
Lin et al. Face detection based on skin color segmentation and SVM classification
Deepa et al. Age estimation in facial images using histogram equalization
Kalsi et al. A classification of emotion and gender using approximation image Gabor local binary pattern
Suma Dense feature based face recognition from surveillance video using convolutional neural network