JP2005084979A - 顔認証システムおよび方法並びにプログラム - Google Patents
顔認証システムおよび方法並びにプログラム Download PDFInfo
- Publication number
- JP2005084979A JP2005084979A JP2003316594A JP2003316594A JP2005084979A JP 2005084979 A JP2005084979 A JP 2005084979A JP 2003316594 A JP2003316594 A JP 2003316594A JP 2003316594 A JP2003316594 A JP 2003316594A JP 2005084979 A JP2005084979 A JP 2005084979A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face image
- face
- eyes
- authentication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 顔により簡易に人物の認証を行うことができるようにする。
【解決手段】 目位置検出部21が顔画像S0の目の中心位置を検出し、規格化部22が両目の中心位置間の距離を規格化して規格化顔画像S1を得る。切り出し部23が規格化顔画像S1における両目の中心位置間の距離を基準として、所定の規格サイズを有するトリミング枠を規格化顔画像S1に設定して入力認証用画像S2を切り出す。照合部14がメモリ13に保管された多数の登録された人物についての認証用画像S3と入力認証用画像S2とを照合して、顔画像S0を撮影した人物が登録された人物であるか否かの照合を行う。
【選択図】 図1
【解決手段】 目位置検出部21が顔画像S0の目の中心位置を検出し、規格化部22が両目の中心位置間の距離を規格化して規格化顔画像S1を得る。切り出し部23が規格化顔画像S1における両目の中心位置間の距離を基準として、所定の規格サイズを有するトリミング枠を規格化顔画像S1に設定して入力認証用画像S2を切り出す。照合部14がメモリ13に保管された多数の登録された人物についての認証用画像S3と入力認証用画像S2とを照合して、顔画像S0を撮影した人物が登録された人物であるか否かの照合を行う。
【選択図】 図1
Description
本発明は、顔により人物の認証を行う顔認証システムおよび顔認証方法並びに顔認証方法をコンピュータに実行させるためのプログラムに関するものである。
近年、指紋、光彩、声紋および顔等の個人に固有の生体情報を用いて個人の認証を行うバイオメトリクス技術が提案されている。このバイオメトリクス技術を用いた本人認証技術は、あらかじめ登録した指紋、光彩、声紋、顔等の生体情報と、提示された生体情報とを信号処理により自動照合して、提示した人物が本人であるか他人であるかを認証するものである。とくに顔認証技術として、Gaborフィルタを用いた方法が提案されている(非特許文献1参照)。
非特許文献1に記載されたGaborフィルタを用いた方法は、顔画像上に目、鼻および口などの顔器官の特徴点を配置し、各特徴点において解像度と方位とを変化させたGaborフィルタを畳み込むことにより、その特徴点周辺における濃淡特徴の周期性と方向性とを特徴量として取り出し、その特徴点間の空間的位置情報と、各特徴点の特徴量とを統合して弾性的な位置関係を持つ顔グラフを生成し、顔グラフを用いて顔の位置を検出し、さらに顔器官の特徴点を検出し、その特徴点周辺の特徴量の類似度を、登録してある顔の特徴量と比較することにより、本人か他人であるかの認証を行っている。
(社)日本自動認識システム協会、「これでわかったバイオメトリクス」、オーム社、平成13年9月10日、p59−71、120−126
(社)日本自動認識システム協会、「これでわかったバイオメトリクス」、オーム社、平成13年9月10日、p59−71、120−126
顔を用いて上述したような認証を行う場合、撮影時における撮像装置からの距離および画角内における人物の位置(以下撮影位置とする)に応じて、顔画像に含まれる顔のサイズや顔の位置が変化するため、登録されている顔画像と認証を行う顔画像とにおいて、顔画像に含まれる顔のサイズや位置が異なる場合が生じる。このように、登録されている顔画像と認証を行う顔画像とにおいて顔のサイズや位置が異なると、登録されている人物であるにも拘わらず認証されなくなってしまうおそれがある。この場合、認証を行う人物は撮影位置を正確に定めて撮影を行うことにより、認証がなされないという不都合を防止することができる。しかしながら、認証を行う毎にそのように正確に撮影位置を定めることは認証を行う人物にとって非常に煩わしい。
本発明は上記事情に鑑みなされたものであり、顔により簡易に人物の認証を行うことができるようにすることを目的とする。
本発明による顔認証システムは、撮影により取得された顔を含む顔画像の入力を受け付ける画像入力手段と、
前記顔画像における目の中心位置を検出する目位置検出手段と、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得る規格化手段と、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出す切り出し手段と、
登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像を保管する画像保管手段と、
前記入力認証用画像と、前記画像保管手段に保管された認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力する照合手段とを備えたことを特徴とするものである。
前記顔画像における目の中心位置を検出する目位置検出手段と、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得る規格化手段と、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出す切り出し手段と、
登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像を保管する画像保管手段と、
前記入力認証用画像と、前記画像保管手段に保管された認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力する照合手段とを備えたことを特徴とするものである。
「規格サイズ」とは、所定の解像度のプリンタ等の出力手段により画像を出力した際に、一定サイズの画像内の決められた位置に、一定サイズの顔が含まれるとともに、頭頂部、顎の先端部および左右の耳等の顔の縁部から画像の縁部までの距離が一定サイズとなるように規格化された画像が得られるようなサイズをいう。なお、画像のサイズ、顔のサイズおよび顔の縁部から画像の縁部までのサイズは許容される範囲内の多少の誤差を持っていてもよい。
なお、本発明による顔認証システムにおいては、前記目位置検出手段を、前記目の中心位置の識別に用いる少なくとも1つの特徴量を前記顔画像から算出する特徴量算出手段と、
顔であることが分かっている、前記目の中心位置および/または位置関係が正規化された複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記少なくとも1つの特徴量をマシンラーニングの手法によりあらかじめ学習することにより得られた、前記少なくとも1つの特徴量と該少なくとも1つの特徴量の各々に対応する識別条件とをあらかじめ規定する参照データを、前記顔画像から算出された少なくとも1つの特徴量に基づいて参照して、前記顔画像に含まれる前記目の中心位置の識別を行う識別手段とを備えるものとしてもよい。
顔であることが分かっている、前記目の中心位置および/または位置関係が正規化された複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記少なくとも1つの特徴量をマシンラーニングの手法によりあらかじめ学習することにより得られた、前記少なくとも1つの特徴量と該少なくとも1つの特徴量の各々に対応する識別条件とをあらかじめ規定する参照データを、前記顔画像から算出された少なくとも1つの特徴量に基づいて参照して、前記顔画像に含まれる前記目の中心位置の識別を行う識別手段とを備えるものとしてもよい。
「特徴量」とは、画像の特徴を表すパラメータを指し、その画像における各画素の濃度勾配を表す勾配ベクトル、各画素の色情報(色相、彩度)、濃度、テクスチャーの特徴、奥行情報、その画像に含まれるエッジの特徴等、いかなる特徴を表すものであってもよい。
「識別条件」とは、特徴量を指標とした、目の中心位置を識別する条件を指す。
「マシンラーニング(machine learning)の手法」としては、例えば、ニューラルネットワーク、ブースティング等の既知の手法を用いることができる。
本発明による顔認証方法は、撮影により取得された顔を含む顔画像の入力を受け付け、
前記顔画像における目の中心位置を検出し、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出し、
前記入力認証用画像と、登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力することを特徴とするものである。
前記顔画像における目の中心位置を検出し、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出し、
前記入力認証用画像と、登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力することを特徴とするものである。
なお、本発明による顔認証方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、認証される人物の顔画像の入力が受け付けられ、顔画像における目の中心位置が検出され、検出された両目の中心位置間の距離が所定値となるように顔画像が規格化される。そして、規格化顔画像において、両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像が規格化顔画像から切り出される。そして、入力認証用画像と、登録された複数の人物のそれぞれについての認証用画像とが照合されて、入力を受け付けた顔画像の人物が登録された人物であるか否かが判定され、判定結果が出力される。
このように、本発明においては、両目の中心位置間の距離が所定値となるように顔画像を規格化した後に、規格化画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を規格化後の顔画像から切り出しているため、人物の撮影位置に拘わらず常に同一規格サイズを有する入力認証用画像を得ることができる。したがって、顔画像に含まれる顔のサイズや位置が顔画像毎に異なっていても、同一人物の画像を異なる人物であると認証することがなくなり、これにより、撮影時に撮影位置を正確に定める煩わしさをなくすことができる。
また、請求項2に係る本願発明によれば、顔画像から少なくとも1つの特徴量が算出される。そして、顔画像から算出された少なくとも1つの特徴量に基づいて参照データが参照されて、顔画像に含まれる目の中心位置の識別が行われる。
ここで、参照データを得る際の学習に用いられる顔であることが分かっているサンプル画像は、目の中心位置および/または位置関係が正規化されているため、顔画像における顔の位置が特定されれば、その顔における目の中心位置は、サンプル画像における目の中心位置に対応したものとなる。また、顔画像における目が前髪により隠れている等して不鮮明であっても、顔画像には顔の特徴を表す特徴量が含まれているため、顔画像に含まれる顔の位置さらには目の中心位置を識別できる。したがって、顔画像における目の中心位置を精度よく識別することができる。
また、参照データをマシンラーニングの手法によりあらかじめ学習して得ることにより、目の中心位置の識別性能をより向上させることができる。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による顔認証システムの構成を示す概略ブロック図である。図1に示すように、本実施形態による顔認証システムは、認証部1、および認証部1とLAN、公衆回線等のネットワーク2を介して接続された、認証を行おうとする人物の撮影を行って人物の顔画像を表す顔画像データS0を取得するデジタルカメラ、カメラ付き携帯電話等の撮像装置3を備える。なお、撮像装置3としてはデジタルカメラやカメラ付き携帯電話に限定されるものではなく、パソコンに接続されるWebカメラや、セキュリティチェックを行う機器に設けられているデジタルカメラであってもよい。
認証部1は、撮像装置3からネットワーク2を介して送信された顔画像データS0の入力を受け付けるネットワークインターフェース等の画像入力部11、顔画像データS0により表される顔画像(以下顔画像についても参照符号S0を用いる)からあらかじめ定められた規格サイズを有する入力認証用画像S2を抽出する画像抽出部12、登録された複数の人物のそれぞれについての認証用画像S3を保管するメモリ13、および入力認証用画像S2とメモリ13に保管された認証用画像S3とを照合して、撮像装置3が撮影した人物が登録された人物であるか否かを判定して判定結果を出力する照合部14を備える。
画像抽出部12は、顔画像S0に含まれる顔の目の中心位置を検出する目位置検出部21、検出した両目の中心位置間の距離が所定値となるように顔画像S0を規格化して規格化顔画像S1を得る規格化部22、および規格化顔画像S1における両目の中心位置間の距離を基準として規格サイズの入力認証用画像S2を顔画像S0から切り出す切り出し部23を備える。
図2は目位置検出部21の構成を示す概略ブロック図である。図2に示すように目位置検出部21は、顔画像S0から特徴量C0を算出する特徴量算出部31、後述する参照データR1が格納されているメモリ32、特徴量算出部31が算出した特徴量C0とメモリ32内の参照データR1とに基づいて、顔画像S0に含まれる顔における目の中心位置を識別する識別部33、識別部33による識別結果を出力する出力部34とを備える。
なお、本実施形態において目の中心位置とは、顔における目尻から目頭の間の中心位置であり、図3(a)に示すように正面を向いた目の場合においては瞳の位置(図中×で示す)となる。一方、図3(b)に示すように右を向いた目の場合は瞳の位置ではなく、白目部分が目の中心位置となる。
特徴量算出部31は、目の中心位置の識別に用いる特徴量C0を顔画像S0から算出する。具体的には、勾配ベクトル(すなわち顔画像S0上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、特徴量算出部31は、顔画像S0に対して図4(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して顔画像S0における水平方向のエッジを検出する。また、特徴量算出部31は、顔画像S0に対して図4(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して顔画像S0における垂直方向のエッジを検出する。そして、顔画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図5に示すように、各画素における勾配ベクトルKを算出する。なお、特徴量算出部31は、後述するように顔画像S0の変形の各段階において特徴量C0を算出する。
なお、このようにして算出された勾配ベクトルKは、図6(a)に示すような人物の顔の場合、図6(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKの大きさは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図5におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、顔画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が顔画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図7(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図7(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図7(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図7(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
メモリ32内に格納されている参照データR1は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
参照データR1中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
なお、本実施形態においては、参照データR1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図8に示すように両目の中心間の距離が10画素のものを用いるものとする。ここで、すべてのサンプル画像において目の中心位置は同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。そして、参照データR1の学習に用いられるサンプル画像における目の中心位置を、本実施形態において識別する目の中心位置とする。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
以下、図9のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。
学習の対象となるサンプル画像群は、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップS1)。
次に、サンプル画像における複数種類の画素群のそれぞれについて識別器が作成される(ステップS2)。ここで、それぞれの識別器とは、1つの画素群を構成する各画素における特徴量C0の組み合わせを用いて、顔の画像と顔でない画像とを識別する基準を提供するものである。本実施形態においては、1つの画素群を構成する各画素における特徴量C0の組み合わせについてのヒストグラムを識別器として使用する。
図10を参照しながらある識別器の作成について説明する。図10の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。
組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図10の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(ステップS3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップS4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。
ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(ステップS5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。
続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(ステップS7)、これにより参照データR1の学習を終了する。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図10の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
識別部33は、顔画像S0上において、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて参照データR1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔に含まれる目の中心位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、顔画像S0に含まれる顔のサイズは30×30画素のサンプル画像に含まれる顔とは異なり、各種サイズを有するものとなっている。また、平面上における顔の回転角度が0度であるとは限らない。このため、識別部33は、図11に示すように、顔画像S0を縦または横のサイズが30画素(必要であればそれ以下)となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図11においては縮小する状態を示す)、各段階において拡大縮小された顔画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔画像S0上において1画素ずつ移動させながら、マスク内の画像における目の中心位置の識別を行う。
なお、特徴量算出部31は、顔画像の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、抽出された顔画像の変形の全段階においてすべての識別ポイントを加算し、加算値が最も大きい変形の段階における30×30画素のマスクM内にサンプル画像に適合するサイズの顔が含まれると識別し、マスクM内の画像に左上隅を原点とする座標を設定し、サンプル画像における目の中心位置の座標(x1,y1)、(x2,y2)に対応する位置を求め、変形前の顔画像S0におけるこの位置に対応する位置を目の中心位置と識別する。この両目の中心位置の座標を(x3,y3)(顔画像S0に含まれる顔の右目)、(x4,y4)(左目)とする。なお、y3=y4である。
出力部34は、識別部33が識別した目の中心位置を表す座標値(x3,y3)、(x4,y4)を出力する。
規格化部22は、目位置検出部21が検出した両目の中心位置の座標(x3,y3)、(x4,y4)に基づいて、顔画像S0から検出された両目の中心位置間の距離D0を算出し、この距離D0があらかじめ定められた所定値D1となるように、顔画像S0を拡大縮小することにより顔画像S0を規格化して規格化顔画像S1を得る。ここで、y3=y4であることから顔画像S0における両目の中心間の画素数はx4−x3となる。なお、所定値D1は後述する規格サイズの入力認証用画像S2が得られるような画素数に定められる。また、規格化顔画像S1においては、両目の中心間距離はD1となる。また、拡大縮小時の拡大率に応じて、規格化顔画像S1上における両目の中心位置を算出することが可能であり、規格化顔画像S1における両目の中心位置の座標を(x5,y5)(規格化顔画像S1に含まれる顔の右目)、(x6,y6)(左目)とする。なお、y5=y6であることから規格化顔画像S1における両目の中心間の画素数はx5−x6となる。
切り出し部23は、所定解像度のプリンタによりプリント出力したり、所定解像度のモニタに表示した際に、図12に示すように顔の長さ(すなわち顔の頭頂部から顎の先端部までの距離)が27±2mm、頭頂部からトリミング枠上辺までの距離が7±2mm、横方向の長さが35mm、縦方向の長さが45mmとなる顔画像が得られるように、規格化顔画像S1からあらかじめ定められた規格サイズの入力認証用画像S2を切り出す。具体的には下記のようにして規格化顔画像S1から入力認証用画像S2を切り出す。図13は入力認証用画像S2の切り出しを説明するための図である。図13に示すように、切り出し部23は、規格化顔画像S1上において、両目の中心位置間の距離D1の垂直二等分線Lを設定する。ここで、切り出し部23は、トリミング枠の左辺および右辺の位置を定めるパラメータSxを保管しており、垂直二等分線Lから左右にそれぞれ距離1/2D1×Sxの位置にトリミング枠の左辺および右辺の位置を定める。
また、切り出し部23は、トリミング枠の上辺および下辺の位置を定めるパラメータSy1,Sy2を保管しており、各目の中心位置のy座標y5,y6を基準として上方向に距離D1×Sy1の位置にトリミング枠の上辺の位置を、下方向に距離D1×Sy2の位置にトリミング枠の下辺の位置を定める。
ここで、パラメータSxは、両目の中心位置間の距離をD1に規格化するとともに、プリント出力した際に図12に示す規格サイズの画像を得ることが可能なサイズを有する多数のサンプル画像について、両目の中心位置間の距離D1の垂直二等分線Lからのサンプル画像の左辺および右辺までの距離D10,D11を求め、すべてのサンプル画像について、D10+D11とD1×Sxとの誤差が最小となるようにSxの値を定めることにより求められる。
また、パラメータSy1は、両目の中心位置間の距離をD1に規格化するとともに、プリント出力した際に図12に示す規格サイズの画像を得ることが可能なサイズを有する多数のサンプル画像上について、両目の中心位置のy座標の位置からサンプル画像の上辺までの距離D12を求め、すべてのサンプル画像について、D12とD1×Sy1との誤差が最小となるようにSy1の値を定めることにより求められる。
また、パラメータSy2は、両目の中心位置間の距離をD1に規格化するとともに、プリント出力した際に図12に示す規格サイズの画像を得ることが可能なサイズを有する多数のサンプル画像上について、両目の中心位置のy座標の位置からサンプル画像の下辺までの距離D13を求め、すべてのサンプル画像について、D13とD1×Sy2との誤差が最小となるようにSy1の値を定めることにより求められる。
なお、具体的には、各パラメータの比率がSx:Sy1:Sy2=5.04:3.01:3.47となるようなパラメータSx,Sy1,Sy2を用いる。
メモリ13は、登録された複数の人物のそれぞれについての認証用画像S3を保管する。認証用画像S3は入力認証用画像S2を得た場合と同様に、登録する人物を撮影することにより得られた顔画像から両目の中心位置を検出し、両目の中心位置間の距離を基準として図13に示すように規格サイズの領域を切り出すことにより得られる。
照合部14は、例えば、上記非特許文献1に記載された方法を用いて顔画像S0の撮影を行った人物が登録された人物であるか否かの照合を行い、照合結果を出力する。
すなわち、入力認証用画像S2上における目、鼻および口などの顔器官の特徴点を検出し、その特徴点周辺の特徴量の類似度を、メモリ13に保管されている複数の人物についての認証用画像S3の特徴量と比較することにより、顔画像S0の撮影を行った人物が登録された人物であるか否かの認証を行う。
次いで、本実施形態において行われる処理について説明する。図14は本実施形態において行われる処理を示すフローチャートである。まず、画像入力部11がネットワーク2を介して送信された撮像装置3が撮影した認証を行おうとしている人物の顔画像データS0の入力を受け付ける(ステップS11)。次いで、画像抽出部12の目位置検出部21における特徴量算出部31が顔画像S0の拡大縮小および回転の各段階において、顔画像S0の勾配ベクトルKの方向および大きさを特徴量C0として算出する(ステップS12)。そして、識別部33がメモリ32から参照データR1を読み出し(ステップS13)、顔画像S0における目の中心位置を識別する(ステップS14)。次いで、出力部34が目の中心位置の座標値を出力する(ステップS15)。
続いて、規格化部22が両目の中心位置間の距離D0がD1となるように顔画像S0を規格化して規格化顔画像S1を得る(ステップS16)。そして、切り出し部23が規格化顔画像S1における両目の中心位置間の距離D1を基準として、規格化顔画像S1から図13に示す規格サイズの入力認証用画像S2を切り出す(ステップS17)。次いで、照合部14が入力認証用画像S2とメモリ13に保管された多数の人物についての認証用画像S3とを比較して、顔画像S0の撮影を行った人物が登録された人物であるか否かの照合を行い(ステップS18)、さらに照合結果を出力し(ステップS19)、処理を終了する。
照合結果は、例えばインターネットを用いての物品購入時における本人認証や、入退室が制限されているエリアへのセキュリティチェック等に用いられる。
このように本実施形態においては、両目の中心位置間の距離が所定値となるように顔画像S0を規格化した後に、規格化顔画像S1における両目の中心位置間の距離D1を基準とした規格サイズの入力認証用画像S2を規格化顔画像S1から切り出しているため、認証を行おうとする人物の撮影位置に拘わらず常に同一規格サイズの入力認証用画像S2を得ることができる。例えば、図15(a)に示すように、顔画像S0上において顔が中心になくても、図15(b)に示すように顔画像S0の一杯に顔が含まれている場合でも、常に同一の規格サイズとなるように入力認証用画像S2を得ることができる。したがって、顔画像S0に含まれる顔のサイズや位置が顔画像毎に異なっていても、同一人物の画像を異なる人物であると認証することがなくなり、これにより、撮影時に撮影位置を正確に定める煩わしさをなくすことができる。
なお、上記実施形態においては、上述したようにマシンラーニングの手法による学習結果を用いて目の中心位置を検出しているが、目の形状のテンプレートを用いたテンプレートマッチング等、目の中心位置を検出することが可能な任意の手法を用いることができる。
また、規格サイズとして図12に示す規格の顔画像が得られるものを用いているが、これに限定されるものではなく、任意の規格サイズを用いることができる。この場合、図13に示したトリミング枠を定めるパラメータSx,Sy1,Sy2の値は、規格サイズに応じて定めればよい。
また、上記実施形態においては、メモリ13に認証用画像S3を保管しているが、照合部14は顔の器官の特徴量を用いて照合を行っているため、認証用画像S3に代えて認証用画像S3おける顔の器官の特徴量のみを保管しておいてもよい。
以上、本発明の実施形態に係る装置について説明したが、コンピュータを、上記の画像入力部11、画像抽出部12、および照合部14として機能させ、入力認証用画像S2と認証用画像S3とを照合する処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。これらの場合においても、参照データR1や認証用画像S3を表す認証用画像データは、プログラム内あるいは同一の記録媒体内に含まれているものであってもよいし、外部の装置や別個の媒体から提供されるものであってもよい。
1 認証部
2 ネットワーク
3 撮像装置
11 画像入力部
12 画像抽出部
13 メモリ
14 照合部
21 目位置検出部
22 規格化部
23 切り出し部
31 特徴量算出部
32 メモリ
33 識別部
34 出力部
2 ネットワーク
3 撮像装置
11 画像入力部
12 画像抽出部
13 メモリ
14 照合部
21 目位置検出部
22 規格化部
23 切り出し部
31 特徴量算出部
32 メモリ
33 識別部
34 出力部
Claims (4)
- 撮影により取得された顔を含む顔画像の入力を受け付ける画像入力手段と、
前記顔画像における目の中心位置を検出する目位置検出手段と、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得る規格化手段と、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出す切り出し手段と、
登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像を保管する画像保管手段と、
前記入力認証用画像と、前記画像保管手段に保管された認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力する照合手段とを備えたことを特徴とする顔認証システム。 - 前記目位置検出手段は、前記目の中心位置の識別に用いる少なくとも1つの特徴量を前記顔画像から算出する特徴量算出手段と、
顔であることが分かっている、前記目の中心位置および/または位置関係が正規化された複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記少なくとも1つの特徴量をマシンラーニングの手法によりあらかじめ学習することにより得られた、前記少なくとも1つの特徴量と該少なくとも1つの特徴量の各々に対応する識別条件とをあらかじめ規定する参照データを、前記顔画像から算出された少なくとも1つの特徴量に基づいて参照して、前記顔画像に含まれる前記目の中心位置の識別を行う識別手段とを備えたことを特徴とする請求項1記載の顔認証システム。 - 撮影により取得された顔を含む顔画像の入力を受け付け、
前記顔画像における目の中心位置を検出し、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出し、
前記入力認証用画像と、登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力することを特徴とする顔認証方法。 - 撮影により取得された顔を含む顔画像の入力を受け付ける手順と、
前記顔画像における目の中心位置を検出する手順と、
前記検出された両目の中心位置間の距離が所定値となるように前記顔画像を規格化して規格化顔画像を得る手順と、
該規格化顔画像における両目の中心位置間の距離を基準とした所定の規格サイズを有する入力認証用画像を前記規格化顔画像から切り出す手順と、
前記入力認証用画像と、登録された複数の人物のそれぞれについての前記所定の規格サイズを有する認証用画像とを照合して、前記画像入力手段が入力を受け付けた前記顔画像の人物が登録された人物であるか否かを判定して判定結果を出力する手順とを有することを特徴とする顔認証方法をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003316594A JP2005084979A (ja) | 2003-09-09 | 2003-09-09 | 顔認証システムおよび方法並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003316594A JP2005084979A (ja) | 2003-09-09 | 2003-09-09 | 顔認証システムおよび方法並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005084979A true JP2005084979A (ja) | 2005-03-31 |
Family
ID=34416443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003316594A Withdrawn JP2005084979A (ja) | 2003-09-09 | 2003-09-09 | 顔認証システムおよび方法並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005084979A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005108195A (ja) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | 対象物識別装置および方法並びにプログラム |
JP2006338082A (ja) * | 2005-05-31 | 2006-12-14 | Sony Corp | 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム |
JP2007094535A (ja) * | 2005-09-27 | 2007-04-12 | Konica Minolta Photo Imaging Inc | 認証システム及び認証方法 |
JP2007128195A (ja) * | 2005-11-02 | 2007-05-24 | Sony Corp | 画像処理システム |
JP2008171108A (ja) * | 2007-01-10 | 2008-07-24 | Matsushita Electric Ind Co Ltd | 顔状況判定処理装置および撮像装置 |
JP2009140423A (ja) * | 2007-12-10 | 2009-06-25 | Panasonic Electric Works Co Ltd | 顔中心線検出装置 |
JP2014191376A (ja) * | 2013-03-26 | 2014-10-06 | Nohmi Bosai Ltd | 煙検出装置および煙検出方法 |
CN110020582A (zh) * | 2018-12-10 | 2019-07-16 | 平安科技(深圳)有限公司 | 基于深度学习的人脸情绪识别方法、装置、设备及介质 |
-
2003
- 2003-09-09 JP JP2003316594A patent/JP2005084979A/ja not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005108195A (ja) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | 対象物識別装置および方法並びにプログラム |
JP4510556B2 (ja) * | 2003-09-09 | 2010-07-28 | 富士フイルム株式会社 | 対象物識別装置および方法並びにプログラム |
JP2006338082A (ja) * | 2005-05-31 | 2006-12-14 | Sony Corp | 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム |
JP4596253B2 (ja) * | 2005-05-31 | 2010-12-08 | ソニー株式会社 | 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム |
JP2007094535A (ja) * | 2005-09-27 | 2007-04-12 | Konica Minolta Photo Imaging Inc | 認証システム及び認証方法 |
JP2007128195A (ja) * | 2005-11-02 | 2007-05-24 | Sony Corp | 画像処理システム |
JP4618098B2 (ja) * | 2005-11-02 | 2011-01-26 | ソニー株式会社 | 画像処理システム |
JP2008171108A (ja) * | 2007-01-10 | 2008-07-24 | Matsushita Electric Ind Co Ltd | 顔状況判定処理装置および撮像装置 |
JP2009140423A (ja) * | 2007-12-10 | 2009-06-25 | Panasonic Electric Works Co Ltd | 顔中心線検出装置 |
JP2014191376A (ja) * | 2013-03-26 | 2014-10-06 | Nohmi Bosai Ltd | 煙検出装置および煙検出方法 |
CN110020582A (zh) * | 2018-12-10 | 2019-07-16 | 平安科技(深圳)有限公司 | 基于深度学习的人脸情绪识别方法、装置、设备及介质 |
CN110020582B (zh) * | 2018-12-10 | 2023-11-24 | 平安科技(深圳)有限公司 | 基于深度学习的人脸情绪识别方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4406547B2 (ja) | Idカード作成装置、idカード、顔認証端末装置、顔認証装置およびシステム | |
US9785823B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
JP4156430B2 (ja) | データベース自動更新方法を用いた顔検証方法及びそのシステム | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证***及其方法 | |
US8320642B2 (en) | Face collation apparatus | |
JP4699139B2 (ja) | セキュリティシステム | |
JP5010905B2 (ja) | 顔認証装置 | |
WO2019127262A1 (zh) | 基于云端的人脸活体检测方法、电子设备和程序产品 | |
US7542591B2 (en) | Target object detecting method, apparatus, and program | |
JP4351982B2 (ja) | 個人認証方法、装置及びプログラム | |
US8254644B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
US20050196069A1 (en) | Method, apparatus, and program for trimming images | |
JPH09251534A (ja) | 人物認証装置及び人物認証方法 | |
US7433498B2 (en) | Apparatus, method and program for generating photo card data | |
JP4619762B2 (ja) | 画像処理方法および装置並びにプログラム | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
JP2005084979A (ja) | 顔認証システムおよび方法並びにプログラム | |
EP3958208A1 (en) | Image processing device, image processing method, and image processing program | |
JP4510562B2 (ja) | 円中心位置検出方法および装置並びにプログラム | |
CN115019364A (zh) | 基于人脸识别的身份认证方法、装置、电子设备及介质 | |
US11842573B1 (en) | Methods and systems for enhancing liveness detection of image data | |
Dixit et al. | SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People) | |
JP2005108196A (ja) | 対象物識別装置および方法並びにプログラム | |
JP2005141678A (ja) | 顔画像照合システム及びicカード | |
CN114880636A (zh) | 基于人脸识别的身份验证方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20061205 |