JP6403233B2 - ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体 - Google Patents

ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体 Download PDF

Info

Publication number
JP6403233B2
JP6403233B2 JP2016567809A JP2016567809A JP6403233B2 JP 6403233 B2 JP6403233 B2 JP 6403233B2 JP 2016567809 A JP2016567809 A JP 2016567809A JP 2016567809 A JP2016567809 A JP 2016567809A JP 6403233 B2 JP6403233 B2 JP 6403233B2
Authority
JP
Japan
Prior art keywords
frame image
face
area
image
user authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016567809A
Other languages
English (en)
Other versions
JP2017522635A (ja
Inventor
ホ キム,
ホ キム,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2017522635A publication Critical patent/JP2017522635A/ja
Application granted granted Critical
Publication of JP6403233B2 publication Critical patent/JP6403233B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体に関する。
顔認識技術は、他の生体認証とは異なり、ユーザーの特別な動作や行為なく、非接触で抵抗感なく自然に認識を行うことができるという利点を持っており、ユーザーにとって最も優れた生体認証技術であるといえる。
このような顔認識技術の応用が様々な分野に拡大しつつあり、一例としてセキュリティ認証分野で注目を集めている。
顔認識をセキュリティ認証に適用すると、パスワード入力やその他の付加的な認証媒体を使用せずに、カメラだけ凝視することで自動認証が可能であり、パスワードや認証媒体の偽造、盗難、紛失によるユーザーの個人情報違法流出を防止することができる。
たとえば、Webログイン時にユーザーがIDとパスワードを無限共有することを防ぎ、Web管理者の立場で発生する損失を最小限に抑えることができるなど、有用な点が多い。この他にも、PCログインやスマートフォンのロック解除、E−Learningなどの様々な認証分野に適用することができる。
しかし、顔の回転、表情、照明、老化に伴う認識率の変化は、顔認識技術で普遍的に現れる弱点であって、これによる誤り率を最小化することが問題となっている。
特に、顔認識における他人受入率(FAR:False Accept Rate)を減らすことは、顔認識を認証分野に適用する上で最も重要な問題の一つである。
これに対する解決策として、顔認識性能を持続的に向上させる一方、顔認識と他の認証方式とを組み合わせることが一つの方案になれる。こうすると、認識誤りにより他人が受け入れられて顔認識認証を通過されたとしても、2重のセキュリティ過程を経るので、ほぼ完璧に近いセキュリティ認証を実現することができるのである。
ところが、顔認識と従来の認証方式(パスワード、USB認証)とを組み合わせると、セキュリティ強度は高めることができるが、ユーザーの立場では、依然として、既存の認証方式の制限性が存在して顔認識の長所をうまく生かすことができないという不具合がある。
よって、顔認識の長所をそのまま生かしながらも、顔認識と組み合わせて認証誤り率を最小化することができる技術の開発が求められている。
本発明は、入力された画像に含まれているユーザーの顔に基づく認証と、顔領域に含まれている瞬き状態に応じて認識されるパスワード認証とを組み合わせて、ユーザー認証の利便性及び正確性を同時に提供するように構成されたユーザー認証方法、並びにこれを実行する装置及びこれを保存した記録媒体を提供することを目的とする。
また、本発明は、フレーム画像間の差を用いてフレーム画像間の変化領域を抽出し、変化領域でのみ顔検出を行うことにより、各フレーム画像ごとに対して領域全体で顔検出演算を行わなくてもよいため、各フレーム画像ごとに対する顔検出速度を改善することができるようにするユーザー認証方法、並びにこれを実行する装置及びこれを保存した記録媒体を提供することを目的とする。
また、本発明は、変化領域に対するイメージピラミッドを構成した後、イメージピラミッド上のそれぞれのイメージを分散処理して顔領域をそれぞれ検出し、その結果を総合して最終的に顔領域を検出することにより、顔領域の検出に対する正確性を高めることができるようにするユーザー認証方法、これを実行する装置及びこれを保存した記録媒体を提供することを目的とする。
本発明が解決しようとする課題は上述した課題に制限されず、上述していない別の課題は以降の記載から本発明の属する技術分野における通常の知識を有する者に明確に理解できるであろう。
本発明のある観点によれば、画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する段階と;前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する段階と;前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとの一致か否かを確認するパスワード認証段階と;前記顔認証の結果及び前記パスワード認証の結果に基づいて前記ユーザーの認証が成功したと判断する段階とを含んでなる、ユーザー認証装置で実行されるユーザー認証方法を提供する。
本発明の他の観点によれば、画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する顔領域検出部と;前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する第1認証部と;前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する第2認証部と、前記第1認証部の認証結果及び前記第2認証部の認証結果に基づいて前記ユーザーの認証が成功したと判断する判断部とを含んでなる、ユーザー認証装置を提供する。
本発明の別の観点によれば、画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する機能と;前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する機能と;前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認するパスワード認証機能と;前記顔認証の結果及び前記パスワード認証の結果に基づいて前記ユーザーの認証が成功したと判断する機能と;を含む、ユーザー認証装置で実行されるユーザー認証方法を実行するためのコンピュータプログラムを保存する記録媒体を提供する。
その他の実施形態の具体的な事項は、詳細な説明および添付図面に含まれている。
本発明の利点および/または特徴、そしてそれらを達成する方法は、添付図面と一緒に詳細に後述されている実施形態を参照すると明確になるであろう。ところが、本発明は、以下で開示される実施形態に限定されるものではなく、互いに異なる多様な形態で実現される。但し、本実施形態は、本発明の開示を完全たるものにし、本発明の属する技術分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明は請求項の範疇によって定義されるだけである。明細書全体にわたって、同一参照符号は同一の構成要素を指す。
本発明によれば、入力された画像に含まれているユーザーの顔に基づく認証と、顔領域に含まれている瞬き状態に応じて認識されるパスワード認証とを組み合わせることにより、ユーザー認証の利便性及び正確性を同時に提供するという利点がある。
また、本発明によれば、フレーム画像間の差を用いてフレーム画像間の変化領域を抽出し、変化領域でのみ顔検出を行うことにより、各フレーム画像ごとに対して全領域で顔検出演算を行わなくてもよいため、各フレーム画像ごとに対する顔検出速度を改善することができるという効果がある。このような検出速度の改善は、特に、モバイル機器のように、限られたコンピューティングリソースを持っている端末に適用するときに特に有利である。
また、本発明によれば、変化領域に対するイメージピラミッドを構成した後、イメージピラミッド上のそれぞれのイメージを分散処理して顔領域をそれぞれ検出し、その結果を総合して最終的に顔領域を検出することにより、顔領域の検出に対する正確性を高めることができるという効果がある。
本発明の一実施形態に係るユーザー認証装置を説明するためのブロック図である。 本発明に係るユーザー認証方法の一実施形態を説明するためのフローチャートである。 本発明に係るユーザー認証方法の他の一実施形態を説明するためのフローチャートである。 本発明に係るユーザー認証方法の別の一実施形態を説明するためのフローチャートである。 本発明に係るユーザー認証方法の別の一実施形態を説明するためのフローチャートである。 キーフレーム画像を用いて一般フレーム画像から顔領域を検出する過程を説明するための参照図である。 フレーム画像に対するイメージピラミッドを構成して顔領域を検出する過程を説明するための参照図である。 顔領域を検出するための長方形フィーチャー(feature)(対称型、非対称型)を示す図である。 図8の長方形フィーチャーを用いて顔領域を検出する過程を説明するための参照図である。 顔領域から瞬きを検出する過程を説明するための参照図である。
以下、添付図面を参照して本発明の実施形態を詳細に説明する。
図1は本発明の一実施形態に係るユーザー認証装置を説明するためのブロック図である。
図1を参照すると、ユーザー認証装置100は、顔領域検出部110、第1認証部120、第2認証部130、及び判断部140を含む。
顔領域検出部110は、画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する。顔領域検出部110は、顔領域及び顔特徴点に関する情報を、第1認証部120および/または第2認証部130それぞれに提供する。
顔領域検出部110は、画像撮影機器からフレーム画像を受信すると、フレーム画像から顔領域を検出し、特定のフレーム画像をキーフレーム画像として定義する。
まず、顔領域検出部110は、フレーム画像のピクセルそれぞれに対して、周辺ピクセルのコントラスト値をフィルター係数と線形結合して得た値を、当該ピクセルのコントラスト値として設定して、フレーム画像に含まれているノイズを除去する。
その後、顔領域検出部110は、フレーム画像をダウンスケーリングして、互いに異なるサイズの複数のイメージを生成し、複数のイメージそれぞれから候補顔領域を検出し、候補顔領域中の共通領域を用いて当該フレーム画像から顔領域を検出する。
例えば、顔領域検出部110は、元のフレーム画像から顔領域を検出し、それより小さなスケールに変換されたフレーム画像から顔領域を検出し、また、それより小さいスケールに変換されたフレーム画像から顔領域を検出した後、各スケールごとのフレーム画像から検出された顔領域中の共通領域を当該フレームにおける顔領域として検出することができる。このような方式はイメージピラミッド技法として理解できる。
この際、顔領域検出部110は、長方形フィーチャー(または四角特徴点モデル)を用いて、フレーム画像の複数のイメージそれぞれから顔領域と顔特徴点(例えば、目)を検出することができる。長方形フィーチャー(または四角特徴点モデル)を用いた顔領域と顔特徴点(例えば、目)の詳細は図8及び図9を参照してより具体的に後述する。
顔領域検出部110は、フレーム画像のフレーム番号を特定の数値で割ったときに余りがなければ、フレーム画像をキーフレーム画像として定義することができる。例えば、顔領域検出部110は、15番ごとにキーフレームが更新されるようにするために、フレーム番号を15で割ったときに余りがなければ、フレーム画像をキーフレーム画像として定義するようにすることができる。
顔領域検出部110は、キーフレームを定義した後、一般フレーム画像を受信し、キーフレーム画像を基準に一般フレーム画像から変化領域を抽出し、変化領域を用いて一般フレーム画像から顔領域を検出する。
まず、顔領域検出部110は、キーフレーム画像と一般フレーム画像とを比較して、フレーム間の差異情報を含む差異フレーム画像を生成し、差異フレーム画像に対する閾値化及びフィルタリングを行って差異フレーム画像に対する2進フレーム画像を生成する。
より具体的には、顔領域検出部110は、差異フレーム画像のピクセルそれぞれに対して、ピクセルのコントラスト値と閾値とを比較し、ピクセルのコントラスト値が閾値以上であれば、当該ピクセルを255、すなわち白色に変換し、ピクセルのコントラスト値が閾値以下であれば、当該ピクセルを0、すなわち黒色に変換して2進フレーム画像を生成する。前記閾値はユーザー認証装置100に予め保存されているものでありうる。
顔領域検出部110は、2進フレーム画像にフィルターを適用してノイズを除去する。例えば、顔領域検出部110は、2進フレーム画像のノイズに該当するピクセルのコントラスト値を周辺ピクセルの中央値で置換してノイズを除去することができる。このようなフィルターは一種のメジアン(Median)フィルターとして理解できる。
次に、顔領域検出部110は、2進フレーム画像を用いて一般フレーム画像から顔検出領域を決定する。より具体的には、顔領域検出部110は、前記2進フレーム画像から、白色ピクセルを含む長方形領域を抽出し、前記それぞれの長方形領域を含む最終の長方形領域を顔検出領域として決定することができる。「顔検出領域」は、別の観点から顔検出のためのフレーム間の「変化領域」の概念として理解されることもある。
最後に、顔領域検出部110は顔検出領域から顔領域を検出する。より具体的に、顔領域検出部110は、顔検出領域をダウンスケーリングして、互いに異なるサイズの複数のイメージを生成し、複数のイメージそれぞれから候補顔領域を検出した後、候補顔領域中の共通領域を用いて当該フレーム画像から顔領域を検出することができる。
このとき、顔領域検出部110は、長方形フィーチャーを用いてフレーム画像の複数のイメージそれぞれから顔領域と顔特徴点(例えば、目、鼻、口など)を検出することができる。長方形フィーチャーを用いた顔領域と顔特徴点検出の詳細については、図8及び図9に基づいてより具体的に後述する。
第1認証部120は、顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する。一実施形態において、第1認証部120は、顔領域のバイナリー特徴量と既に保存された特定の顔テンプレートのバイナリー特徴量とを比較して類似度を算出し、算出された類似度に応じて前記顔認証の結果を判断部140に提供する。既に保存された特定の顔テンプレートは、認証が必要なユーザーの顔テンプレートであって、ユーザー認証装置100に予め保存されたものでありうる。顔領域と特定の顔テンプレートとの「マッチング」は、上述した顔領域のバイナリー特徴量と既に保存された特定の顔テンプレートのバイナリー特徴量とを比較して類似度を算出するのと同じ意味で理解できる。
第2認証部130は、顔領域における目領域を用いて瞬きか否かを検出し、瞬き状態に応じて認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する。第2認証部130は、瞬き状態に応じて認識されたパスワードと既に設定されたパスワードとが一致するか否かを判断部140に提供する。
第2認証部130は、顔特徴点を用いて前記顔領域から目領域を抽出し、前記目領域のピクセル値を用いて特定次元のピクセルベクトルを生成し、PCA(Principal Component Analysis)を適用して前記ピクセルベクトルの次元数を縮小し、前記縮小された次元数のピクセルベクトルにSVM(Support Vector Machine)を適用して瞬きか否かを検出することができる。
第2認証部130は、瞬き状態に応じて認識されたパスワードを抽出する。例えば、第2認証部130は、左眼のみ瞬いた場合には0、右眼のみ瞬いた場合には1、両眼を同時に瞬いた場合には2としてそれぞれ認識されるように予め認識基準が設定され、これに基づいて画像を通じて入力されたパスワードを抽出した後、ユーザー認証装置100に予め設定及び保存されたパスワードと一致するか否かを判断することができる。
判断部140は、第1認証部120の認証結果及び第2認証部130の認証結果に基づいてユーザーの認証が成功したと判断することができる。たとえば、前記顔認証の結果及び前記パスワード認証の結果がすべて認証成功と判断された場合には、ユーザー認証が成功したと判断することができる。
以下、図2〜図5を参照してユーザー認証方法について説明する。後述するユーザー認証方法は、前述したユーザー認証装置100で行われるため、互いに相応する内容については重複して説明しないが、当業者は前述した記載から本発明に係るユーザー認証方法の一実施形態を理解することができる。
図2は本発明に係るユーザー認証方法の一実施形態を説明するためのフローチャートである。図2に示されている一実施形態は、ユーザーの画像データを受信して顔認証及びパスワード認証を介してユーザー認証を実行することができる実施形態に関するものである。
図2を参照すると、ユーザー認証装置100は、画像撮影機器からユーザーの画像データを受信する(段階S210)。ユーザー認証装置100は、フレーム画像中のキーフレーム画像と一般フレーム画像を用いて顔領域を検出する(段階S220)。
ユーザー認証装置100は、顔領域中の目領域を用いて瞬きか否かを検出し、瞬き状態に応じて認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する(段階S230)。
段階S230に対する一実施形態において、ユーザー認証装置100は、顔特徴点を用いて前記顔領域から目領域を検出し、目領域のピクセル値を用いて特定次元のピクセルベクトルを生成し、前記ピクセルベクターを用いて瞬きか否かを検出する。その後、予め設定した基準に基づいて、瞬き状態に応じて認識されたパスワードを抽出する。一例として、前記予め設定した基準は、左眼の瞬き状態、右眼の瞬き状態、及び両眼の同時瞬き状態のうち少なくとも一つの状態に基づく。前記瞬き状態は、瞬き順序、瞬き回数、目の開または閉状態の維持時間、並びに左眼及び右眼の瞬きの組み合わせのうち少なくとも一つを含む。
例えば、第2認証部130は、左眼のみ瞬いた場合には0、右眼のみ瞬いた場合には1、両眼を同時に瞬いた場合には2と予め設定した基準に基づいてパスワードを認識した後、既に設定されたパスワードと一致するか否かを判断することができる。
パスワードは瞬き状態に応じて設定または認識できる。例えば、左眼のみ瞬いたときは0、右眼のみ瞬いたときは1、両眼を同時に瞬いたときは2とする場合、ユーザー認証装置100は、左眼、右眼、左眼、両眼の順に瞬いてパスワードを「0102」と決定することができる。パスワードの桁数は設定によって変更でき、特定のユーザーに対するパスワードは予め設定及び保存できる。
ユーザー認証装置100は、顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する(段階S240)。
ユーザー認証装置100は、段階S240で実行された顔認証に成功し(段階S241)、段階S230で実行されたパスワード認証に成功すると(段階S231)、ユーザーの認証が成功したと判断する。
図3は本発明に係るユーザー認証方法の他の一実施形態を説明するためのフローチャートである。図3に示されている他の一実施形態は、ユーザーの画像データのそれぞれのフレーム画像のうち、特定のフレーム画像を処理してキーフレーム画像として決定し、キーフレーム画像を用いて、次に入力される一般フレーム画像の顔領域を検出することができる実施形態に関するものである。
図3を参照すると、ユーザー認証装置100は、第0フレーム画像(1番目のフレーム画像)を受信する(段階S310)。ユーザー認証装置100は、第0フレーム画像から顔領域を検出する(段階S320)。また、第0フレーム画像を最初のキーフレーム画像として保存する。
その後、ユーザー認証装置100は、入力されるフレーム画像のフレーム番号を特定の数値(例えば、15)で割ったときに余りがないと判断されると(段階S330)、当該フレーム画像をキーフレーム画像に更新保存する(段階S340)。たとえば、ユーザー認証装置100は、15番ごとにキーフレームが更新されるようにするために、フレーム番号を15で割ったときに余りがなければ、フレーム画像をキーフレーム画像として定義するようにすることができる。例えば、第0、15、30、45、・・・フレーム画像がキーフレーム画像として定義できる。例えば、第0フレーム画像の場合、0/15の余りが0であるので、キーフレームとして保存でき、その次の順序である第1フレーム画像の場合、1/15の余りが0ではないので、一般フレーム画像として処理される。このような処理過程を経て、第15フレーム画像の場合、15/15の余りが0であるので、新しいキーフレームとして保存できる。上記の説明において、第0、第1などの順序は、キーフレームを更新するための過程で付与される便宜上の順序であり、同じ結果を導出することができれば他の方式の順序または順番が付与されてもよい。
ユーザー認証装置100は第1フレーム画像を受信する(段階S350)。ユーザー認証装置100は、キーフレーム画像を用いて第1フレーム画像から顔領域を検出する(段階S360)。ユーザー認証装置100は、すべてのフレーム画像が受信された場合(段階S370)には終了する。
図4は本発明に係るユーザー認証方法の別の一実施形態を説明するためのフローチャートである。図4に示されている別の一実施形態は、ユーザーの画像データのそれぞれのフレーム画像のうち、例えば、一番目に入力される一般フレーム画像を処理して当該フレーム画像をキーフレーム画像として保存することができる実施形態に関するものである。
図4を参照すると、ユーザー認証装置100は、画像データのそれぞれのフレーム画像のうち、一番目の一般フレーム画像を受信する(段階S410)。
ユーザー認証装置100は、一般フレーム画像にフィルターを適用してノイズを除去する(段階S420)。段階S420に対する一実施形態において、ユーザー認証装置100は、一般フレーム画像のピクセルそれぞれに対して周辺ピクセルのコントラスト値をフィルター係数と線形結合して得た値を、当該ピクセルのコントラスト値として設定することで、ノイズを除去することができる。このような過程は下記[数式1]のとおりである。

(但し、x:フレーム番号、i:ピクセル番号、c:フィルター係数)
ユーザー認証装置100は、一般フレーム画像に対するイメージピラミッドを構成する(段階S430)。より具体的に、ユーザーの認証装置100は、一般フレーム画像をダウンスケーリングして、互いに異なるサイズの複数のイメージを生成する。
ユーザー認証装置100は、一般フレーム画像に対するイメージピラミッドを用いて当該フレーム画像から顔領域を検出する(段階S440)。段階S440に対する一実施形態において、ユーザー認証装置100は、一般フレーム画像をダウンスケーリングして生成した互いに異なるサイズの複数のイメージそれぞれから候補顔領域を検出し、候補顔領域中の共通領域を用いて一般フレーム画像から顔領域として検出することができる。
このとき、ユーザー認証装置100は、長方形フィーチャーを用いて複数のイメージそれぞれから顔領域と顔特徴点(例えば、目、鼻、口など)を検出することができる。
ユーザー認証装置100は、一般フレーム画像をキーフレーム画像として保存する(段階S450)。たとえば、キーフレーム画像のデータは顔検出データとイメージデータを含む。顔検出データは顔領域属性及び顔特徴点位置属性を含み、イメージデータはカラーモデル属性およびピクセルデータ属性を含む。キーフレーム画像データをXML形式で例示すると、次の例示コードのとおりである。
[例示コード]
<key_frame_datanumber =“フレーム番号”>
- <detection_data>
<face_rect first = “左上座標” last = “右下座標” />
<landmarks left_eye = “左眼座標” right_eye = “右眼座標” ... ... />
</ detection_data>
- <image_data>
<color_model = “gray” />
<pixel_data = “” />
</ image_data>
</ key_frame_data>
[例示コード]の<image_data>には、キーフレーム画像のイメージピクセルデータであるカラーモデル属性<color_model = “gray” />及びピクセルデータ属性<pixel_data = “” />を含む。イメージピクセルデータは一般フレーム画像から顔検出領域を抽出することに使用される。
図5は本発明に係るユーザー認証方法の別の一実施形態を説明するためのフローチャートである。図5に示されている別の一実施形態は、ユーザーの画像データのそれぞれのフレーム画像のうちのキーフレーム画像を用いて、一般フレーム画像から顔領域を検出することができる実施形態に関するものである。
図5を参照すると、ユーザー認証装置100は、キーフレーム画像と一般フレーム画像とを比較して、フレーム間の差異情報を含む差異フレーム画像を生成する(段階S510)。
ユーザー認証装置100は、差異フレーム画像に対する閾値化を実行して2進フレーム画像を生成する(段階S520)。段階S520に対する一実施形態において、ユーザー認証装置100は、差異フレーム画像のピクセルそれぞれに対して、ピクセルのコントラスト値と閾値とを比較し、ピクセルのコントラスト値が閾値以上であれば、当該ピクセルを255、すなわち白色に変換し、ピクセルのコントラスト値が閾値以下であれば、当該ピクセルを0、すなわち黒色に変換して2進フレーム画像を生成する。
ユーザー認証装置100は、2進フレーム画像にフィルターを適用してノイズを除去する段階(S530)。段階S530に対する一実施形態において、ユーザー認証装置100は、2進フレーム画像のノイズに該当するピクセルのコントラスト値を周辺ピクセルの中央値で置換してノイズを除去することができる。
ユーザー認証装置100は、2進フレーム画像を用いて一般フレーム画像から顔検出領域を決定する(段階S540)。段階S540に対する一実施形態において、ユーザー認証装置100は、2進フレーム画像から、白色ピクセルを含む長方形領域を抽出し、前記それぞれの長方形領域を含む最終の長方形領域を顔検出領域として決定することができる。
ユーザー認証装置100は、顔検出領域に対するイメージピラミッドを構成する(段階S550)。段階S550に対する一実施形態において、ユーザー認証装置100は、顔検出領域をダウンスケーリングして、互いに異なるサイズの複数のイメージを生成してイメージピラミッドを構成する。
ユーザー認証装置100は、顔検出領域に対するイメージピラミッドを用いて当該フレーム画像から顔領域を検出する(段階S560)。
段階S560に対する一実施形態において、複数のイメージそれぞれから候補顔領域を検出し、検出された候補の顔領域中の共通領域を用いて顔領域を検出することができる。このとき、ユーザー認証装置100は、長方形フィーチャーを用いて複数のイメージそれぞれから顔領域と顔特徴点(例えば、目、鼻、口など)を検出することができる。
図6はキーフレーム画像を用いて一般フレーム画像から顔領域を検出する過程を説明するための参照図である。
図6を参照すると、ユーザー認証装置100は、図6(a)のキーフレーム画像及び図6(b)の一般フレーム画像とを比較して、図6(c)に示すようにフレーム間の差異情報のみを含む差異フレーム画像を生成する。
ユーザー認証装置100は、図6(c)の差異フレーム画像に対する閾値化及びメジアンフィルタリングを実行して、図6(d)のような2進フレーム画像を生成する。
一実施形態において、ユーザー認証装置100は、図6(c)の差異フレーム画像のピクセルそれぞれに対してピクセルのコントラスト値と閾値とを比較し、ピクセルのコントラスト値が閾値以上であれば、当該ピクセルを255、すなわち白色に変換し、ピクセルのコントラスト値が閾値以下であれば、当該ピクセルを0、すなわち黒色に変換して閾値化を実行することができる。
ユーザー認証装置100は、図6(d)の2進フレーム画像を用いて一般フレーム画像から顔検出領域を決定する(段階S540)。
一実施形態において、ユーザー認証装置100は、図6(d)の2進フレーム画像から白色ピクセルを含む長方形領域を抽出し、前記それぞれの長方形領域を含む最終の長方形領域を顔検出領域として決定する。すなわち、ユーザー認証装置100は、図6(e)に示すように、一般フレーム画像から顔検出領域(変化領域)を決定することができる。
ユーザー認証装置100は、図6(e)の顔検出領域から図6(f)の如く顔領域を検出する。
図7はフレーム画像に対するイメージピラミッドを構成して顔領域を検出する過程を説明するための参照図である。
図7を参照すると、ユーザー認証装置100は、一般フレーム画像に対してダウンスケーリングを実行して、図7(a)のような互いに異なるサイズの複数のイメージを生成する。ユーザー認証装置100は、図7(a)のような互いに異なるサイズの複数のイメージそれぞれから候補顔領域を検出する。ユーザー認証装置100は、複数のイメージそれぞれから検出された候補顔領域中の共通領域を用いて、図7(b)の如く顔領域を検出することができる。
一方、キーフレーム画像と一般フレーム画像とのフレーム差異画像を用いて一般フレーム画像から顔領域を検出するとき、ユーザー認証装置100は、一般フレーム画像から顔検出領域を検出し、顔検出領域に対してダウンスケーリングを実行して、図7(a)のような互いに異なるサイズの複数のイメージを生成する。
ユーザー認証装置100は、図7(a)のような互いに異なるサイズの複数のイメージそれぞれから候補顔領域を検出する。ユーザー認証装置100は、複数のイメージそれぞれから検出された候補顔領域中の共通領域を用いて、図7(b)の如く顔領域を検出することができる。
図8は顔領域を検出するための長方形フィーチャー(対称型、非対称型)を示す図である。図9は図8の長方形フィーチャーを用いて顔領域を検出する過程を説明するための参照図である。図8または図9に例示されている長方形は、顔領域検出のためのフィーチャーとして理解でき、正面顔領域の特徴をよく反映している対称的な性質を持つhaar−likeフィーチャー(haar−like feature)(a)と、非正面顔領域の特徴を反映して提案された非対称性の長方形フィーチャー(b)としてさらに理解できる。
図8及び図9を参照すると、ユーザー認証装置(図1)100は、画像撮影機器(図1)200から画像データのそれぞれのフレームのうち特定のフレームを受信すると、特定のフレームから顔領域及び顔特徴点(例えば、目、鼻、口など)を検出する。
一実施形態において、ユーザー認証装置(図1)100の顔領域検出部110は、画像データのそれぞれのフレームから顔候補領域を検出し、前記検出された顔候補領域に対する長方形フィーチャー(または四角特徴点モデル)を定義し、前記長方形フィーチャーをAdaBoost学習アルゴリズムによって学習させた学習資料に基づいて顔領域を検出するが、長方形の形で顔領域を検出することができる。また、顔領域検出部110は、検出された顔領域に含まれている顔特徴点を検出することができる。
一般に、正面顔領域を含むフレームには、目、鼻、口のように顔の固有の構造的特性が画像全体に等しく分布しており、対称的である。しかし、非正面顔領域を含むフレームには、目、鼻、口のように顔の固有の構造的特性が画像に等しく分布していないため、対称的ではなく、狭い範囲に密集しており、顔の輪郭が直線ではないので背景領域が多く混ぜられている。
したがって、図8(a)の如く対称的なフィーチャーを用いれば、非正面顔領域に対する高い検出性能を得ることが難しいおそれがあることをさらに考慮し、本実施形態では、さらに好ましくは図8(a)の如く対称的なフィーチャーだけでなく、図8(b)の如く非対称的なフィーチャーを使用する。図8(b)の如く非対称的なフィーチャーは、図8(a)の如く対称的なフィーチャーとは異なり、非対称的な形態、構造、模様で構成され、非正面顔の構造的特性をよく反映しており、非正面顔領域に対する検出効果に優れている。すなわち、図8(a)の如く対称的なフィーチャーを用いて図9の(a)の如くフレームから顔領域を検出することができ、図8(b)の如く非対称的なフィーチャーを用いて図9(b)の如くフレームから顔領域を検出することができる。
このような顔領域検出及び顔特徴点検出は、多数の公知の技法を用いて実現することができる。一例として、顔領域検出及び顔特徴点検出は、AdaBoost学習アルゴリズムとASM(Active Shape Model)を用いて実現することができる。別の例として、顔領域検出及び顔特徴点検出は、本発明者が提案したことのある韓国登録特許第10−1216123号(2012年12月20日登録)、韓国登録特許第10−1216115号(2012年12月20日登録)を含む多数の論文及び特許資料に詳細に記載されているので、その詳細については省略する。
図10は顔領域から瞬きを検出する過程を説明するための参照図である。
図10を参照すると、ユーザー認証装置100は、顔領域10から顔特徴点のうち、例えば目領域周囲の4つの特徴点を用いて目領域を検出する。このとき、目領域のイメージは、例えば、ビットマップにクロップ(crop)して回転補正を行った後、20*20ピクセルサイズの白黒イメージ20に変換する。ユーザー認証装置100は、目領域の白黒イメージ20に対するヒストグラム正規化を行う。ユーザー認証装置100は、目領域の白黒イメージ20のピクセル値(20*20)を用いて例えば400次元のピクセルベクトルを生成する。
ユーザー認証装置100は、400次元のピクセルベクトルにPCA(主成分分析、Principal Component Analysis)30を適用して200次元の縮小された次元数のピクセルベクトルを取得し、縮小されたピクセルベクトルをSVM(Support Vector Machine)40に入力する。このように主成分分析を用いてSVM40の入力データの次元数を縮小すると、SVM40による識別速度を高め、サポートベクトルと結合係数を始めとするデータベースの大きさを大幅減らすことができる。ユーザー認証装置100は、例えば200次元の縮小された入力ベクトルを構成し、SVM40の判別関数によって瞬きか否かを検出することができる。
本発明の実施形態は、様々なコンピュータで実現される動作を行うためのコンピュータプログラム命令を含むコンピュータ可読媒体を含む。前記コンピュータ可読媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記媒体は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェアの当業者に公知になって使用可能なものであってもよい。コンピュータ可読記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープなどの磁気媒体、CD−ROM、DVD、USBドライブなどの光記録媒体、フロプティカルディスクなどの磁気−光媒体、およびROM、RAM、フラッシュメモリなどのプログラム命令を保存および実行するように特別に構成されたハードウェアデバイスが含まれる。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行できる高級言語コードを含む。
以上のように、本発明は、たとえ限定された実施形態と図面によって説明されたが、本発明は、上述した実施形態に限定されるものではなく、これは、本発明の属する分野における通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。よって、本発明の思想は添付された特許請求の範囲のみによって把握されるべきであり、それらの均等または等価的変形も本発明の思想の範疇に属するといえる。
[発明の項目]
[項目1]
ユーザー認証装置で実行されるユーザー認証方法において、
画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する段階と、
前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する段階と、
前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認するパスワード認証段階と、
前記顔認証の結果及び前記パスワード認証の結果に基づいて前記ユーザーの認証が成功したと判断する段階と
を含んでなる、ユーザー認証方法。
[項目2]
前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する段階は、
前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義する段階と、
前記キーフレーム画像を基準に一般フレーム画像から変化領域を抽出し、前記変化領域を用いて前記一般フレーム画像から顔領域を検出する段階と
を含む、項目1に記載のユーザー認証方法。
[項目3]
前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義する段階は、前記特定のフレーム画像のピクセルそれぞれに対して周辺ピクセルのコントラスト値をフィルター係数と線形結合して得た値を当該ピクセルのコントラスト値として設定して、前記特定のフレーム画像に含まれているノイズを除去する段階を含むことを特徴とする、項目2に記載のユーザー認証方法。
[項目4]
前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義する段階は、前記特定のフレーム画像のフレーム番号を特定の数値で割ったときに余りがなければ、前記特定のフレーム画像をキーフレーム画像として決定する段階を含むことを特徴とする、項目2に記載のユーザー認証方法。
[項目5]
前記キーフレーム画像を基準に前記一般フレーム画像から変化領域を抽出し、前記変化領域を用いて前記一般フレーム画像から顔領域を検出する段階は、
前記キーフレーム画像と前記一般フレーム画像とを比較して、フレーム間の差異情報を含む差異フレーム画像を生成する段階と、
前記差異フレーム画像に対する閾値化を実行して前記差異フレーム画像に対する2進フレーム画像を生成する段階と、
前記2進フレーム画像にフィルターを適用してノイズを除去する段階と、
前記2進フレーム画像を用いて前記一般フレーム画像の中から顔検出領域を決定する段階と、
前記顔検出領域から顔領域を検出する段階と
を含むことを特徴とする、項目2に記載のユーザー認証方法。
[項目6]
前記差異フレーム画像に対する閾値化を実行して前記差異フレーム画像に対する2進フレーム画像を生成する段階は、
前記差異フレーム画像のピクセルそれぞれに対してピクセルのコントラスト値と閾値とを比較する段階と、
前記ピクセルのコントラスト値が閾値以上であれば、当該ピクセルを白色に変換する段階と、
前記ピクセルのコントラスト値が閾値以下であれば、当該ピクセルを黒色に変換する段階と
を含むことを特徴とする、項目5に記載のユーザー認証方法。
[項目7]
前記2進フレーム画像にフィルターを適用してノイズを除去する段階は、
前記2進フレーム画像のノイズに該当するピクセルのコントラスト値を周辺ピクセルのコントラスト値の中央値で置換する段階を含むことを特徴とする、項目6に記載のユーザー認証方法。
[項目8]
前記2進フレーム画像を用いて前記一般フレーム画像の中から顔検出領域を決定する段階は、
前記2進フレーム画像から、白色ピクセルを含む長方形領域を抽出する段階と、
前記それぞれの長方形領域を含む最終の長方形領域を顔検出領域として決定する段階と
を含むことを特徴とする、項目6に記載のユーザー認証方法。
[項目9]
前記顔検出領域から顔領域を検出する段階は、
前記顔検出領域をダウンスケーリングして、互いに異なるサイズの複数のイメージを生成する段階と、
前記複数のイメージそれぞれから候補顔領域を検出する段階と、
前記複数のイメージそれぞれから検出された候補顔領域中の共通領域を用いて当該フレーム画像の顔領域を検出する段階と
を含むことを特徴とする、項目5に記載のユーザー認証方法。
[項目10]
前記顔検出領域から顔領域を検出する段階は、
前記複数のイメージそれぞれから顔候補領域を検出し、前記検出された顔候補領域に対する長方形フィーチャーを定義し、前記長方形フィーチャーをAdaBoost学習アルゴリズムによって学習させた学習資料に基づいて顔領域を検出する段階と、
前記検出された顔領域からASM(Active Shape Model)技法に基づいて顔特徴点を検出する段階と
を含むことを特徴とする、項目9に記載のユーザー認証方法。
[項目11]
前記顔認証を実行する段階は、
前記顔領域のバイナリー特徴量と既に保存された特定の顔テンプレートのバイナリー特徴量とを比較して類似度を算出し、前記算出された類似度に基づいて前記顔認証の結果を出力する段階を含むことを特徴とする、項目1に記載のユーザー認証方法。
[項目12]
前記顔特徴点を用いて抽出した目領域のイメージを用いて瞬きか否かを検出し、前記瞬き状態に応じて認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する段階は、
顔特徴点を用いて前記顔領域から目領域を抽出する段階と、
前記目領域のピクセル値を用いて特定次元のピクセルベクトルを生成する段階と、
PCA(Principal Component Analysis)を適用して前記ピクセルベクトルの次元数を縮小する段階と、
前記縮小された次元数のピクセルベクトルにSVM(Support Vector Machine)を適用して瞬きか否かを検出する段階と
を含むことを特徴とする、項目1に記載のユーザー認証方法。
[項目13]
前記予め設定した基準は、左眼の瞬き状態、右眼の瞬き状態、および両眼の同時瞬き状態のうち少なくとも一つの状態に基づいており、
前記瞬き状態は、瞬きの順序、瞬き回数、目の開または閉状態の維持時間、並びに左眼および右眼の瞬きの組み合わせのうち少なくとも一つを含むことを特徴とする、項目1に記載のユーザー認証方法。
[項目14]
画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する顔領域検出部と、
前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する第1認証部と、
前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する第2認証部と、
前記第1認証部の認証結果及び前記第2認証部の認証結果に基づいて前記ユーザーの認証が成功したと判断する判断部と
を含んでなる、ユーザー認証装置。
[項目15]
ユーザー認証装置で実行されるユーザー認証方法を実行するためのコンピュータプログラムを保存する記録媒体において、
画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する機能と、
前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する機能と、
前記顔特徴点に基づいて抽出した目領域の画像を用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認するパスワード認証機能と、
前記顔認証の結果及び前記パスワード認証の結果に基づいて前記ユーザーの認証が成功したと判断する機能と
を含むことを特徴とする、記録媒体。

Claims (14)

  1. ユーザー認証装置で実行されるユーザー認証方法において、
    画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する段階と、
    前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する段階と、
    前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認するパスワード認証段階と、
    前記顔認証の結果及び前記パスワード認証の結果に基づいて前記ユーザーの認証が成功したと判断する段階と
    を含んで、
    前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する段階は、
    前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義する段階であり、前記キーフレーム画像は、最初のキーフレーム画像を決定しその後入力されるフレーム画像から新しいキーフレーム画像を定義することにより更新される、段階と、
    前記キーフレーム画像を基準に次に入力される一般フレーム画像から変化領域を抽出し、前記変化領域を用いて前記一般フレーム画像から顔領域を検出する段階と
    を含む、ユーザー認証方法。
  2. 前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義する段階は、前記特定のフレーム画像のピクセルそれぞれに対して周辺ピクセルのコントラスト値をフィルター係数と線形結合して得た値を当該ピクセルのコントラスト値として設定して、前記特定のフレーム画像に含まれているノイズを除去する段階を含むことを特徴とする、請求項に記載のユーザー認証方法。
  3. 前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義する段階は、前記特定のフレーム画像のフレーム番号を特定の数値で割ったときに余りがなければ、前記特定のフレーム画像をキーフレーム画像として決定する段階を含むことを特徴とする、請求項に記載のユーザー認証方法。
  4. 前記キーフレーム画像を基準に前記一般フレーム画像から変化領域を抽出し、前記変化領域を用いて前記一般フレーム画像から顔領域を検出する段階は、
    前記キーフレーム画像と前記一般フレーム画像とを比較して、フレーム間の差異情報を含む差異フレーム画像を生成する段階と、
    前記差異フレーム画像に対する閾値化を実行して前記差異フレーム画像に対する2進フレーム画像を生成する段階と、
    前記2進フレーム画像にフィルターを適用してノイズを除去する段階と、
    前記2進フレーム画像を用いて前記一般フレーム画像の中から顔検出領域を決定する段階と、
    前記顔検出領域から顔領域を検出する段階と
    を含むことを特徴とする、請求項に記載のユーザー認証方法。
  5. 前記差異フレーム画像に対する閾値化を実行して前記差異フレーム画像に対する2進フレーム画像を生成する段階は、
    前記差異フレーム画像のピクセルそれぞれに対してピクセルのコントラスト値と閾値とを比較する段階と、
    前記ピクセルのコントラスト値が閾値以上であれば、当該ピクセルを白色に変換する段階と、
    前記ピクセルのコントラスト値が閾値以下であれば、当該ピクセルを黒色に変換する段階と
    を含むことを特徴とする、請求項に記載のユーザー認証方法。
  6. 前記2進フレーム画像にフィルターを適用してノイズを除去する段階は、
    前記2進フレーム画像のノイズに該当するピクセルのコントラスト値を周辺ピクセルのコントラスト値の中央値で置換する段階を含むことを特徴とする、請求項に記載のユーザー認証方法。
  7. 前記2進フレーム画像を用いて前記一般フレーム画像の中から顔検出領域を決定する段階は、
    前記2進フレーム画像から、白色ピクセルを含む長方形領域を抽出する段階と、
    前記それぞれの長方形領域を含む最終の長方形領域を顔検出領域として決定する段階と
    を含むことを特徴とする、請求項に記載のユーザー認証方法。
  8. 前記顔検出領域から顔領域を検出する段階は、
    前記顔検出領域をダウンスケーリングして、互いに異なるサイズの複数のイメージを生成する段階と、
    前記複数のイメージそれぞれから候補顔領域を検出する段階と、
    前記複数のイメージそれぞれから検出された候補顔領域中の共通領域を用いて当該フレーム画像の顔領域を検出する段階と
    を含むことを特徴とする、請求項に記載のユーザー認証方法。
  9. 前記顔検出領域から顔領域を検出する段階は、
    前記複数のイメージそれぞれから顔候補領域を検出し、前記検出された顔候補領域に対する長方形フィーチャーを定義し、前記長方形フィーチャーをAdaBoost学習アルゴリズムによって学習させた学習資料に基づいて顔領域を検出する段階と、
    前記検出された顔領域からASM(Active Shape Model)技法に基づいて顔特徴点を検出する段階と
    を含むことを特徴とする、請求項に記載のユーザー認証方法。
  10. 前記顔認証を実行する段階は、
    前記顔領域のバイナリー特徴量と既に保存された特定の顔テンプレートのバイナリー特徴量とを比較して類似度を算出し、前記算出された類似度に基づいて前記顔認証の結果を出力する段階を含むことを特徴とする、請求項1に記載のユーザー認証方法。
  11. 前記顔特徴点を用いて抽出した目領域のイメージを用いて瞬きか否かを検出し、前記瞬き状態に応じて認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する段階は、
    顔特徴点を用いて前記顔領域から目領域を抽出する段階と、
    前記目領域のピクセル値を用いて特定次元のピクセルベクトルを生成する段階と、
    PCA(Principal Component Analysis)を適用して前記ピクセルベクトルの次元数を縮小する段階と、
    前記縮小された次元数のピクセルベクトルにSVM(Support Vector Machine)を適用して瞬きか否かを検出する段階と
    を含むことを特徴とする、請求項1に記載のユーザー認証方法。
  12. 前記予め設定した基準は、左眼の瞬き状態、右眼の瞬き状態、および両眼の同時瞬き状態のうち少なくとも一つの状態に基づいており、
    前記瞬き状態は、瞬きの順序、瞬き回数、目の開または閉状態の維持時間、並びに左眼および右眼の瞬きの組み合わせのうち少なくとも一つを含むことを特徴とする、請求項1に記載のユーザー認証方法。
  13. 画像撮影機器からユーザーの画像データを受信すると、前記画像データのそれぞれのフレーム画像を用いて顔領域と顔特徴点を検出する顔領域検出部と、
    前記顔領域と特定の顔テンプレートとをマッチングして顔認証を実行する第1認証部と、
    前記顔特徴点に基づいて抽出した目領域のイメージを用いて瞬きか否かを検出し、予め設定した基準に基づいて前記瞬き状態に応じてパスワードを認識し、前記認識されたパスワードと既に設定されたパスワードとが一致するか否かを確認する第2認証部と、
    前記第1認証部の認証結果及び前記第2認証部の認証結果に基づいて前記ユーザーの認証が成功したと判断する判断部と
    を含んで
    前記顔領域検出部は、
    前記フレーム画像のうち特定のフレーム画像から顔領域を検出し、前記特定のフレーム画像をキーフレーム画像として定義し、前記キーフレーム画像は、最初のキーフレーム画像を決定しその後入力されるフレーム画像から新しいキーフレーム画像を定義することにより更新され、
    前記キーフレーム画像を基準に次に入力される一般フレーム画像から変化領域を抽出し、前記変化領域を用いて前記一般フレーム画像から顔領域を検出する
    ように構成されたことを特徴とする、ユーザー認証装置。
  14. 請求項1に記載のユーザー認証方法をコンピュータで実行するためのコンピュータプログラムが記録された、コンピュータ可読記録媒体。
JP2016567809A 2014-05-12 2015-04-22 ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体 Expired - Fee Related JP6403233B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0056802 2014-05-12
KR20140056802A KR101494874B1 (ko) 2014-05-12 2014-05-12 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
PCT/KR2015/004006 WO2015174647A1 (ko) 2014-05-12 2015-04-22 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체

Publications (2)

Publication Number Publication Date
JP2017522635A JP2017522635A (ja) 2017-08-10
JP6403233B2 true JP6403233B2 (ja) 2018-10-10

Family

ID=52594126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567809A Expired - Fee Related JP6403233B2 (ja) 2014-05-12 2015-04-22 ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体

Country Status (6)

Country Link
US (1) US20170076078A1 (ja)
JP (1) JP6403233B2 (ja)
KR (1) KR101494874B1 (ja)
CN (1) CN106663157B (ja)
SG (2) SG11201607280WA (ja)
WO (1) WO2015174647A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104918107B (zh) * 2015-05-29 2018-11-02 小米科技有限责任公司 视频文件的标识处理方法及装置
JP2017004398A (ja) * 2015-06-15 2017-01-05 株式会社セキュア 認証装置及び認証方法
US11044249B2 (en) * 2016-01-08 2021-06-22 Visa International Service Association Secure authentication using biometric input
WO2017123702A1 (en) 2016-01-12 2017-07-20 Princeton Identity, Inc. Systems and methods biometric analysis
US9619723B1 (en) 2016-02-17 2017-04-11 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system of identification and authentication using facial expression
US11386540B2 (en) 2017-03-31 2022-07-12 3M Innovative Properties Company Image based counterfeit detection
US10097538B1 (en) * 2017-08-12 2018-10-09 Growpath, Inc. User authentication systems and methods
KR101812969B1 (ko) 2017-11-06 2018-01-31 주식회사 올아이티탑 인체정보를 이용한 보안 및 해킹 방지기능을 구비하는 디지털 가상화폐의 거래방법
KR101973592B1 (ko) * 2017-12-20 2019-05-08 주식회사 올아이티탑 인체정보를 이용한 보안 및 해킹 방지기능을 구비하는 디지털 가상화폐의 거래방법
KR102021491B1 (ko) * 2018-04-24 2019-09-16 조선대학교산학협력단 사용자 인증을 위한 장치 및 방법
CN109190345A (zh) * 2018-07-25 2019-01-11 深圳点猫科技有限公司 一种基于人工智能验证登录对象的方法及其***
CN111652018B (zh) * 2019-03-30 2023-07-11 上海铼锶信息技术有限公司 一种人脸注册方法和认证方法
US20210248217A1 (en) * 2020-02-08 2021-08-12 Sujay Abhay Phadke User authentication using primary biometric and concealed markers
JP7200965B2 (ja) * 2020-03-25 2023-01-10 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN111597911B (zh) * 2020-04-22 2023-08-29 成都运达科技股份有限公司 一种基于图像特征快速提取关键帧的方法和***
CN111523513B (zh) * 2020-05-09 2023-08-18 深圳市华百安智能技术有限公司 通过大数据筛选进行人员入户安全验证的工作方法
US11792187B2 (en) 2020-08-05 2023-10-17 Bank Of America Corporation Multi-person authentication
US11528269B2 (en) 2020-08-05 2022-12-13 Bank Of America Corporation Application for requesting multi-person authentication
US11792188B2 (en) 2020-08-05 2023-10-17 Bank Of America Corporation Application for confirming multi-person authentication
CN113421079B (zh) * 2021-06-22 2022-06-21 深圳天盘实业有限公司 一种基于共享充电宝租赁柜的借还共享充电宝方法
WO2023073838A1 (ja) * 2021-10-27 2023-05-04 日本電気株式会社 認証装置、認証システム、認証方法、及び非一時的なコンピュータ可読媒体
KR102643277B1 (ko) * 2022-03-10 2024-03-05 주식회사 메사쿠어컴퍼니 얼굴인식을 이용한 비밀번호 입력 방법 및 시스템
KR102636195B1 (ko) * 2022-03-17 2024-02-13 한국기술교육대학교 산학협력단 눈깜빡임 패턴을 이용한 십진 패스워드 입력 장치 및 그 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233816A (ja) * 2002-02-13 2003-08-22 Nippon Signal Co Ltd:The アクセスコントロールシステム
KR100553850B1 (ko) * 2003-07-11 2006-02-24 한국과학기술원 얼굴인식/표정인식 시스템 및 방법
CN101023446B (zh) * 2004-09-17 2010-06-16 三菱电机株式会社 脸部认证装置和脸部认证方法
JP2010182056A (ja) * 2009-02-05 2010-08-19 Fujifilm Corp パスワード入力装置及びパスワード照合システム
KR20120052596A (ko) * 2010-11-16 2012-05-24 엘지이노텍 주식회사 카메라 모듈 및 그의 이미지 처리 방법
KR101242390B1 (ko) * 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
CN106663157B (zh) 2020-02-21
JP2017522635A (ja) 2017-08-10
KR101494874B1 (ko) 2015-02-23
US20170076078A1 (en) 2017-03-16
CN106663157A (zh) 2017-05-10
WO2015174647A1 (ko) 2015-11-19
SG10201805424RA (en) 2018-08-30
SG11201607280WA (en) 2016-10-28

Similar Documents

Publication Publication Date Title
JP6403233B2 (ja) ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体
JP7365445B2 (ja) コンピューティング装置及び方法
US10579872B2 (en) Method and apparatus with iris region extraction
US11449971B2 (en) Method and apparatus with image fusion
US11790494B2 (en) Facial verification method and apparatus based on three-dimensional (3D) image
US20210019519A1 (en) Detection of fraudulently generated and photocopied credential documents
US7873189B2 (en) Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
WO2017101267A1 (zh) 人脸活体的鉴别方法、终端、服务器和存储介质
WO2019075840A1 (zh) 身份验证方法、装置、存储介质和计算机设备
JP2008123521A (ja) 拡張されたガボールウェーブレット特徴を利用したフェース認識方法及び装置
WO2007013529A1 (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
EP3642756B1 (en) Detecting artificial facial images using facial landmarks
JP2013030104A (ja) 特徴量抽出装置及び特徴量抽出方法
Agarwal et al. MagNet: Detecting digital presentation attacks on face recognition
CN106940802A (zh) 用于使用生物测量学信息的认证的方法和设备
CN114612980A (zh) 基于多方位交融注意力的变形人脸检测
Zhang et al. Hierarchical facial landmark localization via cascaded random binary patterns
KR102380426B1 (ko) 얼굴 인증 방법 및 장치
Ertuğrul et al. Modeling and synthesis of kinship patterns of facial expressions
Patil et al. Enhancement of feature extraction in image quality
Harakannanavar et al. Performance evaluation of face recognition based on multiple feature descriptors using Euclidean distance classifier
Yu et al. Boosting radial strings for 3D face recognition with expressions and occlusions
Angadi et al. Face Recognition through Symbolic Modeling and Analysis of Segmented face images using Savitzky Golay filter features
Yang et al. Recognizing minimal facial sketch by generating photorealistic faces with the guidance of descriptive attributes
Proença et al. Combining rectangular and triangular image regions to perform real-time face detection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180906

R150 Certificate of patent or registration of utility model

Ref document number: 6403233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees