JP6610906B2 - 活動検出方法及びデバイス、並びに本人認証方法及びデバイス - Google Patents

活動検出方法及びデバイス、並びに本人認証方法及びデバイス Download PDF

Info

Publication number
JP6610906B2
JP6610906B2 JP2017556528A JP2017556528A JP6610906B2 JP 6610906 B2 JP6610906 B2 JP 6610906B2 JP 2017556528 A JP2017556528 A JP 2017556528A JP 2017556528 A JP2017556528 A JP 2017556528A JP 6610906 B2 JP6610906 B2 JP 6610906B2
Authority
JP
Japan
Prior art keywords
user
biometric feature
feature information
screen
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017556528A
Other languages
English (en)
Other versions
JP2018524654A (ja
Inventor
チェン、ジドン
リ、リャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority claimed from PCT/US2016/036547 external-priority patent/WO2016201016A1/en
Publication of JP2018524654A publication Critical patent/JP2018524654A/ja
Application granted granted Critical
Publication of JP6610906B2 publication Critical patent/JP6610906B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[関連出願の相互参照] 本出願は、2015年6月10日に出願された、「Liveness Detection Method And Device, And Identity Authentication Method And Device」と題する中国特許出願第201510315782.2号の利益を主張し、その全体は、ここに本明細書において参照によって組み込まれるものとする。
本開示は、安全な照合の技術分野に関し、特に、活動検出方法及びデバイス、並びに本人認証方法及びデバイスに関する。
従来の本人認証は、アカウント及びパスワードに基づくが、パスワードは、容易に忘れられ、漏えいされる。このため、従来のパスワードに基づく本人認証は、ますます多くの課題にさらされている。指紋及び顔認識によって表される生体識別技術が、様々な領域において従来のパスワードに基づく本人認証を置き換えている。しかしながら、顔に基づく認証を例として用いると、許可されていないユーザが、許可されているユーザの写真を用いて彼らを模倣し得、従って、従来の生体識別技術にはセキュリティリスクが存在する。
本開示は、当技術分野における障害に対処し、活動検出方法を提供することを目指し、方法は、ユーザが生物であるかどうかを識別することができ、これにより、ユーザの本人認証中に、生物の生体特徴情報が照合されるのみであり、このことは、セキュリティを向上させる。
本開示の少なくとも1つの態様によると、本人認証方法が提供され、このことは、認証中にセキュリティを向上させる。本開示の少なくとも1つの実施形態によると、別の態様は、活動検出デバイスを提供する。本開示の更に別の態様によるのが、本人認証デバイスである。
本開示の実施形態の第1の態様による活動検出方法が、コンピューティングデバイスが、ユーザの生体特徴情報を収集することと、コンピューティングデバイスが、コンピューティングデバイスのスクリーン上の初期位置に収集された生体特徴情報を表示することと、コンピューティングデバイスが、初期位置を用いて目標位置を決定し、スクリーン上に目標位置を表示することと、コンピューティングデバイスが、ユーザに、ユーザの生体特徴情報を移動させ、表示された生体特徴をスクリーン上の初期位置からスクリーン上の目標位置に移動させるように促すことと、コンピューティングデバイスが、ユーザの生体特徴情報の移動を検出し、検出されたユーザの移動を用いて表示された生体特徴情報の表示位置を決定することと、コンピューティングデバイスが、決定された表示位置と目標位置との間の関係を用いて、ユーザが生物であるかどうかを判断することとを含む。
本開示の実施形態の第1の態様による活動検出方法において、スクリーン上の表示位置に生体特徴情報をマッピングすることにより、及び表示位置と目標位置との間の関係に基づいて、ユーザが生物であるか否かの判断がなされ得る。加えて、ユーザ本人認証中に、生物の生体特徴情報は、ユーザを認証するために用いられ得、このことは、セキュリティを向上させる。
本開示の実施形態の第2の態様による本人認証方法が、ユーザの本人認証命令を受信すると、コンピューティングデバイスが、ユーザの生体特徴情報を収集することと、コンピューティングデバイスが、収集された生体特徴情報によってユーザが生物であるかどうかを判断することと、ユーザが生物であると判断される場合、コンピューティングデバイスが、認証サーバにユーザの収集された生体特徴情報を送信することと、コンピューティングデバイスが認証サーバから、収集された生体特徴情報の、ユーザに対応する予め記憶された生体特徴情報との比較の本人認証結果を受信することとを含む方法であって、コンピューティングデバイスが、ユーザが生物であるかどうかを判断することは、コンピューティングデバイスのスクリーン上の初期位置に収集された生体特徴情報の少なくとも一部を表示することと、初期位置を用いて目標位置を決定し、スクリーン上に目標位置を表示することと、ユーザに、ユーザの生体特徴情報を移動させ、表示された生体特徴をスクリーン上の初期位置からスクリーン上の目標位置に移動させるように促すことと、ユーザの生体特徴情報の移動を検出し、検出されたユーザの移動を用いて表示された生体特徴情報の表示位置を決定することと、決定された表示位置と目標位置との間の関係を用いて、ユーザが生物であるかどうかを判断することとを有する、方法である。
本開示の実施形態の第2の態様による本人認証方法によると、活動検出が本人認証前に行われ得る。ユーザが生物であると決定される場合に、更なる照合が行われ得る。写真及び同様のものの形態で照合情報をスプーフィングすることが防止され、認証中のセキュリティが向上される。
本開示の実施形態の第3の態様による活動検出デバイスが、ユーザの生体特徴情報を収集し、コンピューティングデバイスのスクリーン上の初期位置に収集された生体特徴情報を表示する第1の表示モジュールと、初期位置を用いて目標位置を決定し、スクリーン上に目標位置を表示する第2の表示モジュールと、ユーザに、ユーザの生体特徴情報を移動させ、表示された生体特徴をスクリーン上の初期位置からスクリーン上の目標位置に移動させるように促す促しモジュールと、ユーザの生体特徴情報の移動を検出し、検出されたユーザの移動を用いて表示された生体特徴情報の表示位置を決定し、決定された表示位置と目標位置との間の関係を用いて、ユーザが生物であるかどうかを判断する判断モジュールとを含む。
本開示の実施形態の第3の態様による活動検出デバイスにおいて、スクリーン上の表示位置に生体特徴情報をマッピングすることにより、及び表示位置と目標位置との間の関係に基づいて、ユーザが生物であるか否かの判断がなされ得る。加えて、ユーザ本人認証中に、生物の生体特徴情報は、ユーザを認証するために用いられ得、このことは、セキュリティを向上させる。
本開示の実施形態の第4の態様による本人認証デバイスが、ユーザの本人認証命令を受信すると、ユーザの生体特徴情報を収集する取得モジュールと、収集された生体特徴情報によってユーザが生物であるかどうかを判断する判断モジュールと、判断モジュールが、ユーザが生物であると判断した場合、認証サーバにユーザの収集された生体特徴情報を送信する送信モジュールと、認証サーバから、収集された生体特徴情報の、ユーザに対応する予め記憶された生体特徴情報との比較の本人認証結果を受信する受信モジュールとを含み、収集された生体特徴情報によってユーザが生物であるかどうかを判断する判断モジュールは、コンピューティングデバイスのスクリーン上の初期位置に収集された生体特徴情報の少なくとも一部を表示する判断モジュールと、初期位置を用いて目標位置を決定し、スクリーン上に目標位置を表示する判断モジュールと、ユーザに、ユーザの生体特徴情報を移動させ、表示された生体特徴をスクリーン上の初期位置からスクリーン上の目標位置に移動させるように促す判断モジュールと、ユーザの生体特徴情報の移動を検出し、検出されたユーザの移動を用いて表示された生体特徴情報の表示位置を決定する判断モジュールと、決定された表示位置と目標位置との間の関係を用いて、ユーザが生物であるかどうかを判断する判断モジュールとを含む。
本開示の実施形態の第4の態様による本人認証デバイスにおいて、活動検出が本人認証前に行われ得る。ユーザが生物であると決定される場合に、更なる照合が行われ得る。写真及び同様のものの形態で照合情報をスプーフィングすることが防止され、認証中のセキュリティが向上される。
本開示の追加の態様及び利点は、以下の説明において更に説明される。
本開示の上述の及び/又は追加の態様及び利点は、添付図面と併せて理解される以下の説明を参照して、より明らかになるであろう。
本開示の実施形態による活動検出方法を図示する概略的なフローチャートである。
本開示の実施形態による第1座標系を図示する概略図である。
本開示の実施形態による端末のスクリーン上の初期位置に生体特徴情報を表示することを図示する概略的なフローチャートである。
本開示の実施形態による第2座標系を図示する概略図である。
本開示の実施形態による初期位置によって目標位置を決定することを図示する概略的なフローチャートである。
本開示の実施形態による初期顔位置及び目標顔位置を図示する概略図である。
本開示の実施形態による本人認証方法を図示する概略的なフローチャートである。
本開示の実施形態による本人認証方法を図示する概略的なフローチャートである。
本開示の実施形態による活動検出デバイスを図示する概略構造図である。
本開示の実施形態による本人認証デバイスを図示する概略構造図である。
本開示の実施形態は、以下で詳細に説明される。説明されている実施形態の例は、添付図面において与えられ、同一又は類似の参照番号は、同一又は類似の機能を有する、同一又は類似のモジュール又は複数のモジュールを示す。添付図面を参照して説明されている特定の実施形態は、全て例示的であり、本開示を説明及び理解することが意図され、本開示への限定と解釈されるべきではない。むしろ、本開示の実施形態は、本開示の添付の特許請求の範囲によって定義されるような主旨及び範囲内でなされる全ての変形形態、修正形態、及び均等物を包含する。
図1は、本開示の実施形態による活動検出方法を図示する概略的なフローチャートである。方法は、端末によって行われ得る。図1に示されている方法によると、S11において、端末が、ユーザの生体特徴情報を収集し、端末のスクリーン上の初期位置に生体特徴情報を表示する。
本実施形態において、顔特徴情報が、生体特徴情報の例として用いられる。生体特徴情報は、顔特徴情報に限定されず、指紋、掌紋、虹彩又は同様のもの等の他の生体特徴情報であり得ることが理解されるべきである。
少なくとも1つの実施形態によると、顔ジェスチャ情報を例として用いて、顔ジェスチャ情報は、ピッチ、ロール及びヨーによって示され、ピッチは、ピッチ角を示し、ロールは、回転角を示し、ヨーは、振動角を示す。
例えば、図2を参照すると、顔が位置する座標系が、第1座標系と称され得、これは、3次元座標系である。人の頭部を3次元球体と仮定し、球体の中心点は、第1座標系の座標原点として選択され得る。第1座標系の3つの座標軸は、それぞれx軸、y軸、z軸であり、x軸の正方向は、水平で右向きであり、y軸の正方向は、鉛直で上向きであり、z軸の正方向は、人間の目が前を見ている方向である。図2に図示されている第1座標系内で、顔が水平に正面を向いている場合に、顔ジェスチャ情報におけるピッチ、ロール、及びヨーは、全て0度である。
図3は、1又は複数の実施形態による、端末のスクリーン上の初期位置への生体特徴情報の表示を更に図示する。S31において、ユーザの収集された生体特徴情報のキー領域が決定される。生体特徴情報が顔特徴情報である場合を例として用いて、端末のカメラが、ユーザの顔の1又は複数の画像をキャプチャするために用いられ得、ユーザの顔の1又は複数の画像を取得する。
例えば、ユーザが顔情報を用いるログインインタフェースに入る場合に、システムは、顔写真、又は画像の数を、自動的にキャプチャする、又はユーザに手動でキャプチャするよう促す。上述のように、顔写真、又は画像の数は、例えば、1又は複数であり得る。
その後、顔領域が、顔検出アルゴリズムを用いて顔写真から検出される。顔検出アルゴリズムは、例えば、多段接続された複数のファンクションを含むカスケード分類器に基づく顔検出アルゴリズムのような既存のアルゴリズムであり得る。例示のために、カスケード分類器が、第1のファンクション、第2のファンクション及び同様のものを含むと仮定すると、写真のいくつかは、第1のファンクションによって除去され得、残りの画像は、第2のファンクションを用いて評価される第1のファンクションによって除去されず、それは、残りの写真のいくつかを除去し得、以下同様である。多段接続された複数のファンクションを含むカスケード分類器を用いて、顔の画像を含まない画像が除去され、残りの画像は顔画像を含む。本開示の実施形態に関連して、従来のカスケード分類器が用いられ得ることが理解されよう。
顔領域が検出された後、その顔領域は、キー領域として特定される。
S32において、キー領域内の生体特徴情報を用いた計算により、生体特徴情報の初期ジェスチャが取得される。
顔ジェスチャ推定は、顔の初期ジェスチャを取得するために顔領域に対して行われ、初期ジェスチャは、ピッチ、ロール、及びヨーのうちの少なくとも1つの角度の初期値を含む。
顔領域が検出された後、顔領域におけるキーポイントが、顔キーポイント位置決めアルゴリズムを用いて取得され得る。顔のキーポイントは、目、鼻、口、及び同様のもののような顔の特徴点である。顔キーポイント位置決めアルゴリズムは、トレーニング段階及び位置決め段階を含む機械学習の方法を用い得る。トレーニング段階において、回帰機械が、顔キーポイント座標及び対応する顔写真のトレーニングデータセットを用いて、顔キーポイント座標を推定するようトレーニングされる。位置決め段階において、顔キーポイント座標が、トレーニングされた回帰機械を用いて、入力された顔写真から推定される。任意の適切な顔キーポイント位置決めアルゴリズムが、本開示の実施形態で用いられ得る。
顔キーポイントが位置決めされた後、人の頭部に対応する3次元球体が、顔キーポイント及び3次元頭部モデリングアルゴリズムを用いて推定される。任意の適切な3次元モデリングアルゴリズムが、本開示の実施形態で用いられ得る。例えば、単一の写真、リアルタイムの3次元モデリング及び同様のものに基づく3次元モデリングが、本開示の実施形態で用いられ得る。3次元球体が推定された後、x軸に対する回転角はピッチであり、y軸に対する回転角は、ヨーであり、z軸に対する回転角は、ロールである。初期ジェスチャ情報が、これにより取得される。
S33において、初期ジェスチャ情報によって座標マッピングが行われ、生体特徴情報は、端末のスクリーン上の初期位置にマッピングされる。
任意で、座標マッピングは、初期ジェスチャ情報によって行われ、端末のスクリーン上の初期位置への生体特徴情報のマッピングは、第1座標系内の座標と第2座標系内の座標との間のマッピング関係を取得することであって、第1座標系は、生体特徴情報が位置する座標系であり、第2座標系は、スクリーンが位置する座標系である、取得することと、マッピング関係によって初期ジェスチャに対応する初期位置の座標を決定することと、初期位置の座標によって生体特徴情報を初期位置にマッピングすることとを含む。
第1座標系と第2座標系との間の予め設定されたマッピング関係から、生体特徴情報の後続の移動後の初期位置及び表示位置の両方が取得され得、ここで第1座標系は、図2で図示されているように、生体特徴情報が位置する座標系であり、第2座標系は、スクリーンが位置する座標系である。
図4を参照すると、第2座標系は、2次元座標系である。端末が携帯電話である場合を例として用いると、第2座標系の座標原点は、携帯電話のスクリーンの中央点又は中心点であり、第2座標系の2つの座標軸は、それぞれx軸及びy軸である。x軸の方向は、第1座標系におけるx軸の方向と一致し、y軸の正方向は、鉛直下方である。
本実施形態において、上述の3つの角度のうち2つの角度が用いられる。図2及び図4において図示されている2つの座標系において、2つの座標系間のマッピング関係は、次式を用いて表され得る。
Figure 0006610906
第(1)式において、ヨー及びピッチは、第1座標系における顔情報のジェスチャ情報からのものである。ヨー及びピッチは、それぞれ、振動角及びピッチ角である。変数△x、△yは、第2座標系の座標原点に対するスクリーン上の顔情報の表示位置のオフセットである。
、Sの値は、顔ジェスチャ角度の変動範囲及びスクリーンの高さによって決定される。S、Sの値は、次式を用いて取得され得、ここで、スクリーンの幅及びスクリーンの高さは、それぞれw及びhであり、スクリーンの座標系の座標原点は、(w/2,h/2)であり、これは、スクリーンの中心位置であり、頭部のピッチ角の変動範囲は、[−θ,+θ]であり、振動角の変動範囲は、[−β,+β]である。θ、βの値は、設定可能であり、少なくとも1つの実施形態によると、値は、45度に設定されるよう設定され得、例えば、θ=β=45°である。
Figure 0006610906
第(1)式及び第(2)式を用いて、対応する表示位置(△x,△y)は、ジェスチャ情報、例えば、ヨー、ピッチジェスチャ情報から取得され得、従って、ステータス情報に対応する位置情報(O+△x,O+△y)は、第2座標系の座標原点(O,O)によって取得され得る。
例えば、初期位置が決定された後、顔情報は、初期位置に表示され得る。
座標原点を選択する上述の方法や、座標系における様々な座標軸の方向の選択は、上記の記載に限定されないことが理解されよう。代わりに、他の座標原点又は他の方向の座標軸が用いられ得る。これに対応して、座標原点又は座標軸の方向が変化する場合に、上記の計算式は、2つの座標系間の空間的幾何学的関係によって調整され得る。
図1のS12において、目標位置が初期位置によって決定され、目標位置はスクリーン上に表示される。目標位置は、ランダムに生成され得る。ランダムに目標位置を生成することにより、目標位置が予測され得る確率が低下し、活動検出の精度が向上する。
任意で、初期位置によって目標位置を決定することは、候補目標位置をランダムに生成することと、候補目標位置と初期位置とが予め定められた条件を満たすかどうかを判断することと、予め定められた条件が満たされている場合に、候補目標位置を目標位置として決定することとを含む。
別の実施形態において図5を参照すると、初期位置によって目標位置を決定することは、段階S51〜S54を含む。
S51において、候補目標位置がランダムに生成される。例えば、x方向及びy方向の座標値は、ランダム座標値生成アルゴリズムを用いてランダムに生成され、候補目標位置は、ランダムに生成されたx方向及びy方向の座標値を用いて定義される。
S52において、ランダムに生成された候補目標位置と初期位置との間の距離が計算される。候補目標位置と初期位置とは、第2座標系内の点でそれぞれ示され得るので、候補目標位置と初期位置との間の距離は、2次元平面上の2点間の距離を計算することにより取得され得る。
S53において、距離が第1の予め定められた値より小さいかどうかの判断がなされる。距離が第1の予め定められた値より小さいと決定され、又は判断される場合、段階S51及び後続の段階は、繰り返し行われる。そうでない場合、段階S54が行われる。第1の予め定められた値は、例えば、w/2であり得、判断結果が、距離をw/2と比較することによって取得され得る。
S54において、第1の予め定められた値より大きい又は第1の予め定められた値と等しい初期位置からの距離をもつ候補目標位置は、用いられるべき目標位置として特定される。
図1のS13において、ユーザは、初期位置から目標位置に生体特徴情報を移動させるように促され、例えば、スクリーン上の生体特徴情報の表示位置が、初期位置から目標位置に移動する。
目標位置が決定された、例えば、図5の段階S51〜S54によって決定された後、端末は、ユーザに、ユーザの頭部を移動させることによって、現在の表示位置に表示された顔情報を、目標位置に移動させるように促す情報を表示し得る。
ユーザに、ユーザの頭部を移動させ、表示された画像を初期位置から目標位置に移動させるように促す情報を視認した後、ユーザは、ユーザの頭部の移動に応じてスクリーン上で表示された画像を移動させるべく、ユーザの頭部を移動させ得る。
本実施形態において、目標位置と初期位置との間の距離が予め定められた値より大きい目標位置を選択することにより、目標位置は、位置の観点で初期位置と区別され、このことは、ユーザが、ユーザの頭部等の生体特徴を移動させ、初期位置から目標位置に表示された画像を移動させることをより容易にする。
図6は、顔画像を例として用いて目標位置と初期位置との間の関係を図示する。
図1のS14において、スクリーン上の生体特徴情報の表示位置は、ユーザから入力された移動が受信された後検出され、表示位置と目標位置との間の関係によって、ユーザが生物であるかどうかの判断、又は決定がなされる。
上述のように、生体特徴がユーザによってスクリーン上で移動された後の生体特徴情報の表示位置は、初期位置を計算するための方法と類似の方法を用いて取得され得る。
少なくとも1つの実施形態によると、生体特徴がユーザによって移動された後の生体特徴情報の表示位置を計算することは、第1座標系内の移動後の生体特徴情報のジェスチャ情報を取得することと、第1座標系内の座標と第2座標系内の座標との間の予め設定されたマッピング関係を用いて第1座標系内のジェスチャ情報に対応する第2座標系内の座標を計算することと、第2座標系内の座標によってスクリーン上の移動後の生体特徴情報の表示位置を決定することとを含む。第1座標系は、生体特徴情報の座標系であり得、第2座標系は、スクリーンの座標系であり得る。
例えば、ユーザがユーザの頭部を移動させる場合に、顔ジェスチャ情報は変更され得る。第1座標系と第2座標系との間の予め設定されたマッピング関係によると、変数△x、△yは、第(1)式及び第(2)式を用いて決定され得る。可変である、スクリーン上の顔の表示位置は、△x、△y及び座標原点を用いて取得され得る。
加えて、スクリーン上の顔の表示位置がリアルタイムで計算された後、顔情報は、リアルタイムで計算された表示情報によって対応する位置に表示され得る。そうすることで、ユーザは、リアルタイムで顔情報を目標位置に移動させることができる。
第1座標系と第2座標系との間のマッピング関係を用いて、顔ジェスチャ情報は、スクリーン上の対応する位置にマッピングされ得る。
任意で、表示位置は、ユーザによる生体特徴情報の移動とともに移動し、生体特徴情報の移動は、表示位置を移動させ、表示位置と目標位置との間の関係に従って、ユーザが生物であるかどうかを判断することは、表示位置と目標位置との間の距離が第2の予め定められた値より小さい場合に、移動は成功であると判断することと、及びユーザが成功裏に生体特徴情報を移動させる回数が、予め定められた回数に達する場合、ユーザが生物であると判断することとを含む。
例えば、ユーザが頭部画像を移動させる場合に、端末は、移動後の対応する表示位置をリアルタイムで計算し、移動後の表示位置と目標位置との間の距離が第2の予め定められた値より小さくなるまで、これらの2つの位置の間の距離をリアルタイムで計算する。2つの位置の間の距離が第2の予め定められた値より小さい場合に、それは、移動が成功であるということを示し、成功回数は1に設定される。予め定められた回数が1である場合、1回の成功である移動の後、ユーザは生物であると判断され得る。
代替的に、セキュリティを更に向上させるため、回数は、1より大きい数に設定され得る。この場合、1回の成功である移動の後、目標位置は、ランダムに再生成され得、ユーザは、上述のプロセスによって生体特徴情報を移動させるように促され得、表示位置と再生成された目標位置との間の距離は、リアルタイムで計算され得る。これらの2つの位置の間の距離が、第2の予め定められた値より小さい場合に、それは、移動が2回目に成功であるということを示す。予め定められた回数が2である場合、ユーザは生物であると判断され得る。予め定められた回数が2より大きい場合、ユーザが生物であるかどうかを判断するために、ユーザによる成功である移動の数が、予め定められた数を満たすかどうかを判断すべく、任意の予め定められた数に従ってプロセスは繰り返され得ることが理解されよう。
第2の予め定められた値は、第1の予め定められた値と同一でもよく、又は異なってもよい。本実施形態において、第2の予め定められた値も又w/2であり、移動の後の表示位置と目標位置との間の距離がw/2より小さいと仮定し、検出されたユーザが生物であると決定され得る。別の態様において、顔マッチングが成功であるかどうかが判断され得る。
移動の後の表示位置と目標位置との間の距離をリアルタイムで計算することによって、活動検出又は顔マッチングが成功であるかどうかがタイムリーに検出され得る。
本実施形態において、スクリーン上の表示位置への生体特徴情報のマッピングを用いて、表示位置と目標位置との間の関係に基づいて、ユーザが生物であるか否かの判断がなされ得、これにより、ユーザ本人認証中に、生物の生体特徴情報のみが照合され、このことは、セキュリティを向上させる。
図7は、本開示の実施形態による本人認証方法を図示する概略的なフローチャートである。方法は、端末によって行われ得る。方法は、段階S71〜S74を含む。
S71において、端末が、ユーザの本人認証リクエストを受信することに応じてユーザの生体特徴情報を収集する。
本人認証リクエストを生成するために、端末のログインインタフェース上の本人認証ボタンが、ユーザによってクリックされ得る。
ユーザによって生成された本人認証命令を受信すると、端末は、顔情報及び同様のもの等の生体特徴情報を取得し得る。本明細書で上記したように、生体特徴情報は、カメラを用いてキャプチャされ得る。
S72において、収集された生体特徴情報によってユーザが生物であるかどうかが判断される。
1又は複数の実施形態によると、ユーザが生物であるかどうかを判断することは具体的に、端末のスクリーン上の初期位置にユーザの収集された生体特徴情報を表示することと、初期位置によって目標位置を決定し、スクリーン上に目標位置を表示することと、スクリーン上の生体特徴情報の表示位置が初期位置から目標位置に移動するように、ユーザに、生体特徴情報を移動させるよう促すことと、移動後のスクリーン上の生体特徴情報の表示位置を検出することと、表示位置と目標位置との間の関係によってユーザが生物であるかどうかを判断することとを含む。
本明細書で上記に記載の1又は複数の実施形態に関連して提供される活動検出の詳細等の、本開示における他の箇所で見られる活動検出の詳細は、図7に関連してここでは繰り返されない。しかしながら、そのような活動検出の詳細はまた、これには限定されないが、図7の実施形態に適用可能であり得る。
S73において、ユーザが生物である場合、ユーザの生体特徴情報は、認証サーバに送信される。認証サーバに送信された生体特徴情報は、複数の生体特徴情報から選択することにより取得され得る。
任意で図8を参照すると、別の実施形態において、本人認証方法は、図8に示される段階S81〜S84及びS74を含む。
S81において、ユーザの本人認証命令を受信すると、端末が、そのユーザの生体特徴情報を収集する。
上で説明されたように、端末がユーザに移動させるよう促した後、ユーザは、ユーザの頭部を移動させ得、ユーザがユーザの頭部を移動させている間に、端末は、複数の顔写真を取得すべく、ユーザの顔の写真をリアルタイムでキャプチャし得る。ユーザの顔の複数の写真は、移動の促しと成功である顔マッチングの確認(すなわち、ユーザは生物であるという決定)との間の期間中に端末によってリアルタイムでキャプチャされたユーザの顔の写真であり得る。
S82において、収集された生体特徴情報によってユーザが生物であるかどうかが判断される。
本明細書で上記に記載の1又は複数の実施形態に関連して提供される活動検出の詳細等の、本開示における他の箇所で見られる活動検出の詳細は、図8に関連してここでは繰り返されない。しかしながら、そのような活動検出の詳細はまた、これには限定されないが、図8の実施形態に適用可能であり得る。
S83において、ユーザが生物である場合、ユーザの収集された生体特徴情報の画像フレーム品質は決定され、画像フレーム品質の観点で上位にランク付けされる生体特徴情報の第1のN個の画像フレームが、ユーザの収集された生体特徴情報から選択される。Nは、予め定められた正整数である。
品質を推定するための異なる測定アルゴリズムが、その対応する品質が推定される異なる生体特徴情報によって用いられ得る。顔写真を例として用いて、画像の品質は、ジェスチャ(顔が正面を向いているかどうか)、光(顔の光が十分かどうか)、顔の表情(任意の顔の表情が存在するかどうか)、及び同様のものによって測定され得る。
特定の測定アルゴリズムが、実際のニーズによって定義され得る。例えば、様々なパラメータ(ジェスチャ、光、及び顔の表情)に重みが割り当てられ得、各パラメータの値が、それにそのそれぞれの重みを乗算することによって重み付けされ得る。各顔写真の画像フレーム品質は、重み付けされたパラメータ値の集約であると決定され得、例えば、乗算後の値は、共に加算され、各顔写真の画像フレーム品質の値を取得する。顔写真は、画像フレーム品質によって、例えば、降順に順序付けられ得、各写真の画像品質は、写真の重み付けされたパラメータ値の集約である。N個の写真が、順序付け、例えば、画像フレーム品質値の降順に基づいて選択され得る。例として及びNの値が1であると仮定し、順位の上位の写真、例えば、最大値をもつ写真は、選択される。
S84において、画像フレーム品質の観点で上位にランク付けされる、生体特徴情報の選択された第1のN個の画像フレームは、認証サーバに送信される。
例えば、その画像フレーム品質が第1位にランク付けされる顔写真が選択された後、顔写真は、認証サーバに送信される。
S74において、認証サーバによって送信された本人認証結果が受信され、ここで、本人認証結果は、認証サーバが生体特徴情報をユーザに対応する予め記憶された生体特徴情報と比較した後、送信される。
顔写真を送信する場合に、端末はまた、ユーザ識別子情報を送信し得る。認証サーバは、ユーザ識別子情報と顔写真との間の関係を予め記憶する。ユーザ識別子情報及び端末によって送信された顔写真を受信すると、認証サーバは、ユーザ識別子情報によって予め記憶された顔写真を取得し得、受信された顔写真を予め記憶された顔写真と比較し得、本人認証結果を取得する。
顔写真比較が、例えば、ディープラーニングに基づく顔比較アルゴリズム、又は高次元特徴に基づく顔比較アルゴリズム等の既存のアルゴリズムを用いて実行され得る。
本人認証結果を取得すると、サーバは、端末に本人認証結果を送信し得る。本人認証結果を受信すると、端末は、ユーザに結果を表示する。本人認証が成功である場合に、ユーザは、ログインすることが可能である。そうでない場合、ユーザのログインは失敗する。
加えて、端末が認証サーバに複数の写真を送信する場合、認証サーバは、受信された写真を予め記憶された写真と1つずつ比較し得る。比較を通じて受信された写真のうちの1つが予め記憶された写真と一致する場合、それは、認証が成功であることを示す。
上で提供されたように、ユーザが生物であると決定された後、例えば、表示位置と目標位置とが一致すると決定された後、照合プロセスが行われ得、活動検出に関連してユーザが生物であることを示す。
別の態様において少なくとも1つの実施形態によると、生物が存在しない、例えば、表示位置と目標位置とが満足のいくように一致しないという決定がなされる場合に、活動検出に関連して生物の不在を示し、端末は、認証サーバからの照合を獲得する必要なく、ユーザに不成功の本人認証を示す情報を直接戻す。
本実施形態において、本人認証の前に活動検出が行われ、ユーザが生物である場合に、更なる照合が実行され、写真及び同様のものの形態で照合情報をスプーフィングすることを防止し、従って、認証中のセキュリティを向上させる。
図9は、本開示の実施形態による活動検出デバイス90を図示する概略構造図である。デバイスは、携帯電話、又は同様のもの等の端末上に構成され得る。デバイス90は、第1の表示モジュール91、第2の表示モジュール92、促しモジュール93、及び判断モジュール93を含む。
第1の表示モジュール91は、ユーザの生体特徴情報を収集し、端末のスクリーン上の初期位置に生体特徴情報を表示するよう構成される。
本実施形態において、生体特徴情報が顔情報である場合が例として用いられる。生体特徴情報は、顔情報に限定されず、指紋、掌紋、虹彩又は同様のものでもあり得ることが理解されよう。
本実施形態において、顔ジェスチャ情報を例として用いて、顔ジェスチャ情報は、ピッチ、ロール及びヨーによって示され、ピッチは、ピッチ角を示し、ロールは、回転角を示し、ヨーは、振動角を示す。
例えば、図2を参照すると、顔が位置する座標系が、第1座標系と称され得、これは、3次元座標系である。人の頭部を3次元球体と仮定し、球体の中心点は、第1座標系の座標原点として選択され得る。第1座標系の3つの座標軸は、それぞれx軸、y軸、z軸であり、x軸の正方向は、水平に右向きであり、y軸の正方向は、鉛直に上向きであり、z軸の正方向は、人間の目が前を見ている方向である。図2に図示されている第1座標系内で、顔が水平に正面を向いている場合に、顔ジェスチャ情報におけるピッチ、ロール、及びヨーは、全て0度である。
任意で、第1の表示モジュール91によって端末のスクリーン上の初期位置に生体特徴情報を表示することは、ユーザの収集された生体特徴情報のキー領域を決定することと、顔検出アルゴリズムを用いて、顔写真から顔領域を検出することと、顔領域をキー領域と決定することと、顔キーポイントと3次元頭部モデリングアルゴリズムを用いて、人の頭部に対応する3次元球体を推定することとを含み、初期ジェスチャによって座標マッピングが行われ、生体特徴情報は、端末のスクリーン上の初期位置にマッピングされる。
生体特徴情報が顔情報である場合を例として用いて、端末のカメラが、ユーザの顔の写真を撮るために用いられ得、顔写真を取得する。例えば、ユーザが顔情報を用いるログインインタフェースに入る場合に、システムは、顔写真の数を、自動的にキャプチャする、又はユーザに手動でキャプチャするよう促す。
その後、顔領域が、顔検出アルゴリズムを用いて顔写真から検出される。顔検出アルゴリズムは、例えば、多段接続された複数のファンクションを含むカスケード分類器に基づく顔検出アルゴリズムのような既存のアルゴリズムであり得る。例示のために、カスケード分類器が、第1のファンクション、第2のファンクション及び同様のものを含むと仮定すると、写真のいくつかは、第1のファンクションによって除去され、残りの画像は、第2のファンクションを用いて評価される第1のファンクションによって除去されず、それは、残りの写真等のいくつかを除去し得、以下同様である。多段接続された複数のファンクションを含むカスケード分類器を用いて、顔の画像を含まない画像が除去され、残りの画像は顔画像を含む。本開示の実施形態に関連して、従来のカスケード分類器が用いられ得ることが理解されよう。
顔領域が検出された後、その顔領域は、キー領域として特定される。キー領域内の生体特徴情報を用いた計算により、生体特徴情報の初期ジェスチャが取得される。
顔ジェスチャ推定は、顔の初期ジェスチャを取得するために顔領域に対して行われ、初期ジェスチャは、ピッチ、ロール、及びヨーのうちの少なくとも1つの角度の初期値を含む。
顔領域が検出された後、顔領域におけるキーポイントが、顔キーポイント位置決めアルゴリズムを用いて取得され得る。顔のキーポイントは、目、鼻、口、及び同様のもののような顔の特徴点である。顔キーポイント位置決めアルゴリズムは、トレーニング段階及び位置決め段階を含む機械学習の方法を用い得る。トレーニング段階において、回帰機械が、顔キーポイント座標及び対応する顔写真のトレーニングデータセットを用いて、顔キーポイント座標を推定するようトレーニングされる。位置決め段階において、顔キーポイント座標が、トレーニングされた回帰機械を用いて、入力された顔写真から推定される。任意の適切な顔キーポイント位置決めアルゴリズムが、本開示の実施形態で用いられ得る。
顔キーポイントが位置決めされた後、人の頭部に対応する3次元球体が、顔キーポイント及び3次元頭部モデリングアルゴリズムを用いて推定される。任意の適切な3次元モデリングアルゴリズムが、本開示の実施形態で用いられ得る。例えば、単一の写真、リアルタイムの3次元モデリング及び同様のものに基づく3次元モデリングが、本開示の実施形態で用いられ得る。3次元球体が推定された後、x軸に対する回転角はピッチであり、y軸に対する回転角は、ヨーであり、z軸に対する回転角は、ロールである。初期ジェスチャ情報が、これにより取得される。
初期ジェスチャ情報によって座標マッピングが行われ、生体特徴情報は、端末のスクリーン上の初期位置にマッピングされる。
任意で、座標マッピングは、初期ジェスチャ情報によって行われ、第1の表示モジュール91による端末のスクリーン上の初期位置への生体特徴情報のマッピングは、第1座標系内の座標と第2座標系内の座標との間のマッピング関係を取得することであって、第1座標系は、生体特徴情報が位置する座標系であり、第2座標系は、スクリーンが位置する座標系である、取得することと、マッピング関係によって初期ジェスチャに対応する初期位置の座標を決定することと、初期位置の座標によって生体特徴情報を初期位置にマッピングすることとを含む。
第1座標系と第2座標系との間の予め設定されたマッピング関係から、生体特徴情報の後続の移動後の初期位置及び表示位置の両方が取得され得、ここで第1座標系は、図2で図示されているように、生体特徴情報が位置する座標系であり、第2座標系は、スクリーンが位置する座標系である。
図4を参照すると、第2座標系は、2次元座標系である。端末が携帯電話である場合を例として用いると、第2座標系の座標原点は、携帯電話のスクリーンの中央点又は中心点であり、第2座標系の2つの座標軸は、それぞれx軸及びy軸である。x軸の方向は、第1座標系におけるx軸の方向と一致し、y軸の正方向は、鉛直下方である。
本実施形態において、上述の3つの角度のうち2つの角度が用いられる。図2及び図4において図示されている2つの座標系において、2つの座標系間のマッピング関係は、次式を用いて表され得る。
Figure 0006610906
第(1)式において、ヨー及びピッチは、第1座標系における顔情報のジェスチャ情報からのものである。ヨー及びピッチは、それぞれ、振動角及びピッチ角である。変数△x、△yは、第2座標系の座標原点に対するスクリーン上の顔情報の表示位置のオフセットである。
、Sの値は、顔ジェスチャ角度の変動範囲及びスクリーンの高さによって決定される。S、Sの値は、次式を用いて取得され得、ここで、スクリーンの幅及びスクリーンの高さは、それぞれw及びhであり、スクリーンの座標系の座標原点は、(w/2,h/2)であり、これは、スクリーンの中心位置であり、顔のピッチ角の変動範囲は、[−θ,+θ]であり、振動角の変動範囲は、[−β,+β]である。θ、βの値は、設定可能であり、少なくとも1つの実施形態によると、値は、45度に設定されるよう設定され得、例えば、θ=β=45°である。
Figure 0006610906
第(1)式及び第(2)式を用いて、対応する表示位置(△x,△y)は、ジェスチャ情報、例えば、ヨー、ピッチジェスチャ情報から取得され得、従って、ステータス情報に対応する位置情報(O+△x,O+△y)は、第2座標系の座標原点(O,O)によって取得され得る。
例えば、初期位置が決定された後、顔情報は、初期位置に表示され得る。
座標原点を選択する上述の方法や、座標系における様々な座標軸の方向の選択は、上記の記載に限定されないことが理解されよう。代わりに、他の座標原点又は他の方向の座標軸が用いられ得る。これに対応して、座標原点又は座標軸の方向が変化する場合に、上記の計算式は、2つの座標系間の空間的幾何学的関係によって調整され得る。
第2の表示モジュール92は、初期位置によって目標位置を決定し、スクリーン上に目標位置を表示するよう構成される。目標位置は、ランダムに生成され得る。ランダムに目標位置を生成することにより、目標位置が予測され得る確率が低下し、活動検出の精度が向上する。
任意で、生成モジュール92が、初期位置によって目標位置を決定することは、候補目標位置をランダムに生成することと、候補目標位置と初期位置とが予め定められた条件を満たすかどうかを判断することと、予め定められた条件が満たされている場合に、候補目標位置を目標位置として決定することとを含む。例えば、x方向及びy方向の座標値は、ランダム座標値生成アルゴリズムを用いてランダムに生成され得、候補目標位置は、ランダムに生成されたx方向及びy方向の座標値によって定義される。
任意で、生成モジュールが、候補目標位置と初期位置とが予め定められた条件を満たすかどうかを判断することは、候補目標位置と初期位置との間の距離を計算することと、距離が第1の予め定められた値より小さいかどうかを判断することと、距離が第1の予め定められた値より小さい場合、距離が第1の予め定められた値より大きい又は第1の予め定められた値と等しくなるまで候補目標位置を再生成することと、距離が第1の予め定められた値より大きい又は第1の予め定められた値と等しい場合に、候補目標位置と初期位置とが予め定められた条件を満たすと判断することとを含む。
候補目標位置と初期位置とは、第2座標系内の点でそれぞれ示され得るので、候補目標位置と初期位置との間の距離は、2次元平面上の2点間の距離を計算することにより取得され得る。
第1の予め定められた値は、例えば、w/2であり得、判断結果が、距離をw/2と比較することによって取得され得る。
生成モジュール92が、予め定められた条件が満たされていると決定する場合に、候補目標位置は、目標位置として特定される。例えば、第1の予め定められた値より大きい又は第1の予め定められた値と等しい距離をもつ候補目標位置は、用いられる目標位置であると決定される。
促しモジュール93は、ユーザに、生体特徴情報を移動させるように促すよう構成され、例えば、スクリーン上の生体特徴情報の表示位置は、初期位置から目標位置に移動する。
目標位置が決定された後、端末は、ユーザに促し情報を表示し得る。促し情報は、ユーザに、現在の表示位置に表示された顔情報を目標位置に移動させるように促すために用いられる。
促し情報を視認した後、ユーザは、表示された画像、顔又は頭部の画像を移動させ得、表示された表示位置は、ユーザの入力に応じてスクリーン上で継続して移動され得る。
本実施形態において、目標位置と初期位置との間の距離が予め定められた値より大きい目標位置を選択することにより、目標位置は、位置の観点で初期位置と区別され、このことは、ユーザが、ユーザの顔又は頭部の画像等の生体特徴を移動させることをより容易にする。
図6は、顔画像を例として用いて目標位置と初期位置との間の関係を図示する。
図9の判断モジュール93は、移動後スクリーン上の生体特徴情報の表示位置を検出し、表示位置と目標位置との間の関係によってユーザが生物であるかどうかを判断するよう構成される。
上述のように、生体特徴がユーザによってスクリーン上で移動された後の生体特徴情報の表示位置は、初期位置を計算するための方法と類似の方法を用いて取得され得る。
任意で、判断モジュール93によるスクリーン上の移動後の生体特徴情報の表示位置を計算することは、第1座標系内の移動後の生体特徴情報のジェスチャ情報を取得することと、第1座標系内の座標と第2座標系内の座標との間の予め設定されたマッピング関係を用いて第1座標系内のジェスチャ情報に対応する第2座標系内の座標を計算することと、第2座標系内の座標によってスクリーン上の移動後の生体特徴情報の表示位置を決定することとを含む。第1座標系は、生体特徴情報の座標系であり得、第2座標系は、スクリーンの座標系であり得る。
例えば、ユーザがユーザの頭部を移動させる場合に、顔ジェスチャ情報は変更され得る。第1座標系と第2座標系との間の予め設定されたマッピング関係によると、変数△x、△yは、第(1)式及び第(2)式を用いて決定され得る。可変である、スクリーン上の顔の表示位置は、△x、△y及び座標原点を用いて取得され得る。
加えて、スクリーン上の顔の表示位置がリアルタイムで計算された後、顔情報は、リアルタイムで計算された表示情報によって対応する位置に表示され得る。そうすることで、ユーザは、リアルタイムで顔情報を目標位置に移動させることができる。
第1座標系と第2座標系との間のマッピング関係を用いて、顔ジェスチャ情報は、スクリーン上の対応する位置にマッピングされ得る。
任意で、表示位置は、ユーザによる生体特徴情報の移動とともに移動し、生体特徴情報の移動は、表示位置を移動させ、表示位置と目標位置との間の関係に従って、ユーザが生物であるかどうかを判断することは、表示位置と目標位置との間の距離が第2の予め定められた値より小さい場合に、移動は成功であると判断することと、及びユーザが成功裏に生体特徴情報を移動させる回数が、予め定められた回数に達する場合、ユーザが生物であると判断することとを含む。
例えば、ユーザが頭部画像を移動させる場合に、端末は、移動後の対応する表示位置をリアルタイムで計算し、移動後の表示位置と目標位置との間の距離が第2の予め定められた値より小さくなるまで、これらの2つの位置の間の距離をリアルタイムで計算する。2つの位置の間の距離が第2の予め定められた値より小さい場合に、それは、移動が成功であるということを示し、成功回数は1に設定される。予め定められた回数が1である場合、1回の成功である移動の後、ユーザは生物であると判断され得る。
代替的に、セキュリティを更に向上させるため、回数は、1より大きい数に設定され得る。この場合、1回の成功である移動の後、目標位置は、ランダムに再生成され得、ユーザは、上述のプロセスによって生体特徴情報を移動させるように促され得、表示位置と再生成された目標位置との間の距離は、リアルタイムで計算され得る。これらの2つの位置の間の距離が、第2の予め定められた値より小さい場合に、それは、移動が2回目に成功であるということを示す。予め定められた回数が2である場合、ユーザは生物であると判断され得る。予め定められた回数が2より大きい場合、ユーザが生物であるかどうかを判断するために、ユーザによる成功である移動の数が、予め定められた数を満たすかどうかを判断すべく、任意の予め定められた数に従ってプロセスは繰り返され得ることが理解されよう。
第2の予め定められた値は、第1の予め定められた値と同一でもよく、又は異なってもよい。本実施形態において、第2の予め定められた値も又w/2であり、移動の後の表示位置と目標位置との間の距離がw/2より小さいと仮定し、検出されたユーザが生物であると決定され得る。別の態様において、顔マッチングが成功であるかどうかが判断され得る。
移動の後の表示位置と目標位置との間の距離をリアルタイムで計算することによって、活動検出又は顔マッチングが成功であるかどうかがタイムリーに検出され得る。
本実施形態において、スクリーン上の表示位置への生体特徴情報のマッピングを用いて、表示位置と目標位置との間の関係に基づいて、ユーザが生物であるか否かの判断がなされ得、これにより、ユーザ本人認証中に、生物の生体特徴情報のみが照合され、このことは、セキュリティを向上させる。
図10は、本開示の実施形態による本人認証デバイス100を図示する概略構造図である。デバイスは、携帯電話、又は同様のもの等の端末上に構成され得る。デバイスは、取得モジュール101、判断モジュール102、送信モジュール103、及び受信モジュール104を含む。
取得モジュール101は、ユーザの本人認証リクエストを受信すると、そのユーザの生体特徴情報を収集するよう構成される。ユーザが本人認証を求めることを望む場合に、本人認証リクエストを生成するために、端末のログインインタフェース上の本人認証ボタンがクリックされ得る。ユーザによって生成された本人認証リクエストを受信すると、端末は、顔情報及び同様のもの等の生体特徴情報を取得し得る。
判断モジュール102は、収集された生体特徴情報によってユーザが生物であるかどうかを判断するよう構成される。
判断モジュール102は、端末のスクリーン上の初期位置にユーザの収集された生体特徴情報を表示する、初期位置によって目標位置を決定し、スクリーン上に目標位置を表示する、スクリーン上の生体特徴情報の表示位置が初期位置から目標位置に移動するように、ユーザに、生体特徴情報を移動させるよう促す、及び移動後のスクリーン上の生体特徴情報の表示位置を検出し、表示位置と目標位置との間の関係によってユーザが生物であるかどうかを判断するよう構成される。
本明細書で上記に記載の1又は複数の実施形態に関連して提供される活動検出の詳細等の、本開示における他の箇所で見られる活動検出の詳細はまた、これには限定されないが、図10の実施形態に適用可能であり得る。
送信モジュール103は、判断モジュールがユーザが生物であると判断した場合、認証サーバにユーザの生体特徴情報を送信するよう構成される。認証サーバに送信された生体特徴情報は、複数の生体特徴情報から選択することにより取得され得る。
任意で、送信モジュール103は、ユーザの収集された生体特徴情報の画像フレーム品質を決定する、ユーザの収集された生体特徴情報から、画像フレーム品質の観点で上位にランク付けされる生体特徴情報の第1のN個の画像フレームを選択する、Nは、予め定められた正整数である、及び、認証サーバに、画像フレーム品質の観点で上位にランク付けされる生体特徴情報の選択された第1のN個の画像フレームを送信するよう構成され得る。
上で説明されたように、端末がユーザに移動させるよう促した後、ユーザは、頭部を移動させ得、ユーザによる頭部を移動させるプロセス中に、端末は、複数の顔写真を取得すべく、ユーザの顔に関する写真をリアルタイムで撮り得る。複数の顔写真は、移動の促しと成功である顔マッチングの確認(すなわち、ユーザは生物であるという決定)との間の期間中にユーザに関して端末によってリアルタイムで撮られた顔写真であり得る。
その後、活動検出が行われ得、複数の生体特徴情報の取得及び活動検出のプロセスに対して、上記の関連する実施形態を参照し得、これらは、従って、本明細書にこれ以上記載されない。
品質を推定するための異なる測定アルゴリズムが、その対応する品質が推定される異なる生体特徴情報によって用いられ得る。顔写真を例として用いて、画像の品質は、ジェスチャ(顔が正面を向いているかどうか)、光(顔の光が十分かどうか)、顔の表情(任意の顔の表情が存在するかどうか)、及び同様のものによって測定され得る。
特定の測定アルゴリズムが、実際のニーズによって定義され得る。例えば、様々なパラメータ(ジェスチャ、光、及び顔の表情)に重みが割り当てられ得、各パラメータの値が、それにそのそれぞれの重みを乗算することによって重み付けされ得る。各顔写真の画像フレーム品質は、重み付けされたパラメータ値の集約であると決定され得、例えば、乗算後の値は、共に加算され、各顔写真の画像フレーム品質の値を取得する。顔写真は、画像フレーム品質によって、例えば、降順に順序付けられ得、各写真の画像品質は、写真の重み付けされたパラメータ値の集約である。N個の写真が、順序付け、例えば、画像フレーム品質値の降順に基づいて選択され得る。例として及びNの値が1であると仮定し、順位の上位の写真、例えば、最大値をもつ写真は、選択される。例えば、その画像フレーム品質が第1位にランク付けされる顔写真が選択された後、顔写真は、認証サーバに送信される。
受信モジュール104は、認証サーバによって送信された本人認証結果が受信するよう構成され、本人認証結果は、認証サーバが生体特徴情報をユーザに対応する予め記憶された生体特徴情報と比較した後、送信される。
顔写真を送信する場合に、端末はまた、ユーザ識別子情報を送信し得る。認証サーバは、ユーザ識別子情報と顔写真との間の関係を予め記憶する。ユーザ識別子情報及び端末によって送信された顔写真を受信すると、認証サーバは、ユーザ識別子情報に従って予め記憶された顔写真を取得し得、受信された顔写真を予め記憶された顔写真と比較し得、本人認証結果を取得する。
顔写真比較が、例えば、ディープラーニングに基づく顔比較アルゴリズム、又は高次元特徴に基づく顔比較アルゴリズム等の既存のアルゴリズムを用いて実行され得る。
本人認証結果を取得すると、サーバは、端末に本人認証結果を送信し得る。本人認証結果を受信すると、端末は、ユーザに結果を表示する。本人認証が成功である場合に、ユーザは、ログインすることが可能である。そうでない場合、ユーザのログインは失敗する。
加えて、端末が認証サーバに複数の写真を送信する場合、認証サーバは、受信された写真を予め記憶された写真と1つずつ比較し得る。比較を通じて受信された写真のうちの1つが予め記憶された写真と一致する場合、それは、認証が成功であることを示す。
上で提供されたように、ユーザが生物であると決定された後、例えば、表示位置と目標位置とが一致すると決定された後、照合プロセスが行われ得、活動検出に関連してユーザが生物であることを示す。
別の態様において少なくとも1つの実施形態によると、生物が存在しない、例えば、表示位置と目標位置とが満足のいくように一致しないという決定がなされる場合に、活動検出に関連して生物の不在を示し、端末は、認証サーバからの照合を獲得する必要なく、ユーザに不成功の本人認証を示す情報を直接戻す。
本実施形態において、本人認証の前に活動検出が行われ、ユーザが生物である場合に、更なる照合が実行され、写真及び同様のものの形態で照合情報をスプーフィングすることを防止し、従って、認証中のセキュリティを向上させる。
「第1の」、「第2の」及び同様のもの等の用語は、本開示において説明目的のために単に用いられており、相対的な重要性を示す、又は示唆するものとして理解されるべきではないことに留意されるべきである。加えて、本開示において、「複数の(multiple)」又は「複数の(a plurality of)」の意味は、特に指定しない限り、少なくとも2つを指す。
任意の方法でフローチャートにおいて図示されているか、又は本明細書に記載の任意のプロセス又は方法の説明が、プロセスにおける特定の論理機能又は段階を実装するための実行可能な命令を含む1つの又は複数のモジュール、セグメント又はコード部分を含むものとして理解され得る。加えて、本開示の好適な実施形態の範囲は、他の実装を包含する。機能又は段階の実装は、説明され又は議論されているシーケンスに限定され得ない。しかしながら、これらの機能は、実質的に同時に又は逆のシーケンスで実装され得、このことは、本開示の実施形態によって当業者により理解されるはずである。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせを用いて実装され得ることが理解されるべきである。上記の実施形態において、複数の段階又は方法は、メモリに格納され、適切な命令実行システムによって実行されるソフトウェア又はファームウェアを用いて実装され得る。例えば、複数の段階又は方法がハードウェアを用いて実装される場合、別の実施形態と同様に、段階又は方法は、当技術分野において一般に知られている以下の技術、データ信号によって論理機能を実装するように構成される論理ゲート回路のディスクリート論理回路、適切な組み合わせの論理ゲートを有する特定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)、及び同様のもの、のうちのいずれか1つ又は組み合わせを用いて実装され得る。
当業者であれば、実施形態における方法の段階の全部又は一部が、関連するハードウェアを指示するプログラムによって実装され得ることを理解する。プログラムは、コンピュータ可読記憶媒体に格納されてよい。プログラムが実行される場合に、段階のうちの1つ又はそれらの組み合わせが方法の実施形態に含まれる。
加えて、本開示の実施形態による様々な機能ユニットが、処理モジュールに統合され得、又はそれぞれ独立した物理ユニットであり得、代替的に、2又はそれより多くのユニットが、モジュールに統合され得る。上記の統合されたモジュールは、ハードウェアを用いて実装され得、またソフトウェア機能モジュールを用いて実装され得る。統合されたモジュールがソフトウェア機能モジュールを用いて実装され、独立した製品として販売され又は使用される場合、統合されたモジュールはまた、コンピュータ可読記憶媒体に格納され得る。
上述の記憶媒体は、リードオンリメモリ、磁気ディスク、コンパクトディスクリードオンリメモリ又は同様のものであり得る。
本明細書の記載において、「実施形態」、「いくつかの実施形態」、「例」、「特定の例」、「いくつかの例」、又は同様のもの等の参照用語は、実施形態又は例と組み合わせて説明されている、特定の特徴、構造、材料、又は特性は、本開示の少なくとも1つの実施形態又は例に含まれていることを示すことを意図される。本明細書において、上記の用語の概略的な表現は、必ずしも同一の実施形態又は例を示すものではない。加えて、説明されている特定の特徴、構造、材料、又は特性は、任意の1又は複数の実施形態又は例において、適切なやり方で組み合わされ得る。
上記の記載は、本開示の実施形態を説明するが、実施形態は、単に例示的であり、本開示への限定として解釈されるべきではないことが理解され得る。当業者であれば、本開示の範囲内で上記の実施形態に変形形態、修正形態、及び代替形態を導き出し得る。

Claims (17)

  1. コンピューティングデバイスが、ユーザの生体特徴情報を収集することと、
    前記コンピューティングデバイスが、前記コンピューティングデバイスのスクリーン上の初期位置に前記収集された生体特徴情報を表示することと、
    前記コンピューティングデバイスが、候補目標位置をランダムに生成することと、
    前記コンピューティングデバイスが、前記候補目標位置と前記初期位置とが予め定められた条件を満たす旨を決定した場合に、前記候補目標位置を目標位置として用いることと、
    前記コンピューティングデバイスが、前記スクリーン上に前記目標位置を表示することと、
    前記コンピューティングデバイスが、前記ユーザに、前記ユーザの生体特徴情報を移動させ、前記表示された生体特徴を前記スクリーン上の前記初期位置から前記スクリーン上の前記目標位置に移動させるように促すことと、
    前記コンピューティングデバイスが、前記ユーザの生体特徴情報の移動を検出し、前記検出されたユーザの移動を用いて前記表示された生体特徴情報の表示位置を決定することと、
    前記コンピューティングデバイスが、前記決定された表示位置と前記目標位置との間の関係を用いて、前記ユーザが生物であるかどうかを判断することと
    を備える
    方法。
  2. 前記コンピューティングデバイスのスクリーン上の初期位置に前記収集された生体特徴情報を表示することは、
    前記コンピューティングデバイスが、前記ユーザの前記収集された生体特徴情報のキー領域を決定することと、
    前記コンピューティングデバイスが前記キー領域内で収集された生体特徴情報を用いて、前記収集された生体特徴情報の初期ジェスチャを取得することと、
    前記コンピューティングデバイスが、前記初期ジェスチャを用いて座標マッピングを行い、前記コンピューティングデバイスの前記スクリーン上の前記初期位置に、前記収集された生体特徴情報をマッピングすることとを含む、請求項1に記載の方法。
  3. 前記初期ジェスチャを用いて座標マッピングを行い、前記コンピューティングデバイスの前記スクリーン上の前記初期位置に、前記収集された生体特徴情報をマッピングすることは、
    前記コンピューティングデバイスが、第1座標系の座標と第2座標系の座標との間のマッピング関係を取得することであって、前記第1座標系は、前記ユーザの前記生体特徴情報との使用のためであり、前記第2座標系は、前記コンピューティングデバイスのスクリーンとの使用のためである、取得することと、
    前記マッピング関係を用いて前記初期ジェスチャに対応する前記初期位置の座標を決定することと、
    前記初期位置の前記座標を用いて、前記初期位置に前記収集された生体特徴情報の少なくとも一部をマッピングすることとを含む、請求項2に記載の方法。
  4. 前記候補目標位置と前記初期位置とが予め定められた条件を満たすかどうかを判断することは、
    前記コンピューティングデバイスが、前記候補目標位置と前記初期位置との間の距離を計算することと、
    前記コンピューティングデバイスが、前記距離が第1の予め定められた値より小さいかどうかを判断することと、
    前記距離が前記第1の予め定められた値より小さい場合、前記コンピューティングデバイスが、前記距離が前記第1の予め定められた値より大きい又は前記第1の予め定められた値と等しくなるまで候補目標位置を再生成することと、
    前記距離が前記第1の予め定められた値より大きい又は前記第1の予め定められた値と等しい場合に、前記コンピューティングデバイスが、前記候補目標位置と前記初期位置とが前記予め定められた条件を満たすと判断することとを含む、請求項に記載の方法。
  5. 前記表示位置と前記目標位置との間の関係を用いて、前記ユーザが生物であるかどうかを判断することは、
    前記表示位置と前記目標位置との間の距離が、第2の予め定められた値より小さい場合に、前記ユーザが、前記表示された生体特徴を成功裏に移動したと判断することと、
    前記ユーザが前記表示された生体特徴を成功裏に移動したと判断される回数が、予め定められた回数に達する場合、前記ユーザが生物であると判断することとを含む、請求項1からの何れか一項に記載の方法。
  6. 前記検出されたユーザの移動を用いて前記表示された生体特徴情報の前記表示位置を決定することは、
    前記ユーザの移動を検出することに応じて、前記ユーザによる前記生体特徴情報の移動のジェスチャ情報を取得することであって、前記ジェスチャ情報は、第1座標系にある、取得することと、
    前記第1座標系内の座標と第2座標系内の座標との間の予め設定されたマッピング関係を用い、前記第1座標系内の前記ジェスチャ情報に対応する前記第2座標系内の座標を計算することと、
    前記第2座標系内の前記計算された座標を用いて前記表示された生体特徴情報の前記スクリーン上の前記表示位置を決定することであって、前記第1座標系は、前記ユーザの生体特徴情報との使用のための座標系であり、前記第2座標系は、前記スクリーンとの使用のための座標系である、決定することとを含む、請求項1からの何れか一項に記載の方法。
  7. 前記ユーザの生体特徴情報は、顔情報である、請求項1からの何れか一項に記載の方法。
  8. ユーザの本人認証命令を受信すると、コンピューティングデバイスが、前記ユーザの生体特徴情報を収集することと、
    前記コンピューティングデバイスが、前記収集された生体特徴情報によって前記ユーザが生物であるかどうかを判断することと、
    前記ユーザが生物であると判断される場合、前記コンピューティングデバイスが、認証サーバに前記ユーザの前記収集された生体特徴情報を送信することと、
    前記コンピューティングデバイスが前記認証サーバから、前記収集された生体特徴情報の、前記ユーザに対応する予め記憶された生体特徴情報との比較の本人認証結果を受信することと
    を備える方法であって、
    前記コンピューティングデバイスが、前記ユーザが生物であるかどうかを前記判断することは、
    前記コンピューティングデバイスのスクリーン上の初期位置に前記収集された生体特徴情報の少なくとも一部を表示することと、
    候補目標位置をランダムに生成することと、
    前記候補目標位置と前記初期位置とが予め定められた条件を満たす旨を決定した場合に、前記候補目標位置を目標位置として用いることと、
    記スクリーン上に前記目標位置を表示することと、
    前記ユーザに、前記ユーザの生体特徴情報を移動させ、前記表示された生体特徴を前記スクリーン上の前記初期位置から前記スクリーン上の前記目標位置に移動させるように促すことと、
    前記ユーザの生体特徴情報の移動を検出し、前記検出されたユーザの移動を用いて前記表示された生体特徴情報の表示位置を決定することと、
    前記決定された表示位置と前記目標位置との間の関係を用いて、前記ユーザが生物であるかどうかを判断することと
    を有する、
    方法。
  9. 認証サーバに前記ユーザの前記収集された生体特徴情報を前記送信することは、
    前記コンピューティングデバイスが、前記ユーザの前記収集された生体特徴情報の画像フレーム品質を決定することと、
    前記コンピューティングデバイスが前記ユーザの前記収集された生体特徴情報から、画像フレーム品質の観点で上位にランク付けされた前記収集された生体特徴情報の画像フレームの数を選択することであって、前記数は、予め定められた正整数である、選択することと、
    前記コンピューティングデバイスが、前記認証サーバに画像フレーム品質の観点で前記上位にランク付けされ、前記選択された数の前記収集された生体特徴情報の画像フレームを送信することとを含む、請求項に記載の方法。
  10. ユーザの生体特徴情報を収集し、コンピューティングデバイスのスクリーン上の初期位置に前記収集された生体特徴情報を表示する第1の表示モジュールと、
    候補目標位置をランダムに生成し、前記候補目標位置と前記初期位置とが予め定められた条件を満たす場合に、前記候補目標位置を目標位置として用い、前記スクリーン上に前記目標位置を表示する第2の表示モジュールと、
    前記ユーザに、前記ユーザの生体特徴情報を移動させ、前記表示された生体特徴を前記スクリーン上の前記初期位置から前記スクリーン上の前記目標位置に移動させるように促す促しモジュールと、
    前記ユーザの生体特徴情報の移動を検出し、前記検出されたユーザの移動を用いて前記表示された生体特徴情報の表示位置を決定し、前記決定された表示位置と前記目標位置との間の関係を用いて、前記ユーザが生物であるかどうかを判断する判断モジュールと
    を備える
    デバイス。
  11. 前記第1の表示モジュールがコンピューティングデバイスのスクリーン上の初期位置に前記生体特徴情報を表示することは、
    前記第1の表示モジュールが前記ユーザの前記収集された生体特徴情報のキー領域を決定することと、
    前記第1の表示モジュールが計算を通して及び前記キー領域内で生体特徴情報を用いて、前記収集された生体特徴情報の初期ジェスチャを取得することと、
    前記第1の表示モジュールが前記初期ジェスチャを用いて座標マッピングを行い、前記コンピューティングデバイスの前記スクリーン上の前記初期位置に、前記収集された生体特徴情報をマッピングすることとを含む、請求項10に記載のデバイス。
  12. 前記第1の表示モジュールが前記初期ジェスチャを用いて座標マッピングを行い、前記コンピューティングデバイスの前記スクリーン上の前記初期位置に、前記生体特徴情報をマッピングすることは、
    前記第1の表示モジュールが第1座標系の座標と第2座標系の座標との間のマッピング関係を取得することであって、前記第1座標系は、前記ユーザの前記生体特徴情報との使用のためであり、前記第2座標系は、前記コンピューティングデバイスのスクリーンとの使用のためである、取得することと、
    前記第1の表示モジュールが前記マッピング関係を用いて前記初期ジェスチャに対応する前記初期位置の座標を決定することと、
    前記第1の表示モジュールが前記初期位置の前記座標を用いて、前記初期位置に前記収集された生体特徴情報の少なくとも一部をマッピングすることとを含む、請求項11に記載のデバイス。
  13. 前記第2の表示モジュールが前記候補目標位置と前記初期位置とが予め定められた条件を満たすかどうかを判断することは、
    前記第2の表示モジュールが前記候補目標位置と前記初期位置との間の距離を計算することと、
    前記第2の表示モジュールが前記距離が第1の予め定められた値より小さいかどうかを判断することと、
    前記距離が前記第1の予め定められた値より小さい場合、前記第2の表示モジュールが前記距離が前記第1の予め定められた値より大きい又は前記第1の予め定められた値と等しくなるまで候補目標位置を再生成することと、
    前記距離が前記第1の予め定められた値より大きい又は前記第1の予め定められた値と等しい場合に、前記第2の表示モジュールが前記候補目標位置と前記初期位置とが前記予め定められた条件を満たすと判断することとを含む、請求項10に記載のデバイス。
  14. 前記表示位置と前記目標位置との間の関係を用いて、前記判断モジュールが前記ユーザが生物であるかどうかを判断することは、
    前記表示位置と前記目標位置との間の距離が、前記判断モジュールが第2の予め定められた値より小さい場合に、移動が成功であると判断することと、
    成功である移動の回数が、予め定められた回数に達する場合、前記判断モジュールが前記ユーザが生物であると判断することとを含む、請求項10から13の何れか一項に記載のデバイス。
  15. 前記判断モジュールが前記検出されたユーザの移動を用いて前記表示された生体特徴情報の前記表示位置を決定することは、
    前記判断モジュールが前記ユーザの移動を検出することに応じて、前記ユーザによる前記生体特徴情報の移動のジェスチャ情報を取得することであって、前記ジェスチャ情報は、第1座標系にある、取得することと、
    前記判断モジュールが前記第1座標系内の座標と第2座標系内の座標との間の予め設定されたマッピング関係を用い、前記第1座標系内の前記ジェスチャ情報に対応する前記第2座標系内の座標を計算することと、
    前記判断モジュールが前記第2座標系内の前記計算された座標を用いて前記表示された生体特徴情報の前記スクリーン上の前記表示位置を決定することであって、前記第1座標系は、前記ユーザの生体特徴情報との使用のための座標系であり、前記第2座標系は、前記スクリーンとの使用のための座標系である、決定することとを含む、請求項10から14の何れか一項に記載のデバイス。
  16. ユーザの本人認証命令を受信すると、取得モジュールが前記ユーザの生体特徴情報を収集することと、
    判断モジュールが前記収集された生体特徴情報によって前記ユーザが生物であるかどうかを判断することと、
    前記判断モジュールが、前記ユーザが生物であると判断した場合、送信モジュールが認証サーバに前記ユーザの前記収集された生体特徴情報を送信することと、
    受信モジュールが、前記認証サーバから、前記収集された生体特徴情報の、前記ユーザに対応する予め記憶された生体特徴情報との比較の本人認証結果を受信することと
    を備えるデバイスであって、
    前記判断モジュールが前記収集された生体特徴情報によって前記ユーザが生物であるかどうかを判断することは、
    前記判断モジュールが前記デバイスのスクリーン上の初期位置に前記収集された生体特徴情報の少なくとも一部を表示することと、
    前記判断モジュールが候補目標位置をランダムに生成し、前記候補目標位置と前記初期位置とが予め定められた条件を満たす場合に、前記候補目標位置を目標位置として用い、前記スクリーン上に前記目標位置を表示することと、
    前記判断モジュールが前記ユーザに、前記ユーザの生体特徴情報を移動させ、前記表示された生体特徴を前記スクリーン上の前記初期位置から前記スクリーン上の前記目標位置に移動させるように促すことと、
    前記判断モジュールが前記ユーザの生体特徴情報の移動を検出し、前記検出されたユーザの移動を用いて前記表示された生体特徴情報の表示位置を決定することと、
    前記判断モジュールが前記決定された表示位置と前記目標位置との間の関係を用いて、前記ユーザが生物であるかどうかを判断することと
    を含む、
    デバイス。
  17. 前記送信モジュールが認証サーバに前記ユーザの前記収集された生体特徴情報を送信することは、
    前記送信モジュールが前記ユーザの前記収集された生体特徴情報の画像フレーム品質を決定することと、
    前記送信モジュールが前記ユーザの前記収集された生体特徴情報から、画像フレーム品質の観点で上位にランク付けされた前記収集された生体特徴情報の画像フレームの数を選択することであって、前記数は、予め定められた正整数である、選択することと、
    前記送信モジュールが前記認証サーバに画像フレーム品質の観点で前記上位にランク付けされ、前記選択された数の前記収集された生体特徴情報の画像フレームを送信することとを含む、請求項16に記載のデバイス。
JP2017556528A 2015-06-10 2016-06-09 活動検出方法及びデバイス、並びに本人認証方法及びデバイス Active JP6610906B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201510315782.2 2015-06-10
CN201510315782.2A CN106295287B (zh) 2015-06-10 2015-06-10 活体检测方法和装置以及身份认证方法和装置
US15/176,515 2016-06-08
US15/176,515 US10250598B2 (en) 2015-06-10 2016-06-08 Liveness detection method and device, and identity authentication method and device
PCT/US2016/036547 WO2016201016A1 (en) 2015-06-10 2016-06-09 Liveness detection method and device, and identity authentication method and device

Publications (2)

Publication Number Publication Date
JP2018524654A JP2018524654A (ja) 2018-08-30
JP6610906B2 true JP6610906B2 (ja) 2019-11-27

Family

ID=57517360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556528A Active JP6610906B2 (ja) 2015-06-10 2016-06-09 活動検出方法及びデバイス、並びに本人認証方法及びデバイス

Country Status (6)

Country Link
US (1) US10250598B2 (ja)
EP (1) EP3308325B1 (ja)
JP (1) JP6610906B2 (ja)
KR (1) KR102036978B1 (ja)
CN (1) CN106295287B (ja)
TW (1) TWI662433B (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104980278B (zh) * 2014-04-14 2018-11-16 阿里巴巴集团控股有限公司 验证生物特征图像的可用性的方法和装置
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition
US11042725B2 (en) * 2016-12-16 2021-06-22 Keylemon Sa Method for selecting frames used in face processing
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US11199907B2 (en) * 2017-05-29 2021-12-14 Abhinav Arvindkumar AGGARWAL Method and a system for assisting in performing financial services
CN107292620A (zh) * 2017-06-14 2017-10-24 浪潮金融信息技术有限公司 身份识别方法及装置、计算机可读存储介质、终端
CN107609462A (zh) * 2017-07-20 2018-01-19 北京百度网讯科技有限公司 待检测信息生成及活体检测方法、装置、设备及存储介质
CN107657160B (zh) * 2017-09-12 2020-01-31 Oppo广东移动通信有限公司 面部信息采集方法及相关产品
CN109587188B (zh) * 2017-09-28 2021-10-22 阿里巴巴集团控股有限公司 确定终端设备之间相对位置关系的方法、装置及电子设备
CN107832598B (zh) * 2017-10-17 2020-08-14 Oppo广东移动通信有限公司 解锁控制方法及相关产品
KR20190046063A (ko) * 2017-10-25 2019-05-07 현대자동차주식회사 사용자 인증 시스템, 사용자 인증 방법 및 서버
CN107733911A (zh) * 2017-10-30 2018-02-23 郑州云海信息技术有限公司 一种动力与环境监控***客户端登录验证***及方法
FR3077658B1 (fr) * 2018-02-06 2020-07-17 Idemia Identity And Security Procede d'authentification d'un visage
CN108509916A (zh) * 2018-03-30 2018-09-07 百度在线网络技术(北京)有限公司 用于生成图像的方法和装置
CN109345253A (zh) * 2018-09-04 2019-02-15 阿里巴巴集团控股有限公司 资源转移方法、装置及***
WO2020095350A1 (ja) * 2018-11-05 2020-05-14 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
CN110532744A (zh) * 2019-07-22 2019-12-03 平安科技(深圳)有限公司 人脸登录方法、装置、计算机设备及存储介质
US11263634B2 (en) * 2019-08-16 2022-03-01 Advanced New Technologies Co., Ltd. Payment method and device
KR102115989B1 (ko) * 2020-02-25 2020-05-27 주식회사 이글루시큐리티 3차원 대시보드 제공 방법, 장치 및 프로그램
KR102389587B1 (ko) * 2020-10-13 2022-04-25 (주)드림시큐리티 안면인식 바이오 정보 라이브니스 검증 장치 및 방법
CN112363621B (zh) * 2020-11-13 2024-05-14 北京达佳互联信息技术有限公司 一种终端控制方法、装置、电子设备及存储介质
KR102545565B1 (ko) * 2021-10-06 2023-06-21 주식회사 오픈잇 라이브니스 검증 방법, 및 이를 이용하는 서버 및 프로그램
CN116994344A (zh) * 2022-07-18 2023-11-03 腾讯科技(深圳)有限公司 刷掌验证的引导方法、装置、终端、存储介质及程序产品
CN116883003A (zh) * 2023-07-10 2023-10-13 国家电网有限公司客户服务中心 基于生物探针技术的移动端支付购电反欺诈方法、***

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0146446B1 (ko) * 1995-07-24 1998-08-17 양승택 병렬 공통 버스형 고속 패킷 교환 시스템의 가입자 입출력 장치
JP2003317100A (ja) 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd 情報端末装置、認証システム、及び登録・認証方法
FI117217B (fi) * 2003-10-01 2006-07-31 Nokia Corp Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi
US7629880B2 (en) * 2004-03-09 2009-12-08 Ingrid, Inc. System, method and device for detecting a siren
EP1715443B1 (en) 2005-04-22 2012-12-05 Hitachi-Omron Terminal Solutions, Corp. Biometrics authentication apparatus
JP2007241500A (ja) * 2006-03-07 2007-09-20 Toshiba Corp 顔認証装置および顔認証方法
US8014571B2 (en) 2006-05-15 2011-09-06 Identix Incorporated Multimodal ocular biometric system
JP4752660B2 (ja) * 2006-07-28 2011-08-17 沖電気工業株式会社 個人認証方法及び個人認証装置
KR100851981B1 (ko) 2007-02-14 2008-08-12 삼성전자주식회사 비디오 영상에서 실 객체 판별 방법 및 장치
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
WO2010070745A1 (ja) 2008-12-17 2010-06-24 富士通株式会社 生体認証装置及び生体認証方法
TW201113523A (en) * 2009-08-31 2011-04-16 Mbio Diagnostics Inc Integrated sample preparation and analyte detection
EP2357608B1 (en) * 2009-12-28 2012-11-21 Softkinetic Software Tracking method
US8994499B2 (en) * 2011-03-16 2015-03-31 Apple Inc. Locking and unlocking a mobile device using facial recognition
JP2012196286A (ja) * 2011-03-18 2012-10-18 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP4916583B1 (ja) * 2011-05-31 2012-04-11 有限会社はたらきもの 画像利用式認証方法
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US8988350B2 (en) * 2011-08-20 2015-03-24 Buckyball Mobile, Inc Method and system of user authentication with bioresponse data
TWI624543B (zh) * 2011-09-25 2018-05-21 賽瑞諾斯有限公司 用於多重分析的系統和方法
WO2013100898A1 (en) 2011-12-27 2013-07-04 Intel Corporation Turing test based user authentication and user presence verification system, device, and method
US9025830B2 (en) 2012-01-20 2015-05-05 Cyberlink Corp. Liveness detection system based on face behavior
US9082011B2 (en) 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
US9208492B2 (en) 2013-05-13 2015-12-08 Hoyos Labs Corp. Systems and methods for biometric authentication of transactions
TW201401186A (zh) * 2012-06-25 2014-01-01 Psp Security Co Ltd 人臉判斷系統以及方法
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
EP2713307B1 (en) 2012-09-28 2018-05-16 Accenture Global Services Limited Liveness detection
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
CN104166835A (zh) * 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置
CN103440479B (zh) * 2013-08-29 2016-12-28 湖北微模式科技发展有限公司 一种活体人脸检测方法与***
TW201512882A (zh) 2013-09-30 2015-04-01 Hon Hai Prec Ind Co Ltd 身份認證系統及方法
US9305225B2 (en) 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
US9020213B1 (en) 2013-10-17 2015-04-28 Daon Holdings Limited Methods and systems for detecting biometric characteristics in an image
US9202119B2 (en) 2013-10-18 2015-12-01 Daon Holdings Limited Methods and systems for determining user liveness
CN103593598B (zh) * 2013-11-25 2016-09-21 上海骏聿数码科技有限公司 基于活体检测和人脸识别的用户在线认证方法及***
KR20150087670A (ko) * 2014-01-22 2015-07-30 삼성전자주식회사 스마트 워치 및 그 제어 방법

Also Published As

Publication number Publication date
EP3308325A4 (en) 2019-01-23
EP3308325A1 (en) 2018-04-18
CN106295287A (zh) 2017-01-04
US10250598B2 (en) 2019-04-02
US20160366129A1 (en) 2016-12-15
EP3308325C0 (en) 2023-10-25
KR102036978B1 (ko) 2019-10-25
CN106295287B (zh) 2019-04-09
TWI662433B (zh) 2019-06-11
EP3308325B1 (en) 2023-10-25
KR20180017056A (ko) 2018-02-20
TW201643761A (zh) 2016-12-16
JP2018524654A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6610906B2 (ja) 活動検出方法及びデバイス、並びに本人認証方法及びデバイス
US10546183B2 (en) Liveness detection
EP3332403B1 (en) Liveness detection
JP6762380B2 (ja) 身分認証方法および装置
EP2842075B1 (en) Three-dimensional face recognition for mobile devices
Li et al. Seeing your face is not enough: An inertial sensor-based liveness detection for face authentication
EP3862897B1 (en) Facial recognition for user authentication
JP6809226B2 (ja) 生体検知装置、生体検知方法、および、生体検知プログラム
WO2016127437A1 (zh) 活体人脸验证方法及***、计算机程序产品
JP6754642B2 (ja) 生体検知装置
CN111194449A (zh) 用于人脸活体检测的***和方法
CN105654048A (zh) 一种多视角人脸比对方法
EP3282390B1 (en) Methods and systems for determining user liveness and verifying user identities
JP6265592B2 (ja) 顔特徴抽出装置および顔認証システム
CN109729268B (zh) 一种人脸拍摄方法、装置、设备及介质
JP5871765B2 (ja) 顔画像認証装置
WO2016201016A1 (en) Liveness detection method and device, and identity authentication method and device
JP5975828B2 (ja) 顔特徴抽出装置および顔認証システム
KR102483647B1 (ko) 라이브니스 검증 방법 및 장치
KR20160045371A (ko) 생체 정보를 이용한 사용자 인증 방법
JP2007004534A (ja) 顔判別方法および装置ならびに顔認証装置
CN115035579A (zh) 基于人脸交互动作的人机验证方法和***
TW202044112A (zh) 三維活體識別之人臉識別系統、三維活體識別方法及儲存媒體
TW201918935A (zh) 臉部辨識系統及臉部辨識方法
Li et al. Seeing your Face is not Enough: An Inertial Sensor-based Liveness Detection for Face Authentication.(2015)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191015

R150 Certificate of patent or registration of utility model

Ref document number: 6610906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250