JP7004059B2 - なりすまし検知装置、なりすまし検知方法、及びプログラム - Google Patents
なりすまし検知装置、なりすまし検知方法、及びプログラム Download PDFInfo
- Publication number
- JP7004059B2 JP7004059B2 JP2020501932A JP2020501932A JP7004059B2 JP 7004059 B2 JP7004059 B2 JP 7004059B2 JP 2020501932 A JP2020501932 A JP 2020501932A JP 2020501932 A JP2020501932 A JP 2020501932A JP 7004059 B2 JP7004059 B2 JP 7004059B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- face
- image frame
- bright spot
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Input (AREA)
Description
撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、顔画像取得部と、
前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、顔情報抽出部と、
前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む部分を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する部分を抽出し、抽出した2つの部分から、前記輝点の位置に依存しない特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、なりすまし判定部と、を備えている、
ことを特徴とする。
(a)撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、ステップと、
(b)前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、ステップと、
(c)前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む部分を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する部分を抽出し、抽出した2つの部分から、前記輝点の位置に依存しない特徴量を算出する、ステップと、
(d)前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、ステップと、を有する、
ことを特徴とする。
コンピュータに、
(a)撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、ステップと、
(b)前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、ステップと、
(c)前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む部分を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する部分を抽出し、抽出した2つの部分から、前記輝点の位置に依存しない特徴量を算出する、ステップと、
(d)前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、ステップと、
を実行させる命令を含む、ことを特徴とする。
まず、本発明の実施の形態を説明する前に、本発明の概要について説明する。上述のように、瞳の虹彩領域での反射によって形成された輝点の位置は、フラッシュからの光の虹彩領域への入射角、対象者の顔の向きによって変化してしまう。このため、背景技術の欄に記載した特許文献1においては、輝点の位置を予測し、予測した輝点の位置に基づいてなりすましを検知している。これに対して、本発明では、後述するように、位置依存性を解消した特徴量が用いられる。
以下、本発明の実施の形態1における、なりすまし検知装置、なりすまし検知方法、及びプログラムについて、図3~図5を参照しながら説明する。
最初に、図3を用いて、本実施の形態1におけるなりすまし検知装置の構成について説明する。図3は、本発明の実施の形態1におけるなりすまし検知装置の構成を示すブロック図である。
P.Viola and M. Jones, “Rapid Object Detection Using aBoosted Cascade of Simple Features,” Proceedings of the2001 IEEE Computer Society Conference on Computer Vision and PatternRecognition (CVPR), Vol. 1, 2001, pp. 511-518.
Zhang, Y., Sun, N., Gao, Y., and Cao, M. (2008). A new eye locationmethod based on Ring Gabor Filter. In Automation and Logistics, 2008. ICAL2008. IEEE International Conference On, (IEEE), pp. 301-305.
V. Vapnik and A. Lerner. Pattern recognition using generalizedportrait method. Automation and Remote Control, 24, 1963.
次に、本発明の実施の形態1における、なりすまし検知装置300の動作について図5を用いて説明する。図5は、本発明の実施の形態1における、なりすまし検知装置の動作を示すフロー図である。以下の説明においては、適宜図3及び図4を参酌する。また、本実施の形態1では、なりすまし検知装置300を動作させることによって、なりすまし検知方法が実施される。よって、本実施の形態1におけるなりすまし検知方法の説明は、以下のなりすまし検知装置300の動作説明に代える。
以上のように本実施の形態1によれば、なりすまし検知装置300は、対象者の瞳の虹彩領域に形成された輝点の位置に依存しない特徴量を算出し、この特徴量に基づいて、なりすましかどうかを判定することができる。このため、本実施の形態1によれば、撮像装置310と顔との位置関係に影響されることなく、即ち、反射輝点の位置依存性に影響されることなく、なりすまし検知を行うことができる。
本実施の形態1におけるプログラムは、コンピュータに、図5に示すステップA1~A4を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における、なりすまし検知装置300となりすまし検知方法とを実現することができる。この場合、コンピュータのプロセッサは、顔画像取得部301、顔情報抽出部302、特徴量算出部303、及びなりすまし判定部304として機能し、処理を行なう。
次に、本発明の実施の形態2における、なりすまし検知装置、なりすまし検知方法、及びプログラムについて、図6及び図7を参照しながら説明する。
最初に、図6を用いて、本実施の形態2におけるなりすまし検知装置の構成について説明する。図6は、本発明の実施の形態2におけるなりすまし検知装置の構成を示すブロック図である。
次に、本発明の実施の形態2における、なりすまし検知装置350の動作について図5を用いて説明する。図7は、本発明の実施の形態2における、なりすまし検知装置の動作を示すフロー図である。以下の説明においては、適宜図6を参酌する。また、本実施の形態2では、なりすまし検知装置350を動作させることによって、なりすまし検知方法が実施される。よって、本実施の形態2におけるなりすまし検知方法の説明は、以下のなりすまし検知装置350の動作説明に代える。
以上のように本実施の形態2においても、実施の形態1と同様に、なりすまし検知装置350は、対象者の瞳の虹彩領域に形成された輝点の位置に依存しない特徴量を算出し、この特徴量に基づいて、なりすましかどうかを判定することができる。このため、本実施の形態2によれば、撮像装置310と顔との位置関係に影響されることなく、即ち、反射輝点の位置依存性に影響されることなく、なりすまし検知を行うことができる。
本実施の形態2におけるプログラムは、コンピュータに、図7に示すステップB1~B10を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における、なりすまし検知装置350となりすまし検知方法とを実現することができる。この場合、コンピュータのプロセッサは、顔画像取得部301、顔情報抽出部302、特徴量算出部303、なりすまし判定部304、及び撮影制御部305として機能し、処理を行なう。
次に、本発明の実施の形態3における、なりすまし検知装置、なりすまし検知方法、及びプログラムについて、図8~図9を参照しながら説明する。
最初に、本実施の形態3におけるなりすまし検知装置の構成について説明する。本実施の形態3において、なりすまし検知装置の構成は、図6に示した実施の形態2における、なりすまし検知装置350と同様の構成を備えている。従って、本実施の形態3においては、図6を参照する。
次に、本発明の実施の形態3における、なりすまし検知装置の動作について図8を用いて説明する。図8は、本発明の実施の形態3における、なりすまし検知装置の動作を示すフロー図である。以下の説明においては、適宜図6を参酌する。また、本実施の形態3では、なりすまし検知装置を動作させることによって、なりすまし検知方法が実施される。よって、本実施の形態3におけるなりすまし検知方法の説明は、以下のなりすまし検知装置の動作説明に代える。
以上のように、本実施の形態3では、発光装置320からの光が鏡面反射する虹彩領域と、発光装置320からの光が拡散反射する顔領域という反射の形態が異なる2領域を組み合わせて、特徴量が算出される。そして、この組合せによる特徴量によって真偽判定が行われるので、本実施の形態3によれば、より精度の高い、なりすまし検知が可能となる。
本実施の形態3におけるプログラムは、コンピュータに、図8に示すステップC1~C12を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態3における、なりすまし検知装置となりすまし検知方法とを実現することができる。この場合、コンピュータのプロセッサは、顔画像取得部301、顔情報抽出部302、特徴量算出部303、なりすまし判定部304、及び撮影制御部305として機能し、処理を行なう。
上述の実施の形態3においては、なりすまし判定部304は、ステップC8で算出した特徴量に基づいた真偽判定と、ステップC9で算出した特徴量に基づいた真偽判定とを別々に実行することができる。この場合、なりすまし判定部304は、2つの真偽判定の結果から総合的に判断して、最終的になりすましか否かを判定する。
ここで、実施の形態1~3におけるプログラムを実行することによって、なりすまし検知装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態1~3における、なりすまし検知装置を実現するコンピュータの一例を示すブロック図である。
撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、顔画像取得部と、
前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、顔情報抽出部と、
前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む部分を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する部分を抽出し、抽出した2つの部分から、前記輝点の位置に依存しない特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、なりすまし判定部と、を備えている、
ことを特徴とする、なりすまし検知装置。
付記1に記載のなりすまし検知装置であって、
前記発光装置における発光時間、及び前記撮像装置における撮影タイミングを設定する、撮影制御部を更に備えている、
ことを特徴とする、なりすまし検知装置。
付記1または2に記載のなりすまし検知装置であって、
前記特徴量算出部が、前記輝点の位置に依存しない特徴量に加えて、対象者の顔の立体的形状を反映する第2の特徴量を算出し、
前記なりすまし判定部が、前記輝点の位置に依存しない特徴量と、前記第2の特徴量とに基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、
ことを特徴とする、なりすまし検知装置。
付記3に記載のなりすまし検知装置であって、
前記なりすまし判定部が、前記輝点の位置に依存しない特徴量に基づいた真偽判定と、前記第2の特徴量に基づいた真偽判定とを別々に実行し、真偽判定毎に、真である可能性を示すスコアを算出し、各真偽判定で算出された前記スコアに基づいて、最終的な真偽判定を実行する、
ことを特徴とする、なりすまし検知装置。
(a)撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、ステップと、
(b)前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、ステップと、
(c)前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む部分を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する部分を抽出し、抽出した2つの部分から、前記輝点の位置に依存しない特徴量を算出する、ステップと、
(d)前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、ステップと、を有する、
ことを特徴とする、なりすまし検知方法。
付記5に記載のなりすまし検知方法であって、
(e)前記発光装置における発光時間、及び前記撮像装置における撮影タイミングを設定する、ステップを更に有する、
ことを特徴とする、なりすまし検知方法。
付記5または6に記載のなりすまし検知方法であって、
前記(c)のステップにおいて、前記輝点の位置に依存しない特徴量に加えて、対象者の顔の立体的形状を反映する第2の特徴量を算出し、
前記(d)のステップにおいて、前記輝点の位置に依存しない特徴量と、前記第2の特徴量とに基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、
ことを特徴とする、なりすまし検知方法。
付記7に記載のなりすまし検知方法であって、
前記(d)のステップにおいて、前記輝点の位置に依存しない特徴量に基づいた真偽判定と、前記第2の特徴量に基づいた真偽判定とを別々に実行し、真偽判定毎に、真である可能性を示すスコアを算出し、各真偽判定で算出された前記スコアに基づいて、最終的な真偽判定を実行する、
ことを特徴とする、なりすまし検知方法。
コンピュータに、
(a)撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、ステップと、
(b)前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、ステップと、
(c)前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む部分を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する部分を抽出し、抽出した2つの部分から、前記輝点の位置に依存しない特徴量を算出する、ステップと、
(d)前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、ステップと、を実行させる命令を含む、プログラム。
付記9に記載のプログラムであって、
前記コンピュータに、
(e)前記発光装置における発光時間、及び前記撮像装置における撮影タイミングを設定する、ステップを実行させる命令を更に含む、
ことを特徴とする、プログラム。
付記9または10に記載のプログラムであって、
前記(c)のステップにおいて、前記輝点の位置に依存しない特徴量に加えて、対象者の顔の立体的形状を反映する第2の特徴量を算出し、
前記(d)のステップにおいて、前記輝点の位置に依存しない特徴量と、前記第2の特徴量とに基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、
ことを特徴とする、プログラム。
付記11に記載のプログラムであって、
前記(d)のステップにおいて、前記輝点の位置に依存しない特徴量に基づいた真偽判定と、前記第2の特徴量に基づいた真偽判定とを別々に実行し、真偽判定毎に、真である可能性を示すスコアを算出し、各真偽判定で算出された前記スコアに基づいて、最終的な真偽判定を実行する、
ことを特徴とする、プログラム。
102 フラッシュ点灯中のカメラ付き端末装置
103 フラッシュ消灯中のカメラ付き端末装置
105 フラッシュ点灯中の画像
106 フラッシュ消灯中の画像
201、202 虹彩領域の画像の一部
203、204 虹彩領域から計算された従来の特徴量
205、206 虹彩領域から計算された本発明の特徴量
300 なりすまし検知装置(実施の形態1)
301 顔画像取得部
302 顔情報抽出部
303 特徴量算出部
304 なりすまし判定部
305 撮影制御部
310 撮像装置
320 発光装置
330 表示装置
340 入力装置
350 なりすまし検知装置(実施の形態2)
400 コンピュータ
401 プロセッサ
402 メモリ
403 ストレージ
404 入出力インタフェース(入出力I/F)
500 端末装置
701 本物の顔の虹彩領域から計算された特徴ベクトル
702 偽物の顔の虹彩領域から計算された特徴ベクトル
Claims (6)
- 撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、顔画像取得部と、
前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、顔情報抽出部と、
前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む第1の虹彩領域を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する第2の虹彩領域を抽出し、前記第1の虹彩領域のピクセル毎の輝度値L in と、前記第2の虹彩領域のピクセル毎の輝度値L out とを求め、ピクセル毎に仮の特徴量(L in -L out )を算出し、前記仮の特徴量を1次元のベクトルに変換し、ピクセル毎の値を昇順または降順に並び替えることによって変換を行って、前記輝点の位置に依存しない特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、なりすまし判定部と、を備えている、
ことを特徴とする、なりすまし検知装置。 - 請求項1に記載のなりすまし検知装置であって、
前記発光装置における発光時間、及び前記撮像装置における撮影タイミングを設定する、撮影制御部を更に備えている、
ことを特徴とする、なりすまし検知装置。 - 請求項1または2に記載のなりすまし検知装置であって、
前記特徴量算出部が、前記輝点の位置に依存しない特徴量に加えて、対象者の顔の立体的形状を反映する第2の特徴量を算出し、
前記なりすまし判定部が、前記輝点の位置に依存しない特徴量と、前記第2の特徴量とに基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、
ことを特徴とする、なりすまし検知装置。 - 請求項3に記載のなりすまし検知装置であって、
前記なりすまし判定部が、前記輝点の位置に依存しない特徴量に基づいた真偽判定と、前記第2の特徴量に基づいた真偽判定とを別々に実行し、真偽判定毎に、真である可能性を示すスコアを算出し、各真偽判定で算出された前記スコアに基づいて、最終的な真偽判定を実行する、
ことを特徴とする、なりすまし検知装置。 - (a)撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、ステップと、
(b)前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、ステップと、
(c)前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む第1の虹彩領域を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する第2の虹彩領域を抽出し、前記第1の虹彩領域のピクセル毎の輝度値L in と、前記第2の虹彩領域のピクセル毎の輝度値L out とを求め、ピクセル毎に仮の特徴量(L in -L out )を算出し、前記仮の特徴量を1次元のベクトルに変換し、ピクセル毎の値を昇順または降順に並び替えることによって変換を行って、前記輝点の位置に依存しない特徴量を算出する、ステップと、
(d)前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、ステップと、を有する、
ことを特徴とする、なりすまし検知方法。 - コンピュータに、
(a)撮像装置から、前記撮像装置に付随する発光装置によって発光が行われた際の対象者の顔を含む第1の画像フレーム、及び前記発光装置が消灯している際の対象者の顔を含む第2の画像フレームを取得する、ステップと、
(b)前記第1の画像フレームから、前記対象者の顔の部分を特定する情報を第1の顔情報として抽出し、前記第2の画像フレームから、前記対象者の顔の部分を特定する情報を第2の顔情報として抽出する、ステップと、
(c)前記第1の画像フレームから、前記第1の顔情報に基づいて、対象者の瞳の虹彩領域での反射で形成された輝点を含む第1の虹彩領域を抽出し、更に、前記第2の画像フレームから、前記第2の顔情報に基づいて、前記輝点を含む部分に対応する第2の虹彩領域を抽出し、前記第1の虹彩領域のピクセル毎の輝度値L in と、前記第2の虹彩領域のピクセル毎の輝度値L out とを求め、ピクセル毎に仮の特徴量(L in -L out )を算出し、前記仮の特徴量を1次元のベクトルに変換し、ピクセル毎の値を昇順または降順に並び替えることによって変換を行って、前記輝点の位置に依存しない特徴量を算出する、ステップと、
(d)前記特徴量に基づいて、前記撮像装置によって撮影された前記対象者の真偽判定を行う、ステップと、を実行させる命令を含む、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021211347A JP7272418B2 (ja) | 2018-02-22 | 2021-12-24 | なりすまし検知装置、なりすまし検知方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/006561 WO2019163065A1 (ja) | 2018-02-22 | 2018-02-22 | なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021211347A Division JP7272418B2 (ja) | 2018-02-22 | 2021-12-24 | なりすまし検知装置、なりすまし検知方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019163065A1 JPWO2019163065A1 (ja) | 2021-01-07 |
JP7004059B2 true JP7004059B2 (ja) | 2022-01-21 |
Family
ID=67687178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020501932A Active JP7004059B2 (ja) | 2018-02-22 | 2018-02-22 | なりすまし検知装置、なりすまし検知方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (3) | US11200436B2 (ja) |
EP (1) | EP3757936A4 (ja) |
JP (1) | JP7004059B2 (ja) |
WO (1) | WO2019163065A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7004059B2 (ja) * | 2018-02-22 | 2022-01-21 | 日本電気株式会社 | なりすまし検知装置、なりすまし検知方法、及びプログラム |
JP6984724B2 (ja) | 2018-02-22 | 2021-12-22 | 日本電気株式会社 | なりすまし検知装置、なりすまし検知方法、及びプログラム |
US11074467B2 (en) * | 2019-12-05 | 2021-07-27 | Shenzhen GOODIX Technology Co., Ltd. | Anti-spoofing of transparent fake object overlays with optical sensing modules |
US20230073728A1 (en) * | 2020-01-30 | 2023-03-09 | Nec Solution Innovators, Ltd. | Determination device |
WO2021153148A1 (ja) * | 2020-01-30 | 2021-08-05 | Necソリューションイノベータ株式会社 | 判定装置 |
EP4246454A3 (en) * | 2020-04-09 | 2023-11-29 | Identy Inc. | Liveliness detection using a device comprising an illumination source |
US20220383503A1 (en) * | 2020-05-11 | 2022-12-01 | Nec Corporation | Determination device, determination method, and recording medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007280367A (ja) | 2006-03-14 | 2007-10-25 | Omron Corp | 顔照合装置 |
JP4609253B2 (ja) | 2005-09-08 | 2011-01-12 | オムロン株式会社 | なりすまし検出装置及び顔認証装置 |
US20160117544A1 (en) | 2014-10-22 | 2016-04-28 | Hoyos Labs Ip Ltd. | Systems and methods for performing iris identification and verification using mobile devices |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS469253B1 (ja) | 1968-08-20 | 1971-03-09 | ||
JP4085470B2 (ja) * | 1998-05-29 | 2008-05-14 | オムロン株式会社 | 個人識別装置、個人識別方法および個人識別プログラムを記録した記録媒体 |
JP2006099614A (ja) * | 2004-09-30 | 2006-04-13 | Toshiba Corp | 生体判別装置および生体判別方法 |
US8364971B2 (en) * | 2009-02-26 | 2013-01-29 | Kynen Llc | User authentication system and method |
JP6507046B2 (ja) * | 2015-06-26 | 2019-04-24 | 株式会社東芝 | 立体物検知装置及び立体物認証装置 |
US9794260B2 (en) * | 2015-08-10 | 2017-10-17 | Yoti Ltd | Liveness detection |
JP7004059B2 (ja) * | 2018-02-22 | 2022-01-21 | 日本電気株式会社 | なりすまし検知装置、なりすまし検知方法、及びプログラム |
-
2018
- 2018-02-22 JP JP2020501932A patent/JP7004059B2/ja active Active
- 2018-02-22 US US16/964,877 patent/US11200436B2/en active Active
- 2018-02-22 EP EP18907036.0A patent/EP3757936A4/en active Pending
- 2018-02-22 WO PCT/JP2018/006561 patent/WO2019163065A1/ja unknown
-
2021
- 2021-11-01 US US17/515,623 patent/US11694475B2/en active Active
-
2023
- 2023-05-19 US US18/199,698 patent/US20230290178A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4609253B2 (ja) | 2005-09-08 | 2011-01-12 | オムロン株式会社 | なりすまし検出装置及び顔認証装置 |
JP2007280367A (ja) | 2006-03-14 | 2007-10-25 | Omron Corp | 顔照合装置 |
US20160117544A1 (en) | 2014-10-22 | 2016-04-28 | Hoyos Labs Ip Ltd. | Systems and methods for performing iris identification and verification using mobile devices |
US20170344793A1 (en) | 2014-10-22 | 2017-11-30 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
Also Published As
Publication number | Publication date |
---|---|
US20220237951A1 (en) | 2022-07-28 |
US20210034893A1 (en) | 2021-02-04 |
US20230290178A1 (en) | 2023-09-14 |
US11694475B2 (en) | 2023-07-04 |
WO2019163065A1 (ja) | 2019-08-29 |
EP3757936A4 (en) | 2021-03-03 |
JPWO2019163065A1 (ja) | 2021-01-07 |
EP3757936A1 (en) | 2020-12-30 |
US11200436B2 (en) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004059B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
JP6984724B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
US10643087B2 (en) | Systems and methods of biometric analysis to determine a live subject | |
EP2680191B1 (en) | Facial recognition | |
EP2680192B1 (en) | Facial recognition | |
KR101495430B1 (ko) | 바이오메트릭 인증을 위한 품질 메트릭 | |
KR101241625B1 (ko) | 얼굴 인식 환경 통지 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 | |
US11335119B1 (en) | Spoof detection based on red-eye effects | |
US11321552B2 (en) | Face authentication device having database with small storage capacity | |
JP2021131737A (ja) | データ登録装置、生体認証装置、およびデータ登録プログラム | |
JP7272418B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
JP7207506B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
EP3724815B1 (en) | Anti-spoofing face id sensing based on retro-reflection | |
WO2024069671A1 (ja) | 情報処理方法、情報処理プログラム、及び情報処理装置 | |
US11335123B2 (en) | Live facial recognition system and method | |
US20230091381A1 (en) | Spoof detection using eye boundary analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211213 |