JP2023521118A - 照明源を含むデバイスを使用する生体性検出 - Google Patents

照明源を含むデバイスを使用する生体性検出 Download PDF

Info

Publication number
JP2023521118A
JP2023521118A JP2022561401A JP2022561401A JP2023521118A JP 2023521118 A JP2023521118 A JP 2023521118A JP 2022561401 A JP2022561401 A JP 2022561401A JP 2022561401 A JP2022561401 A JP 2022561401A JP 2023521118 A JP2023521118 A JP 2023521118A
Authority
JP
Japan
Prior art keywords
image
images
neural network
body part
illumination source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022561401A
Other languages
English (en)
Other versions
JP7445335B2 (ja
Inventor
ヘスース アラゴン
ハーディック グプタ
Original Assignee
アイデンティー インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイデンティー インコーポレイテッド filed Critical アイデンティー インコーポレイテッド
Publication of JP2023521118A publication Critical patent/JP2023521118A/ja
Application granted granted Critical
Publication of JP7445335B2 publication Critical patent/JP7445335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1394Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

ユーザを識別するためのコンピュータ実装方法であって、この方法は、作動されると可視光を発する照明源を有するコンピューティングデバイスを使用するものであり、この方法は、バイオメトリック特徴を有する生体部分を含む可能性のあるシーンの2つの画像を取得する工程であって、第1の画像を照明源を作動させずに取得し、第2の画像を照明源が作動している状態で取得する工程と、第1の画像及び第2の画像をニューラルネットワークに送る工程と、ニューラルネットワークによって第1の画像及び第2の画像を処理する工程と、を含み、処理する工程は、第1の画像と第2の画像とを比較することにより、第1の画像及び第2の画像が生体部分の画像であるか否かを判断することを含み、方法はさらに、第1の画像及び第2の画像が生体部分の画像であると判断された場合、ユーザを識別するためのバイオメトリック特徴を見つけるために識別アルゴリズムを実行し、第1の画像及び第2の画像が生体部分の画像でないと判断された場合、識別アルゴリズムを実行しないことを含む。【選択図】図1

Description

本発明は、請求項1に記載のユーザを識別するためのコンピュータ実装方法に関する。
スマートフォンをはじめとするモバイルコンピューティングデバイスはますます日常生活の一部となってきている。そのため、今日ではスマートフォンを使って銀行口座にログインしたりスマートフォンを使ってレストランで支払いしたりすることなども一般的である。
このような口座へのユーザのログインを容易にするために、欧州特許出願第3540635号により、例えばモバイルコンピューティングデバイスのカメラを用いてユーザを識別し、指紋のようなバイオメトリック特徴を抽出することによってユーザを識別するために得られた各画像を処理する手段が提供されている。
バイオメトリック特徴は偽造することが非常に困難であることからセキュリティの観点において大きな利点を有するものの、銀行口座のような各機密情報へのアクセスを得るために悪意のあるアタッカーによって(指先などの)各バイオメトリック特徴の画像がカメラの前に保持されこの画像が撮影されることによりカメラが騙されることがないよう、保証する必要がある。
従来技術の観点から、本発明の目的は、生体とそのような生体のスプーフ(spoof)とを区別することができる方法を提供することである。
上記課題は、独立請求項1に記載のコンピュータ実装方法によって対処される。好ましい実施形態は従属請求項に示されている。
本発明によるユーザを識別するためのコンピュータ実装方法は、作動されると可視光を発する照明源を有するコンピューティングデバイスを使用し、本方法は、バイオメトリック特徴を有する生体部分を含む可能性のあるシーンの2つの画像を取得する工程であって、第1の画像を照明源を作動させずに取得し、第2の画像を照明源が作動している状態で取得する工程と、第1の画像及び第2の画像をニューラルネットワークに送る工程と、第1の画像及び第2の画像をニューラルネットワークによって処理する工程と、を含み、処理する工程は、第1の画像と第2の画像とを比較し、これにより、第1の画像及び第2の画像が生体部分の画像であるか否かを判断する工程を含み、本方法は、第1の画像及び第2の画像が生体部分の画像であると判断された場合、ユーザを識別するためのバイオメトリック特徴を見つけるために識別アルゴリズムを実行し、第1の画像及び第2の画像が生体部分の画像でないと判断された場合、識別アルゴリズムを実行しない工程をさらに含む。
本発明における意味での照明源は、例えば、スマートフォンの明かりと考えることができる。但し、本発明はこの点に関して限定されず、対応するコンピューティングデバイスの一部であるあらゆる照明源が、選択的に作動されて可視光を発することができる限り、適当であると考えられる。
この文脈において、第2の画像が照明源を作動させた状態で取得されるだけでなく、第2の画像が取得されるシーン(具体的には、物体)も照明源で照明されることも明らかである。
ニューラルネットワークは、好ましくは、本発明による各タスクを実行するように訓練された任意のニューラルネットワークとすることができる。この点に関して、好ましい実施形態では、ニューラルネットワークは、各画像を比較するよう特に適応された畳み込みニューラルネットワークである。これは、ニューラルネットワークが対応して訓練され、またネットワーク構造及びアーキテクチャ(例えば、層の数)がこのタスクに適応していることを意味する。
識別アルゴリズムは、(この画像情報が第1の画像又は第2の画像から取得されたかどうかにかかわらず)バイオメトリック特徴を分離するか又は少なくとも識別することができるように画像情報を処理するよう構成された任意のアルゴリズムとすることができる。例えば、ここでは、画像内の関心領域、例えば、指先の一部又は領域を画像の別の部分から分離するクロッピングアルゴリズムを使用することができる。
照明源を作動させずに指のような生体部分から取得された画像と、スマートフォンの明かりのような追加の照明源を作動させて同じ体部分から取得された対応する画像とを区別できるということが、本発明における知見である。これは、可視光の異なる部分(すなわち異なる波長)が生体部分によって異なるように反射されるためである。これは、例えば、赤色の光は青色の光とは異なるように発されることを意味する。このような画像を比較することにより、この差異を決定することができ、そして、対応する差異が観測されなければ、取得された2つの画像は、画像取得の際にカメラの前に保持された実際の生体部分の画像のようなスプーフから得られた可能性が非常に高い。
したがって、この方法を用いることで、スマートフォンのユーザが通常利用できない追加のコンポーネントを必要とせずに、物体のスプーフと生体とを確実に区別することができる。
別の実施形態では、本発明によるユーザを識別するためのコンピュータ実装方法は、作動されると可視光を発する照明源を有するデバイスを使用するものであり、本方法は、バイオメトリック特徴を有する生体部分を含む可能性のあるシーンの2つの画像を取得する工程であって、第1の画像を照明源を作動させずに取得し、第2の画像を照明源が作動している状態で取得する工程と、第1の画像及び第2の画像から差分画像を取得する工程と、差分画像をニューラルネットワークに送る工程と、差分画像をニューラルネットワークによって処理する工程と、を含み、処理する工程は、差分画像から輝度差分情報を決定する工程と、輝度差分情報から、第1の画像及び第2の画像が生体部分の画像であるか否かを判断する工程と、第1の画像及び第2の画像が生体部分の画像であると判断された場合、ユーザを識別するためのバイオメトリック特徴を見つけるために識別アルゴリズムを実行し、第1の画像及び第2の画像が生体部分の画像でないと判断された場合、識別アルゴリズムを実行しない工程をさらに含む。
差分画像は、好ましくは、第1の画像及び第2の画像のピクセル単位の差分画像と考えることができ、これは、好ましくは、各ピクセルの輝度値及び/又は色値が第1の画像及び第2の画像から取得され、互いに差し引かれることにより、第1の画像及び第2の画像の各ピクセルの色及び輝度の新しいピクセル値が得られることを意味する。この「新しい」画像は、本発明の文脈において差分画像と見なされる。
上で説明したように、カメラの前に保持された画像のような生体部分のスプーフと比較したときに、生体部分では、明かりのオン又はオフ時の光の反射特性に差がある。そして、ニューラルネットワークを用いた各処理から、生体部分又はスプーフから取得された第1の画像及び第2の画像の証拠を差分画像が成すか否かを判断することができる。
この方法では、両方の画像をニューラルネットワークによって処理して対応する比較を行う必要はなく、各情報を含む単一の画像を処理するだけでよいという利点がある。
一実施形態では、第1の画像と第2の画像とを比較することは、画像のピクセル輝度分布に関して画像を比較することを含む。
第1の画像と第2の画像について得られた輝度値は生体部分においては大きく異なるため、これにより、スプーフと生体との区別における信頼性を向上させることができる。
さらに、画像のピクセル輝度分布に関して画像を比較することは、第1の画像のピクセルの赤、青及び緑の輝度中央値と、第2の画像のピクセルの赤、青及び緑の輝度中央値とを取得し、第2の画像の輝度中央値が、所定の閾値だけ、第1の画像のピクセルの輝度中央値を超える場合、画像が生体部分の画像であると判断することを含む。
この閾値は、ニューラルネットワークがスプーフと本物の物体(生体)とを識別して区別できるようにする訓練された閾値とすることができ、何故なら、例えば、閾値を超えたとき(又は超えないとき)に物体がほぼ確実に本物の物体でなければならないように閾値の大きさを設定できるからである。
より具体的な実施形態では、赤、青及び緑のピクセルについてのピクセル輝度分布が第1の画像及び第2の画像について取得され、第1の画像の各色の取得されたピクセル輝度分布が、第2の画像の対応する色の取得されたピクセル輝度分布と比較される。
各色の輝度値を分離し、それらを別々に比較することにより、本物の物体とスプーフとを区別することにおける信頼性をさらに向上させることができる。
また、画像をニューラルネットワークによって処理する工程は、比較をする前に、ニューラルネットワークを使用して、体の一部を含む可能性が高い第1の画像及び/又は第2の画像の部分を特定し、第1の画像及び第2の画像からこの部分に対応するピクセル情報を抽出することを含むことができ、第1の画像と第2の画像とを比較することは、この部分に対応する第1の画像及び第2の画像から抽出されたピクセル情報のみを比較することを含むことができる。
これは、上に記載した第2の実施形態による方法にも適用でき、その際、差分画像を算出する前にこの実施形態による方法が実行され、すなわち、ニューラルネットワークを用いて、体の一部を含む可能性が高い第1の画像及び/又は第2の画像の部分が実行され、差分画像を算出するためにこの部分からのピクセル情報が第1の画像及び第2の画像から抽出される。これにより、処理されるべきピクセル量が減少し、したがって、方法の信頼性に悪影響を与えることなく、必要な計算リソースが低減される。
さらなる実施形態では、第1の画像及び第2の画像を取得する前に照明チェック工程が実行され、照明チェック工程は現在の照明条件をチェックすることを含み、前記方法は、現在の照明条件に対応する輝度が所定の閾値を超える場合、前記方法のさらなる工程は実行しないことをさらに含む。
これにより、環境条件の観点からも、生体性検出によって信頼性の高い結果が得られることが保証される。これにより、識別の誤検出又は検出漏れを回避することができる。
より具体的には、現在の照明条件に対応する輝度が所定の閾値を超える場合、現在の照明条件下では識別を行うことができない旨の情報をユーザに提示する。
この情報は、例えば、ユーザに本物の物体とその物体のスプーフとを区別するために別の手段を使用すべきことを示すことができ、あるいは、単に、第1の画像及び/又は第2の画像から得られたバイオメトリック特徴を使用する生体性検出又はユーザ識別のどちらも実行できないことを示すことができる。第1の代替的手段は、別の方法を採用することによって識別を依然として実行でき、一方、第2の代替的手段は、生体部分のスプーフを使用する悪意のあるユーザの誤識別を確実に不可能とする。
また、前記方法の各工程は、モバイルコンピューティングデバイス上で実行することができ、ニューラルネットワークがモバイルデバイスに完全にインストールされていてもよい。
これは、画像がモバイルコンピューティングデバイス上で取得されるだけでなく、ニューラルネットワークによるさらなる処理及び各後続工程がモバイルデバイス上で実行されることを意味する。これにより、例えば、モバイルインターネットへの永続的な接続は不要となり、これは、そのようなモバイルインターネットが常に利用可能ではない世界の領域において特に有利である。
さらなる実施形態では、ニューラルネットワークは3つのサブネットワークを含み、第1のサブネットワークが第1の画像を処理して第1の画像から第1の情報を抽出し、第2のサブネットワークが第2の画像を処理して第2の画像から第2の情報を抽出し、第3のサブネットワークが、第1の画像及び第2の画像が生体部分の画像であるか否かを判断するために、第1の情報と第2の情報とを比較する。
第1のサブネットワーク、第2のサブネットワーク及び第3のサブネットワークへのこの分離によって、画像の処理、及び取得された画像が本物の物体を示しているのか又はそのスプーフを示しているのかの決定における各タスクのために、(サブネットワークの形態の)ニューラルネットワークを特別に採用することができる。
さらに、第1の画像及び第2の画像が生体部分の画像であるか否かを判断する工程は、第1の画像及び第2の画像が紙上の画像の画像であるか否か、及び/又は、第1の画像及び第2の画像がスクリーン上に提示された画像の画像であるか否か、及び/又は、第1の画像及び第2の画像が生体部分の三次元スプーフの画像であるか否か、及び/又は、第1の画像及び第2の画像が生体部分の画像であるか否かを決定することを含む。
例えば紙上でカメラに提示された画像は、照らされているときと照らされていないときとで非常に特殊な特徴を示すので、ニューラルネットワークは対応する決定を行うことが可能であり、それによって、画像が本物の物体を示すか又は物体のスプーフを示すかを決定するだけでなく、スプーフが実際にどのような種類のものであるかを決定することも可能である。
第2の実施形態の一具現化において、輝度差分は、差分画像を取得する際に、第1の画像と第2の画像の輝度値のピクセル単位の引き算から得られる。
このピクセル単位の引き算は、色単位及びピクセル単位の引き算でも実行でき、つまり、各ピクセル及び各色値(緑、青、赤)について、輝度値が得られ、ピクセル単位の引き算が実行される。それにより、第1画像と第2画像の実際の特徴について詳細かつ精密な情報が得られ、この精密な情報が差分画像に用いられる。
一実施形態では、照明源はコンピューティングデバイスの明かり(torch)である。
このような明かりの形態の照明源は、ラップトップ、タブレットPC及びスマートフォンのような最近のモバイルコンピューティングデバイスに設けられているので、本発明による方法を実行するためにさらなるデバイスを採用する必要がなく、これにより、ユーザによる各方法の適用が容易となる。
画像の取得及び対応する輝度の寄与を概略的に示す図である。 本発明の一実施形態による方法のフローチャートを示す。 一実施形態によるニューラルネットワークによる入力の処理方法を概略的に示す図である。 ニューラルネットワークの訓練の一実施形態を示す。 本発明の方法を実行するための例示的なモバイルデバイスを示す。
図1は、物体の2つの画像の取得を概略的に示す。図1における描写ではスマートフォンなどのモバイルコンピューティングデバイス101が示されており、モバイルコンピューティングデバイス101は、例えば同図に示される手102の画像などのシーンの画像を取得するための光学センサ(別々に図示はしていない)を含む。このようなシーンがいくらかの周囲環境も含み得ることは明らかである。但し、説明を簡単にするため、ここではこれらは示されていない。
方法が、ユーザの体部分(顔、目、手又は手のひらなど)の画像を取得することによってユーザを識別するのに採用される場合、後続の識別工程のために、取得した画像が実際に生体部分の画像であるか、生体部分のスプーフの画像であるかを知る必要がある。このようなスプーフは、例えば、悪意のあるユーザによって本物の人から取得され、カメラの前に保持された画像であり得る。この画像が十分な品質のものである場合、これは、今日、バイオメトリック特徴に関する今日使用されている識別メカニズムをスプーフィングすることが可能であり、それによって、本物の物体のスプーフを使うことによって、実際には権限が与えられていないユーザに銀行口座のような機密情報へのアクセス権が与えられてしまう可能性がある。
本発明によれば、これを防止することは、本物の物体の可能性がある物体の複数の画像(これが本物の物体の画像であるか、その物体のスプーフの画像でしかないかが分かっていないならば)を取得して、後述するようにこれらの画像をニューラルネットワークにより処理することによって、可能である。
これをより一般的な状況で説明するために、図1中の左側に、本物の物体の可能性がある物体102(この場合は手)の画像を取得しているスマートフォン等のモバイルコンピューティングデバイス101が示されている。通常の状態では、これは、どのような場合でも、図形103及び図形104に描かれているような輝度分布をもたらす。この輝度分布は、あらゆる考え得る照明条件の下で得られる輝度分布であるとは限らず、単に、モバイルコンピューティングデバイスの明かり(又は任意の他の適切な照明源)を作動させずに画像が取得されるような物体の照明条件を示す例示的な図でしかない。これだけからでは、画像が生体からのものであるのか生体のスプーフからのものであるのかを判断することはできない。
次に、図1中の右側に、同じシーンにおいて、モバイルコンピューティングデバイス101の照明源が作動されてライト111でシーンを照らすことによって、画像が取得される。
図形105及び図形106は、異なる色チャネル(赤、青及び緑など)における光分布及びこのシチュエーションについての各輝度値を示す。
図形105は図形103及び図形104に酷似しているのに対し、図形106は元の図形104と明確に区別されることがはっきり分かる。
画像が本物の物体の画像である場合、すなわち手102が実際に人間の本物の手である場合には、画像中のそれぞれの色値にわたって輝度分布における大きな差が得られることが、本発明における知見である。これとは対照的に、このような本物の物体のスプーフ、具体的には、図1のシーンにおいてカメラの前に保持されている本物の物体の画像の形態のスプーフは、図形103及び図形105をもたらし、これらにおいては、コンピューティングデバイスの照明源を作動させずに取得された画像と照明デバイスを作動させた状態で取得された画像との間には差がないか、あったとしてもわずかでしかない。
これを、本物の物体のスプーフしか撮影されなかった状況と本物の物体が撮影された状況とを区別するのに使用することができる。しかしながら、図形103から図形106は環境条件(バックライト、バックグラウンド、物体とカメラの距離など)に強く依存するので、画像が本物の物体の画像を構成するか物体のスプーフを構成するかに関し対応する決定をするために計算アルゴリズムによって簡単に処理することができない。
1つのシーンから取得された対応する第1の画像及び第2の画像を処理するために特別に訓練されたニューラルネットワークが、高い精度で各決定を行うためにより適切であること、すなわち誤検出及び検出漏れを少なくすることが、本発明における知見である。
図2は、取得された画像が本物の生体部分の画像であるか否かについての各決定をするために対応する第1の画像及び第2の画像を処理するための本発明による方法の概略的なフロー図である。
図2において、第1の工程201及び202では、第1の画像及び第2の画像が取得される。本発明に関しては、第1の画像が照明源が作動されている状態で取得された画像であるか、第2の画像が照明源が作動されている状態で取得された画像であるかは関係ない。本発明の文脈において重要なのは、画像のうちの1つが、照明源が作動されている状態で取得されたものであり、他の1つが、照明源を作動させずに取得されたものであるということである。単なる例として、取得された第1の画像は工程201において照明源を作動させずに取得され、工程202において取得された第2の画像は照明源が作動された状態で取得された画像であると仮定する。このことから、第1の画像と第2の画像が次々に取得されることは明らかである。条件を変えることによって画像の評価に悪影響が及ばないようにするために、工程101から工程102の間の時間は、好ましくは非常に短くすべきである。好ましくは、画像の取得間の時間は1秒未満であり、好ましくは0.5秒未満である。
上に記載したように、照明源は、例えば、スマートフォンやタブレットPCのような今日使用されているモバイルコンピューティングデバイスの明かりであってもよいが、場合によってはラップトップに設けられているものであってもよい。
工程101及び工程102で取得された2つの画像は、次いで工程203で前処理されてもよい。この前処理は、例えば、第1の画像及び第2の画像で取得された元のピクセル数を、256×256ピクセルなどの特定の数に減らすか、画像の一部分を分離してこれらをさらに処理し、画像の他の部分は破棄するなどといった、何らかの正規化又は他の処理工程を含むことができる。但し、工程203は必須ではなく、図2に示されている処理は、第1の画像及び第2の画像に前処理を適用せずに実行することもできる。さらに、画像のうちの1つだけを前処理することもでき、例えば、照明源を作動させた状態で取得した方の画像又は他方の画像のみを前処理することもできる。
次のこれもまたオプションでしかない工程204で、照明チェックを実行することができる。この照明チェックは、取得された画像から(あるいは第1の画像及び第2の画像から独立して取得された第3の画像から)照明条件をチェックする特定のソフトウェアを使用することによって実行することができる。代替的又は追加的に、スマートフォンなどのモバイルデバイスの特定のハードウェアを使用してもよい。モバイルデバイスが(例えば、カメラの一部として)輝度センサを備える場合、この輝度センサから得られる情報を使用して後述の照明チェックを実行してもよい。輝度センサからの情報は画像をまったく取得しなくても得ることができる。代替的に又は追加的に、画像が取得されている間又は画像が取得された後に、輝度センサを使用して照明チェックを実行してもよい。さらに、照明チェックの結果を向上させるために、輝度センサから情報を得ることと、(例えば、取得された画像に基づいて)照明チェックを実行するためのソフトウェアを採用することとを組み合わせて用いてもよい。
この照明チェックは画像が取得された後に実行されるが、この照明チェックを画像が取得される前に実行することもできる。照明チェックは、例えば、日中であるか夜間であるか、あるいは、図2に記載した方法を実行するために実際にモバイルコンピューティングデバイスを保持しているか又はそれを作動させている人が人工光を有する建物内にいるかなど、環境における周囲の明るさ又は照明条件をチェックすることを含むことができる。上で説明したように、実際に得られる輝度分布(図1参照)は環境条件に強く依存する。周囲の照明条件が、2つの画像を取得する際に一方の画像を照明源を作動させた状態で取得し他方の画像を照明源を作動させずに取得したときに区別可能な輝度値を妥当なレベルで得られない結果をもたらす可能性が非常に高い場合(例えば、日中の光が明るい場合)には、図2による方法をさらに実行することは、信頼できる結果が得られない可能性があることから、合理的でない場合がある。このような場合、照明チェック204を実行した後に、方法を妥当なレベルで適用することができないと判断することができる。このような場合、方法を中止する及び/又は工程205で情報をユーザに提供して、識別方法が信頼性をもって実行できるような照明条件ではないことをユーザに知らせることができる。これは、例えば、現在の照明条件の輝度値に基づいて判断することができる。この輝度値が場合によって予め設定された閾値を超える場合、工程205で情報をユーザに送ることができる及び/又は方法を中止することができる。
照明条件及び対応する輝度値がそれぞれの閾値未満である場合、方法は工程206に進むことができるか、あるいは、第1の画像及び第2の画像が取得される前に照明チェック204が実行される場合、方法は工程201及び工程202に進むことができる。
次の工程では、第1の画像及び第2の画像が生体部分の画像であるか否かを判断するために、画像がニューラルネットワークによって処理される。
本発明の一実施形態では、これは、ニューラルネットワークを介してピクセル輝度分布について画像を比較し、これから、画像が本物の物体から取得されたか否かを示す結果を得ることによって、第1の画像及び第2の画像を処理することを含む。これは、ニューラルネットワークがこの決定を行うために特別に訓練されているという事実から、ニューラルネットワークによって判断される。第1の画像及び第2の画像のピクセル輝度寄与はニューラルネットワークによって処理されてもよく、この処理中に、ニューラルネットワークはその1つ以上の層を介して各画像(又は両画像)を処理し、それによって具体的な結果が得られる。この結果は、本物の物体のスプーフから画像が取得された場合(図1参照)には第1の画像と第2の画像でほぼ同じになり、取得された画像が本物の物体の画像である場合には図1に関しても説明したように異なることになる。
しかしながら、これらの差は必ずしも常に同じとはならず、したがって、画像が本物の物体の画像であるか否かに依存して詳細でかつ明確に定義された結果を与えるような特別に訓練されたニューラルネットワーク(以下に図3に関して説明される)を有することが必要である。
具体的には、画像の各々、つまり第1の画像及び第2の画像の各々は、赤、青及び緑の各色値に分離される及び/又は赤、青及び緑の各色における輝度分布に分離されると考えることができる。これから、各画像に対して、各色について、各ピクセルの輝度中央値を得ることができる。次いで、これらの輝度中央値から、照明源が作動されている状態で取得された画像が、照明源が作動されずに取得された画像のピクセルの輝度中央値を超えるか否かを判断することができる。もしこれが、第2の画像(照明源が作動された状態で取得されたもの)の輝度中央値が、第1の画像の輝度中央値を、第2の画像及び第1の画像が生体部分から取得された画像であることを示す特定の閾値だけ超えると判断された場合、ニューラルネットワークは、第1の画像及び第2の画像が本物の物体の画像であってスプーフではないと判断することができる。しかしながら、輝度中央値が少なくとも上記閾値だけ異ならなければ、判断は否定的となり得、第1の画像及び第2の画像は生体部分の画像ではないと判断することができる。
より具体的には、第1の画像及び第2の画像について、赤、青及び緑の各ピクセルに関するピクセル輝度分布を求めることができ、第1の画像の各色の得られたピクセル輝度分布を、第2の画像における対応する色のピクセル輝度分布と比較することができる。これは、本発明の実施形態では実際には3つの比較工程があることを意味し、すなわち、第1の画像の赤色輝度分布が第2の画像の赤色輝度分布と比較され、第1の画像の緑色輝度分布が第2の画像の緑色輝度分布と比較され、第1の画像の青色輝度分布が第2の画像の青色輝度分布と比較される。これにより、基本的に独立した3つの判断が得られ、これは、第1の画像及び第2の画像が生体部分を示すか否かについてより信頼性の高い評価を得ることができる。
この処理のために、例えば、前処理203の間に、ニューラルネットワーク又は別の対応して適応されたニューラルネットワークを使用して、第1の画像及び第2の画像の中で、関心のある体部分、例えば、バイオメトリック特徴として指紋がさらなる識別のために抽出されるべき指先、を含む可能性が最も高い部分を分離する工程を適用することも考えられる。この場合、このいわゆる「関心領域」ROIは例えば前処理工程の間に分離することができ、その後、各ニューラルネットワークによってさらに処理することができる。
上で説明した実施形態について1つのニューラルネットワークのみを参照して説明したが、各工程を実行するために2つ以上のニューラルネットワークが採用される実施形態も考えることができる。
具体的には、上で記載したように、第1画像と第2画像の値の比較において各判断を実際に行う前に、各画像から輝度分布と同様の情報が得られる。輝度情報はニューラルネットワークを使用しなくても取得することができるが、他の情報は画像から取得することがより困難でありニューラルネットワークを使用する必要がある場合がある。このために、第1の「サブネットワーク」を用いて第1の画像から各情報を抽出することができるとともに、第2の「サブネットワーク」を用いて第2の画像から各情報を取得することができる。勿論、サブネットワークもまた特別に訓練されたニューラルネットワークである。より具体的には、第1のサブネットワークは、モバイルコンピューティングデバイスの照明源を作動させずに取得される画像から情報を得るために訓練され得るのに対し、第2のサブネットワークは、コンピューティングデバイスの照明源を作動させた状態で取得される画像から対応する情報を得るために特別に構成され訓練される。
ニューラルネットワークは、通常、それらが識別することができるはずのシーンの例示的な画像を使用して訓練されるので、それぞれのニューラルネットワーク(第1のサブネットワーク及び第2のサブネットワーク)のパラメータが少なくともわずかに異なる可能性があり、これにより、ニューラルネットワークの訓練に用いられた画像から対応する情報をより正確に抽出することができる。
次に、第1の画像から得られた情報と第2の画像から得られた情報とを比較することで各判断を行うために、第3のサブネットワーク(特別に訓練されたニューラルネットワークとも称される)を提供することができ、それによって、第1の画像及び第2の画像が本物の生体部分の画像であるか否かが判断される。
この判断もより洗練された判断を含むことができ、より洗練された判断においては、第1の画像と第2の画像が両方とも生体部分の画像であると判断されるか、あるいは、第1の画像と第2の画像がモバイルコンピューティングデバイスで撮影される紙上の画像であるか否か、及び/又は、第1の画像と第2の画像が画面上に提示された画像であるか否か、及び/又は第1の画像と第2の画像が生体部分の3次元スプーフ(例えば、シリコン模倣品)の画像であるか否かが決定される。この判断は対応して訓練されたニューラルネットワークを用いて可能であり、何故なら、各スプーフと実際の生体部分は特別な光反射特性を示すのでこれにニューラルネットワークを訓練することができるからである。その場合、各判断の結果は、その画像がスプーフの画像であるか生体部分の画像であるかを示すという意味の「バイナリ」ではなく、その結果はスプーフの種類も特定されるという点でより複雑になるであろう。
上記実施形態に対する代替的な実施形態では、第1の画像及び第2の画像が実際には工程206でニューラルネットワークによって処理されるのではなく、ニューラルネットワークによる処理が実際に実行される前に第1の画像及び第2の画像から差分画像が取得されてもよい。この差分画像は、例えば、第1の画像及び第2の画像の色値及び/又は輝度値のピクセル単位の引き算によって得られてもよい。例えば、画像内の各ピクセルについて、第2の画像の赤色値から第1の画像の赤色値を引き算し、これと対応することを他の色値についても行うことができる。加えて又は代替的に、第1の画像内のピクセルのそれぞれについて、対応する輝度値が、第2の画像内の各ピクセルの対応する輝度値から引き算されてもよい。これによって、第1の画像及び第2の画像と同じサイズを有するが、輝度地及び/又は色値の差のみを示す「差分画像」が得られる。これは、第1の画像と第2の画像が実物体の画像を構成するか否かを特定しようとするときに最も重要な情報を含む差であるため、この決定をニューラルネットワークでの処理が実行される前に行うことは合理的である。
そうすることにより、本発明の一実施形態において、この差分画像から輝度差分情報が得られ、この輝度差分情報がニューラルネットワークによって処理されることでこの輝度差分情報から第1の画像及び第2の画像が生体部分の画像であるか否かを判断することもできる。この判断は、2つの画像が互いに比較される上に記載した実施形態と基本的に同じ処理によって得られるが、ニューラルネットワークによって実際の比較が行われることを必要としない。これは、コンピューティングデバイスによって要求される処理能力及びニューラルネットワークの実際の能力に関して利点を有することができ、それにより、利用可能なコンピューティングリソースが少ないコンピューティングデバイスに実装することが容易となるとともに、特にモバイルインターネット接続を介して外部サーバのような外部コンピューティングリソースにアクセスできないコンピューティングデバイスにも実装することが容易となる。
なお、この実施形態については、2つの画像が比較される上に記載した実施形態についても同様であるが、それぞれの方法のすべての工程がモバイルデバイス上で実行され、これは以下に説明する工程に対しても成立する。これにより、本発明の方法は、モバイルコンピューティングデバイスのユーザが外部処理パワーにアクセスできないような状況に有利に適用できるようになる。しかしながら、本方法のすべての工程がモバイルデバイス上で実行されるのではなく、例えば、画像のみが実際にモバイルデバイスによって取得され、その後外部サーバに送られ、この外部サーバによってさらなる処理が実行されてこの処理の結果がモバイルデバイスに戻され、そこで、例えば、ユーザの識別又はバイオメトリック特徴の抽出を実行することができる。
工程206が実際にどのように実現されるか又は方法の工程がどこで実行されるかにかかわらず、方法は工程207に進み、第1の画像及び第2の画像が生体部分の画像であるか否かの判断が実際に行われる。第1の画像及び第2の画像が生体部分の画像ではない場合、本方法は単に工程209で終了することができるか、あるいは、情報が、例えば、第1の画像及び第2の画像に示されるこのバイオメトリック特徴で通常識別されるだろう人物に送られて、彼に、彼のバイオメトリック特徴のスプーフを使用して誰かが彼の機密情報への許されないアクセスを得ようとした旨の情報を提供することができる。
第1の画像及び第2の画像が本物の体部分の画像を構成すると判断された場合、本方法は、画像から(前処理中にまだ行われていない場合)バイオメトリック特徴を抽出する(工程210)よう進むことができる。これは、例えば、バイオメトリック特徴を含む画像の一部分(いわゆる関心領域ROI)を画像の他の部分から分離し、画像のこの部分のみをさらに処理することによって、例えば、指先から特徴点を抽出したり、ユーザの顔又はユーザの目の虹彩又はユーザの手のひらの線から特定の情報を抽出したりすることによって行うことができる。
工程210でバイオメトリック特徴を抽出した後、本方法は次にオプションの工程211に進むことができ、ここで、画像から抽出されたバイオメトリック特徴が実際に使用される。このバイオメトリック特徴を使用することは、例えば、バイオメトリック特徴を提供するために使用された画像がユーザの本物の生体部分を示すということが証明されたユーザを、彼の銀行口座又は他の機密の制限されたアクセス情報と重ね合わせることを含むことができる。
図3は、2つの画像上の物体が生体であるか生体のスプーフであるかを決定するために採用することができるニューラルネットワークの1つの層300における、受け取られた入力に対する内部処理を示す。本発明の一実施形態によれば、ネットワーク(以下においても参照されるであろう)は畳み込みニューラルネットワーク(CNN)である。但し、出力を得るための入力の処理が使用されるニューラルネットワークの特定の構造に依存するような他のネットワークが使用されてもよい。
上述の層300は、ニューラルネットワークを介する元の入力の処理順序において、例えば何らかの前処理の後に元の入力を受け取る第1の層である層であってもよい。受け取られる入力は、2つの画像、又は単一の画像、又は上で説明したような差分画像のいずれかであり得る。
いずれの場合でも、層300は少なくとも元々取得された画像又は差分画像(又は何らかの前処理された対応物)に何らかの形で対応する入力330を受け取るであろう。この入力は、N及びMが0より大きい整数である、次元N×Mを有する少なくとも1つの行列の形で提供されることが好ましい。行列は、例えば、少なくとも1つの色値(例えば、赤)及び/又は対応する輝度値について、画像内のピクセルを表すことができる。したがって、この行列の中の成分は、この特定のピクセルの各色(例では赤)の値及び/又はその輝度の値に対応する値を持つことがある。以下から明らかなように、入力は、取得された画像又は差分画像と同一ではない場合があるが、元の画像又は差分画像を表す行列から、ニューラルネットワークにおける先行層を介した何らかの処理によって又は何らかの前処理(例えば、上で説明したような解像度の低減)によって得られた行列Pであってもよい。
しかしながら、議論を簡単にするために、入力330は、元々取得された画像の少なくとも1つを表すN×M行列に対応するものと仮定され、このN×M行列の各成分は各画像におけるピクセルの色(例えば、赤)の値に対応する。この教示を、元のN×M行列に由来し、ニューラルネットワークの層でこの行列を処理することによって得られる任意の他の変換された行列に適用すること、又は対応する行列の各ピクセルについて輝度値(のみ)が提供されるケースに適用することは、簡単である。
次に、図3に例示したプロセスに沿って、入力330は、処理のために、depthwise畳み込み層311によって受け取られる。以下では、入力行列330がdepthwise畳み込み層によってどのように処理されるかに関して同程度シンプルな例を挙げる。これは、カーネルKを使用して行列の内積を計算することを含む。カーネルはいわゆる「ストライド(strides)」で行列の上を移動する。次の例では、水平ストライド幅と鉛直ストライド幅に1の値を使用するが、ストライド幅が0より大きい整数である限り、1より大きい他の値を使用することができる。カーネルKはS×Tのサイズであり、S及びTは整数であってN及びMよりも小さい。
さらに、N×Mのサイズの元の入力行列I(すなわち入力行列330)のみが、カーネルとの内積の計算に使用されると仮定する。但し、拡張行列(extended matrix)Zをカーネルとの内積を計算するために使用できることも意図されている。この拡張行列Zは、元の行列Iに、最初の行の上と最後の行の下及び最初の列の左と最後の列の右において、行及び列を「加える」ことによって得られる。
これを「パディング」と呼ぶ。パディングは通常、行方向に複数(P個)の行を追加し、列方向に複数(P個)の列を追加することを含む。数PはS-1に等しくてもよく、数PはT-1に等しくてもよく、これにより、Zとカーネルの間で計算された内積が元の行列Iの少なくとも1つの成分を含むこととなる。結果として得られる行列Zはサイズが(N+2P)×(M+2P)となる。このことを考慮すると、行列Zは次の成分を有するであろう。
Figure 2023521118000002
この文脈において、すべての内積を計算し行と列に従って適切に配置することによって得られる新しい行列は、一般にサイズが
Figure 2023521118000003
であり、式中、W及びWは、行の方向と列の方向におけるストライド幅をそれぞれ定義する。新しい行列のサイズが整数となるようなパディング及びストライド幅だけがS×TのサイズのカーネルKに対して許されることは明らかである。さらに、ストライド幅W及びWは、好ましくは、それぞれS及びTよりも小さく、そうでなければ、元の行列のいくつかの行又は列が新しい行列の計算において脱落するようにカーネルが行列I上を移動することになる。
議論を簡単にするために、以下では、元の行列Iにはパディングが行われず、ストライド幅は水平及び鉛直ストライドについて1であると仮定する。さらに、カーネルはS×Sのサイズの行列、すなわちS=Tと仮定される特殊なケースであると仮定する。以下の説明を以下の教示を用いて任意のパディング及びストライド幅並びにカーネルサイズに適用することは簡単である。
depthwise畳み込み層311では、受け取られた入力行列330を使用して、サイズS×S(ここで、S<N,Mである)を有するカーネルKを用いて内積を形成する。元のN×M行列の各縮小行列(reduced matrix)について内積を計算し、ここで縮小行列はサイズS×Sで、元のN×M行列にコヒーレントな成分を含む。例えば、S=3を考えると、元のN×M行列の第1の縮小行列Rは、縮小行列(N×M)が9個の成分で構成されるように成分i=1,2,3、j=1,2,3を含み、カーネルKとの内積が計算されると結果が1つの数になる。元のN×M行列の行の方向の次の縮小行列は、iが1ずつ増加された行列であり、これにより、この方向の次の行列は、i=2,3,4、j=1,2,3である元のN×M行列の中の成分で構成される。次いで、この行列が、カーネルとの次の内積を計算するために使われてもよい。S=3のS×S行列の所与の例は一例にすぎず、他のカーネルも使用できることに注意すべきである。
行/列の方向における(N×M)のサイズの次の縮小行列Rを計算するために、元のN×M行列の成分のインデックスjが1ずつ増加される。これが行の方向の最後の縮小行列まで行われ、ここで、S=3の場合、i=N-S+1、N-S+2、N-S+3である。列について、これは対応するやり方で行われ、j=M-S+1、M-S+2、M-S+3となる。これらの内積を計算することにより、(N-S+1)×(M-S+1)のサイズを有する行列Pが計算される。その成分Pijは、元のN×M行列の対応する縮小行列とカーネルKで計算された各内積に対応する。このサイズの行列が実際には層300のpointwise畳み込み層に送られることに注意すべきである。
カーネルKは、本発明による場合、各画像に生体部分が示されているかどうかを見つけるために、意図された物体を適切に識別するためにニューラルネットワークが訓練される学習プロセスを介して得られる成分を構成する。ニューラルネットワークの層300で使用されるカーネルKは、各ニューラルネットワークの他の層で使用されるカーネルとサイズ及び成分が必ずしも同一ではない。さらに、カーネル内の成分は互いに同一である必要はなく、少なくとも、0以上の数を構成する。成分は、ニューラルネットワークの学習を介して得られる「重み」を表すと考えることができる。
行列330をdepthwise畳み込み層で処理した結果が行列331であり、行列331は、上で説明したように、カーネルが、行の方向にΔi=1の距離、列の方向にΔj=1の距離を有するストライドで、元のN×M行列上を移動された場合、(N-S+1)×(M-S+1)のサイズを有するものである。しかしながら、これらのストライドが、Δi=2又はΔi=3のように、より大きな距離を有する場合(場合によっては列についても同様)、これに応じて、上に説明したように、結果331の次元が変わる。
さらなる処理では、この結果331は、図3の矢印で描かれた処理順序に沿って、depthwise畳み込み層311の後の第1のバッチ正規化312に送られる。これらの構成要素は、ネットワークを介する、特に(複数の)層で使用される(複数の)カーネルを介する画像の処理によって、関連する可能性がある情報の意図しないダンピングをもたらすために提供される。
バッチ正規化部は、受信した結果行列331を正規化しようと試みる。これは、(N-S+1)×(M-S+1)行列の各成分の合計を計算し、それを(N-S+1)×(M-S+1)行列の成分の数で除算することによって達成される。(N-S+1)×(M-S+1)行列(以下ではPと表記し、対応する成分Pijを有する)の平均値Vは次のように表される。
Figure 2023521118000004
式中、nとmは、N×M行列の行(lines)及び列(columns/rows)の数、あるいは行列P行及び列の数を表す。成分Pijは行列Pの成分であり、ここで、所与の成分Pijは行iと列jにある行列の要素である。
そして、バッチ正規化部は、P’ij=Pij-Vのように、元の行列の各成分Pijから平均値Vを引き算して縮小行列P’を計算する。それによって、縮小行列P’の値が正規化され、一方向又は他方向の異常(極端に大きい値又は極端に低い値)が除去される。
第1のバッチ正規化部312によってもたらされた結果332は、(N-S+1)×(M-S+1)のサイズを(図4に示す例において)依然として有する行列であり、これは、ここまで行列のさらなる次元縮小が行われなかったからである。
次いで、結果332が、第1のバッチ正規化部312に続く第1の整流化線形ユニット313に提供される。
整流化線形ユニットは、新しい行列成分
Figure 2023521118000005
を計算することによって行列332内の各成分をさらに修正し、
ここで、
Figure 2023521118000006
である。
これにより、バッチ正規化部を通過した後に0より小さくなる値は0に設定されるので、以下で説明するdepthwise畳み込み層におけるさらなる処理に影響しない。つまり、例えば、バッチ正規化部で計算された平均値を下回る色値はそれ以上考慮されず、平均値Vに少なくとも対応する値のみが計算における次の工程の結果に影響する。
このようにして第1の整流化線形ユニット313によって出力される結果333は、依然として(N-S+1)×(M-S+1)の形状/サイズの行列であり、この行列がpointwise畳み込み層321に送られる。
このpointwise畳み込み層321によって結果334が生み出される。この結果334は、pointwise畳み込み層321によって、(N-S+1)×(M-S+1)行列333の各成分を取得しこの成分に重みαを乗算することにより作成される。αは、好ましくは、いずれの場合でも0より大きく、この数は、(N-S+1)×(M-S+1)行列の各成分について同一である。したがって、pointwise畳み込み層321から得られる結果334は、同じサイズ(N-S+1)×(M-S+1)を有するが、各成分が重みαで乗算された行列である。
次いで、結果334が第2のバッチ正規化部322に送られ、そこで第1のバッチ正規化部312について説明したように正規化され、結果335と同じ次元の正規化された行列P’が計算され、この行列/結果335が第2の整流化線形ユニット323に送られ、そこで整流化機能が適用されて結果/行列
Figure 2023521118000007
236が得られ、これが、次いでニューラルネットワーク内の次の層に送られるか、あるいはニューラルネットワークにおいて他の層が次にない場合には、結果336が出力として提供される。
そして、入力画像の処理の結果によって、入力画像が生体部分の画像を構成するか否か(これは、照明源の光を用いる照明に対する生体部分の異なる挙動のために画像又は差分画像の処理中に見出される)、つまり生体部分のスプーフであるか否かを決定することが可能になる。使用されているニューラルネットワークがどの程度洗練されているかによって、実際に使用されているスプーフの種類がさらに区別され得る。
次に、図4に関し、カーネルKの重みと、図3に関して説明した重みと、2つの画像が本物の生体部分を示しているのか又はこのスプーフを示しているだけなのかを実際に判断できるパターンとがニューラルネットワークによって学習されるように、ニューラルネットワークを適切に訓練することにについて、説明する。
図4の方法は、訓練データ401を提供することから開始する。訓練データは、例えば、他の物体と共に1つの画像に描かれた指先又は複数の指の複数の画像によって構成されてもよい。さらに、訓練データは、本物の指/他の生体部分の画像と、そのような生体部分のスプーフを示す画像、例えば指の画像、とを含む。さらに又は代替的に、訓練データは、上に記載したニューラルネットワークによって処理されるための差分画像を含んでもよい。
画像は、訓練データとして導入される、回転された、ハイライトされた、暗くされた、拡大された又は他の修正が施されたコピーを使用することによって、同じ画像から増やされてもよい。
さらに、入力に対応する結果408が提供され、この結果は、ニューラルネットワークが得るべき結果であり、したがって、学習において、実際の結果に対するニューラルネットワークによる処理の結果をチェックし、そしてそれに応じてニューラルネットワークのパラメータを調整するために使用される。
次の工程では、ニューラルネットワークに加えてオプティマイザ407及び損失関数計算部406が提供される訓練環境において、1つの特定の入力画像402がニューラルネットワークに提供される。
入力画像(又は一対の画像)は、第1のラウンドにおいて、depthwise畳み込み層、第1のバッチ正規化部及び第1の整流化線形ユニット403(DCBRとしてまとめられている)を使用して処理され、次いで、pointwise畳み込み層、第2のバッチ正規化部及び第2の整流化線形ユニット(PCBRとしてまとめられている)に送られ、ここで、図3に関する説明に沿って処理される。これは、図4に示された工程又はセクション403及び404が、各セクション403及び404において、pointwise畳み込み層(PC)及びdepthwise畳み込み層(DC)のカーネルKについての対応する重みを使用して実行されることを意味する。第1及び第2のバッチ正規化部並びにアイテム403及び404の整流化線形ユニットは、図3に関して上で説明したように動作する。
その結果、図3に沿って、出力が提供される。出力は、ベクトル
Figure 2023521118000008
のかたちを有してもよく、式中、a,b,c,dは、0≦a,b,c,d≦1で、a,b,c,dは、各々、入力が、本物の生体部分(例えば値a)又はそのような生体部分のスプーフ(値b,c及びdであり、b,c及びdは各々異なる種類のスプーフの可能性を表す)のいずれかを表す可能性を表す。このような4つの値の代わりに、より多くの又はより少ない値を与えることができる。また、(例えば、1より小さい場合)画像が本物の生体部分を示すこと、及び(例えば、1より大きい場合)画像が生体部分のスプーフを示すことを示す1つの出力値のみが生成されてもよい。
この結果405は次に損失関数に提供され、結果405と正しい結果408との差異を決定するために結果408と比較される。損失関数406によって得られたこの差異は、次にオプティマイザ407に提供され、オプティマイザは、各pointwise畳み込み層及び各depthwise畳み込み層の重み、すなわちα、並びにカーネルKの成分を修正する。これは、ネットワーク内のすべての層について一度に、又は分離された各層について、pointwise畳み込み層の重みα及びdepthwise畳み込み層のカーネルKの成分が操作されることを意味する。
これらの新しい値により、全く同じ(複数の)画像についてサイクルが繰り返され、結果として得られるベクトル
Figure 2023521118000009
が損失関数に提供され、正しい結果408と比較され、その結果がオプティマイザ407に提供され、オプティマイザ407が重みを修正する。
この手順は、結果として得られるベクトル
Figure 2023521118000010
との間の差異、特に結果408との比較における画像が本物の生体部分を示すか又はそのスプーフを示すかについての決定が、実質的に意図されている識別精度に対応する所定の閾値を超えている限り、実行される。
その後、次の(複数の)入力画像402が訓練データ401から取得され、対応するバウンディングボックスが損失関数に提供される。次いで、説明した処理を新しい画像に対して再度繰り返し、pointwise畳み込み層とdepthwise畳み込み層についての最適な重みが得られる。これは、重みの特定の組み合わせが、すべての入力画像についての適切な識別精度をもたらすまで繰り返される。次に得られる重みの組み合わせは、最終重み410として出力される。
これらの最終重みは、次に、モバイルデバイス上で本発明の方法を実行するアプリケーションに導入される。
したがって、本発明のコンセプトでは、モバイルデバイスに提供されるニューラルネットワークは、生体部分及びそのような生体部分のスプーフの画像の識別にすでに十分に適合されており、したがって、さらなる学習を必要とせずに採用することができ、これにより、モバイルデバイスで必要とされるコンピュータリソースがさらに低減される。
全体として、上記の図及び実施形態を参照して上で説明したように、pointwise畳み込み層、depthwise畳み込み層、バッチ正規化部及び線形ユニットを使用することによって、サイズが小さいアプリケーションを提供することができ、したがって、インターネットなどを介して追加のデータソースにアクセスすることなく、分離されたモバイルデバイス上での利用が可能となる。これにより、無線ネットワーク等へのアクセスが不可能な環境でのアプリケーションに適したものとすることができる。さらに、このアプリケーションを実行するために必要なプロセッサ電力は、適切なスプーフ検出結果を依然として生成しつつ最小に低減され、これにより、確認された(すなわち、スプーフィングされていない)画像から生体部分のバイオメトリック特徴を抽出することができ、これが後に、上で説明したような実行されるバイオメトリック特徴によるユーザの識別に使用される。
本発明の方法を実行することができる状況を提供するために、図5は、本発明の一実施形態によるスマートフォンの形態におけるモバイルデバイスを示す。
モバイルデバイス500は、現在知られているようなスマートフォンとして具体化されている。モバイルデバイス500は、好ましくは、ディスプレイ530が設けられているモバイルデバイス500の側とは反対であるモバイルデバイスの裏面に、光学センサ520(例えばカメラ)を備える。本発明によれば、照度源が(例えば、光学センサ520の一部として)設けられており、これは選択的に作動及び作動停止することができる。
このカメラは、解像度が1MP、2MP又はそれ以上のカメラ、例えば、HDカメラとすることができる。カメラには照明源としてフラッシュライトが設けられていてもよいが、本発明はこれに限定されず、そのようなモバイルデバイスの適当な照明源を使用することができる。また、カメラは低解像度でリアルタイム画像を撮影するように構成することができ、カメラがいったん作動されると、ディスプレイ530は、カメラが実際に「見る」ものの描写を示すことができる。これは、例えば、手510とすることができる。
本発明の一実施形態では、本発明の方法が取得された画像に対して実行されると、判断の結果がディスプレイ(ここでは図示せず)に示されてもよい。

Claims (13)

  1. ユーザを識別するためのコンピュータ実装方法であって、
    前記方法は、作動されると可視光を発する照明源を有するコンピューティングデバイスを使用するものであり、
    前記方法は、
    バイオメトリック特徴を有する生体部分を含む可能性のあるシーンの2つの画像を取得する工程であって、第1の画像を前記照明源を作動させずに取得し、第2の画像を前記照明源が作動している状態で取得する工程と、
    前記第1の画像及び前記第2の画像をニューラルネットワークに送る工程と、
    前記第1の画像及び前記第2の画像を前記ニューラルネットワークによって処理する工程と、を含み、
    前記処理する工程は、前記第1の画像と前記第2の画像とを比較し、これにより、前記第1の画像及び前記第2の画像が生体部分の画像であるか否かを判断する工程を含み、
    前記方法は、
    前記第1の画像及び前記第2の画像が生体部分の画像であると判断された場合、前記ユーザを識別するためのバイオメトリック特徴を見つけるために識別アルゴリズムを実行し、前記第1の画像及び前記第2の画像が生体部分の画像でないと判断された場合、前記識別アルゴリズムを実行しないことをさらに含む、方法。
  2. ユーザを識別するためのコンピュータ実装方法であって、
    前記方法は、作動されると可視光を発する照明源を有するデバイスを使用するものであり、
    前記方法は、
    バイオメトリック特徴を有する生体部分を含む可能性のあるシーンの2つの画像を取得する工程であって、第1の画像を前記照明源を作動させずに取得し、第2の画像を前記照明源が作動している状態で取得する工程と、
    前記第1の画像及び前記第2の画像から差分画像を取得する工程と、
    前記差分画像をニューラルネットワークに送る工程と、
    前記差分画像を前記ニューラルネットワークによって処理する工程と、を含み、
    前記処理する工程は、
    前記差分画像から輝度差分情報を決定する工程と、
    前記輝度差分情報から、前記第1の画像及び前記第2の画像が生体部分の画像であるか否かを判断する工程と、
    前記第1の画像及び前記第2の画像が生体部分の画像であると判断された場合、前記ユーザを識別するためのバイオメトリック特徴を見つけるために識別アルゴリズムを実行し、前記第1の画像及び前記第2の画像が生体部分の画像でないと判断された場合、前記識別アルゴリズムを実行しないことをさらに含む、方法。
  3. 前記第1の画像と前記第2の画像とを比較することが、前記画像のピクセル輝度分布に関して前記画像を比較することを含む、請求項1に記載の方法。
  4. 前記画像のピクセル輝度分布に関して前記画像を比較することが、
    前記第1の画像のピクセルの赤、青及び緑の輝度中央値と、前記第2の画像のピクセルの赤、青及び緑の輝度中央値とを取得し、
    前記第2の画像の前記輝度中央値が、所定の閾値だけ、前記第1の画像の前記ピクセルの前記輝度中央値を超える場合、前記画像が生体部分の画像であると判断することを含む、請求項3に記載の方法。
  5. 前記赤、青及び緑のピクセルの前記ピクセル輝度分布が、前記第1の画像と前記第2の画像について取得され、前記第1の画像の各色の取得された前記ピクセル輝度分布が、前記第2の画像の対応する色の取得された前記ピクセル輝度分布と比較される、請求項4に記載の方法。
  6. 前記画像を前記ニューラルネットワークによって処理する工程は、前記比較をする前に、前記ニューラルネットワークを使用して、体の一部を含む可能性が高い前記第1の画像及び/又は第2の画像の部分を特定し、前記部分に対応するピクセル情報を前記第1の画像及び前記第2の画像から抽出することを含み、
    前記第1の画像と前記第2の画像とを比較することは、前記第1の画像及び前記第2の画像から抽出された前記部分に対応する前記ピクセル情報のみを比較することを含む、請求項1又は請求項3~5の何れか一項に記載の方法。
  7. 前記第1の画像及び前記第2の画像を取得する前に、照明チェック工程が実行され、
    前記照明チェック工程は、現在の照明条件をチェックすることを含み、
    前記方法は、前記現在の照明条件に対応する前記輝度が所定の閾値を超える場合、前記方法のさらなる工程は実行しないことをさらに含む、請求項1~6の何れか一項に記載の方法。
  8. 前記現在の照明条件に対応する前記輝度が所定の閾値を超える場合、前記現在の照明条件では前記識別を実行できない旨の情報を前記ユーザに提示する、請求項7に記載の方法。
  9. 前記方法の各工程は、モバイルコンピューティングデバイス上で実行され、
    前記ニューラルネットワークが前記モバイルデバイスに完全にインストールされている、請求項1~8の何れか一項に記載の方法。
  10. 前記ニューラルネットワークは3つのサブネットワークを含み、
    第1のサブネットワークが前記第1の画像を処理して前記第1の画像から第1の情報を抽出し、第2のサブネットワークが前記第2の画像を処理して前記第2の画像から第2の情報を抽出し、
    第3のサブネットワークが、前記第1の画像及び前記第2の画像が生体部分の画像であるか否かを判断するために、前記第1の情報と前記第2の情報とを比較する、請求項1又は請求項1を引用する請求項3~9の何れか一項に記載の方法。
  11. 前記第1の画像及び前記第2の画像が生体部分の画像であるか否かを判断する工程は、前記第1の画像及び前記第2の画像が紙上の画像の画像であるか否か、及び/又は、前記第1の画像及び前記第2の画像がスクリーン上に提示された画像の画像であるか否か、及び/又は、前記第1の画像及び前記第2の画像が生体部分の三次元スプーフの画像であるか否か、及び/又は、前記第1の画像及び前記第2の画像が生体部分の画像であるか否かを決定することを含む、請求項1~10の何れか一項に記載の方法。
  12. 前記輝度差分は、前記差分画像を取得する際に、前記第1の画像と前記第2の画像の輝度値のピクセル単位の引き算から得られる、請求項2に記載の方法。
  13. 前記照明源は前記コンピューティングデバイスの明かりである、請求項1~12の何れか一項に記載の方法。
JP2022561401A 2020-04-09 2021-04-09 照明源を含むデバイスを使用する生体性検出 Active JP7445335B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20382290.3A EP3893147B1 (en) 2020-04-09 2020-04-09 Liveliness detection using a device comprising an illumination source
EP20382290.3 2020-04-09
PCT/EP2021/059332 WO2021205016A1 (en) 2020-04-09 2021-04-09 Liveliness detection using a device comprising an illumination source

Publications (2)

Publication Number Publication Date
JP2023521118A true JP2023521118A (ja) 2023-05-23
JP7445335B2 JP7445335B2 (ja) 2024-03-07

Family

ID=70391026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022561401A Active JP7445335B2 (ja) 2020-04-09 2021-04-09 照明源を含むデバイスを使用する生体性検出

Country Status (10)

Country Link
US (1) US20230162534A1 (ja)
EP (2) EP3893147B1 (ja)
JP (1) JP7445335B2 (ja)
KR (1) KR20230004533A (ja)
BR (1) BR112022020413A2 (ja)
CA (1) CA3176955A1 (ja)
ES (1) ES2971682T3 (ja)
MX (1) MX2022012036A (ja)
WO (1) WO2021205016A1 (ja)
ZA (1) ZA202210744B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138808A (ja) * 2016-02-03 2017-08-10 キヤノン株式会社 情報処理装置および情報処理方法
US20180173979A1 (en) * 2015-06-29 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Living body detection method, living body detection system, and computer program product
WO2019163065A1 (ja) * 2018-02-22 2019-08-29 日本電気株式会社 なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体
JP2019525358A (ja) * 2016-08-24 2019-09-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited ユーザ本人確認の方法、装置及びシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
EP3552150A4 (en) * 2016-12-08 2020-10-21 Veridium IP Limited SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT-BASED USER AUTHENTICATION USING CAPTURED IMAGES USING MOBILE DEVICES
EP3540635B1 (en) 2018-03-16 2020-08-26 Identy Inc. Method for identifying an object within an image and mobile device for executing the method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180173979A1 (en) * 2015-06-29 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Living body detection method, living body detection system, and computer program product
JP2017138808A (ja) * 2016-02-03 2017-08-10 キヤノン株式会社 情報処理装置および情報処理方法
JP2019525358A (ja) * 2016-08-24 2019-09-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited ユーザ本人確認の方法、装置及びシステム
WO2019163065A1 (ja) * 2018-02-22 2019-08-29 日本電気株式会社 なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HAONAN CHEN ET AL: "A Cascade Face Spoofing Detector Based on Face Anti-Spoofing R-CNN and Improved Retinex LBP", IEEE ACCESS, vol. Volume 7, 2019, JPN6023042253, 25 November 2019 (2019-11-25), pages 170116 - 170133, ISSN: 0005175883 *
HAONAN CHEN ET AL: "Attention-Based Two-Stream Convolutional Networks for Face Spoofing Detection", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, vol. Vol.15 , 2020, JPN6023042254, 17 June 2019 (2019-06-17), pages 578 - 593, ISSN: 0005175884 *
伊藤 康一: "顔認証システムのためのFully Convolutional Networkを用いた生体検知手法に関", 電子情報通信学会技術研究報告 VOL.117 NO.236, vol. BioX2017-27 (2017-10), JPN6023042255, 5 October 2017 (2017-10-05), JP, pages 11 - 15, ISSN: 0005175885 *
海老原 章記: "フラッシュ反射光を利用した単眼可視光カメラによるなりすまし検知", 映像情報メディア学会技術報告 VOL.42 NO.14, vol. BioX2018-2 (2018-05), JPN6023042252, 17 May 2018 (2018-05-17), JP, pages 15 - 19, ISSN: 0005175882 *

Also Published As

Publication number Publication date
ZA202210744B (en) 2023-04-26
EP4246454A2 (en) 2023-09-20
MX2022012036A (es) 2022-10-27
EP4246454A3 (en) 2023-11-29
ES2971682T3 (es) 2024-06-06
CA3176955A1 (en) 2021-10-14
EP3893147B1 (en) 2024-01-03
US20230162534A1 (en) 2023-05-25
JP7445335B2 (ja) 2024-03-07
WO2021205016A1 (en) 2021-10-14
EP3893147A1 (en) 2021-10-13
KR20230004533A (ko) 2023-01-06
BR112022020413A2 (pt) 2022-12-20

Similar Documents

Publication Publication Date Title
JP7304082B2 (ja) 三次元実物体を実物体の二次元のスプーフと区別するための方法
WO2021073364A1 (zh) 一种人脸活体检测方法、装置、设备及存储介质
Boulkenafet et al. OULU-NPU: A mobile face presentation attack database with real-world variations
US11321963B2 (en) Face liveness detection based on neural network model
CN108038456B (zh) 一种人脸识别***中的防欺骗方法
US20200184059A1 (en) Face unlocking method and apparatus, and storage medium
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
KR101309889B1 (ko) 바이오메트릭 인증을 위한 텍스처 특징
US11263442B1 (en) Systems and methods for passive-subject liveness verification in digital media
WO2019152983A2 (en) System and apparatus for face anti-spoofing via auxiliary supervision
WO2019137178A1 (zh) 人脸活体检测
CN105893920A (zh) 一种人脸活体检测方法和装置
US11373449B1 (en) Systems and methods for passive-subject liveness verification in digital media
KR102038576B1 (ko) 홍채 인식 시스템의 부정행위 검출 방법
Hadiprakoso et al. Face anti-spoofing using CNN classifier & face liveness detection
Song et al. Face liveness detection based on joint analysis of rgb and near-infrared image of faces
JP7445335B2 (ja) 照明源を含むデバイスを使用する生体性検出
JP7360217B2 (ja) ユーザのバイオメトリック特性を有する当該ユーザの物体の画像からデータを取得するための方法
KR20210128274A (ko) 라이브니스 검사 방법 및 장치
CN113128269A (zh) 一种基于图像风格迁移信息融合的活体检测方法
CN116012248B (zh) 图像处理方法、装置、计算机设备及计算机存储介质
WO2023286251A1 (en) Adversarial image generation apparatus, control method, and computer-readable storage medium
JP2021096831A (ja) 判定装置、判定装置を含む携帯端末、および判定装置用のプログラム
WO2023043891A1 (en) Spoof detection using eye boundary analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7445335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150