JP7013077B2 - 生体検出方法及び装置、機器並びに記憶媒体 - Google Patents

生体検出方法及び装置、機器並びに記憶媒体 Download PDF

Info

Publication number
JP7013077B2
JP7013077B2 JP2020540717A JP2020540717A JP7013077B2 JP 7013077 B2 JP7013077 B2 JP 7013077B2 JP 2020540717 A JP2020540717 A JP 2020540717A JP 2020540717 A JP2020540717 A JP 2020540717A JP 7013077 B2 JP7013077 B2 JP 7013077B2
Authority
JP
Japan
Prior art keywords
image
reconstruction
network
encoder
feature data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020540717A
Other languages
English (en)
Other versions
JP2021519962A (ja
Inventor
ルイ・ジャン
ミンチャオ・シュ
リウェイ・ウ
チェン・リ
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2021519962A publication Critical patent/JP2021519962A/ja
Application granted granted Critical
Publication of JP7013077B2 publication Critical patent/JP7013077B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

(関連出願の相互参照)
本願は、2019年3月29日に中国国家知的財産局に提出された、出願番号が201910250962.5であり、出願名称が「生体検出方法及び装置、機器並びに記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が参照によって本願に組み込まれる。
本開示は、画像処理技術に関し、特に、生体検出方法及び装置、機器並びに記憶媒体に関する。
コンピュータビジョン技術の継続的な開発に伴って、顔認識技術は広い用途に適用されており、顔偽造防止検出は顔認識に不可欠な部分となっている。現在、仕事や生活において多くのアプリ又はシステムにおいて、顔認識機能を採用しており、例えば、身元認証による口座開設、カード有効化、登録等が挙げられ、不正者が、顔偽造による脆弱性を利用して利益を取得又は、盗み取ることを防止するために、このような顔認識機能は、一般的には顔偽造防止機能を同時に有することが要求される。特にインターネット金融関連産業において、他人の名義をかたるものが、他人の生物学的認識情報を偽造してシステムを欺いて金銭財物をだまし取ることがある。顔偽造防止検出はこのような場合に用いられる。
顔偽造防止検出において、顔の取得や偽造が容易であるという特性のため、顔認識の安全性を向上させるように、生体検出によってカメラ前の顔画像が真実の人間からのものであるか否かを判定する必要がある。どのように各種の可能な偽造特性に応じて生体検出を行うかはこの分野の研究において注目を集めている。
本開示の実施例は、生体検出のための技術的解決手段と識別ネットワークの訓練のための技術的解決手段を提供する。
本開示の実施例に係る一態様によれば、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る操作と、前記再構成画像に基づいて再構成誤差を得る操作と、前記被検出画像と前記再構成誤差に基づいて、前記目標対象の、生体又は非生体である分類結果を得る操作と、を含む生体検出方法を提供する。
任意選択的に、本開示の実施例の生体検出方法では、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る前記操作は、自己符号化器を用いて目標対象を含む被検出画像に対して再構成処理を行って再構成画像を得る操作を含む。
任意選択的に、本開示の実施例の生体検出方法では、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る前記操作は、目標対象を含む被検出画像に基づいて、自己符号化器によって再構成処理を行って前記再構成画像を得る操作を含む。
任意選択的に、本開示の実施例の生体検出方法では、前記被検出画像を自己符号化器に入力して再構成処理を行って再構成画像を得る前記操作は、前記自己符号化器を用いて前記被検出画像に対して符号化処理を行って、第1特徴データを得る操作と、前記自己符号化器を用いて前記第1特徴データに対して復号処理を行って、前記再構成画像を得る操作と、を含む。
任意選択的に、本開示の実施例の生体検出方法では、前記再構成画像に基づいて再構成誤差を得る前記操作は、前記再構成画像と前記被検出画像との間の差に基づいて再構成誤差を得る操作を含み、前記被検出画像と前記再構成誤差に基づいて前記目標対象の分類結果を得る前記操作は、前記被検出画像と前記再構成誤差を連結して第1連結情報を得る操作と、前記第1連結情報に基づいて前記目標対象の分類結果を得る操作と、を含む。
任意選択的に、本開示の実施例の生体検出方法では、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る前記操作は、目標対象を含む被検出画像に対して特徴抽出を行って第2特徴データを得る操作と、前記第2特徴データを自己符号化器に入力して再構成処理を行って再構成画像を得る操作と、を含む。
任意選択的に、本開示の実施例の生体検出方法では、前記第2特徴データを自己符号化器に入力して再構成処理を行って再構成画像を得る前記操作は、前記自己符号化器を用いて前記第2特徴データに対して符号化処理を行って第3特徴データを得る操作と、前記自己符号化器を用いて前記第3特徴データに対して復号処理を行って、前記再構成画像を得る操作と、を含む。
任意選択的に、本開示の実施例の生体検出方法では、前記再構成画像に基づいて再構成誤差を得る前記操作は、前記第2特徴データと前記再構成画像との間の差に基づいて再構成誤差を得る操作を含み、前記被検出画像と前記再構成誤差に基づいて前記目標対象の分類結果を得る前記操作は、前記第2特徴データと前記再構成誤差を連結して第2連結情報を得る操作と、前記第2連結情報に基づいて前記目標対象の分類結果を得る操作と、を含む。
任意選択的に、本開示の実施例の生体検出方法では、前記生体検出方法は識別ネットワークによって実現され、前記方法は、訓練集合によって、生成ネットワークと前記識別ネットワークを含む敵対的生成ネットワークを訓練して前記識別ネットワークを得る操作を更に含む。
任意選択的に、本開示の実施例の生体検出方法では、訓練集合によって敵対的生成ネットワークを訓練する前記操作は、前記識別ネットワークによって入力画像に対して判別処理を行って前記入力画像の分類予測結果を得る操作であって、前記入力画像が、前記訓練集合中のサンプル画像、又は前記生成ネットワークが前記サンプル画像に基づいて取得した生成画像を含み、前記サンプル画像のラベリング情報が、生体真実画像又は偽造生体真実画像を示すものであり、前記生成画像のラベリング情報が生成画像を示すものである操作と、前記入力画像の分類予測結果及び前記入力画像のラベリング情報に基づいて、前記敵対的生成ネットワークのネットワークパラメータを調整する操作と、を含む。
本開示の実施例に係る別の態様によれば、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得るための再構成モジュールと、前記再構成画像に基づいて再構成誤差を得るための第1取得モジュールと、前記被検出画像と前記再構成誤差に基づいて、前記目標対象の、生体又は非生体である分類結果を得るための第2取得モジュールと、を含む生体検出装置を提供する。
本開示の実施例に係るまた1つの態様によれば、コンピュータプログラムを記憶するためのメモリと、前記メモリに記憶されているコンピュータプログラムを実行するためのプロセッサと、を含み、前記コンピュータプログラムが実行される時に本開示のいずれか1つの実施例に記載の生体検出方法を実現する電子機器を提供する。
本開示の実施例に係る更に別の態様によれば、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、当該コンピュータプログラムがプロセッサにより実行される時に本開示のいずれか1つの実施例に記載の生体検出方法を実現するコンピュータ可読記憶媒体を提供する。
本開示の上記実施例で提供された生体検出方法及び装置、機器並びに記憶媒体によれば、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得、当該再構成画像に基づいて再構成誤差を得、続いて、被検出画像と再構成誤差に基づいて、目標対象が生体か、それとも非生体かに関する分類結果を得て、それによって、被検出画像における目標対象が生体か、それとも非生体かを効率的に区別して、未知種類の偽造攻撃を効率的に防御して、偽造防止性能を向上させる。
更に任意選択的に、本開示の上記実施例で提供された生体検出方法及び装置、機器並びに記憶媒体において、訓練集合によって敵対的生成ネットワークを訓練し、訓練が終了した後敵対的生成ネットワークによって、上記実施例に記載の生体検出方法を実行するための識別ネットワークを得ることができ、敵対的生成ネットワークの敵対的生成モードを利用することで、サンプル多様性を向上させ、識別ネットワークの未知種類の偽造攻撃に対する防御能力を向上させ、既知偽造攻撃に対する防御精度を向上させることができる。
以下、図面と実施例を参照しながら、本開示の技術的解決手段を更に詳細に説明する。
本開示の実施例の生体検出方法のフローチャートである。 本開示の実施例の生体検出方法の別のフローチャートである。 本開示の実施例の生体検出方法の更に別のフローチャートである。 本開示の実施例における敵対的生成ネットワークの構造模式図である。 本開示の実施例で提供された判別処理の方法のフローチャートである。 本開示の実施例で提供された別の判別処理の方法のフローチャートである。 本開示の実施例の識別ネットワークの訓練方法のフローチャートである。 本開示の実施例で生成ネットワークを訓練するフローチャートである。 本開示の実施例で識別ネットワークを訓練するフローチャートである。 本開示の図2に示す実施例の応用例の図である。 本開示の実施例の生体検出装置の構造模式図である。 本開示の実施例の生体検出装置の別の構造模式図である。 本開示の実施例で提供された電子機器の構造模式図である。
明細書の一部を構成する図面は、本開示の実施例を説明し、その説明と共に本開示の原理を解釈することに用いられる。
図面を参照し、以下の詳細な説明により本開示をより明瞭に理解することができる。
ここで、図面を参照しながら本開示の様々な例示的な実施例を詳細に説明する。なお、特に断らない限り、これらの実施例で記述した部材及びステップの相対的配置、数式及び値は本開示の範囲を限定するものではないことに注意すべきである。
本開示の実施例における「第1の」、「第2の」等の用語は、異なるステップ、機器又はモジュール等を区別するためのものに過ぎず、何の特定の技術的意味を表したり、それらの必然的な論理的順序を表したりすることもないことが当業者に理解可能である。
更に、本開示の実施例では、「複数の」は2つ又は2つ以上を指してよく、「少なくとも1つの」は1つ、2つ又は2つ以上を指してよいことを理解すべきである。
更に、本開示の実施例で言及された任意の部材、データ又は構造は、明確に限定され又は明細書の前後で反対的に示唆された場合でなければ、一般的には1つ又は複数と理解してよいことを理解すべきである。
また、本開示の用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3種の関係が存在可能であることを示し、例えば、A及び/又はBは、Aが単独して存在し、AとBが同時に存在し、Bが単独して存在するという3種の場合を示してもよい。また、本開示における符号「/」は、一般に前後の関連対象が「又は」という関係にあることを示す。
更に、本開示ではそれぞれの実施例についての説明はそれぞれの実施例の相違点を重点として強調し、その同一又は類似的な点について相互に参照してよく、簡単化するために、ここで一つずつに繰り返して説明しないことを理解すべきである。
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
以下の少なくとも一つの例示的な実施例に対する説明は実際に説明的なものに過ぎず、本開示及びその適用または使用へのなんらの制限にもならない。
関連分野の当業者に既知の技術、方法及び機器については、詳細に説明しない場合があるが、場合によって、前記技術、方法及び機器は明細書の一部と見なすべきである。
なお、類似する符号及び英文字は以下の図面において類似項目を表し、従って、ある一項が一つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
本開示の実施例は端末装置、コンピュータシステム、サーバ等の電子機器に適用可能であり、それは他の様々な共通または専用計算システム環境または構成と共に動作可能である。端末装置、コンピュータシステム、サーバ等の電子機器との併用に適する公知の端末装置、計算システム、環境及び/または構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステム及び前記の任意のシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
端末装置、コンピュータシステム、サーバ等の電子機器はコンピュータシステムにより実行されるコンピュータシステム実行可能コマンド(例えば、プログラムモジュール)の一般的な言語環境において記述できる。通常、プログラムモジュールはルーチン、プログラム、目的プログラム、コンポーネント、ロジック、データ構造などを含み、それらは特定のタスクを実行するかまたは特定の抽象データ型を実現する。コンピュータシステム/サーバは分散型クラウドコンピューティング環境において実施でき、分散型クラウドコンピューティング環境において、タスクは通信ネットワークにわたってリンクされた遠隔処理機器により実行される。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してよい。
図1は本開示の実施例の生体検出方法のフローチャートである。いくつかの実施例では、本開示の実施例の生体検出方法はニューラルネットワーク(以下、識別ネットワークと称する)によって実現可能である。図1に示すように、当該生体検出方法は、以下の操作を含む。
102において、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る。
本開示の実施例では、上記再構成画像はベクトル形式で表されてもよく、更に他の形式等で表されてもよく、本開示の実施例では限定されない。
104において、再構成画像に基づいて再構成誤差を得る。
本開示のいくつかの実施例では、上記再構成誤差は画像で表されてもよく、この時に当該再構成誤差を再構成誤差画像と称し、或いは、再構成誤差はベクトル形式で表されてもよく、更に他の形式等で表されてもよく、本開示の実施例では限定されない。
106において、被検出画像と再構成誤差に基づいて、目標対象の分類結果を得、分類結果が生体又は非生体である。
本開示の実施例の生体検出方法は、顔に対して生体検出を行うために用いられることが可能であり、この時の目標対象は顔であり、生体目標対象は真の顔(真実人間とも称する)であり、非生体目標対象は偽造の顔(偽造人間と称する)である。
本開示の上記実施例で提供された生体検出方法によれば、目標対象を含む被検出画像に基づいて、自己符号化器によって再構成処理を行って前記再構成画像を得、続いて、被検出画像と再構成誤差に基づいて、目標対象が生体か、それとも非生体かに関する分類結果を得て、それによって、被検出画像における目標対象が生体か、それとも非生体かを効率的に区別して、未知種類の偽造攻撃を効率的に防御して、偽造防止性能を向上させる。
いくつかの可能な実施形態では、上記操作102において、自己符号化器(Auto-encoder)を用いて、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得るようにしてよい。ここで、上記自己符号化器は生体目標対象を含むサンプル画像に基づいて訓練して得られたものである。
本開示の実施例では、生体目標対象のサンプル画像に基づいて事前に訓練して自己符号化器を得、自己符号化器を用いて目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得、当該再構成画像に基づいて再構成誤差を得、続いて、被検出画像と再構成誤差に基づいて、目標対象が生体か、それとも非生体かに関する分類結果を得て、それによって、被検出画像における目標対象が生体か、それとも非生体かを効率的に区別して、未知種類の偽造攻撃を効率的に防御して、偽造防止性能を向上させる。
ここで、自己符号化器は、符号化-復号(Encoder-Decoder)モデルに基づいて実現可能であり、符号化ユニットと復号ユニットを含み、本開示の実施例で第1符号化ユニットと第1復号ユニットと称される。
いくつかの選択可能な例では、操作102において、被検出画像を自己符号化器に入力して再構成処理を行って再構成画像を得てよい。
例えば、自己符号化器を用いて被検出画像に対して符号化処理を行って、第1特徴データを得、自己符号化器を用いて第1特徴データに対して復号処理を行って再構成画像を得るようにしてよい。本開示の実施例における特徴データは、特徴ベクトル又は特徴マップ等であってよく、本開示の実施例はそれらに限定されない。
いくつかの可能な実施形態では、操作104において、再構成画像と被検出画像との間の差に基づいて再構成誤差を得てよい。
いくつかの可能な実施形態では、操作106において、被検出画像と再構成誤差を連結し、例えば、被検出画像と再構成誤差をチャネル方向に連結して第1連結情報を得、第1連結情報に基づいて目標対象の分類結果を得るようにしてよい。
例えば、第1連結情報に基づいて、目標対象がそれぞれ生体と非生体に属する確率値を得、当該目標対象がそれぞれ生体と非生体に属する確率値に基づいて、当該目標対象の分類結果を決定するようにしてよい。
図2は本開示の実施例の生体検出方法の別のフローチャートである。ここで、再構成誤差が再構成誤差画像であることを例にして説明する。図2に示すように、当該生体検出方法は、以下の操作を含む。
202において、自己符号化器を用いて被検出画像に対して符号化処理を行って、第1特徴データを得る。
ここで、上記自己符号化器は生体目標対象を含むサンプル画像に基づいて訓練して得られたものである。
204において、自己符号化器を用いて第1特徴データに対して復号処理を行って再構成画像を得る。
206において、被検出画像と当該被検出画像の再構成画像との間の差に基づいて再構成誤差画像を得る。
208において、被検出画像と再構成誤差画像をチャネル方向に連結して第1融合画像(即ち、上記第1連結情報)を得る。
210において、第1融合画像に基づいて、被検出画像における目標対象がそれぞれ生体と非生体に属する確率値を得る。
いくつかの実施例では、第1融合画像に基づいて被検出画像における目標対象がそれぞれ生体と非生体に属する確率値を得る実施形態は、上記第1融合画像を、訓練して得られた識別ネットワークに入力して、被検出画像における目標対象がそれぞれ生体と非生体に属する確率値を得るようになってよい。訓練で識別ネットワークを得る手法については後で詳細に説明するため、ここで説明を省略する。
212において、被検出画像における目標対象がそれぞれ生体と非生体に属する確率値に基づいて、当該目標対象の生体又は非生体である分類結果を決定する。
任意選択的に、被検出画像における目標対象の生体に属する確率値が当該目標対象の非生体に属する確率値より大きい場合に、当該目標対象が生体であると決定し、当該目標対象の生体に属する確率値が当該目標対象の非生体に属する確率値より大きくない場合に、当該目標対象が非生体であると決定する。
また、別の可能な実施形態では、上記操作102において、目標対象を含む被検出画像に対して特徴抽出を行って第2特徴データを得、第2特徴データを自己符号化器で再構成処理して再構成画像を得るようにしてよい。例えば、自己符号化器を用いて第2特徴データに対して符号化処理を行って第3特徴データを得、自己符号化器を用いて第3特徴データに対して復号処理を行って再構成画像を得るようにしてよい。本開示の実施例における特徴データは特徴ベクトル又は特徴マップ等であってよく、本開示の実施例はそれらに限定されない。
いくつかの可能な実施形態では、操作104において、第2特徴データと再構成画像との間の差に基づいて再構成誤差を得てよい。
いくつかの可能な実施形態では、操作106において、第2特徴データと再構成誤差を連結し、例えば第2特徴データと再構成誤差をチャネル方向に連結して第2連結情報を得、第2連結情報に基づいて目標対象の分類結果を得るようにしてよい。例えば、第2連結情報に基づいて目標対象がそれぞれ生体と非生体に属する確率値を得、目標対象がそれぞれ生体と非生体に属する確率値に基づいて目標対象の分類結果を決定する。
図3は本開示の実施例の生体検出方法のまた1つのフローチャートである。ここで、特徴データが特徴マップであり、再構成誤差が再構成誤差画像であることを例にして説明する。図3に示すように、当該生体検出方法は、以下の操作を含む。
302において、目標対象を含む被検出画像に対して特徴抽出を行って第2特徴マップを得る。
304において、自己符号化器を用いて第2特徴マップに対して符号化処理を行って第3特徴マップを得る。
ここで、上記自己符号化器は生体目標対象を含むサンプル画像に基づいて訓練して得られたものである。
306において、自己符号化器を用いて第3特徴マップに対して復号処理を行って再構成画像を得る。
308において、第2特徴マップと再構成画像との間の差に基づいて再構成誤差画像を得る。
310において、第2特徴マップと再構成誤差画像をチャネル方向に連結して第2融合画像(即ち、上記第2連結情報)を得る。
例を挙げると、第2特徴マップは(H×W×M)の3次元行列であり、再構成誤差画像は(H×W×N)の3次元行列であり、第2融合画像は(H×W×(M+N))の3次元行列である。ただし、H、W、M、Nは共に0より大きい整数であり、Hは当該第2特徴マップと当該再構成誤差画像の長さを表し、Wは当該第2特徴マップと当該再構成誤差画像の幅を表し、Mは当該第2特徴マップのチャネル数を表し、Nは当該再構成誤差画像のチャネル数を表す。
312において、第2融合画像に基づいて、被検出画像における目標対象がそれぞれ生体と非生体に属する確率値を得る。
いくつかの実施例では、第2融合画像に基づいて被検出画像における目標対象がそれぞれ生体と非生体に属する確率値を得る実施形態は、上記第2融合画像を、訓練して得られた識別ネットワークに入力して被検出画像における目標対象がそれぞれ生体と非生体に属する確率値を得るようになってよい。
314において、被検出画像における目標対象がそれぞれ生体と非生体に属する確率値に基づいて、当該目標対象の生体又は非生体である分類結果を決定する。
本開示を実現する過程で、本発明者は、調査研究によって、一般の顔偽造防止検出課題における正例のサンプルが真実の人間を実際に撮影して得られたものであり、負例のサンプルが既知の偽造方式に基づいて自ら偽造道具を設計して撮影して得られたものであり、偽造手掛かりを含むことを分かった。しかしながら、実際の応用では、このようなサンプル取得方式は、未知の偽造攻撃に対処できないという深刻な問題を引き起こすことがある。未知の偽造攻撃とは、取得された偽造サンプル訓練集合に含まれない偽造攻撃方式のことを指す。従来の顔偽造防止検出アルゴリズムは、大抵、顔偽造防止を2クラス分類問題に帰納し、訓練データ集合を拡張していくことで偽造サンプルをできる限り多くカバーして精度を向上させる目的を達成している。しかしながら、このような手法は未知のサンプル攻撃に対処できず、一般の偽造サンプルに攻撃されても脆弱性が発生する可能性が非常に高い。
本開示の実施例では、自己符号化器は生体目標対象を含むサンプル画像に基づいて訓練して得られるものであり、本開示を顔の生体検出に用いる時に、自己符号化器は真実の人間を含むサンプル画像に基づいて訓練して得られ、真実の人間を含むサンプル画像はいかなる偽造手掛かりも含まないので、自己符号化器を生体検出に用いる時に、再構成された再構成画像はいかなる偽造手掛かりも含まなく、そのように真実人間画像と再構成画像に基づいて得られた差が偽造手掛かりを示すことがなく、それに対して偽造人間画像と再構成画像に基づいて得られた差が偽造手掛かりを含む。そのため、被検出画像と当該差に基づいて顔の真偽を識別でき、それによって未知の偽造顔を効率的に防御でき、再構成誤差の大きさによって既知又は未知のサンプルを含む各種のサンプルを識別できる。
ここで、顔画像とその再構成画像との間の差は顔の先験的情報と称されてもよく、例えば、撮影複製した画像におけるスクリーンのボタン、プリントした写真画像における紙のエッジ、スクリーンのモアレ等を含む。そのため、顔の先験的情報は、真実の人間の顔と偽造顔の分類境界を示し、それによって真実の人間の顔と偽造顔をより効率的に区別できる。
本開示の上記実施例の生体検出方法はニューラルネットワーク(以下、識別ネットワークと称する)によって実現可能であり、ここで識別ネットワークは上記自己符号化器を含む。
任意選択的に、本開示の実施例では、識別ネットワークの訓練方法、即ち訓練によって識別ネットワークを得る方法を更に含む。例えば、一実施形態では、訓練集合によって敵対的生成ネットワーク(Generative Adversarial Networks、GAN)を訓練し、訓練された敵対的生成ネットワークによって識別ネットワークを得てよい。ここで、敵対的生成ネットワークは生成ネットワークと識別ネットワークを含み、訓練集合は生体目標対象を含むサンプル画像と偽造生体(即ち、非生体)目標対象を含むサンプル画像を含む。
いくつかの可能な実施形態では、訓練集合によって敵対的生成ネットワークを訓練する操作は、識別ネットワークによって上記識別ネットワークの入力画像に対して判別処理して入力画像の分類予測結果を得る操作であって、識別ネットワークの入力画像は訓練集合中のサンプル画像又は生成ネットワークがサンプル画像に基づいて取得した生成画像を含み、サンプル画像のラベリング情報が、生体真実画像又は偽造生体真実画像を示すものであり、生成画像のラベリング情報が生成画像を示すものである操作と、入力画像の分類予測結果及び入力画像のラベリング情報に基づいて敵対的生成ネットワークのネットワークパラメータを調整する操作と、を含む。
図4Aに本開示の実施例における敵対的生成ネットワークの構造模式図を示す。ここでの識別ネットワークは、畳み込みニューラルネットワーク、減算器及び連結ユニットを含む判別器と、自己符号化器とを備える。ここでの畳み込みニューラルネットワークは第1サブニューラルネットワークと第2サブニューラルネットワークを含み、第2サブニューラルネットワークのみを含んでもよい。畳み込みニューラルネットワークが第1サブニューラルネットワークと第2サブニューラルネットワークを含む場合に、訓練して得られた識別ネットワークを生体検出に用いる時に、図3に示す流れを実行してよく、訓練して得られた識別ネットワークを、生体目標対象特徴に基づく識別ネットワークと称してよい。畳み込みニューラルネットワークが第1サブニューラルネットワークと第2サブニューラルネットワークのうちの第2サブニューラルネットワークのみを含む場合に、訓練して得られた識別ネットワークを生体検出に用いる時に、図2に示す流れを実行してよく、訓練して得られた識別ネットワークを、生体目標対象に基づく識別ネットワークと称してよい。図4Aにおける識別ネットワークはその入力画像に対して判別処理して入力画像の分類結果を得ることができる。以下、図4Aにおける識別ネットワークによって判別処理を実行する方法の流れを説明する。
図4Bは本開示の実施例で提供された判別処理の方法のフローチャートである。図4Bに示すように、当該方法は、以下の操作を含む。
401Aにおいて、第1符号化ユニット(Encoder)によって入力画像Xに対して符号化処理を行って第1特徴マップを得る。
当該第1符号化ユニットは図4Aにおける識別ネットワーク中のEncoderであってよい。
402Aにおいて、第1復号ユニット(Decoder)によって第1特徴マップに対して復号処理を行ってサンプル画像の再構成画像(即ち、図4BにおけるX’)を得る。
当該第1復号ユニットは図4Aにおける識別ネットワーク中のDecoderであってよい。
403Aにおいて、減算器(-)によって入力画像Xと再構成画像X’との間の差を取得して再構成誤差画像(η=X’-X)を得る。
404Aにおいて、連結ユニット(concat)によって第2特徴マップと再構成誤差画像をチャネル方向に連結して第2融合画像を取得し、第2サブニューラルネットワーク(CNN2)に入力する。
サンプル画像が3チャネルである時に、対応する第2特徴マップと再構成誤差画像も3チャネルであり、そのように連結された第2融合画像が6チャネルである。
405Aにおいて、CNN2によって第2融合画像に基づいて分類して、サンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値を得、サンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値に基づいてサンプル画像の分類結果を決定する。
任意選択的に、CNN2においてSoftmax関数によって当該第2融合画像を分類してサンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値を得る。
図4Bは本開示の実施例で提供された判別処理の方法のフローチャートである。図4Bに示すように、当該方法は、以下の操作を含む。
401Bにおいて、第1サブニューラルネットワーク(CNN1)によって入力画像Xに対して特徴抽出を行って第2特徴マップYを得る。
当該CNN1は図1におけるCNN1であってよい。
402Bにおいて、第1符号化ユニット(Encoder)によって第2特徴マップに対して特徴抽出を行って第3特徴マップを得る。
当該第1符号化ユニットは図4Aにおける識別ネットワーク中のEncoderであってよい。
403Bにおいて、第1復号ユニット(Decoder)によって第3特徴マップに基づいてサンプル画像の再構成画像Y’を得る。
当該第1復号ユニットは図4Aにおける識別ネットワーク中のDecoderであってよい。
404Bにおいて、減算器(-)によって第2特徴マップと当該サンプル画像の再構成画像との間の差を取得して再構成誤差画像(η=Y’-Y)を得る。
405Bにおいて、連結ユニット(concat)によって第2特徴マップと再構成誤差画像をチャネル方向に連結して第2融合画像を取得し、且つ第2サブニューラルネットワーク(CNN2)に入力する。
406Bにおいて、CNN2によって第2融合画像に基づいて分類してサンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値を得、サンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値に基づいてサンプル画像の分類結果を決定する。
任意選択的に、CNN2においてSoftmax関数によって当該第2融合画像を分類してサンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値を得る。
図4Cにおける方法の流れは図4Aにおける識別ネットワークに実行される判別流れであってよく、図4Bにおける方法の流れは図4Aにおける識別ネットワークのCNN1以外の部分に実行される判別流れであってよいことを理解すべきである。
本開示のいくつかの実施例では、自己符号化器は符号化-復号モデルを用いてよく、ここで、識別ネットワークを訓練しながら自己符号化器を訓練してもよい。先に自己符号化器を訓練し、訓練された自己符号化器のネットワークパラメータが変わらないように、識別ネットワークを訓練してもよく、本開示の実施例では限定されない。
また、上記実施例の識別ネットワークの訓練方法の前に、先に生体目標対象のサンプル画像に基づいて符号化-復号モデルを訓練して自己符号化器を得てもよい。
例えば、いくつかの可能な実施形態では、符号化-復号モデル中の第1符号化ユニットを用いて生体目標対象を含むサンプル画像に対して符号化処理を行って符号化データを得、符号化-復号モデル中の第1復号ユニットを用いて当該符号化データに対して復号処理を行って再構成画像を得、生体目標対象を含むサンプル画像と再構成画像との間の差に基づいて符号化-復号モデルを訓練して自己符号化器を得るようにしてよい。
図5は本開示の実施例の識別ネットワークの訓練方法のフローチャートである。図5に示すように、当該識別ネットワークの訓練方法は、以下の操作を含む。
402において、識別ネットワークのネットワークパラメータが変わらないようにして、入力された訓練集合中のサンプル画像に基づいて生成ネットワークを訓練する。
404において、生成ネットワークのネットワークパラメータが変わらないようにして、入力された訓練集合中のサンプル画像又は生成ネットワークで得られた生成画像に基づいて識別ネットワークを訓練する。
ここで、事前に設定された訓練終了条件を満たすようになるまで、操作402-404を複数回反複実行してもよく、識別ネットワークの訓練が終了すると、敵対的生成ネットワークの訓練が終了する。
406において、敵対的生成ネットワークの訓練が終了した後、敵対的生成ネットワーク中の生成ネットワークを除去して識別ネットワークを得る。
本開示の上記実施例で提供された識別ネットワークの訓練方法によれば、訓練集合によって生成ネットワークと識別ネットワークを含む敵対的生成ネットワークを訓練し、訓練が終了した後敵対的生成ネットワーク中の生成ネットワークを除去して、上記生体検出方法のための識別ネットワークを得るようにしてよく、敵対的生成ネットワークの敵対的生成モードによって、サンプル多様性を向上させ、識別ネットワークの未知種類の偽造攻撃に対する防御能力を向上させ、既知偽造攻撃に対する防御精度を向上させることができる。
図6は本開示の実施例で生成ネットワークを訓練するフローチャートである。ここで、生成画像のラベリング情報を生成にする。図6に示すように、いくつかの可能な実施形態では、入力された訓練集合中のサンプル画像に基づいて生成ネットワークを訓練する操作402は、以下の操作を含む。
502において、生成ネットワークによって入力された訓練集合中のサンプル画像に基づいて生成画像を得る。
504において、識別ネットワークによって生成ネットワークで得られた生成画像を判別処理して生成画像の分類結果、即ち第1分類予測結果を得る。
ここで、第1分類予測結果は生体又は非生体を含む。
例えば、識別ネットワークは、受信された画像を上記各実施例中の被検出画像として、上記各実施例の流れによって受信された画像における目標対象の分類結果を得ることができる。
506において、少なくとも第1分類予測結果と生成画像のラベリング情報との間の差に基づいて、生成ネットワークを訓練し、即ち、生成ネットワークのネットワークパラメータを調整する。
生成ネットワークを訓練する時に、識別ネットワークのネットワークパラメータを一定にして、生成ネットワークのネットワークパラメータを調整する。
例えば、生成ネットワークの訓練回数が所定回数に到達した特定条件、及び/又は、第1分類予測結果とラベリング情報との間の差(図4Aにおけるbi-lossに対応する)が第1所定値より小さいという条件のような特定条件を満たすようになるまで、上記操作502-506を反複実行して生成ネットワークを訓練してよく、それによって、生成ネットワークで得られる生成画像を真実の非生体目標対象のサンプル画像に、より接近させるようにする。本開示の実施例によれば、生成ネットワークによって、真実の非生体目標対象に、より接近した各種サンプル画像を生成可能であり、それによって非生体サンプルのデータ分布を拡大して、非生体サンプルの多様性を高くした。
いくつかの可能な実施形態では、生成ネットワークによって入力された訓練集合中のサンプル画像に基づいて生成画像を得る操作は、以下の操作を含む。
生成ネットワークによって、入力された訓練集合中のサンプル画像に基づいて第4特徴データを得る。
生成ネットワークによって、第4特徴データに1つのランダムデータを追加して所定の長さの第5特徴データを得る。ここで、第4特徴データの長さが第5特徴データの長さより小さい。
生成ネットワークによって、第5特徴データに基づいて生成画像を得る。
ここで、生成ネットワークは、符号化-復号(Encoder-Decoder)モデルアーキテクチャを採用し、符号化-復号(Encoder-Decoder)モデルに基づいて実現されてもよく、それは、符号化ユニット(本開示の実施例で、第2符号化ユニットと称する)、生成ユニット、復号ユニット(本開示の実施例で、第2復号ユニットと称する)を含む。
いくつかの可能な実施形態では、生成ネットワークにおける第2符号化ユニットを用いて、入力された訓練集合中のサンプル画像に対して特徴抽出とダウンサンプリングを行って、第4特徴データ(即ち、元サンプル画像の特徴)を取得して生成画像の主要特徴情報とするようにしてよい。生成ネットワークにおける生成ユニットを用いて、第4特徴データに1つのランダムデータを追加して、元サンプル画像の主要特徴情報を含む所定の長さの第5特徴データを取得するようにしてよい。ここで、第4特徴データと第5特徴データは特徴マップで表してもよく、特徴ベクトルで表してもよく、例えば、第4特徴データと第5特徴データを特徴ベクトルで表す時に、第2符号化ユニットを用いて、入力された訓練集合中のサンプル画像に対して特徴抽出とダウンサンプリングを行って1つの短い特徴ベクトル(即ち、第4特徴データ)を取得するようにしてよく、生成ユニットによって当該短い(即ち、上記所定の長さより小さい)特徴ベクトルに1つのランダムベクトル(即ち、ランダムデータ)を追加して、所定の長さの第5特徴ベクトル(即ち、第5特徴データ)を取得するようにしてよい。その後、生成ネットワークにおける第2復号ユニットを用いて、第5特徴データに基づいて生成画像を取得してよい。
例えば、図4Aにおいて、生成ネットワークに、生体目標対象のサンプル画像(I)であってもよく、非生体目標対象のサンプル画像(I)であってもよいサンプル画像を入力し、生成ネットワークによって入力されたサンプル画像に基づいて生成画像を取得する時に、第2符号化ユニット(Encoder)を用いて入力されたサンプル画像に対して特徴抽出を行い、且つ抽出された特徴に対してダウンサンプリングを行って上記所定の長さより小さい第4特徴ベクトルを取得し、生成ユニット(図示されておらず、Encoder-Decoderの間にある)を用いて当該第4特徴ベクトルに1つのランダムベクトルを追加して所定の長さの第5特徴ベクトルを取得し、続いて第2復号ユニット(Decoder)を用いて第5特徴ベクトルに基づいて生成画像(IG)を取得する。
いくつかの可能な実施形態では、操作506において、第1分類予測結果と生成画像のラベリング情報との間の差及び生成画像と受信されたサンプル画像との間の差に基づいて、生成ネットワークを訓練してもよい。
例えば、図4Aにおいて、第1分類予測結果と生成画像のラベリング情報との間の差をbi-lossで表し、生成画像と受信されたサンプル画像との間の差をLで表し、そのように生成ネットワークの訓練過程で、Lによって生成画像の品質を制約してよい。ただし、Lは以下のように示してよい。

Figure 0007013077000001
式(1)において、Lは生成画像と受信されたサンプル画像の間の画像品質損失関数であり、xは生成ネットワークの入力画像を表し、G(x)は生成ネットワークの生成画像(即ち、I)を表す。iは各画素点を表し、即ち、生成画像と受信されたサンプル画像中の各画素点の間の差の値の和を生成画像と受信されたサンプル画像の間の画像品質損失関数とする。
当該生成ネットワークを訓練する実施例では、bi-lossとLを共に逆伝播して生成ネットワーク中のEncoder-Decoderのネットワークパラメータを更新して生成ネットワークを訓練するようにしてよい。
本開示の実施例では、第1分類予測結果と生成画像のラベリング情報との間の差及び生成画像と受信されたサンプル画像との間の差を同時に利用して生成ネットワークを訓練することで、生成ネットワークで得られる生成画像の品質を最初入力画像に接近させると共に、真実の非生体目標対象のサンプル画像に接近させることができる。
図7は本開示の実施例で識別ネットワークを訓練するフローチャートである。ここで、入力画像は訓練集合中のサンプル画像又は生成ネットワークがサンプル画像に基づいて取得した生成画像を含み、サンプル画像のラベリング情報が、生体真実画像又は偽造生体真実画像を示すものであり、生体目標対象のサンプル画像のラベリング情報を生体に設置してよく、生体真実画像を示し、非生体目標対象のサンプル画像のラベリング情報を非生体に設置してよく、偽造生体真実画像を示し、生成画像のラベリング情報を生成されたものに設置してよく、生成画像を示す。図7に示すように、いくつかの可能な実施形態では、入力された訓練集合中のサンプル画像又は生成ネットワークで得られた生成画像に基づいて識別ネットワークを訓練する操作は、以下の操作を含む。
602において、識別ネットワークによって入力画像に対して判別処理を行って入力画像の分類結果、即ち第2分類予測結果を得る。
ここで、入力画像は訓練集合中のサンプル画像又は生成ネットワークがサンプル画像に基づいて取得した生成画像を含み、サンプル画像のラベリング情報は生体真実画像又は偽造生体真実画像を示すものであり、生成画像のラベリング情報は生成画像を示すものであり、第2分類予測結果はそれぞれ生体真実画像、偽造生体真実画像又は生成画像に対応する生体、非生体又は生成を含む。
例えば、識別ネットワークは上記入力画像を上記各実施例中の被検出画像として上記各実施例の流れによって入力画像の分類結果を得ることができる。
604において、第2分類予測結果と入力画像のラベリング情報との間の差に基づいて識別ネットワークを訓練し、即ち、識別ネットワークのネットワークパラメータを調整する。
識別ネットワークを訓練する時に、生成ネットワークのネットワークパラメータを一定にして、識別ネットワークのネットワークパラメータを調整する。
例えば、識別ネットワークの訓練回数が所定回数に到達した特定条件、及び/又は、第2分類予測結果と入力画像のラベリング情報との間の差(図4Aにおけるtri-lossに対応する)が第2特定値より小さくなった特定条件を満たすようになるまで、上記操作602-604を反複実行して識別ネットワークを訓練してよい。
判別器に自己符号化器を追加した後得られる識別ネットワークの損失関数(即ち、第2分類予測結果と入力画像のラベリング情報との間の差)は以下のように示してよい。

Figure 0007013077000002
式(2)において、Rは自己符号化器を表し、Dは判別器を表し、Lは自己符号化器の損失関数を表し、Lは判別器の損失関数を表し、λは判別器と自己符号化器との間の平衡パラメータを表し、λの値は0より大きく且つ1より小さい常数であり、経験値に基づいて事前に設定してもよい。
任意選択的に、識別ネットワークの入力画像が生成ネットワークで得られた生成画像である時に、操作602の前に、生成ネットワークによって入力された訓練集合中のサンプル画像に基づいて生成画像を取得する操作を更に含む。生成ネットワークによって入力された訓練集合中のサンプル画像に基づいて生成画像を取得する実施形態については、本開示の上記実施例の記載を参照してもよく、ここで詳細な説明を省略する。
本開示は、顔偽造防止の目的で敵対的生成モードを導入し、GANの敵対的生成モードを利用して偽造サンプル集合を拡張することでサンプル多様性を向上でき、実世界の偽造攻撃をシミュレートし、GANネットワークを訓練し、当該敵対的生成モードによって識別ネットワークの精度を高くし、訓練された識別ネットワークを偽造防止システムに用いる時に、未知のサンプルに対する防御能力を効果的に向上させ、既知の偽造サンプルに対する防御精度を向上させることができる。
例えば、図4Aを例とすると、操作602において、第1サブニューラルネットワーク(CNN1)は受信されたサンプル画像(Xで表す)に対して特徴抽出を行って第2特徴マップを得、自己符号化器における第1符号化ユニット(Encoder)は第2特徴マップに対して特徴抽出を行って第3特徴マップを得、自己符号化器における第1復号ユニット(Decoder)は第3特徴マップに基づいてサンプル画像の再構成画像(X’で表す)を得、減算器(-)は第2特徴マップと当該サンプル画像の再構成画像との間の差を取得して再構成誤差画像(η=X’-X)を得、連結ユニット(concat)は第2特徴マップと再構成誤差画像をチャネル方向に連結して第2融合画像を得て第2サブニューラルネットワーク(CNN2)に入力し、サンプル画像が3チャネルである時に、対応する第2特徴マップと再構成誤差画像も3チャネルであり、そのように連結された第2融合画像が6チャネルであり、CNN2は第2融合画像に基づいて分類してサンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値を得、サンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値に基づいてサンプル画像の分類結果を決定する。
図4Aに第1サブニューラルネットワーク(CNN1)を含まない時に、自己符号化器における第1符号化ユニット(Encoder)は入力画像に対して符号化処理を行って第1特徴マップを得、自己符号化器における第1復号ユニット(Decoder)は第1特徴マップに対して復号処理を行ってサンプル画像の再構成画像(X’で表す)を得、減算器(-)は入力画像と再構成画像との間の差を取得して再構成誤差画像(η=X’-X)を得、連結ユニット(concat)は第2特徴マップと再構成誤差画像をチャネル方向に連結して第2融合画像を得て第2サブニューラルネットワーク(CNN2)に入力し、サンプル画像が3チャネルである時に、対応する第2特徴マップと再構成誤差画像も3チャネルであり、そのように連結された第2融合画像が6チャネルであり、CNN2は第2融合画像に基づいて分類してサンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値を得、サンプル画像がそれぞれ生体、非生体、生成されたものに属する確率値に基づいてサンプル画像の分類結果を決定する。
例えば、本開示の図2に示す実施例の一用途において、顔に対して生体検出を行うことを例とし、図8は真実の人間/偽造人間の原始画像と再構成誤差画像の一例である。図8において、1列目と3列目は原始画像であり、2列目と4列目は原始画像の再構成誤差画像であり、1行目は真実の人間であり、2-4行目は偽造人間である。図8から分かるように、偽造人間の原始画像に対応する再構成誤差画像中の再構成誤差の大きい箇所がハイライトで表示され、真実の人間の原始画像に対応する再構成誤差画像中の再構成誤差の明るさが小さく、再構成誤差が小さいことを示す。例えば、図8において、偽造人間は、耳、目及び鼻、又は紙のエッジ、モアレ等の偽造手掛かりの箇所で明らかな再構成誤差がある。また、偽造人間の撮影複製した画像と偽造人間のプリントした写真画像にも明らかな再構成誤差が示されている。本開示の実施例は、示されている再構成誤差に基づいて、例えば、撮影複製した画像においてスクリーンに表示されている「再生」ボタン、プリントした写真画像中の明らかな紙のエッジ情報等の偽造手掛かり情報を効果的に捕らえることができ、捕らえた偽造手掛かり情報は真実の人間と偽造人間から抽出される特徴の分布の相違程度を増加できる。また、再構成誤差画像の可視化によって、本開示は生体検出性能を効果的に向上させ、未知の偽造サンプルに対する防御能力を向上させることができる。
本開示の実施例で提供されるいずれか1種の生体検出方法はデータ処理能力を有するいかなる適切な機器によって実行されてもよく、端末装置とサーバ等を含むが、それらに限定されない。又は、本開示の実施例で提供されるいずれか1種の生体検出方法はプロセッサによって実行されてもよく、例えば、プロセッサはメモリに記憶された対応のコマンドを呼び出すことで本開示の実施例におけるいずれか1種の生体検出方法を実行する。以下、詳細な説明を省略する。
当業者であれば、上記方法の実施例の全てまたは一部のステップを実現するにはプログラムによって関連ハードウェアに命令を出すことにより完成できることを理解でき、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行される時に、上記方法の実施例のステップを実行する。
図9は本開示の実施例の生体検出装置の構造模式図である。当該生体検出装置は、本開示の上記の各生体検出方法の実施例を実現することに利用可能である。図9に示すように、当該生体検出装置は、目標対象を含む被検出画像に基づいて、自己符号化器によって再構成処理を行って前記再構成画像を得るための再構成モジュールと、再構成画像に基づいて再構成誤差を得るための第1取得モジュールと、被検出画像と再構成誤差に基づいて、生体又は非生体の目標対象の分類結果を得るための第2取得モジュールと、を含む。
本開示の上記実施例で提供された生体検出装置によれば、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得、当該再構成画像に基づいて再構成誤差を得、続いて、被検出画像と再構成誤差に基づいて、目標対象が生体か、それとも非生体かに関する分類結果を得て、それによって、被検出画像における目標対象が生体か、それとも非生体かを効率的に区別して、未知種類の偽造攻撃を効率的に防御して、偽造防止性能を向上させる。
ここでのいくつかの選択可能な実施形態では、再構成モジュールは、生体目標対象を含むサンプル画像に基づいて訓練して得られた自己符号化器を含む。
ここでのいくつかの選択可能な実施形態では、再構成モジュールは、入力された被検出画像に対して再構成処理を行って再構成画像を得るために用いられる。
図10は本開示の実施例の生体検出装置の別の構造模式図である。図10に示すように、図9に示す実施例に比べると、当該生体検出装置において、自己符号化器は、被検出画像に対して符号化処理を行って、第1特徴データを得るための第1符号化ユニットと、第1特徴データに対して復号処理を行って再構成画像を得るための第1復号ユニットと、を含む。
ここでのいくつかの選択可能な実施形態では、第1取得モジュールは、再構成画像と被検出画像との間の差に基づいて再構成誤差を得るために用いられる。それに対応するように、第2取得モジュールは、被検出画像と再構成誤差を連結して第1連結情報を得るための連結ユニットと、第1連結情報に基づいて目標対象の分類結果を得るための取得ユニットと、を含む。
図10に示すように、別の選択可能な実施形態では、再構成モジュールは、目標対象を含む被検出画像に対して特徴抽出を行って第2特徴データを得るための特徴抽出ユニットと、第2特徴データに対して再構成処理を行って再構成画像を得るための自己符号化器と、を含む。
それに対応するように、別の選択可能な実施形態では、自己符号化器は、第2特徴データに対して符号化処理を行って第3特徴データを得るための第1符号化ユニットと、第3特徴データに対して復号処理を行って再構成画像を得るための第1復号ユニットと、を含む。
それに対応するように、別の選択可能な実施形態では、第1取得モジュールは、第2特徴データと再構成画像との間の差に基づいて再構成誤差を得るために用いられる。それに対応するように、第2取得モジュールは、第2特徴データと再構成誤差を連結して第2連結情報を得るための連結ユニットと、第2連結情報に基づいて目標対象の分類結果を得るための取得ユニットと、を含む。
また、上記の本開示の実施例の生体検出装置は、選択的に識別ネットワークによって実現可能である。それに対応するように、上記の本開示の実施例の生体検出装置は、生体目標対象を含むサンプル画像と偽造生体目標対象を含むサンプル画像を含む訓練集合によって、生成ネットワークと識別ネットワークを含む敵対的生成ネットワークを訓練して、訓練された敵対的生成ネットワークから識別ネットワークを得るための訓練モジュールを更に含む。
ここでのいくつかの選択可能な実施形態では、識別ネットワークは、入力画像に対して判別処理して入力画像の分類予測結果を得るために用いられ、ここで、入力画像が訓練集合中のサンプル画像又は生成ネットワークがサンプル画像に基づいて取得した生成画像を含み、サンプル画像のラベリング情報が、生体真実画像又は偽造生体真実画像を示すものであり、生成画像のラベリング情報が生成画像を示すものであり、訓練モジュールは、入力画像の分類予測結果及び入力画像のラベリング情報に基づいて敵対的生成ネットワークのネットワークパラメータを調整するために用いられる。
また、本開示の実施例で提供された電子機器は、
コンピュータプログラムを記憶するためのメモリと、
メモリに記憶されているコンピュータプログラムを実行するためのプロセッサと、を含み、コンピュータプログラムが実行される時に本開示の上記のいずれか1つの実施例の生体検出方法を実現する。
図11は本開示の電子機器の一適用実施例の構成模式図である。以下、本開示の実施例の端末装置又はサーバを実現するのに適する電子機器の構成模式図を示す図11を参照する。図11に示すように、該電子機器は1つ又は複数のプロセッサ、通信部などを含み、前記1つ又は複数のプロセッサは、例えば、1つ又は複数の中央処理ユニット(CPU)、及び/又は1つ又は複数の画像プロセッサ(GPU)などであり、プロセッサは、読み取り専用メモリ(ROM)に記憶された実行可能コマンド又は記憶部からランダムアクセスメモリ(RAM)にロードされた実行可能コマンドによって各種の適切な動作及び処理を実現することができる。通信部はネットワークカードを含んでよいが、それに限定されなく、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでよいが、それに限定されなく、プロセッサは読み取り専用メモリ及び/又はランダムアクセスメモリと通信して実行可能コマンドを実行し、通信バスを介して通信部に接続され、通信部を介して他のターゲットデバイスと通信してよく、それにより本開示の実施例で提供されるいずれか一項の生体検出方法に対応する操作を完成し、例えば、目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得、前記再構成画像に基づいて再構成誤差を得、前記被検出画像と前記再構成誤差に基づいて、前記目標対象の、生体又は非生体である分類結果を得る。
また、RAMには、装置の動作に必要な各種のプログラムやデータが格納されていてもよい。CPU、ROM及びRAMは、通信バスを介して相互に接続される。RAMを有する場合に、ROMは選択可能なモジュールである。RAMは実行可能コマンドを格納するか、または動作時に実行可能コマンドをROMに書き込み、実行可能コマンドによってプロセッサに本開示の上記のいずれか一項の生体検出方法に対応する操作を実行させる。入力/出力(I/O)インタフェースも通信バスに接続される。通信部は、統合的に設置されてもよく、複数のサブモジュール(例えば複数のIBネットワークカード)を有し、通信バスのリンク上にあるように設置されてもよい。
キーボード、マウスなどを含む入力部と、陰極線管(CRT)、液晶ディスプレイ(LCD)など及びスピーカなどを含む出力部と、ハードディスクなどを含む記憶部と、LANカード、モデムなどのネットワークインタフェースカードを含む通信部とがI/Oインタフェースに接続されている。通信部は例えばインターネットのようなネットワークを介して通信処理を行う。ドライブも必要に応じてI/Oインタフェースに接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブル媒体は、必要に応じてドライブ上に装着され、そこから読み出されたコンピュータプログラムを必要に応じて記憶部にインストールする。
なお、図11に示す構造は選択可能な一実施形態に過ぎず、具体的な実践過程では、実際の必要に応じて上記図11の部品の数及び種類を選択、削除、追加、または置換することができ、異なる機能部品の設置上でも、分離設置または統合設置などの実施形態を採用でき、例えばGPUとCPUは分離設置するかまたはGPUをCPUに統合するようにしてよく、通信部は分離設置するか、またはCPUやGPUに統合設置することなども可能であることを説明する必要がある。これらの置換可能な実施形態はいずれも本開示の保護範囲に属する。
特に、本開示の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現できる。例えば、本開示の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本開示の実施例により提供される生体検出方法のステップを対応して実行する対応のコマンドを含んでよい。このような実施例では、該コンピュータプログラムは通信部によってネットワークからダウンロード及びインストールされ、及び/又はリムーバブル媒体からインストールされ得る。CPUによって該コンピュータプログラムを実行する時に、本開示の方法で限定された上記機能を実行する。
また、本開示の実施例は、コンピュータコマンドを含み、コンピュータコマンドが機器のプロセッサ上で作動する時に、本開示の上記のいずれか1つの実施例の生体検出方法を実現するコンピュータプログラムを更に提供する。
また、本開示の実施例は、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、当該コンピュータプログラムがプロセッサにより実行される時に本開示の上記のいずれか1つの実施例の生体検出方法を実現するコンピュータ可読記憶媒体を更に提供する。
本明細書における様々な実施例は漸進的に説明され、各実施例は他の実施例との相違点に集中して説明したが、各実施例間の同一または類似の部分については相互に参照すればよい。システム実施例については、それは基本的に方法実施例に対応するので、説明は比較的簡単であり、関連部分は方法実施例の説明の一部を参照すればよい。
本開示の方法及び装置は、様々な形態で実現され得る。例えば、ソフトウェア、ハードウェア、ファームウェアまたはソフトウェア、ハードウェア、ファームウェアの任意の組み合わせによって本開示の方法及び装置を実現することができる。前記方法のステップのための上記順序は説明することのみを目的とし、本開示の方法のステップは、特に断らない限り、以上で具体的に説明した順序に限定されない。また、いくつかの実施例では、本開示は記録媒体に記憶されたプログラムとしてもよく、これらのプログラムは本開示の方法を実現するための機械可読コマンドを含む。従って、本開示は本開示の方法を実行するためのプログラムが記憶された記録媒体も含む。
本開示の説明は、例示及び説明のために提示されたものであり、網羅的なものでありもしくは開示された形式に本開示を限定するというわけでない。当業者にとっては多くの修正及び変形を加えることができるのは明らかであろう。実施例は本開示の原理及び実際応用をより明瞭に説明するため、かつ当業者が本開示を理解して特定用途に適した各種の修正を加えた各種の実施例を設計可能にするように選択され説明されたものである。
401A 第1符号化ユニット
402A 第1復号ユニット
402B 第1符号化ユニット
403B 第1復号ユニット

Claims (23)

  1. 電子機器が実行する、生体検出方法であって、
    目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る操作と、
    前記再構成画像に基づいて再構成誤差を得る操作と、
    前記被検出画像と前記再構成誤差をチャネル方向において連結して融合画像を得、前記融合画像に基づいて、前記目標対象の、生体又は非生体である分類結果を得る操作と、を含むことを特徴とする生体検出方法。
  2. 目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る前記操作は、
    目標対象を含む被検出画像に基づいて、自己符号化器によって再構成処理を行って前記再構成画像を得る操作を含むことを特徴とする請求項1に記載の生体検出方法。
  3. 目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る前記操作は、
    前記被検出画像を自己符号化器に入力して再構成処理を行って再構成画像を得る操作を含むことを特徴とする請求項1又は2に記載の生体検出方法。
  4. 前記被検出画像を自己符号化器に入力して再構成処理を行って再構成画像を得る前記操作は、
    前記自己符号化器を用いて前記被検出画像に対して符号化処理を行って、第1特徴データを得る操作と、
    前記自己符号化器を用いて前記第1特徴データに対して復号処理を行って、前記再構成画像を得る操作と、を含むことを特徴とする請求項3に記載の生体検出方法。
  5. 前記再構成画像に基づいて再構成誤差を得る前記操作は、
    前記再構成画像と前記被検出画像との間の差に基づいて再構成誤差を得る操作を含ことを特徴とする請求項3又は4に記載の生体検出方法。
  6. 目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得る前記操作は、
    目標対象を含む被検出画像に対して特徴抽出を行って第2特徴データを得る操作と、
    前記第2特徴データを自己符号化器に入力して再構成処理を行って再構成画像を得る操作と、を含むことを特徴とする請求項1又は2に記載の生体検出方法。
  7. 前記第2特徴データを自己符号化器に入力して再構成処理を行って再構成画像を得る前記操作は、
    前記自己符号化器を用いて前記第2特徴データに対して符号化処理を行って第3特徴データを得る操作と、
    前記自己符号化器を用いて前記第3特徴データに対して復号処理を行って、前記再構成画像を得る操作と、を含むことを特徴とする請求項6に記載の生体検出方法。
  8. 前記再構成画像に基づいて再構成誤差を得る前記操作は、
    前記第2特徴データと前記再構成画像との間の差に基づいて再構成誤差を得る操作を含み、
    前記被検出画像と前記再構成誤差をチャネル方向において連結して融合画像を得、前記融合画像に基づいて、前記目標対象の分類結果を得る前記操作は、
    前記第2特徴データと前記再構成誤差をチャネル方向において連結して第2連結情報を得る操作と、
    前記第2連結情報に基づいて前記目標対象の分類結果を得る操作と、を含むことを特徴とする請求項6又は7に記載の生体検出方法。
  9. 前記生体検出方法が、識別ネットワークによって実現され、前記生体検出方法が、
    訓練集合によって敵対的生成ネットワークを訓練して前記識別ネットワークを得る操作であって、前記敵対的生成ネットワークが、生成ネットワークと前記識別ネットワークを含む操作を更に含むことを特徴とする請求項1-8のいずれか一項に記載の生体検出方法。
  10. 訓練集合によって敵対的生成ネットワークを訓練する前記操作は、
    前記識別ネットワークによって前記識別ネットワークの入力画像に対して判別処理して、前記入力画像の分類予測結果を得る操作であって、前記入力画像が、前記訓練集合中のサンプル画像、又は前記生成ネットワークが前記サンプル画像に基づいて取得した生成画像を含み、前記サンプル画像のラベリング情報が、生体真実画像又は偽造生体真実画像を示すものであり、前記生成画像のラベリング情報が生成画像を示すものである操作と、
    前記入力画像の分類予測結果及び前記入力画像のラベリング情報に基づいて、前記敵対的生成ネットワークのネットワークパラメータを調整する操作と、を含むことを特徴とする請求項9に記載の生体検出方法。
  11. 目標対象を含む被検出画像に基づいて再構成処理を行って再構成画像を得るための再構成モジュールと、
    前記再構成画像に基づいて再構成誤差を得るための第1取得モジュールと、
    前記被検出画像と前記再構成誤差をチャネル方向において連結して融合画像を得、前記融合画像に基づいて、前記目標対象の、生体又は非生体である分類結果を得るための第2取得モジュールと、を含むことを特徴とする生体検出装置。
  12. 前記再構成モジュールは自己符号化器を含み、前記自己符号化器が、生体目標対象を含むサンプル画像に基づいて訓練して得られたものであることを特徴とする請求項11に記載の装置。
  13. 前記再構成モジュールは、目標対象を含む被検出画像に基づいて、自己符号化器によって再構成処理を行って前記再構成画像を得るために用いられることを特徴とする請求項11又は12に記載の装置。
  14. 前記自己符号化器は、
    前記被検出画像に対して符号化処理を行って、第1特徴データを得るための第1符号化ユニットと、
    前記第1特徴データに対して復号処理を行って、前記再構成画像を得るための第1復号ユニットと、を含むことを特徴とする請求項13に記載の装置。
  15. 前記第1取得モジュールは、前記再構成画像と前記被検出画像との間の差に基づいて再構成誤差を得るために用いられことを特徴とする請求項13又は14に記載の装置。
  16. 前記再構成モジュールは、
    目標対象を含む被検出画像に対して特徴抽出を行って第2特徴データを得るための特徴抽出ユニットと、
    前記第2特徴データに対して再構成処理を行って再構成画像を得るための自己符号化器と、を含むことを特徴とする請求項11又は12に記載の装置。
  17. 前記自己符号化器は、
    前記第2特徴データに対して符号化処理を行って第3特徴データを得るための第1符号化ユニットと、
    前記第3特徴データに対して復号処理を行って、前記再構成画像を得るための第1復号ユニットと、を含むことを特徴とする請求項16に記載の装置。
  18. 前記第1取得モジュールは、前記第2特徴データと前記再構成画像との間の差に基づいて再構成誤差を得るために用いられ、
    前記第2取得モジュールは、
    前記第2特徴データと前記再構成誤差をチャネル方向において連結して第2連結情報を得るための連結ユニットと、
    前記第2連結情報に基づいて前記目標対象の分類結果を得るための取得ユニットと、を含むことを特徴とする請求項16又は17に記載の装置。
  19. 識別ネットワークによって実現される装置であり、
    訓練集合によって敵対的生成ネットワークを訓練して前記識別ネットワークを得るための訓練モジュールであって、前記敵対的生成ネットワークが、生成ネットワークと前記識別ネットワークを含む訓練モジュールを更に含むことを特徴とする請求項11-18のいずれか一項に記載の装置。
  20. 前記識別ネットワークは、入力画像に対して判別処理を行って前記入力画像の分類予測結果を得るために用いられ、前記入力画像が、前記訓練集合中のサンプル画像、又は前記生成ネットワークが前記サンプル画像に基づいて取得した生成画像を含み、前記サンプル画像のラベリング情報が、生体真実画像又は偽造生体真実画像を示すものであり、前記生成画像のラベリング情報が生成画像を示すものであり、
    前記訓練モジュールは、前記入力画像の分類予測結果及び前記入力画像のラベリング情報に基づいて、前記敵対的生成ネットワークのネットワークパラメータを調整するために用いられることを特徴とする請求項19に記載の装置。
  21. コンピュータプログラムを記憶するためのメモリと、
    前記メモリに記憶されているコンピュータプログラムを実行するためのプロセッサと、を含み、前記コンピュータプログラムが実行される時に請求項1-10のいずれか一項に記載の生体検出方法を実現することを特徴とする電子機器。
  22. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサにより実行される時に、請求項1-10のいずれか一項に記載の生体検出方法を実現することを特徴とするコンピュータ可読記憶媒体。
  23. プログラムコマンドを含み、前記プログラムコマンドがプロセッサにより実行される時に、前記プロセッサが請求項1-10のいずれか一項に記載の方法を実行することを特徴とするコンピュータプログラム。
JP2020540717A 2019-03-29 2019-10-31 生体検出方法及び装置、機器並びに記憶媒体 Active JP7013077B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910250962.5A CN111753595A (zh) 2019-03-29 2019-03-29 活体检测方法和装置、设备和存储介质
CN201910250962.5 2019-03-29
PCT/CN2019/114893 WO2020199577A1 (zh) 2019-03-29 2019-10-31 活体检测方法和装置、设备和存储介质

Publications (2)

Publication Number Publication Date
JP2021519962A JP2021519962A (ja) 2021-08-12
JP7013077B2 true JP7013077B2 (ja) 2022-01-31

Family

ID=72664887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020540717A Active JP7013077B2 (ja) 2019-03-29 2019-10-31 生体検出方法及び装置、機器並びに記憶媒体

Country Status (6)

Country Link
US (1) US20200364478A1 (ja)
JP (1) JP7013077B2 (ja)
CN (1) CN111753595A (ja)
SG (1) SG11202007036XA (ja)
TW (1) TW202036463A (ja)
WO (1) WO2020199577A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666960B (zh) * 2019-03-06 2024-01-19 南京地平线机器人技术有限公司 图像识别方法、装置、电子设备及可读存储介质
US10922788B1 (en) * 2020-04-30 2021-02-16 StradVision, Inc. Method for performing continual learning on classifier in client capable of classifying images by using continual learning server and continual learning server using the same
CN112149631A (zh) * 2020-10-20 2020-12-29 北京嘀嘀无限科技发展有限公司 图像处理的方法、装置、设备和介质
CN112597885A (zh) * 2020-12-22 2021-04-02 北京华捷艾米科技有限公司 人脸活体检测方法、装置、电子设备及计算机存储介质
CN112668453B (zh) * 2020-12-24 2023-11-14 平安科技(深圳)有限公司 视频识别方法及相关设备
CN112861950A (zh) * 2021-01-29 2021-05-28 深圳前海微众银行股份有限公司 翻拍图像的识别方法、装置、电子设备及存储介质
CN112927211B (zh) * 2021-03-09 2023-08-25 电子科技大学 一种基于深度三维检测器的通用对抗攻击方法、存储介质和终端
CN113312965B (zh) * 2021-04-14 2023-04-28 重庆邮电大学 一种人脸未知欺骗攻击活体检测方法及***
CN113421317B (zh) * 2021-06-10 2023-04-18 浙江大华技术股份有限公司 一种生成图像的方法、***及电子设备
CN113657327B (zh) * 2021-08-24 2024-03-08 平安科技(深圳)有限公司 适用于图像的非活体攻击判别方法、装置、设备及介质
CN113705425B (zh) * 2021-08-25 2022-08-16 北京百度网讯科技有限公司 活体检测模型的训练方法和活体检测的方法、装置、设备
KR102375593B1 (ko) * 2021-08-26 2022-03-17 전북대학교산학협력단 손바닥 복합 이미지에 기반한 사용자 인증 장치 및 방법
CN114463859B (zh) * 2021-11-03 2023-08-11 马上消费金融股份有限公司 活体检测的对抗样本生成方法、装置、电子设备及存储介质
CN114120454A (zh) * 2021-11-29 2022-03-01 北京百度网讯科技有限公司 活体检测模型的训练方法、装置、电子设备及存储介质
CN114596615B (zh) * 2022-03-04 2023-05-05 湖南中科助英智能科技研究院有限公司 基于对抗学习的人脸活体检测方法、装置、设备及介质
CN114663986B (zh) * 2022-03-31 2023-06-20 华南理工大学 一种基于双解耦生成和半监督学习的活体检测方法及***
CN117523323B (zh) * 2024-01-03 2024-05-14 支付宝(杭州)信息技术有限公司 一种生成图像的检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128265A (ja) 2017-02-06 2018-08-16 株式会社リコー サーバ装置、判別プログラム及び判別システム
CN108537152A (zh) 2018-03-27 2018-09-14 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
JP2019503530A (ja) 2016-12-30 2019-02-07 平安科技(深▲せん▼)有限公司 画像改ざん検出方法、システム、電子装置及び記憶媒体
WO2019043425A1 (en) 2017-09-01 2019-03-07 Omron Corporation SYSTEM AND METHOD FOR AIDING MANUFACTURING

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423700B (zh) * 2017-07-17 2020-10-20 广州广电卓识智能科技有限公司 人证核实的方法及装置
CN108229375B (zh) * 2017-12-29 2022-02-08 百度在线网络技术(北京)有限公司 用于检测人脸图像的方法和装置
CN108171211A (zh) * 2018-01-19 2018-06-15 百度在线网络技术(北京)有限公司 活体检测方法和装置
CN108416324B (zh) * 2018-03-27 2022-02-25 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN109255322B (zh) * 2018-09-03 2019-11-19 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
EP3637302A1 (en) * 2018-10-10 2020-04-15 Onfido Ltd Image set alignment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019503530A (ja) 2016-12-30 2019-02-07 平安科技(深▲せん▼)有限公司 画像改ざん検出方法、システム、電子装置及び記憶媒体
JP2018128265A (ja) 2017-02-06 2018-08-16 株式会社リコー サーバ装置、判別プログラム及び判別システム
WO2019043425A1 (en) 2017-09-01 2019-03-07 Omron Corporation SYSTEM AND METHOD FOR AIDING MANUFACTURING
CN108537152A (zh) 2018-03-27 2018-09-14 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置

Also Published As

Publication number Publication date
JP2021519962A (ja) 2021-08-12
SG11202007036XA (en) 2020-11-27
CN111753595A (zh) 2020-10-09
US20200364478A1 (en) 2020-11-19
TW202036463A (zh) 2020-10-01
WO2020199577A1 (zh) 2020-10-08

Similar Documents

Publication Publication Date Title
JP7013077B2 (ja) 生体検出方法及び装置、機器並びに記憶媒体
Nataraj et al. Detecting GAN generated fake images using co-occurrence matrices
Seibold et al. Detection of face morphing attacks by deep learning
Burton et al. Identity from variation: Representations of faces derived from multiple instances
Tariq et al. Gan is a friend or foe? a framework to detect various fake face images
EP3333768A1 (en) Method and apparatus for detecting target
CN111444881A (zh) 伪造人脸视频检测方法和装置
JP2021528728A (ja) 疑似画像を使用した顔画像認識
CN109359502A (zh) 防伪检测方法和装置、电子设备、存储介质
CN113128271A (zh) 脸部图像的伪造检测
Agarwal et al. Image forgery detection and deep learning techniques: A review
Rahman et al. A qualitative survey on deep learning based deep fake video creation and detection method
CN114140844A (zh) 人脸静默活体检测方法、装置、电子设备及存储介质
Isaac et al. Multiscale local gabor phase quantization for image forgery detection
Diallo et al. Improving robustness of image tampering detection for compression
Almawas et al. Comparative performance study of classification models for image-splicing detection
Sharma et al. Deepfakes Classification of Faces Using Convolutional Neural Networks.
Singh et al. Performance analysis of ELA-CNN model for image forgery detection
Mr et al. Developing a novel technique to match composite sketches with images captured by unmanned aerial vehicle
Hannan et al. Analysis of detection and recognition of Human Face using Support Vector Machine
Prabu et al. Robust Attack Identification Strategy to Prevent Document Image Forgeries by using Enhanced Learning Methodology
Ghofrani et al. Attention-based face antispoofing of rgb camera using a minimal end-2-end neural network
Knoche et al. Susceptibility to image resolution in face recognition and trainings strategies
Singh et al. DLDFD: Recurrence Free 2D Convolution Approach for Deep Fake Detection.
Bresan et al. Exposing presentation attacks by a combination of multi-intrinsic image properties, convolutional networks and transfer learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220114

R150 Certificate of patent or registration of utility model

Ref document number: 7013077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150