TW202006602A - 三維臉部活體檢測方法、臉部認證識別方法及裝置 - Google Patents
三維臉部活體檢測方法、臉部認證識別方法及裝置 Download PDFInfo
- Publication number
- TW202006602A TW202006602A TW108115875A TW108115875A TW202006602A TW 202006602 A TW202006602 A TW 202006602A TW 108115875 A TW108115875 A TW 108115875A TW 108115875 A TW108115875 A TW 108115875A TW 202006602 A TW202006602 A TW 202006602A
- Authority
- TW
- Taiwan
- Prior art keywords
- depth image
- point cloud
- cloud data
- grayscale
- living body
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本說明書實施例係有關一種三維臉部活體檢測方法、臉部認證識別方法及裝置,包括:獲取針對目標檢測對象的多幀深度圖像;對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;將所述點雲資料進行歸一化處理得到灰度深度圖像;基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
Description
本說明書實施例係有關電腦技術領域,尤其有關一種三維臉部活體檢測方法、臉部認證識別方法及裝置。
為了提升認證安全性,已經開始使用目前比較流行的人臉識別檢測技術。
在人臉識別系統中,最常見的欺騙方式是假冒攻擊,即冒名頂替者使用某種具有相同表現形式的假冒特徵來入侵人臉識別系統。目前,常用的假冒攻擊手段主要有照片、視頻和三維模型等。
目前,主要採用活體檢測技術來防禦類似攻擊。透過下發的指令配合完成特定的活體動作,例如,眨眼、轉頭、張嘴等生理行為,從而可以從這些活體動作中識別出是否為活體。但是,這些活體檢測方式的檢測性能並不是很好,影響活體檢測結果,進而影響認證識別的準確性。
本說明書實施例提供一種三維臉部活體檢測方法、臉部認證識別方法及裝置,用以解決現有技術中存在的活體檢測性能較差的問題。
為了解決上述技術問題,本說明書實施例採用下述技術方案:
第一態樣,提供了一種三維臉部活體檢測方法,包括:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
第二態樣,提供了一種臉部認證識別方法,包括:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
根據活體檢測結果確定認證識別是否通過。
第三態樣,提供了一種三維臉部檢測裝置,包括:
獲取模組,獲取針對目標檢測對象的多幀深度圖像;
第一預處理模組,對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
歸一化模組,將所述點雲資料進行歸一化處理得到灰度深度圖像;
檢測模組,基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
第四態樣,提供了一種臉部認證識別裝置,包括:
獲取模組,獲取針對目標檢測對象的多幀深度圖像;
第一預處理模組,對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
歸一化模組,將所述點雲資料進行歸一化處理得到灰度深度圖像;
檢測模組,基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
識別模組,根據活體檢測結果確定認證識別是否通過。
第五態樣,提供了一種電子設備,包括:記憶體、處理器及儲存在所述記憶體上並可在所述處理器上運行的電腦程式,所述電腦程式被所述處理器執行:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
第六態樣,一種電子設備,包括:記憶體、處理器及儲存在所述記憶體上並可在所述處理器上運行的電腦程式,所述電腦程式被所述處理器執行:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
根據活體檢測結果確定認證識別是否通過。
第七態樣,提供了一種電腦可讀儲存媒體,所述電腦可讀儲存媒體儲存一個或多個程式,所述一個或多個程式當被包括多個應用程式的電子設備執行時,使得所述電子設備執行以下操作:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
第八態樣,一種電腦可讀儲存媒體,所述電腦可讀儲存媒體儲存一個或多個程式,所述一個或多個程式當被包括多個應用程式的伺服器執行時,使得所述伺服器執行以下操作:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
根據活體檢測結果確定認證識別是否通過。
本說明書實施例採用的上述至少一個技術方案能夠達到以下有益效果:
透過上述技術方案,獲取針對目標檢測對象的多幀深度圖像,可以確保作為檢測資料登錄的圖像的整體性能;而且透過對齊預處理對多幀深度圖像進行預處理,以及將所述點雲資料進行歸一化處理得到灰度深度圖像,可以確保灰度深度圖像的完整性以及精度,彌補圖像品質問題;最後,基於灰度深度圖像和活體檢測模型,進行活體檢測,從而,可以提升活體檢測的準確性,進而,還可以根據檢測結果實施更為有效的安全驗證或是攻擊防禦。
為使本說明書實施例的目的、技術方案和優點更加清楚,下面將結合本說明書具體實施例及相應的圖式對本說明書實施例的技術方案進行清楚、完整地描述。顯然,所描述的實施例僅是本說明書一部分的實施例,而不是全部的實施例。基於本說明書中的實施例,本發明所屬技術領域具有通常知識者在沒有做出創造性勞動前提下所獲得的所有其他實施例,都屬於本說明書實施例保護的範圍。
以下結合圖式,詳細說明本說明書各實施例提供的技術方案。
實施例一
參照圖1a所示,為本說明書實施例提供的三維臉部活體檢測方法的步驟示意圖,該方法可由三維臉部活體檢測裝置或是安裝有三維臉部活體檢測裝置的移動終端來執行。
該三維臉部活體檢測方法可以包括以下步驟:
步驟102:獲取針對目標檢測對象的多幀深度圖像。
應理解,在本說明書實施例中,所涉及的三維臉部活體檢測,主要是針對人類的三維臉部活體檢測,根據對三維人臉圖像的分析,判定目標檢測對象是否是活體,即是否為圖像中目標檢測對象本人。其實,所述的三維臉部活體檢測的目標檢測對象,並不限於是人類,還可以是可識別臉部的動物,本說明書實施例並不對此進行限定。
該活體檢測可以判定目前的操作者是活體真人還是照片或者視頻、面具等非真人。活體檢測可以使用在上、下班打卡,刷臉支付等透過刷臉驗證的使用情況。
其中,本說明書實施例中所述的多幀深度圖像,是指針對目標檢測對象的臉部區域透過攝像、紅外等方式採集的圖像,具體可以透過能夠測量物體(目標檢測對象)與相機之間距離的深度相機採集深度圖像。其中,本說明書實施例所涉及的深度相機可以包括:基於結構光原理的成像技術的深度相機,或是,基於光飛行時間原理的成像技術的深度相機。此外,在獲取深度圖像的同時,還獲取了針對目標檢測對象的彩色圖像,即RGB圖像。由於在圖像採集時,一般都會採集彩色圖像,因此,本說明書中預先設定為在獲取深度圖像的同時也獲取了彩色圖像。
考慮到基於結構光原理的成像技術的深度相機對光照較為敏感,無法在光線較強的戶外等情況下使用,本說明書實施例較佳採用主動雙目深度相機來採集目標檢測對象的深度圖像。
應理解,在本說明書實施例中,所述多幀深度圖像可以是從外置在三維臉部活體檢測裝置的深度攝像設備(如上述提及的各種類型的深度相機)獲取的,亦即這些深度圖像由深度相機採集,並傳輸給三維臉部活體檢測裝置;或是從內置在三維臉部活體檢測裝置的深度攝像設備所獲取的,亦即這些深度圖像是由三維臉部活體檢測裝置透過內置的深度相機所獲取的。本說明書並不對此進行限定。
步驟104:對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料。
應理解,步驟102中獲取的深度圖像大多是基於深度相機所採集的,這些深度圖像普遍存在不完整、精度受限等問題,因此,在使用深度圖像之前,可以對深度圖像進行預處理。
在本說明書實施例中,可對所述多幀深度圖像進行對齊預處理,從而有效彌補深度相機的採集品質問題,對後續的三維臉部活體檢測有更好的健全性,提升整體檢測準確性。
步驟106:將所述點雲資料進行歸一化處理得到灰度深度圖像。
在本說明書實施例中,對深度圖像的對齊預處理可以視為特徵的提取過程,在提取特徵並對齊預處理後,需要將點雲資料歸一化為後續演算法可用的灰度深度圖像。從而,進一步提升圖像的完整性和精度。
步驟108:基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
應理解,在本說明書實施例中,在對目標檢測進行活體檢測時,對於活體和非活體的目標檢測對象,深度圖像會存在差異。以人臉活體檢測為例,如果目標檢測對象是人臉照片、視頻和三維模型等,而不是活體人臉,則在檢測時,會進行區分。本說明書基於該思路透過對獲取的目標檢測對象的深度圖像進行檢測,來判別目標檢測對象是活體還是非活體。
透過上述技術方案,獲取針對目標檢測對象的多幀深度圖像,可以確保作為檢測資料登錄的圖像的整體性能;而且透過對齊預處理對多幀深度圖像進行預處理,以及將所述點雲資料進行歸一化處理得到灰度深度圖像,可以確保灰度深度圖像的完整性以及精度,彌補圖像品質問題;最後,基於灰度深度圖像和活體檢測模型,進行活體檢測,從而,可以提升活體檢測的準確性,進而,還可以根據檢測結果實施更為有效的安全驗證或是攻擊防禦。
本說明書實施例中活體檢測模型可以是預先設置的普通活體檢測模型,參照圖2a所示,較佳可以是基於以下方式而得到:
步驟202:獲取針對目標訓練對象的多幀深度圖像。
應理解,該步驟中針對目標訓練對象的多幀深度圖像,可以是從現有的深度圖像資料庫或是其他儲存空間提取的歷史深度圖像。與步驟102中的深度圖像不同的是,目標訓練對象的類型(活體或者非活體)是已知的。
步驟204:對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料。
該步驟204的具體實現可參照步驟104。
步驟206:將所述點雲資料進行歸一化處理得到灰度深度圖像樣本。
基於上述步驟204對齊預處理後得到的點雲資料,經過歸一化處理後得到灰度深度圖像樣本。之所以作為樣本,主要是將經過對齊預處理和歸一化處理後的深度圖像作為後續輸入訓練模型的已知類型的資料。這裡的歸一化處理方式與步驟106的實現相同。
步驟208:基於所述灰度深度圖像樣本和對所述灰度深度圖像樣本的標注資料,訓練得到活體檢測模型。
其中,所述灰度深度圖像樣本的標注資料可以是目標訓練對象的類型標籤,本說明書實施例中可以將類型標籤簡單設定為:活體或非活體。
應理解,本說明書實施例所涉及的方案中,可以選擇卷積神經網路CNN結構作為訓練模型,該CNN結構主要包括卷積層和池化層,其建構過程可包括:卷積、啟動、池化、全連接等。該CNN結構可以對輸入的圖像資料以及訓練對象的標籤進行二分類訓練,從而得到一個分類器。例如:將歸一化處理後的灰度深度圖像樣本A1(標注資料:活體)、B1(標注資料:活體)、A2(標注資料:非活體)、B2(標注資料:活體)、A3(標注資料:活體)、B3(標注資料:非活體)等,作為資料登錄至訓練模型即CNN結構,之後,該CNN結構根據輸入的資料進行模型訓練,最終得到一個分類器,該分類器可以準確識別出輸入的資料所對應的目標檢測對象是否為活體,並輸出檢測結果。
需要說明的是,在實際的模型訓練過程中,輸入至訓練模型的資料(灰度深度圖像樣本)的數量可以很多,足以支撐訓練模型進行有效訓練,本說明書實施例僅是為了示例才列舉了部分。
其實,上述所提到的分類器可以理解為是訓練得到的活體檢測模型,由於訓練時所輸入的標籤(即標注資料)僅是兩類(活體或非活體),因此,該分類器可以是二分類器。
透過上述圖2a得到的活體檢測模型,由於是基於預處理以及歸一化處理後的灰度深度圖像樣本作為輸入資料進行CNN模型訓練的,由此,可以得到更為準確的活體檢測模型,進一步,基於該活體檢測模型進行的活體檢測更為準確。
可選地,在本說明書實施例中,步驟104可具體包括:
基於三維臉部關鍵點對所述多幀深度圖像進行粗對齊;
基於迭代最近點ICP演算法對經粗對齊處理後的深度圖像進行精對齊,得到點雲資料。
可見,該步驟104主要包括粗對齊和精對齊,下面對該對齊預處理進行簡單介紹。
基於三維臉部關鍵點對所述多幀深度圖像進行粗對齊,在具體實現時,可以使用RGB圖像檢測方式,確定深度圖像中人臉關鍵點,然後對確定的這些人臉關鍵點進行點雲粗對齊;其中,人臉關鍵點可以是人臉中的兩個眼角、鼻尖、兩個嘴角,這五個關鍵點。透過點雲粗對齊,僅是將多幀深度圖像進行了大致的對準,確保深度圖像從大體上是對齊的。
基於迭代最近點ICP演算法對經粗對齊處理後的深度圖像進行精對齊,得到點雲資料,在具體實現時,可以使用經粗對齊處理後的深度圖像作為ICP演算法的初始化,之後,採用ICP演算法的迭代流程進行精準對齊;在本說明書實施例中,ICP演算法選擇關鍵點的過程中,結合了人臉的兩個眼角、鼻尖、兩個嘴角,這五個關鍵點的位置資訊,進行RANSAC(隨機抽樣一致性演算法)選點,同時,限制迭代次數,使得迭代不致於過多,從而,確保系統處理的速度。
可選地,在本說明書實施例中,參照圖1b所示,在執行步驟104之前,還包括:
步驟110:對所述多幀深度圖像中的每幀深度圖像進行雙邊濾波處理。
應理解,在本說明書實施例中,由於獲取得是多幀深度圖像,而且每幀深度圖像都可能存在圖像品質問題,因此,可以對多幀深度圖像中每幀深度圖像進行雙邊濾波處理,從而提升每幀深度圖的完整性。
具體地,可以參照以下公式實現對每幀深度圖像的雙邊濾波處理:
其中,表示經雙邊濾波處理後的深度圖像中像素點的深度值,是雙邊濾波處理前的深度圖像中像素點的深度值,是雙邊濾波的權重值。
進一步,雙邊濾波的權重值可以透過以下公式計算得到:
其中,表示彩色圖像中像素點的彩色值,表示彩色圖像中像素點的彩色值,為對應深度圖像的濾波參數,為對應彩色圖像的濾波參數。
可選地,步驟106在將所述點雲資料進行歸一化處理得到灰度深度圖像時,可具體實現為:
第一步,根據所述點雲資料中三維臉部關鍵點,確定臉部區域的平均深度。
以三維臉部為人臉為例,根據人臉的五個關鍵點,採用平均加權等方式計算出人臉區域的平均深度。
第二步,對臉部區域進行分割,刪除所述點雲資料中前景和背景。
對人臉區域進行圖像分割,例如,分割出鼻子、嘴巴、眼睛等關鍵點,然後刪除點雲資料中人臉以外的前景圖像對應的點雲資料和背景圖像對應的點雲資料,從而,排除前景圖像和背景圖像對點雲資料的干擾。
第三步,將刪除前景和背景的點雲資料歸一化到以所述平均深度為基準的前後預設數值範圍內,得到灰度深度圖像。
將排除前景和背景干擾的人臉區域的深度值,歸一化到以第一步確定的平均深度為基準的前後預設數值範圍內,其中,以平均深度為基準的前後預設數值範圍,是指在所述平均深度至前方預設數值之間的深度範圍以及在所述平均深度至後方預設數值之間的深度範圍。所述前方指人臉區域面向深度相機的一側,所述後方指人臉區域背向深度相機的一側。
舉例說明,假設之前確定的人臉區域的平均深度為D1,預設數值為D2,那麼,歸一化後人臉區域的深度值範圍為[D1-D2,D1+D2]。應理解,考慮到人臉的輪廓的厚度有限,而且大致處於一定的範圍內,因此,預設數值可以設定為30mm至50mm之間的任意數值,較佳取40mm。
應理解,在本說明書實施例中,上述步驟106中所涉及的歸一化處理操作,可以適用於圖2a所示的模型訓練的歸一化處理中。
可選地,參照圖2b所示,在步驟208執行之前,還包括:
步驟210:對所述灰度深度圖像樣本進行資料增廣處理,所述資料增廣處理包括如下至少一種:旋轉操作、平移操作、縮放操作。
應理解,透過上述資料增廣處理,可以增加灰度深度圖像樣本(活體、非活體)的數量,提升模型訓練的健全性,進而,提升活體檢測的準確性。
較佳的,在進行增廣處理時,可根據灰度深度圖像樣本的三維資料資訊,分別進行旋轉、平移以及縮放操作。
可選地,為了提升模型訓練以及後續活體檢測的健全性,所述活體檢測模型為基於卷積神經網路結構訓練得到的模型。
下面透過一個具體的實例對本說明書所涉及的三維臉部活體檢測方案進行詳細介紹。
需要說明的是,該三維臉部活體檢測方案中,三維臉部以人臉為例,訓練模型以CNN模型為例。
參照圖3所示,為本說明書實施例提供的活體檢測模型的訓練以及人臉活體檢測的示意圖。其中,
在訓練階段,可包括:歷史深度圖像採集、歷史深度圖像預處理、點雲資料歸一化、資料增廣以及二分類模型訓練;在檢測階段,可包括:線上深度圖像採集、線上深度圖像預處理、點雲資料歸一化、基於二分類模型檢測是否為活體等過程。其實,具體的訓練階段以及檢測階段可能還包括其它過程,本說明書實施例並未全部示出。
應理解,本說明書實施例中二分類模型即為圖1a中所示的活體檢測模型。其實,該訓練階段以及檢測階段的操作可以由具有深度圖像採集功能的移動終端或是其他終端設備執行處理,下面以移動終端作為執行主體為例。具體地,圖3所示的流程主要包括:
(1)歷史深度圖像採集
移動終端採集歷史深度圖像,這些歷史深度圖像中,有的是針對活體的人臉進行深度攝像採集得到,有的是針對非活體(例如,圖片、視頻等)的人臉圖像進行深度攝像採集得到。所述歷史深度圖像可以是基於主動雙目深度相機採集得到,並作為歷史深度圖像儲存在歷史資料庫中。移動終端在有模型訓練需求和/或活體檢測需求時,觸發從歷史資料庫中採集歷史深度圖像。
應理解,本說明書實施例中所涉及的歷史深度圖像即為圖2a中所述的針對目標訓練對象的多幀深度圖像。在採集歷史深度圖像時,還同時獲取歷史深度圖像對應的標籤(即標注資料),該標籤用來表示歷史深度圖像對應的目標訓練對象是活體或非活體。
(2)歷史深度圖像預處理
在完成歷史深度圖像的採集後,還可以對歷史深度圖像中單幀深度圖像進行雙邊濾波處理,然後採用人臉關鍵點對經過雙邊濾波處理後的多幀深度圖像進行粗對齊,最後採用ICP演算法對粗對齊後的結果進行精對齊,實現對點雲資料的精確對準,從而,能夠得到更為完整、精準的訓練資料。其中,雙邊濾波、人臉關鍵點的粗對齊、ICP演算法的精對齊等操作的具體實現可參照上述實施例的相關描述,在此不做贅述。
(3)點雲資料歸一化
為了獲得更為精準的訓練資料,還可以將對準後的點雲資料歸一化為灰度深度圖像,以便後續使用。首先,根據人臉RGB圖像檢測人臉關鍵點和深度圖像D,計算出人臉區域的平均深度df,該df可以為一個數值,單位為mm。其次,對人臉區域進行圖像分割,以排除前景和背景的干擾,例如,只保留深度值在df-40mm至df+40mm範圍內的所有點雲作為人臉的點雲P{(x,y,z)| df+40>z>df-40}。最後,將排除前景和背景干擾的人臉區域的深度值歸一化到平均深度的前、後40mm範圍內(此時可以為一個數值範圍)。
(4)資料增廣
考慮到採集的採集的歷史深度圖像的數量可能有限,因此,為了增加模型訓練時所需輸入資料的數量,可以對歸一化處理後的灰度深度圖像進行增廣處理。其中,增廣處理具體可實現為旋轉操作、平移操作、縮放操作中的至少一種。
舉例說明,假設歸一化的灰度深度圖像M1、M2、M3,記旋轉操作後的灰度深度圖像為M1(x)、M2(x)、M3(x),平移操作後的灰度深度圖像為M1(p)、M2(p)、M3(p),縮放操作後的灰度深度圖像為M1(s)、M2(s)、M3(s)。這樣,就將原本三個灰度深度圖像,增廣為十二個灰度深度圖像,從而增加活體、非活體的輸入資料,提升模型訓練的健全性。同時,還可以提升後續活體檢測的檢測性能。
應理解,上述歸一化的灰度深度圖像的個數僅作示例,並不限於三個,具體採集數量可以根據需求設定。
(5)二分類模型訓練
在進行模型訓練中,可將步驟(1)得到的深度圖像作為訓練資料,或者將步驟(2)預處理後得到的深度圖像作為訓練資料,或者將步驟(3)歸一化處理後得到的灰度深度圖像作為訓練資料,或者將步驟(4)增廣處理後得到的灰度深度圖像作為訓練資料。
顯然,以步驟(4)增廣處理後得到的灰度深度圖像作為訓練資料登錄到CNN模型,訓練出來的活體檢測模型會更加準確。
在透過資料增廣的方式處理歸一化的灰度深度圖像後,可以採用CNN結構從增廣後的灰度深度圖像中提取圖像特徵,然後基於提取的圖像特徵和CNN模型進行模型訓練。
其實,在進行訓練時,訓練資料還包含灰度深度圖像的標籤,本說明書實施例中可以標注為“活體”或“非活體”。這樣,在訓練結束後就可以得到可以根據輸入資料輸出“活體”或“非活體”的二分類模型。
(6)線上深度圖像採集
步驟(6)的具體實現可參照步驟(1)中的採集處理過程。
(7)線上深度圖像預處理
步驟(7)的具體實現可參照步驟(2)的預處理過程。
(8)點雲資料歸一化
步驟(8)的具體實現可參照步驟(3)的歸一化處理過程。
(9)基於二分類模型檢測是否為活體
在本說明書實施例中,可以將步驟(6)中採集的線上深度圖像作為二分類模型的輸入,或者,將步驟(7)中預處理後的線上深度圖像作為二分類模型的輸入,或者,將步驟(8)中歸一化處理後的線上灰度深度圖像作為二分類模型的輸入,以檢測目標檢測對象是否為活體。
應理解,本說明書實施例中,在檢測階段輸入檢測模型的資料的處理方式可以與訓練階段輸入訓練模型的資料的處理方式相同,例如,如果二分類模型是基於採集的歷史深度圖像訓練得到,則採用步驟(6)中採集的線上深度圖像作為二分類模型的輸入進行檢測。
在本說明書實施例中,為了確保活體檢測的準確性,較佳基於增廣後的灰度深度圖像訓練得到的二分類模型,並將步驟(8)中歸一化處理後的線上灰度深度圖像作為輸入,二分類模型即可根據輸入資料輸出“活體”或“非活體”的檢測結果。
(10)將檢測結果輸出給活體檢測裝置
基於二分類模型,可得到檢測結果。
此時,可將檢測結果反饋給活體檢測系統,以便活體檢測系統執行相應的操作。例如,在支付情況中,如果檢測結果為“活體”,則將該檢測結果反饋給支付系統,以便支付系統執行支付;如果檢測結果為“非活體”則將該檢測結果反饋給支付系統,以便支付系統拒絕執行支付。由此,可以透過更為準確的活體檢測方式提升認證安全性。
上述對本說明書特定實施例進行了描述。在一些情況下,在本說明書中記載的動作或步驟可以按照不同於實施例中的順序來執行並且仍然可以實現期望的結果。另外,在圖式中描繪的過程不一定要求示出的特定順序或者連續順序才能實現期望的結果。在某些實施方式中,多工處理和並行處理也是可以的或者可能是有利的。
實施例二
參照圖4所示,為本說明書實施例提供的臉部認證識別方法的步驟示意圖,該方法可由臉部認證識別裝置或是安裝有臉部認證識別裝置的移動終端執行。
該臉部認證識別方法可以包括以下步驟:
步驟402:獲取針對目標檢測對象的多幀深度圖像。
步驟402的具體實現可參照步驟102。
步驟404:對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料。
步驟404的具體實現可參照步驟104。
步驟406:將所述點雲資料進行歸一化處理得到灰度深度圖像。
步驟406的具體實現可參照步驟106。
步驟408:基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
步驟408的具體實現可參照步驟108。
步驟410:根據活體檢測結果確定認證識別是否通過。
本說明書實施例中,可以根據步驟408的檢測結果:活體或非活體,傳輸給認證識別系統,以便於認證識別系統確定是否通過認證,例如,如果檢測結果為活體,則認證通過;如果檢測結果為非活體,則認證不通過。
透過上述技術方案,獲取針對目標檢測對象的多幀深度圖像,可以確保作為檢測資料登錄的圖像的整體性能;而且透過對齊預處理對多幀深度圖像進行預處理,以及將所述點雲資料進行歸一化處理得到灰度深度圖像,可以確保灰度深度圖像的完整性以及精度,彌補圖像品質問題;最後,基於灰度深度圖像和活體檢測模型,進行活體檢測,從而,可以提升活體檢測的準確性,進而,還可以根據檢測結果實施更為有效的安全驗證或是攻擊防禦。
實施例三
下面參照圖5詳細介紹本說明書實施例的電子設備。請參考圖5,在硬體層面,該電子設備包括處理器,可選地還包括內部匯流排、網路介面、記憶體。其中,記憶體可能包含記憶體,例如高速隨機存取記憶體(Random-Access Memory,RAM),也可能還包括非易失性記憶體(Non-Volatile Memory),例如至少1個磁碟記憶體等。當然,該電子設備還可能包括其他業務所需要的硬體。
處理器、網路介面和記憶體可以透過內部匯流排而相互連接,該內部匯流排可以是工業標準架構(Industry Standard Architecture,ISA)匯流排、周邊元件互連標準 (Peripheral Component Interconnect,PCI)匯流排或延伸工業標準架構(Extended Industry Standard Architecture,EISA)匯流排等。所述匯流排可以分為位址匯流排、資料匯流排、控制匯流排等。為便於表示,圖5中僅用一個雙向箭頭來表示,但並不表示僅有一根匯流排或一種類型的匯流排。
記憶體,用以儲存程式。具體地,程式可以包括程式碼,所述程式碼包括電腦操作指令。記憶體可以包括記憶體和非易失性記憶體,並向處理器提供指令和資料。
處理器從非易失性記憶體中讀取對應的電腦程式到記憶體中然後運行,在邏輯層面上形成三維臉部檢測裝置。處理器,執行記憶體所儲存的程式,並具體執行以下操作:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
或者執行以下操作:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
根據活體檢測結果確定認證識別是否通過。
上述如本說明書實施例圖1a至圖3所示實施例揭示的三維臉部活體檢測方法或圖4揭示的臉部認證識別方法可以應用於處理器中,或者由處理器實現。處理器可能是一種積體電路晶片,具有信號的處理能力。在實現過程中,上述方法的各步驟可以透過處理器中的硬體的整合邏輯電路或者軟體形式的指令來完成。上述的處理器可以是通用處理器,包括中央處理器(Central Processing Unit,CPU)、網路處理器(Network Processor,NP)等;還可以是數位訊號處理器(Digital Signal Processor,DSP)、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)、現場可編程閘陣列(Field-Programmable Gate Array,FPGA)或者其他可編程邏輯裝置、分離閘或者電晶體邏輯裝置、分離硬體元件。可以實現或者執行本說明書實施例中的揭示的各方法、步驟及邏輯方塊圖。通用處理器可以是微處理器或者該處理器也可以是任何習知的處理器等。結合本說明書實施例所揭示的方法的步驟可以直接體現為硬體解碼處理器來執行完成,或者用解碼處理器中的硬體及軟體模組組合執行完成。軟體模組可以位於隨機記憶體,快閃記憶體、唯讀記憶體,可編程唯讀記憶體或者電可讀寫可編程記憶體、暫存器等本領域成熟的儲存媒體中。該儲存媒體位於記憶體,處理器讀取記憶體中的資訊,結合其硬體完成上述方法的步驟。
該電子設備還可執行圖1a-圖3的方法,並實現三維臉部活體檢測裝置在圖1a至圖3所示實施例的功能,以及可以執行圖4的方法,並實現臉部認證識別裝置在圖4所示實施例的功能,本說明書實施例在此不再贅述。
當然,除了軟體實現方式之外,本說明書實施例的電子設備並不排除其他實現方式,比如邏輯裝置抑或軟硬體結合的方式等等,也就是說以下處理流程的執行主體並不限定於各個邏輯單元,也可以是硬體或邏輯裝置。
實施例四
本說明書實施例還提供一種電腦可讀儲存媒體,所述電腦可讀儲存媒體儲存一個或多個程式,所述一個或多個程式當被包括多個應用程式的伺服器執行時,使得所述伺服器執行以下操作:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
本說明書實施例還提供一種電腦可讀儲存媒體,所述電腦可讀儲存媒體儲存一個或多個程式,所述一個或多個程式當被包括多個應用程式的伺服器執行時,使得所述伺服器執行以下操作:
獲取針對目標檢測對象的多幀深度圖像;
對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
將所述點雲資料進行歸一化處理得到灰度深度圖像;
基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
根據活體檢測結果確定認證識別是否通過。
其中,所述的電腦可讀儲存媒體,如唯讀記憶體(Read-Only Memory, ROM)、隨機存取記憶體(Random Access Memory, RAM)、磁碟或者光碟等。
實施例五
參照圖6a所示,為本說明書實施例提供的三維臉部活體檢測裝置的結構示意圖,該裝置主要包括:
獲取模組602,獲取針對目標檢測對象的多幀深度圖像;
第一預處理模組604,對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
歸一化模組606,將所述點雲資料進行歸一化處理得到灰度深度圖像;
檢測模組608,基於所述灰度深度圖像和活體檢測模型,進行活體檢測。
透過上述技術方案,獲取針對目標檢測對象的多幀深度圖像,可以確保作為檢測資料登錄的圖像的整體性能;而且透過對齊預處理對多幀深度圖像進行預處理,以及將所述點雲資料進行歸一化處理得到灰度深度圖像,可以確保灰度深度圖像的完整性以及精度,彌補圖像品質問題;最後,基於灰度深度圖像和活體檢測模型,進行活體檢測,從而,可以提升活體檢測的準確性,進而,還可以根據檢測結果實施更為有效的安全驗證或是攻擊防禦。
可選地,作為一個實施例,在得到所述活體檢測模型時,
所述獲取模組602,獲取針對目標訓練對象的多幀深度圖像;
第一預處理模組604,對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
歸一化模組606,將所述點雲資料進行歸一化處理得到灰度深度圖像樣本;
此外,參照圖6b所示,還包括:
訓練模組610,基於所述灰度深度圖像樣本和對所述灰度深度圖像樣本的標注資料,訓練得到活體檢測模型。
可選地,所述第一預處理模組604具體用於:
基於三維臉部關鍵點對所述多幀深度圖像進行粗對齊;
基於迭代最近點ICP演算法對經粗對齊處理後的深度圖像進行精對齊,得到點雲資料。
可選地,參照圖6c所示,所述三維臉部活體檢測裝置還包括:
第二預處理模組612,對所述多幀深度圖像中的每幀深度圖像進行雙邊濾波處理。
可選地,所述歸一化處理模組604具體用於:
根據所述點雲資料中三維臉部關鍵點,確定臉部區域的平均深度;
對臉部區域進行分割,刪除所述點雲資料中前景和背景;
將刪除前景和背景的點雲資料歸一化到以所述平均深度為基準的前後預設數值範圍內,得到灰度深度圖像。
可選地,所述預設數值的取值範圍為:30至50mm。
可選地,參照圖6d所示,所述三維臉部活體檢測裝置還包括:
增廣模組614,對所述灰度深度圖像樣本進行資料增廣處理,所述資料增廣處理包括如下至少一種:旋轉操作、平移操作、縮放操作。
可選地,所述活體檢測模型為基於卷積神經網路結構訓練得到的模型。
可選地,所述多幀深度圖像是基於主動雙目式深度攝像裝置獲取得到的。
參照圖7所示,為本說明書實施例提供的臉部認證識別裝置的結構示意圖,該裝置主要包括:
獲取模組702,獲取針對目標檢測對象的多幀深度圖像;
第一預處理模組704,對所述多幀深度圖像進行對齊預處理得到預處理後的點雲資料;
歸一化模組706,將所述點雲資料進行歸一化處理得到灰度深度圖像;
檢測模組708,基於所述灰度深度圖像和活體檢測模型,進行活體檢測;
識別模組710,根據活體檢測結果確定認證識別是否通過。
透過上述技術方案,獲取針對目標檢測對象的多幀深度圖像,可以確保作為檢測資料登錄的圖像的整體性能;而且透過對齊預處理對多幀深度圖像進行預處理,以及將所述點雲資料進行歸一化處理得到灰度深度圖像,可以確保灰度深度圖像的完整性以及精度,彌補圖像品質問題;最後,基於灰度深度圖像和活體檢測模型,進行活體檢測,從而,可以提升活體檢測的準確性,進而,還可以根據檢測結果實施更為有效的安全驗證或是攻擊防禦。
總之,以上所述僅為本說明書實施例的較佳實施例而已,並非用來限定本說明書實施例的保護範圍。凡在本說明書實施例的精神和原則之內,所作的任何修改、等同替換、改進等,均應包含在本說明書實施例的保護範圍之內。
上述實施例闡明的系統、裝置、模組或單元,具體可以由電腦晶片或實體實現,或者由具有某種功能的產品來實現。一種典型的實現設備為電腦。具體地說,電腦例如可以為個人電腦、膝上型電腦、蜂巢式電話、相機電話、智慧型電話、個人數位助理、媒體播放機、導航設備、電子郵件設備、遊戲控制台、平板電腦、可穿戴設備或者這些設備中的任何設備的組合。
電腦可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可編程唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁磁片儲存或其他磁性儲存裝置或任何其他非傳輸媒體,可用來儲存可以被計算設備存取的資訊。按照本文中的界定,電腦可讀媒體不包括暫態性電腦可讀媒體(transitory media),如調變的資料信號和載波。
還需要說明的是,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、商品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、商品或者設備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括所述要素的過程、方法、商品或者設備中還存在另外的相同要素。
本說明書實施例中的各個實施例均採用漸進的方式來描述,各個實施例之間相同相似的部分互相參見即可,每個實施例重點說明的都是與其他實施例的不同之處。尤其,對於系統實施例而言,由於其基本相似於方法實施例,所以描述的比較簡單,相關之處參見方法實施例的部分說明即可。
102‧‧‧方法步驟
104‧‧‧方法步驟
106‧‧‧方法步驟
108‧‧‧方法步驟
110‧‧‧方法步驟
202‧‧‧方法步驟
204‧‧‧方法步驟
206‧‧‧方法步驟
208‧‧‧方法步驟
210‧‧‧方法步驟
402‧‧‧方法步驟
404‧‧‧方法步驟
406‧‧‧方法步驟
408‧‧‧方法步驟
410‧‧‧方法步驟
602‧‧‧獲取模組
604‧‧‧第一預處理模組
606‧‧‧歸一化模組
608‧‧‧檢測模組
610‧‧‧訓練模組
612‧‧‧第二預處理模組
614‧‧‧增廣模組
702‧‧‧獲取模組
704‧‧‧第一預處理模組
706‧‧‧歸一化模組
708‧‧‧檢測模組
710‧‧‧識別模組
為了更清楚地說明本說明書實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的圖式作簡單地介紹,顯而易見地,下面描述中的圖式僅僅是本說明書實施例中記載的一些實施例,對於本發明所屬技術領域具有通常知識者來講,在不付出創造性勞動性的前提下,還可以根據這些圖式而獲得其他的圖式。
圖1a為本說明書實施例提供的三維臉部活體檢測方法的步驟示意圖之一;
圖1b為本說明書實施例提供的三維臉部活體檢測方法的步驟示意圖之二;
圖2a為本說明書實施例提供的活體檢測模型產生方法的步驟示意圖之一;
圖2b為本說明書實施例提供的活體檢測模型產生方法的步驟示意圖之二;
圖3為本說明書實施例提供的人臉活體檢測方法的示意圖;
圖4為本說明書實施例提供的臉部認證識別方法的步驟示意圖;
圖5為本說明書實施例提供的電子設備的硬體結構示意圖;
圖6a為本說明書實施例提供的三維臉部活體檢測裝置的結構示意圖之一;
圖6b為本說明書實施例提供的三維臉部活體檢測裝置的結構示意圖之二;
圖6c為本說明書實施例提供的三維臉部活體檢測裝置的結構示意圖之三;
圖6d為本說明書實施例提供的三維臉部活體檢測裝置的結構示意圖之四;
圖7為本說明書實施例提供的臉部認證識別裝置的結構示意圖。
Claims (16)
- 一種三維臉部活體檢測方法,包括: 獲取針對目標檢測對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將該點雲資料進行歸一化處理得到灰度深度圖像;以及 基於該灰度深度圖像和活體檢測模型,進行活體檢測。
- 如請求項1所述的方法,該活體檢測模型透過以下方式得到: 獲取針對目標訓練對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將該點雲資料進行歸一化處理得到灰度深度圖像樣本;以及 基於該灰度深度圖像樣本和對該灰度深度圖像樣本的標注資料,訓練得到活體檢測模型。
- 如請求項1所述的方法,對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料,包括: 基於三維臉部關鍵點對該多幀深度圖像進行粗對齊;以及 基於迭代最近點ICP演算法對經粗對齊處理後的深度圖像進行精對齊,得到點雲資料。
- 如請求項1至3中任一項所述的方法,在對該多幀深度圖像進行對齊預處理之前,還包括: 對該多幀深度圖像中的每幀深度圖像進行雙邊濾波處理。
- 如請求項1所述的方法,將該點雲資料進行歸一化處理得到灰度深度圖像,包括: 根據該點雲資料中三維臉部關鍵點,確定臉部區域的平均深度; 對臉部區域進行分割,刪除該點雲資料中前景和背景;以及 將刪除前景和背景的點雲資料歸一化到以該平均深度為基準的前後預設數值範圍內,得到灰度深度圖像。
- 如請求項5所述的方法,該預設數值的取值為30至50mm。
- 如請求項1所述的方法,在基於該灰度深度圖像樣本訓練得到活體檢測模型之前,還包括: 對該灰度深度圖像樣本進行資料增廣處理,該資料增廣處理包括如下至少一種:旋轉操作、平移操作、縮放操作。
- 如請求項1所述的方法,該活體檢測模型為基於卷積神經網路結構訓練得到的模型。
- 如請求項1所述的方法,該多幀深度圖像是基於主動雙目式深度攝像裝置獲取得到的。
- 一種臉部認證識別方法,包括: 獲取針對目標檢測對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將該點雲資料進行歸一化處理得到灰度深度圖像; 基於該灰度深度圖像和活體檢測模型,進行活體檢測;以及 根據活體檢測結果確定認證識別是否通過。
- 一種三維臉部檢測裝置,包括: 獲取模組,獲取針對目標檢測對象的多幀深度圖像; 第一預處理模組,對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 歸一化模組,將該點雲資料進行歸一化處理得到灰度深度圖像; 檢測模組,基於該灰度深度圖像和活體檢測模型,進行活體檢測。
- 一種臉部認證識別裝置,包括: 獲取模組,獲取針對目標檢測對象的多幀深度圖像; 第一預處理模組,對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 歸一化模組,將該點雲資料進行歸一化處理得到灰度深度圖像; 檢測模組,基於該灰度深度圖像和活體檢測模型,進行活體檢測;以及 識別模組,根據活體檢測結果確定認證識別是否通過。
- 一種電子設備,包括:記憶體、處理器及儲存在該記憶體上並可在該處理器上運行的電腦程式,該電腦程式被該處理器執行: 獲取針對目標檢測對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將該點雲資料進行歸一化處理得到灰度深度圖像;以及 基於該灰度深度圖像和活體檢測模型,進行活體檢測。
- 一種電子設備,包括:記憶體、處理器及儲存在該記憶體上並可在該處理器上運行的電腦程式,該電腦程式被該處理器執行: 獲取針對目標檢測對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將所述點雲資料進行歸一化處理得到灰度深度圖像; 基於該灰度深度圖像和活體檢測模型,進行活體檢測;以及 根據活體檢測結果確定認證識別是否通過。
- 一種電腦可讀儲存媒體,該電腦可讀儲存媒體儲存一個或多個程式,該一個或多個程式當被包括多個應用程式的伺服器執行時,使得該伺服器執行以下操作: 獲取針對目標檢測對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將該點雲資料進行歸一化處理得到灰度深度圖像;以及 基於該灰度深度圖像和活體檢測模型,進行活體檢測。
- 一種電腦可讀儲存媒體,該電腦可讀儲存媒體儲存一個或多個程式,該一個或多個程式當被包括多個應用程式的伺服器執行時,使得該伺服器執行以下操作: 獲取針對目標檢測對象的多幀深度圖像; 對該多幀深度圖像進行對齊預處理得到預處理後的點雲資料; 將該點雲資料進行歸一化處理得到灰度深度圖像; 基於該灰度深度圖像和活體檢測模型,進行活體檢測;以及 根據活體檢測結果確定認證識別是否通過。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810777429.XA CN109086691B (zh) | 2018-07-16 | 2018-07-16 | 一种三维脸部活体检测方法、脸部认证识别方法及装置 |
CN201810777429.X | 2018-07-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202006602A true TW202006602A (zh) | 2020-02-01 |
Family
ID=64837974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108115875A TW202006602A (zh) | 2018-07-16 | 2019-05-08 | 三維臉部活體檢測方法、臉部認證識別方法及裝置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US20200019760A1 (zh) |
CN (1) | CN109086691B (zh) |
SG (1) | SG11202011088RA (zh) |
TW (1) | TW202006602A (zh) |
WO (1) | WO2020018359A1 (zh) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测***及方法 |
WO2020019346A1 (zh) * | 2018-07-27 | 2020-01-30 | 合刃科技(深圳)有限公司 | 生物特征识别方法、装置、***及终端设备 |
CN111382592B (zh) * | 2018-12-27 | 2023-09-29 | 杭州海康威视数字技术股份有限公司 | 活体检测方法和设备 |
US11244146B2 (en) * | 2019-03-05 | 2022-02-08 | Jpmorgan Chase Bank, N.A. | Systems and methods for secure user logins with facial recognition and blockchain |
CN110222573B (zh) * | 2019-05-07 | 2024-05-28 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、计算机设备及存储介质 |
JP6929322B2 (ja) * | 2019-05-31 | 2021-09-01 | 楽天グループ株式会社 | データ拡張システム、データ拡張方法、及びプログラム |
CN110186934B (zh) * | 2019-06-12 | 2022-04-19 | 中国神华能源股份有限公司 | 轴箱橡胶垫裂纹检测方法和检测装置 |
CN112183167B (zh) * | 2019-07-04 | 2023-09-22 | 钉钉控股(开曼)有限公司 | 考勤方法、认证方法、活体检测方法、装置及设备 |
CN110580454A (zh) * | 2019-08-21 | 2019-12-17 | 北京的卢深视科技有限公司 | 活体检测方法及装置 |
JP7497145B2 (ja) * | 2019-08-30 | 2024-06-10 | キヤノン株式会社 | 機械学習装置、機械学習方法及びプログラム、情報処理装置、放射線撮影システム |
CN110688950B (zh) * | 2019-09-26 | 2022-02-11 | 杭州艾芯智能科技有限公司 | 基于深度信息的人脸活体检测方法、装置 |
CN110674759A (zh) * | 2019-09-26 | 2020-01-10 | 深圳市捷顺科技实业股份有限公司 | 一种基于深度图的单目人脸活体检测方法、装置及设备 |
CN112949356A (zh) * | 2019-12-10 | 2021-06-11 | 北京沃东天骏信息技术有限公司 | 活体检测的方法和装置 |
CN111209820B (zh) * | 2019-12-30 | 2024-04-23 | 新大陆数字技术股份有限公司 | 人脸活体检测方法、***、设备及可读存储介质 |
CN111462108B (zh) * | 2020-04-13 | 2023-05-02 | 山西新华防化装备研究院有限公司 | 一种基于机器学习的头面部产品设计工效学评估操作方法 |
CN112214773B (zh) * | 2020-09-22 | 2022-07-05 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的图像处理方法、装置和电子设备 |
CN111932673B (zh) * | 2020-09-22 | 2020-12-25 | 中国人民解放军国防科技大学 | 一种基于三维重建的物体空间数据增广方法及*** |
CN112001972A (zh) * | 2020-09-25 | 2020-11-27 | 劢微机器人科技(深圳)有限公司 | 托盘位姿定位方法、装置、设备及存储介质 |
CN112200056B (zh) * | 2020-09-30 | 2023-04-18 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112613459B (zh) * | 2020-12-30 | 2022-07-15 | 深圳艾摩米智能科技有限公司 | 一种人脸敏感区域检测方法 |
CN112686191B (zh) * | 2021-01-06 | 2024-05-03 | 中科海微(北京)科技有限公司 | 基于人脸三维信息的活体防伪方法、***、终端及介质 |
CN113255456B (zh) * | 2021-04-28 | 2023-08-25 | 平安科技(深圳)有限公司 | 非主动活体检测方法、装置、电子设备及存储介质 |
CN113379922A (zh) * | 2021-06-22 | 2021-09-10 | 北醒(北京)光子科技有限公司 | 前景提取方法、装置、存储介质及设备 |
CN113515143B (zh) * | 2021-06-30 | 2024-06-21 | 深圳市优必选科技股份有限公司 | 机器人导航方法、机器人及计算机可读存储介质 |
CN117441342A (zh) * | 2021-07-06 | 2024-01-23 | 三星电子株式会社 | 用于图像处理的电子装置及其操作方法 |
CN113435408A (zh) * | 2021-07-21 | 2021-09-24 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113673374B (zh) * | 2021-08-03 | 2024-01-30 | 支付宝(杭州)信息技术有限公司 | 一种面部识别方法、装置及设备 |
KR20230060901A (ko) * | 2021-10-28 | 2023-05-08 | 주식회사 슈프리마 | 영상 처리 장치 및 방법 |
CN114022733B (zh) * | 2021-11-09 | 2023-06-16 | 中国科学院光电技术研究所 | 一种用于云背景下红外目标智能训练和检测方法 |
CN114842287B (zh) * | 2022-03-25 | 2022-12-06 | 中国科学院自动化研究所 | 深度引导变形器的单目三维目标检测模型训练方法及装置 |
CN116631068B (zh) * | 2023-07-25 | 2023-10-20 | 江苏圣点世纪科技有限公司 | 一种基于深度学习特征融合的掌静脉活体检测方法 |
CN117173796B (zh) * | 2023-08-14 | 2024-05-14 | 杭州锐颖科技有限公司 | 一种基于双目深度信息的活体检测方法与*** |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104599314A (zh) * | 2014-06-12 | 2015-05-06 | 深圳奥比中光科技有限公司 | 三维模型重建方法与*** |
US9747493B2 (en) * | 2014-09-23 | 2017-08-29 | Keylemon Sa | Face pose rectification method and apparatus |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测***及方法 |
CN105740775B (zh) * | 2016-01-25 | 2020-08-28 | 北京眼神智能科技有限公司 | 一种三维人脸活体识别方法及其装置 |
US10157477B2 (en) * | 2016-04-27 | 2018-12-18 | Bellus 3D, Inc. | Robust head pose estimation with a depth camera |
CN107451510B (zh) * | 2016-05-30 | 2023-07-21 | 北京旷视科技有限公司 | 活体检测方法和活体检测*** |
CN106203305B (zh) * | 2016-06-30 | 2020-02-04 | 北京旷视科技有限公司 | 人脸活体检测方法和装置 |
CN106780619B (zh) * | 2016-11-25 | 2020-03-13 | 青岛大学 | 一种基于Kinect深度相机的人体尺寸测量方法 |
CN107437067A (zh) * | 2017-07-11 | 2017-12-05 | 广东欧珀移动通信有限公司 | 人脸活体检测方法及相关产品 |
CN107944416A (zh) * | 2017-12-06 | 2018-04-20 | 成都睿码科技有限责任公司 | 一种通过视频进行真人验证的方法 |
CN108108676A (zh) * | 2017-12-12 | 2018-06-01 | 北京小米移动软件有限公司 | 人脸识别方法、卷积神经网络生成方法及装置 |
CN108197586B (zh) * | 2017-12-12 | 2020-04-21 | 北京深醒科技有限公司 | 脸部识别方法和装置 |
CN108171211A (zh) * | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 活体检测方法和装置 |
-
2018
- 2018-07-16 CN CN201810777429.XA patent/CN109086691B/zh active Active
-
2019
- 2019-05-08 TW TW108115875A patent/TW202006602A/zh unknown
- 2019-07-12 US US16/509,594 patent/US20200019760A1/en not_active Abandoned
- 2019-07-12 WO PCT/US2019/041529 patent/WO2020018359A1/en active Application Filing
- 2019-07-12 SG SG11202011088RA patent/SG11202011088RA/en unknown
-
2020
- 2020-01-28 US US16/774,037 patent/US20200160040A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2020018359A1 (en) | 2020-01-23 |
CN109086691B (zh) | 2020-02-21 |
CN109086691A (zh) | 2018-12-25 |
SG11202011088RA (en) | 2020-12-30 |
US20200160040A1 (en) | 2020-05-21 |
US20200019760A1 (en) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW202006602A (zh) | 三維臉部活體檢測方法、臉部認證識別方法及裝置 | |
EP3564854B1 (en) | Facial expression recognition method, apparatus, electronic device, and storage medium | |
US10699103B2 (en) | Living body detecting method and apparatus, device and storage medium | |
CN106446873B (zh) | 人脸检测方法及装置 | |
WO2019153739A1 (zh) | 基于人脸识别的身份认证方法、装置、设备和存储介质 | |
CN108985134B (zh) | 基于双目摄像机的人脸活体检测及刷脸交易方法及*** | |
US20190095701A1 (en) | Living-body detection method, device and storage medium | |
US10650260B2 (en) | Perspective distortion characteristic based facial image authentication method and storage and processing device thereof | |
JP6544900B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
CN105740779B (zh) | 人脸活体检测的方法和装置 | |
US8934679B2 (en) | Apparatus for real-time face recognition | |
CN110428399B (zh) | 用于检测图像的方法、装置、设备和存储介质 | |
WO2019061658A1 (zh) | 眼镜定位方法、装置及存储介质 | |
KR101781358B1 (ko) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 | |
WO2022111512A1 (zh) | 人脸活体检测方法、装置及设备 | |
JP6351243B2 (ja) | 画像処理装置、画像処理方法 | |
CN112784712B (zh) | 一种基于实时监控的失踪儿童预警实现方法、装置 | |
US11086977B2 (en) | Certificate verification | |
CN111488943A (zh) | 人脸识别的方法及设备 | |
CN110363111B (zh) | 基于镜头失真原理的人脸活体检测方法、装置及存储介质 | |
CN108875488B (zh) | 对象跟踪方法、对象跟踪装置以及计算机可读存储介质 | |
CN111931544B (zh) | 活体检测的方法、装置、计算设备及计算机存储介质 | |
CN108875472B (zh) | 图像采集装置及基于该图像采集装置的人脸身份验证方法 | |
Mr et al. | Developing a novel technique to match composite sketches with images captured by unmanned aerial vehicle | |
CN110717406B (zh) | 一种人脸检测的方法、装置及终端设备 |