TWI787113B - 圖像處理方法、裝置、處理器、電子設備及儲存媒體 - Google Patents
圖像處理方法、裝置、處理器、電子設備及儲存媒體 Download PDFInfo
- Publication number
- TWI787113B TWI787113B TW111114745A TW111114745A TWI787113B TW I787113 B TWI787113 B TW I787113B TW 111114745 A TW111114745 A TW 111114745A TW 111114745 A TW111114745 A TW 111114745A TW I787113 B TWI787113 B TW I787113B
- Authority
- TW
- Taiwan
- Prior art keywords
- area
- threshold
- image
- pixel
- processed
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Plural Heterocyclic Compounds (AREA)
Abstract
本申請公開了一種圖像處理方法、裝置、處理器、電子設備及儲存媒體。該方法包括:獲取待處理圖像、第一閾值、第二閾值和第三閾值,所述第一閾值和所述第二閾值不同,所述第一閾值和所述第三閾值不同,所述第二閾值小於等於所述第三閾值;確定所述待處理圖像的待測區域中第一像素點的第一數量;所述第一像素點為顏色值大於等於所述第二閾值、且小於等於所述第三閾值的像素點;依據所述第一數量與所述待測區域像素點數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果。
Description
本申請涉及圖像處理技術領域,尤其涉及一種圖像處理方法、裝置、處理器、電子設備及儲存媒體。
為提高檢測安全性,越來越多的場景應用了對皮膚進行非接觸檢測。而這類非接觸檢測的檢測準確度很大程度上受皮膚遮擋狀態的影響。如,若皮膚區域被遮擋的面積較大,對該皮膚區域進行非接觸檢測的檢測結果的準確度可能較低。因此,如何檢測皮膚遮擋狀態具有非常重要的意義。
本申請提供一種圖像處理方法及裝置、處理器、電子設備及儲存媒體,以確定皮膚是否處於遮擋狀態。
本申請提供了一種圖像處理方法,所述方法包括:獲取待處理圖像、第一閾值、第二閾值和第三閾值,所述第一閾值和所述第二閾值不同,所述第一閾值和所述第三閾值不同,所述第二閾值小於等於所述第三閾值;確定所述待處理圖像的待測區域中第一像素點的第一數量;所述第一像素點為顏色值大於等於所述第二閾值、且小於等於所述第三閾值的像素點;依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果。
結合本申請任一實施方式,所述確定所述待處理圖像的皮膚區域中第一像素點的第一數量,包括:對所述待處理圖像進行人臉檢測處理,得到第一人臉框;依據所述第一人臉框,從所述待處理圖像中確定所述待測區域;確定所述待測區域中所述第一像素點的第一數量。
結合本申請任一實施方式,所述第一人臉框包括上框線和下框線;所述上框線和所述下框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的橫軸的邊,且所述上框線的縱坐標小於所述下框線的縱坐標;所述依據所述第一人臉框,從所述待處理圖像中確定所述待測區域,包括:對所述待處理圖像進行人臉關鍵點檢測,得到至少一個人臉關鍵點;所述至少一個人臉關鍵點包括左眉毛關鍵點和右眉毛關鍵點;在保持所述上框線的縱坐標不變的情況下,將所述下框線沿所述待處理圖像的像素坐標系的縱軸的負方向移動,使得所述下框線所在直線與第一直線重合,得到第二人臉框;所述第一直線為過所述左眉毛關鍵點和所述右眉毛關鍵點的直線;依據所述第二人臉框包含的區域,得到所述待測區域。
結合本申請任一實施方式,所述依據所述第二人臉框包含的區域,得到所述待測區域,包括:在保持所述第二人臉框的下框線的縱坐標不變的情況下,將所述第二人臉框的上框線沿所述待處理圖像的像素坐標系的縱軸移動,使得所述第二人臉框的上框線和所述第二人臉框的下框線之間的距離為預設距離,得到第三人臉框;依據所述第三人臉框包含的區域,得到所述待測區域。
結合本申請任一實施方式,所述至少一個人臉關鍵點還包括左嘴角關鍵點和右嘴角關鍵點;所述第一人臉框還包括左框線和右框線;所述左框線和所述右框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的縱軸的邊,且所述左框線的橫坐標小於所述右框線的橫坐標;所述依據所述第三人臉框包含的區域,得到所述待測區域,包括:在保持所述第三人臉框的左框線的橫坐標不變的情況下,將所述第三人臉框的右框線沿所述待處理圖像的像素坐標系的橫軸移動,使得所述第三人臉框的右框線和所述第三人臉框的左框線之間的距離為參考距離,得到第四人臉框;所述參考距離為第二直線與所述第三人臉框包含的人臉輪廓的兩個交點之間的距離;所述第二直線為在所述第一直線和第三直線之間且平行於所述第一直線或所述第三直線的直線;所述第三直線為過所述左嘴角關鍵點和所述右嘴角關鍵點的直線;將所述第四人臉框包含的區域作為所述待測區域。
結合本申請任一實施方式,所述獲取第二閾值和第三閾值,包括:從所述第一人臉框包含的像素點區域中確定皮膚像素點區域;獲取所述皮膚像素點區域中第二像素點的顏色值;將所述第二像素點的顏色值與第一值的差作為所述第二閾值,將所述第二像素點的顏色值與第二值的和作為所述第三閾值;其中,所述第一值和所述第二值均不超過所述待處理圖像的顏色值中的最大值。
結合本申請任一實施方式,所述從所述第一人臉框包含的像素點區域中確定皮膚像素點區域,包括:在檢測到所述待處理圖像中人臉區域未佩戴口罩的情況下,將所述人臉區域中除額頭區域、嘴巴區域、眉毛區域和眼睛區域之外的像素點區域,作為所述皮膚像素點區域;在檢測到所述待處理圖像中人臉區域佩戴口罩的情況下,將所述第一直線和第四直線之間的像素點區域作為所述皮膚像素點區域;所述第四直線為過左眼下眼瞼關鍵點和右眼下眼瞼關鍵點的直線;所述左眼下眼瞼關鍵點和所述右眼下眼瞼關鍵點均屬所述至少一個人臉關鍵點。
結合本申請任一實施方式,所述獲取所述皮膚像素點區域中第二像素點的顏色值,包括:在所述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點,且所述至少一個人臉關鍵點包含屬右眉內側區域中的至少一個第二關鍵點的情況下,根據所述至少一個第一關鍵點和所述至少一個第二關鍵點確定矩形區域;對所述矩形區域進行灰度化處理,得到所述矩形區域的灰度圖;將第一行和第一列的交點的顏色值作為所述第二像素點的顏色值;所述第一行為所述灰度圖中灰度值之和最大的行,所述第一列為所述灰度圖中灰度值之和最大的列。
結合本申請任一實施方式,所述依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果,包括:在所述第一比值未超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於遮擋狀態;在所述第一比值超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於未遮擋狀態。
結合本申請任一實施方式,所述皮膚區域屬待檢測人物,所述方法還包括:獲取所述待處理圖像的溫度熱力圖;在所述皮膚遮擋檢測結果為所述皮膚區域處於未遮擋狀態的情況下,從所述溫度熱力圖中讀取所述皮膚區域的溫度,作為所述待檢測人物的體溫。
在一些實施例中,本申請還提供了一種圖像處理的裝置,所述裝置包括:獲取單元,用於獲取待處理圖像、第一閾值、第二閾值和第三閾值,所述第一閾值和所述第二閾值不同,所述第一閾值和所述第三閾值不同,所述第二閾值小於等於所述第三閾值;第一處理單元,用於確定所述待處理圖像的待測區域中第一像素點的第一數量;所述第一像素點為顏色值大於等於所述第二閾值且小於等於所述第三閾值的像素點;檢測單元,用於依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果。
結合本申請任一實施方式,所述待測區域包括人臉區域,所述皮膚遮擋檢測結果包括人臉遮擋檢測結果;所述圖像處理裝置還包括:第二處理單元,用於在所述確定所述待處理圖像的待測區域中第一像素點的第一數量之前,對所述待處理圖像進行人臉檢測處理,得到第一人臉框;依據所述第一人臉框,從所述待處理圖像中確定所述人臉區域。
結合本申請任一實施方式,所述人臉區域包括額頭區域,所述人臉遮擋檢測結果包括額頭遮擋檢測結果,所述第一人臉框包括:上框線和下框線;所述上框線和所述下框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的橫軸的邊,且所述上框線的縱坐標小於所述下框線的縱坐標;所述第二處理單元用於:對所述待處理圖像進行人臉關鍵點檢測,得到至少一個人臉關鍵點;所述至少一個人臉關鍵點包括左眉毛關鍵點和右眉毛關鍵點;在保持所述上框線的縱坐標不變的情況下,將所述下框線沿所述待處理圖像的像素坐標系的縱軸的負方向移動,使得所述下框線所在直線與第一直線重合,得到第二人臉框;所述第一直線為過所述左眉毛關鍵點和所述右眉毛關鍵點的直線;依據所述第二人臉框包含的區域,得到所述額頭區域。
結合本申請任一實施方式,所述第二處理單元用於:在保持所述第二人臉框的下框線的縱坐標不變的情況下,將所述第二人臉框的上框線沿所述待處理圖像的像素坐標系的縱軸移動,使得所述第二人臉框的上框線和所述第二人臉框的下框線的距離為預設距離,得到第三人臉框;依據所述第三人臉框包含的區域,得到所述額頭區域。
結合本申請任一實施方式,所述至少一個人臉關鍵點還包括左嘴角關鍵點和右嘴角關鍵點;所述第一人臉框還包括:左框線和右框線;所述左框線和所述右框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的縱軸的邊,且所述左框線的橫坐標小於所述右框線的橫坐標;所述第二處理單元用於:在保持所述第三人臉框的左框線的橫坐標不變的情況下,將所述第三人臉框的右框線沿所述待處理圖像的像素坐標系的橫軸移動,使得所述第三人臉框的右框線和所述第三人臉框的左框線的距離為參考距離,得到第四人臉框;所述參考距離為第二直線與所述第三人臉框包含的人臉輪廓的兩個交點之間的距離;所述第二直線為在所述第一直線和第三直線之間且平行於所述第一直線或所述第三直線的直線;所述第三直線為過所述左嘴角關鍵點和所述右嘴角關鍵點的直線;將所述第四人臉框包含的區域作為所述額頭區域。
結合本申請任一實施方式,所述圖像裝置還包括:確定單元,用於在所述確定所述待處理圖像的待測區域中第一像素點的第一數量之前,從所述第一人臉框包含的像素點區域中確定皮膚像素點區域;所述獲取單元,還用於獲取所述皮膚像素點區域中第二像素點的顏色值;所述第一處理單元,還用於將所述第二像素點的顏色值與第一值的差作為所述第二閾值,將所述第二像素點的顏色值與第二值的和作為所述第三閾值;所述第一值和所述第二值均不超過所述待處理圖像的顏色值中的最大值。
結合本申請任一實施方式,所述圖像處理裝置還包括:第三處理單元,用於在所述從所述第一人臉框包含的像素點區域中確定皮膚像素點區域之前,對所述待處理圖像進行口罩佩戴檢測處理,得到檢測結果;所述確定單元用於:在檢測到所述待處理圖像中人臉區域未佩戴口罩的情況下,將所述人臉區域中除所述額頭區域、嘴巴區域、眉毛區域和眼睛區域之外的像素點區域,作為所述皮膚像素點區域;在檢測到所述待處理圖像中人臉區域佩戴口罩的情況下,將所述第一直線和第四直線之間的像素點區域作為所述皮膚像素點區域。其中,所述第四直線為過左眼下眼瞼關鍵點和右眼下眼瞼關鍵點的直線;所述左眼下眼瞼關鍵點和所述右眼下眼瞼關鍵點均屬所述至少一個人臉關鍵點。
結合本申請任一實施方式,所述獲取單元用於:在所述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點,且包含屬右眉內側區域中的至少一個第二關鍵點的情況下,根據所述至少一個第一關鍵點和所述至少一個第二關鍵點確定矩形區域;對所述矩形區域進行灰度化處理,得到矩形區域的灰度圖;將矩形區域的灰度圖中第一行和第一列的交點的顏色值作為所述第二像素點的顏色值;所述第一行為所述灰度圖中灰度值之和最大的行,所述第一列為所述灰度圖中灰度值之和最大的列。
結合本申請任一實施方式,所述檢測單元用於:在所述第一比值未超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於遮擋狀態;在所述第一比值超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於未遮擋狀態。
結合本申請任一實施方式,所述皮膚區域屬待檢測人物,所述獲取單元還用於:獲取所述待處理圖像的溫度熱力圖;所述圖像處理裝置還包括:第四處理單元,用於在所述皮膚遮擋檢測結果為所述皮膚區域處於未遮擋狀態的情況下,從所述溫度熱力圖中讀取所述皮膚區域的溫度,作為所述待檢測人物的體溫。
本申請還提供了一種處理器,所述處理器用於執行如上述第一方面及其任意一種可能實現的方式的方法。
本申請還提供了一種電子設備,包括:處理器、發送裝置、輸入裝置、輸出裝置和儲存器,所述儲存器用於儲存計算機程式代碼,所述計算機程式代碼包括計算機指令,在所述處理器執行所述計算機指令的情況下,所述電子設備執行如上述第一方面及其任意一種可能實現的方式的方法。
本申請還提供了一種計算機可讀儲存媒體,所述計算機可讀儲存媒體中儲存有計算機程式,所述計算機程式包括程式指令,在所述程式指令被處理器執行的情況下,使所述處理器執行如上述第一方面及其任意一種可能實現的方式的方法。
本申請還提供了一種計算機程式產品,所述計算機程式產品包括計算機程式或指令,在所述計算機程式或指令在計算機上運行的情況下,使得所述計算機執行上述第一方面及其任一種可能的實現方式的方法。
應當理解的是,以上的一般描述和後文的細節描述僅是示例性和解釋性的,而非限制本申請。
本申請要求於2021年5月31日提交的、申請號為202110600103.1的中國專利申請的優先權,該中國專利申請公開的全部內容以引用的方式併入本文中。
為了更清楚地說明本申請實施例或發明內容中的技術方案,下面將對本申請實施例或發明內容中所需要使用的附圖進行說明。
此處的附圖被併入說明書中並構成本說明書的一部分,這些附圖示出了符合本申請的實施例,用於說明本申請的技術方案。
為了使本技術領域的人員更好地理解本申請方案,下面將結合本申請中的附圖,對本申請實施例中的技術方案進行清楚、完整地描述。所描述的實施例僅僅是本申請的一部分實施例,而不是全部的實施例。基於本申請中的實施例,本領域普通技術人員在沒有做出創造性勞動的前提下所獲得的所有其他實施例,都應屬本申請保護的範圍。
本申請的說明書和權利要求書及上述附圖中的術語“第一”、“第二”等是用於區別不同對象,而不是用於描述特定順序。此外,術語“包括”和“具有”以及它們任何變形,意圖在於覆蓋不排他的包含。例如包含了一系列步驟或單元的過程、方法、系統、產品或設備不應被理解為限定於已列出的步驟或單元,而是可選地還包括沒有列出的步驟或單元,或可選地還包括對於這些過程、方法、產品或設備固有的其他步驟或單元。
在本文中提及“實施例”意味著,結合實施例描述的特定特徵、結構或特性可以包含在本申請的至少一個實施例中。在說明書中的各個位置出現該詞語並不一定均是指相同的實施例,也不是與其它實施例互斥的獨立的或備選的實施例。本領域技術人員可以理解的是,本文所描述的任意實施例可以與其它實施例相結合。
在進行接下來的闡述之前,首先對本申請實施例中的像素坐標系進行定義。如圖1所示,以圖像的左上角為像素坐標系的原點o、平行於圖像的列的方向為x軸的方向、平行於圖像的行的方向為y軸的方向,構建像素坐標系xoy。在像素坐標系下,橫坐標用於表示圖像中的像素在圖像中的行數,縱坐標用於表示圖像中的像素在圖像中的列數,橫坐標和縱坐標的單位均可以是像素。例如,假設圖1中的像素a的坐標為(30,25),即像素a的橫坐標為30個像素,像素a的縱坐標為25個像素,像素a為圖像中第30行第25列的像素。
為提高檢測安全性,越來越多的場景應用了對皮膚進行非接觸檢測。而這類非接觸檢測的檢測準確度很大程度上受皮膚遮擋狀態的影響。如,若皮膚區域被遮擋的面積較大,對該皮膚區域進行非接觸檢測的檢測結果的準確度可能較低。因此,如何檢測皮膚遮擋狀態具有非常重要的意義。例如,目前,非接觸式測溫在體溫檢測領域中運用廣泛。非接觸式測溫工具具有測量速度快、超溫語音報警等優點,適用於在人流量特別大的公共場合快速篩檢人體體溫。
熱成像設備主要通過採集熱紅外波段的光,來探測物體發出的熱輻射,最後建立熱輻射與溫度的準確對應關係,實現測溫功能。熱成像設備作為一種非接觸式測溫工具,可覆蓋較大區域,在人流量大的檢測場景下可提高通行速度,減少群體聚集時間。
熱成像設備主要是識別出行人的額頭的位置,然後根據該額頭區域測量體溫。但在行人佩戴帽子或者有劉海的情況下,無法確定額頭區域是否處於遮擋狀態。此時,是否能確定額頭的遮擋狀態對體溫檢測的準確度具有非常大的影響。
基於此,本申請實施例提供了一種圖像處理方法,以實現對例如待測溫對象的皮膚遮擋檢測。例如:在體溫檢測的實施例中,待測溫對象可為人臉,或具體為人臉中的額頭區域,或更具體為額頭區域中的特定位置。為簡化表述,在接下來的說明中,將待處理圖像中與待測溫對象對應的區域稱為待測區域。換言之,待測溫對象通常為與待處理圖像中的待測區域對應的皮膚區域,且待測溫對象的皮膚遮擋檢測結果包括對應的皮膚區域是否被遮擋。
本申請實施例的執行主體為圖像處理裝置,圖像處理裝置可以是以下中的一種:手機、計算機、伺服器、平板電腦。
下面結合本申請實施例中的附圖對本申請實施例進行描述。
請參閱圖2,圖2是本申請實施例提供的一種圖像處理方法的流程示意圖。
201、獲取待處理圖像、第一閾值、第二閾值和第三閾值,上述第一閾值和上述第二閾值不同,上述第一閾值和上述第三閾值不同,上述第二閾值小於等於上述第三閾值。
本申請實例中,待處理圖像包括包含人臉的圖像塊和不包含人臉的圖像塊。第一閾值是根據具體實施情況預先設定的額頭區域中皮膚像素點的數量和額頭區域中像素點的數量的標準比值,是評價額頭區域是否被遮擋的標準。
本申請實施例中的第一閾值與溫度檢測或者其他實施例的準確度有關。舉例來說,假設對行人進行額頭區域的測溫操作,額頭區域中露出的皮膚區域越多,那麼測溫的結果越準確。在額頭區域露出的皮膚區域占60%以上的情況下,認為測溫的結果是準確的。如果在體溫檢測場景下需要這種準確度的話,那麼就可以把第一閾值設為60%。如果在溫度檢測場景下需要更高的準確度,則可以把第一閾值設定在60%以上。如果認為把第一閾值設定為60%的要求太高,實際上不需要過於準確的結果,那麼可以設置第一閾值在60%以下。在這種情況下,相應的測溫結果的準確度是要降低的。因此,第一閾值的設定需要在具體的實施中進行,本申請實施例中不做限定。
在一種獲取待處理圖像的實現方式中,圖像處理裝置接收用戶通過輸入組件輸入的待處理圖像。上述輸入組件包括:鍵盤、滑鼠、觸控螢幕、觸控板和音視頻輸入器等。
在另一種獲取待處理圖像的實現方式中,圖像處理裝置接收數據終端發送的待處理圖像。上述數據終端可以是以下任意一種:手機、計算機、平板電腦、伺服器等。
在又一種獲取待處理圖像的實現方式中,圖像處理裝置接收監控攝像頭發送的待處理圖像。可選的,該監控攝像頭可能部署於人工智能(artificial intelligence,AI)紅外成像儀、安檢門這類非接觸式測溫產品上(這類產品主要放置在車站、機場、地鐵、商店、超市、學校、公司大廳以及小區門口這些人流量密集的場景)。
在又一種獲取待處理圖像的實現方式中,圖像處理裝置接收監控攝像頭發送的視頻流,對視頻流進行解碼處理,將獲得的圖像作為待處理圖像。可選的,該監控攝像頭可能部署於AI紅外成像儀、安檢門這類非接觸式測溫產品上(這類產品主要放置在車站、機場、地鐵、商店、超市、學校、公司大廳以及小區門口這些人流量密集的場景)。
在又一種獲取待處理圖像的實現方式中,圖像處理裝置與攝像頭相連,圖像處理裝置可從每個攝像頭獲取實時採集的數據幀,數據幀可以包含圖像和/或視頻的形式。
需要理解的是,與圖像處理裝置連接的攝像頭的數量並不是固定的,將攝像頭的網路地址輸入至圖像處理裝置,即可通過圖像處理裝置從攝像頭獲取採集的數據幀。
舉例來說,A地方的人員想要利用本申請提供的技術方案,則只需將A地方的攝像頭的網路地址輸入至圖像處理裝置,即可通過圖像處理裝置獲取A地方的攝像頭採集的數據幀,並可對A地方的攝像頭採集的數據幀進行後續處理,圖像處理裝置輸出額頭是否遮擋的檢測結果。
202、確定上述待處理圖像的待測區域中第一像素點的第一數量,其中,上述第一像素點為顏色值大於等於第二閾值且小於等於第三閾值的像素點。
本申請實例中,顏色值為六角錐體模型((hue,saturation,value,HSV)的參數。這個模型中顏色值的三個參數分別是:色調(hue,H),飽和度(saturation ,S),亮度(value ,V)。也就是說,顏色值攜帶色度、飽和度和亮度三種資訊。因本申請涉及皮膚檢測,故需要檢測待測區域的皮膚像素點的數量,也就是第一像素點的第一數量。
具體的,圖像處理裝置將顏色值大於等於第二閾值且小於等於第三閾值的像素點視為皮膚像素點。即在本申請實施例中,第二閾值和第三閾值用於判斷像素點是否為皮膚像素點。
在確定第一像素點為顏色值大於等於第二閾值且小於等於第三閾值的像素點的實現方式中,當待測區域的像素點的顏色值的所有參數都大於等於第二閾值對應的參數且小於等於第三閾值對應的參數時,才能認為這個像素點是對應皮膚區域未被遮擋的皮膚像素點。舉例說明,設第二閾值的H為26,S為43,V為46,第三閾值的H為34,S為255,V為255。那麼,皮膚像素點的顏色值範圍是H是26至34,S是43至255,V是46至255。當待測區域的某個像素點的顏色值分別為H為25,S為45,V為200時,因為H的值不在設定的H的26至34的範圍內,那麼認為這個像素點不是皮膚像素點。又例如說,當待測區域的某個像素點的顏色值分別為H為28,S為45,V為200時,因為H、S、V的值都在設定的範圍內,那麼認為這個像素點是皮膚像素點。也就是說,將待測區域從RGB通道轉化為HSV通道,只有當待測區域的某個像素點的顏色值都在上述給出的第二閾值和第三閾值的範圍內,才說明這個像素點是對應皮膚區域未被遮擋的皮膚像素點,即這個像素點是第一像素點。
圖像處理裝置在確定待測區域中的第一像素點後,進一步確定第一像素點的數量得到第一數量。
203、依據上述第一數量與上述待測區域內像素點的數量的第一比值和上述第一閾值,得到上述待處理圖像的皮膚遮擋檢測結果。
本申請實施例中,皮膚遮擋檢測結果包括皮膚區域處於被遮擋狀態或皮膚區域處於未被遮擋狀態。
本申請實施例中,第一數量和待測區域內像素點的數量的第一比值,表示待測區域中未被遮擋的皮膚像素點在待測區域內的占比(下文簡稱為占比)。若第一比值表示占比較小,說明待測區域對應的皮膚區域被遮擋,反之,若第一比值表示占比較大,說明待測區域對應的皮膚區域未被遮擋。
本申請實施例中,圖像處理裝置將第一閾值作為判斷占比大小的依據,進而可依據占比大小確定皮膚區域是否被遮擋,從而得到皮膚遮擋檢測結果。
在一種可能實現的方式中,占比未超過第一閾值,說明占比較小,進而確定皮膚區域處於被遮擋狀態。占比超過第一閾值,說明占比較大,進而確定皮膚區域處於未被遮擋狀態。
本申請實施中,圖像處理裝置依據第一閾值,確定待處理圖像的待測區域中皮膚像素點的數量,即第一數量。通過確定第一數量與上述待測區域內像素點的數量的第一比值,得到待測區域內皮膚像素點的占比,進而可依據該占比和第一閾值之間的大小關係,確定皮膚區域的遮擋狀態,從而得到待處理圖像的皮膚遮擋檢測結果。
作為一種可選的實施方式,皮膚區域包括人臉區域,皮膚遮擋檢測結果包括人臉遮擋檢測結果。在該種實施方式中,圖像處理裝置在確定待處理圖像中的人臉區域內的皮膚像素點的數量的情況下,進一步確定人臉區域中皮膚像素點的占比,進而可依據該占比確定人臉區域是否被遮擋,得到人臉遮擋檢測結果。具體的,在確定人臉區域被遮擋的情況下,確定人臉遮擋檢測結果為人臉區域處於被遮擋的狀態;在確定人臉區域未被遮擋的情況下,確定人臉遮擋檢測結果為人臉區域未處於被遮擋的狀態。
在該種實施方式中,在確定待處理圖像的待測區域中第一像素點的第一數量之前,圖像處理裝置還執行以下步驟:
1、對上述待處理圖像進行人臉檢測處理,得到第一人臉框。
本申請實施例中,人臉檢測處理用於識別待處理圖像中是否包含人物對象。
對上述待處理圖像進行人臉檢測處理,得到第一人臉框的坐標(如圖1的D所示)。第一人臉框的坐標可以是左上角坐標、左下角坐標、右下角坐標、右上角坐標。第一人臉框的坐標也可以是一對對角坐標,也就是左上角坐標和右下角坐標或者左下角坐標和右上角坐標。第一人臉框包含的區域是人臉的額頭到下巴的區域。
在一種可能的實現方式中,通過預先訓練好的神經網路對待處理圖像進行特徵提取處理,獲得特徵數據,該預先訓練好的神經網路根據特徵數據中的特徵識別待處理圖像中是否包含人臉。通過對待處理圖像進行特徵提取處理,在特徵提取的數據中確定待處理圖像中包含人臉的情況下,確定上述待處理圖像第一人臉框的位置,也就是實現對人臉的檢測。對待處理圖像進行人臉檢測處理可通過卷積神經網路實現。
通過將多張帶有標註資訊的圖像作為訓練數據,對卷積神經網路進行訓練,使訓練後的卷積神經網路可完成對圖像的人臉檢測處理。訓練數據中的圖像的標註資訊為人臉以及人臉的位置。在使用訓練數據對卷積神經網路進行訓練的過程中,卷積神經網路從圖像中提取出圖像的特徵數據,並依據特徵數據確定圖像中是否有人臉,在圖像中有人臉的情況下,依據圖像的特徵數據得到人臉的位置。以標註資訊為監督資訊監督卷積神經網路在訓練過程中得到的結果,並更新卷積神經網路的參數,完成對卷積神經網路的訓練。這樣,可使用訓練後的卷積神經網路對待處理圖像進行處理,以得到待處理圖像中的人臉的位置。
在另一種可能的實現方式中,人臉檢測處理可通過人臉檢測演算法實現,其中,人臉檢測演算法可以是以下中的至少一種:基於直方圖粗分割和奇異值特徵的人臉檢測演算法、基於二進小波變換的人臉檢測、基於概率決策的神經網路方法(pdbnn)、隱馬爾可夫模型方法(hidden markov model)等,本申請對實現人臉檢測處理的人臉檢測演算法不做具體限定。
2、依據上述第一人臉框,從上述待處理圖像中確定上述人臉區域。
在一種可能的實現方式中,圖像處理裝置將第一人臉框所包圍的區域作為人臉區域。
作為一種可選的實施方式,第一人臉框包括上框線和下框線。或者,第一人臉框包括上框線、下框線、左框線和右框線;上框線和下框線均為上述第一人臉框中平行於待處理圖像的像素坐標系的橫軸的邊,且上框線的縱坐標小於下框線的縱坐標;左框線和右框線均為第一人臉框中平行於待處理圖像的像素坐標系的縱軸的邊,且左框線的橫坐標小於右框線的橫坐標。
在該種實施方式中,人臉區域包括額頭區域,此時圖像處理裝置依據第一人臉框從待處理圖像中確定人臉區域,即依據第一人臉框從待處理圖像中確定額頭區域。
在一種確定額頭區域的實現方式中,上框線和下框線的距離是第一人臉框包含的人臉的額頭上邊沿到下巴下邊沿的距離,左框線和右框線的距離是第一人臉框包含的人臉的左耳內側和右耳內側的距離。一般來說,人臉的額頭區域的寬度(即額頭區域的上下邊沿之間的距離)約占整個人臉的長度(即整個人臉的上下邊沿之間的距離)的1/3,但是額頭區域的寬度占人臉長度的比例是因人而異的。不過,每個人的額頭區域的寬度占整個人臉的長度的比例均在30%到40%的範圍內。在保持上框線的縱坐標不變的情況下,沿著待處理圖像的像素坐標系的縱軸的負方向移動下框線,使得移動後的上框線和下框線的距離為上框線和下框線的初始距離的30%到40%,移動後的第一人臉框包含的區域為額頭區域。在第一人臉框的坐標是一對對角坐標的時候,第一人臉框的左上角的坐標或者第一人臉框的右上角的坐標確定了額頭區域的位置。因此,通過改變第一人臉框的大小和位置,可以使得第一人臉框內的區域為待處理圖像中人臉的額頭區域。
在另一確定額頭區域的實現方式中,圖像處理裝置通過執行以下步驟確定額頭區域:
21、對上述待處理圖像進行人臉關鍵點檢測,得到至少一個人臉關鍵點;上述至少一個人臉關鍵點包括左眉毛關鍵點和右眉毛關鍵點。
本申請實施例中,通過對上述待處理圖像進行人臉關鍵點檢測,得到至少一個人臉關鍵點,至少一個關鍵點包括左眉毛關鍵點和右眉毛關鍵點。
對待處理圖像進行特徵提取處理,獲得特徵數據,可以實現人臉關鍵點檢測。其中,該特徵提取處理可通過預先訓練好的神經網路實現,也可通過特徵提取模型實現,本申請對此不作限定。特徵數據用於提取待處理圖像中人臉的關鍵點資訊。上述待處理圖像為數位圖像,通過對待處理圖像進行特徵提取處理得到特徵數據可以理解為待處理圖像的更深層次的語意資訊。
在一種人臉關鍵點檢測可能的實現方式中,建立訓練用人臉圖像集,標註需要檢測的關鍵點位置。構建第一層深度神經網路並訓練人臉區域估計模型,構建第二層深度神經網路,做人臉關鍵點初步檢測;對內臉區域繼續做局部區域劃分,對每個局部區域分別構建第三層深度神經網路;對每個局部區域估計其旋轉角度,按照估計的旋轉角度做矯正,對每個局部區域的矯正數據集構建第四層深度神經網路。任給一張新的人臉圖像,採用上述四層深度神經網路模型進行關鍵點檢測,即可得到最終的人臉關鍵點檢測結果。
又一種人臉關鍵點檢測可能的實現方式中,通過將多張帶有標註資訊的圖像作為訓練數據,對卷積神經網路進行訓練,使訓練後的卷積神經網路可完成對圖像的人臉關鍵點檢測處理。訓練數據中的圖像的標註資訊為人臉的關鍵點位置。在使用訓練數據對卷積神經網路進行訓練的過程中,卷積神經網路從圖像中提取出圖像的特徵數據,並依據特徵數據確定圖像中人臉的關鍵點位置。以標註資訊為監督資訊監督卷積神經網路在訓練過程中得到的結果,並更新卷積神經網路的參數,完成對卷積神經網路的訓練。這樣,可使用訓練後的卷積神經網路對待處理圖像進行處理,以得到待處理圖像中的人臉的關鍵點位置。
又一種可能的實現方式中,通過至少兩層卷積層對待處理圖像逐層進行卷積處理,完成對待處理圖像的特徵提取處理。至少兩層卷積層中的卷積層依次串聯,即上一層卷一層的輸出為下一層卷積層的輸入,每層卷積層提取出的內容及語意資訊均不一樣,具體表現為,特徵提取處理一步步地將待處理圖像中人臉的特徵抽象出來,同時也將逐步丟棄相對次要的特徵數據,其中,相對次要的特徵數據指除被檢測人臉的特徵數據之外的特徵數據。因此,越到後面提取出的特徵數據的尺寸越小,但內容及語意資訊更濃縮。通過多層卷積層逐級對待處理圖像進行卷積處理,可在獲得待處理圖像中的內容資訊及語意資訊的同時,將待處理圖像的尺寸縮小,減小圖像處理裝置的數據處理量,提高圖像處理裝置的運算速度。
又一種人臉關鍵點檢測可能的實現方式中,卷積處理的實現過程如下:通過使卷積核在待處理圖像上滑動,並將待處理圖像上與卷積核的中心像素對應的像素稱為目標像素。將待處理圖像上的像素值與卷積核上對應的數值相乘,然後將所有相乘後的值相加得到卷積處理後的像素值。將卷積處理後的像素值作為目標像素的像素值。最終滑動處理完待處理圖像,更新待處理圖像中所有像素的像素值,完成對待處理圖像的卷積處理,得到特徵數據。在一種可能的實現方式中,通過提取出特徵數據的神經網路對特徵數據中的特徵進行識別,可獲得待處理圖像中人臉的關鍵點資訊。
又一種人臉關鍵點檢測可能的實現方式中,採用人臉關鍵點檢測演算法實現人臉關鍵點檢測,採用的人臉關鍵點檢測演算法可以是OpenFace、多任務級聯卷積神經網路(multi-task cascaded convolutional networks,MTCNN)、調整卷積神經網路(tweaked convolutional neural networks,TCNN)、或任務約束深度卷積神經網路(tasks-constrained deep convolutional network,TCDCN)中的至少一種,本申請對人臉關鍵點檢測演算法不做限定。
22、在保持上述第一人臉框的上框線的縱坐標不變的情況下,將上述第一人臉框的下框線沿上述待處理圖像的像素坐標系的縱軸的負方向移動,使得上述第一人臉框的下框線所在直線與第一直線重合,得到第二人臉框。其中,第一直線為過上述左眉毛關鍵點和上述右眉毛關鍵點的直線。
23、依據上述第二人臉框包含的區域,得到上述額頭區域。
本申請實施例中,上述上框線和上述下框線的距離是上述第一人臉框包含的人臉的額頭上邊沿到下巴下邊沿的距離,上述左框線和上述右框線的距離是上述第一人臉框包含的人臉的左耳內側和右耳內側的距離。第一直線是過上述左眉毛關鍵點和上述右眉毛關鍵點的直線。因為額頭區域在第一人臉框包含的第一直線的上方,因此移動上述下框線至與第一直線重合,就可以使得移動後的第一人臉框包含的區域為額頭區域。也就是在保持上述上框線的縱坐標不變的情況下,將上述下框線沿著上述待處理圖像的像素坐標系的縱軸的負方向移動,使得移動後的上述下框線所在直線與上述第一直線重合,得到第二人臉框。第二人臉框包含的區域為額頭區域。
作為一種可選的實施方式,圖像處理裝置在執行步驟23的過程中執行以下步驟:
24、在保持上述第二人臉框的下框線的縱坐標不變的情況下,將上述第二人臉框的上框線沿上述待處理圖像的像素坐標系的縱軸移動,使得上述第二人臉框的上框線和上述第二人臉框的下框線的距離為預設距離,得到第三人臉框。
25、依據上述第三人臉框包含的區域,得到額頭區域。
本申請實施例中,第二人臉框的左框線和第二人臉框的右框線的距離為第二人臉框包含的人臉的左耳內側到右耳內側的距離。第一人臉框的上框線和第一人臉框的下框線的距離為第一人臉框包含的人臉的額頭上邊沿到下巴下邊沿的距離,一般來說額頭區域的寬度大約占整個人臉的長度的1/3,但每個人的額頭區域的寬度占人臉長度的比例不一樣,不過,所有人的額頭區域的寬度與人臉長度的比例均在30%到40%的範圍內。因此,設置預設距離為第一人臉框的上框線和第一人臉框的下框線的距離的30%到40%。因此要讓第二人臉框內的區域為額頭區域,需要把第二人臉框的上框線和第二人臉框的下框線之間的距離縮小到上述第一人臉框的上框線和下框線之間的距離的30%到40%。在保持第二人臉框的下框線的縱坐標不變的情況下,將第二人臉框的上框線沿著上述待處理圖像的像素坐標系的縱軸移動,使得上述第二人臉框的上框線和上述第二人臉框的下框線之間的距離為預設距離,得到第三人臉框。此時,第三人臉框包含的區域為額頭區域。
作為一種可選的實施方式,圖像處理裝置在執行步驟25的過程中執行以下步驟:
26、在保持上述第三人臉框的左框線的橫坐標不變的情況下,將上述第三人臉框的右框線沿上述待處理圖像的像素坐標系的橫軸移動,使得上述第三人臉框的右框線和上述第三人臉框的左框線之間的距離為參考距離,得到第四人臉框。其中,上述參考距離為第二直線與上述第三人臉框包含的人臉輪廓的兩個交點之間的距離,上述第二直線為在上述第一直線和第三直線之間且平行於上述第一直線或上述第三直線的直線,上述第三直線為過左嘴角關鍵點和右嘴角關鍵點的直線。
27、將上述第四人臉框包含的區域作為上述額頭區域。
本申請實施例中,上述至少一個人臉關鍵點還包括左嘴角關鍵點和右嘴角關鍵點。第三直線為過上述左嘴角關鍵點和右嘴角關鍵點的直線。第二直線在上述第一直線和第三直線之間,且第二直線平行於上述第一直線或者第三直線。將第二直線與上述第三人臉框包含的人臉圖像的人臉輪廓的兩個交點之間的距離作為參考距離。第二直線在第一直線和第三直線之間,也就是在眉毛區域和嘴巴區域的中間區域。因為眉毛區域和嘴巴區域的中間區域的人臉寬度是與額頭區域的長度比較接近的,採用這部分區域的寬度來確定額頭區域的長度是比較準確的。此時,額頭區域的長度為人臉輪廓的寬度,也就是參考距離。在保持上述第三人臉框的左框線的橫坐標不變的情況下,將上述第三人臉框的右框線沿著上述待處理圖像的像素坐標系的橫軸移動,使得上述第三人臉框的左框線和上述第三人臉框的右框線之間的距離為參考距離,得到第四人臉框。此時,第四人臉框包含的區域為額頭區域。
又一種可能的實現方式中,在保持上述第三人臉框的右框線的橫坐標不變的情況下,將上述第三人臉框的左框線沿著上述待處理圖像的像素坐標系的橫軸移動,使得移動後的上述第三人臉框的左框線和上述第三人臉框的右框線之間的距離為參考距離,移動後的上述第三人臉框包含的區域為額頭區域。
又一種可能的實現方式中,將上述第三人臉框的右框線沿著上述待處理圖像的像素坐標系的橫軸的負方向移動第三人臉框的左框線和右框線之間的距離與參考距離差值的一半的同時,將上述第三人臉框的左框線沿著上述待處理圖像的像素坐標系的橫軸的正方向移動第三人臉框的左框線和右框線之間的距離與參考距離差值的一半,使得移動後的上述第三人臉框的左框線和移動後的上述第三人臉框的右框線之間的距離為參考距離。此時,移動後的上述第三人臉框包含的區域為額頭區域。
作為一種可選的實施方式,在確定待處理圖像的待測區域中第一像素點的第一數量之前,圖像處理裝置還執行以下步驟:
3、從上述第一人臉框包含的像素點區域中確定皮膚像素點區域。
本申請實施例中,因為要找到皮膚區域中露出的皮膚的顏色基準,需要取皮膚像素點區域中的像素點的顏色值作為皮膚區域中露出的皮膚的顏色基準。因此,需要從上述第一人臉框包含的像素點區域中確定皮膚像素點區域。舉例說明,如圖1所示,皮膚像素點區域可以是第一人臉框包含的眼睛下方的臉頰區域,也可以是第一人臉框包含的鼻子下方區域和嘴巴上方區域的交集區域,還可以是第一人臉框包含的嘴巴下方區域。
作為一種可選的實施方式,在從上述人臉框包含的像素點區域中確定皮膚像素點區域之前,圖像處理裝置還執行以下步驟:
31、對上述待處理圖像進行口罩佩戴檢測處理,得到檢測結果。
本申請實施例中,對待處理圖像進行口罩佩戴檢測,得到檢測結果包括:待處理圖像中的人物已佩戴口罩或待處理圖像中的人物未佩戴口罩。
在一種可能實現的方式中,圖像處理裝置對待處理圖像進行第一特徵提取處理,得到第一特徵數據,其中,第一特徵數據攜帶待檢測人物是否佩戴口罩的資訊。圖像處理裝置依據口罩佩戴檢測得到的第一特徵數據,得到檢測結果。
可選的,第一特徵提取處理可通過口罩檢測網路實現。通過將至少一張帶有標註資訊的第一訓練圖像作為訓練數據,對深度卷積神經網路進行訓練可得到口罩檢測網路。其中,標註資訊包括第一訓練圖像中的人物是否佩戴口罩。
32、在檢測結果為上述人臉區域未佩戴口罩的情況下,將人臉區域中除額頭區域、嘴巴區域、眉毛區域和眼睛區域之外的像素點區域,作為上述皮膚像素點區域。其中,上述至少一個人臉關鍵點還包括左眼下眼瞼關鍵點、右眼下眼瞼關鍵點。
在檢測結果為上述人臉區域佩戴口罩的情況下,將人臉區域中上述第一直線和第四直線之間的像素點區域作為皮膚像素點區域。其中,第四直線為過左眼下眼瞼關鍵點和右眼下眼瞼關鍵點的直線;左眼下眼瞼關鍵點和右眼下眼瞼關鍵點均屬上述至少一個人臉關鍵點。
本申請實施例中,在檢測結果是人臉區域沒有佩戴口罩的情況下,人臉區域的皮膚像素點區域為除了皮膚區域、嘴巴區域、眉毛區域以及眼睛區域以外的區域。因為人臉區域在眼睛區域和眉毛區域帶有顏色值顯示為黑色的像素點以及在嘴巴的區域帶有顏色值顯示為紅色的像素點。因此,皮膚像素點區域不包括眼睛區域、嘴巴區域和眉毛區域。又因為在不確定皮膚區域是否處於戴帽子或者有劉海等的遮擋情況下,無法判斷皮膚區域對應的皮膚像素點區域。因此,對待處理圖像進行口罩佩戴檢測處理確定上述人臉區域未佩戴口罩的情況下,皮膚像素點區域包括人臉區域中除皮膚區域、嘴巴區域、眉毛區域、眼睛區域之外的像素點區域。
在檢測結果是人臉區域佩戴口罩的情況下,人臉區域的鼻子以下大部分區域會被遮擋。所以,皮膚未被遮擋部分可以是眉心區域、眼皮區域、鼻根區域。人臉關鍵點檢測可以得到左眼下眼瞼關鍵點坐標、右眼下眼瞼關鍵點坐標、左眉毛關鍵點坐標和右眉毛關鍵點坐標。第四直線是過左眼下眼瞼關鍵點和右眼下眼瞼關鍵點的直線,第一直線是過左眉毛關鍵點和右眉毛關鍵點的直線。眉心區域、眼皮區域、鼻根區域這三部分區域都在人臉區域內左眉毛和右眉毛確定的水平線與左眼下眼瞼和右眼下眼瞼確定的直線之間。因此,在上述檢測結果為人臉區域佩戴口罩的情況下,將人臉區域中第一直線與第四直線之間的像素點區域作為上述皮膚像素點區域。
4、獲取皮膚像素點區域中第二像素點的顏色值;
本申請實施例中,從皮膚像素點區域中獲取第二像素點的顏色值,這裡第二像素點的顏色值是作為衡量皮膚區域露出的皮膚顏色的基準。因此,第二像素點可以是皮膚像素點區域中的任意一點。
獲取皮膚像素點區域中第二像素點的實現方式可以是:找到某個皮膚像素點區域的坐標平均值作為第二像素點;又或者找到一些關鍵點確定的直線的交點坐標處的像素點作為第二像素點;又或者是對一部分皮膚像素點區域的圖像進行灰度化處理,將灰度值最大的像素點作為第二像素點。本申請實施例對獲取第二像素點的方式不做限定。
一種可能的實現方式中,在右眉內側區域和左眉內側區域分別有兩個關鍵點的情況下,設關鍵點為右眉內側上方點、右眉內側下方點、左眉內側上方點、左眉內側下方點。將右眉內側上方點和左眉內側下方點相連,左眉內側上方點和右眉內側下方點相連,獲得兩條相交的直線。通過這兩條相交的直線可以獲得唯一交點。如圖所示,假設這四個關鍵點對應的編號分別為37、38、67、68。也就是將關鍵點37和68相連,關鍵點38和67相連,確定這兩條直線後就可以得到一個交點。基於人臉框的位置,可以確定37、38、67、68這四個關鍵點的坐標,然後可以利用Opencv求解出交點的坐標。通過確定交點的坐標,就可以得到交點對應的像素點。將交點對應的像素點的RGB通道轉換成HSV通道,就可以獲取交點坐標對應的像素點的顏色值。交點坐標對應的像素點的顏色值就是第二像素點的顏色值。
又一種可能的實現方式中,在右眉內側區域和左眉內側區域分別有兩個關鍵點的情況下,設關鍵點為右眉內側上方點、右眉內側下方點、左眉內側上方點、左眉內側下方點。通過這4個關鍵點求一個矩形區域為眉心區域。如圖所示,假設這四個關鍵點對應的編號分別為37、38、67、68,通過這四個關鍵點求一個矩形區域為眉心區域。獲取關鍵點37、38、67、68的坐標分別定為(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)。取(X1,Y1),(X2,Y2)中Y坐標的最大值為Y5,取(X3,Y3)、(X4,Y4)中Y坐標的最小值為Y6,取(X1,Y1)、(X3,Y3)中X坐標的最大值為X5,取(X2,Y2)、(X4,Y4)中X坐標的最小值為X6,因此可以得到矩形區域。也就是截取的眉心區域的4個坐標為(X6,Y6)、(X5,Y5)、(X5,Y6)、(X6,Y5)。基於人臉框的位置,可以確定37、38、67、68這四個關鍵點的坐標,就可以確定(X6,Y6)、(X5,Y5)、(X5,Y6)、(X6,Y5)這四個點的位置。將(X6,Y6)、(X5,Y5)相連,(X5,Y6)、(X6,Y5)相連,獲得兩條直線,通過這兩個直線可以獲得一個唯一交點。然後,可以利用Opencv求解出交點的坐標。通過確定交點的坐標,就可以得到交點對應的像素點。將交點對應的像素點的RGB通道轉換成HSV通道,就可以獲取交點坐標對應的像素點的顏色值。交點坐標對應的像素點的顏色值就是第二像素點的顏色值。
作為一種可選的實施方式,圖像處理裝置在執行步驟4的過程中執行以下步驟:
41、在上述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點,且包含屬右眉內側區域中的至少一個第二關鍵點的情況下,根據上述至少一個第一關鍵點和上述至少一個第二關鍵點確定矩形區域。
42、對上述矩形區域進行灰度化處理,得到矩形區域的灰度圖。
43、將矩形區域的灰度圖中第一行和第一列的交點的顏色值作為上述第二像素點的顏色值,其中,第一行為上述灰度圖中灰度值之和最大的行,第一列為上述灰度圖中灰度值之和最大的列。
本申請實施例中,包含多種根據上述至少一個第一關鍵點和上述至少一個第二關鍵點,獲取一個矩形區域的多種方案。對這個矩形區域進行灰度化處理,得到矩形區域的灰度圖。計算灰度圖的每一行的灰度值之和,記取得灰度值之和最大的行是第一行。同理,計算灰度圖的每一列的灰度值之和,記取得灰度值之和最大的列是第一列。根據灰度值之和最大的行和最大的列,找到交點坐標。也就是第一行和第一列交點坐標。通過確定交點的坐標,就可以得到交點對應的像素點。將交點對應的像素點的RGB通道轉換成HSV通道,就可以獲取交點對應的像素點的顏色值。交點坐標對應的像素點的顏色值就是第二像素點的顏色值。
一種獲取矩形區域可能的實現方式中,在左眉內側關鍵點和右眉內側關鍵點各自只有一個且這兩個關鍵點的縱坐標不一致的情況下,以這兩個關鍵點縱坐標的差值作為矩形區域的寬度,以這兩個關鍵點橫坐標的差值作為矩形區域的長,確定出一個以這兩個關鍵點為對角的矩形區域。
又一種獲取矩形區域的可能的實現方式中,在左眉內側關鍵點有兩個且右眉內側關鍵點有一個的情況下,將左眉內側的兩個關鍵點的連線作為矩形區域的第一條邊長,在左眉內側的兩個關鍵點中選取一個與右眉內側關鍵點縱坐標不一致的關鍵點,將其與右眉內側關鍵點的連線作為矩形區域的第二條邊長。根據確定的第一條邊長和第二條邊長分別作平行線,可以得到矩形區域剩下的兩條邊長,從而確定出矩形區域。
又一種獲取矩形區域的可能實現方式中,在左眉內側區域關鍵點和右眉內側區域關鍵點分別有兩個以上的情況下,可以選擇其中的四個關鍵點組成一個四邊形區域。然後再根據這四個關鍵點的坐標得到矩形區域。
又一種獲取矩形區域的可能的實現方式中,至少一個第一關鍵點包括第三關鍵點和第四關鍵點;至少一個第二關鍵點包括第五關鍵點和第六關鍵點;第三關鍵點縱坐標小於第四關鍵點;第五關鍵點縱坐標小於第六關鍵點;第一橫坐標和第一縱坐標確定第一坐標;第二橫坐標和第一縱坐標確定第二坐標;第一橫坐標和第二縱坐標確定第三坐標;第二橫坐標和第二縱坐標確定第四坐標;第一縱坐標為第三關鍵點和第五關鍵點的縱坐標的最大值;第二縱坐標為第四關鍵點和第六關鍵點的縱坐標的最小值;第一橫坐標為第三關鍵點和第四關鍵點的橫坐標的最大值;第二橫坐標為第五關鍵點和第六關鍵點的橫坐標的最小值;第一坐標、第二坐標、第三坐標和第四坐標圍成的區域作為矩形區域。舉例說明,在左眉內側區域關鍵點和右眉內側區域關鍵點分別有兩個的情況下,設這四個關鍵點分別為第三關鍵點(X1,Y1)、第五關鍵點(X2,Y2)、第四關鍵點(X3,Y3)、第六關鍵點(X4,Y4)。取(X1,Y1),(X2,Y2)中Y坐標的最大值為Y5,作為第一縱坐標;取(X3,Y3)、(X4,Y4)中Y坐標的最小值為Y6,作為第二縱坐標;取(X1,Y1)、(X3,Y3)中X坐標的最大值為X5,作為第一橫坐標;取(X2,Y2)、(X4,Y4)中X坐標的最小值為X6,作為第二橫坐標。因此可以得到矩形區域的4個坐標為第一坐標(X5,Y5)、第二坐標(X6,Y5)、第三坐標(X5,Y6)、第四坐標(X6,Y6)。
作為另一種可選的實施方式,圖像處理裝置在執行步驟4的過程中執行以下步驟:
44、在上述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點,且上述至少一個人臉關鍵點包含屬右眉內側區域中的至少一個第二關鍵點的情況下,確定至少一個第一關鍵點和至少一個第二關鍵點的平均值坐標。
45、將依據平均值坐標確定的像素點的顏色值作為上述皮膚像素點區域中第二像素點的顏色值。
本申請實施例中,在上述至少一個人臉關鍵點包含屬右眉內側區域中的至少一個第二關鍵點,且上述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點的情況下,對至少一個第一關鍵點和至少一個第二關鍵點的坐標求平均值。例如,在右眉內側區域和左眉內側區域的關鍵點坐標分別有兩個的時候,設右眉內側區域和左眉內側區域的關鍵點為右眉內側上方點、右眉內側下方點、左眉內側上方點、左眉內側下方點四個點。如圖4所示,假設這四個點對應的編號分別為37、38、67、68。獲取37、38、67、68的坐標分別為(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4),分別對這四個坐標的橫坐標和縱坐標相加求平均值,得到平均值坐標為(X0,Y0)。將像素點的RGB通道轉換成HSV通道,根據平均值坐標就可以獲取平均值坐標為(X0,Y0)對應的像素點的顏色值。平均值坐標對應的像素點的顏色值就是第二像素點的顏色值。
作為又一種可選的實施方式,圖像處理裝置在執行步驟4的過程中執行以下步驟:
46、依據右眉內側關鍵點和鼻根左側關鍵點坐標確定第五直線;依據左眉內側關鍵點和鼻根右側關鍵點坐標確定第六直線。
47、將依據第五直線和第六直線的交點坐標確定的像素點的顏色值,作為皮膚像素點區域中第二像素點的顏色值。
本申請實施例中,上述至少一個人臉關鍵點還包括右眉內側關鍵點、鼻根左側關鍵點、鼻根右側關鍵點和左眉內側關鍵點。將右眉內側關鍵點和鼻根左側關鍵點相連,將左眉內側關鍵點與鼻根右側關鍵點相連,獲得兩條相交的直線分別為第五直線和第六直線。本申請對右眉內側關鍵點和左眉內側關鍵點不做限定,右眉內側關鍵點是在右眉內側區域取的任意一個關鍵點,左眉內側關鍵點是在左眉內側區域取的任意一個關鍵點。如圖4所示,假設這四個關鍵點對應的編號分別為67、68、78、79時,也就是將關鍵點78和68相連,將關鍵點79和67相連,確定這兩條直線後就可以得到一個交點。基於人臉框的位置,可以確定67、68、79、78這四個關鍵點的坐標,然後可以利用Opencv求解出交點的坐標。通過確定交點的坐標,就可以得到交點對應的像素點。將交點對應的像素點的RGB通道轉換成HSV通道,就可以獲取交點坐標對應的像素點的顏色值。交點坐標對應的像素點的顏色值就是第二像素點的顏色值。
5、將上述第二像素點的顏色值與第一值的差作為第二閾值,將第二像素點的顏色值與第二值的和作為第三閾值,其中,上述第一值和上述第二值均不超過待處理對象的顏色值中的最大值。
本申請實施例中,確定第二像素點的顏色值就能確定第二閾值和第三閾值。通過Opencv演算法的函數可以把圖像的表示形式從RGB通道圖轉換到HSV通道圖,從而得到第二像素點的顏色值。
顏色值包括色度、亮度、飽和度三個參數值。其中,色度的範圍是0至180,亮度和飽和度的範圍均是0至255。也就是說顏色值的色度最大值是180,亮度和飽和度的最大值是255。需要理解的是,第一值和第二值也分別包括了色度、亮度、飽和度三個參數。因此,第一值的色度和第二值的色度均不超過180,第一值的亮度和第二值的亮度均不超過255,第一值的飽和度和第二值的飽和度均不超過255。一般來說,第一值和第二值的色度、亮度、飽和度三個參數值是一致的。也就是說第二像素點的顏色值的色度、亮度、飽和度三個參數值是第二閾值和第三閾值對應的色度、亮度、飽和度三個參數值的中間值。
在一種獲取第二像素點的顏色值和第二閾值以及第三閾值的映射關係的實現方式中,通過機器學習的二分類演算法,例如Logistic 迴歸、樸素貝葉斯演算法,根據輸入某個顏色的顏色值判斷這個顏色是否屬第二像素點的顏色值進行分類。也就是輸入一堆顏色值,對這些顏色值是否屬第二像素點的顏色值進行分類,確定在哪些顏色值是屬第二像素點的顏色值。通過機器演算法可以得到第二像素點的顏色值與第二閾值、第三閾值的映射關係。
可選的,第一值和第二值對應的色度、亮度、飽和度三個參數值分別為30、60、70。也就是說,得到第二像素點的顏色值後,對應的第二閾值是對色度減少30,亮度減少60,飽和度減少70,對應的第三閾值是對色度增加30,亮度增加60,飽和度增加70。
作為一種可選的實施方式,圖像處理裝置在執行步驟203的過程中執行以下步驟:
6、在上述第一數量與上述待測區域內像素點的數量的第一比值超過第一閾值的情況下,確定上述皮膚遮擋檢測結果為上述皮膚區域處於未遮擋狀態。
本申請實施例中,圖像處理裝置根據第一數量和待測區域內像素點的數量的第一比值是否超過第一閾值的結果,判斷皮膚區域是否處於遮擋狀態。在第一比值比第一閾值小的情況下,確定上述皮膚遮擋檢測結果為皮膚區域處於遮擋狀態。舉例說明,第一數量為50,待測區域內像素點的數量為100,第一閾值為60%。因為第一比值為50/100=50%,小於60%。那麼認為皮膚遮擋檢測結果為皮膚區域處於遮擋狀態。
在皮膚遮擋檢測結果為皮膚區域處於遮擋的情況下,圖像處理裝置輸出需要露出皮膚的提示資訊。可以根據露出皮膚的提示資訊,露出皮膚後再重新進行皮膚遮擋檢測,或者進行其他的操作。本申請不做限定。
7、在上述第一比值超過上述第一閾值的情況下,確定上述皮膚遮擋檢測結果為上述皮膚區域處於未遮擋狀態。
本申請實施例中,圖像處理裝置根據第一數量和待測區域內像素點的數量的第一比值等於或者大於第一閾值的結果,確定上述皮膚遮擋檢測結果為皮膚區域處於未遮擋狀態。舉例說明,第一數量為60,待測區域內像素點的數量為100,第一閾值為60%。因為第一比值為60/100=60%,等於60%。那麼認為皮膚遮擋檢測結果為皮膚區域處於未遮擋狀態。又或者,第一數量為70,待測區域內像素點的數量為100,第一閾值為60%。因為第一比值為70/100=70%,大於60%,那麼認為皮膚遮擋檢測結果為皮膚區域處於未遮擋狀態。
在確定皮膚遮擋檢測結果為皮膚區域處於未遮擋狀態的情況下,可以實行測溫的操作或者其他的操作。如果在皮膚遮擋檢測結果為皮膚區域處於未遮擋狀態的情況下進行測溫,可以提高檢測溫度的準確性。對於皮膚遮擋檢測結果為皮膚區域處於未遮擋狀態的情況下進行的後續操作,本申請在這裡不做限定。
作為一種可選的實施方式,圖像處理裝置還執行以下步驟:
8、獲取上述待處理圖像的溫度熱力圖。
本申請實施例中的圖像處理方法可用於測溫領域,上述皮膚區域屬待檢測人物。溫度熱力圖中的每個像素點都攜帶對應像素點的溫度資訊。可選的,溫度熱力圖由圖像處理裝置上的紅外熱成像設備採集得到。圖像處理裝置通過對溫度熱力圖和待處理圖像進行圖像匹配處理,從溫度熱力圖中確定與上述待處理圖像的人臉區域對應的像素點區域,得到在溫度熱力圖上的待處理圖像的人臉區域對應的像素點區域。
9、在上述皮膚遮擋檢測結果為上述皮膚區域處於未遮擋狀態的情況下,從上述溫度熱力圖中讀取上述皮膚區域的溫度,作為上述待檢測人物的體溫。
在本申請通過檢測待測對象的額頭區域溫度確定其體溫的實施例中,在上述皮膚遮擋檢測結果為皮膚區域處於未被遮擋狀態的情況下,從溫度熱力圖中先找到與上述待處理圖像的人臉區域對應的像素點區域,一般來說皮膚區域是位於整個人臉區域的上30%至40%的部分,因此可以獲取溫度熱力圖中皮膚區域對應的溫度。可以將皮膚區域的平均值溫度作為上述待檢測人物的體溫,也可以將皮膚區域的最高溫度作為上述待檢測人物的體溫,本申請不做限定。
請參閱圖3,圖3是本申請實施例提供的一種應用圖像處理方法的流程示意圖。
基於本申請實施例提供的圖像處理方法,本申請實施例還提供了一種圖像處理方法可能的應用場景。
在使用熱成像設備對行人進行非接觸測溫的時候,一般測量的是行人額頭區域的溫度。但是行人有劉海遮擋額頭或戴帽子時,因為無法確定額頭區域是否處於遮擋狀態,會對測溫帶來一定程度的干擾,這給當前的測溫工作帶來了一定挑戰。因此,在測溫前對行人進行額頭遮擋狀態檢測,在額頭區域處於未遮擋的狀態下,對行人的額頭區域進行測溫,能夠提高測溫的準確性。
如圖3所示,圖像處理裝置獲取相機幀數據,也就是一張待處理圖像。對待處理圖像進行人臉檢測,如果人臉檢測的結果為待處理圖像中不存在人臉,那麼圖像處理裝置重新去獲取一張待處理圖像。如果人臉檢測的結果為存在人臉,那麼圖像處理裝置就將待處理圖像輸入到已經訓練好的神經網路,可以輸出待處理圖像的人臉框(如圖1的D所示)和人臉框坐標(如圖1所示)以及106個關鍵點的坐標(如圖4所示)。需要理解的是,人臉框的坐標可以是一對對角坐標包括左上角坐標和右下角坐標或者左下角坐標和右上角坐標,本申請實施例為便於理解給出了人臉框的四個角點坐標(如圖1所示)。本申請實施例中輸出待處理圖像的人臉框坐標和106個關鍵點坐標的神經網路可以是一個神經網路,也可以是分別實現人臉檢測和人臉關鍵點檢測的兩個神經網路的串聯。
為了檢測額頭區域露出的皮膚區域,以眉心區域的最亮像素點的顏色值作為額頭區域露出的皮膚區域的顏色值基準。最亮像素點是上述第二像素點。因此需要先獲取眉心區域。通過人臉關鍵點檢測,獲取左眉毛內側區域和右眉毛內側的關鍵點。在右眉毛內側區域和左眉毛內側區域分別有兩個關鍵點的情況下,關鍵點為右眉內側上方點、右眉內側下方點、左眉內側上方點、左眉內側下方點。通過這四個關鍵點求一個矩形區域為眉心區域。本申請實施例以106個關鍵點坐標為例,右眉內側上方點、右眉內側下方點、左眉內側上方點、左眉內側下方點對應的也就是37、38、67、68這四個關鍵點。需要理解的是,這裡的關鍵點的數量和關鍵點的編號並不構成限定,只要是分別取右眉內側區域和左眉內側區域的兩個關鍵點都是本申請所要求保護的範圍。
通過獲取37、38、67、68關鍵點的坐標分別定為(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)。取(X1,Y1),(X2,Y2)中Y坐標的最大值為Y5取(X3,Y3)、(X4,Y4)中Y坐標的最小值為Y6,取(X1,Y1)、(X3,Y3)中X坐標的最大值為X5,取(X2,Y2)、(X4,Y4)中X坐標的最小值為X6。把得到的X5、X6坐標和Y5、Y6坐標進行組合,得到四個坐標。根據這四個坐標就可以確定一個矩形區域。其中,矩形區域的四個頂點坐標為(X6,Y6)、(X5,Y5)、(X5,Y6)、(X6,Y5),這個矩形區域也就是要截取的眉心區域。通過人臉的關鍵點檢測可以確定37、38、67、68這四個點的坐標,那麼就可以確定(X6,Y6)、(X5,Y5)、(X5,Y6)、(X6,Y5)這四個點的位置。截取根據這四個點確定的矩形區域,獲取眉心區域。
獲取眉心區域後,需要找到眉心區域中的最亮像素點。因此對眉心區域進行灰度化處理,得到眉心區域的灰度圖。本申請實例中,灰度化處理就是讓像素點矩陣中的每一個像素點都滿足下面的關係:R=G=B。也就是讓紅色變量的值,綠色變量的值和藍色變量的值相等。這個“=”的意思是數學中的相等,此時的這個值叫做灰度值。一般灰度處理經常使用兩種方法來進行處理:
方法一:灰度化後的R=灰度化後的G=灰度化後的B=(處理前的R + 處理前的G +處理前的B)/ 3
舉例說明:圖片A的像素點m的R為100,G為120,B為110。也就是說,在灰度化處理前像素點m的R為100,G為120,B為110。那麼對圖片A進行灰度化處理,灰度化處理後像素點m的R=G=B=(100+120+110)/ 3=110。
方法二:灰度化後的R = 灰度化後的G =灰度化後的B = 處理前的R * 0.3+ 處理前的G * 0.59 +處理前的B * 0.11
舉例說明:圖片A的像素點m的R為100,G為120,B為110。也就是說,在灰度化處理前像素點m的R為100,G為120,B為110。那麼對圖片A進行灰度化處理,灰度化處理後像素點m的R=G=B=100*0.3+120*0.59+110*0.11=112.9。
還可以採用Opencv函數對眉心區域進行灰度化處理,本申請中對眉心區域的灰度化處理方法不做限定。為了求出最亮像素點的顏色值,也就是找到眉心區域灰度化處理後的灰度值最大的像素點的顏色值。對眉心區域的灰度圖的每一行的灰度值進行相加,記錄取得灰度值之和最大的行的坐標。同理,對眉心區域的灰度圖像的每一列的灰度值進行相加,記錄取得灰度值之和最大的列的坐標。通過獲得灰度值之和最大行和最大列的坐標確定的交點坐標,得到眉心區域最亮像素點的坐標。通過RGB和HSV的轉換關係,找到眉心區域最亮像素點的RGB值可以通過公式轉換得到對應的HSV值,也可以通過opencv的cvtcolor函數將眉心區域的RGB通道轉換為HSV通道,找到最亮像素點的HSV值。因為眉心區域最亮像素點的HSV值和第二閾值以及第三閾值具有確定的關係,也就是說眉心區域最亮像素點的HSV值可以確定對應的第二閾值和第三閾值。
獲取額頭區域需要確定額頭區域的大小和位置。額頭區域的長度是人臉的寬度。通過計算關鍵點0和關鍵點32的距離,縮小人臉框使得人臉框的左框線和右框線的距離為關鍵點0和關鍵點32之間的距離。也就是說,把關鍵點0和關鍵點32的之間的距離作為額頭區域的長度。額頭區域的寬度約占整個人臉框的1/3,雖然每個人的額頭區域的寬度占整個人臉的長度的比例是不一樣的,但是額頭區域的寬度幾乎都在人臉長度的30%到40%的範圍內。因此,把人臉框的上框線和下框線之間的距離縮小到原人臉框的上框線和下框線之間距離的30%到40%,作為額頭區域的寬度。額頭區域是位於眉毛以上的區域。這裡關鍵點35和40確定的水平線是眉毛的位置。因此移動改變大小的人臉框,使得改變大小的人臉框的下框線位於35和40這兩個關鍵點確定的水平線,得到改變位置和大小的人臉框。改變大小和位置的人臉框所包含的矩形區域就是額頭區域。
截取額頭區域,然後根據第二閾值和第三閾值對額頭區域進行二值化,得到額頭區域的二值化圖像。這裡採用二值化圖像,可以減少數據處理量,加快圖像處理裝置檢測額頭區域的速度。二值化的標準就是:額頭區域的某個像素點的HSV值大於等於第二閾值且小於等於第三閾值,那麼這個像素點的灰度值為255,額頭區域的某個像素點的HSV值小於第二閾值或者大於第三閾值,那麼這個像素點的灰度值為0。首先,把額頭區域圖像從RGB通道圖轉換成HSV通道圖。然後,統計額頭區域灰度值為255的像素點的數量,也就是灰度圖中顏色為白色的像素點的數量。在白色的像素點的數量與額頭區域內的像素點的數量之比達到閾值的情況下,認為額頭區域處於未被遮擋的狀態,因此進行熱力成像測溫操作。在白色的像素點的數量與額頭區域內的像素點的數量之比沒有達到閾值的情況下,認為額頭區域處於遮擋狀態,此時進行測溫操作會影響測溫的準確性,因此輸出需要露出額頭的提示,並且需要圖像處理裝置重新獲取一張圖像重新進行額頭遮擋狀態檢測。舉例說明:假設第二閾值為(100,50,70),第三閾值為(120,90,100),額頭區域的像素點q的顏色值為(110,60,70),額頭區域的像素點p的顏色值為(130,90,20)。那麼q在第二閾值和第三閾值的範圍內,p不在第二閾值和第三閾值的範圍內。在進行額頭區域二值化處理的時候,像素點q的灰度值為255,像素點p的灰度值為0。假設閾值為60%,額頭區域內像素點的數量為100,白色像素點的數量為50,那麼白色像素點的數量和額頭區域內像素點的數量的比值為50%,沒有達到閾值,額頭區域處於遮擋狀態,因此輸出需要露出額頭的提示。
本領域技術人員可以理解,在上述方法的具體實施方式中,各步驟的撰寫順序並不意味著嚴格的執行順序而對實施過程構成任何限定,各步驟的具體執行順序應當以其功能和可能的內在邏輯確定。
上述詳細闡述了本申請實施例的方法,下面提供了本申請實施例的裝置。
請參閱圖5,圖5為本申請實施例提供的一種圖像處理裝置的結構示意圖,其中,該裝置1包括獲取單元11、第一處理單元12、檢測單元13,可選的,圖像處理裝置1還包括第二處理單元14、確定單元15、第三處理單元16,第四處理單元17,其中:獲取單元11,用於獲取待處理圖像、第一閾值、第二閾值和第三閾值,所述第一閾值和所述第二閾值不同,所述第一閾值和所述第三閾值不同,所述第二閾值小於等於所述第三閾值;第一處理單元12,用於確定所述待處理圖像的待測區域中第一像素點的第一數量;所述第一像素點為顏色值大於等於第二閾值且小於等於第三閾值的像素點;檢測單元13,用於依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果。
結合本申請任一實施方式,所述待測區域包括人臉區域,所述皮膚遮擋檢測結果包括人臉遮擋檢測結果;所述圖像處理裝置還包括:第二處理單元14,用於在所述確定所述待處理圖像的待測區域中第一像素點的第一數量之前,對所述待處理圖像進行人臉檢測處理,得到第一人臉框;依據所述第一人臉框,從所述待處理圖像中確定所述人臉區域。
結合本申請任一實施方式,所述人臉區域包括額頭區域,所述人臉遮擋檢測結果包括額頭遮擋檢測結果,所述第一人臉框包括:上框線和下框線;所述上框線和所述下框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的橫軸的邊,且所述上框線的縱坐標小於所述下框線的縱坐標;所述第二處理單元14用於:對所述待處理圖像進行人臉關鍵點檢測,得到至少一個人臉關鍵點;所述至少一個人臉關鍵點包括左眉毛關鍵點和右眉毛關鍵點;在保持所述上框線的縱坐標不變的情況下,將所述下框線沿所述待處理圖像的像素坐標系的縱軸的負方向移動,使得所述下框線所在直線與第一直線重合,得到第二人臉框;所述第一直線為過所述左眉毛關鍵點和所述右眉毛關鍵點的直線;依據所述第二人臉框包含的區域,得到所述額頭區域。
結合本申請任一實施方式,所述第二處理單元14用於:在保持所述第二人臉框的下框線的縱坐標不變的情況下,將所述第二人臉框的上框線沿所述待處理圖像的像素坐標系的縱軸移動,使得所述第二人臉框的上框線和所述第二人臉框的下框線的距離為預設距離,得到第三人臉框;依據所述第三人臉框包含的區域,得到所述額頭區域。
結合本申請任一實施方式,所述至少一個人臉關鍵點還包括左嘴角關鍵點和右嘴角關鍵點;所述第一人臉框還包括:左框線和右框線;所述左框線和所述右框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的縱軸的邊,且所述左框線的橫坐標小於所述右框線的橫坐標;所述第二處理單元14用於:在保持所述第三人臉框的左框線的橫坐標不變的情況下,將所述第三人臉框的右框線沿所述待處理圖像的像素坐標系的橫軸移動,使得所述第三人臉框的右框線和所述第三人臉框的左框線的距離為參考距離,得到第四人臉框;所述參考距離為第二直線與所述第三人臉框包含的人臉輪廓的兩個交點之間的距離;所述第二直線為在所述第一直線和第三直線之間且平行於所述第一直線或所述第三直線的直線;所述第三直線為過所述左嘴角關鍵點和所述右嘴角關鍵點的直線;將所述第四人臉框包含的區域作為所述額頭區域。
結合本申請任一實施方式,所述圖像裝置還包括:確定單元15,用於在所述確定所述待處理圖像的待測區域中第一像素點的第一數量之前,從所述第一人臉框包含的像素點區域中確定皮膚像素點區域;所述獲取單元11,還用於獲取所述皮膚像素點區域中第二像素點的顏色值;所述第一處理單元12,還用於將所述第二像素點的顏色值與第一值的差作為所述第二閾值,將所述第二像素點的顏色值與第二值的和作為所述第三閾值;所述第一值和所述第二值均不超過所述待處理圖像的顏色值中的最大值。
結合本申請任一實施方式,所述圖像處理裝置還包括:第三處理單元16,用於在所述從所述第一人臉框包含的像素點區域中確定皮膚像素點區域之前,對所述待處理圖像進行口罩佩戴檢測處理,得到檢測結果;所述確定單元15用於:在檢測到所述待處理圖像中人臉區域未佩戴口罩的情況下,將所述人臉區域中除所述額頭區域、嘴巴區域、眉毛區域和眼睛區域之外的像素點區域,作為所述皮膚像素點區域;在檢測到所述待處理圖像中人臉區域佩戴口罩的情況下,將所述第一直線和第四直線之間的像素點區域作為所述皮膚像素點區域。其中,所述第四直線為過左眼下眼瞼關鍵點和右眼下眼瞼關鍵點的直線;所述左眼下眼瞼關鍵點和所述右眼下眼瞼關鍵點均屬所述至少一個人臉關鍵點。
結合本申請任一實施方式,所述獲取單元11用於:在所述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點,且包含屬右眉內側區域中的至少一個第二關鍵點的情況下,根據所述至少一個第一關鍵點和所述至少一個第二關鍵點確定矩形區域;對所述矩形區域進行灰度化處理,得到矩形區域的灰度圖;將矩形區域的灰度圖中第一行和第一列的交點的顏色值作為所述第二像素點的顏色值;所述第一行為所述灰度圖中灰度值之和最大的行,所述第一列為所述灰度圖中灰度值之和最大的列。
結合本申請任一實施方式,所述檢測單元13用於:在所述第一比值未超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於遮擋狀態;在所述第一比值超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於未遮擋狀態。
結合本申請任一實施方式,所述皮膚區域屬待檢測人物,所述獲取單元11還用於:獲取所述待處理圖像的溫度熱力圖;所述圖像處理裝置還包括:第四處理單元17,用於在所述皮膚遮擋檢測結果為所述皮膚區域處於未遮擋狀態的情況下,從所述溫度熱力圖中讀取所述皮膚區域的溫度,作為所述待檢測人物的體溫。
在一些實施例中,本申請實施例提供的裝置具有的功能或包含的模塊可以用於執行上文方法實施例描述的方法,其具體實現可以參照上文方法實施例的描述,為了簡潔,這裡不再贅述。
圖6為本申請實施例提供的一種圖像處理裝置的硬體結構示意圖。該圖像處理裝置2包括處理器21,儲存器22,輸入裝置23,輸出裝置24。該處理器21、儲存器22、輸入裝置23和輸出裝置24通過連接器25相耦合,該連接器25包括各類介面、傳輸線或總線等等,本申請實施例對此不作限定。應當理解,本申請的各個實施例中,耦合是指通過特定方式的相互聯繫,包括直接相連或者通過其他設備間接相連,例如可以通過各類介面、傳輸線、總線等相連。
處理器21可以是一個或多個圖形處理器(graphics processing unit, GPU),在處理器21是一個GPU的情況下,該GPU可以是單核GPU,也可以是多核GPU。可選的,處理器21可以是多個GPU構成的處理器組,多個處理器之間通過一個或多個總線彼此耦合。可選的,該處理器還可以為其他類型的處理器等等,本申請實施例不作限定。
儲存器22可用於儲存計算機程式指令,以及用於執行本申請方案的程式代碼在內的各類計算機程式代碼。可選地,儲存器包括但不限於是隨機存取記憶體(random access memory,RAM)、唯讀記憶體(read-only memory,ROM)、可擦除可程式唯讀記憶體(erasable programmable read only memory,EPROM)、或唯讀記憶光碟(compact disc read-only memory,CD-ROM),該儲存器用於相關指令及數據。
輸入裝置23用於輸入數據和/或信號,以及輸出裝置24用於輸出數據和/或信號。輸入裝置23和輸出裝置24可以是相獨立的器件,也可以是一個整體的器件。
可理解,本申請實施例中,儲存器22不僅可用於儲存相關指令,還可用於儲存,如該儲存器22可用於儲存通過輸入裝置23獲取的數據,又或者該儲存器22還可用於儲存通過處理器21處理的數據等等,本申請實施例對於該儲存器中具體所儲存的數據不作限定。
可以理解的是,圖6僅僅示出了圖像處理裝置的簡化設計。在實際應用中,圖像處理裝置還可以分別包含必要的其他元件,包含但不限於任意數量的輸入/輸出裝置、處理器、儲存器等,而所有可以實現本申請實施例的圖像處理裝置都應在本申請的保護範圍之內。
本領域普通技術人員可以意識到,結合本文中所公開的實施例描述的各示例的單元及演算法步驟,能夠以電子硬體、或者計算機軟體和電子硬體的結合來實現。這些功能究竟以硬體還是軟體方式來執行,取決於技術方案的特定應用和設計約束條件。專業技術人員可以對每個特定的應用來使用不同方法來實現所描述的功能,但是這種實現不應認為超出本申請的範圍。
所屬領域的技術人員可以清楚地瞭解到,為描述的方便和簡潔,上述描述的系統、裝置和單元的具體工作過程,可以參考前述方法實施例中的對應過程,在此不再贅述。所屬領域的技術人員還可以清楚地瞭解到,本申請各個實施例描述各有側重,為描述的方便和簡潔,相同或類似的部分在不同實施例中可能沒有贅述,因此,在某一實施例未描述或未詳細描述的部分可以參見其他實施例的記載。
在本申請所提供的幾個實施例中,應該理解到,所揭露的系統、裝置和方法,可以通過其它的方式實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如,上述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或組件可以結合或者可以集成到另一個系統,或一些特徵可以忽略,或不執行。另一點,所顯示或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些介面,裝置或單元的間接耦合或通信連接,可以是電性,機械或其它的形式。
上述作為分離部件說明的單元可以是或者也可以不是實體上分開的,作為單元顯示的部件可以是或者也可以不是實體單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部單元來實現本實施例方案的目的。
另外,在本申請各個實施例中的各功能單元可以整合在一個第一處理單元中,也可以是各個單元單獨實體存在,也可以兩個或兩個以上單元整合在一個單元中。
在上述實施例中,可以全部或部分地通過軟體、硬體、韌體或者其任意組合來實現。當使用軟體實現時,可以全部或部分地以計算機程式產品的形式實現。上述計算機程式產品包括一個或多個計算機指令。在計算機上加載和執行上述計算機程式指令時,全部或部分地產生按照本申請實施例上述的流程或功能。上述計算機可以是通用計算機、專用計算機、計算機網路、或者其他可編程裝置。上述計算機指令可以儲存在計算機可讀儲存媒體中,或者通過上述計算機可讀儲存媒體進行傳輸。上述計算機指令可以從一個網站站點、計算機、伺服器或數據中心通過有線(例如同軸電纜、光纖、數位用戶線(digital subscriber line,DSL))或無線(例如紅外、無線、微波等)方式向另一個網站站點、計算機、伺服器或數據中心進行傳輸。上述計算機可讀儲存媒體可以是計算機能夠存取的任何可用媒體或者是包含一個或多個可用媒體整合的伺服器、數據中心等數據儲存設備。上述可用媒體可以是磁性媒體,(例如,軟碟、硬碟、磁帶)、光媒體(例如,數位通用光碟(digital versatile disc,DVD))、或者半導體媒體(例如固態硬碟(solid state disk ,SSD))等。
本領域普通技術人員可以理解實現上述實施例方法中的全部或部分流程,該流程可以由計算機程式來指令相關的硬體完成,該程式可儲存於計算機可讀取儲存媒體中,該程式在執行時,可包括如上述各方法實施例的流程。而前述的儲存媒體包括:唯讀記憶體(read-only memory,ROM)或隨機存取記憶體(random access memory,RAM)、磁碟或者光碟等各種可儲存程式代碼的媒體。
201:獲取待處理圖像、第一閾值、第二閾值和第三閾值,上述第一閾值和上述第二閾值不同,上述第一閾值和上述第三閾值不同,上述第二閾值小於等於上述第三閾值
202:確定上述待處理圖像的待測區域中第一像素點的第一數量,其中,上述第一像素點為顏色值大於等於第二閾值且小於等於第三閾值的像素點
203:依據上述第一數量與上述待測區域內像素點的數量的第一比值和上述第一閾值,得到上述待處理圖像的皮膚遮擋檢測結果
1:圖像處理裝置
11:獲取單元
12:第一處理單元
13:檢測單元
14:第二處理單元
15:確定單元
16:第三處理單元
17:第四處理單元
2:圖像處理裝置
21:處理器
22:儲存器
23:輸入裝置
24:輸出裝置
25:連接器
圖1為本申請實施例提供的一種像素坐標系的示意圖。
圖2為本申請實施例提供的一種圖像處理方法的流程示意圖。
圖3為本申請實施例提供的另一種圖像處理方法的流程示意圖。
圖4為本申請實施例提供的一種人臉關鍵點示意圖。
圖5為本申請實施例提供的一種圖像處理裝置的結構示意圖。
圖6為本申請實施例提供的一種圖像處理裝置的硬體結構示意圖。
201:獲取待處理圖像、第一閾值、第二閾值和第三閾值,上述第一閾值和上述第二閾值不同,上述第一閾值和上述第三閾值不同,上述第二閾值小於等於上述第三閾值
202:確定上述待處理圖像的待測區域中第一像素點的第一數量,其中,上述第一像素點為顏色值大於等於第二閾值且小於等於第三閾值的像素點
203:依據上述第一數量與上述待測區域內像素點的數量的第一比值和上述第一閾值,得到上述待處理圖像的皮膚遮擋檢測
結果
Claims (12)
- 一種圖像處理方法,其特徵在於,所述方法包括: 獲取待處理圖像、第一閾值、第二閾值和第三閾值,所述第一閾值和所述第二閾值不同,所述第一閾值和所述第三閾值不同,所述第二閾值小於等於所述第三閾值; 確定所述待處理圖像的待測區域中第一像素點的第一數量;所述第一像素點為顏色值大於等於所述第二閾值、且小於等於所述第三閾值的像素點; 依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果。
- 如請求項1所述的方法,其特徵在於,所述確定所述待處理圖像的所述待測區域中第一像素點的第一數量,包括: 對所述待處理圖像進行人臉檢測處理,得到第一人臉框; 依據所述第一人臉框,從所述待處理圖像中確定所述待測區域; 確定所述待測區域中所述第一像素點的第一數量。
- 如請求項2所述的方法,其特徵在於,所述第一人臉框包括上框線和下框線;所述上框線和所述下框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的橫軸的邊,且所述上框線的縱坐標小於所述下框線的縱坐標;所述依據所述第一人臉框,從所述待處理圖像中確定所述待測區域,包括: 對所述待處理圖像進行人臉關鍵點檢測,得到至少一個人臉關鍵點;所述至少一個人臉關鍵點包括左眉毛關鍵點和右眉毛關鍵點; 在保持所述上框線的縱坐標不變的情況下,將所述下框線沿所述待處理圖像的像素坐標系的縱軸的負方向移動,使得所述下框線所在直線與第一直線重合,得到第二人臉框;所述第一直線為過所述左眉毛關鍵點和所述右眉毛關鍵點的直線; 依據所述第二人臉框包含的區域,得到所述待測區域。
- 如請求項3所述的方法,其特徵在於,所述依據所述第二人臉框包含的區域,得到所述待測區域,包括: 在保持所述第二人臉框的下框線的縱坐標不變的情況下,將所述第二人臉框的上框線沿所述待處理圖像的像素坐標系的縱軸移動,使得所述第二人臉框的上框線和所述第二人臉框的下框線之間的距離為預設距離,得到第三人臉框; 依據所述第三人臉框包含的區域,得到所述待測區域。
- 如請求項4所述的方法,其特徵在於,所述至少一個人臉關鍵點還包括左嘴角關鍵點和右嘴角關鍵點;所述第一人臉框還包括左框線和右框線;所述左框線和所述右框線均為所述第一人臉框中平行於所述待處理圖像的像素坐標系的縱軸的邊,且所述左框線的橫坐標小於所述右框線的橫坐標;所述依據所述第三人臉框包含的區域,得到所述待測區域,包括: 在保持所述第三人臉框的左框線的橫坐標不變的情況下,將所述第三人臉框的右框線沿所述待處理圖像的像素坐標系的橫軸移動,使得所述第三人臉框的右框線和所述第三人臉框的左框線之間的距離為參考距離,得到第四人臉框;所述參考距離為第二直線與所述第三人臉框包含的人臉輪廓的兩個交點之間的距離;所述第二直線為在所述第一直線和第三直線之間且平行於所述第一直線或所述第三直線的直線;所述第三直線為過所述左嘴角關鍵點和所述右嘴角關鍵點的直線; 將所述第四人臉框包含的區域作為所述待測區域。
- 如請求項2至5中任意一項所述的方法,其特徵在於,所述獲取第二閾值和第三閾值,包括: 從所述第一人臉框包含的像素點區域中確定皮膚像素點區域; 獲取所述皮膚像素點區域中第二像素點的顏色值; 將所述第二像素點的顏色值與第一值的差作為所述第二閾值, 將所述第二像素點的顏色值與第二值的和作為所述第三閾值;其中,所述第一值和所述第二值均不超過所述待處理圖像的顏色值中的最大值。
- 如請求項6所述的方法,其特徵在於,所述從所述第一人臉框包含的像素點區域中確定皮膚像素點區域,包括: 在檢測到所述待處理圖像中人臉區域未佩戴口罩的情況下,將所述人臉區域中除額頭區域、嘴巴區域、眉毛區域和眼睛區域之外的像素點區域,作為所述皮膚像素點區域; 在檢測到所述待處理圖像中人臉區域佩戴口罩的情況下,將所述第一直線和第四直線之間的像素點區域作為所述皮膚像素點區域;所述第四直線為過左眼下眼瞼關鍵點和右眼下眼瞼關鍵點的直線;所述左眼下眼瞼關鍵點和所述右眼下眼瞼關鍵點均屬所述至少一個人臉關鍵點。
- 如請求項6所述的方法,其特徵在於,所述獲取所述皮膚像素點區域中第二像素點的顏色值,包括: 在所述至少一個人臉關鍵點包含屬左眉內側區域中的至少一個第一關鍵點,且所述至少一個人臉關鍵點包含屬右眉內側區域中的至少一個第二關鍵點的情況下,根據所述至少一個第一關鍵點和所述至少一個第二關鍵點確定矩形區域; 對所述矩形區域進行灰度化處理,得到所述矩形區域的灰度圖; 將第一行和第一列的交點的顏色值作為所述第二像素點的顏色值;所述第一行為所述灰度圖中灰度值之和最大的行,所述第一列為所述灰度圖中灰度值之和最大的列。
- 如請求項1至5中任意一項所述的方法,其特徵在於,所述依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果,包括: 在所述第一比值未超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於遮擋狀態; 在所述第一比值超過所述第一閾值的情況下,確定所述皮膚遮擋檢測結果為所述待測區域對應的皮膚區域處於未遮擋狀態, 響應於所述皮膚區域屬待檢測人物,所述方法還包括: 獲取所述待處理圖像的溫度熱力圖; 在所述皮膚遮擋檢測結果為所述皮膚區域處於未遮擋狀態的情況下,從所述溫度熱力圖中讀取所述皮膚區域的溫度,作為所述待檢測人物的體溫。
- 一種圖像處理裝置,其特徵在於,所述裝置包括: 獲取單元,用於獲取待處理圖像、第一閾值、第二閾值和第三閾值,所述第一閾值和所述第二閾值不同,所述第一閾值和所述第三閾值不同,所述第二閾值小於等於所述第三閾值; 第一處理單元,用於確定所述待處理圖像的待測區域中第一像素點的第一數量;所述第一像素點為顏色值大於等於所述第二閾值且小於等於所述第三閾值的像素點; 檢測單元,用於依據所述第一數量與所述待測區域內像素點的數量的第一比值和所述第一閾值,得到所述待處理圖像的皮膚遮擋檢測結果。
- 一種電子設備,其特徵在於,包括:處理器和儲存器,所述儲存器用於儲存計算機程式代碼,所述計算機程式代碼包括計算機指令,在所述處理器執行所述計算機指令的情況下,所述電子設備執行如請求項1至9中任意一項所述的方法。
- 一種計算機可讀儲存媒體,其特徵在於,所述計算機可讀儲存媒體中儲存有計算機程式,所述計算機程式包括程式指令,在所述程式指令被處理器執行的情況下,使所述處理器執行請求項1至9中任意一項所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110600103.1A CN113222973B (zh) | 2021-05-31 | 2021-05-31 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN202110600103.1 | 2021-05-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI787113B true TWI787113B (zh) | 2022-12-11 |
TW202248954A TW202248954A (zh) | 2022-12-16 |
Family
ID=77082028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111114745A TWI787113B (zh) | 2021-05-31 | 2022-04-19 | 圖像處理方法、裝置、處理器、電子設備及儲存媒體 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN113222973B (zh) |
TW (1) | TWI787113B (zh) |
WO (1) | WO2022252737A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222973B (zh) * | 2021-05-31 | 2024-03-08 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN113592884B (zh) * | 2021-08-19 | 2022-08-09 | 遨博(北京)智能科技有限公司 | 一种人体遮罩生成方法 |
CN117495855B (zh) * | 2023-12-29 | 2024-03-29 | 广州中科医疗美容仪器有限公司 | 基于图像处理的皮肤缺陷评价方法及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI639137B (zh) * | 2017-04-27 | 2018-10-21 | 立特克科技股份有限公司 | 皮膚檢測裝置及其檢測方法 |
WO2019056986A1 (zh) * | 2017-09-19 | 2019-03-28 | 广州市百果园信息技术有限公司 | 肤色检测方法、装置及存储介质 |
CN110443747A (zh) * | 2019-07-30 | 2019-11-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、终端及计算机可读存储介质 |
CN111524080A (zh) * | 2020-04-22 | 2020-08-11 | 杭州夭灵夭智能科技有限公司 | 脸部皮肤特征的识别方法、终端及计算机设备 |
CN112836625A (zh) * | 2021-01-29 | 2021-05-25 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备 |
CN112861661A (zh) * | 2021-01-22 | 2021-05-28 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备及计算机可读存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426870B (zh) * | 2015-12-15 | 2019-09-24 | 北京文安智能技术股份有限公司 | 一种人脸关键点定位方法及装置 |
CN105740758A (zh) * | 2015-12-31 | 2016-07-06 | 上海极链网络科技有限公司 | 基于深度学习的互联网视频人脸识别方法 |
CN107145833A (zh) * | 2017-04-11 | 2017-09-08 | 腾讯科技(上海)有限公司 | 人脸区域的确定方法和装置 |
CN108319953B (zh) * | 2017-07-27 | 2019-07-16 | 腾讯科技(深圳)有限公司 | 目标对象的遮挡检测方法及装置、电子设备及存储介质 |
CN108427918B (zh) * | 2018-02-12 | 2021-11-30 | 杭州电子科技大学 | 基于图像处理技术的人脸隐私保护方法 |
US10915734B2 (en) * | 2018-09-28 | 2021-02-09 | Apple Inc. | Network performance by including attributes |
CN110532871B (zh) * | 2019-07-24 | 2022-05-10 | 华为技术有限公司 | 图像处理的方法和装置 |
CN111428581B (zh) * | 2020-03-05 | 2023-11-21 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法及*** |
CN112633144A (zh) * | 2020-12-21 | 2021-04-09 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、***、设备及存储介质 |
CN113222973B (zh) * | 2021-05-31 | 2024-03-08 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
-
2021
- 2021-05-31 CN CN202110600103.1A patent/CN113222973B/zh active Active
-
2022
- 2022-03-11 WO PCT/CN2022/080403 patent/WO2022252737A1/zh active Application Filing
- 2022-04-19 TW TW111114745A patent/TWI787113B/zh active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI639137B (zh) * | 2017-04-27 | 2018-10-21 | 立特克科技股份有限公司 | 皮膚檢測裝置及其檢測方法 |
WO2019056986A1 (zh) * | 2017-09-19 | 2019-03-28 | 广州市百果园信息技术有限公司 | 肤色检测方法、装置及存储介质 |
CN110443747A (zh) * | 2019-07-30 | 2019-11-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、终端及计算机可读存储介质 |
CN111524080A (zh) * | 2020-04-22 | 2020-08-11 | 杭州夭灵夭智能科技有限公司 | 脸部皮肤特征的识别方法、终端及计算机设备 |
CN112861661A (zh) * | 2021-01-22 | 2021-05-28 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备及计算机可读存储介质 |
CN112836625A (zh) * | 2021-01-29 | 2021-05-25 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113222973A (zh) | 2021-08-06 |
CN113222973B (zh) | 2024-03-08 |
WO2022252737A1 (zh) | 2022-12-08 |
TW202248954A (zh) | 2022-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI787113B (zh) | 圖像處理方法、裝置、處理器、電子設備及儲存媒體 | |
Kumar et al. | Face detection techniques: a review | |
JP6636154B2 (ja) | 顔画像処理方法および装置、ならびに記憶媒体 | |
US11043011B2 (en) | Image processing method, apparatus, terminal, and storage medium for fusing images of two objects | |
US6611613B1 (en) | Apparatus and method for detecting speaking person's eyes and face | |
CN111539276B (zh) | 一种在电力场景下安全帽实时检测的方法 | |
TW202121233A (zh) | 影像處理方法、處理器、電子設備、儲存媒介 | |
CN111444555B (zh) | 一种测温信息显示方法、装置及终端设备 | |
CN106881716A (zh) | 基于3d摄像头机器人的人体跟随方法及*** | |
WO2022083130A1 (zh) | 测温方法及装置、电子设备及存储介质 | |
WO2022135574A1 (zh) | 肤色检测方法、装置、移动终端和存储介质 | |
CN110751635A (zh) | 一种基于帧间差分和hsv颜色空间的口腔检测方法 | |
WO2022267653A1 (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
Spivak et al. | Approach to Recognizing of Visualized Human Emotions for Marketing Decision Making Systems. | |
CN112232205B (zh) | 移动端cpu实时多功能人脸检测方法 | |
WO2018113206A1 (zh) | 一种图像处理方法及终端 | |
KR102066892B1 (ko) | 메이크업 평가 시스템 및 그의 동작 방법 | |
Xiao et al. | Facial mask detection system based on YOLOv4 algorithm | |
KR20050052657A (ko) | 비젼기반 사람 검출방법 및 장치 | |
CN115995097A (zh) | 一种基于深度学习的安全头盔佩戴标准判断方法 | |
JP6467994B2 (ja) | 画像処理プログラム、画像処理装置、及び画像処理方法 | |
Amjed et al. | A robust geometric skin colour face detection method under unconstrained environment of smartphone database | |
Zheng et al. | Hand-over-face occlusion and distance adaptive heart rate detection based on imaging photoplethysmography and pixel distance in online learning | |
Ren et al. | Fast eye localization based on pixel differences | |
Ediz | Adding Virtual Objects to Realtime Images; A Case Study in Augmented Reality |