WO2021082381A1 - 人脸识别方法及装置、电子设备和存储介质 - Google Patents

人脸识别方法及装置、电子设备和存储介质 Download PDF

Info

Publication number
WO2021082381A1
WO2021082381A1 PCT/CN2020/088384 CN2020088384W WO2021082381A1 WO 2021082381 A1 WO2021082381 A1 WO 2021082381A1 CN 2020088384 W CN2020088384 W CN 2020088384W WO 2021082381 A1 WO2021082381 A1 WO 2021082381A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
residual
target parameter
face
face recognition
Prior art date
Application number
PCT/CN2020/088384
Other languages
English (en)
French (fr)
Inventor
王露
朱烽
赵瑞
Original Assignee
深圳市商汤科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市商汤科技有限公司 filed Critical 深圳市商汤科技有限公司
Priority to JP2020573403A priority Critical patent/JP7150896B2/ja
Priority to KR1020217006942A priority patent/KR20210054522A/ko
Priority to SG11202107252WA priority patent/SG11202107252WA/en
Publication of WO2021082381A1 publication Critical patent/WO2021082381A1/zh
Priority to US17/363,074 priority patent/US20210326578A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Definitions

  • the embodiments of the present application relate to the field of computer vision technology, and in particular, to a face recognition method and device, electronic equipment, and storage medium.
  • Face recognition technology has been widely used in security, finance, information, education and many other fields. Face recognition is based on the extraction and comparison of facial features. Therefore, features have a great influence on the accuracy of recognition. With the development of deep learning technology, the accuracy of face recognition under the condition that the face image meets the target parameters has reached the desired effect, but when the face image does not meet the target parameter conditions, the accuracy of face recognition is low.
  • the embodiment of the present application proposes a face recognition method and device, electronic equipment, and storage medium.
  • the embodiment of the present application provides a face recognition method, including:
  • the processing the first feature and the first target parameter value to obtain the first correction feature corresponding to the first feature includes:
  • the first residual feature, the first target parameter value, and the first feature are processed to obtain a first correction feature corresponding to the first feature.
  • the first residual feature corresponding to the first feature is obtained, and the first residual feature, the first target parameter value, and the The first feature is processed to obtain the first correction feature corresponding to the first feature, so that the correction can be performed on the feature level based on the residual.
  • the processing the first feature to obtain the first residual feature corresponding to the first feature includes:
  • the first residual feature corresponding to the first feature is obtained. Based on the first residual feature thus obtained, a relatively accurate Correction features.
  • the performing full connection processing and activation processing on the first feature to obtain the first residual feature corresponding to the first feature includes:
  • the first residual feature corresponding to the first feature can be obtained, which can save the calculation amount and increase the calculation speed; by performing the first feature Multi-level fully connected processing and activation processing to obtain the first residual feature corresponding to the first feature helps to obtain a more accurate correction feature.
  • the dimension of the feature obtained by performing the fully connected process on the first feature is the same as the dimension of the first feature.
  • the processing the first residual feature, the first target parameter value, and the first feature to obtain the first correction feature corresponding to the first feature includes:
  • a first correction feature corresponding to the first feature is determined.
  • the first correction feature can be determined based on the first target parameter value, which is helpful To improve the accuracy of face recognition of face images that do not meet the target parameter conditions, and does not affect the accuracy of face recognition of face images that meet the target parameter conditions.
  • the determining the first residual component corresponding to the first characteristic according to the first residual characteristic and the first target parameter value includes:
  • the first residual component corresponding to the first characteristic is obtained.
  • the first residual component can be accurately determined when the value range of the first target parameter is not a preset interval.
  • the determining the first correction feature corresponding to the first feature according to the first residual component and the first feature includes:
  • the sum of the first residual component and the first feature is determined as the first correction feature corresponding to the first feature.
  • the first correction feature can be determined quickly and accurately.
  • the target parameter includes face angle, blur degree, or occlusion ratio.
  • the processing the first feature and the first target parameter value includes:
  • the first feature and the first target parameter value are processed through the optimized face recognition model.
  • the first feature and the first target parameter value are processed through the optimized face recognition model to obtain the first correction feature, and the face is performed based on the first correction feature thus obtained.
  • Recognition can improve the accuracy of face recognition.
  • the method before the processing the first feature and the first target parameter value through the face recognition model, the method further includes:
  • the parameter-convergent face recognition model trained by this implementation method can correct the features of the face image that do not meet the target parameter conditions into features that meet the target parameter conditions, thereby helping to improve people who do not meet the target parameter conditions. Accuracy of face recognition for face images.
  • the obtaining a loss function according to the second feature and the third feature includes:
  • the second target parameter value corresponding to the third face image is considered, and the face recognition model obtained by training is helpful to improve the non-compliance with the target parameter.
  • the accuracy of the face recognition of the face image subject to the conditions does not affect the accuracy of the face recognition of the face image that meets the target parameter conditions.
  • the third feature and the second target parameter value of the third face image are processed by the face recognition model to obtain the second correction feature corresponding to the third feature ,include:
  • the third feature is processed by the face recognition model to obtain the second residual feature corresponding to the third feature
  • the second residual feature is obtained by the face recognition model.
  • the difference feature, the second target parameter value of the third face image, and the third feature are processed to obtain the second correction feature corresponding to the third feature, thereby enabling the face recognition model to perform residual Poor learning, so as to obtain the ability to correct features.
  • the processing the third feature by the face recognition model to obtain the second residual feature corresponding to the third feature includes:
  • the face recognition model is used to perform full connection processing and activation processing on the third feature to obtain a second residual feature corresponding to the third feature, based on the second residual feature thus obtained Features can obtain more accurate correction features.
  • the performing full connection processing and activation processing on the third feature through the face recognition model to obtain the second residual feature corresponding to the third feature includes:
  • the first-level full connection processing and activation processing are performed on the third feature through the face recognition model, and the second residual feature corresponding to the third feature is obtained, which can save the amount of calculation and improve the calculation.
  • Speed; multi-level fully connected processing and activation processing are performed on the third feature through the face recognition model to obtain the second residual feature corresponding to the third feature, which helps to improve the face recognition model performance.
  • the dimension of the feature obtained by performing the full connection processing on the third feature is the same as the dimension of the third feature.
  • the second residual feature, the second target parameter value of the third face image, and the third feature are processed by the face recognition model to obtain the first
  • the second correction feature corresponding to the three features includes:
  • the second correction feature corresponding to the third feature is determined by the face recognition model according to the second residual component and the third feature.
  • the face recognition model determines the second residual component corresponding to the third feature according to the second residual feature and the second target parameter value, which can be based on the The second target parameter value determines the second correction feature.
  • the face recognition model obtained from this training helps to improve the accuracy of face recognition for face images that do not meet the target parameter conditions, and does not affect people who meet the target parameter conditions. Accuracy of face recognition for face images.
  • the determining the second residual component corresponding to the third feature by the face recognition model according to the second residual feature and the second target parameter value includes:
  • the product of the second residual feature and the normalized value of the second target parameter value is determined by the face recognition model to obtain the second residual component corresponding to the third feature.
  • the second residual component can be accurately determined when the value range of the second target parameter is not a preset interval.
  • the determining, by the face recognition model, the second correction feature corresponding to the third feature according to the second residual component and the third feature includes:
  • the sum of the second residual component and the third feature is determined as the second correction feature corresponding to the third feature through the face recognition model.
  • the sum of the second residual component and the third feature is determined as the second correction feature corresponding to the third feature through the face recognition model, which can quickly and accurately determine The second correction feature.
  • the feature extraction is performed on the second face image and the third face image respectively to obtain the first face image corresponding to the second face image and the third face image.
  • the second feature and the third feature include:
  • the second feature is obtained.
  • the second feature is obtained according to the features of the multiple second face images, thereby helping to improve the stability of the face recognition model.
  • the obtaining the second feature according to the plurality of fourth features includes:
  • the average value of the plurality of fourth features is determined as the second feature.
  • the obtaining a loss function according to the second feature and the second correction feature includes:
  • the loss function is determined according to the difference between the second correction feature and the second feature.
  • the embodiment of the present application provides a face recognition device, including:
  • the first extraction module is configured to extract the first target parameter value of the first face image to be recognized
  • a second extraction module configured to perform feature extraction on the first face image to obtain a first feature corresponding to the first face image
  • a processing module configured to process the first feature and the first target parameter value to obtain a first correction feature corresponding to the first feature
  • An obtaining module is configured to obtain a face recognition result of the first face image based on the first correction feature.
  • the obtaining module is configured to:
  • the first residual feature, the first target parameter value, and the first feature are processed to obtain a first correction feature corresponding to the first feature.
  • the obtaining module is configured to:
  • the obtaining module is configured to:
  • the dimension of the feature obtained by performing the fully connected process on the first feature is the same as the dimension of the first feature.
  • the obtaining module is configured to:
  • a first correction feature corresponding to the first feature is determined.
  • the obtaining module is configured to:
  • the first residual component corresponding to the first characteristic is obtained.
  • the obtaining module is configured to:
  • the sum of the first residual component and the first feature is determined as the first correction feature corresponding to the first feature.
  • the target parameter includes face angle, blur degree, or occlusion ratio.
  • the processing module is configured to:
  • the first feature and the first target parameter value are processed through the optimized face recognition model.
  • the device further includes:
  • a determining module configured to determine, according to multiple face images of any target object, a second face image that meets the target parameter condition and a third face image that does not meet the target parameter condition;
  • the third extraction module is configured to perform feature extraction on the second face image and the third face image, respectively, to obtain second face images corresponding to the second face image and the third face image. Characteristics and third characteristics;
  • An obtaining module configured to obtain a loss function according to the second feature and the third feature
  • the optimization module is configured to backpropagate the face recognition model based on the loss function to obtain the optimized face recognition model.
  • the acquisition module is configured to:
  • the acquisition module is configured to:
  • the acquisition module is configured to:
  • the acquisition module is configured to:
  • the dimension of the feature obtained by performing the full connection processing on the third feature is the same as the dimension of the third feature.
  • the acquisition module is configured to:
  • the face recognition model determines the second correction feature corresponding to the third feature according to the second residual component and the third feature.
  • the acquisition module is configured to:
  • the product of the second residual feature and the normalized value of the second target parameter value is determined by the face recognition model to obtain the second residual component corresponding to the third feature.
  • the acquisition module is configured to:
  • the sum of the second residual component and the third feature is determined as the second correction feature corresponding to the third feature through the face recognition model.
  • the third extraction module is configured to:
  • the second feature is obtained.
  • the third extraction module is configured to:
  • the average value of the plurality of fourth features is determined as the second feature.
  • the acquisition module is configured to:
  • the loss function is determined according to the difference between the second correction feature and the second feature.
  • An embodiment of the application provides an electronic device, including:
  • a memory configured to store executable instructions of the processor
  • the processor is configured to execute the above method.
  • the embodiment of the present application provides a computer-readable storage medium on which computer program instructions are stored, and when the computer program instructions are executed by a processor, the foregoing method is implemented.
  • the face recognition result can thereby correct the features of the face image, so that the accuracy of face recognition can be improved.
  • Fig. 1 shows a flowchart of a face recognition method provided by an embodiment of the present application.
  • FIG. 2 shows a mapping curve that maps the face angle value yaw to the interval [0, 1] in the face recognition method provided by the embodiment of the present application.
  • FIG. 3 shows a schematic diagram of the training process of the face recognition model in the face recognition method provided by the embodiment of the present application.
  • Fig. 4 shows a block diagram of a face recognition device provided by an embodiment of the present application.
  • FIG. 5 shows a block diagram of an electronic device 800 provided by an embodiment of the present application.
  • FIG. 6 shows a block diagram of an electronic device 1900 provided by an embodiment of the present application.
  • Fig. 1 shows a flowchart of a face recognition method provided by an embodiment of the present application.
  • the execution subject of the face recognition method may be a face recognition device.
  • the face recognition method can be executed by a terminal device or a server or other processing device.
  • the terminal device may be a user equipment mobile device, a user terminal, a terminal, a cellular phone, a cordless phone, a personal digital assistant, a handheld device, a computing device, a vehicle-mounted device, or a wearable device.
  • the face recognition method may be implemented by a processor invoking computer-readable instructions stored in a memory. As shown in Fig. 1, the face recognition method includes steps S11 to S14.
  • step S11 the first target parameter value of the first face image to be recognized is extracted.
  • the target parameter may be any parameter that may affect the accuracy of face recognition.
  • the number of target parameters can be one or more.
  • the target parameter may include one or more of face angle, blur degree, and occlusion ratio.
  • the target parameter includes a face angle, and the value range of the face angle may be [-90°, 90°], where a face angle of 0 is a front face.
  • the target parameter includes the ambiguity, and the value range of the ambiguity can be [0, 1], where the larger the ambiguity, the more blurred.
  • the target parameter includes the occlusion ratio
  • the value range of the occlusion ratio can be [0, 1], where a occlusion ratio of 0 indicates no occlusion at all, and an occlusion ratio of 1 indicates complete occlusion.
  • the face angle value of the first face image can be extracted through open source tools such as dlib or opencv.
  • open source tools such as dlib or opencv.
  • one or more of pitch angle (pitch), roll angle (roll), and yaw angle (yaw) can be obtained.
  • the yaw angle of the face in the first face image can be obtained as the face angle value of the first face image.
  • the target parameter value may be normalized to map the target parameter value to the preset interval.
  • the preset interval is [0, 1].
  • the target parameter includes the face angle
  • the value range of the face angle is [-90°, 90°]
  • the preset interval is [0, 1]
  • the face angle value can be normalized , To map the face angle value to [0,1].
  • the face angle value yaw is normalized to obtain the normalized value yaw norm corresponding to the face angle value yaw.
  • FIG. 2 shows a mapping curve that maps the face angle value yaw to the interval [0, 1] in the face recognition method provided by the embodiment of the present application.
  • the horizontal axis is the face angle value yaw
  • the vertical axis is the normalized value yaw norm corresponding to the face angle value yaw.
  • yaw norm is close to 1.
  • step S12 feature extraction is performed on the first face image to obtain a first feature corresponding to the first face image.
  • convolution processing may be performed on the first face image to extract the first feature corresponding to the first face image.
  • step S13 the first feature and the first target parameter value are processed to obtain a first correction feature corresponding to the first feature.
  • the processing the first feature and the first target parameter value to obtain the first correction feature corresponding to the first feature includes: processing the first feature to obtain A first residual feature corresponding to the first feature; processing the first residual feature, the first target parameter value, and the first feature to obtain a first correction feature corresponding to the first feature .
  • the first residual feature corresponding to the first feature is obtained, and the first residual feature, the first target parameter value, and the The first feature is processed to obtain the first correction feature corresponding to the first feature, so that the correction can be performed on the feature level based on the residual.
  • the processing the first feature to obtain the first residual feature corresponding to the first feature includes: performing full connection processing and activation processing on the first feature to obtain The first residual feature corresponding to the first feature.
  • the fully connected layer can be used for full connection processing
  • the activation layer can be used for activation processing.
  • the activation layer may use activation functions such as ReLu (Rectified Linear Unit, linear rectification function) or PReLu (Parametric Rectified Linear Unit, parameterized linear rectification function).
  • the first residual feature corresponding to the first feature is obtained, and a more accurate correction can be obtained based on the first residual feature thus obtained. feature.
  • the performing full connection processing and activation processing on the first feature to obtain the first residual feature corresponding to the first feature may include: performing one or more levels on the first feature Full connection processing and activation processing are used to obtain the first residual feature corresponding to the first feature.
  • performing first-level full connection processing and activation processing on the first feature the first residual feature corresponding to the first feature can be obtained, which can save the calculation amount and increase the calculation speed; by performing the first feature Multi-level fully connected processing and activation processing to obtain the first residual feature corresponding to the first feature helps to obtain a more accurate correction feature.
  • the first feature can be subjected to two-level full connection processing and activation processing, that is, full connection processing, activation processing, full connection processing, and activation processing are performed on the first feature in sequence to obtain the corresponding The first residual feature.
  • the dimension of the feature obtained by performing the full connection processing on the first feature is the same as the dimension of the first feature.
  • the dimensionality of the feature obtained by performing the fully connected processing on the first feature is consistent with the dimensionality of the first feature, which helps to improve the accuracy of the obtained correction feature.
  • full connection processing and activation processing on the first feature
  • other types of processing can also be performed on the first feature.
  • full convolution processing may be performed on the first feature instead of full connection processing.
  • the processing the first residual feature, the first target parameter value, and the first feature to obtain the first correction feature corresponding to the first feature includes: According to the first residual characteristic and the first target parameter value, determine the first residual component corresponding to the first characteristic; determine the first residual component according to the first residual component and the first characteristic A feature corresponds to the first correction feature.
  • the first correction can be determined based on the first target parameter value.
  • the determining the first residual component corresponding to the first characteristic according to the first residual characteristic and the first target parameter value includes: according to the first residual characteristic and the first residual characteristic The product of the normalized value of the first target parameter value is used to obtain the first residual component corresponding to the first feature.
  • the value range of the first target parameter is not a preset interval, the product of the first residual feature and the normalized value of the first target parameter value may be used as the The first residual component corresponding to the first feature can thus be accurately determined.
  • the determining the first correction feature corresponding to the first feature according to the first residual component and the first feature includes: comparing the first residual component with the first The sum of the features is determined as the first correction feature corresponding to the first feature.
  • the first correction feature can be determined quickly and accurately.
  • step S14 a face recognition result of the first face image is obtained based on the first correction feature.
  • the processing the first feature and the first target parameter value includes: performing an optimized face recognition model on the first feature and the first target parameter value. deal with.
  • the first feature and the first target parameter value are processed through the optimized face recognition model to obtain the first correction feature, and the face is performed based on the first correction feature thus obtained. Recognition can improve the accuracy of face recognition.
  • the method before the first feature and the first target parameter value are processed by the face recognition model, the method further includes: determining according to multiple face images of any target object.
  • the second feature and the third feature corresponding to the two face images and the third face image respectively;
  • the loss function is obtained according to the second feature and the third feature;
  • the face recognition model is based on the loss function Perform back propagation to obtain the optimized face recognition model.
  • the target object may refer to an object used to train a face recognition model.
  • the number of target objects may be multiple, and all face images corresponding to each target object may be the face images of the same person.
  • Each target object may correspond to multiple face images, and the multiple face images corresponding to each target object may include face images that meet the target parameter condition and face images that do not meet the target parameter condition.
  • the second face image that meets the target parameter condition and the second face image that does not meet the target parameter condition are determined from the multiple face images.
  • the third face image is determined from the multiple face images.
  • the target parameter condition can be any of the following: the target parameter value belongs to a specified interval, the target parameter value is less than or equal to a certain threshold, the target parameter value is greater than or equal to a certain threshold, and the absolute value of the target parameter value The value is less than or equal to a certain threshold, and the absolute value of the target parameter value is greater than or equal to a certain threshold.
  • the target parameter includes a face angle
  • the target parameter condition may include that the absolute value of the face angle is less than an angle threshold, where the angle threshold is greater than or equal to zero.
  • the target parameter includes blurriness
  • the target parameter condition may include that the blurriness is less than a blurriness threshold, where the blurriness threshold is greater than or equal to zero.
  • the target parameter includes an occlusion ratio
  • the target parameter condition may include that the occlusion ratio is less than an occlusion ratio threshold, where the occlusion ratio threshold is greater than or equal to zero.
  • any one can be obtained.
  • Target parameter values of multiple face images corresponding to the target object if the target parameter is a face angle, open source tools such as dlib or opencv can be used to obtain the face angle values of multiple face images corresponding to any target object.
  • one or more of the pitch angle, roll angle, and yaw angle can be obtained.
  • the yaw angle of the face in the face image can be obtained as the face angle value of the face image.
  • the feature extraction is performed on the second face image and the third face image respectively to obtain the second face image corresponding to the second face image and the third face image.
  • the feature and the third feature include: if there are multiple second face images, feature extraction is performed on the multiple second face images to obtain multiple fourths corresponding to the multiple second face images.
  • Features According to the plurality of fourth features, the second feature is obtained.
  • the second feature is obtained based on the features of the multiple second face images, thereby helping to improve the stability of the face recognition model.
  • the obtaining the second feature according to the plurality of fourth features includes: determining an average value of the plurality of fourth features as the second feature. In this example, determining the average value of the plurality of fourth features as the second feature helps to further improve the stability of the face recognition model.
  • the obtaining the second feature according to the plurality of fourth features includes: weighting the plurality of fourth features according to weights corresponding to the plurality of second face images , To obtain the second feature.
  • the weight corresponding to any second face image that meets the target parameter conditions can be determined according to the target parameter value of the second face image. The closer the target parameter value is to the optimal target parameter value, the second The greater the weight corresponding to the face image. For example, if the target parameter is the face angle, the optimal face angle value can be 0; if the target parameter is the blur degree, the optimal blur degree value can be 0; if the target parameter is the occlusion ratio, the optimal occlusion ratio value Can be 0.
  • the feature extraction is performed on the second face image and the third face image respectively to obtain the second face image corresponding to the second face image and the third face image.
  • the feature and the third feature include: if there is only one second face image, feature extraction is performed on the second face image, and the feature corresponding to the second face image is used as the second feature.
  • the extracted features can be saved, so that the features of the saved face image can be reused in subsequent training without repeating feature extraction on the same face image .
  • the obtaining a loss function according to the second feature and the third feature includes: performing a second calculation of the third feature and the third face image by the face recognition model.
  • the target parameter value is processed to obtain a second correction feature corresponding to the third feature; and a loss function is obtained according to the second feature and the second correction feature.
  • the third feature is corrected in combination with the second target parameter value of the third face image, and the second corrected feature corresponding to the third feature is obtained.
  • the third feature and the second target parameter value of the third face image are processed by the face recognition model to obtain the second correction feature corresponding to the third feature
  • the method includes: processing the third feature through the face recognition model to obtain a second residual feature corresponding to the third feature; using the face recognition model to perform processing on the second residual feature, the The second target parameter value of the third face image and the third feature are processed to obtain a second correction feature corresponding to the third feature.
  • the third feature is processed by the face recognition model to obtain the second residual feature corresponding to the third feature, and the second residual feature is calculated by the face recognition model.
  • Feature, the second target parameter value of the third face image, and the third feature are processed to obtain the second correction feature corresponding to the third feature, thereby enabling the face recognition model to perform residual Learn to obtain the ability to correct features.
  • the processing the third feature by the face recognition model to obtain the second residual feature corresponding to the third feature includes: performing processing on the first feature by the face recognition model The three features are fully connected and activated to obtain the second residual feature corresponding to the third feature.
  • the face recognition model is used to perform full connection processing and activation processing on the third feature to obtain the second residual feature corresponding to the third feature, based on the second residual feature thus obtained A more accurate correction feature can be obtained.
  • the face recognition model may be used to perform full convolution processing on the third feature instead of full connection processing.
  • the performing full connection processing and activation processing on the third feature through the face recognition model to obtain the second residual feature corresponding to the third feature includes: through the face recognition The model performs one or more levels of fully connected processing and activation processing on the third feature to obtain a second residual feature corresponding to the third feature.
  • the first-level full connection processing and activation processing are performed on the third feature through the face recognition model, and the second residual feature corresponding to the third feature is obtained, which can save calculation amount and increase calculation speed Perform multi-level full connection processing and activation processing on the third feature through the face recognition model to obtain the second residual feature corresponding to the third feature, which helps to improve the performance of the face recognition model .
  • the face recognition model may be used to perform two-level full connection processing and activation processing on the third feature, that is, the face recognition model may sequentially perform full connection processing on the third feature, The activation process, the full connection process, and the activation process obtain the second residual feature corresponding to the third feature.
  • the dimension of the feature obtained by performing the full connection process on the third feature is the same as the dimension of the third feature.
  • by making the dimensionality of the feature obtained by performing the full connection processing on the third feature consistent with the dimensionality of the third feature it helps to ensure the performance of the face recognition model obtained by training.
  • the second residual feature, the second target parameter value of the third face image, and the third feature are processed by the face recognition model to obtain the third
  • the second correction feature corresponding to the feature includes: determining the second residual component corresponding to the third feature by the face recognition model according to the second residual feature and the second target parameter value;
  • the face recognition model determines a second correction feature corresponding to the third feature according to the second residual component and the third feature.
  • the face recognition model determines the second residual component corresponding to the third feature according to the second residual feature and the second target parameter value, which can be based on the first
  • the second target parameter value determines the second correction feature
  • the face recognition model obtained from this training helps to improve the accuracy of face recognition of face images that do not meet the target parameter conditions, and does not affect the face that meets the target parameter conditions The accuracy of the image's face recognition.
  • the determining, by the face recognition model, the second residual component corresponding to the third feature according to the second residual feature and the second target parameter value includes: passing the The face recognition model determines the product of the second residual feature and the normalized value of the second target parameter value to obtain a second residual component corresponding to the third feature.
  • the product of the second residual feature and the normalized value of the second target parameter value may be used as the The second residual component corresponding to the third feature can thus be accurately determined.
  • the determining the second residual component corresponding to the third feature by the face recognition model according to the second residual feature and the second target parameter value includes: The face recognition model determines the product of the second residual feature and the second target parameter value to obtain a second residual component corresponding to the third feature.
  • the product of the second residual feature and the second target parameter value may be used as the third feature corresponding to the third feature. Two residual components.
  • the determining the second correction feature corresponding to the third feature according to the second residual component and the third feature by the face recognition model includes: using the face recognition The model determines the sum of the second residual component and the third feature as the second correction feature corresponding to the third feature.
  • the sum of the second residual component and the third feature is determined as the second correction feature corresponding to the third feature through the face recognition model, so that the first correction feature can be determined quickly and accurately.
  • the training goal of the face recognition model is to make the second correction feature corresponding to the third feature close to the second feature. Therefore, in one example, the face recognition model is based on the first correction feature.
  • the second feature and the second correction feature, and obtaining a loss function may include: determining the loss function according to a difference between the second correction feature and the second feature. For example, the square of the difference between the second correction feature and the second feature may be determined as the value of the loss function.
  • FIG. 3 shows a schematic diagram of the training process of the face recognition model in the face recognition method provided by the embodiment of the present application.
  • the target parameter is the angle of the face
  • the third feature (f_train) is sequentially subjected to full connection processing (fc 1), activation processing (relu 1), and full connection through the face recognition model.
  • the target parameter is the face angle
  • the second correction feature corresponding to the third feature is close to the third feature
  • the face angle value is greater than 50°
  • the second correction feature is close to the third feature
  • the second residual component is no longer close to 0, and the third feature is corrected.
  • the face recognition model is corrected at the feature level, that is, it is not necessary to obtain a corrected image (for example, it is not necessary to obtain a corrected image of a third face image), but only the correction features are required, thereby avoiding obtaining corrections.
  • the noise introduced during the image process helps to further improve the accuracy of face recognition.
  • the parameter-convergent face recognition model trained according to the above implementation can correct the features of the face image that does not meet the target parameter conditions into features that meet the target parameter conditions, thereby improving the face image that does not meet the target parameter conditions The accuracy of face recognition.
  • the use of the face recognition method provided in the embodiments of the present application helps to improve the accuracy of face recognition of face images that do not meet the target parameter conditions, and does not affect the face recognition performance of face images that meet the target parameter conditions. accuracy.
  • the writing order of the steps does not mean a strict execution order but constitutes any limitation on the implementation process.
  • the specific execution order of each step should be based on its function and possibility.
  • the inner logic is determined.
  • embodiments of the present application also provide face recognition devices, electronic equipment, computer-readable storage media, and programs. All of the above can be used to implement any of the face recognition methods provided in the embodiments of the present application, and the corresponding technical solutions and descriptions are as follows: Please refer to the corresponding records in the method section, and will not repeat them.
  • Fig. 4 shows a block diagram of a face recognition device provided by an embodiment of the present application.
  • the face recognition device includes: a first extraction module 41 configured to extract a first target parameter value of a first face image to be recognized; a second extraction module 42 configured to Perform feature extraction on a face image to obtain a first feature corresponding to the first face image; the processing module 43 is configured to process the first feature and the first target parameter value to obtain the first feature A first correction feature corresponding to a feature; the obtaining module 44 is configured to obtain a face recognition result of the first face image based on the first correction feature.
  • the obtaining module 44 is configured to: process the first feature to obtain a first residual feature corresponding to the first feature; The target parameter value and the first feature are processed to obtain a first correction feature corresponding to the first feature.
  • the obtaining module 44 is configured to perform full connection processing and activation processing on the first feature to obtain the first residual feature corresponding to the first feature.
  • the obtaining module 44 is configured to perform one or more levels of full connection processing and activation processing on the first feature to obtain the first residual feature corresponding to the first feature.
  • the dimension of the feature obtained by performing the fully connected process on the first feature is the same as the dimension of the first feature.
  • the obtaining module 44 is configured to: determine a first residual component corresponding to the first characteristic according to the first residual characteristic and the first target parameter value; and according to the first residual characteristic and the first target parameter value; The residual face and the first feature are used to determine the first correction feature corresponding to the first feature.
  • the obtaining module 44 is configured to: obtain the first residual corresponding to the first characteristic according to the product of the first residual characteristic and the normalized value of the first target parameter value Weight.
  • the obtaining module 44 is configured to determine the sum of the first residual component and the first feature as the first correction feature corresponding to the first feature.
  • the target parameter includes face angle, blur degree, or occlusion ratio.
  • the processing module 43 is configured to process the first feature and the first target parameter value through an optimized face recognition model.
  • the device further includes: a determining module configured to determine, according to multiple face images of any target object, a second face image that meets the target parameter condition and a third person that does not meet the target parameter condition Face image; a third extraction module, configured to extract features of the second face image and the third face image, respectively, to obtain corresponding to the second face image and the third face image
  • a determining module configured to determine, according to multiple face images of any target object, a second face image that meets the target parameter condition and a third person that does not meet the target parameter condition Face image
  • a third extraction module configured to extract features of the second face image and the third face image, respectively, to obtain corresponding to the second face image and the third face image
  • the second feature and the third feature of an acquisition module configured to acquire a loss function based on the second feature and the third feature
  • an optimization module configured to backpropagate the face recognition model based on the loss function , To obtain the optimized face recognition model.
  • the acquiring module is configured to process the third feature and the second target parameter value of the third face image through the face recognition model to obtain the corresponding third feature
  • the second correction feature of; according to the second feature and the second correction feature, a loss function is obtained.
  • the acquisition module is configured to process the third feature through the face recognition model to obtain a second residual feature corresponding to the third feature; and through the face recognition model The second residual feature, the second target parameter value of the third face image, and the third feature are processed to obtain a second correction feature corresponding to the third feature.
  • the acquisition module is configured to perform full connection processing and activation processing on the third feature through the face recognition model to obtain a second residual feature corresponding to the third feature.
  • the acquisition module is configured to: perform one or more levels of full connection processing and activation processing on the third feature through the face recognition model to obtain the second residual corresponding to the third feature. ⁇ Poor characteristics.
  • the dimension of the feature obtained by performing the full connection processing on the third feature is the same as the dimension of the third feature.
  • the acquisition module is configured to determine a second residual component corresponding to the third feature according to the second residual feature and the second target parameter value through the face recognition model ; Determine the second correction feature corresponding to the third feature according to the second residual component and the third feature through the face recognition model.
  • the acquisition module is configured to determine the product of the second residual feature and the normalized value of the second target parameter value through the face recognition model to obtain the third feature The corresponding second residual component.
  • the acquisition module is configured to determine the sum of the second residual component and the third feature as the second correction feature corresponding to the third feature through the face recognition model.
  • the third extraction module is configured to: if there are multiple second face images, perform feature extraction on the multiple second face images to obtain the multiple second face images. Multiple fourth features corresponding to the image; obtaining the second feature according to the multiple fourth features.
  • the third extraction module is configured to determine an average value of the plurality of fourth features as the second feature.
  • the acquisition module is configured to determine the loss function according to the difference between the second correction feature and the second feature.
  • the functions or modules included in the device provided in the embodiments of the application can be configured to execute the methods described in the above method embodiments.
  • the functions or modules included in the device provided in the embodiments of the application can be configured to execute the methods described in the above method embodiments.
  • the embodiment of the present application also proposes a computer-readable storage medium on which computer program instructions are stored, and when the computer program instructions are executed by a processor, the foregoing method is implemented.
  • the computer-readable storage medium may be a non-volatile computer-readable storage medium.
  • An embodiment of the present application also proposes an electronic device, including: a processor; a memory configured to store executable instructions of the processor; wherein the processor is configured to execute the foregoing method.
  • the electronic device can be provided as a terminal, server or other form of device.
  • FIG. 5 shows a block diagram of an electronic device 800 provided by an embodiment of the present application.
  • the electronic device 800 may be a mobile phone, a computer, a digital broadcasting terminal, a messaging device, a game console, a tablet device, a medical device, a fitness device, a personal digital assistant, and other terminals.
  • the electronic device 800 may include one or more of the following components: a processing component 802, a memory 804, a power supply component 806, a multimedia component 808, an audio component 810, an input/output (I/O) interface 812, The sensor component 814, and the communication component 816.
  • the processing component 802 generally controls the overall operations of the electronic device 800, such as operations associated with display, telephone calls, data communications, camera operations, and recording operations.
  • the processing component 802 may include one or more processors 820 to execute instructions to complete all or part of the steps of the foregoing method.
  • the processing component 802 may include one or more modules to facilitate the interaction between the processing component 802 and other components.
  • the processing component 802 may include a multimedia module to facilitate the interaction between the multimedia component 808 and the processing component 802.
  • the memory 804 is configured to store various types of data to support operations in the electronic device 800. Examples of these data include instructions for any application or method operating on the electronic device 800, contact data, phone book data, messages, pictures, videos, etc.
  • the memory 804 can be implemented by any type of volatile or non-volatile storage devices or their combination, such as static random access memory (Static Random-Access Memory, SRAM), electrically erasable programmable read-only memory (Electrically Erasable Programmable Read-Only Memory).
  • Erasable Programmable Read Only Memory EEPROM, Erasable Programmable Read-Only Memory (Electrical Programmable Read Only Memory, EPROM), Programmable Read-Only Memory (Programmable Read-Only Memory, PROM), Read-Only Memory (Read-Only Memory) , ROM), magnetic memory, flash memory, magnetic disk or optical disk.
  • the power supply component 806 provides power for various components of the electronic device 800.
  • the power supply component 806 may include a power management system, one or more power supplies, and other components associated with the generation, management, and distribution of power for the electronic device 800.
  • the multimedia component 808 includes a screen that provides an output interface between the electronic device 800 and the user.
  • the screen may include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen may be implemented as a touch screen to receive input signals from the user.
  • the touch panel includes one or more touch sensors to sense touch, sliding, and gestures on the touch panel. The touch sensor may not only sense the boundary of a touch or slide action, but also detect the duration and pressure related to the touch or slide operation.
  • the multimedia component 808 includes a front camera and/or a rear camera. When the electronic device 800 is in an operation mode, such as a shooting mode or a video mode, the front camera and/or the rear camera can receive external multimedia data. Each front camera and rear camera can be a fixed optical lens system or have focal length and optical zoom capabilities.
  • the audio component 810 is configured to output and/or input audio signals.
  • the audio component 810 includes a microphone (MIC), and when the electronic device 800 is in an operation mode, such as a call mode, a recording mode, and a voice recognition mode, the microphone is configured to receive an external audio signal.
  • the received audio signal may be further stored in the memory 804 or transmitted via the communication component 816.
  • the audio component 810 further includes a speaker for outputting audio signals.
  • the I/O interface 812 provides an interface between the processing component 802 and a peripheral interface module.
  • the above-mentioned peripheral interface module may be a keyboard, a click wheel, a button, and the like. These buttons may include, but are not limited to: home button, volume button, start button, and lock button.
  • the sensor component 814 includes one or more sensors for providing the electronic device 800 with various aspects of state evaluation.
  • the sensor component 814 can detect the on/off status of the electronic device 800 and the relative positioning of the components.
  • the component is the display and the keypad of the electronic device 800.
  • the sensor component 814 can also detect the electronic device 800 or the electronic device 800.
  • the position of the component changes, the presence or absence of contact between the user and the electronic device 800, the orientation or acceleration/deceleration of the electronic device 800, and the temperature change of the electronic device 800.
  • the sensor component 814 may include a proximity sensor configured to detect the presence of nearby objects when there is no physical contact.
  • the sensor component 814 may also include a light sensor, such as a complementary metal oxide semiconductor (Complementary Metal Oxide Semiconductor, CMOS) or a charge coupled device (Charge Coupled Device, CCD) image sensor for use in imaging applications.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the sensor component 814 may also include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.
  • the communication component 816 is configured to facilitate wired or wireless communication between the electronic device 800 and other devices.
  • the electronic device 800 can access a wireless network based on a communication standard, such as WiFi, 2G, or 3G, or a combination thereof.
  • the communication component 816 receives a broadcast signal or broadcast related information from an external broadcast management system via a broadcast channel.
  • the communication component 816 further includes a Near Field Communication (NFC) module to facilitate short-range communication.
  • the NFC module can be based on Radio Frequency Identification (RFID) technology, Infrared Data Association (Infrared Data Association, IrDA) technology, Ultra Wide Band (UWB) technology, Bluetooth (Bluetooth, BT) technology and other technologies. Technology to achieve.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wide Band
  • Bluetooth Bluetooth
  • the electronic device 800 may be used by one or more application specific integrated circuits (ASIC), digital signal processors (Digital Signal Processor, DSP), and digital signal processing equipment (Digital Signal Process, DSPD), programmable logic device (Programmable Logic Device, PLD), Field Programmable Gate Array (Field Programmable Gate Array, FPGA), controller, microcontroller, microprocessor or other electronic components to implement the above methods .
  • ASIC application specific integrated circuits
  • DSP Digital Signal Processor
  • DSPD digital signal processing equipment
  • PLD programmable logic device
  • FPGA Field Programmable Gate Array
  • controller microcontroller, microprocessor or other electronic components to implement the above methods .
  • a non-volatile computer-readable storage medium such as the memory 804 including computer program instructions, which can be executed by the processor 820 of the electronic device 800 to complete the foregoing method.
  • FIG. 6 shows a block diagram of another electronic device 1900 according to an embodiment of the present application.
  • the electronic device 1900 may be provided as a server. 6
  • the electronic device 1900 includes a processing component 1922, which further includes one or more processors, and a memory resource represented by the memory 1932, for storing instructions executable by the processing component 1922, such as application programs.
  • the application program stored in the memory 1932 may include one or more modules each corresponding to a set of instructions.
  • the processing component 1922 is configured to execute instructions to perform the above-described methods.
  • the electronic device 1900 may also include a power supply component 1926 configured to perform power management of the electronic device 1900, a wired or wireless network interface 1950 configured to connect the electronic device 1900 to the network, and an input output (I/O) interface 1958 .
  • the electronic device 1900 may operate based on an operating system stored in the memory 1932, such as Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM or the like.
  • a non-volatile computer-readable storage medium is also provided, such as the memory 1932 including computer program instructions, which can be executed by the processing component 1922 of the electronic device 1900 to complete the foregoing method.
  • the embodiments of this application may be systems, methods and/or computer program products.
  • the computer program product may include a computer-readable storage medium loaded with computer-readable program instructions for enabling a processor to implement various aspects of the embodiments of the present application.
  • the computer-readable storage medium may be a tangible device that can hold and store instructions used by the instruction execution device.
  • the computer-readable storage medium may be, for example, but not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination of the foregoing.
  • Non-exhaustive list of computer-readable storage media include: portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM) Or flash memory), static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (Digital Video Disc, DVD), memory stick, floppy disk, mechanical encoding device, such as storage on it Commanded punch card or raised structure in the groove, and any suitable combination of the above.
  • RAM random access memory
  • ROM read-only memory
  • EPROM erasable programmable read-only memory
  • flash memory flash memory
  • SRAM static random access memory
  • CD-ROM compact disk read-only memory
  • DVD digital versatile disk
  • memory stick floppy disk
  • mechanical encoding device such as storage on it Commanded punch card or raised structure in the groove, and any suitable combination of the above.
  • the computer-readable storage medium used here is not interpreted as the instantaneous signal itself, such as radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (for example, light pulses through fiber optic cables), or through wires Transmission of electrical signals.
  • the computer-readable program instructions described herein can be downloaded from a computer-readable storage medium to various computing/processing devices, or downloaded to an external computer or external storage device via a network, such as the Internet, a local area network, a wide area network, and/or a wireless network.
  • the network may include copper transmission cables, optical fiber transmission, wireless transmission, routers, firewalls, switches, gateway computers, and/or edge servers.
  • the network adapter card or network interface in each computing/processing device receives computer-readable program instructions from the network, and forwards the computer-readable program instructions for storage in the computer-readable storage medium in each computing/processing device .
  • the computer program instructions used to perform the operations of the embodiments of the present application may be assembly instructions, instruction set architecture (ISA) instructions, machine instructions, machine-related instructions, microcode, firmware instructions, state setting data, or one or more programming Source code or object code written in any combination of languages, the programming language includes object-oriented programming languages such as Smalltalk, C++, etc., and conventional procedural programming languages such as "C" language or similar programming languages.
  • Computer-readable program instructions can be executed entirely on the user's computer, partly on the user's computer, executed as a stand-alone software package, partly on the user's computer and partly executed on a remote computer, or entirely on the remote computer or server carried out.
  • the remote computer can be connected to the user's computer through any kind of network-including Local Area Network (LAN) or Wide Area Network (WAN)-or it can be connected to an external computer (for example, Use an Internet service provider to connect via the Internet).
  • the electronic circuit is personalized by using the state information of the computer-readable program instructions, such as programmable logic circuit, Field Programmable Gate Array (FPGA), or Programmable Logic Array (Programmable Logic). Array, PLA), the electronic circuit can execute computer-readable program instructions to implement various aspects of the embodiments of the present application.
  • These computer-readable program instructions can be provided to the processor of a general-purpose computer, a special-purpose computer, or other programmable data processing device, thereby producing a machine that makes these instructions when executed by the processor of the computer or other programmable data processing device , A device that implements the functions/actions specified in one or more blocks in the flowcharts and/or block diagrams is produced. It is also possible to store these computer-readable program instructions in a computer-readable storage medium. These instructions make computers, programmable data processing apparatuses, and/or other devices work in a specific manner. Thus, the computer-readable medium storing the instructions includes An article of manufacture, which includes instructions for implementing various aspects of the functions/actions specified in one or more blocks in the flowcharts and/or block diagrams.
  • each block in the flowchart or block diagram may represent a module, program segment, or part of an instruction, and the module, program segment, or part of an instruction contains one or more components for realizing the specified logical function.
  • Executable instructions may also occur in a different order than the order marked in the drawings. For example, two consecutive blocks can actually be executed substantially in parallel, or they can sometimes be executed in the reverse order, depending on the functions involved.
  • each block in the block diagram and/or flowchart, and the combination of the blocks in the block diagram and/or flowchart can be implemented by a dedicated hardware-based system that performs the specified functions or actions Or it can be realized by a combination of dedicated hardware and computer instructions.
  • the embodiments of the present application relate to a face recognition method and device, electronic equipment, and storage medium.
  • the method includes: extracting a first target parameter value of a first face image to be recognized; performing feature extraction on the first face image to obtain a first feature corresponding to the first face image; The first feature and the first target parameter value are processed to obtain a first correction feature corresponding to the first feature; based on the first correction feature, a face recognition result of the first face image is obtained.
  • the embodiments of the present application can correct the features of the face image, thereby improving the accuracy of face recognition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例涉及一种人脸识别方法及装置、电子设备和存储介质。所述方法包括:提取待识别的第一人脸图像的第一目标参数值;对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。

Description

人脸识别方法及装置、电子设备和存储介质
相关申请的交叉引用
本申请基于申请号为201911053929.X、申请日为2019年10月31日的中国专利申请提出,并要求该中国专利申请的优先权,该中国专利申请的全部内容在此引入本申请作为参考。
技术领域
本申请实施例涉及计算机视觉技术领域,尤其涉及一种人脸识别方法及装置、电子设备和存储介质。
背景技术
人脸识别技术已广泛应用于安防、金融、信息、教育等诸多领域。人脸识别基于人脸特征的提取与对比完成识别,因此,特征对于识别的准确性影响很大。随着深度学习技术的发展,人脸识别在人脸图像符合目标参数条件下的准确性已经达到理想的效果,然而在人脸图像不符合目标参数条件时,人脸识别的准确性较低。
发明内容
本申请实施例提出了一种人脸识别方法及装置、电子设备和存储介质。
本申请实施例提供了一种人脸识别方法,包括:
提取待识别的第一人脸图像的第一目标参数值;
对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;
对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;
基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。
通过提取待识别的第一人脸图像的第一目标参数值,对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征,对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征,并基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果,由此能够对人脸图像的特征进行校正,从而能够提高人脸识别的准确性。
在一些实施例中,所述对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征,包括:
对所述第一特征进行处理,获得所述第一特征对应的第一残差特征;
对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征。
在该实现方式中,通过对所述第一特征进行处理,获得所述第一特征对应的第一残差特征,并对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征,由此能够基于残差在特征层面上进行校正。
在一些实施例中,所述对所述第一特征进行处理,获得所述第一特征对应的第一残差特征,包括:
对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
在该实现方式中,通过对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征,基于由此获得的第一残差特征能够获得较为准确的校正特 征。
在一些实施例中,所述对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征,包括:
对所述第一特征进行一级或多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
其中,通过对所述第一特征进行一级全连接处理和激活处理,获得所述第一特征对应的第一残差特征,能够节省计算量,提高计算速度;通过对所述第一特征进行多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征,有助于获得较为准确的校正特征。
在一些实施例中,对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数相同。
通过使对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数一致,有助于提高所获得的校正特征的准确性。
在一些实施例中,所述对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征,包括:
根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量;
根据所述第一残差人脸和所述第一特征,确定所述第一特征对应的第一校正特征。
通过根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量,由此能够基于第一目标参数值确定第一校正特征,从而有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性,且不影响符合目标参数条件的人脸图像的人脸识别的准确性。
在一些实施例中,所述根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量,包括:
根据所述第一残差特征与所述第一目标参数值的归一化值的乘积,得到所述第一特征对应的第一残差分量。
基于该实现方式,能够在第一目标参数的取值范围不为预设区间的情况下准确地确定第一残差分量。
在一些实施例中,所述根据所述第一残差分量和所述第一特征,确定所述第一特征对应的第一校正特征,包括:
将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征。
在该实现方式中,通过将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征,由此能够快速准确地确定第一校正特征。
在一些实施例中,目标参数包括人脸角度、模糊度或者遮挡比例。
根据该实现方式,可以对人脸角度、模糊度或者遮挡比例不符合目标参数条件的人脸图像的特征进行校正,由此有助于在人脸大角度、人脸图像较模糊或者人脸图像被遮挡的情况下提高人脸识别的准确性。
在一些实施例中,所述对所述第一特征和所述第一目标参数值进行处理,包括:
通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理。
在该实现方式中,通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理,获得第一校正特征,并基于由此获得的第一校正特征进行人脸识别,能够提高人脸识别的准确性。
在一些实施例中,在所述通过人脸识别模型对所述第一特征和所述第一目标参数值 进行处理之前,所述方法还包括:
根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像;
分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征;
根据所述第二特征和所述第三特征,获取损失函数;
基于所述损失函数对人脸识别模型进行反向传播,得到所述优化后的人脸识别模型。
采用该实现方式训练得到的参数收敛的人脸识别模型能够将不符合目标参数条件的人脸图像的特征进行校正为符合目标参数条件的特征,由此有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性。
在一些实施例中,所述根据所述第二特征和所述第三特征,获取损失函数,包括:
通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征;
根据所述第二特征和所述第二校正特征,获取损失函数。
在该实现方式中,在确定第三特征对应的第二校正特征时,考虑第三人脸图像对应的第二目标参数值,由此训练得到的人脸识别模型有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性,且不影响符合目标参数条件的人脸图像的人脸识别的准确性。
在一些实施例中,所述通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征,包括:
通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征;
通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征。
在该实现方式中,通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征,并通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征,由此能够使所述人脸识别模型进行残差学习,从而获得校正特征的能力。
在一些实施例中,所述通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征,包括:
通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在该实现方式中,通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征,基于由此获得的第二残差特征能够获得较为准确的校正特征。
在一些实施例中,所述通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征,包括:
通过所述人脸识别模型对所述第三特征进行一级或多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在该实现方式中,通过所述人脸识别模型对所述第三特征进行一级全连接处理和激活处理,获得所述第三特征对应的第二残差特征,能够节省计算量,提高计算速度;通过所述人脸识别模型对所述第三特征进行多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征,有助于提高所述人脸识别模型的性能。
在一些实施例中,对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数相同。
在该实现方式中,通过使对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数一致,有助于保障训练得到的人脸识别模型的性能。
在一些实施例中,所述通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征,包括:
通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量;
通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征。
在该实现方式中,通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量,由此能够基于所述第二目标参数值确定第二校正特征,由此训练得到的人脸识别模型有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性,且不影响符合目标参数条件的人脸图像的人脸识别的准确性。
在一些实施例中,所述通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量,包括:
通过所述人脸识别模型确定所述第二残差特征与所述第二目标参数值的归一化值的乘积,得到所述第三特征对应的第二残差分量。
基于该实现方式,能够在所述第二目标参数的取值范围不为预设区间的情况下,准确地确定第二残差分量。
在一些实施例中,所述通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征,包括:
通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征。
在该实现方式中,通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征,由此能够快速准确地确定第二校正特征。
在一些实施例中,所述分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征,包括:
若存在多个第二人脸图像,则对所述多个第二人脸图像分别进行特征提取,得到所述多个第二人脸图像对应的多个第四特征;
根据所述多个第四特征,获得所述第二特征。
在该实现方式中,在存在多个第二人脸图像的情况下,根据多个第二人脸图像的特征获得第二特征,由此有助于提高人脸识别模型的稳定性。
在一些实施例中,所述根据所述多个第四特征,获得所述第二特征,包括:
将所述多个第四特征的平均值确定为所述第二特征。
在该实现方式中,通过将所述多个第四特征的平均值确定为所述第二特征,有助于进一步提高所述人脸识别模型的稳定性。
在一些实施例中,所述根据所述第二特征和所述第二校正特征,获取损失函数,包括:
根据所述第二校正特征与所述第二特征的差值,确定所述损失函数。
本申请实施例提供了一种人脸识别装置,包括:
第一提取模块,配置为提取待识别的第一人脸图像的第一目标参数值;
第二提取模块,配置为对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;
处理模块,配置为对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;
获得模块,配置为基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。
在一些实施例中,所述获得模块配置为:
对所述第一特征进行处理,获得所述第一特征对应的第一残差特征;
对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征。
在一些实施例中,所述获得模块配置为:
对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
在一些实施例中,所述获得模块配置为:
对所述第一特征进行一级或多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
在一些实施例中,对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数相同。
在一些实施例中,所述获得模块配置为:
根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量;
根据所述第一残差人脸和所述第一特征,确定所述第一特征对应的第一校正特征。
在一些实施例中,所述获得模块配置为:
根据所述第一残差特征与所述第一目标参数值的归一化值的乘积,得到所述第一特征对应的第一残差分量。
在一些实施例中,所述获得模块配置为:
将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征。
在一些实施例中,目标参数包括人脸角度、模糊度或者遮挡比例。
在一些实施例中,所述处理模块配置为:
通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理。
在一些实施例中,所述装置还包括:
确定模块,配置为根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像;
第三提取模块,配置为分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征;
获取模块,配置为根据所述第二特征和所述第三特征,获取损失函数;
优化模块,配置为基于所述损失函数对人脸识别模型进行反向传播,得到所述优化后的人脸识别模型。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征;
根据所述第二特征和所述第二校正特征,获取损失函数。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残 差特征;
通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型对所述第三特征进行一级或多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在一些实施例中,对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数相同。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量;
通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型确定所述第二残差特征与所述第二目标参数值的归一化值的乘积,得到所述第三特征对应的第二残差分量。
在一些实施例中,所述获取模块配置为:
通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征。
在一些实施例中,所述第三提取模块配置为:
若存在多个第二人脸图像,则对所述多个第二人脸图像分别进行特征提取,得到所述多个第二人脸图像对应的多个第四特征;
根据所述多个第四特征,获得所述第二特征。
在一些实施例中,所述第三提取模块配置为:
将所述多个第四特征的平均值确定为所述第二特征。
在一些实施例中,所述获取模块配置为:
根据所述第二校正特征与所述第二特征的差值,确定所述损失函数。
本申请实施例提供了一种电子设备,包括:
处理器;
配置为存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述方法。
本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。
在本申请实施例中,通过提取待识别的第一人脸图像的第一目标参数值,对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征,对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征,并基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果,由此能够对人脸图像的特征进行校正,从而能够提高人脸识别的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请实施例。
根据下面参考附图对示例性实施例的详细说明,本申请实施例的其它特征及方面将 变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请实施例的技术方案。
图1示出本申请实施例提供的人脸识别方法的流程图。
图2示出本申请实施例提供的人脸识别方法中将人脸角度值yaw映射到[0,1]区间中的映射曲线。
图3示出本申请实施例提供的人脸识别方法中人脸识别模型的训练过程的示意图。
图4示出本申请实施例提供的人脸识别装置的框图。
图5示出本申请实施例提供的一种电子设备800的框图。
图6示出本申请实施例提供的一种电子设备1900的框图。
具体实施方式
以下将参考附图详细说明本申请实施例的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本申请实施例提供的人脸识别方法及装置、电子设备和存储介质,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本申请实施例同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本申请实施例的主旨。
图1示出本申请实施例提供的人脸识别方法的流程图。所述人脸识别方法的执行主体可以是人脸识别装置。例如,所述人脸识别方法可以由终端设备或服务器或其它处理设备执行。其中,终端设备可以是用户设备移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理、手持设备、计算设备、车载设备或者可穿戴设备等。在一些可能的实现方式中,所述人脸识别方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图1所示,所述人脸识别方法包括步骤S11至步骤S14。
在步骤S11中,提取待识别的第一人脸图像的第一目标参数值。
在本申请实施例中,目标参数可以为任何可能影响人脸识别准确性的参数。目标参数的数量可以为一个或多个。例如,目标参数可以包括人脸角度、模糊度和遮挡比例等中的一个或多个。例如,目标参数包括人脸角度,人脸角度的取值范围可以为[-90°,90°],其中,人脸角度为0时为正脸。又如,目标参数包括模糊度,模糊度的取值范围可以为[0,1],其中,模糊度越大则越模糊。又如,目标参数包括遮挡比例,遮挡比例的取值范围可以为[0,1],其中,遮挡比例为0表示完全无遮挡,遮挡比例为1表示完全遮挡。
在一个示例中,若目标参数包括人脸角度,则可以通过dlib或者opencv等开源工具分别提取第一人脸图像的人脸角度值。在该示例中,可以获得俯仰角(pitch)、翻滚角(roll)和偏航角(yaw)中的一个或多个角度。例如,可以获得第一人脸图像中人脸的 偏航角作为第一人脸图像的人脸角度值。
在一些实施例中,若目标参数的取值范围不为预设区间,则可以对目标参数值进行归一化处理,以将目标参数值映射到预设区间中。例如,预设区间为[0,1]。在一个示例中,目标参数包括人脸角度,人脸角度的取值范围[-90°,90°],预设区间为[0,1],则可以对人脸角度值进行归一化处理,以将人脸角度值映射到[0,1]中。例如,可以根据
Figure PCTCN2020088384-appb-000001
对人脸角度值yaw进行归一化,得到人脸角度值yaw对应的归一化值yaw norm。图2示出本申请实施例提供的人脸识别方法中将人脸角度值yaw映射到[0,1]区间中的映射曲线。在图2中,横轴为人脸角度值yaw,纵轴为人脸角度值yaw对应的归一化值yaw norm。在图2所示的示例中,当人脸角度值yaw小于20°时可以认为接近于正脸,yaw norm接近于0;当人脸角度值yaw大于或等于50°时可以认为属于大角度侧脸,yaw norm接近于1。
在步骤S12中,对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征。
在一些实施例中,可以通过对第一人脸图像进行卷积处理,以提取第一人脸图像对应的第一特征。
在步骤S13中,对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征。
在一些实施例中,所述对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征,包括:对所述第一特征进行处理,获得所述第一特征对应的第一残差特征;对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征。
在该实现方式中,通过对所述第一特征进行处理,获得所述第一特征对应的第一残差特征,并对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征,由此能够基于残差在特征层面上进行校正。
作为该实现方式的一个示例,所述对所述第一特征进行处理,获得所述第一特征对应的第一残差特征,包括:对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征。在该示例中,可以通过全连接层进行全连接处理,可以通过激活层进行激活处理。其中,激活层可以采用ReLu(Rectified Linear Unit,线性整流函数)或者PReLu(Parametric Rectified Linear Unit,参数化线性整流函数)等激活函数。
在该示例中,通过对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征,基于由此获得的第一残差特征能够获得较为准确的校正特征。
在该示例中,所述对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征,可以包括:对所述第一特征进行一级或多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征。其中,通过对所述第一特征进行一级全连接处理和激活处理,获得所述第一特征对应的第一残差特征,能够节省计算量,提高计算速度;通过对所述第一特征进行多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征,有助于获得较为准确的校正特征。
在一个例子中,可以对第一特征进行两级全连接处理和激活处理,即,对第一特征依次进行全连接处理、激活处理、全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
在一个示例中,对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数相同。在该示例中,通过使对所述第一特征进行全连接处理获得的特征的维数 与所述第一特征的维数一致,有助于提高所获得的校正特征的准确性。
在本申请实施例中,不限于对所述第一特征进行全连接处理和激活处理,还可以通过对所述第一特征进行其他类型的处理。例如,可以对所述第一特征进行全卷积处理来替代全连接处理。
作为该实现方式的一个示例,所述对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征,包括:根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量;根据所述第一残差分量和所述第一特征,确定所述第一特征对应的第一校正特征。
在该示例中,通过根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量,由此能够基于第一目标参数值确定第一校正特征,从而有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性,且不影响符合目标参数条件的人脸图像的人脸识别的准确性。
在一个示例中,所述根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量,包括:根据所述第一残差特征与所述第一目标参数值的归一化值的乘积,得到所述第一特征对应的第一残差分量。在该示例中,若所述第一目标参数的取值范围不为预设区间,则可以将所述第一残差特征与所述第一目标参数值的归一化值的乘积作为所述第一特征对应的第一残差分量,由此能够准确地确定第一残差分量。
在一个示例中,所述根据所述第一残差分量和所述第一特征,确定所述第一特征对应的第一校正特征,包括:将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征。在该示例中,通过将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征,由此能够快速准确地确定第一校正特征。
在步骤S14中,基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。
在一些实施例中,所述对所述第一特征和所述第一目标参数值进行处理,包括:通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理。在该实现方式中,通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理,获得第一校正特征,并基于由此获得的第一校正特征进行人脸识别,能够提高人脸识别的准确性。
在一些实施例中,在所述通过人脸识别模型对所述第一特征和所述第一目标参数值进行处理之前,所述方法还包括:根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像;分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征;根据所述第二特征和所述第三特征,获取损失函数;基于所述损失函数对人脸识别模型进行反向传播,得到所述优化后的人脸识别模型。
在该实现方式中,目标对象可以指用于训练人脸识别模型的对象。目标对象的数量可以为多个,每个目标对象对应的所有人脸图像可以为同一个人的人脸图像。每个目标对象可以对应于多个人脸图像,每个目标对象对应的多个人脸图像中可以包括符合目标参数条件的人脸图像和不符合所述目标参数条件的人脸图像。
在该实现方式中,根据任一目标对象对应的多个人脸图像的目标参数值,从所述多个人脸图像中确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像。
在该实现方式中,目标参数条件可以为以下任意一项:目标参数值属于某一指定区间,目标参数值小于或等于某一阈值,目标参数值大于或等于某一阈值,目标参数值的绝对值小于或等于某一阈值,目标参数值的绝对值大于或等于某一阈值。本领域技术 人员也可以根据实际应用场景需求灵活设置目标参数条件,本申请实施例对此不作限定。例如,目标参数包括人脸角度,目标参数条件可以包括人脸角度的绝对值小于角度阈值,其中,角度阈值大于或等于0。又如,目标参数包括模糊度,目标参数条件可以包括模糊度小于模糊度阈值,其中,模糊度阈值大于或等于0。又如,目标参数包括遮挡比例,目标参数条件可以包括遮挡比例小于遮挡比例阈值,其中,遮挡比例阈值大于或等于0。
在该实现方式中,在所述根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像之前,可以获得任一目标对象对应的多个人脸图像的目标参数值。在一个示例中,若目标参数为人脸角度,则可以通过dlib或者opencv等开源工具分别获得任一目标对象对应的多个人脸图像的人脸角度值。在该示例中,可以获得俯仰角、翻滚角和偏航角中的一个或多个角度。例如,可以获得人脸图像中人脸的偏航角作为该人脸图像的人脸角度值。
在一个示例中,所述分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征,包括:若存在多个第二人脸图像,则对所述多个第二人脸图像分别进行特征提取,得到所述多个第二人脸图像对应的多个第四特征;根据所述多个第四特征,获得所述第二特征。
在该示例中,在存在多个第二人脸图像的情况下,根据多个第二人脸图像的特征获得第二特征,由此有助于提高人脸识别模型的稳定性。
在一个示例中,所述根据所述多个第四特征,获得所述第二特征,包括:将所述多个第四特征的平均值确定为所述第二特征。在该示例中,通过将所述多个第四特征的平均值确定为所述第二特征,有助于进一步提高所述人脸识别模型的稳定性。
在另一个示例中,所述根据所述多个第四特征,获得所述第二特征,包括:根据所述多个第二人脸图像对应的权重,对所述多个第四特征进行加权,得到所述第二特征。在该示例中,任一符合目标参数条件的第二人脸图像对应的权重可以根据该第二人脸图像的目标参数值确定,目标参数值越接近于最优目标参数值,则该第二人脸图像对应的权重越大。例如,若目标参数为人脸角度,则最优人脸角度值可以为0;若目标参数为模糊度,则最优模糊度值可以为0;若目标参数为遮挡比例,则最优遮挡比例值可以为0。
在一个示例中,所述分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征,包括:若仅存在一个第二人脸图像,则对所述第二人脸图像进行特征提取,并将所述第二人脸图像对应的特征作为所述第二特征。
在一个示例中,在对目标对象的人脸图像进行特征提取之后,可以保存提取的特征,以便后续训练中重复利用所保存的人脸图像的特征,而无需对同一人脸图像重复进行特征提取。
在一个示例中,所述根据所述第二特征和所述第三特征,获取损失函数,包括:通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征;根据所述第二特征和所述第二校正特征,获取损失函数。
在该示例中,结合所述第三特征和所述第三人脸图像的第二目标参数值,对所述第三特征进行校正,获得所述第三特征对应的第二校正特征。
在一个示例中,所述通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征,包括:通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征;通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第 三特征进行处理,获得所述第三特征对应的第二校正特征。
在该示例中,通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征,并通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征,由此能够使所述人脸识别模型进行残差学习,从而获得校正特征的能力。
在一个示例中,所述通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征,包括:通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征。在该示例中,通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征,基于由此获得的第二残差特征能够获得较为准确的校正特征。
在该实现方式中,不限于通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,还可以通过所述人脸识别模型对所述第三特征进行其他类型的处理。例如,可以通过所述人脸识别模型对所述第三特征进行全卷积处理来替代全连接处理。
在一个示例中,所述通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征,包括:通过所述人脸识别模型对所述第三特征进行一级或多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在该示例中,通过所述人脸识别模型对所述第三特征进行一级全连接处理和激活处理,获得所述第三特征对应的第二残差特征,能够节省计算量,提高计算速度;通过所述人脸识别模型对所述第三特征进行多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征,有助于提高所述人脸识别模型的性能。
在一个例子中,可以通过所述人脸识别模型对所述第三特征进行两级全连接处理和激活处理,即,通过所述人脸识别模型对所述第三特征依次进行全连接处理、激活处理、全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在一个示例中,对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数相同。在该示例中,通过使对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数一致,有助于保障训练得到的人脸识别模型的性能。
在一个示例中,所述通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征,包括:通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量;通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征。
在该示例中,通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量,由此能够基于所述第二目标参数值确定第二校正特征,由此训练得到的人脸识别模型有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性,且不影响符合目标参数条件的人脸图像的人脸识别的准确性。
在一个示例中,所述通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量,包括:通过所述人脸识别模型确定所述第二残差特征与所述第二目标参数值的归一化值的乘积,得到所述第三特征对应的第二残差分量。在该示例中,若所述第二目标参数的取值范围不为预设区间,则可以将所述第二残差特征与所述第二目标参数值的归一化值的乘积作为所述第三特征对应的第二残差分量,由此能够准确地确定第二残差分量。
在另一个示例中,所述通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量,包括:通过所述人脸识别模型确 定所述第二残差特征与所述第二目标参数值的乘积,得到所述第三特征对应的第二残差分量。在该示例中,若所述第二目标参数的取值范围等于预设区间,则可以将所述第二残差特征与所述第二目标参数值的乘积作为所述第三特征对应的第二残差分量。
在一个示例中,所述通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征,包括:通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征。在该示例中,通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征,由此能够快速准确地确定第二校正特征。
在该实现方式中,所述人脸识别模型的训练目标是使所述第三特征对应的第二校正特征趋近于所述第二特征,因此,在一个示例中,所述根据所述第二特征和所述第二校正特征,获取损失函数,可以包括:根据所述第二校正特征与所述第二特征的差值,确定所述损失函数。例如,可以将所述第二校正特征与所述第二特征的差值的平方确定为所述损失函数的值。
图3示出本申请实施例提供的人脸识别方法中人脸识别模型的训练过程的示意图。在图3所示的示例中,目标参数为人脸角度,通过所述人脸识别模型对所述第三特征(f_train)依次进行全连接处理(fc 1)、激活处理(relu 1)、全连接处理(fc 2)和激活处理(relu 2),获得所述第三特征对应的第二残差特征,通过所述人脸识别模型确定所述第二残差特征与所述第三人脸图像的第二目标参数值(yaw)的归一化值(yaw_norm)的乘积,得到所述第三特征对应的第二残差分量,通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征(f_out)。在目标参数为人脸角度的示例中,当人脸角度值小于20°时,所述第三特征对应的第二校正特征接近于所述第三特征;当人脸角度值大于50°时,第二残差分量不再接近于0,第三特征得到了校正。
在该实现方式中,人脸识别模型在特征层面上进行校正,即,无需获得校正的图像(例如无需获得第三人脸图像的校正图像),仅需获得校正特征,由此能够避免获得校正的图像的过程中引入的噪声,从而有助于进一步提高人脸识别准确性。
根据上述实现方式训练得到的参数收敛的人脸识别模型能够将不符合目标参数条件的人脸图像的特征进行校正为符合目标参数条件的特征,由此能够提高不符合目标参数条件的人脸图像的人脸识别的准确性。
在本申请实施例中,待识别的第一人脸图像的目标参数值与最优目标参数值的距离越小,则第一特征对应的第一校正特征越接近于第一特征;第一人脸图像的目标参数值与最优目标参数值的距离越大,则第一特征对应的第一校正特征与第一特征的差别越大。因此,采用本申请实施例提供的人脸识别方法有助于提高不符合目标参数条件的人脸图像的人脸识别的准确性,且不影响符合目标参数条件的人脸图像的人脸识别的准确性。
可以理解,本申请实施例提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本申请实施例不再赘述。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本申请实施例还提供了人脸识别装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本申请实施例提供的任一种人脸识别方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图4示出本申请实施例提供的人脸识别装置的框图。如图4所示,所述人脸识别装 置包括:第一提取模块41,配置为提取待识别的第一人脸图像的第一目标参数值;第二提取模块42,配置为对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;处理模块43,配置为对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;获得模块44,配置为基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。
在一些实施例中,所述获得模块44配置为:对所述第一特征进行处理,获得所述第一特征对应的第一残差特征;对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征。
在一些实施例中,所述获得模块44配置为:对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
在一些实施例中,所述获得模块44配置为:对所述第一特征进行一级或多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
在一些实施例中,对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数相同。
在一些实施例中,所述获得模块44配置为:根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量;根据所述第一残差人脸和所述第一特征,确定所述第一特征对应的第一校正特征。
在一些实施例中,所述获得模块44配置为:根据所述第一残差特征与所述第一目标参数值的归一化值的乘积,得到所述第一特征对应的第一残差分量。
在一些实施例中,所述获得模块44配置为:将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征。
在一些实施例中,目标参数包括人脸角度、模糊度或者遮挡比例。
在一些实施例中,所述处理模块43配置为:通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理。
在一些实施例中,所述装置还包括:确定模块,配置为根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像;第三提取模块,配置为分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征;获取模块,配置为根据所述第二特征和所述第三特征,获取损失函数;优化模块,配置为基于所述损失函数对人脸识别模型进行反向传播,得到所述优化后的人脸识别模型。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征;根据所述第二特征和所述第二校正特征,获取损失函数。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征;通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型对所述第三特征进行一级或多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
在一些实施例中,对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数相同。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型根据所述第二残 差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量;通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型确定所述第二残差特征与所述第二目标参数值的归一化值的乘积,得到所述第三特征对应的第二残差分量。
在一些实施例中,所述获取模块配置为:通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征。
在一些实施例中,所述第三提取模块配置为:若存在多个第二人脸图像,则对所述多个第二人脸图像分别进行特征提取,得到所述多个第二人脸图像对应的多个第四特征;根据所述多个第四特征,获得所述第二特征。
在一些实施例中,所述第三提取模块配置为:将所述多个第四特征的平均值确定为所述第二特征。
在一些实施例中,所述获取模块配置为:根据所述第二校正特征与所述第二特征的差值,确定所述损失函数。
在一些实施例中,本申请实施例提供的装置具有的功能或包含的模块可以配置为执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本申请实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是非易失性计算机可读存储介质。
本申请实施例还提出一种电子设备,包括:处理器;配置为存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
电子设备可以被提供为终端、服务器或其它形态的设备。
图5示出本申请实施例提供的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图5,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(Input Output,I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random-Access Memory,SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read Only Memory,EEPROM),可擦除可编程只读存储器(Electrical Programmable Read Only Memory,EPROM),可编程只读存储器(Programmable Read-Only Memory,PROM),只读存储器(Read-Only Memory,ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理 ***,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(Liquid Crystal Display,LCD)和触摸面板(Touch Pad,TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如互补金属氧化物半导体(Complementary Metal Oxide Semiconductor,CMOS)或电荷耦合器件(Charge Coupled Device,CCD)图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(Near Field Communication,NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(Radio Frequency Identification,RFID)技术,红外数据协会(Infrared Data Association,IrDA)技术,超宽带(Ultra Wide Band,UWB)技术,蓝牙(Bluetooth,BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理设备(Digital Signal Process,DSPD)、可编程逻辑器件(Programmable Logic Device,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图6示出根据本申请实施例的另一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图6,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作***,例如Windows Server TM,Mac OS X TM,Unix TM,Linux TM,FreeBSD TM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本申请实施例可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本申请实施例的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(Digital Video Disc,DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本申请实施例操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(Local Area Network,LAN)或广域网(Wide Area Network,WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(Field Programmable Gate Array,FPGA)或可编程逻辑阵列(Programmable Logic Array,PLA), 该电子电路可以执行计算机可读程序指令,从而实现本申请实施例的各个方面。
这里参照根据本申请实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本申请实施例的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本申请实施例的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本申请的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
工业实用性
本申请实施例涉及一种人脸识别方法及装置、电子设备和存储介质。所述方法包括:提取待识别的第一人脸图像的第一目标参数值;对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。本申请实施例能够对人脸图像的特征进行校正,从而能够提高人脸识别的准确性。

Claims (46)

  1. 一种人脸识别方法,包括:
    提取待识别的第一人脸图像的第一目标参数值;
    对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;
    对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;
    基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。
  2. 根据权利要求1所述的方法,所述对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征,包括:
    对所述第一特征进行处理,获得所述第一特征对应的第一残差特征;
    对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征。
  3. 根据权利要求2所述的方法,所述对所述第一特征进行处理,获得所述第一特征对应的第一残差特征,包括:
    对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
  4. 根据权利要求3所述的方法,所述对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征,包括:
    对所述第一特征进行一级或多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
  5. 根据权利要求3或4所述的方法,对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数相同。
  6. 根据权利要求2至5中任意一项所述的方法,所述对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征,包括:
    根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量;
    根据所述第一残差人脸和所述第一特征,确定所述第一特征对应的第一校正特征。
  7. 根据权利要求6所述的方法,所述根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量,包括:
    根据所述第一残差特征与所述第一目标参数值的归一化值的乘积,得到所述第一特征对应的第一残差分量。
  8. 根据权利要求6或7所述的方法,所述根据所述第一残差分量和所述第一特征,确定所述第一特征对应的第一校正特征,包括:
    将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征。
  9. 根据权利要求1至8中任意一项所述的方法,目标参数包括人脸角度、模糊度或者遮挡比例。
  10. 根据权利要求1至9中任意一项所述的方法,所述对所述第一特征和所述第一目标参数值进行处理,包括:
    通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理。
  11. 根据权利要求10所述的方法,在所述通过人脸识别模型对所述第一特征和所述第一目标参数值进行处理之前,所述方法还包括:
    根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符 合所述目标参数条件的第三人脸图像;
    分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征;
    根据所述第二特征和所述第三特征,获取损失函数;
    基于所述损失函数对人脸识别模型进行反向传播,得到所述优化后的人脸识别模型。
  12. 根据权利要求11所述的方法,所述根据所述第二特征和所述第三特征,获取损失函数,包括:
    通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征;
    根据所述第二特征和所述第二校正特征,获取损失函数。
  13. 根据权利要求12所述的方法,所述通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征,包括:
    通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征;
    通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征。
  14. 根据权利要求13所述的方法,所述通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征,包括:
    通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
  15. 根据权利要求14所述的方法,所述通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征,包括:
    通过所述人脸识别模型对所述第三特征进行一级或多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
  16. 根据权利要求14或15所述的方法,对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数相同。
  17. 根据权利要求12至16中任意一项所述的方法,所述通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征,包括:
    通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量;
    通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征。
  18. 根据权利要求17所述的方法,所述通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量,包括:
    通过所述人脸识别模型确定所述第二残差特征与所述第二目标参数值的归一化值的乘积,得到所述第三特征对应的第二残差分量。
  19. 根据权利要求17或18所述的方法,所述通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征,包括:
    通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征。
  20. 根据权利要求11至19中任意一项所述的方法,所述分别对所述第二人脸图像和 所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征,包括:
    若存在多个第二人脸图像,则对所述多个第二人脸图像分别进行特征提取,得到所述多个第二人脸图像对应的多个第四特征;
    根据所述多个第四特征,获得所述第二特征。
  21. 根据权利要求20所述的方法,所述根据所述多个第四特征,获得所述第二特征,包括:
    将所述多个第四特征的平均值确定为所述第二特征。
  22. 根据权利要求12至19中任意一项所述的方法,所述根据所述第二特征和所述第二校正特征,获取损失函数,包括:
    根据所述第二校正特征与所述第二特征的差值,确定所述损失函数。
  23. 一种人脸识别装置,包括:
    第一提取模块,配置为提取待识别的第一人脸图像的第一目标参数值;
    第二提取模块,配置为对所述第一人脸图像进行特征提取,获得与所述第一人脸图像对应的第一特征;
    处理模块,配置为对所述第一特征和所述第一目标参数值进行处理,获得所述第一特征对应的第一校正特征;
    获得模块,配置为基于所述第一校正特征,获得所述第一人脸图像的人脸识别结果。
  24. 根据权利要求23所述的装置,所述获得模块配置为:
    对所述第一特征进行处理,获得所述第一特征对应的第一残差特征;
    对所述第一残差特征、所述第一目标参数值和所述第一特征进行处理,获得所述第一特征对应的第一校正特征。
  25. 根据权利要求24所述的装置,所述获得模块配置为:
    对所述第一特征进行全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
  26. 根据权利要求25所述的装置,所述获得模块配置为:
    对所述第一特征进行一级或多级全连接处理和激活处理,获得所述第一特征对应的第一残差特征。
  27. 根据权利要求25或26所述的装置,对所述第一特征进行全连接处理获得的特征的维数与所述第一特征的维数相同。
  28. 根据权利要求24至27中任意一项所述的装置,所述获得模块配置为:
    根据所述第一残差特征和所述第一目标参数值,确定所述第一特征对应的第一残差分量;
    根据所述第一残差人脸和所述第一特征,确定所述第一特征对应的第一校正特征。
  29. 根据权利要求28所述的装置,所述获得模块配置为:
    根据所述第一残差特征与所述第一目标参数值的归一化值的乘积,得到所述第一特征对应的第一残差分量。
  30. 根据权利要求28或29所述的装置,所述获得模块配置为:
    将所述第一残差分量与所述第一特征之和确定为所述第一特征对应的第一校正特征。
  31. 根据权利要求23至30中任意一项所述的装置,目标参数包括人脸角度、模糊度或者遮挡比例。
  32. 根据权利要求23至31中任意一项所述的装置,所述处理模块配置为:
    通过优化后的人脸识别模型对所述第一特征和所述第一目标参数值进行处理。
  33. 根据权利要求32所述的装置,所述装置还包括:
    确定模块,配置为根据任一目标对象的多个人脸图像确定符合目标参数条件的第二人脸图像和不符合所述目标参数条件的第三人脸图像;
    第三提取模块,配置为分别对所述第二人脸图像和所述第三人脸图像进行特征提取,获得与所述第二人脸图像和所述第三人脸图像分别对应的第二特征和第三特征;
    获取模块,配置为根据所述第二特征和所述第三特征,获取损失函数;
    优化模块,配置为基于所述损失函数对人脸识别模型进行反向传播,得到所述优化后的人脸识别模型。
  34. 根据权利要求33所述的装置,所述获取模块配置为:
    通过所述人脸识别模型对所述第三特征和所述第三人脸图像的第二目标参数值进行处理,获得所述第三特征对应的第二校正特征;
    根据所述第二特征和所述第二校正特征,获取损失函数。
  35. 根据权利要求34所述的装置,所述获取模块配置为:
    通过所述人脸识别模型对所述第三特征进行处理,获得所述第三特征对应的第二残差特征;
    通过所述人脸识别模型对所述第二残差特征、所述第三人脸图像的第二目标参数值和所述第三特征进行处理,获得所述第三特征对应的第二校正特征。
  36. 根据权利要求35所述的装置,所述获取模块配置为:
    通过所述人脸识别模型对所述第三特征进行全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
  37. 根据权利要求36所述的装置,所述获取模块配置为:
    通过所述人脸识别模型对所述第三特征进行一级或多级全连接处理和激活处理,获得所述第三特征对应的第二残差特征。
  38. 根据权利要求36或37所述的装置,对所述第三特征进行全连接处理获得的特征的维数与所述第三特征的维数相同。
  39. 根据权利要求34至38中任意一项所述的装置,所述获取模块配置为:
    通过所述人脸识别模型根据所述第二残差特征和所述第二目标参数值,确定所述第三特征对应的第二残差分量;
    通过所述人脸识别模型根据所述第二残差分量与所述第三特征,确定所述第三特征对应的第二校正特征。
  40. 根据权利要求39所述的装置,所述获取模块配置为:
    通过所述人脸识别模型确定所述第二残差特征与所述第二目标参数值的归一化值的乘积,得到所述第三特征对应的第二残差分量。
  41. 根据权利要求39或40所述的装置,所述获取模块配置为:
    通过所述人脸识别模型将所述第二残差分量与所述第三特征之和确定为所述第三特征对应的第二校正特征。
  42. 根据权利要求33至41中任意一项所述的装置,所述第三提取模块配置为:
    若存在多个第二人脸图像,则对所述多个第二人脸图像分别进行特征提取,得到所述多个第二人脸图像对应的多个第四特征;
    根据所述多个第四特征,获得所述第二特征。
  43. 根据权利要求42所述的装置,所述第三提取模块配置为:
    将所述多个第四特征的平均值确定为所述第二特征。
  44. 根据权利要求34至41中任意一项所述的装置,所述获取模块配置为:
    根据所述第二校正特征与所述第二特征的差值,确定所述损失函数。
  45. 一种电子设备,包括:
    处理器;
    配置为存储处理器可执行指令的存储器;
    其中,所述处理器被配置为:执行权利要求1至22中任意一项所述的方法。
  46. 一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现权利要求1至22中任意一项所述的方法。
PCT/CN2020/088384 2019-10-31 2020-04-30 人脸识别方法及装置、电子设备和存储介质 WO2021082381A1 (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020573403A JP7150896B2 (ja) 2019-10-31 2020-04-30 顔認識方法及び装置、電子機器、並びに記憶媒体
KR1020217006942A KR20210054522A (ko) 2019-10-31 2020-04-30 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체
SG11202107252WA SG11202107252WA (en) 2019-10-31 2020-04-30 Face recognition method and apparatus, electronic device, and storage medium
US17/363,074 US20210326578A1 (en) 2019-10-31 2021-06-30 Face recognition method and apparatus, electronic device, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911053929.X 2019-10-31
CN201911053929.XA CN110826463B (zh) 2019-10-31 2019-10-31 人脸识别方法及装置、电子设备和存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/363,074 Continuation US20210326578A1 (en) 2019-10-31 2021-06-30 Face recognition method and apparatus, electronic device, and storage medium

Publications (1)

Publication Number Publication Date
WO2021082381A1 true WO2021082381A1 (zh) 2021-05-06

Family

ID=69551816

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/088384 WO2021082381A1 (zh) 2019-10-31 2020-04-30 人脸识别方法及装置、电子设备和存储介质

Country Status (7)

Country Link
US (1) US20210326578A1 (zh)
JP (1) JP7150896B2 (zh)
KR (1) KR20210054522A (zh)
CN (1) CN110826463B (zh)
SG (1) SG11202107252WA (zh)
TW (1) TWI770531B (zh)
WO (1) WO2021082381A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826463B (zh) * 2019-10-31 2021-08-24 深圳市商汤科技有限公司 人脸识别方法及装置、电子设备和存储介质
CN112101216A (zh) * 2020-09-15 2020-12-18 百度在线网络技术(北京)有限公司 人脸识别方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100097485A1 (en) * 2008-10-17 2010-04-22 Samsung Digital Imaging Co., Ltd. Method and apparatus for improving face image in digital image processor
CN106980831A (zh) * 2017-03-17 2017-07-25 中国人民解放军国防科学技术大学 基于自编码器的自亲缘关系识别方法
CN108229313A (zh) * 2017-11-28 2018-06-29 北京市商汤科技开发有限公司 人脸识别方法和装置、电子设备和计算机程序及存储介质
CN109753920A (zh) * 2018-12-29 2019-05-14 深圳市商汤科技有限公司 一种行人识别方法及装置
CN110163169A (zh) * 2019-05-27 2019-08-23 北京达佳互联信息技术有限公司 人脸识别方法、装置、电子设备及存储介质
CN110826463A (zh) * 2019-10-31 2020-02-21 深圳市商汤科技有限公司 人脸识别方法及装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100097485A1 (en) * 2008-10-17 2010-04-22 Samsung Digital Imaging Co., Ltd. Method and apparatus for improving face image in digital image processor
CN106980831A (zh) * 2017-03-17 2017-07-25 中国人民解放军国防科学技术大学 基于自编码器的自亲缘关系识别方法
CN108229313A (zh) * 2017-11-28 2018-06-29 北京市商汤科技开发有限公司 人脸识别方法和装置、电子设备和计算机程序及存储介质
CN109753920A (zh) * 2018-12-29 2019-05-14 深圳市商汤科技有限公司 一种行人识别方法及装置
CN110163169A (zh) * 2019-05-27 2019-08-23 北京达佳互联信息技术有限公司 人脸识别方法、装置、电子设备及存储介质
CN110826463A (zh) * 2019-10-31 2020-02-21 深圳市商汤科技有限公司 人脸识别方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN110826463B (zh) 2021-08-24
US20210326578A1 (en) 2021-10-21
CN110826463A (zh) 2020-02-21
TWI770531B (zh) 2022-07-11
KR20210054522A (ko) 2021-05-13
JP2022508990A (ja) 2022-01-20
JP7150896B2 (ja) 2022-10-11
SG11202107252WA (en) 2021-07-29
TW202119281A (zh) 2021-05-16

Similar Documents

Publication Publication Date Title
US11532180B2 (en) Image processing method and device and storage medium
CN111310616B (zh) 图像处理方法及装置、电子设备和存储介质
US20210012523A1 (en) Pose Estimation Method and Device and Storage Medium
WO2020199730A1 (zh) 文本识别方法及装置、电子设备和存储介质
JP7106687B2 (ja) 画像生成方法および装置、電子機器、並びに記憶媒体
US10007841B2 (en) Human face recognition method, apparatus and terminal
WO2020155711A1 (zh) 图像生成方法及装置、电子设备和存储介质
WO2020134866A1 (zh) 关键点检测方法及装置、电子设备和存储介质
WO2021031609A1 (zh) 活体检测方法及装置、电子设备和存储介质
WO2021051949A1 (zh) 一种图像处理方法及装置、电子设备和存储介质
TWI752405B (zh) 神經網路訓練及圖像生成方法、電子設備、儲存媒體
CN109934275B (zh) 图像处理方法及装置、电子设备和存储介质
TW202038183A (zh) 文本識別方法及裝置、電子設備、儲存介質
CN110458218B (zh) 图像分类方法及装置、分类网络训练方法及装置
CN105335684B (zh) 人脸检测方法及装置
WO2021208666A1 (zh) 字符识别方法及装置、电子设备和存储介质
TW202127369A (zh) 網路訓練方法、圖像生成方法、電子設備及電腦可讀儲存介質
WO2022099989A1 (zh) 活体识别、门禁设备控制方法和装置、电子设备和存储介质、计算机程序
TW202029062A (zh) 網路優化方法及裝置、圖像處理方法及裝置、儲存媒體
CN111242303A (zh) 网络训练方法及装置、图像处理方法及装置
CN111259967A (zh) 图像分类及神经网络训练方法、装置、设备及存储介质
WO2021082381A1 (zh) 人脸识别方法及装置、电子设备和存储介质
CN111523599B (zh) 目标检测方法及装置、电子设备和存储介质
CN109447258B (zh) 神经网络模型的优化方法及装置、电子设备和存储介质
CN113538310A (zh) 图像处理方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020573403

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20880854

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 27.09.2022)

122 Ep: pct application non-entry in european phase

Ref document number: 20880854

Country of ref document: EP

Kind code of ref document: A1