WO2020134527A1 - 人脸识别的方法及装置 - Google Patents

人脸识别的方法及装置 Download PDF

Info

Publication number
WO2020134527A1
WO2020134527A1 PCT/CN2019/114328 CN2019114328W WO2020134527A1 WO 2020134527 A1 WO2020134527 A1 WO 2020134527A1 CN 2019114328 W CN2019114328 W CN 2019114328W WO 2020134527 A1 WO2020134527 A1 WO 2020134527A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
picture
dynamic
candidate
library
Prior art date
Application number
PCT/CN2019/114328
Other languages
English (en)
French (fr)
Inventor
顾鹏
Original Assignee
深圳云天励飞技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳云天励飞技术有限公司 filed Critical 深圳云天励飞技术有限公司
Priority to US17/253,636 priority Critical patent/US11074436B1/en
Publication of WO2020134527A1 publication Critical patent/WO2020134527A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Definitions

  • the present application relates to the technical field of mobile terminals, and in particular to a method and device for face recognition.
  • the current face recognition technology mostly uses a static base library and a video-captured face for comparison. If the difference between the static base library photo and the dynamic face is large, then the phenomenon of missed recognition is likely to occur.
  • Embodiments of the present application provide a face recognition method and device, which can improve the accuracy of face recognition and reduce the false recognition rate.
  • an embodiment of the present application provides a face recognition method, the method including:
  • the first similarity value is lower than a first preset threshold, determine whether there is a candidate face picture in the static library whose similarity to the target face image is greater than a second preset threshold ;
  • the candidate face picture exists, determine whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library; [0011] If there is a dynamic picture corresponding to the candidate face picture in the dynamic library, it is determined that the matching is successful.
  • the acquiring the target face image in the video monitoring device includes:
  • determining that the matching is successful includes:
  • the size of the face of the dynamic picture in the dynamic library exceeds a first threshold and the face is in a positive face gesture.
  • the method further includes:
  • the second aspect of the present invention also discloses a face recognition device, characterized in that the device includes:
  • a comparison unit configured to compare the target face image with the first-type image in the static library to obtain a first similarity value
  • the judging unit is configured to judge whether the similarity with the target face image is greater than a second preset threshold when the first similarity value is lower than a first preset threshold Alternative face pictures;
  • the judging unit is further configured to, if the candidate face picture exists, determine whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library;
  • the determining unit is configured to determine that the matching is successful if there is a dynamic picture corresponding to the candidate face picture in the dynamic library.
  • the acquiring unit is specifically configured to perform face recognition on the person when it is detected that a person appears in the video monitoring device; select one of the recognized faces The faces whose quality exceeds the preset threshold are subjected to feature extraction to obtain the target face image.
  • the determining unit is specifically configured to: if there is a dynamic picture corresponding to the candidate face picture in the dynamic library and the degree of matching between the candidate face picture and the dynamic picture If it is greater than the third preset threshold, it is determined that the matching is successful.
  • the size of the face of the dynamic picture in the dynamic library exceeds a first threshold and the face is in a positive face gesture.
  • the device further includes an output unit;
  • the determining unit is further configured to determine that the match is successful when the first similarity value is higher than the first preset threshold; determine the information of the person in the target face image according to the matched face picture ;
  • the output unit is configured to output the information.
  • an embodiment of the present application provides a mobile terminal, including a processor, a memory, a communication interface, and one or more programs, where the one or more programs are stored in the memory, and Is configured to be executed by the processor, and the program includes instructions for performing steps in any method of the first aspect of the embodiments of the present application.
  • embodiments of the present application provide a computer-readable storage medium, wherein the computer-readable storage medium stores a computer program for electronic data exchange, wherein the computer program causes the computer to execute
  • the computer includes a mobile terminal.
  • an embodiment of the present application provides a computer program product, where the computer program product includes a non-transitory computer-readable storage medium that stores a computer program, and the computer program is operable to cause a computer Perform some or all of the steps as described in any method of the first aspect of the embodiments of the present application.
  • the computer program product may be a software installation package, and the computer includes a mobile terminal
  • the target face image in the video monitoring device is obtained; the target face image is compared with the first type image in the static library to obtain a first similarity Value; when the first similarity value is lower than the first preset threshold, determine whether there is a candidate face picture in the static library whose similarity to the target face image is greater than a second preset threshold; If there is the candidate face picture, it is determined whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library; if there is a dynamic picture corresponding to the candidate face picture in the dynamic library, It is determined that the match is successful. Implementation of this application Examples help to improve the accuracy of face recognition and reduce the false recognition rate.
  • FIG. 1a is a schematic diagram of a physical architecture of a face recognition device provided by an embodiment of the present application.
  • FIG. 1b is a schematic flowchart of a face recognition method provided by an embodiment of the present application.
  • FIG. 2 is a schematic flowchart of another face recognition method disclosed in an embodiment of the present application.
  • FIG. 3 is a schematic flowchart of another face recognition method disclosed in an embodiment of the present application.
  • FIG. 4 is a schematic structural diagram of an electronic device disclosed in an embodiment of the present application.
  • FIG. 5 is a block diagram of functional units of a face recognition device disclosed in an embodiment of the present application.
  • FIG. 6 is a block diagram of functional units of another face recognition device disclosed in an embodiment of the present application.
  • FIG. 7 is a block diagram of functional units of another face recognition device disclosed in an embodiment of the present application.
  • the face recognition device 10 provided by the present invention includes a face recognition unit 110, a static library 120, and a dynamic library 130.
  • the static library 130 stores static pictures, such as the person's ID photo, life photo and so on.
  • a static picture refers to a picture in which the content in the picture is in a static state, for example, a picture in jpg format, or a picture in JPEG format, or a picture in PNG format.
  • the dynamic library 120 stores dynamic pictures of the characters.
  • the dynamic pictures refer to pictures that include actions, such as gif
  • the dynamic library 120 Dynamic pictures for auxiliary recognition.
  • FIG. 1a Please refer to Figure lb, where Figure lb is an embodiment of the present application
  • a schematic flowchart of a face recognition method is provided, which is applied to an electronic device.
  • the face recognition method includes:
  • S101 Acquire a target face image in a video monitoring device
  • the execution subject of this embodiment is a face recognition device.
  • the video monitoring device may be a part of the face recognition device, and of course it may also be an independent device.
  • the acquiring the target face image in the video monitoring device includes: when detecting that a person appears in the video monitoring device, performing face recognition on the person; Among the multiple recognized faces, select a face whose quality exceeds a preset threshold for feature extraction to obtain a target face image.
  • the face recognition device obtains a video, and when it is detected that a person appears in the video, takes a screenshot of the video containing the person's avatar; obtains multiple screenshots; according to the face in each screenshot
  • the quality of the images is sorted, and the frontmost image is taken as the target face image.
  • the measurement dimension of quality includes whether it is a human face and whether it is clear.
  • the first type of image is a certificate photo stored in a static library. Among them, it is understandable that there can be one or more ID photos of a person. When there are multiple ID photos of a person, the quality will be sorted according to the parameters such as the pixels and sharpness of the ID photo.
  • the first type of image is the first sorted image.
  • the resolution of the photos in the static library is greater than the preset resolution (such as 1024*768), and the face avatar accounts for at least one third of the figure.
  • comparing the target face image with the first type of image in the static library includes: comparing the image feature in the target face image with the first in the static library Compare image features in similar images.
  • the face features in the target face image may be compared with the face features in the first type image in the static library.
  • the comparison process includes: face image feature extraction, and image feature matching. Specifically, face feature extraction is performed for certain features of the face. Face feature extraction, also known as face characterization, is a process of feature modeling for human faces. The methods of facial feature extraction can be divided into two categories: one is knowledge-based representation method; the other is a representation method based on algebraic feature or statistical learning.
  • the knowledge-based characterization method is mainly based on the shape description of the face organs and the distance characteristics between them to obtain feature data that is helpful for face classification, and its feature components usually include the Euclidean distance between the feature points, the curvature and the angle, etc. .
  • a human face is composed of parts such as eyes, nose, mouth, and chin. The geometric description of these parts and the structural relationship between them can be used as an important feature to recognize a human face. These features are called geometric features.
  • Knowledge-based face representation mainly includes geometric feature-based methods and template matching methods. Face image feature matching means that the extracted feature data of the face image is matched with the feature template stored in the database. By setting a threshold, when the similarity exceeds this threshold, the matching result is output. Face recognition is to compare the face feature to be recognized with the obtained face feature template, and judge the identity information of the face according to the degree of similarity.
  • the static library may include many image collections. Each image collection is based on a character.
  • image collection 1 is a collection of photos of A.
  • the ID photo is the first type of picture in the first order.
  • the photo collection of Xiao A will also include photos of Xiao A's life at different ages or in different locations.
  • other photos will be sorted according to the quality of the photo (the quality of the photo includes pixels, whether it is a face, etc.).
  • the first preset threshold is greater than the second preset threshold.
  • the first preset threshold is 95%
  • the second preset threshold is 80%
  • the first preset threshold is 98%
  • the second preset threshold is 85%.
  • the first preset threshold and the second preset threshold may be set manually, or may be the system default; of course, it may also be determined through simulation.
  • the candidate face pictures are pictures 2 to N before sorting, and N is a positive integer greater than 2.
  • N can be set by the user or the system default.
  • the similarity between the target face image and the first type image in the static library is lower than the first preset threshold, then it is necessary to try to compare with the sorted 2-N pictures If the similarity obtained after comparing with the pictures in 2-N is greater than the second preset threshold, it means that the pictures ranked in 2-N may match the target face image. In order to further confirm whether they match, you can introduce The dynamic image is used for auxiliary identification, thereby improving the matching accuracy.
  • 10 face pictures of A are stored in the static library. Those with ID photos, those with life photos, etc. Compare the target face picture with the 10 face pictures of A to obtain 10 similarity values, and determine whether there are pictures with similarity values exceeding the first preset threshold. If not, then compare The target face picture is compared with the 10 A face pictures to determine whether there is a picture with a similarity exceeding a second preset threshold. If yes, proceed to 104. If not, return identification failure.
  • the method further includes: when the first similarity value is higher than a first preset threshold, determining that the match is successful; determining the person in the target face image according to the matched face picture Information; and outputting the information.
  • the candidate face picture may be matched with the dynamic picture in the dynamic library, and if the matching is successful, it is determined that there is a dynamic picture corresponding to the candidate face picture.
  • the candidate face picture exists, it is determined whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library.
  • the size of the face of the dynamic picture in the dynamic library exceeds the first threshold and the face is in a normal face gesture.
  • the first threshold is one quarter or one third of the face image.
  • the size of the face can be marked by the area, or it can be measured by the length of the face. For example, the ratio of the length of a human face to the length of a picture.
  • the front face of the face in the dynamic picture may be required to be continuous for N seconds.
  • N is a positive number greater than 0.
  • determining that the match is successful includes: if there is a candidate face picture in the dynamic library Corresponding dynamic picture And the matching degree between the candidate face picture and the dynamic picture is greater than a third preset threshold, it is determined that the matching is successful.
  • the third threshold may be manually set, or may be the system default.
  • the dynamic pictures in the dynamic library may be entered in advance, or may be entered after the match fails.
  • the user may be prompted on the screen to approach the camera, "Please keep the face for N seconds. After recording the dynamic image, the dynamic image will be stored. After successful storage , The association relationship between the face static library pictures and the dynamic gallery will be established.
  • the machine includes a camera function.
  • the face recognition device may be connected to the server of the police station; the face recognition device may download the photo of the wanted criminal from the police station server, if the obtained face photo matches the one issued by the police station If the photos of the wanted criminal match, then the alarm can be triggered.
  • the face recognition device can also obtain photos of the lost population, and then match the acquired face images with the photos of the lost population, and if the matching is successful, continue to monitor the action track of the lost population Alarms.
  • the target face image in the video monitoring device is obtained; the target face image is compared with the first type image in the static library to obtain the first similarity Value; when the first similarity value is lower than the first preset threshold, determine whether there is a candidate face picture in the static library whose similarity to the target face image is greater than a second preset threshold; If there is the candidate face picture, it is determined whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library; if there is a dynamic picture corresponding to the candidate face picture in the dynamic library, It is determined that the match is successful.
  • the embodiments of the present application are beneficial to improve the accuracy of face recognition and reduce the false recognition rate.
  • FIG. 2 is a schematic flowchart of a face recognition method provided by an embodiment of the present application, which is applied to an electronic device, as shown in the figure, Face recognition methods include:
  • S201 When it is detected that a person appears in the video monitoring device, perform face recognition on the person;
  • S202 selecting a face whose quality exceeds a preset threshold from the identified multiple faces for feature extraction to obtain a target face image
  • a face image whose quality exceeds a preset threshold is selected from the monitored multiple face images for feature extraction to obtain the target face image, thereby ensuring the original image Quality, which facilitates subsequent face matching, and provides a basis for subsequent high accuracy and low false recognition rate.
  • FIG. 3 is a schematic flowchart of a face recognition method provided by an embodiment of the present application, which is applied to an electronic device; Face recognition method package Including:
  • S301 Obtain dynamic pictures, and store the dynamic pictures in a dynamic library
  • the size of the face in the dynamic picture exceeds the first threshold and the face is in a positive face gesture. Furthermore, the face of the person in the dynamic image will last for at least N seconds, where N is a natural number greater than 1. For example, N is 2 or 3 or 4 seconds, etc., which is not limited here.
  • S302 Acquire a target face image in a video monitoring device
  • the video monitoring device may be installed in a densely populated place such as a railway station, an airport, a crossroad, or a pedestrian street. Of course, it can also be installed in hospitals, schools, governments and other places.
  • the video monitoring device can upload the recorded video to the server regularly or irregularly.
  • the execution subject of the embodiment of the present invention is a face recognition device, which can read video from the server, and of course, can also directly receive the video sent by the video monitoring device, and then obtain the target face image from the video.
  • S305 if the candidate face picture exists, determine whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library;
  • an embodiment of the present application provides a dynamic library, which stores high-quality dynamic pictures to assist in face recognition, thereby improving the accuracy of face recognition and reducing false recognition rate.
  • FIG. 4 is a schematic structural diagram of an electronic device 400 provided in an embodiment of the present application.
  • the electronic device 400 may be used for face recognition, such as executing any of the drawings shown in FIGS. 1 to 3 The corresponding method.
  • the electronic device 400 includes an application processor 410, a memory 420, a communication interface 430, and one or more programs 421, wherein the one or more programs 421 are stored in the above-mentioned memory 420 and are configured Executed by the foregoing application processor 410, the one or more programs 421 include instructions for performing the following steps;
  • the acquiring the target face image in the video monitoring device includes:
  • determining that the match is successful includes:
  • the method further includes:
  • the target face image in the video monitoring device is obtained; the target face image is compared with the first type image in the static library to obtain A first similarity value; when the first similarity value is lower than a first preset threshold, determine whether there is a candidate in the static library whose similarity to the target face image is greater than a second preset threshold Face picture; if the candidate face picture exists, determine whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library; if there is a corresponding picture in the dynamic library corresponding to the candidate face picture Of dynamic pictures, it is determined that the match is successful.
  • the embodiment of the present application is advantageous to combine the dynamic capture information of the user's face, and assist the static face library comparison Yes, the accuracy of the user's face recognition is improved.
  • the electronic device includes a hardware structure and/or a software module corresponding to each function.
  • the present application can be implemented in the form of hardware or a combination of hardware and computer software. Whether a function is executed by hardware or computer software driven hardware depends on the specific application and design constraints of the technical solution. Professional technicians can use different methods to implement the described functions for each specific application, but such implementation should not be considered beyond the scope of this application.
  • the embodiments of the present application may divide the functional unit of the electronic device according to the above method example, for example, each functional unit may be divided corresponding to each function, or two or more functions may be integrated into one processing unit.
  • the above integrated unit can be implemented in the form of hardware or software function unit. It should be noted that the division of the units in the embodiments of the present application is schematic, and is only a division of logical functions, and there may be other division manners in actual implementation.
  • each “unit” may be, for example, an integrated circuit ASIC, a single circuit, used to execute one or more software or firmware A program's processor (shared, dedicated, or chipset) and memory, combined logic circuits, and/or other suitable components that provide the above functions.
  • FIG. 5 shows a face recognition device 500 involved in an embodiment of the present application.
  • the face recognition device 500 includes
  • an obtaining unit 501 configured to obtain a target face image in a video monitoring device
  • a comparison unit 502 configured to compare the target face image with the first type image in the static library to obtain a first similarity value
  • the judging unit 503 is configured to, when the first similarity value is lower than a first preset threshold, determine whether there is a similarity with the target face image in the static library greater than a second preset threshold Alternative face pictures
  • the judging unit 503 is also used to judge whether there is a Dynamic pictures corresponding to the candidate face pictures;
  • the determination unit 504 is used if a dynamic picture corresponding to the candidate face picture exists in the dynamic library
  • the obtaining unit 501, the comparing unit 502, the determining unit 503, and the determining unit 504 may be used to perform the methods described in S101-S105.
  • FIG. 6 shows a face recognition device 600 involved in another embodiment of the present application.
  • the face recognition device 600 includes:
  • the recognition unit 601 is configured to perform face recognition on the person when it is detected that a person appears in the video monitoring device;
  • characters appearing may be random or may be target characters.
  • the selection unit 602 is used to select a face whose quality exceeds a preset threshold from among the recognized faces for feature extraction to obtain a target face image;
  • the comparison unit 603 is configured to compare the target face image with the first type image in the static library to obtain a first similarity value.
  • the judging unit 604 is configured to, when the first similarity value is lower than a first preset threshold, determine whether the similarity with the target face image in the static library is greater than a second preset threshold Alternative face pictures
  • the judging unit 604 is further configured to, if the candidate face picture exists, determine whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library;
  • the determining unit 605 is configured to determine that the matching is successful if there is a dynamic picture corresponding to the candidate face picture in the dynamic library.
  • the recognition unit 601, the selection unit 602, the comparison unit 603, the judgment unit 604, and the determination unit 605 may be used to perform the methods described in S201-S206.
  • FIG. 7 shows a face recognition device 700 involved in another embodiment of the present application.
  • the face recognition device 700 includes:
  • an obtaining unit 701 configured to obtain a dynamic picture
  • the storage unit 702 is configured to store the dynamic picture in a dynamic library; [0146] Wherein, the size of the human face in the dynamic picture exceeds the first threshold and the human face is in a positive face gesture. Further, the front face of the person in the dynamic graph will last for at least N seconds, and N is a natural number greater than 1. For example, N is 2 or 3 or 4 seconds, etc., and is not limited here.
  • the obtaining unit 701 is also used to obtain a target face image in the video monitoring device;
  • the video monitoring device may be installed in a densely populated place such as a railway station, an airport, a crossroad, or a pedestrian street. Of course, it can also be installed in hospitals, schools, governments and other places.
  • the video monitoring device can upload the recorded video to the server regularly or irregularly.
  • the execution subject of the embodiment of the present invention is a face recognition device, which can read video from the server, and of course, can also directly receive the video sent by the video monitoring device, and then obtain the target face image from the video.
  • the comparison unit 703 is configured to compare the target face image with the first type image in the static library to obtain a first similarity value
  • the judging unit 704 is configured to, when the first similarity value is lower than a first preset threshold, determine whether there is a similarity with the target face image in the static library greater than a second preset threshold Alternative face pictures
  • the judging unit 704 is further configured to judge whether there is a dynamic picture corresponding to the candidate face picture in the dynamic library if the candidate face picture exists;
  • the determining unit 705 is configured to determine that the matching is successful if there is a dynamic picture corresponding to the candidate face picture in the dynamic library.
  • the acquiring unit 701, the storage unit 702, the comparing unit 703, the determining unit 704, and the determining unit 705 may be used to perform the methods described in S301-S306.
  • Embodiments of the present application also provide a computer storage medium, where the computer storage medium stores a computer program for electronic data exchange, and the computer program causes the computer to execute any of the methods described in the method embodiments In some or all steps, the computer includes a mobile terminal.
  • Embodiments of the present application also provide a computer program product, the computer program product includes a non-transitory computer-readable storage medium that stores a computer program, the computer program is operable to cause a computer to perform as described in the method Part or all of the steps of any method described in the example.
  • the computer program product may be a software installation package, and the computer includes a mobile terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一种人脸识别方法及装置。方法包括:获取视频监测设备中的目标人脸图像(S101);将所述目标人脸图像与静态库中的第一类图像进行比对,以得到第一相似度值(S102);当所述第一相似度值低于第一预设阈值时,判断所述静态库中是否存在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片(S103);若存在所述备选人脸图片,则判断动态库中是否存在与所述备选人脸图片对应的动态图片(S104);若所述动态库中存在与所述备选人脸图片对应的动态图片,则确定匹配成功(S105)。有利于提高人脸识别的准确度。

Description

说明书 发明名称:人脸识别的方法及装置 技术领域
[0001] 本申请涉及移动终端技术领域, 具体涉及人脸识别的方法及装置。
[0002] 本申请要求于 2018年 12月 29日提交中国专利局, 申请号为 201811640270.3、 发 明名称为“人脸识别的方法及装置”的中国专利申请的优先权, 其全部内容通过引 用结合在本申请中。
背景技术
[0003] 如今, 在人与人相连的时代, 围绕人提供的服务首先要解决的是辨识人的身份 问题。 人脸识别作为身份识别的重要方式, 广泛应用于公安、 金融、 机场、 地 铁、 边防口岸等多个对人员身份进行自然比对识别的重要领域。
[0004] 目前的人脸识别技术多采用静态底库和视频抓拍人脸进行比对, 如果静态底库 照片和动态人脸差异较大, 那么就容易出现漏识别现象。
发明概述
技术问题
问题的解决方案
技术解决方案
[0005] 本申请实施例提供了一种人脸识别的方法及装置, 可以提高人脸识别的准确度 , 降低误识别率。
[0006] 第一方面, 本申请实施例提供一种人脸识别的方法, 所述方法包括:
[0007] 获取视频监测设备中的目标人脸图像;
[0008] 将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值
[0009] 当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在与所述 目标人脸图像的相似度大于第二预设阈值的备选人脸图片;
[0010] 若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸图片对应 的动态图片; [0011] 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹配成功。
[0012] 可选的, 所述获取视频监测设备中的目标人脸图像, 包括:
[0013] 当检测到有人物出现在所述视频监测设备中时, 对所述人物进行人脸识别;
[0014] 从识别出的多张人脸中选择一张质量超过预设门限的人脸进行特征提取以获取 目标人脸图像。
[0015] 可选的, 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹 配成功, 包括:
[0016] 若所述动态库中存在与所述备选人脸图片对应的动态图片且所述备选人脸图片 与所述动态图片的匹配度大于第三预设阈值, 则确定匹配成功。
[0017] 可选的, 所述动态库中的动态图片的人脸大小超过第一门限且所述人脸处于正 脸姿态。
[0018] 可选的, 所述方法还包括:
[0019] 当所述第一相似度值高于第一预设阈值时, 确定匹配成功;
[0020] 根据匹配到的人脸图片确定所述目标人脸图像中人物的信息; 以及输出所述信 息。
[0021] 本发明第二方面还公开了一种人脸识别的装置, 其特征在于, 所述装置包括:
[0022] 获取单元, 用于获取视频监测设备中的目标人脸图像;
[0023] 比对单元, 用于将所述目标人脸图像与静态库中的第一类图像进行比对, 以得 到第一相似度值;
[0024] 判断单元, 用于当所述第一相似度值低于第一预设阈值时, 判断所述静态库中 是否存在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片;
[0025] 所述判断单元, 还用于若存在所述备选人脸图片, 则判断动态库中是否存在与 所述备选人脸图片对应的动态图片;
[0026] 确定单元, 用于若所述动态库中存在与所述备选人脸图片对应的动态图片, 则 确定匹配成功。
[0027] 可选的, 所述获取单元, 具体用于当检测到有人物出现在所述视频监测设备中 时, 对所述人物进行人脸识别; 从识别出的多张人脸中选择一张质量超过预设 门限的人脸进行特征提取以获取目标人脸图像。 [0028] 可选的, 所述确定单元, 具体用于若所述动态库中存在与所述备选人脸图片对 应的动态图片且所述备选人脸图片与所述动态图片的匹配度大于第三预设阈值 , 则确定匹配成功。
[0029] 可选的, 所述动态库中的动态图片的人脸大小超过第一门限且所述人脸处于正 脸姿态。
[0030] 可选的, 所述装置还包括输出单元;
[0031] 所述确定单元, 还用于当所述第一相似度值高于第一预设阈值时, 确定匹配成 功; 根据匹配到的人脸图片确定所述目标人脸图像中人物的信息;
[0032] 所述输出单元, 用于输出所述信息。
[0033] 第三方面, 本申请实施例提供一种移动终端, 包括处理器、 存储器、 通信接口 以及一个或多个程序, 其中, 所述一个或多个程序被存储在所述存储器中, 并 且被配置由所述处理器执行, 所述程序包括用于执行本申请实施例第一方面任 一方法中的步骤的指令。
[0034] 第四方面, 本申请实施例提供了一种计算机可读存储介质, 其中, 所述计算机 可读存储介质存储用于电子数据交换的计算机程序, 其中, 所述计算机程序使 得计算机执行如本申请实施例第一方面任一方法中所描述的部分或全部步骤, 所述计算机包括移动终端。
[0035] 第五方面, 本申请实施例提供了一种计算机程序产品, 其中, 所述计算机程序 产品包括存储了计算机程序的非瞬时性计算机可读存储介质, 所述计算机程序 可操作来使计算机执行如本申请实施例第一方面任一方法中所描述的部分或全 部步骤。 该计算机程序产品可以为一个软件安装包, 所述计算机包括移动终端
[0036] 可以看出, 本申请实施例中, 获取视频监测设备中的目标人脸图像; 将所述目 标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值; 当所述 第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在与所述目标人 脸图像的相似度大于第二预设阈值的备选人脸图片; 若存在所述备选人脸图片 , 则判断动态库中是否存在与所述备选人脸图片对应的动态图片; 若所述动态 库中存在与所述备选人脸图片对应的动态图片, 则确定匹配成功。 本申请实施 例有利于提高人脸识别的准确度, 降低误识别率。
发明的有益效果
对附图的简要说明
附图说明
[0037] 下面将对本申请实施例所涉及到的附图作简单地介绍。
[0038] 图 la是本申请实施例提供的一种人脸识别装置的物理架构示意图;
[0039] 图 lb是本申请实施例提供的一种人脸识别方法的流程示意图;
[0040] 图 2是本申请实施例公开的另一种人脸识别方法的流程示意图;
[0041] 图 3是本申请实施例公开的另一种人脸识别方法的流程示意图;
[0042] 图 4是本申请实施例公开的一种电子设备的结构示意图;
[0043] 图 5是本申请实施例公开的一种人脸识别装置的功能单元组成框图;
[0044] 图 6是本申请实施例公开的另一种人脸识别装置的功能单元组成框图;
[0045] 图 7是本申请实施例公开的另一种人脸识别装置的功能单元组成框图。
发明实施例
本发明的实施方式
[0046] 如图 la所示, 本发明提供的人脸识别装置 10包括人脸识别单元 110、 静态库 120 以及动态库 130。
[0047] 其中, 静态库 130中存储有静态的图片, 如人物的证件照、 生活照等。 可以理 解的是, 静态图片是指图片中的内容处于静止状态的图片, 比如可以是 jpg格式 的图片, 或 JPEG格式的图片、 或 PNG格式的图片等。 动态库 120中存储有人物的 动态图片, 可以理解的是动态图片是指图片中包括动作的图片, 比如 gif|&式的 图片。 举例来说, 一个时间长度为 10秒的人物动态图, 前五秒该动态图中的人 物处于正脸站直状态, 五秒之后该动态图中的人物就会运动比如蹲下、 转身以 及蹦蹦跳跳等。 需要指出的是, 获取人脸图像, 如果人脸图像的图像特征与静 态库 130中人脸图像的图片特征进行匹配以获取的相似度小于第一预设阈值时, 需要借助动态库 120中的动态图片进行辅助识别。
[0048] 具体的, 结合图 la所示的架构来详细描述。 请参阅图 lb, 图 lb是本申请实施例 提供了一种人脸识别方法的流程示意图, 应用于电子设备, 如图所示, 本人脸 识别方法包括:
[0049] S101、 获取视频监测设备中的目标人脸图像;
[0050] 其中, 需要指出的是, 本实施例的执行主体为人脸识别装置。 其中, 该视频监 测设备可以是人脸识别装置的一部分, 当然也可以是独立的装置。
[0051] 其中, 需要指出的是, 所述获取视频监测设备中的目标人脸图像, 包括: 当检 测到有人物出现在所述视频监测设备中时, 对所述人物进行人脸识别; 从识别 出的多张人脸中选择一张质量超过预设门限的人脸进行特征提取以获取目标人 脸图像。
[0052] 举例来说, 人脸识别装置获取一段视频, 当检测到有人物出现在该视频中时, 对该包含该人物头像的视频进行截图; 获取多张截图; 根据每张截图中人脸图 像的质量进行排序, 将排在最前面的图像作为目标人脸图像。 其中, 质量的衡 量维度包括是否为人脸的正脸以及是否清晰。
[0053] S102、 将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相 似度值;
[0054] 举例来说, 该第一类图像是静态库中存储的证件照。 其中, 可以理解的是, 一 个人物的证件照可以有一张或多张。 当人物的证件照有多张时, 会根据证件照 的像素、 清晰度等参数进行质量排序, 第一类图像为排序第一的图像。
[0055] 可以理解的是, 将所述目标人脸图像与静态库中的第一类图像进行比对 (即与 排序第一的图片进行比对) , 可以以最快的速度确定是否比对成功, 如果比对 成功, 则直接反馈比对结果, 快速的响应可提升用户体验。
[0056] 举例来说, 为保证静态库中照片的质量, 要求静态库中的照片分辨率大于预设 分辨率 (比如 1024*768) , 且人脸头像至少占图的三分之一。
[0057] 另外, 需要指出的是, 将所述目标人脸图像与静态库中的第一类图像进行比对 , 包括: 将所述目标人脸图像中的图像特征与静态库中的第一类图像中的图像 特征进行比对。
[0058] 举例来说, 可以是将所述目标人脸图像中的人脸特征与静态库中的第一类图像 中的人脸特征进行比对。 [0059] 举例来说, 比对的过程包括: 人脸图像特征提取, 以及图像特征的匹配。 具体 的, 人脸特征提取就是针对人脸的某些特征进行的。 人脸特征提取, 也称人脸 表征, 它是对人脸进行特征建模的过程。 人脸特征提取的方法归纳起来分为两 大类: 一种是基于知识的表征方法; 另外一种是基于代数特征或统计学习的表 征方法。 基于知识的表征方法主要是根据人脸器官的形状描述以及他们之间的 距离特性来获得有助于人脸分类的特征数据, 其特征分量通常包括特征点间的 欧氏距离、 曲率和角度等。 人脸由眼睛、 鼻子、 嘴、 下巴等局部构成, 对这些 局部和它们之间结构关系的几何描述, 可作为识别人脸的重要特征, 这些特征 被称为几何特征。 基于知识的人脸表征主要包括基于几何特征的方法和模板匹 配法。 人脸图像特征匹配是指提取的人脸图像的特征数据与数据库中存储的特 征模板进行搜索匹配, 通过设定一个阈值, 当相似度超过这一阈值, 则把匹配 得到的结果输出。 人脸识别就是将待识别的人脸特征与已得到的人脸特征模板 进行比较, 根据相似程度对人脸的身份信息进行判断。
[0060] 举例来说, 静态库中可以包括很多图像集合。 每个图像集合都是以一个人物为 主题的。 比如图像集合 1是小 A的照片集合。 其中, 证件照为排序第一的第一类 图片。 小 A的照片集合中还会包括小 A不同年龄的或在不同地点的生活照。 当然 , 除了第一类照片, 其他照片会按照照片质量进行排序 (照片质量包括像素, 是否正脸等维度) 。
[0061] S103、 当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在 与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片;
[0062] 其中, 可以理解的是, 第一预设阈值大于第二预设阈值。
[0063] 举例来说, 比如第一预设阈值为 95%, 第二预设阈值为 80%。
[0064] 再比如, 第一预设阈值为 98%, 第二预设阈值为 85%。 其中, 第一预设阈值和 第二预设阈值可以是人工设定的, 也可以是***默认的; 当然, 还可以是通过 仿真确定的。
[0065] (请您确认以上是否应为“第一预设阈值”和“第二预设阈值”)
[0066] 其中, 可以理解的是备选人脸图片是排序前 2至 N的图片, N为大于 2的正整数 。 N可以是用户设置的, 也可以是***默认的。 [0067] 可以理解的是, 如果所述目标人脸图像与静态库中的第一类图像的相似度低于 第一预设阈值, 那么就需要尝试下与排序 2-N的图片进行比对, 如果与 2-N中图 片比对后, 获得的相似度大于第二预设阈值, 那么说明排序 2-N的图片有可能是 与目标人脸图像匹配的, 为了进一步确认是否匹配, 可以引入动态图进行辅助 识别, 从而提升匹配的准确率。
[0068] 举例来说, 针对用户 A, 静态库中存储了 10张 A的人脸图片。 有证件照的, 有 生活照的等等。 将目标人脸图片与这 10张 A的人脸图片进行一一比对后以获取 10 个相似度值, 判断是否有相似度值超过第一预设阈值的图片, 如果没有, 那么 就再将目标人脸图片与这 10张 A的人脸图片进行一一比对以确定是否有相似度超 过第二预设阈值的图片。 如果有, 则进行 104, 如果没有则返回识别失败。
[0069] 可选的, 所述方法还包括: 当所述第一相似度值高于第一预设阈值时, 确定匹 配成功; 根据匹配到的人脸图片确定所述目标人脸图像中人物的信息; 以及输 出所述信息。
[0070] S104、 若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸图 片对应的动态图片;
[0071] 可以理解的是, 可以将所述备选人脸图片与动态库中的动态图片进行匹配, 如 果匹配成功, 则确定存在与所述备选人脸图片对应的动态图片。
[0072] 举例来说, 若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人 脸图片对应的动态图片。
[0073] 另外, 可以理解的是, 所述动态库中的动态图片的人脸大小超过第一门限且所 述人脸处于正脸姿态。 第一门限为人脸图片的四分之一或三分之一等。 当然人 脸大小可以用面积标识, 也可以用人脸的长度来衡量。 比如人脸的长度与图片 长度的比例。
[0074] 可选的, 动态图片中人脸的正脸可以要求是连续 N秒的。 N为大于 0的正数。
[0075] S105、 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹配 成功。
[0076] 其中可选的, 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确 定匹配成功, 包括: 若所述动态库中存在与所述备选人脸图片对应的动态图片 且所述备选人脸图片与所述动态图片的匹配度大于第三预设阈值, 则确定匹配 成功。
[0077] 其中, 该第三阈值可以是人工设定的, 也可以是***默认的。
[0078] 另外, 需要指出的是, 动态库中的动态图片可以是提前录入的, 也可以是匹配 失败后录入的。
[0079] 举例来说, 当人脸比对失败的时候, 可以通过屏幕提示用户靠近摄像头, “请 保持正脸停留 N秒. 录制完动态图之后, 会将动态图入库。 入库成功后, 会建 立人脸静态库图片和动态图库的关联关系。
[0080] 比如拿人脸识别考勤机来说, 该机器包括摄像功能。
[0081] a)张三拿出一张 5年前的自拍照片 (比如美颜过) , 通过后台入库, 静态库中 有了一张张三的静态图;
[0082] b)张三考勤的时候, 由于相机位置比较远, 人脸姿态也不是很好, 和 5年前的 张三静态图比对不上, 此时张三通过电视屏幕上会发现自己没有记录考勤信息
[0083] c)张三发现考勤失败, 那么会正脸靠近站在摄像头前, 录取一张清晰的动态图 片 (此时人脸质量很好, 可以和 5年前张三静态图比对上) , 电视屏幕会提示张 三动态入库;
[0084] d)张三后续经过摄像头时候, 虽然抓拍的人脸图片不好 (姿态、 人脸比较小等
) , 但和静态图中张三能有一定的相识度 (在第一门限和第二门限之间) , 此 时在区间内会有多张人脸 (比如李四) 也有一定的相识度;
[0085] e)此处动态入库就起作用了, 比如在第一门限和第二门限期间有张三、 李四、 王五三个静态图片被选中, 那么再根据静态图找找对应的动态图, 由于动态图 是近期拍摄的高质量人脸图片, 张三就很容易比对成功。
[0086] 进一步可选的, 该人脸识别装置可以与警察局的服务器连接; 该人脸识别装置 可以从警局服务器下载通缉犯的照片, 如果匹配获取的人脸照片与警局下发的 通缉犯的照片匹配, 那么可以触发报警。
[0087] 当然, 该人脸识别装置还可以获取走失人口的照片, 然后将获取的到人脸图片 与走失人口的照片进行匹配, 如果匹配成功, 则继续监视该走失人口的行动轨 迹, 还可以进行报警。
[0088] 可以看出, 本申请实施例中, 获取视频监测设备中的目标人脸图像; 将所述目 标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值; 当所述 第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在与所述目标人 脸图像的相似度大于第二预设阈值的备选人脸图片; 若存在所述备选人脸图片 , 则判断动态库中是否存在与所述备选人脸图片对应的动态图片; 若所述动态 库中存在与所述备选人脸图片对应的动态图片, 则确定匹配成功。 本申请实施 例有利于提高人脸识别的准确度, 降低误识别率。
[0089] 与所述图 lb所示的实施例一致的, 请参阅图 2, 图 2是本申请实施例提供的一种 人脸识别方法的流程示意图, 应用于电子设备, 如图所示, 本人脸识别方法包 括:
[0090] S201 , 当检测到有人物出现在所述视频监测设备中时, 对所述人物进行人脸识 别;
[0091] S202, 从识别出的多张人脸中选择一张质量超过预设门限的人脸进行特征提取 以获取目标人脸图像;
[0092] S203 , 将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相 似度值。
[0093] S204, 当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在 与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片;
[0094] S205 , 若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸图 片对应的动态图片;
[0095] S206 , 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹配 成功。
[0096] 可以看出, 本申请实施例中, 会从监测到的多张人脸图像中选择一张质量超过 预设门限的人脸图像进行特征提取以获取目标人脸图像, 从而保证原始图像的 质量, 进而方便后续的人脸匹配, 为后续的高准确度、 低误识别率提供基础。
[0097] 与所述图 lb所示的实施例一致的, 请参阅图 3, 图 3是本申请实施例提供的一种 人脸识别方法的流程示意图, 应用于电子设备; 如图所示, 本人脸识别方法包 括:
[0098] S301 , 获取动态图片, 并将所述动态图片存入动态库中;
[0099] 其中, 所述动态图片中的人脸大小超过第一门限且所述人脸处于正脸姿态。 进 一步的, 动态图中的人物的正脸会持续至少 N秒, N为大于 1的自然数。 举例来说 , N为 2或 3或 4秒等, 在此不做限制。
[0100] S302、 获取视频监测设备中的目标人脸图像;
[0101] 可以理解的是, 该视频监测设备可以安装在火车站、 飞机场、 十字路口、 步行 街等人口密集的地方。 当然也可以安装在医院、 学校、 政府等地方。 该视频监 测设备可以定期或不定期的将录制的视频上传至服务器。 本发明实施例的执行 主体为人脸识别装置, 该装置可以从服务器中读取视频, 当然也可以直接接收 视频监测设备发送的视频, 然后从视频中获取目标人脸图像。
[0102] S303 , 将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相 似度值;
[0103] S304, 当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在 与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片;
[0104] S305 , 所若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸 图片对应的动态图片;
[0105] S306 , 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹配 成功。
[0106] 可以看出, 本申请实施例中, 提供了动态库, 该动态库中存储了高质量的动态 图片以辅助进行人脸识别, 从而提高了人脸识别的准确度, 降低了误识别率。
[0107] 请参阅图 4, 图 4是本申请实施例提供的一种电子设备 400的结构示意图, 该电 子设备 400可用于进行人脸识别, 比如执行图 lb至图 3任一所述附图所对应的方 法。 如图 4所示, 电子设备 400包括应用处理器 410、 存储器 420、 通信接口 430以 及一个或多个程序 421, 其中, 所述一个或多个程序 421被存储在上述存储器 420 中, 并且被配置由上述应用处理器 410执行, 所述一个或多个程序 421包括用于 执行以下步骤的指令;
[0108] 获取视频监测设备中的目标人脸图像; [0109] 将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值
[0110] 当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否存在与所述 目标人脸图像的相似度大于第二预设阈值的备选人脸图片;
[0111] 若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸图片对应 的动态图片;
[0112] 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹配成功。
[0113] 其中, 可选的, 所述获取视频监测设备中的目标人脸图像, 包括:
[0114] 当检测到有人物出现在所述视频监测设备中时, 对所述人物进行人脸识别;
[0115] 从识别出的多张人脸中选择一张质量超过预设门限的人脸进行特征提取以获取 目标人脸图像。
[0116] 其中, 可选的若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确 定匹配成功, 包括:
[0117] 若所述动态库中存在与所述备选人脸图片对应的动态图片且所述备选人脸图片 与所述动态图片的匹配度大于第三预设阈值, 则确定匹配成功。
[0118] 其中, 需要指出的是, 所述动态图片中的人脸大小超过第一门限且所述人脸处 于正脸姿态。
[0119] 进一步可选的, 所述方法还包括:
[0120] 当所述第一相似度值高于第一预设阈值时, 确定匹配成功;
[0121] 根据匹配到的人脸图片确定所述目标人脸图像中人物的信息; 以及输出所述信 息。
[0122] 从上可知, 通过本发明实施例提供的电子设备, 获取视频监测设备中的目标人 脸图像; 将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一 相似度值; 当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否 存在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片; 若存在 所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸图片对应的动态 图片; 若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹配 成功。 本申请实施例有利于结合用户人脸动态抓拍信息, 辅助静态人脸图库比 对, 提高了用户人脸识别的准确度。
[0123] 上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。 可以理 解的是, 电子设备为了实现上述功能, 其包含了执行各个功能相应的硬件结构 和 /或软件模块。 本领域技术人员应该很容易意识到, 结合本文中所提供的实施 例描述的各示例的单元及算法步骤, 本申请能够以硬件或硬件和计算机软件的 结合形式来实现。 某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行 , 取决于技术方案的特定应用和设计约束条件。 专业技术人员可以对每个特定 的应用使用不同方法来实现所描述的功能, 但是这种实现不应认为超出本申请 的范围。
[0124] 本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分, 例如, 可以对应各个功能划分各个功能单元, 也可以将两个或两个以上的功能集成在 一个处理单元中。 上述集成的单元既可以采用硬件的形式实现, 也可以采用软 件功能单元的形式实现。 需要说明的是, 本申请实施例中对单元的划分是示意 性的, 仅仅为一种逻辑功能划分, 实际实现时可以有另外的划分方式。
[0125] 需要注意的是, 本申请装置实施例所描述的人脸识别装置是以功能单元的形式 呈现。 这里所使用的术语“单元”应当理解为尽可能最宽的含义, 用于实现各个“ 单元”所描述功能的对象例如可以是集成电路 ASIC, 单个电路, 用于执行一个或 多个软件或固件程序的处理器 (共享的、 专用的或芯片组) 和存储器, 组合逻 辑电路, 和 /或提供实现上述功能的其他合适的组件。
[0126] 图 5示出了本申请实施例中所涉及的人脸识别装置 500, 人脸识别装置 500包括
[0127] 获取单元 501, 用于获取视频监测设备中的目标人脸图像;
[0128] 比对单元 502, 用于将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值;
[0129] 判断单元 503 , 用于当所述第一相似度值低于第一预设阈值时, 判断所述静态 库中是否存在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片
[0130] 判断单元 503 , 还用于若存在所述备选人脸图片, 则判断动态库中是否存在与 所述备选人脸图片对应的动态图片;
[0131] 确定单兀 504, 用于若所述动态库中存在与所述备选人脸图片对应的动态图片
, 则确定匹配成功。
[0132] 可以理解的是, 获取单元 501、 比对单元 502、 判断单元 503以及确定单元 504可 用于执行 S101-S105所述的方法。
[0133] 图 6示出了本申请另一实施例中所涉及的人脸识别装置 600, 人脸识别装置 600 包括:
[0134] 识别单元 601, 用于当检测到有人物出现在所述视频监测设备中时, 对所述人 物进行人脸识别;
[0135] 其中, 可以理解的是, 出现的人物可以是随机的, 也可以是目标人物。
[0136] 选择单元 602, 用于从识别出的多张人脸中选择一张质量超过预设门限的人脸 进行特征提取以获取目标人脸图像;
[0137] 比对单元 603 , 用于将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值。
[0138] 判断单元 604, 用于当所述第一相似度值低于第一预设阈值时, 判断所述静态 库中是否存在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片
[0139] 判断单元 604, 还用于若存在所述备选人脸图片, 则判断动态库中是否存在与 所述备选人脸图片对应的动态图片;
[0140] 确定单兀 605, 用于若所述动态库中存在与所述备选人脸图片对应的动态图片 , 则确定匹配成功。
[0141] 可以理解的是, 识别单元 601、 选择单元 602、 比对单元 603、 判断单元 604以及 确定单元 605可用于执行 S201-S206所述的方法。
[0142]
[0143] 图 7示出了本申请另一实施例中所涉及的人脸识别装置 700, 人脸识别装置 700 包括:
[0144] 获取单元 701, 用于获取动态图片;
[0145] 存储单元 702, 用于将所述动态图片存入动态库中; [0146] 其中, 所述动态图片中的人脸大小超过第一门限且所述人脸处于正脸姿态。 进 一步的, 动态图中的人物的正脸会持续至少 N秒, N为大于 1的自然数。 举例来说 , N为 2或 3或 4秒等, 在此不做限制。
[0147] 获取单元 701, 还用于获取视频监测设备中的目标人脸图像;
[0148] 可以理解的是, 该视频监测设备可以安装在火车站、 飞机场、 十字路口、 步行 街等人口密集的地方。 当然也可以安装在医院、 学校、 政府等地方。 该视频监 测设备可以定期或不定期的将录制的视频上传至服务器。 本发明实施例的执行 主体为人脸识别装置, 该装置可以从服务器中读取视频, 当然也可以直接接收 视频监测设备发送的视频, 然后从视频中获取目标人脸图像。
[0149] 比对单元 703 , 用于将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一相似度值;
[0150] 判断单元 704, 用于当所述第一相似度值低于第一预设阈值时, 判断所述静态 库中是否存在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片
[0151] 判断单元 704, 还用于所若存在所述备选人脸图片, 则判断动态库中是否存在 与所述备选人脸图片对应的动态图片;
[0152] 确定单兀 705, 用于若所述动态库中存在与所述备选人脸图片对应的动态图片 , 则确定匹配成功。
[0153] 可以理解的是, 获取单元 701、 存储单元 702、 比对单元 703、 判断单元 704以及 确定单元 705可用于执行 S301-S306所述的方法。
[0154] 本申请实施例还提供一种计算机存储介质, 其中, 该计算机存储介质存储用于 电子数据交换的计算机程序, 该计算机程序使得计算机执行如所述方法实施例 中记载的任一方法的部分或全部步骤, 所述计算机包括移动终端。
[0155] 本申请实施例还提供一种计算机程序产品, 所述计算机程序产品包括存储了计 算机程序的非瞬时性计算机可读存储介质, 所述计算机程序可操作来使计算机 执行如所述方法实施例中记载的任一方法的部分或全部步骤。 该计算机程序产 品可以为一个软件安装包, 所述计算机包括移动终端。

Claims

权利要求书
[权利要求 1] 一种人脸识别的方法, 其特征在于, 所述方法包括:
获取视频监测设备中的目标人脸图像;
将所述目标人脸图像与静态库中的第一类图像进行比对, 以得到第一 相似度值;
当所述第一相似度值低于第一预设阈值时, 判断所述静态库中是否存 在与所述目标人脸图像的相似度大于第二预设阈值的备选人脸图片; 若存在所述备选人脸图片, 则判断动态库中是否存在与所述备选人脸 图片对应的动态图片;
若所述动态库中存在与所述备选人脸图片对应的动态图片, 则确定匹 配成功。
[权利要求 2] 根据权利要求 1所述的方法, 其特征在于, 所述获取视频监测设备中 的目标人脸图像, 包括:
当检测到有人物出现在所述视频监测设备中时, 对所述人物进行人脸 识别;
从识别出的多张人脸中选择一张质量超过预设门限的人脸进行特征提 取以获取目标人脸图像。
[权利要求 3] 根据权利要求 2所述的方法, 其特征在于, 若所述动态库中存在与所 述备选人脸图片对应的动态图片, 则确定匹配成功, 包括: 若所述动态库中存在与所述备选人脸图片对应的动态图片且所述备选 人脸图片与所述动态图片的匹配度大于第三预设阈值, 则确定匹配成 功。
[权利要求 4] 根据权利要求 3所述的方法, 其特征在于, 所述动态图片中的人脸大 小超过第一门限且所述人脸处于正脸姿态。
[权利要求 5] 根据权利要求 1至 4任一所述的方法, 其特征在于, 所述方法还包括: 当所述第一相似度值高于第一预设阈值时, 确定匹配成功; 根据匹配到的人脸图片确定所述目标人脸图像中人物的信息; 以及输 出所述信息。
[权利要求 6] 一种人脸识别的装置, 其特征在于, 所述装置包括:
获取单元, 用于获取视频监测设备中的目标人脸图像;
比对单元, 用于将所述目标人脸图像与静态库中的第一类图像进行比 对, 以得到第一相似度值;
判断单元, 用于当所述第一相似度值低于第一预设阈值时, 判断所述 静态库中是否存在与所述目标人脸图像的相似度大于第二预设阈值的 备选人脸图片;
所述判断单元, 还用于若存在所述备选人脸图片, 则判断动态库中是 否存在与所述备选人脸图片对应的动态图片;
确定单元, 用于若所述动态库中存在与所述备选人脸图片对应的动态 图片, 则确定匹配成功。
[权利要求 7] 根据权利要求 6所述的装置, 其特征在于, 所述获取单元, 具体用于 当检测到有人物出现在所述视频监测设备中时, 对所述人物进行人脸 识别; 从识别出的多张人脸中选择一张质量超过预设门限的人脸进行 特征提取以获取目标人脸图像。
[权利要求 8] 根据权利要求 7所述的装置, 其特征在于, 所述确定单元, 具体用于 若所述动态库中存在与所述备选人脸图片对应的动态图片且所述备选 人脸图片与所述动态图片的匹配度大于第三预设阈值, 则确定匹配成 功。
[权利要求 9] 根据权利要求 8所述的装置, 其特征在于, 所述动态库中的动态图片 的人脸大小超过第一门限且所述人脸处于正脸姿态。
[权利要求 10] 根据权利要求 6至 9任一所述的装置, 其特征在于, 所述装置还包括输 出单元;
所述确定单元, 还用于当所述第一相似度值高于第一预设阈值时, 确 定匹配成功; 根据匹配到的人脸图片确定所述目标人脸图像中人物的 信息;
所述输出单元, 用于输出所述信息。
PCT/CN2019/114328 2018-12-29 2019-10-30 人脸识别的方法及装置 WO2020134527A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/253,636 US11074436B1 (en) 2018-12-29 2019-10-30 Method and apparatus for face recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811640270.3 2018-12-29
CN201811640270.3A CN109858371B (zh) 2018-12-29 2018-12-29 人脸识别的方法及装置

Publications (1)

Publication Number Publication Date
WO2020134527A1 true WO2020134527A1 (zh) 2020-07-02

Family

ID=66893259

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/114328 WO2020134527A1 (zh) 2018-12-29 2019-10-30 人脸识别的方法及装置

Country Status (3)

Country Link
US (1) US11074436B1 (zh)
CN (1) CN109858371B (zh)
WO (1) WO2020134527A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858371B (zh) * 2018-12-29 2021-03-05 深圳云天励飞技术有限公司 人脸识别的方法及装置
CN112949362B (zh) * 2019-12-11 2023-10-17 杭州海康威视数字技术股份有限公司 人员信息标注方法、装置及电子设备
CN110503033B (zh) * 2019-08-21 2022-02-15 杭州宇泛智能科技有限公司 一种降低人脸库中多个相似人脸误识别的方法
CN112446395B (zh) 2019-08-29 2023-07-25 杭州海康威视数字技术股份有限公司 网络摄像机、视频监控***及方法
CN110909121A (zh) * 2019-10-10 2020-03-24 北京东软望海科技有限公司 用于医疗行业数据标准化的方法及***
CN111144326B (zh) * 2019-12-28 2023-10-27 神思电子技术股份有限公司 一种用于人机交互的人脸防重识别方法
CN111723651B (zh) * 2020-05-09 2023-10-10 熵基科技股份有限公司 一种人脸识别方法、人脸识别装置及终端设备
WO2021238733A1 (zh) 2020-05-25 2021-12-02 聚好看科技股份有限公司 显示设备及图像识别结果显示方法
CN114339346B (zh) * 2020-09-30 2023-06-23 聚好看科技股份有限公司 显示设备及图像识别结果显示方法
CN111724522B (zh) * 2020-05-25 2022-04-08 浙江大华技术股份有限公司 一种门禁控制***、方法、装置、控制设备及存储介质
WO2022012299A1 (zh) 2020-07-14 2022-01-20 海信视像科技股份有限公司 显示设备及人物识别展示的方法
CN114945102A (zh) * 2020-07-14 2022-08-26 海信视像科技股份有限公司 显示设备及人物识别展示的方法
CN112183219A (zh) * 2020-09-03 2021-01-05 广州市标准化研究院 一种基于人脸识别的公共安全视频监测方法及***
CN112101254B (zh) * 2020-09-21 2024-06-14 深圳喜为智慧科技有限公司 一种提升图像识别精度和速度的方法和***
CN112114985B (zh) * 2020-09-22 2024-03-01 杭州海康威视***技术有限公司 一种人脸信息的下发方法、装置及设备
CN112966136B (zh) * 2021-05-18 2021-09-07 武汉中科通达高新技术股份有限公司 一种人脸分类方法及装置
CN113792168A (zh) * 2021-08-11 2021-12-14 同盾科技有限公司 人脸底库自维护的方法、***、电子装置和存储介质
AU2021240278A1 (en) * 2021-09-20 2023-04-06 Sensetime International Pte. Ltd. Face identification methods and apparatuses

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070036398A1 (en) * 2005-08-12 2007-02-15 Tianlong Chen Apparatus and method for partial component facial recognition
CN101324919A (zh) * 2007-06-15 2008-12-17 上海银晨智能识别科技有限公司 一种照片视频比对方法
CN105631430A (zh) * 2015-12-30 2016-06-01 浙江宇视科技有限公司 一种人脸图像的匹配方法和装置
CN106295482A (zh) * 2015-06-11 2017-01-04 ***(深圳)有限公司 一种人脸数据库的更新方法及装置
CN107346410A (zh) * 2016-05-05 2017-11-14 杭州海康威视数字技术股份有限公司 图片处理方法及装置
CN108090420A (zh) * 2017-11-30 2018-05-29 睿视智觉(深圳)算法技术有限公司 一种人脸识别方法
CN109858371A (zh) * 2018-12-29 2019-06-07 深圳云天励飞技术有限公司 人脸识别的方法及装置
CN110334688A (zh) * 2019-07-16 2019-10-15 重庆紫光华山智安科技有限公司 基于人脸照片库的图像识别方法、装置和计算机可读存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI430185B (zh) * 2010-06-17 2014-03-11 Inst Information Industry 臉部表情辨識系統及其辨識方法及其電腦程式產品
US20130216107A1 (en) * 2012-02-20 2013-08-22 Chih-Hsung Huang Method of surveillance by face recognition
GB2499449A (en) * 2012-02-20 2013-08-21 Taiwan Colour And Imaging Technology Corp Surveillance by face recognition using colour display of images
CN103716309B (zh) * 2013-12-17 2017-09-29 华为技术有限公司 一种安全认证方法及终端
CN106156688A (zh) * 2015-03-10 2016-11-23 上海骏聿数码科技有限公司 一种动态人脸识别方法及***
CN108228871A (zh) * 2017-07-21 2018-06-29 北京市商汤科技开发有限公司 人脸图像动态入库方法和装置、电子设备、介质、程序
CN108875491B (zh) * 2017-10-11 2021-03-23 北京旷视科技有限公司 人脸解锁认证的数据更新方法、认证设备和***以及非易失性存储介质
US20190138797A1 (en) * 2017-11-09 2019-05-09 Mindtronic Ai Co.,Ltd. Configuration system and method
US10783352B2 (en) * 2017-11-09 2020-09-22 Mindtronic Ai Co., Ltd. Face recognition system and method thereof
CN111125390B (zh) * 2018-11-01 2024-05-17 北京市商汤科技开发有限公司 数据库更新方法和装置、电子设备、计算机存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070036398A1 (en) * 2005-08-12 2007-02-15 Tianlong Chen Apparatus and method for partial component facial recognition
CN101324919A (zh) * 2007-06-15 2008-12-17 上海银晨智能识别科技有限公司 一种照片视频比对方法
CN106295482A (zh) * 2015-06-11 2017-01-04 ***(深圳)有限公司 一种人脸数据库的更新方法及装置
CN105631430A (zh) * 2015-12-30 2016-06-01 浙江宇视科技有限公司 一种人脸图像的匹配方法和装置
CN107346410A (zh) * 2016-05-05 2017-11-14 杭州海康威视数字技术股份有限公司 图片处理方法及装置
CN108090420A (zh) * 2017-11-30 2018-05-29 睿视智觉(深圳)算法技术有限公司 一种人脸识别方法
CN109858371A (zh) * 2018-12-29 2019-06-07 深圳云天励飞技术有限公司 人脸识别的方法及装置
CN110334688A (zh) * 2019-07-16 2019-10-15 重庆紫光华山智安科技有限公司 基于人脸照片库的图像识别方法、装置和计算机可读存储介质

Also Published As

Publication number Publication date
CN109858371A (zh) 2019-06-07
US20210248356A1 (en) 2021-08-12
US11074436B1 (en) 2021-07-27
CN109858371B (zh) 2021-03-05

Similar Documents

Publication Publication Date Title
WO2020134527A1 (zh) 人脸识别的方法及装置
US10650261B2 (en) System and method for identifying re-photographed images
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证***及其方法
JP4506801B2 (ja) 画像認識装置、画像認識方法、画像認識プログラム
CN105612533B (zh) 活体检测方法、活体检测***以及计算机程序产品
WO2020155939A1 (zh) 图像识别方法、装置、存储介质和处理器
US8265399B2 (en) Detecting orientation of digital images using face detection information
US11256902B2 (en) People-credentials comparison authentication method, system and camera
WO2019075840A1 (zh) 身份验证方法、装置、存储介质和计算机设备
JP2004192378A (ja) 顔画像処理装置およびその方法
JP6472184B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
WO2019200872A1 (zh) 身份验证方法和装置、电子设备、计算机程序和存储介质
KR101724971B1 (ko) 광각 카메라를 이용한 얼굴 인식 시스템 및 그를 이용한 얼굴 인식 방법
CN110612530A (zh) 用于选择脸部处理中使用的帧的方法
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
CN113780212A (zh) 用户身份核验方法、装置、设备及存储介质
CN112771522A (zh) 生物体认证装置、生物体认证方法以及生物体认证程序
BRPI1101761A2 (pt) mÉtodo de controle de sessço em um terminal de auto-atendimento, e, terminal de auto-atendimento
CN112241674A (zh) 一种人脸识别方法及***
JPWO2021125268A5 (zh)
CN111611569A (zh) 一种人脸声纹复核终端及其身份认证方法
WO2021060256A1 (ja) 顔認証装置、顔認証方法、及びコンピュータ読み取り可能な記録媒体
JP2019185349A (ja) 検索装置、検索方法及びプログラム
TWI815495B (zh) 動態影像之處理方法、電子裝置及其連接之終端裝置與行動通訊裝置
US20230161854A1 (en) Fool-proof registration system and methods thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19902885

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19902885

Country of ref document: EP

Kind code of ref document: A1