WO2023084667A1 - 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体 - Google Patents

認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体 Download PDF

Info

Publication number
WO2023084667A1
WO2023084667A1 PCT/JP2021/041473 JP2021041473W WO2023084667A1 WO 2023084667 A1 WO2023084667 A1 WO 2023084667A1 JP 2021041473 W JP2021041473 W JP 2021041473W WO 2023084667 A1 WO2023084667 A1 WO 2023084667A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
image
thermal
living body
person
Prior art date
Application number
PCT/JP2021/041473
Other languages
English (en)
French (fr)
Inventor
将年 中山
一仁 村田
真澄 石川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023559283A priority Critical patent/JPWO2023084667A1/ja
Priority to PCT/JP2021/041473 priority patent/WO2023084667A1/ja
Publication of WO2023084667A1 publication Critical patent/WO2023084667A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Definitions

  • This disclosure includes, for example, an authentication device, an authentication method, and a recording medium capable of authenticating a subject appearing in a human image, and a method capable of determining whether or not the subject appearing in the human image is a living body.
  • the present invention relates to a technical field of an engine generation device, an engine generation method, and a recording medium capable of generating a determination engine.
  • Patent Document 1 describes an example of an authentication device capable of authenticating a subject appearing in a person image.
  • a subject is authenticated using a facial image of the subject obtained from a camera, and a temperature distribution of the subject's face obtained from thermography is used to determine whether or not the subject is a living body.
  • a device is described for
  • Patent Documents 2 to 5 are listed as prior art documents related to this disclosure.
  • the object of this disclosure is to provide an authentication device, an engine generation device, an authentication method, an engine generation method, and a recording medium aimed at improving the technology described in prior art documents.
  • One aspect of the authentication device includes authentication means for authenticating the subject using a person image generated by imaging the subject with a visible camera at a first time, and a thermal camera imaging the subject. Using a plurality of thermal images generated by imaging the subject with the thermal camera at a second time closest to the first time and at a third time before or after the second time among a plurality of times and determination means for determining whether or not the subject is a living body.
  • One aspect of the engine generation device is an engine generation device that generates a determination engine for determining whether or not the subject is a living body using a thermal image generated by imaging the subject with a thermal camera.
  • a learning data set including a plurality of sample images showing the body surface temperature distribution of a sample person and having a region of interest to be focused on for determining whether or not the sample person is a living body
  • Extracting means for extracting one sample image as an extracted image, and whether the attention area and the sample person set in the extracted image are living organisms based on an imaging environment in which the thermal camera images the subject.
  • Image generation means for generating a learning image by changing the positional relationship with the part of interest of the sample person to be focused in order to determine whether or not, and by performing machine learning using the learning image
  • an engine generation means for generating a determination engine.
  • One aspect of the authentication method is to authenticate the target person using a person image generated by imaging the target person with a visible camera at a first time; Using a plurality of thermal images generated by imaging the subject with the thermal camera at a second time closest to the first time and a third time before and after the second time, and determining whether the subject is a living body.
  • One aspect of the engine generation method is an engine generation method for generating a determination engine for determining whether or not the subject is a living body using a thermal image generated by imaging the subject with a thermal camera.
  • a learning data set including a plurality of sample images showing the body surface temperature distribution of a sample person and having a region of interest to be focused on for determining whether or not the sample person is a living body, at least Extracting one sample image as an extracted image, and determining whether the attention area and the sample person set in the extracted image are living organisms based on the imaging environment in which the thermal camera images the subject.
  • a learning image is generated by changing the positional relationship with the target part of the sample person to be focused in order to determine whether or not, and by performing machine learning using the learning image, the determination engine is generating.
  • One aspect of the recording medium is to authenticate the subject using a person image generated by imaging the subject with a visible camera at a first time; Using a plurality of thermal images generated by imaging the subject with the thermal camera at a second time closest to the first time and a third time before and after the second time, The recording medium stores a computer program for causing a computer to execute an authentication method including determining whether the subject is a living body.
  • Another aspect of the recording medium is an engine generation method for generating a determination engine for determining whether or not the subject is a living body using a thermal image generated by imaging the subject with a thermal camera.
  • At least one learning data set including a plurality of sample images showing the body surface temperature distribution of a sample person and in which a region of interest to be noticed for determining whether the sample person is a living body is set extracting two sample images as extracted images; and determining whether the attention area and the sample person set in the extracted images are living organisms based on an imaging environment in which the thermal camera images the subject.
  • the determination engine is generated by generating a learning image by changing the positional relationship with the target part of the sample person to be focused in order to determine, and performing machine learning using the learning image.
  • a recording medium recording a computer program for causing a computer to execute an engine generation method including:
  • FIG. 1 is a block diagram showing the configuration of an authentication device according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of the engine generation device in the second embodiment.
  • FIG. 3 is a block diagram showing the configuration of an authentication system according to the third embodiment.
  • FIG. 4 is a block diagram showing the configuration of an authentication device according to the third embodiment.
  • FIG. 5 is a flow chart showing the flow of the authentication operation performed by the authentication device according to the third embodiment.
  • FIG. 6 shows an example of a person image.
  • FIG. 7 is a timing chart showing the relationship between the authentication time and the time of interest (in particular, the closest time).
  • FIG. 8 shows the relationship between the face area of the person image and the attention area of the thermal image.
  • FIG. 9 is a timing chart showing the relationship between the authentication time and the time of interest (especially before and after) in the first modified example.
  • FIG. 10 shows the relationship between the face area of the person image and the attention area of the thermal image.
  • FIG. 11 is a flow chart showing the flow of the authentication operation in the second modified example.
  • FIG. 12 shows how a region of interest moves within a thermal image.
  • FIGS. 13A and 13B is a graph showing temperature distribution in a pixel row of a thermal image.
  • FIG. 14 shows a plurality of thermal images respectively corresponding to a plurality of times of interest.
  • FIG. 15 is a block diagram showing the configuration of an authentication system according to the fourth embodiment.
  • FIG. 16 is a block diagram showing the configuration of the engine generation device in the fourth embodiment.
  • FIG. 17 is a flow chart showing the flow of the engine generation operation performed by the engine generation device in the fourth embodiment.
  • FIG. 18 shows an example of the data structure of the learning data set.
  • FIGS. 19A and 19B show examples of learning images generated from extracted images.
  • FIGS. 20(a) and 20(b) show examples of learning images generated from extracted images.
  • FIG. 21 shows an example of a learning image.
  • Embodiments of an authentication device, an engine generation device, an authentication method, an engine generation method, and a recording medium will be described below.
  • FIG. 1 is a block diagram showing the configuration of an authentication device 1000 according to the first embodiment.
  • the authentication device 1000 includes an authentication unit 1001 and a determination unit 1002.
  • the authentication unit 1001 authenticates a target person using a human image generated by capturing an image of the target person with a visible camera at a first time.
  • the determination unit 1002 is generated by the thermal camera capturing an image of the subject at a second time closest to the first time and at a third time before or after the second time among a plurality of times at which the thermal camera captured an image of the subject. A plurality of thermal images obtained are used to determine whether or not the subject is a living body.
  • the authentication device 1000 compared with the authentication device of the comparative example, which determines whether or not the target person is a living body without considering the first time when the visible camera captures the image of the target person. Whether or not the person is a living body can be determined with higher accuracy.
  • FIG. 2 is a block diagram showing the configuration of an engine generator 2000 according to the second embodiment.
  • the engine generation device 2000 is a device capable of generating a determination engine for determining whether or not a subject is a living body using a thermal image generated by imaging the subject with a thermal camera.
  • the determination engine may be used, for example, by an authentication device that uses a thermal image to determine whether a subject is living.
  • the engine generation device 2000 includes an extraction unit 2001, an image generation unit 2002, and an engine generation unit 2003, as shown in FIG.
  • the extraction unit 2001 extracts at least One sample image is extracted as an extracted image.
  • the image generator 2002 uses the extracted images to generate learning images. Specifically, the image generating unit 2002 determines whether or not the target area and the sample person set in the extracted image are living bodies based on the imaging environment in which the thermal camera captures the target person. A learning image is generated by changing the positional relationship with the target part of the sample person to be trained.
  • the engine generation unit 2003 generates a determination engine by performing machine learning using learning images.
  • the engine generation device 2000 it is possible to generate a determination engine capable of highly accurately determining whether or not the subject is a living body.
  • the learning image reflects information about the imaging environment in which the thermal camera images the subject. Therefore, the engine generation device 2000 can generate a determination engine that reflects information about the imaging environment by performing machine learning using learning images that reflect information about the imaging environment. For example, the engine generation device 2000 performs machine learning using a learning image that reflects information about a specific imaging environment, thereby generating a A judgment engine ENG for judging whether or not the subject is a living body can be generated using the thermal image.
  • the authentication apparatus uses a determination engine that does not reflect information about a specific imaging environment. Whether or not the subject is a living body can be determined with high accuracy from a thermal image generated by imaging the subject with a thermal camera in an imaging environment. In this way, the engine generating device 2000 can generate a determination engine capable of highly accurately determining whether or not the subject is a living body.
  • FIG. 3 is a block diagram showing the configuration of the authentication system SYS3 in the third embodiment.
  • the authentication system SYS3 includes a visible camera 1, a thermal camera 2, and an authentication device 3.
  • the visible camera 1 and the authentication device 3 may be able to communicate with each other via the communication network NW.
  • the thermal camera 2 and the authentication device 3 may be able to communicate with each other via the communication network NW.
  • the communication network NW may include a wired communication network.
  • Communication network NW may include a wireless communication network.
  • the visible camera 1 is an imaging device capable of optically imaging a subject positioned within the imaging range of the visible camera 1 .
  • the visible camera 1 is an imaging device capable of optically imaging a subject by detecting visible light from the subject.
  • the visible camera 1 captures an image of the subject, thereby generating a person image IMG_P representing the subject captured by the visible camera 1 .
  • the person image IMG_P representing the subject is typically an image in which the subject P is captured.
  • the “human image IMG_P in which the target person is captured” is an image generated by the visible camera 1 capturing an image of the target person who does not have the intention of wanting the visible camera 1 to capture the image of the target person. may contain.
  • the “human image IMG_P in which the target person is captured” includes an image generated by the visible camera 1 capturing an image of the target person who has the intention of wanting the visible camera 1 to capture an image of the target person. You can The visible camera 1 transmits the generated person image IMG_P to the authentication device 3 via the communication network NW.
  • the thermal camera 2 is an image capturing device capable of capturing an image of a target person located within the image capturing range of the thermal camera 2.
  • the thermal camera 2 generates a thermal image IMG_T representing the body surface temperature distribution of the subject captured by the thermal camera 2 by capturing an image of the subject.
  • the thermal image IMG_T may be an image showing the subject's body surface temperature distribution in color or gradation.
  • the thermal image IMG_T representing the body surface temperature of the subject may typically be an image in which the subject P is substantially reflected due to the body surface temperature distribution of the subject.
  • the “thermal image IMG_T in which the subject is captured” is an image generated by the thermal camera 2 capturing the subject who does not have the intention of wanting the thermal camera 2 to image the subject. may contain.
  • Thermal image IMG_T in which the subject is captured includes an image generated by the thermal camera 2 capturing the subject who has the intention of wanting the thermal camera 2 to capture the subject. You can The thermal camera 2 transmits the generated thermal image IMG_T to the authentication device 3 via the communication network NW.
  • the visible camera 1 and the thermal camera 2 are aligned so that the visible camera 1 and the thermal camera 2 can image the same subject. That is, the visible camera 1 and the thermal camera 2 are aligned so that the imaging range of the visible camera 1 and the imaging range of the thermal camera 2 at least partially overlap. For this reason, the subject who appears in the person image IMG_P generated by the visible camera 1 during a certain time period is normally captured in the thermal image IMG_T generated by the thermal camera 2 during the same time period. That is, the person image IMG_P generated by the visible camera 1 and the thermal image IMG_T generated by the thermal camera 2 in a certain time period include the same subject.
  • the authentication device 3 acquires the person image IMG_P from the visible camera 1.
  • the authentication device 3 uses the acquired person image IMG_P to perform an authentication operation for authenticating the subject appearing in the person image IMG_P. That is, the authentication device 3 uses the acquired person image IMG_P to determine whether or not the target person appearing in the person image IMG_P is the same as a pre-registered person (hereinafter referred to as a “registered person”). judge. If it is determined that the subject appearing in the person image IMG_P is the same as the registered person, it is determined that the subject has been successfully authenticated. On the other hand, when it is determined that the target person appearing in the person image IMG_P is not the same as the registered person, it is determined that the authentication of the target person has failed.
  • the authentication device 3 determines that the target person has been successfully authenticated, as in the case where the registered person is present in front of the visible camera 1, even though the registered person is not present in front of the visible camera 1. There is a possibility that In other words, a person with malicious intent may impersonate a registered person. Therefore, as part of the authentication operation, the authentication device 3 determines whether or not the subject appearing in the person image IMG_P is a living body.
  • the authentication device 3 acquires the thermal image IMG_T from the thermal camera 2 .
  • the authentication device 3 uses the acquired thermal image IMG_T to determine whether or not the subject appearing in the thermal image IMG_T is a living body.
  • the person image IMG_P generated by the visible camera 1 and the thermal image IMG_T generated by the thermal camera 2 in a certain time period include the same subject. Therefore, the operation of determining whether or not the subject appearing in the thermal image IMG_T is a living body is equivalent to the operation of determining whether or not the subject appearing in the person image IMG_P is a living body. be.
  • Such an authentication system SYS3 may be used, for example, to manage entry/exit of a subject to/from a restricted area.
  • the restricted area is an area in which persons who satisfy predetermined admission conditions are permitted to enter, but persons who do not satisfy predetermined admission conditions are not permitted to enter (that is, prohibited).
  • the authentication device 3 determines whether the target person appearing in the person image IMG_P is the same as the person permitted to enter the restricted area (for example, the person registered in advance as the person who satisfies the entry conditions).
  • the subject may be authenticated by determining whether or not.
  • the authentication device 3 does not allow the subject to enter the restricted area. may be allowed.
  • the authentication device 3 sets the state of an entrance/exit restriction device (for example, a gate device or a door device) capable of restricting passage of the subject to an open state in which the subject can pass through the entrance/exit restriction device. good too.
  • the authentication device 3 prohibits the target person from entering the restricted area. may be prohibited.
  • the authentication device 3 may set the state of the entrance/exit restriction device to a closed state in which the target person cannot pass through the entrance/exit restriction device. Furthermore, even if the target person is successfully authenticated, if it is determined that the target person reflected in the person image IMG_P is not a living body, the authentication device 3 prohibits the target person from entering the restricted area. may be prohibited.
  • each of the visible camera 1 and the thermal camera 2 may capture images of the subject attempting to enter the restricted area.
  • each of the visible camera 1 and the thermal camera 2 may be arranged near the entrance/exit restriction device, and may image a subject positioned near the entrance/exit restriction device in order to enter the restricted area.
  • each of the visible camera 1 and the thermal camera 2 may capture an image of the subject moving toward the entrance/exit restriction device.
  • the visible camera 1 and the thermal camera 2 may capture images of a subject moving toward the visible camera 1 and the thermal camera 2 placed near the entrance/exit restriction device, respectively.
  • each of the visible camera 1 and the thermal camera 2 may capture an image of the subject standing still in front of the entrance/exit restriction device.
  • Each of the visible camera 1 and the thermal camera 2 may capture an image of a subject standing still in front of the visible camera 1 and the thermal camera 2 arranged near the entrance/exit restriction device.
  • FIG. 3 is a block diagram showing the configuration of the authentication device 3. As shown in FIG.
  • the authentication device 3 includes an arithmetic device 31, a storage device 32, and a communication device 33. Furthermore, the authentication device 3 may comprise an input device 34 and an output device 35 . However, the authentication device 3 does not have to include at least one of the input device 34 and the output device 35 . Arithmetic device 31 , storage device 32 , communication device 33 , input device 34 , and output device 35 may be connected via data bus 36 .
  • the computing device 31 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array).
  • Arithmetic device 31 reads a computer program.
  • arithmetic device 31 may read a computer program stored in storage device 32 .
  • the computing device 31 may read a computer program stored in a computer-readable non-temporary recording medium using a recording medium reading device (not shown) included in the authentication device 3 .
  • the computing device 31 may acquire (that is, download) a computer program from a device (not shown) arranged outside the authentication device 3 via the communication device 33 (or other communication device). or read).
  • Arithmetic device 31 executes the read computer program.
  • a logical functional block for executing the operation for example, the authentication operation described above
  • the computing device 31 can function as a controller for realizing logical functional blocks for executing the operation (in other words, processing) that the authentication device 3 should perform.
  • FIG. 4 shows an example of logical functional blocks implemented within the computing device 31 to perform authentication operations. As shown in FIG. 4 , an authentication unit 311 , a biometric determination unit 312 , and an entrance/exit management unit 313 are realized in the computing device 31 .
  • the authentication unit 311 uses the communication device 33 to acquire the person image IMG_P from the visible camera 1 via the communication network NW. Furthermore, using the acquired person image IMG_P, the authentication unit 311 determines whether or not the target person appearing in the person image IMG_P is the same as the registered person. Information about registered persons may be stored in the storage device 32 as a registered person DB 321 .
  • the living body determination unit 312 uses the communication device 33 to acquire the thermal image IMG_T from the thermal camera 2 via the communication network NW. Furthermore, using the acquired thermal image IMG_T, the living body determination unit 312 determines whether or not the subject appearing in the thermal image IMG_T (that is, the subject appearing in the person image IMG_P) is a living body. do. For example, the living body determination unit 312 determines the body surface temperature distribution of the target person reflected in the thermal image IMG_T and the body surface temperature distribution (hereinafter referred to as “registered When the degree of similarity with the body surface temperature distribution is higher than a predetermined threshold, it may be determined that the subject reflected in the thermal image IMG_T is a living body. Note that this threshold value may be a fixed value. Alternatively, the threshold may be changeable. For example, the threshold may be changeable by the user of the authentication system SYS3.
  • Information about the registered body surface temperature distribution may be stored in the storage device 32 as the registered body surface temperature distribution DB 322 .
  • the information on registered body surface temperature distribution may include information on general body surface temperature distribution (especially human) body surface temperature distribution (for example, average human body surface temperature distribution).
  • the registered body surface temperature distribution information relates to the body surface temperature distribution of a registered person (that is, a registered person pre-registered in the registration DB 321) used for face authentication (that is, the body surface temperature distribution of a specific person). May contain information.
  • the entry/exit management unit 313 controls the state of an entry/exit restriction device capable of restricting the passage of the target person who is about to enter the restricted area based on the determination result of the authentication unit 311 and the determination result of the biometric determination unit 312.
  • the authentication device 3 does not have to include the entrance/exit manager 313 .
  • the authentication device 3 does not have to include the entrance/exit manager 313 .
  • the storage device 32 can store desired data.
  • the storage device 32 may temporarily store computer programs executed by the arithmetic device 31 .
  • the storage device 32 may temporarily store data that is temporarily used by the arithmetic device 31 while the arithmetic device 31 is executing a computer program.
  • the storage device 32 may store data that the authentication device 3 saves for a long time.
  • the storage device 32 may include at least one of RAM (Random Access Memory), ROM (Read Only Memory), hard disk device, magneto-optical disk device, SSD (Solid State Drive), and disk array device. good. That is, the storage device 32 may include non-transitory recording media.
  • the storage device 32 mainly includes the registered person DB 321 to which the authentication unit 311 refers in order to authenticate the subject, and the A registered body surface temperature distribution DB 322 that the living body determination unit 312 refers to is stored.
  • the communication device 33 can communicate with each of the visible camera 1 and the thermal camera 2 via the communication network NW.
  • the communication device 33 receives (that is, acquires) the person image IMG_P from the visible camera 1 via the communication network NW. Further, the communication device 33 receives (that is, acquires) the thermal image IMG_T from the thermal camera 2 via the communication network NW.
  • the input device 34 is a device that accepts input of information to the authentication device 3 from the outside of the authentication device 3 .
  • the input device 34 may include an operating device (for example, at least one of a keyboard, a mouse and a touch panel) that can be operated by the operator of the authentication device 3 .
  • the input device 34 may include a reading device capable of reading information recorded as data on a recording medium that can be externally attached to the authentication device 3 .
  • the output device 35 is a device that outputs information to the outside of the authentication device 3 .
  • the output device 35 may output information as an image. That is, the output device 35 may include a display device (so-called display) capable of displaying an image showing information to be output.
  • the output device 35 may output information as audio.
  • the output device 35 may include an audio device capable of outputting audio (so-called speaker).
  • the output device 35 may output information on paper.
  • the output device 35 may include a printing device (so-called printer) capable of printing desired information on paper.
  • FIG. 5 is a flow chart showing the flow of the authentication operation performed by the authentication device 3. As shown in FIG.
  • the communication device 33 acquires the person image IMG_P from the visible camera 1 via the communication network NW (step S10).
  • the visible camera 1 normally continues to capture images of the imaging range at a constant imaging rate.
  • the visible camera 1 continues imaging the imaging range at an imaging rate of imaging the imaging range N1 times per second (N1 is an integer equal to or greater than 1). Therefore, the communication device 33 may acquire a plurality of person images IMG_P that are time-series data.
  • a plurality of person images IMG_P acquired by the communication device 33 may be stored in the storage device 32 .
  • the communication device 33 acquires the thermal image IMG_T from the thermal camera 2 via the communication network NW (step S11).
  • the thermal camera 2 normally continues to image the imaging range at a constant imaging rate.
  • the thermal camera 2 continues imaging the imaging range at an imaging rate of imaging the imaging range N2 times per second (N2 is an integer equal to or greater than 1). Therefore, the communication device 33 may acquire a plurality of thermal images IMG_T that are time-series data.
  • a plurality of thermal images IMG_T acquired by the communication device 33 may be stored in the storage device 32 .
  • the authentication unit 311 uses the person image IMG_P acquired in step S10 to authenticate the subject appearing in the person image IMG_P (step S12).
  • the authentication unit 311 authenticates the target person using the face of the target person. That is, an example in which the authentication unit 311 performs face authentication will be described.
  • the authentication unit 311 may authenticate the subject using another authentication method using the person image IMG_P.
  • the authentication unit 311 may authenticate the subject using the subject's iris.
  • the authentication unit 311 detects a face area FA in which the subject's face is captured in the person image IMG_P, as shown in FIG. 6 showing an example of the person image IMG_P. After that, the authentication unit 311 may extract feature points of the subject's face included in the face area FA. After that, the authentication unit 311 may calculate the degree of similarity between the feature points of the target person's face included in the face area FA and the feature points of the registered person's face. If the degree of similarity between the facial feature points of the target person and the facial feature points of the registered person is higher than a predetermined authentication threshold, the authentication unit 311 determines that the target person is the same as the registered person. good. If the degree of similarity between the facial feature points of the target person and the registered person's facial feature points is lower than a predetermined authentication threshold, the authentication unit 311 may determine that the target person is not the same as the registered person. .
  • step S12 if the result of the authentication in step S12 is that the authentication is not successful (that is, it is determined that the target person is not the same as the registered person) (step S13: No), the entrance/exit manager 313 , the target person is prohibited from entering the restricted area (step S19).
  • step S12 if the authentication is successful (that is, it is determined that the subject is the same as the registered person) (step S13: Yes), then the biometric determination unit 312 It is determined whether or not the subject determined to be the same as the registered person in step S12 is a living body (steps S14 to S16).
  • the biometric determination unit 312 acquires the authentication time ta (step S14).
  • the authentication time ta indicates the time when one person image IMG_P actually used for authenticating the subject person in step S12 among the plurality of person images IMG_P acquired in step S10 was captured. That is, at the authentication time ta, the feature points determined to have a higher degree of similarity with the facial feature points of the registered person than the predetermined authentication threshold among the plurality of person images IMG_P acquired in step S10 are extracted. It indicates the time when one person image IMG_P was captured.
  • the living body determination unit 312 acquires the thermal image IMG_T captured at the target time tb determined based on the authentication time ta acquired in step S14 from among the plurality of thermal images IMG_T acquired in step S11 (step S15). In other words, the living body determination unit 312 acquires the thermal image IMG_T captured at the time of interest tb, which is at least one of the multiple times at which the multiple thermal images IMG_T acquired in step S11 were captured ( step S15). A plurality of thermal images IMG_T acquired in step S11 are stored in the storage device 32, for example. In this case, the living body determination unit 312 may acquire the thermal image IMG_T captured at the time of interest tb from the storage device 32 .
  • the time of interest tb includes the closest time tb1 closest to the authentication time ta among the multiple times at which the multiple thermal images IMG_T acquired in step S11 were captured.
  • a specific example of the time of interest tb (in particular, the closest time tb1) determined based on the authentication time ta will be described below with reference to FIG.
  • FIG. 7 is a timing chart showing the relationship between the authentication time ta and the attention time tb (in particular, the nearest time tb1).
  • the visible camera 1 images the subject at each of time t11, time t12, time t13, time t14 and time t15.
  • the thermal camera 2 captures images of the subject at time t21, time t22, time t23, and time t24.
  • the visible camera 1 and the thermal camera 2 do not always capture images of the subject at the timing synchronized with each other.
  • the times t11, t12, t13, t14, and t15 at which the visible camera 1 images the subject are different from the times t21, t22, t23, and t24 at which the thermal camera 2 images the subject. Not necessarily in sync.
  • the authentication unit 311 has authenticated the subject using the person image IMG_P generated by imaging the subject at time t13.
  • the authentication time ta is time t13.
  • the time t23 closest to the time t13 (that is, the difference from the time t13 is the smallest) becomes the closest time tb1.
  • the living body determination unit 312 acquires the thermal image IMG_T captured at time t23, which is the closest time tb1.
  • the living body determination unit 312 uses the thermal image IMG_T acquired in step S15 to determine whether or not the subject appearing in the thermal image IMG_T is a living body (step S16).
  • the thermal image IMG_T acquired in step S15 may include the target person appearing in the person image IMG_P (that is, the target person determined to be the same as the registered person in step S12). is high.
  • the thermal image IMG_T acquired in step S15 is generated by imaging the subject with the thermal camera 2 at the time of interest tb (particularly, the closest time tb1) determined based on the authentication time ta. Therefore, the operation of determining whether or not the subject appearing in the thermal image IMG_T acquired in step S15 is a living body is performed when the subject determined to be the same as the registered person in step S12 is a living body. This is equivalent to the operation of determining whether or not
  • the biometric determination unit 312 In order to determine whether or not the target person is a living body, the biometric determination unit 312, as shown in FIG. is specified as a region of interest TA to which attention should be paid in order to determine whether or not the subject is a living body.
  • visible camera 1 and thermal camera 2 are aligned such that visible camera 1 and thermal camera 2 can image the same subject. That is, the visible camera 1 and the thermal camera 2 are aligned so that the imaging range of the visible camera 1 and the imaging range of the thermal camera 2 at least partially overlap.
  • the first area in the person image IMG_P and the second area in the thermal image IMG_T in which the same scene as the first area is captured correspond to each other.
  • the living body determination unit 312 uses a projective transformation matrix or the like based on the positional relationship between the visible camera 1 and the thermal camera 2 to match the face area FA of the person image IMG_P with the face area FA in the thermal image IMG_T ( That is, it is possible to specify the attention area TA, which is assumed to include the same scene as the scene reflected in the face area FA.
  • the living body determination unit 312 determines whether or not the subject is a living body based on the temperature distribution within the attention area TA.
  • the operation of determining whether or not the subject is a living body based on the temperature distribution in the attention area TA is the body surface temperature distribution of the subject (in particular, determining whether or not the subject is a living body). This is equivalent to the operation of determining whether or not the subject is a living body based on the body surface temperature distribution of the face, which is an example of the attention part of the subject to which attention should be paid.
  • step S16 if it is determined that the subject is not a living body (step S17: No), the entrance/exit management section 313 prohibits the subject from entering the restricted area (step S19).
  • step S16 if it is determined that the subject is a living body (step S17: Yes), the entrance/exit management unit 313 permits the subject to enter the restricted area (step S18).
  • the authentication device 3 detects that the thermal camera 2 is the target person at the time of interest tb (particularly, the closest time tb1) determined based on the authentication time ta. It is determined whether or not the subject is a living body using the thermal image IMG_T generated by imaging the . For this reason, the authentication apparatus of the comparative example that determines whether or not the subject is a living body using the thermal image IMG_T generated by capturing the subject with the thermal camera 2 at an arbitrary time without considering the authentication time ta. , the authentication device 3 can more accurately determine whether or not the subject is a living body.
  • the authentication device of the comparative example uses a thermal image IMG_T generated by imaging the subject with the thermal camera 2 at a time significantly different from the authentication time ta, and determines whether the subject is a living body. may be determined.
  • the thermal image IMG_T generated by imaging the subject with the thermal camera 2 at a time significantly different from the authentication time ta the subject's face may not appear in the attention area TA.
  • the authentication device of the comparative example uses the temperature distribution of the attention area TA in the thermal image IMG_T in which the target person is not appropriately captured (that is, the temperature distribution different from the body surface temperature distribution of the target person).
  • the authentication device of the comparative example uses the temperature distribution of the attention area TA in the thermal image IMG_T in which the target person is not appropriately captured (that is, the temperature distribution different from the body surface temperature distribution of the target person).
  • the authentication device of the comparative example uses the temperature distribution of the attention area TA in the thermal image IMG_T in which the target person is not appropriately captured (that is, the temperature distribution different from the body surface temperature distribution of the target person).
  • the accuracy of determining whether or not the target person is a living body deteriorates.
  • the authentication device 3 captures the thermal image IMG_T generated by the thermal camera 2 capturing the subject at the closest time tb1 closest to the authentication time ta at which the visible camera 1 captured the subject. is used to determine whether or not the subject is a living body. That is, the authentication device 3 cannot determine whether or not the subject is a living body using the thermal image IMG_T generated by the thermal camera 2 capturing an image of the subject at a time significantly different from the authentication time ta. do not have. As a result, the time at which the visible camera 1 images the subject to authenticate the subject (that is, the authentication time) and the thermal camera 2 images the subject to determine whether the subject is a living body The time (that is, the closest time tb1) becomes closer.
  • the authentication device 3 determines whether or not the target person is a living body based on the temperature distribution (i.e., the body surface temperature distribution of the target person) of the attention area TA in which the target person is appropriately captured in the thermal image IMG_T. can be determined appropriately. As a result, in the authentication device 3, the possibility that the accuracy of determining whether or not the target person is a living body is lowered. In other words, the authentication device 3 can determine whether or not the subject is a living body with higher accuracy than the authentication device of the comparative example.
  • the closest time tb1 closest to the authentication time ta is used as the time of interest tb.
  • at least one time tb2 before and after the closest time tb1 is used as the time of interest tb. That is, in the first modification, the time of interest tb is the closest time tb1 and the closest time among the multiple times at which the multiple thermal images IMG_T acquired in step S11 of FIG. 5 were captured. At least one time tb2 before and after tb1 may be included.
  • the living body determination unit 312 acquires a plurality of thermal images IMG_T including the thermal image IMG_T captured at the closest time tb1 and the thermal image IMG_T captured at the time tb2 before and after. .
  • the time before and after the nearest time tb1 means at least one of the time after the nearest time tb1 and the time before the nearest time tb1. Further, when both the closest time tb1 and the preceding and following times tb2 are used as the time of interest tb, the closest time tb1 and at least one of the preceding and following times tb2 are the respective thermal images IMG_T acquired in step S11. constitutes at least two successive times among the multiple times. That is, the thermal image IMG_T captured at the closest time tb1 and at least two thermal images IMG_T captured at at least one time before and after time tb2 are the thermal images IMG_T captured at step S11 in FIG. At least two thermal images IMG_T in a sequential relationship are constructed.
  • FIG. 9 is a timing chart showing the relationship between authentication time ta and attention time tb.
  • the visible camera 1 images the subject at each of time t11, time t12, time t13, time t14, and time t15. Also, the thermal camera 2 captures images of the subject at time t21, time t22, time t23, and time t24.
  • the authentication unit 311 has authenticated the subject using the person image IMG_P generated by imaging the subject at time t13.
  • the authentication time ta is time t13.
  • the time t23 closest to the time t13 (that is, the difference from the time t13 is the smallest) becomes the closest time tb1.
  • time t22 before time t23 may be used as time tb2 before and after time t23.
  • a time t24 after the time t23 may be used as the before-and-after time tb2.
  • the living body determination unit 312 acquires the thermal image IMG_T captured at time t23, which is the closest time tb1. Further, the living body determination unit 312 acquires at least one of the thermal image IMG_T captured at time t22, which is before and after time tb2, and the thermal image IMG_T captured at time t24, which is before and after time tb2.
  • the living body determination unit 312 uses at least one of the plurality of thermal images IMG_T acquired in step S15 to determine the It may be determined whether or not the subject appearing in the thermal image IMG_T is a living body.
  • the plurality of thermal images IMG_T acquired in step S15 are stored in the same way as when a single thermal image IMG_T is acquired in step S15. It is highly probable that each of them includes the subject (that is, the subject determined to be the same as the registered person in step S12) appearing in the person image IMG_P.
  • the thermal image IMG_T acquired in step S15 is captured by the thermal camera 2 at the target time tb determined based on the authentication time ta (specifically, the closest time tb1 and the time tb2 before and after the authentication time ta). This is because it is generated by imaging the . Therefore, the living body determination unit 312 can appropriately determine whether or not the subject is a living body using at least one of the plurality of thermal images IMG_T acquired in step S15.
  • not all of the plurality of thermal images IMG_T are images in which the target person's face is appropriately reflected in the attention area TA.
  • the thermal image IMG_T generated by the thermal camera 2 capturing an image of the subject at time t22, which is the time before and after time tb2
  • the subject's face is appropriately located near the center of the attention area TA.
  • the thermal image IMG_T generated by the thermal camera 2 capturing the subject at time t23, which is the closest time tb1, and at time t24, which is the before and after time tb2
  • the subject is out of the attention area TA.
  • the living body determination unit 312 selects at least one thermal image IMG_T in which the subject's face is appropriately reflected near the center of the attention area TA from among the plurality of thermal images IMG_T, and selects at least one thermal image IMG_T.
  • a thermal image IMG_T may be used to determine whether or not the subject is a living body.
  • the living body determination unit 312 calculates the degree of similarity between the body surface temperature distribution of the subject reflected in the thermal image IMG_T and the registered body surface temperature distribution for each of the plurality of thermal images IMG_T.
  • a plurality of similarity statistical values may be used to determine whether or not the subject is living.
  • the living body determination unit 312 may determine that the subject is a living body when the average value, mode value, median value, or maximum value of a plurality of similarities is higher than a threshold.
  • the authentication device 3 uses not only the thermal image IMG_T captured at the closest time tb1, but also the thermal image IMG_T captured at the time tb2 before and after the target person. It is possible to determine whether Therefore, in a situation where at least a part of the target person's face is reflected in a position outside the attention area TA in the thermal image IMG_T captured at the nearest time tb1, the authentication device 3 Whether there is or not can be determined with higher accuracy.
  • FIG. 11 is a flow chart showing the flow of the authentication operation in the second modified example. It should be noted that the same step numbers are given to the processes that have already been explained, and the detailed explanation thereof will be omitted.
  • the authentication device 3 also performs operations from step S10 to step S15 in the second modification.
  • the living body determination unit 312 uses the thermal image IMG_T acquired in step S15 to determine whether or not the subject appearing in the thermal image IMG_T is a living body (step S16b). Specifically, first, as described above, the biometric determination unit 312 determines whether or not the target person is a living body, in the area corresponding to the face area FA detected for authenticating the target person, in the thermal image IMG_T. TA is identified as the attention area TA to be focused on in order to determine whether or not (step S161b). After that, the living body determination unit 312 adjusts the position of the attention area TA specified from the position of the face area FA within the thermal image IMG_T (step S162b).
  • the living body determination unit 312 determines whether or not the subject is a living body based on the temperature distribution within the attention area TA whose position has been adjusted (step S163b). Note that the processing of steps S161b and 163b may be the same as the operation of step S16 in FIG. 5 described above.
  • the living body determination unit 312 may adjust the position of the attention area TA by moving the attention area TA within the thermal image IMG_T, as shown in FIG.
  • the living body determination unit 312 may adjust the position of the attention area TA in the vertical direction by moving the attention area TA along the vertical direction of the thermal image IMG_T.
  • the living body determination unit 312 moves the attention area TA along the horizontal direction of the thermal image IMG_T.
  • the position of the attention area TA in the direction may be adjusted. Note that FIG. 12 shows an example in which the living body determination unit 312 moves the attention area TA along the horizontal direction of the thermal image IMG_T.
  • the living body determination unit 312 may adjust the position of the attention area TA based on the thermal image IMG_T acquired in step S15.
  • the living body determination unit 312 may adjust the position of the attention area TA based on the temperature distribution indicated by the thermal image IMG_T acquired in step S15.
  • the temperature indicated by the image portion in which the target person is captured is the temperature of the image portion in which the target person is not captured (for example, an image in which the target person's background is captured). part) is different from the temperature indicated by
  • the temperature indicated by an image portion in which the target person is captured is higher than the temperature indicated by an image portion in which the target person is not captured.
  • the temperature distribution indicated by the thermal image IMG_T indirectly indicates the position in which the subject is captured in the thermal image IMG_T. Therefore, based on the thermal image IMG_T acquired in step S15, the living body determination unit 312 adjusts the position of the attention area TA so that the attention area TA moves toward the position where the subject is captured in the thermal image IMG_T. may be adjusted.
  • FIG. 13(a) shows the temperature distribution in a pixel row including a plurality of pixels arranged in a row in the horizontal direction among the plurality of images forming the thermal image IMG_T
  • FIG. It shows the temperature distribution in a pixel row including a plurality of pixels aligned in the vertical direction among the plurality of images forming the thermal image IMG_T.
  • the temperature indicated by the image portion in which the subject is captured is different from the temperature indicated by the image portion in which the subject is not captured.
  • the position of the subject (for example, the center of the face) can be estimated from the temperature distribution of .
  • the living body determination unit 312 calculates the temperature distribution of the pixel array, and based on the temperature distribution of the pixel array, the thermal image IMG_T is directed toward the face of the subject in the thermal image IMG_T.
  • the position of the attention area TA may be adjusted so that the attention area TA moves with the
  • the living body determination unit 312 may adjust the position of the attention area TA so that the center of the attention area TA moves toward the center of the subject's face in the thermal image IMG_T.
  • the living body determination unit 312 may adjust the position of the attention area TA so that the center of the target person's face and the center of the attention area TA match in the thermal image IMG_T.
  • the authentication device 3 can adjust the temperature distribution (i.e., , body surface temperature distribution of the subject), it is possible to appropriately determine whether or not the subject is a living body.
  • the authentication device 3 can more accurately determine whether or not the subject is a living body.
  • the temperature distribution indicated by the thermal image IMG_T indirectly indicates the position in the thermal image IMG_T where the target person appears. .
  • the authentication device 3 determines whether the subject's face is appropriately reflected in the attention area TA in the thermal image IMG_T used for determining whether the subject is a living body, or whether the subject's It may be determined whether or not at least part of the face is captured outside the attention area TA.
  • the authentication device 3 determines whether the subject's face is appropriately reflected in the attention area TA.
  • Thermal image IMG_T may be used to determine whether or not the subject is a living body.
  • the authentication device 3 uses another thermal image IMG_T in which the subject's face is reflected at the center of the attention area TA or at a position relatively close to the center to determine whether the subject is a living body. may be determined.
  • the authentication device 3 acquires a plurality of thermal images IMG_T respectively corresponding to a plurality of attention times tb. In this case, the authentication device 3 determines whether the target person's face is appropriately reflected in the attention area TA in each of the plurality of thermal images IMG_T, or whether at least part of the target person's face is out of the attention area TA.
  • the authentication device 3 selects one thermal image IMG_T in which the subject's face is appropriately reflected in the attention area TA from among the plurality of thermal images IMG_T, and uses the selected one thermal image IMG_T to , it may be determined whether or not the subject is a living body. For example, in the example shown in FIG.
  • the thermal image IMG_T generated by the thermal camera 2 capturing an image of the subject at time t22 shows that the subject While the face is appropriately captured in the attention area TA, in the thermal image IMG_T generated by the thermal camera 2 capturing images of the subject at times t23 and t24, at least part of the subject's face is shown. is captured at a position outside the attention area TA.
  • the authentication device 3 captures one thermal image IMG_T in which the subject's face is appropriately captured in the attention area TA, and the thermal camera 2 captures the image at time t22.
  • a thermal image IMG_T generated by imaging the subject may be selected.
  • the authentication device 3 uses one thermal image IMG_T in which the subject's face is appropriately reflected in the attention area TA to determine whether the subject is a living body. be able to.
  • the authentication device 3 can more accurately determine whether or not the subject is a living body.
  • the authentication device 3 that authenticates the subject reflected in the person image IMG_P uses the thermal image IMG_T to determine whether the subject is a living body. Judging. However, an arbitrary spoofing determination device that does not authenticate the target person reflected in the person image IMG_P uses the thermal image IMG_T to verify that the target person reflected in the thermal image IMG_T is a living body, similar to the authentication device 3 described above. It may be determined whether there is In other words, any impersonation determination device may determine whether or not a living body is captured in the thermal image IMG_T. Even in this case, any impersonation determination device can relatively accurately determine whether or not the target person is a living body, like the authentication device 3 described above.
  • a subject whose body surface temperature is normal is permitted to stay, while a subject whose body surface temperature is not normal is prohibited from staying (e.g.
  • a thermal camera 2 may be installed to measure the body surface temperature of the subject staying at the facility.
  • Examples of such facilities include office buildings, public facilities, restaurants and/or hospitals.
  • the facility uses a thermal image IMG_T generated by imaging the subject who is about to enter the facility with the thermal camera 2 to determine whether the body surface temperature of the subject staying at the facility is normal.
  • a stay management device may be installed that determines whether or not the body surface temperature of the subject is outside the normal range and requests the subject to leave. This stay management device, like the authentication device 3 described above, may determine whether or not the subject reflected in the thermal image IMG_T is a living body.
  • a fourth embodiment of the authentication device, the engine generation device, the authentication method, the engine generation method, and the recording medium will be described.
  • the authentication device, the engine generation device, the authentication method, the engine generation method, and the authentication system SYS4 to which the recording medium in the fourth embodiment is applied will be used to describe the authentication device, the engine generation device, the authentication in the fourth embodiment.
  • a method, an engine generation method, and a recording medium are described.
  • FIG. 15 is a block diagram showing the configuration of the authentication system SYS4 in the fourth embodiment.
  • the same reference numerals are assigned to the components that have already been described, and detailed description thereof will be omitted.
  • the authentication system SYS4 in the fourth embodiment differs from the authentication system SYS3 in the third embodiment in that the authentication system SYS4 further includes an engine generating device 4.
  • Other features of authentication system SYS4 may be identical to other features of authentication system SYS3.
  • the engine generation device 4 can perform an engine generation operation for generating a determination engine ENG for determining whether or not the subject is a living body using the thermal image IMG_T.
  • the determination engine ENG may be any engine as long as it can determine whether or not the subject is a living body using the thermal image IMG_T.
  • the determination engine ENG outputs a determination result as to whether or not the subject is a living body, based on at least a portion of the thermal image IMG_T (for example, an image portion included in the attention area TA of the thermal image IMG_T).
  • the determination engine ENG determines whether or not the subject is a living body when at least a portion of the thermal image IMG_T (for example, an image portion included in the attention area TA of the thermal image IMG_T) is input. It may be an engine that outputs results. For example, the determination engine ENG determines whether or not the subject is a living body based on the feature amount of at least a portion of the thermal image IMG_T (for example, the image portion included in the attention area TA of the thermal image IMG_T). It may be an engine that outputs results.
  • the determination engine ENG determines whether or not the subject is a living body when the feature amount of at least a portion of the thermal image IMG_T (for example, the image portion included in the attention area TA of the thermal image IMG_T) is input. It may be an engine that outputs the determination result.
  • the engine generation device 4 generates the determination engine ENG by performing machine learning using an image showing the body surface temperature distribution of a person, similar to the thermal image IMG_T.
  • the determination engine ENG is an engine that can be generated by machine learning (a so-called learnable learning model).
  • An example of an engine that can be generated by machine learning is an engine using a neural network (eg, a learning model).
  • the engine generation device 4 may transmit the generated determination engine ENG to the authentication device 3 via the communication network NW.
  • the authentication device 3 may determine whether or not the subject is a living body using the thermal image IMG_T and the determination engine ENG.
  • FIG. 16 is a block diagram showing the configuration of the engine generating device 4 in the fourth embodiment.
  • the engine generation device 4 includes an arithmetic device 41, a storage device 42, and a communication device 43. Furthermore, the engine generation device 4 may comprise an input device 44 and an output device 45 . However, the authentication device 3 does not have to include at least one of the input device 44 and the output device 45 . Arithmetic device 41 , storage device 42 , communication device 43 , input device 44 , and output device 45 may be connected via data bus 46 .
  • the computing device 41 includes, for example, at least one of a CPU, GPU and FPGA. Arithmetic device 41 reads a computer program. For example, arithmetic device 41 may read a computer program stored in storage device 42 . For example, the computing device 41 may read a computer program stored in a computer-readable non-temporary recording medium using a recording medium reading device (not shown) included in the engine generation device 4 . The computing device 41 may acquire (that is, download) a computer program from a device (not shown) arranged outside the engine generation device 4 via the communication device 43 (or other communication device). may be read). Arithmetic device 41 executes the read computer program.
  • the arithmetic unit 41 implements logical functional blocks for executing the operations to be performed by the engine generation device 4 (for example, the above-described engine generation operation).
  • the arithmetic unit 41 can function as a controller for realizing logical functional blocks for executing operations (in other words, processing) that should be performed by the engine generator 4 .
  • FIG. 16 shows an example of logical functional blocks implemented within the arithmetic unit 41 for executing engine generation operations.
  • an image extraction unit 411 an image generation unit 412 and an engine generation unit 413 are realized in the arithmetic unit 41 .
  • the operations of the image extraction unit 411, the image generation unit 412, and the engine generation unit 413 will be described in detail later with reference to FIG.
  • the storage device 42 can store desired data.
  • the storage device 42 may temporarily store computer programs executed by the arithmetic device 41 .
  • the storage device 42 may temporarily store data temporarily used by the arithmetic device 41 while the arithmetic device 41 is executing a computer program.
  • the storage device 42 may store data that the engine generation device 4 saves over a long period of time.
  • the storage device 42 may include at least one of RAM, ROM, hard disk device, magneto-optical disk device, SSD and disk array device. That is, the storage device 42 may include non-transitory recording media.
  • the communication device 43 can communicate with each of the visible camera 1, the thermal camera 2, and the authentication device 3 via the communication network NW. In the fourth embodiment, the communication device 43 transmits the generated determination engine ENG to the authentication device 3 via the communication network NW.
  • the input device 44 is a device that receives input of information to the engine generation device 4 from the outside of the engine generation device 4 .
  • the input device 44 may include an operation device (for example, at least one of a keyboard, a mouse and a touch panel) operable by an operator of the engine generation device 4 .
  • the input device 44 may include a reading device capable of reading information recorded as data on a recording medium that can be externally attached to the engine generation device 4 .
  • the output device 45 is a device that outputs information to the outside of the engine generating device 4 .
  • the output device 45 may output information as an image.
  • the output device 45 may include a display device (so-called display) capable of displaying an image showing information to be output.
  • the output device 45 may output the information as voice.
  • the output device 45 may include an audio device capable of outputting audio (so-called speaker).
  • the output device 45 may output information on paper.
  • the output device 45 may include a printing device (so-called printer) capable of printing desired information on paper.
  • FIG. 17 is a flow chart showing the flow of the engine generation operation performed by the engine generation device 4. As shown in FIG.
  • the image extraction unit 411 extracts at least one extraction image IMG_E from the learning data set 420 (step S41).
  • the learning data set 420 may be stored, for example, in the storage device 42 (see FIG. 16).
  • the image extraction unit 411 may acquire the learning data set 420 from a device external to the engine generation device 4 using the communication device 43 .
  • the learning data set 420 includes multiple pieces of unit data 421 .
  • Each unit data 421 includes a sample image IMG_S, attention area information 422 and correct label 423 .
  • the sample image IMG_S is an image showing the body surface temperature distribution of a sample person.
  • an image generated by imaging a sample person with the thermal camera 2 or another thermal camera different from the thermal camera 2 may be used as the sample image IMG_S.
  • an image simulating an image generated by imaging a sample person with the thermal camera 2 or another thermal camera different from the thermal camera 2 may be used as the sample image IMG_S.
  • an attention area TA is set in advance in the sample image IMG_S.
  • the attention area TA set in the sample image IMG_S is an area to be focused on in order to determine whether or not the sample person is a living body.
  • the attention area TA may be an area in which a part (for example, the above-described face) of the sample person to be focused for determining whether or not the sample person is a living body is reflected.
  • Information about the attention area TA preset in the sample image IMG_S is included in the unit data 421 as attention area information 422 .
  • the correct label 423 indicates whether or not the sample person appearing in the sample image IMG_S is a living body.
  • the learning data set 420 may include a plurality of unit data 421 each including a plurality of sample images IMG_S representing body surface temperature distributions of a plurality of different sample persons.
  • the learning data set 420 may include a plurality of unit data 421 each including a plurality of sample images IMG_S representing the body surface temperature distribution of the same sample person.
  • the image extraction unit 411 may randomly extract at least one sample image IMG_S from the learning data set 420 as the extracted image IMG_E. In this case, the image extraction unit 411 may extract all of the multiple sample images IMG_S included in the learning data set 420 as the extraction image IMG_E. Alternatively, image extraction unit 411 extracts a part of multiple sample images IMG_S included in learning data set 420 as extracted image IMG_E, while extracting another one of multiple sample images IMG_S included in learning data set 420. part may not be extracted as the extracted image IMG_E.
  • the image extraction unit 411 may extract at least one sample image IMG_S that satisfies a predetermined extraction condition from the learning data set 420 as the extracted image IMG_E.
  • the extraction conditions may include imaging environment conditions determined based on the imaging environment in which at least one of the visible camera 1 and the thermal camera 2 images the subject. That is, the extraction conditions may include imaging environment conditions that reflect the actual imaging environment in which at least one of the visible camera 1 and the thermal camera 2 images the subject. In this case, the image extraction unit 411 may extract at least one sample image IMG_S that satisfies the imaging environment conditions from the learning data set 420 as the extraction image IMG_E.
  • the image extraction unit 411 extracts a sample image IMG_S having characteristics similar to those of the thermal image IMG_T generated by the thermal camera 2 under a predetermined imaging environment indicated by the imaging environment condition as an extracted image IMG_E. may be extracted.
  • the image extraction unit 411 extracts a sample image IMG_S having characteristics similar to those of the thermal image IMG_T generated by the thermal camera 2 that captures an image of the subject under the imaging environment indicated by the imaging environment condition, and extracts an extracted image IMG_E from the learning data set 420 . may be extracted.
  • the imaging environment may include the positional relationship between the visible camera 1 and the thermal camera 2.
  • the imaging environment may include the positional relationship between the visible camera 1 and the subject.
  • the imaging environment may include the positional relationship between the visible camera 1 and the subject at the timing when the visible camera 1 images the subject.
  • the positional relationship between the visible camera 1 and the subject may include the distance between the visible camera 1 and the subject.
  • the positional relationship between the visible camera 1 and the subject is the direction in which the visible camera 1 faces (for example, the direction in which the optical axis of an optical system such as a lens provided in the visible camera 1 extends) and the direction in which the subject faces (for example, , the direction in which the subject's face is facing, and the direction extending in front of the subject).
  • the imaging environment may include the positional relationship between the thermal camera 2 and the subject.
  • the imaging environment may include the positional relationship between the thermal camera 2 and the subject at the timing when the thermal camera 2 images the subject.
  • the positional relationship between the thermal camera 2 and the subject may include the distance between the thermal camera 2 and the subject.
  • the positional relationship between the thermal camera 2 and the subject is the direction in which the thermal camera 2 faces (for example, the direction in which the optical axis of an optical system such as a lens provided in the thermal camera 2 extends) and the direction in which the subject faces.
  • the imaging environment may include optical properties of the visible camera 1 (for example, optical properties of an optical system such as a lens included in the visible camera 1).
  • the imaging environment may include optical characteristics of the thermal camera 2 (for example, optical characteristics of an optical system such as a lens included in the thermal camera 2).
  • Each of the visible camera 1 and the thermal camera 2 may image a subject moving toward the visible camera 1 and the thermal camera 2, or a subject stationary in front of the visible camera 1 and the thermal camera 2.
  • the person may be imaged.
  • the imaging environment in which the visible camera 1 and the thermal camera 2 capture an image of a moving subject, and the imaging environment in which the visible camera 1 and the thermal camera 2 capture an image of a stationary subject are: Generally different. Therefore, at least one of the condition that the visible camera 1 and the thermal camera 2 capture images of a moving subject and the condition that the visible camera 1 and the thermal camera 2 capture images of a stationary subject is It may be used as an environmental condition.
  • the state of the subject reflected in the thermal image IMG_T changes according to the imaging environment.
  • the state of a target person reflected in a thermal image IMG_T generated by imaging a moving target person and the target person reflected in a thermal image IMG_T generated by imaging a stationary target person is generally different from the state of Therefore, the operation of extracting at least one extraction image IMG_E that satisfies the imaging environmental conditions is the same state as the state of the subject appearing in the thermal image IMG_T generated under the predetermined imaging environment indicated by the imaging environmental conditions. may be regarded as equivalent to the operation of extracting the sample image IMG_S in which the sample person is captured in , as the extracted image IMG_E.
  • the visible camera 1 and the thermal camera 2 capture images of a moving subject
  • the visible camera 1 and the thermal camera 2 are more likely to capture the subject from an oblique direction.
  • the possibility that the visible camera 1 and the thermal camera 2 capture images of the subject from the front direction is relatively high.
  • the condition that the visible camera 1 and the thermal camera 2 image the subject from the front direction is used as the imaging environment condition that the visible camera 1 and the thermal camera 2 image the stationary subject, good.
  • the condition that the visible camera 1 and the thermal camera 2 capture an image of the subject from an oblique direction may be used as the imaging environment condition that the visible camera 1 and the thermal camera 2 capture an image of the moving subject. good.
  • the image extraction unit 411 extracts a sample image IMG_S in which the sample person facing the front is captured. You may extract as image IMG_E.
  • the image extraction unit 411 extracts a sample image IMG_S in which the sample person facing the oblique direction is captured. You may extract as image IMG_E.
  • the image generator 412 uses the extracted image IMG_E extracted in step S41 to generate a learning image IMG_L actually used for machine learning (step S42).
  • the image generator 412 generates a plurality of learning images IMG_L (step S42).
  • the image generating unit 412 changes the positional relationship between the attention area TA set in the extracted image IMG_E and the sample person's face (i.e., attention part) reflected in the extracted image IMG_E. , a learning image IMG_L that is an extracted image IMG_E in which the positional relationship between the attention area TA and the face of the sample person is changed.
  • the image generator 412 may change the positional relationship between the attention area TA and the sample person's face in one extracted image IMG_E in a plurality of different modes.
  • the image generating unit 412 can generate a plurality of learning images IMG_L each having a different mode of changing the positional relationship between the attention area TA and the sample person's face from one extracted image IMG_E.
  • the image generator 412 can further increase the number of learning images IMG_L used for machine learning. This is a great advantage for machine learning, in which learning efficiency improves as the number of data used for samples increases.
  • the image generation unit 412 may change the positional relationship between the attention area TA and the sample person's face based on the imaging environment in which at least one of the visible camera 1 and the thermal camera 2 described above captures the target person. Specifically, as described above, the state of the subject reflected in the thermal image IMG_T changes according to the imaging environment. In this case, the image generation unit 412 generates the image of the subject in the thermal image IMG_T generated under the actual imaging environment in which at least one of the visible camera 1 and the thermal camera 2 described above captures the subject. The positional relationship between the attention area TA and the sample person's face may be changed so as to generate a learning image IMG_L in which the sample person is captured in the state of .
  • visible camera 1 and thermal camera 2 may image a subject moving towards visible camera 1 and thermal camera 2, or a subject standing still in front of visible camera 1 and thermal camera 2.
  • the image generating unit 412 generates a learning image in which the sample person is captured in the same state as the target person captured in the thermal image IMG_T generated by imaging the moving target person with the thermal camera 2.
  • the positional relationship between the attention area TA and the sample person's face may be changed so as to generate IMG_L.
  • the image generating unit 412 generates a learning image IMG_L in which the sample person is captured in the same state as the target person captured in the thermal image IMG_T generated by imaging the target person at rest with the thermal camera 2.
  • the positional relationship between the attention area TA and the sample person's face may be changed so as to generate .
  • the center of the attention area TA is closer to the center of the attention area TA than in the thermal image IMG_T generated by imaging a stationary subject.
  • the image generator 412 when the thermal camera 2 captures an image of a moving subject, the image generator 412 generates a learning image IMG_L in which the amount of deviation between the center of the attention area TA and the center of the face of the sample person is relatively large.
  • the positional relationship between the attention area TA and the sample person's face may be changed so as to generate .
  • the image generator 412 when the thermal camera 2 captures an image of a stationary subject, the image generator 412 generates a learning image IMG_L in which the amount of deviation between the center of the attention area TA and the center of the face of the sample person is relatively small.
  • the positional relationship between the attention area TA and the sample person's face may be changed so as to generate .
  • the area of interest TA is larger than that in the thermal image IMG_T generated by imaging a stationary subject. It is more likely that the subject's face will be shifted in more directions with respect to the center. Therefore, when the thermal camera 2 captures an image of a moving target person, the image generation unit 412 performs a plurality of learning processes in which the directions in which the sample person's face is displaced relative to the center of the attention area TA are relatively large. The positional relationship between the attention area TA and the sample person's face may be changed so as to generate the image IMG_L.
  • the image generation unit 412 generates a plurality of learning images IMG_L in which the sample person's face is shifted in four directions (for example, upward, downward, rightward, and leftward directions) with respect to the center of the attention area TA. may be generated.
  • the image generation unit 412 when the thermal camera 2 captures an image of a subject who is stationary, the image generation unit 412 generates a plurality of learning images in which the sample person's face is shifted relatively little from the center of the attention area TA. The positional relationship between the attention area TA and the sample person's face may be changed so as to generate IMG_L.
  • the image generation unit 412 generates a plurality of learning images IMG_L in which the face of the sample person is shifted only in one direction or two directions (for example, upward and downward) with respect to the center of the attention area TA. may be generated.
  • the visible camera 1 and the thermal camera 2 capture images of a moving subject
  • the visible camera 1 and the thermal camera 2 capture images of the subject from a position relatively far from the subject.
  • the visible camera 1 and the thermal camera 2 may capture an image of the subject from a position relatively close to the subject.
  • the image generation unit 412 sets the attention area TA so as to generate a learning image IMG_L in which a sample person with a relatively small face is captured.
  • the image generation unit 412 sets the attention area TA so as to generate a learning image IMG_L in which a sample person with a relatively large face is captured. and the face of the sample person may be changed.
  • the image generation unit 412 may change the positional relationship between the attention area TA and the sample person's face by changing the characteristics of the attention area TA in the extracted image IMG_E.
  • the characteristics of the attention area TA may include the position of the attention area TA.
  • the image generator 412 changes the position of the attention area TA in the extracted image IMG_E, thereby changing the positional relationship between the attention area TA and the face of the sample person.
  • the image generator 412 may change the positional relationship between the attention area TA and the face of the sample person by moving the attention area TA within the extracted image IMG_E.
  • the characteristics of the attention area TA may include the size of the attention area TA.
  • the image generator 412 changes the size of the attention area TA in the extracted image IMG_E, thereby changing the positional relationship between the attention area TA and the face of the sample person. may That is, the image generator 412 may change the positional relationship between the attention area TA and the face of the sample person by enlarging or reducing the attention area TA in the extracted image IMG_E.
  • the image generation unit 412 may change the positional relationship between the attention area TA and the sample person's face by changing the characteristics of the extracted image IMG_E in which the attention area TA is set.
  • the properties of the extracted image IMG_E may include the position of the extracted image IMG_E (eg, the position relative to the area of interest TA). In this case, as shown in FIG. 20A, the image generator 412 changes the position of the extracted image IMG_E with respect to the attention area TA, thereby changing the positional relationship between the attention area TA and the face of the sample person. good too.
  • the image generation unit 412 may change the positional relationship between the attention area TA and the face of the sample person by moving (for example, translating) the extracted image IMG_E with respect to the attention area TA.
  • the characteristics of the extracted image IMG_E may include the size of the extracted image IMG_E.
  • the image generator 412 may change the positional relationship between the attention area TA and the face of the sample person by changing the size of the extracted image IMG_E. That is, the image generator 412 may change the positional relationship between the attention area TA and the sample person's face by enlarging or reducing the extracted image IMG_E.
  • the engine generation unit 413 then generates the determination engine ENG using the plurality of learning images IMG_L generated in step S42 (step S43). That is, the engine generator 413 generates the determination engine ENG by performing machine learning using the plurality of learning images IMG_L generated in step S42 (step S43). Specifically, the engine generator 413 inputs each of the plurality of learning images IMG_L generated in step S42 to the determination engine ENG. As a result, the determination engine ENG outputs a determination result as to whether or not the sample person appearing in each learning image IMG_L is a living body.
  • the engine generation unit 413 updates the parameters of the determination engine ENG using a loss function based on the error between the determination result of the determination engine ENG and the correct label 423 corresponding to each learning image IMG_L.
  • the engine generation unit 413 sets the parameters of the determination engine ENG so that the error between the determination result of the determination engine ENG and the correct label 423 corresponding to each learning image IMG_L is small (preferably minimized). to update.
  • the determination engine ENG performs so-called binary classification, the engine generation unit 413 generates index values (for example, accuracy, recall, specificity, precision, etc.) based on the confusion matrix. At least one of (Precision) and F-measure (F-measure)) may be used to update the parameters of the determination engine ENG. As a result, decision engine ENG is generated.
  • the engine generation device 4 generates the learning image IMG_L from the extraction image IMG_E based on the imaging environment in which the thermal camera 2 images the subject. do.
  • the learning image IMG_L reflects information about the imaging environment in which the thermal camera 2 images the subject. Therefore, the engine generation device 4 can generate the determination engine ENG that reflects the information about the imaging environment by performing machine learning using the learning image IMG_L that reflects the information about the imaging environment. For example, the engine generation device 4 performs machine learning using a learning image IMG_L in which information about a specific imaging environment is reflected.
  • a determination engine ENG for determining whether or not the subject is a living body can be generated using the generated thermal image IMG_T.
  • the authentication device 3 uses the determination engine ENG in which information about a specific imaging environment is reflected. Whether or not the subject is a living body can be determined with high accuracy from the thermal image IMG_T generated by imaging the subject with the thermal camera 2 under a specific imaging environment.
  • the engine generation device 4 can generate the determination engine ENG that can determine whether or not the subject is a living body with high accuracy.
  • the engine generation device 4 generates a plurality of different determination engines ENG, the authentication device 3 selects one determination engine ENG from among the plurality of determination engines ENG, and It may be determined whether or not the subject is a living body using the determination engine ENG of . In this case, the authentication device 3 may change the determination engine ENG used for determining whether or not the subject is a living body during the authentication period during which the authentication operation is performed.
  • the amount of deviation between the center of the attention area TA in the thermal image IMG_T and the center of the subject's face (hereinafter simply referred to as "the amount of deviation between the attention area TA and the face") and the attention area in the thermal image IMG_T
  • the direction of deviation between the center of TA and the center of the subject's face (hereinafter simply referred to as "the direction of deviation between the attention area TA and the face”) may change depending on the imaging environment. is as described above.
  • the engine generating device 4 generates a plurality of types of learning images IMG_L in which at least one of the amount of deviation between the attention area TA and the face and the direction of deviation between the attention area TA and the face is different, and generates a plurality of types of learning images IMG_L.
  • the engine generation device 4 (i) changes the positional relationship between the attention area TA and the face in the first modification mode so that the amount of deviation between the attention area TA and the face is within the first range and the attention area is within the first range.
  • the engine generation device 4 may generate the first determination engine ENG using the first learning image IMG_L, and generate the second determination engine ENG using the second learning image IMG_L. .
  • the engine generation device 4 generates a learning image IMG_L#1 in which the face is not displaced from the attention area TA, and a learning image IMG_L in which the face is displaced upward from the attention area TA.
  • a learning image IMG_L#3 in which the face is shifted downward with respect to the attention area TA a learning image IMG_L#4 in which the face is shifted leftward from the attention area TA
  • a training image IMG_L#5 in which the face is shifted to the right may be generated.
  • the engine generation device 4 After that, the engine generation device 4 generates the determination engine ENG#1 using the learning image IMG_L#1, generates the determination engine ENG#2 using the learning image IMG_L#2, and uses the learning image IMG_L#3 to generate the determination engine ENG#2.
  • the determination engine ENG#3 may be generated
  • the learning image IMG_L#4 may be used to generate the determination engine ENG#4
  • the learning image IMG_L#5 may be used to generate the determination engine ENG#5.
  • Judgment engine ENG#1 uses a thermal image IMG_T in which the face is not out of alignment with respect to the attention area TA to judge whether the subject is a living body or not, compared to judgment engines ENG#2 to ENG#5. Accurate determination is possible.
  • Judgment engine ENG#2 compares judgment engines ENG#1 and ENG#3 to ENG#5 with thermal image IMG_T in which the face is displaced upward with respect to attention area TA. It is possible to determine whether or not with higher accuracy.
  • Judgment engine ENG#3 compares with judgment engines ENG#1 to ENG#2 and ENG#4 to ENG#5, using thermal image IMG_T in which the face is shifted downward with respect to attention area TA. It is possible to more accurately determine whether or not the object is a living body.
  • Judgment engine ENG#4 compares with judgment engines ENG#1 to ENG#3 and ENG#5, and uses thermal image IMG_T in which the face is displaced to the left with respect to attention area TA.
  • Judgment engine ENG#5 compares with judgment engines ENG#1 to ENG#4 and uses thermal image IMG_T in which the face is shifted to the right with respect to attention area TA to determine whether the subject is a living body. can be determined with higher accuracy.
  • the authentication device 3 calculates the amount of deviation between the attention area TA and the face and the direction of deviation between the attention area TA and the face based on the imaging environment during the authentication period. may be estimated, and one determination engine ENG corresponding to at least one of the estimated deviation amount and deviation direction may be selected from among the plurality of determination engines ENG. That is, the authentication device 3 may select the determination engine ENG generated using the learning image IMG_L corresponding to at least one of the estimated displacement amount and displacement direction. After that, the authentication device 3 may determine whether or not the subject is a living body using the selected determination engine ENG. As a result, the authentication device 3 can more accurately determine whether or not the subject is a living body, compared to the case where the determination engine ENG used by the authentication device 3 is not selectable.
  • the imaging environment used for estimating at least one of the amount of deviation between the attention area TA and the face and the direction of deviation between the attention area TA and the face is, for example, the timing at which the visible camera 1 captures the image of the subject (that is, , the positional relationship (typically the distance between the visible camera 1 and the subject) between the visible camera 1 and the subject (at the authentication time ta described above).
  • the imaging environment used for estimating at least one of the amount of deviation between the attention area TA and the face and the direction of deviation between the attention area TA and the face includes the positional relationship between the visible camera 1 and the thermal camera 2.
  • the authentication device 3 determines the positional relationship between the visible camera 1 and the subject, the positional relationship between the visible camera 1 and the thermal camera 2, the amount of deviation between the attention area TA and the face, and the distance between the attention area TA and the face.
  • the system SYS4 may include a measuring device for measuring the positional relationship between the visible camera 1 and the subject (typically, the distance between the visible camera 1 and the subject).
  • the determining means specifies, based on the human image, a region of interest to be focused on in at least one thermal image among the plurality of thermal images to determine whether the subject is a living body, adjusting the position of the region of interest within the at least one thermal image based on the at least one thermal image;
  • the authentication device according to appendix 1.
  • the determination means specifies, based on the human image, a region of interest to be focused on in each of the plurality of thermal images to determine whether the subject is a living body, and At least one thermal image in which a region of interest of the subject to be focused is reflected in the region of interest for determining whether or not the subject is a living body is selected from the plurality of thermal images based on the 3.
  • the authentication device determines whether or not the subject is a living body based on the at least one selected thermal image.
  • the determination means determines whether or not the subject is a living body using a determination engine capable of determining whether or not the subject is a living body from the plurality of thermal images, The determination engine (from a learning data set including a plurality of sample images showing the body surface temperature distribution of a sample person and having a region of interest set to determine whether or not the sample person is a living body) , a first operation of extracting at least one sample image as an extracted image; and the attention area set in the extracted image based on an imaging environment in which the visible camera and the thermal camera image the subject.
  • the authentication device according to any one of appendices 1 to 3, which is generated by a learning operation including a third operation that performs machine learning.
  • the second operation changes at least one of the position and size of the region of interest within the extracted image and the position and size of the extracted image, thereby changing the positional relationship between the region of interest and the site of interest.
  • the determination means selects one determination engine based on the imaging environment from among a plurality of determination engines respectively generated by a plurality of the second motions with different change modes of the positional relationship, and selects the selected determination engine. 6.
  • the imaging environment includes a positional relationship between the subject and the visible camera and a positional relationship between the visible camera and the thermal camera at the first time.
  • An engine generation device for generating a determination engine for determining whether or not a subject is a living body using a thermal image generated by imaging a subject with a thermal camera, At least one sample image from a learning data set including a plurality of sample images showing the body surface temperature distribution of a sample person and having a region of interest to be noted for determining whether the sample person is a living body. as an extracted image; The area of interest set in the extracted image and the sample person to be noted for determining whether or not the sample person is a living body based on an imaging environment in which the thermal camera images the subject.
  • an image generating means for generating a learning image by changing the positional relationship with the part of interest
  • An engine generation device comprising: engine generation means for generating the determination engine by performing machine learning using the learning image.
  • the image generation means changes at least one of the position and size of the attention area within the extracted image and the position and size of the extracted image, thereby changing the positional relationship between the attention area and the attention part.
  • the engine generating device according to appendix 8.
  • the image generation means generates a first learning image by changing a positional relationship between the region of interest and the site of interest set in the extracted image in a first modification mode, and generating a second learning image by changing the positional relationship between the region of interest and the part of interest set in the extracted image in a second modification mode different from the first modification mode;
  • the engine generation means performs machine learning using the first learning image to generate a first determination engine, and performs machine learning using the second learning image to generate a first determination engine.
  • the engine generation device according to appendix 8 or 9, which generates the determination engine of 2.
  • [Appendix 11] authenticating the subject using a person image generated by imaging the subject with a visible camera at a first time; Generated by the thermal camera capturing an image of the subject at a second time closest to the first time and at a third time before or after the second time among a plurality of times at which the thermal camera captured the subject. and determining whether or not the subject is a living body using a plurality of thermal images obtained.
  • [Appendix 13] authenticating the subject using a person image generated by imaging the subject with a visible camera at a first time; Generated by the thermal camera capturing an image of the subject at a second time closest to the first time and at a third time before or after the second time among a plurality of times at which the thermal camera captured the subject. and determining whether or not the subject is a living body by using a plurality of thermal images obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

認証装置3は、第1時刻taに可視カメラ1が対象者を撮像することで生成される人物画像IMG_Pを用いて、対象者を認証する認証手段311と、サーマルカメラ2が対象者を撮像した複数の時刻のうちの第1時刻に最も近い第2時刻tb1及び第2時刻の前後の第3時刻tb2にサーマルカメラが対象者を撮像することで生成される複数のサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定する判定手段312とを備える。

Description

認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体
 この開示は、例えば、人物画像に写り込んでいる対象者を認証可能な認証装置、認証方法及び記録媒体、並びに、人物画像に写り込んでいる対象者が生体であるか否かを判定可能な判定エンジンを生成可能なエンジン生成装置、エンジン生成方法及び記録媒体の技術分野に関する。
 人物画像に写り込んでいる対象者を認証可能な認証装置の一例が、特許文献1に記載されている。特許文献1には、カメラから得られる対象者の顔画像を用いて対象者を認証すると共に、サーモグラフィから得られる対象者の顔の温度分布を用いて対象者が生体であるか否かを判定する装置が記載されている。
 その他、この開示に関連する先行技術文献として、特許文献2から特許文献5があげられる。
特開2005-115460号公報 特開2014-078052号公報 特開2011-067371号公報 国際公開第2009/107237号パンフレット 特開2005-259049号公報
 この開示は、先行技術文献に記載された技術の改良を目的とする認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体を提供することを課題とする。
 認証装置の一の態様は、第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証する認証手段と、サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定する判定手段とを備える。
 エンジン生成装置の一の態様は、サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成装置であって、サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出する抽出手段と、前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成する画像生成手段と、前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成するエンジン生成手段とを備える。
 認証方法の一の態様は、第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証することと、サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定することとを含む。
 エンジン生成方法の一の態様は、サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成方法であって、サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出することと、前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成することと、前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成することとを含む。
 記録媒体の一の態様は、第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証することと、サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定することとを含む認証方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体である。
 記録媒体の他の態様は、サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成方法であって、サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出することと、前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成することと、前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成することとを含むエンジン生成方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体である。
図1は、第1実施形態における認証装置の構成を示すブロック図である。 図2は、第2実施形態におけるエンジン生成装置の構成を示すブロック図である。 図3は、第3実施形態における認証システムの構成を示すブロック図である。 図4は、第3実施形態における認証装置の構成を示すブロック図である。 図5は、第3実施形態における認証装置が行う認証動作の流れを示すフローチャートである。 図6は、人物画像の一例を示す。 図7は、認証時刻と注目時刻(特に、最近接時刻)との関係を示すタイミングチャートである。 図8は、人物画像の顔領域とサーマル画像の注目領域との関係を示す。 図9は、第1変形例における認証時刻と注目時刻(特に、前後時刻)との関係を示すタイミングチャートである。 図10は、人物画像の顔領域とサーマル画像の注目領域との関係を示す。 図11は、第2変形例における認証動作の流れを示すフローチャートである。 図12は、サーマル画像内において注目領域が移動する様子を示す。 図13(a)及び図13(b)の夫々は、サーマル画像の画素列における温度分布を示すグラフである。 図14は、複数の注目時刻に夫々対応する複数のサーマル画像を示す。 図15は、第4実施形態における認証システムの構成を示すブロック図である。 図16は、第4実施形態におけるエンジン生成装置の構成を示すブロック図である。 図17は、第4実施形態におけるエンジン生成装置が行うエンジン生成動作の流れを示すフローチャートである。 図18は、学習データセットのデータ構造の一例を示す。 図19(a)及び図19(b)は、抽出画像から生成される学習画像の一例を示す。 図20(a)及び図20(b)は、抽出画像から生成される学習画像の一例を示す。 図21は、学習画像の一例を示す。
 以下、認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体の実施形態について説明する。
 (1)第1実施形態
 はじめに、認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体の第1実施形態について説明する。以下では、図1を参照しながら、第1実施形態における認証装置、認証方法及び記録媒体が適用された認証装置1000を用いて、第1実施形態における認証装置、認証方法及び記録媒体について説明する。図1は、第1実施形態における認証装置1000の構成を示すブロック図である。
 図1に示すように、認証装置1000は、認証部1001と、判定部1002とを備える。認証部1001は、第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、対象者を認証する。判定部1002は、サーマルカメラが対象者を撮像した複数の時刻のうちの第1時刻に最も近い第2時刻及び第2時刻の前後の第3時刻にサーマルカメラが対象者を撮像することで生成される複数のサーマル画像を用いて、対象者が生体であるか否かを判定する。
 このような認証装置1000によれば、可視カメラが対象者を撮像した第1時刻を何ら考慮することなく対象者が生体であるか否かを判定する比較例の認証装置と比較して、対象者が生体であるか否かをより高精度に判定することができる。
 (2)第2実施形態
 続いて、認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体の第2実施形態について説明する。以下では、図2を参照しながら、第2実施形態におけるエンジン生成装置、エンジン生成方法及び記録媒体が適用されたエンジン生成装置2000を用いて、第2実施形態におけるエンジン生成装置、エンジン生成方法及び記録媒体について説明する。図2は、第2実施形態におけるエンジン生成装置2000の構成を示すブロック図である。
 エンジン生成装置2000は、サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて対象者が生体であるか否かを判定するための判定エンジンを生成可能な装置である。判定エンジンは、例えば、サーマル画像を用いて対象者が生体であるか否かを判定する認証装置によって用いられてもよい。
 判定エンジンを生成するために、エンジン生成装置2000は、図2に示すように、抽出部2001と、画像生成部2002と、エンジン生成部2003とを備える。抽出部2001は、サンプル人物の体表温分布を示すと共にサンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を、抽出画像として抽出する。画像生成部2002は、抽出画像を用いて、学習画像を生成する。具体的には、画像生成部2002は、サーマルカメラが対象者を撮像する撮像環境に基づいて、抽出画像に設定されている注目領域とサンプル人物が生体であるか否かを判定するために注目するべきサンプル人物の注目部位との位置関係を変更することで、学習画像を生成する。エンジン生成部2003は、学習画像を用いた機械学習を行うことで、判定エンジンを生成する。
 このようなエンジン生成装置2000によれば、対象者が生体であるか否かを高精度に判定可能な判定エンジンを生成することができる。具体的には、学習画像には、サーマルカメラが対象者を撮像する撮像環境に関する情報が反映されている。このため、エンジン生成装置2000は、撮像環境に関する情報が反映された学習画像を用いた機械学習を行うことで、撮像環境に関する情報が反映された判定エンジンを生成することができる。例えば、エンジン生成装置2000は、ある特定の撮像環境に関する情報が反映された学習画像を用いた機械学習を行うことで、ある特定の撮像環境下でサーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて対象者が生体であるか否かを判定するための判定エンジンENGを生成することができる。その結果、認証装置は、ある特定の撮像環境に関する情報が反映された判定エンジンを用いることで、ある特定の撮像環境に関する情報が反映されていない判定エンジンを用いる場合と比較して、ある特定の撮像環境下でサーマルカメラが対象者を撮像することで生成されるサーマル画像から対象者が生体であるか否かを高精度に判定することができる。このように、エンジン生成装置2000は、対象者が生体であるか否かを高精度に判定可能な判定エンジンを生成することができる。
 (3)第3実施形態
 続いて、認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体の第3実施形態について説明する。以下では、第3実施形態における認証装置、認証方法及び記録媒体が適用された認証システムSYS3を用いて、第3実施形態における認証装置、認証方法及び記録媒体について説明する。
 (3-1)認証システムSYS3の構成
 はじめに、図3を参照しながら第3実施形態における認証システムSYS3の構成について説明する。図3は、第3実施形態における認証システムSYS3の構成を示すブロック図である。
 図3に示すように、認証システムSYS3は、可視カメラ1と、サーマルカメラ2と、認証装置3とを備える。可視カメラ1と認証装置3とは、通信ネットワークNWを介して互いに通信可能であってもよい。サーマルカメラ2と認証装置3とは、通信ネットワークNWを介して互いに通信可能であってもよい。通信ネットワークNWは、有線の通信ネットワークを含んでいてもよい。通信ネットワークNWは、無線の通信ネットワークを含んでいてもよい。
 可視カメラ1は、可視カメラ1の撮像範囲に位置する対象者を光学的に撮像可能な撮像装置である。特に、可視カメラ1は、対象者からの可視光を検出することで、対象者を光学的に撮像可能な撮像装置である。可視カメラ1は、対象者を撮像することで、可視カメラ1が撮像した対象者を示す人物画像IMG_Pを生成する。対象者を示す人物画像IMG_Pは、典型的には、対象者Pが写り込んでいる画像である。尚、「対象者が写り込んでいる人物画像IMG_P」は、可視カメラ1に対象者を撮像してほしいという意思を有していない対象者を可視カメラ1が撮像することで生成される画像を含んでいてもよい。「対象者が写り込んでいる人物画像IMG_P」は、可視カメラ1に対象者を撮像してほしいという意思を有している対象者を可視カメラ1が撮像することで生成される画像を含んでいてもよい。可視カメラ1は、生成した人物画像IMG_Pを、通信ネットワークNWを介して、認証装置3に送信する。
 サーマルカメラ2は、サーマルカメラ2の撮像範囲に位置する対象者を撮像可能な撮像装置である。サーマルカメラ2は、対象者を撮像することで、サーマルカメラ2が撮像した対象者の体表温分布を示すサーマル画像IMG_Tを生成する。サーマル画像IMG_Tは、対象者の体表温分布を色又は階調によって示す画像であってもよい。対象者の体表温を示すサーマル画像IMG_Tは、典型的には、対象者の体表温分布によって対象者Pが実質的に写り込んでいる画像であってもよい。尚、「対象者が写り込んでいるサーマル画像IMG_T」は、サーマルカメラ2に対象者を撮像してほしいという意思を有していない対象者をサーマルカメラ2が撮像することで生成される画像を含んでいてもよい。「対象者が写り込んでいるサーマル画像IMG_T」は、サーマルカメラ2に対象者を撮像してほしいという意思を有している対象者をサーマルカメラ2が撮像することで生成される画像を含んでいてもよい。サーマルカメラ2は、生成したサーマル画像IMG_Tを、通信ネットワークNWを介して、認証装置3に送信する。
 可視カメラ1及びサーマルカメラ2は、可視カメラ1及びサーマルカメラ2が同じ対象者を撮像可能となるように、位置合わせされている。つまり、可視カメラ1及びサーマルカメラ2は、可視カメラ1の撮像範囲とサーマルカメラ2の撮像範囲とが少なくとも部分的に重複するように、位置合わせされている。このため、通常、ある時間帯に可視カメラ1が生成した人物画像IMG_Pに写り込んでいる対象者は、同じ時間帯にサーマルカメラ2が生成したサーマル画像IMG_Tに写り込んでいる。つまり、ある時間帯に可視カメラ1が生成した人物画像IMG_P及びサーマルカメラ2が生成したサーマル画像IMG_Tには、同じ対象者が写り込んでいる。
 認証装置3は、可視カメラ1から人物画像IMG_Pを取得する。認証装置3は、取得した人物画像IMG_Pを用いて、人物画像IMG_Pに写り込んでいる対象者を認証するための認証動作を行う。つまり、認証装置3は、取得した人物画像IMG_Pを用いて、人物画像IMG_Pに写り込んでいる対象者が、予め登録された人物(以降、“登録人物”と称する)と同一であるか否かを判定する。人物画像IMG_Pに写り込んでいる対象者が登録人物と同一であると判定された場合には、対象者の認証が成功したと判定される。一方で、人物画像IMG_Pに写り込んでいる対象者が登録人物と同一でないと判定された場合には、対象者の認証が失敗したと判定される。
 ここで、悪意を持った人物が登録人物になりすますために、登録人物が写り込んだ画像(例えば、画像が印刷された写真又は画像が表示されたディスプレイ)を、可視カメラ1に撮像させる可能性がある。この場合、認証装置3は、可視カメラ1の前に登録人物が存在しないにも関わらず、可視カメラ1の前に登録人物が存在する場合と同様に、対象者の認証が成功したと判定してしまう可能性がある。つまり、悪意を持った人物が、登録人物になりすます可能性がある。そこで、認証装置3は、認証動作の一部として、人物画像IMG_Pに写り込んでいる対象者が生体であるか否かを判定する。具体的には、認証装置3は、サーマルカメラ2からサーマル画像IMG_Tを取得する。認証装置3は、取得したサーマル画像IMG_Tを用いて、サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定する。上述したように、ある時間帯に可視カメラ1が生成した人物画像IMG_P及びサーマルカメラ2が生成したサーマル画像IMG_Tには、同じ対象者が写り込んでいる。このため、サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定する動作は、人物画像IMG_Pに写り込んでいる対象者が生体であるか否かを判定する動作と等価である。
 このような認証システムSYS3は、例えば、制限エリアに対する対象者の入退場を管理するために用いられてもよい。具体的には、制限エリアは、所定の入場条件を満たす対象者の入場が許可される一方で、所定の入場条件を満たさない対象者の入場が許可されない(つまり、禁止される)エリアである。この場合、認証装置3は、人物画像IMG_Pに写り込んでいる対象者が、制限エリアへの入場が許可された人物(例えば、入場条件を満たす人物として予め登録された人物)と同一であるか否かを判定することで対象者を認証してもよい。この場合、対象者が制限エリアへの入場が許可された人物と同一であると判定された場合(つまり、認証が成功した場合)には、認証装置3は、対象者の制限エリアへの入場を許可してもよい。一例として、認証装置3は、対象者の通過を制限可能な入退場制限装置(例えば、ゲート装置又はドア装置)の状態を、対象者が入退場制限装置を通過可能な開状態に設定してもよい。一方で、対象者が制限エリアへの入場が許可された人物と同一でないと判定された場合(つまり、認証が失敗した場合)には、認証装置3は、対象者の制限エリアへの入場を禁止してもよい。一例として、認証装置3は、入退場制限装置の状態を、対象者が入退場制限装置を通過不可能な閉状態に設定してもよい。更に、対象者の認証が成功した場合であっても、人物画像IMG_Pに写り込んでいる対象者が生体でないと判定された場合には、認証装置3は、対象者の制限エリアへの入場を禁止してもよい。
 認証システムSYS3が制限エリアに対する対象者の入退場を管理するために用いられる場合には、可視カメラ1及びサーマルカメラ2の夫々は、制限エリアに入場しようとしている対象者を撮像してもよい。一例として、可視カメラ1及びサーマルカメラ2の夫々は、入退場制限装置の近傍に配置され、制限エリアに入場するために入退場制限装置の近傍に位置する対象者を撮像してもよい。この場合、可視カメラ1及びサーマルカメラ2の夫々は、入退場制限装置に向かって移動している対象者を撮像してもよい。可視カメラ1及びサーマルカメラ2の夫々は、入退場制限装置の近傍に配置される可視カメラ1及びサーマルカメラ2に向かって移動している対象者を撮像してもよい。或いは、可視カメラ1及びサーマルカメラ2の夫々は、入退場制限装置の前で静止している対象者を撮像してもよい。可視カメラ1及びサーマルカメラ2の夫々は、入退場制限装置の近傍に配置される可視カメラ1及びサーマルカメラ2の前で静止している対象者を撮像してもよい。
 (3-2)認証装置3の構成
 続いて、図4を参照しながら、認証装置3の構成について説明する。図3は、認証装置3の構成を示すブロック図である。
 図4に示すように、認証装置3は、演算装置31と、記憶装置32と、通信装置33とを備えている。更に、認証装置3は、入力装置34と、出力装置35とを備えていてもよい。但し、認証装置3は、入力装置34及び出力装置35のうちの少なくとも一つを備えていなくてもよい。演算装置31と、記憶装置32と、通信装置33と、入力装置34と、出力装置35とは、データバス36を介して接続されていてもよい。
 演算装置31は、例えば、CPU(Central Processing Unit)、GPU(Graphics Proecssing Unit)及びFPGA(Field Programmable Gate Array)のうちの少なくとも一つを含む。演算装置31は、コンピュータプログラムを読み込む。例えば、演算装置31は、記憶装置32が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置31は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、認証装置3が備える図示しない記録媒体読み取り装置を用いて読み込んでもよい。演算装置31は、通信装置33(或いは、その他の通信装置)を介して、認証装置3の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置31は、読み込んだコンピュータプログラムを実行する。その結果、演算装置31内には、認証装置3が行うべき動作(例えば、上述した認証動作)を実行するための論理的な機能ブロックが実現される。つまり、演算装置31は、認証装置3が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図4には、認証動作を実行するために演算装置31内に実現される論理的な機能ブロックの一例が示されている。図4に示すように、演算装置31内には、認証部311と、生体判定部312と、入退場管理部313とが実現される。
 認証部311は、通信装置33を用いて、通信ネットワークNWを介して、可視カメラ1から人物画像IMG_Pを取得する。更に、認証部311は、取得した人物画像IMG_Pを用いて、人物画像IMG_Pに写り込んでいる対象者が、登録人物と同一であるか否かを判定する。登録人物に関する情報は、記憶装置32に登録人物DB321として記憶されていてもよい。
 生体判定部312は、通信装置33を用いて、通信ネットワークNWを介して、サーマルカメラ2からサーマル画像IMG_Tを取得する。更に、生体判定部312は、取得したサーマル画像IMG_Tを用いて、サーマル画像IMG_Tに写り込んでいる対象者(つまり、人物画像IMG_Pに写り込んでいる対象者)が生体であるか否かを判定する。例えば、生体判定部312は、サーマル画像IMG_Tに写り込んでいる対象者の体表温分布と、生体(特に、人間)の体表温分布として予め登録された体表温分布(以降、“登録体表温分布”と称する)との類似度が所定の閾値よりも高い場合に、サーマル画像IMG_Tに写り込んでいる対象者が生体であると判定してもよい。尚、この閾値は、固定値であってもよい。或いは、閾値は、変更可能であってもよい。例えば、閾値は、認証システムSYS3のユーザによって変更可能であってもよい。
 登録体表温分布に関する情報は、記憶装置32に登録体表温分布DB322として記憶されていてもよい。登録体表温分布に関する情報は、一般的な生体(特に、人間)の体表温分布(例えば、人間の平均的な体表温分布)に関する情報を含んでいてもよい。登録体表温分布に関する情報は、顔認証を行うために用いられる登録人物(つまり、登録DB321に予め登録された登録人物)の体表温分布(つまり、特定の人間の体表温分布)に関する情報を含んでいてもよい。
 入退場管理部313は、認証部311による判定結果及び生体判定部312の判定結果に基づいて、制限エリアに入場しようとしている対象者の通過を制限可能な入退場制限装置の状態を制御する。
 但し、認証システムSYS3が制限エリアに対する対象者の入退場を管理するために用いられない場合には、認証装置3は、入退場管理部313を備えていなくてもよい。或いは認証システムSYS3が制限エリアに対する対象者の入退場を管理するために用いられる場合であっても、認証装置3は、入退場管理部313を備えていなくてもよい。
 記憶装置32は、所望のデータを記憶可能である。例えば、記憶装置32は、演算装置31が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置32は、演算装置31がコンピュータプログラムを実行している場合に演算装置31が一時的に使用するデータを一時的に記憶してもよい。記憶装置32は、認証装置3が長期的に保存するデータを記憶してもよい。尚、記憶装置32は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。つまり、記憶装置32は、一時的でない記録媒体を含んでいてもよい。
 第3実施形態では、上述したように、記憶装置32は、対象者を認証するために主として認証部311が参照する登録人物DB321と、対象者が生体であるか否かを判定するために主として生体判定部312が参照する登録体表温分布DB322とを記憶している。
 通信装置33は、通信ネットワークNWを介して、可視カメラ1及びサーマルカメラ2の夫々と通信可能である。第3実施形態では、通信装置33は、通信ネットワークNWを介して、可視カメラ1から人物画像IMG_Pを受信(つまり、取得)する。更に、通信装置33は、通信ネットワークNWを介して、サーマルカメラ2からサーマル画像IMG_Tを受信(つまり、取得)する。
 入力装置34は、認証装置3の外部からの認証装置3に対する情報の入力を受け付ける装置である。例えば、入力装置34は、認証装置3のオペレータが操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つ)を含んでいてもよい。例えば、入力装置34は、認証装置3に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置35は、認証装置3の外部に対して情報を出力する装置である。例えば、出力装置35は、情報を画像として出力してもよい。つまり、出力装置35は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。例えば、出力装置35は、情報を音声として出力してもよい。つまり、出力装置35は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。例えば、出力装置35は、紙面に情報を出力してもよい。つまり、出力装置35は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。
 (3-3)認証装置3が行う認証動作
 続いて、図5を参照しながら、認証装置3が行う認証動作の流れについて説明する。図5は、認証装置3が行う認証動作の流れを示すフローチャートである。
 図5に示すように、通信装置33は、通信ネットワークNWを介して、可視カメラ1から人物画像IMG_Pを取得する(ステップS10)。可視カメラ1は、通常、一定の撮像レートで撮像範囲を撮像し続ける。例えば、可視カメラ1は、撮像範囲を1秒間にN1(尚、N1は、1以上の整数である)回撮像する撮像レートで、撮像範囲を撮像し続ける。このため、通信装置33は、時系列データである複数の人物画像IMG_Pを取得してもよい。通信装置33が取得した複数の人物画像IMG_Pは、記憶装置32に記憶されてもよい。
 更に、通信装置33は、通信ネットワークNWを介して、サーマルカメラ2からサーマル画像IMG_Tを取得する(ステップS11)。サーマルカメラ2は、通常、一定の撮像レートで撮像範囲を撮像し続ける。例えば、サーマルカメラ2は、撮像範囲を1秒間にN2(尚、N2は、1以上の整数である)回撮像する撮像レートで、撮像範囲を撮像し続ける。このため、通信装置33は、時系列データである複数のサーマル画像IMG_Tを取得してもよい。通信装置33が取得した複数のサーマル画像IMG_Tは、記憶装置32に記憶されてもよい。
 ステップS11において人物画像IMG_Pが取得された場合には、認証部311は、ステップS10において取得した人物画像IMG_Pを用いて、人物画像IMG_Pに写り込んでいる対象者を認証する(ステップS12)。第3実施形態では、対象者の顔を用いて認証部311が対象者を認証する例について説明する。つまり、認証部311が顔認証を行う例について説明する。但し、認証部311は、人物画像IMG_Pを用いたその他の認証方法を用いて、対象者を認証してもよい。例えば、認証部311、対象者の虹彩を用いて対象者を認証してもよい。
 認証部311は、顔認証を行うために、人物画像IMG_Pの一例を示す図6に示すように、人物画像IMG_Pのうち対象者の顔が写り込んでいる顔領域FAを検出する。その後、認証部311は、顔領域FAに含まれる対象者の顔の特徴点を抽出してもよい。その後、認証部311は、顔領域FAに含まれる対象者の顔の特徴点と、登録人物の顔の特徴点との類似度を算出してもよい。対象者の顔の特徴点と登録人物の顔の特徴点との類似度が所定の認証閾値よりも高い場合には、認証部311は、対象者が登録人物と同一であると判定してもよい。対象者の顔の特徴点と登録人物の顔の特徴点との類似度が所定の認証閾値よりも低い場合には、認証部311は、対象者が登録人物と同一でないと判定してもよい。
 再び図5において、ステップS12における認証の結果、認証が成功しなかった(つまり、対象者が登録人物と同一でないと判定された)場合には(ステップS13:No)、入退場管理部313は、対象者の制限エリアへの入場を禁止する(ステップS19)。
 他方で、ステップS12における認証の結果、認証が成功した(つまり、対象者が登録人物と同一であると判定された)場合には(ステップS13:Yes)、続いて、生体判定部312は、ステップS12において登録人物と同一であると判定された対象者が生体であるか否かを判定する(ステップS14からステップS16)。
 具体的には、生体判定部312は、認証時刻taを取得する(ステップS14)。認証時刻taは、ステップS10において取得された複数の人物画像IMG_Pのうち、ステップS12において対象者を認証するために実際に用いられた一の人物画像IMG_Pが撮像された時刻を示す。つまり、認証時刻taは、ステップS10において取得された複数の人物画像IMG_Pのうち、登録人物の顔の特徴点との類似度が所定の認証閾値よりも高いと判定された特徴点が抽出された一の人物画像IMG_Pが撮像された時刻を示す。
 その後、生体判定部312は、ステップS11において取得された複数のサーマル画像IMG_Tのうち、ステップS14において取得された認証時刻taに基づいて定まる注目時刻tbに撮像されたサーマル画像IMG_Tを取得する(ステップS15)。言い換えれば、生体判定部312は、ステップS11において取得された複数のサーマル画像IMG_Tが夫々撮像された複数の時刻のうちの少なくとも一つである注目時刻tbに撮像されたサーマル画像IMG_Tを取得する(ステップS15)。ステップS11において取得された複数のサーマル画像IMG_Tは、例えば、記憶装置32に記憶されている。この場合、生体判定部312は、記憶装置32から、注目時刻tbに撮像されたサーマル画像IMG_Tを取得してもよい。
 第3実施形態では、注目時刻tbは、ステップS11において取得された複数のサーマル画像IMG_Tが夫々撮像された複数の時刻のうちの認証時刻taに最も近い最近接時刻tb1を含む。以下、図7を参照しながら、認証時刻taに基づいて定まる注目時刻tb(特に、最近接時刻tb1)の具体例について説明する。図7は、認証時刻taと注目時刻tb(特に、最近接時刻tb1)との関係を示すタイミングチャートである。
 図7に示す例では、可視カメラ1は、時刻t11、時刻t12、時刻t13、時刻t14及び時刻t15の夫々において対象者を撮像している。また、サーマルカメラ2は、時刻t21、時刻t22、時刻t23及び時刻t24の夫々において対象者を撮像している。可視カメラ1とサーマルカメラ2とは、互いに同期するタイミングで対象者を撮像するとは限らない。この場合、可視カメラ1が対象者を撮像した時刻t11、時刻t12、時刻t13、時刻t14及び時刻t15は、サーマルカメラ2が対象者を撮像した時刻t21、時刻t22、時刻t23及び時刻t24とは同期しているとは限らない。
 ここで、認証部311が、時刻t13に対象者を撮像することで生成された人物画像IMG_Pを用いて対象者を認証したとする。この場合、認証時刻taは、時刻t13となる。その結果、時刻t13に最も近い(つまり、時刻t13との差が最も小さい)時刻t23が最近接時刻tb1となる。その結果、図7に示す例では、生体判定部312は、最近接時刻tb1である時刻t23に撮像されたサーマル画像IMG_Tを取得する。
 再び図5において、その後、生体判定部312は、ステップS15において取得したサーマル画像IMG_Tを用いて、当該サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定する(ステップS16)。ここで、上述したように、可視カメラ1及びサーマルカメラ2は、可視カメラ1及びサーマルカメラ2が同じ対象者を撮像可能となるように、位置合わせされている。このため、ステップS15において取得したサーマル画像IMG_Tには、人物画像IMG_Pに写り込んでいる対象者(つまり、ステップS12において登録人物と同一であると判定された対象者)が写り込んでいる可能性が高い。なぜならば、ステップS15において取得したサーマル画像IMG_Tは、認証時刻taに基づいて定まる注目時刻tb(特に、最近接時刻tb1)にサーマルカメラ2が対象者を撮像することで生成されるからである。このため、ステップS15において取得したサーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定する動作は、ステップS12において登録人物と同一であると判定された対象者が生体であるか否かを判定する動作と等価である。
 対象者が生体であるか否かを判定するために、生体判定部312は、図8に示すように、サーマル画像IMG_T内において、対象者を認証するために検出した顔領域FAに対応する領域を、対象者が生体であるか否かを判定するために注目するべき注目領域TAとして特定する。具体的には、上述したように、可視カメラ1及びサーマルカメラ2は、可視カメラ1及びサーマルカメラ2が同じ対象者を撮像可能となるように、位置合わせされている。つまり、可視カメラ1及びサーマルカメラ2は、可視カメラ1の撮像範囲とサーマルカメラ2の撮像範囲とが少なくとも部分的に重複するように、位置合わせされている。この場合、人物画像IMG_P内の第1領域と、サーマル画像IMG_Tのうち第1領域と同じ光景が写り込む第2領域とは、互いに対応する領域となる。このため、生体判定部312は、可視カメラ1及びサーマルカメラ2の位置関係に基づく射影変換行列等を用いて、人物画像IMG_Pの顔領域FAから、サーマル画像IMG_T内において顔領域FAに対応する(つまり、顔領域FAに写り込む光景と同じ光景が写り込むと想定される)注目領域TAを特定することができる。
 その後、生体判定部312は、注目領域TA内の温度分布に基づいて、対象者が生体であるか否かを判定する。ここで、注目領域TAが顔領域FAに対応するがゆえに、注目領域TAには、対象者の顔が写り込んでいる可能性が高い。このため、注目領域TA内の温度分布に基づいて対象者が生体であるか否かを判定する動作は、対象者の体表温分布(特に、対象者が生体であるか否かを判定するために注目するべき対象者の注目部位の一例である顔の体表温分布)に基づいて対象者が生体であるか否かを判定する動作と等価である。
 ステップS16における判定の結果、対象者が生体でないと判定された場合には(ステップS17:No)、入退場管理部313は、対象者の制限エリアへの入場を禁止する(ステップS19)。
 他方で、ステップS16における判定の結果、対象者が生体であると判定された場合には(ステップS17:Yes)、入退場管理部313は、対象者の制限エリアへの入場を許可する(ステップS18)。
 (3-4)技術的効果
 以上説明したように、第3実施形態では、認証装置3は、認証時刻taに基づいて定まる注目時刻tb(特に、最近接時刻tb1)にサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定する。このため、認証時刻taを考慮しない任意の時刻にサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tを用いて対象者が生体であるか否かを判定する比較例の認証装置と比較して、認証装置3は、対象者が生体であるか否かをより高精度に判定することができる。
 具体的には、比較例の認証装置は、認証時刻taとは大きく異なる時刻にサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tを用いて、対象者が生体である否かを判定する可能性がある。しかしながら、認証時刻taとは大きく異なる時刻にサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tでは、対象者の顔が注目領域TAに写り込んでいない可能性がある。というのも、認証時刻taとは大きく異なる時刻にサーマルカメラ2が対象者を撮像した場合には、認証時刻taにおける対象者と可視カメラ1及びサーマルカメラ2との位置関係と、サーマルカメラ2が対象者を撮像した時刻における対象者と可視カメラ1及びサーマルカメラ2との位置関係とが異なるものとなる可能性がある。これは、特に対象者が移動している場合に顕著である。この場合、人物画像IMG_Pの顔領域FAから特定されるサーマル画像IMG_Tの注目領域TAに、対象者の顔が適切に写り込んでいない可能性がある。例えば、サーマル画像IMG_Tの注目領域TAの中心から外れた位置に、対象者の顔が写り込んでいる可能性がある。この場合、比較例の認証装置は、サーマル画像IMG_Tのうちの対象者が適切に写り込んでいない注目領域TAの温度分布(つまり、対象者の体表温分布とは異なる温度分布)に基づいて対象者が生体であるか否かを判定する可能性がある。その結果、比較例の認証装置では、対象者が生体であるか否かを判定する精度が悪化する可能性がある。
 しかるに、第3実施形態では、認証装置3は、可視カメラ1が対象者を撮像した認証時刻taに最も近い最近接時刻tb1にサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定する。つまり、認証装置3は、認証時刻taとは大きく異なる時刻にサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tを用いて、対象者が生体である否かを判定することはない。その結果、対象者を認証するために可視カメラ1が対象者を撮像する時刻(つまり、認証時刻)と、対象者が生体であるか否かを判定するためにサーマルカメラ2が対象者を撮像する時刻(つまり、最近接時刻tb1)とが、近くなる。このため、人物画像IMG_Pの顔領域FAから特定されるサーマル画像IMG_Tの注目領域TAに、対象者の顔が適切に写り込んでいる可能性が高くなる。従って、認証装置3は、サーマル画像IMG_Tのうちの対象者が適切に写り込んでいる注目領域TAの温度分布(つまり、対象者の体表温分布)に基づいて対象者が生体であるか否かを適切に判定することができる。その結果、認証装置3では、対象者が生体であるか否かを判定する精度が悪化する可能性は低くなる。言い換えれば、認証装置3は、比較例の認証装置と比較して、対象者が生体であるか否かをより高精度に判定することができる。
 (3-5)変形例
 続いて、第3実施形態における認証装置3の変形例について説明する。但し、第1実施形態における認証装置1000においても、以下に説明する変形例と同様の構成要件が採用されてもよい。
 (3-5-1)第1変形例
 上述した説明では、注目時刻tbとして、認証時刻taに最も近い最近接時刻tb1が用いられている。第1変形例では、最近接時刻tb1に加えて、最近接時刻tb1の前後の時刻である少なくとも一つの前後時刻tb2が、注目時刻tbとして用いられる。つまり、第1変形例では、注目時刻tbは、最近接時刻tb1に加えて、図5のステップS11において取得された複数のサーマル画像IMG_Tが夫々撮像された複数の時刻のうちの、最近接時刻tb1の前後の時刻である少なくとも一つの前後時刻tb2を含んでいてもよい。この場合、生体判定部312は、図5のステップS15において、最近接時刻tb1に撮像されたサーマル画像IMG_Tと、前後時刻tb2に撮像されたサーマル画像IMG_Tとを含む複数のサーマル画像IMG_Tを取得する。
 尚、最近接時刻tb1の前後の時刻は、最近接時刻tb1よりも後の時刻及び最近接時刻tb1よりも前の時刻の少なくとも一方を意味する。また、最近接時刻tb1及び前後時刻tb2の双方が注目時刻tbとして用いられる場合には、最近接時刻tb1及び少なくとも一つの前後時刻tb2は、ステップS11において取得された複数のサーマル画像IMG_Tが夫々撮像された複数の時刻のうち連続する少なくとも二つの時刻を構成する。つまり、最近接時刻tb1に撮像されたサーマル画像IMG_T及び少なくとも一つの前後時刻tb2に撮像された少なくとも二つのサーマル画像IMG_Tは、図5のステップS11において取得された複数のサーマル画像IMG_Tのうち、時間的に連続する関係にある少なくとも二つのサーマル画像IMG_Tを構成する。
 以下、図9を参照しながら、認証時刻taに基づいて定まる注目時刻tb(特に、前後時刻tb2)の具体例について説明する。図9は、認証時刻taと注目時刻tbとの関係を示すタイミングチャートである。
 図9に示す例では、図7に示す例と同様に、可視カメラ1は、時刻t11、時刻t12、時刻t13、時刻t14及び時刻t15の夫々において対象者を撮像している。また、サーマルカメラ2は、時刻t21、時刻t22、時刻t23及び時刻t24の夫々において対象者を撮像している。
 ここで、認証部311が、時刻t13に対象者を撮像することで生成された人物画像IMG_Pを用いて対象者を認証したとする。この場合、認証時刻taは、時刻t13となる。その結果、時刻t13に最も近い(つまり、時刻t13との差が最も小さい)時刻t23が最近接時刻tb1となる。更に、時刻t23の前の時刻t22が、前後時刻tb2として用いられてもよい。更に、時刻t23の後の時刻t24が、前後時刻tb2として用いられてもよい。
 その結果、図9に示す例では、図5のステップS15において、生体判定部312は、最近接時刻tb1である時刻t23に撮像されたサーマル画像IMG_Tを取得する。更に、生体判定部312は、前後時刻tb2である時刻t22に撮像されたサーマル画像IMG_Tと、前後時刻tb2である時刻t24に撮像されたサーマル画像IMG_Tとの少なくとも一方を取得する。
 ステップS15において複数のサーマル画像IMG_Tが取得された場合には、生体判定部312は、図5のステップS16において、ステップS15において取得した複数のサーマル画像IMG_Tのうちの少なくとも一つを用いて、当該サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定してもよい。ここで、ステップS15において複数のサーマル画像IMG_Tが取得された場合であっても、ステップS15において単一のサーマル画像IMG_Tが取得された場合と同様に、ステップS15において取得した複数のサーマル画像IMG_Tの夫々には、人物画像IMG_Pに写り込んでいる対象者(つまり、ステップS12において登録人物と同一であると判定された対象者)が写り込んでいる可能性が高い。なぜならば、ステップS15において取得したサーマル画像IMG_Tは、認証時刻taに基づいて定まる注目時刻tb(具体的には、認証時刻taに近い最近接時刻tb1及び前後時刻tb2)にサーマルカメラ2が対象者を撮像することで生成されるからである。このため、生体判定部312は、ステップS15において取得した複数のサーマル画像IMG_Tのうちの少なくとも一つを用いて、対象者が生体であるか否かを適切に判定することができる。
 但し、複数のサーマル画像IMG_Tを示す図10に示すように、複数のサーマル画像IMG_Tの全てが、注目領域TAに対象者の顔が適切に写り込んでいる画像になっているとは限らない。例えば、図10に示す例では、前後時刻tb2である時刻t22にサーマルカメラ2が対象者を撮像することで生成されたサーマル画像IMG_Tでは、注目領域TAの中心付近に対象者の顔が適切に写り込んでいる一方で、最近接時刻tb1である時刻t23及び前後時刻tb2である時刻t24の夫々にサーマルカメラ2が対象者を撮像することで生成されたサーマル画像IMG_Tでは、注目領域TAから外れた位置に対象者の顔の少なくとも一部が写り込んでいる。これは、特に対象者が移動している場合に顕著である。この場合、生体判定部312は、複数のサーマル画像IMG_Tのうちの注目領域TAの中心付近に対象者の顔が適切に写り込んでいる少なくとも一つのサーマル画像IMG_Tを選択し、選択した少なくとも一つのサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定してもよい。或いは、生体判定部312は、サーマル画像IMG_Tに写り込んでいる対象者の体表温分布と登録体表温分布との類似度を、複数のサーマル画像IMG_Tの夫々を対象に算出し、算出した複数の類似度の統計値を用いて、対象者が生体であるか否かを判定してもよい。例えば、生体判定部312は、複数の類似度の平均値、最頻値、中央値又は最大値が閾値よりも高い場合に、対象者が生体であると判定してもよい。
 このように第1変形例では、認証装置3は、最近接時刻tb1に撮像されたサーマル画像IMG_Tのみならず、前後時刻tb2に撮像されたサーマル画像IMG_Tをも用いて、対象者が生体であるか否かを判定することができる。このため、最近接時刻tb1に撮像されたサーマル画像IMG_Tにおいて注目領域TAから外れた位置に対象者の顔の少なくとも一部が写り込んでいる状況下において、認証装置3は、対象者が生体であるか否かをより高精度に判定することができる。
 (3-5-2)第2変形例
 第2変形例では、認証装置3は、人物画像IMG_Pの顔領域FAの位置から特定される注目領域TAの位置を、サーマル画像IMG_T内において調整してもよい。以下、図11を参照しながら、第2変形例における認証動作について説明する。図11は、第2変形例における認証動作の流れを示すフローチャートである。尚、既に説明済みの処理については、同一のステップ番号を付することで、その詳細な説明を省略する。
 図11に示すように、第2変形例においても、認証装置3は、ステップS10からステップS15までの動作を行う。
 その後、生体判定部312は、ステップS15において取得したサーマル画像IMG_Tを用いて、当該サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定する(ステップS16b)。具体的には、まず、上述したように、生体判定部312は、サーマル画像IMG_T内において、対象者を認証するために検出した顔領域FAに対応する領域を、対象者が生体であるか否かを判定するために注目するべき注目領域TAとして特定する(ステップS161b)。その後、生体判定部312は、顔領域FAの位置から特定される注目領域TAの位置を、サーマル画像IMG_T内において調整する(ステップS162b)。その後、生体判定部312は、位置が調整された注目領域TA内の温度分布に基づいて、対象者が生体であるか否かを判定する(ステップS163b)。尚、ステップS161b及びステップ163bの処理は、上述した図5のステップS16の動作と同一であってもよい。
 生体判定部312は、図12に示すように、サーマル画像IMG_T内において注目領域TAを移動させることで、注目領域TAの位置を調整してもよい。例えば、生体判定部312は、サーマル画像IMG_Tの縦方向に沿って注目領域TAを移動させることで、縦方向における注目領域TAの位置を調整してもよい。例えば、生体判定部312は、サーマル画像IMG_Tの縦方向に沿って注目領域TAを移動させることに加えて又は代えて、サーマル画像IMG_Tの横方向に沿って注目領域TAを移動させることで、横方向における注目領域TAの位置を調整してもよい。尚、図12は、生体判定部312が、サーマル画像IMG_Tの横方向に沿って注目領域TAを移動させる例を示している。
 生体判定部312は、ステップS15において取得したサーマル画像IMG_Tに基づいて、注目領域TAの位置を調整してもよい。例えば、生体判定部312は、ステップS15において取得したサーマル画像IMG_Tが示す温度分布に基づいて、注目領域TAの位置を調整してもよい。具体的には、サーマル画像IMG_T内において、通常は、対象者が写り込んでいる画像部分が示す温度は、対象者が写り込んでいない画像部分(例えば、対象者の背景が写り込んでいる画像部分)が示す温度とは異なる。例えば、対象者が写り込んでいる画像部分が示す温度は、対象者が写り込んでいない画像部分が示す温度よりも高くなる。このため、サーマル画像IMG_Tが示す温度分布は、サーマル画像IMG_T内において対象者が写り込んでいる位置を間接的に示しているといえる。そこで、生体判定部312は、ステップS15において取得したサーマル画像IMG_Tに基づいて、サーマル画像IMG_T内において対象者が写り込んでいる位置に向かって注目領域TAが移動するように、注目領域TAの位置を調整してもよい。
 一例として、図13(a)は、サーマル画像IMG_Tを構成する複数の画像のうちの横方向に一列に並ぶ複数の画素を含む画素列における温度分布を示しており、図13(b)は、サーマル画像IMG_Tを構成する複数の画像のうちの縦方向に一列に並ぶ複数の画素を含む画素列における温度分布を示している。図13(a)及び図13(b)に示すように、対象者が写り込んでいる画像部分が示す温度が、対象者が写り込んでいない画像部分が示す温度とは異なるがゆえに、画素列の温度分布から、対象者の位置(例えば、顔の中心)が推定可能である。このため、生体判定部312は、ステップS15において取得したサーマル画像IMG_Tに基づいて、画素列の温度分布を算出し、画素列の温度分布に基づいて、サーマル画像IMG_T内において対象者の顔に向かって注目領域TAが移動するように、注目領域TAの位置を調整してもよい。生体判定部312は、サーマル画像IMG_T内において対象者の顔の中心に向かって注目領域TAの中心が移動するように、注目領域TAの位置を調整してもよい。生体判定部312は、サーマル画像IMG_T内において対象者の顔の中心と注目領域TAの中心とが一致するように、注目領域TAの位置を調整してもよい。
 このように第2変形例では、注目領域TAの位置が調整可能であるがゆえに、認証装置3は、サーマル画像IMG_Tのうちの対象者が適切に写り込んでいる注目領域TAの温度分布(つまり、対象者の体表温分布)に基づいて対象者が生体であるか否かを適切に判定することができる。認証装置3は、対象者が生体であるか否かをより高精度に判定することができる。
 (3-5-3)第3変形例
 第2変形例で説明したように、サーマル画像IMG_Tが示す温度分布は、サーマル画像IMG_T内において対象者が写り込んでいる位置を間接的に示している。この場合、認証装置3は、対象者が生体であるか否かを判定するために用いるサーマル画像IMG_Tにおいて、対象者の顔が注目領域TAに適切に写り込んでいるのか、又は、対象者の顔の少なくとも一部が注目領域TAから外れた位置に写り込んでいるのかを判定してもよい。対象者の顔の少なくとも一部が注目領域TAから外れた位置に写り込んでいると判定された場合には、認証装置3は、対象者の顔が注目領域TAに適切に写り込んでいる別のサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定してもよい。一例として、認証装置3は、対象者の顔が注目領域TAの中心又は当該中心に相対的に近い位置に写り込んでいる別のサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定してもよい。
 一例として、上述した第1変形例では、認証装置3は、複数の注目時刻tbに夫々対応する複数のサーマル画像IMG_Tを取得する。この場合、認証装置3は、複数のサーマル画像IMG_Tの夫々において、対象者の顔が注目領域TAに適切に写り込んでいるのか、又は、対象者の顔の少なくとも一部が注目領域TAから外れた位置に写り込んでいるのかを判定してもよい。この場合、認証装置3は、複数のサーマル画像IMG_Tのうち、対象者の顔が注目領域TAに適切に写り込んでいる一のサーマル画像IMG_Tを選択し、選択した一のサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定してもよい。例えば、複数の注目時刻tbに夫々対応する複数のサーマル画像IMG_Tを示す図14に示す例では、時刻t22にサーマルカメラ2が対象者を撮像することで生成されたサーマル画像IMG_Tでは、対象者の顔が注目領域TAに適切に写り込んでいる一方で、時刻t23及び時刻t24の夫々にサーマルカメラ2が対象者を撮像することで生成されたサーマル画像IMG_Tでは、対象者の顔の少なくとも一部が注目領域TAから外れた位置に写り込んでいる。この場合、認証装置3は、複数のサーマル画像IMG_Tが示す温度分布に基づいて、対象者の顔が注目領域TAに適切に写り込んでいる一のサーマル画像IMG_Tとして、時刻t22にサーマルカメラ2が対象者を撮像することで生成されたサーマル画像IMG_Tを選択してもよい。
 このように第3変形例では、認証装置3は、対象者の顔が注目領域TAに適切に写り込んでいる一のサーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定することができる。認証装置3は、対象者が生体であるか否かをより高精度に判定することができる。
 (3-5-4)第4変形例
 上述した説明では、人物画像IMG_Pに写り込んだ対象者を認証する認証装置3が、サーマル画像IMG_Tを用いて、対象者が生体であるか否かを判定している。しかしながら、人物画像IMG_Pに写り込んだ対象者を認証しない任意のなりすまし判定装置が、上述した認証装置3と同様に、サーマル画像IMG_Tを用いて、サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定してもよい。言い換えれば、任意のなりすまし判定装置が、サーマル画像IMG_Tに生体が写り込んでいるか否かを判定してもよい。この場合においても、任意のなりすまし判定装置は、上述した認証装置3と同様に、対象者が生体であるか否かを相対的に高精度に判定することができる。
 一例として、例えば、体表温が正常値にある対象者の滞在が許可される一方で、体表温が正常値にない対象者の滞在が禁止される(例えば、体表温が正常値にない対象者の退出が要求される)施設では、施設に滞在している対象者の体表温を測定するためにサーマルカメラ2が設置されることがある。このような施設の一例として、オフィスビル、公共施設、レストラン及び病院の少なくとも一つがあげられる。この場合、施設には、施設に入場しようとしている対象者をサーマルカメラ2が撮像することで生成されるサーマル画像IMG_Tを用いて、施設に滞在している対象者の体表温が正常であるか否を判定すると共に、体表温が正常値にない対象者の退出を要求する滞在管理装置が設置されてもよい。この滞在管理装置は、上述した認証装置3と同様に、サーマル画像IMG_Tに写り込んでいる対象者が生体であるか否かを判定してもよい。
 (4)第4実施形態
 続いて、認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体の第4実施形態について説明する。以下では、第4実施形態における認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体が適用された認証システムSYS4を用いて、第4実施形態における認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体について説明する。
 (4-1)認証システムSYS4の構成
 はじめに、図15を参照しながら第4実施形態における認証システムSYS4の構成について説明する。図15は、第4実施形態における認証システムSYS4の構成を示すブロック図である。尚、既に説明済みの構成要素については、同一の参照符号を付することで、その詳細な説明を省略する。
 図15に示すように、第4実施形態における認証システムSYS4は、第3実施形態における認証システムSYS3と比較して、認証システムSYS4がエンジン生成装置4を更に備えているという点で異なる。認証システムSYS4のその他の特徴は、認証システムSYS3のその他の特徴と同一であってもよい。
 エンジン生成装置4は、サーマル画像IMG_Tを用いて対象者が生体であるか否かを判定するための判定エンジンENGを生成するためのエンジン生成動作を行うことが可能である。判定エンジンENGは、サーマル画像IMG_Tを用いて対象者が生体であるか否かを判定することが可能である限りは、どのようなエンジンであってもよい。例えば、判定エンジンENGは、サーマル画像IMG_Tの少なくとも一部(例えば、サーマル画像IMG_Tのうちの注目領域TAに含まれる画像部分)に基づいて、対象者が生体であるか否かの判定結果を出力するエンジンであってもよい。例えば、判定エンジンENGは、サーマル画像IMG_Tの少なくとも一部(例えば、サーマル画像IMG_Tのうちの注目領域TAに含まれる画像部分)が入力された場合に、対象者が生体であるか否かの判定結果を出力するエンジンであってもよい。例えば、判定エンジンENGは、サーマル画像IMG_Tの少なくとも一部(例えば、サーマル画像IMG_Tのうちの注目領域TAに含まれる画像部分)の特徴量に基づいて、対象者が生体であるか否かの判定結果を出力するエンジンであってもよい。例えば、判定エンジンENGは、サーマル画像IMG_Tの少なくとも一部(例えば、サーマル画像IMG_Tのうちの注目領域TAに含まれる画像部分)の特徴量が入力された場合に、対象者が生体であるか否かの判定結果を出力するエンジンであってもよい。
 第4実施形態では、エンジン生成装置4が、サーマル画像IMG_Tと同様に人物の体表温分布を示す画像を用いた機械学習を行うことで、判定エンジンENGを生成する例について説明する。この場合、判定エンジンENGは、機械学習によって生成可能なエンジン(いわゆる、学習可能な学習モデル)である。機械学習によって生成可能なエンジンの一例として、ニューラルネットワークを用いたエンジン(例えば、学習モデル)があげられる。
 エンジン生成装置4は、通信ネットワークNWを介して、生成した判定エンジンENGを認証装置3に送信してもよい。この場合、認証装置3は、サーマル画像IMG_Tと判定エンジンENGとを用いて、対象者が生体であるか否かを判定してもよい。
 (4-2)エンジン生成装置4の構成
 続いて、図16を参照しながら、第4実施形態におけるエンジン生成装置4の構成について説明する。図16は、第4実施形態におけるエンジン生成装置4の構成を示すブロック図である。
 図16に示すように、エンジン生成装置4は、演算装置41と、記憶装置42と、通信装置43とを備えている。更に、エンジン生成装置4は、入力装置44と、出力装置45とを備えていてもよい。但し、認証装置3は、入力装置44及び出力装置45のうちの少なくとも一つを備えていなくてもよい。演算装置41と、記憶装置42と、通信装置43と、入力装置44と、出力装置45とは、データバス46を介して接続されていてもよい。
 演算装置41は、例えば、CPU、GPU及びFPGAのうちの少なくとも一つを含む。演算装置41は、コンピュータプログラムを読み込む。例えば、演算装置41は、記憶装置42が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置41は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、エンジン生成装置4が備える図示しない記録媒体読み取り装置を用いて読み込んでもよい。演算装置41は、通信装置43(或いは、その他の通信装置)を介して、エンジン生成装置4の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置41は、読み込んだコンピュータプログラムを実行する。その結果、演算装置41内には、エンジン生成装置4が行うべき動作(例えば、上述したエンジン生成動作)を実行するための論理的な機能ブロックが実現される。つまり、演算装置41は、エンジン生成装置4が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図16には、エンジン生成動作を実行するために演算装置41内に実現される論理的な機能ブロックの一例が示されている。図16に示すように、演算装置41内には、画像抽出部411と、画像生成部412と、エンジン生成部413とが実現される。尚、画像抽出部411、画像生成部412及びエンジン生成部413の夫々の動作については、図17等を参照しながら後に詳述するため、ここでの詳細な説明は省略する。
 記憶装置42は、所望のデータを記憶可能である。例えば、記憶装置42は、演算装置41が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置42は、演算装置41がコンピュータプログラムを実行している場合に演算装置41が一時的に使用するデータを一時的に記憶してもよい。記憶装置42は、エンジン生成装置4が長期的に保存するデータを記憶してもよい。尚、記憶装置42は、RAM、ROM、ハードディスク装置、光磁気ディスク装置、SSD及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。つまり、記憶装置42は、一時的でない記録媒体を含んでいてもよい。
 通信装置43は、通信ネットワークNWを介して、可視カメラ1、サーマルカメラ2及び認証装置3の夫々と通信可能である。第4実施形態では、通信装置43は、通信ネットワークNWを介して、生成した判定エンジンENGを認証装置3に送信する。
 入力装置44は、エンジン生成装置4の外部からのエンジン生成装置4に対する情報の入力を受け付ける装置である。例えば、入力装置44は、エンジン生成装置4のオペレータが操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つ)を含んでいてもよい。例えば、入力装置44は、エンジン生成装置4に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置45は、エンジン生成装置4の外部に対して情報を出力する装置である。例えば、出力装置45は、情報を画像として出力してもよい。つまり、出力装置45は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。例えば、出力装置45は、情報を音声として出力してもよい。つまり、出力装置45は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。例えば、出力装置45は、紙面に情報を出力してもよい。つまり、出力装置45は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。
 (4-3)エンジン生成装置4が行うエンジン生成動作
 続いて、図17を参照しながら、エンジン生成装置4が行うエンジン生成動作の流れについて説明する。図17は、エンジン生成装置4が行うエンジン生成動作の流れを示すフローチャートである。
 図17に示すように、画像抽出部411は、学習データセット420から少なくとも一つの抽出画像IMG_Eを抽出する(ステップS41)。学習データセット420は、例えば、記憶装置42に記憶されていてもよい(図16参照)。或いは、画像抽出部411は、通信装置43を用いて、エンジン生成装置4の外部の装置から、学習データセット420を取得してもよい。
 学習データセット420のデータ構造の一例が図18に示されている。図18に示すように、学習データセット420は、複数の単位データ421を含んでいる。各単位データ421は、サンプル画像IMG_Sと、注目領域情報422と、正解ラベル423とを含む。サンプル画像IMG_Sは、サンプル人物の体表温分布を示す画像である。例えば、サーマルカメラ2又はサーマルカメラ2とは異なる他のサーマルカメラがサンプル人物を撮像することで生成する画像が、サンプル画像IMG_Sとして用いられてもよい。例えば、サーマルカメラ2又はサーマルカメラ2とは異なる他のサーマルカメラがサンプル人物を撮像することで生成する画像を模した画像が、サンプル画像IMG_Sとして用いられてもよい。第4実施形態では、サンプル画像IMG_Sには、注目領域TAが予め設定されている。サンプル画像IMG_Sに設定されている注目領域TAは、サンプル人物が生体であるか否かを判定するために注目するべき領域である。例えば、注目領域TAは、サンプル人物が生体であるか否かを判定するために注目するべきサンプル人物の部位(例えば、上述した顔)が写り込んでいる領域であってもよい。サンプル画像IMG_Sに予め設定されている注目領域TAに関する情報は、注目領域情報422として、単位データ421に含まれている。正解ラベル423は、サンプル画像IMG_Sに写り込んでいるサンプル人物が生体であるか否かを示している。
 尚、学習データセット420は、複数の異なるサンプル人物の体表温分布を夫々示す複数のサンプル画像IMG_Sを夫々含む複数の単位データ421を含んでいてもよい。学習データセット420は、同じサンプル人物の体表温分布を示す複数のサンプル画像IMG_Sを夫々含む複数の単位データ421を含んでいてもよい。
 画像抽出部411は、学習データセット420から、ランダムに少なくとも一つのサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出してもよい。この場合、画像抽出部411は、学習データセット420に含まれる複数のサンプル画像IMG_Sの全てを、抽出画像IMG_Eとして抽出してもよい。或いは、画像抽出部411は、学習データセット420に含まれる複数のサンプル画像IMG_Sの一部を、抽出画像IMG_Eとして抽出する一方で、学習データセット420に含まれる複数のサンプル画像IMG_Sの他の一部を、抽出画像IMG_Eとして抽出しなくてもよい。
 或いは、画像抽出部411は、学習データセット420から、所定の抽出条件を満たす少なくとも一つのサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出してもよい。抽出条件は、可視カメラ1及びサーマルカメラ2の少なくとも一方が対象者を撮像する撮像環境に基づいて定まる撮像環境条件を含んでいてもよい。つまり、抽出条件は、可視カメラ1及びサーマルカメラ2の少なくとも一方が対象者を撮像する実際の撮像環境を反映した撮像環境条件を含んでいてもよい。この場合、画像抽出部411は、学習データセット420から、撮像環境条件を満たす少なくとも一つのサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出してもよい。例えば、画像抽出部411は、学習データセット420から、撮像環境条件が示す所定の撮像環境下にあるサーマルカメラ2が生成するサーマル画像IMG_Tと同様の特性を有するサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出してもよい。画像抽出部411は、学習データセット420から、撮像環境条件が示す撮像環境下で対象者を撮像するサーマルカメラ2が生成するサーマル画像IMG_Tと同様の特性を有するサンプル画像IMG_Sを、抽出画像IMG_Eを抽出してもよい。
 撮像環境は、可視カメラ1とサーマルカメラ2との位置関係を含んでいてもよい。撮像環境は、可視カメラ1と対象者との位置関係を含んでいてもよい。特に、撮像環境は、可視カメラ1が対象者を撮像するタイミングでの可視カメラ1と対象者との位置関係を含んでいてもよい。可視カメラ1と対象者との位置関係は、可視カメラ1と対象者との間の距離を含んでいてもよい。可視カメラ1と対象者との位置関係は、可視カメラ1が向いている方向(例えば、可視カメラ1が備えるレンズ等の光学系の光軸が延びる方向)と対象者が向いている方向(例えば、対象者の顔が向いてる方向であり、対象者の正面に延びる方向)との間の関係を含んでいてもよい。撮像環境は、サーマルカメラ2と対象者との位置関係を含んでいてもよい。特に、撮像環境は、サーマルカメラ2が対象者を撮像するタイミングでのサーマルカメラ2と対象者との位置関係を含んでいてもよい。サーマルカメラ2と対象者との位置関係は、サーマルカメラ2と対象者との間の距離を含んでいてもよい。サーマルカメラ2と対象者との位置関係は、サーマルカメラ2が向いている方向(例えば、サーマルカメラ2が備えるレンズ等の光学系の光軸が延びる方向)と対象者が向いている方向との間の関係を含んでいてもよい。撮像環境は、可視カメラ1の光学的特性(例えば、可視カメラ1が備えるレンズ等の光学系の光学的特性)を含んでいてもよい。撮像環境は、サーマルカメラ2の光学的特性(例えば、サーマルカメラ2が備えるレンズ等の光学系の光学的特性)を含んでいてもよい。
 可視カメラ1及びサーマルカメラ2の夫々は、可視カメラ1及びサーマルカメラ2に向かって移動している対象者を撮像してもよいし、可視カメラ1及びサーマルカメラ2の前で静止している対象者を撮像してもよいことは、上述したとおりである。この場合、可視カメラ1及びサーマルカメラ2が移動している対象者を撮像する場合の撮像環境と、可視カメラ1及びサーマルカメラ2が静止している対象者を撮像する場合の撮像環境とは、一般的に異なる。このため、可視カメラ1及びサーマルカメラ2が移動している対象者を撮像するという条件と、可視カメラ1及びサーマルカメラ2が静止している対象者を撮像するという条件との少なくとも一方が、撮像環境条件として用いられてもよい。
 撮像環境に応じて、サーマル画像IMG_Tに写り込む対象者の状態が変わる。例えば、移動している対象者を撮像することで生成されるサーマル画像IMG_Tに写り込む対象者の状態と、静止している対象者を撮像することで生成されるサーマル画像IMG_Tに写り込む対象者の状態とは、一般的に異なる。このため、撮像環境条件を満たす少なくとも一つの抽出画像IMG_Eを抽出する動作は、撮像環境条件が示す所定の撮像環境下で生成されたサーマル画像IMG_Tに写り込んでいる対象者の状態と同様の状態でサンプル人物が写り込んでいるサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出する動作と等価であるとみなしてもよい。
 一例として、可視カメラ1及びサーマルカメラ2が移動している対象者を撮像する場合には、可視カメラ1及びサーマルカメラ2は、対象者を斜めの方向から撮像する可能性が相対的に高い一方で、可視カメラ1及びサーマルカメラ2が静止している対象者を撮像する場合には、可視カメラ1及びサーマルカメラ2は、対象者を正面の方向から撮像する可能性が相対的に高い。この場合、可視カメラ1及びサーマルカメラ2が対象者を正面の方向から撮像するという条件が、可視カメラ1及びサーマルカメラ2が静止している対象者を撮像するという撮像環境条件として用いられてもよい。同様に、可視カメラ1及びサーマルカメラ2が対象者を斜めの方向から撮像するという条件が、可視カメラ1及びサーマルカメラ2が移動している対象者を撮像するという撮像環境条件として用いられてもよい。可視カメラ1及びサーマルカメラ2が対象者を正面の方向から撮像するという撮像環境条件が用いられる場合には、画像抽出部411は、正面を向いたサンプル人物が写り込んだサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出してもよい。可視カメラ1及びサーマルカメラ2が対象者を斜めの方向から撮像するという撮像環境条件が用いられる場合には、画像抽出部411は、斜めを向いたサンプル人物が写り込んだサンプル画像IMG_Sを、抽出画像IMG_Eとして抽出してもよい。
 再び図17において、その後、画像生成部412は、ステップS41において抽出された抽出画像IMG_Eを用いて、機械学習に実際に用いられる学習画像IMG_Lを生成する(ステップS42)。特に、画像生成部412は、複数の学習画像IMG_Lを生成する(ステップS42)。具体的には、画像生成部412は、抽出画像IMG_Eに設定されている注目領域TAと抽出画像IMG_Eに写り込んでいるサンプル人物の顔(つまり、注目部位)との位置関係を変更することで、注目領域TAとサンプル人物の顔との位置関係が変更された抽出画像IMG_Eである学習画像IMG_Lを生成する。
 画像生成部412は、一つの抽出画像IMG_Eにおいて、注目領域TAとサンプル人物の顔との位置関係を異なる複数の変更態様で変更してもよい。この場合、画像生成部412は、一つの抽出画像IMG_Eから、注目領域TAとサンプル人物の顔との位置関係の変更態様が夫々異なる複数の学習画像IMG_Lを生成することができる。その結果、画像生成部412は、機械学習に用いられる学習画像IMG_Lの数をより一層増やすことができる。これは、サンプルに用いるデータの数が多ければ多いほど学習効率が向上する機械学習にとって大きなメリットである。
 画像生成部412は、上述した可視カメラ1及びサーマルカメラ2の少なくとも一方が対象者を撮像する撮像環境に基づいて、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。具体的には、撮像環境に応じてサーマル画像IMG_Tに写り込む対象者の状態が変わることは、上述したとおりである。この場合、画像生成部412は、上述した可視カメラ1及びサーマルカメラ2の少なくとも一方が対象者を撮像する実際の撮像環境下で生成されるサーマル画像IMG_Tに写り込んでいる対象者の状態と同様の状態でサンプル人物が写り込んでいる学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。
 例えば、可視カメラ1及びサーマルカメラ2の夫々は、可視カメラ1及びサーマルカメラ2に向かって移動している対象者を撮像してもよいし、可視カメラ1及びサーマルカメラ2の前で静止している対象者を撮像してもよいことは、上述したとおりである。この場合、画像生成部412は、サーマルカメラ2が移動する対象者を撮像することで生成するサーマル画像IMG_Tに写り込んでいる対象者の状態と同様の状態でサンプル人物が写り込んでいる学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。画像生成部412は、サーマルカメラ2が静止している対象者を撮像することで生成するサーマル画像IMG_Tに写り込んでいる対象者の状態と同様の状態でサンプル人物が写り込んでいる学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。
 一例として、移動している対象者を撮像することで生成されるサーマル画像IMG_Tでは、静止している対象者を撮像することで生成されるサーマル画像IMG_Tと比較して、注目領域TAの中心と対象者の顔の中心とのずれ量が大きくなる可能性が高くなる。このため、サーマルカメラ2が移動している対象者を撮像する場合には、画像生成部412は、注目領域TAの中心とサンプル人物の顔の中心とのずれ量が相対的に大きい学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。一方で、サーマルカメラ2が静止している対象者を撮像する場合には、画像生成部412は、注目領域TAの中心とサンプル人物の顔の中心とのずれ量が相対的に少ない学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。
 他の一例として、移動している対象者を撮像することで生成されるサーマル画像IMG_Tでは、静止している対象者を撮像することで生成されるサーマル画像IMG_Tと比較して、注目領域TAの中心に対して対象者の顔がより多くの方向にずれる可能性が高くなる。このため、サーマルカメラ2が移動している対象者を撮像する場合には、画像生成部412は、注目領域TAの中心に対してサンプル人物の顔がずれる方向が相対的に多くなる複数の学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。具体的には、画像生成部412は、注目領域TAの中心に対してサンプル人物の顔が4種類の方向(例えば、上方向、下方向、右方向及び左方向)にずれる複数の学習画像IMG_Lを生成してもよい。一方で、サーマルカメラ2が静止している対象者を撮像する場合には、画像生成部412は、注目領域TAの中心に対してサンプル人物の顔がずれる方向が相対的に少ない複数の学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。具体的には、画像生成部412は、注目領域TAの中心に対してサンプル人物の顔が1種類の方向又は2種類の方向(例えば、上方向及び下方向)のみにずれる複数の学習画像IMG_Lを生成してもよい。
 他の一例として、可視カメラ1及びサーマルカメラ2が移動している対象者を撮像する場合には、可視カメラ1及びサーマルカメラ2は、対象者から相対的に遠い位置から対象者を撮像する一方で、可視カメラ1及びサーマルカメラ2が静止している対象者を撮像する場合には、可視カメラ1及びサーマルカメラ2は、対象者に相対的に近い位置から対象者を撮像する可能性がある。可視カメラ1及びサーマルカメラ2と対象者との距離が遠くなればなるほど、サーマル画像IMG_Tに写り込む対象者の顔が小さくなる。このため、サーマルカメラ2が移動している対象者を撮像する場合には、画像生成部412は、顔が相対的に小さいサンプル人物が写り込んだ学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。一方で、サーマルカメラ2が静止している対象者を撮像する場合には、画像生成部412は、顔が相対的に大きいサンプル人物が写り込んだ学習画像IMG_Lを生成するように、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。
 画像生成部412は、抽出画像IMG_E内において注目領域TAの特性を変更することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。注目領域TAの特性は、注目領域TAの位置を含んでいてもよい。この場合、図19(a)に示すように、画像生成部412は、抽出画像IMG_E内における注目領域TAの位置を変更することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。つまり、画像生成部412は、抽出画像IMG_E内において注目領域TAを移動することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。また、注目領域TAの特性は、注目領域TAのサイズを含んでいてもよい。この場合、図19(b)に示すように、画像生成部412は、抽出画像IMG_E内における注目領域TAのサイズを変更することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。つまり、画像生成部412は、抽出画像IMG_E内において注目領域TAを拡大又は縮小することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。
 画像生成部412は、注目領域TAが設定されている抽出画像IMG_Eの特性を変更することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。抽出画像IMG_Eの特性は、抽出画像IMG_Eの位置(例えば、注目領域TAに対する位置)を含んでいてもよい。この場合、図20(a)に示すように、画像生成部412は、注目領域TAに対する抽出画像IMG_Eの位置を変更することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。つまり、画像生成部412は、注目領域TAに対して抽出画像IMG_Eを移動する(例えば、平行移動する)ことで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。また、抽出画像IMG_Eの特性は、抽出画像IMG_Eのサイズを含んでいてもよい。この場合、図20(b)に示すように、画像生成部412は、抽出画像IMG_Eのサイズを変更することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。つまり、画像生成部412は、抽出画像IMG_Eを拡大又は縮小することで、注目領域TAとサンプル人物の顔との位置関係を変更してもよい。
 再び図17において、その後、エンジン生成部413は、ステップS42において生成された複数の学習画像IMG_Lを用いて、判定エンジンENGを生成する(ステップS43)。つまり、エンジン生成部413は、ステップS42において生成された複数の学習画像IMG_Lを用いた機械学習を行うことで、判定エンジンENGを生成する(ステップS43)。具体的には、エンジン生成部413は、判定エンジンENGに対して、ステップS42において生成された複数の学習画像IMG_Lの夫々を入力する。その結果、判定エンジンENGは、各学習画像IMG_Lに写り込んでいるサンプル人物が生体であるか否かの判定結果を出力する。その後、エンジン生成部413は、判定エンジンENGの判定結果と各学習画像IMG_Lに対応する正解ラベル423との誤差に基づく損失関数を用いて、判定エンジンENGのパラメータを更新する。典型的には、エンジン生成部413は、判定エンジンENGの判定結果と各学習画像IMG_Lに対応する正解ラベル423との誤差が小さくなる(好ましくは、最小になる)ように、判定エンジンENGのパラメータを更新する。或いは、判定エンジンENGがいわゆる2値分類を行うがゆえに、エンジン生成部413は、混同行列に基づく指標値(例えば、正解率(Accuracy)、再現率(Recall)、特異度(Specificity)、適合率(Precision)及びF値(F-measure)の少なくとも一つ)を用いて、判定エンジンENGのパラメータを更新してもよい。その結果、判定エンジンENGが生成される。
 (4-3)技術的効果
 以上説明したように、第4実施形態では、エンジン生成装置4は、サーマルカメラ2が対象者を撮像する撮像環境に基づいて、抽出画像IMG_Eから学習画像IMG_Lを生成する。この場合、学習画像IMG_Lには、サーマルカメラ2が対象者を撮像する撮像環境に関する情報が反映されている。このため、エンジン生成装置4は、撮像環境に関する情報が反映された学習画像IMG_Lを用いた機械学習を行うことで、撮像環境に関する情報が反映された判定エンジンENGを生成することができる。例えば、エンジン生成装置4は、ある特定の撮像環境に関する情報が反映された学習画像IMG_Lを用いた機械学習を行うことで、ある特定の撮像環境下でサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tを用いて対象者が生体であるか否かを判定するための判定エンジンENGを生成することができる。その結果、認証装置3は、ある特定の撮像環境に関する情報が反映された判定エンジンENGを用いることで、ある特定の撮像環境に関する情報が反映されていない判定エンジンENGを用いる場合と比較して、ある特定の撮像環境下でサーマルカメラ2が対象者を撮像することで生成されるサーマル画像IMG_Tから対象者が生体であるか否かを高精度に判定することができる。つまり、エンジン生成装置4は、対象者が生体であるか否かを高精度に判定可能な判定エンジンENGを生成することができる。
 (4-4)変形例
 エンジン生成装置4は、複数の異なる判定エンジンENGを生成し、認証装置3は、複数の判定エンジンENGのうちの一の判定エンジンENGを選択し、且つ、選択した一の判定エンジンENGを用いて、対象者が生体であるか否かを判定してもよい。この場合、認証装置3は、認証動作を行っている認証期間中に、対象者が生体であるか否かを判定するために用いる判定エンジンENGを変更してもよい。
 一例として、サーマル画像IMG_T内における注目領域TAの中心と対象者の顔の中心とのずれ量(以降、単に“注目領域TAと顔とのずれ量”と称する)及びサーマル画像IMG_T内における注目領域TAの中心と対象者の顔の中心とのずれの方向(以降、単に“注目領域TAと顔とのずれの方向”と称する)の少なくとも一方が、撮像環境に応じて変わる可能性があることは上述したとおりである。この場合、エンジン生成装置4は、注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方が異なる複数種類の学習画像IMG_Lを生成し、複数種類の学習画像IMG_Lを用いて複数の判定エンジンENGを夫々生成してもよい。例えば、エンジン生成装置4は、(i)注目領域TAと顔との位置関係を第1の変更態様で変更することで、注目領域TAと顔とのずれ量が第1の範囲に収まり且つ注目領域TAと顔とのずれの方向が第1の方向となる第1の学習画像IMG_Lを生成し、(ii)注目領域TAと顔との位置関係を第1の変更態様とは異なる第2の変更態様で変更することで、注目領域TAと顔とのずれ量が第1の範囲とは異なる第2の範囲に収まり及び/又は注目領域TAと顔とのずれの方向が第1の方向とは異なる第2の方向となる第2の学習画像IMG_Lを生成してもよい。その後、エンジン生成装置4は、第1の学習画像IMG_Lを用いて、第1の判定エンジンENGを生成し、第2の学習画像IMG_Lを用いて、第2の判定エンジンENGを生成してもよい。
 一例として、エンジン生成装置4は、図21に示すように、注目領域TAに対して顔がずれていない学習画像IMG_L#1と、注目領域TAに対して顔が上方にずれている学習画像IMG_L#2と、注目領域TAに対して顔が下方にずれている学習画像IMG_L#3と、注目領域TAに対して顔が左方にずれている学習画像IMG_L#4と、注目領域TAに対して顔が右方にずれている学習画像IMG_L#5とを生成してもよい。その後、エンジン生成装置4は、学習画像IMG_L#1を用いて判定エンジンENG#1を生成し、学習画像IMG_L#2を用いて判定エンジンENG#2を生成し、学習画像IMG_L#3を用いて判定エンジンENG#3を生成し、学習画像IMG_L#4を用いて判定エンジンENG#4を生成し、学習画像IMG_L#5を用いて判定エンジンENG#5を生成してもよい。判定エンジンENG#1は、判定エンジンENG#2からENG#5と比較して、注目領域TAに対して顔がずれていないサーマル画像IMG_Tを用いて対象者が生体であるか否かをより高精度に判定することが可能である。判定エンジンENG#2は、判定エンジンENG#1及びENG#3からENG#5と比較して、注目領域TAに対して顔が上方にずれているサーマル画像IMG_Tを用いて対象者が生体であるか否かをより高精度に判定することが可能である。判定エンジンENG#3は、判定エンジンENG#1からENG#2及びENG#4からENG#5と比較して、注目領域TAに対して顔が下方にずれているサーマル画像IMG_Tを用いて対象者が生体であるか否かをより高精度に判定することが可能である。判定エンジンENG#4は、判定エンジンENG#1からENG#3及びENG#5と比較して、注目領域TAに対して顔が左方にずれているサーマル画像IMG_Tを用いて対象者が生体であるか否かをより高精度に判定することが可能である。判定エンジンENG#5は、判定エンジンENG#1からENG#4と比較して、注目領域TAに対して顔が右方にずれているサーマル画像IMG_Tを用いて対象者が生体であるか否かをより高精度に判定することが可能である。
 このような判定エンジンENGが生成される場合には、認証装置3は、認証期間中に、撮像環境に基づいて、注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方を推定し、複数の判定エンジンENGの中から、推定したずれ量及びずれの方向の少なくとも一方に対応する一の判定エンジンENGを選択してもよい。つまり、認証装置3は、推定したずれ量及びずれの方向の少なくとも一方に対応する学習画像IMG_Lを用いて生成された判定エンジンENGを選択してもよい。その後、認証装置3は、選択した判定エンジンENGを用いて、対象者が生体であるか否かを判定してもよい。その結果、認証装置3が使用する判定エンジンENGが選択可能でない場合と比較して、認証装置3は、対象者が生体であるか否かをより高精度に判定することができる。
 注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方を推定するために用いられる撮像環境は、例えば、可視カメラ1が対象者を撮像したタイミングでの(つまり、上述した認証時刻taでの)可視カメラ1と対象者との間の位置関係(典型的には、可視カメラ1と対象者との間の距離)を含んでいてもよい。注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方を推定するために用いられる撮像環境は、可視カメラ1とサーマルカメラ2との間の位置関係を含んでいてもよい。この場合、認証装置3は、可視カメラ1と対象者との位置関係及び可視カメラ1とサーマルカメラ2との間の位置関係と、注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方との関係を定める情報(例えば、テーブル、演算式、関数及びグラフ等の少なくとも一つ)を用いて、注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方を推定してもよい。尚、注目領域TAと顔とのずれ量及び注目領域TAと顔とのずれの方向の少なくとも一方を推定するために可視カメラ1と対象者との間の位置関係が用いられる場合には、認証システムSYS4は、可視カメラ1と対象者との間の位置関係(典型的には、可視カメラ1と対象者との間の距離)を計測するための計測装置を備えていてもよい。
 尚、第2実施形態におけるエンジン生成装置2000においても、上述した変形例と同様の構成要件が採用されてもよい。
 (5)付記
 以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
 第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証する認証手段と、
 サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定する判定手段と
 を備える認証装置。
[付記2]
 前記判定手段は、前記人物画像に基づいて、前記複数のサーマル画像のうちの少なくとも一つのサーマル画像において前記対象者が生体であるか否かを判定するために注目するべき注目領域を特定し、前記少なくとも一つサーマル画像に基づいて、前記少なくとも一つのサーマル画像内での前記注目領域の位置を調整し、位置が調整された前記注目領域内の温度分布に基づいて、前記対象者が生体であるか否かを判定する
 付記1に記載の認証装置。
[付記3]
 前記判定手段は、前記人物画像に基づいて、前記複数のサーマル画像の夫々において前記対象者が生体であるか否かを判定するために注目するべき注目領域を特定し、前記複数のサーマル画像に基づいて、前記対象者が生体であるか否かを判定するために注目するべき前記対象者の注目部位が前記注目領域に写り込んでいる少なくとも一つのサーマル画像を前記複数のサーマル画像の中から選択し、選択された前記少なくとも一つのサーマル画像に基づいて、前記対象者が生体であるか否かを判定する
 付記1又は2に記載の認証装置。
[付記4]
 前記判定手段は、前記複数のサーマル画像から前記対象者が生体であるか否かを判定可能な判定エンジンを用いて、前記対象者が生体であるか否かを判定し、
 前記判定エンジンは、(サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出する第1動作と、前記可視カメラと前記サーマルカメラとが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成する第2動作と、前記学習画像を用いた機械学習を行う第3動作とを含む学習動作によって生成される
 付記1から3のいずれか一項に記載の認証装置。
[付記5]
 前記第2動作は、前記抽出画像内での前記注目領域の位置及びサイズ、並びに、前記抽出画像の位置及びサイズの少なくとも一つを変更することで、前記注目領域と前記注目部位との位置関係を変更する
 付記4に記載の認証装置。
[付記6]
 前記判定手段は、前記位置関係の変更態様が夫々異なる複数の前記第2動作によって夫々生成される複数の判定エンジンの中から、前記撮像環境に基づいて一の判定エンジンを選択し、選択した前記一の判定エンジンを用いて、前記対象者が生体であるか否かを判定する
 付記4又は5に記載の認証装置。
[付記7]
 前記撮像環境は、前記第1時刻における前記対象者と前記可視カメラとの間の位置関係、及び、前記可視カメラと前記サーマルカメラとの位置関係を含む
 付記6に記載の認証装置。
[付記8]
 サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成装置であって、
 サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出する抽出手段と、
 前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成する画像生成手段と、
 前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成するエンジン生成手段と
 を備えるエンジン生成装置。
[付記9]
 前記画像生成手段は、前記抽出画像内での前記注目領域の位置及びサイズ、並びに、前記抽出画像の位置及びサイズの少なくとも一つを変更することで、前記注目領域と前記注目部位との位置関係を変更する
 付記8に記載のエンジン生成装置。
[付記10]
 前記画像生成手段は、前記抽出画像に設定されている前記注目領域と前記注目部位との位置関係を、第1の変更態様で変更することで、第1の学習画像を生成し、且つ、前記抽出画像に設定されている前記注目領域と前記注目部位との位置関係を、前記第1の変更態様とは異なる第2の変更態様で変更することで、第2の学習画像を生成し、
 前記エンジン生成手段は、前記第1の学習画像を用いた機械学習を行うことで、第1の判定エンジンを生成し、且つ、前記第2の学習画像を用いた機械学習を行うことで、第2の判定エンジンを生成する
 付記8又は9に記載のエンジン生成装置。
[付記11]
 第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証することと、
 サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定することと
 を含む認証方法。
[付記12]
 サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成方法であって、
 サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出することと、
 前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成することと、
 前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成することと
 を含むエンジン生成方法。
[付記13]
 第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証することと、
 サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定することと
 を含む認証方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体。
[付記14]
 サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成方法であって、
 サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出することと、
 前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成することと、
 前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成することと
 を含むエンジン生成方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体。
 上述の各実施形態の構成要件の少なくとも一部は、上述の各実施形態の構成要件の少なくとも他の一部と適宜組み合わせることができる。上述の各実施形態の構成要件のうちの一部が用いられなくてもよい。また、法令で許容される限りにおいて、上述のこの開示で引用した全ての文献(例えば、公開公報)の開示を援用してこの開示の記載の一部とする。
 この開示は、請求の範囲及び明細書全体から読み取るこのできる技術的思想に反しない範囲で適宜変更可能である。そのような変更を伴う認証装置、エンジン生成装置、認証方法、エンジン生成方法、コンピュータプログラム及び記録媒体もまた、この開示の技術的思想に含まれる。
 SYS3、SYS4 認証システム
 1 可視カメラ
 2 サーマルカメラ
 3 認証装置
 31 演算装置
 311 認証部
 312 生体判定部
 313 入退場管理部
 32 記憶装置
 321 登録人物DB
 322 登録体表温分布DB
 4 エンジン生成装置
 41 演算装置
 411 画像抽出部
 412 画像生成部
 413 エンジン生成部
 42 記憶装置
 420 学習データセット
 421 単位データ
 422 注目領域情報
 423 正解ラベル
 1000 認証装置
 1001 認証部
 1002 判定部
 2000 エンジン生成装置
 2001 抽出部
 2002 画像生成部
 2003 エンジン生成部
 IMG_P 人物画像
 IMG_T サーマル画像
 IMG_S サンプル画像
 IMG_E 抽出画像
 IMG_L 学習画像
 FA 顔領域
 TA 注目領域
 ENG 判定エンジン

Claims (14)

  1.  第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証する認証手段と、
     サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定する判定手段と
     を備える認証装置。
  2.  前記判定手段は、前記人物画像に基づいて、前記複数のサーマル画像のうちの少なくとも一つのサーマル画像において前記対象者が生体であるか否かを判定するために注目するべき注目領域を特定し、前記少なくとも一つのサーマル画像に基づいて、前記少なくとも一つのサーマル画像内での前記注目領域の位置を調整し、位置が調整された前記注目領域内の温度分布に基づいて、前記対象者が生体であるか否かを判定する
     請求項1に記載の認証装置。
  3.  前記判定手段は、前記人物画像に基づいて、前記複数のサーマル画像の夫々において前記対象者が生体であるか否かを判定するために注目するべき注目領域を特定し、前記複数のサーマル画像に基づいて、前記対象者が生体であるか否かを判定するために注目するべき前記対象者の注目部位が前記注目領域に写り込んでいる少なくとも一つのサーマル画像を前記複数のサーマル画像の中から選択し、選択された前記少なくとも一つのサーマル画像に基づいて、前記対象者が生体であるか否かを判定する
     請求項1又は2に記載の認証装置。
  4.  前記判定手段は、前記複数のサーマル画像から前記対象者が生体であるか否かを判定可能な判定エンジンを用いて、前記対象者が生体であるか否かを判定し、
     前記判定エンジンは、サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出する第1動作と、前記可視カメラと前記サーマルカメラとが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成する第2動作と、前記学習画像を用いた機械学習を行う第3動作とを含む学習動作によって生成される
     請求項1から3のいずれか一項に記載の認証装置。
  5.  前記第2動作は、前記抽出画像内での前記注目領域の位置及びサイズ、並びに、前記抽出画像の位置及びサイズの少なくとも一つを変更することで、前記注目領域と前記注目部位との位置関係を変更する
     請求項4に記載の認証装置。
  6.  前記判定手段は、前記位置関係の変更態様が夫々異なる複数の前記第2動作によって夫々生成される複数の判定エンジンの中から、前記撮像環境に基づいて一の判定エンジンを選択し、選択した前記一の判定エンジンを用いて、前記対象者が生体であるか否かを判定する
     請求項4又は5に記載の認証装置。
  7.  前記撮像環境は、前記第1時刻における前記対象者と前記可視カメラとの間の位置関係、及び、前記可視カメラと前記サーマルカメラとの位置関係を含む
     請求項6に記載の認証装置。
  8.  サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成装置であって、
     サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出する抽出手段と、
     前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成する画像生成手段と、
     前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成するエンジン生成手段と
     を備えるエンジン生成装置。
  9.  前記画像生成手段は、前記抽出画像内での前記注目領域の位置及びサイズ、並びに、前記抽出画像の位置及びサイズの少なくとも一つを変更することで、前記注目領域と前記注目部位との位置関係を変更する
     請求項8に記載のエンジン生成装置。
  10.  前記画像生成手段は、前記抽出画像に設定されている前記注目領域と前記注目部位との位置関係を、第1の変更態様で変更することで、第1の学習画像を生成し、且つ、前記抽出画像に設定されている前記注目領域と前記注目部位との位置関係を、前記第1の変更態様とは異なる第2の変更態様で変更することで、第2の学習画像を生成し、
     前記エンジン生成手段は、前記第1の学習画像を用いた機械学習を行うことで、第1の判定エンジンを生成し、且つ、前記第2の学習画像を用いた機械学習を行うことで、第2の判定エンジンを生成する
     請求項8又は9に記載のエンジン生成装置。
  11.  第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証することと、
     サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定することと
     を含む認証方法。
  12.  サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成方法であって、
     サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出することと、
     前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成することと、
     前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成することと
     を含むエンジン生成方法。
  13.  第1時刻に可視カメラが対象者を撮像することで生成される人物画像を用いて、前記対象者を認証することと、
     サーマルカメラが前記対象者を撮像した複数の時刻のうちの前記第1時刻に最も近い第2時刻及び前記第2時刻の前後の第3時刻に前記サーマルカメラが前記対象者を撮像することで生成される複数のサーマル画像を用いて、前記対象者が生体であるか否かを判定することと
     を含む認証方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体。
  14.  サーマルカメラが対象者を撮像することで生成されるサーマル画像を用いて前記対象者が生体であるか否かを判定するための判定エンジンを生成するエンジン生成方法であって、
     サンプル人物の体表温分布を示すと共に前記サンプル人物が生体であるか否かを判定するために注目するべき注目領域が設定されているサンプル画像を複数含む学習データセットから、少なくとも一つのサンプル画像を抽出画像として抽出することと、
     前記サーマルカメラが前記対象者を撮像する撮像環境に基づいて、前記抽出画像に設定されている前記注目領域と前記サンプル人物が生体であるか否かを判定するために注目するべき前記サンプル人物の注目部位との位置関係を変更することで、学習画像を生成することと、
     前記学習画像を用いた機械学習を行うことで、前記判定エンジンを生成することと
     を含むエンジン生成方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2021/041473 2021-11-11 2021-11-11 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体 WO2023084667A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023559283A JPWO2023084667A1 (ja) 2021-11-11 2021-11-11
PCT/JP2021/041473 WO2023084667A1 (ja) 2021-11-11 2021-11-11 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/041473 WO2023084667A1 (ja) 2021-11-11 2021-11-11 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2023084667A1 true WO2023084667A1 (ja) 2023-05-19

Family

ID=86335380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/041473 WO2023084667A1 (ja) 2021-11-11 2021-11-11 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体

Country Status (2)

Country Link
JP (1) JPWO2023084667A1 (ja)
WO (1) WO2023084667A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115460A (ja) 2003-10-03 2005-04-28 Toshiba Corp 顔照合装置および通行制御装置
JP2005259049A (ja) 2004-03-15 2005-09-22 Omron Corp 顔面照合装置
WO2009107237A1 (ja) 2008-02-29 2009-09-03 グローリー株式会社 生体認証装置
JP2011067371A (ja) 2009-09-25 2011-04-07 Glory Ltd 体温検査装置、体温検査システムおよび体温検査方法
JP2014078052A (ja) 2012-10-09 2014-05-01 Sony Corp 認証装置および方法、並びにプログラム
US20210117529A1 (en) * 2018-06-13 2021-04-22 Veridas Digital Authentication Solutions, S.L. Authenticating an identity of a person
JP2021135679A (ja) * 2020-02-26 2021-09-13 コニカミノルタ株式会社 加工機状態推定システム、および加工機状態推定プログラム
WO2021220423A1 (ja) * 2020-04-28 2021-11-04 日本電気株式会社 認証装置、認証システム、認証方法および認証プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115460A (ja) 2003-10-03 2005-04-28 Toshiba Corp 顔照合装置および通行制御装置
JP2005259049A (ja) 2004-03-15 2005-09-22 Omron Corp 顔面照合装置
WO2009107237A1 (ja) 2008-02-29 2009-09-03 グローリー株式会社 生体認証装置
JP2011067371A (ja) 2009-09-25 2011-04-07 Glory Ltd 体温検査装置、体温検査システムおよび体温検査方法
JP2014078052A (ja) 2012-10-09 2014-05-01 Sony Corp 認証装置および方法、並びにプログラム
US20210117529A1 (en) * 2018-06-13 2021-04-22 Veridas Digital Authentication Solutions, S.L. Authenticating an identity of a person
JP2021135679A (ja) * 2020-02-26 2021-09-13 コニカミノルタ株式会社 加工機状態推定システム、および加工機状態推定プログラム
WO2021220423A1 (ja) * 2020-04-28 2021-11-04 日本電気株式会社 認証装置、認証システム、認証方法および認証プログラム

Also Published As

Publication number Publication date
JPWO2023084667A1 (ja) 2023-05-19

Similar Documents

Publication Publication Date Title
US10482230B2 (en) Face-controlled liveness verification
US10977356B2 (en) Authentication using facial image comparison
CN109948408B (zh) 活性测试方法和设备
US10268910B1 (en) Authentication based on heartbeat detection and facial recognition in video data
CN110555359B (zh) 面部识别的自动重试
CN107995979B (zh) 用于对用户进行认证的***、方法和机器可读介质
Peixoto et al. Face liveness detection under bad illumination conditions
EP3862897B1 (en) Facial recognition for user authentication
US11489866B2 (en) Systems and methods for private authentication with helper networks
US20220277065A1 (en) Authentication using stored authentication image data
US20230368583A1 (en) Authentication device, authentication method, and recording medium
JP5850138B2 (ja) 生体認証装置、生体認証方法、および生体認証プログラム
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
KR20220136960A (ko) 부정 행위를 방지하는 안면윤곽선 인식 인공지능을 사용한 온라인 시험 시스템 및 그 방법
WO2023024734A1 (zh) 人脸活体检测方法及装置
CN112101296B (zh) 人脸注册方法、人脸验证方法、装置及***
WO2023084667A1 (ja) 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体
WO2022222957A1 (zh) 一种目标识别的方法和***
CN110516426A (zh) 身份认证方法、认证终端、装置及可读存储介质
US11775631B1 (en) System and method for perfecting and accelerating biometric identification via evolutionary biometrics via continual registration
KR100653416B1 (ko) 독립형 얼굴인식 시스템
KR20210136771A (ko) 안면윤곽선 인식 인공지능을 사용한 ubt 시스템 및 그 방법
JP2020135666A (ja) 認証装置、認証用端末、認証方法、プログラム及び記録媒体
JP7400924B2 (ja) 情報提供装置、情報提供方法、およびプログラム
WO2024105778A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21964022

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023559283

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021964022

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021964022

Country of ref document: EP

Effective date: 20240611