WO2021065853A1 - 疾患者判別装置及び疾患者判別システム - Google Patents

疾患者判別装置及び疾患者判別システム Download PDF

Info

Publication number
WO2021065853A1
WO2021065853A1 PCT/JP2020/036787 JP2020036787W WO2021065853A1 WO 2021065853 A1 WO2021065853 A1 WO 2021065853A1 JP 2020036787 W JP2020036787 W JP 2020036787W WO 2021065853 A1 WO2021065853 A1 WO 2021065853A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
temperature
measured
diseased
unit
Prior art date
Application number
PCT/JP2020/036787
Other languages
English (en)
French (fr)
Inventor
彰一 木村
昂大 松本
康 宇田
栄二郎 丹治
賢洋 小柴
宏美 芝田
修 堀江
Original Assignee
日本アビオニクス株式会社
学校法人兵庫医科大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本アビオニクス株式会社, 学校法人兵庫医科大学 filed Critical 日本アビオニクス株式会社
Priority to JP2021551281A priority Critical patent/JP7344520B2/ja
Priority to US17/763,506 priority patent/US20220346651A1/en
Publication of WO2021065853A1 publication Critical patent/WO2021065853A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a diseased person discrimination device and a diseased person discrimination system.
  • thermography device displays the body surface temperature of the person to be measured by a color-coded thermal image such as red for high temperature and blue for low temperature according to the intensity of infrared light emitted from the skin of the person to be measured. It is possible.
  • thermography device When the subject is infected with the virus and develops, the body surface temperature of the subject rises. For this reason, before entering the facility, a thermal image of the person to be measured may be taken with a thermography device to distinguish between a healthy person and a sick person.
  • a predetermined temperature threshold has been used to distinguish between a diseased person and a healthy person using a thermal image displayed on a thermography device. For example, a person having a temperature higher than the temperature threshold appearing on the face surface was discriminated as a diseased person, and a person having a temperature higher than the temperature threshold not appearing on the face surface was discriminated as a healthy person.
  • Patent Document 1 discloses a technique for acquiring infrared image data with the eye or forehead region of the subject as a target region and deriving the core body temperature information of the subject.
  • Non-Patent Document 1 facial thermography is measured for healthy volunteers, influenza A and B patients, and patients with fever other than influenza, and the facial thermography of the healthy group and the fever patient group is compared. A technique for determining the correlation between the facial body surface temperature of a fever patient is described.
  • the threshold value used for discriminating between a diseased person and a healthy person needs to be adjusted to an appropriate value according to the environment for discriminating, and if the threshold value is not adjusted, the probability of erroneous discrimination increases.
  • the adjuster needs experience to adjust to an appropriate threshold value, but it has become an operational problem because the threshold value needs to be readjusted when the environment changes.
  • Non-Patent Document 1 it was a result that there was no strong correlation between body surface temperature and body temperature so that a fever patient could be detected reliably, but the inventor described the pattern distribution of facial temperature characteristic of a fever patient. It was thought that the correct diagnosis rate would improve if it could be added to the criteria. However, at the time of writing the treatise, it is generally considered that fever patients have fever over the entire face, and no knowledge has been obtained regarding the distribution pattern of facial temperature. In addition, since it was unclear how to obtain the facial temperature distribution pattern characteristic of fever patients, it was desired to create a criterion capable of improving the correct diagnosis rate.
  • the present invention has been made in view of such a situation, and an object of the present invention is to distinguish between a sick person and a healthy person.
  • the diseased person discrimination device reflecting one aspect of the present invention is based on the temperature data input from the body surface temperature measuring device for measuring the body surface temperature of the person to be measured. Then, the temperature pattern calculation unit that calculates the temperature pattern from the temperature in the exposed part of the person to be measured and the trained model learned in advance are applied to the calculated temperature pattern, and the person to be measured is a sick person or a healthy person. It is provided with a subject determination unit for determining which is the case.
  • the diseased person discrimination system reflecting one aspect of the present invention is a learning server having a temperature pattern learning unit that learns a temperature pattern by a machine learning model and generates a learned model in addition to the diseased person discrimination device described above. To be equipped.
  • the diseased person and the healthy person can be easily and correctly distinguished. Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.
  • FIG. 1 It is a block diagram of the internal structure example of the disease person discrimination system which concerns on 1st Embodiment of this invention. It is a block diagram which shows the internal structure example of the control part which concerns on 1st Embodiment of this invention. It is a block diagram which shows the internal structure example of the disease person discrimination apparatus which concerns on 1st Embodiment of this invention. It is a block diagram which shows the hardware configuration example of the computer which concerns on 1st Embodiment of this invention. It is a figure which showed the position of the specific part which concerns on 1st Embodiment of this invention. It is a figure which shows the state of normalizing the temperature pattern of the whole face including the specific part which concerns on 1st Embodiment of this invention. FIG.
  • FIG. 6A is a graph showing values obtained by averaging the body surface temperatures of a plurality of healthy subjects and a plurality of diseased subjects obtained by a body surface temperature measuring device for each site.
  • FIG. 6B is a graph showing the body surface temperatures of normalized healthy and diseased individuals. It is a figure which shows the display example of the thermal image of the normalized face of a healthy person and a diseased person which concerns on 1st Embodiment of this invention.
  • FIG. 7A shows an example of a thermal image of the face of a healthy person
  • FIG. 7B shows an example of a thermal image of the face of a diseased person.
  • FIG. 8A is a list showing the difference between the horizontal line passing through the inner corner of the thermal image of the face of the subject and the temperature normalization value at a specific site of the healthy subject and the diseased subject.
  • FIG. 8B shows the temperature pattern in the thermal image of the subject's face measured along the horizon. It is a figure which shows the example of the temperature pattern in the thermal image of the face of the horizon passing through the nose tip which concerns on 1st Embodiment of this invention.
  • FIG. 8A is a list showing the difference between the horizontal line passing through the inner corner of the thermal image of the face of the subject and the temperature normalization value at a specific site of the healthy subject and the diseased subject.
  • FIG. 8B shows the temperature pattern in the thermal image of the subject's face measured along the horizon. It is a figure which shows the example of the temperature pattern in the thermal image of the face of the horizon passing through the nose tip which concerns on 1st Embodiment of this invention.
  • FIG. 8A is a list showing the
  • FIG. 9A is a list showing the difference between the horizontal line passing through the nose tip of the thermal image of the face of the subject and the temperature normalization value at a specific site of the healthy subject and the diseased subject.
  • FIG. 9B shows the temperature pattern in the thermal image of the subject's face measured along the horizon. It is a list which shows the discrimination result at the time of using the conventional method of discriminating between a healthy person and a diseased person using a temperature threshold. It is a figure which shows the relationship between the healthy person misdiscrimination rate which misidentifies a healthy person as a diseased person in the conventional method, the diseased person misdiscrimination rate which misidentifies a diseased person as a healthy person, and a temperature threshold. ..
  • FIG. 1 is a block diagram showing an example of the internal configuration of the diseased person discrimination system 100.
  • the diseased person discrimination system 100 includes a body surface temperature measuring device 1 and a diseased person discrimination device 2.
  • the body surface temperature measuring device 1 and the diseased person discrimination device 2 are connected by wire or wirelessly.
  • the diseased person discrimination device 2 captures a thermal image showing the body surface temperature of the person to be measured measured by the body surface temperature measuring device 1 and determines whether the person to be measured is a diseased person or a healthy person.
  • a detailed configuration example of the diseased person discrimination device 2 will be described with reference to FIG. 3 described later.
  • the body surface temperature measuring device 1 includes a lens 10, a detection element 11, an A / D conversion unit 12, a control unit 13, a display unit 14, and an operation unit 15.
  • the body surface temperature measuring device 1 can measure the body surface temperature of the person to be measured to which the lens 10 is directed.
  • the lens 10 collects infrared light emitted from the subject to be measured and forms an image on the detection element 11.
  • the detection element 11 has one or a plurality of sensors 11a, and outputs a detection signal in time division for each frame cycle in synchronization with the vertical synchronization signal input to the detection element 11.
  • the number of frames of the detection signal that the detection element 11 can output per unit time is, for example, 60 fps (frames per second).
  • the sensor 11a included in the detection element 11 is a sensor provided in pixel units. Then, the sensor 11a detects the intensity of the infrared light imaged on the detection element 11 and outputs a detection signal.
  • the sensor 11a for example, a microbolometer whose resistance value changes according to the absolute temperature of the object to be measured is used. A large number of microbolometers are arranged two-dimensionally on the detection element 11, for example, 320 horizontal ⁇ 240 vertical. When the microbolometer detects infrared light, it outputs an analog detection signal according to the intensity of the infrared light. However, only one sensor 11a may be used for the detection element 11.
  • the A / D conversion unit 12 converts the detection signal output from the pixel-based sensor 11a of the detection element 11 into digital data, and outputs the digital data to the control unit 13.
  • the control unit 13 performs gain correction and offset correction as shown in FIG. 2, which will be described later, on the digital data of the detection signal input from the A / D conversion unit 12, and calculates the absolute temperature of the object to be measured. Then, the control unit 13 outputs the image data obtained by performing image processing based on the calculated absolute temperature of the measurement object to the display unit 14. Here, the control unit 13 generates image data of a thermal image according to the operation of the operation unit 15, and outputs the image data to the display unit 14. Further, the control unit 13 outputs a vertical synchronization signal to the sensor 11a of the detection element 11.
  • control unit 13 outputs temperature data to the diseased person discrimination device 2.
  • This temperature data includes a thermal image of the entire face of the person to be measured including a specific part in the face of the person to be measured, or the temperature of the specific part measured for each specific part.
  • at least one of the specific parts is, for example, the inner corner of the eyes, the tip of the nose, the side of the nose, the cheeks, the chin, the ears, the hands, the head excluding the hair, the temples and the neck. Either. It is assumed that the position of the specific part to be extracted from the thermal image of the face by the specific part determination unit 21 shown in FIG. 3 to be described later is determined in advance.
  • the display unit 14 displays a thermal image showing the distribution status of the absolute temperature of the object to be measured based on the image data generated by the control unit 13.
  • the operation unit 15 is used to input an instruction to output the absolute temperature of the object to be measured to the control unit 13.
  • the control unit 13 outputs the image data to be displayed as a thermal image to the display unit 14 according to the instruction from the operation unit 15.
  • the display unit 14 may be excluded from the structure of the body surface temperature measuring device 1.
  • the control unit 13 outputs the absolute temperature of the measurement object calculated based on the detection signal input from the detection element 11 for each frame to the PC terminal.
  • the absolute temperature of the object to be measured can be displayed on a PC terminal or the like connected to the body surface temperature measuring device 1.
  • FIG. 2 is a block diagram showing an example of the internal configuration of the control unit 13.
  • the control unit 13 includes a gain correction unit 13a, an offset correction unit 13b, a calculation unit 13c, and a thermal image generation unit 13d.
  • the detection signal output from each sensor 11a of the detection element 11 is expressed by approximating to a linear equation such that the higher the absolute temperature of the object to be measured, the larger the value.
  • the characteristics of the microbolometer corresponding to each sensor 11a of the detection element 11 vary, and the primary equation itself deviates from the standard linear equation. Therefore, for example, at the time of factory shipment of the body surface temperature measuring device 1, correction values used for gain correction and offset correction for aligning the characteristics of the microbolometer corresponding to each sensor 11a are stored in a memory (not shown). .. Then, the control unit 13 corrects the digital data based on the correction value read from the memory.
  • the gain correction unit 13a of the control unit 13 corrects the gain of the detection signal converted into the digital data input from the A / D conversion unit 12.
  • the gain correction unit 13a corrects the gain, that is, the slope of the linear equation.
  • the offset correction unit 13b performs offset correction of the digital data whose gain has been corrected by the gain correction unit 13a.
  • the offset correction unit 13b corrects the offset, that is, the intercept of the linear equation.
  • the calculation unit 13c calculates the absolute temperature of the object to be measured pixel by pixel based on the digital data obtained by converting the detection signal corrected by the gain correction unit 13a and the offset correction unit 13b.
  • the thermal image generation unit 13d generates image data for displaying a thermal image based on the absolute temperature of the measurement object calculated for each sensor 11a by the calculation unit 13c.
  • the image data generated by the thermal image generation unit 13d is output to the display unit 14, and is displayed on the display unit 14 as a thermal image of the measurement object.
  • FIG. 3 is a block diagram showing an example of the internal configuration of the diseased person discrimination device 2.
  • the diseased person discrimination device 2 determines whether the person to be measured is a diseased person or a healthy person based on the information taken from the body surface temperature measuring device 1.
  • the diseased person discrimination device 2 includes a specific site determination unit 21, a temperature pattern calculation unit 22, a storage unit 23, a person to be measured determination 24, a display unit 25, an input unit 26, and a temperature pattern learning unit 27.
  • the specific part determination unit 21 determines a specific part in the exposed part of the person to be measured based on the temperature data input from the body surface temperature measuring device 1.
  • the temperature data includes a thermal image of the face of the person to be measured by the body surface temperature measuring device 1.
  • the face of the person to be measured does not always face the front of the lens 10. Therefore, the specific part determination unit 21 has a function of aligning the facial parts constituting the face based on the thermal image of the face. Then, the specific part determination unit 21 aligns the face parts constituting the face with respect to the thermal image by using the function of performing the alignment, and determines the specific portion from the thermal image.
  • the specific parts of the subject is, for example, the inner corner of the eye, the tip of the nose, the side of the nose, the cheek, the chin, the ear, the hand, the head excluding the hair, the temple and the neck.
  • the specific part determination unit 21 is configured to output a thermal image after the alignment is performed to the temperature pattern calculation unit 22.
  • the specific part determination unit 21 may be configured to output a combination of the thermal image before alignment and the coordinate group of the specific part in the image to the temperature pattern calculation unit 22.
  • the temperature pattern calculation unit 22 calculates a temperature pattern from the temperature in the exposed portion of the person to be measured based on the temperature data input from the body surface temperature measuring device 1 that measures the body surface temperature of the person to be measured.
  • the temperature pattern is represented by a group of temperature data collected from a plurality of specific parts of the subject.
  • the temperature pattern is a graph showing the temperature normalized value for each specific part included in the region horizontally crossing the face of the person to be measured, as shown in FIGS. 8 and 9 described later. It may be expressed in the form of. Further, the temperature pattern may be calculated not only from the temperature normalized value but also from the temperature before the normalization.
  • the temperature pattern calculation unit 22 calculates the average value of a plurality of pixels included in the region determined as the specific portion as the temperature of the specific portion. That is, the temperature pattern calculation unit 22 can extract temperature data from the specific part determined by the specific part determination unit 21 and obtain the temperature patterns of a plurality of specific parts. As shown in FIGS. 8 and 9 described later, the temperature pattern calculation unit 22 calculates the temperature normalized value for each specific portion to obtain the temperature pattern. The temperature normalized value calculated by the temperature pattern calculation unit 22 is output to the person to be measured determination unit 24 and the temperature pattern learning unit 27 in association with a plurality of specific parts.
  • the temperature pattern calculation unit 22 calculates the highest value among the values of the plurality of pixels included in the region determined as the specific part as the temperature of the specific part, and associates the calculated temperature with the specific part.
  • the temperature pattern of a specific part may be output to the person to be measured determination unit 24 and the temperature pattern learning unit 27.
  • the storage unit 23 stores a learned model in which the temperature pattern of the person to be measured has been learned.
  • the trained model is used by the person to be measured 24 to discriminate the person to be measured as either a diseased person or a healthy person based on the temperature pattern of the person to be measured.
  • the trained model is learned by the temperature pattern learning unit 27, which will be described later.
  • the learned model is prepared in advance in the storage unit 23.
  • the measured person determination unit 24 applies a pre-learned learned model read from the storage unit 23 to the calculated temperature pattern to determine whether the measured person is a diseased person or a healthy person.
  • the determination result of the person to be measured determination unit 24 is output to the display unit 25.
  • the display unit 25 displays the discrimination result including the possibility that the person to be measured is a diseased person. For example, a text message indicating whether the person to be measured is a diseased person or a healthy person is displayed on the display unit 25 as a determination result.
  • a notification unit for notifying an alarm may be provided instead of the display unit 25, a notification unit for notifying an alarm may be provided. The alarm is notified, for example, by the notification unit turning on a lamp or sending an e-mail to the facility manager.
  • the input unit 26 receives the user discrimination result of whether the person to be measured is a healthy person or a diseased person, which is input by the user who uses the diseased person discriminating device 2. For example, if the person to be measured is actually a healthy person, "healthy person” is input through the input unit 26. On the other hand, if the person to be measured is actually a sick person, the "sick person" is input through the input unit 26.
  • the user inputs the user discrimination result through the input unit 26 and corrects the trained model.
  • the input user determination result is either the above-mentioned "healthy person” or "sick person".
  • the temperature pattern learning unit 27 modifies the trained model by being given a temperature pattern given by the temperature pattern calculation unit 22 and a correct answer as to whether the temperature pattern should be discriminated as a healthy person or a diseased person. To go.
  • the temperature pattern learning unit 27 uses a machine learning model based on the user discrimination result input from the input unit 26 and the temperature pattern output from the temperature pattern calculation unit 22 used in the subject discrimination unit 24. Generate a trained trained model.
  • the trained model is data obtained by accumulating the learning results of the temperature pattern learning unit 27.
  • the temperature pattern learning unit 27 updates the trained model by machine learning, and stores the updated trained model in the storage unit 23.
  • the trained model is updated with either correct or incorrect answers. That is, the trained model is modified and updated regardless of whether the output of the person to be measured 24 matches the actual situation or does not match.
  • the trained model is gradually modified to an appropriate trained model and updated. After that, the person to be measured 24 applies the updated trained model to the temperature pattern calculated by the temperature pattern calculation unit 22, so that the person to be measured is either a diseased person or a healthy person. Will be determined.
  • FIG. 4 is a block diagram showing a hardware configuration example of the computer 30.
  • the computer 30 is used, for example, as hardware that constitutes the body surface temperature measuring device 1 and the diseased person discrimination device 2.
  • the computer 30 is hardware used as a so-called computer.
  • the computer 30 includes a CPU (Central Processing Unit) 31, a ROM (Read Only Memory) 32, and a RAM (Random Access Memory) 33, which are connected to the bus 34, respectively. Further, the computer 30 includes a display device 35, an input device 36, a non-volatile storage 37, and a network interface 38.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 31 reads the program code of the software that realizes each function according to the present embodiment from the ROM 32, loads it into the RAM 33, and executes it. Variables and parameters generated during the arithmetic processing of the CPU 31 are temporarily written in the RAM 33, and these variables and parameters are appropriately read by the CPU 31.
  • the function of the control unit 13 is mainly realized by the CPU 31.
  • the functions of the specific site determination unit 21, the temperature pattern calculation unit 22, the measurement subject discrimination unit 24, and the temperature pattern learning unit 27 are realized by the CPU 31.
  • the display device 35 is, for example, a liquid crystal display monitor, and displays a thermal image or the like to the user as a result of processing performed by the computer 30.
  • the display device 35 is used for the display unit 14 of the body surface temperature measuring device 1 and the display unit 25 of the diseased person discrimination device 2.
  • operation keys, operation buttons, and the like are used in the input device 36, and the user can perform predetermined operation input and instructions.
  • the input device 36 is used for the operation unit 15 of the body surface temperature measuring device 1 and the input unit 26 of the diseased person discrimination device 2.
  • non-volatile storage 37 for example, HDD (Hard Disk Drive), SSD (Solid State Drive), flexible disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, non-volatile memory and the like are used. Be done.
  • the non-volatile storage 37 in addition to the OS (Operating System) and various parameters, a program for operating the computer 30 is recorded.
  • the ROM 32 and the non-volatile storage 37 permanently record programs, data, and the like necessary for the CPU 31 to operate, and are a computer-readable non-transient recording medium that stores the programs executed by the computer 30. It is used as an example.
  • the non-volatile storage 37 is used in the storage unit 23 of the diseased person discrimination device 2.
  • the network interface 38 for example, a NIC (Network Interface Card) or the like is used, and various data can be transmitted and received between the devices via a LAN (Local Area Network) connected to the terminal of the NIC, a dedicated line, or the like. It is possible.
  • the network interface 38 is used for a communication unit (not shown) that connects the body surface temperature measuring device 1 and the diseased person discrimination device 2 so as to be able to communicate with each other.
  • FIG. 5 is an explanatory diagram showing the position of a specific portion.
  • FIG. 5 shows a thermal image 40 of the face of the person to be measured and the position of a specific part. As specific sites, for example, the inner corner of the eye 40a, the tip of the nose 40b, the side 40c of the nose and the cheek 40d are shown.
  • the thermal image 40 of the face of the subject can be displayed as a black-and-white image in which the high temperature portion is close to white and the low temperature portion is close to black.
  • FIG. 6 is a diagram for explaining how to normalize the temperature pattern of the entire face including a specific part.
  • FIG. 6A shows a graph obtained by averaging the body surface temperatures of a plurality of healthy subjects and a plurality of diseased subjects obtained by the body surface temperature measuring device 1 for each site.
  • the horizontal axis of this graph represents the position [mm] of the part along the line crossing a specific part of the healthy person and the diseased person, and the vertical axis represents the body surface temperature [° C.] of the healthy person and the diseased person.
  • the body surface temperature of a healthy person is represented by a solid line
  • the body surface temperature of a diseased person is represented by a two-dot chain line.
  • the graph shown on the upper side of FIG. 6 is used as an example in which the temperature values of a healthy person and a diseased person are clearly different in order to explain the temperature pattern according to the present embodiment.
  • the body surface temperature of a sick person tends to rise higher than the body surface temperature of a healthy person.
  • the temperature of the face surface is in the range of 36.0 ° C to 37.0 ° C, but in a diseased person, the temperature of the face surface is 37.0 ° C to 38.0 ° C. It is within the range. For this reason, when the temperature of the entire face of the diseased person becomes high and the entire thermal image of the face becomes white, it is difficult to compare the thermal images of the faces of the diseased person and the healthy person. Therefore, the graph is normalized and expressed so that a characteristic temperature pattern can be obtained from the thermal images of the faces of a diseased person and a healthy person.
  • FIG. 6B shows the normalized body surface temperatures of healthy and diseased individuals.
  • This graph is a normalization of the body surface temperatures of healthy and diseased persons shown in the upper part of FIG. 6 in the range of 0 to 1.0.
  • FIG. 7 is a diagram showing a display example of normalized facial thermal images of a healthy person and a sick person.
  • FIG. 7A displays a thermal image P1 of the face of a healthy person
  • FIG. 7B displays a thermal image P2 of the face of a diseased person.
  • the thermal image P1 of the face of a healthy person is a normalized image of the thermal image of the face of a healthy person obtained by taking a picture of the body surface temperature measuring device 1.
  • the thermal image P2 of the face of the diseased person is also a normalized image of the thermal image of the face of the diseased person obtained by the body surface temperature measuring device 1.
  • the high temperature part is displayed in white and the low temperature part is displayed in black.
  • FIG. 8 is an explanatory diagram showing an example of a temperature pattern in the thermal image 40 of the face of the horizontal line 41 passing through the inner corner of the eye 40a.
  • FIG. 8A shows a list showing the difference between the horizontal line 41 passing through the inner corner 40a of the thermal image 40 of the face of the subject and the temperature normalization value at a specific site of the healthy person and the diseased person.
  • the horizontal line 41 represents the position where the thermal image 40 of the face is scanned when the temperature pattern calculation unit 22 calculates the temperature pattern of the thermal image 40 of the face.
  • FIG. 8B shows the temperature pattern 50 in the thermal image 40 of the face of the subject measured along the horizon 41.
  • the horizontal axis of the temperature pattern 50 represents the position [mm] of each part in the thermal image 40 of the face, and the vertical axis represents the normalized value of the temperature (temperature normalized value).
  • the temperature pattern of a healthy person is represented by a solid line chart L1
  • the temperature pattern of a diseased person is represented by a two-dot chain line chart L2.
  • the temperature pattern 50 indicates that the temperature-normalized value of the inner corner of the eye 40a of the diseased person is higher than the temperature-normalized value of the inner corner of the eye 40a of the healthy person in the ranges 51 and 52 representing the inner corner of the eye 40a. Therefore, the list shown in FIG. 8A shows that the temperature normalized value of the inner corner of the eye 40a is low in healthy subjects and high in diseased subjects.
  • FIG. 9 is a diagram showing an example of a temperature pattern in the thermal image 40 of the face of the horizon 41 passing through the tip of the nose 40b.
  • FIG. 9A shows a list showing the difference between the horizontal line 41 passing through the nose tip 40b of the thermal image 40 of the face of the subject and the temperature normalization value at a specific site of the healthy person and the diseased person.
  • FIG. 9B shows the temperature pattern 60 in the thermal image 40 of the face of the person to be measured measured along the horizon 41.
  • the horizontal axis of the temperature pattern 60 represents the position [mm] of each part in the thermal image 40 of the face, and the vertical axis represents the normalized value of the temperature.
  • the temperature pattern of the healthy person is represented by the solid line chart L11
  • the temperature pattern of the diseased person is represented by the two-dot chain line chart L12.
  • the temperature pattern 60 indicates that the temperature normalized value of the nasal tip 40b of a healthy person is higher than the temperature normalized value of the nasal tip 40b of a diseased person in the range 63 representing the nasal tip 40b. Further, in the ranges 62 and 64 representing the lateral 40c of the nose, it is shown that the temperature normalized value of the lateral 40c of the nose of the diseased person is higher than the temperature normalized value of the lateral 40c of the nose of the healthy person. Further, in the ranges 61 and 65 representing the cheeks 40d, it is shown that the temperature-normalized value of the cheeks 40d of the healthy person is higher than the temperature-normalized value of the cheeks 40d of the diseased person.
  • the list shown in FIG. 9A shows that the healthy subject has a high temperature normalization value of the nasal tip 40b, and the diseased person has a low temperature normalization value of the nasal tip 40b.
  • a healthy person has a low temperature normalization value of the side 40c of the nose
  • a diseased person has a high temperature normalization value of the side 40c of the nose
  • a healthy person has a high temperature normalization value of the cheek 40d.
  • the person has been shown to have a low temperature normalization of the cheek 40d.
  • FIG. 10 is a list showing an example of discrimination results when a conventional method for discriminating between a healthy person and a diseased person using a temperature threshold value is used.
  • the user discrimination result input by the user in advance is expressed as “measured person (input)”.
  • the discrimination result of the person to be measured which is output by the conventional method, is expressed as "discrimination result (output)”. Items of "healthy person” and “sick person” are provided in the items of "measured person (input)” and “discrimination result (output)", respectively.
  • the temperature value may be measured lower or higher than the actual value by about ⁇ 0.5 ° C. .. Further, the temperature value can be measured lower or higher than the actual temperature depending on the environmental conditions such as the outside air temperature. Therefore, it is possible that a threshold set appropriately at one location and at one point in time may not be an appropriate threshold at another location and at another point in time.
  • FIG. 11 shows how the erroneous discrimination rate of a healthy person who erroneously identifies a healthy person as a sick person and the erroneous discrimination rate of a sick person who erroneously discriminates a healthy person as a healthy person fluctuate depending on a set temperature threshold value. It is a figure.
  • the erroneous discrimination rate of a sick person who misidentifies a sick person as a healthy person decreases, but the erroneous discrimination rate of a healthy person who misidentifies a healthy person as a sick person increases.
  • the temperature threshold was raised, the erroneous discrimination rate of healthy subjects decreased, but the erroneous discrimination rate of diseased subjects increased.
  • FIG. 12 is a diagram showing a misdiscrimination rate when the temperature is measured 0.5 ° C. lower.
  • the illness misidentification rate rises to 17.2%.
  • FIG. 13 is a diagram showing a misdiscrimination rate when the temperature is measured 0.5 ° C. higher.
  • the conventional method when the temperature threshold was not changed from 37.0 ° C., the erroneous discrimination rate of healthy subjects increased to 13.6%.
  • the conventional method requires a process of appropriately setting the temperature threshold in order to appropriately distinguish between a healthy person and a diseased person, and it is said that experience is required to appropriately set the temperature threshold. It was broken.
  • the person to be measured was a diseased person. Therefore, if the person to be measured is actually a diseased person but the rate of distinguishing the person to be a healthy person is high, the person to be measured is regarded as a healthy person.
  • the identified sick person may enter the facility.
  • the body surface temperature varies greatly among individuals, and if a fixed temperature threshold is used, even a healthy person may be erroneously judged as a diseased person, and the operation site may be confused by the frequent occurrence of alarms. In order to avoid this, if the temperature threshold is raised too much, there is a problem that the diseased person cannot be screened and is passed through. Furthermore, the body surface temperature is easily affected by the outside air temperature, and the user has to change the temperature threshold to an appropriate temperature according to the outside air temperature, which is troublesome.
  • FIG. 14 is a list showing the results of discrimination between a healthy person and a diseased person using the temperature pattern according to the first embodiment of the present invention. Also in FIG. 14, the user discrimination result input by the user in advance is expressed as “measured person (input)”. Then, the discrimination result of the person to be measured output by the method according to the first embodiment is expressed as "discrimination result (output)”.
  • the setting of the temperature threshold value which has been conventionally performed, becomes unnecessary. Then, with respect to the same experimental data, the erroneous discrimination rate for diseased persons is equivalent to 10.3%, but the erroneous discrimination rate for healthy persons is 0%. Therefore, by using the method according to the first embodiment, a superior result was obtained as compared with the case where a healthy person and a diseased person are discriminated by using an appropriate temperature threshold value by the conventional method.
  • the accuracy of discriminating between a healthy person and a diseased person has been improved by the method according to the present embodiment as compared with the conventional method. Therefore, the diseased person discrimination device 2 can surely determine that the person to be measured is a diseased person and restrict access to the facility.
  • the diseased person is focused on the fact that the temperature patterns of the faces of the diseased person and the healthy person are different, and the trained model trained by the machine learning model is used for the diseased person. I made it possible to distinguish healthy people.
  • the temperature patterns of the faces of the diseased person and the healthy person differ, for example, in the inner corner of the eye, the tip of the nose, the side of the nose, the cheek, and the like. Therefore, the diseased person discrimination device 2 calculates the temperature pattern of each part such as the inner corner of the eye, the tip of the nose, the side of the nose, and the cheek measured by the body surface temperature measuring device 1, and applies a learned model learned in advance. It is possible to easily and correctly distinguish between a sick person and a healthy person. Therefore, it is possible to manage the entry and exit of the person to be measured in and out of the facility by using the discrimination result.
  • the diseased person discrimination device 2 can discriminate between the diseased person and the healthy person, and the erroneous discrimination of the diseased person is reduced. Further, while it was difficult to set an appropriate temperature threshold value depending on the sex and age of the person to be measured, in the present embodiment, since the difference in temperature pattern between the diseased person and the healthy person is used, the temperature threshold value and the like are set. It eliminates the need for delicate settings and facilitates operation.
  • the temperature pattern by learning the temperature pattern with a machine learning model and using the accumulated learning results as a learned model, it is possible to distinguish between a diseased person and a healthy person due to various diseases. It is also possible to generate different trained models depending on whether the subject is a child or an adult, gender, nationality, and so on. Furthermore, it is also possible to generate different learning models depending on the conditions of the operation location such as temperature. Therefore, the accuracy with which the diseased person discrimination device 2 discriminates between a diseased person and a healthy person is also improved.
  • the diseased person discrimination device 2 can discriminate as a diseased person even if it is a person to be measured before the onset by applying the trained model to the temperature pattern. In this way, the diseased person discrimination device 2 can determine with high probability that the person to be measured is a diseased person. Then, the diseased person determination device 2 can also display the possibility that the person to be measured before the onset is a diseased person on the display unit 25 to alert the user.
  • a plurality of parts of the face of the person to be measured are determined as specific parts, and the relative change in temperature between the specific parts of the diseased person and the healthy person is used as the temperature pattern.
  • the diseased person discrimination device 2 can calculate a temperature pattern from another specific part that is not hidden and discriminate between a diseased person and a healthy person.
  • the temperature patterns of the faces of the sick and healthy persons are updated by the temperature pattern learning unit 27. Therefore, parts other than the inner corner of the eye, the tip of the nose, the side of the nose, and the cheek are selected as specific parts, and the trained model is updated according to the temperature pattern related to the selected specific parts. Therefore, the diseased person discrimination device 2 can also discriminate a diseased person due to various infectious diseases other than influenza virus, poor physical condition, etc. by using the updated learned model.
  • the temperature pattern is not limited to the temperature normalized value for each specific part included in the area horizontally crossing the face of the person to be measured.
  • the temperature pattern of the temperature normalized value for each specific part included in the region vertically or diagonally crossing the face of the person to be measured may be used.
  • the temperature pattern may be obtained from the combination of specific parts not included in the region that directly crosses the face of the person to be measured.
  • the temperature pattern may be obtained from the combination of the inner corner of the eye 40a shown in FIG. 8 and the cheek 40d shown in FIG. 9, and the temperature pattern of these specific parts may be applied to identify the person to be measured.
  • FIGS. 6 to 9 an example in which the body surface temperature of a healthy person and a diseased person is normalized using FIGS. 6 to 9 is shown.
  • the normalization process may not be required in the actual disease person discrimination process and learning process in the disease person discrimination device 2.
  • the diseased person discrimination device 2 may be used in combination with a conventional process of discriminating a person to be measured whose body surface temperature is equal to or higher than a temperature threshold value as a diseased person.
  • the temperature pattern learning unit 27 may not only learn the relationship between the body surface temperature of each specific part, but also learn the body surface temperature itself of the person to be measured. Therefore, the temperature pattern learning unit 27 can learn the absolute value of the body surface temperature of the person to be measured. Then, the person to be measured determination unit 24 can also use the absolute value of the body surface temperature as a determination standard for determining whether the person to be measured is a healthy person or a diseased person.
  • the diseased person discrimination device 2 is based on the premise that the face of the person to be measured is completely exposed, and mainly focuses on the face of the person to be measured, and the temperature of the face. It trained the distribution and generated a learning model.
  • the subject may wear glasses, an eyepatch, or a mask to combat infectious diseases. Therefore, if the area covered by a part of the specific portion of the subject to be measured by the covering portion such as glasses, a mask, or an eye patch is large, the temperature distribution of the face may not be obtained correctly. In this case, it is expected that it will be difficult for the diseased person discriminating device 2 to discriminate whether the person to be measured is a healthy person or a diseased person.
  • the diseased person discrimination device determines whether the person to be measured is a healthy person or a diseased person, including not only the face surface of the person to be measured but also the body surface temperature of the neck portion. To determine.
  • the diseased person discrimination device according to the second embodiment of the present invention will be described with reference to FIGS. 15 to 17.
  • the configuration of the body surface temperature measuring device 1 according to the second embodiment is the same as the configuration of the body surface temperature measuring device 1 according to the first embodiment.
  • the control unit 13 (see FIG. 1) according to the second embodiment outputs temperature data to the diseased person discrimination device 2.
  • This temperature data includes a thermal image of the entire face and neck of the person to be measured including a specific part in the face of the person to be measured, or the temperature of the specific part measured for each specific part.
  • the specific portion according to the second embodiment also includes a portion that is less affected by the covering portion such as a mask or glasses. For example, a site such as the neck through which an artery passes or a site close to the heart is selected as a specific site.
  • At least one of the specific parts according to the second embodiment is among the head, temples and neck excluding the inner corner of the eye, the tip of the nose, the side of the nose, the cheek, the chin, the ear, the hand, and the hair part. At least one including the neck. Therefore, in the second embodiment, the temperature data representing the temperature of the neck is included in the group of temperature data.
  • the specific part determination unit 21 determines a specific part in the exposed part of the person to be measured based on the temperature data input from the body surface temperature measuring device 1.
  • the temperature data includes a thermal image of the face and neck of the person to be measured by the body surface temperature measuring device 1.
  • the specific part determination unit 21 according to the second embodiment needs to determine the neck of the person to be measured as a specific part. However, if the subject is wearing clothes with a collar, it is expected that only part of the front of the neck will be visible. In this case, a measurement area is created in a portion without a collar (lower side of the front of the face), and the maximum value in this measurement area is acquired as the temperature of the neck.
  • the specific part determination unit 21 determines the front of the face by using an algorithm capable of detecting the face and the neck only when the face of the person to be measured faces the front. At this time, the specific part determination unit 21 aligns the face parts (for example, the contour of the face and the chin) constituting the front surface of the face based on the thermal image. Further, the specific part determination unit 21 determines that the face of the person to be measured is in front of the body surface temperature measuring device 1 in accordance with the shooting direction, and determines the specific part from the thermal image. At this time, the specific part determination unit 21 captures the temperature value in the measurement area created under the face as the neck temperature.
  • the specific part determination unit 21 captures the temperature value in the measurement area created under the face as the neck temperature.
  • FIG. 15 is a diagram showing an example of the measurement result of the body surface temperature including the neck portion of the person to be measured.
  • the thermal image P3 of the person to be measured is displayed. It is assumed that the body surface temperature of the person to be measured is measured in a state where a part of the face is not covered with a covering part such as a mask. Thermal image P3 shows that the body surface temperatures of the subject's face and neck are similar.
  • the part of the diseased person discriminating device 2 according to the second embodiment that focuses on discriminating between a healthy person and a diseased person is the head and neck from the height of the clavicle of the person to be measured to the forehead.
  • the specific site determination unit 21 detects that the face of the person to be measured faces the front, the measurement area 45 is set between the clavicle and the jaw of the person to be measured. Then, the specific site determination unit 21 acquires the temperature in the measurement region 45 as the temperature of the neck. In addition, the specific part determination unit 21 determines an exposed specific part from the face of the person to be measured who is not covered with the covering part.
  • FIG. 16 is a graph showing the temperature patterns of the head, temples and neck of the subject.
  • the horizontal axis shows the specific part (head, temple and neck) of the person to be measured
  • the vertical axis shows the normalized value for each specific part.
  • the body surface temperature for each specific part is normalized in the range of 0 to 1.0.
  • the normalized value of the healthy subject is lower than the normalized value of the diseased subject in the head of the subject (for example, the forehead portion).
  • the normalized value of the healthy subject and the normalized value of the diseased subject are almost equal.
  • the normalized value of the healthy subject is higher than the normalized value of the diseased subject.
  • the temperature pattern represented by the normalized value of the healthy subject and the temperature pattern represented by the normalized value of the diseased subject are Clearly different.
  • the normalized value is particularly different at the neck of the person to be measured, it is expected that the discrimination accuracy will be improved as compared with the case where a healthy person or a diseased person is discriminated only by the normalized value of the head and temples.
  • the temperature pattern calculation unit 22 obtains temperature data from a specific part including the neck determined by the specific part determination unit 21 based on the temperature data input from the body surface temperature measuring device 1. It is extracted and the temperature patterns of a plurality of specific parts represented by the graph of FIG. 16 are obtained. This temperature pattern is output to the subject discrimination unit 24 and the temperature pattern learning unit 27.
  • the person to be measured 24 determines whether the person to be measured is a diseased person or a healthy person by applying a pre-learned model read from the storage unit 23 to the calculated temperature pattern. The determination result of the person to be measured determination unit 24 is output to the display unit 25.
  • the temperature pattern learning unit 27 uses a machine learning model based on the user discrimination result input from the input unit 26 and the temperature pattern output from the temperature pattern calculation unit 22 used in the subject discrimination unit 24. Generate a trained trained model. Then, the temperature pattern learning unit 27 updates the learned model stored in the storage unit 23.
  • FIG. 17 is a list showing the results of discrimination between a healthy person and a diseased person using the temperature pattern according to the second embodiment of the present invention. Also in FIG. 17, the user discrimination result input by the user in advance is expressed as “measured person (input)”. Then, the discrimination result of the person to be measured output by the method according to the second embodiment is expressed as "discrimination result (output)”.
  • the method according to the second embodiment Even if the method according to the second embodiment is used, it is not necessary to set the temperature threshold value that has been conventionally performed. Then, as compared with the conventional method using the temperature threshold shown in FIG. 10, the illness misidentification rate is lowered from 10.3% to 6.9%, but the healthy person erroneous discrimination rate is 1.5% to 1. It is almost the same value as 9%. However, the disease discrimination rate rises from 89.7% to 93.1%. Therefore, by using the method according to the second embodiment, a superior result can be obtained as compared with the conventional method of discriminating between a healthy person and a diseased person using a temperature threshold value.
  • the method according to the second embodiment improves the accuracy of discriminating between a healthy person and a diseased person as compared with the conventional method.
  • the diseased person discrimination device 2 can surely determine that the person to be measured is a diseased person and restrict access to the facility.
  • this body surface temperature measuring device 1 by using the distribution of the temperature normalized value of not only the face but also a specific part including at least the neck as training data, a mask, glasses, etc. Create a machine learning model that can reduce the influence of the covering part of. Then, by utilizing the machine learning model learned in advance, this body surface temperature measuring device 1 is a case where the specific part where the subject's face is hidden differs for each subject depending on the shape of the covering portion. In addition, it is possible to discriminate the person to be measured as either a healthy person or a sick person with high accuracy.
  • a specific part other than the neck For example, the finger of the subject's hand is assumed as a specific part. Any exposed part of the body of the subject can be adopted as a candidate for a specific part.
  • the temperature pattern is not limited to the temperature pattern of the temperature normalized value for each specific part included in the region horizontally crossing the face image of the person to be measured. May be calculated.
  • the body surface temperature measuring device 1 according to the first embodiment uses, for example, a temperature pattern found from temperature normalized values or temperature combinations of various parts, as in the method according to the second embodiment. Therefore, the person to be measured may be discriminated as either a healthy person or a diseased person with high accuracy.
  • FIG. 18 is a block diagram showing an example of the internal configuration of the diseased person discrimination device 2A.
  • the diseased person discrimination device 2A is a combination of each functional part of the body surface temperature measuring device 1 shown in FIG. 1 and each functional part of the diseased person discrimination device 2 shown in FIG.
  • the lens 10, the detection element 11, the sensor 11a, the A / D conversion unit 12, and the control unit 13 are collectively referred to as a body surface temperature measurement unit 16.
  • the control unit 13 of the body surface temperature measuring unit 16 outputs the temperature data to the specific part determination unit 21.
  • the processing of the specific part determination unit 21, the temperature pattern calculation unit 22, and the measurement subject determination unit 24 is the same as the processing shown in the first embodiment.
  • the diseased person discrimination device 2A includes a display unit 14A and an operation unit 15A.
  • the display unit 14A displays a thermal image based on the image data output from the control unit 13, similarly to the display unit 14 according to the first embodiment. Further, the display unit 14A can also display the determination result of the person to be measured or the possibility that the person to be measured is a diseased person, similarly to the display unit 25 according to the first embodiment.
  • the operation unit 15A inputs an instruction to output the absolute temperature of the object to be measured to the control unit 13 as in the operation unit 15 according to the first embodiment. Further, in the operation unit 15A, similarly to the input unit 26 according to the first embodiment, the user who uses the diseased person discrimination device 2A confirms and inputs the content displayed on the display unit 14A. It is also possible to accept the discrimination result of whether the person is a healthy person or a diseased person and output the discrimination result to the temperature pattern learning unit 27.
  • the diseased person discrimination device 2A In the diseased person discrimination device 2A according to the third embodiment described above, one device can process a thermal image and discriminate a person to be measured. Therefore, the diseased person discrimination device 2A is made lighter and smaller, and is easy to carry.
  • the body surface temperature measuring device 1 provided with the display unit 14 capable of displaying a thermal image is very expensive.
  • the technique of discriminating between a diseased person and a healthy person using a temperature pattern may be used in various environments, and it is required that the body surface temperature measuring device 1 be inexpensive and easy to carry. Therefore, the diseased person discrimination system according to the present embodiment has a configuration capable of discriminating between a diseased person and a healthy person even by using a non-contact body surface temperature measuring device having no display unit.
  • FIG. 19 is a block diagram showing an example of the internal configuration of the diseased person discrimination system 100A.
  • the diseased person discrimination system 100A includes a body surface temperature measuring device 1A, a diseased person discrimination device 2B, and a learning server 7.
  • the body surface temperature measuring device 1A has a configuration in which the lens 10 and the display unit 14 are removed from the body surface temperature measuring device 1 shown in FIG.
  • the detection element 11 has one sensor 11a.
  • the user can bring the body surface temperature measuring device 1A closer to a specific part of the person to be measured and measure the temperature of the specific part. Is. It is assumed that the user, the body surface temperature measuring device 1A, the diseased person discrimination device 2B, and the learning server 7 grasp the measurement order of a predetermined specific site.
  • Temperature data including the temperature measured by the body surface temperature measuring device from a specific part of the person to be measured by the user using the body surface temperature measuring device 1A in a predetermined measurement order is output to the diseased person discrimination device 2B in the measurement order. Will be done.
  • the temperature data may be output every time the body surface temperature measuring device 1A measures a specific part, or may be collectively output after measuring all the specific parts for one person to be measured. ..
  • the body surface temperature measuring device 1A may be provided with a liquid crystal display device or the like that displays the measured temperature of a specific part as a display unit. Then, on the liquid crystal display device, the names of specific parts to be measured and the like may be displayed in the order of measurement. For example, the user inputs that the temperature measurement of the specific part is completed by an operation such as pressing the operation unit 15 every time the temperature of the specific part is measured by using the body surface temperature measuring device 1A. Then, when the operation unit 15 is pressed, the name of the specific portion to be measured next may be displayed on the liquid crystal display device.
  • the diseased person discrimination device 2B can acquire temperature data of a specific part from the body surface temperature measuring device 1A.
  • the diseased person discrimination device 2B can send and receive data to and from the learning server 7 through the network N.
  • the diseased person discrimination device 2B transmits the temperature data of the specific part acquired by the body surface temperature measuring device 1A and the user discrimination result input by the user from the diseased person discrimination device 2B to the learning server 7. Further, the diseased person discrimination device 2B receives the data of the trained model from the learning server 7.
  • the learning server 7 includes a communication unit 71, a temperature pattern learning unit 72, and a storage unit 73.
  • the learning server 7 can output the trained model learned by inputting the temperature data of the specific part of the person to be measured received from the diseased person discrimination device 2B and the user discrimination result to the diseased person discrimination device 2B. ..
  • the communication unit 71 can be connected to the diseased person determination device 2B via the network N. Then, the communication unit 71 receives the temperature data of the specific part of the person to be measured and the user discrimination result from the disease person discrimination device 2B. Further, the communication unit 71 transmits the learned model read from the storage unit 73 to the diseased person discrimination device 2B.
  • the temperature pattern learning unit 72 learns from the learning result obtained by learning the temperature pattern based on the temperature data of the specific part received from the diseased person discrimination device 2B by the communication unit 71 and the user discrimination result input by the user. Generate and update the completed model.
  • the learning process performed by the temperature pattern learning unit 72 is the same as the learning process performed by the temperature pattern learning unit 27 of the diseased person discrimination device 2 according to the first embodiment. Then, the temperature pattern learning unit 72 stores the trained model in the storage unit 73.
  • the storage unit 73 stores the trained model learned by the temperature pattern learning unit 72. As described above, the learned model read from the storage unit 73 by the communication unit 71 is transmitted to the diseased person discrimination device 2B via the network N.
  • FIG. 20 is a block diagram showing an example of the internal configuration of the diseased person discrimination device 2B.
  • the diseased person discrimination device 2B has a configuration in which the specific site determination unit 21 and the temperature pattern learning unit 27 are removed from the diseased person discrimination device 2 shown in FIG.
  • the diseased person discrimination device 2B includes a communication unit 28 capable of communicating with the learning server 7.
  • the temperature pattern calculation unit 22 operates the body surface temperature measuring device 1A by the user to calculate the temperature normalized value of the temperature of the specific portion measured in the specified measurement order as the temperature pattern.
  • the temperature pattern calculated by the temperature pattern calculation unit 22 is shaped for each person to be measured.
  • the communication unit 28 transmits the temperature pattern calculated by the temperature pattern calculation unit 22 and the user discrimination result input by the user through the input unit 26 to the learning server 7. Further, the communication unit 28 receives the learned model from the learning server 7 and stores it in the storage unit 23.
  • the storage unit 23 stores the learned model received by the communication unit 28 from the learning server 7.
  • the trained model is appropriately read from the storage unit 23 by the measured person discriminating unit 24 and used for discriminating the measured person.
  • the diseased person discrimination system 100A includes a body surface temperature measuring device 1A capable of measuring the temperature for each specific part of the person to be measured.
  • the user brings one body surface temperature measuring device 1A close to a plurality of specific parts of the person to be measured in a predetermined measurement order, and obtains the temperature of each specific part in order.
  • an appropriate learned model obtained by machine learning of the temperature pattern by the learning server 7 is given to the diseased person discrimination device 2B. Therefore, the diseased person discrimination device 2B can discriminate between a diseased person and a healthy person by applying the learned model received from the learning server 7 to the temperature pattern.
  • the specifications of the diseased person discrimination device 2B can be lowered by learning the temperature pattern in which a large load is applied to the CPU 31 (see FIG. 4) by the learning server 7. Further, since the body surface temperature measuring device 1A does not include the display unit 14, the body surface temperature measuring device 1A can be miniaturized.
  • the diseased person discrimination device 2B can input the data of the body surface temperature measured for each specific part from the body surface temperature measuring device 1A without inputting the thermal image, so that the diseased person and the healthy person Can be determined.
  • the learning server 7 acquires a temperature pattern and a user discrimination result from a plurality of body surface temperature measuring devices 1A, and learns a temperature pattern according to the body surface temperature of the person to be measured measured in different areas. Can be done. Therefore, the accuracy of the temperature pattern is improved, and the accuracy of the discrimination result between the diseased person and the healthy person discriminated by using this temperature pattern is also improved.
  • the diseased person discrimination device discriminates the person to be measured by obtaining the temperature of each pixel of the thermal image input from the body surface temperature measuring device that outputs the thermal image as a temperature pattern.
  • FIG. 21 is a block diagram showing an example of the internal configuration of the diseased person discrimination device 2C.
  • the diseased person discrimination device 2C has a configuration in which the specific site determination unit 21 is removed from the diseased person discrimination device 2 shown in FIG. Further, the diseased person discrimination device 2C is connected to the body surface temperature measuring device 1 to form the diseased person discrimination system according to the fifth embodiment.
  • the temperature data input from the body surface temperature measuring device 1 to the temperature pattern calculation unit 22A includes the entire thermal image taken by the body surface temperature measuring device of the person to be measured.
  • the temperature pattern calculation unit 22A has a function of aligning the face parts constituting the face based on the thermal image of the face, similarly to the specific part determination unit 21 according to the first embodiment. Therefore, the temperature pattern calculation unit 22A aligns the face parts constituting the face based on the temperature data of the entire thermal image, and calculates the temperature data extracted for each pixel of the thermal image as the temperature pattern.
  • the temperature pattern calculated by the temperature pattern calculation unit 22A is output to the person to be measured determination unit 24 and the temperature pattern learning unit 27.
  • the operations of the storage unit 23, the person to be measured discriminating unit 24, the display unit 25, the input unit 26, and the temperature pattern learning unit 27 are the same as the operations of each unit in the diseased person discriminating device 2 shown in FIG. The explanation is omitted.
  • the person to be measured is a healthy person or a diseased person based on the temperature pattern calculated for each pixel of the thermal image input to the diseased person discrimination device 2C. Which of the above is determined. Therefore, the process of determining the specific part of the person to be measured from the thermal image becomes unnecessary, and the process of acquiring the thermal image and determining the person to be measured can be reduced.
  • the temperature pattern calculation unit 22A determines the face constituting the face based on the temperature data of the entire thermal image of the face and neck of the person to be measured. Align the parts. Further, the temperature pattern calculation unit 22A determines that the face of the person to be measured is in front of the body surface temperature measuring device 1 in accordance with the shooting direction, so that the temperature data extracted for each pixel of the thermal image is obtained. It may be calculated as a temperature pattern.
  • the temperature pattern calculated by the temperature pattern calculation unit 22A is output to the person to be measured determination unit 24 and the temperature pattern learning unit 27.
  • the operations of the storage unit 23, the person to be measured determination unit 24, the display unit 25, the input unit 26, and the temperature pattern learning unit 27 in the disease person discrimination device 2C are the same as the operations of each unit in the disease person discrimination device 2 shown in FIG. Is.
  • a plurality of non-contact thermometers may be used as the body surface temperature measuring device. Then, by simultaneously measuring a plurality of specific parts of the person to be measured with a plurality of non-contact thermometers, the temperature of the specific part may be obtained for each person to be measured, and the temperature normalized value may be obtained.
  • the temperature of the neck of the person to be measured which is the measurement target by the body surface temperature measuring device according to the second embodiment, is specified as a specific part. May be included in.
  • the temperature pattern learning unit 27 can perform machine learning based on the temperature pattern of the neck of the person to be measured and a specific portion other than the neck, and can update the trained model.
  • the person to be measured 24 applies this trained model to the temperature pattern of the neck of the person to be measured and a specific part other than the neck, so that the person to be measured is either a healthy person or a diseased person. Can be determined.
  • the present invention is not limited to the above-described embodiments, and it goes without saying that various other application examples and modifications can be taken as long as the gist of the present invention described in the claims is not deviated.
  • the above-described embodiment describes in detail and concretely the configurations of the apparatus and the system in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those including all the described configurations.
  • the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

疾患者判別装置は、被測定者の体表温を測定する体表温測定装置から入力する温度データに基づいて、被測定者の露出部分における温度パターンを算出する温度パターン算出部と、算出された温度パターンに、予め学習した学習済モデルを適用して、被測定者が疾患者又は健常者のいずれであるかを判別する被測定者判別部と、を備える。

Description

疾患者判別装置及び疾患者判別システム
 本発明は、疾患者判別装置及び疾患者判別システムに関する。
 従来、多くの施設において、被測定者の体表温測定が定期的に行われている。被測定者としては、例えば、病院施設における入院患者や通院患者、空港施設における搭乗者、ビル等における入館者、教育施設における児童等が想定される。近年では、非接触で被測定者の体表温を測定するため、サーモグラフィ装置が用いられることが多くなっている。サーモグラフィ装置は、被測定者の皮膚から発せられる赤外線光の強度に応じて、例えば、高い温度は赤色、低い温度は青色のように色分けした熱画像により、被測定者の体表温を表示することが可能である。
 被測定者がウイルスに感染し、発症すると被測定者の体表温が上昇する。このため、施設に入場する前に被測定者の熱画像をサーモグラフィ装置で撮影し、健常者と疾患者を判別することがあった。サーモグラフィ装置に表示される熱画像を用いた疾患者と健常者との判別には、予め定めた温度閾値が用いられてきた。例えば、温度閾値より高い温度の部位が顔表面に現れた人を疾患者として判別し、顔表面に温度閾値より高い温度の部位が現れていない人を健常者として判別していた。
 疾患者と健常者とを判別するために様々な方法が試みられてきた。例えば特許文献1には、被検体の眼又は前額領域を目標領域として赤外線画像データを取得し、被検体の中核体温情報を導く技術が開示されている。
 また、本出願の発明者により非特許文献1に開示された方法が知られている。この非特許文献1には、健常ボランティア、インフルエンザA型及びB型患者、インフルエンザ以外の発熱患者を対象として、顔面のサーモグラフィ測定を行って、健常群と発熱患者群の顔面サーモグラフィを比較すると共に、発熱患者の顔面の体表温の相関性を求める技術が記載されている。
特表2007-516018号公報
芝田宏美(Hiromi Shibata)、他7名「サーモグラフィを手法とした感染制御のための発熱判定基準の構築 インフルエンザ患者の顔面サーモグラフィの検討(Assessment of fever for infection control using thermography -facial thermography in patients with influenza-)」Biomedical Thermology,2015.01,34巻2号,p.54-58
 ところで、特許文献1に開示された技術を用いても、体温の高い健常者を疾患者と判別したり、体温が低い疾患者を健常者と判別したりする等の誤判別が発生することがあった。また、実際にはウイルスに感染していても、発症していないことから体温が上昇していない被測定者を健常者と誤判別することもあった。また、建物の外気に曝されると顔の表面が冷えるため、発熱した疾患者であっても、健常者であると誤判別することもあった。また、疾患者と健常者との判別に用いられる閾値は、判別を行う環境に合わせて適正な値に調整する必要があり、閾値を調整しない場合には誤判別する確率が高くなる。適正な閾値に調整するためには調整者に経験が必要であるが、環境が変化すると閾値の再調整を要するため、運用上の問題になっていた。
 また、非特許文献1では、発熱患者を確実に検出できるほど、体表温と体温に強い相関がなかったとの結果だったが、発明者は、発熱患者に特徴的な顔面温度のパターン分布を判定基準に追加することが可能であれば、正診率が向上すると考えていた。しかし、論文の執筆時には、一般的に発熱患者は顔全体が発熱していると考えられており、顔面温度の分布パターンについて知見を得られていなかった。また、発熱患者に特徴的な顔面温度の分布パターンについてどのように求めればよいのかは不明であったため、正診率を向上することが可能な判定基準の作成が望まれていた。
 本発明はこのような状況に鑑みて成されたものであり、疾患者と健常者とを判別することを目的とする。
 上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した疾患者判別装置は、被測定者の体表温を測定する体表温測定装置から入力する温度データに基づいて、被測定者の露出部分における温度から温度パターンを算出する温度パターン算出部と、算出された温度パターンに、予め学習した学習済モデルを適用して、被測定者が疾患者又は健常者のいずれであるかを判別する被測定者判別部と、を備える。
 また、本発明の一側面を反映した疾患者判別システムは、上記の疾患者判別装置に加えて、機械学習モデルにより温度パターンを学習して学習済モデルを生成する温度パターン学習部を有する学習サーバを備える。
 本発明によれば、疾患者又は健常者の特定部位毎の温度パターンに学習済モデルを適用することで、疾患者と健常者を容易に正しく判別することができる。
 上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
本発明の第1の実施の形態に係る疾患者判別システムの内部構成例をブロック図である。 本発明の第1の実施の形態に係る制御部の内部構成例を示すブロック図である。 本発明の第1の実施の形態に係る疾患者判別装置の内部構成例を示すブロック図である。 本発明の第1の実施の形態に係る計算機のハードウェア構成例を示すブロック図である。 本発明の第1の実施の形態に係る特定部位の位置を表した図である。 本発明の第1の実施の形態に係る特定部位を含む顔全体の温度パターンを正規化する様子を示す図である。図6Aは、体表温測定装置が撮影して得た複数人の健常者と複数人の疾患者の体表温を、それぞれ部位毎に平均化した値を示すグラフである。図6Bは、正規化した健常者と疾患者の体表温を示すグラフである。 本発明の第1の実施の形態に係る健常者と疾患者の正規化した顔の熱画像の表示例を示す図である。図7Aは、健常者の顔の熱画像の例を示し、図7Bは、疾患者の顔の熱画像の例を示す。 本発明の第1の実施の形態に係る目頭を通る水平線の顔の熱画像における温度パターンの例を示す図である。図8Aは、被測定者の顔の熱画像の目頭を通る水平線と、健常者及び疾患者の特定部位における温度正規化値の違いを示す一覧表である。図8Bは、水平線に沿って測定された被測定者の顔の熱画像における温度パターンを示す。 本発明の第1の実施の形態に係る鼻尖を通る水平線の顔の熱画像における温度パターンの例を示す図である。図9Aは、被測定者の顔の熱画像の鼻尖を通る水平線と、健常者及び疾患者の特定部位における温度正規化値の違いを示す一覧表である。図9Bは、水平線に沿って測定された被測定者の顔の熱画像における温度パターンを示す。 温度閾値を用いて健常者と疾患者とを判別する従来の手法を用いた場合の判別結果を示す一覧表である。 従来の手法における健常者を疾患者であると誤判別する健常者誤判別率と、疾患者を健常者であると誤判別する疾患者誤判別率と、温度閾値との関係を示す図である。 温度が0.5℃低く測定された場合の健常者誤判別率と、疾患者誤判別率と、温度閾値との関係を示す図である。 温度が0.5℃高く測定された場合の健常者誤判別率と、疾患者誤判別率と、温度閾値との関係を示す図である。 本発明の第1の実施形態に係る温度パターンを用いた健常者と疾患者の判別結果を示す一覧表である。 本発明の第2の実施の形態に係る被測定者の首部分を含む体表温の測定結果の例を示す図である。 本発明の第2の実施の形態に係る被測定者の頭、こめかみ及び首の温度パターンを示すグラフである。 本発明の第2の実施の形態に係る温度パターンを用いた健常者と疾患者の判別結果を示す一覧表である。 本発明の第3の実施の形態に係る疾患者判別装置の内部構成例をブロック図である。 本発明の第4の実施の形態に係る疾患者判別システムの内部構成例をブロック図である。 本発明の第4の実施の形態に係る疾患者判別装置の内部構成例を示すブロック図である。 本発明の第5の実施の形態に係る疾患者判別装置の内部構成例を示すブロック図である。
 以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
 図1は、疾患者判別システム100の内部構成例を示すブロック図である。
 疾患者判別システム100は、体表温測定装置1と疾患者判別装置2とを備える。体表温測定装置1と疾患者判別装置2とは有線又は無線により接続されている。疾患者判別装置2は、体表温測定装置1が測定した被測定者の体表温を表す熱画像を取込んで、被測定者が疾患者又は健常者のいずれであるかを判別する。疾患者判別装置2の詳細な構成例は、後述する図3にて説明する。
 体表温測定装置1は、レンズ10、検出素子11、A/D変換部12、制御部13、表示部14及び操作部15を備える。この体表温測定装置1は、レンズ10が向けられた被測定者の体表温を測定することが可能である。
 レンズ10は、被測定者から発せられた赤外線光を集光して検出素子11に結像させる。
 検出素子11は、一つ又は複数のセンサ11aを有しており、検出素子11に入力する垂直同期信号に同期してフレーム周期毎に時分割で検出信号を出力する。検出素子11が単位時間あたりに出力可能な検出信号のフレーム数は、例えば、60fps(frames per second)である。
 体表温測定装置1をカメラとして用いた時には、検出素子11が有するセンサ11aは画素単位で設けられるセンサである。そして、センサ11aは、検出素子11に結像した赤外線光の強度を検出して検出信号を出力する。センサ11aとしては、例えば、測定対象物の絶対温度に応じて抵抗値が変化するマイクロボロメータが用いられる。検出素子11には、多数のマイクロボロメータが、例えば、横320個×縦240個のように2次元に配列されている。マイクロボロメータは、赤外線光を検出すると、赤外線光の強度に応じたアナログの検出信号を出力する。ただし、検出素子11には、一つのセンサ11aだけが用いられてもよい。
 A/D変換部12は、検出素子11の画素単位のセンサ11aから出力される検出信号をデジタルデータに変換し、制御部13にデジタルデータを出力する。
 制御部13は、A/D変換部12から入力する検出信号のデジタルデータに対して、後述する図2に示すゲイン補正及びオフセット補正を行い、測定対象物の絶対温度を演算する。そして、制御部13は、演算した測定対象物の絶対温度に基づいて画像処理を行って得た画像データを表示部14に出力する。ここで、制御部13は、操作部15の操作に従って、熱画像の画像データを生成し、表示部14に画像データを出力する。また、制御部13は、検出素子11のセンサ11aに垂直同期信号を出力する。
 また、制御部13は、疾患者判別装置2に温度データを出力する。この温度データには、被測定者の顔における特定部位を含む被測定者の顔全体を撮影した熱画像、又は特定部位毎に測定された特定部位の温度が含まれる。特定部位の少なくとも1つは、後述する図5に示すように、例えば、被測定者の目頭、鼻尖、鼻の横、頬、顎、耳、手、頭髪部を除く頭、こめかみ及び首のうちいずれかである。後述する図3に示す特定部位判定部21が顔の熱画像から抽出すべき特定部位の位置は予め決定されているものとする。
 表示部14には、制御部13により生成された画像データに基づいて、測定対象物の絶対温度の分布状況を示す熱画像が表示される。
 操作部15は、制御部13に対して測定対象物の絶対温度を出力させる指示を入力するために用いられる。制御部13は、操作部15からの指示により、表示する画像データを熱画像として表示部14に出力する。
 なお、体表温測定装置1にPC(Personal Computer)端末等を接続することにより、体表温測定装置1の構成から表示部14を除く構成としてもよい。この場合、制御部13は、検出素子11からフレーム毎に入力する検出信号に基づいて演算した測定対象物の絶対温度をPC端末に出力する。これにより、体表温測定装置1に接続されたPC端末等にて測定対象物の絶対温度を表示することができる。
 図2は、制御部13の内部構成例を示すブロック図である。
 制御部13は、ゲイン補正部13a、オフセット補正部13b、演算部13c及び熱画像生成部13dを備える。
 検出素子11の各センサ11aから出力される検出信号は、測定対象物の絶対温度が高くなるほど、大きい値となるような1次式に近似して表される。ただし、検出素子11の各センサ11aに対応するマイクロボロメータの特性がばらついており、1次式自体が標準の1次式から乖離している。このため、例えば、体表温測定装置1の工場出荷時において、各センサ11aに対応するマイクロボロメータの特性を揃えるためのゲイン補正及びオフセット補正に用いる補正値を不図示のメモリに保存している。そして、制御部13は、メモリから読み出した補正値に基づいてデジタルデータを補正する。
 制御部13のゲイン補正部13aは、A/D変換部12から入力したデジタルデータに変換された検出信号のゲイン補正を行う。ゲイン補正部13aによりゲイン、すなわち1次式の傾きが補正される。
 オフセット補正部13bは、ゲイン補正部13aによりゲインが補正されたデジタルデータのオフセット補正を行う。オフセット補正部13bによりオフセット、すなわち1次式の切片が補正される。
 演算部13cは、ゲイン補正部13a及びオフセット補正部13bにより補正された検出信号を変換したデジタルデータに基づいて、測定対象物の絶対温度を画素毎に演算する。
 熱画像生成部13dは、演算部13cによりセンサ11a毎に演算された測定対象物の絶対温度に基づいて、熱画像を表示するための画像データを生成する。熱画像生成部13dが生成した画像データは表示部14に出力され、表示部14にて測定対象物の熱画像として表示される。
 図3は、疾患者判別装置2の内部構成例を示すブロック図である。
 上述したように疾患者判別装置2は、体表温測定装置1から取込んだ情報に基づいて、被測定者が疾患者又は健常者のいずれであるか判別する。疾患者判別装置2は、特定部位判定部21、温度パターン算出部22、記憶部23、被測定者判別部24、表示部25、入力部26及び温度パターン学習部27を備える。
 特定部位判定部21は、体表温測定装置1から入力する温度データに基づいて、被測定者の露出部分における特定部位を判定する。温度データは、体表温測定装置1が被測定者の顔を撮影した熱画像を含む。なお、被測定者の顔は、レンズ10の正面に向くとは限らない。このため、特定部位判定部21は、顔の熱画像に基づいて、顔を構成する顔パーツの位置合わせを行う機能を有する。そして、特定部位判定部21は、位置合わせを行う機能を用いて、熱画像に対して、顔を構成する顔パーツの位置合わせを行って熱画像から特定部位を判定する。上述したように本実施の形態では、被測定者の特定部位の少なくとも1つは、例えば、目頭、鼻尖、鼻の横、頬、顎、耳、手、頭髪部を除く頭、こめかみ及び首のうちいずれかである。特定部位判定部21は、位置合わせを行った後の熱画像を温度パターン算出部22に出力するように構成される。ただし、特定部位判定部21は、位置合わせ前の熱画像とその画像中の特定部位の座標群の組み合わせ等を温度パターン算出部22に出力するように構成されてもよい。
 温度パターン算出部22は、被測定者の体表温を測定する体表温測定装置1から入力する温度データに基づいて、被測定者の露出部分における温度から温度パターンを算出する。温度パターンは、被測定者の複数の特定部位から収集した温度データの一群で表される。例えば、温度パターンは、後述する図8と図9に示すように、被測定者の顔を水平に横切る領域に含まれる特定部位毎の温度正規化値をグラフで表したものであるが、他の形態で表したものであってもよい。また、温度パターンは、温度正規化値だけでなく、正規化される前の温度から算出されてもよい。
 一箇所の特定部位には複数の画素が含まれる。このため、温度パターン算出部22は、特定部位として判定された領域内に含まれる複数の画素の平均値を特定部位の温度として算出する。つまり、温度パターン算出部22は、特定部位判定部21により判定された特定部位から温度データを抽出し、複数の特定部位の温度パターンを求めることができる。なお、後述する図8と図9に示すように、温度パターン算出部22は、特定部位ごとの温度正規化値を算出して温度パターンを求めている。温度パターン算出部22が算出した温度正規化値は、複数の特定部位に対応付けて、被測定者判別部24及び温度パターン学習部27に出力される。
 なお、温度パターン算出部22は、特定部位として判定された領域内に含まれる複数の画素の値のうち、最高値を特定部位の温度として算出し、算出した温度を特定部位に対応付けて、被測定者判別部24及び温度パターン学習部27に特定部位の温度パターンを出力してもよい。
 記憶部23には、被測定者の温度パターンが学習された学習済モデルが記憶される。学習済モデルは、被測定者の温度パターンに基づいて、被測定者判別部24が被測定者を、疾患者又は健常者のいずれかに判別するために用いられる。疾患者判別装置2が学習機能を持つ場合、学習済モデルは、後述する温度パターン学習部27によって学習されたものとなる。ただし、疾患者判別装置2が学習機能を持たない場合、学習済モデルは、予め記憶部23に用意されたものとなる。
 被測定者判別部24は、算出された温度パターンに、記憶部23から読出した予め学習した学習済モデルを適用して、被測定者が疾患者又は健常者のいずれであるかを判別する。被測定者判別部24の判別結果は、表示部25に出力される。
 表示部25は、被測定者が疾患者である可能性を含む判別結果を表示する。例えば、被測定者が疾患者又は健常者のいずれであるかを示すテキストメッセージが判別結果として表示部25に表示される。なお、表示部25の代わりにアラームを報知する報知部を備えてもよい。アラームの報知は、例えば、報知部がランプを点灯したり、施設の管理者にメールを送信したりすることで行われる。
 次に、学習済モデルを生成する処理を担う、入力部26と温度パターン学習部27の動作例について説明する。なお、学習済モデルを生成する処理は、常に行われるものではない。
 入力部26は、疾患者判別装置2を使用するユーザーが入力した、被測定者が健常者又は疾患者のいずれであるかのユーザー判別結果を受け付ける。例えば、実際に被測定者が健常者であれば入力部26を通じて「健常者」と入力する。一方、実際に被測定者が疾患者であれば入力部26を通じて「疾患者」と入力する。
 ユーザーは、入力部26を通じてユーザー判別結果を入力し、学習済モデルを修正する。入力されたユーザー判別結果は、上述した「健常者」又は「疾患者」のいずれかである。なお、ユーザーが、入力部26を通じてユーザー判別結果を入力する際に、常に表示部25の出力を確認して、被測定者判別部24の判別結果が正しいか否かを判断しなくてもよい。温度パターン学習部27は、温度パターン算出部22から与えられる温度パターンと、その温度パターンを健常者と判別すべきか疾患者と判別すべきかのいわば正解が与えられることで、学習済モデルを修正していく。
 温度パターン学習部27は、入力部26から入力されたユーザー判別結果と、被測定者判別部24で用いられた、温度パターン算出部22の出力である温度パターンとに基づいて、機械学習モデルにより学習した学習済モデルを生成する。学習済モデルは、温度パターン学習部27の学習結果を蓄積したデータである。
 温度パターン学習部27は、機械学習によって学習済モデルを更新し、更新した学習済モデルを記憶部23に保存する。学習済モデルの更新は正解又は不正解のどちらであっても行われる。つまり、被測定者判別部24の出力と実際の状況とが一致した場合でも、不一致の場合であっても学習済モデルは修正され、更新される。温度パターン学習部27が学習を重ねることで学習済モデルは徐々に適切な学習済モデルへと修正され、更新されていく。その後、被測定者判別部24が、温度パターン算出部22により算出された温度パターンに対して、更新された学習済モデルを適用することで、被測定者が疾患者又は健常者のいずれであるかを判別することとなる。
 次に、疾患者判別システム100の各装置を構成する計算機30のハードウェア構成を説明する。
 図4は、計算機30のハードウェア構成例を示すブロック図である。計算機30は、例えば、体表温測定装置1、疾患者判別装置2を構成するハードウェアとして用いられる。
 計算機30は、いわゆるコンピュータとして用いられるハードウェアである。計算機30は、バス34にそれぞれ接続されたCPU(Central Processing Unit)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33を備える。さらに、計算機30は、表示装置35、入力装置36、不揮発性ストレージ37、ネットワークインターフェイス38を備える。
 CPU31は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM32から読み出してRAM33にロードし、実行する。RAM33には、CPU31の演算処理の途中で発生した変数やパラメーター等が一時的に書き込まれ、これらの変数やパラメーター等がCPU31によって適宜読み出される。体表温測定装置1では、主に制御部13の機能がCPU31によって実現される。疾患者判別装置2では、特定部位判定部21、温度パターン算出部22、被測定者判別部24及び温度パターン学習部27の機能がCPU31によって実現される。
 表示装置35は、例えば、液晶ディスプレイモニタであり、計算機30で行われる処理の結果、熱画像等をユーザーに表示する。例えば、体表温測定装置1の表示部14、疾患者判別装置2の表示部25に表示装置35が用いられる。
 入力装置36には、例えば、操作キー、操作ボタン等が用いられ、ユーザーが所定の操作入力、指示を行うことが可能である。例えば、体表温測定装置1の操作部15、疾患者判別装置2の入力部26に入力装置36が用いられる。
 不揮発性ストレージ37としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フレキシブルディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリ等が用いられる。この不揮発性ストレージ37には、OS(Operating System)、各種のパラメーターの他に、計算機30を機能させるためのプログラムが記録されている。ROM32、不揮発性ストレージ37は、CPU31が動作するために必要なプログラムやデータ等を永続的に記録しており、計算機30によって実行されるプログラムを格納したコンピュータ読取可能な非一過性の記録媒体の一例として用いられる。例えば、疾患者判別装置2の記憶部23に不揮発性ストレージ37が用いられる。
 ネットワークインターフェイス38には、例えば、NIC(Network Interface Card)等が用いられ、NICの端子に接続されたLAN(Local Area Network)、専用線等を介して各種のデータを装置間で送受信することが可能である。例えば、体表温測定装置1及び疾患者判別装置2を互いに通信可能に接続する不図示の通信部にネットワークインターフェイス38が用いられる。
 図5は、特定部位の位置を表した説明図である。
 図5には、被測定者の顔の熱画像40と、特定部位の位置が示される。特定部位として、例えば、目頭40a、鼻尖40b、鼻の横40c及び頬40dが示される。被測定者の顔の熱画像40は、温度が高い部分を白に近くし、低い部分を黒に近くした白黒画像で表示することも可能である。
 図6は、特定部位を含む顔全体の温度パターンを正規化する様子を説明するための図である。
 図6Aには、体表温測定装置1が撮影して得た複数人の健常者と複数人の疾患者の体表温を、それぞれ部位毎に平均化したグラフが示される。このグラフの横軸は、健常者と疾患者のある特定部位を横切る線に沿った部位の位置[mm]を表し、縦軸は健常者と疾患者の体表温[℃]を表す。また、健常者の体表温は実線で表し、疾患者の体表温を二点鎖線で表す。図6の上側に示すグラフは、本実施の形態に係る温度パターンを説明するため、健常者と疾患者の温度値がはっきり異なる例として用いたものである。
 一般に疾患者の体表温は、健常者の体表温より上がりやすい。例えば、健常者であれば、顔表面の温度が36.0℃~37.0℃の範囲内であるが、疾患者であれば、顔表面の温度が37.0℃~38.0℃の範囲内である。このため、疾患者の顔全体の温度が高くなって、顔の熱画像の全体が白くなると、疾患者と健常者の顔の熱画像を比較しづらい。そこで、疾患者と健常者の顔の熱画像から特徴的な温度パターンを求められるようにグラフを正規化して表現する。
 図6Bには、正規化した健常者と疾患者の体表温が示される。このグラフは、図6の上側に示した健常者と疾患者の体表温を0~1.0の範囲内で正規化したものである。健常者と疾患者の体表温を正規化することにより、健常者と疾患者に特徴的な温度パターンが判明する。
 図7は、健常者と疾患者の正規化した顔の熱画像の表示例を示す図である。
 図7Aには、健常者の顔の熱画像P1が表示され、図7Bには、疾患者の顔の熱画像P2が表示されている。なお、健常者の顔の熱画像P1は、体表温測定装置1が撮影して得た健常者の顔の熱画像を正規化した画像である。同様に、疾患者の顔の熱画像P2も、体表温測定装置1が撮影して得た疾患者の顔の熱画像を正規化した画像である。正規化された顔の熱画像P1,P2では、温度が高い部位が白く表示され、温度が低い部位が黒く表示される。
 体表温測定装置1が測定可能な温度範囲を低温から高温まで同じ範囲で正規化することで、顔の熱画像P1,P2に特徴的な温度パターンが求められる。このため、顔の熱画像を正規化して得られた温度パターンに基づいて、被測定者が健常者又は疾患者のいずれであるかを判別できるようになる。
 次に、温度パターンの例について、図8と図9を参照して説明する。本実施の形態では、被測定者の顔の熱画像40を水平に横切る領域における温度パターンについて説明する。
 図8は、目頭40aを通る水平線41の顔の熱画像40における温度パターンの例を示す説明図である。
 図8Aには、被測定者の顔の熱画像40の目頭40aを通る水平線41と、健常者及び疾患者の特定部位における温度正規化値の違いを示す一覧表が示される。水平線41は、温度パターン算出部22が顔の熱画像40の温度パターンを算出するときに顔の熱画像40をスキャンした位置を表す。
 図8Bには、水平線41に沿って測定された被測定者の顔の熱画像40における温度パターン50が示される。温度パターン50の横軸は顔の熱画像40における各部位の位置[mm]を表し、縦軸は温度を正規化した値(温度正規化値)を表す。そして、健常者の温度パターンを実線のチャートL1で表し、疾患者の温度パターンを二点鎖線のチャートL2で表す。
 温度パターン50により、目頭40aを表す範囲51,52では、疾患者の目頭40aの温度正規化値が、健常者の目頭40aの温度正規化値より高いことが示される。そこで、図8Aに示す一覧表には、目頭40aの温度正規化値が、健常者は低く、疾患者は高いことが示されている。
 図9は、鼻尖40bを通る水平線41の顔の熱画像40における温度パターンの例を示す図である。
 図9Aには、被測定者の顔の熱画像40の鼻尖40bを通る水平線41と、健常者及び疾患者の特定部位における温度正規化値の違いを示す一覧表が示される。
 図9Bには、水平線41に沿って測定された被測定者の顔の熱画像40における温度パターン60が示される。温度パターン60の横軸は顔の熱画像40における各部位の位置[mm]を表し、縦軸は温度を正規化した値を表す。そして、健常者の温度パターンを実線のチャートL11で表し、疾患者の温度パターンを二点鎖線のチャートL12で表す。
 温度パターン60により、鼻尖40bを表す範囲63では、健常者の鼻尖40bの温度正規化値が、疾患者の鼻尖40bの温度正規化値より高いことが示される。また、鼻の横40cを表す範囲62,64では、疾患者の鼻の横40cの温度正規化値が、健常者の鼻の横40cの温度正規化値より高いことが示される。また、頬40dを表す範囲61,65では、健常者の頬40dの温度正規化値が、疾患者の頬40dの温度正規化値より高いことが示される。
 そこで、図9Aに示す一覧表には、健常者は鼻尖40bの温度正規化値が高く、疾患者は鼻尖40bの温度正規化値が低いことが示される。同様に、健常者は鼻の横40cの温度正規化値が低く、疾患者は鼻の横40cの温度正規化値が高いこと、また、健常者は頬40dの温度正規化値が高く、疾患者は頬40dの温度正規化値が低いことが示されている。
 図10は、温度閾値を用いて健常者と疾患者とを判別する従来の手法を用いた場合の判別結果の例を示す一覧表である。図10では、事前にユーザーが入力したユーザー判別結果を「被測定者(入力)」と表現する。そして、従来の手法によって出力される被測定者の判別結果を「判別結果(出力)」と表現する。「被測定者(入力)」と「判別結果(出力)」の項目には、それぞれ「健常者」と「疾患者」の項目が設けられる。
 ここでは、37.0℃を温度閾値として用い、被測定者を健常者又は疾患者のいずれかに判別する例を説明する。従来の手法では、温度閾値が設定されたことにより、健常者の98.5%は健常者として正しく判別されるが、健常者の1.5%は疾患者として誤って判別されていた。また、従来の手法では、疾患者の89.7%は疾患者として正しく判別されるが、疾患者の10.3%は健常者として誤って判別されていた。
 一方、体表温測定装置として用いることが可能な一般的な赤外線カメラには個体差が存在し、±0.5℃程度、温度値が実際より低く、あるいは、高く測定されることがありうる。また、外気温などの環境条件によっても、温度値が実際より低く、あるいは、高く測定されうる。したがって、ある場所、ある時点で適切に設定した閾値が、別の場所、別の時点では適切な閾値ではない可能性があった。
 図11は、健常者を疾患者として誤って判別する健常者誤判別率と、疾患者を健常者として誤って判別する疾患者誤判別率とが、設定した温度閾値によって変動する様子を示した図である。
 従来の手法では、温度閾値を下げると、疾患者を健常者として誤判別する疾患者誤判別率は下がるが、健常者を疾患者として誤判別する健常者誤判別率が上がっていた。一方、温度閾値を上げると、健常者誤判別率は下がるが、疾患者誤判別率が上がっていた。
 図12は、温度が0.5℃低く測定された場合の誤判別率を示した図である。
 従来の手法では、温度閾値を37.0℃から変えずに運用した場合に、疾患者誤判別率は17.2%まで上昇していた。
 図13は、温度が0.5℃高く測定された場合の誤判別率を示した図である。
 従来の手法では、温度閾値を37.0℃から変えずに運用した場合に、健常者誤判別率は13.6%まで上昇していた。
 このように従来の手法では、健常者と疾患者を適切に判別を行うために温度閾値を適切に設定する過程が必要であり、温度閾値を適切に設定するには経験が必要であると言われていた。
 また、従来は、被測定者が疾患者であることを正確に判別できなかったので、被測定者が実際は疾患者であるにも関わらず、健常者と判別する率が高ければ、健常者と判別された疾患者が施設内に入ることがあった。
 そして、従来の赤外線カメラを用いた疾患者判別システムでは、顔の熱画像内の最高温度値が温度閾値を超えたらアラームを発生させていた。しかし、体表温は個体差が大きく、固定した温度閾値を用いると、健常者であっても疾患者として誤判定し、アラームの頻発で運用現場が混乱することがあった。これを回避するため、温度閾値を上げすぎると、疾患者をスクリーニングできず通過させてしまうという問題があった。さらに、体表温は外気温の影響を受けやすく、外気温に応じてユーザーが適切な温度閾値に変更しなければならず、手間がかかっていた。
 図14は、本発明の第1の実施形態に係る温度パターンを用いた健常者と疾患者の判別結果を示す一覧表である。図14においても、事前にユーザーが入力したユーザー判別結果を「被測定者(入力)」と表現する。そして、第1の実施形態に係る手法によって出力される被測定者の判別結果を「判別結果(出力)」と表現する。
 第1の実施形態に係る手法を用いると、従来行われていた温度閾値の設定は不要となる。そして、同じ実験データに対して、疾患者誤判別率は10.3%と同等であるが、健常者誤判別率は0%となる。このため、第1の実施形態に係る手法を用いることで、従来の手法で適切な温度閾値を用いて健常者と疾患者を判別する場合と比べて優位な結果が得られた。
 このため、本実施の形態に係る手法により、健常者と疾患者を判別する精度が従来の手法よりも向上した。このため、疾患者判別装置2は、被測定者が疾患者であることを確実に判別し、施設内への立ち入りを制限することが可能となる。
 以上説明した第1の実施の形態に係る疾患者判別システム100では、疾患者と健常者の顔の温度パターンが異なることに着目し、機械学習モデルに学習させた学習済モデルを用いて疾患者と健常者を判別できるようにした。ここで、疾患者と健常者の顔の温度パターンは、例えば、目頭、鼻尖、鼻の横、頬等で異なる。このため、疾患者判別装置2は、体表温測定装置1が測定した目頭、鼻尖、鼻の横、頬等の各部位の温度パターンを算出し、予め学習された学習済モデルを適用して疾患者と健常者を容易に正しく判別することが可能となる。このため、判別結果を使用して被測定者の施設への入退を管理することが可能となる。
 従来のような温度閾値により疾患者と健常者を判別する方法に比べて、本実施の形態では、算出された温度パターンに学習済モデルを適用することで、被測定者の体表温の個体差や、被測定者が滞在していた場所の外気温にかかわらず、疾患者判別装置2が疾患者と健常者を判別でき、疾患者の誤判別が減少する。また、被測定者の性別や年齢によって適切な温度閾値を設定することが難しかったのに対し、本実施の形態では、疾患者と健常者の温度パターンの違いを利用するため、温度閾値等の微妙な設定が不要となって運用が容易となる。
 また、温度パターンを機械学習モデルで学習し、蓄積した学習結果を学習済モデルとすることで、様々な疾患による疾患者と健常者を判別することが可能となる。また、被測定者が、子供か大人かの違い、性別の違い、国籍の違いなどによって異なる学習済モデルを生成することも可能である。さらに、気温などの運用場所の条件によって異なる学習モデルを生成することも可能である。このため、疾患者判別装置2が疾患者と健常者を判別する精度も向上する。
 また、発症前、すなわち被測定者の体表温が上昇する前でも温度パターンで示される温度変化は、発症後と同じ傾向を示しやすい。このため、疾患者判別装置2は、温度パターンに学習済モデルを適用することで、発症前の被測定者であっても、疾患者として判別することができる。このように疾患者判別装置2は、被測定者が疾患者であることを高い確率で判定することが可能となる。そして、疾患者判別装置2は、発症前の被測定者が疾患者である可能性を表示部25に表示し、ユーザーに注意喚起することもできる。
 また、被測定者の顔の複数箇所が、特定部位として決定され、疾患者と健常者の特定部位における温度の相対的な変化が温度パターンとして用いられる。また、被測定者の特定の部位の温度パターンが分かればよいため、頭髪、マスクや眼鏡等の被覆部により顔の一部が被覆され、被覆部により隠れた部位の温度を取得できなくても、疾患者判別装置2は、隠れていない他の特定の部位により温度パターンを算出し、疾患者と健常者を判別することが可能となる。
 また、疾患者と健常者の顔の温度パターンは、温度パターン学習部27により更新される。このため、目頭、鼻尖、鼻の横、頬以外の部位が特定部位として選ばれ、選ばれた特定部位に関する温度パターンにより学習済モデルが更新される。そこで、疾患者判別装置2は、更新された学習済モデルを用いて、インフルエンザウイルス以外の様々な感染症や体調不良等による疾患者を判別することも可能となる。
 なお、温度パターンは、被測定者の顔を水平に横切る領域に含まれる特定部位毎の温度正規化値に限らない。例えば、被測定者の顔を垂直又は斜めに横切る領域に含まれる特定部位毎の温度正規化値の温度パターンでもよい。また、被測定者の顔を真っ直ぐに横切る領域に含まれない特定部位の組合せから温度パターンを求めてもよい。例えば、図8に示した目頭40aと、図9に示した頬40dの組合せから温度パターンを求め、これらの特定部位の温度パターンを適用して被測定者の判別を行ってもよい。
 また、特定部位間の温度パターンに特徴があることを説明するために、図6~図9を用いて健常者と疾患者の体表温を正規化した例を示した。しかし、疾患者判別装置2における実際の疾患者判別過程、学習過程において、正規化の処理を不要としてよい。
 また、疾患者判別装置2は、従来のように体表温が温度閾値以上である被測定者を疾患者と判別する処理を併用してもよい。
 また、温度パターン学習部27は、特定部位毎の体表温の関係性を学習するだけでなく、被測定者の体表温そのものを学習してもよい。このため、温度パターン学習部27は、被測定者の体表温の絶対値を学習することができる。そして、被測定者判別部24は、体表温の絶対値についても、被測定者が健常者又は疾患者のいずれであるかを判別するための判定基準として用いることができる。
[第2の実施の形態]
 ところで、上述した第1の実施の形態に係る疾患者判別装置2は、被測定者の顔が全て露出していることを前提とし、主に被測定者の顔に着目して、顔の温度分布を学習し、学習モデルを生成するものであった。しかし、被測定者は、メガネをかけたり、眼帯を付けたり、感染症対策のためマスクを付けたりすることがある。このため、メガネ、マスク、眼帯等の被覆部により、被測定者の特定部位の一部が覆われる面積が大きいと、顔の温度分布を正しく求めることができないことがある。この場合、疾患者判別装置2は、被測定者が健常者又は疾患者のいずれであるかを判別することが困難になることが予想される。
 そこで、第2の実施の形態に係る疾患者判別装置は、被測定者の顔表面だけでなく、首部分の体表温を含めて、被測定者が健常者又は疾患者のいずれであるかを判別する。以下、本発明の第2の実施の形態に係る疾患者判別装置について、図15~図17を参照して説明する。
 第2の実施の形態に係る体表温測定装置1の構成は、第1の実施の形態に係る体表温測定装置1の構成と同じである。
 第2の実施の形態に係る制御部13(図1を参照)は、疾患者判別装置2に温度データを出力する。この温度データには、被測定者の顔における特定部位を含む被測定者の顔全体及び首を撮影した熱画像、又は特定部位毎に測定された特定部位の温度が含まれる。ここで、第2の実施の形態に係る特定部位としては、マスクやメガネ等の被覆部の影響が少ない部位も含まれる。例えば、首などの動脈が通る位置や心臓に近い位置の部位が特定部位として選ばれる。そこで、第2の実施の形態に係る特定部位の少なくとも1つは、被測定者の目頭、鼻尖、鼻の横、頬、顎、耳、手、頭髪部を除く頭、こめかみ及び首のうち、少なくとも首を含むいずれかである。このため、第2の実施の形態では、首の温度を表す温度データが、温度データの一群に含まれる。
 また、特定部位判定部21は、体表温測定装置1から入力する温度データに基づいて、被測定者の露出部分における特定部位を判定する。温度データは、体表温測定装置1が被測定者の顔及び首を撮影した熱画像を含む。ここで、第2の実施の形態に係る特定部位判定部21は、被測定者の首を特定部位として判定する必要がある。ただし、被測定者が襟のある服を着用していると、首前面の一部しか見えないことが予想される。この場合、襟のない部分(顔正面の下側)に測定領域を作成し、この測定領域内における最大値を、首の温度として取得する。
 そこで、特定部位判定部21は、被測定者の顔が正面を向いた場合にのみ、顔及び首を検出することが可能なアルゴリズムを使用して、顔正面を判定する。この際、特定部位判定部21は、熱画像に基づき、顔正面を構成する顔パーツ(例えば、顔の輪郭、顎)の位置合わせを行う。さらに、特定部位判定部21は、被測定者の顔が、体表温測定装置1が撮影する方向に合わせた正面にあることを判定して熱画像から特定部位を判定する。この際、特定部位判定部21は、顔の下に作成した測定領域内の温度値を首の温度として捉える。
 図15は、被測定者の首部分を含む体表温の測定結果の例を示す図である。図15には、被測定者の熱画像P3が表示される。この被測定者は、顔の一部がマスク等の被覆部に覆われていない状態で体表温が測定されたものとする。被測定者の顔及び首の体表温が同程度であることが、熱画像P3から示される。
 第2の実施の形態に係る疾患者判別装置2が、健常者と疾患者を判別するために着目する箇所は、被測定者の鎖骨の高さから前額部までの頭頸部とする。次に、特定部位判定部21は、被測定者の顔が正面を向いていることを検出すると、被測定者の鎖骨から顎の間に測定領域45を設定する。そして、特定部位判定部21は、測定領域45内の温度を、首の温度として取得する。また、特定部位判定部21は、被覆部で被覆されていない被測定者の顔から、露出している特定部位を判定する。
 図16は、被測定者の頭、こめかみ及び首の温度パターンを示すグラフである。このグラフでは、横軸に被測定者の特定部位(頭、こめかみ及び首)を示し、縦軸に特定部位ごとの正規化値を示す。既に図6のグラフを参照して説明したように、特定部位ごとの体表温は、0~1.0の範囲内で正規化される。
 図16のグラフより、被測定者の頭(例えば、前額部)では、健常者の正規化値が、疾患者の正規化値より低いことが示される。
 また、被測定者のこめかみでは、健常者の正規化値と、疾患者の正規化値とがほぼ等しいことが示される。
 また、被測定者の首では、健常者の正規化値が、疾患者の正規化値より高いことが示される。
 このように、被測定者の鎖骨の高さから前額部までの頭頸部において、健常者の正規化値で表される温度パターンと、疾患者の正規化値で表される温度パターンとは明確に異なる。また、被測定者の首の箇所では、特に正規化値が異なるので、頭とこめかみの正規化値だけで健常者又は疾患者を判別する場合に比べて、判別精度が向上することが予想される。
 そこで、図3に示したように、温度パターン算出部22は、体表温測定装置1から入力する温度データに基づいて、特定部位判定部21により判定された首を含む特定部位から温度データを抽出し、図16のグラフで表される複数の特定部位の温度パターンを求める。この温度パターンは、被測定者判別部24と、温度パターン学習部27に出力される。
 被測定者判別部24は、算出された温度パターンに、記憶部23から読出した予め学習した学習済モデルを適用して、被測定者が疾患者又は健常者のいずれであるかを判別する。被測定者判別部24の判別結果は、表示部25に出力される。
 温度パターン学習部27は、入力部26から入力されたユーザー判別結果と、被測定者判別部24で用いられた、温度パターン算出部22の出力である温度パターンとに基づいて、機械学習モデルにより学習した学習済モデルを生成する。そして、温度パターン学習部27は、記憶部23に記憶させた学習済みモデルを更新する。
 図17は、本発明の第2の実施形態に係る温度パターンを用いた健常者と疾患者の判別結果を示す一覧表である。図17においても、事前にユーザーが入力したユーザー判別結果を「被測定者(入力)」と表現する。そして、第2の実施形態に係る手法によって出力される被測定者の判別結果を「判別結果(出力)」と表現する。
 第2の実施形態に係る手法を用いても、従来行われていた温度閾値の設定は不要となる。そして、図10に示した従来の温度閾値を用いる手法に対して、疾患者誤判別率は10.3%から6.9%に下がるが、健常者誤判別率は1.5%から1.9%のようにほぼ同じ値である。しかし、疾患者判別率は、89.7%から93.1%に上がる。このため、第2の実施形態に係る手法を用いることで、従来の温度閾値を用いて健常者と疾患者を判別する手法と比べて優位な結果を得られる。すなわち、第2の実施の形態に係る手法により、健常者と疾患者を判別する精度が従来の手法よりも向上した。この結果、疾患者判別装置2は、被測定者が疾患者であることを確実に判別し、施設内への立ち入りを制限することが可能となる。
 以上説明した第2の実施の形態に係る体表温測定装置1では、顔だけでなく、少なくとも首を含む特定部位の温度正規化値の分布を学習データに使用することで、マスクやメガネ等の被覆部の影響を小さくできる機械学習モデルを作成する。そして、この体表温測定装置1は、事前に学習した機械学習モデルを活用することで、被覆部の形状により、被測定者の顔が隠れる特定部位が被測定者ごとに異なるケースであっても、被測定者を高精度に健常者又は疾患者のいずれかに判別することが可能となる。
 また、首以外にも特定部位を求めてもよい。例えば、特定部位として、被測定者の手の指が想定される。被測定者の身体のうち、露出している部位であれば、特定部位の候補として採用されうる。
 また、第1の実施の形態に係る体表温測定装置1においても、被測定者の顔画像を水平に横切る領域に含まれる特定部位毎の温度正規化値の温度パターンに限らず、温度パターンを算出してよい。第1の実施の形態に係る体表温測定装置1は、例えば、第2の実施の形態に係る手法と同様に、様々な部位の温度正規化値又は温度の組み合わせから判明した温度パターンを用いて、被測定者を高精度に健常者又は疾患者のいずれかに判別してもよい。
[第3の実施の形態]
 次に、本発明の第3の実施の形態に係る疾患者判別装置について、図18を参照して説明する。
 図18は、疾患者判別装置2Aの内部構成例を示すブロック図である。
 疾患者判別装置2Aは、図1に示した体表温測定装置1の各機能部と、図3に示した疾患者判別装置2の各機能部を組み合わせて一体化したものである。ここで、レンズ10、検出素子11及びセンサ11a、A/D変換部12、制御部13をまとめて体表温測定部16と呼ぶ。そして、体表温測定部16の制御部13は、温度データを特定部位判定部21に出力する。特定部位判定部21、温度パターン算出部22及び被測定者判別部24の処理は、第1の実施の形態に示した処理と同様である。
 なお、疾患者判別装置2Aは、表示部14Aと操作部15Aを備える。
 表示部14Aは、第1の実施の形態に係る表示部14と同様に、制御部13から出力された画像データに基づいて熱画像を表示する。また、表示部14Aは、第1の実施の形態に係る表示部25と同様に、被測定者の判別結果、又は被測定者が疾患者である可能性を表示することもできる。
 操作部15Aは、第1の実施の形態に係る操作部15と同様に、制御部13に対して測定対象物の絶対温度を出力させる指示を入力する。また、操作部15Aは、第1の実施の形態に係る入力部26と同様に、疾患者判別装置2Aを使用するユーザーが表示部14Aに表示された内容を確認して入力する、被測定者が健常者又は疾患者のいずれであるかの判別結果を受け付け、温度パターン学習部27に判別結果を出力することもできる。
 以上説明した第3の実施の形態に係る疾患者判別装置2Aでは、1台の装置で熱画像の処理と、被測定者の判別とを行うことができる。このため、疾患者判別装置2Aを軽量化、小型化し、持ち運び容易となる。
[第4の実施の形態]
 次に、本発明の第4の実施の形態に係る疾患者判別システムについて、図19と図20を参照して説明する。
 熱画像を表示可能な表示部14を備える体表温測定装置1は、非常に高価である。しかし、温度パターンを用いて疾患者と健常者を判別する技術は、様々な環境で用いられる可能性があり、体表温測定装置1を安価、かつ持ち運び容易とすることが求められる。そこで、本実施の形態に係る疾患者判別システムでは、表示部を備えない非接触の体表温測定装置を用いても疾患者と健常者を判別することを可能な構成とした。
 図19は、疾患者判別システム100Aの内部構成例を示すブロック図である。
 疾患者判別システム100Aは、体表温測定装置1A、疾患者判別装置2B及び学習サーバ7を備える。
 体表温測定装置1Aは、図1に示した体表温測定装置1からレンズ10、表示部14を除いた構成とする。そして、検出素子11は、一つのセンサ11aを有する。例えば、体表温測定装置1Aの外形を、ペン型に構成することで、ユーザーは、体表温測定装置1Aを被測定者の特定部位に近づけて、特定部位の温度を測定することが可能である。ユーザー、体表温測定装置1A、疾患者判別装置2B及び学習サーバ7は、予め定められた特定部位の測定順を把握しているものとする。ユーザーが体表温測定装置1Aを使用して予め定められた測定順で体表温測定装置が被測定者の特定部位から測定した温度を含む温度データが、測定順に疾患者判別装置2Bに出力される。なお、温度データは、体表温測定装置1Aが特定部位を測定する度に出力されてもよいし、一人の被測定者に対して全ての特定部位を測定した後にまとめて出力されてもよい。
 なお、体表温測定装置1Aに、測定した特定部位の温度を表示する液晶表示装置等を表示部として設けてもよい。そして、液晶表示装置には、測定する特定部位の名称等を、測定順に表示してもよい。例えば、ユーザーは、体表温測定装置1Aを用いて特定部位の温度を測定する度に操作部15を押す等の操作により、特定部位の温度測定が終了したことを入力する。そして、操作部15が押されると、次に測定すべき特定部位の名称等を液晶表示装置に表示してもよい。
 疾患者判別装置2Bは、体表温測定装置1Aから特定部位の温度データを取得可能である。また、疾患者判別装置2Bは、ネットワークNを通じて学習サーバ7との間でデータを送受信することが可能である。疾患者判別装置2Bから学習サーバ7には、体表温測定装置1Aが取得した特定部位の温度データ、ユーザーが疾患者判別装置2Bから入力したユーザー判別結果が送信される。また、疾患者判別装置2Bは、学習サーバ7から学習済みモデルのデータを受信する。
 学習サーバ7は、通信部71、温度パターン学習部72及び記憶部73を備える。この学習サーバ7は、疾患者判別装置2Bから受信した被測定者の特定部位の温度データと、ユーザー判別結果を入力として学習した学習済モデルを疾患者判別装置2Bに出力することが可能である。
 通信部71は、ネットワークNを介して疾患者判別装置2Bに接続可能である。そして、通信部71は、疾患者判別装置2Bから被測定者の特定部位の温度データと、ユーザー判別結果を受信する。また、通信部71は、記憶部73から読出した学習済モデルを疾患者判別装置2Bに送信する。
 温度パターン学習部72は、通信部71が疾患者判別装置2Bから受信した特定部位の温度データ、及びユーザーにより入力されたユーザー判別結果に基づいて、温度パターンを学習して得た学習結果から学習済モデルを生成し、更新する。温度パターン学習部72で行われる学習処理は、第1の実施の形態に係る疾患者判別装置2の温度パターン学習部27で行われた学習処理と同様である。そして、温度パターン学習部72は、学習済モデルを記憶部73に保存する。
 記憶部73には、温度パターン学習部72が学習した学習済モデルが記憶される。上述したように、通信部71が記憶部73から読出した学習済モデルは、ネットワークNを介して疾患者判別装置2Bに送信される。
 図20は、疾患者判別装置2Bの内部構成例を示すブロック図である。
 疾患者判別装置2Bは、図3に示した疾患者判別装置2から特定部位判定部21と温度パターン学習部27を除いた構成としている。そして、疾患者判別装置2Bは、学習サーバ7と通信可能な通信部28を備える。
 温度パターン算出部22は、ユーザーが体表温測定装置1Aを操作して、規定の測定順で測定した特定部位の温度の温度正規化値を温度パターンとして算出する。温度パターン算出部22が算出した温度パターンは、被測定者毎に整形されたものとなる。
 通信部28は、温度パターン算出部22が算出した温度パターンと、ユーザーが入力部26を通じて入力したユーザー判別結果を学習サーバ7に送信する。また、通信部28は、学習サーバ7から学習済モデルを受信し、記憶部23に保存する。
 記憶部23には、通信部28が学習サーバ7から受信した学習済モデルが記憶される。学習済モデルは、被測定者判別部24によって記憶部23から適宜読出され、被測定者の判別に用いられる。
 以上説明した第4の実施の形態に係る疾患者判別システム100Aでは、被測定者の特定部位毎に温度を測定可能な体表温測定装置1Aを備える。ユーザーは、1台の体表温測定装置1Aを、被測定者の複数の特定部位に規定の測定順で近づけて、各特定部位の温度を順に得る。また、学習サーバ7が温度パターンの機械学習を行って得た、適正な学習済モデルを疾患者判別装置2Bに与える。このため、疾患者判別装置2Bは、学習サーバ7から受け取った学習済モデルを温度パターンに適用して疾患者と健常者を判別することができる。本実施の形態では、CPU31(図4を参照)に多大な負荷がかかる温度パターンの学習を学習サーバ7が行うことで、疾患者判別装置2Bのスペックを下げることができる。また、体表温測定装置1Aは、表示部14を備えないので、体表温測定装置1Aを小型化することができる。
 このように疾患者判別装置2Bは、熱画像を入力としなくても、体表温測定装置1Aから特定部位毎に測定された体表温のデータを入力とすることで、疾患者と健常者を判別することが可能となる。
 また、学習サーバ7は、複数の体表温測定装置1Aから温度パターン及びユーザー判別結果を取得することで、異なる地域で測定された被測定者の体表温に合わせた温度パターンを学習することができる。このため、温度パターンの精度が高まり、この温度パターンを用いて判別される疾患者と健常者の判別結果の精度も高まる。
[第5の実施の形態]
 次に、本発明の第5の実施の形態に係る疾患者判別システムで用いられる疾患者判別装置について、図21を参照して説明する。本実施の形態に係る疾患者判別装置は、熱画像を出力する体表温測定装置から入力する熱画像の画素毎の温度を温度パターンとして求めて、被測定者の判別を行う。
 図21は、疾患者判別装置2Cの内部構成例を示すブロック図である。
 疾患者判別装置2Cは、図3に示した疾患者判別装置2から特定部位判定部21を除いた構成としている。また、疾患者判別装置2Cは、体表温測定装置1に接続されて、第5の実施の形態に係る疾患者判別システムを構成する。
 温度パターン算出部22Aに体表温測定装置1から入力される温度データは、体表温測定装置が被測定者を撮影した熱画像全体を含む。温度パターン算出部22Aは、第1の実施の形態に係る特定部位判定部21と同様に、顔の熱画像に基づいて、顔を構成する顔パーツの位置合わせを行う機能を有する。このため、温度パターン算出部22Aは、熱画像全体の温度データに基づいて、顔を構成する顔パーツの位置合わせを行って熱画像の画素毎に抽出した温度データを温度パターンとして算出する。温度パターン算出部22Aが算出した温度パターンは、被測定者判別部24及び温度パターン学習部27に出力される。
 記憶部23、被測定者判別部24、表示部25、入力部26及び温度パターン学習部27の動作は、図3に示した疾患者判別装置2における各部の動作と同様であるため、詳細な説明を省略する。
 以上説明した第5の実施の形態に係る疾患者判別システムでは、疾患者判別装置2Cに入力される熱画像の画素毎に算出された温度パターンに基づいて被測定者が、健常者又は疾患者のいずれであるかが判別される。このため、熱画像から被測定者の特定部位を判定する処理が不要となり、熱画像を取得して、被測定者を判別するまでの処理を少なくすることができる。
 また、第5の実施の形態に係る疾患者判別装置2Cにおいて、温度パターン算出部22Aは、被測定者の顔及び首が撮影された熱画像全体の温度データに基づいて、顔を構成する顔パーツの位置合わせを行う。さらに、温度パターン算出部22Aは、被測定者の顔が、体表温測定装置1が撮影する方向に合わせた正面にあることを判定することで、熱画像の画素毎に抽出した温度データを温度パターンとして算出してもよい。温度パターン算出部22Aが算出した温度パターンは、被測定者判別部24及び温度パターン学習部27に出力される。疾患者判別装置2Cにおける記憶部23、被測定者判別部24、表示部25、入力部26及び温度パターン学習部27の動作は、図3に示した疾患者判別装置2における各部の動作と同様である。
[変形例]
 なお、体表温測定装置としては、複数台の非接触温度計(放射温度計)を用いてもよい。そして、複数台の非接触温度計により、被測定者の複数の特定部位を同時に測定することで、被測定者毎に特定部位の温度を得て、温度正規化値を求めてもよい。
 また、第3~第5の実施の形態に係る体表温測定装置においても、第2の実施の形態に係る体表温測定装置で測定対象とした、被測定者の首の温度を特定部位に含めてもよい。この際、温度パターン学習部27は、被測定者の首と、首以外の特定部位との温度パターンに基づいて、機械学習を行い、学習済みモデルを更新することができる。また、被測定者判別部24は、この学習済みモデルを、被測定者の首と、首以外の特定部位の温度パターンに適用することで、被測定者が健常者又は疾患者のいずれであるかを判別することができる。
 また、本発明は上述した各実施の形態に限られるものではなく、請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
 例えば、上述した実施の形態は本発明を分かりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施の形態の構成の一部を他の実施の形態の構成に置き換えることは可能であり、さらにはある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 1…体表温測定装置、2…疾患者判別装置、13…制御部、14…表示部、15…操作部、21…特定部位判定部、22…温度パターン算出部、23…記憶部、24…被測定者判別部、25…表示部、26…入力部、27…温度パターン学習部、40…顔の熱画像、50,60…温度パターン、100…疾患者判別システム

Claims (13)

  1.  被測定者の体表温を測定する体表温測定装置から入力する温度データに基づいて、前記被測定者の露出部分における温度から温度パターンを算出する温度パターン算出部と、
     算出された前記温度パターンに、予め学習した学習済モデルを適用して、前記被測定者が疾患者又は健常者のいずれであるかを判別する被測定者判別部と、を備える
     疾患者判別装置。
  2.  さらに、前記温度データに基づいて、前記被測定者の露出部分における特定部位を判定する特定部位判定部を備え、
     前記温度パターン算出部は、複数の前記特定部位から収集した前記温度データの一群で表される前記温度パターンを算出する
     請求項1に記載の疾患者判別装置。
  3.  前記特定部位の少なくとも1つは、前記被測定者の目頭、鼻尖、鼻の横、頬、顎、耳、手、頭髪部を除く頭、こめかみ及び首のうちいずれかである
     請求項2に記載の疾患者判別装置。
  4.  前記温度データは、前記体表温測定装置が前記被測定者の顔を撮影した熱画像を含み、
     前記特定部位判定部は、前記熱画像に対して、顔を構成する顔パーツの位置合わせを行って前記熱画像から前記特定部位を判定し、
     前記温度パターン算出部は、判定された前記特定部位から前記温度データを抽出し、複数の前記特定部位の前記温度パターンを求める
     請求項3に記載の疾患者判別装置。
  5.  前記温度データは、前記体表温測定装置が前記被測定者の顔を撮影した熱画像を含み、
     前記温度パターン算出部は、顔を構成する顔パーツの位置合わせを行って前記熱画像の画素毎に抽出した前記温度データを前記温度パターンとして算出する
     請求項3に記載の疾患者判別装置。
  6.  前記温度データは、前記体表温測定装置が前記被測定者の顔及び首を撮影した熱画像を含み、
     前記特定部位判定部は、前記熱画像に基づき、顔を構成する顔パーツの位置合わせを行い、かつ、前記被測定者の顔が、前記体表温測定装置が撮影する方向に合わせた正面にあることを判定して前記熱画像から前記特定部位を判定し、
     前記温度パターン算出部は、判定された前記特定部位から前記温度データを抽出し、複数の前記特定部位の前記温度パターンを求める
     請求項3に記載の疾患者判別装置。
  7.  前記温度データは、前記体表温測定装置が前記被測定者の顔及び首を撮影した熱画像を含み、
     前記温度パターン算出部は、前記熱画像に基づき、顔を構成する顔パーツの位置合わせを行い、かつ、前記被測定者の顔が、前記体表温測定装置が撮影する方向に合わせた正面にあることを判定して前記熱画像の画素毎に抽出した前記温度データを前記温度パターンとして算出する
     請求項3に記載の疾患者判別装置。
  8.  さらに、前記学習済モデルを記憶する記憶部を備え、
     前記被測定者判別部は、前記記憶部から読出した前記学習済モデルに基づいて、前記被測定者を判別する
     請求項2に記載の疾患者判別装置。
  9.  さらに、表示部を備え、
     前記被測定者判別部は、前記被測定者判別部による判別結果、又は前記被測定者が前記疾患者である可能性を前記表示部に表示する
     請求項8に記載の疾患者判別装置。
  10.  さらに、前記被測定者が健常者又は疾患者のいずれであるかのユーザー判別結果が入力される入力部と、
     前記ユーザー判別結果と、前記被測定者判別部で用いられた前記温度パターンとに基づいて、機械学習モデルにより学習した前記学習済モデルを生成する温度パターン学習部とを備える
     請求項9に記載の疾患者判別装置。
  11.  前記温度データは、予め定められた測定順で前記体表温測定装置が前記被測定者の特定部位から測定した温度を含み、
     前記温度パターン算出部は、前記測定順で測定された前記特定部位の前記温度を前記温度パターンとして算出する
     請求項1に記載の疾患者判別装置。
  12.  疾患者判別装置と、学習サーバとを備える疾患者判別システムであって、
     前記疾患者判別装置は、
     被測定者の体表温を測定する体表温測定装置から入力する温度データに基づいて、前記被測定者の露出部分における温度から温度パターンを算出する温度パターン算出部と、
     算出された前記温度パターンに、予め学習された学習済モデルを適用して、前記被測定者が疾患者又は健常者のいずれであるかを判別する被測定者判別部と、を有し、
     前記学習サーバは、
     機械学習モデルにより前記温度パターンを学習して前記学習済モデルを生成する温度パターン学習部を有する
     疾患者判別システム。
  13.  前記疾患者判別装置は、前記被測定者が健常者又は疾患者のいずれであるかのユーザー判別結果が入力される入力部を有し、
     前記温度パターン学習部は、前記ユーザー判別結果と、前記被測定者判別部で用いられた前記温度パターンとに基づいて、前記学習済モデルを生成する
     請求項12に記載の疾患者判別システム。
PCT/JP2020/036787 2019-10-04 2020-09-29 疾患者判別装置及び疾患者判別システム WO2021065853A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021551281A JP7344520B2 (ja) 2019-10-04 2020-09-29 疾患者判別装置及び疾患者判別システム
US17/763,506 US20220346651A1 (en) 2019-10-04 2020-09-29 Diseased person distinguishing device and diseased person distinguishing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-183691 2019-10-04
JP2019183691 2019-10-04

Publications (1)

Publication Number Publication Date
WO2021065853A1 true WO2021065853A1 (ja) 2021-04-08

Family

ID=75336419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/036787 WO2021065853A1 (ja) 2019-10-04 2020-09-29 疾患者判別装置及び疾患者判別システム

Country Status (3)

Country Link
US (1) US20220346651A1 (ja)
JP (1) JP7344520B2 (ja)
WO (1) WO2021065853A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067973A1 (ja) * 2021-10-19 2023-04-27 パナソニックIpマネジメント株式会社 深部体温推定装置、深部体温推定方法、及び、プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11885687B2 (en) * 2021-04-23 2024-01-30 Veoneer Us, Llc Vehicle elevated body temperature identification
US20220395234A1 (en) * 2021-06-11 2022-12-15 Kyndryl, Inc. Determination of separation distance from thermal and acoustic input
WO2024107808A1 (en) * 2022-11-16 2024-05-23 Becton, Dickinson And Company Thermal machine readable code

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180699A (ja) * 1991-12-27 1993-07-23 Hamamatsu Photonics Kk 画像処理用マーカーとそのマーカーを用いた画像処理装置及び画像処理方法
JP2012034839A (ja) * 2010-08-06 2012-02-23 Tokyo Univ Of Agriculture & Technology 精神疾患判定装置、方法、及びプログラム
JP2014135993A (ja) * 2013-01-16 2014-07-28 Nippon Avionics Co Ltd 体温測定装置、体温測定方法及び体温管理システム
US20190192010A1 (en) * 2017-12-22 2019-06-27 Viraj Mane Detection of flu using thermal imaging
US20190216333A1 (en) * 2018-01-12 2019-07-18 Futurewei Technologies, Inc. Thermal face image use for health estimation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2598245B (en) * 2016-10-14 2022-09-28 Facense Ltd Clip-on device with inward-facing visible-light camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180699A (ja) * 1991-12-27 1993-07-23 Hamamatsu Photonics Kk 画像処理用マーカーとそのマーカーを用いた画像処理装置及び画像処理方法
JP2012034839A (ja) * 2010-08-06 2012-02-23 Tokyo Univ Of Agriculture & Technology 精神疾患判定装置、方法、及びプログラム
JP2014135993A (ja) * 2013-01-16 2014-07-28 Nippon Avionics Co Ltd 体温測定装置、体温測定方法及び体温管理システム
US20190192010A1 (en) * 2017-12-22 2019-06-27 Viraj Mane Detection of flu using thermal imaging
US20190216333A1 (en) * 2018-01-12 2019-07-18 Futurewei Technologies, Inc. Thermal face image use for health estimation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067973A1 (ja) * 2021-10-19 2023-04-27 パナソニックIpマネジメント株式会社 深部体温推定装置、深部体温推定方法、及び、プログラム

Also Published As

Publication number Publication date
JP7344520B2 (ja) 2023-09-14
US20220346651A1 (en) 2022-11-03
JPWO2021065853A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
WO2021065853A1 (ja) 疾患者判別装置及び疾患者判別システム
JP7083809B2 (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
KR102322029B1 (ko) 생체 정보 획득 방법 및 이를 위한 장치
KR102133943B1 (ko) 시니어의 건강을 위한 홈 헬스케어 제공방법 및 제공장치
JP7063818B2 (ja) Cpr支援装置および患者の胸部圧迫深度を決定するための方法
US20150320343A1 (en) Motion information processing apparatus and method
JP7061551B2 (ja) 状態判定システム
US20210401298A1 (en) Remote portable vital signs monitoring
Chauvin et al. Contact-free respiration rate monitoring using a pan–tilt thermal camera for stationary bike telerehabilitation sessions
CN107077214A (zh) 用于在医院中使用的通信的方法和***
Ruminski et al. The data exchange between smart glasses and healthcare information systems using the HL7 FHIR standard
CN108882853A (zh) 使用视觉情境来及时触发测量生理参数
Lopez et al. Statistical Validation for Clinical Measures: Repeatability and Agreement of Kinect™‐Based Software
Scebba et al. Multispectral camera fusion increases robustness of ROI detection for biosignal estimation with nearables in real-world scenarios
US20220409120A1 (en) Information Processing Method, Computer Program, Information Processing Device, and Information Processing System
JP2021135592A (ja) 個体推定装置、個体推定方法、およびプログラム
JP2022134289A (ja) 疾患者判別装置及び疾患者判別システム
JP7388199B2 (ja) 生体情報収集システム、生体情報収集方法及びプログラム
Logan et al. From individual features to full faces: Combining aspects of face information
Hanawa et al. Nasal cavity detection in facial thermal image for non-contact measurement of breathing
TW202143908A (zh) 多參數生理訊號量測方法
CA3084779A1 (en) Remote portable vital signs monitoring
JP2020124367A (ja) 身体健康状態映像分析装置、方法並びにシステム
KR102570982B1 (ko) 비접촉 생체정보 측정 방법
WO2022201379A1 (ja) 制御装置、コンピュータプログラムおよび非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20870888

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021551281

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20870888

Country of ref document: EP

Kind code of ref document: A1