WO2021210454A1 - 個人識別システム及び個人識別プログラム - Google Patents

個人識別システム及び個人識別プログラム Download PDF

Info

Publication number
WO2021210454A1
WO2021210454A1 PCT/JP2021/014650 JP2021014650W WO2021210454A1 WO 2021210454 A1 WO2021210454 A1 WO 2021210454A1 JP 2021014650 W JP2021014650 W JP 2021014650W WO 2021210454 A1 WO2021210454 A1 WO 2021210454A1
Authority
WO
WIPO (PCT)
Prior art keywords
individual
personal identification
information
temperature information
identification system
Prior art date
Application number
PCT/JP2021/014650
Other languages
English (en)
French (fr)
Inventor
卓男 姚
健太郎 佐野
大平 昭義
佐知 田中
浩平 京谷
優佑 円谷
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2021210454A1 publication Critical patent/WO2021210454A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Definitions

  • the present invention relates to a personal identification system and a personal identification program.
  • the identification device of Patent Document 1 detects, for example, a guardian in a house.
  • the identification device of Patent Document 1 identifies a person by comparing the feature amount calculated from the image of the person with the feature amount registered in the database in advance.
  • the admission management system of Patent Document 2 manages the hygienic behavior of a person entering a clean room.
  • the entrance management system of Patent Document 2 acquires a fingerprint of a person through a fingerprint authentication sensor attached to a cleaning tool, and reads an RFID tag carried by the person through a receiver arranged near an air shower.
  • Patent Document 1 calculates a human feature amount from an image. Therefore, the photographed person is concerned whether or not his / her privacy is protected. This is because if the face, clothes, confidential information, etc. are reflected in the video, there is a risk that these important personal information will be leaked.
  • the admission management system of Patent Document 2 acquires fingerprints and RFID. Compared to video, fingerprints and RFID do not contain the above-mentioned personal information, so there is less burden on privacy, but on the other hand, it takes time and effort for people to bring their fingers into contact with the fingerprint authentication sensor and always carry RFID tags. Will be. Therefore, it is an object of the present invention to identify individual characteristics with a light burden in consideration of privacy.
  • the personal identification system of the present invention outputs a feature acquisition device that acquires two-dimensional temperature information of an individual as a subject, a personal identification device that identifies the individual characteristics from the acquired temperature information, and the identified individual characteristics. It is characterized by including a presentation device. Other means will be described in the form for carrying out the invention.
  • the first embodiment is an example of identifying an individual's characteristics based on a person's temperature information.
  • the second embodiment is an example of identifying an individual's characteristics based on human temperature information and other biological information.
  • FIG. 1 is a diagram illustrating a configuration and the like of the personal identification device 1 according to the first embodiment.
  • the personal identification device 1 is a general computer, and includes a central control device 11, an input device 12 such as a mouse and a keyboard, an output device 13 such as a display, a main storage device 14, an auxiliary storage device 15, and a communication device 16. These are connected to each other by a bus.
  • the auxiliary storage device 15 stores the temperature information 31, the learning data 32, and the feature model 33 (all of which will be described in detail later).
  • the learning processing unit 21 and the identification processing unit 22 in the main storage device 14 are programs.
  • the central control device 11 reads these programs from the auxiliary storage device 15 and loads them into the main storage device 14, thereby realizing the functions of the respective programs (details will be described later).
  • the auxiliary storage device 15 may have a configuration independent of the personal identification device 1. Further, each configuration of the personal identification device 1 may be distributed as many independent housings (cloud computers).
  • the personal identification device 1 can communicate with the feature acquisition device 2 and the bulletin board device 3 via the network 4.
  • the bulletin board device 3 may be installed indoors.
  • the personal identification device 1, the feature acquisition device 2, and the bulletin board device 3 constitute a personal identification system.
  • the door 5 separates the space 1 and the space 2.
  • the person (individual) 6 opens the door 5 and enters the space 2.
  • a feature acquisition device 2 is installed near the ceiling above the door 5 on the space 2 side.
  • the feature acquisition device 2 is an infrared array sensor that detects the temperature distribution on the visual field surface (details will be described later).
  • the height of the feature acquisition device 2 from the floor surface is higher than the height of the head of the person 6 from the floor surface. Therefore, the person 6 easily fits within the field of view of the feature acquisition device 2.
  • the user of the personal identification system attaches the feature acquisition device 2 to the frame of the door 5, the ceiling near the door 5, the frame of the entrance / exit of the building, the ceiling of the passage, etc. so as to satisfy this height condition according to the actual situation at the site. Install in.
  • the angle formed by the straight line (optical axis) 7 connecting the center of the visual field surface and the feature acquisition device 2 and the horizontal line 8 is defined as “ ⁇ ”.
  • The angle formed by the straight line (optical axis) 7 connecting the center of the visual field surface and the feature acquisition device 2 and the horizontal line 8 is defined as “ ⁇ ”.
  • the optical axis 7 is neither horizontal nor vertical.
  • is 0 degrees
  • only the space near the ceiling is in the field of view, and it is difficult for the person 6 to be in the field of view.
  • 90 degrees
  • the person 6 surely enters the field of view, but the space in the field of view is narrow, and the person 6 passes through the field of view in an instant.
  • the range of ⁇ of “0 degree ⁇ ⁇ 90 degree” guarantees that the individual characteristics including height, physique (thickness), gait, etc. are surely and stably acquired.
  • the user of the personal identification system arbitrarily sets the value of ⁇ within this range according to the
  • the feature acquisition device 2 acquires temperature information 31 with the person 6 as the subject.
  • the temperature information 31 is sometimes referred to as "thermography".
  • the temperature information 31 is data that two-dimensionally indicates the temperature of the surface of the subject in color (see FIG. 5).
  • the face temperature, body temperature, etc. of the same person 6 are usually the same. Therefore, although the temperature information 31 shows a rough outline of the person 6, it cannot express fine surrounding features. This protects the privacy of the subject 6.
  • the feature acquisition device 2 includes a lens (not shown) and an element.
  • the lens collects this infrared ray and hits the element.
  • the device converts the amount of infrared radiation into temperature.
  • the element include a thermopile element, a thermistor element, and the like.
  • Thermopile devices perform this conversion based on the electromotive force generated between dissimilar metals.
  • the thermistor element performs this conversion based on a change in its own resistance value.
  • (Arrangement of elements) 2 and 3 are views for explaining the arrangement of the elements 41.
  • the elements 41 are regularly arranged in two dimensions in the vertical and horizontal directions on the visual field surface (condensing surface) of the feature acquisition device 2.
  • the array size is preferably 4 ⁇ 4 or more. The larger the array size, the better the temperature resolution.
  • the set (array) 42 of the plurality of elements 41 may be further arranged in two dimensions in the vertical and horizontal directions.
  • a set of 2 ⁇ 2 elements 42 is further arranged in 2 ⁇ 2.
  • 8x8 thermopile elements are used.
  • FIG. 4 is a diagram illustrating the detection of a person.
  • the feature acquisition device 2 has acquired temperature information 31a, 31b, and 31c at continuous time points t1, t2, and t3, respectively.
  • Each of the plurality of temperature information acquired in time series in this way is also called a "frame".
  • the feature acquisition device 2 has 4 ⁇ 4 elements.
  • Each of the frames 31a, 31b and 31c has a 4x4 pixel 51 corresponding to each element.
  • the pixel 51 here changes the color density. Black indicates high temperature and white indicates low temperature.
  • the personal identification device 1 creates a difference between two adjacent frames.
  • the difference 52ab is the difference between the frames 31a and 31b.
  • the difference 52bc is the difference between the frames 31b and 31c.
  • the differences 52ab and 52bc also have 4x4 pixels 51, each pixel 51 holding a difference value.
  • the difference value is the result of subtracting the temperature of the pixel at the time immediately after from the temperature of the pixel at the time immediately before. Pixels change the color density. Black indicates that the temperature is high, and white indicates that the temperature is low. While the value of each pixel 51 of the difference 52ab is small, the pixel 51 having a large difference value exists in the difference 52bc.
  • the personal identification device 1 applies a threshold value to the difference value to detect the passage of the person 6.
  • the personal identification device 1 determines that a person has passed when any of the following events occurs.
  • the threshold Th1 is preferably 0.5 ° C to 3.0 ° C.
  • the user sets appropriate thresholds Th2 and Th3 based on experience.
  • the threshold Th2 is preferably 1.0 ° C to 7.0 ° C
  • the threshold Th3 is preferably 2 to 5.
  • FIG. 5 is a diagram illustrating interpolation of temperature information (frame) 31.
  • the frame 61 has 8 ⁇ 8 pixels.
  • the frame 62 has 32 ⁇ 32 pixels.
  • the frame 62 has a higher resolution than the frame 61 and shows the characteristics of the person as the subject in more detail.
  • the user determines the interpolation magnification so that the temperature information 31 is sufficiently easy to see and the processing speed is not slowed down.
  • the personal identification device 1 creates the frame 62 by performing interpolation processing on the frame 61.
  • interpolation processing a bicubic method, a bilinear method, a nearlist neighbor method and the like are known.
  • FIG. 6 is a diagram illustrating interpolation processing by the bicubic method.
  • the temperature of the pixel 51a is "0”
  • the temperature of the pixel 51b is “10”
  • the temperature of the pixel 51c is “10”
  • the temperature of the pixel 51d is "20”.
  • the personal identification device 1 divides each pixel into, for example, 3 ⁇ 3 virtual pixels 53.
  • the name "virtual” is given because the pixel does not correspond to an actual element and is exclusively for information processing.
  • the personal identification device 1 causes each of the virtual pixels 53 to maintain the temperature of the original pixels 51a to 51d.
  • the frame 63 becomes the frame 64.
  • the frame 64 has nine virtual pixels 53 having a temperature of "0", 18 virtual pixels 53 having a temperature of "10”, and nine virtual pixels 53 having a temperature of "20".
  • the personal identification device 1 associates the temperature "10.0" with the grid point 65.
  • the personal identification device 1 associates all the other grid points with the average temperature of the surrounding 4 ⁇ 4 virtual pixels 53.
  • the temperature associated with each grid point is from the original "0", “10” and “20”, such as "7.5", “10.0", “12.5", ...
  • the step size is smaller. It can be said that the temperature associated with each grid point is a two-dimensional moving average value.
  • the personal identification device 1 translates the vertical and horizontal grid lines (the boundary line of the virtual pixel 53) in the vertical and horizontal directions by half the length of one side of the virtual pixel 53 (not shown). Then, the average value of the temperature as a result of the interpolation processing is settled in the virtual pixel 53.
  • the frames 63 and 64 of FIG. 6 correspond to the frames 61 and 62 of FIG. 5, respectively.
  • the feature model 33 (FIG. 1) is a function that inputs two-dimensional temperature information 31 and outputs an individual feature.
  • the feature model 33 is, for example, a neural network (not shown) having an input layer, an output layer, and a plurality of intermediate layers. Each layer has a plurality of nodes, and a link exists between each node and all the nodes of the next layer on the output layer side. Each link has as a parameter a weight indicating the percentage of the amount of information that the original node of the link gives to the node after the link.
  • the personal identification device 1 optimizes this parameter by learning processing using learning data. By inputting the temperature information 31 to the feature model 33 whose parameters are optimized, the personal identification device 1 acquires the personal feature as the output of the feature model 33. Neural networks are widely used in the field of image processing. The temperature information 31 closely resembles an image. Therefore, it is desirable that the personal identification device 1 also uses a neural network.
  • the outer shape or state of the person who has passed through the door 5 may be required.
  • the outer shape is, for example, a feature such as being tall, obese, or carrying a specific belonging.
  • the condition is characterized by looking away, shaking the upper body, not walking straight, and being in a wheelchair. Therefore, the individual characteristics output by the characteristic model 33 include not only the individual ID but also the outer shape and state of the individual.
  • the label of the learning data described later includes not only the personal ID but also the outer shape and state of the individual.
  • FIG. 7 is a diagram for explaining the temperature information 31 input to the feature model 33.
  • the feature acquisition device 2 acquires 8 ⁇ 8 temperature information (reference numeral 61 in FIG. 5), and the personal identification device 1 performs interpolation processing on the temperature information to obtain 32 ⁇ 32 temperature information (FIG. 5). It is assumed that reference numeral 62) is created.
  • the personal identification device 1 stores the temperature information at the time points t1 to tn at the frame positions f1 to fn, respectively, and stores the temperature information at the time points t1 to tn at the frame positions fn + 1 to f9, respectively. Stores temperature information in.
  • the personal identification device 1 stores the temperature information at the time points t1 to t9 at the frame positions f1 to f9, respectively.
  • the personal identification device 1 stores the temperature information at the time points t1 to t9 at the frame positions f1 to f9, and discards the temperature information at the time points t10 to tn. In this way, the temperature information stored in the frame positions f1 to f9 reflects the walking speed as a whole in addition to the body temperature, outer shape, and state of the person 9.
  • nine frames are two-dimensionally arranged vertically and horizontally.
  • the personal identification device 1 may stack nine frames in the vertical direction and arrange them three-dimensionally.
  • FIG. 8 is a diagram illustrating the learning data 32.
  • the personal identification device 1 uses the learning data 32.
  • the learning data 32 is supervised learning data in which individual characteristics are added as labels to the temperature information.
  • the personal feature is only the personal ID.
  • the label may include an outer shape such as "tall” and a state such as "looking away”.
  • the personal ID is an identifier that uniquely identifies the person 6. However, the personal ID here is received by the personal identification device 1 as known information, and is not estimated using the feature model 33.
  • the learning data 32 has record groups 34a, 34b, 34c, ... For the number of people who have passed through the door 5. These records are arranged from the top in the order of earliest time when the person 6 passes through the door 5.
  • the record group 34a and the like may be three-dimensionally arranged vertically.
  • the personal identification system can utilize the result of identifying who the person 6 is for various purposes such as the following. ⁇ 1. Security> The personal identification system issues a warning if the person is not allowed to pass through the door 5.
  • the personal identification system notifies the person of the action that the person should first perform in the room according to the personal ID. For example, the personal identification system notifies elderly people in wheelchairs, "First, do gymnastics while sitting in a wheelchair.” ⁇ 3. Advance> The personal identification system operates the equipment installed in the room according to the personal ID. For example, a personal identification system sets the set temperature of an air conditioner to a level of the person's preference.
  • processing procedure Processing procedure
  • the identification process procedure is executed after the learning process procedure is executed at least once.
  • FIG. 9 is a flowchart of the learning process procedure.
  • the learning processing unit 21 of the personal identification device 1 acquires the temperature information 31. Specifically, the learning processing unit 21 acquires the temperature information 31 from the feature acquisition device 2 at a preset cycle.
  • step S202 the learning processing unit 21 determines whether or not the person 6 has passed. Specifically, first, when two or more temperature information 31s are acquired, the learning processing unit 21 determines whether or not the person 6 has passed through the door 5 by the method described above as the explanation of FIG. to decide. Secondly, when the person 6 has passed (step S202 “Yes”), the learning processing unit 21 retains the temperature information at nine time points starting from the time when the person 6 has passed, and proceeds to step S203, and proceeds to the other steps. In the case of (step S202 “No”), the process returns to step S201.
  • step S203 the learning processing unit 21 acquires the label. Specifically, the learning processing unit 21 acquires a personal ID as a label associated with the temperature information 31 held in step S202 by, for example, one of the following methods. ⁇ Method 1> The learning processing unit 21 displays the temperature information (for 9 time points) held in step S202 on the output device 13, and the user who sees the temperature information converts the temperature information into the temperature information via the input device 12. It accepts the input of the personal ID that identifies the corresponding person 6.
  • the learning processing unit 21 acquires the personal ID read by the reader from the reader of the unlocking device installed near the door 5. During the learning period, the person 6 carries an RFID tag that stores an individual ID, and when the door 5 is unlocked, the person 6 cooperates in creating learning data by holding the RFID tag over the reader.
  • the learning processing unit 21 may acquire a personal ID from an arbitrary device (smartphone, tablet, wearable device, etc.) carried by the person 6 via an arbitrary type of reader.
  • the learning processing unit 21 may accept the user to input the outer shape or state together according to the method 1. Further, even if the learning processing unit 21 executes template matching or the like on the temperature information according to the method 2 and acquires an outer shape such as "height” or a state such as "looking away”. good.
  • step S204 the learning processing unit 21 interpolates the temperature information. Specifically, the learning processing unit 21 obtains 8 ⁇ 8 temperature information (reference numeral 61 in FIG. 5) and 32 ⁇ 32 temperature information (reference numeral 62 in FIG. 5) by the method described above as an explanation of FIGS. 5 and 6. ).
  • step S205 the learning processing unit 21 creates learning data. Specifically, the learning processing unit 21 creates a new record group (34a, etc.) of the learning data 32 (FIG. 8) by using the temperature information interpolated in step S204 and the personal ID acquired in step S203. .. Each time the step S205 is passed, the record group (34a, 34b, 34c, ...) Of the learning data 32 is accumulated one by one. When the outer shape or state of the person 6 is adopted as an individual characteristic (label), the outer shape or state is stored in the record group.
  • step S206 the learning processing unit 21 determines whether or not the number of learning data is an integral multiple (1 time, 2 times, 3 times, ...) Of a predetermined number.
  • the predetermined number is, for example, "30" it means that the training data 32 for 30 people who have passed through the door 5 are collectively used to optimize the parameters of the feature model 33.
  • the user sets a "predetermined number” so that the processing speed does not slow down and the outliers (noise) of the temperature information included in the learning data can be ignored.
  • step S206 “Yes” the learning processing unit 21 proceeds to step S207, and in other cases (step S206 “No””. ), Return to step S201.
  • the predetermined number is "30"
  • step S207 the learning processing unit 21 optimizes and stores the parameters of the feature model 33. Specifically, first, the learning processing unit 21 executes the following processing. (1) Substitute a random value into the parameter of the feature model 33. (2) Of the training data 32, the temperature information for 30 record groups is input to the input layer of the feature model 33. (3) 30 personal IDs (estimated values) are acquired from the output layer of the feature model 33.
  • the "score" which is a variable for evaluation, is calculated by comparing each of the estimated 30 individual IDs with the corresponding individual ID (label) of the learning data 32.
  • the score is the number of cases in which the estimated value of the personal ID matches the label, and takes a value of 0 to 30. The higher the score, the better the quality of the parameters.
  • the above processes (1) to (4) are repeated a sufficiently large number of times.
  • (6) Specify the parameter (weight vector) that gives the highest score.
  • the learning processing unit 21 substitutes the specified parameter into the feature model 33 and stores it in the auxiliary storage device 15. Each time the step S207 is passed, the quality of the parameters of the feature model 33 is improved. In the second and subsequent steps S207, the learning processing unit 21 may use the latest 30 records of the learning data 32, or 30, 60, or 90 records including the past accumulated data. , ... may be used.
  • step S208 the learning processing unit 21 determines whether or not to terminate the system. Specifically, when the learning processing unit 21 accepts the user to input an instruction to end the processing of the personal identification system via the input device 12 (step S208 “Yes”), the learning processing procedure. To finish. In other cases (step S208 “No”), the learning processing unit 21 returns to step S201.
  • FIG. 10 is a flowchart of the identification processing procedure.
  • the auxiliary storage device 15 stores the feature model 33 with optimized parameters.
  • person 6 is in a situation where he can pass through door 5 at any time.
  • the identification processing unit 22 of the personal identification device 1 acquires the temperature information 31. Specifically, the identification processing unit 22 acquires the temperature information 31 from the feature acquisition device 2 at a preset cycle.
  • step S302 the identification processing unit 22 determines whether or not the person 6 has passed. Specifically, first, when two or more temperature information 31s are acquired, the identification processing unit 22 determines whether or not the person 6 has passed through the door 5 by the method described above as the explanation of FIG. to decide. Secondly, when the person 6 has passed (step S302 “Yes”), the identification processing unit 22 retains the temperature information at nine time points starting from the time when the person 6 has passed, and proceeds to step S303, and proceeds to the other steps. In the case of (step S302 “No”), the process returns to step S301.
  • step S303 the identification processing unit 22 interpolates the temperature information. Specifically, the identification processing unit 22 uses the 8 ⁇ 8 temperature information (reference numeral 61 in FIG. 5) acquired in step S301 by the method described above as the description of FIGS. 5 and 6 to obtain 32 ⁇ 32 temperature information. Interpolate to (reference numeral 62 in FIG. 5).
  • step S304 the identification processing unit 22 inputs temperature information to the feature model 33. Specifically, the identification processing unit 22 inputs the temperature information after interpolation to the feature model 33 whose parameters have been optimized.
  • the temperature information input here is all the temperatures (for 32 ⁇ 32 ⁇ 3 ⁇ 3 virtual pixels) stored in the frame positions f1 to f9 in FIG. 7.
  • the expression type of the temperature information input here is the same as that of one record group in the temperature information of the learning data 32 (FIG. 8).
  • step S305 the identification processing unit 22 acquires the output of the feature model 33. Specifically, the identification processing unit 22 acquires the personal ID output by the feature model 33. When the outer shape or state of the person 6 is adopted as the label, the identification processing unit 22 acquires the outer shape or state output by the feature model 33.
  • step S306 the identification processing unit 22 executes a process using the personal ID. Specifically, the identification processing unit 22 performs the following processing for each of the above-mentioned purposes. ⁇ 1. Security> When the person specified by the personal ID is not permitted to pass through the door 5, the identification processing unit 22 alerts the output device 13, the bulletin board 3, or any other device. Send an instruction to output.
  • the alarm is text data or voice indicating that a suspicious person has passed through the door 5.
  • the bulletin board device 3 or the like outputs an alarm as text or voice.
  • the identification processing unit 22 transmits to the bulletin board device 3 installed in the room an action or the like that the person 6 should first perform in the room.
  • the bulletin board device 3 outputs an operation or the like as text or voice.
  • the identification processing unit 22 transmits information to be set by the person 6 to the bulletin board device 3 connected to the device installed in the room.
  • the bulletin board device 3 outputs information to be set to the device.
  • the identification processing unit 22 transmits a message according to the outer shape or state to the posting device.
  • the bulletin board device 3 outputs a message in text or voice.
  • An example of a message is as follows. ⁇ As a message for the outer shape "height", “please note that the ceiling is low” ⁇ "Please concentrate on the work” as a message for the state "looking away”
  • step S307 the identification processing unit 22 determines whether or not to terminate the system. Specifically, when the identification processing unit 22 receives an instruction to end the processing of the personal identification system via the input device 12 (step S307 “Yes”), the identification processing unit 22 performs the identification processing procedure. To finish. In other cases (step S307 “No”), the identification processing unit 22 returns to step S301.
  • the temperature information 31 is acquired from a single feature acquisition device 2 installed obliquely above the person 6.
  • the personal identification system can identify the characteristics of the person 6 with higher accuracy by using the temperature information acquired from the plurality of feature acquisition devices 2 at the same time.
  • the second and subsequent feature acquisition devices 2 may usually be installed at positions different from those of the first feature acquisition device 2. Their positions are not limited to above the person 6, and may be, for example, the waist height of the person 6.
  • the temperature information acquired from the height of the waist accurately indicates the wall thickness, gait, etc. of the person 6.
  • FIG. 11 is a diagram for explaining the configuration and the like of the personal identification device 1 in the second embodiment.
  • the difference in FIG. 11 from FIG. 1 is that the biometric information acquisition device 9 is connected to the personal identification device 1 via the network 4.
  • the biological information acquisition device 9 also constitutes a personal identification system.
  • the personal identification system may include a plurality of biometric information acquisition devices 9. The type of information acquired by the biological information acquisition device 9 may be plural.
  • the biological information acquisition device 9 may be fixed at an arbitrary position near the door 5, or may be carried or worn by a person 6. However, from the viewpoint of saving the trouble of the person 6, it is desirable that the biometric information acquisition device 9 is fixed at an arbitrary position.
  • the feature model 33 of FIG. 11 is a function that inputs biological information and two-dimensional temperature information and outputs individual features.
  • Examples of the fixed biological information acquisition device 9 include a weight measuring device, a depth (thickness) measuring device, an odor detecting device, a respiratory rate measuring device, and the like.
  • Examples of the portable / wearable biological information acquisition device 9 include a respiratory rate measuring device, a heart rate measuring device, a blood pressure measuring device, and the like.
  • FIG. 12 is a diagram illustrating the learning data 32.
  • the difference between FIG. 12 and FIG. 8 is that a biometric information column is added.
  • the biological information "G 11 (#, #, ...)" Is the biological information acquired by the biological information acquisition device 9 at the time t1 when the temperature information "S 11 (#, #, ...)" Is acquired. ..
  • the biological information "G 11 (#, #, ...)" Is the biological information acquired by the biological information acquisition device 9 at the time t1 when the temperature information "S 11 (#, #, ...)" Is acquired. ..
  • values indicating weight, wall thickness, odor (concentration of a specific chemical substance, etc.), respiratory rate, pulse rate, blood pressure, and so on are lined up.
  • the biometric information acquisition device 9 cannot acquire these biometric information in synchronization with the timing (cycle) in which the feature acquisition device 2 acquires the temperature within a short time when the person 6 passes through the door 5. be. Even if it is possible, the acquired biometric information may be almost the same. In such a case, the biological information acquisition device 9 may acquire only "G 11 (#, #, %)", For example. Then, in FIG. 12, there is only one column in which "G 11 (#, #, %), G 12 (#, #, ...), ..., G 19 (#, #, ...)" is stored. Only “G 11 (#, #, ...)" is stored there.
  • FIG. 13 is a flowchart of the learning process procedure. The difference between FIG. 13 and FIG. 9 is that steps S201b and S202b have been added. In the following, only the processing of the added step will be described.
  • step S201b the learning processing unit 21 of the personal identification device 1 acquires biometric information. Specifically, the learning processing unit 21 acquires biological information from the biological information acquisition device 9 at a preset cycle. In step S202b, the learning processing unit 21 attaches biological information to the temperature information. Specifically, the learning processing unit 21 associates the temperature information acquired in step S201 with the biological information acquired in step S201b.
  • step S205 the learning processing unit 21 creates a new record group of the learning data 32 (FIG. 12).
  • step S207 the learning processing unit 21 inputs the temperature information and the biological information of 30 records of the learning data 32 to the input layer of the feature model 33 as the processing of (2).
  • FIG. 14 is a flowchart of the identification processing procedure. The difference between FIG. 14 and FIG. 14 is that step S301b has been added and the processing content of step S304 has changed. In the following, only the processing of added or changed steps will be described.
  • step S301b the identification processing unit 22 of the personal identification device 1 acquires biometric information. Specifically, the identification processing unit 22 acquires biological information from the biological information acquisition device 9 at a preset cycle.
  • step S304 the identification processing unit 22 inputs the temperature information and the biological information into the feature model 33. Specifically, the identification processing unit 22 inputs the temperature information after interpolation and the biological information acquired in step S301b to the feature model 33 whose parameters have been optimized.
  • the information acquired by the feature acquisition device 2 or the biometric information acquisition device 9 through the first embodiment and the second embodiment may be anything as long as it does not include personal privacy.
  • the two-dimensional temperature information is a typical example thereof, but the information acquired by the feature acquisition device 2 includes, for example, the following information. That is, the information acquired by the feature acquisition device 2 or the biological information acquisition device 9 is information of an arbitrary dimension.
  • Body information of person 6 including body weight, blood pressure, heart rate, and pulse rate of person 6 at multiple positions ⁇ Smell emitted by person 6 (concentration of specific chemical components in secretions, etc.)
  • the feature acquisition device 2 and the biological information acquisition device 9 may have an ultrasonic sensor and a distance sensor in addition to the element that detects infrared rays. Further, the biological information acquisition device 9 may irradiate a person with millimeter waves to detect a heart rate, or may irradiate a person with a WiFi radio wave to detect a pulse rate and a respiratory rate.
  • the main body of the feature acquisition device 2 does not have to be above the head of the person 6. It suffices if the temperature information seen from above the head can be obtained.
  • the fact that the optical axis does not have to be horizontal or vertical does not prevent light guidance by, for example, an optical fiber or a mirror.
  • the effects of the personal identification system of this embodiment are as follows.
  • the personal identification system can identify an individual's characteristics by temperature information that can easily protect the privacy of the individual.
  • the personal identification system can reliably and stably capture the height, physique (thickness), gait, etc. in the field of view.
  • the personal identification system can create learning data according to the needs of the user.
  • the personal identification system can learn the feature model at a timing according to the needs of the user.
  • the personal identification system can utilize the personal identification result for the purpose of watching over or proactively. (7) The personal identification system can utilize the personal identification result for the purpose of security. (8) The personal identification system can identify an individual with higher accuracy based on the temperature information acquired from a plurality of positions. (9) The personal identification system can use biometric information as a basis for personal recognition. (10) The personal identification system can also identify the outer shape or state of an individual.
  • the present invention is not limited to the above-described embodiment, and includes various modifications.
  • the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described.
  • it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
  • each of the above-mentioned configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD. In addition, control lines and information lines are shown as necessary for explanation, and not all control lines and information lines are shown in the product. In practice, it can be considered that almost all configurations are interconnected.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

本発明の個人識別システムは、個人を被写体とする2次元の温度情報を取得する特徴取得装置(2)と、取得した温度情報から個人の特徴を識別する個人識別装置(1)と、識別した個人の特徴を出力する提示装置(3)と、を備えることを特徴とする。さらに、特徴取得装置(2)は、個人(6)の頭部より上方に設置され、特徴取得装置(2)と特徴取得装置(2)の視野面の中心点とを結ぶ光軸(7)は、水平ではなく垂直でもないこと、を特徴とする。

Description

個人識別システム及び個人識別プログラム
 本発明は、個人識別システム及び個人識別プログラムに関する。
 近時、住宅、オフィス等多くの場所において、人を識別する技術が普及している。この技術では、指紋、静脈等の生体情報、顔画像、又は、カードに埋め込まれた個人識別番号等の情報を利用し、個人識別を行う。
 特許文献1の識別装置は、例えば、住宅内にいる被見守り者を検知する。特許文献1の識別装置は、人の映像から算出した特徴量と、予めデータベースに登録されている特徴量を比較することによって人を識別する。特許文献2の入場管理システムは、クリーンルームに入る人の衛生行為を管理する。特許文献2の入場管理システムは、清掃用具に付された指紋認証センサを介して人の指紋を取得し、エアシャワー付近に配置された受信機を介して人が携帯するRFIDタグを読み取る。
特開2018-120644号公報 特開2007-4630号公報
 しかしながら、特許文献1の識別装置は、映像から人の特徴量を算出する。したがって、撮像された人は、自身のプライバシーが守られているか否かが不安になる。なぜならば、映像に顔、服装、機密情報等が写り込んでいる場合、これらの重要な個人情報を流出するおそれがあるからである。特許文献2の入場管理システムは、指紋及びRFIDを取得する。指紋及びRFIDは、映像に比べれば、前記の個人情報を含まないため、プライバシーの負担感が少ない一方、指を指紋認証センサに接触させる、RFIDタグを常に携帯する等の手間が人に課されることになる。
 そこで、本発明は、プライバシーを考慮し、軽い負担で個人の特徴を識別することを目的とする。
 本発明の個人識別システムは、個人を被写体とする2次元の温度情報を取得する特徴取得装置と、取得した温度情報から個人の特徴を識別する個人識別装置と、識別した個人の特徴を出力する提示装置と、を備えることを特徴とする。
 その他の手段については、発明を実施するための形態のなかで説明する。
 本発明によれば、プライバシーを考慮し、軽い負担で個人の特徴を識別することができる。
第1の実施形態における個人識別装置の構成等を説明する図である。 素子の配列を説明する図である。 素子の配列を説明する図である。 人の検知を説明する図である。 温度情報の補間を説明する図である。 バイキュービック法による補間処理を説明する図である。 特徴モデルに入力される温度情報を説明する図である。 第1の実施形態における学習データを説明する図である。 第1の実施形態における学習処理手順のフローチャートである。 第1の実施形態における識別処理手順のフローチャートである。 第2の実施形態における個人識別装置の構成等を説明する図である。 第2の実施形態における学習データを説明する図である。 第2の実施形態における学習処理手順のフローチャートである。 第2の実施形態における識別処理手順のフローチャートである。
 以降、本発明を実施するための第1の実施形態及び第2の実施形態を、図等を参照しながら詳細に説明する。第1の実施形態は、人の温度情報に基づいて個人の特徴を識別する例である。第2の実施形態は、人の温度情報及びそれ以外の生体情報に基づいて個人の特徴を識別する例である。
〈第1の実施形態〉
(個人識別装置1の構成)
 図1は、第1の実施形態における個人識別装置1の構成等を説明する図である。個人識別装置1は、一般的なコンピュータであり、中央制御装置11、マウス、キーボード等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、温度情報31、学習データ32及び特徴モデル33(いずれも詳細後記)を格納している。
 主記憶装置14における学習処理部21及び識別処理部22は、プログラムである。中央制御装置11は、これらのプログラムを補助記憶装置15から読み出し主記憶装置14にロードすることによって、それぞれのプログラムの機能(詳細後記)を実現する。補助記憶装置15は、個人識別装置1から独立した構成となっていてもよい。さらには、個人識別装置1の各構成が、多くの独立した筐体(クラウドコンピュータ)として分散していてもよい。個人識別装置1は、ネットワーク4を介して、特徴取得装置2及び掲示装置3と通信可能である。掲示装置3は、室内に設置されていてもよい。個人識別装置1、特徴取得装置2及び掲示装置3は、個人識別システムを構成する。
(特徴取得装置の位置及び角度)
 ドア5が、空間1と空間2とを隔てている。人(個人)6は、ドア5を開けて空間2に入る。空間2側のドア5の上部の天井付近に、特徴取得装置2が設置されている。特徴取得装置2は、視野面の温度分布を検知する赤外線アレイセンサである(詳細後記)。特徴取得装置2の床面からの高さは、人6の頭部の床面からの高さよりも高い。したがって、人6は、特徴取得装置2の視野内に容易に収まる。個人識別システムのユーザは、現場の実情に応じて、この高さ条件を満たすように、特徴取得装置2をドア5の枠部、ドア5付近の天井、建物の出入り口の枠又は通路の天井等に設置する。
 視野面の中心と特徴取得装置2とを結ぶ直線(光軸)7と水平線8とがなす角を“θ”とする。図1において、“0度<θ<90度”が成立している。つまり、光軸7は、水平でも垂直でもない。θが0度である場合、天井付近の空間のみが視野に入り、人6が視野に入りにくい。θが90度である場合、人6は確実に視野に入るものの、視野内の空間は狭く、人6は一瞬にして視野を通過してしまう。結局、“0度<θ<90度”というθの範囲が、身長、体格(肉厚)、歩容等を含む個人の特徴を確実かつ安定的に取得することを担保する。個人識別システムのユーザは、現場の実情に応じて、この範囲内でθの値を任意に設定する。
(温度情報)
 特徴取得装置2は、人6を被写体とする温度情報31を取得する。温度情報31は、“サーモグラフィー”と呼ばれることもある。温度情報31は、被写体の表面の温度を2次元的に色彩で示すデータである(図5参照)。同じ人6の顔面温度、体温等は、通常同じとなる。したがって、温度情報31は、人6の大まかな輪郭は示すものの、細かな周囲の特徴までは表現し得ない。このことが、被写体となった人6のプライバシーを保護する。
 人6の表面からは、常に赤外線が放射されている。赤外線の放射量は、表面温度の4乗に比例する。特徴取得装置2は、レンズ(図示せず)及び素子を備える。レンズは、この赤外線を集光して素子に当てる。素子は、赤外線の放射量を温度に変換する。素子の例として、サーモパイル素子、サーミスタ素子等が存在する。サーモパイル素子は、異種の金属間に発生する起電力に基づきこの変換を行う。サーミスタ素子は、自身の抵抗値の変化に基づきこの変換を行う。
(素子の配列)
 図2及び図3は、素子41の配列を説明する図である。図2に示すように、特徴取得装置2の視野面(集光面)上に、素子41が縦横の2次元状に規則正しく配列している。配列サイズは4×4以上であることが望ましい。配列サイズが大きいほど温度の分解能が向上する。分解能を向上させるために、複数の素子41の集合(アレイ)42が、さらに縦横の2次元状に配列されてもよい。図3においては、2×2の素子の集合42が、さらに2×2に配列されている。第1及び第2の実施形態では、8×8のサーモパイル素子が使用される。
(人の検知)
 図4は、人の検知を説明する図である。説明の便宜上、いま、特徴取得装置2は、連続の時点t1、t2及びt3において、それぞれ、温度情報31a、31b及び31cを取得したとする。このように時系列で取得された複数の温度情報のそれぞれは、“フレーム”とも呼ばれる。図4の例では、特徴取得装置2は、4×4個の素子を有する。フレーム31a、31b及び31cのそれぞれは、各素子に対応する4×4のピクセル51を有している。ここでのピクセル51は、色の濃度を変化させる。黒は高温を示し、白は低温を示す。
 個人識別装置1は、2つの隣接するフレーム間の差分を作成する。差分52abは、フレーム31aと31bとの間の差分である。差分52bcは、フレーム31bと31cとの間の差分である。差分52ab及び52bcもまた、4×4のピクセル51を有し、各ピクセル51は、差分値を保持している。差分値とは、直前の時点におけるあるピクセルの温度から直後の時点における当該ピクセルの温度を減算した結果である。ピクセルは、色の濃度を変化させる。黒は温度が大きいことを示し、白は温度が小さいことを示す。差分52abの各ピクセル51の値が小さいのに対し、差分52bcのうちには、差分値が大きいピクセル51が存在する。個人識別装置1は、差分値に閾値を適用して人6の通過を検知する。
 より具体的には、個人識別装置1は、以下の事象のうちいずれかが発生した場合、人が通過したと判断する。
〈事象1〉差分値の平均が所定の閾値Th1以上である。
〈事象2〉所定の閾値Th2以上の差分値を有するピクセル51の数が所定の閾値Th3以上である。
 事象1について、閾値Th1が大きいほど、個人識別装置1の感度は低くなる。ユーザは、経験に基づき適当な閾値Th1を設定する。一般的には、閾値Th1は、0.5℃~3.0℃であるのが望ましい。環境温度(気温)が高いほど、人6の体温と環境温度との差分が小さくなるので、閾値Th1を比較的小さな値に設定するのが望ましい。
 事象2について、閾値Th2が大きいほど、また、Th3が大きいほど、個人識別装置1の感度は低くなる。ユーザは、経験に基づき適当な閾値Th2及びTh3を設定する。一般的には、閾値Th2は、1.0℃~7.0℃であるのが望ましく、閾値Th3は、2個~5個であるのが望ましい。
(補間)
 図5は、温度情報(フレーム)31の補間を説明する図である。フレーム61は、8×8のピクセルを有する。フレーム62は、32×32のピクセルを有する。フレーム62はフレーム61に比して、より解像度が高く、被写体の人の特徴をより詳しく示している。図5の例では、補間倍率は、32/8=4倍である。ユーザは、温度情報31が充分見やすく、かつ、処理速度が遅くならない程度に、補間倍率を決定する。個人識別装置1は、フレーム61に対して補間処理を施すことによって、フレーム62を作成する。補間処理の具体例としては、バイキュービック法、バイリニア法、ニアリストネイバー法等が知られている。
(バイキュービック法による補間処理)
 図6は、バイキュービック法による補間処理を説明する図である。説明の便宜上、いま、2×2のピクセル51a~51dを有する1つのフレーム63があるとする。ピクセル51aの温度は“0”であり、ピクセル51bの温度は“10”であり、ピクセル51cの温度は“10”であり、ピクセル51dの温度は“20”である。これらはすべて、特徴取得装置2が取得したもとのデータである。
 個人識別装置1は、各ピクセルを例えば3×3個の仮想ピクセル53に分割する。ここで、“仮想”と命名したのは、そのピクセルが実際の素子に対応していない専ら情報処理上のものであるからである。そして、個人識別装置1は、仮想ピクセル53のそれぞれにもとのピクセル51a~51dの温度を保持させる。その結果、フレーム63は、フレーム64になる。フレーム64は、温度“0”の仮想ピクセル53を9個有し、温度“10”の仮想ピクセル53を18個有し、温度“20”を有する仮想ピクセル53を9個有する。
 個人識別装置1は、格子点65を中心とする太線で囲まれた4×4個の仮想ピクセル53の温度の平均値を算出する。算出結果は、“(0×4+10×8+20×4)/16=10”となる。個人識別装置1は、格子点65に温度“10.0”を関連付ける。同様に、個人識別装置1は、他のすべての格子点に、周辺の4×4個の仮想ピクセル53の温度の平均値を関連付ける。各格子点に関連付けられた温度は、“7.5”、“10.0”、“12.5”、・・・のように、もとの“0”、“10”及び“20”よりも刻み幅が小さくなっている。各格子点に関連付けられた温度は、2次元的な移動平均値であるともいえる。
 その後、個人識別装置1は、縦横の格子線(仮想ピクセル53の境界線)を縦方向及び横方向に仮想ピクセル53の一辺の1/2の長さだけ平行移動させる(図示せず)。すると、仮想ピクセル53の中に、補間処理の結果としての温度の平均値が収まる。図6のフレーム63及び64は、それぞれ、図5のフレーム61及び62に対応している。
(特徴モデル)
 特徴モデル33(図1)は、2次元の温度情報31を入力とし、個人の特徴を出力とする関数である。特徴モデル33は、例えば、入力層、出力層及び複数の中間層を有するニューラルネットワーク(図示せず)である。各層は、複数のノードを有し、各ノードと、出力層側の次の層のすべてのノードとの間にリンクが存在する。各リンクは、リンクの元のノードがリンクの先のノードに与える情報量の百分率を示す重みをパラメータとして有する。
 個人識別装置1は、学習データを使用した学習処理によってこのパラメータを最適化する。個人識別装置1は、パラメータが最適化された特徴モデル33に対して温度情報31を入力することによって、その特徴モデル33の出力としての個人の特徴を取得する。ニューラルネットワークは、画像処理の分野で広く使用されている。温度情報31は、画像に酷似する。そこで、個人識別装置1もまた、ニューラルネットワークを使用することが望ましい。
(個人の特徴)
 特徴モデル33の出力としての個人の特徴を具体的にどのような情報にするかは、ユーザ次第である。多くのユーザは、個人を一意に特定する“個人ID”の出力を望む。なぜならば、後続する他の情報処理(後記する、警備、見守り、先回り等)を行うためには、“誰が”ドア5を通過したかという情報の必要性が最も大きいからである。
 しかしながら、ユーザによっては、人を特定する必要性は小さく、むしろ、ドア5を通過した人の外形又は状態が必要である場合もあり得る。外形とは、例えば、身長が高い、肥満している、特定の持ち物を携帯している等の特徴である。状態とは、よそ見をしている、上体が揺れている、まっすぐ歩いていない、車椅子に乗っている等の特徴である。そこで、特徴モデル33が出力する個人の特徴は、個人IDだけではなく、個人の外形及び状態を含む。後記する学習データのラベルも、個人IDだけではなく、個人の外形及び状態を含む。
(特徴モデルに入力される温度情報の例)
 図7は、特徴モデル33に入力される温度情報31を説明する図である。説明の便宜上、ある人6が、時点t1~t6において、ドア5を通過したとする。そして、特徴取得装置2は、8×8の温度情報(図5符号61)を取得し、個人識別装置1は、その温度情報に対して補間処理を施し、32×32の温度情報(図5符号62)を作成したとする。
 図7においては、補間処理後の32×32の温度情報(フレーム)が、3×3に配列されている。フレーム位置f1、f2、・・・、f6には、時点t1、t2、・・・、t6における温度情報が格納されている。フレーム位置f7、f8及びf9には、時点f6における温度情報が重複的に格納されている。歩行速度は、人によって異なる。特徴取得装置2が温度情報を取得する周期(例えば1/10秒に1回)が一定である場合、人6が視野内に収まるフレームの数(以降“有効フレーム数”と呼ぶ)は、歩行速度によって変化する。当然、歩行速度が速いほど、有効フレーム数は小さい。
 そこで、有効フレーム数がn(n<9)である場合、個人識別装置1は、フレーム位置f1~fnに、時点t1~tnにおける温度情報をそれぞれ格納し、フレーム位置fn+1~f9に、時点tnにおける温度情報を格納する。有効フレーム数が9である場合、個人識別装置1は、フレーム位置f1~f9に、時点t1~t9における温度情報をそれぞれ格納する。有効フレーム数がn(n>9)である場合、個人識別装置1は、フレーム位置f1~f9に、時点t1~t9における温度情報をそれぞれ格納し、時点t10~tnにおける温度情報を廃棄する。このようにすると、フレーム位置f1~f9に格納される温度情報は、全体として、人9の体温、外形、状態等以外に、歩行速度を反映することになる。
 図7においては、9個のフレームが縦横に2次元的に配列されている。しかしながら、個人識別装置1は、9個のフレームを縦方向に積み上げて3次元的に配列してもよい。
(学習データ)
 図8は、学習データ32を説明する図である。特徴モデル33のパラメータを最適化する際に、個人識別装置1は、学習データ32を使用する。学習データ32は、温度情報に対して個人の特徴がラベルとして付加された教師付き学習データである。ここでは、説明の単純化のために、個人の特徴は、個人IDのみとしている。もちろん、ラベルが、“身長が高い”等の外形、“よそ見をしている”等の状態を含んでもよい。
 “S11(#,#,…)、S12(#,#,…)、・・・、S19(#,#,…)”は、全体として、図7のフレーム位置f1~f9の温度情報、すなわち、通過した人1人分の温度情報に相当する。そのうち例えば“S11(#,#,…)”は、フレーム位置f1の温度情報に相当する。“(#,#,…)”には、温度を示す値“#”が、32×32=1024個並んでいる。
 個人IDは、人6を一意に特定する識別子である。但し、ここでの個人IDは、個人識別装置1が既知の情報として受け付けたものであって、特徴モデル33を使用して推定したものではない。学習データ32は、ドア5を通過した人数分のレコード群34a、34b、34c、・・・を有する。これらのレコード群は、人6がドア5を通過した時点が早い順に上から並んでいる。なお、レコード群34a等は、上下に3次元的に配列されていてもよい。
(識別結果の活用)
 個人識別システムは、人6が誰であるかを識別した結果を、例えば以下のような様々な目的に活用することができる。
〈1.警備〉個人識別システムは、その人がドア5を通過することを許可されていない場合、警告を発する。
〈2.見守り〉個人識別システムは、個人IDに応じて、その人が室内でまず行うべき動作等をその人に通知する。例えば、個人識別システムは、車椅子に乗っている高齢者に対して“まず、車椅子に座ったまま、体操をして下さい”と通知する。
〈3.先回り〉個人識別システムは、個人IDに応じて、室内に設置された機器に対する操作を行う。例えば、個人識別システムは、空調機器の設定温度をその人の好みの水準に設定する。
(処理手順)
 以降において、処理手順を説明する。処理手順は2つ存在し、それらは、学習処理手順及び識別処理手順である。学習処理手順が少なくとも1回実行された後に、識別処理手順が実行される。
(学習処理手順)
 図9は、学習処理手順のフローチャートである。
 ステップS201において、個人識別装置1の学習処理部21は、温度情報31を取得する。具体的には、学習処理部21は、予め設定された周期で特徴取得装置2から温度情報31を取得する。
 ステップS202において、学習処理部21は、人6が通過したか否かを判断する。具体的には、第1に、学習処理部21は、2つ以上の温度情報31が取得されると、図4の説明として前記した方法によって、人6がドア5を通過したか否かを判断する。
 第2に、学習処理部21は、人6が通過した場合(ステップS202“Yes”)、人6が通過した時点を起点とする9時点の温度情報を保持してステップS203に進み、それ以外の場合(ステップS202“No”)、ステップS201に戻る。
 ステップS203において、学習処理部21は、ラベルを取得する。具体的には、学習処理部21は、ステップS202において保持した温度情報31に関連付けるラベルとなる個人IDを、例えば以下のいずれかの方法で取得する。
〈方法1〉学習処理部21は、ステップS202において保持した温度情報(9時点分)を出力装置13に表示し、その温度情報を見たユーザが、入力装置12を介して、その温度情報に該当する人6を特定する個人IDを入力するのを受け付ける。
〈方法2〉学習処理部21は、ドア5の近辺に設置された開錠装置のリーダから、当該リーダが読み取った個人IDを取得する。学習期間において、人6は、個人IDを記憶したRFIDタグを携帯しており、ドア5の開錠時、RFIDタグをリーダにかざすことによって学習データの作成に協力する。学習処理部21は、人6が携帯する任意の装置(スマートフォン、タブレット、ウエアラブルデバイス等)から任意の種類のリーダを介して個人IDを取得してもよい。
 個人の特徴(ラベル)として人6の外形又は状態を採用する場合、学習処理部21は、方法1に準じて、ユーザが外形又は状態を併せて入力するのを受け付けてもよい。さらに、学習処理部21は、方法2に準じて、温度情報に対してテンプレートマッチング等を実行し、“身長が高い”等の外形又は“よそ見をしている”等の状態を取得してもよい。
 ステップS204において、学習処理部21は、温度情報を補間する。具体的には、学習処理部21は、図5及び図6の説明として前記した方法によって8×8の温度情報(図5の符号61)を、32×32の温度情報(図5の符号62)に補間する。
 ステップS205において、学習処理部21は、学習データを作成する。具体的には、学習処理部21は、ステップS204において補間した温度情報及びステップS203において取得した個人IDを使用して、学習データ32(図8)の新たなレコード群(34a等)を作成する。ステップS205を経由する都度、学習データ32のレコード群(34a、34b、34c、・・・)が1つずつ蓄積されて行く。個人の特徴(ラベル)として人6の外形又は状態を採用する場合、レコード群には、外形又は状態が記憶される。
 ステップS206において、学習処理部21は、学習データの数が所定の数の整数倍(1倍、2倍、3倍、・・・)になったか否かを判断する。所定の数が例えば“30”である場合、それは、ドア5を通過した30人分の学習データ32をまとめて使用し、特徴モデル33のパラメータを最適化することを意味する。ユーザは、処理速度が遅くならず、かつ、学習データに含まれる温度情報のはずれ値(ノイズ)が無視できる程度に、“所定の数”を設定する。
 学習処理部21は、学習データ32のレコード群34a等の数が所定の数の整数倍になった場合(ステップS206“Yes”)、ステップS207に進み、それ以外の場合(ステップS206“No”)、ステップS201に戻る。いま、所定の数は“30”であるとして以下の説明を続ける。
 ステップS207において、学習処理部21は、特徴モデル33のパラメータを最適化し記憶する。具体的には、第1に、学習処理部21は、以下の処理を実行する。
(1)ランダムな値を特徴モデル33のパラメータに代入する。
(2)学習データ32のうちレコード群30個分の温度情報を特徴モデル33の入力層に入力する。
(3)特徴モデル33の出力層から、30個の個人ID(推定値)を取得する。
(4)推定された30個の個人IDのそれぞれを、学習データ32の対応する個人ID(ラベル)と比較することによって、評価用の変数である“スコア”を算出する。スコアは、個人IDの推定値がラベルと一致する件数であり、0~30の値を取る。スコアが大きいほど、パラメータの質はよい。
(5)代入するパラメータの値を変化させたうえで、前記(1)~(4)の処理を充分多い回数だけ繰り返す。
(6)スコアが最も大きくなるような、パラメータ(重みのベクトル)を特定する。
 第2に、学習処理部21は、特定したパラメータを特徴モデル33に代入したうえで、補助記憶装置15に記憶する。
 ステップS207を経由する都度、特徴モデル33のパラメータの質は高まっていく。なお、2回目以降のステップS207において、学習処理部21は、学習データ32の最新のレコード群30個を使用してもよいし、過去の蓄積分を含むレコード群30個、60個、90個、・・・を使用してもよい。
 ステップS208において、学習処理部21は、システムを終了するか否かを判断する。具体的には、学習処理部21は、ユーザが個人識別システムの処理を終了する旨の指示を、入力装置12を介して入力するのを受け付けた場合(ステップS208“Yes”)、学習処理手順を終了する。学習処理部21は、それ以外の場合(ステップS208“No”)、ステップS201に戻る。
(識別処理手順)
 図10は、識別処理手順のフローチャートである。識別処理手順を開始する前提として、補助記憶装置15は、パラメータが最適化された特徴モデル33を記憶しているものとする。いま、人6は、いつでもドア5を通過できる状況にいる。
 ステップS301において、個人識別装置1の識別処理部22は、温度情報31を取得する。具体的には、識別処理部22は、予め設定された周期で特徴取得装置2から温度情報31を取得する。
 ステップS302において、識別処理部22は、人6が通過したか否かを判断する。具体的には、第1に、識別処理部22は、2つ以上の温度情報31が取得されると、図4の説明として前記した方法によって、人6がドア5を通過したか否かを判断する。
 第2に、識別処理部22は、人6が通過した場合(ステップS302“Yes”)、人6が通過した時点を起点とする9時点の温度情報を保持してステップS303に進み、それ以外の場合(ステップS302“No”)、ステップS301に戻る。
 ステップS303において、識別処理部22は、温度情報を補間する。具体的には、識別処理部22は、図5及び図6の説明として前記した方法によって、ステップS301において取得した8×8の温度情報(図5の符号61)を、32×32の温度情報(図5の符号62)に補間する。
 ステップS304において、識別処理部22は、特徴モデル33に温度情報を入力する。具体的には、識別処理部22は、パラメータが最適化された特徴モデル33に対して、補間後の温度情報を入力する。ここで入力される温度情報は、図7の各フレーム位置f1~f9に格納されているすべての温度(仮想ピクセル32×32×3×3個分)である。ここで入力される温度情報の表現型式は、学習データ32(図8)の温度情報のうち、レコード群1個分と同じである。
 ステップS305において、識別処理部22は、特徴モデル33の出力を取得する。具体的には、識別処理部22は、特徴モデル33が出力する個人IDを取得する。ラベルとして人6の外形又は状態を採用する場合、識別処理部22は、特徴モデル33が出力する外形又は状態を取得する。
 ステップS306において、識別処理部22は、個人IDを使用した処理を実行する。具体的には、識別処理部22は、前記した目的ごとに、以下の処理を行う。
〈1.警備〉識別処理部22は、個人IDが特定する人がドア5の通過を許可されていない場合、出力装置13、掲示装置3、又は、それ以外の任意の装置に対して、警報を出力する旨の指示を送信する。警報とは、不審人物がドア5を通過した旨のテキストデータ又は音声である。掲示装置3等は、警報をテキスト又は音声で出力する。
〈2.見守り〉識別処理部22は、室内に設置されている掲示装置3に対して、その人6が室内でまず行うべき動作等を送信する。掲示装置3は、動作等をテキスト又は音声で出力する。
〈3.先回り〉識別処理部22は、室内に設置されている機器に接続されている掲示装置3に対して、当該機器に対してその人6が設定すべき情報を送信する。掲示装置3は、設定すべき情報を当該機器に出力する。
 個人の特徴(ラベル)として人6の外形又は状態を採用する場合、識別処理部22は、外形又は状態に応じたメッセージを掲示装置に送信する。掲示装置3は、メッセージをテキスト又は音声で出力する。メッセージの例は、以下の通りである。
・外形“身長が高い”に対するメッセージとして“天井が低いのでご注意ください”
・状態“よそ見をしている”に対するメッセージとして“作業に集中してください”
 ステップS307において、識別処理部22は、システムを終了するか否かを判断する。具体的には、識別処理部22は、ユーザが個人識別システムの処理を終了する旨の指示を、入力装置12を介して入力するのを受け付けた場合(ステップS307“Yes”)、識別処理手順を終了する。識別処理部22は、それ以外の場合(ステップS307“No”)、ステップS301に戻る。
(特徴取得装置の位置及び数)
 前記では、温度情報31は、人6の斜め上方に設置された単一の特徴取得装置2から取得されている。しかしながら、個人識別システムは、複数の特徴取得装置2から同時に取得された温度情報を使用することによって、より高い精度で人6の特徴を識別することができる。2台目以降の特徴取得装置2は、通常、1台目の特徴取得装置2とは異なる位置に設置されてもよい。それらの位置は、人6の上方に限定されることなく、例えば、人6の腰の高さであってもよい。腰の高さから取得された温度情報は、人6の肉厚、歩容等を正確に示す。
〈第2の実施形態〉
(個人識別装置1の構成)
 図11は、第2の実施形態における個人識別装置1の構成等を説明する図である。図1に比して、図11が異なる点は、生体情報取得装置9がネットワーク4を介して個人識別装置1に接続されていることである。生体情報取得装置9もまた、個人識別システムを構成する。個人識別システムは、複数の生体情報取得装置9を備えていてもよい。生体情報取得装置9が取得する情報の種類は、複数であってもよい。
 生体情報取得装置9は、ドア5付近の任意の位置に固定されていてもよいし、人6によって携帯又は装着されていてもよい。しかしながら、人6の手間を省く観点からは、生体情報取得装置9は、任意の位置に固定されていることが望ましい。なお、図11の特徴モデル33は、生体情報及び2次元の温度情報を入力とし、個人の特徴を出力とする関数である。
 固定型の生体情報取得装置9の例として、体重計測装置、深度(肉厚)計測装置、におい検知装置、呼吸数計測装置等が挙げられる。携帯・装着型の生体情報取得装置9の例として、呼吸数測定装置、心拍数測定装置、血圧測定装置等が挙げられる。
(学習データ)
 図12は、学習データ32を説明する図である。図8に比して、図12が異なる点は、生体情報欄が追加されていることである。例えば、生体情報“G11(#,#,…)”は、温度情報“S11(#,#,…)”が取得された時点t1において、生体情報取得装置9が取得した生体情報である。“(#,#,…)”には、例えば、体重、肉厚、におい(特定の化学的物質の濃度等)、呼吸数、脈拍数、血圧、・・・を示す値が並んでいる。
 人6がドア5を通過する僅かの時間内に、特徴取得装置2が温度を取得するタイミング(周期)に同期して、生体情報取得装置9がこれらの生体情報を取得することができない場合もある。仮に可能であっても、取得された生体情報は、殆ど同じである場合もある。このような場合、生体情報取得装置9は、例えば“G11(#,#,…)”のみを取得してもよい。すると、図12において“G11(#,#,…)、G12(#,#,…)、・・・、G19(#,#,…)”が記憶されている欄は、1つに統合され、そこには、“G11(#,#,…)”のみが記憶される。
(学習処理手順)
 図13は、学習処理手順のフローチャートである。図9に比して、図13が異なる点は、ステップS201b及びS202bが追加されていることである。以降では、追加されたステップの処理のみを説明する。
 ステップS201bにおいて、個人識別装置1の学習処理部21は、生体情報を取得する。具体的には、学習処理部21は、予め設定された周期で生体情報取得装置9から生体情報を取得する。
 ステップS202bにおいて、学習処理部21は、温度情報に生体情報を付す。具体的には、学習処理部21は、ステップS201において取得した温度情報に、ステップS201bにおいて取得した生体情報を関連付ける。
 なお、ステップS205において、学習処理部21は、学習データ32(図12)の新たなレコード群を作成することになる。ステップS207の“第1”において、学習処理部21は、(2)の処理として、学習データ32のうちレコード群30個分の温度情報及び生体情報を特徴モデル33の入力層に入力する。
(識別処理手順)
 図14は、識別処理手順のフローチャートである。図10に比して、図14が異なる点は、ステップS301bが追加され、ステップS304の処理内容が変化していることである。以降では、追加された又は変化したステップの処理のみを説明する。
 ステップS301bにおいて、個人識別装置1の識別処理部22は、生体情報を取得する。具体的には、識別処理部22は、予め設定された周期で生体情報取得装置9から生体情報を取得する。
 ステップS304において、識別処理部22は、特徴モデル33に温度情報及び生体情報を入力する。具体的には、識別処理部22は、パラメータが最適化された特徴モデル33に対して、補間後の温度情報、及び、ステップS301bにおいて取得した生体情報を入力する。
(入力とする情報)
 第1の実施形態及び第2の実施形態を通じて、特徴取得装置2又は生体情報取得装置9が取得する情報は、個人のプライバシーを含まないものであれば、何でもよい。2次元の温度情報は、その典型例であるが、特徴取得装置2が取得する情報は、それ以外にも、例えば以下のような情報を含む。つまり、特徴取得装置2又は生体情報取得装置9が取得する情報は、任意の次元の情報である。
・人6の身体の1又は複数の箇所から取得される、生体情報を含む任意の情報
・人6の身体の1又は複数の箇所と特徴取得装置2との間の距離
・床面の1又は複数の位置に掛かる人6の体重
・血圧、心拍数、脈拍数を含む人6の生体情報
・人6が発するにおい(分泌物等内の特定の化学的成分の濃度等)
(センサの種類)
 特徴取得装置2及び生体情報取得装置9は、赤外線を検知する素子以外に、超音波センサ、距離センサを有していてもよい。さらに、生体情報取得装置9は、ミリ波を人に照射して心拍数を検知してもよいし、WiFi電波を人に照射して脈拍数及び呼吸数を検知してもよい。
(特徴取得装置2の位置等)
 特徴取得装置2の本体が人6の頭部よりも上方にある必要はない。頭部よりも上方から見た温度情報が得られればよい。光軸が水平でも垂直でもなければよいことは、例えば、光ファイバー、ミラー等による導光を妨げるものではない。
(本実施形態の効果)
 本実施形態の個人識別システムの効果は以下の通りである。
(1)個人識別システムは、個人のプライバシーを守りやすい温度情報によって個人の特徴を識別することができる。
(2)個人識別システムは、身長、体格(肉厚)、歩容等を確実かつ安定的に視野内に捉えることができる。
(3)個人識別システムは、特徴モデルを使用するので、ユーザは、ニーズに応じて特徴モデルを学習することができる。
(4)個人識別システムは、ユーザのニーズに応じた学習データを作成することができる。
(5)個人識別システムは、ユーザのニーズに応じたタイミングで特徴モデルを学習することができる。
(6)個人識別システムは、見守り又は先回りの目的で、個人の識別結果を活用することができる。
(7)個人識別システムは、警備の目的で、個人の識別結果を活用することができる。
(8)個人識別システムは、複数の位置から取得した温度情報を根拠として、より高い精度で個人を識別することができる。
(9)個人識別システムは、生体情報を個人認識の根拠として使用することができる。
(10)個人識別システムは、個人の外形又は状態を識別することもできる。
 なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
 1   個人識別装置
 2   特徴取得装置
 3   掲示装置
 4   ネットワーク
 5   ドア
 6   人(個人)
 7   光軸
 9   生体情報取得装置
 11  中央制御装置
 12  入力装置
 13  出力装置
 14  主記憶装置
 15  補助記憶装置
 16  通信装置
 21  学習処理部
 22  識別処理部
 31  温度情報
 32  学習データ
 33  特徴モデル

Claims (12)

  1.  個人を被写体とする2次元の温度情報を取得する特徴取得装置と、
     前記取得した温度情報から個人の特徴を識別する個人識別装置と、
     前記識別した個人の特徴を出力する提示装置と、
     を備えることを特徴とする個人識別システム。
  2.  前記特徴取得装置は、
     個人の頭部より上方に設置され、
     前記特徴取得装置と前記特徴取得装置の視野面の中心点とを結ぶ光軸は、
     水平ではなく垂直でもないこと、
     を特徴とする請求項1に記載の個人識別システム。
  3.  前記個人識別装置は、
     前記視野面を通過する前記個人を被写体とする2次元の温度情報を入力とし、前記個人の特徴を出力とする特徴モデルを使用することによって、前記個人の特徴を識別すること、
     を特徴とする請求項2に記載の個人識別システム。
  4.  前記個人識別装置は、
     前記2次元の温度情報及び既知の前記個人の特徴の複数の組合せである学習データを生成し、
     前記学習データを使用して、前記特徴モデルのパラメータを最適化すること、
     を特徴とする請求項3に記載の個人識別システム。
  5.  前記個人識別装置は、
     前記パラメータを最適化するタイミングを決定すること、
     を特徴とする請求項4に記載の個人識別システム。
  6.  前記提示装置は、
     識別結果に応じて、前記個人に関する見守り情報、又は、前記個人が使用する機器の操作に関する情報を出力すること、
     を特徴とする請求項5に記載の個人識別システム。
  7.  前記提示装置は、
     前記個人が前記視野面を通過することを許可されていない場合、
     任意の機器に対して警報を出力すること、
     を特徴とする請求項6に記載の個人識別システム。
  8.  前記特徴取得装置は、
     複数存在し、
     複数の前記特徴取得装置のそれぞれの位置は、
     相互に異なり、
     前記個人識別装置は、
     複数の前記特徴取得装置が取得した温度情報から個人の特徴を識別すること、
     を特徴とする請求項1に記載の個人識別システム。
  9.  前記個人の生体情報を取得する1又は複数の生体情報取得装置を備え、
     前記個人識別装置は、
     前記特徴取得装置が取得した温度情報及び1又は複数の前記生体情報取得装置が取得した生体情報から個人の特徴を識別すること、
     を特徴とする請求項1に記載の個人識別システム。
  10.  前記個人の特徴は、
     前記個人を一意に特定する情報、前記個人の外形、及び、前記個人の状態のうちの少なくとも1つであること、
     を特徴とする請求項1に記載の個人識別システム。
  11.  個人を被写体とする任意の次元の情報を取得する特徴取得装置と、
     前記取得した任意の次元の情報から個人の特徴を識別する個人識別装置と、
     前記識別した個人の特徴を出力する提示装置と、
     を備えることを特徴とする個人識別システム。
  12.  コンピュータを、
     個人を被写体とする2次元の温度情報を取得する特徴取得装置と、
     前記取得した温度情報から個人の特徴を識別する個人識別装置と、
     前記識別した個人の特徴を出力する提示装置と、
     して機能させることを特徴とする個人識別プログラム。
PCT/JP2021/014650 2020-04-14 2021-04-06 個人識別システム及び個人識別プログラム WO2021210454A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-072416 2020-04-14
JP2020072416A JP2021170176A (ja) 2020-04-14 2020-04-14 個人識別システム及び個人識別プログラム

Publications (1)

Publication Number Publication Date
WO2021210454A1 true WO2021210454A1 (ja) 2021-10-21

Family

ID=78084851

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/014650 WO2021210454A1 (ja) 2020-04-14 2021-04-06 個人識別システム及び個人識別プログラム

Country Status (2)

Country Link
JP (1) JP2021170176A (ja)
WO (1) WO2021210454A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024142791A1 (ja) * 2022-12-26 2024-07-04 パナソニックIpマネジメント株式会社 特定システム、特定方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2005115460A (ja) * 2003-10-03 2005-04-28 Toshiba Corp 顔照合装置および通行制御装置
JP2005115461A (ja) * 2003-10-03 2005-04-28 Toshiba Corp 顔照合を用いた電子機器制御装置
JP2018160237A (ja) * 2017-03-23 2018-10-11 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認証方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2005115460A (ja) * 2003-10-03 2005-04-28 Toshiba Corp 顔照合装置および通行制御装置
JP2005115461A (ja) * 2003-10-03 2005-04-28 Toshiba Corp 顔照合を用いた電子機器制御装置
JP2018160237A (ja) * 2017-03-23 2018-10-11 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認証方法及び装置

Also Published As

Publication number Publication date
JP2021170176A (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
US11037300B2 (en) Monitoring system
Cardinaux et al. Video based technology for ambient assisted living: A review of the literature
Zhang et al. A survey on vision-based fall detection
CN105794191B (zh) 识别数据传输装置及方法和识别数据记录装置及方法
Tyndall et al. Occupancy estimation using a low-pixel count thermal imager
Chen et al. A fall detection system based on infrared array sensors with tracking capability for the elderly at home
JP5150067B2 (ja) 監視システム、監視装置及び監視方法
JP6666488B2 (ja) 画像抽出装置
Fan et al. Robust unobtrusive fall detection using infrared array sensors
Fan et al. Fall detection via human posture representation and support vector machine
Zhong et al. Multi-occupancy fall detection using non-invasive thermal vision sensor
Yao et al. A new approach to fall detection based on the human torso motion model
US11216704B2 (en) Recognition system using multimodality dataset
CN108701211A (zh) 用于实时地检测、跟踪、估计和识别占用的基于深度感测的***
Griffiths et al. Privacy-preserving image processing with binocular thermal cameras
RU2713876C1 (ru) Способ и система выявления тревожных событий при взаимодействии с устройством самообслуживания
JP2019049978A (ja) 通信端末、通信システム、画像処理方法、及びプログラム
Xiang et al. Remote safety monitoring for elderly persons based on omni-vision analysis
WO2021210454A1 (ja) 個人識別システム及び個人識別プログラム
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2023196392A1 (en) Environment sensing for care systems
JP2020522828A (ja) コンピュータービジョンベースの監視システムおよび方法
Pinitkan et al. Abnormal activity detection and notification platform for real-time ad hoc network
JP5143780B2 (ja) 監視装置及び監視方法
JP2020145595A (ja) 看視又は監視システム、又はプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21788623

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21788623

Country of ref document: EP

Kind code of ref document: A1