WO2020194497A1 - 情報処理装置、個人識別装置、情報処理方法及び記憶媒体 - Google Patents

情報処理装置、個人識別装置、情報処理方法及び記憶媒体 Download PDF

Info

Publication number
WO2020194497A1
WO2020194497A1 PCT/JP2019/012793 JP2019012793W WO2020194497A1 WO 2020194497 A1 WO2020194497 A1 WO 2020194497A1 JP 2019012793 W JP2019012793 W JP 2019012793W WO 2020194497 A1 WO2020194497 A1 WO 2020194497A1
Authority
WO
WIPO (PCT)
Prior art keywords
series data
elements
information processing
integrated
index
Prior art date
Application number
PCT/JP2019/012793
Other languages
English (en)
French (fr)
Inventor
章記 海老原
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP19921882.7A priority Critical patent/EP3951620A4/en
Priority to JP2021508462A priority patent/JP7248102B2/ja
Priority to CN201980094592.9A priority patent/CN113646758A/zh
Priority to PCT/JP2019/012793 priority patent/WO2020194497A1/ja
Priority to US17/439,009 priority patent/US20220147778A1/en
Publication of WO2020194497A1 publication Critical patent/WO2020194497A1/ja
Priority to US18/235,204 priority patent/US20230394118A1/en
Priority to US18/235,248 priority patent/US20230401290A1/en
Priority to US18/235,229 priority patent/US20230401289A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Definitions

  • the present invention relates to an information processing device, an identification friend or foe, an information processing method, and a storage medium.
  • Patent Documents 1 to 3 disclose an information processing technique using a sequential probability ratio test (SPRT).
  • SPRT is a kind of method for determining which of a plurality of predetermined classes the serially input series data belongs to.
  • An object of the present invention is to provide an information processing device, an individual identification device, an information processing method, and a storage medium capable of classifying series data with high accuracy.
  • the acquisition unit for sequentially acquiring a plurality of elements included in the series data and the plurality of classes for each of the plurality of elements is appropriate.
  • the first calculation unit that calculates the index in consideration of two or more of the plurality of elements and the index of each of the plurality of elements are integrated, and the series data is any of the plurality of classes.
  • an information processing apparatus including a second calculation unit for calculating an integrated index indicating whether or not it is appropriate to belong to the above, and a classification unit for classifying the series data into any class based on the integrated index. Will be done.
  • the series data belongs to any of the plurality of classes.
  • An information processing method includes a step of calculating an integrated index indicating whether or not this is appropriate, a step of classifying the series data into any class based on the integrated index, and a step of classifying the series data into any class.
  • the computer it is appropriate for the computer to sequentially acquire a plurality of elements included in the series data and to belong to any of a plurality of classes for each of the plurality of elements.
  • the series data is of the plurality of classes.
  • an information processing method including a step of calculating an integrated index indicating which one is appropriate to belong to, and a step of classifying the series data into any class based on the integrated index.
  • a storage medium in which the program is stored is provided.
  • an information processing device it is possible to provide an information processing device, a personal identification device, an information processing method, and a storage medium capable of classifying series data with high accuracy.
  • the series data classification system according to this embodiment will be described.
  • the series data classification system of the present embodiment is for classifying the series data into one of a plurality of predetermined classes by sequentially acquiring and analyzing a plurality of elements included in the series data. It is a system.
  • the series data means a data string that can be decomposed into a plurality of elements.
  • the series data may be time series data or non-time series data.
  • time-series data include moving image data, audio data, and the like.
  • non-time series data include vegetation data sampled from a plurality of locations, inspection data at a plurality of locations of a product, and a plurality of biometric data for biometric authentication.
  • the series data is moving image data
  • the plurality of elements included in the series data may be a plurality of images (frames) constituting the moving image.
  • the series data is inspection data of a plurality of parts of a product
  • the plurality of elements included in the series data may be inspection data of each part of the product.
  • the series data and elements to which the classification process of the present embodiment can be applied are not limited to these.
  • the classes classified by the series data classification system of the present embodiment are, for example, the first class indicating that the product is a good product and the product is a defective product. It can be a second class showing that.
  • the class classified by the series data classification system of the present embodiment is, for example, the first class indicating that the authentication target person is the same person as the target person. And can be a second class indicating that they are not the same person.
  • the number of classes may be 3 or more.
  • FIG. 1 is a schematic diagram showing the overall configuration of the series data classification system according to the present embodiment.
  • FIG. 1 shows the configuration of the hardware included in the series data classification system.
  • the series data classification system includes an information processing device 100, a data acquisition device 201, an input device 202, and a display device 203.
  • the information processing device 100 is a computer such as a mobile phone, a smartphone, a desktop PC (Personal Computer), a laptop PC, or a server.
  • the information processing device 100 includes a processor 101, a memory 102, a storage 103, an input / output I / F (Interface) 104, and a communication I / F 105.
  • Each part of the information processing apparatus 100 is connected to each other via a bus, wiring, a driving device, and the like, and can transmit and receive control signals and data to and from each other.
  • the processor 101 is, for example, an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 102 is, for example, a volatile or non-volatile storage medium such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the storage 103 is a non-volatile storage medium such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory card.
  • the memory 102 or the storage 103 stores a program for realizing the information processing function of the information processing device 100.
  • the processor 101 may read the program onto the memory 102 and then execute the program, or may execute the program without reading the program onto the memory 102.
  • Non-transient computer-readable media include various types of storage media.
  • Non-transitory computer-readable media include, for example, magnetic storage media, photomagnetic storage media, optical storage media and semiconductor memories.
  • Examples of magnetic storage media include flexible disks, magnetic tapes, hard disk drives, and the like.
  • An example of a magneto-optical storage medium is a magneto-optical disk.
  • Examples of optical storage media include CD-ROM (Compact Disc Read Only Memory), CD-R (Compact Disc Recordable), and CD-R / W (Compact Disc Rewritable).
  • Examples of semiconductor memory include mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, and RAM.
  • the program may be supplied to the information processing apparatus 100 by various kinds of temporary computer-readable media.
  • Temporary computer-readable media include, for example, electrical signals, optical signals and electromagnetic waves.
  • the temporary computer-readable medium may supply a program to the information processing apparatus 100 via a wired communication path such as an electric wire or an optical fiber or a wireless communication path.
  • the input / output I / F 104 is a communication interface for communicating with peripheral devices based on standards such as USB (Universal Serial Bus) and DVI (Digital Visual Interface).
  • the input / output I / F 104 can make a communication connection to the data acquisition device 201, the input device 202, and the display device 203 by wire or wirelessly.
  • the information processing device 100 can send and receive data and control signals to and from the data acquisition device 201, the input device 202, and the display device 203.
  • Communication I / F105 is a communication interface based on standards such as Bluetooth (registered trademark), Wi-Fi (registered trademark), and 4G.
  • the communication I / F 105 can make a communication connection to an external device by wire or wirelessly.
  • the information processing device 100 can send and receive data to and from an external device.
  • the data acquisition device 201 is a device for acquiring series data.
  • the data acquisition device 201 may be an inspection device provided in a factory or the like.
  • the data acquisition device 201 may be a device for acquiring biometric information such as a digital camera, a microphone, or a scanner for fingerprint collection.
  • the data acquisition device 201 may include a device such as a sensor that acquires an analog signal
  • the data acquisition device 201 may include an AD conversion (Analog-to-Digital Conversion) device that converts the analog signal into digital data. ..
  • the series data acquired by the data acquisition device 201 is input to the information processing device 100.
  • the input device 202 is a user interface for receiving an operation of the information processing device 100 by the user.
  • Examples of the input device 202 include a keyboard, a mouse, a trackball, a touch sensor, a pen tablet, a button, and the like.
  • the display device 203 is a device that displays a screen based on the drawing data processed by the processor 101. Examples of the display device 203 include an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, an OLED (Organic Light Emitting Diode) display, and the like.
  • the input device 202 and the display device 203 may be integrally formed as a touch panel.
  • the hardware configuration shown in FIG. 1 is an example, and devices other than these may be added, or some devices may not be provided. Further, some devices may be replaced with other devices having similar functions. Further, some functions of the present embodiment may be provided by other devices via a network, or the functions of the present embodiment may be distributed and realized by a plurality of devices.
  • the storage 103 may be replaced with a cloud storage outside the information processing device 100.
  • the data acquisition device 201 may be omitted. Alternatively, the data acquisition device 201, the input device 202, or the display device 203 may be provided in the information processing device 100. As described above, the hardware configuration shown in FIG. 1 can be changed as appropriate.
  • FIG. 2 is a functional block diagram of the information processing device 100 according to the present embodiment.
  • the information processing device 100 includes an acquisition unit 110, a first calculation unit 120, a second calculation unit 130, and a classification unit 140.
  • the first calculation unit 120 includes an index calculation unit 121 and a first storage unit 122.
  • the second calculation unit 130 includes an integrated index calculation unit 131 and a second storage unit 132.
  • the processor 101 realizes the functions of the acquisition unit 110, the index calculation unit 121, the integrated index calculation unit 131, and the classification unit 140 by executing the program stored in the memory 102, the storage 103, or the like. Further, the processor 101 realizes the functions of the first storage unit 122 and the second storage unit 132 by controlling the storage 103 based on the program. Specific processing performed in each of these parts will be described later.
  • FIG. 3 is a flowchart showing an example of the classification process performed by the information processing apparatus 100 according to the present embodiment.
  • the classification process shown in FIG. 3 is a process of classifying the input series data into one of a plurality of predetermined classes.
  • the classification process of FIG. 3 includes a loop process (steps S101 to S106) in which elements are acquired one by one from the series data including a plurality of elements and the integrated index is sequentially calculated. This loop processing is repeated until the class to which the series data is classified is determined based on the integration index (integration likelihood ratio).
  • the process of FIG. 3 may be started, for example, when a predetermined user operation is performed on the input device 202.
  • the processing start timing is not limited to this.
  • the process of FIG. 3 may be executed when series data is input from the data acquisition device 201. Further, when the series data is continuously input as in the case where the data acquisition device 201 is a surveillance camera, the process of FIG. 3 may be repeatedly executed at predetermined time intervals. Good.
  • step S101 the acquisition unit 110 acquires one element of the series data.
  • the acquisition process at this time may be one in which data is directly acquired from the data acquisition device 201, or one in which data acquired in advance from the data acquisition device 201 and stored in the storage 103 or the like is read out.
  • the index calculation unit 121 reads out the past data stored in the first storage unit 122.
  • the past data means the processing result of the index calculation unit 121 for the element before the j-th element when the present processing is the processing for the j-th element of the series data. Alternatively, the past data may be the element itself input before the j-th.
  • the first storage unit 122 stores the processing result or the input element each time the processing is performed by the index calculation unit 121. This storage process may overwrite the information stored in the past with new information, or may add new information while leaving the information stored in the past.
  • the index calculation unit 121 considers two or more elements among the plurality of elements included in the series data, and indicates which of the plurality of classes it is appropriate for the input element to belong to. Calculate the index.
  • the two or more elements include an input element and a previously processed element included in the past data.
  • the first calculation unit 120 outputs the calculated index to the second calculation unit 130, and stores the processing result in the first storage unit 122 as needed.
  • the index can be, for example, a likelihood ratio indicating the likelihood that an element belongs to a certain class among a plurality of classes.
  • the index may be a function that includes the likelihood ratio as a variable. In the following description, the index is assumed to be the likelihood ratio.
  • the index calculation unit 121 extracts features from the elements input from the series data. At this time, the index calculation unit 121 performs feature extraction in consideration of the relationship between the input element and the past data.
  • a specific method of feature extraction for example, a convolutional neural network (CNN) can be used, but the method is not limited to this.
  • CNN convolutional neural network
  • LSTM Long Short Term Memory
  • the N elements constituting the series data be x 1 , ..., X N
  • the plurality of classes be C 1 , C 2 . That is, in this example, for simplification, it is assumed that the number of classes is two, which is a two-class classification.
  • the probability that the element x i belongs to the class C 1 is calculated as p (x i
  • the probability that the element x i belongs to the class C 2 is calculated as p (x i
  • these likelihood ratios are expressed by the following equation (1).
  • the likelihood ratio of the equation (1) shows the ratio of the likelihood that the element x i belongs to the class C 1 and the probability that the element x i belongs to the class C 2 . For example, when the likelihood ratio exceeds 1, p (x i
  • the index calculation unit 121 can calculate a plurality of elements, that is, in consideration of the relationship between the input element and the past data as described above. At this time, for example, the likelihood ratio calculated in consideration of the two elements x i and x i-1 is expressed as the following equation (2).
  • step S104 the integrated index calculation unit 131 reads out the integrated index calculated in the past from the second storage unit 132.
  • the integrated index calculation unit 131 calculates a new integrated index by integrating the likelihood ratio calculated this time by the index calculation unit 121 and the integrated index calculated in the past.
  • the second calculation unit 130 outputs the calculated integrated index to the classification unit 140 and stores it in the second storage unit 132.
  • the integrated index indicates which of the multiple classes it is appropriate for the entire series data to belong to.
  • the past integrated index means the integrated index calculated by the integrated index calculation unit 131 for the elements before the j-th element when this processing is the processing for the j-th element of the series data.
  • the second storage unit 132 stores the integrated index each time the processing is performed by the integrated index calculation unit 131. This storage process may update the value of the integrated index by overwriting the new integrated index with the integrated index stored in the past, and the new integration may be performed while leaving the previously stored integrated index. An index may be added.
  • the integration index can be, for example, an integration likelihood ratio that indicates the likelihood that the series data belongs to a certain class among a plurality of classes.
  • the integration index may be a function that includes the integration likelihood ratio as a variable. In the following description, it is assumed that the integrated index is the integrated likelihood ratio.
  • Equation (3) is called the integrated likelihood ratio.
  • the integrated likelihood ratio is calculated by decomposing into the argument for each element as shown in the following equation (4). be able to.
  • equation (4) each element is decomposed into a sum by using the logarithm of the likelihood ratio for simplification of calculation, but this is not essential.
  • likelihood ratio or integrated likelihood ratio may also be used with respect to the log-likelihood ratio.
  • the notation of the base of the logarithm is omitted, but the value of the base is arbitrary.
  • the likelihood ratio and the integrated likelihood ratio are calculated in consideration of two or more elements, the assumption that each element is independent is often not established. Therefore, unlike the equation (4), it cannot be decomposed into terms for each element, and the integrated likelihood ratio is calculated by a different calculation formula depending on the number of elements considering the relationship.
  • the integrated likelihood ratio can be calculated using the following equation (5).
  • the integrated likelihood ratio can be calculated using the following equation (6).
  • the likelihood ratio calculated in advance by the index calculation unit 121 in step S103 in consideration of two or three elements may be used. it can.
  • Equations (5) and (6) show an example of a two-class classification for calculating the likelihood ratio between class C 1 and class C 2 , but the number of classes may be 3 or more. ..
  • the equation (5) can be used to calculate the integrated likelihood ratio between the k-th class among the M classes and all the classes other than the k-th class. It is possible to use an extension of the right side of.
  • An example of such an extension is one that uses the maximum likelihood of all classes other than the k-th, as in equation (7) below.
  • the sum of the likelihoods of all the classes other than the k-th is used.
  • the method of calculating the integrated likelihood ratio when the number of classes is 3 or more is not limited to these.
  • Equations (5) to (8) exemplify the case where two or three elements are considered, but four or more elements may be considered.
  • the integrated likelihood ratio can be calculated by extending the equations (5) to (8) by the same method.
  • the calculation method of the integrated index is not limited to the above.
  • the integrated index may be calculated by a method using LSTM or a deep neural network.
  • step S106 the classification unit 140 determines whether or not the series data can be classified into any class based on the integrated index calculated by the second calculation unit 130.
  • the integrated index is the integrated likelihood ratio
  • the classification unit 140 determines, for example, whether or not the class can be classified based on whether or not there is a class whose integrated likelihood ratio exceeds a predetermined threshold value. If it is not classifiable (NO in step S106), the process proceeds to step S101, and the acquisition unit 110 acquires the next element. If it can be classified (YES in step S106), the process proceeds to step S107.
  • step S107 the classification unit 140 classifies the series data into one of the classes based on the integrated index. For example, when the integration index is the integration likelihood ratio, the series data is classified as belonging to a class in which the integration likelihood ratio exceeds a predetermined threshold.
  • steps S106 and S107 will be described in more detail with reference to specific examples.
  • the classification process of this example is assumed to be two-class classification into class C 1 or class C 2, and the threshold values used for the determination of class C 1 and class C 2 are T 1 and T 2 , respectively.
  • the integrated likelihood ratio for Class C 1 L 1, the integrated likelihood ratio for Class C 2 and L 2.
  • L 2 ⁇ L 1 , so that only L 1 needs to be calculated substantially.
  • the classification unit 140 classifies the series data into class C 1 , and this process ends.
  • L 2 > T 2 the classification unit 140 classifies the series data into class C 2 , and this process ends.
  • L 1 ⁇ T 1 and L 2 ⁇ T 2 the classification unit 140 determines that the classification is not possible, and the acquisition unit 110 acquires the next element.
  • M thresholds are prepared in the same manner as described above, and the magnitude relationship with the corresponding thresholds for each of the M integrated likelihood ratios.
  • the same classification process can be performed by determining.
  • the classification unit 140 classifies the series data into the class in which the integrated likelihood ratio first exceeds the threshold value. If the integrated likelihood ratio does not exceed any of the thresholds, the classification unit 140 determines that the classification is not possible, and the acquisition unit 110 acquires the next element.
  • the above classification method is an example and is not limited to this.
  • a predetermined value maximum number of elements
  • the series data is forced even if there is no class whose integrated likelihood ratio exceeds the threshold value.
  • the procedure may be modified to classify into one of the classes and end the process. As a result, it is possible to prevent the calculation time from becoming too long.
  • the series data is classified using the integrated index in which a plurality of elements of the series data are taken into consideration.
  • the information processing device 100 capable of accurately classifying the series data is provided.
  • the classification process in the information processing apparatus 100 of the present embodiment is more effective when the correlation between the elements of the series data is strong.
  • SPRT as disclosed in Patent Documents 1 to 3
  • an algorithm that does not consider the relationship between the elements of the series data is used as in Eq. (4), so that the series has a strong relationship between the elements.
  • Data is also classified as having no relationship between the elements. Therefore, the classification accuracy may deteriorate for series data with strong relevance between elements.
  • equations (5) to (8) the relationships between the elements of the series data are taken into consideration, so that the relationships between the elements are high. Classification accuracy is unlikely to deteriorate even for strong series data.
  • a specific example of a case where the correlation between the elements of the series data is strong is time series data such as moving image data.
  • time series data such as moving image data.
  • moving image data in general, one frame and the next frame often have similar characteristics. Therefore, the classification process in the information processing apparatus 100 of the present embodiment is more effective in the processing of time series data.
  • the personal identification friend or foe 300 will be described as one of the application examples of the information processing device 100 of the first embodiment.
  • the differences from the first embodiment will be mainly described, and the description of common parts will be omitted or simplified.
  • FIG. 4 is a functional block diagram of the personal identification friend or foe 300 according to the second embodiment.
  • the personal identification friend or foe 300 includes a classification device 301, a biometric information acquisition unit 302, and a biometric information storage unit 303.
  • the personal identification friend or foe 300 may include a computer in the same manner as the information processing device 100 shown in FIG. Therefore, the description of the hardware configuration of the personal identification friend or foe 300 will be omitted.
  • the personal identification device 300 is a device that identifies an individual by collating the biometric information of the identification target person such as a face image, a fingerprint image, or an iris image with the biometric information registered in advance.
  • the personal identification device 300 may be provided with a device (camera or the like) for acquiring biometric information and may operate standalone, and may acquire biometric information from another device in the personal identification system to acquire personal biometric information. It may be used for identification. Further, the personal identification friend or foe 300 may be composed of a plurality of devices that are communicated with each other.
  • the personal identification device 300 can be, for example, an authentication device for a face recognition gate.
  • the identification friend or foe 300 can be an intelligent camera.
  • An intelligent camera is an IP (Internet Protocol) camera or a network camera having an analysis function inside, and is sometimes called a smart camera.
  • the biometric information acquisition unit 302 is a device that acquires biometric information, and may be, for example, a digital camera capable of shooting a moving image.
  • a collation feature amount may be extracted from an image or the like acquired by the biometric information acquisition unit 302.
  • This feature amount extraction process may be performed in the classification device 301, may be performed in the biometric information acquisition unit 302 at the time of biometric information acquisition, or may be performed by another device.
  • the image itself acquired by the biometric information acquisition unit 302 and the feature amount extracted from the image itself may be collectively referred to as biometric information.
  • the biometric information storage unit 303 stores information necessary for processing of the registrant's biometric information and the like in the classification device 301.
  • the information processing device 100 of the first embodiment is used as the classification device 301.
  • the classification device 301 acquires the series data having the biological information as an element as the series data described in the first embodiment.
  • the classification device 301 classifies this series data into one of a plurality of predetermined classes while referring to the information stored in the biometric information storage unit 303.
  • the plurality of classes may be, for example, a class indicating a person who matches the input series data.
  • the plurality of classes may be, for example, a class indicating the presence or absence of spoofing.
  • the plurality of classes may include, for example, a class indicating that the input series data has spoofing and a class indicating that the input series data does not have spoofing.
  • the personal identification friend or foe 300 of the present embodiment includes a classification device 301 capable of accurately classifying series data. As a result, the personal identification device 300 capable of performing personal identification more appropriately is provided.
  • an example of spoofing detection will be described as one of the examples in which the feature of the information processing device 100 of the first embodiment that the classification accuracy of series data is high is further utilized.
  • biometric authentication such as face authentication
  • a method using a non-living body such as a face photograph or a face model of the person is known.
  • a method of detecting such spoofing there is a method of taking a plurality of images and determining that the image is not a living body when the difference between the plurality of images is small.
  • spoofing detection is possible by inputting a time-series image of the person to be authenticated as series data and classifying the series data to indicate the presence or absence of spoofing using the difference between the images as a feature amount.
  • the time variation of the images included in the input time series data is very small, and the correlation between the images is often strong. Therefore, when classifying spoofing detection, it is effective to use the classification process of the information processing apparatus 100 of the first embodiment in which the classification accuracy is less likely to deteriorate for the series data having a strong relationship between the elements. ..
  • the device or system described in the above-described embodiment can also be configured as in the following third embodiment.
  • FIG. 5 is a functional block diagram of the information processing apparatus 400 according to the third embodiment.
  • the information processing device 400 includes an acquisition unit 410, a first calculation unit 420, a second calculation unit 430, and a classification unit 440.
  • the acquisition unit 410 sequentially acquires a plurality of elements included in the series data.
  • the first calculation unit 420 calculates, for each of the plurality of elements, an index indicating which of the plurality of classes is appropriate to belong to, in consideration of two or more elements among the plurality of elements.
  • the second calculation unit 430 integrates each index of the plurality of elements and calculates an integrated index indicating which of the plurality of classes it is appropriate for the series data to belong to.
  • the classification unit 440 classifies the series data into one of the classes based on the integrated index.
  • an information processing device 400 capable of classifying series data with high accuracy.
  • a processing method in which a program for operating the configuration of the embodiment is recorded in a storage medium, the program recorded in the storage medium is read out as a code, and the computer executes the program so as to realize the functions of the above-described embodiment is also described in each embodiment. Included in the category. That is, a computer-readable storage medium is also included in the scope of each embodiment. Moreover, not only the storage medium in which the above-mentioned program is recorded but also the program itself is included in each embodiment. Further, one or more components included in the above-described embodiment are circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array) configured to realize the functions of the components. There may be.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the storage medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a non-volatile memory card, or a ROM can be used.
  • the program recorded on the storage medium is not limited to the one that executes the processing by itself, but the one that operates on the OS (Operating System) and executes the processing in cooperation with the functions of other software and the expansion board. Is also included in the category of each embodiment.
  • SaaS Software as a Service
  • An acquisition unit that sequentially acquires multiple elements included in series data, A first calculation unit that calculates an index indicating which of the plurality of classes is appropriate for each of the plurality of elements in consideration of two or more of the plurality of elements.
  • a second calculation unit that integrates the indicators of each of the plurality of elements and calculates an integrated index indicating which of the plurality of classes the series data is appropriate to belong to.
  • a classification unit that classifies the series data into any class based on the integrated index, Information processing device equipped with.
  • the index includes a likelihood ratio indicating the likelihood that each of the plurality of elements belongs to a certain class among the plurality of classes.
  • the information processing device according to Appendix 1.
  • the integrated index includes an integrated likelihood ratio indicating the likelihood that the series data belongs to a certain class among the plurality of classes.
  • the information processing device according to Appendix 1 or 2.
  • the classification unit is based on the integrated likelihood ratio when there is no class in which the integrated likelihood ratio exceeds a predetermined threshold value and the number of elements of the series data is larger than the predetermined value. Classify data into one of the classes, The information processing device according to any one of Appendix 3 to 5.
  • the first calculation unit A first storage unit that stores information processed in the past in the first calculation unit, An index calculation unit that calculates the index based on the element and the information stored in the first storage unit when the element of the series data is acquired by the acquisition unit. To prepare The information processing device according to any one of Appendix 1 to 6.
  • the second calculation unit A second storage unit that stores the integrated index calculated in the past in the first calculation unit, An integrated index calculation unit that calculates the integrated index by integrating the index output from the first calculation unit and the integrated index stored in the second storage unit. To prepare The information processing device according to Appendix 7.
  • the series data is time series data.
  • the information processing device according to any one of Appendix 1 to 8.
  • the biometric information acquisition unit that acquires the biometric information of the target person, The information processing apparatus according to any one of Appendix 1 to 9 and With The information processing device classifies the series data including the biometric information as the element into any class. Identification friend or foe.
  • the information processing device classifies the series data into any class indicating the presence or absence of spoofing of the biometric information.
  • the personal identification device according to Appendix 10.
  • Steps to sequentially acquire multiple elements contained in series data For each of the plurality of elements, a step of calculating an index indicating which of the plurality of classes it is appropriate to belong to in consideration of two or more elements of the plurality of elements, and A step of integrating the indicators of each of the plurality of elements to calculate an integrated indicator indicating which of the plurality of classes the series data is appropriate to belong to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

系列データに含まれる複数の要素を逐次的に取得する取得部と、前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出する第1算出部と、前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出する第2算出部と、前記統合指標に基づいて、前記系列データをいずれかのクラスに分類する分類部と、を備える情報処理装置が提供される。

Description

情報処理装置、個人識別装置、情報処理方法及び記憶媒体
 本発明は、情報処理装置、個人識別装置、情報処理方法及び記憶媒体に関する。
 特許文献1乃至3には、逐次確率比検定(Sequential Probability Ratio Test; SPRT)を用いた情報処理技術が開示されている。SPRTは、逐次的に入力される系列データがあらかじめ定められた複数のクラスのうちのいずれに属するかを判定する手法の一種である。
特開2009-245314号公報 特開2008-299589号公報 特表2001-523824号公報
 特許文献1乃至3に開示されているようなSPRTに用いられる数学公式においては、系列データの各要素が独立同分布(Independently and Identically Distributed; i.i.d.)から得られる確率変数であることが仮定されている。したがって、SPRTでは、系列データの要素間の関係性が考慮されていないため、系列データの性質によっては十分な精度が得られない場合があった。
 本発明は、精度良く系列データの分類を行うことができる情報処理装置、個人識別装置、情報処理方法及び記憶媒体を提供することを目的とする。
 本発明の一観点によれば、系列データに含まれる複数の要素を逐次的に取得する取得部と、前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出する第1算出部と、前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出する第2算出部と、前記統合指標に基づいて、前記系列データをいずれかのクラスに分類する分類部と、を備える情報処理装置が提供される。
 本発明の他の一観点によれば、系列データに含まれる複数の要素を逐次的に取得するステップと、前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出するステップと、前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出するステップと、前記統合指標に基づいて、前記系列データをいずれかのクラスに分類するステップと、備える情報処理方法が提供される。
 本発明の他の一観点によれば、コンピュータに、系列データに含まれる複数の要素を逐次的に取得するステップと、前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出するステップと、前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出するステップと、前記統合指標に基づいて、前記系列データをいずれかのクラスに分類するステップと、を備える情報処理方法を実行させるためのプログラムが記憶された記憶媒体が提供される。
 本発明によれば、精度良く系列データの分類を行うことができる情報処理装置、個人識別装置、情報処理方法及び記憶媒体を提供することができる。
第1実施形態に係る系列データ分類システムの全体構成を示す模式図である。 第1実施形態に係る情報処理装置の機能ブロック図である。 第1実施形態に係る情報処理装置により行われる個人識別処理の一例を示すフローチャートである。 第2実施形態に係る個人識別装置の機能ブロック図である。 第3実施形態に係る情報処理装置の機能ブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
 [第1実施形態]
 本実施形態に係る系列データ分類システムについて説明する。本実施形態の系列データ分類システムは、系列データに含まれる複数の要素を逐次的に取得して解析することにより、系列データをあらかじめ定められた複数のクラスのうちのいずれかに分類するためのシステムである。
 ここで系列データとは、複数の要素に分解可能なデータ列を意味する。系列データは時系列データであってもよく、非時系列データであってもよい。時系列データの具体例としては、動画データ、音声データ等が挙げられる。非時系列データの具体例としては、複数の箇所からサンプルした植生データ、製品の複数箇所の検査データ、生体認証用の複数の生体データ等が挙げられる。系列データが動画データである場合には、系列データに含まれる複数の要素とは、動画を構成する複数の画像(フレーム)であり得る。系列データが製品の複数箇所の検査データである場合には、系列データに含まれる複数の要素とは、製品の各箇所の検査データであり得る。なお、本実施形態の分類処理が適用可能な系列データ及び要素はこれらに限られるものではない。
 系列データが製品の複数箇所の検査データである場合、本実施形態の系列データ分類システムによる分類されるクラスとは、例えば、製品が良品であることを示す第1クラス及び製品が不良品であることを示す第2クラスであり得る。系列データが生体認証用の複数の生体データである場合、本実施形態の系列データ分類システムによる分類されるクラスとは、例えば、認証対象者が対象者と同一人物であることを示す第1クラス及び同一人物でないことを示す第2クラスであり得る。なお、クラスの数は3以上であってもよい。
 図1は、本実施形態に係る系列データ分類システムの全体構成を示す模式図である。図1は、系列データ分類システムに含まれるハードウェアの構成を示している。系列データ分類システムは、情報処理装置100と、データ取得装置201と、入力装置202と、表示装置203とを備える。
 情報処理装置100は、携帯電話機、スマートフォン、デスクトップPC(Personal Computer)、ラップトップPC、サーバ等のコンピュータである。情報処理装置100は、プロセッサ101、メモリ102、ストレージ103、入出力I/F(Interface)104及び通信I/F105を備える。情報処理装置100の各部は、バス、配線、駆動装置等を介して相互に接続されており、制御信号及びデータを相互に送受信することができる。
 プロセッサ101は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置である。メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等の揮発性又は不揮発性の記憶媒体である。ストレージ103は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード等の不揮発性の記憶媒体である。
 メモリ102又はストレージ103は、情報処理装置100の情報処理機能を実現するためのプログラムを記憶している。プロセッサ101は、上述のプログラムを実行する際、プログラムをメモリ102上に読み出してから実行してもよく、メモリ102上に読み出さずに実行してもよい。
 また、上述のプログラムは、様々な種類の非一時的なコンピュータ可読媒体を用いて格納され、情報処理装置100に供給され得る。非一時的なコンピュータ可読媒体とは、様々な種類の形態の記憶媒体を含む。非一時的なコンピュータ可読媒体は、例えば、磁気記憶媒体、光磁気記憶媒体、光記憶媒体及び半導体メモリを含む。
 磁気記憶媒体の例としては、フレキシブルディスク、磁気テープ、ハードディスクドライブ等が挙げられる。光磁気記憶媒体の例としては、光磁気ディスクが挙げられる。光記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、CD-R(Compact Disc Recordable)、CD-R/W(Compact Disc Rewritable)が挙げられる。半導体メモリの例としては、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAMが挙げられる。
 また、プログラムは、様々な種類の一時的なコンピュータ可読媒体によって情報処理装置100に供給されてもよい。一時的なコンピュータ可読媒体は、例えば、電気信号、光信号及び電磁波を含む。一時的なコンピュータ可読媒体は、電線、光ファイバ等の有線通信路又は無線通信路を介してプログラムを情報処理装置100に供給され得る。
 入出力I/F104は、USB(Universal Serial Bus)、DVI(Digital Visual Interface)等の規格に基づく周辺機器との通信を行うための通信インターフェースである。入出力I/F104は、データ取得装置201、入力装置202及び表示装置203に対して有線又は無線により通信接続を行うことができる。これにより、情報処理装置100は、データ取得装置201、入力装置202及び表示装置203に対してデータ及び制御信号の送受信を行うことができる。
 通信I/F105は、Bluetooth(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースである。通信I/F105は、外部の装置に対して有線又は無線により通信接続を行うことができる。これにより、情報処理装置100は、外部の装置に対してデータの送受信を行うことができる。
 データ取得装置201は、系列データを取得するための装置である。例えば、系列データが製品の検査データである場合には、データ取得装置201は、工場等に設けられた検査装置であり得る。例えば、系列データが生体認証用の生体データである場合には、データ取得装置201は、デジタルカメラ、マイクロホン、指紋採取用スキャナ等の生体情報取得用の装置であり得る。データ取得装置201がセンサ等のアナログ信号を取得する装置を含んでいる場合には、データ取得装置201は、アナログ信号をデジタルデータに変換するAD変換(Analog-to-Digital Conversion)装置を含み得る。データ取得装置201による取得された系列データは、情報処理装置100に入力される。
 入力装置202は、ユーザによる情報処理装置100の操作を受け付けるためのユーザインターフェースである。入力装置202の例としては、キーボード、マウス、トラックボール、タッチセンサ、ペンタブレット、ボタン等が挙げられる。表示装置203は、プロセッサ101により処理された描画データに基づく画面を表示する装置である。表示装置203の例としては、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等が挙げられる。入力装置202及び表示装置203は、タッチパネルとして一体に形成されていてもよい。
 なお、図1に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。更に、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されるものであってもよい。例えば、ストレージ103は、情報処理装置100の外部のクラウドストレージに置換されていてもよい。また、系列データの取得が系列データ分類システムとは別のシステムで行われる場合には、データ取得装置201は省略され得る。あるいは、データ取得装置201、入力装置202又は表示装置203が情報処理装置100内に設けられていてもよい。このように図1に示されているハードウェア構成は適宜変更可能である。
 図2は、本実施形態に係る情報処理装置100の機能ブロック図である。情報処理装置100は、取得部110、第1算出部120、第2算出部130及び分類部140を備える。第1算出部120は、指標算出部121及び第1記憶部122を備える。第2算出部130は、統合指標算出部131及び第2記憶部132を備える。
 プロセッサ101は、メモリ102又はストレージ103等に記憶されたプログラムを実行することにより、取得部110、指標算出部121、統合指標算出部131及び分類部140の機能を実現する。また、プロセッサ101は、当該プログラムに基づいてストレージ103を制御することにより第1記憶部122及び第2記憶部132の機能を実現する。これらの各部で行われる具体的な処理については後述する。
 図3は、本実施形態に係る情報処理装置100により行われる分類処理の一例を示すフローチャートである。図3に示されている分類処理は、入力された系列データをあらかじめ定められた複数のクラスのうちのいずれかに分類する処理である。図3の分類処理は、複数の要素を含む系列データから1つずつ要素を取得して統合指標を順次算出するループ処理(ステップS101からステップS106)を含む。このループ処理は、統合指標(統合尤度比)に基づいて系列データの分類先のクラスが確定するまで繰り返し行われる。
 図3の処理は、例えば、入力装置202に対して所定のユーザ操作があったときに開始されるものであり得る。しかしながら、処理の開始タイミングはこれに限られるものではない。例えば、図3の処理は、データ取得装置201から系列データが入力されたときに実行されるものであってもよい。また、データ取得装置201が監視カメラである場合のように系列データが連続的に入力されている場合には、図3の処理は、所定の時間間隔ごとに繰り返し実行されるものであってもよい。
 ステップS101において、取得部110は、系列データのうちの1つの要素を取得する。このときの取得処理は、データ取得装置201からデータを直接取得するものであってもよく、あらかじめデータ取得装置201から取得されストレージ103等に記憶されているデータを読み出すものであってもよい。
 ステップS102において、指標算出部121は、第1記憶部122に記憶されている過去データを読み出す。過去データとは、本処理が系列データのj番目の要素に対する処理である場合には、j番目よりも前の要素に対する指標算出部121の処理結果を意味する。あるいは、過去データとは、j番目よりも前に入力された要素そのものであってもよい。なお、第1記憶部122は、指標算出部121によって処理が行われるごとに処理結果又は入力された要素を記憶する。この記憶処理は、過去に記憶された情報に新たな情報を上書きするものであってもよく、過去に記憶された情報を残しつつ新たな情報を追加するものであってもよい。
 ステップS103において、指標算出部121は、系列データに含まれる複数の要素のうちの2以上の要素を考慮して、入力された要素が複数のクラスのいずれに属することが妥当であるかを示す指標を算出する。2以上の要素とは、入力された要素と、過去データに含まれている過去に処理された要素とを含む。第1算出部120は、算出した指標を第2算出部130に出力するとともに、必要に応じて処理結果を第1記憶部122に記憶させる。ここで、指標とは、例えば、ある要素が複数のクラスのうちのあるクラスに属することの尤もらしさを示す尤度比であり得る。あるいは、指標は尤度比を変数として含む関数であってもよい。以下の説明では、指標は尤度比であるものとする。
 指標算出部121は、系列データから入力された要素から特徴を抽出する。このとき、指標算出部121は、入力された要素と過去データとの関連性を考慮して特徴抽出を行う。特徴抽出の具体的な手法としては、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network; CNN)を用いることができるがこれに限られるものでない。また、過去データを記憶し、現在の入力データとの関係性を算出する具体的な手法としては、例えば、LSTM(Long Short Term Memory)を用いることができるがこれに限られるものでない。
 尤度比の具体例を説明する。系列データを構成するN個の要素を、x,…,xとし、複数のクラスをC,Cとする。すなわち、本例では、簡略化のため、クラスの数が2である2クラス分類であるものとする。ここで、要素xがクラスCに属する確率を、過去データを考慮せずに算出した結果をp(x|C)と表記する。また、要素xがクラスCに属する確率を、過去データを考慮せずに算出した結果をp(x|C)と表記する。このとき、これらの尤度比は、以下の式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)の尤度比は、要素xがクラスCに属する確率と要素xがクラスCに属する確率との尤もらしさの比を示している。例えば、尤度比が1を超えている場合には、p(x|C)>p(x|C)であるため、要素xはクラスCよりもクラスCに分類する方が妥当である。このように、式(1)の尤度比は、入力された要素がクラスCとクラスCのいずれに属することが妥当であるかを示す指標として機能する。
 また、指標算出部121は、上述のように複数の要素、すなわち、入力された要素と過去データとの関連性を考慮して算出することができる。このとき、例えば、2つの要素x,xi-1を考慮して算出された尤度比は、以下の式(2)のように表記されるものとする。
Figure JPOXMLDOC01-appb-M000002
 ステップS104において、統合指標算出部131は、第2記憶部132から過去に算出された統合指標を読み出す。ステップS105において、統合指標算出部131は、指標算出部121によって今回計算された尤度比と過去に算出された統合指標とを統合して新たな統合指標を算出する。第2算出部130は、算出した統合指標を分類部140に出力するとともに、第2記憶部132に記憶させる。
 統合指標とは、系列データの全体が複数のクラスのいずれに属することが妥当であるかを示すものである。過去の統合指標とは、本処理が系列データのj番目の要素に対する処理である場合には、j番目よりも前の要素に対して統合指標算出部131で算出された統合指標を意味する。なお、第2記憶部132は、統合指標算出部131によって処理が行われるごとに統合指標を記憶する。この記憶処理は、過去に記憶された統合指標に新たな統合指標を上書きすることにより統合指標の値を更新するものであってもよく、過去に記憶された統合指標を残したまま新たな統合指標を追加するものであってもよい。
 統合指標は、例えば、系列データが複数のクラスのうちのあるクラスに属することの尤もらしさを示す統合尤度比であり得る。あるいは、統合指標は統合尤度比を変数として含む関数であってもよい。以下の説明では、統合指標は統合尤度比であるものとする。
 クラスの数が2である場合について、統合尤度比の具体例を説明する。統合尤度比の算出時点において、N個の要素が入力されている場合、このN個の要素は、x,…,xと表される。ここで、系列データの全体がクラスCに属する確率をp(x,…,x|C)と表記する。また、系列データの全体がクラスCに属する確率をp(x,…,x|C)と表記する。このとき、これらの尤度比は以下の式(3)で表される。式(3)を統合尤度比と呼ぶ。
Figure JPOXMLDOC01-appb-M000003
 従来のSPRTのように、系列データの各要素が独立であることを仮定する場合には、統合尤度比は、以下の式(4)のように1要素ごとの項に分解して算出することができる。式(4)では、計算の簡略化のため尤度比の対数を用いることにより各要素を和に分解しているが、これは必須ではない。なお、本明細書では対数尤度比に対しても尤度比又は統合尤度比という用語が用いられることがある。また、本明細書において、対数の底の表記は省略されているが、底の値は任意である。
Figure JPOXMLDOC01-appb-M000004
 しかしながら、上述したように本実施形態では、2以上の要素を考慮して尤度比及び統合尤度比を算出しているため、各要素が独立であるという仮定が成立しないことが多い。したがって、式(4)のように1要素ごとの項に分解することはできず、関係性を考慮する要素の数に応じて異なる計算式により統合尤度比の計算が行われる。
 例えば、本処理の要素とその1つ前の要素の2つの要素を考慮する場合には、以下の式(5)を用いて統合尤度比を算出することができる。
Figure JPOXMLDOC01-appb-M000005
 また、本処理の要素からその2つ前の要素までの3つの要素を考慮する場合には、以下の式(6)を用いて統合尤度比を算出することができる。
Figure JPOXMLDOC01-appb-M000006
 なお、式(5)、式(6)に示されている右辺の項には、ステップS103においてあらかじめ指標算出部121により2要素又は3要素を考慮して算出された尤度比を用いることができる。
 式(5)及び式(6)では、クラスCとクラスCとの尤度比を算出する2クラス分類の場合の例を示しているが、クラスの数は3以上であってもよい。例えば、クラスの数がM個である場合には、M個のクラスのうちのk番目のクラスとk番目以外のすべてのクラスとの間の統合尤度比を算出できるように式(5)の右辺を拡張したものを用いることができる。
そのような拡張の例としては、以下の式(7)のようにk番目以外のすべてのクラスのうちの最大尤度を用いるものが挙げられる。
Figure JPOXMLDOC01-appb-M000007
 また、別の例としては、以下の式(8)のように、k番目以外のすべてのクラスの尤度の和を用いるものが挙げられる。なお、クラスの数が3以上である場合における統合尤度比の算出方法はこれらに限られるものではない。
Figure JPOXMLDOC01-appb-M000008
 式(5)から式(8)では2つ又は3つの要素を考慮する場合について例示しているが、4つ以上の要素を考慮してもよい。この場合、式(5)から式(8)を同様の手法により拡張することで、統合尤度比を算出することができる。
 なお、統合指標の算出方法は上述のものに限られない。例えば、LSTM又は深層ニューラルネットワークを用いた方法により統合指標を算出してもよい。
 ステップS106において、分類部140は、第2算出部130で算出された統合指標に基づいて系列データをいずれかのクラスに分類可能か否かを判定する。統合指標が統合尤度比である場合には、分類部140は、例えば、統合尤度比が所定の閾値を超えているクラスが存在するか否かに基づいてクラスの分類可否を判定する。分類可能でない場合(ステップS106におけるNO)には、処理はステップS101に移行し、取得部110は次の要素を取得する。分類可能である場合(ステップS106におけるYES)には、処理はステップS107に移行する。
 ステップS107において、分類部140は、統合指標に基づいて系列データをいずれかのクラスに分類する。例えば、統合指標が統合尤度比である場合には、系列データは、統合尤度比が所定の閾値を超えているクラスに属するものとして分類される。
 ステップS106とステップS107の処理について具体例を挙げてより詳細に説明する。本例の分類処理は、クラスC又はクラスCへの2クラス分類であるものとし、クラスCとクラスCの判定に用いる閾値をそれぞれT、Tとする。また、クラスCについての統合尤度比をL、クラスCについての統合尤度比をLとする。なお、式(4)により統合尤度比が定義されている場合には、L=-Lであるため、実質的にはLのみを算出すればよい。
 この場合、L>Tである場合には、分類部140は、系列データをクラスCに分類し、本処理は終了する。L>Tである場合には、分類部140は、系列データをクラスCに分類し、本処理は終了する。L≦TかつL≦Tである場合には、分類部140は、分類可能でないと判定し、取得部110は次の要素を取得する。
 なお、クラスの数が3以上のM個である場合には、上述と同様にM個の閾値を準備しておき、M個の統合尤度比のそれぞれに対して対応する閾値との大小関係を判定することにより同様の分類処理が行われ得る。このとき、分類部140は、統合尤度比が最初に閾値を超えたクラスに系列データを分類する。統合尤度比がいずれの閾値も超えない場合には、分類部140は、分類可能でないと判定し、取得部110は次の要素を取得する。
 上述の分類手法は例示であり、これに限られない。例えば、ステップS106、S107において入力された要素数が所定値(最大要素数)よりも多い場合には、統合尤度比が閾値を超えているクラスが存在しなくても系列データを強制的にいずれかのクラスに分類して処理を終了するように手順を変形してもよい。これにより、計算時間が長くなりすぎることを防ぐことができる。この例では、いずれかのクラスに確実に分類されるように判定基準を相互排他的なものとすることが望ましい。
 相互排他的な判定基準の具体例を説明する。2クラス分類の場合には、要素数が最大要素数を超えた場合には、統合尤度比Lの値が0以上であるか否かにより系列データを2つのクラスのいずれかに分類するという手法を用いることができる。また、Mクラス分類の場合には、各クラスに対応する総合尤度比のうち、値が最大であるクラスに系列データを分類するという手法を用いることができる。
 以上のように、本実施形態によれば、系列データの複数の要素が考慮された統合指標を用いて系列データの分類が行われる。これにより、要素間の関係性が考慮された分類が行われ得るため、精度良く系列データの分類を行うことができる情報処理装置100が提供される。
 本実施形態の情報処理装置100における分類処理は、系列データの要素間の相関が強い場合により効果的である。特許文献1乃至3に開示されているようなSPRTでは、式(4)のように系列データの要素間の関連性が考慮されないアルゴリズムが用いられるため、実際には要素間の関連性が強い系列データに対しても要素間に関連性が無いものとして分類が行われる。そのため、要素間の関連性が強い系列データに対しては分類精度が劣化する場合がある。これに対し、本実施形態の情報処理装置100における分類処理は、式(5)から式(8)のように、系列データの要素間の関連性が考慮されるため、要素間の関連性が強い系列データに対しても分類精度が劣化しにくい。
 系列データの要素間の相関が強い場合の具体例としては、動画データ等の時系列データが挙げられる。例えば、動画データにおいては、一般的には、あるフレームとその次のフレームは似た特徴を有していることが多いためである。したがって、本実施形態の情報処理装置100における分類処理は、時系列データの処理において更に有効である。
 [第2実施形態]
 本実施形態では、第1実施形態の情報処理装置100の適用例の1つとして、個人識別装置300を説明する。以下では主として第1実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
 図4は、第2実施形態に係る個人識別装置300の機能ブロック図である。個人識別装置300は、分類装置301、生体情報取得部302及び生体情報記憶部303を備える。個人識別装置300は、図1に示した情報処理装置100と同様にコンピュータを含んで構成され得る。そのため、個人識別装置300のハードウェア構成の説明は省略する。
 個人識別装置300は、例えば、顔画像、指紋画像、虹彩画像等の識別対象者の生体情報をあらかじめ登録されている生体情報と照合することにより個人を識別する装置である。個人識別装置300は、生体情報を取得するための装置(カメラ等)を備え、スタンドアローンで動作するものであってもよく、個人識別システム内の他の装置から生体情報を取得して個人の識別を行うものであってもよい。また、個人識別装置300は互いに通信接続された複数の装置により構成されていてもよい。
 個人識別装置300は、例えば、顔認証ゲート用の認証装置であり得る。あるいは、個人識別装置300は、インテリジェントカメラであり得る。インテリジェントカメラとは、内部に解析機能を備えるIP(Internet Protocol)カメラ又はネットワークカメラであり、スマートカメラと呼ばれることもある。
 生体情報取得部302は、生体情報を取得する装置であり、例えば動画を撮影可能なデジタルカメラであり得る。なお、生体情報の識別において、生体情報取得部302で取得された画像等から照合用の特徴量を抽出する場合がある。この特徴量抽出処理は、分類装置301内で行われてもよく、生体情報取得部302内で生体情報取得時に行われてもよく、その他の装置により行われてもよい。本明細書において、生体情報取得部302で取得された画像等そのものと、これから抽出された特徴量とをまとめて生体情報と表記することがある。
 生体情報記憶部303は、登録者の生体情報等の分類装置301での処理に必要な情報を記憶する。分類装置301には、第1実施形態の情報処理装置100が用いられる。分類装置301は、生体情報を要素とする系列データを第1実施形態で述べた系列データとして取得する。分類装置301は、生体情報記憶部303に記憶された情報を参照しつつ、この系列データをあらかじめ定められた複数のクラスのうちのいずれかに分類する。ここで、複数のクラスとは、例えば、入力された系列データと合致する人物を示すクラスであり得る。あるいは、複数のクラスとは、例えば、なりすましの有無を示すクラスであり得る。言い換えると、複数のクラスは、例えば、入力された系列データになりすましが存在することを示すクラス及び入力された系列データになりすましが存在しないことを示すクラスを含み得る。
 本実施形態の個人識別装置300は、精度良く系列データの分類を行うことができる分類装置301を備える。これにより、より適切に個人識別を行い得る個人識別装置300が提供される。
 本実施形態の個人識別装置300において、系列データの分類精度が高いという第1実施形態の情報処理装置100の特徴がより活かされる例の1つとして、なりすまし検出の例を説明する。顔認証等の生体認証におけるなりすまし手法の1つとして、本人の顔写真、顔模型等の非生体を用いる手法が知られている。このようななりすましを検出する手法として、複数の画像を撮影し、複数の画像間の差異が少ない場合に生体ではないと判定する手法がある。本実施形態の分類装置301において、系列データとして認証対象者の時系列画像を入力し、画像間の差異を特徴量として、系列データをなりすましの有無を示すクラス分類を行うことによりなりすまし検出が可能である。この手法では、入力される時系列データに含まれる画像の時間変化が非常に少なく、画像間の相関が強い場合が多い。そのため、なりすまし検出の分類を行う場合においては、要素間の関連性が強い系列データに対して分類精度が劣化しにくい第1実施形態の情報処理装置100の分類処理を用いることが効果的である。
 上述の実施形態において説明した装置又はシステムは以下の第3実施形態のようにも構成することができる。
 [第3実施形態]
 図5は、第3実施形態に係る情報処理装置400の機能ブロック図である。情報処理装置400は、取得部410、第1算出部420、第2算出部430及び分類部440を備える。取得部410は、系列データに含まれる複数の要素を逐次的に取得する。第1算出部420は、複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、複数の要素のうちの2以上の要素を考慮して算出する。第2算出部430は、複数の要素の各々の指標を統合して、系列データが複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出する。分類部440は、統合指標に基づいて、系列データをいずれかのクラスに分類する。
 本実施形態によれば、精度良く系列データの分類を行うことができる情報処理装置400が提供される。
 [変形実施形態]
 本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。例えば、いずれかの実施形態の一部の構成を他の実施形態に追加した例や、他の実施形態の一部の構成と置換した例も、本発明の実施形態である。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路であってもよい。
 該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。
 なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 系列データに含まれる複数の要素を逐次的に取得する取得部と、
 前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出する第1算出部と、
 前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出する第2算出部と、
 前記統合指標に基づいて、前記系列データをいずれかのクラスに分類する分類部と、
 を備える情報処理装置。
 (付記2)
 前記指標は、前記複数の要素の各々が前記複数のクラスのうちのあるクラスに属することの尤もらしさを示す尤度比を含む、
 付記1に記載の情報処理装置。
 (付記3)
 前記統合指標は、前記系列データが前記複数のクラスのうちのあるクラスに属することの尤もらしさを示す統合尤度比を含む、
 付記1又は2に記載の情報処理装置。
 (付記4)
 前記分類部は、前記統合尤度比が所定の閾値を超えているクラスが存在する場合に、前記系列データを前記統合尤度比が前記閾値を超えているクラスに分類する、
 付記3に記載の情報処理装置。
 (付記5)
 前記統合尤度比が所定の閾値を超えているクラスが存在しない場合に、前記分類部は、前記系列データをいずれかのクラスにも分類せず、前記取得部は、更に要素を取得する、
 付記3又は4に記載の情報処理装置。
 (付記6)
 前記分類部は、前記統合尤度比が所定の閾値を超えているクラスが存在せず、かつ、系列データの要素数が所定値よりも多い場合に、前記統合尤度比に基づいて前記系列データをいずれかのクラスに分類する、
 付記3乃至5のいずれか1項に記載の情報処理装置。
 (付記7)
 前記第1算出部は、
  前記第1算出部において過去に処理された情報を記憶する第1記憶部と、
  前記取得部によって前記系列データの要素が取得されたときに、前記要素と、前記第1記憶部に記憶されている情報とに基づいて、前記指標を算出する指標算出部と、
 を備える、
 付記1乃至6のいずれか1項に記載の情報処理装置。
 (付記8)
 前記第2算出部は、
  前記第1算出部において過去に算出された前記統合指標を記憶する第2記憶部と、
  前記第1算出部から出力された前記指標と、前記第2記憶部に記憶されている前記統合指標を統合することにより、前記統合指標を算出する統合指標算出部と、
 を備える、
 付記7に記載の情報処理装置。
 (付記9)
 前記系列データは、時系列データである、
 付記1乃至8のいずれか1項に記載の情報処理装置。
 (付記10)
 対象者の生体情報を取得する生体情報取得部と、
 付記1乃至9のいずれか1項に記載の情報処理装置と、
 を備え、
 前記情報処理装置は、前記生体情報を前記要素として含む前記系列データをいずれかのクラスに分類する、
 個人識別装置。
 (付記11)
 前記情報処理装置は、前記系列データを前記生体情報のなりすましの有無を示すいずれかのクラスに分類する、
 付記10に記載の個人識別装置。
 (付記12)
 系列データに含まれる複数の要素を逐次的に取得するステップと、
 前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出するステップと、
 前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出するステップと、
 前記統合指標に基づいて、前記系列データをいずれかのクラスに分類するステップと、
 を備える情報処理方法。
 (付記13)
 コンピュータに、
 系列データに含まれる複数の要素を逐次的に取得するステップと、
 前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出するステップと、
 前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出するステップと、
 前記統合指標に基づいて、前記系列データをいずれかのクラスに分類するステップと、
 を備える情報処理方法を実行させるためのプログラムが記憶された記憶媒体。
100、400   情報処理装置
101       プロセッサ
102       メモリ
103       ストレージ
104       入出力I/F
105       通信I/F
110、410   取得部
120、420   第1算出部
121       指標算出部
122       第1記憶部
130、430   第2算出部
131       統合指標算出部
132       第2記憶部
140、440   分類部
201       データ取得装置
202       入力装置
203       表示装置
300       個人識別装置
301       分類装置
302       生体情報取得部
303       生体情報記憶部

Claims (13)

  1.  系列データに含まれる複数の要素を逐次的に取得する取得部と、
     前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出する第1算出部と、
     前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出する第2算出部と、
     前記統合指標に基づいて、前記系列データをいずれかのクラスに分類する分類部と、
     を備える情報処理装置。
  2.  前記指標は、前記複数の要素の各々が前記複数のクラスのうちのあるクラスに属することの尤もらしさを示す尤度比を含む、
     請求項1に記載の情報処理装置。
  3.  前記統合指標は、前記系列データが前記複数のクラスのうちのあるクラスに属することの尤もらしさを示す統合尤度比を含む、
     請求項1又は2に記載の情報処理装置。
  4.  前記分類部は、前記統合尤度比が所定の閾値を超えているクラスが存在する場合に、前記系列データを前記統合尤度比が前記閾値を超えているクラスに分類する、
     請求項3に記載の情報処理装置。
  5.  前記統合尤度比が所定の閾値を超えているクラスが存在しない場合に、前記分類部は、前記系列データをいずれかのクラスにも分類せず、前記取得部は、更に要素を取得する、
     請求項3又は4に記載の情報処理装置。
  6.  前記分類部は、前記統合尤度比が所定の閾値を超えているクラスが存在せず、かつ、系列データの要素数が所定値よりも多い場合に、前記統合尤度比に基づいて前記系列データをいずれかのクラスに分類する、
     請求項3乃至5のいずれか1項に記載の情報処理装置。
  7.  前記第1算出部は、
      前記第1算出部において過去に処理された情報を記憶する第1記憶部と、
      前記取得部によって前記系列データの要素が取得されたときに、前記要素と、前記第1記憶部に記憶されている情報とに基づいて、前記指標を算出する指標算出部と、
     を備える、
     請求項1乃至6のいずれか1項に記載の情報処理装置。
  8.  前記第2算出部は、
      前記第1算出部において過去に算出された前記統合指標を記憶する第2記憶部と、
      前記第1算出部から出力された前記指標と、前記第2記憶部に記憶されている前記統合指標を統合することにより、前記統合指標を算出する統合指標算出部と、
     を備える、
     請求項7に記載の情報処理装置。
  9.  前記系列データは、時系列データである、
     請求項1乃至8のいずれか1項に記載の情報処理装置。
  10.  対象者の生体情報を取得する生体情報取得部と、
     請求項1乃至9のいずれか1項に記載の情報処理装置と、
     を備え、
     前記情報処理装置は、前記生体情報を前記要素として含む前記系列データをいずれかのクラスに分類する、
     個人識別装置。
  11.  前記情報処理装置は、前記系列データを前記生体情報のなりすましの有無を示すいずれかのクラスに分類する、
     請求項10に記載の個人識別装置。
  12.  系列データに含まれる複数の要素を逐次的に取得するステップと、
     前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出するステップと、
     前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出するステップと、
     前記統合指標に基づいて、前記系列データをいずれかのクラスに分類するステップと、
     を備える情報処理方法。
  13.  コンピュータに、
     系列データに含まれる複数の要素を逐次的に取得するステップと、
     前記複数の要素の各々について、複数のクラスのいずれに属することが妥当であるかを示す指標を、前記複数の要素のうちの2以上の要素を考慮して算出するステップと、
     前記複数の要素の各々の前記指標を統合して、前記系列データが前記複数のクラスのいずれに属することが妥当であるかを示す統合指標を算出するステップと、
     前記統合指標に基づいて、前記系列データをいずれかのクラスに分類するステップと、
     を備える情報処理方法を実行させるためのプログラムが記憶された記憶媒体。
PCT/JP2019/012793 2019-03-26 2019-03-26 情報処理装置、個人識別装置、情報処理方法及び記憶媒体 WO2020194497A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP19921882.7A EP3951620A4 (en) 2019-03-26 2019-03-26 INFORMATION PROCESSING DEVICE, IMAGING DEVICE, INFORMATION PROCESSING METHOD AND STORAGE MEDIA
JP2021508462A JP7248102B2 (ja) 2019-03-26 2019-03-26 情報処理装置、個人識別装置、情報処理方法及び記憶媒体
CN201980094592.9A CN113646758A (zh) 2019-03-26 2019-03-26 信息处理设备、个人识别设备、信息处理方法和存储介质
PCT/JP2019/012793 WO2020194497A1 (ja) 2019-03-26 2019-03-26 情報処理装置、個人識別装置、情報処理方法及び記憶媒体
US17/439,009 US20220147778A1 (en) 2019-03-26 2019-03-26 Information processing device, personal identification device, information processing method, and storage medium
US18/235,204 US20230394118A1 (en) 2019-03-26 2023-08-17 Information processing device, personal identification device, information processing method, and storage medium
US18/235,248 US20230401290A1 (en) 2019-03-26 2023-08-17 Information processing device, personal identification device, information processing method, and storage medium
US18/235,229 US20230401289A1 (en) 2019-03-26 2023-08-17 Information processing device, personal identification device, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/012793 WO2020194497A1 (ja) 2019-03-26 2019-03-26 情報処理装置、個人識別装置、情報処理方法及び記憶媒体

Related Child Applications (4)

Application Number Title Priority Date Filing Date
US17/439,009 A-371-Of-International US20220147778A1 (en) 2019-03-26 2019-03-26 Information processing device, personal identification device, information processing method, and storage medium
US18/235,204 Continuation US20230394118A1 (en) 2019-03-26 2023-08-17 Information processing device, personal identification device, information processing method, and storage medium
US18/235,229 Continuation US20230401289A1 (en) 2019-03-26 2023-08-17 Information processing device, personal identification device, information processing method, and storage medium
US18/235,248 Continuation US20230401290A1 (en) 2019-03-26 2023-08-17 Information processing device, personal identification device, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2020194497A1 true WO2020194497A1 (ja) 2020-10-01

Family

ID=72609367

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/012793 WO2020194497A1 (ja) 2019-03-26 2019-03-26 情報処理装置、個人識別装置、情報処理方法及び記憶媒体

Country Status (5)

Country Link
US (1) US20220147778A1 (ja)
EP (1) EP3951620A4 (ja)
JP (1) JP7248102B2 (ja)
CN (1) CN113646758A (ja)
WO (1) WO2020194497A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113163A1 (ja) * 2020-11-24 2022-06-02 日本電気株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
WO2022157973A1 (ja) * 2021-01-25 2022-07-28 日本電気株式会社 情報処理システム、情報処理方法、及びコンピュータプログラム
WO2022224446A1 (ja) 2021-04-23 2022-10-27 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2022259429A1 (ja) 2021-06-09 2022-12-15 日本電気株式会社 情報処理装置、情報処理方法、医療映像識別装置及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2023148846A1 (ja) * 2022-02-02 2023-08-10 日本電気株式会社 情報処理装置、情報処理方法、及び記録媒体
WO2023162216A1 (ja) * 2022-02-28 2023-08-31 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024013848A1 (ja) * 2022-07-12 2024-01-18 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075411A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075410A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001523824A (ja) 1997-11-14 2001-11-27 アーチ・デヴェロップメント・コーポレイション スペクトル信号監視システム
JP2002373332A (ja) * 2001-06-15 2002-12-26 Matsushita Electric Ind Co Ltd 画像認識装置および画像認識方法
JP2006330936A (ja) * 2005-05-24 2006-12-07 Matsushita Electric Works Ltd 顔認証装置
JP2008299589A (ja) 2007-05-31 2008-12-11 Hitachi Ltd 生体認証システム
WO2009096208A1 (ja) * 2008-01-31 2009-08-06 Nec Corporation 物体認識システム,物体認識方法および物体認識用プログラム
JP2009245314A (ja) 2008-03-31 2009-10-22 Kddi Corp 時系列データの識別装置および動画像への人物メタ情報付与装置
JP2011218090A (ja) * 2010-04-14 2011-11-04 Olympus Corp 画像処理装置、内視鏡システム及びプログラム
WO2016125310A1 (ja) * 2015-02-06 2016-08-11 株式会社Ubic データ分析システムおよびデータ分析方法並びにデータ分析プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001523824A (ja) 1997-11-14 2001-11-27 アーチ・デヴェロップメント・コーポレイション スペクトル信号監視システム
JP2002373332A (ja) * 2001-06-15 2002-12-26 Matsushita Electric Ind Co Ltd 画像認識装置および画像認識方法
JP2006330936A (ja) * 2005-05-24 2006-12-07 Matsushita Electric Works Ltd 顔認証装置
JP2008299589A (ja) 2007-05-31 2008-12-11 Hitachi Ltd 生体認証システム
WO2009096208A1 (ja) * 2008-01-31 2009-08-06 Nec Corporation 物体認識システム,物体認識方法および物体認識用プログラム
JP2009245314A (ja) 2008-03-31 2009-10-22 Kddi Corp 時系列データの識別装置および動画像への人物メタ情報付与装置
JP2011218090A (ja) * 2010-04-14 2011-11-04 Olympus Corp 画像処理装置、内視鏡システム及びプログラム
WO2016125310A1 (ja) * 2015-02-06 2016-08-11 株式会社Ubic データ分析システムおよびデータ分析方法並びにデータ分析プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3951620A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113163A1 (ja) * 2020-11-24 2022-06-02 日本電気株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
WO2022157973A1 (ja) * 2021-01-25 2022-07-28 日本電気株式会社 情報処理システム、情報処理方法、及びコンピュータプログラム
WO2022224446A1 (ja) 2021-04-23 2022-10-27 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2022259429A1 (ja) 2021-06-09 2022-12-15 日本電気株式会社 情報処理装置、情報処理方法、医療映像識別装置及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2023148846A1 (ja) * 2022-02-02 2023-08-10 日本電気株式会社 情報処理装置、情報処理方法、及び記録媒体
WO2023162216A1 (ja) * 2022-02-28 2023-08-31 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024013848A1 (ja) * 2022-07-12 2024-01-18 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075411A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075410A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075240A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075242A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体

Also Published As

Publication number Publication date
EP3951620A1 (en) 2022-02-09
US20220147778A1 (en) 2022-05-12
JP7248102B2 (ja) 2023-03-29
CN113646758A (zh) 2021-11-12
EP3951620A4 (en) 2022-04-13
JPWO2020194497A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
WO2020194497A1 (ja) 情報処理装置、個人識別装置、情報処理方法及び記憶媒体
JP5672144B2 (ja) 心拍数・呼吸数検出装置,方法およびプログラム
KR101870689B1 (ko) 영상 기반의 두피 진단 정보 제공 방법
US8958647B2 (en) Registration determination device, control method and control program therefor, and electronic apparatus
US9070041B2 (en) Image processing apparatus and image processing method with calculation of variance for composited partial features
US8929611B2 (en) Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
JP5287333B2 (ja) 年令推定装置
JP5072655B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP6933164B2 (ja) 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム
JP2004199669A (ja) 顔検出
JPWO2010004958A1 (ja) 個人認証システム、個人認証方法
CN111553266A (zh) 识别验证方法、装置及电子设备
US20190205589A1 (en) Latent fingerprint ridge flow map improvement
WO2021051602A1 (zh) 基于唇语密码的人脸识别方法、***、装置及存储介质
JP2022003526A (ja) 情報処理装置、検出システム、情報処理方法、及びプログラム
US10007842B2 (en) Same person determination device and method, and control program therefor
KR102230559B1 (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
US20230401289A1 (en) Information processing device, personal identification device, information processing method, and storage medium
US20230394117A1 (en) Information processing device, personal identification device, information processing method, and storage medium
US20220415018A1 (en) Information processing system, information processing method, and computer program
KR102342495B1 (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
WO2022259429A1 (ja) 情報処理装置、情報処理方法、医療映像識別装置及びプログラムが格納された非一時的なコンピュータ可読媒体
JP7337541B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5874963B2 (ja) 移動体の動き分類方法及び移動体の動き分類システム
WO2022079841A1 (ja) グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921882

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508462

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019921882

Country of ref document: EP

Effective date: 20211026