WO2019181047A1 - 情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2019181047A1
WO2019181047A1 PCT/JP2018/039858 JP2018039858W WO2019181047A1 WO 2019181047 A1 WO2019181047 A1 WO 2019181047A1 JP 2018039858 W JP2018039858 W JP 2018039858W WO 2019181047 A1 WO2019181047 A1 WO 2019181047A1
Authority
WO
WIPO (PCT)
Prior art keywords
location
presence information
person
time
information
Prior art date
Application number
PCT/JP2018/039858
Other languages
English (en)
French (fr)
Inventor
泰奨 島田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/040,210 priority Critical patent/US11501568B2/en
Priority to AU2018414269A priority patent/AU2018414269A1/en
Priority to JP2020507329A priority patent/JP7067613B2/ja
Priority to EP18910933.3A priority patent/EP3770855A1/en
Publication of WO2019181047A1 publication Critical patent/WO2019181047A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the present invention relates to an information processing apparatus, a person search system, a place estimation method, and a program.
  • Patent Document 1 discloses generating an existence probability map that represents a probability that an object appears in an image based on an input video image.
  • Patent Document 2 uses an image taken by a surveillance camera to search for a customer who is planning to board at an airport, but who has not yet boarded even though the departure time is approaching. The technology is disclosed.
  • the position of the search target person specified based on the image of the search target person may be different from the actual current search target person position. . Even in such a case, it is required to search for a search target person.
  • Patent Document 1 is a technique for generating an existence probability map indicating the probability that an arbitrary person exists, and cannot be used for searching for a specific person such as a search target person.
  • Patent Document 2 when a non-passenger is image
  • such an assumption is based on the premise that a non-passenger does not move, and cannot sufficiently cope with a search when a search target person moves.
  • one of the objects to be achieved by the embodiments disclosed in the present specification is an information processing apparatus, a person search system, a place estimation method, and a program that can search for a search target person who is scheduled to move. Is to provide.
  • An information processing apparatus includes presence information acquisition means for acquiring presence information indicating a location where a person is captured, which is generated based on captured images at a plurality of predetermined locations, and the presence information Presence location estimation means for estimating a current location of a specific person from the plurality of predetermined locations based on the presence information acquired by the acquisition means, and the presence information And the presence location estimating means calculates the current location of the specific person based on the presence probability of the specific person at the predetermined location, which is calculated based on an elapsed time from the shooting time point. Is estimated.
  • the person search system includes presence information generating means for generating presence information indicating the location of a person at the time of shooting based on captured images for each predetermined location, and a plurality of information based on the presence information.
  • Presence location estimating means for estimating a current location of a specific person from the predetermined location, wherein the presence information includes time information at the time of shooting, and the presence location estimation means includes: The current location of the specific person is estimated based on the existence probability of the specific person at the predetermined location calculated based on the elapsed time from the time of shooting.
  • the presence information indicating the location of the person at the time of shooting which is generated based on the captured images for each of the plurality of predetermined locations, is acquired, and based on the acquired presence information.
  • the present location of a specific person is estimated from the plurality of predetermined locations, and the presence information includes time information at the time of shooting, and in the estimation of the location, an elapsed time from the time of shooting.
  • the present location of the specific person is estimated based on the probability of existence of the specific person at the predetermined location.
  • a program includes a presence information acquisition step for acquiring presence information indicating a location where a person is captured, which is generated based on captured images at a plurality of predetermined locations, and the presence information acquisition step.
  • the computer executes a location estimation step for estimating a current location of a specific person from the plurality of predetermined locations based on the presence information acquired in step (b), and the presence information
  • the presence location estimation step the current location of the specific person is calculated based on the presence probability of the specific person at the predetermined location calculated based on the elapsed time from the shooting time. Is estimated.
  • an information processing apparatus a person search system, a location estimation method, and a program that can search for a search target person who is scheduled to move.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the information processing apparatus 1 according to the outline of the embodiment.
  • the information processing apparatus 1 includes a presence information acquisition unit 2 and a presence location estimation unit 3.
  • the presence information acquisition unit 2 acquires presence information generated based on a plurality of captured images for each predetermined location.
  • the presence information is information indicating the location of the person at the time of shooting.
  • the presence information includes time information at the time of shooting, that is, shooting time information.
  • the acquisition method by the presence information acquisition unit 2 is arbitrary. Therefore, the presence information acquisition unit 2 may acquire presence information generated by another device via a network, or read presence information stored in a storage device (not shown) of the information processing device 1. May be obtained.
  • the presence location estimation unit 3 estimates the current location of a specific person from the plurality of predetermined locations based on the presence information acquired by the presence information acquisition unit 2.
  • the location estimation unit 3 estimates the current location of the specific person based on the probability of existence of the specific person at a predetermined location, which is calculated based on the elapsed time from the shooting time.
  • the presence location estimation unit 3 calculates the presence probability of a specific person based on the elapsed time from the shooting time, and estimates the current location of the person. For this reason, it is possible to perform a search considering the movement of a person.
  • FIG. 2 is a block diagram illustrating an example of a configuration of the person search system 10 according to the embodiment.
  • the person search system 10 includes a plurality of cameras 100, a video analysis server group 250 including a plurality of video analysis servers 200, a control server 300, and a search reception server 400.
  • the person search system 10 is a system for searching for a person by analyzing images taken by the camera 100 arranged at each of a plurality of predetermined locations.
  • the camera 100 is arranged for each predetermined place, and photographs the surroundings of the arranged place.
  • Each of the cameras 100 is connected to the video analysis server group 250 via a wired or wireless network, and each camera 100 transmits captured video data to the video analysis server group 250.
  • the camera 100 transmits the captured video data to one of the video analysis servers 200 in the video analysis server group 250 in accordance with an instruction from the video acquisition control unit 201 described later.
  • the video data includes shooting time information.
  • the installation location of the camera 100 is arbitrary.
  • the installation location of the camera 100 may be an airport, a harbor, a theme park, a shopping center, a stadium, or the like.
  • the installation locations of the camera 100 are not limited to one building but may be scattered in a plurality of buildings.
  • a forward path is predetermined for these installation locations. Therefore, the person moves along this forward path.
  • the video analysis server group 250 includes a plurality of video analysis servers 200.
  • the video analysis server 200 is a server that performs image recognition processing on the video data transmitted by the camera 100 and recognizes a person in the shooting region of the camera 100 (that is, around the installation location of the camera 100). In the present embodiment, the video analysis server 200 recognizes a person through recognition processing for the person's face, but may recognize the person using other appearance features of the person.
  • the video analysis server 200 is connected to the control server 300 via a wired or wireless network, and transmits the analysis processing result to the control server 300.
  • the search reception server 400 is a server that receives a search request from a client terminal (not shown).
  • the search reception server 400 receives a search request including information specifying a person to be searched (searched) (hereinafter referred to as a search target person).
  • search target person information specifying a person to be searched (searched)
  • the search target person may be a boarding person who is missing. Needless to say, the search target person is not limited to the boarding person, and may be any person.
  • the search reception server 400 is connected to the control server 300 via a wired or wireless network, and transmits search target person information to the control server 300.
  • the control server 300 is a server that estimates the current location of the search target person based on the analysis processing result of the video analysis server group 250. In addition, the control server 300 changes the system configuration or setting based on the estimation result so that the video analysis server group 250 can focus on video analysis of a place where a search target person is likely to be present.
  • FIG. 3 is a block diagram illustrating an example of the hardware configuration of the video analysis server 200, the control server 300, and the search reception server 400.
  • the video analysis server 200, the control server 300, and the search reception server 400 each include, for example, a network interface 50, a memory 51, and a processor 52.
  • the network interface 50 is used to communicate with other devices.
  • the network interface 50 may include, for example, a network interface card (NIC).
  • NIC network interface card
  • the memory 51 is constituted by a combination of a volatile memory and a nonvolatile memory, for example.
  • the video analysis server 200, the control server 300, and the search reception server 400 may have a storage device such as a hard disk in addition to the memory 51.
  • the memory 51 is used for storing software (computer program) including one or more instructions executed by the processor 52.
  • This program can be stored using various types of non-transitory computer readable media and supplied to a computer.
  • Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical discs), compact disc read only memory (CD-ROM), CD-ROMs. R, CD-R / W, and semiconductor memory (for example, mask ROM, programmable ROM (PROM), erasable PROM (EPROM), flash ROM, random access memory (RAM)) are included.
  • the program may also be supplied to the computer by various types of transitory computer readable media.
  • Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the processor 52 reads out and executes software (computer program) from the memory 51, thereby performing processing of the video analysis server 200, processing of the control server 300, or processing of the search reception server 400 described later.
  • the video analysis server 200, the control server 300, and the search reception server 400 have a function as a computer.
  • the processor 52 may be, for example, a microprocessor, an MPU (Micro Processor Unit), or a CPU (Central Processing Unit).
  • the processor 52 may include a plurality of processors.
  • the memory 51 or the storage device may be used as the presence information storage unit 302 described later.
  • the camera 100 also has a hardware configuration similar to that shown in FIG. 3, and has a function as a computer.
  • FIG. 4 is a block diagram illustrating an example of functional configurations of the video analysis server 200, the control server 300, and the search reception server 400.
  • the video analysis server 200 includes a video acquisition control unit 201, a presence information generation unit 202, and a presence information output unit 203.
  • the video acquisition control unit 201 acquires video data from one or more cameras 100.
  • the data acquired by the video acquisition control unit 201 includes a captured image of the camera 100 and shooting time information.
  • the video analysis server 200 analyzes video data of the camera 100 designated from the control unit 305 of the control server 300. For this reason, the video acquisition control unit 201 acquires video data from the camera 100 specified by the control unit 305.
  • the video acquisition control unit 201 requests video data from the camera 100 specified by an instruction from the control unit 305 of the control server 300.
  • the camera 100 transmits the captured video data to the video analysis server 200 requested by the video acquisition control unit 201.
  • the presence information generation unit 202 generates presence information based on the captured image for each predetermined place.
  • the presence information is information indicating the location of the person at the time of shooting.
  • the presence information generation unit 202 generates presence information by performing real-time analysis by image recognition processing on a captured image and identifying a face included in the captured image. Specifically, for example, the presence information generation unit 202 obtains a predetermined feature amount (a feature amount of a face image) indicating the appearance feature of a person included in a captured image of the camera 100 and an appearance feature of a specific person. Presence information is generated by matching with a predetermined feature amount.
  • the presence information generation unit 202 generates presence information indicating that the specific person was present at the time of shooting of the photographed image at a location within the shooting range of the camera 100 by matching the feature amounts of the two. Therefore, the presence information includes time information at the time of shooting (that is, shooting time information).
  • presence information is used for searching for a person, but it may also be used as entrance / exit information by face authentication for a predetermined place in an airport or the like, for example.
  • the presence information is information that specifies who, when, and where.
  • the presence information output unit 203 outputs the presence information generated by the presence information generation unit 202 to the control server 300.
  • the search reception server 400 includes a search request reception unit 401 and a search target person information output unit 402.
  • the search request receiving unit 401 receives a search request.
  • the search request is information including information specifying a search target person.
  • the information specifying the search target person includes, for example, identification information (hereinafter referred to as search target person information) such as the name, ID, and passport information of the search target person.
  • search target person information identification information
  • the user designates a search target person by operating a client terminal that is connected to the search reception server 400 via a wired or wireless network.
  • a search request is transmitted from the client terminal to the search reception server 400.
  • the search target person information output unit 402 outputs the search target person information specified in the search request received by the search request reception unit 401 to the control server 300.
  • the control server 300 includes a presence information acquisition unit 301, a presence information storage unit 302, a search target person information acquisition unit 303, a presence location estimation unit 304, a control unit 305, and a search result output. Part 306.
  • the presence information acquisition unit 301 acquires the presence information generated based on the captured images for each of a plurality of predetermined locations.
  • the presence information acquisition unit 301 acquires the presence information transmitted by the video analysis server 200.
  • the presence information acquisition unit 301 stores the acquired presence information in the presence information storage unit 302.
  • the presence information storage unit 302 is a storage area for storing presence information. Presence information is sequentially accumulated in the presence information storage unit 302 by real-time analysis of video data from each camera 100.
  • the search target person information acquisition unit 303 acquires the search target person information transmitted from the search reception server 400.
  • the presence location estimation unit 304 estimates the current location of a specific person from a plurality of predetermined locations where the camera 100 is installed based on the presence information acquired by the presence information acquisition unit 301. Specifically, the presence location estimation unit 304 first searches the presence information storage unit 302 for the latest presence information about the search target person specified by the search target person information. Next, the location estimation unit 304 calculates the specific location based on the existence probability of the specific person (that is, the search target person) calculated based on the elapsed time from the shooting time indicated by the searched presence information. Estimate the current location of a person.
  • the presence location estimation unit 304 estimates the current location based on the presence probability calculated based on the elapsed time from the shooting time of the captured image used for generating the latest presence information about the specific person.
  • the existence probability is a probability that the specific person exists in a predetermined place where the camera 100 is installed.
  • the existence location estimation unit 304 calculates the existence probability using a monotone function with the elapsed time as a variable.
  • a monotone increasing function f (t) represented by the following formula (1) is used.
  • T XYi is the time taken for the person who appears at the place X to appear at the place Yi (hereinafter referred to as the scheduled travel time), and is a statistical result of people who move from the place X to the place Yi. It is a value set in advance based on this.
  • the place X is an existing place indicated by the latest presence information on the search target person among the places where the camera 100 is installed, and is also referred to as a first place.
  • the place Yi is a place that can be reached from the place X among the places where the camera 100 is installed, and is also referred to as a second place. Note that there are n places (n is an integer of 1 or more) that can be reached from the place X. That is, “i” of Yi is an index number of 1 or more and n or less, and the places that can be reached from the place X are n places in total from the places Y1 to Yn.
  • the existence location estimation unit 304 calculates the existence probability p Yi (t) that the search target person currently exists in the location Yi using the function f (t) according to the following equation (2). Also, the presence location estimation unit 304 calculates the presence probability p X (t) that the search target person currently exists in the location X by the following equation (3).
  • P XYi is the probability that the destination of the person from the place X is the place Yi. That is, P XYi is a movement probability from the location X for each location Yi.
  • the movement probability P XYi is a value set in advance based on a statistical result or the like of people who move from the place X to the place Yi.
  • the presence location estimation unit 304 uses the predetermined probability of movement for each location Yi reachable from the location X and the presence probability calculated based on the elapsed time t, Estimate the current location. By using the movement probability in this way, even when there are a plurality of destinations from the place X, the existence probability for each destination can be calculated.
  • FIG. 5 is a schematic diagram showing an application example of the person search system 10 according to the present embodiment.
  • FIG. 5 shows an example of searching for a person at an airport.
  • the camera 100 includes a boarding procedure area (referred to as place A), an immigration area (referred to as place B), a duty-free shop (referred to as place C), and a lounge (referred to as place D). ) And a boarding gate (referred to as place E).
  • the forward direction route is determined in advance. Specifically, the person who arrives at the location A is to move to the location B after that. 100% is set in advance as the movement probability P AB from the place A to the place B, and 5 minutes is set in advance as the scheduled movement time T AB . In addition, the person who arrives at the place B is to move to either the place C, D, or E after that. 10% is set in advance as the movement probability PBC from the place B to the place C, and 1 minute is set in advance as the estimated movement time TBC . Advance 40% as a mobile probability P BD from location B to location D is set as the moving prediction time T BD, in advance 5 minutes is set.
  • the person who arrives at the place C is to move to the place E after that. 100% is set in advance as the movement probability PCE from the place C to the place E, and 30 minutes is set in advance as the scheduled movement time TCE .
  • the person who has arrived at the place D is to move to the place E after that. 100% is set in advance as the movement probability P DE from the place D to the place E, and 60 minutes is set in advance as the estimated movement time T DE .
  • the presence location estimation unit 304 determines that the search subject is as follows. Estimate your current location. That is, the presence location estimation unit 304 sets the location B as the location X, the locations C, D, and E as the location Yi, and the existence probabilities at the locations B, C, D, and E of the search target person as described above. To calculate the current location.
  • the presence location estimation unit 304 may estimate the current location of the search target person based on the presence probability using an arbitrary method. For example, the presence location estimation unit 304 may estimate the location where the presence probability exceeding a predetermined threshold is calculated as the current location of the search target person, or the location where the presence probability is the maximum for the search target person. You may presume that you are now.
  • the control unit 305 performs control to change the configuration or setting related to the generation of the presence information in accordance with the estimation result by the presence location estimation unit 304. For example, the control unit 305 changes the configuration so that resources corresponding to the presence probability of the location are allocated to the process for generating the presence information for the captured image of the location where the camera 100 is installed. Specifically, for example, the control unit 305 controls to change the number of cameras 100 that the video analysis server 200 is in charge of.
  • FIG. 6 is a schematic diagram illustrating the configuration change by the control unit 305. In FIG. 6, the left side shows the correspondence between the camera 100 before the configuration change by the control unit 305 and the video analysis server 200, and the right side shows the camera 100 and the video analysis server 200 after the configuration change by the control unit 305.
  • each video analysis server 200 is in charge of analyzing the video data of the two cameras 100.
  • the control unit 305 causes the camera 100 at the location D (camera D) and the camera 100 at the location E (camera E).
  • Change the configuration to focus on video data analysis That is, the control unit 305 changes the configuration so that the video analysis server 200 (video analysis server H) that processes the video data of the camera D can concentrate resources on the analysis of the video data of the camera D (on the right side of FIG. 6). (See figure).
  • control unit 305 changes the configuration so that the video analysis server 200 (video analysis server I) that processes the video data of the camera E can concentrate resources on the analysis of the video data of the camera E (right side in FIG. 6). Refer to the figure below).
  • the control unit 305 allocates the video data analysis processing of the camera C, which was handled by the video analysis server H, to the video analysis server G, and analyzes the video data of the camera F which was handled by the video analysis server I.
  • the processing is allocated to the video analysis server G. Thereby, it is possible to search for a search target person by focusing on an area where the search target person is likely to exist.
  • control unit 305 may change the setting regarding the image recognition processing performance for generating the presence information for the captured image at the installation location of the camera 100 according to the estimation result by the presence location estimation unit 304.
  • the control unit 305 changes the setting so as to improve the performance of the image recognition processing performed when the video data of the camera D is analyzed.
  • the control unit 305 changes the setting so as to improve the performance of the image recognition processing performed when the video data of the camera E is analyzed.
  • the frame rate (FPS: frames per second) of the image to be analyzed may be used, or the face image that can be detected within one frame. It may be a number.
  • control unit 305 performs the analysis of the video data of each camera so that the video analysis server G that has been changed to take charge of four cameras does not fall short of the resources of the video analysis server G.
  • the setting may be changed to reduce the performance of the image recognition process.
  • the control unit 305 instructs the video analysis server 200 to change the configuration or setting.
  • the video acquisition control unit 201 of the video analysis server 200 acquires the video data of the camera 100 instructed by the control unit 305 of the control server 300.
  • the presence information generation unit 202 of the video analysis server 200 performs analysis processing with settings instructed by the control unit 305 of the control server 300.
  • the search result output unit 306 searches for presence information indicating the current location of the search target person specified by the search target person information. For example, the search result output unit 306 searches for presence information in which the difference between the current time and the shooting time is small, in other words, presence information in which the difference between the current time and the shooting time is within a predetermined time. To do. Thereby, the search result output unit 306 obtains presence information about the search target person generated in the video analysis server 200 after being changed by the control unit 305 and accumulated in the presence information storage unit 302. The search result output unit 306 outputs the obtained presence information as the current location of the search target person. The search result output unit 306 may output the obtained presence information to the search reception server 400 or may output it to a device such as a client terminal. The presence information output from the search result output unit 306 can be presented to the user as a search result by any method.
  • FIG. 7 is a sequence chart showing an operation example of the person search system 10. First, the flow of normal operation will be described.
  • step 100 the video acquisition control unit 201 of the video analysis server 200 acquires the video data transmitted from the camera 100.
  • step 101 the presence information generation unit 202 of the video analysis server 200 analyzes the video data and generates presence information of various persons.
  • step 102 the presence information acquisition unit 301 of the control server 300 acquires the presence information output by the presence information output unit 203 of the video analysis server 200. Then, the presence information acquisition unit 301 stores the acquired presence information in the presence information storage unit 302. Presence information is sequentially generated and stored in the presence information storage unit 302 sequentially.
  • step 200 the search request receiving unit 401 of the search receiving server 400 receives a search request from the user.
  • step 201 based on the search request, the search target person information output unit 402 of the search reception server 400 transmits the search target person information to the control server 300, which is searched for the search target person of the control server 300.
  • the information acquisition unit 303 acquires the information.
  • step 202 the presence location estimation unit 304 of the control server 300 estimates the current location of the search target person based on the presence information accumulated in step 102.
  • step 203 the control unit 305 of the control server 300 determines a change in the system configuration and settings according to the estimation result in step 202.
  • step 204 the control unit 305 of the control server 300 instructs the video analysis server 200 to make a change.
  • step 205 the video acquisition control unit 201 instructs the camera 100 on the transmission destination of the video data in accordance with the instruction notified from the control server 300 in step 204. That is, the video acquisition control unit 201 notifies the camera 100 so that the video data from the camera 100 that the server itself is in charge of reaches the server.
  • the camera 100 transmits the video data to the destination video analysis server 200 according to the notification.
  • the presence information generation unit 202 performs an analysis for searching for a search target person. In this way, it is possible to perform a search process focused on a place where a search target person is likely to exist.
  • the search result output unit 306 of the control server 300 obtains this from the presence information storage unit 302 and outputs it as a search result.
  • the embodiment has been described above.
  • the current location of the search target person is estimated based on the existence probability calculated based on the elapsed time from the shooting time. For this reason, it is possible to search for a search target person who is scheduled to move.
  • the configuration or setting of the system is changed according to the estimation result of the location of the search target person. For this reason, processing can be performed by focusing on video analysis of a place where a search target person is more likely to be found. For this reason, limited calculation resources can be used efficiently.
  • the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention.
  • the person search system 10 has a plurality of video analysis servers 200, but the number of video analysis servers 200 may be one.
  • the control unit 305 of the control server 300 changes the setting so that the resources in the one video analysis server 200 are allocated to the analysis processing for each camera 100 according to the estimation result of the existence location estimation unit 304. .
  • Presence information acquisition means for acquiring presence information that is generated based on captured images at a plurality of predetermined locations and that indicates the presence location of the person at the time of shooting;
  • a presence location estimating means for estimating a current location of a specific person from the plurality of predetermined locations based on the presence information acquired by the presence information acquisition means, and
  • the presence information includes time information at the time of shooting,
  • the presence location estimating unit estimates a current location of the specific person based on an existence probability of the specific person at the predetermined location calculated based on an elapsed time from the shooting time point.
  • the presence location estimating means is calculated based on a predetermined movement probability from the first location for each second location that can be reached from the first location, and an elapsed time from the shooting time point. Estimate the current location of the specific person by probability, The first place is an existing place at the shooting time of the specific person among the plurality of predetermined places, The information processing apparatus according to claim 1, wherein the second place is a place that can be reached from the first place among the plurality of predetermined places. (Appendix 3) The information processing apparatus according to claim 1 or 2, further comprising: a control unit that changes a configuration or setting relating to generation of the presence information according to an estimation result by the presence location estimation unit.
  • the information processing apparatus is a setting of the number of face images that can be detected within one frame.
  • Presence information generating means for generating presence information indicating the location of the person at the time of shooting based on the captured images for each predetermined location;
  • a presence location estimating means for estimating a current location of a specific person from the plurality of the predetermined locations based on the presence information;
  • the presence information includes time information at the time of shooting,
  • the presence location estimation means estimates the current location of the specific person based on the presence probability of the specific person at the predetermined location, which is calculated based on the elapsed time from the shooting time point. .
  • the person search system according to claim 8, wherein the presence information generation unit generates the presence information by identifying a face included in a captured image.
  • the presence information generation unit Obtained presence information indicating the location of the person at the time of shooting, which is generated based on the captured images at a plurality of predetermined locations, Based on the acquired presence information, a current location of a specific person is estimated from the plurality of predetermined locations,
  • the presence information includes time information at the time of shooting, In the estimation of the location, a location estimation method of estimating the current location of the specific person based on the probability of the specific person existing at the predetermined location calculated based on the elapsed time from the shooting time.
  • the presence information includes time information at the time of shooting,
  • a program for estimating the current location of the specific person based on the presence probability of the specific person at the predetermined location calculated based on the elapsed time from the shooting time point is stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

移動する予定のある検索対象者を検索することができる情報処理装置、人物検索システム、場所推定方法、及びプログラムを提供する。情報処理装置(1)は、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得部(2)と、存在情報取得部(2)により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定部(3)とを有する。存在情報は、前記撮影時点の時刻情報を含む。存在場所推定部(3)は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。

Description

情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
 本発明は情報処理装置、人物検索システム、場所推定方法、及びプログラムに関する。
 カメラにより撮影された映像データを解析する種々の技術が提案されている。例えば、特許文献1は、入力された映像の画像に基づいて、画像中に物体が現れる確率を表す存在確率マップを生成することについて開示している。また、特許文献2は、空港において、搭乗を予定している顧客でありながら、出発時間が迫ってきているにも関わらず未だ搭乗していない顧客を監視カメラにより撮影された映像を用いて探し出す技術について開示している。
特開2013-92955号公報 国際公開第2014/148395号
 検索対象者がある場所から別の場所に移動する場合、検索対象者が撮影された画像に基づいて特定された検索対象者の位置と、実際の現在の検索対象者の位置が異なる場合がある。このような場合であっても、検索対象者を検索することが求められている。
 特許文献1では、任意の人物が存在する確率を示す存在確率マップを生成する技術であり、検索対象者などの特定の人物の検索に利用することができない。また、特許文献2では、エリア区分ラインに設置された監視カメラにより未搭乗者が最後に撮影された場合、エリア区分ラインの両サイドのエリアのいずれかに留まっていると推測することが開示されている。しかしながら、このような推測は未搭乗者が移動しないことを前提としており、検索対象者が移動する場合の検索に十分に対応できない。
 そこで、本明細書に開示される実施形態が達成しようとする目的の1つは、移動する予定のある検索対象者を検索することができる情報処理装置、人物検索システム、場所推定方法、及びプログラムを提供することにある。
 第1の態様にかかる情報処理装置は、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得手段と、前記存在情報取得手段により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段とを有し、前記存在情報は、前記撮影時点の時刻情報を含み、前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
 第2の態様にかかる人物検索システムは、所定の場所毎の撮影画像に基づいて、人物の撮影時点における存在場所を示す存在情報を生成する存在情報生成手段と、前記存在情報に基づいて、複数の前記所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段とを有し、前記存在情報は、前記撮影時点の時刻情報を含み、前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
 第3の態様にかかる場所推定方法では、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得し、取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定し、前記存在情報は、前記撮影時点の時刻情報を含み、存在場所の推定では、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
 第4の態様にかかるプログラムは、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得ステップと、前記存在情報取得ステップで取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定ステップとをコンピュータに実行させ、前記存在情報は、前記撮影時点の時刻情報を含み、前記存在場所推定ステップでは、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
 上述の態様によれば、移動する予定のある検索対象者を検索することができる情報処理装置、人物検索システム、場所推定方法、及びプログラムを提供することができる。
実施の形態の概要にかかる情報処理装置の構成の一例を示すブロック図である。 実施の形態にかかる人物検索システムの構成の一例を示すブロック図である。 実施の形態にかかる映像解析サーバ、制御サーバ、及び検索受付サーバのハードウェア構成の一例を示すブロック図である。 実施の形態にかかる映像解析サーバ、制御サーバ、及び検索受付サーバの機能構成の一例を示すブロック図である。 実施の形態にかかる人物検索システムの適用例を示す模式図である。 制御部による構成の変更について示す模式図である。 実施の形態にかかる人物検索システムの動作例を示すシーケンスチャートである。
<実施形態の概要>
 実施形態の詳細な説明に先立って、実施形態の概要を説明する。図1は、実施の形態の概要にかかる情報処理装置1の構成の一例を示すブロック図である。図1に示すように、情報処理装置1は、存在情報取得部2と、存在場所推定部3とを有する。
 存在情報取得部2は、複数の所定の場所毎の撮影画像に基づいて生成された存在情報を取得する。ここで、存在情報は、人物の撮影時点における存在場所を示す情報である。存在情報は、撮影時点の時刻情報、すなわち撮影時刻情報を含む。なお、存在情報取得部2による取得方法は、任意である。したがって、存在情報取得部2は、他の装置により生成された存在情報を、ネットワークを介して取得してもよいし、情報処理装置1の記憶装置(不図示)に記憶された存在情報を読み出して取得してもよい。
 存在場所推定部3は、存在情報取得部2により取得された存在情報に基づいて、上記複数の所定の場所の中から特定の人物の現在の存在場所を推定する。ここで、存在場所推定部3は、撮影時点からの経過時間に基づいて算出される、当該特定の人物の所定の場所における存在確率により、当該特定の人物の現在の存在場所を推定する。
 検索対象である特定の人物に移動する予定がある場合、時間の経過とともに、過去に当該人物が撮影された場所から移動している可能性が高くなる。これに対し、情報処理装置1では、存在場所推定部3は、撮影時点からの経過時間に基づいて、特定の人物の存在確率を算出し、当該人物の現在の存在場所を推定する。このため、人物の移動を考慮した検索を行うことができる。
<実施の形態の詳細>
 次に、実施の形態の詳細について説明する。図2は、実施の形態にかかる人物検索システム10の構成の一例を示すブロック図である。図2に示すように人物検索システム10は、複数のカメラ100と、複数の映像解析サーバ200を含む映像解析サーバ群250と、制御サーバ300と、検索受付サーバ400とを有する。人物検索システム10は、複数の所定の場所のそれぞれに配置されたカメラ100により撮影された画像を解析することにより人物を検索するシステムである。
 上述の通り、カメラ100は、予め定められた場所毎に配置されており、配置された場所の周辺の様子を撮影する。カメラ100のそれぞれは、映像解析サーバ群250と有線又は無線のネットワークにより接続されており、各カメラ100は、撮影した映像データを映像解析サーバ群250に送信する。なお、カメラ100は、後述する映像取得制御部201からの指示に従って、映像解析サーバ群250のいずれかの映像解析サーバ200に撮影した映像データを送信する。なお、映像データは、撮影時刻情報を含む。
 カメラ100の設置場所は任意である。例えば、カメラ100の設置場所は、空港、港湾、テーマパーク、ショッピングセンター、スタジアムなどであってもよい。また、カメラ100の設置場所は、1つの建物内に限らず、複数の建物などに点在していてもよい。本実施の形態では、これらの設置場所について、順方向の経路が予め定められている。したがって、人物は、この順方向の経路に従って移動する。
 映像解析サーバ群250は、複数の映像解析サーバ200を含む。映像解析サーバ200は、カメラ100が送信した映像データに対し、画像認識処理を行って、カメラ100の撮影領域(すなわち、カメラ100の設置場所の周辺)における人物を認識するサーバである。本実施の形態では、映像解析サーバ200は、人物の顔についての認識処理により人物を認識するが、人物の他の外見的特徴を用いて、人物を認識してもよい。映像解析サーバ200は、制御サーバ300と有線又は無線のネットワークにより接続されており、解析処理の結果を制御サーバ300に送信する。
 検索受付サーバ400は、検索要求をクライアント端末(図示せず)から受け付けるサーバである。例えば、検索受付サーバ400は、検索(捜索)すべき人物(以下、検索対象者)を指定する情報を含む検索要求を受け付ける。例えば、カメラ100の設置場所が空港内の各エリアである場合、検索対象者は、行方不明の搭乗予定者であってもよい。なお、検索対象者は、搭乗予定者に限らず、任意の人物であってもよいことは言うまでもない。検索受付サーバ400は、制御サーバ300と有線又は無線のネットワークにより接続されており、検索対象者情報を制御サーバ300に送信する。
 制御サーバ300は、映像解析サーバ群250の解析処理の結果に基づいて、検索対象者の現在の居場所を推定するサーバである。また、制御サーバ300は、検索対象者が居る可能性が高い場所の映像解析に映像解析サーバ群250が注力できるよう、推定結果に基づいてシステム構成又は設定を変更する。
 以下、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400の詳細について説明する。図3は、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400のハードウェア構成の一例を示すブロック図である。図3に示すように、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400は、それぞれ、例えば、ネットワークインタフェース50、メモリ51、及びプロセッサ52を含む。
 ネットワークインタフェース50は、他の装置と通信するために使用される。ネットワークインタフェース50は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。
 メモリ51は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。なお、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400は、メモリ51の他にハードディスクなどの記憶装置を有してもよい。
 メモリ51は、プロセッサ52により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。
 このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 プロセッサ52は、メモリ51からソフトウェア(コンピュータプログラム)を読み出して実行することで、後述する映像解析サーバ200の処理、制御サーバ300の処理、又は検索受付サーバ400の処理を行う。このように、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400は、コンピュータとしての機能を備えている。プロセッサ52は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ52は、複数のプロセッサを含んでもよい。
 メモリ51又は記憶装置は、後述する存在情報記憶部302として利用されてもよい。なお、カメラ100も図3に示した構成と同様のハードウェア構成を備えており、コンピュータとしての機能を有する。
 図4は、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400の機能構成の一例を示すブロック図である。まず、映像解析サーバ200について説明する。映像解析サーバ200は、図4に示すように、映像取得制御部201と、存在情報生成部202と、存在情報出力部203とを有する。
 映像取得制御部201は、1以上のカメラ100から映像データを取得する。映像取得制御部201が取得するデータは、カメラ100の撮影画像と撮影時刻情報とを含む。本実施の形態では、映像解析サーバ200は、制御サーバ300の制御部305から指定されたカメラ100の映像データを解析する。このため、映像取得制御部201は、制御部305から指定されたカメラ100からの映像データを取得する。具体的には、映像取得制御部201は、制御サーバ300の制御部305からの指示で指定されたカメラ100に映像データを要求する。これに対し、カメラ100は、映像取得制御部201からの要求があった映像解析サーバ200へと、撮影した映像データを伝送する。
 存在情報生成部202は、所定の場所毎の撮影画像に基づいて存在情報を生成する。ここで、存在情報は、人物の撮影時点における存在場所を示す情報である。本実施の形態では、存在情報生成部202は、撮影画像に対し画像認識処理によるリアルタイムな解析を行って、撮影画像に含まれる顔を識別することにより、存在情報を生成する。具体的には、例えば、存在情報生成部202は、カメラ100の撮影画像に含まれる人物の外見的特徴を示す所定の特徴量(顔画像の特徴量)と、特定の人物の外見的特徴を示す所定の特徴量とのマッチングを行うことにより、存在情報を生成する。すなわち、存在情報生成部202は、両者の特徴量のマッチングにより、当該特定の人物が当該カメラ100の撮影範囲の場所に、当該撮影画像の撮影時点に存在していたという存在情報を生成する。したがって、存在情報は、撮影時点の時刻情報(すなわち、撮影時刻情報)を含む。本実施の形態では、存在情報は、人物の検索に利用されるが、例えば空港等における所定の場所ついての顔認証による入退場情報としても利用されてもよい。
 上述の通り、存在情報は、誰が、いつ、どこに存在したかを特定した情報である。
 存在情報出力部203は、存在情報生成部202により生成された存在情報を、制御サーバ300に出力する。
 次に、検索受付サーバ400について説明する。検索受付サーバ400は、図4に示すように、検索要求受付部401と、検索対象者情報出力部402とを有する。
 検索要求受付部401は、検索要求を受け付ける。検索要求は、検索対象者を指定する情報を含む情報である。検索対象者を指定する情報は、例えば、検索対象者の氏名、ID、パスポート情報などの識別情報(以下、検索対象者情報)を含む。ユーザは、例えば、検索受付サーバ400と有線又は無線のネットワークを介して通信接続されたクライアント端末を操作することにより、検索対象者を指定する。これにより、クライアント端末から検索受付サーバ400に検索要求が送信される。
 検索対象者情報出力部402は、検索要求受付部401が受け付けた検索要求で指定された検索対象者情報を制御サーバ300に出力する。
 次に、制御サーバ300について説明する。制御サーバ300は、図4に示すように、存在情報取得部301と、存在情報記憶部302と、検索対象者情報取得部303と、存在場所推定部304と、制御部305と、検索結果出力部306とを有する。
 存在情報取得部301は、複数の所定の場所毎の撮影画像に基づいて生成された存在情報を取得する。本実施の形態では、存在情報取得部301は、映像解析サーバ200が送信した存在情報を取得する。存在情報取得部301は、取得した存在情報を存在情報記憶部302に記憶する。
 存在情報記憶部302は、存在情報を記憶する記憶領域である。存在情報記憶部302には、各カメラ100からの映像データのリアルタイムな解析によって、逐次、存在情報が蓄積されていく。
 検索対象者情報取得部303は、検索受付サーバ400から送信された検索対象者情報を取得する。
 存在場所推定部304は、存在情報取得部301により取得された存在情報に基づいて、カメラ100が設置されている複数の所定の場所の中から特定の人物の現在の存在場所を推定する。詳細には、存在場所推定部304は、まず、検索対象者情報によって特定される検索対象者についての最新の存在情報を存在情報記憶部302から検索する。次に、存在場所推定部304は、検索された存在情報で示される撮影時刻からの経過時間に基づいて算出される、当該特定の人物(すなわち、検索対象者)の存在確率により、当該特定の人物の現在の存在場所を推定する。すなわち、存在場所推定部304は、当該特定の人物についての最新の存在情報の生成に用いられた撮影画像の撮影時点からの経過時間に基づいて算出される存在確率により、現在の存在場所を推定する。ここで、存在確率とは、カメラ100が設置された所定の場所に当該特定の人物が存在する確率である。
 本実施の形態では、一例として、存在場所推定部304は、上記の経過時間を変数とする単調関数を用いて存在確率を算出する。ここでは、具体的な一例として、下記式(1)で示される単調増加関数f(t)を用いる。
Figure JPOXMLDOC01-appb-M000001
 なお、tは、上記の経過時間である。すなわち、tは、現在の時刻と、検索対象者である特定の人物についての最新の存在情報に対応する撮影時刻との差である。また、TXYiは、場所Xに現れた人物が場所Yiに現れるまでにかかる時間(以下、移動予定時間と称す)であり、場所Xから場所Yiに移動する人々についての統計的な結果などに基づいて予め設定された値である。ここで、場所Xは、カメラ100が設置された場所のうち、検索対象者についての最新の存在情報によって示される存在場所であり、第1の場所とも称される。また、場所Yiは、カメラ100が設置された場所のうち、場所Xから到達可能な場所であり第2の場所とも称される。なお、場所Xから到達可能な場所は、n箇所(nは1以上の整数)あるものとする。すなわち、Yiの「i」は、1以上n以下のインデックス番号であり、場所Xから到達可能な場所は、場所Y1から場所Ynの合計n箇所である。
 存在場所推定部304は、上記の関数f(t)を用いて、現在、検索対象者が場所Yiに存在する存在確率pYi(t)を下記式(2)により算出する。また、存在場所推定部304は、現在、検索対象者が場所Xに存在する存在確率p(t)を下記式(3)により算出する。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 ここで、PXYiは、場所Xからの人物の移動先が場所Yiである確率である。すなわち、PXYiは、場所Yi毎の場所Xからの移動確率である。移動確率PXYiは、場所Xから場所Yiに移動する人々についての統計的な結果などに基づいて予め設定された値である。このように本実施の形態では、存在場所推定部304は、場所Xから到達可能な場所Yi毎の所定の移動確率と、経過時間tとに基づいて算出される存在確率により、検索対象者の現在の存在場所を推定する。このように移動確率も用いることにより、場所Xからの到達先が複数である場合であっても、各到達先に対する存在確率を算出することができる。
 存在場所推定部304は、上述のようにして検索対象者の場所毎の存在確率を算出し、存在確率の大きさによって存在場所を推定する。ここで、人物検索システム10の具体的な適用例について説明する。図5は、本実施の形態にかかる人物検索システム10の適用例を示す模式図である。図5は、空港での人物の検索を行う例を示している。図5に示した例では、カメラ100は、搭乗手続きエリア(場所Aと称す)と、出国審査エリア(場所Bと称す)と、免税店(場所Cと称す)と、ラウンジ(場所Dと称す)と、搭乗ゲート(場所Eと称す)に設置されている。
 これらの場所については、図5において矢印で示されるように、順方向の経路が予め定められている。具体的には、場所Aに到着した人物は、その後、場所Bへ移動することになっている。場所Aから場所Bへの移動確率PABとして予め100%が設定され、移動予定時間TABとして、予め5分が設定されている。
 また、場所Bに到着した人物は、その後、場所C又はD又はEのいずれかへ移動することになっている。場所Bから場所Cへの移動確率PBCとして予め10%が設定され、移動予定時間TBCとして、予め1分が設定されている。場所Bから場所Dへの移動確率PBDとして予め40%が設定され、移動予定時間TBDとして、予め5分が設定されている。場所Bから場所Eへの移動確率PBEとして予め50%が設定され、移動予定時間TBEとして、予め1分が設定されている。
 さらに、場所Cに到着した人物は、その後、場所Eへ移動することになっている。場所Cから場所Eへの移動確率PCEとして予め100%が設定され、移動予定時間TCEとして、予め30分が設定されている。そして、場所Dに到着した人物は、その後、場所Eへ移動することになっている。場所Dから場所Eへの移動確率PDEとして予め100%が設定され、移動予定時間TDEとして、予め60分が設定されている。
 例えば、検索対象者についての最新の存在情報により検索対象者が場所Bに存在していたことを存在場所推定部304が確認した場合、存在場所推定部304は、次のように検索対象者の現在の居場所を推定する。すなわち、存在場所推定部304は、場所Bを場所Xとし、場所C、D、及びEを場所Yiとして、検索対象者の場所B、C、D、及びEのそれぞれにおける存在確率を上述のようにして算出し、現在の存在場所を推定する。なお、存在場所推定部304は、存在確率に基づいて検索対象者の現在の存在場所を任意の手法により推定すればよい。例えば、存在場所推定部304は、所定の閾値を超える存在確率が算出された場所を、検索対象者の現在の居場所と推定してもよいし、存在確率が最大である場所を検索対象者の現在の居場所と推定してもよい。
 制御部305は、存在場所推定部304による推定結果に応じて、存在情報の生成に関する構成又は設定を変更する制御を行う。例えば、制御部305は、カメラ100が設置された場所の撮影画像に対する存在情報の生成のための処理に、当該場所の存在確率の大きさに応じたリソースを割り当てるよう構成の変更を行う。具体的には、例えば、制御部305は、映像解析サーバ200が担当するカメラ100の台数を変更するよう制御する。図6は、制御部305による構成の変更について示す模式図である。図6において、左側は、制御部305による構成の変更前のカメラ100と映像解析サーバ200との対応関係を示し、右側は、制御部305による構成の変更後のカメラ100と映像解析サーバ200との対応関係を示している。構成変更前では、各映像解析サーバ200は、それぞれ2台のカメラ100の映像データの解析を担当している。存在場所推定部304により、場所D又は場所Eに、現在、検索対象者が居ると推定された場合、制御部305は、場所Dのカメラ100(カメラD)及び場所Eのカメラ100(カメラE)の映像データの解析に注力できるよう構成を変更する。すなわち、制御部305は、カメラDの映像データを処理する映像解析サーバ200(映像解析サーバH)が、リソースをカメラDの映像データの解析に集中できるよう構成を変更する(図6の右側の図参照)。同様に、制御部305は、カメラEの映像データを処理する映像解析サーバ200(映像解析サーバI)が、リソースをカメラEの映像データの解析に集中できるよう構成を変更する(図6の右側の図参照)。これに伴い、制御部305は、映像解析サーバHが担当していたカメラCの映像データの解析処理を映像解析サーバGに割り振り、映像解析サーバIが担当していたカメラFの映像データの解析処理を映像解析サーバGに割り振る。これにより、現在、検索対象者が存在する可能性が高いエリアに注力して、検索対象者を探すことができる。
 また、制御部305は、存在場所推定部304による推定結果に応じて、カメラ100の設置場所の撮影画像に対する存在情報の生成のための画像認識処理性能に関する設定を変更してもよい。図6に示した例により説明すると、制御部305は、カメラDの映像データの解析の際に実施する画像認識処理の性能を向上させるよう設定を変更する。同様に、制御部305は、カメラEの映像データの解析の際に実施する画像認識処理の性能を向上させるよう設定を変更する。なお、画像認識処理性能に関する設定としては、具体的には、例えば、解析対象とする画像のフレームレート(FPS:frames per second)であってもよいし、1フレーム内で検出可能な顔画像の数であってもよい。これらの設定値を上げることにより、より高精度な認識結果が期待される。なお、制御部305は、4台のカメラを担当するように変更された映像解析サーバGに対し、映像解析サーバGのリソース不足に陥らないよう、各カメラの映像データの解析の際に実施する画像認識処理の性能を低下させるよう設定を変更してもよい。
 制御部305は、構成又は設定の変更を映像解析サーバ200に指示する。これにより、映像解析サーバ200の映像取得制御部201は、制御サーバ300の制御部305に指示されたカメラ100の映像データを取得する。また、映像解析サーバ200の存在情報生成部202は、制御サーバ300の制御部305に指示された設定で解析処理を行う。
 検索結果出力部306は、検索対象者情報によって特定される検索対象者についての現在の居場所を示す存在情報を検索する。例えば、検索結果出力部306は、現在の時刻と撮影時刻との差が僅少である存在情報、言い換えると、現在の時刻と撮影時刻との差が予め定められた時間以内である存在情報を検索する。これにより、検索結果出力部306は、制御部305による変更後に映像解析サーバ200に生成され存在情報記憶部302に蓄積された当該検索対象者についての存在情報を得る。検索結果出力部306は、得られた存在情報を、検索対象者の現在の居場所として出力する。なお、検索結果出力部306は、得られた存在情報を検索受付サーバ400に出力してもよいし、クライアント端末などの装置に出力してもよい。検索結果出力部306から出力された存在情報は、任意の手法により、検索結果としてユーザへ提示することができる。
 次に、人物検索システム10の動作の流れについて説明する。図7は、人物検索システム10の動作例を示すシーケンスチャートである。
 まず、通常時の動作の流れについて説明する。
 ステップ100(S100)において、カメラ100から送信された映像データを映像解析サーバ200の映像取得制御部201が取得する。
 次に、ステップ101(S101)において、映像解析サーバ200の存在情報生成部202が、映像データを解析し、様々な人物の存在情報を生成する。
 次に、ステップ102(S102)において、映像解析サーバ200の存在情報出力部203によって出力された存在情報を、制御サーバ300の存在情報取得部301が取得する。そして、存在情報取得部301は、取得した存在情報を存在情報記憶部302に格納する。
 存在情報は、逐次生成され、存在情報記憶部302に逐次蓄積される。
 次に、人物検索時の動作の流れについて説明する。
 ステップ200(S200)において、ユーザからの検索要求を検索受付サーバ400の検索要求受付部401が受け付ける。
 次に、ステップ201(S201)において、検索要求に基づいて、検索受付サーバ400の検索対象者情報出力部402が検索対象者情報を制御サーバ300に送信し、これを制御サーバ300の検索対象者情報取得部303が取得する。
 次に、ステップ202(S202)において、制御サーバ300の存在場所推定部304は、ステップ102において蓄積された存在情報に基づいて、検索対象者の現在の居場所を推定する。
 次に、ステップ203(S203)において、制御サーバ300の制御部305が、ステップ202における推定結果に応じて、システムの構成及び設定の変更を決定する。
 次に、ステップ204(S204)において、制御サーバ300の制御部305は、映像解析サーバ200に変更を指示する。
 ステップ205(S205)において、映像取得制御部201は、ステップ204で制御サーバ300から通知された指示に従い、カメラ100に対し映像データの送信先を指示する。すなわち、映像取得制御部201は、自サーバが担当するカメラ100からの映像データが自サーバに届くように、カメラ100に通知する。カメラ100は通知に従った送信先の映像解析サーバ200に映像データを送信する。以降、制御部305により変更された構成及び設定の下、存在情報生成部202により、検索対象者を検索する解析が行われる。このようにして、検索対象者が存在しそうな場所に対して注力した検索処理を行うことができる。
 なお、検索対象者の存在情報がいずれかの映像解析サーバ200において生成された場合、制御サーバ300の検索結果出力部306がこれを存在情報記憶部302から得て、検索結果として出力する。
 以上、実施の形態について説明した。人物検索システム10では、撮影時点からの経過時間に基づいて算出される存在確率により、検索対象者の現在の存在場所が推定される。このため、移動する予定のある検索対象者を検索することができる。
 また、人物検索システム10では、検索対象者の存在場所の推定結果に応じて、システムの構成又は設定が変更される。このため、検索対象者が発見される可能性がより高い場所の映像解析に注力して処理を行うことができる。このため、限られた計算リソースを効率的に利用することができる。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、人物検索システム10は、複数の映像解析サーバ200を有していたが、映像解析サーバ200は1つであってもよい。この場合、例えば、制御サーバ300の制御部305は、この1つの映像解析サーバ200におけるリソースを存在場所推定部304の推定結果に応じて、カメラ100毎の解析処理に対し割り振るよう設定を変更する。
 また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得手段と、
 前記存在情報取得手段により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
 を有し、
 前記存在情報は、前記撮影時点の時刻情報を含み、
 前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
 情報処理装置。
(付記2)
 前記存在場所推定手段は、第1の場所から到達可能な第2の場所毎の前記第1の場所からの所定の移動確率と、前記撮影時点からの経過時間とに基づいて算出される前記存在確率により、前記特定の人物の現在の存在場所を推定し、
 前記第1の場所は、前記複数の所定の場所のうち、前記特定の人物の前記撮影時点における存在場所であり、
 前記第2の場所は、前記複数の所定の場所のうち、前記第1の場所から到達可能な場所である
 付記1に記載の情報処理装置。
(付記3)
 前記存在場所推定手段による推定結果に応じて、前記存在情報の生成に関する構成又は設定を変更する制御手段をさらに有する
 付記1又は2に記載の情報処理装置。
(付記4)
 前記制御手段は、前記所定の場所の撮影画像に対する前記存在情報の生成のための処理に、当該場所の前記存在確率の大きさに応じたリソースを割り当てる
 付記3に記載の情報処理装置。
(付記5)
 前記制御手段は、前記存在場所推定手段による推定結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更する
 付記3又は4に記載の情報処理装置。
(付記6)
 前記画像認識処理性能に関する設定は、解析対象とする画像のフレームレートの設定である
 付記5に記載の情報処理装置。
(付記7)
 前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
 付記5に記載の情報処理装置。
(付記8)
 所定の場所毎の撮影画像に基づいて、人物の撮影時点における存在場所を示す存在情報を生成する存在情報生成手段と、
 前記存在情報に基づいて、複数の前記所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
 を有し、
 前記存在情報は、前記撮影時点の時刻情報を含み、
 前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
 人物検索システム。
(付記9)
 前記存在情報生成手段は、撮影画像に含まれる顔を識別することにより、前記存在情報を生成する
 付記8に記載の人物検索システム。
(付記10)
 複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得し、
 取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定し、
 前記存在情報は、前記撮影時点の時刻情報を含み、
 存在場所の推定では、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
 場所推定方法。
(付記11)
 複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得ステップと、
 前記存在情報取得ステップで取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定ステップと
 をコンピュータに実行させ、
 前記存在情報は、前記撮影時点の時刻情報を含み、
 前記存在場所推定ステップでは、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
 プログラムが格納された非一時的なコンピュータ可読媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2018年3月23日に出願された日本出願特願2018-056862を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1  情報処理装置
2  存在情報取得部
3  存在場所推定部
10  人物検索システム
50  ネットワークインタフェース
51  メモリ
52  プロセッサ
100  カメラ
200  映像解析サーバ
201  映像取得制御部
202  存在情報生成部
203  存在情報出力部
250  映像解析サーバ群
300  制御サーバ
301  存在情報取得部
302  存在情報記憶部
303  検索対象者情報取得部
304  存在場所推定部
305  制御部
306  検索結果出力部
400  検索受付サーバ
401  検索要求受付部
402  検索対象者情報出力部

Claims (11)

  1.  複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得手段と、
     前記存在情報取得手段により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
     を有し、
     前記存在情報は、前記撮影時点の時刻情報を含み、
     前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
     情報処理装置。
  2.  前記存在場所推定手段は、第1の場所から到達可能な第2の場所毎の前記第1の場所からの所定の移動確率と、前記撮影時点からの経過時間とに基づいて算出される前記存在確率により、前記特定の人物の現在の存在場所を推定し、
     前記第1の場所は、前記複数の所定の場所のうち、前記特定の人物の前記撮影時点における存在場所であり、
     前記第2の場所は、前記複数の所定の場所のうち、前記第1の場所から到達可能な場所である
     請求項1に記載の情報処理装置。
  3.  前記存在場所推定手段による推定結果に応じて、前記存在情報の生成に関する構成又は設定を変更する制御手段をさらに有する
     請求項1又は2に記載の情報処理装置。
  4.  前記制御手段は、前記所定の場所の撮影画像に対する前記存在情報の生成のための処理に、当該場所の前記存在確率の大きさに応じたリソースを割り当てる
     請求項3に記載の情報処理装置。
  5.  前記制御手段は、前記存在場所推定手段による推定結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更する
     請求項3又は4に記載の情報処理装置。
  6.  前記画像認識処理性能に関する設定は、解析対象とする画像のフレームレートの設定である
     請求項5に記載の情報処理装置。
  7.  前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
     請求項5に記載の情報処理装置。
  8.  所定の場所毎の撮影画像に基づいて、人物の撮影時点における存在場所を示す存在情報を生成する存在情報生成手段と、
     前記存在情報に基づいて、複数の前記所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
     を有し、
     前記存在情報は、前記撮影時点の時刻情報を含み、
     前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
     人物検索システム。
  9.  前記存在情報生成手段は、撮影画像に含まれる顔を識別することにより、前記存在情報を生成する
     請求項8に記載の人物検索システム。
  10.  複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得し、
     取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定し、
     前記存在情報は、前記撮影時点の時刻情報を含み、
     存在場所の推定では、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
     場所推定方法。
  11.  複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得ステップと、
     前記存在情報取得ステップで取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定ステップと
     をコンピュータに実行させ、
     前記存在情報は、前記撮影時点の時刻情報を含み、
     前記存在場所推定ステップでは、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
     プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2018/039858 2018-03-23 2018-10-26 情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体 WO2019181047A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/040,210 US11501568B2 (en) 2018-03-23 2018-10-26 Information processing apparatus, person search system, place estimation method, and non-transitory computer readable medium storing program
AU2018414269A AU2018414269A1 (en) 2018-03-23 2018-10-26 Information processing apparatus, person search system, place estimation method, and non-transitory computer readable medium storing program
JP2020507329A JP7067613B2 (ja) 2018-03-23 2018-10-26 情報処理装置、人物検索システム、場所推定方法及びプログラム
EP18910933.3A EP3770855A1 (en) 2018-03-23 2018-10-26 Information processing device, person search system, place estimation method, and non-temporary computer-readable medium in which program is stored

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-056862 2018-03-23
JP2018056862 2018-03-23

Publications (1)

Publication Number Publication Date
WO2019181047A1 true WO2019181047A1 (ja) 2019-09-26

Family

ID=67987595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/039858 WO2019181047A1 (ja) 2018-03-23 2018-10-26 情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Country Status (5)

Country Link
US (1) US11501568B2 (ja)
EP (1) EP3770855A1 (ja)
JP (1) JP7067613B2 (ja)
AU (1) AU2018414269A1 (ja)
WO (1) WO2019181047A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135473A (ja) * 2020-02-28 2021-09-13 株式会社日立製作所 捜索支援システム、捜索支援方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792501B2 (en) * 2020-12-17 2023-10-17 Motorola Solutions, Inc. Device, method and system for installing video analytics parameters at a video analytics engine

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092955A (ja) 2011-10-27 2013-05-16 Hitachi Ltd 映像解析装置及びシステム
WO2014061342A1 (ja) * 2012-10-18 2014-04-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014148395A1 (ja) 2013-03-21 2014-09-25 株式会社日立国際電気 映像監視システム、映像監視方法、および映像監視装置
JP2016143312A (ja) * 2015-02-04 2016-08-08 沖電気工業株式会社 予測システム、予測方法およびプログラム
JP2016163328A (ja) * 2015-03-05 2016-09-05 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018032950A (ja) * 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018056862A (ja) 2016-09-30 2018-04-05 ブラザー工業株式会社 通信装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506801B2 (ja) * 2007-09-25 2010-07-21 カシオ計算機株式会社 画像認識装置、画像認識方法、画像認識プログラム
US9684835B2 (en) * 2012-09-13 2017-06-20 Nec Corporation Image processing system, image processing method, and program
US9794525B2 (en) * 2014-03-25 2017-10-17 Ecole Polytechnique Federale De Lausanne (Epfl) Systems and methods for tracking interacting objects
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置
WO2017163282A1 (ja) * 2016-03-25 2017-09-28 パナソニックIpマネジメント株式会社 監視装置及び監視システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092955A (ja) 2011-10-27 2013-05-16 Hitachi Ltd 映像解析装置及びシステム
WO2014061342A1 (ja) * 2012-10-18 2014-04-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014148395A1 (ja) 2013-03-21 2014-09-25 株式会社日立国際電気 映像監視システム、映像監視方法、および映像監視装置
JP2016143312A (ja) * 2015-02-04 2016-08-08 沖電気工業株式会社 予測システム、予測方法およびプログラム
JP2016163328A (ja) * 2015-03-05 2016-09-05 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018032950A (ja) * 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018056862A (ja) 2016-09-30 2018-04-05 ブラザー工業株式会社 通信装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135473A (ja) * 2020-02-28 2021-09-13 株式会社日立製作所 捜索支援システム、捜索支援方法
JP7407018B2 (ja) 2020-02-28 2023-12-28 株式会社日立製作所 捜索支援システム、捜索支援方法

Also Published As

Publication number Publication date
AU2018414269A1 (en) 2020-10-08
US11501568B2 (en) 2022-11-15
JP7067613B2 (ja) 2022-05-16
JPWO2019181047A1 (ja) 2021-02-25
US20210012095A1 (en) 2021-01-14
EP3770855A1 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP7184148B2 (ja) 監視システム、管理装置および監視方法
JP2015002553A (ja) 情報処理システムおよびその制御方法
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
JP5899518B2 (ja) サーバ装置、システム制御方法及びシステム制御プログラム
JP2007219948A (ja) ユーザ異常検出装置、及びユーザ異常検出方法
JP7056564B2 (ja) 映像処理装置、映像処理方法及びプログラム
JP7338739B2 (ja) 情報処理装置、制御方法、及びプログラム
WO2019181047A1 (ja) 情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP6769475B2 (ja) 情報処理システム、認証対象の管理方法、及びプログラム
Kim et al. Stabilized adaptive sampling control for reliable real-time learning-based surveillance systems
CN110889314A (zh) 图像处理方法、装置、电子设备、服务器及***
JP2022117996A (ja) 情報処理装置、データ生成方法、及びプログラム
JP2015233204A (ja) 画像記録装置及び画像記録方法
JP6941457B2 (ja) 監視システム
KR102099816B1 (ko) 실시간 로드 영상을 통해 유동 인구 데이터를 수집하는 방법 및 장치
JP2014215747A (ja) 追跡装置、追跡システム、及び、追跡方法
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP7067593B2 (ja) 情報処理システム、認証対象の管理方法、及びプログラム
JP6927585B2 (ja) 管理装置、自動改札機制御方法、及びプログラム
JP7129920B2 (ja) 撮像装置
JP2019139716A (ja) 移動体管理装置、移動体管理システム、および移動体管理方法
JP6879336B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP2019180017A (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP2019192155A (ja) 画像処理装置、撮影装置、画像処理方法およびプログラム
JP7327571B2 (ja) 情報処理システム、端末装置、認証対象の管理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18910933

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020507329

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018414269

Country of ref document: AU

Date of ref document: 20181026

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2018910933

Country of ref document: EP