WO2011010490A1 - 監視カメラ端末 - Google Patents

監視カメラ端末 Download PDF

Info

Publication number
WO2011010490A1
WO2011010490A1 PCT/JP2010/056161 JP2010056161W WO2011010490A1 WO 2011010490 A1 WO2011010490 A1 WO 2011010490A1 JP 2010056161 W JP2010056161 W JP 2010056161W WO 2011010490 A1 WO2011010490 A1 WO 2011010490A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
person
surveillance camera
object map
counterpart
Prior art date
Application number
PCT/JP2010/056161
Other languages
English (en)
French (fr)
Inventor
内藤丈嗣
上條俊介
藤村嘉一
Original Assignee
オムロン株式会社
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社, 国立大学法人東京大学 filed Critical オムロン株式会社
Priority to EP10802111.4A priority Critical patent/EP2458553B1/en
Priority to JP2011523577A priority patent/JP5453429B2/ja
Priority to CN201080018875.4A priority patent/CN102414719B/zh
Priority to US13/266,093 priority patent/US8503727B2/en
Publication of WO2011010490A1 publication Critical patent/WO2011010490A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a monitoring camera terminal that processes a frame image obtained by imaging a monitoring target area and tracks a suspicious person or the like who has taken a specific action.
  • suspicious persons who take a peculiar action using a plurality of surveillance camera terminals. Detects and tracks detected suspicious individuals.
  • the surveillance camera terminal that takes over the tracking needs to identify the suspicious person. If identification of the suspicious person fails, another person who has not been suspiciously tracked so far will be tracked. That is, the detected suspicious person is lost and tracking fails.
  • one monitoring camera terminal that is tracking the suspicious person takes over the template information used for detecting the suspicious person, and takes over the tracking of the suspicious person to the other monitoring camera terminal. It has been proposed to identify a suspicious person using the template information notified to the other surveillance camera terminal (see Patent Document 1).
  • This feature information is, for example, information for identifying the suspicious person based on the image data, shape, color, size, etc. of the suspicious person cut out from the image, or the shape and position of the facial parts such as eyes, nose, mouth .
  • one surveillance camera terminal that tracks the suspicious person and the other surveillance camera terminal that takes over the tracking of the suspicious person have different angles with respect to the suspicious person that is the subject. Therefore, there is a difference between the suspicious person in the frame image captured by one surveillance camera terminal and the suspicious person in the frame image captured by the other surveillance camera terminal in the external shape of the suspicious person, the shape and position of the facial parts, etc. . For this reason, even if the template information or feature information used for detecting a suspicious person is notified from one surveillance camera terminal to the other surveillance camera terminal, matching cannot be performed with the other surveillance camera terminal taking into account the difference in angle. Thus, the identification accuracy of the suspicious person cannot be ensured.
  • An object of the present invention is to provide a monitoring camera terminal that sufficiently secures the identification accuracy of an object being tracked with another monitoring camera terminal and that can sufficiently suppress an increase in cost.
  • the surveillance camera terminal of the present invention is configured as follows to achieve the above object.
  • the object extraction unit processes the frame image of the monitoring target area assigned to the terminal captured by the imaging unit, and extracts the imaged object.
  • the object referred to here is an object such as a person or a vehicle.
  • the ID assigning means assigns an ID to the object extracted by the object extracting means. This ID may be a unique value that can identify the object.
  • the object map creating unit creates an object map in which the ID assigned to each object and the coordinate position on the frame image are associated with each object extracted by the object extracting unit. Then, the tracking unit tracks an object located in the monitoring target area assigned to the own terminal, using the object map created by the object map creating unit.
  • the object map acquisition means creates a partner object created by the partner terminal by data communication with the partner terminal whose assigned monitor target area overlaps with a part of the monitor target area of the terminal itself. Get the map.
  • the coordinate conversion information storage unit stores coordinate conversion information indicating a relative positional relationship between the coordinate position of the frame image of the own terminal and the coordinate position of the frame image of the counterpart terminal.
  • the identification unit converts the position of the object extracted by the own terminal and the position of the object extracted by the counterpart terminal into a common coordinate system position using the coordinate conversion information stored in the coordinate conversion information storage unit. .
  • the identifying means identifies the object located in the overlapping area by the distance between the object extracted by the own terminal and the object extracted by the counterpart terminal in the common coordinate system.
  • the common coordinate system may be any coordinate system, but is preferably the coordinate system of either one of the surveillance camera terminals (own terminal or counterpart terminal). In this way, only the object registered in one of the object maps has to be subjected to coordinate conversion, so that the processing load for this coordinate conversion can be suppressed.
  • the position in the common coordinate system is slightly different depending on factors such as the angle difference and detection accuracy. Although there is an error, they are almost identical. Therefore, the object extracted by the own terminal and the object extracted by the counterpart terminal can be accurately identified by the distance between the positions.
  • the identification means for example, in a combination of one-to-one correspondence between the object extracted by the own terminal located in the overlapping area and the object extracted by the counterpart terminal, the distance between the associated objects (common The object located in the overlapping area is identified by the combination having the smallest sum of the distances between the positions in the coordinate system.
  • two types of common coordinate systems may be used, and an object located in the overlapping area may be identified by a combination in which the total sum of each type is minimum.
  • the two types of common coordinate systems are the coordinate system of the frame image of the own terminal and the coordinate system of the frame image of the counterpart terminal.
  • the position of the object may be set to the coordinates on the ground plane of the object.
  • a matching unit that temporally matches the object map of the own terminal created by the object map creation unit and the partner object map acquired by the object map acquisition unit according to the distance between objects located in the overlapping area. Also good. Thereby, the identification accuracy can be further improved.
  • the identification means is configured such that the matching means identifies an object located in the overlapping area using a plurality of sets of object maps in which the object map of the own terminal and the object map of the counterpart terminal are temporally matched. Also good. In this way, the object identification accuracy can be further improved.
  • the identification means calculates the distance between the object extracted by the own terminal and the object extracted by the counterpart terminal, in the counterpart object map that the matching means temporally matches with the object map of the own terminal. For a set in which other object maps are also combined, a predetermined penalty distance may be added when calculating the distance between objects located in the overlapping area.
  • the object map creation means adds a time stamp related to the creation time to the created object map.
  • the time stamp is, for example, the imaging time of the frame image used to create the object map this time, the time when the object map creation is completed, or the like.
  • FIG. 1 is a schematic diagram showing the configuration of this monitoring system.
  • This monitoring system is a network system having a plurality of monitoring camera terminals 1 (1A to 1H).
  • This monitoring system is, for example, an ad hoc network system.
  • Data communication can be performed between the monitoring camera terminals 1 directly or via another monitoring camera terminal 1.
  • the data communication between the monitoring camera terminals 1 may be wireless or wired.
  • FIG. 1 is an example of a surveillance system having eight surveillance camera terminals 1A to 1H, but the number of surveillance camera terminals 1 constituting this system is not limited to this number.
  • a line connecting the monitoring camera terminals 1 shown in FIG. 1 is a link.
  • the surveillance camera terminals 1A to 1H are indicated as surveillance camera terminals 1 unless they are particularly distinguished.
  • FIG. 2 is a diagram showing the configuration of the main part of the surveillance camera terminal.
  • the surveillance camera terminal 1 includes a control unit 11, an imaging unit 12, an image processing unit 13, a storage unit 14, a timer 15, and a communication unit 16.
  • the control unit 11 controls the operation of each part of the monitoring camera terminal 1 main body.
  • the imaging unit 12 images the monitoring target area assigned to the terminal itself. In other words, the imaging area of the imaging unit 12 is a monitoring target area assigned to the own terminal.
  • the imaging unit 12 outputs captured images (frame images) of about 5 to 10 frames per second.
  • the image processing unit 13 processes the frame image of the monitoring target area imaged by the imaging unit 12 and extracts the person (object) being imaged. Further, the person moving in the monitoring target area is tracked by a plurality of temporally continuous frame images.
  • the image processing unit 13 extracts and tracks the extracted person using a spatio-temporal MRF (Markov Random Field) model.
  • the spatiotemporal MRF model is an extension of the MRF model as a spatiotemporal model, focusing on the correlation in the time axis direction of the spatiotemporal image.
  • a frame image to be processed is divided into blocks of several pixels ⁇ several pixels (for example, 8 pixels ⁇ 8 pixels), and each block between temporally continuous frame images is divided. This is a model that defines the correlation in the time axis direction with reference to the motion vector.
  • the storage unit 14 stores an operation program for operating the main body, setting data used during operation, processing data generated during operation, and the like.
  • the timer 15 measures the current time.
  • the communication unit 16 controls data communication with other surveillance camera terminals 1.
  • FIG. 3 is a diagram illustrating imaging areas (monitoring target areas) of two adjacent monitoring camera terminals 1A and 1B. Two adjacent monitoring camera terminals 1A and 1B have overlapping imaging areas (monitoring target areas). This overlapping imaging area is referred to as an overlapping area here.
  • the monitoring target areas of the two adjacent monitoring camera terminals 1 ⁇ / b> A and 1 ⁇ / b> B are illustrated. However, in the combination of the other two adjacent monitoring camera terminals 1, a part of the monitoring target area overlaps.
  • the monitoring camera terminal 1 performs an identification process for associating the persons X and Y located in the overlapping area with each other adjacent monitoring camera terminal 1 on a one-to-one basis.
  • the persons X and Y are located in the overlapping area of the monitoring camera terminals 1A and 1B, and the person Z is in the monitoring target area of the monitoring camera terminal 1A and outside the overlapping area with the monitoring camera terminal 1B. positioned.
  • adjacent monitoring camera terminals 1 can perform data communication directly (without passing through other monitoring camera terminals 1).
  • the monitoring camera terminal 1 is not necessarily one adjacent other monitoring camera terminal 1. In other words, there are also monitoring camera terminals 1 in which there are two or three adjacent monitoring camera terminals 1. However, the overlapping area is different for each other adjacent surveillance camera terminal 1.
  • Each monitoring camera terminal 1 has, for each adjacent monitoring camera terminal 1, a two-dimensional coordinate system of a frame image captured by the imaging unit 12 of its own terminal, and a frame captured by the imaging unit 12 of the adjacent counterpart monitoring camera terminal 1.
  • Coordinate conversion information indicating a relative positional relationship with the two-dimensional coordinate system of the image is stored in the storage unit 14. This coordinate conversion information is common to the two-dimensional coordinate system of the frame image captured by the imaging unit 12 of the own terminal and the two-dimensional coordinate system of the frame image captured by the imaging unit 12 of the adjacent counterpart monitoring camera terminal 1. This is information for projective transformation to the coordinate system.
  • the two-dimensional coordinate system of the frame image captured by the imaging unit 12 of the own terminal is changed to the two-dimensional coordinate system of the frame image captured by the imaging unit 12 of the adjacent counterpart monitoring camera terminal 1.
  • the first coordinate conversion parameter for projective conversion and conversely, the two-dimensional coordinate system of the frame image captured by the image capturing unit 12 of the adjacent counterpart monitoring camera terminal 1 is the frame image captured by the image capturing unit 12 of the own terminal.
  • a second coordinate conversion parameter for projective conversion into a two-dimensional coordinate system is stored in the storage unit 14.
  • the coordinate conversion information may be only one of the first coordinate conversion parameter and the second coordinate conversion parameter.
  • the first coordinate conversion parameter and the second coordinate conversion parameter are values calculated using a frame image actually captured when the surveillance camera terminal 1 is installed.
  • FIG. 4 is a flowchart showing the tracking process in each surveillance camera terminal.
  • the surveillance camera terminal 1 captures the frame image of the monitoring target area imaged by the imaging unit 12 into the image processing unit 13 (S1).
  • the image processing unit 13 processes the frame image captured in S1 and extracts the person being imaged (S2).
  • the image processing unit 13 associates the person extracted from the previously processed frame image with the person extracted in S2 (S3).
  • the image processing unit 13 uses a spatio-temporal MRF model to extract a person as a person area with a block of 8 pixels ⁇ 8 pixels as a unit. In S3, by associating the person extracted in the previously processed frame image with the person extracted in S2, the movement direction and movement amount of the person extracted this time can be obtained, and these persons can be tracked.
  • a temporary ID is assigned to a person extracted in the current process and not extracted in the previous process (that is, a person extracted for the first time this time) (S4, S5).
  • the image processing unit 13 creates an object map for the currently processed frame image (S6). As shown in FIG. 5, this object map associates, for each person extracted this time, the ID assigned to the person (or the temporary ID assigned this time) and the coordinate position on the frame image processed this time. Information. Moreover, the monitoring camera terminal 1 gives a time stamp to the object map. This time stamp may be the time when the frame image is taken into the image processing unit 13 in S1, or may be the time (current time) that the timer 15 measures when giving.
  • a position where the person extracted this time is in contact with the floor (hereinafter referred to as a foot position) is detected as the coordinate position of the person.
  • the center of the lower side of the person area of the person that is in contact with the plane passing through the four marked points (that is, the floor surface) is detected as the coordinate position of the person.
  • the person area is referred to as a circumscribed rectangle of the person.
  • the surveillance camera terminal 1 stores the object map created in S6 in the storage unit 14 and also creates the object map created this time (hereinafter referred to as its own terminal object map) for other neighboring surveillance camera terminals 1. Transmit (S7, S8).
  • Each surveillance camera terminal 1 stores the counterpart object map in the storage unit 14 when an object map (hereinafter referred to as a counterpart object map) is transmitted from another adjacent surveillance camera terminal 1. .
  • the monitoring camera terminal 1 distinguishes and stores a counterpart object map for each adjacent counterpart monitoring camera terminal 1.
  • the surveillance camera terminal 1 keeps track of a person located within the surveillance area of the terminal itself by repeatedly performing the above-described processes of S1 to S7.
  • an ID confirmation process for confirming the ID of the person assigned the temporary ID in S4 will be described.
  • an ID for identifying the person or a temporary ID is assigned to the person registered in the object map.
  • a person who has been assigned a temporary ID includes a person who has already been assigned an ID by another surveillance camera terminal 1 (that is, a person who has already started tracking) and a person who has not been assigned an ID at the present time. (That is, a person who has entered the area monitored by this monitoring system).
  • the temporary ID given this time is invalidated and has already been given.
  • the temporary ID assigned this time is determined as the ID of this person.
  • the ID or temporary ID assigned to a person is a unique value that can identify the person.
  • This ID or temporary ID may be a number, a code, or a combination thereof.
  • the ID includes a number or code that can be identified by the assigned surveillance camera terminal 1 so that different IDs can be assigned to each person without notifying the issued ID between the surveillance camera terminals 1.
  • FIG. 6 is a flowchart showing this ID confirmation processing.
  • This ID confirmation process is performed when an object map in which a person with a temporary ID is registered is created.
  • S11 it is determined whether or not there is a person who is located in the overlapping area with another adjacent monitoring camera terminal 1 among the persons who have been assigned a temporary ID this time (S11). If the person to whom the temporary ID is assigned this time is located within the overlapping area, the person is a person being tracked by the adjacent counterpart monitoring camera terminal 1 that includes this overlapping area in the monitoring area. That is, it is a person who has already been given an ID.
  • the person assigned with the temporary ID this time is not located in the overlapping area, the person is a person who has not been tracked by another monitoring camera terminal 1. That is, it is a person who is not assigned an ID at the present time. If there is no person located in the overlapping area in S11, the surveillance camera terminal 1 determines the assigned temporary ID as the ID for each person who is assigned the temporary ID this time (S12).
  • the provisional ID assigned to the person who is located outside the overlapping area among the persons assigned with the temporary ID this time is determined as the ID (S13).
  • the monitoring camera terminal 1 reads the other party object map corresponding to the self terminal side object map which registered temporary ID this time from the memory
  • the partner object map to which the time stamp of the time at which the absolute value of the time difference from the time stamp given to the own terminal side object map is the smallest is given from the storage unit 14.
  • the surveillance camera terminal 1 makes a pair of a person located in the overlapping area registered in the local terminal object map and a person located in the overlapping area registered in the counterpart object map. 1 is created (S15).
  • the number of combination patterns created in S15 is, for example, two if there are two persons located in the overlap area, and 6 if there are three persons located in the overlap area. Street.
  • the surveillance camera terminal 1 uses the first coordinate conversion parameter for each person located in the overlapping area among the persons registered in the self-terminal-side object map created this time, and coordinates of the person The position is converted into the coordinate system of the counterpart terminal (S16).
  • the surveillance camera terminal 1 calculates the first distance energy for each combination pattern created in S15 (S17). This first distance energy is the sum of the distances between the persons associated in the corresponding combination pattern in the coordinate system of the counterpart terminal.
  • the surveillance camera terminal 1 uses the second coordinate conversion parameter for each person located in the overlap area among the persons registered in the counterpart object map read in S14, and coordinates of the person. The position is converted into the coordinate system of its own terminal (S18). The surveillance camera terminal 1 calculates the second distance energy for each combination pattern created in S15 (S19). This second distance energy is the sum of the distances between the persons associated in the corresponding combination pattern in the coordinate system of the terminal itself.
  • the surveillance camera terminal 1 calculates the total distance energy for each combination pattern created in S14 (S20). This total distance energy is the sum of the first distance energy and the second distance energy of the combination pattern for each combination pattern.
  • the surveillance camera terminal 1 determines that the combination pattern having the minimum total distance energy obtained in S20 is an appropriate association of persons located in the overlapping area. And the person located in an overlap area is identified by matching of the person by the combination pattern with the minimum total distance energy (S21). Then, the surveillance camera terminal 1 invalidates the assigned temporary ID for the person assigned with the temporary ID, and determines the ID assigned to the identified person (S22). In S22, the temporary ID in the object map is replaced with the ID assigned to the identified person.
  • the sum of the first distance energy and the second distance energy is used as the total distance energy in order to ensure the identification accuracy of the person located in the overlapping area.
  • one of the second distance energies may be the total distance energy. In this way, one process (S16, S17) or (S18, S19) becomes unnecessary, and the processing load on the monitoring camera terminal 1 can be reduced.
  • the foot of the person may not be captured. That is, in some cases, the position of the person's foot cannot be detected in the frame image. In such a case, when the object map is created in S5, the foot position of the person being imaged may be determined by the following process. This process may be performed only for a person located in the overlapping area, or may be performed for all persons located in the monitoring area.
  • the image processing unit 13 has a function of learning the reference height of the person with respect to the depth of the frame image captured by the imaging unit 12 and storing this in the storage unit 14.
  • FIG. 7 is a flowchart showing processing for determining the foot position.
  • the image processing unit 13 determines whether or not a person area corresponding to another person is in contact with the lower side of the circumscribed rectangle that is the person area from which the target person whose foot position is to be determined is extracted (S31). If the person area corresponding to another person is not touching in S31, the image processing unit 13 determines that the foot of the person is captured, and determines the center of the lower side of the circumscribed rectangle of the person as the foot position ( S32).
  • the image processing unit 13 detects the height of the circumscribed rectangle that is the person area (S33). The image processing unit 13 compares the reference height stored for this person's imaging position with the height detected in S33 (S34).
  • the image processing unit 13 determines that the height is higher than the reference height in S34, the image processing unit 13 proceeds to S32 and determines the center of the lower side of the circumscribed rectangle of the person as the foot position. On the other hand, if it is determined in S34 that it is lower than the reference height, the position below the reference height is determined as the foot position of the person from the center coordinates of the upper side of the circumscribed rectangle of the person area corresponding to this person (S35).
  • each surveillance camera terminal 1 performs the tracking process shown in FIG.
  • FIG. 8 is a flowchart showing the ID confirmation process in this case.
  • This ID confirmation process is performed when an object map in which a person with a temporary ID is registered is created. First, it is determined whether a person who is assigned a temporary ID this time is located in an overlapping area with another adjacent monitoring camera terminal 1 (S41). If the surveillance camera terminal 1 determines that there is no person located in the overlapping area in S41, the surveillance camera terminal 1 determines the assigned temporary ID as the ID for each person assigned the temporary ID this time (S42). S41 and S42 are the same processes as S11 and S12 described above, respectively.
  • the assigned temporary ID is determined as the ID only for the person who has been assigned the temporary ID this time and is not located in the overlapping area (S43). .
  • S43 is the same processing as S13 described above.
  • the surveillance camera terminal 1 searches for a corresponding counterpart object map for each predetermined number (for example, eight) of object maps created after the self-terminal-side object map that registered the temporary ID assigned person this time. (S44). In S44, the following processing is performed for each self-terminal-side object map.
  • a combination pattern for creating a one-to-one correspondence with the person located in the overlap area with the local terminal object map is created, and the created combination
  • the total distance energy is calculated for each pattern. Since the calculation method of the total distance energy has been described above, the description thereof is omitted here. Then, the minimum total distance energy is set as the total distance energy with the partner object map targeted this time.
  • the partner object map having the smallest total distance energy is determined as the partner object map corresponding to the own terminal side object map to be processed this time.
  • FIG. 9 shows an example of a search result of the counterpart object map of the adjacent surveillance camera terminal 1B corresponding to the self-terminal side object map to which the surveillance camera terminal 1A has given time stamps of times T1 to T8.
  • two counterpart object maps with time stamps t1 and t2 are extracted from the self-terminal side object map with a time stamp of time T1
  • the total distance energy and the total distance energy with the counterpart object map whose time stamp is t2 are calculated.
  • the total distance energy of the partner object map whose time stamp is t1 is compared with the total distance energy of the partner object map whose time stamp is t2, and the partner object whose time stamp is smaller (minimum) is t1.
  • the map is associated with the own-terminal-side object map whose time stamp is time T1.
  • a plurality of own terminal side object maps may be associated with the same counterpart object map (t3 and t7).
  • the surveillance camera terminal 1 has a total distance of its own terminal object map (T3, T4, T6, T7 shown in FIG. 8) in which the other party terminal object map is also associated with the associated partner object map.
  • the energy is updated to a value obtained by adding a predetermined penalty value (S45).
  • This penalty value can be arbitrarily set depending on the installation environment or the like.
  • a combination in which the total distance energy in the combination exceeds a predetermined reference distance energy is extracted and removed (S46).
  • This reference distance energy is detected when the correspondence between the own terminal object map and the partner object map is not properly performed, or when the combination of persons located in the overlapping area is not properly associated.
  • the size is set as possible. If the appropriate counterpart object map corresponding to the local terminal object map is missing due to, for example, a communication failure with the counterpart surveillance camera terminal 1 or the like, the surveillance camera terminal 1 is properly associated with the counterpart object map. I can not do it.
  • the surveillance camera terminal 1 identifies a person located in the overlapping area by the remaining combination of the self-terminal object map and the counterpart object map (S47).
  • S47 for example, the combination having the minimum total distance energy is extracted from the combination of the own terminal object map and the partner object map having the minimum total distance energy.
  • the person located in this duplication area is identified by the combination of the person located in the duplication area in the combination of the object map extracted here.
  • the person located in this duplication area is identified by the combination of the person located in the most duplication area among the remaining combinations of a self-terminal object map and the other party object map.
  • the surveillance camera terminal 1 invalidates the assigned temporary ID for the person assigned with the temporary ID and determines the ID assigned to the identified person (S22). In S22, the temporary ID in the object map is replaced with the ID assigned to the identified person.
  • FIG. 10 is a flowchart showing this time synchronization processing.
  • the time difference of the time stamp is calculated for each combination of the own terminal object map used for identifying the person located in the overlapping area in S47 and the counterpart object map (S51), and the average time difference is obtained (S52). Then, the surveillance camera terminal 1 corrects the time counted by the timer 15 by the average time difference calculated in S52 (S53). Thereby, it is possible to synchronize the time counted by the timer 15 with the adjacent monitoring camera terminal 1.
  • time difference of the time stamp is removed from the average time difference calculated in S52 for a certain time or more, and the average time difference is calculated again with the remaining time to correct the time counted by the timer 15. Also good. This process may be repeated until there is no time difference between the time stamps for a certain time or more with respect to the average time difference, or may be repeated only a predetermined number of times.
  • the object to be tracked is described as a person.
  • this object is not limited to a person, and may be another type of moving body such as a vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

他の監視カメラ端末との間で、追跡している不審者等の人物の同定精度を十分に確保し、且つ、コストアップも十分に抑えられる監視カメラ端末を提供する。 隣接する2つの監視カメラ端末(1)は、撮像エリアの一部が重複している。監視カメラ端末(1)は、自端末で撮像したフレーム画像における人物の位置、および隣接する他の監視カメラ端末(1)で撮像したフレーム画像における人物の位置を、それぞれ共通の座標系の位置に変換する。そして、人物間の足元位置の距離により、重複エリアに位置する人物X、Yを1対1で対応付ける同定を行う。

Description

監視カメラ端末
 この発明は、監視対象エリアを撮像したフレーム画像を処理し、特異な行動をとった不審者等を追跡する監視カメラ端末に関する。
 従来、駅、ショッピングセンタ、繁華街等の不特定多数の人が集まる場所では、複数の監視カメラ端末を用いて、特異な行動をとった不審者等(以下、単に不審者と言う。)の検出や、検出した不審者の追跡を行っている。複数の監視カメラ端末で不審者を追跡する場合、この不審者の移動に応じて、追跡する監視カメラ端末を切り替える必要がある。また、不審者を追跡する監視カメラ端末を切り替えるときには、追跡を引き継ぐ監視カメラ端末が、その不審者を同定する必要がある。この不審者の同定に失敗すると、これまで追跡していた不審者ではない別の人を追跡することになる。すなわち、検出した不審者を見失い、追跡に失敗する。
 この不審者の同定精度を向上させるために、不審者を追跡している一方の監視カメラ端末が、不審者の検出に使用したテンプレート情報を、この不審者の追跡を引き継ぎ他方の監視カメラ端末に通知し、この他方の監視カメラ端末が通知されたテンプレート情報を用いて不審者を同定することが提案されている(特許文献1参照)。
 また、テンプレート情報だけではなく、不審者の検出に利用した特徴情報を他方の監視カメラ端末に通知することも提案されている(特許文献2参照)。この特徴情報は、例えば、画像から切り出した不審者の画像データ、形状、色、大きさなどにより不審者を特定する情報、あるいは目、鼻、口等の顔部品の形状や、位置等である。
特許第3814779号公報 特許第3999561号公報
 しかしながら、不審者を追跡している一方の監視カメラ端末と、この不審者の追跡を引き継ぐ他方の監視カメラ端末とでは、被写体である不審者に対するアングルが異なる。したがって、一方の監視カメラ端末で撮像したフレーム画像における不審者と、他方の監視カメラ端末で撮像したフレーム画像における不審者とでは、不審者の外形や、顔部品の形状や位置等に違いが生じる。このため、不審者の検出に使用したテンプレート情報や特徴情報を、一方の監視カメラ端末から他方の監視カメラ端末に通知しても、他方の監視カメラ端末でアングルの違いを考慮したマッチングが行えなければ、不審者の同定精度を確保することができない。
 被写体である不審者の3次元情報を用いれば、上述のアングルの違いを考慮したマッチングが行える。しかし、不審者の3次元情報を得るには、ステレオカメラを用いなければならない。このため、個々の監視カメラ端末のコストがアップし、これにともない監視システム全体のコストもアップする。
 この発明の目的は、他の監視カメラ端末との間で、追跡しているオブジェクトの同定精度を十分に確保し、且つ、コストアップも十分に抑えられる監視カメラ端末を提供することにある。
 この発明の監視カメラ端末は、上記目的を達するために、以下のように構成している。
 オブジェクト抽出手段が、撮像手段が撮像した自端末に割り当てられている監視対象エリアのフレーム画像を処理し、撮像されているオブジェクトを抽出する。ここで言うオブジェクトとは、人や車両等の物体である。ID付与手段は、オブジェクト抽出手段が抽出したオブジェクトにIDを付与する。このIDは、オブジェクトを識別できるユニークな値であればよい。また、オブジェクトマップ作成手段が、オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトに付与されているIDと、フレーム画像上における座標位置と、を対応付けたオブジェクトマップを作成する。そして、追跡手段が、オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置するオブジェクトを追跡する。
 また、オブジェクトマップ取得手段が、割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する。また、座標変換情報記憶手段が、自端末のフレーム画像の座標位置と、前記相手側端末のフレーム画像の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する。同定手段は、座標変換情報記憶手段が記憶している座標変換情報を用いて、自端末が抽出したオブジェクトの位置、および相手側端末が抽出したオブジェクトの位置を共通の座標系の位置に変換する。同定手段は、重複エリアに位置するオブジェクトを、この共通の座標系における、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離によって同定する。
 この共通の座標系は、どのような座標系であってもよいが、どちらか一方の監視カメラ端末(自端末、または相手側端末)の座標系とするのが好ましい。このようにすれば、一方のオブジェクトマップに登録されているオブジェクトについてのみ、座標変換を行えばよいので、この座標変換にかかる処理負荷が抑えられる。
 通常、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトと、が同一のオブジェクトであっても、共通の座標系での位置は、アングルの違いや、検出精度等の要因により若干の誤差はあるものの略一致する。したがって、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとは、その位置間の距離によって、精度よく同定できる。
 同定手段は、例えば、重複エリアに位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトと、を1対1で対応付けた組み合せの中で、対応付けたオブジェクト間の距離(共通の座標系での位置間の距離)の総和が最小である組み合せにより、重複エリアに位置するオブジェクトを同定する。
 また、共通の座標系を2種類とし、各種類での総和が最小である組み合せにより、重複エリアに位置するオブジェクトを同定してもよい。この場合、2種類の共通の座標系は、自端末のフレーム画像の座標系と、相手側端末のフレーム画像の座標系と、の2つにするのが好ましい。
 また、オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトの位置については、当該オブジェクトの接地面上の座標にすればよい。
 また、オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、を重複エリアに位置するオブジェクト間の距離によって、時間的に合わせるマッチング手段を設けてもよい。これにより、同定精度の一層の向上が図れる。
 また、同定手段を、マッチング手段が自端末のオブジェクトマップと、相手側端末のオブジェクトマップとを時間的に合わせた、複数組のオブジェクトマップを用いて、重複エリアに位置するオブジェクトを同定する構成としてもよい。このようにすれば、オブジェクトの同定精度のさらなる向上が図れる。
 また、同定手段は、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離の算出において、マッチング手段が自端末のオブジェクトマップに時間的に合わせた相手側オブジェクトマップに、自端末の他のオブジェクトマップも合わせられている組については、重複エリアに位置するオブジェクト間の距離を算出する際に、予め定めたペナルティ距離を加算する構成としてもよい。
 さらに、オブジェクトマップ作成手段が、作成したオブジェクトマップに、作成時刻にかかるタイムスタンプを付加する。タイムスタンプは、例えば、今回のオブジェクトマップの作成に用いたフレーム画像の撮像時刻や、オブジェクトマップ作成完了時の時刻等である。そして、マッチング手段が時間的に合わせた、自端末のオブジェクトマップと、相手側端末のオブジェクトマップとに付加されているタイムスタンプを用いて、自端末が計時している時刻を修正する構成としてもよい。このように構成すれば、自端末と相手側端末との間で、計時している時刻を同期させることができる。
 この発明によれば、検出した不審者等の同定精度を十分に確保でき、且つ、コストアップも十分に抑えられる。
監視システムの構成を示す概略図である。 監視カメラ端末の主要部の構成を示すブロック図である。 隣接する2つの監視カメラ端末の撮像エリアを示す図である。 監視カメラ端末の追跡処理を示すフローチャートである。 オブジェクトマップを説明する図である。 ID確定処理を示すフローチャートである。 足元位置を決定する処理を示すフローチャートである。 別のID確定処理を示すフローチャートである。 オブジェクトマップの対応付を示す図である。 時刻同期処理を示すフローチャートである。
 以下、この発明の実施形態である監視カメラ端末を用いた監視システムについて説明する。
 図1は、この監視システムの構成を示す概略図である。この監視システムは、複数の監視カメラ端末1(1A~1H)を有するネットワークシステムである。この監視システムは、例えば、アドホック型のネットワークシステムである。監視カメラ端末1間では、直接、または他の監視カメラ端末1を介してデータ通信が行える。この監視カメラ端末1間のデータ通信は、無線であってもよいし、有線であってもよい。
 なお、図1は、8台の監視カメラ端末1A~1Hを有する監視システムの例であるが、本システムを構成する監視カメラ端末1の台数は、この台数に制限されない。また、図1に示している監視カメラ端末1間を結ぶ線はリンクである。また、以下の説明では、特に監視カメラ端末1A~1Hを区別しない場合、監視カメラ端末1と示す。
 図2は、監視カメラ端末の主要部の構成を示す図である。監視カメラ端末1は、制御部11と、撮像部12と、画像処理部13と、記憶部14と、タイマ15と、通信部16と、を備えている。制御部11は、監視カメラ端末1本体各部の動作を制御する。撮像部12は、自端末に割り当てられている監視対象エリアを撮像する。言い換えれば、撮像部12の撮像エリアが自端末に割り当てられている監視対象エリアである。撮像部12は、1秒間に5フレーム~10フレーム程度の撮像画像(フレーム画像)を出力する。
 画像処理部13は、撮像部12が撮像した監視対象エリアのフレーム画像を処理し、撮像されている人物(オブジェクト)を抽出する。また、時間的に連続する複数のフレーム画像により、監視対象エリア内を移動している人物を追跡する。画像処理部13は、時空間MRF(Markov Random Field)モデルを利用して、抽出した人物の抽出や追跡を行う。時空間MRFモデルは、公知のように、時空間画像の時間軸方向の相関関係に着目し、MRFモデルを時空間モデルとして拡張したものである。この時空間MRFモデルは、処理対象であるフレーム画像に対して数ピクセル×数ピクセル(例えば、8ピクセル×8ピクセル)のブロックで領域分割を行い、時間的に連続するフレーム画像間でのブロック毎の動きベクトルを参照した時間軸方向の相関を定義するモデルである。
 記憶部14は、本体を動作させる動作プログラムや、動作時に利用する設定データ、動作時に発生した処理データ等を記憶する。タイマ15は、現在時刻を計時する。通信部16は、他の監視カメラ端末1との間におけるデータ通信を制御する。
 この監視システムは、特異な行動をとった不審者等の人物を追跡するシステムであり、この人物の移動に応じて、追跡する監視カメラ端末1を切り替える。これにより、不審者の追跡が広域的に行える。図3は、隣接する2つの監視カメラ端末1A、1Bの撮像エリア(監視対象エリア)を示す図である。隣接する2つの監視カメラ端末1A、1Bは、撮像エリア(監視対象エリア)の一部が重複している。この重複している撮像エリアを、ここでは重複エリアと言う。図3では、隣接する2つの監視カメラ端末1A、1Bの監視対象エリアを例示しているが、隣接する他の2つの監視カメラ端末1の組み合せにおいても、監視対象エリアの一部が重複している。監視カメラ端末1は、隣接する他の監視カメラ端末1との間で、重複エリアに位置する人物X、Yを、1対1で対応付ける同定処理を行う。図3では、人物X、Yは、監視カメラ端末1A、1Bの重複エリア内に位置し、人物Zは、監視カメラ端末1Aの監視対象エリア内で、且つ監視カメラ端末1Bとの重複エリア外に位置している。
 なお、ここでは、監視対象エリアの一部が重複している2つの監視カメラ端末1を、隣接している監視カメラ端末1と呼んでいる。また、隣接している監視カメラ端末1は、直接(他の監視カメラ端末1を介さず)データ通信が行える。
 また、監視カメラ端末1は、隣接する他の監視カメラ端末1が1台であるとは限らない。言い換えれば、隣接する監視カメラ端末1が2台や3台である監視カメラ端末1もある。ただし、重複エリアは、隣接する他の監視カメラ端末1毎に異なる。
 各監視カメラ端末1は、隣接する監視カメラ端末1毎に、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、の相対的な位置関係を示す座標変換情報を記憶部14に記憶している。この座標変換情報は、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、を共通の座標系に射影変換する情報である。ここでは、この座標変換情報として、自端末の撮像部12が撮像したフレーム画像の2次元座標系を、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第1の座標変換パラメータと、反対に、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系を、自端末の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第2の座標変換パラメータと、を記憶部14に記憶している。
 なお、座標変換情報は、第1の座標変換パラメータ、または第2の座標変換パラメータのどちらか一方のみであってもよい。
 ここで、第1の座標変換パラメータ、および第2の座標変換パラメータについて説明しておく。この第1の座標変換パラメータ、および第2の座標変換パラメータは、監視カメラ端末1の設置時に、実際に撮像したフレーム画像を用いて算出した値である。
 まず、監視カメラ端末1の設置完了時に、テープ等を用いて、隣接する相手側監視カメラ端末1との重複エリア内の床面に4点をマーキングする。そして、自端末の撮像部12で撮像したフレーム画像を処理し、このフレーム画像上におけるマーキングした4点の座標位置(x,y)を検出する。同様に、隣接する相手側監視カメラ端末1が撮像部12で撮像したフレーム画像上におけるマーキングした4点の座標位置(X,Y)を、この相手側端末から取得する。そして、マーキングした点毎に、その座標位置を、
 X=(a1x+b1y+c1)/(a0x+b0y+1)
 Y=(a2x+b2y+c2)/(a0x+b0y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、a0,b0,a1,b1,c1,a2,b2,c2の8個の計数が、この隣接する相手側監視カメラ端末1との第1の座標変換パラメータである。監視カメラ端末1は、この第1の座標変換パラメータを記憶部14に記憶する。
 同様に、マーキングした点毎に、その座標位置を、
 x=(A1X+B1Y+C1)/(A0X+B0Y+1)
 y=(A2X+B2Y+C2)/(A0X+B0Y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、A0,B0,A1,B1,C1,A2,B2,C2の8個の計数が、この隣接する相手側監視カメラ端末1との第2の座標変換パラメータである。監視カメラ端末1は、この第2の座標変換パラメータを記憶部14に記憶する。
 次に、この監視システムにおける、不審者の追跡について詳細に説明する。図4は、各監視カメラ端末における追跡処理を示すフローチャートである。
 監視カメラ端末1は、撮像部12が撮像した監視対象エリアのフレーム画像を画像処理部13に取り込む(S1)。画像処理部13は、S1で取り込んだフレーム画像を処理し、撮像されている人物を抽出する(S2)。画像処理部13は、前回処理したフレーム画像で抽出した人物と、S2で抽出した人物と、を対応付ける(S3)。画像処理部13は、時空間MRFモデルを用い、人物を、8ピクセル×8ピクセルのブロックを単位とする人物領域として抽出する。S3では、前回処理したフレーム画像で抽出した人物と、S2で抽出した人物と、を対応付けることにより、今回抽出した人物の移動方向や移動量を得ることができ、これらの人物の追跡が行える。
 また、今回の処理で抽出した人物であって、前回の処理で抽出されていなかった人物(すなわち、今回初めて抽出した人物)に対して、仮IDを付与する(S4、S5)。
 画像処理部13は、今回処理したフレーム画像に対する、オブジェクトマップを作成する(S6)。このオブジェクトマップは、図5に示すように、今回抽出した人物毎に、その人物に付与されているID(または今回付与した仮ID)と、今回処理したフレーム画像上における座標位置とを対応付けた情報である。また、監視カメラ端末1は、タイムスタンプをオブジェクトマップに付与する。このタイムスタンプは、S1でフレーム画像を画像処理部13に取り込んだ時刻であってもよいし、付与するときにタイマ15が計時している時刻(現在時刻)であってもよい。
また、S6でオブジェクトマップを作成するときには、今回抽出した人物が床面上に接している位置(以下、足元位置と言う。)を、その人物の座標位置として検出する。具体的には、上述した第1の座標変換パラメータ、および第2の座標変換パラメータを得るときに、マーキングした4点を通る平面(すなわち、床面)と接している人物の人物領域の下辺中心の座標を、この人物の座標位置として検出する。以下、人物領域を、人物の外接長方形と言う。
 監視カメラ端末1は、S6で作成したオブジェクトマップを記憶部14に記憶するとともに、隣接する他の監視カメラ端末1に対して、今回作成したオブジェクトマップ(以下、自端末オブジェクトマップと言う。)を送信する(S7、S8)。
 なお、各監視カメラ端末1は、隣接する他の監視カメラ端末1からオブジェクトマップ(以下、相手側オブジェクトマップと言う。)が送信されてくると、この相手側オブジェクトマップを記憶部14に記憶する。監視カメラ端末1は、隣接する相手側監視カメラ端末1毎に、相手側オブジェクトマップを区別して記憶する。
 監視カメラ端末1は、上述したS1~S7の処理を繰り返し行うことにより、自端末の監視エリア内に位置する人物の追跡を行う。
 次に、S4で仮IDを付与した人物のIDを確定するID確定処理について説明する。上述したように、オブジェクトマップに登録されている人物には、その人物を特定できるID,または仮IDが付与されている。仮IDが付与されている人物には、他の監視カメラ端末1ですでにIDを付与されていた人物(すなわち、すでに追跡が開始されていた人物)と、現時点ではIDが付与されていない人物(すなわち、この監視システムで監視しているエリアに入ってきた人物)と、が含まれている。このID確定処理は、不審者を広域にわたって追跡するために、仮IDを付与した人物が、すでにIDが付与されている人物であれば、今回付与した仮IDを無効にし、すでに付与されているIDに戻す。また、仮IDを付与した人物が、現時点でIDが付与されていない人物であれば、今回付与した仮IDをこの人物のIDに確定する。
 なお、人物に付与されているIDや、仮IDは、その人物を特定できるユニークな値である。このIDや、仮IDは、数字であってもよいし、符号であってもよいし、これらの組み合せであってもよい。また、監視カメラ端末1間で発行済IDを通知し合うことなく、各人物に異なるIDが付与できるように、付与した監視カメラ端末1が識別できる数字や符号をIDに含ませるのが好ましい。
 図6は、このID確定処理を示すフローチャートである。このID確定処理は、仮IDを付与した人物を登録したオブジェクトマップを作成したときに行う。まず、今回仮IDを付与した人物の中に、隣接する他の監視カメラ端末1との重複エリア内に位置する人物がいるかどうかを判定する(S11)。今回仮IDを付与した人物が、重複エリア内に位置している場合、その人物は、この重複エリアを監視エリアに含む隣接する相手側監視カメラ端末1で追跡されている人物である。すなわち、すでにIDが付与されている人物である。一方、今回仮IDを付与した人物が、重複エリア内に位置していない場合、その人物は、他の監視カメラ端末1で追跡されていなかった人物である。すなわち、現時点でIDが付与されていない人物である。監視カメラ端末1は、S11で重複エリア内に位置している人物がいなければ、今回仮IDを付与した人物毎に、付与した仮IDをIDに確定する(S12)。
 一方、重複エリア内に位置している人物がいれば、今回仮IDを付与した人物の中で、重複エリア外に位置している人物について、付与した仮IDをIDに確定する(S13)。また、監視カメラ端末1は、今回、仮IDを登録した自端末側オブジェクトマップに時間的に対応する、相手側オブジェクトマップを記憶部14から読み出す(S14)。S14では、自端末側オブジェクトマップに付与されているタイムスタンプの時刻との時間差の絶対値が最小である時刻のタイムスタンプが付与されている相手側オブジェクトマップを記憶部14から読み出す。
 監視カメラ端末1は、自端末側オブジェクトマップに登録されている重複エリア内に位置している人物と、相手側オブジェクトマップに登録されている重複エリア内に位置している人物と、を1対1で対応付ける組み合せパターンを作成する(S15)。S15で作成される組み合せのパターン数は、例えば、重複エリア内に位置している人物が2人であれば2通りであり、また重複エリア内に位置している人物が3人であれば6通りである。
 また、監視カメラ端末1は、今回作成した自端末側オブジェクトマップに登録されている人物の中で、重複エリア内に位置する人物毎に、第1の座標変換パラメータを用いて、その人物の座標位置を相手側端末の座標系に変換する(S16)。監視カメラ端末1は、S15で作成した組み合せパターン毎に、第1の距離エネルギーを算出する(S17)。この第1の距離エネルギーは、相手側端末の座標系での、対応する組み合せパターンにおいて対応付けた人物間の距離の総和である。
 また、監視カメラ端末1は、S14で読み出した相手側オブジェクトマップに登録されている人物の中で、重複エリア内に位置する人物毎に、第2の座標変換パラメータを用いて、その人物の座標位置を自端末の座標系に変換する(S18)。監視カメラ端末1は、S15で作成した組み合せパターン毎に、第2の距離エネルギーを算出する(S19)。この第2の距離エネルギーは、自端末の座標系での、対応する組み合せパターンにおいて対応付けた人物間の距離の総和である。
 監視カメラ端末1は、S14で作成した組み合せパターン毎に、総合距離エネルギーを算出する(S20)。この総合距離エネルギーは、組み合せパターン毎に、その組み合せパターンの第1の距離エネルギーと、第2の距離エネルギーとの和である。
 監視カメラ端末1は、S20で得た総合距離エネルギーが最小である組み合せパターンを、重複エリア内に位置する人物の適正な対応付けであると判断する。そして、総合距離エネルギーが最小である組み合せパターンによる人物の対応付けにより、重複エリア内に位置する人物を同定する(S21)。そして、監視カメラ端末1は、仮IDを付与した人物については、付与されている仮IDを無効とし、同定した人物に付与されているIDに確定する(S22)。S22では、オブジェクトマップにおける、仮IDを同定した人物に付与されているIDに置き換える。
 したがって、隣接する監視カメラ端末1間で、重複エリア内に位置する人物を精度よく同定することができ、特異な行動をとった不審者の追跡が広域にわたって行える。また、ステレオカメラ等を用いて、人物の3次元情報を得る必要もなく、コストアップが十分に抑えられる。
 なお、図6では、重複エリア内に位置する人物の同定精度を確保するために、第1の距離エネルギーと、第2の距離エネルギーとの和を総合距離エネルギーとしたが、第1の距離エネルギー、または第2の距離エネルギーの一方を総合距離エネルギーとしてもよい。このようにすれば、(S16、S17)、または(S18、S19)の一方の処理が不要になり、監視カメラ端末1の処理負荷を低減することができる。
 また、監視対象エリア内に位置する人物の重なりによって、人物の足元が撮像されないことがある。すなわち、フレーム画像において、人物の足元位置が検出できない場合がある。このような場合には、S5でオブジェクトマップを作成するときに、以下に示す処理で、撮像されている人物の足元位置を決定してもよい。この処理は、重複エリア内に位置する人物についてのみ行う処理としてもよいし、監視エリア内に位置する人物全員について行う処理としてもよい。
 まず、画像処理部13は、撮像部12で撮像されたフレーム画像の奥行きに対する、人物の基準高さを学習し、これを記憶部14に記憶する機能を設けている。
 図7は、足元位置を決定する処理を示すフローチャートである。画像処理部13は、足元位置を決定する対象人物を抽出した人物領域である外接長方形下辺に、別の人物に対応する人物領域が接しているかどうかを判定する(S31)。画像処理部13は、S31で別の人物に対応する人物領域が接していなければ、この人物の足元が撮像されていると判定し、この人物の外接長方形下辺の中心を足元位置に決定する(S32)。
 一方、画像処理部13は、S31で別の人物に対応する人物領域が接していると、この人物領域である外接長方形の高さを検出する(S33)。画像処理部13は、この人物の撮像位置に対して記憶している基準高さと、S33で検出した高さと、を比較する(S34)。
 画像処理部13は、S34で基準高さよりも高いと判定すると、S32に進み、この人物の外接長方形下辺の中心を足元位置に決定する。一方、S34で基準高さよりも低いと判定すると、この人物に対応する人物領域の外接長方形上辺の中心座標から、基準高さだけ下方の位置を、その人物の足元位置に決定する(S35)。
 これにより、監視対象エリア内に位置する人物の重なりによって、足元が撮像されていない人物についても、その足元位置の推定が適正に行える。
 上記の説明では、自端末のタイマ15が計時している時刻と、相手側端末のタイマ15が計時している時刻と、が略同期していることを前提にしている。以下、この時刻のズレを考慮し、重複エリア内に位置する人物を同定する処理について説明する。
 この場合も、各監視カメラ端末1は、図4に示した追跡処理を行う。
 図8は、この場合のID確定処理を示すフローチャートである。このID確定処理は、仮IDを付与した人物を登録したオブジェクトマップを作成したときに行う。まず、今回仮IDを付与した人物の中に、隣接する他の監視カメラ端末1との重複エリア内に位置する人物がいるかを判定する(S41)。監視カメラ端末1は、S41で重複エリア内に位置する人物がいないと判定すると、今回仮IDを付与した人物毎に、付与した仮IDをIDに確定する(S42)。S41、およびS42は、それぞれ上述したS11、およびS12と同様の処理である。
 一方、重複エリア内に位置している人物がいれば、今回仮IDを付与した人物の中で、重複エリア内に位置していない人物についてのみ、付与した仮IDをIDに確定する(S43)。S43は、上述したS13と同様の処理である。
 次に、監視カメラ端末1は、今回、仮ID付与した人物を登録した自端末側オブジェクトマップ以降に作成した所定数(例えば、8個)のオブジェクトマップ毎に、対応する相手側オブジェクトマップを探索する(S44)。S44では、自端末側オブジェクトマップ毎に、以下の処理を行う。
 まず、処理対象とする自端末側オブジェクトマップのタイムスタンプに対して、所定時間差内(例えば、-200ms~+200ms)のタイムスタンプが付与されている相手側オブジェクトマップを全て抽出する。
 次に、ここで抽出した相手側オブジェクトマップ毎に、自端末側オブジェクトマップとの間で、重複エリア内に位置している人物と、を1対1で対応付ける組み合せパターンを作成し、作成した組み合せパターン毎に総合距離エネルギーを算出する。この総合距離エネルギーの算出方法については、上述したので、ここでは説明を省略する。そして、最小であった総合距離エネルギーを、今回対象とした相手側オブジェクトマップとの総合距離エネルギーとする。
 さらに、総合距離エネルギーが最小であった相手側オブジェクトマップを、今回処理対象とした自端末側オブジェクトマップに対応する相手側オブジェクトマップに決定する。
 監視カメラ端末1Aが、時刻T1~T8のタイムスタンプを付与した自端末側オブジェクトマップに対応する、隣接する監視カメラ端末1Bの相手側オブジェクトマップの探索結果の例を図9に示す。この例で、タイムスタンプが時刻T1である自端末側オブジェクトマップに対して、タイムスタンプがt1、およびt2の2つの相手側オブジェクトマップを抽出した場合、タイムスタンプがt1の相手側オブジェクトマップとの総合距離エネルギー、およびタイムスタンプがt2の相手側オブジェクトマップとの総合距離エネルギーを算出する。そして、タイムスタンプがt1の相手側オブジェクトマップの総合距離エネルギーと、タイムスタンプがt2の相手側オブジェクトマップの総合距離エネルギーとを比較し、より小さい(最小である)タイムスタンプがt1の相手側オブジェクトマップを、タイムスタンプが時刻T1である自端末側オブジェクトマップに対応づける。
 また、この処理では、図9に示すように、複数の自端末側オブジェクトマップ(T3とT4、やT6とT7)が、同じ相手側オブジェクトマップ(t3やt7)に対応づけられることがある。また、自端末側オブジェクトマップが対応付けられない相手側オブジェクトマップ(t4や、t6)が存在することもある。
 監視カメラ端末1は、対応付けられている相手側オブジェクトマップに、他の自端末オブジェクトマップも対応付けられている自端末オブジェクトマップ(図8に示す、T3,T4、T6、T7)の総合距離エネルギーを、予め定められたペナルティ値を加算した値に更新する(S45)。このペナルティ値は、設置環境等によって任意に設定できる。
 S44で対応付けた自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せの中から、その組み合せにおける総合距離エネルギーが、予め定めた基準距離エネルギーを超える組み合せを抽出し、取り除く(S46)。この基準距離エネルギーは、自端末オブジェクトマップと、相手側オブジェクトマップとの対応付が適正に行えていない場合や、重複エリア内に位置する人物の組み合せが適正に対応づけられていない場合等を検出できる大きさに設定されている。監視カメラ端末1は、例えば、相手側監視カメラ端末1との通信不良等によって、自端末オブジェクトマップに対応する適正な相手側オブジェクトマップが欠けていると、相手側オブジェクトマップとの対応付が適正に行えない。
 監視カメラ端末1は、自端末オブジェクトマップと、相手側オブジェクトマップとの残りの組み合せにより、重複エリア内に位置する人物を同定する(S47)。S47では、例えば、総合距離エネルギーが最小である、自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せの中で、総合距離エネルギーが最小である組合せを抽出する。そして、ここで抽出したオブジェクトマップの組合せにおける、重複エリア内に位置する人物の組み合せにより、この重複エリア内に位置する人物を同定する。また、自端末オブジェクトマップと、相手側オブジェクトマップとの残りの組み合せの中で、最も多い重複エリア内に位置する人物の組み合せにより、この重複エリア内に位置する人物を同定する。
 そして、監視カメラ端末1は、仮IDを付与した人物については、付与されている仮IDを無効とし、同定した人物に付与されているIDに確定する(S22)。S22では、オブジェクトマップにおける、仮IDを同定した人物に付与されているIDに置き換える。
 これにより、自端末のタイマ15が計時している時刻と、相手側端末のタイマ15が計時している時刻とに、ズレがあっても、重複エリア内に位置する人物を精度よく同定することができる。
 また、S47で重複エリア内に位置する人物の同定に用いた自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せを用いて、自端末のタイマ15が計時している時刻を、相手側監視カメラ端末1のタイマ15が計時している時刻に同期させる時刻同期処理を行ってもよい。図10は、この時刻同期処理を示すフローチャートである。
 S47で重複エリア内に位置する人物の同定に用いた自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せ毎に、タイムスタンプの時間差を算出し(S51)、その平均時間差を得る(S52)。そして、監視カメラ端末1は、S52で算出した平均時間差だけ、タイマ15が計時している時刻を修正する(S53)。これにより、隣接する監視カメラ端末1との間で、タイマ15が計時している時刻を同期させることができる。
 また、タイムスタンプの時間差が、S52で算出した平均時間差に対して一定時間以上離れているものを取り除き、その残りで再度平均時間差を算出し、タイマ15が計時している時刻を修正する構成としてもよい。この処理は、タイムスタンプの時間差が、平均時間差に対して一定時間以上離れているものがなくなるまで繰り返してもよいし、予め定めた回数繰り返すだけであってもよい。
 なお、上記の説明では、追跡するオブジェクトを人として説明したが、このオブジェクトは人に限らず、車両等の他の種類の移動体であってもよい。
 1(1A~1H)-監視カメラ端末
 11-制御部
 12-撮像部
 13-画像処理部
 14-記憶部
 15-タイマ
 16-通信部

Claims (7)

  1.  自端末に割り当てられている監視対象エリアを撮像する撮像手段と、
     前記撮像手段が撮像したフレーム画像を処理し、撮像されているオブジェクトを抽出するオブジェクト抽出手段と、
     前記オブジェクト抽出手段が抽出したオブジェクトにIDを付与するID付与手段と、
     前記オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトに付与されているIDと、フレーム画像上における座標位置と、を対応付けたオブジェクトマップを作成するオブジェクトマップ作成手段と、
     前記オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置するオブジェクトを追跡する追跡手段と、を備えた監視カメラ端末において、
     割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する相手側オブジェクトマップ取得手段と、
     自端末のフレーム画像の座標位置と、前記相手側端末のフレーム画像の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する座標変換情報記憶手段と、
     自端末の監視対象エリアと、相手側端末の監視対象エリアとが重複している重複エリア内において、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとを同定する同定手段と、を備え、
     前記同定手段は、前記座標変換情報記憶手段が記憶している前記座標変換情報を用いて、自端末が抽出したオブジェクトの位置、および相手側端末が抽出したオブジェクトの位置を共通の座標系の位置に変換し、この共通の座標系における、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離によって、前記重複エリアに位置するオブジェクトを同定する、監視カメラ端末。
  2.  前記同定手段は、前記重複エリアに位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトと、を1対1で対応付けた組み合せの中で、対応付けたオブジェクト間の距離の総和が最小である組み合せにより、前記重複エリアに位置するオブジェクトを同定する、請求項1に記載の監視カメラ端末。
  3.  前記オブジェクトマップ作成手段は、前記オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトの位置を、当該オブジェクトの接地面上の座標とする、請求項1、または2に記載の監視カメラ端末。
  4.  前記オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、前記相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、を前記重複エリアに位置するオブジェクト間の距離によって、時間的に合わせるマッチング手段を備えた請求項1~3のいずれかに記載の監視カメラ端末。
  5.  前記同定手段は、前記マッチング手段が自端末のオブジェクトマップと、前記相手側オブジェクトマップとを時間的に合わせた、複数組のオブジェクトマップを用いて、前記重複エリアに位置するオブジェクトを同定する、請求項4に記載の監視カメラ端末。
  6.  前記同定手段は、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離の算出で、前記マッチング手段が自端末のオブジェクトマップに時間的に合わせた前記相手側オブジェクトマップに、自端末の他のオブジェクトマップも合わせられている組については、前記重複エリアに位置するオブジェクト間の距離を算出する際に、予め定めたペナルティ距離を加算する、請求項5に記載の監視カメラ端末。
  7.  前記オブジェクトマップ作成手段は、作成したオブジェクトマップに、作成時刻にかかるタイムスタンプを付加し、
     前記マッチング手段が時間的に合わせた、自端末のオブジェクトマップと、相手側端末のオブジェクトマップとに付加されているタイムスタンプを用いて、自端末が計時している時刻を修正する時刻合せ手段を備えた請求項4~6のいずれかに記載の監視カメラ端末。
PCT/JP2010/056161 2009-07-22 2010-04-05 監視カメラ端末 WO2011010490A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10802111.4A EP2458553B1 (en) 2009-07-22 2010-04-05 Surveillance camera terminal
JP2011523577A JP5453429B2 (ja) 2009-07-22 2010-04-05 監視カメラ端末
CN201080018875.4A CN102414719B (zh) 2009-07-22 2010-04-05 监视摄像机终端
US13/266,093 US8503727B2 (en) 2009-07-22 2010-04-05 Monitoring camera terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-171329 2009-07-22
JP2009171329 2009-07-22

Publications (1)

Publication Number Publication Date
WO2011010490A1 true WO2011010490A1 (ja) 2011-01-27

Family

ID=43498968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/056161 WO2011010490A1 (ja) 2009-07-22 2010-04-05 監視カメラ端末

Country Status (5)

Country Link
US (1) US8503727B2 (ja)
EP (1) EP2458553B1 (ja)
JP (1) JP5453429B2 (ja)
CN (1) CN102414719B (ja)
WO (1) WO2011010490A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015033066A (ja) * 2013-08-06 2015-02-16 株式会社ニコン カメラシステム
JPWO2014155958A1 (ja) * 2013-03-29 2017-02-16 日本電気株式会社 対象物監視システム、対象物監視方法および監視対象抽出プログラム
JP2017195617A (ja) * 2017-05-31 2017-10-26 株式会社ニコン カメラ
JP2018013854A (ja) * 2016-07-19 2018-01-25 日本電信電話株式会社 追跡装置および追跡方法
CN109345748A (zh) * 2018-10-31 2019-02-15 北京锐安科技有限公司 用户设备关联方法、装置、服务端、检测设备及介质
JP2020087180A (ja) * 2018-11-29 2020-06-04 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置
US11004211B2 (en) 2017-08-30 2021-05-11 Mitsubishi Electric Corporation Imaging object tracking system and imaging object tracking method

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227911B2 (ja) * 2009-07-22 2013-07-03 株式会社日立国際電気 監視映像検索装置及び監視システム
TW201206192A (en) * 2010-07-23 2012-02-01 Hon Hai Prec Ind Co Ltd Detection device and method
WO2013088517A1 (ja) * 2011-12-13 2013-06-20 株式会社日立製作所 停立人物の向き推定方法
US9430846B2 (en) * 2013-04-19 2016-08-30 Ge Aviation Systems Llc Method of tracking objects using hyperspectral imagery
KR101645959B1 (ko) * 2014-07-29 2016-08-05 주식회사 일리시스 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
US10810539B1 (en) * 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
WO2017100173A1 (en) 2015-12-07 2017-06-15 Cooper Technologies Company Occupancy detection
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控***
WO2018067058A1 (en) * 2016-10-06 2018-04-12 Modcam Ab Method for sharing information in system of imaging sensors
US11068721B2 (en) * 2017-03-30 2021-07-20 The Boeing Company Automated object tracking in a video feed using machine learning
CN107403535A (zh) * 2017-07-29 2017-11-28 安徽博威康信息技术有限公司 一种基于身份识别的监测报警***
CN107274618A (zh) * 2017-07-29 2017-10-20 安徽博威康信息技术有限公司 一种基于定位识别的监测报警***
CN109974667B (zh) * 2017-12-27 2021-07-23 宁波方太厨具有限公司 一种室内人体定位方法
CN109165606B (zh) 2018-08-29 2019-12-17 腾讯科技(深圳)有限公司 一种车辆信息的获取方法、装置以及存储介质
CN109753930B (zh) * 2019-01-03 2021-12-24 京东方科技集团股份有限公司 人脸检测方法及人脸检测***
CN109905679B (zh) * 2019-04-09 2021-02-26 梅州讯联科技发展有限公司 监控方法、装置以及***
TWI688924B (zh) * 2019-04-15 2020-03-21 勝品電通股份有限公司 追蹤辨識監控系統
CN110070566B (zh) * 2019-04-29 2021-07-30 武汉睿智视讯科技有限公司 信息检测方法、装置、计算机设备及可读存储介质
CN111372040B (zh) * 2019-06-13 2021-09-24 杭州海康威视***技术有限公司 一种多视频监控确定坐标转换参数的方法及装置
KR102661644B1 (ko) * 2019-08-23 2024-04-29 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR20210112800A (ko) * 2020-03-06 2021-09-15 한국전자통신연구원 객체 추적 장치 및 방법
CN111768433B (zh) * 2020-06-30 2024-05-24 杭州海康威视数字技术股份有限公司 一种移动目标追踪的实现方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255057A (ja) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd 移動物体抽出装置
JP2003276963A (ja) * 2003-02-03 2003-10-02 Toshiba Corp 画像監視装置を利用したエレベータ制御装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP3814779B2 (ja) 2001-03-27 2006-08-30 三菱電機株式会社 侵入者自動追尾方法および装置並びに画像処理装置
JP3999561B2 (ja) 2002-05-07 2007-10-31 松下電器産業株式会社 監視システムと監視カメラ

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6335927B1 (en) * 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
US5999525A (en) * 1996-11-18 1999-12-07 Mci Communications Corporation Method for video telephony over a hybrid network
EP1298524A1 (en) * 2001-09-28 2003-04-02 Ricoh Company, Ltd. Conference support apparatus, information processor, teleconference system and computer product
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP4759988B2 (ja) * 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
JP5041757B2 (ja) * 2006-08-02 2012-10-03 パナソニック株式会社 カメラ制御装置およびカメラ制御システム
JP5084374B2 (ja) * 2007-07-06 2012-11-28 株式会社トプコン 位置計測装置及び位置計測方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255057A (ja) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd 移動物体抽出装置
JP3814779B2 (ja) 2001-03-27 2006-08-30 三菱電機株式会社 侵入者自動追尾方法および装置並びに画像処理装置
JP3999561B2 (ja) 2002-05-07 2007-10-31 松下電器産業株式会社 監視システムと監視カメラ
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2003276963A (ja) * 2003-02-03 2003-10-02 Toshiba Corp 画像監視装置を利用したエレベータ制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YASUHIDE HYODO ET AL.: "Robust Multiple-human Tracking against Occlusion through Camera Network", IPSJ SIG TECHNICAL REPORTS 2008-CVIM- 164 COMPUTER VISION AND IMAGE MEDIA, vol. 2008, no. 82, 29 August 2008 (2008-08-29), pages 171 - 176, XP008167429 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014155958A1 (ja) * 2013-03-29 2017-02-16 日本電気株式会社 対象物監視システム、対象物監視方法および監視対象抽出プログラム
JP2015033066A (ja) * 2013-08-06 2015-02-16 株式会社ニコン カメラシステム
JP2018013854A (ja) * 2016-07-19 2018-01-25 日本電信電話株式会社 追跡装置および追跡方法
JP2017195617A (ja) * 2017-05-31 2017-10-26 株式会社ニコン カメラ
US11004211B2 (en) 2017-08-30 2021-05-11 Mitsubishi Electric Corporation Imaging object tracking system and imaging object tracking method
CN109345748A (zh) * 2018-10-31 2019-02-15 北京锐安科技有限公司 用户设备关联方法、装置、服务端、检测设备及介质
JP2020087180A (ja) * 2018-11-29 2020-06-04 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置

Also Published As

Publication number Publication date
JP5453429B2 (ja) 2014-03-26
US20120045096A1 (en) 2012-02-23
US8503727B2 (en) 2013-08-06
JPWO2011010490A1 (ja) 2012-12-27
CN102414719B (zh) 2014-10-15
EP2458553A4 (en) 2013-12-18
EP2458553B1 (en) 2018-11-21
EP2458553A1 (en) 2012-05-30
CN102414719A (zh) 2012-04-11

Similar Documents

Publication Publication Date Title
JP5453429B2 (ja) 監視カメラ端末
JP5470111B2 (ja) 監視カメラ端末
WO2011114799A1 (ja) 監視カメラ端末
CN107431786B (zh) 图像处理设备、图像处理***和图像处理方法
US8965050B2 (en) Behavior analysis device
JP4970195B2 (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
US20130002868A1 (en) Surveillance camera terminal
WO2006009192A1 (ja) カメラ校正システム及び三次元計測システム
JP2010206405A (ja) 画像監視装置
JP5147760B2 (ja) 画像監視装置
WO2017187694A1 (ja) 注目領域画像生成装置
CN114325573A (zh) 变电站运维人员身份及位置信息快速检测方法
JP2006041939A (ja) 監視装置及び監視プログラム
JP6546057B2 (ja) 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム
KR101464192B1 (ko) 다시점 보안 카메라 시스템 및 영상 처리 방법
Benedek et al. Motion-based flexible camera registration
Morioka et al. Color appearance based object identification in intelligent space
AU2020436767B2 (en) Markerless motion capture of hands with multiple pose estimation engines
JP2018073044A (ja) オブジェクト追跡装置、方法およびプログラム
CN115410229A (zh) 一种室内人员的定位方法、装置、电子终端及存储介质
CN116704047A (zh) 一种基于行人ReID的监控摄像设备位置的标定方法
KATO et al. Cooperative Distributed Tracking for E ective Face Registration
Raman Study on models for smart surveillance through multi-camera networks
Miaou et al. A Smart Surveillance System for Human Fall-Down Detection using Dual Heterogeneous Cameras.

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080018875.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10802111

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011523577

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010802111

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13266093

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE