WO2022230738A1 - 物体追跡装置及び物体追跡方法 - Google Patents

物体追跡装置及び物体追跡方法 Download PDF

Info

Publication number
WO2022230738A1
WO2022230738A1 PCT/JP2022/018330 JP2022018330W WO2022230738A1 WO 2022230738 A1 WO2022230738 A1 WO 2022230738A1 JP 2022018330 W JP2022018330 W JP 2022018330W WO 2022230738 A1 WO2022230738 A1 WO 2022230738A1
Authority
WO
WIPO (PCT)
Prior art keywords
processor
detection target
kalman filter
kalman
object tracking
Prior art date
Application number
PCT/JP2022/018330
Other languages
English (en)
French (fr)
Inventor
顕嗣 山本
淳 黒田
徹 佐原
方偉 童
拓也 本間
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP22795651.3A priority Critical patent/EP4332895A1/en
Priority to CN202280031202.5A priority patent/CN117355863A/zh
Priority to US18/557,465 priority patent/US20240212172A1/en
Publication of WO2022230738A1 publication Critical patent/WO2022230738A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present disclosure relates to an object tracking device and an object tracking method.
  • Patent Document 1 processes a video signal output from an in-vehicle camera that captures images around the vehicle, detects the presence or absence of approaching vehicles and pedestrians, and adds square frame marks to the approaching vehicles and pedestrians.
  • An object tracking device includes: an input interface for obtaining sensor data; a processor that detects a detection target from the sensor data and tracks the detection target using a Kalman filter associated with each of the detection target and the observed value; an output interface for outputting a detection result of the detection target,
  • the processor A first process of selecting, as an exclusion candidate Kalman filter that can be excluded from the association, one of the plurality of Kalman filters associated with the same detection target or observation value that has a low probability; and a second process of excluding the exclusion candidate Kalman filter that satisfies the initialization condition from the association and performing initialization.
  • An object tracking method includes: obtaining sensor data; Detecting a detection target from the sensor data, and tracking the detection target using a Kalman filter associated with each of the detection target and the observed value; and outputting a detection result of the detection target, Tracking the detection target includes: A first process of selecting, as an exclusion candidate Kalman filter that can be excluded from the association, one of the plurality of Kalman filters associated with the same detection target or observation value that has a low probability; and a second process of excluding the exclusion candidate Kalman filter that satisfies the initialization condition from the association and performing initialization.
  • FIG. 1 is a block diagram showing a schematic configuration of an object tracking system including an object tracking device according to one embodiment.
  • FIG. 2 is a diagram showing a vehicle equipped with the object tracking system of FIG. 1 and a detection target.
  • FIG. 3 is a flowchart showing an example of processing for tracking an image of an object on a moving image.
  • FIG. 4 is a diagram showing an example of an image of an object on a moving image.
  • FIG. 5 is a diagram for explaining the relationship between an object in real space, an image of the object in a moving image, and mass points in virtual space.
  • FIG. 6 is a diagram showing an example of movement of mass points in virtual space.
  • FIG. 7 is a diagram for explaining data association.
  • FIG. 8 is a diagram illustrating a hierarchical structure of tracked object ID management.
  • FIG. 9 is a diagram showing error ellipses of overlapping Kalman filters associated with the same observation point.
  • FIG. 10 is a diagram showing error ellipses of overlapping Kalman
  • FIG. 1 is a block diagram showing a schematic configuration of an object tracking system 1.
  • FIG. Object tracking device 20 according to an embodiment of the present disclosure is included in object tracking system 1 .
  • object tracking system 1 includes imaging device 10 , object tracking device 20 , and display 30 .
  • the object tracking system 1 is mounted on a vehicle 100, which is an example of a moving body, as illustrated in FIG.
  • the object tracking device 20 acquires moving images from the imaging device 10 as sensor data. That is, in the present embodiment, the sensor used for detecting the detection target is the imaging device 12 that captures visible light and is provided in the imaging device 10 .
  • the object tracking system 1 is not limited to the configuration shown in FIG.
  • the object tracking system 1 can include a device different from the imaging device 10 as long as it detects a detection target.
  • the object tracking system 1 may be configured to include a measuring device that measures the distance to the detection target from the reflected wave of the irradiated laser light instead of the imaging device 10 .
  • the object tracking system 1 may be configured to include a detection device having a millimeter wave sensor instead of the imaging device 10 .
  • the object tracking system 1 may be configured to include an imaging device 10 including an imaging device 12 that captures light outside the visible light range.
  • the object tracking system 1 is mounted on a moving object, and detects an object 40 (see FIG. 2) around the moving moving object.
  • the object tracking system 1 is not limited to being mounted on a mobile object.
  • the object tracking system 1 may be used in a facility such as a factory to detect employees, transport robots, products, and the like.
  • the object tracking system 1 may be used in a welfare facility for the elderly, etc., and may detect elderly people and staff members in the room.
  • the object tracking system 1 not only tracks objects for the safety of traveling or behavior, but also tracks objects for efficiency of work, quality control, or improvement of productivity at agricultural and industrial sites, for example. may be performed.
  • the object that is the detection target of the object tracking device 20 includes not only objects such as mobile objects but also people.
  • the x-axis direction is the width direction of the vehicle 100 on which the imaging device 10 is installed.
  • the positive direction of the y-axis is the direction in which the vehicle 100 moves backward.
  • the x-axis direction and the y-axis direction are directions parallel to the road surface on which the vehicle 100 is located.
  • the z-axis direction is a direction perpendicular to the road surface.
  • the z-axis direction can be referred to as the vertical direction.
  • the x-axis direction, y-axis direction, and z-axis direction are orthogonal to each other.
  • the x-axis direction, y-axis direction, and z-axis direction are not limited to this.
  • the x-axis direction, y-axis direction, and z-axis direction can be interchanged with each other.
  • the imaging device 10 includes an imaging optical system 11 , an imaging device 12 and a processor 13 .
  • the imaging device 10 can be installed at various positions on the vehicle 100 .
  • the imaging device 10 includes, but is not limited to, a front camera, a left side camera, a right side camera, a rear camera, and the like.
  • the front camera, the left side camera, the right side camera, and the rear camera are installed on the vehicle 100 so as to be able to image the front, left side, right side, and rear peripheral areas of the vehicle 100, respectively.
  • the imaging device 10 is attached to the vehicle 100 with the optical axis directed downward from the horizontal direction so as to be able to image the rear of the vehicle 100 .
  • the imaging optical system 11 may be configured including one or more lenses.
  • the imaging device 12 may be configured including a CCD image sensor (charge-coupled device image sensor) or a CMOS image sensor (complementary MOS image sensor).
  • the imaging device 12 converts an object image (subject image) formed on the imaging surface of the imaging device 12 by the imaging optical system 11 into an electric signal.
  • the imaging device 12 can capture moving images at a predetermined frame rate.
  • a frame is each still image that constitutes a moving image.
  • the number of images that can be captured in one second is called a frame rate.
  • the frame rate may be, for example, 60 fps (frames per second) or 30 fps.
  • the processor 13 controls the imaging device 10 as a whole and performs various image processing on the moving image output from the imaging device 12 .
  • Image processing performed by the processor 13 may include arbitrary processing such as distortion correction, brightness adjustment, contrast adjustment, and gamma correction.
  • the processor 13 may consist of one or more processors.
  • Processor 13 includes one or more circuits or units configured to perform one or more data computing procedures or processes, eg, by executing instructions stored in associated memory.
  • Processor 13 includes one or more processors, microprocessors, microcontrollers, application specific integrated circuits (ASICs), digital signal processors (DSPs), programmable logic devices (PLDs). ), field-programmable gate arrays (FPGAs), any combination of these devices or configurations, or other known device or configuration combinations.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • PLDs programmable logic devices
  • FPGAs field-programmable gate arrays
  • the object tracking device 20 includes an input interface 21, a storage unit 22, a processor 23 and an output interface 24.
  • the input interface 21 is configured to be able to communicate with the imaging device 10 by wired or wireless communication means.
  • the input interface 21 acquires moving images from the imaging device 10 as sensor data.
  • the input interface 21 may correspond to the transmission method of the image signal transmitted by the imaging device 10 .
  • the input interface 21 can be rephrased as an input section or an acquisition section.
  • the imaging device 10 and the input interface 21 may be connected by an in-vehicle communication network such as a CAN (control area network).
  • the storage unit 22 is a storage device that stores data and programs necessary for processing performed by the processor 23 .
  • the storage unit 22 temporarily stores moving images acquired from the imaging device 10 .
  • the storage unit 22 stores data generated by processing performed by the processor 23 .
  • the storage unit 22 may be configured using, for example, one or more of a semiconductor memory, a magnetic memory, an optical memory, and the like.
  • Semiconductor memory may include volatile memory and non-volatile memory.
  • Magnetic memory may include, for example, hard disks and magnetic tapes.
  • the optical memory may include, for example, a CD (compact disc), a DVD (digital versatile disc), and a BD (blu-ray (registered trademark) disc).
  • the processor 23 controls the object tracking device 20 as a whole.
  • the processor 23 recognizes an object image included in the moving image acquired via the input interface 21 .
  • the processor 23 maps the coordinates of the image of the recognized object to the coordinates of the object 40 in the virtual space 46 (see FIG. 6), and calculates the position and velocity of the mass point 45 (see FIG. 5) representing the object 40 in the virtual space 46.
  • Mass point 45 is a point that has mass and no size.
  • the virtual space 46 is a two-dimensional space in which the value in the z-axis direction is a predetermined fixed value in a coordinate system consisting of three axes of x, y, and z in the real space.
  • the processor 23 may map-transform the coordinates of the tracked mass point 45 on the virtual space 46 to the coordinates on the moving image.
  • the processor 23 detects a detection target from the moving image and performs tracking using a Kalman filter.
  • the processor 23 can detect a plurality of detection targets from the moving image, and tracks each of the plurality of detection targets using a Kalman filter.
  • the processor 23 can avoid such problems by associating one or more Kalman filters with each of a plurality of detection targets.
  • the processor 23 manages observed values, Kalman filters, and unique identification information of tracked objects (hereinafter “tracked object IDs”) in each layer.
  • the processor 23 determines whether or not the tracked objects are the same object (the same detection target), and executes processing for associating the observed value, the Kalman filter, and the tracked object ID. This makes it possible to further improve the accuracy of tracking a plurality of detection targets.
  • the processor 23 selects or initializes, among a plurality of Kalman filters associated with the same detection target or observed value, those with low likelihood as candidates for exclusion from the association. For example, when many Kalman filters are associated with the same detection target or observation value, the processor 23 can prevent an increase in computational load by excluding some. Details of the processing performed by the processor 23 will be described later.
  • Processor 23, like processor 13 of imaging device 10, may include multiple processors.
  • the processor 23 may be configured by combining a plurality of types of devices, like the processor 13 .
  • the output interface 24 is configured to output an output signal from the object tracking device 20 .
  • the output interface 24 can be called an output unit.
  • the output interface 24 may output the detection result of the detection target such as the coordinates of the mass point 45, for example.
  • the output interface 24 may be configured including a physical connector and a wireless communication device.
  • the output interface 24 may be connected to a network of the vehicle 100 such as CAN, for example.
  • the output interface 24 can be connected to the display 30, the control device of the vehicle 100, the alarm device, and the like via a communication network such as CAN.
  • the information output from the output interface 24 may be appropriately used by each of the display 30, the control device, and the alarm device.
  • the display 30 can display moving images output from the object tracking device 20 .
  • the display 30 receives the coordinates of the mass point 45 representing the position of the image of the object from the object tracking device 20, the display 30 generates an image element according to the coordinates (for example, a warning to be displayed together with the approaching object) and superimposes it on the moving image.
  • Display 30 may employ various types of devices.
  • the display 30 may be a liquid crystal display (LCD), an organic EL (electro-luminescence) display, an inorganic EL display, a plasma display (PDP), a field emission display (FED), Electrophoretic displays, twist ball displays, etc. may be employed.
  • Non-transitory computer-readable media include, but are not limited to, magnetic storage media, optical storage media, magneto-optical storage media, and semiconductor storage media.
  • Magnetic storage media include magnetic disks, hard disks, and magnetic tapes.
  • Optical storage media include optical discs such as CDs, DVDs and BDs.
  • Semiconductor storage media include ROM (read only memory), EEPROM (electrically erasable programmable read-only memory), and flash memory.
  • the flowchart in FIG. 3 shows the processing performed by the processor 23 by acquiring sequential frames of a moving image.
  • the processor 23 of the object tracking device 20 tracks the position of the object image 42 (see FIG. 4) each time it acquires a moving image frame according to the flowchart of FIG.
  • there may be multiple objects 40 to be detected including pedestrians 40A, automobiles 40B, and bicycles 40C.
  • the objects 40 are not limited to moving objects and people, but may include various objects such as road obstacles.
  • one of the plurality of objects 40 specifically, the pedestrian 40A included in the moving image of the imaging device 10 installed behind the vehicle 100 will be used.
  • Other objects 40 for example, automobile 40B and bicycle 40C are also tracked by similar processing.
  • FIG. 4 shows an example of one frame of a moving image.
  • an image of an object 40 behind the vehicle 100 (object image 42) is displayed in a two-dimensional image space 41 made up of the uv coordinate system.
  • the u coordinate is the horizontal coordinate of the image.
  • the v coordinate is the vertical coordinate of the image.
  • the origin of the uv coordinates is the upper left point of the image space 41 .
  • the positive direction is the direction from left to right.
  • the positive direction of the v-coordinate is the direction from top to bottom.
  • the processor 23 recognizes the object image 42 from each frame of the moving image by image recognition (step S102).
  • Methods for recognizing the object image 42 include various known methods.
  • the method of recognizing the object image 42 includes a method of recognizing the shape of an object such as a car or a person, a method of template matching, a method of calculating a feature amount from an image and using it for matching, and the like.
  • a function approximator capable of learning the relationship between input and output can be used to calculate the feature amount.
  • a neural network for example, can be used as the function approximator capable of learning the relationship between input and output.
  • the processor 23 maps the coordinates (u, v) of the object image 42 in the image space 41 to the object coordinates (x', y') in the virtual space 46 (see FIG. 6) (step S103).
  • the coordinates (u, v) in the image space 41 which are two-dimensional coordinates, cannot be transformed into the coordinates (x, y, z) in the real space.
  • the coordinates (u, v) in the image space 41 are changed to the coordinates (x, y, z 0 ) in the real space (z 0 is (fixed value) can be mapped to the coordinates (x', y') in the two-dimensional virtual space 46 corresponding to the fixed value).
  • the virtual space 46 is two-dimensional in this embodiment, it may be three-dimensional depending on the input information (type of sensor).
  • a representative point 43 located in the center of the bottom of the image 42 of the object is identified.
  • the representative point 43 can be the lowest v-coordinate position and the center of the u-coordinate range of the area occupied by the object image 42 in the image space 41 .
  • This representative point 43 is assumed to be the position where the object 40 corresponding to the object image 42 is in contact with the road surface or the ground.
  • FIG. 5 shows the relationship between an object 40 located in a three-dimensional real space and an image 42 of the object on a two-dimensional image space 41.
  • the center of the imaging optical system 11 of the imaging device 10 is directed to the corresponding coordinates (x, y, z) in the real space.
  • Direction can be calculated.
  • the internal parameters of the imaging device 10 include information such as the focal length and distortion of the imaging optical system 11 and the pixel size of the imaging device 12 .
  • the reference plane 44 corresponds to the road surface or the ground on which the vehicle 100 is located.
  • a particular point is a point corresponding to mass point 45 .
  • the processor 23, as shown in FIG. , v y′ ) are traced (step S104). Since mass point 45 has position (x', y') and velocity (v x ', v y' ) information, processor 23 can determine the range of mass point 45's position (x', y') in successive frames. can be predicted. The processor 23 can recognize the mass point 45 located in the predicted range in the next frame as the mass point 45 corresponding to the image 42 of the object being tracked. The processor 23 sequentially updates the position (x', y') and velocity (v x ' , v y' ) of the mass point 45 each time a new frame is input.
  • estimation using a Kalman filter based on a state space model can be adopted. Prediction/estimation using the Kalman filter improves robustness against undetectability and erroneous detection of the object 40 to be detected.
  • the object tracking device 20 of the present disclosure by mapping the object image 42 to the mass point 45 in the real space, it becomes possible to apply a model that describes the motion in the real space. improves. Further, by treating the object 40 as a mass point 45 having no size, simple and easy tracking becomes possible.
  • processor 23 may map coordinates of mass point 45 in virtual space 46 to coordinates (u,v) in image space 41 to indicate the estimated position.
  • a mass point 45 located at coordinates (x', y') in virtual space 46 can be mapped into image space 41 as a point located at coordinates (x, y, 0) in real space. Coordinates (x, y, 0) in the real space can be mapped to coordinates (u, v) in the image space 41 of the imaging device 10 by a known method.
  • the processor 23 mutually transforms the coordinates (u, v) on the image space 41, the coordinates (x', y') on the virtual space 46, and the coordinates (x, y, 0) on the real space. can be done.
  • FIG. 7 is a diagram for explaining data association.
  • Data association is a process of associating a Kalman filter with an observed value. Multiple Kalman filters may be associated with multiple observations in a data association.
  • the observed value is the position of the detection target.
  • the processor 23 assigns identifiers to the plurality of observed values and the plurality of Kalman filters to distinguish them.
  • the processor 23 designates each of the plurality of observation values as observation value (1), observation value (2), observation value (3), . . . using serial numbers, for example.
  • the processor 23 uses symbols and serial numbers, for example, to designate the plurality of Kalman filters as KF(1), KF(2), KF(3), and so on.
  • the processor 23 performs data association between M observed values and N Kalman filters.
  • M is an integer of 2 or more.
  • N is an integer greater than or equal to M.
  • processor 23 has made data associations between 3 observations and 5 Kalman filters.
  • Observed value (1) is the position of pedestrian 40A detected in frame (k) of the moving image.
  • Observation (2) is the position of vehicle 40B detected in frame (k) of the moving image.
  • Observed value (3) is the position of bicycle 40C detected in frame (k) of the moving image.
  • Frame (k-1) is the frame immediately before frame (k) in the moving image.
  • Frame (k-2) is the frame two frames before frame (k) in the moving image. Assume that the current frame is frame (k).
  • KF(2) has been used to track the pedestrian 40A until frame (k-1), but is initialized because it satisfies the initialization conditions described later and is used to track the position of the detection target.
  • KF(5) is a Kalman filter newly prepared by recognizing a new bicycle 40C in frame (k-2). KF(5) has started tracking the detected object because the newly recognized bicycle 40C was also recognized in the current frame (k). The other Kalman filters continue to track their detection targets from frame (k-2).
  • the processor 23 associates observed value (1) with KF (1).
  • Processor 23 associates observation (2) with KF(3) and KF(4).
  • the processor 23 associates KF(5) with observed value (3).
  • the processor 23 allows overlap of detection results in the tracking process of multiple detection targets. That is, processor 23 uses KF(3) and KF(4) to predict the range of observation (2), ie, the position of vehicle 40B.
  • local optimization can be achieved by allowing overlap in data associations.
  • a method that associates multiple observed values with multiple Kalman filters on a one-to-one basis without allowing duplication may cause a chain of misassociations due to global optimization. In this embodiment, since duplication is allowed, problems such as misassociation chains do not occur.
  • one or more Kalman filters are associated with one observed value, and tracking failure is less likely to occur for any observed value, so robustness can be improved.
  • Tracking object ID management a plurality of Kalman filters can be associated with one observed value as described above, it is also possible that a plurality of observed values are associated with one object to be detected. For example, when the detection target is the automobile 40B, and it disappears from the moving image due to a lane change, etc., and then reappears in the moving image, a new observation value may be associated with another object.
  • object tracking device 20 preferably identifies each tracked object and keeps track of its correspondence with observed values.
  • the processor 23 performs tracking object ID management using a hierarchical structure as described below, groups a plurality of Kalman filters, and determines whether or not they correspond to the same object.
  • FIG. 8 is a diagram showing the hierarchical structure of tracking object ID management (ID management) in this embodiment.
  • Tracking object ID management is a process of associating a Kalman filter with a detection target.
  • the processor 23 manages observed values, Kalman filters, and tracked object IDs in each layer.
  • the processor 23 also enables accurate object tracking by associating observed values, Kalman filters, and tracked object IDs.
  • the tracked object ID is the unique identification information of the tracked object as described above. If the tracked object ID associated with multiple observations or multiple Kalman filters is the same, then these observations or Kalman filters are associated with tracking the same object.
  • the processor 23 performs grouping of a plurality of Kalman filters when frames of the moving image are acquired. The processor 23 then updates the association of observations, Kalman filters and tracked object IDs.
  • processor 23 groups KF(1), KF(2) and KF(3) and assigns an identifier "tracked object ID(1)" to the object to be tracked using these Kalman filters. to control the tracking of this object.
  • the processor 23 also groups KF(4) and KF(5), assigns an identifier “tracked object ID(2)” to the object to be tracked using these Kalman filters, and performs tracking control of this object. I do.
  • the processor 23 associates the Kalman filters corresponding to the objects determined to be the same, and controls the tracking in a hierarchical structure that also associates the detection results of the detection targets corresponding to these Kalman filters. tracking becomes possible.
  • the processor 23 can, for example, compare or select detection results using a plurality of linked Kalman filters to obtain a detection result with a high degree of certainty.
  • multiple Kalman filters can be associated with one observation value, and multiple Kalman filters can be associated with one detection target (detection target having one tracked object ID).
  • detection target detection target having one tracked object ID
  • By associating a plurality of Kalman filters tracking failures are less likely to occur, and robustness can be improved.
  • many Kalman filter correspondences increase the computational load and may cause delays in the control of the object tracker 20 by the processor 23 .
  • the processor 23 performs overlapping Kalman filter management to exclude some of the overlapping Kalman filters (multiple Kalman filters associated with the same detected object or observed value) from the association, as described below.
  • the processor 23 executes a first process and a second process as redundant Kalman filter management.
  • the first process is a process in which the processor 23 selects overlapping Kalman filters with low "probability" as "excluded candidate Kalman filters” that can be excluded from the matching.
  • the first process can be likened to pruning a Kalman filter of low importance, and can be called a pruning process.
  • the second process is a process in which the processor 23 initializes by excluding the “excluded candidate Kalman filter” that has satisfied the initialization condition from the association.
  • the second process initializes the Kalman filter to an empty state and can be referred to as the vacant process.
  • the "certainty" of the Kalman filter in the first process is the accuracy of prediction/estimation of the position of the associated detection target or observed value, in other words, the degree of certainty.
  • Processor 23 can determine the likelihood of the Kalman filter by, for example, the size of the error ellipse.
  • the error ellipse indicates an estimated range based on the probability density distribution of the position, and indicates that the position is located inside the ellipse with a predetermined probability (99% as an example).
  • the error ellipse is calculated using the standard deviation in the x' direction and the standard deviation in the y' direction of the two-dimensional virtual space 46 (see FIG. 6).
  • the Kalman filter with the largest error ellipse may be selected as the 'excluded candidate Kalman filter' as having a low probability.
  • the initialization condition in the second process is that the number of times the filter is selected as the exclusion candidate Kalman filter reaches the first value.
  • the first value can be arbitrarily selected, but is "5" as an example.
  • the Kalman filter selected as the exclusion candidate Kalman filter for the fifth time by the second processing is detected.
  • the number of times that the exclusion candidate Kalman filter has been selected may be consecutive or cumulative. For example, when the number of consecutive times is used, the number returns to "0" if a certain Kalman filter is not selected as an exclusion candidate Kalman filter in the first processing on the way.
  • the number of times an exclusion candidate Kalman filter has been selected may be counted for each Kalman filter by a counter provided in the processor 23 .
  • FIG. 9 is a diagram showing error ellipses of overlapping Kalman filters associated with the same observation point in the data association.
  • a plurality of Kalman filters are associated with the same observation point (one observation value)
  • one object is recognized as two objects due to the influence of light reflection, and a new Kalman filter is applied to one of them.
  • using multiple associated Kalman filters to control detection target tracking can be performed in parallel, but the computational effort can be increased. Therefore, it is preferable to perform duplicate Kalman filter management on data associations.
  • Processor 23 computes an error ellipse for each of the three Kalman filters.
  • Processor 23 performs a first process to select Kalman filters with relatively large error ellipses as candidate Kalman filters to be excluded.
  • Processor 23 may select a plurality of candidate exclusion Kalman filters, but selects KF(q) with the largest error ellipse in the example of FIG. 9 as the candidate exclusion Kalman filter. After that, the processor 23 executes the second process.
  • FIG. 9 the processor 23 executes the second process.
  • the processor 23 determines that the number of times KF(q) has been selected as an exclusion candidate Kalman filter reaches a first value (eg, 5 times), i.e., if the initialization condition is satisfied, KF Unmap (q) and initialize KF(q).
  • a first value e.g, 5 times
  • the processor 23 may execute the first process and the second process when the number of Kalman filters associated with the same observed value exceeds the second value.
  • the second value can be arbitrarily chosen, but is "2" in the example of FIG.
  • the second value is the upper limit of the number of overlapping Kalman filters associated with the same observation point.
  • the second value is preferably a small numerical value from the viewpoint of reducing the load of arithmetic processing, but is set to 2 or more in order to ensure robustness in object tracking processing.
  • processor 23 initializes KF(q) by executing the first process and the second process because the number of overlapping Kalman filters exceeds two.
  • KF(q) which has a relatively low degree of importance
  • KF(r) KF(r)
  • a plurality of exclusion candidate Kalman filters may be selected in the first process.
  • a plurality of exclusion candidate Kalman filters may be initialized in the second process.
  • the number of exclusion candidate Kalman filters may be determined based on the number of overlapping Kalman filters and the second value (the upper limit of the number of overlapping Kalman filters associated with the same observation point). For example, if the second value is '2' and the number of overlapping Kalman filters is '5', the processor 23 may select three excluded candidate Kalman filters that are their difference by a first process. . That is, the processor 23 may select three Kalman filters with relatively large error ellipses as candidates to be excluded from association with the same observation point by the first processing.
  • FIG. 10 is a diagram showing error ellipses of overlapping Kalman filters associated with the same detection target in tracked object ID management.
  • control of tracking of a detection target can be executed in parallel using a plurality of Kalman filters associated with the same detection target (same object having one tracked object ID), but computation processing increases. obtain. Therefore, it is preferable to perform duplicate Kalman filter management in tracking object ID management.
  • the correspondence between the same detection target and the Kalman filter is performed by clustering such as DBSCAN (density-based spatial clustering of applications with noise).
  • the processor 23 determines that the Kalman filters belong to one group when the centers of the error ellipses of the Kalman filters are included in a predetermined range.
  • the predetermined range is indicated by a circle.
  • the predetermined range may change according to the size of the tracked object. For example, if the tracked object is the automobile 40B, the predetermined range may be set larger than when the tracked object is the pedestrian 40A. Also, the predetermined range may be constant regardless of the type of tracked object.
  • the clustering technique is not limited to DBSCAN. Clustering may be performed by other techniques, for example the k-means method.
  • processor 23 performs a first process to select Kalman filters with relatively large error ellipses as candidate Kalman filters to be excluded. After that, the processor 23 executes the second process. In the example of FIG. 10, the processor 23 determines that the number of times KF(q) has been selected as an exclusion candidate Kalman filter reaches a first value (eg, 5 times), i.e., if the initialization condition is satisfied, KF Unmap (q) and initialize KF(q).
  • a first value eg, 5 times
  • the processor 23 performs the first processing and the second processing when the number of Kalman filters associated with the same detection target exceeds the second value. processing may be performed.
  • the second value is "the upper limit of the number of overlapping Kalman filters associated with the same observation point" as described above, and is "2" as an example.
  • processor 23 initializes KF(q) by executing the first process and the second process because the number of overlapping Kalman filters exceeds two. By excluding KF(q), which has a relatively low degree of importance, from the matching, an increase in the arithmetic processing of the processor 23 is prevented.
  • KF(p) and KF(r) are still associated with the same detection target, ensuring robustness in tracking the position of this detection target.
  • the processor 23 executes the first process and the second process when the number of Kalman filters associated with the same detection target exceeds a third value.
  • the third value is "the upper limit of the number of overlapping Kalman filters associated with the same detection target" and is set regardless of the second value.
  • the processor 23 executes the first process and the second process when the number of overlapping Kalman filters exceeds a second value ("2" as an example) in the data association, and in tracking object ID management, The first process and the second process may be performed when the number of overlapping Kalman filters exceeds a third value ("4" as an example).
  • the processor 23 may select or combine the above execution timings and execution conditions to perform overlapping Kalman filter management.
  • Processor 23 may perform a first process and a second process, eg, in data association and tracked object ID management.
  • Processor 23 may perform the first process and the second process if the number of duplicated Kalman filters exceeds a second value, for example on data associations only.
  • the processor 23 may perform the first process and the second process when the number of overlapping Kalman filters exceeds a third value, for example, only in tracked object ID management.
  • the object tracking device 20 allows overlap of detection results in the process of tracking a plurality of detection targets with the above configuration. Therefore, the object tracking device 20 can track a plurality of objects with high accuracy without causing a chain of misassociations.
  • the object tracking device 20 according to the present embodiment also executes redundant Kalman filter management in the process of tracking an object. Therefore, the object tracking device 20 can track the object with high accuracy without increasing the computational load.
  • the object tracking system 1 includes the imaging device 10, the object tracking device 20, and the display 30, but at least two of them may be integrated.
  • the functions of the object tracking device 20 can be installed in the imaging device 10 .
  • the imaging apparatus 10 may include the storage unit 22 and the output interface 24 in addition to the imaging optical system 11 , the imaging element 12 and the processor 13 .
  • the processor 13 may perform the processing performed by the processor 23 in the above embodiment on the moving image output by the imaging device 10 .
  • Such a configuration may realize the imaging device 10 that tracks an object.
  • Mobile objects in this disclosure include vehicles, ships, and aircraft.
  • Vehicle in the present disclosure includes, but is not limited to, automobiles and industrial vehicles, and may include railroad and utility vehicles, and fixed-wing aircraft that travel on runways.
  • Motor vehicles include, but are not limited to, cars, trucks, buses, motorcycles and trolleybuses, and may include other vehicles that travel on roads.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines and mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, mobile cranes, tippers and road rollers.
  • Vehicles include those driven by human power.
  • classification of vehicles is not limited to the above.
  • automobiles may include road-driving industrial vehicles, and the same vehicle may be included in multiple classes.
  • Vessels in this disclosure include marine jets, boats, and tankers.
  • Aircraft in this disclosure includes fixed-wing and rotary-wing aircraft.
  • object tracking system 10 imaging device 11 imaging optical system 12 imaging device 13 processor 20 object tracking device 21 input interface 22 storage unit 23 processor 24 output interface 30 display 40 object 40A pedestrian 40B car 40C bicycle 41 image space 42 object image 43 Representative point 44 Reference plane 45 Mass point 46 Virtual space 100 Vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

演算の負荷を増大させずに、物体を高精度に追跡できる物体追跡装置及び物体追跡方法が提供される。物体追跡装置(20)は、センサデータを取得する入力インターフェイス(21)と、センサデータから検出対象を検出し、検出対象及び観測値のそれぞれに対応付けが行われたカルマンフィルタを用いて、検出対象の追跡を行うプロセッサ(23)と、検出対象の検出結果を出力する出力インターフェイス(24)と、を備え、プロセッサ(23)は、同一の検出対象又は観測値に対応付けが行われた複数のカルマンフィルタのうち確からしさが低いものを、対応付けから除外され得る除外候補カルマンフィルタとして選択する第1の処理と、初期化条件を満たした除外候補カルマンフィルタを対応付けから除外して初期化する第2の処理と、を実行する。

Description

物体追跡装置及び物体追跡方法 関連出願の相互参照
 本出願は、日本国特許出願2021-075289号(2021年4月27日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、物体追跡装置及び物体追跡方法に関する。
 周囲の物体を検知し、検知した物体を追跡して動きを予測する技術が知られている。例えば、特許文献1は、車両周辺の映像を取り込む車載カメラから出力される映像信号を処理して接近する車両及び歩行者の有無を検知し、接近車両及び歩行者に四角枠のマークを付加して表示する装置を開示する。
特開平11-321494号公報
 一実施形態に係る物体追跡装置は、
 センサデータを取得する入力インターフェイスと、
 前記センサデータから検出対象を検出し、前記検出対象及び観測値のそれぞれに対応付けが行われたカルマンフィルタを用いて、前記検出対象の追跡を行うプロセッサと、
 前記検出対象の検出結果を出力する出力インターフェイスと、を備え、
 前記プロセッサは、
  同一の検出対象又は観測値に対応付けが行われた複数の前記カルマンフィルタのうち確からしさが低いものを、前記対応付けから除外され得る除外候補カルマンフィルタとして選択する第1の処理と、
  初期化条件を満たした前記除外候補カルマンフィルタを前記対応付けから除外して初期化する第2の処理と、を実行する。
 一実施形態に係る物体追跡方法は、
 センサデータを取得することと、
 前記センサデータから検出対象を検出し、前記検出対象及び観測値のそれぞれに対応付けが行われたカルマンフィルタを用いて、前記検出対象の追跡を行うことと、
 前記検出対象の検出結果を出力することと、を含み、
 前記検出対象の追跡を行うことは、
  同一の検出対象又は観測値に対応付けが行われた複数の前記カルマンフィルタのうち確からしさが低いものを、前記対応付けから除外され得る除外候補カルマンフィルタとして選択する第1の処理と、
  初期化条件を満たした前記除外候補カルマンフィルタを前記対応付けから除外して初期化する第2の処理と、を含む。
図1は、一実施形態に係る物体追跡装置を含む物体追跡システムの概略構成を示すブロック図である。 図2は、図1の物体追跡システムを搭載する車両と検出対象とを示す図である。 図3は、動画像上の物体の像を追跡する処理の例を示すフローチャートである。 図4は、動画像上の物体の像の一例を示す図である。 図5は、実空間の物体、動画像中の物体の像及び仮想空間における質点の関係を説明する図である。 図6は、仮想空間における質点の移動の一例を示す図である。 図7は、データアソシエーションを説明するための図である。 図8は、追跡物体ID管理の階層構造を例示する図である。 図9は、同一の観測点に対応付けられた重複カルマンフィルタのそれぞれの誤差楕円を示す図である。 図10は、同一の検出対象に対応付けられた重複カルマンフィルタのそれぞれの誤差楕円を示す図である。
 以下、図面を参照して、本開示の実施形態が説明される。以下の説明で用いられる図は模式的なものである。図面上の寸法比率などは現実のものと必ずしも一致していない。
 図1は、物体追跡システム1の概略構成を示すブロック図である。本開示の一実施形態に係る物体追跡装置20は、物体追跡システム1に含まれる。本実施形態において、物体追跡システム1は、撮像装置10と、物体追跡装置20と、ディスプレイ30とを含む。また、本実施形態において、物体追跡システム1は、図2に例示するように移動体の一例である車両100に搭載される。
 本実施形態に係る物体追跡装置20は、センサデータとして撮像装置10から動画像を取得する。つまり、本実施形態において、検出対象を検出するために用いられるセンサは、撮像装置10が備える可視光を撮像する撮像素子12である。ただし、物体追跡システム1は、図1に示される構成に限定されない。物体追跡システム1は、検出対象を検出するものであれば、撮像装置10と異なる装置を備えることができる。別の例として、物体追跡システム1は、撮像装置10に代えて、照射したレーザー光の反射波から検出対象との距離を測定する測定装置を備える構成であってよい。別の例として、物体追跡システム1は、撮像装置10に代えて、ミリ波センサを有する検出装置を備える構成であってよい。また、別の例として、物体追跡システム1は、可視光領域以外の光を撮像する撮像素子12を備える撮像装置10を備える構成であってよい。
 本実施形態において、物体追跡システム1は移動体に搭載されて、移動する移動体の周囲の物体40(図2参照)を検出対象とする。ただし、物体追跡システム1は、移動体に搭載される構成に限定されない。別の例として、物体追跡システム1は、工場などの施設で用いられて、従業員、搬送ロボット及び製造物などを検出対象としてよい。また、別の例として、物体追跡システム1は、老人福祉施設などで用いられて、室内の老人及びスタッフなどを検出対象としてよい。また、物体追跡システム1は、走行又は行動の安全のために物体の追跡を行うだけでなく、例えば農業及び工業の現場において作業の効率化、品質管理又は生産性向上などのために物体の追跡を行ってよい。ここで、本開示において、物体追跡装置20の検出対象である物体は、移動体などの物だけでなく人を含む。
 図2に示すように、本実施形態において、実空間の座標のうち、x軸方向は、撮像装置10が設置された車両100の幅方向とする。y軸正方向は、車両100の後退する方向とする。x軸方向とy軸方向とは、車両100が位置する路面に平行な方向である。z軸方向は、路面に対して垂直な方向である。z軸方向は、鉛直方向とよぶことができる。x軸方向、y軸方向及びz軸方向は、互いに直交する。x軸方向、y軸方向及びz軸方向のとり方はこれに限られない。x軸方向、y軸方向及びz軸方向は、互いに入れ替えることができる。
 撮像装置10は、撮像光学系11、撮像素子12及びプロセッサ13を含んで構成される。
 撮像装置10は、車両100の種々の位置に設置され得る。撮像装置10は、フロントカメラ、左サイドカメラ、右サイドカメラ及びリアカメラなどを含むが、これらに限られない。フロントカメラ、左サイドカメラ、右サイドカメラ及びリアカメラは、それぞれ車両100の前方、左側方、右側方及び後方の周辺領域を撮像可能となるように車両100に設置される。以下に一例として説明する実施形態では、図2に示すように、撮像装置10は、車両100の後方を撮像可能なように、光軸方向を水平方向より下に向けて車両100に取付けられている。
 撮像光学系11は、1つ以上のレンズを含んで構成されてよい。撮像素子12は、CCDイメージセンサ(charge-coupled device image sensor)又はCMOSイメージセンサ(complementary MOS image sensor)を含んで構成されてよい。
 撮像素子12は、撮像光学系11により撮像素子12の撮像面に結像された物体の像(被写体像)を電気信号に変換する。撮像素子12は、所定のフレームレートで、動画像を撮像することができる。フレームは動画像を構成する各静止画像である。1秒間に撮像できる画像の数をフレームレートという。フレームレートは、例えば60fps(frames per second)であってよいし、30fpsであってよい。
 プロセッサ13は、撮像装置10全体を制御するとともに、撮像素子12から出力された動画像に対して、種々の画像処理を実行する。プロセッサ13が行う画像処理は、歪み補正、明度調整、コントラスト調整、ガンマ補正等の任意の処理を含み得る。
 プロセッサ13は、1つ又は複数のプロセッサで構成され得る。プロセッサ13は、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。プロセッサ13は、1以上のプロセッサ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC:application specific integrated circuit)、デジタル信号処理装置(DSP:digital signal processor)、プログラマブルロジックデバイス(PLD:programmable logic device)、フィールドプログラマブルゲートアレイ(FPGA:field-programmable gate array)、これらのデバイス若しくは構成の任意の組み合わせ又は他の既知のデバイス若しくは構成の組み合わせを含む。
 物体追跡装置20は、入力インターフェイス21、記憶部22、プロセッサ23及び出力インターフェイス24を含んで構成される。
 入力インターフェイス21は、撮像装置10との間で有線又は無線の通信手段により通信可能に構成される。入力インターフェイス21は、センサデータとして撮像装置10から動画像を取得する。入力インターフェイス21は、撮像装置10の送信する画像信号の伝送方式に対応してよい。入力インターフェイス21は、入力部又は取得部と言い換えることができる。撮像装置10と入力インターフェイス21との間は、CAN(control area network)などの車載通信ネットワークにより接続されてよい。
 記憶部22は、プロセッサ23が行う処理に必要なデータ及びプログラムを格納する記憶装置である。例えば、記憶部22は、撮像装置10から取得した動画像を一時的に記憶する。例えば、記憶部22は、プロセッサ23が行う処理により生成されるデータを格納する。記憶部22は、例えば半導体メモリ、磁気メモリ及び光メモリなどのいずれか一つ以上を用いて構成されてよい。半導体メモリは、揮発性メモリ及び不揮発性メモリを含んでよい。磁気メモリは、例えばハードディスク及び磁気テープなどを含んでよい。光メモリは、例えばCD(compact disc)、DVD(digital versatile disc)及びBD(blu-ray(登録商標) disc)などを含んでよい。
 プロセッサ23は、物体追跡装置20の全体を制御する。プロセッサ23は、入力インターフェイス21を介して取得した動画像に含まれる物体の像を認識する。プロセッサ23は、認識した物体の像の座標を仮想空間46(図6参照)の物体40の座標に写像変換し、仮想空間46上で物体40を表す質点45(図5参照)の位置及び速度を追跡する。質点45は、質量を有し大きさを持たない点である。仮想空間46は、実空間のx軸、y軸及びz軸の3軸より成る座標系において、z軸方向の値を所定の固定値とする2次元空間である。プロセッサ23は、追跡した質点45の仮想空間46上の座標を動画像上の座標に写像変換してよい。
 また、プロセッサ23は、動画像から検出対象を検出し、カルマンフィルタを用いて追跡を行う。ここで、プロセッサ23は、動画像から複数の検出対象を検出可能であって、複数の検出対象のそれぞれについてカルマンフィルタを用いて追跡を行う。複数の検出対象を検出する場合に、動画像においてそれらの像が重なると、従来の技術では追跡を誤ったり、精度が低下したりする。本実施形態において、プロセッサ23は、複数の検出対象のそれぞれに1つ以上のカルマンフィルタを対応付けることによって、このような問題を回避できる。また、プロセッサ23は、観測値と、カルマンフィルタと、追跡物体の固有識別情報(以下「追跡物体ID」)と、を各レイヤ(層)で管理する。プロセッサ23は、追跡物体について同一物体(同一の検出対象)であるか否かを判定し、観測値と、カルマンフィルタと、追跡物体IDと、を対応付ける処理を実行する。これによって、複数の検出対象の追跡の精度をさらに向上させることができる。
 また、プロセッサ23は、同一の検出対象又は観測値に対応付けが行われた複数のカルマンフィルタのうち確からしさが低いものを、対応付けから除外する候補としたり、初期化したりする。プロセッサ23は、例えば多くのカルマンフィルタが同一の検出対象又は観測値に対応付けられた場合に、一部を除外することによって、演算の負荷が増大することを防ぐことができる。プロセッサ23が行う処理の詳細については後述する。プロセッサ23は、撮像装置10のプロセッサ13と同じく、複数のプロセッサを含んでよい。また、プロセッサ23は、プロセッサ13と同じく、複数の種類のデバイスが組み合わされて構成されてよい。
 出力インターフェイス24は、物体追跡装置20から出力信号を出力するように構成される。出力インターフェイス24は、出力部と言い換えることができる。出力インターフェイス24は、例えば質点45の座標などの検出対象の検出結果を出力してよい。
 出力インターフェイス24は、物理コネクタ及び無線通信機を含んで構成され得る。出力インターフェイス24は、例えばCANなどの車両100のネットワークに接続されてよい。出力インターフェイス24は、CANなどの通信ネットワークを介してディスプレイ30、車両100の制御装置及び警報装置などに接続され得る。出力インターフェイス24から出力された情報は、ディスプレイ30、制御装置及び警報装置の各々で適宜利用されてよい。
 ディスプレイ30は、物体追跡装置20から出力される動画像を表示し得る。ディスプレイ30は、物体追跡装置20から、物体の像の位置を表す質点45の座標を受け取った場合、これに従う画像要素(例えば、接近する物体とともに表示する警告)を生成して動画像に重畳させる機能を有してよい。ディスプレイ30は、種々の種類の装置を採用し得る。例えば、ディスプレイ30は、液晶ディスプレイ(LCD:liquid crystal display)、有機EL(electro-luminescence)ディスプレイ、無機ELディスプレイ、プラズマディスプレイ(PDP:plasma display panel)、電界放出ディスプレイ(FED:field emission display)、電気泳動ディスプレイ、ツイストボールディスプレイなどを採用し得る。
 次に、図3のフローチャートを参照して、物体追跡装置20が実行する物体追跡方法を説明する。物体追跡装置20は、以下に説明するプロセッサ23が行う処理を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実装するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。磁気記憶媒体は、磁気ディスク、ハードディスク、磁気テープを含む。光学記憶媒体は、CD、DVD及びBDなどの光ディスクを含む。半導体記憶媒体は、ROM(read only memory)、EEPROM(electrically erasable programmable read-only memory)、フラッシュメモリを含む。
 図3のフローチャートは、動画像の順次のフレームを取得して、プロセッサ23が実行する処理を示す。物体追跡装置20のプロセッサ23は、図3のフローチャートに従い、動画像のフレームを取得する度に、物体の像42(図4参照)の位置を追跡(トラッキング)する。図2に示すように、検出対象となる物体40は複数であってよく、歩行者40A、自動車40B及び自転車40Cを含み得る。さらに、物体40は、移動している物及び人に限定されず、道路上の障害物など、種々の対象物を含み得る。以下の物体追跡方法についての説明では、車両100の後ろに設置された撮像装置10の動画像に含まれる複数の物体40のうち1つ(具体的には歩行者40A)を用いて説明する。他の物体40(例えば自動車40B及び自転車40C)のそれぞれについても、同様の処理によって追跡が行われる。
 プロセッサ23は、入力インターフェイス21を介して、撮像装置10から動画像の各フレームを取得する(ステップS101)。図4に、動画像の1フレームの一例が示される。図4の例では、uv座標系からなる2次元の画像空間41に、車両100の後方の物体40の像(物体の像42)が表示されている。u座標は、画像の横方向の座標である。v座標は、画像の縦方向の座標である。図4において、uv座標の原点は、画像空間41の左上端の点である。また、u座標は、左から右へ向かう方向を正の方向とする。v座標は、上から下へ向かう方向を正の方向とする。
 プロセッサ23は、画像認識により動画像の各フレームから物体の像42を認識する(ステップS102)。物体の像42の認識方法は、公知の種々の方法を含む。例えば、物体の像42の認識方法は、車及び人などの物体の形状認識による方法、テンプレートマッチングによる方法、画像から特徴量を算出しマッチングに利用する方法などを含む。特徴量の算出には、入出力の関係を学習可能な関数近似器を用いることができる。入出力の関係を学習可能な関数近似器には、例えばニューラルネットワークを用いることができる。
 プロセッサ23は、画像空間41の物体の像42の座標(u,v)を仮想空間46(図6参照)の物体の座標(x´,y´)に写像変換する(ステップS103)。一般に、2次元座標である画像空間41の座標(u,v)は、実空間の座標(x,y,z)に変換することはできない。しかし、実空間における高さを特定し、z座標を所定値に固定することにより、画像空間41の座標(u,v)を、実空間の座標(x,y,z)(zは固定値)に対応する2次元の仮想空間46の座標(x´,y´)に写像することが可能になる。ここで、本実施形態では仮想空間46を2次元としたが、入力情報(センサの種類)によって3次元とすることがあり得る。
 図4に示すように、物体の像42の最下部の中央に位置する代表点43が特定される。例えば、代表点43は、画像空間41において、物体の像42が占める領域のv座標の最も下の位置且つu座標の範囲の中心位置とすることができる。この代表点43は、物体の像42に対応する物体40の路面又は地面と接している位置であると想定される。
 図5において、3次元の実空間に位置する物体40と、2次元の画像空間41上の物体の像42との関係が示される。撮像装置10の内部パラメータが既知の場合、画像空間41の座標(u,v)に基づき、撮像装置10の撮像光学系11の中心から実空間の対応する座標(x,y,z)に向かう方向を算出することができる。撮像装置10の内部パラメータは、撮像光学系11の焦点距離、歪み及び撮像素子12の画素サイズなどの情報を含む。実空間において、画像空間41の代表点43に対応する方向に向かう直線が、z=0の基準面44と交差する点を物体40の質点45とする。基準面44は、車両100が位置する路面又は地面に相当する。質点45は、3次元の座標(x,y,0)を有する。したがって、z=0の2次元空間を仮想空間46とするとき、質点45の座標は、(x´,y´)で表すことができる。仮想空間46上の質点45の座標(x´,y´)は、実空間においてz軸に沿う方向から物体40を見た場合のxy平面(z=0)での物体40の特定の点の座標(x,y)に相当する。特定の点は、質点45に対応する点である。
 プロセッサ23は、図6に示すように、仮想空間46上で物体の像42の代表点43から仮想空間46に写像変換された質点45の位置(x´,y´)及び速度(vx´,vy´)を追跡する(ステップS104)。質点45が位置(x´,y´)及び速度(vx´,vy´)の情報を有することにより、プロセッサ23は、順次のフレームにおける質点45の位置(x´,y´)の範囲を予測することができる。プロセッサ23は、次のフレームで予測された範囲に位置する質点45を、追跡している物体の像42に対応する質点45であると認識することができる。プロセッサ23は、新たなフレームの入力を受ける毎に、順次質点45の位置(x´,y´)及び速度(vx´,vy´)を更新する。
 質点45の追跡は、例えば、状態空間モデルに基づくカルマンフィルタを用いた推定を採用することができる。カルマンフィルタを用いた予測/推定を行うことにより、検出対象の物体40の検知不能及び誤検知などに対するロバスト性が向上する。一般に、画像空間41の物体の像42に対しては、運動を記述する適切なモデルで記述することは困難である。そのため、画像空間41の物体の像42に対して簡易に高精度の位置の推定を行うことは困難であった。本開示の物体追跡装置20では、物体の像42を実空間の質点45に写像変換することにより、実空間における運動を記述するモデルの適用が可能になるので、物体の像42の追跡の精度が向上する。また、物体40を、大きさを持たない質点45として扱うことにより、単純で簡易な追跡が可能となる。
 プロセッサ23は、質点45の新たな位置を推定するごとに、推定位置を示すために、質点45の仮想空間46上の座標を画像空間41上の座標(u,v)に写像変換してよい(ステップS105)。仮想空間46の座標(x´,y´)に位置する質点45は、実空間の座標(x,y,0)に位置する点として、画像空間41に写像変換することができる。実空間の座標(x,y,0)は、公知の方法により撮像装置10の画像空間41上の座標(u,v)に写像することができる。プロセッサ23は、画像空間41上の座標(u,v)と、仮想空間46の座標(x´,y´)と、実空間の座標(x,y,0)と、を相互に変換することができる。
(データアソシエーション)
 図7は、データアソシエーションを説明するための図である。データアソシエーションは、カルマンフィルタを観測値に対応付ける処理である。データアソシエーションにおいて、複数のカルマンフィルタが、複数の観測値と対応付けられ得る。ここで、観測値は、検出対象の位置である。プロセッサ23は、複数の観測値及び複数のカルマンフィルタに識別子を付して区別する。本実施形態において、プロセッサ23は、例えば通し番号を用いて、複数の観測値のそれぞれを観測値(1)、観測値(2)、観測値(3)…とする。また、プロセッサ23は、例えば記号及び通し番号を用いて、複数のカルマンフィルタのそれぞれをKF(1)、KF(2)、KF(3)…とする。
 本実施形態において、プロセッサ23は、M個の観測値とN個のカルマンフィルタとのデータアソシエーションを行う。Mは2以上の整数である。NはM以上の整数である。図7の例において、プロセッサ23は、3個の観測値と5個のカルマンフィルタとのデータアソシエーションを行っている。観測値(1)は動画像のフレーム(k)において検出されている歩行者40Aの位置である。観測値(2)は動画像のフレーム(k)において検出されている自動車40Bの位置である。観測値(3)は動画像のフレーム(k)において検出されている自転車40Cの位置である。また、フレーム(k-1)は、動画像におけるフレーム(k)の1つ前のフレームである。フレーム(k-2)は、動画像におけるフレーム(k)の2つ前のフレームである。現フレームはフレーム(k)であるとする。
 ここで、KF(2)は、フレーム(k-1)の時まで歩行者40Aの追跡に用いられていたが、後述する初期化条件を満たしたため初期化されて、検出対象の位置の追跡に用いられない。また、KF(5)は、フレーム(k-2)で新たな自転車40Cが認識されたことによって、新たに用意されたカルマンフィルタである。KF(5)は、新たに認識された自転車40Cが、現フレーム(k)でも認識されたために、検出対象の追跡を始動している。その他のカルマンフィルタは、フレーム(k-2)の時から、それぞれ検出対象の追跡を継続している。
 図7の例において、プロセッサ23は観測値(1)にKF(1)を対応付けている。プロセッサ23は観測値(2)にKF(3)及びKF(4)を対応付けている。また、プロセッサ23は観測値(3)にKF(5)を対応付けている。観測値(2)の例のように、プロセッサ23は、複数の検出対象の追跡過程における検出結果の重複を許容する。つまり、プロセッサ23は、KF(3)及びKF(4)を用いて、観測値(2)すなわち自動車40Bの位置の範囲の予測を行う。このように、データアソシエーションにおいて重複を許容することによって、局所最適化を行うことができる。例えば、重複を許容せずに、複数の観測値と複数のカルマンフィルタとを一対一で対応付ける手法(一例としてハンガリアン法)は、全体最適化のため、1つのミスアソシエーションが連鎖するおそれがある。本実施形態においては、重複が許容されるため、ミスアソシエーションの連鎖といった問題は生じない。また、追跡過程において、1つの観測値に対して1つ以上のカルマンフィルタが対応付けられており、どの観測値についても追跡の失敗が生じにくいため、ロバスト性を向上できる。
(追跡物体ID管理)
 ここで、上記のように1つの観測値に複数のカルマンフィルタが対応付けられ得るが、検出対象である1つの物体に複数の観測値が対応付けられることもあり得る。例えば、検出対象が自動車40Bであって、車線変更などによって動画像から一度消失した後に再び動画像に出現した場合などに、別物体として新たな観測値が対応付けられることがあり得る。正確な物体の追跡を行うために、物体追跡装置20は、それぞれの追跡物体を識別して、観測値との対応付けを把握することが好ましい。本実施形態において、プロセッサ23は、以下に説明するように階層構造を用いた追跡物体ID管理を実行し、複数のカルマンフィルタのグループ化を行って同一物体に対応するものか否かを判定する。
 図8は、本実施形態における追跡物体ID管理(IDマネジメント)の階層構造を示す図である。追跡物体ID管理は、カルマンフィルタを検出対象に対応付ける処理である。図8に示すように、プロセッサ23は、観測値と、カルマンフィルタと、追跡物体IDと、を各レイヤ(層)で管理する。また、プロセッサ23は、観測値と、カルマンフィルタと、追跡物体IDと、を対応付けることによって、正確な物体の追跡を可能にする。ここで、追跡物体IDは上記のように追跡物体の固有識別情報である。複数の観測値又は複数のカルマンフィルタに対応付けられる追跡物体IDが同じであれば、これらの観測値又はカルマンフィルタは同一物体の追跡に関連するものである。
 プロセッサ23は、動画像のフレームが取得されると複数のカルマンフィルタのグループ化を実行する。そして、プロセッサ23は、観測値、カルマンフィルタ及び追跡物体IDの対応付けを更新する。図8の例において、プロセッサ23は、KF(1)、KF(2)及びKF(3)をグループ化して、これらのカルマンフィルタを用いて追跡する物体に識別子である「追跡物体ID(1)」を割り当てて、この物体の追跡制御を行う。また、プロセッサ23は、KF(4)及びKF(5)をグループ化して、これらのカルマンフィルタを用いて追跡する物体に識別子である「追跡物体ID(2)」を割り当てて、この物体の追跡制御を行う。プロセッサ23は、同一と判定した物体に対応するカルマンフィルタを紐付けし、これらのカルマンフィルタに対応する検出対象の検出結果についても紐付けする階層構造で追跡を制御することによって、誤りのない高精度な追跡が可能になる。プロセッサ23は、例えば紐づけされた複数のカルマンフィルタを用いた検出結果を比較又は選択して、確信度が高い検出結果を得ることが可能である。
(重複カルマンフィルタ管理)
 上記のように、1つの観測値に複数のカルマンフィルタが対応付けられ、1つの検出対象(1つの追跡物体IDを有する検出対象)に複数のカルマンフィルタが対応付けられ得る。複数のカルマンフィルタを対応付けることによって追跡の失敗が生じにくくなり、ロバスト性を向上させることができる。しかし、多くのカルマンフィルタの対応付けは演算の負荷を増大させて、プロセッサ23の物体追跡装置20の制御に遅延を生じさせ得る。プロセッサ23は、以下に説明するように、重複カルマンフィルタ(同一の検出対象又は観測値に対応付けが行われた複数のカルマンフィルタ)の一部を対応付けから除外する重複カルマンフィルタ管理を実行する。
 本実施形態において、プロセッサ23は、重複カルマンフィルタ管理として、第1の処理と、第2の処理と、を実行する。第1の処理は、プロセッサ23が、重複カルマンフィルタのうち「確からしさ」が低いものを、対応付けから除外され得る「除外候補カルマンフィルタ」として選択する処理である。第1の処理は、重要度の低いカルマンフィルタを枝刈りする(剪定する)ことになぞらえることができ、プルーニング(pruning)処理と称することができる。第2の処理は、プロセッサ23が、初期化条件を満たした「除外候補カルマンフィルタ」を対応付けから除外して初期化する処理である。第2の処理は、カルマンフィルタを初期化して空の状態にするので、ベイカント(vacant)処理と称することができる。
 ここで、第1の処理におけるカルマンフィルタの「確からしさ」は、対応付けられた検出対象又は観測値の位置の予測/推定の精度の高さ、換言すると確信度の高さ、である。プロセッサ23は、カルマンフィルタの確からしさを、例えば誤差楕円の大きさにより判定することができる。誤差楕円は、位置の確率密度分布による推定範囲を示すものであって、所定の確率(一例として99%)で楕円の内部に位置することを示すものである。誤差楕円は、2次元の仮想空間46(図6参照)のx´方向の標準偏差及びy´方向の標準偏差などを用いて計算される。重複カルマンフィルタのうち、最も大きい誤差楕円を有するカルマンフィルタが、確からしさが低いとして、「除外候補カルマンフィルタ」として選択され得る。
 また、第2の処理における初期化条件は、除外候補カルマンフィルタとして選択された回数が第1の値に達することである。第1の値は、任意に選択され得るが、一例として「5」である。例えば、あるカルマンフィルタが、第1の処理によって除外候補カルマンフィルタとして選択された回数が5回となった場合に、第2の処理が実行されて、5回目の除外候補カルマンフィルタとなったカルマンフィルタは、検出対象又は観測値との対応付けから除外されて、初期化される。ここで、除外候補カルマンフィルタとして選択された回数は、連続であってよいし、累計であってよい。例えば、連続の回数が用いられる場合に、あるカルマンフィルタが途中の第1の処理において除外候補カルマンフィルタとして選択されなかった場合に、回数は「0」に戻る。除外候補カルマンフィルタとして選択された回数は、プロセッサ23が備えるカウンタによって、カルマンフィルタ毎にカウントされてよい。
 プロセッサ23は、上記のデータアソシエーションにおいて、第1の処理及び第2の処理を実行してよい。図9は、データアソシエーションにおける、同一の観測点に対応付けられた重複カルマンフィルタのそれぞれの誤差楕円を示す図である。同一の観測点(1つの観測値)に複数のカルマンフィルタが対応付けられる状況としては、例えば1つの物体が光の反射の影響などで2つの物体であると認識されて、その一方に新たなカルマンフィルタが対応付けられた場合などがあり得る。上記のように、対応付けられた複数のカルマンフィルタを用いて検出対象の追跡の制御は並列に実行され得るが、演算処理が増大し得る。したがって、データアソシエーションにおいて、重複カルマンフィルタ管理を実行することは好ましい。
 図9の例では、同一の観測点に3つのカルマンフィルタであるKF(p)、KF(q)及びKF(r)、が対応付けられている。プロセッサ23は、3つのカルマンフィルタのそれぞれについて誤差楕円を計算する。プロセッサ23は、第1の処理を実行して、相対的に大きい誤差楕円を有するカルマンフィルタを除外候補カルマンフィルタとして選択する。プロセッサ23は、複数の除外候補カルマンフィルタを選択してよいが、図9の例において最も大きい誤差楕円を有するKF(q)を除外候補カルマンフィルタとして選択する。その後、プロセッサ23は第2の処理を実行する。図9の例において、プロセッサ23は、KF(q)が除外候補カルマンフィルタとして選択された回数が第1の値(例えば5回)に達した、すなわち初期化条件が満たされている場合に、KF(q)の対応付けを外して、KF(q)を初期化する。
 ここで、プロセッサ23は、同一の観測値に対応付けが行われた複数のカルマンフィルタの数が第2の値を超えた場合に、第1の処理及び第2の処理を実行してよい。第2の値は、任意に選択され得るが、図9の例において「2」である。第2の値は、同一の観測点に対応付けられる重複カルマンフィルタの数の上限値である。第2の値は、演算処理の負担軽減の観点から小さい数値であることが好ましいが、物体の追跡の処理におけるロバスト性を確保するため2以上に設定される。図9の例において、プロセッサ23は、重複カルマンフィルタの数が2を超えているため、第1の処理及び第2の処理を実行して、KF(q)を初期化する。重要度が相対的に低いKF(q)が対応付けから除外されることによって、プロセッサ23の演算処理の増大が防止される。また、KF(p)及びKF(r)が引き続き同一の観測点に対応付けられており、この観測点に対応する検出対象の位置の追跡においてロバスト性も確保される。
 図9の例において、除外候補カルマンフィルタとして1つのKF(q)が選択されたが、第1の処理で複数の除外候補カルマンフィルタが選択されてよい。同様に、第2の処理で初期化される除外候補カルマンフィルタが複数であってよい。除外候補カルマンフィルタの数は、重複カルマンフィルタの数と、上記の第2の値(同一の観測点に対応付けられる重複カルマンフィルタの数の上限値)と、に基づいて決定されてよい。例えば第2の値が「2」であって、重複カルマンフィルタの数が「5」の場合に、プロセッサ23は、第1の処理によって、これらの差である3つの除外候補カルマンフィルタを選択してよい。つまり、プロセッサ23は、第1の処理によって、相対的に誤差楕円が大きい3つのカルマンフィルタを、同一の観測点との対応付けから除外する候補として選択してよい。
 また、プロセッサ23は、上記の追跡物体ID管理において、第1の処理及び第2の処理を実行してよい。図10は、追跡物体ID管理における、同一の検出対象に対応付けられた重複カルマンフィルタのそれぞれの誤差楕円を示す図である。上記のように、同一の検出対象(1つの追跡物体IDを有する同一物体)に対応付けられた複数のカルマンフィルタを用いて検出対象の追跡の制御は並列に実行され得るが、演算処理が増大し得る。したがって、追跡物体ID管理において、重複カルマンフィルタ管理を実行することは好ましい。
 ここで、追跡物体ID管理における、同一の検出対象とカルマンフィルタとの対応付けは、例えばDBSCAN(density-based spatial clustering of applications with noise)などのクラスタリングによって行われる。図10に示すように、プロセッサ23は、複数のカルマンフィルタの誤差楕円の中心が所定範囲に含まれる場合に、それらのカルマンフィルタが1つのグループに属すると判定する。図10の例において、所定範囲は円で示されている。ここで、所定範囲は追跡物体の大きさに応じて変化してよい。例えば追跡物体が自動車40Bであれば、所定範囲は追跡物体が歩行者40Aである場合よりも大きく設定されてよい。また、所定範囲は、追跡物体の種類によらずに一定であってよい。クラスタリングの手法は、DBSCANに限定されない。例えばk-means法など、他の手法でクラスタリングが実行されてよい。
 図10の例では、同一の検出対象に3つのカルマンフィルタであるKF(p)、KF(q)及びKF(r)、が対応付けられている。図9の例と同様に、プロセッサ23は、第1の処理を実行して、相対的に大きい誤差楕円を有するカルマンフィルタを除外候補カルマンフィルタとして選択する。その後、プロセッサ23は第2の処理を実行する。図10の例において、プロセッサ23は、KF(q)が除外候補カルマンフィルタとして選択された回数が第1の値(例えば5回)に達した、すなわち初期化条件が満たされている場合に、KF(q)の対応付けを外して、KF(q)を初期化する。
 ここで、プロセッサ23は、図9の例と同様に、同一の検出対象に対応付けが行われた複数のカルマンフィルタの数が第2の値を超えた場合に、第1の処理及び第2の処理を実行してよい。第2の値は、上記のように「同一の観測点に対応付けられる重複カルマンフィルタの数の上限値」であって、一例として「2」である。図10の例において、プロセッサ23は、重複カルマンフィルタの数が2を超えているため、第1の処理及び第2の処理を実行して、KF(q)を初期化する。重要度が相対的に低いKF(q)が対応付けから除外されることによって、プロセッサ23の演算処理の増大が防止される。また、KF(p)及びKF(r)が引き続き同一の検出対象に対応付けられており、この検出対象の位置の追跡においてロバスト性も確保される。
 ここで、別の例として、プロセッサ23は、同一の検出対象に対応付けが行われた複数のカルマンフィルタの数が第3の値を超えた場合に、第1の処理及び第2の処理を実行してよい。第3の値は、「同一の検出対象に対応付けられる重複カルマンフィルタの数の上限値」であって、第2の値に関係なく設定される。例えば、プロセッサ23は、データアソシエーションにおいて、重複カルマンフィルタの数が第2の値(一例として「2」)を超えた場合に第1の処理及び第2の処理を実行し、追跡物体ID管理において、重複カルマンフィルタの数が第3の値(一例として「4」)を超えた場合に第1の処理及び第2の処理を実行してよい。
 プロセッサ23は、上記の実行のタイミング及び実行の条件を選択したり、組み合わせたりして、重複カルマンフィルタ管理を実行してよい。プロセッサ23は、例えばデータアソシエーション及び追跡物体ID管理において、第1の処理及び第2の処理を実行してよい。プロセッサ23は、例えばデータアソシエーションのみにおいて、重複カルマンフィルタの数が第2の値を超えた場合に、第1の処理及び第2の処理を実行してよい。また、プロセッサ23は、例えば追跡物体ID管理のみにおいて、重複カルマンフィルタの数が第3の値を超えた場合に、第1の処理及び第2の処理を実行してよい。
 以上のように、本実施形態に係る物体追跡装置20は、上記の構成によって、複数の検出対象の追跡過程における検出結果の重複を許容する。そのため、物体追跡装置20は、ミスアソシエーションの連鎖を生じさせることなく、複数の物体を高精度に追跡できる。また、本実施形態に係る物体追跡装置20は、物体を追跡する処理において、重複カルマンフィルタ管理も実行する。そのため、物体追跡装置20は、演算の負荷を増大させずに、物体を高精度に追跡できる。
 本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。例えば重複カルマンフィルタ管理は、プロセッサ23が実行する処理の各ステップを図3の物体追跡方法に含めることによって、方法としても実現される。
 上記の実施形態において、物体追跡システム1は、撮像装置10と、物体追跡装置20と、ディスプレイ30とを含むが、これらのうちの少なくとも2つが一体化した構成であってよい。例えば物体追跡装置20の機能は、撮像装置10に搭載することができる。このとき、撮像装置10は、撮像光学系11、撮像素子12及びプロセッサ13に加えて、上記の記憶部22、出力インターフェイス24を備えてよい。また、プロセッサ13は、撮像装置10が出力した動画像について、上記の実施形態においてプロセッサ23が行った処理を実行してよい。このような構成によって、物体の追跡を実行する撮像装置10が実現されてよい。
 本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車及び産業車両を含むが、これに限られず、鉄道車両及び生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車及びトロリーバスなどを含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業及び建設向けの産業車両を含む。産業車両には、フォークリフト及びゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン及び芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー及びロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。ここで、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 1   物体追跡システム
 10  撮像装置
 11  撮像光学系
 12  撮像素子
 13  プロセッサ
 20  物体追跡装置
 21  入力インターフェイス
 22  記憶部
 23  プロセッサ
 24  出力インターフェイス
 30  ディスプレイ
 40  物体
 40A 歩行者
 40B 自動車
 40C 自転車
 41  画像空間
 42  物体の像
 43  代表点
 44  基準面
 45  質点
 46  仮想空間
 100 車両

Claims (7)

  1.  センサデータを取得する入力インターフェイスと、
     前記センサデータから検出対象を検出し、前記検出対象及び観測値のそれぞれに対応付けが行われたカルマンフィルタを用いて、前記検出対象の追跡を行うプロセッサと、
     前記検出対象の検出結果を出力する出力インターフェイスと、を備え、
     前記プロセッサは、
      同一の検出対象又は観測値に対応付けが行われた複数の前記カルマンフィルタのうち確からしさが低いものを、前記対応付けから除外され得る除外候補カルマンフィルタとして選択する第1の処理と、
      初期化条件を満たした前記除外候補カルマンフィルタを前記対応付けから除外して初期化する第2の処理と、を実行する、物体追跡装置。
  2.  前記プロセッサは、前記カルマンフィルタの確からしさを誤差楕円の大きさにより判定する、請求項1に記載の物体追跡装置。
  3.  前記初期化条件は、前記除外候補カルマンフィルタとして選択された回数が第1の値に達することである、請求項1又は2に記載の物体追跡装置。
  4.  前記プロセッサは、同一の検出対象又は観測値に対応付けが行われた複数の前記カルマンフィルタの数が第2の値を超えた場合に、前記第1の処理及び前記第2の処理を実行する、請求項1から3のいずれか一項に記載の物体追跡装置。
  5.  前記プロセッサは、前記カルマンフィルタを前記観測値に対応付ける処理において、前記第1の処理及び前記第2の処理を実行する、請求項1から4のいずれか一項に記載の物体追跡装置。
  6.  前記プロセッサは、前記カルマンフィルタを前記検出対象に対応付ける処理において、前記第1の処理及び前記第2の処理を実行する、請求項1から5のいずれか一項に記載の物体追跡装置。
  7.  センサデータを取得することと、
     前記センサデータから検出対象を検出し、前記検出対象及び観測値のそれぞれに対応付けが行われたカルマンフィルタを用いて、前記検出対象の追跡を行うことと、
     前記検出対象の検出結果を出力することと、を含み、
     前記検出対象の追跡を行うことは、
      同一の検出対象又は観測値に対応付けが行われた複数の前記カルマンフィルタのうち確からしさが低いものを、前記対応付けから除外され得る除外候補カルマンフィルタとして選択する第1の処理と、
      初期化条件を満たした前記除外候補カルマンフィルタを前記対応付けから除外して初期化する第2の処理と、を含む、物体追跡方法。
PCT/JP2022/018330 2021-04-27 2022-04-20 物体追跡装置及び物体追跡方法 WO2022230738A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22795651.3A EP4332895A1 (en) 2021-04-27 2022-04-20 Object tracking device and object tracking method
CN202280031202.5A CN117355863A (zh) 2021-04-27 2022-04-20 物体跟踪装置及物体跟踪方法
US18/557,465 US20240212172A1 (en) 2021-04-27 2022-04-20 Object tracking device and object tracking method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-075289 2021-04-27
JP2021075289A JP2022169320A (ja) 2021-04-27 2021-04-27 物体追跡装置及び物体追跡方法

Publications (1)

Publication Number Publication Date
WO2022230738A1 true WO2022230738A1 (ja) 2022-11-03

Family

ID=83847039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/018330 WO2022230738A1 (ja) 2021-04-27 2022-04-20 物体追跡装置及び物体追跡方法

Country Status (5)

Country Link
US (1) US20240212172A1 (ja)
EP (1) EP4332895A1 (ja)
JP (1) JP2022169320A (ja)
CN (1) CN117355863A (ja)
WO (1) WO2022230738A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11321494A (ja) 1998-05-08 1999-11-24 Yazaki Corp 後側方監視装置
JP2019168953A (ja) * 2018-03-23 2019-10-03 株式会社豊田中央研究所 状態推定装置及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11321494A (ja) 1998-05-08 1999-11-24 Yazaki Corp 後側方監視装置
JP2019168953A (ja) * 2018-03-23 2019-10-03 株式会社豊田中央研究所 状態推定装置及びプログラム

Also Published As

Publication number Publication date
JP2022169320A (ja) 2022-11-09
EP4332895A1 (en) 2024-03-06
US20240212172A1 (en) 2024-06-27
CN117355863A (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
JP7140922B2 (ja) マルチセンサデータ融合方法、及び装置
US10937178B1 (en) Image-based depth data and bounding boxes
US11748909B2 (en) Image-based depth data and localization
US10984543B1 (en) Image-based depth data and relative depth data
JP2022553491A (ja) 車両ナビゲーション用のシステムおよび方法
US11782158B2 (en) Multi-stage object heading estimation
US11697412B2 (en) Collision monitoring using statistic models
JP4956453B2 (ja) 物体検出装置
CN114072841A (zh) 根据图像使深度精准化
CN1963867A (zh) 监视装置
CN114902070A (zh) 传感器退化检测和修复
JP2020052695A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
GB2608201A (en) Identifying objects using LiDAR
Verma et al. Vehicle detection, tracking and behavior analysis in urban driving environments using road context
JP2020067896A (ja) 進行可能方向検出装置及び進行可能方向検出方法
JP7226368B2 (ja) 物体状態識別装置
WO2022091595A1 (ja) 物体追跡装置及び物体追跡方法
WO2022230738A1 (ja) 物体追跡装置及び物体追跡方法
Siddiqui et al. Object/Obstacles detection system for self-driving cars
JP7425223B2 (ja) 物体追跡装置及び物体追跡方法
WO2022230739A1 (ja) 物体追跡装置
Gruyer et al. Target-to-track collaborative association combining a laser scanner and a camera
US20230252638A1 (en) Systems and methods for panoptic segmentation of images for autonomous driving
JP2022146384A (ja) 物体検出装置
JP2024037165A (ja) オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22795651

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280031202.5

Country of ref document: CN

Ref document number: 18557465

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2022795651

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022795651

Country of ref document: EP

Effective date: 20231127