WO2019116518A1 - 物体検出装置及び物体検出方法 - Google Patents

物体検出装置及び物体検出方法 Download PDF

Info

Publication number
WO2019116518A1
WO2019116518A1 PCT/JP2017/044965 JP2017044965W WO2019116518A1 WO 2019116518 A1 WO2019116518 A1 WO 2019116518A1 JP 2017044965 W JP2017044965 W JP 2017044965W WO 2019116518 A1 WO2019116518 A1 WO 2019116518A1
Authority
WO
WIPO (PCT)
Prior art keywords
measurement
model
models
estimated
trajectory model
Prior art date
Application number
PCT/JP2017/044965
Other languages
English (en)
French (fr)
Inventor
聡 笹谷
秀行 粂
亮祐 三木
誠也 伊藤
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2017/044965 priority Critical patent/WO2019116518A1/ja
Publication of WO2019116518A1 publication Critical patent/WO2019116518A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant

Definitions

  • the present invention relates to object detection.
  • the information measured by the measuring device has increased the need for an object detection technique for detecting an object.
  • a measuring device a surveillance camera, a stereo camera, a distance sensor, a laser radar, an infrared tag, and the like are often used.
  • Each measuring device has advantages and disadvantages.
  • laser radar can measure a person in a wide range and with high accuracy, it is more expensive than other devices, and it is difficult to detect an object in a densely crowded environment where the laser itself is blocked. There is a problem called.
  • surveillance cameras and stereo cameras have the problem that the measurement range is narrower than lasers, but have the advantage that they are robust to the scene of shielding and the like, and the cost of the apparatus is low.
  • the measuring device to be used may be limited depending on the cost and the environment of the installation place, and it is not easy to obtain the expected measurement accuracy. Therefore, there are many cases where a technician or the like visits the site and adjusts parameters such as a threshold value used for object detection for a long time in order to maintain measurement accuracy.
  • a measurement parameter group (one or more measurement parameters that affect the measurement result from the measurement device) that is optimal for the installation environment is required.
  • a measurement parameter group one or more measurement parameters that affect the measurement result from the measurement device
  • Patent Document 1 by additionally providing a high accuracy laser radar, supervised learning data is automatically generated such that the measurement accuracy of the camera is maximized.
  • Patent Document 1 in the learning stage, learning data is not used (does not affect) in the measurement results from the camera, and a high-accuracy measuring device such as a laser radar is essential in order to prepare accurate learning data. Be done. For this reason, it is necessary to temporarily set up another measuring device separately from commonly used measuring devices such as a camera. However, in situations where the installation environment of the measurement device as described above is limited, it is difficult to temporarily attach another measurement device, and even if it can be attached, costs such as installation cost and overall system cost increase. I am concerned.
  • Patent Document 1 in order to enable object recognition without a high-precision measurement device, learning data is prepared in combination with a high-accuracy measurement device, but object recognition is performed by relying on such learning data. Is done. For this reason, object recognition may be inaccurate if at least some of the training data is incomplete.
  • Patent Document 1 does not disclose or suggest a technique for optimizing created learning data.
  • the present invention is an invention for solving the above-mentioned problems, and it is an object of the present invention to provide an object detection technique for detecting an object with high accuracy regardless of the installation environment.
  • the object detection apparatus uses the measurement parameter group, which is one or more measurement parameters, periodically or based on measurement information representing information periodically or irregularly measured about the measurement range by the measurement apparatus. Periodically acquire measurement results of one or more objects.
  • the object detection apparatus generates one or more measurement models which are one or more models represented by the measurement result based on the measurement result when the measurement result is acquired, and one or more estimated in the measurement range. Obtain one or more estimated models that are models.
  • the object detection apparatus determines a measurement model and an estimation model to be compared from the generated one or more measurement models and the acquired one or more estimation models, and a result of comparison between the determined measurement model and the estimation model Change the measurement parameter group based on.
  • an object can be detected with high accuracy regardless of the installation environment.
  • FIG. 1 is a functional block diagram of an object detection apparatus according to a first embodiment of the present invention.
  • the functional block diagram of a measurement result acquisition part The figure which shows the parallax image in the three-dimensional information which the object measurement part acquired. The figure which shows the background difference process by an object measurement part. The figure which shows the viewpoint conversion process by an object measurement part. The figure which shows determination of the positional information on each person in a bird's-eye view image. The figure explaining the processing content of a measurement result output part. The figure which shows an example of the output result by a measurement result output part. The figure which illustrates the processing content of an environmental model generation part. The figure which illustrates the processing content of the presumed locus model acquisition part. The functional block diagram of a locus
  • FIG. 9 is a view for explaining the processing contents of S1 of FIG. 8;
  • the figure which shows an example of the measurement result utilized by S2 of FIG. The figure which shows an example of the environment map utilized by S2 of FIG.
  • the figure which shows an example of the measurement result utilized by S3 of FIG. The figure which shows an example of the relationship between missing information and the temporary locus
  • generated in S3 of FIG. The figure which shows an example of the presumed locus
  • the "interface unit” may be one or more interfaces.
  • the one or more interfaces may be one or more same type communication interface devices (for example, one or more NICs (Network Interface Card)) or two or more different type communication interfaces devices (for example, NIC and HBA (Host Bus Adapter) ) May be.
  • NICs Network Interface Card
  • HBA Home Bus Adapter
  • the “memory unit” is one or more memories, and may typically be a main storage device. At least one memory in the memory unit may be volatile memory or non-volatile memory.
  • the “PDEV section” is one or more PDEVs and may typically be an auxiliary storage device.
  • “PDEV” means a physical storage device (Physical storage device), and is typically a non-volatile storage device, such as a hard disk drive (HDD) or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the “storage unit” is at least one of the memory unit and the PDEV unit (typically, at least the memory unit).
  • the “processor unit” is one or more processors.
  • the at least one processor is typically a microprocessor such as a central processing unit (CPU), but may be another processor such as a graphics processing unit (GUP).
  • At least one processor may be single core or multi-core.
  • the at least one processor may be a processor in a broad sense such as a hardware circuit (for example, a field-programmable gate array (FPGA) or an application specific integrated circuit (ASIC)) that performs part or all of the processing.
  • FPGA field-programmable gate array
  • ASIC application specific integrated circuit
  • the function may be described by the expression “kkk unit” (except for the interface unit, storage unit and processor unit), but one or more computer programs are executed by the processor unit for the function. May be realized by one or more hardware circuits.
  • the program is executed by the processor unit to implement the function, the defined process is appropriately performed using the storage unit and / or the interface unit, etc., so that the function is at least a part of the processor unit. It is good.
  • the processing described with the subject as a function may be processing performed by a processor unit or an apparatus including the processor unit.
  • the program may be installed from a program source.
  • the program source may be, for example, a program distribution computer or a computer-readable recording medium (eg, non-transitory recording medium).
  • the description of each function is an example, and a plurality of functions may be combined into one function, or one function may be divided into a plurality of functions.
  • information may be described by an expression such as “xxx table”, but the information may be expressed by any data structure. That is, to indicate that the information does not depend on the data structure, the "xxx table” can be called “xxx information”.
  • the configuration of each table is an example, and one table may be divided into two or more tables, or all or part of two or more tables may be one table. good.
  • the “parameter group” is one or more parameters.
  • FIG. 1 is a functional block diagram of an object detection apparatus according to a first embodiment of the present invention.
  • the object detection device 1 is a device that automatically adjusts at least a part of a measurement parameter group that affects measurement results of a stereo camera using a stereo camera in which two cameras 2 (imaging devices) are adjacent as a measurement device. is there.
  • a stereo camera is used as a measuring device, but the application destination of the present invention is a device capable of object detection, and a measurement parameter group used for object detection and affecting measurement results is There is no particular limitation as long as the device exists.
  • at least one of functions 3 to 6 is, for example, at least one of a camera having a processor unit and a storage unit, and a computer (a computer having a processor unit and a storage unit) prepared separately from the camera. Is possible.
  • the object detection device 1 includes an image acquisition unit 3, a measurement result acquisition unit 4, an environment model generation unit 5, an estimated trajectory model acquisition unit 6 (an example of an estimated model acquisition unit), and a trajectory model association unit 7 (a model association unit An example), a parameter change unit 8, and a final parameter output unit 9.
  • the image acquisition unit 3 is a function of acquiring an image from the camera 2.
  • the measurement result acquisition unit 4 is a function of acquiring a measurement result using the measurement parameter group 300.
  • the environment model generation unit 5 is a function of generating an environment map in which structure information of the measurement range and entrance / exit information are described from information on the environment in which the object detection device 1 is installed.
  • the estimated trajectory model acquisition unit 6 is a function of acquiring an estimated trajectory model representing a flow line (flow line of an object) predicted from the generated environment model.
  • the trajectory model associating unit 7 is a function of associating the measurement result with the estimated trajectory model.
  • the parameter change unit 8 is a function of changing at least a part of measurement parameters of the measurement parameter group 300 based on the result of association by the function 7.
  • the final parameter output unit 9 is a function of outputting a measurement parameter group determined to be optimum by the parameter change unit 8. The details of each function will be described below.
  • an object detection target is a person.
  • the image acquisition unit 3 exists for each camera 2 and acquires digital image data from the corresponding camera 2 of the two cameras 2.
  • digital image data acquired by the image acquisition unit 3 from the camera 2 is referred to as a “captured image”.
  • the measurement result acquisition part 4 by a stereo camera is demonstrated using FIG.
  • the measurement result acquisition unit 4 acquires a three-dimensional information acquisition unit 10 that acquires three-dimensional information from the captured images acquired from the image acquisition unit 3 using the measurement parameter group 300, and a measurement range from the acquired three-dimensional information
  • the object measurement unit 11 performs object detection and object position measurement in the above, and the measurement result output unit 12 outputs the acquired object detection and position measurement results.
  • the measurement parameter group 300 is one or more measurement parameters.
  • the measurement parameters are all the parameters that affect the measurement accuracy such as object detection to some extent by changing the values.
  • the measurement parameter group 300 indicates at least a part of an internal parameter group of the camera, an external parameter group, and a threshold parameter group used for human detection.
  • the detailed contents of the three-dimensional information acquisition unit 10, the object measurement unit 11, and the measurement result output unit 12 will be described.
  • the three-dimensional information acquisition unit 10 calculates disparity using a general method such as block matching.
  • the three-dimensional information acquisition unit 10 performs distortion correction processing using the camera internal parameter group, the distortion coefficient parameter group, and the external parameter group included in the measurement parameter group 300. After removing lens distortion of a captured image of a sheet, correction is performed as preprocessing so that objects in the image have the same height when two images are arranged horizontally by parallelization processing. Then, the three-dimensional information acquisition unit 10 compares the respective captured images, searches for a small area having a certain size that minimizes the degree of difference, and calculates the parallax from the search width.
  • Equation 1 SAD (Sum of Absolute Difference) shown in (Equation 1), and it is not particularly limited.
  • T 1 is the brightness value of the small area (reference image)
  • T 2 is the brightness value of the small area (comparison image)
  • M is the width of the small area
  • N is the vertical width of the small area
  • (i, j) are coordinates (upper left (0, 0), lower right (M-1, N-1)).
  • it is a method which can calculate the parallax in two images besides this example, it will not specifically limit.
  • the three-dimensional information acquisition unit 10 calculates coordinate values of the point group in the three-dimensional space from the calculated parallax and the external parameter group included in the measurement parameter group 300.
  • a calculation method of point cloud coordinates for example, camera coordinates Xc and world coordinates Xw are sequentially converted and found using coordinate information of a captured image and a parallax value using (Equation 2) and (Equation 3) Common methods can be used.
  • the world coordinates Xw obtained by (Equation 3) are three-dimensional information acquired by the three-dimensional information acquisition unit 10. Further, in the three-dimensional information acquisition unit 10, values such as the size of the small area and the search width used to calculate the parallax may be treated as the measurement parameter group 300.
  • Equation (2) (u, v) are image coordinates, (u 0 , v 0 ) is the image center, b is a base length, and f is a focal length, pit is a pixel pitch. Also, in Equation 3, R is a rotation matrix, and t is a translation vector.
  • 3A to 3D illustrate an example of a flow in which the object measurement unit 11 detects a person (an example of an object) using three-dimensional information acquired from the three-dimensional information acquisition unit 10 and measures the position of the person. It shows.
  • reference numerals 20a and 20b indicate persons to be measured
  • reference numeral 21 indicates a product shelf which is an example of an object not to be measured
  • reference numeral 22 indicates a distance value from the camera 2 to the object. Shows a parallax image showing each pixel. As shown in FIG. 3A, the three-dimensional information includes a parallax image 22. In the parallax image 22, it is assumed that persons 20a and 20b to be measured and a commodity shelf 21 not to be measured exist. Hereinafter, when not distinguishing a person, it may describe with "person 20.”
  • the object measurement unit 11 first extracts the regions of the persons 20a and 20b by the background difference processing shown in FIG. 3B.
  • reference numeral 23 indicates a background parallax image acquired in advance. Only the product shelf 21 is present in the background parallax image 23. Therefore, by taking the difference between the input parallax image 22 in which the persons 20a and 20b and the product shelf 21 exist and the background parallax image 23 in which only the product shelf 21 exists, a person area in which only the persons 20a and 20b exist The parallax image 24 shown can be created.
  • the object measuring unit 11 distinguishes the person 20 from the person area (parallax image 24) by the viewpoint conversion process shown in FIG. 3C, and acquires three-dimensional information of each person 20.
  • reference numeral 25 denotes three-dimensional information of the person 20 estimated from the image coordinates of the parallax image 24 and the distance information
  • reference numeral 26 denotes a bird's eye view of the three-dimensional information 25 viewed from directly above Show.
  • a general method such as perspective projection using camera parameters can be used. Then, as shown in FIG.
  • the object measurement unit 11 calculates the coincidence between the three-dimensional information template 27 of the person 20 in the overhead image 26 and the three-dimensional information of each person 20 in the overhead image 26 If it exceeds the threshold (threshold parameter), it is determined that a person is present, and a person whose degree of coincidence with the three-dimensional information template 27 exceeds the threshold is detected as the person 20.
  • the threshold threshold parameter
  • the object measurement unit 11 measures the position information of the person from the detected three-dimensional information of the person 20.
  • a measurement method for example, as shown in FIG. 3D, the x value and z value of barycentric coordinates 28a and 28b (the barycentric coordinates 28a and 28b of three-dimensional information) respectively corresponding to the persons 20a and 20b in the overhead image 26
  • the barycentric coordinates may be described as "the barycentric coordinates 28".
  • the density of point groups in a distant area is low, so the detection accuracy of a person who is far away tends to decrease. In the example of FIGS.
  • the person 20a is a person The detection accuracy is lower than 20b. Therefore, the detection accuracy of a distant person can be improved by correcting the three-dimensional point group information, and there is also a method of interpolating the point group by a general dilation processing, for example.
  • the measurement parameter group 300 to be optimized in the present embodiment is more effective as it is a parameter group used for processing that is closely related to such detection accuracy, and in the present embodiment, a person The threshold parameter of the coincidence degree or the number of times of execution of the point group dilation processing may be treated as part of the measurement parameter group 300.
  • the object measurement unit 11 only needs to be a method that can detect a person using three-dimensional information or image information and measure the position, and the number and types of measurement parameters to be used There is no particular limitation.
  • the measurement result output unit 12 will be described with reference to FIGS. 4A and 4B.
  • the person of the person 20 for which the x value and the z value of the barycentric coordinates 28 are determined is referred to as “person 28” for convenience. Therefore, the person 28a corresponds to the person 20a, and the person 28b corresponds to the person 20b.
  • reference numeral 26a indicates a bird's-eye view image indicating the positions of the persons 28a and 28b at time T
  • reference numeral 26b indicates a bird's-eye view image indicating the positions of the persons 28a and 28b at time T + 5.
  • reference numeral 31 denotes an example of the measurement result to be output.
  • the measurement result output unit 12 outputs a measurement result table 31 in which the result of each measurement item for each time is described.
  • FIG. 4B shows an example in which position information of the person 28 on the overhead image 26 and number information of the person 28 within the measurement range are output.
  • a tracking method there is a method of extracting and tracking image feature amounts such as edge information and color information in a person, and information of a three-dimensional shape, or a person with the smallest Euclidean distance with position information measured in the past. It may be a general method such as tracking as a person and is not particularly limited. If tracking of the same person fails, it may be determined that another person 28c has newly appeared, and position information of the person 28c may be added to the measurement result table 31.
  • the measurement item may be another item, and is not limited to a person or the like, and is not particularly limited, such as the number of moving objects detected for detecting a moving object within the measurement range, rectangle information surrounding a person on a captured image, walking speed, and the like.
  • the environment model generation unit 5 will be described using FIG.
  • the environment model generation unit 5 creates an environment map using environment information at the installation place of the stereo camera which is a measuring device.
  • the environment information is CAD data or map information of the measurement range, and, for example, a person area in the measurement range (an area where a person can exist (colorless part)) and a non-person area (walls or other obstacles)
  • the information is not particularly limited as long as it is information that can create a two-dimensional map 40 in which areas (colored parts) where a person can not exist can be distinguished due to the reason.
  • the environment model generation unit 5 generates a two-dimensional map 40 based on the environment information.
  • the environment model generation unit 5 divides the two-dimensional map 40 into a plurality of sections by dividing the person area in the two-dimensional map 40 into a plurality of sections (for example, a plurality of sections having the same shape and the same area).
  • the two-dimensional map 41 including the divided person area is updated.
  • the section size and the number of sections are not particularly limited, and may be designated by the user or the like in consideration of the fact that the overall amount of calculation increases as the size of the sections is reduced and the number of sections is increased.
  • the environment model generation unit 5 generates an environment map 42 in which the entry / exit point is added to the map in which the section numbers are assigned to each of the plurality of sections.
  • a to H indicate entrance points which are places where a person must pass when moving into the measurement range, and a method of automatically estimating from environmental information, a method of user's manual input, etc. Use to determine.
  • the division number is not allocated or the entry point is deleted etc. A correction process may be added.
  • the estimated trajectory model acquisition unit 6 acquires an estimated trajectory model of a flow line that a person is expected to pass from the information on the section where the person is present in the environment map 42 and the entry / exit point. Specifically, for example, between two entrance points under the assumption that “a person travels in the shortest route between entrance points” and “there is no movement between the same entrance point or nearby entrance points”. Estimate the combination of estimated trajectory models as the shortest path problem in. “There is no movement between nearby entry and exit points” in the second assumption means that it does not consider entering and exiting entry and exit points in the same direction in the same direction, and the environment map 42 The relationship between A and B, C and D, E and F, and G and H is shown.
  • a plurality of shortest paths are calculated at reference numeral 50.
  • lower case alphabets such as a, b,... Described by the route (line) mean sections through which a person can pass on the environment map 42 (see FIG. 5).
  • the path extending from A directly below and then turning to the right to reach H is a path from A ⁇ c ⁇ e ⁇ i ⁇ o ⁇ u ⁇ v ⁇ w ⁇ x to reach H. is there.
  • the estimated trajectory model acquisition unit 6 can acquire a plurality of estimated trajectory models 51 (combination of the estimated trajectory models 51) respectively corresponding to the plurality of shortest paths.
  • the estimated trajectory model 51 can estimate a total of 51 estimated trajectory models 51.
  • all estimated trajectory models can be acquired by calculating a combination of routes according to the shortest route problem between the entrance and exit points except the second assumed condition.
  • all estimated trajectory models may be used, but some are selected randomly to reduce the calculation cost.
  • the estimated trajectory model that follows the opposite route may be deleted. Further, as shown in FIG.
  • the number of combinations is reduced by acquiring a combination of estimated trajectory models by the shortest path problem using the environment map 52 after integrating a plurality of sections and entry points.
  • the assumption when acquiring the estimated trajectory model is not particularly limited to the two mentioned above, and the user side may newly set according to the measurement environment. For example, in the case where there is only one entry / exit point, a combination of paths traveling between the same entry / exit points may be used as the estimated trajectory model.
  • the measurement environment if there is a point that the user always wants to measure, etc., it is possible to plot in advance on the environment map and use all routes calculated by the shortest path problem between the plotted point and each entrance point as the estimated trajectory model .
  • FIG. 7 shows the configuration of the trajectory model associating unit 7.
  • the trajectory model association unit 7 generates a measurement trajectory model using the measurement result acquired from the measurement result acquisition unit 4 and the environment map output from the estimated trajectory model acquisition unit (a measurement trajectory model generation unit 60 (measurement model) An example of a generation unit), a measurement trajectory model selection unit 61 for selecting a highly reliable measurement trajectory model from among the generated measurement trajectory models, and an estimated trajectory model corresponding to the selected measurement trajectory model (estimated trajectory model acquisition unit 6 has a corresponding trajectory model determination unit 62 that determines an estimated trajectory model) among the plurality of estimated trajectory models acquired according to S.6.
  • FIG. 8 shows a process flow of the measurement trajectory model generation unit 60.
  • the measurement trajectory model generation unit 60 converts the coordinate information by aligning the position coordinate information of the measurement result to the environment map space (S1), and based on the converted coordinate information and the time information of the measurement result, a provisional trajectory model Generate (S2). Then, the measurement trajectory model generation unit 60 corrects the temporary trajectory model from the information of the measurement result (S3), and outputs the corrected temporary trajectory model as a final measurement trajectory model (S4).
  • a method of correcting a provisional trajectory model in the measurement trajectory model generation unit 60 that is, an example of S1 to S3 will be described.
  • the measurement trajectory model generation unit 60 performs alignment processing for converting coordinate information (x, z) on the overhead image in the measurement result into the coordinate space of the environment map.
  • the alignment method is, for example, as follows. First, the measurement trajectory model generation unit 60 arranges persons at positions plotted at four points 70a, 70b, 70c and 70d in advance on the overhead image 26, and measures the positions of the persons by the measurement device, Coordinate information (x a , z) on the overhead image 26 is calculated. Next, the measurement trajectory model generation unit 60 also calculates coordinate information (x b , y) of the points 71a, 71b, 71c, 71d of the same four people as described above in the environment map 42.
  • the measurement trajectory model generation unit 60 can calculate the perspective transformation matrix of different two-dimensional coordinate axes by using four corresponding points, and the coordinate space on the overhead image 26 and the environment map can be calculated by the calculated matrix. It is possible to associate 42 coordinate spaces.
  • the points 71a to 71d are associated with the points 70a to 70d, respectively.
  • a method other than general perspective transformation may be used, and it is not particularly limited.
  • the measurement trajectory model generation unit 60 creates a temporary trajectory model by arranging the position information of the measurement result converted in S1 as shown in FIG. 10A according to time series information. Specifically, for example, measurement trajectory model generation unit 60 first plots position coordinates P 1 to P 8 on environment map 42 as shown in FIG. 10B (hereinafter, position coordinates P 1 to P 8 are not distinguished. In some cases, it may be collectively referred to as "coordinate P"). Then, the measurement trajectory model generation unit 60 determines in which section of the sections a to x on the environment map 42 the plotted coordinates P are included.
  • the measurement trajectory model generation unit 60 outputs the sections corresponding to the position information determined to be the same person by the measurement result acquisition unit 4 for each time series, thereby three temporary trajectory models as shown in FIG. 10C. You can get
  • the measurement trajectory model generation unit 60 corrects the temporary trajectory model generated in S2 using the information of the measurement result and the missing information.
  • information on measurement results to be used for example, as shown in the table shown in FIG. 11A, there are two pieces of position information (position information for each person) and the number of moving objects detected for each time.
  • the “moving object detection number” is the detection number calculated from general moving object detection, and is not the number of P in the record in the table of FIG. 11A.
  • the moving body detection method is not particularly limited, and a conventional method of detecting as a moving body when the size of the area where the pixel value fluctuation in the image occurs is equal to or more than a certain threshold using background difference etc. is used.
  • missing information of the temporary trajectory model used in S3 will be described.
  • the “missing information” is defined by three elements such as a missing state, a missing position, and a missing time in the trajectory of the same person.
  • the "missing state” means which range is missing.
  • first half means that the track starts in the middle
  • second half means that the track ends in the middle
  • both means that the track starts from the middle Means that it is broken (that is, it means that it corresponds to both the “first half” and “the second half”)
  • none means that the trajectory is not broken.
  • missing position means a position at which it is estimated that the trajectory is broken
  • missing time means time at which it is estimated that the trajectory is broken.
  • the measurement trajectory model generation unit 60 checks the section numbers (two section numbers) of both ends in the temporary trajectory model, and determines the missing state based on whether or not there is an entrance / exit point in each section.
  • the missing information in each temporary trajectory model of FIG. 10C is shown in FIG. 11B.
  • the “latter half” is assigned to the temporary trajectory model “1”.
  • the temporary trajectory model "2” "none” is assigned because both the sections x and s have entry points.
  • the temporary trajectory model "3" is assigned the "first half” because there is no entrance / exit point in the section g.
  • the measurement trajectory model generation unit 60 uses these pieces of missing information to determine whether a plurality of temporary trajectory models can not be integrated into one temporary trajectory model.
  • the combination pattern in the missing state is only two types shown in FIG. 11C. If these combination patterns hold and the difference between the missing position and the missing time is equal to or less than the threshold, the measurement trajectory model generation unit 60 determines and integrates the temporary trajectory model of the same person.
  • the provisional trajectory model can be corrected with higher accuracy.
  • the provisional trajectory model may be corrected using only the missing information of the provisional trajectory model without using the consistency of the measurement result information.
  • using the correction method of decomposing the temporary measurement model if the difference is greater than the threshold value by holding the walking speed and the traveling direction as information of the measurement result and comparing the block numbers in the temporary trajectory model. good.
  • the detection results of the human body detection of the stereo camera and the moving body detection of the image are compared to confirm the consistency of the measurement results, but two different detection methods exist and there is superiority or inferiority in both accuracy.
  • the method is not particularly limited as long as the trajectory model can be corrected by integrating and decomposing the temporary trajectory model.
  • the measurement trajectory model selection unit 61 selects a highly reliable measurement trajectory model from among the measurement trajectory models created by the measurement trajectory model creation unit 60.
  • a method of calculating the reliability of the measurement trajectory model there is a method of increasing the reliability as the measurement trajectory model is longer, a method of judging that only the measurement trajectory model in which all the sections in the trajectory are different has high reliability, and a measurement device
  • a method of increasing the reliability of the measurement trajectory model including a large number of sections and is not particularly limited. Also, measurement results may be used to calculate the reliability.
  • the method of increasing reliability because it is highly likely to be a trajectory model of a person. Also, if it is the same person, the walking speed and the walking direction are determined to be constant to some extent, and the walking speed and walking direction in each section of the measurement trajectory model are maintained, so that the walking speed of each section is dispersed. There is also a method of determining the trajectory of the same person as the smaller model and increasing the reliability, and a method of reducing the reliability of the measurement trajectory model in which the change in the walking direction is large.
  • a method may be considered in which the reliability of the measurement trajectory model that has been present for a long time in the measurement range is reduced. Note that a method of selecting a highly reliable measurement trajectory model using a plurality of methods of calculating reliability may be used.
  • the correspondence trajectory model determination unit 62 will be described with reference to FIGS. 12A to 12C.
  • the corresponding trajectory model determination unit 62 associates the estimated trajectory model shown in FIG. 12A with the measurement trajectory model shown in FIG. 12B.
  • the following process can be performed. That is, the corresponding trajectory model determination unit 62 performs the following process for each measurement trajectory model.
  • One measurement trajectory model (“target measurement trajectory model” in the description of FIGS. 12A to 12C) is taken as an example.
  • the corresponding trajectory model determination unit 62 counts the number n of sections included in the target measurement trajectory model, and extracts an estimated trajectory model in which the number of sections is the same n.
  • the same route is the same means that the order of the sections passed is the same, and the sections may be missed.
  • the measurement trajectory model "1" does not include the section d
  • the order is the same except for the section d
  • the estimated trajectory model "2" and the measurement trajectory model "1 It is determined that the route of “is the same.
  • the above-described (a) to (d) are carried out by repeatedly performing these search processes while increasing the value of the number of blocks n one by one until the estimated trajectory model corresponding to the measurement trajectory model is found. (C), the correspondence between the measured trajectory model and the estimated trajectory model can be determined.
  • trajectory model by this search process is excluded as nothing applicable.
  • the corresponding trajectory model determination unit 62 reduces the number of estimated trajectory models to be held by deleting the estimated trajectory model that follows the opposite route (route), the corresponding trajectory is temporarily estimated.
  • a trajectory model may be generated and associated with the measurement trajectory model.
  • the method is not particularly limited as long as there is a method of correlating the trajectory model.
  • association as referred to herein may be to determine (select) an estimated trajectory model to be compared with the target measurement trajectory model for parameter change (parameter optimization) in a later stage.
  • finding the estimated trajectory model to be compared with the target measurement trajectory model may be “association” as referred to here, and there may be no special association such as linking between the models.
  • FIG. 13 shows the process flow of the parameter change unit 8.
  • the parameter changing unit 8 calculates the matching degree ⁇ of the measured trajectory model and the estimated trajectory model correlated by the trajectory model correlating unit 7 (S10), and determines whether the calculated ⁇ is equal to or more than a threshold (S11) . Then, if ⁇ is less than the threshold (S11: N), the parameter changing unit 8 changes at least a part of the parameters of the measurement parameter group 300 to different values (S12), and the changed measurement parameter group 300 Are sent to the measurement result acquisition unit 4 and the process ends (S13). On the other hand, if ⁇ is equal to or greater than the threshold (S11: Y), the parameter changing unit 8 determines that the measurement parameter group 300 is the optimum parameter group, passes it to the final parameter output unit 9, and ends (S14). As described above, when ⁇ is equal to or more than the threshold value, parameter change is not performed, so the amount of calculation can be reduced.
  • a method of changing the measurement parameter group 300 in S12 there is a method of simultaneously changing a plurality of measurement parameters within a preset range, and a method of changing one measurement parameter one by one, and is not particularly limited.
  • the range in which the measurement parameter is changed is limited to a certain range (for example, a certain range before and after the initial value based on the knowledge of the user). good. Thereby, divergence of the measurement parameter can be prevented.
  • the final parameter output unit 9 outputs (for example, displays) the measurement parameter group 300 received from the parameter change unit 8 as a final parameter group.
  • the object detection apparatus 1 generates a measurement trajectory model created from measurement results using initial measurement parameter groups, and environment information indicating the installation environment of the measurement device, etc. By comparing the estimated trajectory model estimated from the above and optimizing the measurement parameter group so that the two models become equal. This can be expected to detect an object with high accuracy in any installation environment.
  • the parameter changing unit 8 is a flow of passing the measurement parameter group 300 to the final parameter output unit 9 when the degree of coincidence ⁇ between the estimated trajectory model and the measurement trajectory model becomes equal to or greater than the threshold.
  • a flow of calculating the degree of coincidence ⁇ using values of all measurement parameters within a preset range and passing the measurement parameter indicating the largest degree of coincidence ⁇ to the final parameter output unit 9 An optimization process may be performed. By executing this process, it is possible to automatically estimate the measurement parameter optimum for the installation environment. For example, calculation is performed only for the process of optimizing the measurement parameter for a while after installation of the measurement device.
  • the parameter changing unit 8 may change the number of sections of the environment map when changing the measurement parameter group 300 (for example, each time N times (N is a natural number)). For example, by gradually increasing the number of sections (for example, in the first to M-th (M is an integer of 2 or more) parameter change), the first half can associate rough trajectory models to obtain the optimum measurement parameter range. In the second half, the detailed trajectory model is associated (for example, in the (M + 1) th and subsequent parameter changes), and resources for optimization processing can be reduced by determining measurement parameter groups.
  • a parameter to be optimized in consideration of the missing information of the flow line of the measurement trajectory model is selected. It is good.
  • a parameter to be optimized may be selected based on the attribute of segment loss (for example, the tendency of the missing segment) regarding the measurement trajectory model.
  • the attribute is (a) whether or not the missing section is biased in the near range or the far range of the camera, and (b) the missing section in the left-right direction with respect to the optical axis of the camera At least one of whether or not there is a bias, and (c) whether the missing sections are totally sparse or not.
  • the external parameters of the camera for converting the camera coordinates into world coordinates in the three-dimensional information acquisition unit 10
  • the tilt angle and the height of the camera There are a method of changing parameters such as the size of a small area and the search width used for block matching at the time of calculation of parallax.
  • the roll angle of the external parameter of the camera there is a method of changing the roll angle of the external parameter of the camera.
  • all of the estimated trajectory models 51 for the environment map 42 are prepared in advance by executing the functions 5 and 6 in advance, and the estimated trajectory model table indicating the prepared estimated trajectory models 51 is stored. It may be stored in a department. Also, functions 4, 7 and 8 may be performed on a regular basis. For example, by executing the functions 4, 7 and 8 every fixed period, a measured trajectory model in the fixed period is generated from the photographed image obtained from the measuring device in the fixed period, and the measured trajectory model And one of the estimated trajectory models may be associated with each other.
  • the measurement parameter group 300 used by the function 4 for a certain period is the measurement parameter group changed (optimized) in the previous constant period.
  • a plurality of estimated trajectory models may be prepared (stored in the storage unit) in advance.
  • Example 2 will be described. At that time, the differences from the first embodiment will be mainly described, and the description of the points in common with the first embodiment will be omitted or simplified.
  • one measuring device such as a stereo camera (two cameras 2 and 2) is employed, but in the present embodiment, a plurality of measuring devices are employed.
  • FIG. 14 is a functional block diagram of an object detection apparatus according to a second embodiment of the present invention.
  • the object detection device 80 is a device that automatically optimizes the measurement parameter group 300 'of each measurement device 81 when performing object detection using a plurality of measurement devices 81.
  • the object detection apparatus 80 generates a measurement trajectory model from the measurement results of each measurement device 81, calculates the reliability of the trajectory model from the characteristics of each measurement device 81, and then correlates those trajectory models with each other.
  • the additional measurement parameter group 300 ' is changed.
  • the measurement result acquisition unit 4 ′, the measurement trajectory model generation unit 60 ′, and the trajectory model association unit 7 ′ substantially follow the function in the first embodiment, and the parameter change unit 8 and the final parameter
  • the output unit 9 has the same function as that of the first embodiment.
  • the information acquisition unit 82 is a function of acquiring measurement information (information measured by the measurement device 81) output from the measurement device 81 and characteristic information of the measurement device 81.
  • the measurement trajectory model reliability calculation unit 83 is a function of calculating the reliability of the measurement trajectory model generated from the measurement result of the measurement device 81 based on the characteristic information of the measurement device 81 acquired by the information acquisition unit 82.
  • first measuring device 81 there are functions 82, 4 ', 60' and 83 for each measuring device 81, one measuring device 81 is taken as an example.
  • This measuring device 81 is referred to as "first measuring device 81" in the description of FIG.
  • the first measuring device 81 there are a measurement trajectory model and an estimated trajectory model.
  • the measurement trajectory model for the first measurement device 81 is a model acquired based on the measurement information from the first measurement device 81.
  • the estimated trajectory model for the first measurement device 81 is the measurement trajectory model having the highest reliability among the measurement trajectory models acquired based on the measurement information from any of the second measurement devices 81.
  • the “second measuring device 81” is any measuring device 81 other than the first measuring device 81. In the present embodiment, since there are two measuring devices 81, the second measuring device 81 is uniquely determined. When the number of measuring devices 81 is three or more, the second measuring device 81 is any one of two or more measuring devices other than the first measuring device 81. Of the two or more measuring devices other than the first measuring device 81, the estimated trajectory model for the first measuring device 81 is one of the two or more estimated trajectory models corresponding to the two or more measuring devices 81. It may be a measuring device from which the estimated trajectory model with the highest reliability is obtained.
  • the information acquisition unit 82 acquires measurement information and characteristic information of the first measurement device 81.
  • the first measurement information is an image (captured image) when the first measurement device 81 is a camera, and is distance information when the first measurement device 81 is a TOF (Time Of Flight) sensor.
  • the first measuring device 81 is a laser radar, it is three-dimensional point cloud information.
  • the characteristic information of the first measuring device 81 refers to information related to the characteristics of the first measuring device 81, for example, the installation environment of the first measuring device 81, compatibility with the installation location (for example, the first measuring device 81 It is information including information indicating at least one of the measurement situation, the measurement range, and the measurement time whether the installation place is a place where the first measurement device 81 is good at measurement).
  • the characteristic information is that the TOF sensor is not good at outdoor measurement, but the camera is stable at both indoor and outdoor measurement, and the TOF sensor and stereo camera are close to the measurement device.
  • information such as being good at measurement but not good at long distance measurement, and information such as laser radar is good at a discrete situation where shielding does not occur but is not good at crowded conditions where shielding occurs.
  • the measurement trajectory model reliability calculation unit 83 measures the reliability of the measurement trajectory model (the measurement trajectory model obtained for the first measurement device 81) created by the measurement trajectory model generation unit 60 ′, for example, the first measurement device 81.
  • the measurement trajectory model with high reliability is calculated as the estimated trajectory model for the second measurement device 81 based on the characteristic information from The reliability is calculated by the same method as the measurement trajectory model selection unit 61 described in the first embodiment, taking into consideration the characteristic information of the first measuring device 81.
  • the reliability of the measurement trajectory model is reduced as a whole (all measurement trajectory models If the first measuring device 81 is installed at a point where the first measuring device 81 is good at measurement, the reliability of the measuring trajectory model is avoided.
  • the congestion at the time of measurement trajectory model creation from a method such as increasing the overall (increasing the probability that at least one measurement trajectory model can be regarded as the estimated trajectory model of the second measuring device 81) Judging the situation etc. increase the reliability of the measurement trajectory model of the device that can measure with relatively high accuracy even in crowded conditions, and reduce the reliability of the measurement trajectory model of the measurement device that is not good at congestion etc.
  • the measurement trajectory model reliability calculation unit 83 selects a measurement trajectory model having a high degree of reliability, and sets the selected measurement trajectory model as an estimated trajectory model that is a true value trajectory model for the second measuring device 81. That is, both the measurement trajectory model and the estimated trajectory model are generated from one measurement device 81. In the object detection device 80, both of the measurement trajectory model and the estimated trajectory model are generated for each of the measurement devices 81 and output to the trajectory model association unit 7. Note that, for the first measurement device 81, a measurement trajectory model reliability calculation unit 83 corresponding to the second measurement device 81 is an example of an estimated model acquisition unit.
  • the trajectory model association unit 7 ′ does not have the measurement trajectory model generation unit 60 (in the first embodiment, the measurement trajectory model generation unit 60 may exist outside the trajectory model association unit 7).
  • the trajectory model associating unit 7 ′ performs, for each measuring device 81, associating the measurement trajectory model of the measuring device 81 with the estimated trajectory model of another measuring device 81.
  • the trajectory model association unit 7 ′ associates the measurement trajectory model with the estimated trajectory model (the most reliable measurement trajectory model of the measurement trajectory models of the second measurement device 81).
  • the method of association itself may be the same as that of the first embodiment.
  • the parameter changing unit 8 is missing for the measurement trajectory model, for example, when the matching degree ⁇ between the measurement trajectory model and the estimated trajectory model is less than the threshold value, based on the result of the association corresponding to the measurement device 81
  • the measurement parameter group 300 'of the measuring device 81 is changed based on the tendency of the section.
  • the object detection apparatus 80 performs initial measurement for each measurement apparatus 81 in an object detection apparatus that detects an object using a plurality of measurement apparatuses 81. From the measurement trajectory model created from the measurement result acquired for the measurement device 81 using the parameter group for parameters and the measurement trajectory model obtained for another measurement device 81, the characteristic information of the other measurement device 81 is used The measurement parameter group of the measuring device 81 is changed so that the two trajectory models become equal by comparing the estimated trajectory model selected using the reliability calculated in (4). Thereby, an object can be detected with high accuracy even in a place, a measurement range, and a measurement situation where the measurement device 81 is not good at measurement for each measurement device 81.
  • association in the present embodiment means the estimated trajectory model (the most obtained for the second measuring device 81 for parameter change (parameter optimization) in the latter stage.
  • a measurement trajectory model to be compared with a highly reliable measurement trajectory model) may be determined (selected) from one or more measurement trajectory models obtained for the first measurement device 81.
  • finding the measurement trajectory model to be compared with the estimated trajectory model may be “matching” in the present embodiment, and there may be no special association such as linking between the models.
  • each of the one or more measurement trajectory models includes the measurement position of the object, the measurement time of the object, the number of moving objects detected, the moving speed of the object, the moving direction of the object, environment information, and missing information on segment loss of the flow line Based on at least one of them.
  • the parameter changing unit 8 determines the number of the other of the measured trajectory model and the estimated trajectory model based on the number of the other models. It may be determined whether to change the measurement parameter group. For example, if the other model (for example, the number of estimated trajectory models) is smaller than a predetermined threshold with respect to one model (for example, measurement trajectory model), the parameter changing unit 8 changes the measurement parameter group Good. In other words, the parameter changing unit 8 does not change the measurement parameter group if the other model (for example, the number of estimated trajectory models) for one model (for example, the measurement trajectory model) is equal to or more than a predetermined threshold. It is good.
  • the object detection device can be expressed as follows. That is, the object detection apparatus has an interface unit connected to the measuring device and a processor unit connected to the interface unit.
  • the processor unit includes the following (A) to (E), (A) Based on measurement information representing information periodically or irregularly measured about the measurement range by the measurement device, periodically or irregularly using the measurement parameter group which is one or more measurement parameters To obtain the measurement results of one or more objects (B) Generate one or more measurement models that are one or more models represented by the measurement result based on the measurement result when the measurement result is acquired (C) obtaining one or more estimated models that are one or more models estimated in the measurement range; (D) determining a measurement model and an estimation model to be compared from the generated one or more measurement models and the acquired one or more estimation models; (E) Change the measurement parameter group based on the result of comparison between the determined measurement model and the estimation model I do.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

物体検出装置は、計測装置により計測範囲について定期的に又は不定期的に計測された情報を表す計測情報を基に、1以上の計測用パラメータである計測用パラメータ群を用いて定期的に又は不定期的に1以上の物体の計測結果を取得する。物体検出装置は、計測結果が取得された場合に当該計測結果を基に当該計測結果が表す1以上のモデルである1以上の計測モデルを生成し、また、計測範囲において推定される1以上のモデルである1以上の推定モデルを取得する。物体検出装置は、生成された1以上の計測モデルと取得された1以上の推定モデルとから比較対象とする計測モデル及び推定モデルを決定し、決定された計測モデルと推定モデルとの比較の結果を基に計測用パラメータ群を変更する。

Description

物体検出装置及び物体検出方法
 本発明は、物体検出に関する。
 計測装置が計測した情報により、物体を検出する物体検出技術へのニーズが高まっている。計測装置としては、監視カメラ、ステレオカメラ、距離センサ、レーザレーダ、赤外線タグなどが多く活用されている。各計測装置には一長一短がある。例えば、レーザレーダは、広範囲かつ高精度に人物を計測することができるものの、他の装置と比べてコストが高く、また、レーザ自体が遮蔽されるような物体が密集した状況では物体検出が困難という課題がある。一方、監視カメラやステレオカメラでは、レーザと比べて計測範囲は狭くなるという問題がある反面、遮蔽のシーンなどには頑健であり装置のコストも安価であるという利点を持つ。
 これらの計測装置を適材適所に満遍なく設置できればユーザが求める計測精度を達成できることが期待される。しかし、実際にはコスト面や設置場所の環境などによって使用する計測装置が限定されることがあり、期待された計測精度を出すことは容易ではない。そのため、技術者などが現地に赴き、計測精度を維持するために計測装置が物体検出の際に使用する閾値などのパラメータを長時間調整する場面が多々あり得る。
 このような状況を鑑みて、近年では、設置環境に最適な計測用パラメータ群(計測装置からの計測結果に影響する1以上の計測用パラメータ)が求められている。例えば、特許文献1では、高精度なレーザレーダを併設することで、カメラの計測精度が最大となるような教師あり学習データを自動で生成する。
特開2017-102838号公報
 特許文献1では、学習段階では、カメラからの計測結果に学習データは使用されず(影響せず)、正確な学習データを用意するために、レーザレーダのような高精度の計測装置が必須とされる。このため、カメラのような通常使用される計測装置とは別の計測装置を一時併設しなければならない。しかし、前述したような計測装置の設置環境が制限される場面では、別の計測装置を一時併設することは困難であり、併設可能な場合も設置費用や全体のシステム費用などのコストの増加が懸念される。
 また、特許文献1では、高精度の計測装置無しに物体認識を可能にするために高精度の計測装置を併用して学習データが用意されるが、そのような学習データを信頼して物体認識が行われる。このため、少なくとも一部の学習データが完全ではない場合、物体認識が不正確となり得る。しかし、特許文献1には、作成済みの学習データを最適化するための技術は開示も示唆も無い。
 本発明は、前記の課題を解決するための発明であって、設置環境に関わらず物体を高精度に検出する物体検出技術を提供することを目的とする。
 物体検出装置は、計測装置により計測範囲について定期的に又は不定期的に計測された情報を表す計測情報を基に、1以上の計測用パラメータである計測用パラメータ群を用いて定期的に又は不定期的に1以上の物体の計測結果を取得する。物体検出装置は、計測結果が取得された場合に当該計測結果を基に当該計測結果が表す1以上のモデルである1以上の計測モデルを生成し、また、計測範囲において推定される1以上のモデルである1以上の推定モデルを取得する。物体検出装置は、生成された1以上の計測モデルと取得された1以上の推定モデルとから比較対象とする計測モデル及び推定モデルを決定し、決定された計測モデルと推定モデルとの比較の結果を基に計測用パラメータ群を変更する。
 本発明によれば、設置環境に関わらず物体を高精度に検出することができる。
本発明の実施例1に係る物体検出装置の機能ブロック図。 計測結果取得部の機能ブロック図。 物体計測部が取得した三次元情報中の視差画像を示す図。 物体計測部による背景差分処理を示す図。 物体計測部による視点変換処理示す図。 俯瞰画像における各人物の位置情報の決定を示す図。 計測結果出力部の処理内容を説明する図。 計測結果出力部による出力結果の一例を示す図。 環境モデル生成部の処理内容を説明する図。 推定軌跡モデル取得部の処理内容を説明する図。 軌跡モデル対応付け部の機能ブロック図。 計測軌跡モデル生成部の処理フローを示す図。 図8のS1の処理内容を説明する図。 図8のS2で利用される計測結果の一例を示す図。 図8のS2で利用される環境マップの一例を示す図。 図10Aに示す計測結果と図10Bに示す環境マップに基づく仮軌跡モデルを示す図。 図8のS3で利用される計測結果の一例を示す図。 欠落情報と図10Cに示した仮軌跡モデルとの関係の一例を示す図。 欠落状態における組み合わせパターンの一例を示す図。 図8のS3において生成された計測軌跡モデルの一例を示す図。 対応軌跡モデル決定部に利用される推定軌跡モデルの一例を示す図。 対応軌跡モデル決定部に利用される計測軌跡モデルの一例を示す図。 計測軌跡モデルと推定軌跡モデルの対応付けの結果の一例を示す図。 パラメータ変更部の処理フローを示す図。 本発明の実施例2に係る物体検出装置の機能ブロック図。
 以下の説明では、「インターフェース部」は、1以上のインターフェースで良い。当該1以上のインターフェースは、1以上の同種の通信インターフェースデバイス(例えば1以上のNIC(Network Interface Card))であっても良いし2以上の異種の通信インターフェースデバイス(例えばNICとHBA(Host Bus Adapter))であっても良い。
 また、以下の説明では、「メモリ部」は、1以上のメモリであり、典型的には主記憶デバイスで良い。メモリ部における少なくとも1つのメモリは、揮発性メモリであっても良いし不揮発性メモリであっても良い。
 また、以下の説明では、「PDEV部」は、1以上のPDEVであり、典型的には補助記憶デバイスで良い。「PDEV」は、物理的な記憶デバイス(Physical storage DEVice)を意味し、典型的には、不揮発性の記憶デバイス、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)である。
 また、以下の説明では、「記憶部」は、メモリ部及びPDEV部のうちの少なくとも1つ(典型的には少なくともメモリ部)である。
 また、以下の説明では、「プロセッサ部」は、1以上のプロセッサである。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサであるが、GUP(Graphics Processing Unit)のような他種のプロセッサでも良い。少なくとも1つのプロセッサは、シングルコアでも良いしマルチコアでも良い。少なくとも1つのプロセッサは、処理の一部又は全部を行うハードウェア回路(例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサでも良い。
 また、以下の説明では、「kkk部」(インターフェース部、記憶部及びプロセッサ部を除く)の表現にて機能を説明することがあるが、機能は、1以上のコンピュータプログラムがプロセッサ部によって実行されることで実現されても良いし、1以上のハードウェア回路によって実現されても良い。プログラムがプロセッサ部によって実行されることで機能が実現される場合、定められた処理が、適宜に記憶部及び/又はインターフェース部等を用いながら行われるため、機能はプロセッサ部の少なくとも一部とされても良い。機能を主語として説明された処理は、プロセッサ部あるいはそのプロセッサ部を有する装置が行う処理としても良い。プログラムは、プログラムソースからインストールされても良い。プログラムソースは、例えば、プログラム配布計算機又は計算機が読み取り可能な記録媒体(例えば非一時的な記録媒体)であっても良い。各機能の説明は一例であり、複数の機能が1つの機能にまとめられたり、1つの機能が複数の機能に分割されたりしても良い。
 また、以下の説明では、「xxx表」といった表現にて情報を説明することがあるが、情報は、どのようなデータ構造で表現されていても良い。すなわち、情報がデータ構造に依存しないことを示すために、「xxx表」を「xxx情報」と言うことができる。また、以下の説明において、各表の構成は一例であり、1つの表は、2以上の表に分割されても良いし、2以上の表の全部又は一部が1つの表であっても良い。
 また、以下の説明では、「パラメータ群」とは、1以上のパラメータである。
 以下、本発明の具体的な実施例について、図面を参照しながら説明する。
 図1は、本発明の実施例1に係る物体検出装置の機能ブロック図である。
 物体検出装置1は、2台のカメラ2(撮像装置)を隣接したステレオカメラを計測装置として使用し、ステレオカメラによる計測結果に影響する計測用パラメータ群の少なくとも一部を自動で調整する装置である。実施例1では、計測装置としてステレオカメラが使用されるが、本発明の適用先は、物体検出が可能な装置であり、かつ物体検出のために使用され計測結果に影響する計測用パラメータ群が存在する装置であれば、特に限定しない。図1において、機能3~6の少なくとも1つは、例えば、プロセッサ部及び記憶部を有するカメラと、カメラとは別に用意した計算機(プロセッサ部及び記憶部を有する計算機)とのうちの少なくとも1つにおいて実現可能である。
 物体検出装置1は、画像取得部3、計測結果取得部4、環境モデル生成部5、推定軌跡モデル取得部6(推定モデル取得部の一例)、軌跡モデル対応付け部7(モデル対応付け部の一例)、パラメータ変更部8、及び、最終パラメータ出力部9を有する。
 図1に示す各機能の概要をまず説明する。画像取得部3は、カメラ2から画像を取得する機能である。計測結果取得部4は、計測用パラメータ群300を利用して計測結果を取得する機能である。環境モデル生成部5は、物体検出装置1が設置された環境に関する情報から計測範囲の構造情報や出入り口情報が表記された環境マップを生成する機能である。推定軌跡モデル取得部6は、生成された環境モデルから予測される動線(物体の動線)を表す推定軌跡モデルを取得する機能である。軌跡モデル対応付け部7は、計測結果と推定軌跡モデルとを対応付ける機能である。パラメータ変更部8は、機能7による対応付けの結果から計測用パラメータ群300の少なくとも一部の計測用パラメータを変更する機能である。最終パラメータ出力部9は、パラメータ変更部8により最適と判定された計測用パラメータ群を出力する機能である。以下、各機能の詳細について説明する。なお、本実施例では、物体検出の対象を人物とする。
 画像取得部3は、カメラ2ごとに存在し、2台のカメラ2のうちの対応するカメラ2からデジタル画像データを取得する。以下の説明では、画像取得部3がカメラ2から取得するデジタル画像データを「撮像画像」と呼ぶ。
 図2を用いてステレオカメラによる計測結果取得部4について説明する。
 計測結果取得部4は、計測用パラメータ群300を利用して、画像取得部3からそれぞれ取得した撮像画像から三次元情報を取得する三次元情報取得部10と、取得した三次元情報から計測範囲における物体の検出や物体の位置計測を実施する物体計測部11と、取得した物体検出や位置計測結果を出力する計測結果出力部12を持つ。なお、計測用パラメータ群300とは、1以上の計測用パラメータである。計測用パラメータとは、値を変更することで少なからず物体検出などの計測精度に影響するパラメータ全般である。計測用パラメータ群300は、例えば、計測装置がステレオカメラの場合、カメラの内部パラメータ群、外部パラメータ群、及び、人物検出に利用する閾値パラメータ群のうちの少なくとも一部を示す。以下、三次元情報取得部10と物体計測部11、計測結果出力部12の詳細な中身について説明する。
 三次元情報取得部10は、まずブロックマッチングなどの一般的な手法を利用して視差を算出する。ブロックマッチングの具体的なフローとしては、三次元情報取得部10は、計測用パラメータ群300に含まれるカメラの内部パラメータ群、歪み係数パラメータ群及び外部パラメータ群を利用して、歪み補正処理により2枚の撮像画像のレンズ歪みを除去した後、平行化処理により2枚の画像を左右に並べた場合に画像内の物体が同一の高さとなるような補正を前処理として実施する。そして、三次元情報取得部10は、各撮像画像を比較して相違度が最小となる一定の大きさの小領域を探索し、その探索幅から視差を算出する。なお、小領域の相違度を計算する方法としては、(数1)に示すSAD(Sum of Absolute Difference)などの方法があり、特に限定しない。なお、(数1)において、Tは、小領域(基準画像)の輝度値であり、Tは、小領域(比較画像)の輝度値であり、Mは、小領域の横幅であり、Nは、小領域の縦幅であり、(i,j)は、座標(左上(0,0)、右下(M-1, N-1))である。また、本例以外にも2枚の画像における視差を算出可能な方法であれば、特に限定しない。
Figure JPOXMLDOC01-appb-M000001
 次に、三次元情報取得部10は、算出した視差と、計測用パラメータ群300に含まれる外部パラメータ群とから、三次元空間内の点群の座標値を計算する。点群座標の算出方法としては、例えば、(数2)及び(数3)を用いて撮像画像の座標情報と視差の値を用いて、カメラ座標Xc、世界座標Xwと順に変換して求めるという一般的な方法を利用することができる。本実施例では、(数3)によって求めた世界座標Xwを三次元情報取得部10により取得される三次元情報とする。また、三次元情報取得部10において、視差を算出するために使用する小領域の大きさや探索幅などの値を計測用パラメータ群300として扱っても良い。なお、(数2)において、(u,v)は、画像座標であり、(u0,v0)は、画像中心であり、bは、基線長であり、fは、焦点距離であり、pitは、画素ピッチである。また、(数3)において、Rは、回転行列であり、tは、並進ベクトルである。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 図3A~図3Dは、物体計測部11によって、三次元情報取得部10から取得した三次元情報を使用して人物(物体の一例)を検出し、その人物の位置を計測するフローの一例を示している。
 図3Aにおいて、参照符号20a及び20bは、計測対象の人物を示し、参照符号21は、計測対象外の物体の一例である商品棚を示し、参照符号22は、カメラ2から対象までの距離値を画素毎に示す視差画像を示す。図3Aに示すように、三次元情報は、視差画像22を含み、視差画像22において、計測対象の人物20a及び20bと、計測対象外の商品棚21とが存在するとする。以下、人物を区別しない場合、「人物20」と表記することがある。
 物体計測部11は、まず、図3Bに示す背景差分処理によって人物20a及び20bの領域を抽出する。図3Bにおいて、参照符号23は、予め取得しておいた背景視差画像を示す。背景視差画像23中には、商品棚21のみ存在している。そのため、人物20a及び20bと商品棚21とが存在する入力の視差画像22と、商品棚21のみが存在する背景視差画像23との差分を取ることで、人物20a及び20bのみ存在する人物領域を示す視差画像24を作成することができる。
 物体計測部11は、次に、図3Cに示す視点変換処理によって人物領域(視差画像24)から人物20を区別して、各人物20の三次元情報を取得する。図3Cにおいて、参照符号25は、視差画像24の画像座標と距離情報から推定した人物20の三次元情報を示し、参照符号26は、三次元情報25を真上の視点から見た俯瞰画像を示す。なお、俯瞰画像26の作成方法としては、カメラパラメータを用いた透視投影といった一般的な方法を使用することができる。そして、図3Cに示すように、物体計測部11は、俯瞰画像26における人物20の三次元情報テンプレート27と、俯瞰画像26内の各人物20の三次元情報の一致度合を算出し、一致度合が閾値(閾値パラメータ)を上回れば人物が存在すると判定し、三次元情報テンプレート27との一致度合が閾値を上回った人物を人物20として検出する。
 物体計測部11は、最後に、検出した人物20の三次元情報から人物の位置情報を測定する。測定方法としては、例えば図3Dに示すように、俯瞰画像26における人物20a及び20bにそれぞれ対応した重心座標28a、28b(三次元情報の重心座標28a、28b)のx値とz値を人物の位置情報として決定する方法がある。以下、重心座標を区別しない場合、「重心座標28」と表記することがある。なお、一般的にステレオカメラでは遠方の範囲では点群の密度が疎となるため、遠方にいる人物の検出精度が低下する傾向があり、図3A~図3Dの例の場合、人物20aは人物20bよりも検出精度は低い。そのため、三次元の点群情報を補正することで遠方の人物の検出精度を向上でき、例えば、点群を一般的な膨張処理によって補間するなどの方法もある。本実施例にて最適化する計測用パラメータ群300は、このような検出精度への関わりが密接である処理に使用されるパラメータ群である程より効果的であり、本実施例においては、人物の一致度合の閾値パラメータや、点群膨張処理の実行回数が、計測用パラメータ群300の一部として扱われても良い。また、物体計測部11において、説明した方法以外にも三次元情報や画像情報を使用して人物を検出して位置を計測できる方法であれば良く、使用する計測用パラメータの数、種類なども特に限定しない。
 図4A及び図4Bを用いて計測結果出力部12について説明する。なお、以下の説明では、人物20のうち、重心座標28のx値とz値が決定された人物を、便宜上、「人物28」と表記する。従って、人物28aは、人物20aに相当し、人物28bは、人物20bに相当するものとする。
 図4Aにおいて、参照符号26aは、時刻Tにおける人物28a及び28bの位置を示す俯瞰画像を示し、参照符号26bは、時刻T+5における人物28a及び28bの位置を示す俯瞰画像を示す。図4Bにおいて、参照符号31は、出力する計測結果の一例を示している。以下、俯瞰画像を区別しない場合、「俯瞰画像26」と表記することがある。計測結果出力部12は、時刻ごとの各計測項目の結果が記載された計測結果表31を出力する。図4Bでは、俯瞰画像26上での人物28の位置情報と計測範囲内にいる人物28の人数情報が出力される例を示している。なお、本実施例では、可能な限り同一人物の計測結果を取得するために、人物を検出するだけでなく人物を追跡する処理も実施される。追跡方法としては、人物におけるエッジ情報や色情報などの画像特徴量、三次元形状の情報を抽出して追跡する方法や、過去に計測された位置情報とのユークリッド距離が最小となる人物を同一人物として追跡する方法などの一般的な手法で良く、特に限定しない。また、同一人物の追跡を失敗した場合は、新たに別の人物28cが出現したと判定して良く、人物28cの位置情報を計測結果表31に追加すれば良い。また、計測項目としては、その他の項目でも良く、人物などに限定せず計測範囲内における移動体を検出する動体検出数、撮像画像上において人物を囲む矩形情報、歩行速度など、特に限定しない。
 図5を使用して環境モデル生成部5について説明する。
 環境モデル生成部5は、計測装置であるステレオカメラの設置場所における環境情報を用いて環境マップを作成する。環境情報とは、計測範囲のCADデータや地図情報などであり、例えば、計測範囲における人物エリア(人物が存在し得るエリア(無色部分))と非人物エリア(壁などの障害物が存在する等の理由で人物が存在しえないエリア(有色部分))が区別可能な2次元マップ40を作成できる情報であれば良く、特に限定しない。
 具体的には、例えば、まず、環境モデル生成部5は、環境情報を基に2次元マップ40を作成する。次に、環境モデル生成部5は、2次元マップ40中の人物エリアを複数の区画(例えば同形状且つ同面積の複数の区画)に分割することで、2次元マップ40を、複数の区画に分割された人物エリアを含む2次元マップ41に更新する。なお、区画サイズや区画数は特に限定せず、区画のサイズを小さくして区画数を増やすほど全体の計算量が増加することを考慮し、ユーザ側などで指定しても良い。最後に、環境モデル生成部5は、複数の区画の各々に区画番号を振り分けたマップに出入り口地点を追加した環境マップ42を作成する。環境マップ42において、A~Hは、人物が計測範囲内に移動する際に必ず通過する場所である出入り口地点を示し、環境情報から自動で推定する方法や、ユーザが手動にて入力する方法などを用いて決定する。なお、環境マップ42内には表示されないものの、予め計測範囲外に障害物があり人物が確実通らない地点などの前情報があれば、区画番号の割当を実施しないや出入り口地点を削除するなどの補正処理を加えても良い。
 図6を用いて推定軌跡モデル取得部6の処理フローについて説明する。
 推定軌跡モデル取得部6は、環境マップ42の人物が存在する区画と出入り口地点の情報から人物が通行すると予想される動線の推定軌跡モデルを取得する。具体的には、例えば、「人物は出入り口地点の間を最短の経路で移動する」、「同じ出入り口地点または近くの出入り口地点間の移動は無い」という2つの仮定の元に、各出入り口地点間における最短経路問題として推定軌跡モデルの組み合わせを推定する。2つ目の仮定中の「近くの出入り口地点間の移動は無い」とは、近傍かつ同一の方角にある出入り口地点を進入して退出することは考慮しないという意味であり、環境マップ42では、AとB、CとD、EとFとGとHの出入り口地点間の関係のことを示す。例えば、前述の2つの仮定を元に、Aから進入した人物がHから退出する軌跡を推定する場合は、参照符号50に複数の最短経路が算出される。参照符号50に関して、経路(線)の傍に記載のa、b、…といった小文字のアルファベットは、環境マップ42(図5参照)上の、人物が通過し得る区画を意味する。例えば、参照符号50に関して、Aから真下に延びその後右に曲がってHに着く経路は、Aからa→c→e→i→o→u→v→w→xを通ってHに着く経路である。複数の最短経路を算出することで、推定軌跡モデル取得部6は、複数の最短経路にそれぞれ対応した複数の推定軌跡モデル51(推定軌跡モデル51の組合せ)を取得できる。ここでは、推定軌跡モデル51は、合計51通りの推定軌跡モデル51を推定できる。そして、2つ目の仮定の条件を除く各出入り口地点間に対して、最短経路問題により経路の組み合わせを算出することで全ての推定軌跡モデルが取得可能となる。なお、計測用パラメータ群300の最適化処理(後段の処理)を実行する際に、全ての推定軌跡モデルを使用しても良いが、計算コストの削減のためにランダムでいくつか選定するという方法や正反対のルートを辿る推定軌跡モデルは削除するという方法を採用しても良い。また、図6に示すように、複数の区画や出入り口地点を統合した後の環境マップ52を用いて最短経路問題により推定軌跡モデルの組み合わせを取得することで、組み合わせ数を削減する(計算量を削減する)方法を使用しても良く、特に限定しない。さらに、推定軌跡モデルを取得する際の仮定についても、特に前述した2つ限定せず、計測環境に応じてユーザ側が新たに設定しても良い。例えば、出入り口地点が1カ所しかない場合は、同一の出入り口地点間を移動する経路の組み合わせを推定軌跡モデルとしても良い。さらに、計測環境において、ユーザが必ず計測したい地点などがあれば環境マップ上に予めプロットし、プロットされた地点と各出入り口地点間の最短経路問題によって算出した全ての経路を推定軌跡モデルとしても良い。
 図7は、軌跡モデル対応付け部7の構成を示している。
 軌跡モデル対応付け部7は、計測結果取得部4から取得した計測結果と推定軌跡モデル取得部にて出力される環境マップとを用いて計測軌跡モデルを生成する計測軌跡モデル生成部60(計測モデル生成部の一例)と、生成した計測軌跡モデルの中から信頼性の高い計測軌跡モデルを選定する計測軌跡モデル選定部61と、選定した計測軌跡モデルと対応する推定軌跡モデル(推定軌跡モデル取得部6により取得した複数の推定軌跡モデルのうちの推定軌跡モデル)を決定する対応軌跡モデル決定部62を持つ。以下、計測軌跡モデル生成部60、計測軌跡モデル選定部61、及び対応軌跡モデル決定部62の詳細について説明する。
 図8に計測軌跡モデル生成部60の処理フローを示す。
 計測軌跡モデル生成部60は、計測結果の位置座標情報を環境マップ空間へ位置合わせをすることで座標情報を変換し(S1)、変換後の座標情報と計測結果の時刻情報から仮軌跡モデルを生成する(S2)。そして、計測軌跡モデル生成部60は、計測結果の情報から仮軌跡モデルを補正し(S3)、補正後の仮軌跡モデルを、最終の計測軌跡モデルとして出力する(S4)。以下、計測軌跡モデル生成部60において、仮軌跡モデルを補正する方法の一例、すなわち、S1~S3の一例について説明する。
 図9を用いて図8のS1の一例について説明する。
 S1では、計測軌跡モデル生成部60は、計測結果における俯瞰画像上の座標情報(x,z)を環境マップの座標空間に変換する位置合わせ処理を実施する。位置合わせ方法としては、例えば次の通りである。計測軌跡モデル生成部60は、まず、俯瞰画像26上において、予め地点70a、70b、70c、70dの4カ所にプロットされる位置にそれぞれ人物を配置して計測装置により人物の位置を計測し、俯瞰画像26上の座標情報(xa, z)を算出する。次に、計測軌跡モデル生成部60は、環境マップ42においても上記と同一の4カ所にいる人物の地点71a、71b、71c、71dの座標情報(xb, y)を算出する。そして、計測軌跡モデル生成部60は、4つの対応点を利用することで異なる二次元座標軸同士の透視変換行列を算出することができ、算出した行列により、俯瞰画像26上の座標空間と環境マップ42の座標空間の対応付けが可能となる。図9では、地点70a~70dにそれぞれ地点71a~71dが対応付けられる。なお、各座標空間の対応付ける方法としては、一般的な透視変換以外の手法を使用しても良く、特に限定しない。
 図10A~図10Cを用いて図8のS2の一例について説明する。
 S2では、計測軌跡モデル生成部60は、図10Aに示すような、S1により変換された計測結果の位置情報を時系列情報によって整理することで、仮軌跡モデルを作成する。具体的には、例えば、計測軌跡モデル生成部60は、まず、図10Bに示すように位置座標P~Pを環境マップ42にプロットする(以下、位置座標P~Pを区別しない場合には「座標P」と総称することがある)。そして、計測軌跡モデル生成部60は、各プロットした座標Pが環境マップ42上の区画a~xのどの区画に含まれるかを判定する。なお、区画と区画間の境界線に座標Pがプロットされるなどの状況においては、相対的に所定の位置(例えば左上の位置)にある区画を優先するなどの条件が付加されても良い。最後に、計測軌跡モデル生成部60は、計測結果取得部4により同一人物と判定された位置情報に対応する区画を時系列ごとに出力することで、図10Cに示すような3つの仮軌跡モデルを取得できる。
 図11A~図11Dを用いて図8のS3の一例について説明する。
 S3では、計測軌跡モデル生成部60は、S2により生成された仮軌跡モデルを計測結果の情報及び欠落情報を用いて補正する。使用する計測結果の情報としては、例えば、図11Aに示す表のように、時刻毎に、位置情報(人物毎の位置情報)と動体検出数の2つがある。「動体検出数」とは、一般的な動体検出から算出した検出数であり、図11Aの表におけるレコード中のPの数ではない。動体検出手法としては、背景差分などを利用して画像中における画素値の変動が生じる領域の大きさが一定の閾値以上であれば動体として検出するといった従来の手法を使用し、特に限定しない。一般的に動体検出とステレオカメラによる人物検出を比較すると、前者は後者よりも未検出が少なく、後者は前者よりも誤検出が少ない傾向である。そのため、ステレオカメラにより計測した位置情報はあくまでも誤検出が無く、動体検出の結果は未検出が無いと仮定を置くことで、図11Aの計測結果の場合、人物は常に1人以上2人以下であると自動で判定できる。次に、S3にて使用する仮軌跡モデルの欠落情報について説明する。「欠落情報」とは、同一人物の軌跡における欠落状態、欠落位置及び欠落時刻といった3つの要素で定義される。「欠落状態」とは、いずれの範囲が欠落しているかを意味する。欠落状態として、“前半”、“後半”、“両方”、“なし”の4つの状態のいずれかがある。具体的には、“前半”は、軌跡が途中から始まっていることを意味し、“後半”は、軌跡が途中で途切れていることを意味し、“両方”は、軌跡が途中から始まり途中で途切れていることを意味し(つまり、“前半”と“後半”の両方に該当することを意味し)、“なし”は、軌跡が途切れていないことを意味する。また、「欠落位置」とは、軌跡が途切れたと推定される位置を意味し、「欠落時刻」とは、軌跡が途切れたと推定される時刻を意味する。例えば、計測軌跡モデル生成部60は、仮軌跡モデルにおける両端の区画番号(2つの区画番号)を確認し、各区画内に出入り口地点が存在するか否かにより、欠落状態を判定する。図11Bに、図10Cの各仮軌跡モデルにおける欠落情報を示す。図11Bにおいて、仮軌跡モデル「1」には、区画fには出入り口地点が存在しないため軌跡が途中で途切れたと判断されたため、“後半”が割り当てられている。仮軌跡モデル「2」には、区画x及びs共に出入り口地点が存在するため、“なし”が割り当てられている。仮軌跡モデル「3」には、区画g内に出入り口地点が無いため、“前半”が割り当てられている。また、欠落位置及び欠落時刻については、出入り口地点が存在しない区画における位置情報と時刻情報を使用し、欠落状態“なし”については値は無く、欠落状態“両方”については各情報に2つの値が存在する。S3では、計測軌跡モデル生成部60は、これらの欠落情報を用いて、複数の仮軌跡モデルが1つの仮軌跡モデルに統合できないかを判定する。欠落状態における組み合わせパターンは、図11Cに示す2種類のみである。これらの組み合わせパターンが成り立ち、かつ欠落位置と欠落時刻のそれぞれの差が閾値以下である場合、計測軌跡モデル生成部60は、同一人物の仮軌跡モデルと判定して統合する。なお、S3では仮軌跡モデルの組み合わせパターンを考慮する際に、前段に述べた計測結果情報の整合性、すなわち本例の場合においては常に人物は1人以上2人以下存在するという条件を利用することで、より高精度に仮軌跡モデルを補正できる。以上述べた方法により仮軌跡モデルを補正することで、図11Dに示すような計測軌跡モデル(補正後の仮軌跡モデル)を生成できる。なお、計測結果情報の整合性を使用せず仮軌跡モデルの欠落情報のみを用いて仮軌跡モデルを補正しても良い。また、歩行のスピードや進行方向を計測結果の情報として保持し、仮軌跡モデル中の各区画番号を比較することで、違いが閾値以上大きければ仮計測モデルを分解するといった補正方法も使用して良い。また、本実施例では、ステレオカメラの人物検出と画像の動体検出の結果を比較して計測結果の整合性を確認したが、2つの異なる検出手法が存在し両者の精度に優劣が存在するのであれば、高精度な検出手法は誤検出が少なく、低精度な検出手法は未検出が少ないなどの仮定を使用して整合性を確認するなど、特に限定しない。なお、本例に述べた方法以外にも、仮軌跡モデルを統合、分解することで軌跡モデルを補正できる方法であれば特に限定しない。
 計測軌跡モデル選定部61は、計測軌跡モデル生成部60より作成した計測軌跡モデルの中で信頼性の高い計測軌跡モデルを選定する。計測軌跡モデルの信頼性を算出する方法としては、計測軌跡モデルが長いほど信頼性を高くする方法、軌跡内の区画が全て異なる計測軌跡モデルのみ信頼性が高いと判断する方法、計測装置に近い区画が多く含まれる計測軌跡モデルの信頼性を高くする方法などあり、特に限定しない。また、信頼性を算出するために、計測結果が利用されても良い。例えば、計測軌跡モデルを作成する際に計測範囲に大量の人物が存在すると、同一人物の軌跡モデルを取得することは困難であるため、計測軌跡モデルの作成時刻において動体検出数が少ないほど、同一人物の軌跡モデルである可能性が高いため、信頼性を高くする方法などもある。また、同一人物であれば歩行速度や歩行方向はある程度一定であると判断して、計測軌跡モデルの各区画における歩行速度や歩行方向を保持しておくことで、各区画の歩行速度の分散が小さいモデルほど同一人物の軌跡であると判定し信頼性を高くする方法や、歩行方向の変化が大きい計測軌跡モデルの信頼性を低くする方法などもある。さらに、計測軌跡モデルの各区画をプロットした時刻を保持しておくことで、計測範囲内に長時間存在した計測軌跡モデルの信頼性を低下するなどの方法も考えられる。なお、複数の信頼性を算出する方法を使用して総合的に信頼性の高い計測軌跡モデルを選定するといった方法でも良い。
 図12A~図12Cを用いて対応軌跡モデル決定部62について説明する。
 対応軌跡モデル決定部62は、図12Aに示す推定軌跡モデルと、図12Bに示す計測軌跡モデルとの対応付けを実施する。計測軌跡モデルを推定軌跡モデルに対応付けでは、例えば、次の処理を行うことができる。すなわち、対応軌跡モデル決定部62は、計測軌跡モデル毎に、下記の処理を行う。1つの計測軌跡モデル(図12A~図12Cの説明で「対象計測軌跡モデル」)を例に取る。
(a)対応軌跡モデル決定部62は、対象計測軌跡モデルに含まれる区画の数nを計数して、区画数が同一のnである推定軌跡モデルを抽出する。
(b)対応軌跡モデル決定部62は、(a)で抽出された推定軌跡モデルが示す順路が、対象計測軌跡モデルが示す順路と同じか否かを判断する。
(c)(b)の判断結果が真の場合、対応軌跡モデル決定部62は、対象計測軌跡モデルと(a)で抽出された推定軌跡モデルとが対応付ける。これにより、対象計測軌跡モデルについての対応付けは、終了する。
(d)(b)の判断結果が偽の場合、対応軌跡モデル決定部62は、区画数n=n+1として、(a)に戻る。
 なお、「順路が同じ」とは、通行した区画の順番が同一であるという意味であり、区画に抜けが合っても良い。例えば、図12A及び図12Bの場合、計測軌跡モデル「1」には、区画dが含まれていないが、区画dを除いて順番は同じため、推定軌跡モデル「2」と計測軌跡モデル「1」の順路は同じであると判定する。これらの探索処理を、区画数nの値を1つずつ増やしながら、計測軌跡モデルと対応する推定軌跡モデルが見つかるまで繰り返し実施することで(つまり、上述の(a)~(d)が実施されることで)、図12Cのような、計測軌跡モデルと推定軌跡モデルの対応付けが決定できる。なお、本探索処理にて推定軌跡モデルと対応付けられなかった計測軌跡モデルは該当無しとして除外する。また、対応軌跡モデル決定部62は、正反対の経路(順路)を辿る推定軌跡モデルを削除することで保持する推定軌跡モデルの数を削減していた場合は、一時的に正反対の経路を辿る推定軌跡モデルを生成し、計測軌跡モデルとの対応付けを実施してよい。なお、本方法以外にも、軌跡モデルを対応付ける方法があれば、特に限定しない。
 また、ここで言う「対応付け」とは、後段のパラメータ変更(パラメータ最適化)のために、対象計測軌跡モデルと比較される推定軌跡モデルを決定(選択)することでよい。言い換えれば、対象計測軌跡モデルと比較される推定軌跡モデルを見つけることが、ここで言う「対応付け」でよく、モデル間にリンクを張るといったような特段の関連付けはなくてもよい。
 図13にパラメータ変更部8の処理フローを示す。
 パラメータ変更部8は、軌跡モデル対応付け部7によって対応付けられた計測軌跡モデルと推定軌跡モデルの一致度εを算出し(S10)、算出したεが閾値以上か否かを判定する(S11)。そして、εが閾値未満であれば(S11:N)、パラメータ変更部8は、計測用パラメータ群300の少なくとも一部のパラメータを異なる値に変更し(S12)、変更後の計測用パラメータ群300を計測結果取得部4に渡して終了する(S13)。一方、εが閾値以上であれば(S11:Y)、パラメータ変更部8は、計測用パラメータ群300を最適なパラメータ群と判定し最終パラメータ出力部9に渡して終了する(S14)。このように、εが閾値以上の場合には、パラメータ変更は行われないので、計算量を削減できる。
 なお、S10における一致度εの算出方法としては、対応付けられた推定軌跡モデルと計測軌跡モデルにおいて、(数4)によりモデル一致度εiを算出してεiが閾値以上であるモデルのペア数を全体の一致度εとして算出する方法などがあり、軌跡モデルの類似度を算出可能である方法であれば、特に限定しない。
Figure JPOXMLDOC01-appb-M000004
 また、S12にて計測用パラメータ群300を変更する方法としては、予め設定した範囲内において複数の計測用パラメータを同時に変更する方法や、計測パラメータを1つずつ変更する方法があり、特に限定しない。なお、計測用パラメータ群300の各計測用パラメータについて、当該計測用パラメータを変更する範囲が、一定の範囲(例えばユーザの知見を元に初期値を基準とした前後一定の範囲)に限定されて良い。これにより、計測用パラメータの発散を防止することができる。
 最終パラメータ出力部9は、パラメータ変更部8から受け取った計測用パラメータ群300を最終のパラメータ群として出力(例えば表示)する。
 本発明の実施例1では、以上説明した機能構成により、物体検出装置1は、初期の計測用パラメータ群を用いた計測結果から作成した計測軌跡モデルと、計測装置の設置環境などを表す環境情報から推定した推定軌跡モデルとを比較して、両者のモデルが同等となるように計測用パラメータ群を最適化する。これにより、あらゆる設置環境において物体を高精度に検出することが期待できる。
 なお、実施例1では、パラメータ変更部8において推定軌跡モデルと計測軌跡モデルとの一致度εが閾値以上となった際に計測用パラメータ群300を最終パラメータ出力部9に渡すといったフローであるが、予め設定した範囲内において全ての計測用パラメータの値を用いて一致度εを算出して、最大の一致度εを示す計測用パラメータを最終パラメータ出力部9に渡すといったフローを使用して、最適化処理を実行しても良い。本処理を実行することで、設置環境に最適な計測用パラメータを自動で推定することができるため、例えば、計測装置を設置してからしばらくの期間は計測用パラメータを最適化する処理のみに計算リソースを割り当て、ある程度日数が経った後は最適化された計測用パラメータを用いた計測処理のみに計算リソースを割り当てることで、設置環境ごとに高精度な計測を実現できる。また、計測用パラメータ群の最適化処理を一定の間隔で実施することで、経年変化による精度低下を防止することもできる。なお、最適化処理において、パラメータ変更部8は、計測用パラメータ群300を変更した場合(例えば、N回(Nは自然数)変更する都度に)、環境マップの区画数を変更しても良い。例えば、徐々に区画数を多くすることで前半は(例えば、1回目~M回目(Mは2以上の整数)のパラメータ変更では)大雑把な軌跡モデルを対応付けることで最適な計測用パラメータの範囲を絞り、後半は(例えば、(M+1)回目以降のパラメータ変更では)詳細な軌跡モデルを対応付け計測用パラメータ群を決定することで最適化処理のリソースを削減できる。
 また、実施例1において、εが閾値未満の場合(S11:N)に行われる、計測用パラメータ群300の変更では、計測軌跡モデルの動線の欠落情報を鑑みて最適化するパラメータが選択されても良い。例えば、計測軌跡モデルに関する区画欠落の属性(例えば、欠落する区画の傾向)を基に、最適化するパラメータが選択されてよい。具体的には、例えば、属性は、(a)欠落する区画が前記カメラの近傍範囲あるいは遠方範囲に偏りがあるか否か、(b)欠落する区画が前記カメラの光軸に対し左右方向に偏りがあるか否か、及び、(c)欠落する区画が全体的に疎らであるか否か、のうちの少なくとも1つである。より具体的には、例えば、動線が欠落する区画がカメラの近傍範囲あるいは遠方範囲に偏りがある場合は、三次元情報取得部10においてカメラ座標から世界座標に変換するためのカメラの外部パラメータのチルト角やカメラ高さを変更する方法や、あるいは、視差を算出時のブロックマッチングに使用する小領域の大きさや探索幅といったパラメータを変更する方法がある。また、例えば、動線が欠落する区画がカメラの光軸に対し左右方向に偏りがある場合は、カメラの外部パラメータのロール角を変更する方法がある。また、例えば、動線が欠落する区画が全体的に疎らである場合は、焦点距離やレンズ歪みといった内部パラメータ、あるいは人検出に利用する閾値パラメータを優先的に変更する方法がある。これらの方法を採用することで、動線の欠落を効率的に補完でき最適化処理の精度を向上できる。
 なお、例えば、機能5及び6が予め実行されることで、予め、環境マップ42について、全通りの推定軌跡モデル51が用意され、用意された推定軌跡モデル51を示す推定軌跡モデル表が、記憶部に格納されていてよい。また、機能4、7及び8は、定期的に実行されてよい。例えば、一定期間毎に機能4、7及び8が実行されることで、一定期間中に計測装置から得られた撮影画像から、当該一定期間での計測軌跡モデルが生成されて、当該計測軌跡モデルと、いずれかの推定軌跡モデルとが対応付けられてもよい。或る一定期間について機能4が使用する計測用パラメータ群300は、前の一定期間で変更された(最適化された)計測用パラメータ群となる。
 また、機能5及び6に代えて、予め複数の推定軌跡モデルが用意(記憶部に格納)されていてもよい。
 実施例2を説明する。その際、実施例1との相違点を主に説明し、実施例1との共通点については説明を省略又は簡略する。
 実施例1では、ステレオカメラ(2台のカメラ2、2)といった1台の計測装置が採用されるが、本実施例では、複数の計測装置が採用される。
 図14は、本発明の実施例2に係る物体検出装置の機能ブロック図である。
 実施例2に係る物体検出装置80は、複数の計測装置81を使用して物体検出を実施する際に、各計測装置81の計測用パラメータ群300´を自動で最適化する装置である。実施例2では、物体検出装置80は、各計測装置81の計測結果から計測軌跡モデルを生成し、各計測装置81の特性から軌跡モデルの信頼度を算出した後、それらの軌跡モデルを互いに対応付け計測用パラメータ群300´を変更する。図14において、計測結果取得部4’、計測軌跡モデル生成部60’、及び、軌跡モデル対応付け部7’は、実施例1での機能をほぼ踏襲しており、パラメータ変更部8及び最終パラメータ出力部9は実施例1での機能と同一である。情報取得部82は、計測装置81から出力される計測情報(計測装置81により計測された情報)と計測装置81の特性情報を取得する機能である。計測軌跡モデル信頼度算出部83は、情報取得部82により取得した、計測装置81の特性情報を基に、計測装置81の計測結果から生成した計測軌跡モデルの信頼性を算出する機能である。
 以下、機能82及び83の各々について説明する。なお、計測装置81ごとに機能82、4’、60’及び83があるため、1つの計測装置81を例に取る。この計測装置81を、図14の説明において、「第1の計測装置81」と言う。以下に説明するように、第1の計測装置81にとって、計測軌跡モデルと推定軌跡モデルがある。第1の計測装置81にとっての計測軌跡モデルは、第1の計測装置81からの計測情報を基に取得されたモデルである。一方、第1の計測装置81にとっての推定軌跡モデルは、いずれかの第2の計測装置81からの計測情報を基に取得された計測軌跡モデルのうち信頼度が最も高い計測軌跡モデルである。「第2の計測装置81」は、第1の計測装置81以外のいずれかの計測装置81である。本実施例では、計測装置81は2台であるため、第2の計測装置81は一義的に決まる。計測装置81が3台以上の場合、第2の計測装置81は、第1の計測装置81以外の2台以上の計測装置のうちのいずれかである。第1の計測装置81以外の2台以上の計測装置のうち、第1の計測装置81にとっての推定軌跡モデルは、それら2台以上の計測装置81にそれぞれ対応した2以上の推定軌跡モデルのうち最も信頼度の高い推定軌跡モデルが得られた計測装置でよい。
 情報取得部82は、第1の計測装置81の計測情報と特性情報を取得する。第1の計測情報とは、第1の計測装置81がカメラの場合は画像(撮影画像)であり、第1の計測装置81がTOF(Time Of Flight)センサの場合は距離情報であり、第1の計測装置81がレーザレーダの場合は3次元点群情報である。第1の計測装置81の特性情報とは、第1の計測装置81の特性に関する情報、例えば、第1の計測装置81の設置環境、設置場所との相性(例えば、第1の計測装置81の設置場所が第1の計測装置81にとって計測が得意な場所か否か)、計測状況、計測範囲及び計測時間のうちの少なくとも1つを示す情報を含んだ情報である。具体的には、例えば、特性情報は、TOFセンサは屋外の計測を苦手とするが、カメラは屋内及び屋外ともに安定して計測するといった情報や、TOFセンサやステレオカメラは計測装置から近い区画の計測は得意であるが遠方の計測は不得意であるといった情報や、レーザレーダは遮蔽が発生しない閑散な状況は得意であるが、遮蔽が起こる混雑状況は苦手とするなどの情報がある。
 計測軌跡モデル信頼度算出部83は、計測軌跡モデル生成部60’により作成した計測軌跡モデル(第1の計測装置81について得られた計測軌跡モデル)の信頼度を、例えば第1の計測装置81からの特性情報を基に算出し、信頼度の高い計測軌跡モデルを、第2の計測装置81にとっての推定軌跡モデルとする。信頼度を算出する方法としては、第1の計測装置81の特性情報を考慮しつつ、実施例1で述べた計測軌跡モデル選定部61と同様の方法で算出する。例えば、第1の計測装置81が計測を苦手とする地点に第1の計測装置81が設置されているのであれば、計測軌跡モデルの信頼度を全体的に低下させる(全ての計測軌跡モデルを推定軌跡モデルとはみなされないようにする)といった方法や、第1の計測装置81が計測を得意とする地点に第1の計測装置81が設置されているのであれば、計測軌跡モデルの信頼度を全体的に高める(少なくとも1つの計測軌跡モデルが第2の計測装置81の推定軌跡モデルとはみなさるようにする確率を高める)といった方法や、動体検出数などから計測軌跡モデル作成時の混雑状況などを判断し、混雑時でも比較的高い精度で計測可能な装置の計測軌跡モデルの信頼度を高め、混雑が苦手な計測装置の計測軌跡モデルは信頼度を低下させるなどといった方法があり、信頼度を算出する方法は特に限定されない。計測軌跡モデル信頼度算出部83は、信頼度の高い計測軌跡モデルを選定し、当該選定した計測軌跡モデルを、第2の計測装置81にとって真値の軌跡モデルである推定軌跡モデルとする。つまり、1台の計測装置81から計測軌跡モデルと推定軌跡モデルの両方が生成される。物体検出装置80では、計測装置81ごとに計測軌跡モデルと推定軌跡モデルの両方が、生成され、軌跡モデル対応付け部7に出力される。なお、第1の計測装置81にとって、第2の計測装置81に対応した計測軌跡モデル信頼度算出部83が、推定モデル取得部の一例である。
 軌跡モデル対応付け部7’は、計測軌跡モデル生成部60を有さない(実施例1でも、計測軌跡モデル生成部60は、軌跡モデル対応付け部7の外に存在してもよい)。軌跡モデル対応付け部7’は、計測装置81ごとに、当該計測装置81の計測軌跡モデルと別の計測装置81の推定軌跡モデルとの対応付けを実施する。例えば、軌跡モデル対応付け部7’は、第1の計測装置81について、計測軌跡モデルと推定軌跡モデル(第2の計測装置81の計測軌跡モデルのうち最も信頼の高い計測軌跡モデル)とを対応付ける。対応付けそれ自体の方法は、実施例1と同様の方法でよい。
 パラメータ変更部8は、計測装置81ごとに、当該計測装置81に対応した対応付けの結果から(計測軌跡モデルと推定軌跡モデルとの一致度εが閾値未満の場合)、例えば計測軌跡モデルについて欠落した区画の傾向を基に、当該計測装置81の計測用パラメータ群300’を変更する。
 本発明の実施例2では、以上説明した機能構成により、物体検出装置80は、複数の計測装置81を利用して物体を検出するような物体検出装置において、計測装置81ごとに、初期の計測用パラメータ群を用いて当該計測装置81について取得された計測結果から作成した計測軌跡モデルと、別の計測装置81について取得された計測軌跡モデルの中から当該別の計測装置81の特性情報を基に算出した信頼度を用いて選出した推定軌跡モデルとを比較して、両者の軌跡モデルが同等となるように当該計測装置81の計測用パラメータ群を変更する。これにより、各計測装置81について、当該計測装置81が計測を苦手とする場所や計測範囲、計測状況においても物体を高精度に検出することができる。従って、第1の計測装置81にとって、本実施例での「対応付け」とは、後段のパラメータ変更(パラメータ最適化)のために、推定軌跡モデル(第2の計測装置81について得られた最も信頼度の高い計測軌跡モデル)と比較される計測軌跡モデルを、第1の計測装置81について得られた1以上の計測軌跡モデルから決定(選択)することでよい。言い換えれば、推定軌跡モデルと比較される計測軌跡モデルを見つけることが、本実施例で言う「対応付け」でよく、モデル間にリンクを張るといったような特段の関連付けはなくてもよい。
 以上、本発明の幾つかの実施例を説明したが、これらは本発明の説明のための例示であって、本発明の範囲をこれらの実施例にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実施することが可能である。
 例えば、1以上の計測軌跡モデルの各々は、物体の計測位置、物体の計測時刻、動体検出数、物体の移動速度、物体の移動方向、環境情報、及び、動線の区画欠落に関する欠落情報のうちの少なくとも1つに基づいている。
 例えば、パラメータ変更部8は、計測軌跡モデルと推定軌跡モデル間の一致度に代えて又は加えて、計測軌跡モデルと推定軌跡モデルとのうちの一方のモデルに対する他方のモデルの数を基に、計測用パラメータ群を変更するか否かを判定してよい。例えば、パラメータ変更部8は、一方のモデル(例えば計測軌跡モデル)に対して他方のモデル(例えば、推定軌跡モデルの数)が予め定めた閾値未満であれば、計測用パラメータ群を変更してよい。言い換えれば、パラメータ変更部8は、一方のモデル(例えば計測軌跡モデル)に対して他方のモデル(例えば、推定軌跡モデルの数)が予め定めた閾値以上であれば、計測用パラメータ群を変更しないでよい。
 例えば、上述の説明の総括の一例として、物体検出装置を次のように表現することができる。すなわち、物体検出装置が、計測装置に接続されるインターフェース部と、インターフェース部に接続されたプロセッサ部とを有する。プロセッサ部は、下記の(A)~(E)、
(A)計測装置により計測範囲について定期的に又は不定期的に計測された情報を表す計測情報を基に、1以上の計測用パラメータである計測用パラメータ群を用いて定期的に又は不定期的に1以上の物体の計測結果を取得する、
(B)計測結果が取得された場合に当該計測結果を基に当該計測結果が表す1以上のモデルである1以上の計測モデルを生成する、
(C)計測範囲において推定される1以上のモデルである1以上の推定モデルを取得する、
(D)生成された1以上の計測モデルと取得された1以上の推定モデルとから比較対象とする計測モデル及び推定モデルを決定する、及び、
(E)決定された計測モデルと推定モデルとの比較の結果を基に計測用パラメータ群を変更する、
を行う。
 1、80…物体検出装置

Claims (14)

  1.  計測装置により計測範囲について定期的に又は不定期的に計測された情報を表す計測情報を基に、1以上の計測用パラメータである計測用パラメータ群を用いて定期的に又は不定期的に1以上の物体の計測結果を取得する計測結果取得部と、
     前記計測結果が取得された場合に当該計測結果を基に当該計測結果が表す1以上のモデルである1以上の計測モデルを生成する計測モデル生成部と、
     前記計測範囲において推定される1以上のモデルである1以上の推定モデルを取得する推定モデル取得部と、
     前記生成された1以上の計測モデルと前記取得された1以上の推定モデルとから比較対象とする計測モデル及び推定モデルを決定するモデル対応付け部と、
     前記決定された計測モデルと推定モデルとの比較の結果を基に前記計測用パラメータ群を変更するパラメータ変更部と
    を有する物体検出装置。
  2.  前記1以上の計測モデルの各々は、物体の計測された動線を表すモデルであり、
     前記1以上の推定モデルの各々は、物体の推定された動線を表すモデルであり、
     物体の動線は、前記計測範囲に対応したエリアを構成する複数の区画のうち当該物体が通行した区画の順路であり、
     前記決定された計測モデルと推定モデルは、同じ順路を含んだモデルである、
    請求項1に記載の物体検出装置。
  3.  前記比較の結果は、前記決定された計測モデルと推定モデルとの一致度が閾値以上であるか否かを含み、
     前記決定された計測モデルと推定モデルとの一致度が閾値未満の場合に、前記パラメータ変更部が前記計測用パラメータ群を変更し、
     前記一致度は、前記決定された推定モデルが示す動線に含まれる区画の数と、前記決定された計測モデルが示す動線に含まれる区画の数とに基づいている、
    請求項1に記載の物体検出装置。
  4.  前記比較の結果が、更に、前記決定された計測モデルが示す動線における区画欠落の属性を含む、
    請求項3に記載の物体検出装置。
  5.  前記計測装置は、カメラであり、
     前記属性は、下記のうちの少なくとも1つである、
      欠落する区画が前記カメラの近傍範囲あるいは遠方範囲に偏りがあるか否か、
      欠落する区画が前記カメラの光軸に対し左右方向に偏りがあるか否か、
      欠落する区画が全体的に疎らであるか否か、
    請求項4に記載の物体検出装置。
  6.  前記1以上の計測モデルの各々は、物体の計測位置、物体の計測時刻、動体検出数、物体の移動速度、物体の移動方向、環境情報、及び、動線の区画欠落に関する欠落情報のうちの少なくとも1つに基づいている、
    請求項2に記載の物体検出装置。
  7.  前記1以上の推定モデルの各々は、前記計測範囲に関する環境情報を基に生成されたモデルである、
    請求項2に記載の物体検出装置。
  8.  前記パラメータ変更部は、前記計測用パラメータ群を変更した場合、前記エリアを構成する区画の数を変更する、
    請求項7に記載の物体検出装置。
  9.  前記計測装置として、2以上の計測装置があり、
     前記2以上の計測装置の各々について、当該計測装置に対応した計測用パラメータ群があり、
     前記2以上の計測装置の各々について、当該計測装置である第1の計測装置に関して採用される推定モデルは、当該計測装置以外のいずれかの計測装置である第2の計測装置に関して生成された1以上の計測モデルのうち最も信頼度が高い計測モデルである、
    請求項1に記載の物体検出装置。
  10.  前記第2の計測装置に関して生成された1以上の計測モデルの各々の信頼度は、前記第2の計測装置の特性に関する情報である特性情報に基づいている、
    請求項9に記載の物体検出装置。
  11.  前記特性情報は、前記第2の計測装置の設置場所の前記第2の計測装置との相性を示す情報を含む、
    請求項10に記載の物体検出装置。
  12.  前記計測用パラメータ群の各計測用パラメータについて、当該計測用パラメータを変更する範囲は一定の範囲である、
    請求項1に記載の物体検出装置。
  13.  計測装置により計測範囲について定期的に又は不定期的に計測された情報を表す計測情報を基に、1以上の計測用パラメータである計測用パラメータ群を用いて定期的に又は不定期的に1以上の物体の計測結果を取得し、
     前記計測結果が取得された場合に当該計測結果を基に当該計測結果が表す1以上のモデルである1以上の計測モデルを生成し、
     前記計測範囲において推定される1以上のモデルである1以上の推定モデルを取得し、
     前記生成された1以上の計測モデルと前記取得された1以上の推定モデルとから比較対象とする計測モデル及び推定モデルを決定し、
     前記決定された計測モデルと推定モデルとの比較の結果を基に前記計測用パラメータ群を変更する、
    物体検出方法。
  14.  計測装置により計測範囲について定期的に又は不定期的に計測された情報を表す計測情報を基に、1以上の計測用パラメータである計測用パラメータ群を用いて定期的に又は不定期的に1以上の物体の計測結果を取得し、
     前記計測結果が取得された場合に当該計測結果を基に当該計測結果が表す1以上のモデルである1以上の計測モデルを生成し、
     前記計測範囲において推定される1以上のモデルである1以上の推定モデルを取得し、
     前記生成された1以上の計測モデルと前記取得された1以上の推定モデルとから比較対象とする計測モデル及び推定モデルを決定し、
     前記決定された計測モデルと推定モデルとの比較の結果を基に前記計測用パラメータ群を変更する、
    ことをコンピュータに実行させるためのコンピュータプログラム。
PCT/JP2017/044965 2017-12-14 2017-12-14 物体検出装置及び物体検出方法 WO2019116518A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/044965 WO2019116518A1 (ja) 2017-12-14 2017-12-14 物体検出装置及び物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/044965 WO2019116518A1 (ja) 2017-12-14 2017-12-14 物体検出装置及び物体検出方法

Publications (1)

Publication Number Publication Date
WO2019116518A1 true WO2019116518A1 (ja) 2019-06-20

Family

ID=66819130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044965 WO2019116518A1 (ja) 2017-12-14 2017-12-14 物体検出装置及び物体検出方法

Country Status (1)

Country Link
WO (1) WO2019116518A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009113231A1 (ja) * 2008-03-14 2009-09-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP2011044046A (ja) * 2009-08-21 2011-03-03 National Institute Of Advanced Industrial Science & Technology 物体認識装置および物体認識方法
US20120120241A1 (en) * 2010-11-12 2012-05-17 Sony Corporation Video surveillance
WO2013031092A1 (ja) * 2011-08-26 2013-03-07 日本電気株式会社 動線検出性能シミュレーションシステム、方法およびプログラム
JP2013114500A (ja) * 2011-11-29 2013-06-10 Hitachi Ltd サービス制御システム、サービスシステム
JP2017102838A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識アルゴリズムの機械学習のためのデータベース構築システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009113231A1 (ja) * 2008-03-14 2009-09-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP2011044046A (ja) * 2009-08-21 2011-03-03 National Institute Of Advanced Industrial Science & Technology 物体認識装置および物体認識方法
US20120120241A1 (en) * 2010-11-12 2012-05-17 Sony Corporation Video surveillance
WO2013031092A1 (ja) * 2011-08-26 2013-03-07 日本電気株式会社 動線検出性能シミュレーションシステム、方法およびプログラム
JP2013114500A (ja) * 2011-11-29 2013-06-10 Hitachi Ltd サービス制御システム、サービスシステム
JP2017102838A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識アルゴリズムの機械学習のためのデータベース構築システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法

Similar Documents

Publication Publication Date Title
US11668571B2 (en) Simultaneous localization and mapping (SLAM) using dual event cameras
US9741130B2 (en) Method and apparatus for detecting object
CN110807350B (zh) 用于面向扫描匹配的视觉slam的***和方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US10540777B2 (en) Object recognition device and object recognition system
US20180005018A1 (en) System and method for face recognition using three dimensions
KR102052114B1 (ko) 고정밀 전자지도 갱신을 위한 객체 변화 탐지 시스템 및 방법
CN107079093B (zh) 校准装置
JP2016029564A (ja) 対象検出方法及び対象検出装置
WO2021063128A1 (zh) 单相机环境中主动式刚体的位姿定位方法及相关设备
JP2004340840A (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
US10636190B2 (en) Methods and systems for exploiting per-pixel motion conflicts to extract primary and secondary motions in augmented reality systems
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
JP7479324B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6817742B2 (ja) 情報処理装置およびその制御方法
US11004211B2 (en) Imaging object tracking system and imaging object tracking method
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
CN110428461B (zh) 结合深度学习的单目slam方法及装置
EP4009274A1 (en) Image processing device, three-dimensional measurement system, and image processing method
JP6845929B2 (ja) 三次元計測装置、および方法
WO2019116518A1 (ja) 物体検出装置及び物体検出方法
JP7375806B2 (ja) 画像処理装置、及び画像処理方法
JP7096176B2 (ja) 物***置推定装置およびその方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17934814

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17934814

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP