WO2021100115A1 - 対象物検出装置、対象物検出方法、及びプログラム - Google Patents

対象物検出装置、対象物検出方法、及びプログラム Download PDF

Info

Publication number
WO2021100115A1
WO2021100115A1 PCT/JP2019/045243 JP2019045243W WO2021100115A1 WO 2021100115 A1 WO2021100115 A1 WO 2021100115A1 JP 2019045243 W JP2019045243 W JP 2019045243W WO 2021100115 A1 WO2021100115 A1 WO 2021100115A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
region
target
detection target
viewed
Prior art date
Application number
PCT/JP2019/045243
Other languages
English (en)
French (fr)
Inventor
野村 俊之
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/045243 priority Critical patent/WO2021100115A1/ja
Priority to US17/777,337 priority patent/US20230003884A1/en
Priority to JP2021558072A priority patent/JP7298708B2/ja
Publication of WO2021100115A1 publication Critical patent/WO2021100115A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/887Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to an object detection device, an object detection method, and a program.
  • Patent Document 1 describes that an image is generated by receiving millimeter waves radiated from a person.
  • Patent Document 2 also describes that an image is generated by irradiating a person with microwaves from three directions and analyzing the reflected waves of these microwaves.
  • the reflected wave of the electromagnetic wave irradiated to the subject By analyzing the reflected wave of the electromagnetic wave irradiated to the subject, it is possible to estimate the three-dimensional shape of the subject such as a person and the attachments of the subject (for example, the belongings of the person).
  • the 3D information of the reflected wave of the electromagnetic wave is converted into a 2D image in order to reduce the processing load, even if the regulated article is to be detected by the image recognition process, it cannot be detected or is erroneous. It may be detected. Therefore, there is a possibility that the detection accuracy of the object will be lowered.
  • An object of the present invention is to improve the detection accuracy and the detection efficiency when an object is detected by irradiating an electromagnetic wave and analyzing the reflected wave.
  • the first aspect relates to an object detector.
  • the object detection device is An image generation means for generating a two-dimensional image of the inspection target viewed from a predetermined direction from the three-dimensional information obtained by processing the reflected wave of the electromagnetic wave radiated toward the inspection target.
  • a region detection means for detecting at least two detection regions of a detection object recognized by using at least two recognition means from the two-dimensional image, and a region detection means. It has a discriminating means for discriminating the detection target based on the positional relationship between the detected at least two detection regions.
  • the second aspect relates to an object detection method performed by at least one computer.
  • the object detection method according to the second aspect is The object detection device From the three-dimensional information obtained by processing the reflected wave of the electromagnetic wave emitted toward the inspection target, a two-dimensional image of the inspection target viewed from a predetermined direction is generated. At least two detection regions of the detection target recognized by using at least two recognition means are detected from the two-dimensional image, respectively. This includes determining the detection target based on the positional relationship between the detected at least two detection regions.
  • this invention may be a program that causes at least one computer to execute the method of the second aspect, or a recording medium that can be read by a computer that records such a program. You may.
  • This recording medium includes non-temporary tangible media.
  • This computer program includes computer program code that causes the computer to perform its object detection method on the object detection device when executed by the computer.
  • the various components of the present invention do not necessarily have to be independent of each other, and a plurality of components are formed as one member, and one component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, and the like.
  • the order of description does not limit the order in which the plurality of procedures are executed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not hinder the contents.
  • the method of the present invention and the plurality of procedures of the computer program are not limited to being executed at different timings. Therefore, another procedure may occur during the execution of a certain procedure, a part or all of the execution timing of the certain procedure and the execution timing of the other procedure may overlap, and the like.
  • the detection accuracy is increased and the detection efficiency is improved.
  • acquisition means that the own device retrieves data or information stored in another device or storage medium (active acquisition), and is output to the own device from the other device. Includes at least one of entering data or information (passive acquisition). Examples of active acquisition include requesting or inquiring about other devices and receiving the reply, and accessing and reading other devices or storage media. In addition, an example of passive acquisition may be receiving information to be delivered (or transmitted, push notification, etc.). Further, the “acquisition” may be to select and acquire the received data or information, or to select and receive the delivered data or information.
  • FIG. 1 is a diagram illustrating a usage environment of the object detection device 20 according to the embodiment.
  • the object detection device 20 is used together with the irradiation device 10 and the display device 30.
  • the irradiation device 10 irradiates a subject such as a passerby with an electromagnetic wave, and receives the reflected wave reflected by the subject. Further, the irradiation device 10 generates an intermediate frequency signal (IF signal) by frequency-converting the received reflected wave into an intermediate frequency band.
  • IF signal intermediate frequency signal
  • the electromagnetic wave emitted by the irradiation device 10 it is desirable to use an electromagnetic wave having a wavelength that is transmitted through a cloth (for example, clothes) but is reflected by the subject itself (for example, a human body) or an accessory of the subject.
  • the electromagnetic wave is a microwave, a millimeter wave, or a terahertz wave, and has a wavelength of 30 micrometers or more and 1 meter or less.
  • the horizontal direction of the surface on which the irradiation device 10 irradiates the electromagnetic wave is the x direction
  • the vertical direction (vertical direction) is the y direction
  • the direction of irradiating the electromagnetic wave is the z direction.
  • the irradiation device 10 executes the process of generating the IF signal described above at a plurality of timings.
  • the irradiation device 10 performs a process of generating the above-mentioned IF signal 10 times or more (preferably 20 times or more) per second, for example.
  • the irradiation device 10 is arranged parallel to the passage 40 of the subject (180 degrees), but the irradiation device 10 has an angle other than 180 degrees with respect to the passage 40. It may be arranged in.
  • the object detection device 20 acquires an IF signal from the irradiation device 10 and processes the IF signal to generate three-dimensional position information indicating the three-dimensional shape of at least a part of the subject.
  • the three-dimensional position information is based on the distance from the portion (reflection point) of the subject to which the electromagnetic wave is irradiated to the irradiation device 10 and the irradiation device 10 (for example, the antenna (not shown) of the receiving unit 130). It contains information to identify each of the angles of the reflection points of time.
  • the distance specified by the three-dimensional position information may be, for example, the distance from the transmitting antenna (not shown) of the transmitting unit 110, which will be described later, to the target portion, or from the receiving antenna of the receiving unit 130 to the target portion. It may be a distance or an average value of these.
  • the three-dimensional position information also includes information on the intensity of the reflected wave at each position.
  • the three-dimensional position information is also information for identifying the three-dimensional shape of at least a part of the accessory.
  • the object detection device 20 determines the presence or absence of an accessory, and causes the display device 30 to display information indicating the determination result.
  • the detection target of the object detection device 20 is not limited to the above-mentioned accessories.
  • the object detection device 20 generates a two-dimensional or three-dimensional image of the subject as necessary and displays it on the display device 30. If the subject has an adjunct, this image also includes the accompaniment.
  • the irradiation device 10 further includes a sensor for detecting a subject entering the irradiation target area (for example, a motion sensor) and a sensor for detecting a subject leaving the irradiation target area (for example, a motion sensor). ) Is provided.
  • the irradiation device 10 or the object detection device 20 can identify a plurality of IF signals corresponding to the same subject by using the detection results of these sensors. Instead of the sensor, the received reflected wave may be used to detect the subject.
  • FIG. 2 is a diagram showing an example of the functional configuration of the irradiation device 10.
  • the irradiation device 10 includes a transmission unit 110, a control unit 120, a reception unit 130, and a data transfer unit 140.
  • the transmission unit 110 irradiates an electromagnetic wave toward a region through which the subject passes (hereinafter referred to as an irradiation region).
  • the transmitter 110 has, for example, an omnidirectional antenna.
  • the transmission unit 110 can change the frequency of the electromagnetic wave within a certain range.
  • the transmission unit 110 is controlled by the control unit 120.
  • the control unit 120 also controls the reception unit 130.
  • the receiving unit 130 receives the reflected wave from the subject.
  • the receiving unit 130 generates an intermediate frequency signal (IF signal) by frequency-converting the received reflected wave into an intermediate frequency band.
  • the control unit 120 controls to set the intermediate frequency band in the receiving unit 130 to an appropriate value.
  • the data transfer unit 140 acquires the IF signal generated by the reception unit 130 and outputs it to the object detection device 20. Further, it is desirable that the data transfer unit 140 also outputs the time at the time of transmission or the time when the IF signal is generated (hereinafter referred to as time information) to the object detection device 20.
  • FIG. 3 is a diagram showing an example of the functional configuration of the object detection device 20.
  • the object detection device 20 includes an image generation unit 220, an area detection unit 230, and a discrimination unit 240.
  • the image generation unit 220 generates a two-dimensional image of the inspection target viewed from a predetermined direction from the three-dimensional information obtained by processing the reflected wave of the electromagnetic wave emitted toward the inspection target.
  • the region detection unit 230 detects at least two detection regions of the detection target object recognized by using at least two recognition means from the two-dimensional image.
  • the discrimination unit 240 discriminates the detection target based on the positional relationship of at least two detected detection regions.
  • the inspection target is, for example, a person or baggage.
  • the predetermined direction is one or two directions.
  • the detection target includes, for example, regulated articles such as weapons and dangerous goods, and objects other than the regulated articles (for example, body, arm).
  • the object detection device 20 may further include a storage device 250 that stores the acquired three-dimensional information, the generated two-dimensional image, the discrimination result, and the like.
  • the storage device 250 may be the same device as the object detection device 20, or may be a device separate from the object detection device 20. Further, the storage device 250 may be a plurality of storage devices.
  • A1 It is a recognition means for generating two two-dimensional images viewed from different directions and recognizing each detection target, and two detection regions are detected by the region detection unit 230 from each two-dimensional image.
  • A2 It is a recognition means for recognizing two different detection objects from one two-dimensional image viewed from a predetermined direction, and two detection regions are detected by the region detection unit 230 from one two-dimensional image.
  • the recognition means of the area detection unit 230 collates a two-dimensional image of an object registered in advance as a detection object as viewed from a predetermined direction with a two-dimensional image generated by the image generation unit 220 by image recognition processing. By doing so, the detection target is recognized.
  • the detection target is recognized using a model in which a two-dimensional image of the detection target viewed from a predetermined direction is learned as teacher data.
  • a detection target is recognized from two different two-dimensional images, and if the same detection target and the recognized object are in different positions, it is determined as an erroneous detection.
  • the detection target is recognized from two different two-dimensional images, and if the same detection target and the recognized object have the same position, it is determined to be the detection target.
  • Two different detection targets are recognized from one two-dimensional image, and the detection target is determined based on whether or not the positional relationship of each detection target has a pre-registered relationship.
  • the positional relationship between the two detection objects is registered in advance, and the positional relationship between the two recognized objects is registered.
  • Each detection target is discriminated when it is positioned as the one that has been detected.
  • Two different detection objects are recognized from one two-dimensional image, and when the positions of the two objects recognized as the detection objects are the same, it is determined as erroneous recognition.
  • FIG. 4 is a block diagram illustrating the hardware configuration of the object detection device 20.
  • the object detection device 20 includes a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
  • the bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 to transmit and receive data to and from each other.
  • the method of connecting the processors 1020 and the like to each other is not limited to the bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
  • the memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the storage device 1040 provides each function of the object detection device 20 (for example, an acquisition unit 210, an image generation unit 220, an area detection unit 230, a discrimination unit 240, an estimation unit 260 described later, an output control unit 280, and the like). It remembers the program module to be realized.
  • the processor 1020 reads each of these program modules into the memory 1030 and executes them, each function corresponding to the program module is realized.
  • the storage device 1040 also functions as various storage units.
  • the input / output interface 1050 is an interface for connecting the object detection device 20 and various input / output devices (for example, the display device 30).
  • the network interface 1060 is an interface for connecting the object detection device 20 to another device (for example, the irradiation device 10) on the network. However, the network interface 1060 may not be used.
  • FIG. 5 is a flowchart showing an example of the operation of the object detection device 20.
  • the image generation unit 220 generates a two-dimensional image of the inspection target viewed from a predetermined direction from the three-dimensional information (step S101).
  • the area detection unit 230 detects the detection target from the two-dimensional image by using at least two recognition means (step S103).
  • the region detection unit 230 detects at least two detection regions of the detected detection target, respectively (step S105).
  • the determination unit 240 determines the detection target based on the positional relationship between the detected at least two detection regions (step S107).
  • the region detection unit 230 detects at least two detection regions of the detection target recognized by using at least two recognition means, and the discrimination unit 240 detects the two detection regions.
  • the detection target is determined based on the positional relationship.
  • the image generation unit 220 converts the three-dimensional information into a two-dimensional image and performs the detection process, the processing load can be reduced and the processing efficiency can be improved.
  • FIG. 6 is a functional block diagram showing a configuration example of the object detection device 20 of the present embodiment.
  • the object detection device 20 of the present embodiment has a configuration for detecting a region of a detection target using the recognition means of (a1) described above. That is, a two-dimensional image 222a viewed from a predetermined direction (angle A) and a two-dimensional image 222b viewed from a direction different from the angle A (angle B) are generated, and are recognized using the two-dimensional image 222b of the angle B.
  • the position of the detection object (second detection area 232b described later) and the position of the detection object seen from the angle B estimated using the two-dimensional image 222a of the angle A (estimated area 262 described later).
  • It has a configuration for discriminating a detection target using.
  • the depth information of the detection object at the angle A is used.
  • the object detection device 20 of the present embodiment includes an acquisition unit 210, an image generation unit 220a, an image generation unit 220b, an area detection unit 230a, an area detection unit 230b, an estimation unit 260, and a discrimination unit 240. I have.
  • the acquisition unit 210 acquires the three-dimensional information 212 obtained by processing the reflected wave of the electromagnetic wave radiated toward the inspection target, and outputs the three-dimensional information 212 to the image generation unit 220a and the image generation unit 220b.
  • the image generation unit 220a generates a first two-dimensional image 222a when the inspection target is viewed from the first direction (angle A) from the three-dimensional information 212. Further, the image generation unit 220a generates distance information 224 to each reflection point of the pixels constituting the first two-dimensional image 222a.
  • the image generation unit 220b generates a second two-dimensional image 222b when the inspection target is viewed from a second direction (angle B) different from the first direction (angle A) from the three-dimensional information 212.
  • the area detection unit 230a detects the first detection area 232a in which the detection target is presumed to exist from the first two-dimensional image 222a.
  • the region detection unit 230b detects the second detection region 232b in which the detection target is presumed to exist from the second two-dimensional image 222b.
  • the estimation unit 260 has a second detection target viewed from the first direction (angle A) based on the distance information 224 of the detection region detected by the region detection unit 230a and each position (pixel) of the detection region.
  • the area where the detection object exists when viewed from the direction (angle B) is estimated and used as the estimation area 262. The details of the estimation method of the estimation area 262 will be described later.
  • the determination unit 240 is an estimation area estimated by the estimation unit 260 when viewed from one of the first direction (angle A) and the second direction (angle B) (angle B in this example). Based on the positional relationship between the 262 and the detection area 232b detected by the area detection unit 230b, it is determined whether or not the object is the detection target. The details of the discrimination method of the discrimination unit 240 will be described later.
  • FIG. 7 is a diagram for explaining the detection result when a different object is recognized from the two-dimensional image 222.
  • FIG. 7A shows an example in which the detection target 62 is attached to the non-detection target 64.
  • FIG. 7B shows an example in which the non-detection target 64 is further accompanied by the non-detection target subject 66.
  • each figure of FIG. 7 is a cross-sectional view at a height y1 of the detection target 62, the non-detection target 64, and the subject 66.
  • the y-axis is not shown in this figure.
  • each region in the xy direction and the zy direction is not shown.
  • Range of the first detection region 232a which is detected by the region detecting unit 230a when the detection object 62 as viewed from angle A in FIG. 7 (a) is a O A1 (x1, x2).
  • Range of the first detection region 232a which is detected by the region detecting unit 230a when the subject 66 viewed from the angle A in FIG. 7 (b) is a O A2 (x3, x4).
  • the detection target object 62 and the subject 66 are actually objects having different shapes, when the first detection region 232a detected by the region detection unit 230a is used for discrimination, the subject is discriminated. 66 is detected as a detection target object 62. In this way, if an attempt is made to detect an object in a shape viewed from only one direction, there is a possibility of erroneous detection, and the detection accuracy of the detection target object 62 may be lowered.
  • the shape of the subject 66 when the line-of-sight direction is an angle B (in this example, a direction parallel to the x-axis) different from the angle A is , Partially similar to the shape of the object to be detected 62. Therefore, the actual shape of the detection object 62 and the object 66 even though different, region O B2 of the object 66 to be detected by the region detection section 230b when viewed from the angle B (z3, z4 ' ) May be the same value as the region OB1 (z1, z2) of the detection target 62 detected by the region detection unit 230a. That is, the subject 66 is erroneously detected in a shape different from the actual shape.
  • the subject 66 is detected as the detection target 62 even though the two detection objects 62 and the subject 66 are actually objects having different shapes. In this way, even when an attempt is made to detect an object in a shape viewed from two directions, there is a possibility of erroneous detection, and there is a possibility that the detection accuracy of the detection target object 62 will be low.
  • the detection accuracy of the detection target object 62 is improved by using various methods.
  • FIG. 8 is a diagram for explaining an estimation area 262 estimated by the estimation unit 260.
  • the second detection region 232b detected by the second two-dimensional image region detecting section 230b from 222b viewed object 66 from angle B is O B2 (z3, z4 ') It becomes.
  • O RB2 ranging real object 66 (z3, z4) is narrower than (FIG. 8 (a)).
  • the estimation unit 260 provides distance information 224 (D (D (x3 to x4)) between the first detection region 232a detected by the region detection unit 230a and the pixels (x3 to x4) of the first detection region 232a generated by the image generation unit 220a.
  • the range of OEB2 (z3, z4) is estimated from x)) as the estimated region 262 of the subject 66.
  • the estimation region 262 is different from the range of O B2 of the second detection region 232b detected from the second two-dimensional images 222b in which the angle B shown in FIG. 8 (a) and line-of-sight direction (z3, z4 ') have approximately equal values obtained O RB2 of real range of the subject 66 (z3, z4). In this way, the shape of the subject 66 is correctly detected by the estimation unit 260.
  • FIG. 9 is a diagram for explaining a discrimination method of the discrimination unit 240, and shows the positional relationship between the detection region 232 and the estimation region 262.
  • the positional relationship between the detection region 232 and the estimation region 262 is shown by the ratio R of the area AI of the region 270 where the two regions overlap and the area AU of the region 272 which is the sum of the two regions (Equation (1)). That is, the degree of coincidence between the two regions is indicated by the ratio R.
  • R AI / AU ⁇ ⁇ ⁇ Equation (1)
  • the discrimination unit 240 calculates the ratio R (step S201). Then, when the ratio R is larger than the first threshold value (for example, 0.7) (YES in step S203), the discrimination unit 240 determines that the detected object is the detection target object 62 (step). S205).
  • the ratio R is larger than the first threshold value (for example, 0.7) (YES in step S203).
  • the discrimination unit 240 calculates the ratio R (step S201). Then, when the ratio R is smaller than the second threshold value (for example, 0.3) (YES in step S213), the discriminating unit 240 does not detect the detected object 62 (in other words, it is an erroneous detection). Yes), and the detection target object 62 is not detected (step S215).
  • the second threshold value for example, 0.3
  • the determination unit 240 After calculating the ratio R in step S201, the determination unit 240 performs a determination process using the first threshold value in step S203, and determines that the object is not the detection target 62 (NO in step S203).
  • the determination process may be performed using the second threshold value in S213.
  • the determination in step S213 may be performed before the determination in step S203.
  • the calculation method of the distance information 224 in the image generation unit 220 and the estimation method of the estimation area 262 by the estimation unit 260 can be considered in various ways, and the details will be described later.
  • the discrimination unit 240 determines whether the subject 66 is the detection target 62 based on the positional relationship between the estimation region 262 and the second detection region 232b. Further, the positional relationship between the estimated region 262 and the second detection region 232b is discriminated by the discriminating unit 240 based on the degree of coincidence of the regions.
  • the estimation unit 260 estimates the other region based on the distance information of the detection region in one line-of-sight direction, and comprehensively discriminates based on the region estimated to be the region detected by the discrimination unit 240. Therefore, even when the subject 66 has a shape partially similar to that of the detection target 62, the discrimination accuracy of the detection target 62 can be improved. Further, since the positional relationship of each region can be determined based on the degree of coincidence of the regions, the detection target object 62 can be efficiently determined.
  • FIG. 12 is a functional block diagram showing a configuration example of the object detection device 20 in the modified mode of the second embodiment.
  • the object detection device 20 includes an estimation unit 260a and an estimation unit 260b in place of the estimation unit 260 of the object detection device 20 of FIG.
  • the estimation unit 260a refers to the detection area detected by the area detection unit 230a and the distance information 224 of each position of the detection area for the object recognized as the detection target object viewed from the first direction (angle A).
  • An estimation region 262a at which the detection target object 62 is estimated to exist when the object recognized as the detection target object is viewed from the second direction (angle B) is estimated.
  • the detection target object 62 viewed from the angle A estimated from the second detection region 232b detected from the second two-dimensional image 222b viewed from the second direction (angle B) exists.
  • the estimated region 262b estimated to be estimated is estimated.
  • the discrimination unit 240 is based on the positional relationship between the estimation region 262a and the second detection region 232b estimated by the estimation unit 260a, and the positional relationship between the estimation region 262b and the first detection region 232a estimated by the estimation unit 260b. It is determined whether or not it is the detection target object 62.
  • the detection area 232 from the two-dimensional image 222 is detected with the detection object 62 in the first direction and the second direction as the line-of-sight direction, and both detection areas are further detected. Since the estimation region 262 estimated to exist in the detection target object 62 with the other direction estimated from 232 as the line-of-sight direction is estimated and comprehensively discriminated by the discriminating unit 240, the detection target object 62 It is possible to further improve the detection accuracy of.
  • the object detection device 20 of the present embodiment is the same as the above embodiment except that the distance information 224 of the detection object 62 is stored in advance and the distance information 224 is used for the estimation of the estimation area 262. Since the object detection device 20 of the present embodiment has the same configuration as the object detection device 20 of FIG. 3, it will be described with reference to FIG. The object detection device 20 of the present embodiment can be combined within a range consistent with at least one of the other configurations.
  • the distance information 224 of the detection target object 62 is stored in the storage device 250 in advance.
  • the estimation unit 260 estimates that the detection target 62 also exists in the distance information 224 of the detection target 62 stored in the storage device 250 when the detection target 62 is viewed from the second direction.
  • the estimation unit 260 is estimated.
  • the estimation unit 260 can estimate the estimation area 262 using the distance information 224 of the detection target object 62 stored in advance, so that it is necessary to use the distance information 224 generated by the image generation unit 220. Therefore, the load of the calculation process of the estimation area 262 by the estimation unit 260 can be reduced, and the processing efficiency can be improved. In particular, when the detection area 232 of the detection target object 62 is erroneously detected, it is not necessary to perform the estimation process of the estimation area 262 using the wrong detection area 232 and the wrong distance information 224, which is useless. Further, since the estimation area 262 can be estimated using the correct distance information 224, the detection accuracy of the detection target object 62 can be improved.
  • FIG. 13 is a functional block diagram showing a configuration example of the object detection device 20 of the present embodiment.
  • the object detection device 20 of the present embodiment is the same as the object detection device 20 of FIG. 3 except that it has a configuration for controlling the output of the discrimination result.
  • it also has an output control unit 280.
  • the object detection device 20 of the present embodiment can be combined within a range consistent with at least one of the other configurations.
  • the output control unit 280 outputs the discrimination result when it is determined by the discrimination unit 240 to be the detection target object 62, and does not output the discrimination result when it is determined that the detection target object 62 is not.
  • the output means for which the output control unit 280 outputs the discrimination result is, for example, the display device 30.
  • the determination result may be stored in the storage device 250.
  • voice or alarm sound may be output from the speaker.
  • the output information is at least one of information indicating that the detection target object 62 has been detected, information indicating the detected detection target object 62, and information indicating the date and time of detection and the location of detection. Can include one.
  • FIG. 14 is a flowchart showing an operation example of the object detection device 20. The flow of this figure is executed after step S107 of FIG.
  • the discrimination unit 240 in step S107 YES in step S301
  • Output step S303.
  • step S303 is bypassed and the present process is terminated. To do. That is, in this case, the output control unit 280 does not output the discrimination result.
  • the output control unit 280 changes the color of the detection area 232 in the two-dimensional image 222. Or the drawing surrounding the detection area 232 may be superimposed and displayed for highlighting.
  • the detection area 232 may be displayed in a different color from the detection area 232 of the detection object 62 described above, or may be drawn differently from the detection area 232 of the detection object 62 described above surrounding the detection area 232. It may be highlighted by superimposing it. As a result, a person can confirm an object that is determined not to be the detection target object 62.
  • the output control unit 280 can control whether or not to output the determination result of the detection of the detection target object 62. For example, if it is determined that the detection target object 62 is detected, the notification is sent, but if it is determined that the detection target object 62 is not detected, the notification is not given so that the number of notification information is appropriate. Can be held down. As a result, the workload of the observer can be reduced. However, if necessary, even if it is determined that the object is not the detection target 62, it is possible to give a notification so that a person can visually confirm it, or to make it possible to confirm it later. As a result, it is possible to prevent omission of detection of the detection target object 62 and reduce erroneous detection.
  • FIG. 15 is a functional block diagram showing a configuration example of the object detection device 20 of the present embodiment.
  • the object detection device 20 is configured to detect an area of a detection object using the recognition means of (a2) described above. That is, the recognition means recognizes two different detection objects from one two-dimensional image viewed from a predetermined direction.
  • the object detection device 20 includes an acquisition unit 210, an image generation unit 220, an area detection unit 230a, an area detection unit 230c, and a discrimination unit 240.
  • the acquisition unit 210 is the same as the above embodiment of FIGS. 6 and 12.
  • the image generation unit 220 generates a two-dimensional image 222 when the inspection target is viewed from a predetermined direction (for example, angle A) from the three-dimensional information 212.
  • the area detection unit 230a has a detection target detection unit (not shown) for detecting the first detection target 62a.
  • the region detection unit 230c has a non-detection object detection unit (not shown) that detects a second detection object 62b different from the first detection object 62a.
  • the first detection object 62a is, for example, an object to be detected, for example, an object whose carry-on is restricted, and includes regulated articles such as weapons, dangerous goods, and illegal objects.
  • the second detection target object 62b is, for example, an object other than the detection target, and includes, for example, an object other than the regulated article (for example, body, arm).
  • the combination of the first detection target object 62a and the second detection target object 62b is preferably such that the positional relationship between the first detection target object 62a and the second detection target object 62b is related to each other, such as "gun” and "human arm".
  • the combination of the first detection object 62a and the second detection object 62b may be similar in shape to each other, for example, a "gun” and a “human arm”. ..
  • the area detection unit 230a detects the first detection area 232a of the first detection object 62a by using the detection object detection unit.
  • the area detection unit 230c detects the third detection area 232c of the second detection object 62b by using the non-detection object detection unit.
  • the determination unit 240 performs the first detection based on the positional relationship between the first detection region 232a of the detected first detection target object 62a and the third detection region 232c detection region of the second detection target object 62b. It is determined whether or not the object is 62a.
  • FIG. 16A is a diagram for explaining a method of discriminating between the first detection target object 62a and the second detection target object 62b by the object detection device 20 of the present embodiment.
  • the first detection object 62a is a gun
  • the second detection object 62b is a human arm.
  • the area detection unit 230a detects the first detection area 232a of the first detection object 62a (gun).
  • the region detection unit 230c detects the third detection region 232c (shown by the alternate long and short dash line in the figure) of the second detection object 62b (human arm).
  • the discriminating unit 240 determines the first detection target object 62a (gun) and the second detection target object 62b based on the positional relationship between the detected first detection area 232a and the third detection area 232c. Determine (human arm). However, the discriminating unit 240 may be able to discriminate at least the first detection target 62a (gun).
  • the regions of the first detection target 62a (for example, a gun) and the second detection target 62b are detected, respectively, and the detection target is based on the positional relationship of the detected regions. Since each of the 62 can be discriminated, there is a possibility that erroneous detection and omission of detection can be reduced as compared with the case where only the first detection target 62a (for example, a gun or the like) is discriminated. Therefore, the detection efficiency of the detection target can be improved.
  • FIG. 17 is a functional block diagram showing a configuration example of the object detection device 20 according to the modified embodiment of the fifth embodiment.
  • an estimation unit 260 is provided in addition to the configuration of the object detection device 20 of FIG. 15, an estimation unit 260 is provided. Further, the estimation unit 260 is the same as the estimation unit 260 and the estimation unit 260a of the object detection device 20 of FIGS. 6 and 12.
  • the estimation unit 260 estimates that the line-of-sight direction in which the detection object 62 is estimated to exist in the first detection region 232a detected from the first two-dimensional image 222a in which the line-of-sight direction is angle A is angle B. Estimate region 262.
  • FIG. 16B is a diagram for explaining a method of discriminating between the first detection target object 62a and the second detection target object 62b by the object detection device 20 of the present embodiment.
  • the first detection object 62a is a gun
  • the second detection object 62b is a human arm.
  • the area detection unit 230c erroneously detects that the second detection object 62b (human arm) is the first detection object 62a (gun) is the first detection object 62a (gun)
  • the area detection unit 230a to the first detection area As 232a two regions R1 (indicated by a broken line in the figure) and an region R2 (indicated by a two-dot chain line in the figure) are detected.
  • the region detection unit 230b detects the third detection region 232c (indicated by the alternate long and short dash line in the figure) of the second detection object 62b (human arm).
  • the estimation unit 260 estimates the estimation regions 262 (regions RE1 and RE2) with the angle B as the line-of-sight direction for the regions R1 and R2, respectively. Then, the discrimination unit 240 discriminates the first detection target object 62a (gun) based on the positional relationship between the two estimated regions RE1 and RE2 and the third detection region 232c.
  • the region R2 detected as the first detection target 62a (gun) is the detection target 62b (human arm). It is determined. On the other hand, since the positions of the region RE1 and the third detection region 232c do not match, it is determined that the region R1 detected as the first detection target 62a (gun) is not the detection target 62b (human arm). ..
  • the detected object is not the detection target object 62. (In other words, it is an erroneous detection), and the detection target object 62 is not detected (step S405).
  • the third threshold value for example, 0.7
  • the detected object is a detection target object. It is determined to be 62 (step S415).
  • the determination unit 240 After calculating the ratio R in step S201, the determination unit 240 performs a determination process using the third threshold value in step S403, and determines that the object is not the detection target 62 (NO in step S403).
  • the determination process may be performed using the fourth threshold value in S413.
  • the determination in step S413 may be performed before the determination in step S403.
  • the same effect as that of the fifth embodiment can be obtained, and further, by detecting the detection target object and other than the detection target object, it is possible to discriminate by combining the two. Leakage and false positives can be reduced. Further, since the estimation unit 260 can detect the estimation region, the detection accuracy can be further improved.
  • FIG. 20 is a diagram for explaining an example of a method of calculating the distance information 224 in the image generation unit 220.
  • the image generation unit 220 can generate the distance information 224 by using any of the following calculation methods (c1) to (c3), but the distance information 224 is not limited thereto.
  • (C2) A voxel in which the amplitude of the radar image (three-dimensional information 212) first exceeds a predetermined threshold in the line-of-sight direction (z direction) is selected, and the amplitude value is set to the value I 2D (x, y) of the two-dimensional image 222. ). Further, the z coordinate is set to D (x, y) of the distance information 224.
  • (C3) A voxel that is the center of gravity of the amplitude of the radar image (three-dimensional information 212) in the line-of-sight direction (z direction) is selected, and the amplitude value is set to the value I 2D (x, y) of the two-dimensional image 222. Further, the z coordinate is set to D (x, y) of the distance information 224. It is obtained by the following equations (4) and (5), respectively.
  • FIG. 21 is a diagram for explaining an example of an estimation method of the estimation region 262 in the estimation unit 260.
  • the estimation unit 260 can generate the distance information 224 using any of the following calculation methods (d1) to (d4), but the estimation unit 260 is not limited thereto.
  • the line-of-sight direction (predetermined direction) of the first two-dimensional image 222a is the z direction (angle A), that is, parallel to the direction of irradiating the electromagnetic wave, and the estimation unit 260.
  • a case where the line-of-sight direction in which the detection object 62 is estimated to exist is parallel to the x direction (angle B) will be described.
  • FIG. 21C is a cross-sectional view between heights y1 and y2, and in the same figure, the description regarding the y direction is omitted.
  • (D1) area detection unit 230a detects a first detection region 232a of the first two-dimensional image detection object detected from 222a 62 line of sight angle A, O A (x1 shown in FIG. 21 (b) , Y1, x2, y2) and D (x, y) of the distance information 224 in the first detection area 232a of FIG. 21 (c), the estimation area 262 of the object viewed from the line-of-sight angle B. the estimated as O EB (z1, y1, z2 , y2).
  • z1 is the minimum value of the distance information 224 in the detection area 232a, and is calculated by the following equation (6).
  • z2 is the maximum value of the distance information 224 in the first detection area 232a, and is calculated by the following equation (7).
  • O A of the detection area 232a (x1, y1, x2, y2) is rectangular, because it includes also the area where the target object 62 is not present, z1, z2 are It may not be calculated correctly.
  • the value I 2D (x, y) of the first two-dimensional image 222a is smaller than the threshold value, it is regarded as a non-object region, and the maximum value or the minimum value of the above (d1) is calculated.
  • z1 and z2 can be calculated correctly.
  • a value obtained by multiplying the maximum value of I 2D (x, y) in the detection region by n is used. 0 ⁇ n ⁇ 1, and 0.1 is used, for example.
  • the distance information 224 of the center position or the center of gravity position of the detection area 232a may be used instead of the position where I 2D (x, y) is maximized in the detection area 232a.
  • the discrimination unit 240 determines the first detection target 62a according to the two positional relationships in the combination of the first detection target 62a (gun) and the second detection target 62b (human arm). You may change the urgency level of the notification.
  • the discriminating unit 240 may determine the highest level of urgency as compared with the case of other positional relationships.
  • the output control unit 280 of FIG. 16 can change the notification level and select the output destination and the output content based on the determination result.
  • An image generation means for generating a two-dimensional image of the inspection target viewed from a predetermined direction from the three-dimensional information obtained by processing the reflected wave of the electromagnetic wave radiated toward the inspection target.
  • a region detection means for detecting at least two detection regions of a detection object recognized by using at least two recognition means from the two-dimensional image, and a region detection means.
  • An object detection device including a discriminating means for discriminating the detection target based on the positional relationship between the detected at least two detection regions.
  • the image generation means From the three-dimensional information, a first two-dimensional image when the inspection target is viewed from the first direction is generated, and distance information to each reflection point of the pixels constituting the first two-dimensional image is obtained. Generate and Further, from the three-dimensional information, a second two-dimensional image when the inspection target is viewed from a second direction different from the first direction is generated, and pixels constituting the second two-dimensional image are generated. Generates distance information to each reflection point and The region detecting means has a first detection region in which the detection target is presumed to exist from the first two-dimensional image and the detection target from the second two-dimensional image.
  • the detection target object is detected from the second direction based on the detection region detected by the region detection means and the distance information of each position of the detection region. Equipped with an estimation means that estimates the area when viewed and uses it as the estimation area.
  • the discriminating means is the detection target based on the positional relationship between the estimated region estimated by the estimating means and the detection region detected by the region detecting means when viewed from the second direction.
  • An object detection device that determines whether or not an object is an object. 3. 3. 2.
  • the detection target is viewed from the first direction based on the detection region detected by the region detection means and the distance information at each position of the detection region. Estimate the time area and use it as the estimated area.
  • the discriminating means includes the positional relationship between the estimated region and the detection region when viewed from the second direction, and further, the estimated region estimated by the estimating means when viewed from the first direction.
  • An object detection device that determines whether or not the object is a detection target based on the positional relationship with the detection area detected by the area detection means. 4. 2. Or 3.
  • the discriminating means is an object detection device that determines that the detection target is the detection target when the degree of coincidence between the estimation region and the detection region is equal to or higher than the first threshold value. 5. 2. From 4. In the object detection device according to any one of The discriminating means is an object detection device that determines that the detection target is not the detection target when the degree of coincidence between the estimation region and the detection region is equal to or less than the second threshold value. 6. 2. From 5. In the object detection device according to any one of Further provided with a storage means for storing the distance information of the detection object in advance, The estimation means exists when the detection target is viewed from the second direction based on the distance information of the detection target previously stored by the storage means. An object detection device that estimates an estimated area that is estimated to be. 7.
  • the recognition means includes a first detection unit that detects a first detection object and a second detection unit that recognizes a second detection object different from the first detection object.
  • the region detection means detects a first detection region of the first detection target and a second detection region of the second detection target by using the first detection unit and the second detection unit, respectively.
  • the discriminating means is an object detecting device that discriminates whether or not it is the first detection target based on the positional relationship between the detected first detection region and the second detection region.
  • the image generation means generates a first two-dimensional image when the inspection target is viewed from the first direction from the three-dimensional information, and reflects the pixels constituting the first two-dimensional image.
  • the distance information to the point is generated, and further, from the three-dimensional information, a second two-dimensional image when the inspection target is viewed from a second direction different from the first direction is generated.
  • the region detecting means includes the first detection region of the first detection target object from the first two-dimensional image and the second detection region of the second detection target object from the second two-dimensional image. Detect each detection area and Further, based on the first detection region of the first detection target object viewed from the first direction and the distance information at each position of the first detection region, the first detection target object is detected.
  • An estimation means for estimating an area when viewed from the second direction and using it as an estimation area is provided.
  • the discriminating means determines whether or not it is the first detection target based on the positional relationship between the estimation region of the first detection target and the detection region of the second detection target.
  • Object detector 9. 8. In the object detection device described in When the degree of coincidence between the estimated region of the first detection target and the detection region of the second detection target is equal to or greater than a third threshold value, the discriminating means may use the first detection target. No object detection device. 10. 8. Or 9. In the object detection device described in When the degree of coincidence between the estimated region of the first detection target and the detection region of the second detection target is equal to or less than the fourth threshold value, the discriminating means is the first detection target. An object detector, if any. 11. 1. 1. To 10.
  • an output control means that outputs the discrimination result when it is determined to be the detection target by the discrimination means and does not output the discrimination result when it is determined that the detection target is not the detection target.
  • the object detection device From the three-dimensional information obtained by processing the reflected wave of the electromagnetic wave emitted toward the inspection target, a two-dimensional image of the inspection target viewed from a predetermined direction is generated. At least two detection regions of the detection target recognized by using at least two recognition means are detected from the two-dimensional image, respectively. An object detection method for determining a detection target based on the positional relationship between the detected at least two detection regions. 13. 12. In the object detection method described in The object detection device From the three-dimensional information, a first two-dimensional image when the inspection target is viewed from the first direction is generated, and distance information to each reflection point of the pixels constituting the first two-dimensional image is obtained.
  • a second two-dimensional image when the inspection target is viewed from a second direction different from the first direction is generated, and pixels constituting the second two-dimensional image are generated.
  • the region when the detection target is viewed from the first direction is estimated based on the detected detection region and the distance information at each position of the detection region.
  • To make it an estimated area The positional relationship between the estimated region and the detected region when viewed from the second direction, and further, the estimated estimated region and the detected detection region when viewed from the first direction.
  • An object detection method for determining whether or not the object is the detection target based on the positional relationship. 15. 13. Or 14.
  • the object detection device A method for detecting an object, which determines that the object is to be detected when the degree of coincidence between the estimated region and the detection region is equal to or greater than the first threshold value. 16. 13. To 15. In the object detection method described in any one of The object detection device An object detection method in which a detection target is not detected when the degree of coincidence between the estimated region and the detection region is equal to or less than a second threshold value. 17. 13. From 16. In the object detection method described in any one of The object detection device The distance information of the detection target is stored in the storage device in advance, and the distance information is stored in the storage device in advance.
  • the recognition means includes a first detection unit that detects a first detection object and a second detection unit that recognizes a second detection object different from the first detection object.
  • the object detection device Using the first detection unit and the second detection unit, the first detection region of the first detection target object and the second detection region of the second detection target object are detected, respectively.
  • a first two-dimensional image when the inspection target is viewed from the first direction is generated, and distance information from the pixels constituting the first two-dimensional image to each reflection point is obtained. Further, from the three-dimensional information, a second two-dimensional image when the inspection target is viewed from a second direction different from the first direction is generated. The first detection region of the first detection target object is detected from the first two-dimensional image, and the second detection region of the second detection target object is detected from the second two-dimensional image. , Further, based on the first detection region of the first detection target object viewed from the first direction and the distance information at each position of the first detection region, the first detection target object is detected.
  • the object detection method described in The object detection device When the degree of coincidence between the estimated region of the first detection target and the detection region of the second detection target is equal to or greater than the third threshold value, the target is not the first detection target.
  • the object detection method described in The object detection device When the degree of coincidence between the estimated region of the first detection target and the detection region of the second detection target is equal to or less than the fourth threshold value, the target is considered to be the first detection target.
  • Procedure for generating distance information to the reflection point The first detection region in which the detection target is presumed to exist from the first two-dimensional image and the second detection region in which the detection target is presumed to exist from the second two-dimensional image.
  • Procedure for detecting each of the two detection areas With respect to the detection target viewed from the first direction, the detection target was viewed from the second direction based on the detection region detected by the detection procedure and the distance information at each position of the detection region.
  • Procedure for estimating the time area and using it as the estimated area Have the computer execute a procedure for determining whether or not the object is a detection target based on the positional relationship between the estimated estimated region and the detected detection region when viewed from the second direction.
  • the detection target was viewed from the first direction based on the detection region detected by the detection procedure and the distance information at each position of the detection region.
  • Procedure for estimating the time area and using it as the estimated area The positional relationship between the estimated region and the detected region when viewed from the second direction, and further, the estimated estimated region and the detected detection region when viewed from the first direction.
  • any one of A procedure for storing the distance information of the detection object in a storage device in advance Based on the distance information of the detection target object stored in advance in the storage device, it is estimated that the detection target object exists when the detection target object is viewed from the second direction.
  • the recognition means includes a first detection unit that detects a first detection object and a second detection unit that recognizes a second detection object different from the first detection object.
  • a first two-dimensional image when the inspection target is viewed from the first direction is generated, and distance information from the pixels constituting the first two-dimensional image to each reflection point is obtained.
  • the first detection region of the first detection target object is detected from the first two-dimensional image
  • the second detection region of the second detection target object is detected from the second two-dimensional image.
  • the first detection target object is said to be the first.
  • Procedure for estimating the area when viewed from two directions and using it as the estimated area A procedure for determining whether or not the first detection target is the first detection target based on the positional relationship between the estimation region of the first detection target and the detection region of the second detection target is applied to the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明の目的は、電磁波を照射してその反射波を解析することにより対象物を検出する場合において、その検出精度を高くし、検出効率を上げることにある。 本発明の対象物検出装置(20)は、検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、検査対象を所定の方向から見た2次元画像を生成する画像生成部(220)と、2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物(62a)(62b)の少なくとも2つの検出領域(232a)(232c)をそれぞれ検出する領域検出部(230)と、検出された少なくとも2つの検出領域(232a)(232c)の位置関係に基づいて、当該検出対象物を判別する判別部(240)と、備える。

Description

対象物検出装置、対象物検出方法、及びプログラム
 本発明は、対象物検出装置、対象物検出方法、及びプログラムに関する。
 空港などの施設において、特定の物品の持ち込みを規制することがある。このような施設においては、施設への入場口又は施設に通じる通路において、人の所持品を検査する場合が多い。この検査に関連する技術として、特許文献1および特許文献2に記載の装置がある。特許文献1には、人から放射されるミリ波を受信することにより画像を生成することが記載されている。特許文献2には、人に対して3方向からマイクロ波を照射し、これらのマイクロ波の反射波を解析することにより、画像を生成することも記載されている。
特開2003-177175号公報 米国特許出願公開第2016/0216371号明細書
 被検体に照射した電磁波の反射波を解析すると、人などの被検体及びその被検体の付随物(例えば人の所持物)の3次元形状を推定することができる。処理負荷の軽減のために、電磁波の反射波の3次元情報を2次元画像に変換した場合、規制されている物品を検出対象物として画像認識処理により検出しようとしても、検出できなかったり、誤検出されたりすることがある。このため、対象物の検出精度が低下する可能性が出てくる。
 本発明の目的は、電磁波を照射してその反射波を解析することにより対象物を検出する場合において、その検出精度を高くし、検出効率を上げることにある。
 本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
 第一の側面は、対象物検出装置に関する。
 第一の側面に係る対象物検出装置は、
 検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成する画像生成手段と、
 前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出する領域検出手段と、
 検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する判別手段と、を有する。
 第二の側面は、少なくとも1つのコンピュータにより実行される対象物検出方法に関する。
 第二の側面に係る対象物検出方法は、
 対象物検出装置が、
 検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成し、
 前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出し、
 検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する、ことを含む。
 なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
 このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、対象物検出装置上で、その対象物検出方法を実施させるコンピュータプログラムコードを含む。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
 また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
 さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
 本発明によれば、電磁波を照射してその反射波を解析することにより対象物を検出する場合において、その検出精度を高くし、検出効率を上げることにある。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態に係る対象物検出装置の使用環境を説明する図である。 照射装置の機能構成の一例を示す図である。 対象物検出装置の機能構成の一例を示す図である。 対象物検出装置のハードウエア構成を例示するブロック図である。 対象物検出装置の動作の一例を示すフローチャートである。 本実施形態の対象物検出装置の構成例を示す機能ブロック図である。 異なる方向から見た2次元画像から検出対象物を認識したときの検出領域の差を説明するための図である。 推定部により推定される推定領域を説明するための図である。 判別部の判別方法を説明するための図である。 判別部の判別処理の手順を示すフローチャートである。 判別部の判別処理の手順を示すフローチャートである。 第2実施形態の変形態様の対象物検出装置の構成例を示す機能ブロック図である。 本実施形態の対象物検出装置の構成例を示す機能ブロック図である。 対象物検出装置の動作例を示すフローチャートである。 本実施形態の対象物検出装置の構成例を示す機能ブロック図である。 対象物検出装置による第1の検出対象物と第2の検出対象物の判別方法を説明するための図である。 第5実施形態の変形態様の対象物検出装置の構成例を示す機能ブロック図である。 判別部の判別処理の手順を示すフローチャートである。 判別部の判別処理の手順を示すフローチャートである。 画像生成部における距離情報の算出方法の例を説明するための図である。 推定部における推定領域の推定方法の例を説明するための図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。
(第1実施形態)
 図1は、実施形態に係る対象物検出装置20の使用環境を説明する図である。対象物検出装置20は、照射装置10及び表示装置30とともに使用される。
 照射装置10は、通行人などの被検体に電磁波を照射し、この電磁波が被検体によって反射された反射波を受信する。さらに照射装置10は、受信した反射波を中間周波数帯に周波数変換する事で中間周波数信号(IF信号)を生成する。
 照射装置10が照射する電磁波として、布(例えば衣服)を透過するが被検体そのもの(例えば人体)や被検体の付随物では反射される波長を有する電磁波を用いる事が望ましい。一例として、電磁波はマイクロ波やミリ波あるいはテラヘルツ波であり、波長が30マイクロメートル以上1メートル以下である。なお、図1において、照射装置10が電磁波を照射する面の水平方向がx方向、垂直方向(上下方向)がy方向であり、電磁波を照射する方向がz方向である。すなわち、被検体からみると移動する方向が概ねx方向であり、上下方向がy方向であり、被検体の移動方向に概ね直交する方向がz方向である。照射装置10は、上記したIF信号を生成する処理を、複数のタイミングで実行する。照射装置10は、例えば一秒あたり10回以上(好ましくは20回以上)上記したIF信号を生成する処理を行う。
 なお、図1に示す例において、照射装置10は被検体の通路40に対して平行(180度)に配置されているが、照射装置10は通路40に対して180度以外の角度を有するように配置されていてもよい。
 対象物検出装置20は、照射装置10からIF信号を取得し、このIF信号を処理することにより、被検体の少なくとも一部分の3次元形状を示す3次元位置情報を生成する。3次元位置情報は、被検体のうち電磁波が照射された部分(反射点)から照射装置10までの距離、及び、照射装置10(例えば受信部130が有するアンテナ(不図示))を基準とした時の反射点の角度、のそれぞれを特定するための情報を含んでいる。3次元位置情報によって特定される距離は、例えば後述する送信部110が有する送信アンテナ(不図示)から対象部分までの距離であってもよいし、受信部130が有する受信アンテナから対象部分までの距離であってもよいし、これらの平均値であってもよい。
 なお、3次元位置情報は、各位置における反射波の強度の情報も含んでいるのが好ましい。被検体が付随物(例えば所持物)を有している場合、3次元位置情報は、付随物の少なくとも一部分の3次元形状を特定するための情報にもなる。
 対象物検出装置20は付随物の有無を判断し、判断結果を示す情報を表示装置30に表示させる。なお、対象物検出装置20の検出対象は、上記した付随物に限定されない。
 また対象物検出装置20は、必要に応じて被検体の2次元または3次元画像を生成して表示装置30に表示させる。被検体に付随物がある場合、この画像は付随物も含んでいる。
 なお、照射装置10には、さらに、照射対象領域に入ってくる被検体を検知するセンサ(例えば人感センサ)、及び、その照射対象領域から退出する被検体を検知するセンサ(例えば人感センサ)が設けられている。照射装置10又は対象物検出装置20は、これらのセンサの検出結果を用いて、同一の被検体に対応した複数のIF信号を特定することができる。センサの代わりに、受信した反射波を用いて被検体の検知を行っても良い。
 図2は、照射装置10の機能構成の一例を示す図である。本図に示す例において、照射装置10は、送信部110、制御部120、受信部130、及びデータ転送部140を有している。
 送信部110は、被検体が通過する領域(以下、照射領域と記載)に向けて電磁波を照射する。送信部110は、例えば全方向性のアンテナを有している。送信部110は、電磁波の周波数を一定の範囲で変更することができる。送信部110は、制御部120によって制御されている。なお、制御部120は、受信部130も制御している。
 受信部130は、被検体による反射波を受信する。受信部130は、受信した反射波を中間周波数帯に周波数変換する事で中間周波数信号(IF信号)を生成する。制御部120は、受信部130における中間周波数帯を適切な値に設定する制御を行う。
 データ転送部140は、受信部130において生成されたIF信号を取得し対象物検出装置20に出力する。さらにデータ転送部140は、送信時の時刻又はIF信号を生成した時刻(以下、時刻情報と記載)も対象物検出装置20に出力する事が望ましい。
 図3は、対象物検出装置20の機能構成の一例を示す図である。対象物検出装置20は、画像生成部220と、領域検出部230と、判別部240と、を備えている。
 画像生成部220は、検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、検査対象を所定の方向から見た2次元画像を生成する。領域検出部230は、2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出する。判別部240は、検出された少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する。
 検査対象は、例えば、人または手荷物である。所定の方向は、ある1方向または2方向である。検出対象物は、例えば、凶器、危険物などの規制物品、および規制物品以外の物(例えば、身体、腕)を含む。
 また、対象物検出装置20は、さらに、取得した3次元情報、生成した2次元画像、判別結果などを記憶する記憶装置250を備えてもよい。記憶装置250は、対象物検出装置20と同じ装置であってもよいし、対象物検出装置20とは別体の装置であってもよい。また、記憶装置250は、複数の記憶装置であってもよい。
 少なくとも2つの認識手段については、後述する実施形態で詳細に説明するが、例えば、以下に例示される。
(a1)異なる方向から見た2つの2次元画像を生成してそれぞれ検出対象物を認識する認識手段であり、各2次元画像から2つの検出領域は領域検出部230によりそれぞれ検出される。
(a2)所定方向から見た一つの2次元画像から異なる2つの検出対象物をそれぞれ認識する認識手段であり、1つの2次元画像から2つの検出領域は領域検出部230により検出される。
 領域検出部230の認識手段は、検出対象物として予め登録されている物体を所定方向から見た2次元画像と、画像生成部220で生成された2次元画像とを画像認識処理により照合を行うことで、検出対象物を認識する。また、画像認識処理として機械学習に基づく手法を用いる場合には、検出対象物を所定方向から見た2次元画像を教師データとして学習したモデルを用いて検出対象物を認識する。
 また、判別部240による検出対象物の判別方法についても、後述する実施形態で説明するが、例えば、以下に例示される。
(b1)異なる2つの2次元画像から検出対象物をそれぞれ認識し、同じ検出対象物と認識された物体の位置が異なっている場合、誤検出と判定する。
(b2)異なる2つの2次元画像から検出対象物をそれぞれ認識し、同じ検出対象物と認識された物体の位置が同じ場合、検出対象物であると判定する。
(b3)一つの2次元画像から異なる2つの検出対象物を認識し、各検出対象物の位置関係が予め登録された関係にあるか否かで検出対象物を判別する。例えば、一方の検出対象物が凶器であり、他方の検出対象物が腕である場合、2つの検出対象物の位置関係を予め登録しておいて、認識された2つの物体の位置関係が登録されたものと位置した場合に各検出対象物を判別する。
(b4)一つの2次元画像から異なる2つの検出対象物を認識し、検出対象物と認識された2つの物体の位置が同じ場合、誤認識と判別する。
 図4は、対象物検出装置20のハードウエア構成を例示するブロック図である。対象物検出装置20は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は対象物検出装置20の各機能(例えば、取得部210、画像生成部220、領域検出部230、および判別部240、ならびに、後述する推定部260、および出力制御部280等)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は各種記憶部としても機能する。
 入出力インタフェース1050は、対象物検出装置20と各種入出力機器(例えば表示装置30)とを接続するためのインタフェースである。
 ネットワークインタフェース1060は、対象物検出装置20をネットワーク上の他の装置(例えば照射装置10)に接続するためのインタフェースである。ただしネットワークインタフェース1060は用いられないことも有る。
 図5は、対象物検出装置20の動作の一例を示すフローチャートである。まず、画像生成部220は、3次元情報から、検査対象を所定の方向から見た2次元画像を生成する(ステップS101)。そして、領域検出部230は、2次元画像から、少なくとも2つの認識手段を用いて検出対象物を検出する(ステップS103)。そして、領域検出部230は、検出された検出対象物の少なくとも2つの検出領域をそれぞれ検出する(ステップS105)。判別部240は、検出された少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する(ステップS107)。
 本実施形態によれば、領域検出部230により、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域を検出し、判別部240により、検出された2つの検出領域の位置関係に基づいて検出対象物を判別する。これにより、1つの認識手段による検出対象物の誤検出や検出漏れなどの発生を抑制でき、検出対象物の検出精度を向上できる。また、画像生成部220により3次元情報を2次元画像に変換して検出処理を行うことから、処理負荷を低減でき、処理効率を向上することができる。
(第2実施形態)
 図6は、本実施形態の対象物検出装置20の構成例を示す機能ブロック図である。本実施形態の対象物検出装置20は、前記した(a1)の認識手段を用いた検出対象物の領域検出を行う構成を有する。つまり、所定方向(アングルA)から見た2次元画像222aと、アングルAとは異なる方向(アングルB)から見た2次元画像222bを生成し、アングルBの2次元画像222bを用いて認識された検出対象物の位置(後述する第2の検出領域232b)と、アングルAの2次元画像222aを用いて推定されるアングルBから見た検出対象物の位置(後述する推定領域262)と、を用いて検出対象物を判別する構成を有する。アングルAの2次元画像222aを用いてアングルBから見た検出対象物の位置を推定する際、アングルAにおける検出対象物の深度情報(後述する距離情報224)を用いる。
 本実施形態の対象物検出装置20は、取得部210と、画像生成部220aと、画像生成部220bと、領域検出部230aと、領域検出部230b、推定部260と、判別部240と、を備えている。
 取得部210は、検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報212を取得し、画像生成部220aおよび画像生成部220bに出力する。画像生成部220aは、3次元情報212から、第1方向(アングルA)から検査対象を見たときの第1の2次元画像222aを生成する。さらに、画像生成部220aは、第1の2次元画像222aを構成する画素のそれぞれの反射点までの距離情報224を生成する。画像生成部220bは、3次元情報212から、第1方向(アングルA)とは異なる第2方向(アングルB)から検査対象を見たときの第2の2次元画像222bを生成する。
 領域検出部230aは、第1の2次元画像222aから検出対象物が存在していると推定される第1の検出領域232aを検出する。領域検出部230bは、第2の2次元画像222bから検出対象物が存在していると推定される第2の検出領域232bを検出する。
 推定部260は、第1方向(アングルA)から見た検出対象物について、領域検出部230aにより検出された検出領域および当該検出領域の各位置(画素)の距離情報224に基づいて、第2方向(アングルB)から見たときに当該検出対象物が存在している領域を推定して推定領域262とする。推定領域262の推定方法の詳細については後述する。
 判別部240は、第1方向(アングルA)および第2方向(アングルB)のうちいずれか一方の方向(この例では、アングルB)から見たときの、推定部260により推定された推定領域262と、領域検出部230bにより検出された検出領域232bとの位置関係に基づいて、当該検出対象物か否かを判別する。判別部240の判別方法の詳細については後述する。
 図7は、2次元画像222から異なる物体を認識した場合の検出結果を説明するための図である。図7(a)は、非検出対象64に検出対象物62が付随している例を示している。図7(b)は、非検出対象64にさらに、非検出対象である被検体66が付随している例を示している。また、図7の各図は、検出対象物62、非検出対象64、および被検体66の高さy1における断面図とする。本図にy軸は記載されていない。また、x-y方向およびz-y方向の各領域についても図示されていない。
 図7(a)と図7(b)は、互いに異なる形状を有する検出対象物62と被検体66について、アングルA(この例では、z軸と平行な方向)を視線方向とした場合に検出される第1の検出領域232aの範囲をそれぞれ示している。図7(a)の検出対象物62をアングルAから見た場合に領域検出部230aにより検出される第1の検出領域232aの範囲は、OA1(x1,x2)である。図7(b)の被検体66をアングルAから見た場合に領域検出部230aにより検出される第1の検出領域232aの範囲は、OA2(x3,x4)である。ここでは、アングルAから見た場合の検出対象物62と被検体66の形状が似ているため、図7(a)の検出対象物62の領域OA1(x1,x2)と図7(b)の被検体66の領域OA2(x3,x4)は同じ範囲になっている。
 このため、検出対象物62と被検体66は実際には異なる形状の物体であるにも関わらず、領域検出部230aで検出された第1の検出領域232aを用いて判別を行うと、被検体66が検出対象物62として検出されてしまう。このように、物体を一方向のみから見た形状で検出しようとすると、誤検出する可能性があり、検出対象物62の検出精度が低くなる可能性がある。
 一方、図7(c)および図7(d)に示すように、アングルAとは異なるアングルB(この例では、x軸と平行な方向)を視線方向とした場合の被検体66の形状は、部分的に検出対象物62の形状と似ている。このため、実際は検出対象物62と被検体66の形状は異なっているにも関わらず、アングルBから見た場合の領域検出部230bにより検出される被検体66の領域OB2(z3,z4′)は、領域検出部230aにより検出される検出対象物62の領域OB1(z1,z2)と、同じ値になってしまうことがある。つまり、被検体66が実際の形状とは異なる形状に誤検出されてしまう。
 その結果、この場合においても、2つの検出対象物62と被検体66は実際には異なる形状の物体であるにも関わらず、被検体66は検出対象物62として検出されてしまう。このように、物体を2方向から見た形状で検出しようとした場合であっても、誤検出する可能性があり、検出対象物62の検出精度が低くなる可能性が残る。
 このように、被検体の形状によっては、検出精度が低下する可能性がある。そこで、本実施形態では、様々な手法を用いて検出対象物62の検出精度を向上させる。
 図8は、推定部260により推定される推定領域262を説明するための図である。図8(a)に示すように、被検体66をアングルBから見た第2の2次元画像222bから領域検出部230bにより検出される第2の検出領域232bはOB2(z3,z4′)となる。これは、実物の被検体66の範囲のORB2(z3,z4)(図8(a))より狭くなっている。
 推定部260は、領域検出部230aにより検出された第1の検出領域232aと、画像生成部220aが生成した、第1の検出領域232aの各画素(x3~x4)の距離情報224(D(x))から被検体66の推定領域262としてOEB2(z3,z4)の範囲を推定する。この推定領域262は、図8(a)のアングルBを視線方向とした第2の2次元画像222bから検出された第2の検出領域232bのOB2(z3,z4′)の範囲とは異なり、被検体66の実物の範囲のORB2(z3,z4)にほぼ等しい値が得られている。このように、推定部260により、被検体66の形状が正しく検出される。
 次に、判別部240の判別方法の詳細について説明する。図9は、判別部240の判別方法を説明するための図であり、検出領域232と推定領域262の位置関係を示している。
 検出領域232と、推定領域262との位置関係を、2つの領域が重なる領域270の面積AIと、2つの領域を合わせた領域272の面積AUとの比率Rで示す(式(1))。つまり、2つの領域の一致度を比率Rで示す。

 R=AI/AU  ・・・ 式(1)
 図10および図11は、判別部240の判別処理の手順を示すフローチャートである。
 まず、図10に示すように、判別部240は、比率Rを算出し(ステップS201)する。そして、判別部240は、比率Rが第1の閾値(例えば、0.7)よりも大きい場合は(ステップS203のYES)、検出された物体は、検出対象物62であると判別する(ステップS205)。
 次に、図11に示すように、判別部240は、比率Rを算出し(ステップS201)する。そして、判別部240は、比率Rが第2の閾値(例えば、0.3)よりも小さい場合は(ステップS213のYES)、検出された物体は検出対象物62でない(言い換えると、誤検出である)と判別し、検出対象物62は検出されない(ステップS215)。
 図10のフローチャートと、図11のフローチャートは、組み合わせることもできる。判別部240は、ステップS201で比率Rを算出した後、ステップS203で第1の閾値を用いて判定処理を行い、検出対象物62ではないと判別されたものについて(ステップS203のNO)、ステップS213で第2の閾値を用いて判定処理を行ってもよい。あるいは、ステップS213の判定をステップS203の判定より前に行ってもよい。
 画像生成部220における距離情報224の算出方法、および推定部260により推定領域262の推定方法は、様々考えられ、詳細については後述する。
 本実施形態によれば、推定部260により所定方向(例えば、アングルA)を視線方向とした被検体66の第1の検出領域232aから、アングルAとは別の他の方向(例えば、アングルB)を視線方向とした推定領域262を推定し、判別部240により推定領域262と第2の検出領域232bとの位置関係に基づいて、被検体66が検出対象物62であるかを判別する。さらに、推定領域262と第2の検出領域232bの位置関係は、領域の一致度に基づいて判別部240により判別される。
 このように、推定部260により、一方の視線方向の検出領域の距離情報を元に他方の領域を推定し、判別部240により検出された領域と推定された領域を元に総合的に判別することができるので、被検体66が部分的に検出対象物62と同じような形状であるような場合にも、検出対象物62の判別精度を上げることができる。また、各領域の位置関係は、領域の一致度に基づいて判別することができるので、効率よく検出対象物62を判別することができる。
(第2実施形態の変形態様)
 図12は、第2実施形態の変形態様の対象物検出装置20の構成例を示す機能ブロック図である。この対象物検出装置20では、図6の対象物検出装置20の推定部260に替えて推定部260aと推定部260bとを備える。
 推定部260aは、第1方向(アングルA)から見た検出対象物と認識された物体について、領域検出部230aにより検出された検出領域および当該検出領域の各位置の距離情報224に基づいて、当該検出対象物と認識された物体を第2方向(アングルB)から見た検出対象物62が存在していると推定される推定領域262aを推定する。
 推定領域262bは、第2方向(アングルB)から見た第2の2次元画像222bから検出された第2の検出領域232bから推定されるアングルAから見た検出対象物62が存在していると推定される推定領域262bを推定する。
 判別部240は、推定部260aにより推定された推定領域262aと第2の検出領域232bの位置関係、および、推定部260bにより推定された推定領域262bと第1の検出領域232aの位置関係に基づいて、検出対象物62か否かを判定する。
 第2実施形態と同様な効果を奏するとともに、さらに、検出対象物62を第1方向および第2方向を視線方向として2次元画像222からの検出領域232をそれぞれ検出し、さらに、両方の検出領域232からそれぞれ推定される他方の方向を視線方向とした検出対象物62が存在していると推定される推定領域262をそれぞれ推定し、判別部240により総合的に判別するので、検出対象物62の検出精度をより向上させることができる。
 (第3実施形態)
 本実施形態の対象物検出装置20は、検出対象物62の距離情報224を予め記憶しておき、この距離情報224を推定領域262の推定に用いる点以外は上記実施形態と同様である。本実施形態の対象物検出装置20は、図3の対象物検出装置20と同じ構成を有するので図3を用いて説明する。本実施形態の対象物検出装置20は、他の少なくともいずれか一つ構成と矛盾のない範囲で組み合わせることができる。
 検出対象物62の距離情報224は記憶装置250に予め記憶されている。推定部260は、記憶装置250に記憶されている検出対象物62の距離情報224にも検出対象物62を第2の方向から見たときの、検出対象物62が存在していると推定される推定部260を推定する。
 本実施形態によれば、推定部260により、予め記憶されている検出対象物62の距離情報224を用いて推定領域262を推定できるので、画像生成部220が生成した距離情報224を用いる必要がないため、推定部260による推定領域262の算出処理の負荷を低減でき、処理効率を向上できる。特に検出対象物62の検出領域232が誤検出されているような場合に、間違った検出領域232と間違った距離情報224を用いた推定領域262の推定処理を行わずに済むので無駄な処理を省くことができ、さらに、正しい距離情報224を用いて推定領域262を推定できるので、検出対象物62の検出精度を向上させることができる。
(第4実施形態)
 図13は、本実施形態の対象物検出装置20の構成例を示す機能ブロック図である。
 本実施形態の対象物検出装置20は、判別結果の出力を制御する構成を有する点以外は図3の対象物検出装置20と同じである。図3の対象物検出装置20の構成に加え、さらに、出力制御部280を有する。本実施形態の対象物検出装置20は、他の少なくともいずれか一つ構成と矛盾のない範囲で組み合わせることができる。
 出力制御部280は、判別部240により検出対象物62であると判別された場合、当該判別結果を出力し、検出対象物62ではないと判別された場合、当該判別結果を出力しない。
 出力制御部280が判別結果を出力する出力手段は、例えば、表示装置30である。あるいは、判別結果を記憶装置250に記憶してもよい。あるいは、スピーカから音声またはアラーム音を出力してもよい。出力される情報は、検出対象物62が検出されたことを示す情報と、検出された検出対象物62を示す情報と、検出された日時、検出された場所を示す情報のうち少なくともいずれか一つを含むことができる。
 図14は、対象物検出装置20の動作例を示すフローチャートである。
 本図のフローは、図5のステップS107の後に実行される。ステップS107における判別部240による判別結果において、認識された物体が検出対象物62であると判別された場合(ステップS301のYES)、検出された物体は検出対象物62であることを判別結果として出力させる(ステップS303)。一方、認識された物体が検出対象物62であると判別されなかった場合、あるいは、検出対象物62ではないと判別された場合(ステップS303のNO)、ステップS303をバイパスし、本処理を終了する。つまり、この場合、出力制御部280は、判別結果を出力させない。
 さらに、他の例では、検出領域232は検出対象物62であると判別された場合に(ステップS303のYES)、出力制御部280は、2次元画像222内の当該検出領域232について色を変えて表示させたり、検出領域232を囲む描画を重畳表示させたりして、強調表示してもよい。
 さらなる他の例では、認識された物体が検出対象物62であると判別されなかった場合、あるいは、検出対象物62ではないと判別された場合(ステップS303のNO)、2次元画像222内の当該検出領域232について、上記した検出対象物62の検出領域232とは別の色に変えて表示させたり、当該検出領域232を囲む上記した検出対象物62の検出領域232とは別の描画を重畳表示させたりして、強調表示してもよい。これにより検出対象物62ではないと判別された物体についても人が確認することができる。
 本実施形態によれば、出力制御部280により、検出対象物62検出の判別結果を出力するか否かを制御できる。例えば、検出対象物62が検出されと判別された場合には通知するが、検出対象物62ではないと判別された場合には通知は行わないようにすることで、通知情報を適正な数に押さえることができる。これにより、監視者の作業負荷を低減できる。ただし、必要に応じて、検出対象物62でないと判別された場合であっても、人が目視で確認できるように通知を行ったり、後で確認できるようにしたりすることもできる。これにより、検出対象物62の検出漏れを防いだり、誤検出を低減できる。
(第5実施形態)
 図15は、本実施形態の対象物検出装置20の構成例を示す機能ブロック図である。
 対象物検出装置20は、上記した(a2)の認識手段を用いた検出対象物の領域検出を行う構成をする。すなわち、認識手段は、所定方向から見た1つの2次元画像から異なる2つの検出対象物をそれぞれ認識する。
 対象物検出装置20は、取得部210と、画像生成部220と、領域検出部230aと、領域検出部230cと、判別部240と、を備える。
 取得部210は、図6および図12の上記実施形態と同じである。画像生成部220は、3次元情報212から、検査対象を所定の方向(例えば、アングルA)から見た2次元画像222を生成する。領域検出部230aは、第1の検出対象物62aを検出する検出対象物検出部(不図示)を有する。領域検出部230cは、第1の検出対象物62aとは別の第2の検出対象物62bを検出する非検出対象物検出部(不図示)を有する。
 第1の検出対象物62aは、例えば、検出対象の物体であり、例として、持ち込みが制限される物であり、凶器、危険物、違法な物などの規制物品などを含む。第2の検出対象物62bは、例えば、検出対象以外の物体であり、例として、規制物品以外の物(例えば、身体、腕)を含む。
 第1の検出対象物62aと第2の検出対象物62bの組み合わせは、例えば、「銃」と「人の腕」などのように、互いの位置関係に関連性があるようなものが好ましい。あるいは、第1の検出対象物62aと第2の検出対象物62bの組み合わせは、例えば、「銃」と「人の腕」などのように、互いの形状が似ているものであってもよい。
 領域検出部230aは、検出対象物検出部を用いて第1の検出対象物62aの第1の検出領域232aを検出する。領域検出部230cは、非検出対象物検出部を用いて第2の検出対象物62bの第3の検出領域232cを検出する。
 判別部240は、検出された第1の検出対象物62aの第1の検出領域232aと第2の検出対象物62bの第3の検出領域232c検出領域の位置関係に基づいて、第1の検出対象物62aか否かを判別する。
 図16(a)は、本実施形態の対象物検出装置20による第1の検出対象物62aと第2の検出対象物62bの判別方法を説明するための図である。ここでは、第1の検出対象物62aは銃であり、第2の検出対象物62bは人の腕である。領域検出部230aにより、第1の検出対象物62a(銃)の第1の検出領域232aが検出される。一方、領域検出部230cからは、第2の検出対象物62b(人の腕)の第3の検出領域232c(図中、一点鎖線で示す)が検出される。
 例えば、第1の検出対象物62a(銃)と、第2の検出対象物62b(人の腕)の位置関係は大きく変わることはないため、この位置関係を予め記憶装置250に登録しておく。こりにより、判別部240は、検出された第1の検出領域232aと第3の検出領域232cの位置関係に基づいて、第1の検出対象物62a(銃)と、第2の検出対象物62b(人の腕)を判別する。ただし、判別部240は、少なくとも第1の検出対象物62a(銃)を判別できればよい。
 本実施形態によれば、第1の検出対象物62a(例えば、銃など)と第2の検出対象物62bとの領域をそれぞれ検出し、検出された領域の位置関係に基づいて、検出対象物62をそれぞれ判別できるので、第1の検出対象物62a(例えば、銃など)のみを判別する場合に比較して、誤検出や検出漏れを低減できる可能性がある。よって、検出対象物の検出効率を向上できる。
(第5実施形態の変形態様)
 図17は、第5実施形態の変形態様の対象物検出装置20の構成例を示す機能ブロック図である。この例では、図15の対象物検出装置20の構成に加え、推定部260を備える。また、推定部260は、図6および図12の対象物検出装置20の推定部260および推定部260aと同じである。
 推定部260は、視線方向がアングルAの第1の2次元画像222aから検出された第1の検出領域232aについて、検出対象物62が存在していると推定される視線方向がアングルBの推定領域262を推定する。
 図16(b)は、本実施形態の対象物検出装置20による第1の検出対象物62aと第2の検出対象物62bの判別方法を説明するための図である。ここでは、第1の検出対象物62aは銃であり、第2の検出対象物62bは人の腕である。領域検出部230cにより、第2の検出対象物62b(人の腕)が第1の検出対象物62a(銃)であると誤検出された場合、例えば、領域検出部230aから第1の検出領域232aとして、2つの領域R1(図中、破線で示す)と領域R2(図中、二点鎖線で示す)が検出される。一方、領域検出部230bからは、第2の検出対象物62b(人の腕)の第3の検出領域232c(図中、一点鎖線で示す)が検出される。
 そして、推定部260により、領域R1と領域R2について、アングルBを視線方向とした推定領域262(領域RE1と領域RE2)をそれぞれ推定する。そして、判別部240は、推定された2つの領域RE1と領域RE2と、第3の検出領域232cとの位置関係に基づいて、第1の検出対象物62a(銃)を判別する。
 ここでは、領域RE2と第3の検出領域232cの位置が一致することから、第1の検出対象物62a(銃)として検出された領域R2は、検出対象物62b(人の腕)であると判別される。一方、領域RE1と第3の検出領域232cの位置は一致しないため、第1の検出対象物62a(銃)として検出された領域R1は検出対象物62b(人の腕)ではないと判別される。
 以下、判別部240における二つの領域の位置関係に基づく判別方法の詳細について説明する。図18および図19のフローチャートを用いて説明する。図18および図19は、それぞれ図10および図11と同じ手順については同じ符号を付し、説明を省略する。
 まず、図18に示すように、判別部240は、比率Rが第3の閾値(例えば、0.7)よりも大きい場合は(ステップS403のYES)、検出された物体は検出対象物62でない(言い換えると、誤検出である)と判別し、検出対象物62は検出されない(ステップS405)。
 次に、図19に示すように、判別部240は、比率Rが第4の閾値(例えば、0.3)よりも小さい場合は(ステップS413のYES)、検出された物体は、検出対象物62であると判別する(ステップS415)。
 図18のフローチャートと、図19のフローチャートは、組み合わせることもできる。判別部240は、ステップS201で比率Rを算出した後、ステップS403で第3の閾値を用いて判定処理を行い、検出対象物62ではないと判別されたものについて(ステップS403のNO)、ステップS413で第4の閾値を用いて判定処理を行ってもよい。あるいは、ステップS413の判定をステップS403の判定より前に行ってもよい。
 本実施形態によれば、上記第5実施形態と同様な効果を奏するとともに、さらに、検出対象物と検出対象物以外を検出することで、2つを組み合わせた判別を行うことができるので、検出漏れや誤検出を低減できる。さらに、推定部260により推定領域を検出できるので、さらに検出精度を向上できる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
<画像生成部220における距離情報224の算出方法>
 図20は、画像生成部220における距離情報224の算出方法の例を説明するための図である。画像生成部220は、以下の(c1)~(c3)のいずれかの算出方法を用いて距離情報224を生成することができるが、これら限定されない。
 以下、2次元画像222の視線方向(所定の方向)がz方向、すなわち、電磁波を照射する方向と平行である場合について説明する。
(c1)視線方向(z方向)においてレーダ画像(3次元情報212)の振幅が最大となるボクセルを選択し、その振幅値を2次元画像222の値I2D(x,y)とする。また、そのz座標を距離情報224のD(x,y)とする。以下の式(2)、式(3)によりそれぞれ求められる。
Figure JPOXMLDOC01-appb-M000001
(c2)視線方向(z方向)においてレーダ画像(3次元情報212)の振幅が予め定めた閾値を最初に超えるボクセルを選択し、その振幅値を2次元画像222の値I2D(x,y)とする。また、そのz座標を距離情報224のD(x,y)とする。
(c3)視線方向(z方向)においてレーダ画像(3次元情報212)の振幅の重心となるボクセルを選択し、その振幅値を2次元画像222の値I2D(x,y)とする。また、そのz座標を距離情報224のD(x,y)とする。以下の式(4)、式(5)によりそれぞれ求められる。
Figure JPOXMLDOC01-appb-M000002
<推定部260による推定領域262の推定方法>
 図21は、推定部260における推定領域262の推定方法の例を説明するための図である。推定部260は、以下の(d1)~(d4)のいずれかの算出方法を用いて距離情報224を生成することができるが、これら限定されない
 以下、図21(a)に示すように、第1の2次元画像222aの視線方向(所定の方向)がz方向(アングルA)、すなわち、電磁波を照射する方向と平行であり、推定部260により検出対象物62が存在すると推定する視線方向がx方向(アングルB)と平行でする場合について説明する。また、図21(c)は、高さy1~y2の間における断面図であり、同図において、y方向に関する記載は省略してある。
(d1) 領域検出部230aは、視線方向アングルAの第1の2次元画像222aから検出された検出対象物62の第1の検出領域232aを検出し、図21(b)のO(x1,y1,x2,y2)と、図21(c)の当該第1の検出領域232a内の距離情報224のD(x,y)を用いて、視線方向アングルBからみた対象物の推定領域262をOEB(z1,y1,z2,y2)と推定する。
 ここで、z1は検出領域232a内の距離情報224の最小値であり、以下の式(6)により算出される。
Figure JPOXMLDOC01-appb-M000003
 また、z2は第1の検出領域232a内の距離情報224の最大値であり、以下の式(7)により算出される。
Figure JPOXMLDOC01-appb-M000004
(d2) 上記(d1)の処理において、検出領域232aのO(x1,y1,x2,y2)は矩形であり、検出対象物62が存在していない領域も含まれるため、z1,z2が正しく算出されない場合がある。その場合は、第1の2次元画像222aの値I2D(x,y)が閾値より小さい場合は非対象物領域であるとみなして、上記(d1)の最大値または最小値の算出処理の対象外とすることで、z1,z2を正しく算出できる。上記の小ささの閾値としては、検出領域内でのI2D(x,y)の最大値をn倍したものを用いる。0≦n≦1であり、例えば0.1を用いる。
(d3) 非対象物領域に影響されず推定領域262のOEB(z1,y1,z2,y2)を推定する別の方法としては、検出対象物62の大きさを事前知識として利用する方法がある。例えば、検出領域232a内でI2D(x,y)が最大となる位置の距離情報224のD(x,y)を中心として、あらかじめ定めた検出対象物62の大きさLを用いて以下の式(8)から式(10)に従い算出する。
Figure JPOXMLDOC01-appb-M000005
(d4) 上記(d3)の処理において、検出領域232a内でI2D(x,y)が最大となる位置ではなく、検出領域232aの中心位置あるいは重心位置の距離情報224を用いてもよい。
<通知レベル>
 判別部240は、第1の検出対象物62a(銃)と第2の検出対象物62b(人の腕)の組み合わせにおいて、2つの位置関係に応じて、第1の検出対象物62aの判別結果の通知の緊急レベルを変更してもよい。
 例えば、第1の検出対象物62a(銃)が第2の検出対象物62b(人の腕)の延長線上に位置している場合、つまり、銃を手に持っている位置関係にある場合は、判別部240は、その他の位置関係にある場合と比較して、緊急性が高い最高レベルと判定してよい。例えば、図16の出力制御部280は、この判定結果に基づいて、通知レベルを変更して出力先や出力内容を選択することができる。
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成する画像生成手段と、
 前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出する領域検出手段と、
 検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する判別手段と、を備える、対象物検出装置。
2. 1.に記載の対象物検出装置において、
 前記画像生成手段は、
  前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素のそれぞれの反射点までの距離情報を生成し、
  さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成するとともに、当該第2の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、
 前記領域検出手段は、前記第1の2次元画像から前記検出対象物が存在していると推定される第1の検出領域と、前記第2の2次元画像から前記検出対象物が存在していると推定される第2の検出領域をそれぞれ検出し、
 さらに、前記第1方向から見た前記検出対象物について、前記領域検出手段により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの領域を推定して推定領域とする推定手段を備え、
 前記判別手段は、前記第2方向のから見たときの、前記推定手段により推定された前記推定領域と、前記領域検出手段により検出された前記検出領域との位置関係に基づいて、当該検出対象物か否かを判別する、対象物検出装置。
3. 2.に記載の対象物検出装置において、
 前記推定手段は、
  前記第2方向から見た前記検出対象物について、前記領域検出手段により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第1方向から見たときの領域を推定して推定領域とし、
 前記判別手段は、前記第2方向から見たときの前記推定領域と前記検出領域の位置関係と、さらに、前記第1方向のから見たときの、前記推定手段により推定された前記推定領域と、前記領域検出手段により検出された前記検出領域との位置関係とに基づいて、当該検出対象物か否かを判別する、対象物検出装置。
4. 2.または3.に記載の対象物検出装置において、
 前記判別手段は、前記推定領域と前記検出領域との一致度が第1の閾値以上の場合、前記検出対象物であるとする、対象物検出装置。
5. 2.から4.のいずれか一つに記載の対象物検出装置において、
 前記判別手段は、前記推定領域と前記検出領域との一致度が第2の閾値以下の場合、前記検出対象物ではないとする、対象物検出装置。
6. 2.から5.のいずれか一つに記載の対象物検出装置において、
 前記検出対象物の前記距離情報を予め記憶させる記憶手段をさらに備え、
 前記推定手段は、前記記憶手段により予め記憶されている前記検出対象物の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの、前記検出対象物が存在していると推定される推定領域を推定する、対象物検出装置。
7. 1.に記載の対象物検出装置において、
 前記認識手段は、第1の検出対象物を検出する第1検出部と、前記第1の検出対象物とは別の第2の検出対象物を認識する第2検出部とを含み、
 前記領域検出手段は、前記第1検出部および前記第2検出部を用いて前記第1の検出対象物の第1の検出領域および前記第2の検出対象物の第2の検出領域をそれぞれ検出し、
 前記判別手段は、検出された前記第1の検出領域と前記第2の検出領域の位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出装置。
8. 7.に記載の対象物検出装置において、
 前記画像生成手段は、前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成し、
 前記領域検出手段は、前記第1の2次元画像から前記第1の検出対象物の前記第1の検出領域と、前記第2の2次元画像から前記第2の検出対象物の前記第2の検出領域をそれぞれ検出し、
 さらに、前記第1方向から見た前記第1の検出対象物の前記第1の検出領域と、当該第1の検出領域の各位置の前記距離情報に基づいて、当該第1の検出対象物を前記第2方向から見たときの領域を推定して推定領域とする推定手段を備え、
 前記判別手段は、前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出装置。
9. 8.に記載の対象物検出装置において、
 前記判別手段は、前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第3の閾値以上の場合、前記第1の検出対象物ではないとする、対象物検出装置。
10. 8.または9.に記載の対象物検出装置において、
 前記判別手段は、前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第4の閾値以下の場合、前記第1の検出対象物であるとする、対象物検出装置。
11. 1.から10.のいずれか一つに記載の対象物検出装置において、
 前記判別手段により前記検出対象物であると判別された場合、当該判別結果を出力し、前記検出対象物ではないと判別された場合、当該判別結果を出力しない出力制御手段をさらに備える、対象物検出装置。
12. 対象物検出装置が、
 検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成し、
 前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出し、
 検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する、対象物検出方法。
13. 12.に記載の対象物検出方法において、
 前記対象物検出装置が、
  前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素のそれぞれの反射点までの距離情報を生成し、
  さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成するとともに、当該第2の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、
  前記第1の2次元画像から前記検出対象物が存在していると推定される第1の検出領域と、前記第2の2次元画像から前記検出対象物が存在していると推定される第2の検出領域をそれぞれ検出し、
  さらに、前記第1方向から見た前記検出対象物について、検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの領域を推定して推定領域とし、
  前記第2方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係に基づいて、当該検出対象物か否かを判別する、対象物検出方法。
14. 13.に記載の対象物検出方法において、
 前記対象物検出装置が、
  前記第2方向から見た前記検出対象物について、検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第1方向から見たときの領域を推定して推定領域とし、
  前記第2方向から見たときの前記推定領域と前記検出領域の位置関係と、さらに、前記第1方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係とに基づいて、当該検出対象物か否かを判別する、対象物検出方法。
15. 13.または14.に記載の対象物検出方法において、
 前記対象物検出装置が、
  前記推定領域と前記検出領域との一致度が第1の閾値以上の場合、前記検出対象物であるとする、対象物検出方法。
16. 13.から15.のいずれか一つに記載の対象物検出方法において、
 前記対象物検出装置が、
  前記推定領域と前記検出領域との一致度が第2の閾値以下の場合、前記検出対象物ではないとする、対象物検出方法。
17. 13.から16.のいずれか一つに記載の対象物検出方法において、
 前記対象物検出装置が、
  前記検出対象物の前記距離情報を記憶装置に予め記憶させ、
  前記記憶装置に予め記憶されている前記検出対象物の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの、前記検出対象物が存在していると推定される推定領域を推定する、対象物検出方法。
18. 12.に記載の対象物検出方法において、
 前記認識手段は、第1の検出対象物を検出する第1検出部と、前記第1の検出対象物とは別の第2の検出対象物を認識する第2検出部とを含み、
 前記対象物検出装置が、
  前記第1検出部および前記第2検出部を用いて前記第1の検出対象物の第1の検出領域および前記第2の検出対象物の第2の検出領域をそれぞれ検出し、
  検出された前記第1の検出領域と前記第2の検出領域の位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出方法。
19. 18.に記載の対象物検出方法において、
 前記対象物検出装置が、
  前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成し、
  前記第1の2次元画像から前記第1の検出対象物の前記第1の検出領域と、前記第2の2次元画像から前記第2の検出対象物の前記第2の検出領域をそれぞれ検出し、
 さらに、前記第1方向から見た前記第1の検出対象物の前記第1の検出領域と、当該第1の検出領域の各位置の前記距離情報に基づいて、当該第1の検出対象物を前記第2方向から見たときの領域を推定して推定領域とし、
  前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出方法。
20. 19.に記載の対象物検出方法において、
 前記対象物検出装置が、
  前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第3の閾値以上の場合、前記第1の検出対象物ではないとする、対象物検出方法。
21. 19.または20.に記載の対象物検出方法において、
 前記対象物検出装置が、
  前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第4の閾値以下の場合、前記第1の検出対象物であるとする、対象物検出方法。
22. 12.から21.のいずれか一つに記載の対象物検出方法において、
 前記対象物検出装置が、
  前記検出対象物であると判別された場合、当該判別結果を出力し、前記検出対象物ではないと判別された場合、当該判別結果を出力しない、対象物検出方法。
23. コンピュータに、
 検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成する手順、
 前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出する手順、
 検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する手順、を実行させるためのプログラム。
24. 23.に記載のプログラムにおいて、
 前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素のそれぞれの反射点までの距離情報を生成する手順、
 前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成するとともに、当該第2の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成する手順、
 前記第1の2次元画像から前記検出対象物が存在していると推定される第1の検出領域と、前記第2の2次元画像から前記検出対象物が存在していると推定される第2の検出領域をそれぞれ検出する手順、
 前記第1方向から見た前記検出対象物について、前記検出する手順により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの領域を推定して推定領域とする手順、
 前記第2方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係に基づいて、当該検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
25. 24.に記載のプログラムにおいて、
 前記第2方向から見た前記検出対象物について、前記検出する手順により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第1方向から見たときの領域を推定して推定領域とする手順、
 前記第2方向から見たときの前記推定領域と前記検出領域の位置関係と、さらに、前記第1方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係とに基づいて、当該検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
26. 24.または25.に記載のプログラムにおいて、
 前記推定領域と前記検出領域との一致度が第1の閾値以上の場合、前記検出対象物であるとする手順、をコンピュータに実行させるためのプログラム。
27. 24.から26.のいずれか一つに記載のプログラムにおいて、
 前記推定領域と前記検出領域との一致度が第2の閾値以下の場合、前記検出対象物ではないとする手順、をコンピュータに実行させるためのプログラム。
28. 24.から27.のいずれか一つに記載のプログラムにおいて、
 前記検出対象物の前記距離情報を予め記憶装置に記憶させる手順、
 前記記憶装置に予め記憶されている前記検出対象物の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの、前記検出対象物が存在していると推定される推定領域を推定する手順、をコンピュータに実行させるためのプログラム。
29. 23.に記載のプログラムにおいて、
 前記認識手段は、第1の検出対象物を検出する第1検出部と、前記第1の検出対象物とは別の第2の検出対象物を認識する第2検出部とを含み、
 前記第1検出部および前記第2検出部を用いて前記第1の検出対象物の第1の検出領域および前記第2の検出対象物の第2の検出領域をそれぞれ検出する手順、
 検出された前記第1の検出領域と前記第2の検出領域の位置関係に基づいて、前記第1の検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
30. 29.に記載のプログラムにおいて、
 前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成する手順、
 前記第1の2次元画像から前記第1の検出対象物の前記第1の検出領域と、前記第2の2次元画像から前記第2の検出対象物の前記第2の検出領域をそれぞれ検出する手順、
 前記第1方向から見た前記第1の検出対象物の前記第1の検出領域と、当該第1の検出領域の各位置の前記距離情報に基づいて、当該第1の検出対象物を前記第2方向から見たときの領域を推定して推定領域とする手順、
 前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との位置関係に基づいて、前記第1の検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
31. 30.に記載のプログラムにおいて、
 前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第3の閾値以上の場合、前記第1の検出対象物ではないとする手順、をコンピュータに実行させるためのプログラム。
32. 30.または31.に記載のプログラムにおいて、
 前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第4の閾値以下の場合、前記第1の検出対象物であるとする手順、をコンピュータに実行させるためのプログラム。
33. 23.から32.のいずれか一つに記載のプログラムにおいて、
 前記検出対象物であると判別された場合、当該判別結果を出力し、前記検出対象物ではないと判別された場合、当該判別結果を出力しない手順、をさらにをコンピュータに実行させるための、プログラム。

Claims (33)

  1.  検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成する画像生成手段と、
     前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出する領域検出手段と、
     検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する判別手段と、を備える、対象物検出装置。
  2.  請求項1に記載の対象物検出装置において、
     前記画像生成手段は、
      前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素のそれぞれの反射点までの距離情報を生成し、
      さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成するとともに、当該第2の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、
     前記領域検出手段は、前記第1の2次元画像から前記検出対象物が存在していると推定される第1の検出領域と、前記第2の2次元画像から前記検出対象物が存在していると推定される第2の検出領域をそれぞれ検出し、
     さらに、前記第1方向から見た前記検出対象物について、前記領域検出手段により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの領域を推定して推定領域とする推定手段を備え、
     前記判別手段は、前記第2方向のから見たときの、前記推定手段により推定された前記推定領域と、前記領域検出手段により検出された前記検出領域との位置関係に基づいて、当該検出対象物か否かを判別する、対象物検出装置。
  3.  請求項2に記載の対象物検出装置において、
     前記推定手段は、
      前記第2方向から見た前記検出対象物について、前記領域検出手段により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第1方向から見たときの領域を推定して推定領域とし、
     前記判別手段は、前記第2方向から見たときの前記推定領域と前記検出領域の位置関係と、さらに、前記第1方向のから見たときの、前記推定手段により推定された前記推定領域と、前記領域検出手段により検出された前記検出領域との位置関係とに基づいて、当該検出対象物か否かを判別する、対象物検出装置。
  4.  請求項2または3に記載の対象物検出装置において、
     前記判別手段は、前記推定領域と前記検出領域との一致度が第1の閾値以上の場合、前記検出対象物であるとする、対象物検出装置。
  5.  請求項2から4のいずれか一項に記載の対象物検出装置において、
     前記判別手段は、前記推定領域と前記検出領域との一致度が第2の閾値以下の場合、前記検出対象物ではないとする、対象物検出装置。
  6.  請求項2から5のいずれか一項に記載の対象物検出装置において、
     前記検出対象物の前記距離情報を予め記憶させる記憶手段をさらに備え、
     前記推定手段は、前記記憶手段により予め記憶されている前記検出対象物の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの、前記検出対象物が存在していると推定される推定領域を推定する、対象物検出装置。
  7.  請求項1に記載の対象物検出装置において、
     前記認識手段は、第1の検出対象物を検出する第1検出部と、前記第1の検出対象物とは別の第2の検出対象物を認識する第2検出部とを含み、
     前記領域検出手段は、前記第1検出部および前記第2検出部を用いて前記第1の検出対象物の第1の検出領域および前記第2の検出対象物の第2の検出領域をそれぞれ検出し、
     前記判別手段は、検出された前記第1の検出領域と前記第2の検出領域の位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出装置。
  8.  請求項7に記載の対象物検出装置において、
     前記画像生成手段は、前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成し、
     前記領域検出手段は、前記第1の2次元画像から前記第1の検出対象物の前記第1の検出領域と、前記第2の2次元画像から前記第2の検出対象物の前記第2の検出領域をそれぞれ検出し、
     さらに、前記第1方向から見た前記第1の検出対象物の前記第1の検出領域と、当該第1の検出領域の各位置の前記距離情報に基づいて、当該第1の検出対象物を前記第2方向から見たときの領域を推定して推定領域とする推定手段を備え、
     前記判別手段は、前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出装置。
  9.  請求項8に記載の対象物検出装置において、
     前記判別手段は、前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第3の閾値以上の場合、前記第1の検出対象物ではないとする、対象物検出装置。
  10.  請求項8または9に記載の対象物検出装置において、
     前記判別手段は、前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第4の閾値以下の場合、前記第1の検出対象物であるとする、対象物検出装置。
  11.  請求項1から10のいずれか一項に記載の対象物検出装置において、
     前記判別手段により前記検出対象物であると判別された場合、当該判別結果を出力し、前記検出対象物ではないと判別された場合、当該判別結果を出力しない出力制御手段をさらに備える、対象物検出装置。
  12.  対象物検出装置が、
     検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成し、
     前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出し、
     検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する、対象物検出方法。
  13.  請求項12に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素のそれぞれの反射点までの距離情報を生成し、
      さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成するとともに、当該第2の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、
      前記第1の2次元画像から前記検出対象物が存在していると推定される第1の検出領域と、前記第2の2次元画像から前記検出対象物が存在していると推定される第2の検出領域をそれぞれ検出し、
      さらに、前記第1方向から見た前記検出対象物について、検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの領域を推定して推定領域とし、
      前記第2方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係に基づいて、当該検出対象物か否かを判別する、対象物検出方法。
  14.  請求項13に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記第2方向から見た前記検出対象物について、検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第1方向から見たときの領域を推定して推定領域とし、
      前記第2方向から見たときの前記推定領域と前記検出領域の位置関係と、さらに、前記第1方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係とに基づいて、当該検出対象物か否かを判別する、対象物検出方法。
  15.  請求項13または14に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記推定領域と前記検出領域との一致度が第1の閾値以上の場合、前記検出対象物であるとする、対象物検出方法。
  16.  請求項13から15のいずれか一項に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記推定領域と前記検出領域との一致度が第2の閾値以下の場合、前記検出対象物ではないとする、対象物検出方法。
  17.  請求項13から16のいずれか一項に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記検出対象物の前記距離情報を記憶装置に予め記憶させ、
      前記記憶装置に予め記憶されている前記検出対象物の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの、前記検出対象物が存在していると推定される推定領域を推定する、対象物検出方法。
  18.  請求項12に記載の対象物検出方法において、
     前記認識手段は、第1の検出対象物を検出する第1検出部と、前記第1の検出対象物とは別の第2の検出対象物を認識する第2検出部とを含み、
     前記対象物検出装置が、
      前記第1検出部および前記第2検出部を用いて前記第1の検出対象物の第1の検出領域および前記第2の検出対象物の第2の検出領域をそれぞれ検出し、
      検出された前記第1の検出領域と前記第2の検出領域の位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出方法。
  19.  請求項18に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成し、
      前記第1の2次元画像から前記第1の検出対象物の前記第1の検出領域と、前記第2の2次元画像から前記第2の検出対象物の前記第2の検出領域をそれぞれ検出し、
     さらに、前記第1方向から見た前記第1の検出対象物の前記第1の検出領域と、当該第1の検出領域の各位置の前記距離情報に基づいて、当該第1の検出対象物を前記第2方向から見たときの領域を推定して推定領域とし、
      前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との位置関係に基づいて、前記第1の検出対象物か否かを判別する、対象物検出方法。
  20.  請求項19に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第3の閾値以上の場合、前記第1の検出対象物ではないとする、対象物検出方法。
  21.  請求項19または20に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第4の閾値以下の場合、前記第1の検出対象物であるとする、対象物検出方法。
  22.  請求項12から21のいずれか一項に記載の対象物検出方法において、
     前記対象物検出装置が、
      前記検出対象物であると判別された場合、当該判別結果を出力し、前記検出対象物ではないと判別された場合、当該判別結果を出力しない、対象物検出方法。
  23.  コンピュータに、
     検査対象に向けて照射された電磁波の反射波を処理して得られた3次元情報から、前記検査対象を所定の方向から見た2次元画像を生成する手順、
     前記2次元画像から、少なくとも2つの認識手段を用いて認識された検出対象物の少なくとも2つの検出領域をそれぞれ検出する手順、
     検出された前記少なくとも2つの検出領域の位置関係に基づいて、当該検出対象物を判別する手順、を実行させるためのプログラム。
  24.  請求項23に記載のプログラムにおいて、
     前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素のそれぞれの反射点までの距離情報を生成する手順、
     前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成するとともに、当該第2の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成する手順、
     前記第1の2次元画像から前記検出対象物が存在していると推定される第1の検出領域と、前記第2の2次元画像から前記検出対象物が存在していると推定される第2の検出領域をそれぞれ検出する手順、
     前記第1方向から見た前記検出対象物について、前記検出する手順により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの領域を推定して推定領域とする手順、
     前記第2方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係に基づいて、当該検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
  25.  請求項24に記載のプログラムにおいて、
     前記第2方向から見た前記検出対象物について、前記検出する手順により検出された検出領域および当該検出領域の各位置の前記距離情報に基づいて、当該検出対象物を前記第1方向から見たときの領域を推定して推定領域とする手順、
     前記第2方向から見たときの前記推定領域と前記検出領域の位置関係と、さらに、前記第1方向のから見たときの、推定された前記推定領域と、検出された前記検出領域との位置関係とに基づいて、当該検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
  26.  請求項24または25に記載のプログラムにおいて、
     前記推定領域と前記検出領域との一致度が第1の閾値以上の場合、前記検出対象物であるとする手順、をコンピュータに実行させるためのプログラム。
  27.  請求項24から26のいずれか一項に記載のプログラムにおいて、
     前記推定領域と前記検出領域との一致度が第2の閾値以下の場合、前記検出対象物ではないとする手順、をコンピュータに実行させるためのプログラム。
  28.  請求項24から27のいずれか一項に記載のプログラムにおいて、
     前記検出対象物の前記距離情報を予め記憶装置に記憶させる手順、
     前記記憶装置に予め記憶されている前記検出対象物の前記距離情報に基づいて、当該検出対象物を前記第2方向から見たときの、前記検出対象物が存在していると推定される推定領域を推定する手順、をコンピュータに実行させるためのプログラム。
  29.  請求項23に記載のプログラムにおいて、
     前記認識手段は、第1の検出対象物を検出する第1検出部と、前記第1の検出対象物とは別の第2の検出対象物を認識する第2検出部とを含み、
     前記第1検出部および前記第2検出部を用いて前記第1の検出対象物の第1の検出領域および前記第2の検出対象物の第2の検出領域をそれぞれ検出する手順、
     検出された前記第1の検出領域と前記第2の検出領域の位置関係に基づいて、前記第1の検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
  30.  請求項29に記載のプログラムにおいて、
     前記3次元情報から、第1方向から前記検査対象を見たときの第1の2次元画像を生成するとともに、当該第1の2次元画像を構成する画素をそれぞれの反射点までの距離情報を生成し、さらに、前記3次元情報から、前記第1方向とは異なる第2方向から前記検査対象を見たときの第2の2次元画像を生成する手順、
     前記第1の2次元画像から前記第1の検出対象物の前記第1の検出領域と、前記第2の2次元画像から前記第2の検出対象物の前記第2の検出領域をそれぞれ検出する手順、
     前記第1方向から見た前記第1の検出対象物の前記第1の検出領域と、当該第1の検出領域の各位置の前記距離情報に基づいて、当該第1の検出対象物を前記第2方向から見たときの領域を推定して推定領域とする手順、
     前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との位置関係に基づいて、前記第1の検出対象物か否かを判別する手順、をコンピュータに実行させるためのプログラム。
  31.  請求項30に記載のプログラムにおいて、
     前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第3の閾値以上の場合、前記第1の検出対象物ではないとする手順、をコンピュータに実行させるためのプログラム。
  32.  請求項30または31に記載のプログラムにおいて、
     前記第1の検出対象物の前記推定領域と、前記第2の検出対象物の前記検出領域との一致度が第4の閾値以下の場合、前記第1の検出対象物であるとする手順、をコンピュータに実行させるためのプログラム。
  33.  請求項23から32のいずれか一項に記載のプログラムにおいて、
     前記検出対象物であると判別された場合、当該判別結果を出力し、前記検出対象物ではないと判別された場合、当該判別結果を出力しない手順、をさらにをコンピュータに実行させるための、プログラム。
PCT/JP2019/045243 2019-11-19 2019-11-19 対象物検出装置、対象物検出方法、及びプログラム WO2021100115A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/045243 WO2021100115A1 (ja) 2019-11-19 2019-11-19 対象物検出装置、対象物検出方法、及びプログラム
US17/777,337 US20230003884A1 (en) 2019-11-19 2019-11-19 Target object detection apparatus, target object detection method, and non-transitory computer-readable storage medium
JP2021558072A JP7298708B2 (ja) 2019-11-19 2019-11-19 対象物検出装置、対象物検出方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/045243 WO2021100115A1 (ja) 2019-11-19 2019-11-19 対象物検出装置、対象物検出方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2021100115A1 true WO2021100115A1 (ja) 2021-05-27

Family

ID=75981553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/045243 WO2021100115A1 (ja) 2019-11-19 2019-11-19 対象物検出装置、対象物検出方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230003884A1 (ja)
JP (1) JP7298708B2 (ja)
WO (1) WO2021100115A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218965A1 (ja) * 2022-05-11 2023-11-16 日本電気株式会社 レーダイメージング装置、レーダイメージング方法および記録媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024378A (ja) * 2003-07-02 2005-01-27 Hitachi Ltd 電磁波画像処理装置
JP2005351811A (ja) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp 危険物探知装置
US20090041293A1 (en) * 2007-08-08 2009-02-12 Brian Andrew Multiple camera imaging method and system for detecting concealed objects
JP2010197378A (ja) * 2009-01-14 2010-09-09 Mitsubishi Electric Corp レーダ画像処理装置
WO2017158958A1 (ja) * 2016-03-15 2017-09-21 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US20190196004A1 (en) * 2016-08-23 2019-06-27 China Communication Technology Co., Ltd. Millimeter-wave three-dimensional holographic imaging method and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024378A (ja) * 2003-07-02 2005-01-27 Hitachi Ltd 電磁波画像処理装置
JP2005351811A (ja) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp 危険物探知装置
US20090041293A1 (en) * 2007-08-08 2009-02-12 Brian Andrew Multiple camera imaging method and system for detecting concealed objects
JP2010197378A (ja) * 2009-01-14 2010-09-09 Mitsubishi Electric Corp レーダ画像処理装置
WO2017158958A1 (ja) * 2016-03-15 2017-09-21 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US20190196004A1 (en) * 2016-08-23 2019-06-27 China Communication Technology Co., Ltd. Millimeter-wave three-dimensional holographic imaging method and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218965A1 (ja) * 2022-05-11 2023-11-16 日本電気株式会社 レーダイメージング装置、レーダイメージング方法および記録媒体

Also Published As

Publication number Publication date
JP7298708B2 (ja) 2023-06-27
US20230003884A1 (en) 2023-01-05
JPWO2021100115A1 (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
Ristic et al. A tutorial on Bernoulli filters: theory, implementation and applications
EP3663790A1 (en) Method and apparatus for processing radar data
US20180114413A1 (en) Product registration apparatus, control method, and program
US10429500B2 (en) Tracking apparatus, tracking method, and computer-readable storage medium
US20180005056A1 (en) Object recognition device
JP2009186364A (ja) データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
WO2019100886A1 (zh) 用于确定目标对象的外接框的方法、装置、介质和设备
EP3982160A1 (en) Method and system for indoor multipath ghosts recognition
KR102546292B1 (ko) 재밍효과도 분석 방법 및 시스템
WO2021100115A1 (ja) 対象物検出装置、対象物検出方法、及びプログラム
CN104648627B (zh) 一种船舶预警方法
JP7388532B2 (ja) 処理システム、処理方法及びプログラム
KR101277737B1 (ko) 다중 마커의 배열을 이용하는 증강현실 시스템 및 그 방법
EP2120206A1 (en) Object shape generating method, object shape generating device and program
JPWO2021100115A5 (ja)
US11609307B2 (en) Object detection apparatus, vehicle, object detection method, and computer readable medium
JP2019219253A (ja) 車両用物標検出方法および装置
CN112712476B (zh) 用于tof测距的去噪方法及装置、tof相机
JP7351346B2 (ja) 対象物検出装置、対象物検出方法、及びプログラム
US11371835B2 (en) Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program
Chang et al. Stereo-based vision system for automotive imminent collision detection
KR101907875B1 (ko) 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법
WO2024128093A1 (ja) 対象物検出装置、対象物検出方法、及び記録媒体
US11335011B2 (en) Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program
JPH0843539A (ja) 埋設物探知に用いる受信信号の処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19953591

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021558072

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19953591

Country of ref document: EP

Kind code of ref document: A1