WO2019230123A1 - 検知装置及び検知システム - Google Patents

検知装置及び検知システム Download PDF

Info

Publication number
WO2019230123A1
WO2019230123A1 PCT/JP2019/010325 JP2019010325W WO2019230123A1 WO 2019230123 A1 WO2019230123 A1 WO 2019230123A1 JP 2019010325 W JP2019010325 W JP 2019010325W WO 2019230123 A1 WO2019230123 A1 WO 2019230123A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
detection
behavior
information
detection unit
Prior art date
Application number
PCT/JP2019/010325
Other languages
English (en)
French (fr)
Inventor
謙一 ▲濱▼口
陽介 瀬戸
淑久 山内
Original Assignee
株式会社Ihi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ihi filed Critical 株式会社Ihi
Priority to SG11202011154RA priority Critical patent/SG11202011154RA/en
Priority to EP19811391.2A priority patent/EP3806062A4/en
Priority to US17/056,448 priority patent/US20210208282A1/en
Publication of WO2019230123A1 publication Critical patent/WO2019230123A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel

Definitions

  • the present disclosure relates to a detection device and a detection system.
  • Patent Document 1 a technique for detecting the behavior of a vehicle is known.
  • a vehicle candidate is extracted from an input image captured by an imaging device provided at a position overlooking a road, and it is determined whether the vehicle is a normal vehicle or a reverse running vehicle from the displacement of the feature point of the vehicle candidate.
  • a vehicle monitoring device is described.
  • the vehicle monitoring device described in Patent Document 1 calculates vehicle position information from an image by image processing in order to detect the behavior of the vehicle.
  • An image captured by a camera or the like is easily affected by disturbances in the imaging environment. For this reason, the positional information obtained based on the image may not have sufficient accuracy.
  • the vehicle monitoring device described in Patent Document 1 determines the traveling direction from the displacement of the feature points, and determines whether the vehicle is a normal vehicle or a reverse running vehicle. There is a fear. In this technical field, it is desired to improve the detection accuracy of the behavior of the vehicle.
  • This disclosure describes a detection device that can improve the detection accuracy of the behavior of a vehicle.
  • a detection device uses a laser radar that generates point cloud information by irradiating a preset detection area with laser light and receiving reflected light of the laser light, and uses the vehicle in the detection area. It is an apparatus for detecting the target behavior which is the behavior of the detection target.
  • the detection device is based on an acquisition unit that acquires point cloud information, a vehicle detection unit that detects a vehicle based on the point cloud information, and a movement direction and a movement amount per unit time detected by the vehicle detection unit. And a behavior detection unit for detecting the target behavior.
  • the detection accuracy of the behavior of the vehicle can be improved.
  • FIG. 1 is a diagram schematically illustrating a configuration of a detection system including a detection device according to an embodiment.
  • FIG. 2 is a diagram showing an arrangement example of the laser radar and the vehicle information acquisition device shown in FIG.
  • FIG. 3 is a diagram illustrating an installation example of a laser radar.
  • FIG. 4 is a diagram illustrating a hardware configuration of the detection device illustrated in FIG. 1.
  • FIG. 5 is a diagram for explaining reverse running detection.
  • FIG. 6 is a flowchart illustrating a series of processes of a detection method performed by the detection apparatus.
  • FIG. 7 is a flowchart showing in detail the vehicle behavior detection process of FIG.
  • FIG. 8 is a flowchart showing in detail the analysis processing of FIG.
  • FIG. 9 is a flowchart showing in detail the deletion process of FIG.
  • FIG. 10 is a diagram for explaining a modified example of reverse running detection.
  • FIG. 11 is a diagram for explaining U-turn detection.
  • FIG. 12 is a diagram for explaining detection
  • a detection device includes a laser radar that generates point cloud information by irradiating a predetermined detection area with laser light and receiving reflected light of the laser light. It is an apparatus for detecting a target behavior that is a behavior of a detection target of a vehicle in a detection area.
  • the detection device is based on an acquisition unit that acquires point cloud information, a vehicle detection unit that detects a vehicle based on the point cloud information, and a movement direction and a movement amount per unit time detected by the vehicle detection unit. And a behavior detection unit for detecting the target behavior.
  • the vehicle is detected using the point cloud information generated by the laser radar. Since the point cloud information generated based on the reflected light of the laser beam is not easily affected by the light amount, the weather, and the like, the vehicle can be detected with high accuracy based on the point cloud information. Further, in the detection device, the target behavior is detected based on the detected movement direction of the vehicle and the movement amount per unit time. Thus, since not only the moving direction of the vehicle but also the moving amount per unit time of the vehicle is considered, it is possible to reduce the possibility that the target behavior is erroneously detected due to the measurement error. As a result, it becomes possible to improve the detection accuracy of the behavior of the vehicle.
  • the vehicle detection unit may calculate position information indicating the position of the vehicle based on the point cloud information.
  • the behavior detection unit obtains a vector indicating the moving direction based on the first position information that is position information at the first time and the second position information that is position information at the second time before the first time. It may be calculated.
  • the behavior detection unit may determine whether or not the vehicle has performed the target behavior based on the vector. Between the second time and the first time, the vehicle is moving from the second position indicated by the second position information to the first position indicated by the first position information. For this reason, the vector which shows the moving direction of a vehicle is computable by using the positional information in two time.
  • the behavior detection unit may calculate a position vector indicating a distance and a direction from the second position indicated by the second position information to the first position indicated by the first position information, and the position vector is calculated as the first time.
  • the velocity vector may be calculated as a vector by dividing by the time difference from the second time. In this case, the speed vector indicates the moving direction of the vehicle and the moving amount per unit time. For this reason, since it is determined whether or not the vehicle has performed the target behavior using the speed vector, it is possible to reduce the possibility that the target behavior is erroneously detected due to the measurement error.
  • the behavior detection unit may calculate an inner product of a reference vector having a direction along the vehicle traveling direction permitted in the detection area and a velocity vector, and by comparing the inner product with a predetermined threshold value. It may be determined whether the vehicle has performed the target behavior.
  • the inner product obtained as described above represents the moving direction of the vehicle and the moving amount per unit time. For this reason, it is possible to reduce the amount of calculation required for detecting the target behavior by using the inner product.
  • the behavior detection unit may determine whether the vehicle has performed the target behavior based on the vector transition.
  • the vehicle performs the target behavior the moving direction of the vehicle changes with a predetermined pattern corresponding to the target behavior as time passes. For this reason, it can be determined that the vehicle has performed the target behavior when the vector changes in a predetermined pattern.
  • the behavior detection unit may output an acquisition command for causing an external device to acquire vehicle information for identifying a vehicle that has performed the target behavior when the target behavior is a behavior that causes a traffic violation.
  • vehicle information for specifying a traffic violation vehicle is acquired. For this reason, for example, it is possible to give violation points and collect fines for the driver of a traffic violation vehicle.
  • a detection system includes the detection device described above and a laser radar. Since this detection system includes the above-described detection device, it is possible to improve the detection accuracy of the behavior of the vehicle.
  • FIG. 1 is a diagram schematically illustrating a configuration of a detection system including a detection device according to an embodiment.
  • FIG. 2 is a diagram showing an arrangement example of the laser radar and the vehicle information acquisition device shown in FIG.
  • FIG. 3 is a diagram illustrating an installation example of a laser radar.
  • FIG. 4 is a diagram illustrating a hardware configuration of the detection device illustrated in FIG. 1.
  • FIG. 5 is a diagram for explaining reverse running detection.
  • the detection system 1 shown in FIG. 1 is a system that detects the behavior of a vehicle at a target point. More specifically, the detection system 1 detects the target behavior of the vehicle at the target point.
  • the target point is a place (point) on the road to be monitored. An arbitrary place on the road can be selected as the target point. As the target point, for example, an intersection, a merging point, and an intermediate point on the road are selected. Examples of vehicles include automobiles and motorcycles.
  • the target behavior is the behavior of the vehicle detection target.
  • the target behavior includes (traffic) violation traveling. Examples of the offense travel include a U turn in a U-turn prohibited area, a right turn (or left turn) at an intersection, a right turn (or left turn) in a prohibited area, and a travel in the direction opposite to the direction of vehicle traffic permitted on the road (hereinafter referred to as the following) , “Reverse running”), and lane change in a lane change prohibited area. In the present embodiment, description will be made using reverse running as the target behavior.
  • the detection system 1 is used in an intelligent transport system (ITS).
  • the detection system 1 includes a laser radar 2, a vehicle information acquisition device 3 (external device), an output device 4, a storage device 5, a communication device 6, and a detection device 10.
  • Laser radar 2 is a device that generates point cloud information.
  • the laser radar 2 is also called a rider (LiDAR: Light Detection And Ranging) or Laser Range Finder.
  • the laser radar 2 is installed in the vicinity of the target point.
  • the target point is a midway point on the road TR.
  • the laser radar 2 is provided above the target point, for example.
  • the laser radar 2 is fixed to a support member 7 installed on the ground.
  • the support member 7 is provided on the road side of the road TR, for example.
  • the support member 7 includes, for example, a support column 71 erected on the road side and an arm 72 extending from the upper end of the support column 71 in a direction crossing the road.
  • the laser radar 2 is attached to the arm 72.
  • the support member 7 may be, for example, a utility pole and a warehouse wall.
  • illustration of the supporting member 7 is abbreviate
  • the laser radar 2 irradiates laser light toward the irradiable range Ra, and generates point cloud information by receiving reflected light of the irradiated laser light.
  • the irradiable range Ra is a range in which the laser radar 2 can irradiate laser light, for example, a range of about 150 m.
  • the irradiation possible range Ra includes a detection area Rd.
  • the detection area Rd is an area to be monitored in the irradiable range Ra.
  • the point cloud information is a set of measurement point information of each measurement point included in the irradiable range Ra.
  • Measured point information includes time information and position information.
  • the time information is information indicating the time when the measurement point information is generated (received reflected light) for the measurement point indicated by the position information.
  • the position information is information indicating the position of the measurement point.
  • a polar coordinate system represented by a yaw angle, a pitch angle, and a depth may be used, or a three-dimensional coordinate system of an X coordinate, a Y coordinate, and a Z coordinate may be used.
  • coordinates of each measurement point for example, coordinates with the installation position of the laser radar 2 as the origin are used. In the example shown in FIG.
  • the measurement point information may further include reflection intensity information.
  • the reflection intensity information is information indicating the intensity of reflected light received at the time indicated by the time information from the measurement point indicated by the position information.
  • the laser radar 2 scans the irradiable range Ra in the main scanning direction and the sub-scanning direction using laser light.
  • Point cloud information obtained by irradiating the irradiable range Ra with laser light may be referred to as one frame. Irradiation of the laser beam to the irradiable range Ra is repeated at predetermined time intervals.
  • the laser radar 2 transmits the generated point cloud information to the detection device 10.
  • the vehicle information acquisition device 3 is a device that acquires vehicle information for specifying a vehicle that is determined to have performed the target behavior by the detection device 10.
  • the vehicle information acquisition device 3 is, for example, an automatic speed violation control device.
  • As the vehicle information for example, an image of a license plate is used.
  • the vehicle information acquisition device 3 receives the acquisition command together with the vehicle position information from the detection device 10, for example, the vehicle information acquisition device 3 performs imaging so as to include a license plate of a vehicle (acquisition target vehicle) that exists at the position indicated by the vehicle position information. Get license plate images.
  • the vehicle information acquisition device 3 captures the vehicle when the acquisition target vehicle enters the monitoring range Rb.
  • the monitoring range Rb is a range in which the vehicle information acquisition device 3 can shoot, and is about several meters. In the example shown in FIG. 2, the monitoring range Rb is set in both directions along the extending direction of the road TR with respect to the vehicle information acquisition device 3. Since the license plates are provided in front and rear of the vehicle, the vehicle information acquisition device 3 may photograph the vehicle from either the front or the rear of the vehicle.
  • the vehicle information acquisition device 3 is fixed to the support member in the same manner as the laser radar 2.
  • the laser radar 2 and the vehicle information acquisition device 3 may be attached to the same support member, or may be attached to different support members. In FIG. 2 and the like, the support member is not shown.
  • the vehicle information acquisition device 3 may transmit the vehicle information to the storage device 5 and store the vehicle information in the storage device 5.
  • the vehicle information acquisition device 3 may transmit vehicle information to a public organization, a road management company, or the like via the communication device 6.
  • the output device 4 is a device that performs caution, warning, and instruction.
  • the output device 4 includes, for example, a display board and a speaker.
  • the output device 4 receives the output command from the detection device 10, the output device 4 outputs cautions, warnings, instructions, and the like to the driver of the violating vehicle.
  • the output device 4 may output cautions, warnings, instructions, and the like toward surrounding pedestrians and the like.
  • the storage device 5 is a device that stores various types of information. Examples of the storage device 5 include a hard disk device and a semiconductor memory. As various information memorize
  • the vehicle information acquisition device 3 includes a video camera
  • the various types of information may include a video movie in a time zone including the detection time.
  • the various types of information may include point cloud information in a time zone including the detection time.
  • the various types of information may include the movement trajectory (time-series vehicle position information) of the detected vehicle.
  • the communication device 6 is a communication facility installed beside the road.
  • the communication device 6 is, for example, a roadside machine (ITS spot).
  • the communication device 6 communicates with a device outside the detection system 1. Examples of the external device include an in-vehicle device, a server device, and other systems.
  • the communication device 6 transmits information similar to various information stored in the storage device 5 to an external device.
  • the detection device 10 is a device for detecting the behavior of the vehicle in the detection area Rd using the laser radar 2.
  • the detection device 10 is configured by an information processing device such as a computer, for example.
  • the detection device 10 physically includes one or more processors 101, a main storage device 102 such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and an auxiliary device such as a hard disk device. It is configured as a computer including hardware such as a storage device 103, an input device 104 such as a keyboard, an output device 105 such as a display, and a communication device 106 that is a data transmission / reception device such as a network interface card (NIC) and a wireless communication module. obtain.
  • NIC network interface card
  • Each function shown in FIG. 1 of the detection device 10 is performed by causing each hardware component such as the main storage device 102 to read one or more predetermined computer programs under the control of one or more processors 101. This is realized by operating the hardware and reading and writing data in the main storage device 102 and the auxiliary storage device 103.
  • the detection device 10 includes an acquisition unit 11, a setting unit 12, an object detection unit 13 (vehicle detection unit), an object tracking unit 14, and a behavior detection unit 15.
  • the acquisition unit 11 acquires point cloud information from the laser radar 2.
  • the acquisition unit 11 outputs the acquired point cloud information to the object detection unit 13.
  • the setting unit 12 acquires area information indicating the detection area Rd.
  • the user sets the detection area Rd using the input device 104 of the detection device 10.
  • a three-dimensional space simulating the target point is displayed on the output device 105, and the user sets the detection area Rd with a frame or the like.
  • the detection area Rd is set so as not to include a sidewalk.
  • There are fixed objects such as traffic lights, poles, utility poles, and overheads at intersections and roads. Since these fixed objects are not monitored, in order to exclude these fixed objects, a range of a predetermined height or less may be set as the height of the detection area Rd.
  • a range of a predetermined height or more may be set as the height of the detection area Rd.
  • the height of the detection area Rd may be set in a range from 20 cm to 500 cm with reference to the ground surface.
  • the setting unit 12 acquires area information indicating the set detection area Rd, and outputs the acquired area information to the object detection unit 13.
  • the object detection unit 13 detects the vehicle based on the point cloud information. Specifically, when the object detection unit 13 receives the point cloud information from the acquisition unit 11, the object detection unit 13 obtains the measurement point information of the measurement points located outside the detection area Rd indicated by the area information received from the setting unit 12. Exclude from The object detection unit 13 clusters the remaining point group information. That is, the object detection unit 13 connects nearby measurement points among a plurality of measurement points in the detection area Rd, and divides them into clusters (lumps). The object detection unit 13 detects each of the obtained clusters as a single detection object (such as a vehicle and a person).
  • the object detection unit 13 calculates the size (width, depth, and height) and position of the detected object.
  • the position of the detected object may be the coordinates of the four corners of the detected object (front right end, front left end, rear right end, and rear left end), may be the average of the positions of the measurement point information included in the cluster, or may be the center of gravity of the detected object .
  • the position of the detection object may be the coordinates of the front right end and the front left end, or may be the coordinates of the measurement point closest to the laser radar 2.
  • the object detection part 13 excludes a non-vehicle from a detection object. Specifically, the object detection unit 13 classifies the detected object based on the size (dimension) of the detected object. Here, the object detection unit 13 classifies the detected object into a vehicle and a non-vehicle. For example, the object detection unit 13 classifies the detected object as a non-vehicle when the width of the detected object is less than 1 m, and classifies the detected object as a vehicle when the width of the detected object is 1 m or more.
  • the object detection unit 13 outputs detection results to the object tracking unit 14 for the detected objects classified as vehicles (hereinafter referred to as “detected vehicles”).
  • the detection result includes size information indicating the size of the detected vehicle, vehicle position information indicating the position of the detected vehicle, and detection time information indicating the detection time when the detected vehicle is detected.
  • the detection time is, for example, an average time indicated by time information included in measurement point information of each measurement point included in the cluster.
  • the object tracking unit 14 tracks the detected vehicle and generates a tracking result. That is, when the object tracking unit 14 receives the detection result from the object detection unit 13, the object tracking unit 14 associates a vehicle ID (Identifier) with the detected vehicle detected in a different frame (different detection time).
  • the vehicle ID is identification information that can uniquely identify the detected vehicle.
  • the object tracking unit 14 detects the detected vehicle detected in the current frame based on the position and size of the detected vehicle and the speed and angular velocity estimated from the past observation results. It is determined whether it corresponds to one of the detected vehicles detected in step (1).
  • the object tracking unit 14 determines that the detected vehicle detected in the current frame does not correspond to any of the detected vehicles detected in the past frame, the object tracking unit 14 assigns a new vehicle ID to the detected vehicle as a new detected vehicle. Give.
  • the object tracking unit 14 determines that the detected vehicle detected in the current frame corresponds to the detected vehicle detected in the past frame, the object tracking unit 14 sets the vehicle ID assigned to the corresponding detected vehicle in the current frame. It is given to the detected vehicle.
  • the object tracking part 14 deletes vehicle ID about the detection vehicle which has not been detected for a long time among the detection vehicles to which vehicle ID is provided.
  • the problem of tracking (detecting) a plurality of detected vehicles is referred to as a multi-target tracking problem.
  • the object tracking unit 14 tracks each detected vehicle using a known algorithm. Known algorithms include SNN (Suboptimal Nearest Neighbor), GNN (Global Nearest Neighbor), JPDAF (Joint Probabilistic Data Association Filter), and the like.
  • the object tracking unit 14 outputs the tracking result to the behavior detecting unit 15.
  • the tracking result includes a vehicle ID, vehicle position information, and detection time information.
  • the behavior detection unit 15 detects the target behavior of the detected vehicle based on the vehicle ID and the vehicle position information. Specifically, the behavior detection unit 15 detects the target behavior based on the movement direction (travel direction) of the detected vehicle and the travel amount (travel amount) per unit time. More specifically, when receiving the tracking result from the object tracking unit 14, the behavior detecting unit 15 calculates a velocity vector.
  • the velocity vector has a direction along the moving direction of the detected vehicle and a magnitude according to the amount of movement of the detected vehicle per unit time. That is, the speed vector indicates the moving direction of the detected vehicle and the amount of movement of the detected vehicle per unit time.
  • the behavior detection unit 15 performs vehicle position information (second position information) in the previous (detection time t-1) frame and vehicle position information in the current (detection time t) frame. Based on (first position information), a velocity vector is calculated. In other words, the behavior detection unit 15 moves from the position p (t ⁇ 1) of the detected vehicle M indicated by the vehicle position information of the previous frame to the position p (t) of the detected vehicle M indicated by the vehicle position information of the current frame. A position vector indicating the distance and direction is calculated. The position vector indicates the moving direction and the moving amount of the detection vehicle M. The position vector is also referred to as a motion vector.
  • the behavior detection unit 15 obtains a position vector by subtracting the position p (t ⁇ 1) (second position) from the position p (t) (first position).
  • the behavior detection unit 15 determines whether the detected vehicle M has run backward based on the speed vector. For example, as shown in Expression (2), the behavior detection unit 15 calculates the inner product of the reference vector Vr and the velocity vector Vv (t).
  • the reference vector Vr is a unit vector having a direction along the traffic direction of the vehicle permitted on the road (lane) on which the detection vehicle M is traveling.
  • the unit vector is a vector whose size is 1.
  • a reference vector Vr (sx, sy) is set in advance. If the traffic direction of the vehicle permitted on the road TR shown in FIG. 5 is the Y axis positive direction, the reference vector Vr is set to (0, 1).
  • the inner product When the moving direction of the detection vehicle M is the same as the direction of travel, the inner product is a positive value. When the moving direction of the detection vehicle M is opposite to the direction of travel, the inner product is a negative value. When the detection vehicle M is stopped, the inner product is zero. It shows that the movement amount per unit time of the detection vehicle M is larger as the size of the inner product is larger. That is, the inner product is used as an index representing the moving direction of the detected vehicle M and the moving amount per unit time.
  • the behavior detection unit 15 determines whether the detected vehicle M has performed the target behavior by comparing the inner product with the threshold value.
  • the threshold value is a negative value determined in advance, and has a magnitude (absolute value) that can exclude measurement errors caused by the laser radar 2. For example, the behavior detection unit 15 determines that the detection vehicle M is running backward when the inner product continues to take a negative value smaller than the threshold value over a predetermined period (a certain time).
  • the behavior detection unit 15 outputs an acquisition command for acquiring vehicle information to the vehicle information acquisition device 3.
  • FIG. 6 is a flowchart illustrating a series of processes of a detection method performed by the detection apparatus.
  • FIG. 7 is a flowchart showing in detail the vehicle behavior detection process of FIG.
  • FIG. 8 is a flowchart showing in detail the analysis processing of FIG.
  • FIG. 9 is a flowchart showing in detail the deletion process of FIG.
  • the series of processes shown in FIG. 6 is performed, for example, at regular time intervals.
  • the acquisition unit 11 acquires point cloud information from the laser radar 2 (step S01). Then, the acquisition unit 11 outputs the acquired point group information to the object detection unit 13. Subsequently, the object detection unit 13 detects a detected object based on the point cloud information (step S02). Specifically, when the object detection unit 13 receives the point cloud information from the acquisition unit 11, the object detection unit 13 obtains the measurement point information of the measurement points located outside the detection area Rd indicated by the area information received from the setting unit 12. Exclude from Then, the object detection unit 13 clusters the remaining point cloud information, and detects each of the obtained clusters as a single detection object (such as a vehicle and a person). Then, the object detection unit 13 calculates the size and position of the detected object.
  • the object detection unit 13 classifies the detected objects (step S03). Specifically, the object detection unit 13 classifies the detected object into a vehicle and a non-vehicle based on the size of the detected object. Then, the object detection unit 13 outputs detection results to the object tracking unit 14 for the detected objects classified as vehicles.
  • the object tracking unit 14 tracks the detected object (detected vehicle) (step S04). Specifically, when the object tracking unit 14 receives the detection result from the object detection unit 13, the object tracking unit 14 determines that the detected vehicle detected in the current frame does not correspond to any of the detected vehicles detected in the past frame. In this case, a new vehicle ID is given to the detected vehicle as a new detected vehicle. When the object tracking unit 14 determines that the detected vehicle detected in the current frame corresponds to the detected vehicle detected in the past frame, the object tracking unit 14 sets the vehicle ID assigned to the corresponding detected vehicle in the current frame. It is given to the detected vehicle. Then, the object tracking unit 14 outputs the tracking result (vehicle ID, vehicle position information, and detection time information) to the behavior detection unit 15.
  • the object tracking unit 14 outputs the tracking result (vehicle ID, vehicle position information, and detection time information) to the behavior detection unit 15.
  • the behavior detection unit 15 performs a vehicle behavior detection process (step S05).
  • the behavior detection unit 15 receives the tracking result from the object tracking unit 14, the behavior detection unit 15 performs steps S11 to S14 for each vehicle ID included in the tracking result.
  • the behavior detection unit 15 updates the management table (step S11).
  • the management table is a table for managing detected vehicles.
  • the management table manages behavior information in which vehicle IDs are associated with history information.
  • the history information is information indicating a history (movement locus) of the position of the detected vehicle indicated by the vehicle ID.
  • the history information includes one or more sets of detection time information indicating the detection time and vehicle position information indicating the position of the detected vehicle indicated by the vehicle ID at the detection time.
  • the behavior detection unit 15 additionally registers the behavior information including the vehicle ID in the management table. That is, the behavior detection unit 15 adds new behavior information, sets the vehicle ID included in the tracking result as the vehicle ID of the behavior information, and sets the combination of the detection time information and the vehicle position information included in the tracking result as history information. Set to.
  • the behavior detection unit 15 sets the detection time information and the vehicle position information included in the tracking result as history information of the behavior information. to add.
  • the behavior detection unit 15 performs an analysis process (step S12).
  • the behavior detection unit 15 first calculates the speed vector Vv (t) of the detected vehicle M (step S21). Specifically, the behavior detection unit 15 detects the vehicle position information and the previous detection time (here, the detection time t) from the history information corresponding to the vehicle ID at the latest detection time (here, the detection time t). -1)) is extracted. And the behavior detection part 15 is shown by the vehicle position information of the detection time t-1 from the position p (t) of the detection vehicle M shown by the vehicle position information of the detection time t, as shown in Formula (1).
  • the behavior detection unit 15 calculates the inner product of the reference vector Vr and the velocity vector Vv (t) as shown in Expression (2) (step S22). Then, the behavior detection unit 15 compares the inner product with the threshold value, and determines whether or not the inner product is smaller than the threshold value (step S23). If the behavior detection unit 15 determines that the inner product is smaller than the threshold (step S23; YES), the behavior detection unit 15 determines that the detected vehicle M is running backward (step S24), and ends the analysis process of step S12. On the other hand, if the behavior detection unit 15 determines that the inner product is equal to or greater than the threshold (step S23; NO), the behavior detection unit 15 determines that the detected vehicle M is not running backward, and ends the analysis process of step S12.
  • the behavior detection unit 15 may determine whether or not the inner product has continued to take a negative value smaller than the threshold value over a predetermined period (a certain time) in step S23.
  • the behavior detection unit 15 may determine that the detection vehicle M is running backward when the inner product continues to take a negative value smaller than the threshold value over a certain period of time.
  • Step S12 when the behavior detection unit 15 determines that the behavior of the detected vehicle M is reverse running (in violation) in Step S12 (Step S13; YES), In order to acquire the vehicle information of the detected vehicle, an acquisition command is transmitted to the vehicle information acquisition device 3 together with the vehicle position information (step S14). At this time, the behavior detection unit 15 may transmit various information related to the violating vehicle to the storage device 5 and the communication device 6. Various types of information may include the detection time, position, speed, and size (dimension) of the detected vehicle (violating vehicle). The various information may include a video movie in a time zone including the detection time.
  • the various types of information may include point cloud information in a time zone including the detection time and a movement trajectory (time-series vehicle position information) of the detected vehicle.
  • the behavior detection unit 15 may transmit an output command for performing a caution, a warning, and an instruction to the violating vehicle to the output device 4.
  • the behavior detection unit 15 does not transmit the acquisition command to the vehicle information acquisition device 3 when it is determined in step S12 that the behavior of the detected vehicle M is not reverse running (step S13; NO).
  • the behavior detection unit 15 determines whether or not all vehicle IDs included in the tracking result have been processed (step S15). If the behavior detection unit 15 determines that not all vehicle IDs have been processed (step S15; NO), the behavior detection unit 15 executes steps S11 to S15 again for the next vehicle ID. On the other hand, if the behavior detection unit 15 determines that all the vehicle IDs have been processed (step S15; YES), the behavior detection unit 15 performs behavior information deletion processing (step S16).
  • the behavior detection unit 15 performs the processes in steps S31 and S32 for each piece of behavior information registered in the management table.
  • the behavior detection unit 15 calculates the difference between the current time and the detection time indicated by the latest detection time information included in the history information of the behavior information, and the difference is greater than or equal to a preset threshold value. It is determined whether or not (step S31).
  • the threshold value is set to a value larger than the average time required for the vehicle to pass through the detection area Rd, for example.
  • step S31 When the behavior detection unit 15 determines that the difference is equal to or greater than the threshold (step S31; YES), the behavior detection unit 15 regards that the vehicle indicated by the vehicle ID of the behavior information has left the detection area Rd, and stores the behavior information in the management table. (Step S32). On the other hand, when the behavior detection unit 15 determines that the difference is less than the threshold (step S31; NO), the behavior detection unit 15 does not delete the behavior information from the management table.
  • the behavior detection unit 15 determines whether or not all behavior information registered in the management table has been processed (step S33). If the behavior detection unit 15 determines that not all the behavior information has been processed (step S33; NO), the behavior detection unit 15 executes steps S31 to S33 again for the next behavior information. On the other hand, when it is determined that all the behavior information has been processed (step S33; YES), the behavior detection unit 15 ends the vehicle behavior detection process. Thus, a series of processes of the detection method performed by the detection apparatus 10 is completed.
  • the vehicle information acquisition apparatus 3 will acquire vehicle information, if an acquisition command is received with the vehicle position information from the detection apparatus 10 (behavior detection part 15). Specifically, when the vehicle existing at the position indicated by the vehicle position information enters the monitoring range Rb, the vehicle information acquisition device 3 performs imaging so as to include the license plate of the vehicle, thereby obtaining a license plate image. To get.
  • the vehicle information acquisition device 3 transmits the vehicle information to the storage device 5, stores the vehicle information in the storage device 5, and transmits the vehicle information to a public institution, a road management company, and the like via the communication device 6. To do.
  • the detection vehicle M is detected using the point cloud information generated by the laser radar 2.
  • the laser radar 2 is affected by environmental disturbances such as changes in the amount of light depending on the time zone (morning and night), changes in the weather (rainy weather, snowfall, and heavy fog), and strong light such as sunlight and headlights. Hateful.
  • the laser radar 2 can measure the distance between the laser radar 2 and the object with an error of about several centimeters. For this reason, the detection system 1 and the detection device 10 can detect the position of the detection vehicle M with high accuracy.
  • the movement in a direction different from the actual movement of the vehicle may be detected due to an error in measurement by the laser radar 2. That is, since the position of the detection vehicle M may not be obtained accurately, for example, when the target behavior is detected only in the moving direction of the detection vehicle M, the detection vehicle M It can be determined that the vehicle is running backward. For this reason, when the target behavior is detected only in the moving direction of the detection vehicle M, there is a possibility that erroneous detection occurs. On the other hand, in the detection system 1 and the detection apparatus 10, the target behavior is detected based on the movement direction of the detection vehicle M and the movement amount per unit time. Specifically, in the detection system 1 and the detection device 10, it is determined whether or not the detected vehicle M has performed the target behavior using the velocity vector Vv (t).
  • the speed vector Vv (t) indicates the moving direction of the detected vehicle M and the moving amount of the detected vehicle M per unit time.
  • the speed is determined based on the position p (t) of the detection vehicle M at the detection time t and the position p (t-1) of the detection vehicle M at the detection time t-1.
  • the vector Vv (t) is calculated, and it is determined whether or not the detected vehicle M has performed the target behavior based on the speed vector Vv (t).
  • the position vector indicating the moving direction of the detected vehicle M can be calculated by using the vehicle position information at the detection times t ⁇ 1 and t.
  • the velocity vector Vv (t) can be calculated by dividing the position vector by the time difference between the detection time t ⁇ 1 and the detection time t.
  • the inner product of the reference vector Vr and the velocity vector Vv (t) is calculated, and it is determined whether or not the detected vehicle M has performed the target behavior by comparing the inner product with the threshold value.
  • the inner product obtained as described above can represent the movement direction of the detection vehicle M and the movement amount per unit time. For example, if the inner product is a positive value, the moving direction of the detected vehicle M is the same as the travel direction permitted on the road TR (lane), and if the inner product is a negative value, the moving of the detected vehicle M is The direction is opposite to the permitted direction of travel on the road TR (lane).
  • the size of the inner product represents the amount of movement of the detection vehicle M per unit time. For this reason, it is possible to reduce the amount of calculation required for detecting the target behavior by using the inner product.
  • the behavior detection unit 15 outputs an acquisition command for causing the vehicle information acquisition device 3 to acquire vehicle information for identifying a vehicle that has performed the target behavior when the target behavior is a behavior that causes a traffic violation. Thereby, the vehicle information for specifying a violation vehicle is acquired. For this reason, for example, it is possible to give a violation score and collect a fine for the driver of the violating vehicle. Further, by identifying the violating vehicle, a warning can be given to the driver of the violating vehicle. For high-risk driving such as reverse running, driving instructions can be given. As an example of the driving instruction, “Because it is running backwards, make a U-turn immediately” and the like.
  • the laser radar 2 Since the laser radar 2 repeatedly irradiates laser light onto the irradiable range Ra (detection area Rd), the position of the detection vehicle M can be detected over time. Since the laser radar 2 has a wider detection area Rd than a camera or the like, it is not necessary to install a plurality of laser radars 2. The laser radar 2 can measure even in a space with a good line of sight such as an intersection.
  • the detection device 10 is configured as one device, but may be configured with two or more devices.
  • the detection device 10 may include a laser radar 2.
  • the laser radar 2 may include an information processing device having the function of the detection device 10.
  • the target point may be an intersection.
  • the intersection may be an intersection where two roads intersect, or a T-junction.
  • the target point may be a merge point where two or more roads merge, or a merge point between an exit of a facility such as a building and a road.
  • the target point may be set on a general road or may be set on an expressway.
  • the behavior detection unit 15 may determine whether or not the detected vehicle M has performed the target behavior based on the position vector instead of the velocity vector Vv (t). In addition, the position of the detection vehicle M in two consecutive frames may not be used for calculation of the velocity vector Vv (t) (or position vector), and the position of the detection vehicle M at two detection times is used. That's fine.
  • the road to be detected for reverse running may not be a single lane (travel lane) road, but may be a road having a plurality of lanes.
  • a common reference vector is set for the lanes in which permitted traffic directions are the same.
  • the road TR has two lanes TL1, three lanes TL2, and a central separation zone C.
  • the vehicle is separated into two lanes TL1 and three lanes TL2 by a central separator C.
  • the traffic directions permitted in the two lanes TL1 are the same direction (Y-axis positive direction), and the traffic directions permitted in the three lanes TL2 are the same direction (Y-axis negative direction).
  • the reference vector Vr1 (0, 1) is set for the two lanes TL1.
  • the reference vector Vr2 (0, ⁇ 1) is set for the three lanes TL2.
  • the behavior detection unit 15 may determine whether or not the detected vehicle M has performed the target behavior based on the transition of the speed vector.
  • the behavior information further includes the velocity vector calculated at each detection time in the history information.
  • the behavior detection unit 15 detects the target behavior based on a change in the direction of the plurality of velocity vectors when the plurality of velocity vectors included in the behavior information are arranged in time series. For example, when the target behavior is reverse running, the behavior detection unit 15 detects the detected vehicle when the direction of the speed vector is opposite to the permitted direction of travel on the road (lane) in two or more consecutive frames. It is determined that M is running backward.
  • the behavior detection unit 15 detects the detected vehicle when the inner product continues to take a negative value smaller than the threshold value over a predetermined period (a certain time). It may be determined that M is running backward.
  • the target behavior is not limited to reverse running.
  • the target behavior may be a U-turn at an intersection P where a U-turn is prohibited.
  • the U-turn is that the vehicle changes its traveling direction by 180 degrees and proceeds in the opposite direction, and is also referred to as turning.
  • one road TR extending along the positive direction of the Y-axis from the intersection P has a plurality of (here, three) lanes Tlin and a plurality of exits from the intersection P ( Here, there are two lanes TLout, and a central separation zone C provided between the lanes TLin and TLout.
  • the lane TLout is disposed in the negative X-axis direction of the lane TLin.
  • the traffic direction permitted in the lane TLin is the Y-axis negative direction
  • the traffic direction permitted in the lane TLout is the Y-axis positive direction.
  • Vv (t) is calculated.
  • the behavior detection unit 15 then, for example, the direction of the speed vectors Vv (t-6) to Vv (t) when the speed vectors Vv (t-6) to Vv (t) are arranged in time series (in order of oldest).
  • the U-turn is detected based on the change in.
  • the behavior detection unit 15 changes the direction of the speed vectors Vv (t ⁇ 6) to Vv (t) arranged in time series in the order of the negative Y-axis direction, the negative X-axis direction, and the positive Y-axis direction. Then, it is determined that the detected vehicle M has made a U-turn from the lane TLin to the lane TLout.
  • the target behavior may be a right turn at an intersection P where a right turn is prohibited.
  • the road TR ⁇ b> 1 that extends from the intersection P along the positive direction of the Y axis has a plurality of (here, three) lanes Tlin that enter the intersection P.
  • the road TR2 extending along the negative direction of the X axis from the intersection P has a plurality of (here, two) lanes TLout exiting from the intersection P.
  • the velocity vector Vv from two positions adjacent to each other in time series among the positions p (t-7) to p (t) at the detection times t-7 to t of the detection vehicle M.
  • the behavior detection unit 15 detects the detected vehicle M when the direction of Vv (t ⁇ 6) to Vv (t) arranged in time series (in the oldest order) changes in the order of the Y-axis negative direction and the X-axis negative direction. Is determined to have made a right turn from the lane TLin on the road TR1 to the lane TLout on the road TR2.
  • the target behavior may be a lane change in an area (section) where lane change is prohibited.
  • a lane change is the movement of a vehicle from one lane to another.
  • one road includes a plurality of lanes, the permitted directions of travel in the plurality of lanes are the same, and a line indicating prohibition of lane change between two adjacent lanes (Japan) In the yellow line).
  • one road TR includes two lanes TL1 and TL2 having the same direction of travel.
  • the traffic direction of the lanes TL1 and TL2 is the X-axis negative direction.
  • Vv (t) is calculated.
  • the behavior detection unit 15 has a direction in which the directions of Vv (t ⁇ 4) to Vv (t) arranged in time series (in order of oldness) have components in the X-axis negative direction, the X-axis negative direction, and the Y-axis negative direction, And when it changes in order of the X-axis negative direction, it determines with the detection vehicle M having changed the lane from the lane TL1 to the lane TL2.
  • the road subject to detection of lane change is not limited to a road having two lanes, and may be a road having a plurality of lanes of three or more lanes.
  • a lane change in a plurality of lanes can be detected in the same manner as a lane change between two lanes.
  • the moving direction of the detection vehicle M changes with a predetermined pattern according to the target behavior as time elapses. For this reason, it can be determined that the detected vehicle M has performed the target behavior when the velocity vector changes in a predetermined pattern.
  • the target behavior is not limited to traffic violation (running).
  • the target behavior is U turn in an area where U turn is not prohibited, right turn (or left turn) in an area where right turn (or left turn) is not prohibited, lane change in an area where lane change is not prohibited
  • normal travel and course change may be used.
  • the course change is progressing obliquely with respect to the direction in which the road extends.
  • the course change includes a lane change.
  • the course change can be detected in the same manner as the lane change.
  • Normal driving is driving along the direction of vehicle traffic permitted on the road (lane). Detection of normal running is performed in the same manner as reverse running detection.
  • the threshold value for the normal running determination is different from the threshold value for the reverse running determination.
  • the threshold value for determining the normal travel is a positive value determined in advance, and has a size that can exclude measurement errors caused by the laser radar 2.
  • the behavior detection part 15 determines whether the detection vehicle M is performing normal driving
  • the behavior detection unit 15 determines that the detected vehicle M is performing normal travel, and determines that the inner product is less than or equal to the threshold for normal travel determination. It is determined that the detection vehicle M is not normally traveling. The behavior detection unit 15 determines that the detected vehicle M is traveling normally when the inner product continues to take a positive value that is greater than the threshold for determining normal traveling over a predetermined period (a certain time). May be.
  • the detection system 1 acquires statistical information such as the number of vehicles that have performed the target behavior. In this case, the detection system 1 may not include the vehicle information acquisition device 3.
  • the vehicle information acquisition device 3 can photograph a reverse running vehicle from the front and rear.
  • the vehicle information acquisition device 3 may be provided so that the reverse running vehicle can be photographed only from behind, or the reverse traveling vehicle may be photographed only from the front.
  • the laser radar 2 a type of three-dimensional laser radar capable of irradiating laser light in all directions may be used.
  • the target behavior is a U-turn at an intersection
  • the target behavior is a right turn
  • the detection system 1 and the detection apparatus 10 may detect a plurality of types of target behaviors with a single laser radar 2. In these cases, since the behavior of a plurality of vehicles can be detected by a single laser radar 2, the number of laser radars 2 can be reduced.
  • the detection system 1 includes a single laser radar 2, the detection system 1 may include a plurality of laser radars 2. In this case, the detection apparatus 10 may combine and use the point cloud information generated by the plurality of laser radars 2. In this configuration, since the blind spots are reduced, it is possible to improve the certainty of detection.
  • the vehicle information acquisition device 3 is not limited to the automatic speed violation control device, and may be a video camera having a high resolution.
  • the vehicle information acquisition device 3 may further include a light source for photographing (also referred to as a flash device or a strobe device) in order to cope with nighttime.
  • the vehicle information acquisition device 3 may acquire vehicle information (information described on the number plate) by wireless communication between the communication device 6 and the vehicle-mounted device, for example.
  • the vehicle information acquired by the vehicle information acquisition device 3 is not limited to the image of the license plate.
  • the vehicle information may be a face photo of the driver of the vehicle.
  • the vehicle information may be electronic information such as driver's license information.
  • the detection device 10 may control the gate to be blocked in order to prevent the violating vehicle from physically traveling.
  • the behavior detection unit 15 may control to block the ETC gate. In this case, the traveling of the violating vehicle can be obstructed, and the violating traveling can be prevented.
  • the violating vehicle may be safely stopped.
  • the behavior detection unit 15 may calculate the minimum distance between the intersection center and the locus of the detected vehicle M during the U-turn, and the U-turn start position.
  • the behavior detection unit 15 may include these pieces of information in various types of information related to the detection vehicle M and transmit various types of information to the storage device 5 and the communication device 6.
  • the U-turn start position is the position of the detection vehicle M when the detection vehicle M enters the intersection. The risk is high when the vehicle enters deeply to the vicinity of the intersection and makes a U-turn or when a U-turn is started from a position away from the median. For this reason, by adding the above information further, for example, a high penalty can be given to a driver who has made a U-turn with a high degree of danger.
  • the detection device 10 further includes a determination unit that determines whether or not the emergency vehicle is approaching the target point based on the siren sound of the emergency vehicle or the coordinate information (GPS (Global Positioning System) information) of the emergency vehicle. May be. For example, even in a lane change prohibition area, lane change is permitted when a course is given to an emergency vehicle. For this reason, the behavior detection unit 15 may add information indicating that the emergency vehicle has passed the target point to various information regarding the detected vehicle M, and transmit the various information to the storage device 5 and the communication device 6. . The behavior detection unit 15 may not transmit various types of information regarding the detected vehicle M while the emergency vehicle is passing the target point to the storage device 5 and the communication device 6.
  • GPS Global Positioning System
  • the detection system 1 may further include an imaging device such as a video camera.
  • the imaging device transmits the captured image to the detection device 10.
  • the behavior detection unit 15 analyzes the captured image to determine whether or not the detection vehicle M has issued an instruction for the traveling direction. And the behavior detection part 15 may determine the detection vehicle M as a violation vehicle, when it determines with the detection vehicle M which performed the left-right turn or the lane change not issuing the instruction
  • Detection System 2 Laser Radar 3
  • Vehicle Information Acquisition Device (External Device) 4
  • Output device 5
  • Storage device 6
  • Communication device 10
  • Detection device 11 Acquisition unit 12
  • Setting unit 13
  • Object detection unit (vehicle detection unit) 14
  • Object Tracking Unit 15
  • Behavior Detection Unit M Detection Vehicle Rd Detection Area

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

検知装置は、予め設定された検知エリアにレーザ光を照射してレーザ光の反射光を受光することで点群情報を生成するレーザレーダを用いて、検知エリアにおける車両の検知対象の挙動である対象挙動を検知するための装置であって、点群情報を取得する取得部と、点群情報に基づいて、車両を検知する車両検知部と、車両検知部によって検知された車両の移動方向及び単位時間当たりの移動量に基づいて、対象挙動を検知する挙動検知部と、を備える。

Description

検知装置及び検知システム
 本開示は、検知装置及び検知システムに関する。
 従来、車両の挙動を検知する技術が知られている。例えば、特許文献1には、道路を俯瞰する位置に設けられた撮像装置によって撮像された入力画像から車両候補を抽出し、車両候補の特徴点の変位から通常車両か逆走車両かを判定する車両監視装置が記載されている。
特開平10-269492号公報
 特許文献1に記載の車両監視装置は、車両の挙動を検知するために、画像処理によって、画像から車両の位置情報を算出する。カメラ等によって撮像された画像は、撮像環境の外乱の影響を受けやすい。このため、画像に基づいて得られた位置情報は、十分な精度を有しない場合がある。また、特許文献1に記載の車両監視装置は、特徴点の変位から走行方向を判断し、通常車両か逆走車両かを判定しているが、変位量が少ない場合等には、誤検知するおそれがある。本技術分野では、車両の挙動の検知精度を向上させることが望まれている。
 本開示は、車両の挙動の検知精度を向上可能な検知装置を説明する。
 本開示の一側面に係る検知装置は、予め設定された検知エリアにレーザ光を照射してレーザ光の反射光を受光することで点群情報を生成するレーザレーダを用いて、検知エリアにおける車両の検知対象の挙動である対象挙動を検知するための装置である。検知装置は、点群情報を取得する取得部と、点群情報に基づいて、車両を検知する車両検知部と、車両検知部によって検知された車両の移動方向及び単位時間当たりの移動量に基づいて、対象挙動を検知する挙動検知部と、を備える。
 本開示によれば、車両の挙動の検知精度を向上させることができる。
図1は、一実施形態に係る検知装置を含む検知システムの構成を概略的に示す図である。 図2は、図1に示されるレーザレーダ及び車両情報取得装置の配置例を示す図である。 図3は、レーザレーダの設置例を示す図である。 図4は、図1に示される検知装置のハードウェア構成を示す図である。 図5は、逆走の検知を説明するための図である。 図6は、検知装置が行う検知方法の一連の処理を示すフローチャートである。 図7は、図6の車両挙動検知処理を詳細に示すフローチャートである。 図8は、図7の解析処理を詳細に示すフローチャートである。 図9は、図7の削除処理を詳細に示すフローチャートである。 図10は、逆走の検知の変形例を説明するための図である。 図11は、Uターンの検知を説明するための図である。 図12は、右折の検知を説明するための図である。 図13は、車線変更の検知を説明するための図である。
[1]実施形態の概要
 本開示の一側面に係る検知装置は、予め設定された検知エリアにレーザ光を照射してレーザ光の反射光を受光することで点群情報を生成するレーザレーダを用いて、検知エリアにおける車両の検知対象の挙動である対象挙動を検知するための装置である。検知装置は、点群情報を取得する取得部と、点群情報に基づいて、車両を検知する車両検知部と、車両検知部によって検知された車両の移動方向及び単位時間当たりの移動量に基づいて、対象挙動を検知する挙動検知部と、を備える。
 この検知装置では、レーザレーダによって生成された点群情報を用いて、車両が検知される。レーザ光の反射光に基づいて生成された点群情報は、光量及び天候等の影響を受けにくいので、点群情報に基づいて車両を高精度に検知することができる。また、上記検知装置では、検知された車両の移動方向及び単位時間当たりの移動量に基づいて、対象挙動が検知される。このように、車両の移動方向だけでなく車両の単位時間当たりの移動量が考慮されるので、計測誤差によって対象挙動が誤検知される可能性を低減することが可能となる。その結果、車両の挙動の検知精度を向上させることが可能となる。
 車両検知部は、点群情報に基づいて、車両の位置を示す位置情報を算出してもよい。挙動検知部は、第1時刻における位置情報である第1位置情報と、第1時刻よりも前の第2時刻における位置情報である第2位置情報と、に基づいて、移動方向を示すベクトルを算出してもよい。挙動検知部は、ベクトルに基づいて、車両が対象挙動を行ったか否かを判定してもよい。第2時刻から第1時刻までの間に、車両は第2位置情報で示される第2位置から第1位置情報で示される第1位置まで移動している。このため、2つの時刻における位置情報を用いることで、車両の移動方向を示すベクトルを算出することができる。
 挙動検知部は、第2位置情報によって示される第2位置から第1位置情報によって示される第1位置までの距離と方向とを示す位置ベクトルを算出してもよく、位置ベクトルを第1時刻と第2時刻との時間差で除算することによって速度ベクトルをベクトルとして算出してもよい。この場合、速度ベクトルは、車両の移動方向と単位時間当たりの移動量とを示す。このため、速度ベクトルを用いて車両が対象挙動を行ったか否かが判定されるので、計測誤差によって対象挙動が誤検知される可能性を低減することが可能となる。
 挙動検知部は、検知エリアにおいて許可されている車両の通行方向に沿った向きを有する基準ベクトルと速度ベクトルとの内積を計算してもよく、内積と予め定められた閾値とを比較することにより、車両が対象挙動を行ったか否かを判定してもよい。上述のようにして得られた内積は、車両の移動方向及び単位時間当たりの移動量を表す。このため、内積を用いることで、対象挙動の検知に要する計算量を削減することが可能となる。
 挙動検知部は、ベクトルの推移に基づいて、車両が対象挙動を行ったか否かを判定してもよい。車両が対象挙動を行った場合、車両の移動方向が、時間の経過とともに、対象挙動に応じた所定のパターンで変化する。このため、ベクトルが所定のパターンで推移している場合に車両が対象挙動を行ったと判定することができる。
 挙動検知部は、対象挙動が交通違反となる挙動である場合、対象挙動を行った車両を特定するための車両情報を外部装置に取得させる取得指令を出力してもよい。この場合、交通違反車両を特定するための車両情報が取得される。このため、例えば、交通違反車両の運転者に対して、違反点数の付与及び罰金の徴収等を行うことができる。
 本開示の別の側面に係る検知システムは、上述の検知装置と、レーザレーダと、を備える。この検知システムは、上述の検知装置を備えているので、車両の挙動の検知精度を向上させることが可能となる。
[2]実施形態の例示
 以下、本開示の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明を省略する。
 図1は、一実施形態に係る検知装置を含む検知システムの構成を概略的に示す図である。図2は、図1に示されるレーザレーダ及び車両情報取得装置の配置例を示す図である。図3は、レーザレーダの設置例を示す図である。図4は、図1に示される検知装置のハードウェア構成を示す図である。図5は、逆走の検知を説明するための図である。
 図1に示される検知システム1は、対象地点における車両の挙動を検知するシステムである。より具体的には、検知システム1は、対象地点における車両の対象挙動を検知する。対象地点は、監視対象となる道路上の場所(地点)である。対象地点としては、道路上の任意の場所が選択され得る。対象地点として、例えば、交差点、合流地点、及び道路の途中地点が選択される。車両の例としては、自動車及びバイクが挙げられる。
 対象挙動は、車両の検知対象の挙動である。対象挙動には、(交通)違反走行が含まれる。違反走行としては、例えば、Uターン禁止エリアでのUターン、交差点における右折(又は左折)禁止エリアでの右折(又は左折)、道路において許可されている車両の通行方向と反対向きの走行(以下、「逆走」という)、及び車線変更禁止エリアでの車線変更が挙げられる。本実施形態では、対象挙動として逆走を用いて説明する。検知システム1は、高度道路交通システム(ITS:Intelligent Transport Systems)に用いられる。検知システム1は、レーザレーダ2と、車両情報取得装置3(外部装置)と、出力装置4と、記憶装置5と、通信装置6と、検知装置10と、を備えている。
 レーザレーダ2は、点群情報を生成する装置である。レーザレーダ2は、ライダー(LiDAR:Light Detection And Ranging)、又はLaser Range Finderとも称される。図2及び図3に示されるように、レーザレーダ2は、対象地点の近傍に設置されている。図2に示される例では、対象地点は、道路TRの途中地点である。レーザレーダ2は、例えば、対象地点の上空に設けられる。レーザレーダ2は、地上に設置された支持部材7に固定されている。支持部材7は、例えば、道路TRの路側に設けられる。支持部材7は、例えば、路側に立設された支柱71と、支柱71の上端から道路を横断する方向に延びるアーム72と、を備えている。アーム72には、レーザレーダ2が取り付けられている。支持部材7は、例えば、電柱、及び倉庫の壁であってもよい。なお、図2等では、支持部材7の図示が省略されている。
 レーザレーダ2は、照射可能範囲Raに向けてレーザ光を照射し、照射したレーザ光の反射光を受光することにより点群情報を生成する。照射可能範囲Raは、レーザレーダ2がレーザ光を照射可能な範囲であり、例えば150m程度の範囲である。照射可能範囲Raは、検知エリアRdを含む。検知エリアRdは、照射可能範囲Raのうちの監視対象となる領域である。点群情報は、照射可能範囲Raに含まれる各計測点の計測点情報の集合である。
 計測点情報は、時刻情報、及び位置情報を含む。時刻情報は、位置情報で示される計測点に対して計測点情報を生成した(反射光を受光した)時刻を示す情報である。位置情報は、計測点の位置を示す情報である。位置には、ヨー角、ピッチ角、及び深度で表される極座標系が用いられてもよく、X座標、Y座標、及びZ座標の3次元座標系が用いられてもよい。各計測点の座標には、例えば、レーザレーダ2の設置位置を原点とした座標が用いられる。図2に示される例では、道路TRの幅方向がX軸方向であり、道路TRの延びる方向がY軸方向であり、高さ方向がZ軸方向である。計測点情報は、反射強度情報をさらに含んでもよい。反射強度情報は、位置情報で示される計測点から、時刻情報で示される時刻に受光した反射光の強度を示す情報である。
 レーザレーダ2は、レーザ光を用いて照射可能範囲Raを主走査方向及び副走査方向に走査する。照射可能範囲Raへのレーザ光の照射によって得られる点群情報は、1フレームと称される場合がある。照射可能範囲Raへのレーザ光の照射は、所定の時間間隔で繰り返される。レーザレーダ2は、生成した点群情報を検知装置10に送信する。
 車両情報取得装置3は、検知装置10によって対象挙動を行ったと判定された車両を特定するための車両情報を取得する装置である。車両情報取得装置3は、例えば、自動速度違反取締装置である。車両情報としては、例えば、ナンバープレートの画像が用いられる。車両情報取得装置3は、検知装置10から車両位置情報とともに取得指令を受信すると、例えば、車両位置情報によって示される位置に存在する車両(取得対象の車両)のナンバープレートを含むように撮影を行い、ナンバープレートの画像を取得する。
 車両情報取得装置3は、監視範囲Rbに取得対象の車両が進入すると、当該車両を撮影する。監視範囲Rbは、車両情報取得装置3が撮影可能な範囲であり、数m程度である。図2に示される例では、監視範囲Rbは、車両情報取得装置3に対して、道路TRの延在方向に沿った両方向に設定されている。車両の前方及び後方に、ナンバープレートが設けられているので、車両情報取得装置3は、車両の前方及び後方のいずれから車両を撮影してもよい。
 車両情報取得装置3は、レーザレーダ2と同様に、支持部材に固定されている。レーザレーダ2と車両情報取得装置3とは、同じ支持部材に取り付けられてもよく、互いに異なる支持部材に取り付けられてもよい。なお、図2等では、支持部材の図示が省略されている。車両情報取得装置3は、車両情報を記憶装置5に送信し、車両情報を記憶装置5に記憶させてもよい。車両情報取得装置3は、通信装置6を介して公的機関、及び道路管理業者等に車両情報を送信してもよい。
 出力装置4は、注意、警告、及び指示を行う装置である。出力装置4は、例えば、表示板、及びスピーカを含む。出力装置4は、検知装置10から出力指令を受信すると、注意、警告、及び指示等を違反車両の運転者に向けて出力する。出力装置4は、周囲の歩行者等に向けて注意、警告、及び指示等を出力してもよい。
 記憶装置5は、各種情報を記憶する装置である。記憶装置5の例としては、ハードディスク装置、及び半導体メモリが挙げられる。記憶装置5に記憶される各種情報としては、例えば、車両情報取得装置3によって取得された車両情報、後述する検知車両の検知時刻、位置、速度、及び大きさ(寸法)が挙げられる。車両情報取得装置3がビデオカメラを含む場合には、各種情報には、検知時刻を含む時間帯のビデオ動画が含まれてもよい。各種情報には、検知時刻を含む時間帯の点群情報が含まれてもよい。各種情報には、検知車両の移動軌跡(時系列の車両位置情報)が含まれてもよい。
 通信装置6は、道路脇に設置されている通信設備である。通信装置6は、例えば、路側機(ITSスポット)である。通信装置6は、検知システム1の外部の装置と通信を行う。外部の装置としては、車載器、サーバ装置、及び他のシステム等が挙げられる。通信装置6は、記憶装置5に記憶される各種情報と同様の情報を外部の装置に送信する。
 検知装置10は、レーザレーダ2を用いて、検知エリアRdにおける車両の挙動を検知するための装置である。検知装置10は、例えば、コンピュータ等の情報処理装置によって構成される。
 図4に示されるように、検知装置10は、物理的には、1又は複数のプロセッサ101、RAM(Random Access Memory)及びROM(Read Only Memory)等の主記憶装置102、ハードディスク装置等の補助記憶装置103、キーボード等の入力装置104、ディスプレイ等の出力装置105、並びに、ネットワークインタフェースカード(NIC)及び無線通信モジュール等のデータ送受信デバイスである通信装置106等のハードウェアを備えるコンピュータとして構成され得る。検知装置10の図1に示される各機能は、主記憶装置102等のハードウェアに1又は複数の所定のコンピュータプログラムを読み込ませることにより、1又は複数のプロセッサ101の制御のもとで各ハードウェアを動作させるとともに、主記憶装置102及び補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。
 検知装置10は、機能的には、取得部11と、設定部12と、物体検知部13(車両検知部)と、物体追跡部14と、挙動検知部15と、を備えている。
 取得部11は、レーザレーダ2から点群情報を取得する。取得部11は、取得した点群情報を物体検知部13に出力する。
 設定部12は、検知エリアRdを示すエリア情報を取得する。例えば、検知装置10の入力装置104を用いてユーザが検知エリアRdを設定する。例えば、対象地点を模擬した3次元空間が出力装置105に表示され、ユーザが枠等によって検知エリアRdを設定する。例えば、検知エリアRdは、歩道を含まないように設定される。交差点及び道路には、信号機、支柱、電柱、及び高架等の固定物がある。これらの固定物は、監視対象外であるので、これらの固定物を除外するために、検知エリアRdの高さとして、所定の高さ以下の範囲が設定されてもよい。また、地面を除外するために、検知エリアRdの高さとして、所定の高さ以上の範囲が設定されてもよい。例えば、検知エリアRdの高さには、地表を基準として20cm以上500cm以下の範囲が設定されてもよい。設定部12は、設定された検知エリアRdを示すエリア情報を取得し、取得したエリア情報を物体検知部13に出力する。
 物体検知部13は、点群情報に基づいて、車両を検知する。具体的には、物体検知部13は、取得部11から点群情報を受け取ると、設定部12から受け取ったエリア情報によって示される検知エリアRd外に位置する計測点の計測点情報を点群情報から除外する。物体検知部13は、残った点群情報をクラスタリングする。つまり、物体検知部13は、検知エリアRd内の複数の計測点のうち、近傍の計測点同士をつなぎ合わせ、クラスタ(塊)に分割する。物体検知部13は、得られたクラスタのそれぞれを単一の検知物体(車両及び人等)として検知する。
 物体検知部13は、検知物体の寸法(幅、奥行き、及び高さ)及び位置を計算する。検知物体の位置は、検知物体の四隅(前方右端、前方左端、後方右端、及び後方左端)の座標でもよく、クラスタに含まれる計測点情報の位置の平均でもよく、検知物体の重心位置でもよい。検知物体の位置は、前方右端及び前方左端の座標でもよく、レーザレーダ2から見て最も手前の計測点の座標でもよい。
 検知装置10では、車両の挙動が検知対象であるので、人及び鳥等の移動物体(非車両)を追跡する必要がない。このため、物体検知部13は、検知物体から非車両を除外する。具体的には、物体検知部13は、検知物体の大きさ(寸法)に基づいて、検知物体の分類を行う。ここでは、物体検知部13は、検知物体を車両と非車両とに分類する。物体検知部13は、例えば、検知物体の幅が1m未満である場合、検知物体を非車両に分類し、検知物体の幅が1m以上である場合、検知物体を車両に分類する。
 物体検知部13は、車両に分類した検知物体(以下、「検知車両」という。)について、検知結果を物体追跡部14に出力する。検知結果は、検知車両の寸法を示す寸法情報、検知車両の位置を示す車両位置情報、及び検知車両を検知した検知時刻を示す検知時刻情報を含む。検知時刻は、例えば、クラスタに含まれる各計測点の計測点情報が有する時刻情報によって示される時刻の平均時刻である。
 物体追跡部14は、検知車両を追跡し、追跡結果を生成する。つまり、物体追跡部14は、物体検知部13から検知結果を受け取ると、異なるフレーム(異なる検知時刻)において検知された検知車両に対し、車両ID(Identifier)の対応付けを行う。車両IDは、検知車両を一意に識別可能な識別情報である。具体的には、物体追跡部14は、検知車両の位置及び寸法、並びに、過去の観測結果から推定される速度及び角速度等に基づいて、現在のフレームにおいて検知された検知車両が、過去のフレームにおいて検知された検知車両のいずれかと対応しているかを判定する。
 物体追跡部14は、現在のフレームにおいて検知された検知車両が、過去のフレームにおいて検知された検知車両のいずれとも対応しないと判定した場合に、新規の検知車両として当該検知車両に新しい車両IDを付与する。物体追跡部14は、現在のフレームにおいて検知された検知車両が、過去のフレームにおいて検知された検知車両と対応すると判定した場合に、対応する検知車両に付与されている車両IDを現在のフレームにおいて検知された検知車両に付与する。物体追跡部14は、車両IDが付与されている検知車両のうち、長時間検知されていない検知車両について、車両IDを削除する。
 なお、複数の検知車両を追跡する(ID付けする)問題は、マルチターゲットトラッキング問題と称される。物体追跡部14は、公知のアルゴリズムを用いて、各検知車両を追跡する。公知のアルゴリズムとしては、SNN(Suboptimal Nearest Neighbor)、GNN(Global Nearest Neighbor)、及びJPDAF(Joint Probabilistic Data Association Filter)等が挙げられる。物体追跡部14は、追跡結果を挙動検知部15に出力する。追跡結果は、車両ID、車両位置情報、及び検知時刻情報を含む。
 挙動検知部15は、車両ID及び車両位置情報に基づいて、検知車両の対象挙動を検知する。具体的には、挙動検知部15は、検知車両の移動方向(走行方向)及び単位時間当たりの移動量(走行量)に基づいて、対象挙動を検知する。より具体的に説明すると、挙動検知部15は、物体追跡部14から追跡結果を受け取ると、速度ベクトルを計算する。速度ベクトルは、検知車両の移動方向に沿った向きと、検知車両の単位時間当たりの移動量に応じた大きさと、を有する。つまり、速度ベクトルは、検知車両の移動方向と、検知車両の単位時間当たりの移動量と、を示す。
 図5に示されるように、挙動検知部15は、例えば、前回(検知時刻t-1)のフレームにおける車両位置情報(第2位置情報)と、現在(検知時刻t)のフレームにおける車両位置情報(第1位置情報)と、に基づいて、速度ベクトルを計算する。つまり、挙動検知部15は、前回フレームの車両位置情報によって示される検知車両Mの位置p(t-1)から現在のフレームの車両位置情報によって示される検知車両Mの位置p(t)までの距離と方向とを示す位置ベクトルを計算する。位置ベクトルは、検知車両Mの移動方向及び移動量を示す。位置ベクトルは、動きベクトルとも称される。式(1)に示されるように、挙動検知部15は、位置p(t)(第1位置)から位置p(t-1)(第2位置)を減算することで、位置ベクトルを求め、検知時刻t(第1時刻)と検知時刻t-1(第2時刻)との時間差で位置ベクトルを除算することによって、検知時刻tにおける速度ベクトルVv(t)=(vx,vy)を計算する。
Figure JPOXMLDOC01-appb-M000001
 挙動検知部15は、速度ベクトルに基づいて、検知車両Mが逆走したか否かを判定する。例えば、式(2)に示されるように、挙動検知部15は、基準ベクトルVrと速度ベクトルVv(t)との内積を計算する。基準ベクトルVrは、検知車両Mが走行している道路(車線)において許可されている車両の通行方向に沿った向きを有する単位ベクトルである。単位ベクトルは、その大きさが1であるベクトルである。挙動検知部15には、基準ベクトルVr=(sx,sy)が予め設定されている。図5に示される道路TRにおいて許可されている車両の通行方向がY軸正方向であるとすると、基準ベクトルVrは、(0,1)に設定される。
Figure JPOXMLDOC01-appb-M000002
 検知車両Mの移動方向が通行方向と同じである場合、内積は正の値となる。検知車両Mの移動方向が通行方向と反対である場合、内積は負の値となる。検知車両Mが停止している場合には、内積は0となる。内積の大きさが大きいほど、検知車両Mの単位時間当たりの移動量が大きいことを示す。つまり、内積は、検知車両Mの移動方向及び単位時間当たりの移動量を表す指標として用いられる。
 挙動検知部15は、内積と閾値とを比較することにより、検知車両Mが対象挙動を行ったか否かを判定する。対象挙動が逆走である場合、閾値は、予め定められた負の値であり、レーザレーダ2による計測誤差を除外できる程度の大きさ(絶対値)を有する。挙動検知部15は、例えば、予め定められた期間(一定時間)以上に亘って、内積が閾値よりも小さい負の値を取り続けた場合、検知車両Mが逆走していると判定する。挙動検知部15は、対象挙動を検知した場合、車両情報を取得するための取得指令を車両情報取得装置3に出力する。
 次に、図6~図9を参照して、検知装置10が行う検知方法について説明する。図6は、検知装置が行う検知方法の一連の処理を示すフローチャートである。図7は、図6の車両挙動検知処理を詳細に示すフローチャートである。図8は、図7の解析処理を詳細に示すフローチャートである。図9は、図7の削除処理を詳細に示すフローチャートである。図6に示される一連の処理は、例えば、一定の時間ごとに実施される。
 まず、取得部11が、レーザレーダ2から点群情報を取得する(ステップS01)。そして、取得部11は、取得した点群情報を物体検知部13に出力する。続いて、物体検知部13は、点群情報に基づいて、検知物体を検知する(ステップS02)。具体的には、物体検知部13は、取得部11から点群情報を受け取ると、設定部12から受け取ったエリア情報によって示される検知エリアRd外に位置する計測点の計測点情報を点群情報から除外する。そして、物体検知部13は、残った点群情報をクラスタリングし、得られたクラスタのそれぞれを単一の検知物体(車両及び人等)として検知する。そして、物体検知部13は、検知物体の寸法及び位置を計算する。
 続いて、物体検知部13は、検知物体を分類する(ステップS03)。具体的には、物体検知部13は、検知物体の寸法に基づいて、検知物体を車両と非車両とに分類する。そして、物体検知部13は、車両に分類した検知物体について、検知結果を物体追跡部14に出力する。
 続いて、物体追跡部14は、検知物体(検知車両)を追跡する(ステップS04)。具体的には、物体追跡部14は、物体検知部13から検知結果を受け取ると、現在のフレームにおいて検知された検知車両が、過去のフレームにおいて検知された検知車両のいずれとも対応しないと判定した場合に、新規の検知車両として当該検知車両に新しい車両IDを付与する。物体追跡部14は、現在のフレームにおいて検知された検知車両が、過去のフレームにおいて検知された検知車両と対応すると判定した場合に、対応する検知車両に付与されている車両IDを現在のフレームにおいて検知された検知車両に付与する。そして、物体追跡部14は、追跡結果(車両ID、車両位置情報、及び検知時刻情報)を挙動検知部15に出力する。
 続いて、挙動検知部15は、車両挙動検知処理を実施する(ステップS05)。ステップS05の車両挙動検知処理では、図7に示されるように、挙動検知部15は、物体追跡部14から追跡結果を受け取ると、追跡結果に含まれる各車両IDについて、ステップS11~ステップS14の処理を行う。まず、挙動検知部15は、管理テーブルを更新する(ステップS11)。管理テーブルは、検知車両を管理するためのテーブルである。
 管理テーブルは、車両IDと、履歴情報と、を対応付けた挙動情報を管理している。履歴情報は、車両IDによって示される検知車両の位置の履歴(移動軌跡)を示す情報である。履歴情報は、検知時刻を示す検知時刻情報と、車両IDによって示される検知車両の当該検知時刻における位置を示す車両位置情報と、の1つ以上の組を有する。
 挙動検知部15は、追跡結果に含まれる車両IDを含む挙動情報が管理テーブルに存在しない場合には、当該車両IDを含む挙動情報を管理テーブルに追加登録する。つまり、挙動検知部15は、新たな挙動情報を追加し、挙動情報の車両IDとして追跡結果に含まれる車両IDを設定し、追跡結果に含まれる検知時刻情報及び車両位置情報の組を履歴情報に設定する。挙動検知部15は、追跡結果に含まれる車両IDを含む挙動情報が管理テーブルに存在する場合には、追跡結果に含まれる検知時刻情報及び車両位置情報の組を、当該挙動情報の履歴情報に追加する。
 続いて、挙動検知部15は、解析処理を行う(ステップS12)。ステップS12の解析処理では、図8に示されるように、挙動検知部15は、まず、検知車両Mの速度ベクトルVv(t)を計算する(ステップS21)。具体的には、挙動検知部15は、車両IDに対応する履歴情報から最新の検知時刻(ここでは、検知時刻tとする。)における車両位置情報と前回の検知時刻(ここでは、検知時刻t-1とする。)における車両位置情報とを抽出する。そして、挙動検知部15は、式(1)に示されるように、検知時刻tの車両位置情報によって示される検知車両Mの位置p(t)から検知時刻t-1の車両位置情報によって示される検知車両Mの位置p(t-1)を減算することで、位置ベクトルを求め、検知時刻tと検知時刻t-1との時間差で位置ベクトルを除算することによって、速度ベクトルVv(t)=(vx,vy)を計算する。
 続いて、挙動検知部15は、式(2)に示されるように、基準ベクトルVrと速度ベクトルVv(t)との内積を計算する(ステップS22)。そして、挙動検知部15は、内積と閾値とを比較し、内積が閾値よりも小さいか否かを判定する(ステップS23)。挙動検知部15は、内積が閾値よりも小さいと判定した場合(ステップS23;YES)、検知車両Mが逆走していると判定し(ステップS24)、ステップS12の解析処理を終了する。一方、挙動検知部15は、内積が閾値以上であると判定した場合(ステップS23;NO)、検知車両Mは逆走していないと判定し、ステップS12の解析処理を終了する。
 なお、挙動検知部15は、ステップS23において、予め定められた期間(一定時間)以上に亘って、内積が閾値よりも小さい負の値を取り続けたか否かを判定してもよい。挙動検知部15は、一定時間以上に亘って、内積が閾値よりも小さい負の値を取り続けた場合に、検知車両Mが逆走していると判定してもよい。
 続いて、図7に示されるように、挙動検知部15は、ステップS12において検知車両Mの挙動が逆走である(違反している)と判定された場合には(ステップS13;YES)、検知車両の車両情報を取得するために、取得指令を車両位置情報とともに車両情報取得装置3に送信する(ステップS14)。このとき、挙動検知部15は、違反車両に関する各種情報を記憶装置5及び通信装置6に送信してもよい。各種情報には、検知車両(違反車両)の検知時刻、位置、速度、及び大きさ(寸法)が含まれ得る。各種情報には、検知時刻を含む時間帯のビデオ動画が含まれてもよい。各種情報には、検知時刻を含む時間帯の点群情報、及び検知車両の移動軌跡(時系列の車両位置情報)が含まれてもよい。さらに、挙動検知部15は、違反車両に対して注意、警告、及び指示を行うための出力指令を出力装置4に送信してもよい。挙動検知部15は、ステップS12において検知車両Mの挙動が逆走でないと判定された場合には(ステップS13;NO)、取得指令を車両情報取得装置3に送信しない。
 そして、挙動検知部15は、追跡結果に含まれるすべての車両IDを処理したか否かを判定する(ステップS15)。挙動検知部15は、すべての車両IDを処理したわけではないと判定した場合には(ステップS15;NO)、次の車両IDについて、ステップS11~ステップS15を再び実行する。一方、挙動検知部15は、すべての車両IDを処理したと判定した場合には(ステップS15;YES)、挙動情報の削除処理を行う(ステップS16)。
 ステップS16の削除処理では、図9に示されるように、挙動検知部15は、管理テーブルに登録されている各挙動情報について、ステップS31及びステップS32の処理を行う。まず、挙動検知部15は、現在の時刻と挙動情報の履歴情報に含まれている最新の検知時刻情報によって示される検知時刻との差を計算し、その差が予め設定された閾値以上であるか否かを判定する(ステップS31)。閾値は、例えば、車両が検知エリアRdを通過するのに要する平均時間よりも大きい値に設定されている。挙動検知部15は、差が閾値以上であると判定した場合(ステップS31;YES)、当該挙動情報の車両IDによって示される車両が検知エリアRdから退出したとみなして、当該挙動情報を管理テーブルから削除する(ステップS32)。一方、挙動検知部15は、差が閾値未満であると判定した場合(ステップS31;NO)、当該挙動情報を管理テーブルから削除しない。
 そして、挙動検知部15は、管理テーブルに登録されているすべての挙動情報を処理したか否かを判定する(ステップS33)。挙動検知部15は、すべての挙動情報を処理したわけではないと判定した場合には(ステップS33;NO)、次の挙動情報について、ステップS31~ステップS33を再び実行する。一方、挙動検知部15は、すべての挙動情報を処理したと判定した場合には(ステップS33;YES)、車両挙動検知処理を終了する。以上により、検知装置10が行う検知方法の一連の処理が終了する。
 そして、車両情報取得装置3は、検知装置10(挙動検知部15)から車両位置情報とともに取得指令を受信すると、車両情報を取得する。具体的には、車両情報取得装置3は、車両位置情報によって示される位置に存在する車両が監視範囲Rbに進入すると、当該車両のナンバープレートを含むように撮影を行うことで、ナンバープレートの画像を取得する。そして、車両情報取得装置3は、車両情報を記憶装置5に送信し、車両情報を記憶装置5に記憶させるとともに、通信装置6を介して公的機関、及び道路管理業者等に車両情報を送信する。
 以上説明したように、検知システム1及び検知装置10では、レーザレーダ2によって生成された点群情報を用いて、検知車両Mが検知される。レーザレーダ2は、時間帯(朝及び夜)による光量の変化、天候(雨天、降雪、及び濃霧)の変化、並びに太陽光及びヘッドライト等の強い光の入光といった環境の外乱の影響を受けにくい。また、レーザレーダ2は、レーザレーダ2と物体との距離を数cm程度の誤差で計測することができる。このため、検知システム1及び検知装置10では、検知車両Mの位置を高精度に検知することができる。
 レーザレーダ2による計測の誤差によって、実際の車両の移動とは異なる方向の移動が検知される場合がある。つまり、検知車両Mの位置が正確に得られないことがあるので、例えば、検知車両Mの移動方向だけで対象挙動を検知する場合には、車両が停止していたとしても、検知車両Mが逆走していると判定され得る。このため、検知車両Mの移動方向だけで対象挙動を検知する場合には、誤検知が生じる可能性がある。これに対し、検知システム1及び検知装置10では、検知車両Mの移動方向及び単位時間当たりの移動量に基づいて、対象挙動が検知される。具体的には、検知システム1及び検知装置10では、速度ベクトルVv(t)を用いて、検知車両Mが対象挙動を行ったか否かが判定される。速度ベクトルVv(t)は、検知車両Mの移動方向と、検知車両Mの単位時間当たりの移動量と、を示す。このように、検知車両Mの移動方向だけでなく検知車両Mの単位時間当たりの移動量が考慮されるので、例えば、検知車両Mの単位時間当たりの移動量が小さい場合には、検知車両Mが対象挙動を行っていないと判定することができる。これにより、計測誤差によって対象挙動が誤検知される可能性を低減することが可能となる。その結果、車両の挙動の検知精度を向上させることが可能となる。
 また、検知システム1及び検知装置10では、検知時刻tにおける検知車両Mの位置p(t)と、検知時刻t-1における検知車両Mの位置p(t-1)と、に基づいて、速度ベクトルVv(t)が算出され、速度ベクトルVv(t)に基づいて、検知車両Mが対象挙動を行ったか否かが判定される。検知時刻t-1から検知時刻tまでの間に、検知車両Mは位置p(t-1)から位置p(t)まで移動している。このため、検知時刻t-1,tにおける車両位置情報を用いることで、検知車両Mの移動方向を示す位置ベクトルを算出することができる。また、検知時刻t-1と検知時刻tとの時間差によって、位置ベクトルを除算することで、速度ベクトルVv(t)を算出することができる。
 検知システム1及び検知装置10では、基準ベクトルVrと速度ベクトルVv(t)との内積が計算され、内積と閾値とを比較することにより、検知車両Mが対象挙動を行ったか否かが判定される。上述のようにして得られた内積は、検知車両Mの移動方向及び単位時間当たりの移動量を表すことができる。例えば、内積が正の値であれば、検知車両Mの移動方向が、道路TR(車線)において許可されている通行方向と同じであり、内積が負の値であれば、検知車両Mの移動方向が道路TR(車線)において許可されている通行方向と反対である。内積の大きさは、検知車両Mの単位時間当たりの移動量を表す。このため、内積を用いることで、対象挙動の検知に要する計算量を削減することが可能となる。
 挙動検知部15は、対象挙動が交通違反となる挙動である場合、対象挙動を行った車両を特定するための車両情報を車両情報取得装置3に取得させる取得指令を出力する。これにより、違反車両を特定するための車両情報が取得される。このため、例えば、違反車両の運転者に対して、違反点数の付与及び罰金の徴収等を行うことができる。また、違反車両を特定することによって、違反車両の運転者に警告を与えることができる。逆走のような危険度の高い運転に対しては、運転指示を行うことができる。運転指示の例としては、「逆走しているので直ちにUターンせよ」等が挙げられる。
 レーザレーダ2は、照射可能範囲Ra(検知エリアRd)に対してレーザ光を繰り返し照射するので、検知車両Mの位置を経時的に検知することができる。レーザレーダ2は、カメラ等と比較して、検知エリアRdが広いので、複数のレーザレーダ2を設置する必要がない。レーザレーダ2は、交差点内のような見通しの良い空間でも計測することができる。
 以上、本開示の実施形態について説明したが、本発明は上記実施形態に限定されない。
 例えば、上記実施形態では、検知装置10は、1つの装置として構成されているが、2以上の装置で構成されてもよい。検知装置10は、レーザレーダ2を備えていてもよい。レーザレーダ2が検知装置10の機能を有する情報処理装置を備えていてもよい。
 対象地点は、交差点でもよい。交差点は、2つの道路が交差する交差点でもよく、T字路でもよい。対象地点は、2以上の道路が合流する合流地点でもよく、ビル等の施設の出口と道路との合流地点でもよい。対象地点は、一般道に設定されてもよく、高速道路に設定されてもよい。
 挙動検知部15は、速度ベクトルVv(t)に代えて、位置ベクトルに基づいて、検知車両Mが対象挙動を行ったか否かを判定してもよい。また、速度ベクトルVv(t)(又は位置ベクトル)の計算には、連続する2つのフレームにおける検知車両Mの位置が用いられなくてもよく、2つの検知時刻における検知車両Mの位置が用いられればよい。
 逆走を検知する対象となる道路は、1車線(走行レーン)の道路でなくてもよく、複数の車線を有する道路であってもよい。許可されている通行方向が互いに同じ車線には、共通の基準ベクトルが設定される。図10に示される例では、道路TRは、2つの車線TL1と、3つの車線TL2と、中央分離帯Cと、を有する。この道路TRでは、中央分離帯Cによって2つの車線TL1と3つの車線TL2とに分離されている。2つの車線TL1において許可されている通行方向は互いに同じ方向(Y軸正方向)であり、3つの車線TL2において許可されている通行方向は互いに同じ方向(Y軸負方向)である。この場合、2つの車線TL1に対して、基準ベクトルVr1=(0,1)が設定される。同様に、3つの車線TL2に対して、基準ベクトルVr2=(0,-1)が設定される。この構成では、レーザレーダ2の数を増やすことなく、許可されている通行方向が異なる車線の逆走を検知することができる。なお、基準ベクトルは、車線毎に設定されてもよい。
 挙動検知部15は、速度ベクトルの推移に基づいて、検知車両Mが対象挙動を行ったか否かを判定してもよい。この場合、挙動情報は、履歴情報に各検知時刻において算出された速度ベクトルをさらに含む。挙動検知部15は、挙動情報に含まれる複数の速度ベクトルを時系列に並べた場合の複数の速度ベクトルの向きの変化に基づいて、対象挙動を検知する。例えば、対象挙動が逆走である場合、挙動検知部15は、連続する2以上のフレームにおいて、速度ベクトルの向きが道路(車線)において許可されている通行方向と反対である場合に、検知車両Mが逆走していると判定する。あるいは、内積を用いる場合には、上述のように、挙動検知部15は、予め定められた期間(一定時間)以上に亘って、内積が閾値よりも小さい負の値を取り続けた場合、検知車両Mが逆走していると判定してもよい。
 対象挙動は、逆走に限られない。例えば、図11に示されるように、対象挙動は、Uターンが禁止されている交差点PでのUターンであってもよい。Uターンは、車両が進行方向を180度変えて反対方向に進むことであり、転回とも称される。図11に示される例では、交差点PからY軸正方向に沿って延びる1つの道路TRは、交差点Pに進入する複数(ここでは、3つ)の車線TLinと、交差点Pから退出する複数(ここでは、2つ)の車線TLoutと、車線TLinと車線TLoutとの間に設けられた中央分離帯Cと、を有する。車線TLoutは、車線TLinのX軸負方向に配置されている。車線TLinにおいて許可されている通行方向はY軸負方向であり、車線TLoutにおいて許可されている通行方向はY軸正方向である。
 この場合、検知車両Mの各検知時刻t-7~tの位置p(t-7)~p(t)のうち、時系列で互いに隣り合う2つの位置から速度ベクトルVv(t-6)~Vv(t)が算出される。そして、挙動検知部15は、例えば、速度ベクトルVv(t-6)~Vv(t)を時系列に(古い順に)並べた場合の速度ベクトルVv(t-6)~Vv(t)の向きの変化に基づいて、Uターンを検知する。例えば、挙動検知部15は、時系列に並べられた速度ベクトルVv(t-6)~Vv(t)の向きがY軸負方向、X軸負方向、及びY軸正方向の順に変化する場合に、検知車両Mが車線TLinから車線TLoutにUターンしたと判定する。
 図12に示されるように、対象挙動は、右折が禁止されている交差点Pでの右折であってもよい。図12に示される例では、交差点PからY軸正方向に沿って延びる道路TR1は、交差点Pに進入する複数(ここでは、3つ)の車線TLinを有する。交差点PからX軸負方向に沿って延びる道路TR2は、交差点Pから退出する複数(ここでは、2つ)の車線TLoutを有する。この場合もUターンと同様に、検知車両Mの各検知時刻t-7~tの位置p(t-7)~p(t)のうち、時系列で互いに隣り合う2つの位置から速度ベクトルVv(t-6)~Vv(t)が算出される。挙動検知部15は、時系列に(古い順に)並べられたVv(t-6)~Vv(t)の向きがY軸負方向、及びX軸負方向の順に変化する場合に、検知車両Mが道路TR1の車線TLinから道路TR2の車線TLoutに右折したと判定する。
 図13に示されるように、対象挙動は、車線変更が禁止されているエリア(区間)での車線変更であってもよい。車線変更は、車両が1つの車線から別の車線に移動することである。この場合、1つの道路が、複数の車線を含み、複数の車線において許可されている通行方向が互いに同じであり、互いに隣り合う2つの車線の間には、車線変更の禁止を表す線(日本では黄色線)が設けられている。図13に示される例では、1つの道路TRが、同じ通行方向を有する2つの車線TL1,TL2を含む。車線TL1,TL2の通行方向は、X軸負方向である。この場合、検知車両Mの各検知時刻t-5~tの位置p(t-5)~p(t)のうち、時系列で互いに隣り合う2つの位置から速度ベクトルVv(t-4)~Vv(t)が算出される。挙動検知部15は、時系列に(古い順に)並べられたVv(t-4)~Vv(t)の向きがX軸負方向、X軸負方向及びY軸負方向の成分を有する方向、及びX軸負方向の順に変化する場合に、検知車両Mが車線TL1から車線TL2に車線変更したと判定する。
 車線変更の検知対象となる道路は、2車線を有する道路に限られず、3車線以上の複数の車線を有する道路であってもよい。2車線間の車線変更と同様にして、複数車線における車線変更を検知することができる。
 以上のように、検知車両Mが対象挙動を行った場合、検知車両Mの移動方向が、時間の経過とともに、対象挙動に応じた所定のパターンで変化する。このため、速度ベクトルが所定のパターンで推移している場合に検知車両Mが対象挙動を行ったと判定することができる。
 対象挙動は、交通違反となる挙動(走行)に限られない。例えば、対象挙動は、Uターンが禁止されていないエリアでのUターン、右折(又は左折)が禁止されていないエリアでの右折(又は左折)、車線変更が禁止されていないエリアでの車線変更、通常走行、及び進路変更等でもよい。進路変更は、道路が延びる方向に対して斜めに向いて進行することである。進路変更は、車線変更を含む。進路変更は、車線変更と同様にして検知され得る。
 通常走行は、道路(車線)において許可されている車両の通行方向に沿った走行である。通常走行の検知は、逆走の検知と同様に行われる。速度ベクトルVv(t)と基準ベクトルVrとの内積を用いる場合には、通常走行判定用の閾値は、逆走判定用の閾値と異なる。つまり、通常走行判定用の閾値は、予め定められた正の値であり、レーザレーダ2による計測誤差を除外できる程度の大きさを有する。そして、挙動検知部15は、内積と通常走行判定用の閾値とを比較することにより、検知車両Mが通常走行を行っているか否かを判定する。例えば、挙動検知部15は、内積が通常走行判定用の閾値よりも大きい場合、検知車両Mは通常走行を行っていると判定し、内積が通常走行判定用の閾値以下であると判定した場合、検知車両Mは通常走行を行っていないと判定する。挙動検知部15は、予め定められた期間(一定時間)以上に亘って、内積が通常走行判定用の閾値よりも大きい正の値を取り続けた場合、検知車両Mが通常走行していると判定してもよい。
 対象挙動が交通違反となる挙動でない場合、検知システム1は、対象挙動を行った車両の数等の統計情報を取得する。この場合、検知システム1は、車両情報取得装置3を備えていなくてもよい。
 レーザレーダ2及び車両情報取得装置3の配置は、各図に示された配置に限られない。例えば、図5では、車両情報取得装置3は、逆走車両を前方及び後方から撮影可能である。車両情報取得装置3は、逆走車両を後方のみから撮影可能なように設けられてもよく、逆走車両を前方のみから撮影可能なように設けられてもよい。
 レーザレーダ2として、全周囲方向にレーザ光を照射できるタイプの3次元レーザレーダが用いられてもよい。例えば、対象挙動が、交差点におけるUターンである場合、交差点の4つの道路におけるUターンを検知することが可能となる。対象挙動が右折である場合、交差点から延びる複数の道路からの右折を検知することが可能となる。また、検知システム1及び検知装置10は、単一のレーザレーダ2で、複数種類の対象挙動を検知してもよい。これらの場合、単一のレーザレーダ2で、複数の車両の挙動を検知することができるので、レーザレーダ2の数を低減することが可能となる。
 検知システム1は、単一のレーザレーダ2を備えているが、検知システム1は、複数のレーザレーダ2を備えていてもよい。この場合、検知装置10は、複数のレーザレーダ2によって生成された点群情報を結合して使用してもよい。この構成では、死角が少なくなるので、検知の確実性を向上させることが可能となる。
 車両情報取得装置3は、自動速度違反取締装置に限られず、高解像度を有するビデオカメラでもよい。車両情報取得装置3は、夜間に対応するために、撮影用の光源(フラッシュ装置、又はストロボ装置ともいう。)をさらに備えていてもよい。車両情報取得装置3は、例えば、通信装置6と車載器とによる無線通信によって、車両情報(ナンバープレートに記載された情報等)を取得してもよい。
 車両情報取得装置3が取得する車両情報は、ナンバープレートの画像に限られない。車両情報は、車両の運転者の顔写真でもよい。車両情報は、例えば、運転免許証情報等の電子的な情報であってもよい。
 違反車両の走行先にゲート(遮断機)が設置されている場合、検知装置10は、違反車両が物理的に走行できなくするために、ゲートを封鎖するように制御してもよい。例えば、高速道路にはETC(Electronic Toll Collection System)ゲートが設けられているので、挙動検知部15は、ETCゲートを封鎖するように制御してもよい。この場合、違反車両の走行を妨害することができ、違反走行を阻止することができる。
 検知システム1及び検知装置10が、違反車両の走行制御システムに介入できる場合、違反車両を安全に停止させてもよい。
 対象挙動がUターンである場合、挙動検知部15は、交差点中心と検知車両MのUターン時の軌跡との最小距離、及びUターン開始位置を計算してもよい。挙動検知部15は、これらの情報を検知車両Mに関する各種情報に含めて、各種情報を記憶装置5及び通信装置6に送信してもよい。Uターン開始位置は、検知車両Mが交差点に進入したときの検知車両Mの位置である。車両が交差点の中心近くまで深く進入してUターンした場合、及び中央分離帯から離れた位置からUターンを開始した場合等では、危険度が高い。このため、上記情報をさらに追加することで、例えば、危険度が高いUターンを行った運転者に高いペナルティを与えることができる。
 検知装置10は、緊急車両のサイレン音、又は緊急車両の座標情報(GPS(Global Positioning System)情報)に基づいて、緊急車両が対象地点に接近しているか否かを判定する判定部をさらに備えてもよい。例えば、車線変更禁止エリアであっても、緊急車両に進路を譲る場合には、車線変更が認められる。このため、挙動検知部15は、緊急車両が対象地点を通行したことを示す情報を、検知車両Mに関する各種情報に追加して、各種情報を記憶装置5及び通信装置6に送信してもよい。挙動検知部15は、緊急車両が対象地点を通行している間の検知車両Mに関する各種情報を、記憶装置5及び通信装置6に送信しなくてもよい。
 方向指示器によって進行方向の指示を出すことなく、右左折、又は車線変更を行うことは、交通違反(合図不履行違反)である。この交通違反を検知するために、検知システム1は、ビデオカメラ等の撮像装置をさらに備えてもよい。撮像装置は、撮像画像を検知装置10に送信する。挙動検知部15は、撮像画像を解析することで、検知車両Mが進行方向の指示を出しているか否かを判定する。そして、挙動検知部15は、右左折、又は車線変更を行った検知車両Mが進行方向の指示を出していないと判定した場合、検知車両Mを違反車両と判定してもよい。
1 検知システム
2 レーザレーダ
3 車両情報取得装置(外部装置)
4 出力装置
5 記憶装置
6 通信装置
10 検知装置
11 取得部
12 設定部
13 物体検知部(車両検知部)
14 物体追跡部
15 挙動検知部
M 検知車両
Rd 検知エリア

Claims (7)

  1.  予め設定された検知エリアにレーザ光を照射して前記レーザ光の反射光を受光することで点群情報を生成するレーザレーダを用いて、前記検知エリアにおける車両の検知対象の挙動である対象挙動を検知するための検知装置であって、
     前記点群情報を取得する取得部と、
     前記点群情報に基づいて、車両を検知する車両検知部と、
     前記車両検知部によって検知された前記車両の移動方向及び単位時間当たりの移動量に基づいて、前記対象挙動を検知する挙動検知部と、
    を備える、検知装置。
  2.  前記車両検知部は、前記点群情報に基づいて、前記車両の位置を示す位置情報を算出し、
     前記挙動検知部は、第1時刻における前記位置情報である第1位置情報と、前記第1時刻よりも前の第2時刻における前記位置情報である第2位置情報と、に基づいて、前記移動方向を示すベクトルを算出し、
     前記挙動検知部は、前記ベクトルに基づいて、前記車両が前記対象挙動を行ったか否かを判定する、請求項1に記載の検知装置。
  3.  前記挙動検知部は、前記第2位置情報によって示される第2位置から前記第1位置情報によって示される第1位置までの距離と方向とを示す位置ベクトルを算出し、前記位置ベクトルを前記第1時刻と前記第2時刻との時間差で除算することによって速度ベクトルを前記ベクトルとして算出する、請求項2に記載の検知装置。
  4.  前記挙動検知部は、前記検知エリアにおいて許可されている前記車両の通行方向に沿った向きを有する基準ベクトルと前記速度ベクトルとの内積を計算し、前記内積と予め定められた閾値とを比較することにより、前記車両が前記対象挙動を行ったか否かを判定する、請求項3に記載の検知装置。
  5.  前記挙動検知部は、前記ベクトルの推移に基づいて、前記車両が前記対象挙動を行ったか否かを判定する、請求項2~請求項4のいずれか一項に記載の検知装置。
  6.  前記挙動検知部は、前記対象挙動が交通違反となる挙動である場合、前記対象挙動を行った前記車両を特定するための車両情報を外部装置に取得させる取得指令を出力する、請求項1~請求項5のいずれか一項に記載の検知装置。
  7.  請求項1~請求項6のいずれか一項に記載の検知装置と、
     前記レーザレーダと、
    を備える検知システム。
PCT/JP2019/010325 2018-05-30 2019-03-13 検知装置及び検知システム WO2019230123A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
SG11202011154RA SG11202011154RA (en) 2018-05-30 2019-03-13 Detection device and detection system
EP19811391.2A EP3806062A4 (en) 2018-05-30 2019-03-13 RECOGNITION DEVICE AND RECOGNITION SYSTEM
US17/056,448 US20210208282A1 (en) 2018-05-30 2019-03-13 Detection device and detection system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-103930 2018-05-30
JP2018103930A JP7024610B2 (ja) 2018-05-30 2018-05-30 検知装置及び検知システム

Publications (1)

Publication Number Publication Date
WO2019230123A1 true WO2019230123A1 (ja) 2019-12-05

Family

ID=68698045

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010325 WO2019230123A1 (ja) 2018-05-30 2019-03-13 検知装置及び検知システム

Country Status (5)

Country Link
US (1) US20210208282A1 (ja)
EP (1) EP3806062A4 (ja)
JP (1) JP7024610B2 (ja)
SG (1) SG11202011154RA (ja)
WO (1) WO2019230123A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022205644A1 (zh) * 2021-03-29 2022-10-06 上海商汤临港智能科技有限公司 一种目标检测方法、装置、计算机设备和存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11386228B2 (en) * 2019-06-04 2022-07-12 GM Global Technology Operations LLC Real-time session-based anonymization and blurring of high-resolution GPS data
KR20210007385A (ko) * 2019-07-11 2021-01-20 현대자동차주식회사 오류 모니터링을 이용한 교통 감시 시스템
CN113538923A (zh) * 2020-04-20 2021-10-22 深圳富泰宏精密工业有限公司 车辆变换车道的警示方法、车载装置
CN111929693B (zh) * 2020-09-18 2021-01-08 雷熵信息科技(潍坊)有限公司 一种基于激光点云距离序列的井下定位方法
CN115909758B (zh) * 2023-01-09 2023-07-21 深圳市鸿逸达科技有限公司 基于激光雷达的车辆检测方法及装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325287A (ja) * 1993-05-12 1994-11-25 Omron Corp 交通流異常検出装置
JPH10269492A (ja) 1997-03-25 1998-10-09 Omron Corp 車両監視装置
JP2000057499A (ja) * 1998-08-05 2000-02-25 Mitsubishi Motors Corp 車両の走行制御方法
JP2004185363A (ja) * 2002-12-04 2004-07-02 Ishikawajima Harima Heavy Ind Co Ltd エリアセンサによる物体識別方法
US20170025003A1 (en) * 2015-07-22 2017-01-26 Ace/Avant Concrete Construction Co., Inc. Vehicle detection system and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8125622B2 (en) * 2009-07-28 2012-02-28 Applied Concepts, Inc. Lidar measurement device with target tracking and method for use of same
CA3112113A1 (en) * 2012-03-02 2013-09-06 Leddartech Inc. System and method for multipurpose traffic detection and characterization
US9384667B2 (en) * 2014-07-17 2016-07-05 Honeywell International Inc. Scalar product based spacing calculation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325287A (ja) * 1993-05-12 1994-11-25 Omron Corp 交通流異常検出装置
JPH10269492A (ja) 1997-03-25 1998-10-09 Omron Corp 車両監視装置
JP2000057499A (ja) * 1998-08-05 2000-02-25 Mitsubishi Motors Corp 車両の走行制御方法
JP2004185363A (ja) * 2002-12-04 2004-07-02 Ishikawajima Harima Heavy Ind Co Ltd エリアセンサによる物体識別方法
US20170025003A1 (en) * 2015-07-22 2017-01-26 Ace/Avant Concrete Construction Co., Inc. Vehicle detection system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022205644A1 (zh) * 2021-03-29 2022-10-06 上海商汤临港智能科技有限公司 一种目标检测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
SG11202011154RA (en) 2020-12-30
US20210208282A1 (en) 2021-07-08
EP3806062A1 (en) 2021-04-14
JP7024610B2 (ja) 2022-02-24
JP2019207653A (ja) 2019-12-05
EP3806062A4 (en) 2022-03-02

Similar Documents

Publication Publication Date Title
WO2019230123A1 (ja) 検知装置及び検知システム
US11402851B2 (en) Systems and methods for detecting low-height objects in a roadway
RU2719499C1 (ru) Способ, устройство и железнодорожное транспортное средство, в частности рельсовое транспортное средство, для распознавания препятствий в железнодорожном сообщении, в частности в рельсовом сообщении
US11914041B2 (en) Detection device and detection system
JP7119365B2 (ja) 運転行動データ生成装置、運転行動データベース
US8294595B1 (en) Speed detector for moving vehicles
US20220035378A1 (en) Image segmentation
JP2009086788A (ja) 車両周辺監視装置
JP2021099793A (ja) インテリジェント交通管制システム及びその制御方法
JP5482672B2 (ja) 移動物体検出装置
JP2019207654A (ja) 検知装置及び検知システム
US20100045449A1 (en) Method for detecting a traffic space
JP3666332B2 (ja) 歩行者検知装置
CN106585670A (zh) 一种基于视频的城市轨道交通前向列车检测***及方法
JP4613738B2 (ja) 交差点認識システム及び交差点認識方法
JP2019207655A (ja) 検知装置及び検知システム
CN114348015A (zh) 车辆控制装置和车辆控制方法
CN113799782A (zh) 车辆控制装置及车辆控制方法
CN114084129A (zh) 一种基于融合的车辆自动驾驶控制方法及***
JP5677281B2 (ja) 車両検知装置
CN114093160A (zh) 危险驾驶检测装置、***、方法及存储介质
JP2022016027A (ja) 車両制御装置
US20230154196A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP7435429B2 (ja) 安全運転レベル評価装置
WO2023286463A1 (ja) 検出装置、検出システム及び検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19811391

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019811391

Country of ref document: EP

Effective date: 20210111