WO2016181618A1 - 監視対象領域設定装置および監視対象領域設定方法 - Google Patents

監視対象領域設定装置および監視対象領域設定方法 Download PDF

Info

Publication number
WO2016181618A1
WO2016181618A1 PCT/JP2016/002138 JP2016002138W WO2016181618A1 WO 2016181618 A1 WO2016181618 A1 WO 2016181618A1 JP 2016002138 W JP2016002138 W JP 2016002138W WO 2016181618 A1 WO2016181618 A1 WO 2016181618A1
Authority
WO
WIPO (PCT)
Prior art keywords
host vehicle
vehicle
monitoring target
target area
information
Prior art date
Application number
PCT/JP2016/002138
Other languages
English (en)
French (fr)
Inventor
聖峰 小林
浜田 麻子
西村 洋文
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2017517603A priority Critical patent/JPWO2016181618A1/ja
Priority to EP16792348.1A priority patent/EP3296762A4/en
Publication of WO2016181618A1 publication Critical patent/WO2016181618A1/ja
Priority to US15/786,073 priority patent/US20180137760A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present disclosure relates to a monitoring target area setting device and a monitoring target area setting method capable of setting a detection range (monitoring target area setting) for detecting an object around a vehicle.
  • an object detection device detects an object existing around a vehicle using ultrasonic waves, radio waves, or the like, and issues a warning to a driver when an object is detected while the vehicle is running, for example.
  • safety is enhanced by automatically controlling driving of the vehicle.
  • the processing load on the object detection device increases, and the object detection time is delayed.
  • the assumed blind spot area is an area that is assumed to be a blind spot for the driver of the host vehicle, for example, the position of the assumed blind spot area at the intersection is determined by the shape of the intersection. Therefore, information regarding the position of the assumed blind spot area, for example, latitude and longitude, and information regarding the shape of the assumed blind spot area may be included in, for example, map information acquired from the navigation information acquisition unit 6 in advance.
  • Reference time setting unit 8 traveling locus calculating section 4 is based on the generated travel locus information, it extracts the time at which the own vehicle enters the intersection, and sets the time as a reference time t 0.
  • FIG. 4 is a diagram for describing the reference time t 0.
  • the object selection unit 10 determines whether or not an object is present in the monitoring target area among the objects detected by the object detection unit 1. In addition, when there are a plurality of objects in the monitoring target area, the object sorting unit 10 sorts which one of them is notified to the driver.
  • the reference (predetermined condition) for selection by the object selection unit 10 is not particularly limited in the present embodiment. For example, an object having the highest possibility of collision with the own vehicle from the position of the object and the relative speed with the own vehicle. Can be selected. Alternatively, the object sorting unit 10 may sort all objects detected in the assumed blind spot area.
  • FIG. 5 is a diagram for explaining object selection by the object selection unit 10.
  • FIG. 5 shows a state where the host vehicle turns right at the intersection.
  • the assumed blind spot area exists behind the right turn car facing the host vehicle waiting for the right turn.
  • an object A such as a two-wheeled vehicle that travels straight in the oncoming lane exists in the assumed blind spot area.
  • the objects B and C exist outside the assumed blind spot area, that is, in an area that is clearly not the driver's blind spot.
  • the object selection unit 10 does not report the objects B and C, but sets the object A as a notification target. Thereby, the object detection part 1 can reduce the calculation load by an object detection process.
  • the object selecting unit 10 calculates the time from the moving speed and moving direction of each object to the collision with the own vehicle, and the possibility of the collision is calculated. A high object may be notified.
  • the notification unit 11 notifies the object selected by the object selection unit 10.
  • the notification method by the notification unit 11 is not particularly limited in the present embodiment. For example, a notification lamp blinking or lighting in advance on a meter panel, a center console, a dashboard, or the like of the host vehicle, or a warning sound from a speaker. Etc. are notified.
  • FIG. 6 is a flowchart illustrating an operation example of the monitoring target area setting device 100.
  • step S ⁇ b> 1 the travel locus calculation unit 4 acquires own vehicle information including speed information related to the speed of the own vehicle, rudder angle information indicating the turning angle of the steering wheel, and turning speed information indicating the turning speed from the own vehicle information storage unit 3. To do.
  • the own vehicle information is acquired as needed by the own vehicle information acquisition unit 2 and stored in the own vehicle information storage unit 3.
  • step S ⁇ b> 2 the traveling locus calculation unit 4 calculates a traveling locus information generation process for generating traveling locus information by calculating a difference in position information from the previous frame based on the own vehicle information acquired in step S ⁇ b> 1. I do. Details of the travel locus information generation processing will be described later.
  • step S3 the scene determination unit 7 acquires the navigation information generated by the navigation information acquisition unit 6.
  • navigation information is acquired as needed by the navigation information acquisition unit 6 and output to the scene determination unit 7.
  • step S6 the reference time setting unit 8, whether already or reference time t 0 is extracted is determined.
  • Reference time t 0 is, if it was not yet extracted, the flow proceeds to step S7, if the reference time t 0 was already extracted, the process proceeds to step S10.
  • Step S9 is performed when it is determined in step S5 that the host vehicle is not located “in the intersection”, or when it is determined in step S8 that the reference frame is not extracted in the reference time extraction process in step S7. .
  • the monitoring target area setting device 100 determines that there is no monitoring target area to be monitored with priority, ends the processing, and returns to step S1.
  • step S ⁇ b> 11 the object selection unit 10 determines whether an object exists in the monitoring target area set by the monitoring target area setting unit 9, and if so, which object is to be notified. Sort out.
  • the host vehicle information at time t n includes vehicle speed: v n [m / s], rudder angle: ⁇ n [rad], and turning speed: ⁇ n [rad / s].
  • n is an integer equal to or greater than 1, which means that it is the nth frame from a certain reference time (reference time t 0 ).
  • the position of the host vehicle at the time t n when the coordinate system with the position (x 0 , y 0 ) of the host vehicle at the reference time t 0 as a reference (origin) is assumed is the relative position (x n , y n ).
  • the azimuth angle (relative azimuth) of the host vehicle with respect to the origin is defined as ⁇ n .
  • the relative position (x n + 1 , y n + 1 ) and relative direction of the host vehicle at time t n + 1 can be expressed using the following equations (1) to (3).
  • ⁇ t n is given by the following equation (4).
  • the travel locus calculation unit 4 calculates a movement distance and a movement direction in the n + 1 frame based on the difference between the calculated relative position (x n + 1 , y n + 1 ) of the host vehicle and the relative position (x n , y n ).
  • the reference time t 0 is the time when the host vehicle is present at the position (x 0 , y 0 ) serving as the reference of the relative position of the host vehicle at the time t n .
  • the reference time t 0 when the current vehicle is bent at an intersection, the last frame where the vehicle is not straight in the past. Therefore, in the reference time setting process according to the present embodiment, it is first determined whether or not the host vehicle is currently turning at an intersection.
  • the reference time setting unit 8 determines whether or not the host vehicle is currently turning an intersection based on the steering angle information among the host vehicle information stored in the host vehicle information storage unit 3. Specifically, when the current rudder angle is equal to or greater than a predetermined angle and the current rudder angle continues for a predetermined time (frame) or longer, the reference time setting unit 8 is currently turning its own vehicle at the intersection. Is determined. The reference time setting unit 8, because the vehicle if it is determined that no bent currently intersection, do not set the reference time t 0, (the process proceeds to step S9 shown in FIG. 4) to terminate the process.
  • the reference time setting unit 8 determines the past own vehicle information.
  • the last frame in which the host vehicle was traveling straight is identified with reference to the travel locus information.
  • FIG. 7 is a flowchart showing an operation example of the reference time setting process by the reference time setting unit 8.
  • the reference time setting unit 8 sets the evaluation frame number # to the current time frame. That is, the reference time setting unit 8 sets the frame at the current time as the initial value of the evaluation target frame.
  • the evaluation frame number # is a parameter indicating a frame to be evaluated.
  • step S22 the reference time setting unit 8 determines whether or not the host vehicle is in a bent state. As described above, the determination by the reference time setting unit 8 is performed based on the own vehicle information stored in the own vehicle information storage unit 3 and the traveling locus information output by the traveling locus calculation unit 4. If it is determined that the host vehicle is in a bent state, the flow proceeds to step S23. If it is determined that the host vehicle is not in a bent state, the process proceeds to step S27.
  • step S22 If it is determined in step S22 that the host vehicle is turning, it can be determined that the host vehicle is turning inside the intersection, that is, in the middle of turning right or left. This is because step S22 is gentle after step S7 in FIG. 6 described above after it is determined that the vehicle is near the intersection.
  • the reference time setting unit 8 subtracts 1 from the evaluation frame number # and adds 1 to the determination number N in step S24.
  • the determination number N is a parameter indicating the number of times (the number of frames) going back from the current time when the reference time t 0 is set.
  • the reference time setting unit 8 extracts a frame in which the host vehicle has traveled straight while going back one frame at a time from the current time.
  • This reference time setting unit 8 by can identify the reference frame, to set the reference time t 0.
  • step S26 the reference time setting unit 8 determines whether or not the determination number N added with 1 in step S24 exceeds a predetermined threshold value. If the determination number of times N exceeds the predetermined threshold, i.e., in the case where the frame even retroactively threshold amount of the frame is the own vehicle travels straight absent, the reference time setting unit 8 does not set the reference time t 0 The process is terminated. If the determination number N does not exceed the predetermined threshold even if 1 is added in step S24, the reference time setting unit 8 returns to step S23 and searches for the reference frame again.
  • step S27 the reference time setting unit 8 determines whether or not the host vehicle is stopped.
  • the state where the host vehicle is stopped near the intersection is a state where the vehicle is temporarily stopped before making a right or left turn on a T-junction.
  • the reference time setting unit 8 sets the frame in which the host vehicle is stopped as the reference frame, and sets the time of the frame as the reference time t 0. Can be set. Accordingly, when it is determined in step S27 that the host vehicle is stopped, the flow proceeds to step S28.
  • step S27 If it is determined in step S27 that the host vehicle has not stopped, the reference time setting unit 8 is not driving or stopping in the vicinity of the intersection. It is determined that the host vehicle is located in a place where there is no assumed blind spot area including the driver's blind spot. For this reason, when it determines with the own vehicle not having stopped in step S27, the reference time setting part 8 complete
  • step S28 the reference time setting unit 8 identifies the frame where the vehicle is stopped, it sets the frame to the reference frame, to set the time of the frame to the reference time t 0.
  • FIG. 8 is a diagram for explaining a specific example of the monitoring target area.
  • FIG. 8A is a diagram in which the position of the host vehicle at the reference time t 0 is set as a reference (origin), and a monitoring target area including an assumed blind spot area is set.
  • the position of the own vehicle at the reference time t 0 and the position of the assumed blind spot area at the intersection where the own vehicle is acquired in advance are acquired from the navigation information acquisition unit 6. It is the figure plotted on the map information.
  • the assumed blind spot area is determined by the shape of the road, that is, a position fixed in absolute coordinates
  • the monitored area is an area including the assumed blind spot area that is adaptive according to the movement of the host vehicle. The position in relative coordinates changes.
  • FIGS. 8 (b) and 8 (c) is a diagram illustrating a monitored area at each time t 1 and time t 2.
  • the angle range of the monitoring target area including the assumed blind spot area at time t 1 is a range from ⁇ a — 1 to ⁇ b — 1 with respect to the front direction of the host vehicle, and the monitoring target area including the assumed blind spot area at time t 2 . Is an angle range from ⁇ a_2 to ⁇ b_2 with respect to the front direction of the host vehicle.
  • the position of the host vehicle changes with time, but the coordinates are converted into a coordinate system with the position (x 0 , y 0 ) of the host vehicle at the reference time t 0 as the origin.
  • the monitoring target area at each time can be expressed using the position and angle range of the host vehicle at the time.
  • FIG. 9 is a diagram illustrating a state in which the monitoring target area at each time is plotted in a coordinate system with the vehicle at the reference time t 0 as the origin.
  • the assumed blind spot region is a range in which hatched lines specified by the points (x a , y a ) and (x b , y b ) in FIG. 9 are drawn.
  • the assumed blind spot region is specified by the points (x a , y a ) and (x b , y b ) that are the midpoints of two sides of the four sides of the assumed blind spot region. May be indicated using the coordinates of the four corners of the assumed blind spot area.
  • the monitoring target area in FIG. 8 at time t 1 and time t 2 includes the assumed blind spot area, but FIG. 9 illustrates the vicinity of the central part of the sector forming the monitoring target area for simplicity. The area of is omitted. This is because, as described above, since the sector-shaped radius forming the monitoring target area is a fixed value, in FIG. 9, it is only necessary to display the center portion to indicate the position of the monitoring target area at each time. In practice, the monitoring target area at times t 1 and t 2 shown in FIG. 9 is set to extend in the upper right direction and include the assumed blind spot area.
  • the angle range of the monitoring target area in the n + 1 frame is ⁇ a — n + 1 to ⁇ b — n + 1
  • the angle range is expressed by the following equations (5) and (6) using the angle ranges ⁇ a — n to ⁇ b — n in the n frame. It can be expressed as
  • the monitoring target area shown in FIG. 9 is an example of the monitoring target area when turning right at the crossroads shown in FIG. 3A.
  • the monitoring target area including the assumed blind spot area can be set based on the same concept as in FIG.
  • FIG. 10 is a flowchart showing an operation example of the monitoring target area setting process by the monitoring target area setting unit 9.
  • the monitoring target area setting unit 9 determines whether there is a frame for which the setting of the monitoring target area has been completed.
  • a frame for which the setting of the monitoring target area is completed is referred to as a registered frame. If there is no registered frame, the flow proceeds to step S32. If there is a registered frame, the flow proceeds to step S33.
  • step S33 the monitoring target area setting unit 9 adds 1 to the evaluation frame number # to the registered frame number, and proceeds to step S34.
  • step S36 the monitoring target area setting unit 9 registers the evaluation target frame in which the monitoring target area is set in step S35 as a registration frame, and updates the angle range for specifying the monitoring target area.
  • step S38 information related to the monitoring target area including the angle range of the monitoring target area in the current frame is output. Thereby, the monitoring target area in the current frame is set.
  • the scene in which the scene determination unit 7 in FIG. 1 determines that the assumed blind spot area for the host vehicle is present is a scene in which the host vehicle is waiting for a right turn at the intersection of a crossroad and there is an opposing right turn vehicle. It is.
  • the assumed blind spot area in the scene is an area including the blind spot of the driver of the own vehicle generated by a right turn vehicle facing the own vehicle.
  • another scene that is determined by the scene determination unit 7 in FIG. 1 that the assumed blind spot area for the host vehicle exists is temporarily stopped before the host vehicle turns right or left at the intersection of the T-junction. It is a scene to do.
  • the assumed blind spot area in the scene is an oncoming lane after a right turn and a left turn.
  • the monitoring target area setting device 100 in FIG. 1 continues to monitor the area including the blind spot in a scene where the blind spot of the driver of the vehicle exists, such as when turning right at an intersection or when turning right or left at a T-junction.
  • the possibility of contact or the like can be reduced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

特定の領域を物体検出範囲に設定し、継続的に監視することができる監視領域設定装置および監視領域設定方法を提供する。自車両の周囲に存在する物体を検出する物体検出部と、自車両の位置情報と自車両の周辺の地図情報とに基づいて、想定死角領域が存在する場所付近に自車両が位置しているか否かを判別するシーン判別部と、想定死角領域が存在する場所付近に自車両が位置しているとシーン判別部が判別した場合に、当該場所付近を自車両が通行する間、自車両から見て想定死角領域を少なくとも含む領域を、物体が検出された場合に報知を行う監視領域に設定する監視領域設定部9と、監視領域内において、当該所定の条件を満たすか否かに応じて報知を行う対象とするか否かを選別する物体選別部と、を有する。

Description

監視対象領域設定装置および監視対象領域設定方法
 本開示は、車両周辺の物体を検出する検出範囲(監視対象領域設)を設定することができる監視対象領域設定装置および監視対象領域設定方法に関する。
 特許文献1では、物体検出装置は、超音波や電波等を利用して車両周辺に存在する物体を検出し、例えば車両の走行中等に物体が検出された場合、運転手に対して警告を発し、車両と物体との衝突を回避するために車両の運転を自動制御することによって安全性を高めている。しかし、従来の物体検出装置では、検出範囲内に多くの物体が検出される場合に、物体検出装置における処理負荷が増大し、物体の検出時間に遅れが生じる。
 このため、例えば、特許文献1に開示された従来の物体検出装置は、現在の車両速度や操舵角に応じて物体検出範囲を適宜設定することにより、処理負荷を軽減し、物体の検出時間の遅れを改善している。
特開2009-58316号公報
 特許文献1に開示された物体検出装置は、移動する車両を基準とした相対的な物体検出範囲を設定することはできるが、車両との位置関係が車両の移動によって変化する特定の領域を追従設定することは困難である。ここで、特定の領域は、例えば、交差点内において右折待ち時に対向する右折車によって見通すことが困難な領域、T字路において右折または左折する際に、右折先又は左折先の死角を含む領域、及び、予め想定される、自車両運転手の死角を含む領域(想定死角領域)である。このような特定の領域を継続的に監視することによって、事故を未然に防止できる確率が上昇することが想定される。しかしながら、特定の領域は、車両の挙動とは無関係に、決まった位置に存在するため、車両に搭載された物体検出装置が当該特定の領域を監視し続けることは難しかった。
 本開示の非限定的な実施例は、想定死角領域を継続的に監視することができる監視対象領域設定装置および監視対象領域設定方法を提供する。
 本開示の一態様は、自車両の周囲に存在する1つ以上の物体を検出する物体検出部と、所定の周期毎に蓄積される自車両の位置情報に基づいて、想定領域から所定の距離範囲内に前記自車両が位置しているか否かを判別する判別部と、前記所定の距離範囲内に前記自車両が位置している場合、前記想定領域を含み、前記自車両の位置情報に応じて更新される監視対象領域を設定する監視対象領域設定部と、前記監視対象領域内において、前記検出された1つ以上の物体について報知を行う対象とするか否かを選別する物体選別部と、を有する監視対象領域設定装置である。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示によれば、想定死角領域を継続的に監視することができる。本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
本開示の実施の形態の監視対象領域設定装置の構成例を示すブロック図 物体検出部による物体検出領域の一例を示す図 想定死角領域の具体例を示した図 基準時刻について説明するための図 想定死角領域内物体選別部による物体の選別について説明するための図 監視対象領域設定装置の動作例を示すフローチャート 基準時刻設定部による基準時刻設定処理の動作例を示すフローチャート 監視対象領域の具体例について説明するための図 各時刻における監視対象領域を、基準時刻における自車両を原点とした座標系にプロットした様子を示す図 監視対象領域設定部による監視対象領域設定処理の動作例を示すフローチャート 本開示の実施の形態の監視対象領域設定装置の他の構成例を示すブロック図
 以下、本開示の実施の形態について詳細に説明する。
 <監視対象領域設定装置100の構成>
 図1は、本開示の実施の形態の監視対象領域設定装置100の構成例を示すブロック図である。監視対象領域設定装置100は、例えば、車両に搭載される。なお、図中の実線は、有線または無線伝送による主要な情報の流れを示す。
 図1では、監視対象領域設定装置100は、物体検出部1、自車両情報取得部2、自車両情報記憶部3、走行軌跡計算部4、走行状態判別部5、ナビゲーション情報取得部6、シーン判別部7、基準時刻設定部8、監視対象領域設定部9、物体選別部10、報知部11を有する。
 物体検出部1は、例えば、電波を送受信することで、車両の前方または側方から電波を反射した物体までの距離や方位、相対速度等を検出するミリ波レーダである。物体検出部1は、車両の前方の両側面付近、すなわち、例えばヘッドライトの付近に設置されることが好ましい。図1では、物体検出部1は、車両の左前方を検出範囲とする左前方レーダ1Aと、車両の右前方を検出範囲とする右前方レーダ1Bとを有する。なお、本実施の形態では物体検出部1としてミリ波レーダを使用しているが、本開示の物体検出部はこれには限定されず、例えば赤外線を使用したレーザレーダ、超音波を使用したソナー、単眼またはステレオのカメラ等を採用してもよい。
 図2は、物体検出部1による物体検出領域の一例を示す図である。左前方レーダ1Aおよび右前方レーダ1Bはそれぞれ、例えばフロントバンパーの左側部および右側部の裏側やボディ部等に設置され、自車両の左斜め前方から左側方、および右斜め前方から右側方が検出領域である。図2では、物体検出部1は、自車両の前方および側方の広範囲に亘って物体を検出する。
 物体検出部1は、左前方レーダ1Aおよび右前方レーダ1Bからの出力に基づいて物体を検出し、物体の位置やサイズ等を物体情報として出力する。ここで、物体とは、自車両に先行する車両、隣接車線を走行する車両、対向する車両、駐車中の車両、二輪車、自転車、歩行者等を含む。
 自車両情報取得部2は、自車両の速度を示す速度情報や図示しないハンドルが切られた角度である舵角を示す舵角情報、自車両の旋回速度を示す旋回速度情報等を含む自車両に関する情報(以下、自車両情報と称する)を取得する。自車両情報取得部2は、自車両内に情報取得用のセンサ(図示せず)、例えば、車輪や車軸に取り付けられた車速センサ、ステアリングホイールの回転角を検知する舵角センサ等から上述した自車両に関する情報を取得する。
 自車両情報記憶部3は、自車両情報取得部2が取得した自車両に関する情報を一定時間記憶し、一定周期毎に、あるいは監視対象領域設定装置100の他の構成による出力指示に応じて、自車両に関する情報を出力する。自車両情報記憶部3は、例えば、レジスタやRAM等である。
 走行軌跡計算部4は、自車両情報記憶部3が出力した自車両情報に基づき、自車両の1フレーム毎の移動距離、移動方向等を算出し、自車両の走行の軌跡に関する情報である走行軌跡情報を生成する。ここで、フレームは、単位時間毎の時間枠である。単位時間は、例えば物体検出部1のレーダ送受信周期である。すなわち、レーダの送受信周期が1/10秒であった場合、各フレームはそれぞれ1/10秒の時間幅を有する時間枠である。走行軌跡計算部4による走行軌跡情報の生成処理についての詳細は後述する。
 走行状態判別部5は、自車両情報取得部2が出力する自車両情報の変化に基づいて自車両の走行状態を判別し、走行状態情報を生成する。走行状態判別部5が生成する走行状態情報は、例えば、自車両が減速、加速、停止、その他のうちのいずれかの状態、及び、自車両が直進、右折、左折、後退、その他のうちのいずれかの状態、のうちの少なくとも1つを示す情報である。
 ナビゲーション情報取得部6は、例えば、カーナビゲーション装置等、自車両の現在位置(緯度・経度等)に関する情報や、地図情報等含むナビゲーション情報を取得する。ナビゲーション情報取得部6が各種情報を取得する方法としては、例えば無線通信を介してインターネット等の公衆通信網から取得する方法や、予め図示しないメモリ等に、ナビゲーション情報等を格納しておき、必要な情報を随時読み出す方法等、種々の方法を採用すればよい。特に、自車両の現在位置に関する情報は、図示しないGPS(Global Positioning System)装置によりGPS衛星と通信を行って取得すればよい。
 ナビゲーション情報取得部6は、後述するシーン判別部7の要求に応じて、自車両の現在位置に関する情報や、地図情報等を含むナビゲーション情報を生成する。ここで、地図情報は、例えば道路に関する情報、具体的には、道路や交差点の位置や名称、形状等を示す情報等を含む。
 シーン判別部7は、ナビゲーション情報取得部6が生成したナビゲーション情報に基づいて、自車両が現在置かれている場面(シーン)を判別する。より詳細には、シーン判別部7は、ナビゲーション情報のうち、自車両の現在位置(緯度・経度)に関する情報と、地図に関する情報とに基づいて、地図に自車両の現在位置をプロットし、当該地図における自車両の位置に基づいて自車両が置かれた状況を判別する。具体的には、例えば、シーン判別部7は、自車両が地図上で交差点以外の道路に存在する場合、「走行中」であると判別し、道路外に存在する場合、「駐車中」であると判別し、交差点付近の道路上に存在する場合、「交差点付近」と判別する。
 監視対象領域設定装置100は、車両が交差点付近を走行する場合、予め想定される、自車両運転手の死角を含む領域を、物体検出部1による物体検出を重点的に行う特定の領域と設定する。以下では、このような領域を想定死角領域と称する。図3は、想定死角領域の具体例を示した図である。なお、想定死角領域は、対向車の有無に依存しない領域である。
 図3(a)は、自車両が十字路を右折中であり、さらに右折待ちの対向車が存在する場面を示す。自車両の運転手は、対向する右折車によって視界が遮られる。このため、右折車の陰となる物体(例えば直進する対向車等)は、想定死角領域内に存在するため、自車両の運転手によって、認識されにくい。
 また、図3(b)は、見通しの悪いT字路において、自車両が右折中または左折中である場面を示す。右折先あるいは左折先の領域は、右折前又は左折前の運転手にとっては死角となる。このため、想定死角領域内の物体は、運転手によって認識されにくい。
 想定死角領域は、例えば交差点付近では、自車両の運転手にとって死角となることが想定される領域である。このため、想定死角領域内に物体、例えば他の車両等が存在した場合、運転手が物体の存在を認識することが難しいことが多いので、交差点内を通行する自車両と接触又は衝突が生じる可能性が高い。言い換えれば、自車両が交差点を曲がり切るまでの間、物体検出部1によって想定死角領域を監視し、想定死角領域内の物体を検出することで、自車両は、想定死角領域付近でも安全に通行することが期待できる。このため、本実施の形態の監視対象領域設定装置100は、物体検出部1による監視対象領域に想定死角領域を含め、監視対象領域において物体検出を行うことで、効果的な監視を行う。
 シーン判別部7は、自車両が現在置かれている場面(シーン)を検出する場合、自車両の現在位置情報と周辺の地図情報に基づいて、自車両が想定死角領域から所定の距離範囲内に位置しているか否かを判別する。具体的には、シーン判別部7は、例えば自車両が交差点から所定の距離範囲内に位置するか否かによって、想定死角領域から所定の距離範囲内に位置しているか否かを判別すればよい。なお、所定の距離範囲は、例えば交差点に存在する想定死角領域の場合、自車両が存在する交差点を含む範囲である。
 想定死角領域は、自車両の運転手にとって死角となることが想定される領域であるから、例えば交差点における想定死角領域の位置は、交差点の形状によって決定される。従って、想定死角領域の位置に関する情報、例えば緯度及び経度等や、想定死角領域の形状に関する情報は、例えば予めナビゲーション情報取得部6から取得される地図情報等に含まれていればよい。
 ところで、物体検出部1により想定死角領域を含む監視対象領域を継続的に監視するためには、監視対象領域設定装置100は、想定死角領域の緯度及び経度等のいわば絶対的な位置情報以外に、自車両を基準とした相対的な位置情報を取得してもよい。また、監視対象領域設定装置100は、自車両が想定死角領域から所定の距離範囲内、すなわち交差点内を通行する間、想定死角領域を継続して監視するためには、自車両が交差点に進入したことを検出してもよい。
 本実施の形態の監視対象領域設定装置100では、自車両が交差点に進入したことを検出し、想定死角領域の相対的な位置情報を取得するため、以下の各種情報を利用する。各種情報は、すなわち、自車両情報記憶部3が記憶する自車両情報、走行軌跡計算部4が生成した走行軌跡情報、および走行状態判別部5が判別した走行状態情報の少なくとも1つである。各種情報を利用し、監視対象領域設定装置100は、自車両の挙動を過去に遡って追跡し、自車両が交差点に進入したことを検出する。そして、監視対象領域設定装置100は、交差点に進入した時点の自車両の位置を基準位置とし、当該基準位置に基づいて想定死角領域の相対位置情報を算出する。
 具体的には、例えば図3(a)に示す交差点の右折待ちの場面では、自車両は、右折レーンに進入し右折を開始するまでの期間は、待機状態である。このため、監視対象領域設定装置100は、例えば直進状態から曲がり始めた時点を交差点に進入した時点として認識し、直進状態から曲がり始めた位置を基準位置とする。そして、あるいは、例えば図3(b)に示すT字路を右折または左折する場面では、監視対象領域設定装置100は、右折または左折の前に、一時停止した時点を交差点に進入した時点として認識し、一時停止した位置を基準位置とする。
 本実施の形態の監視対象領域設定装置100は、以下説明する基準時刻設定部8および監視対象領域設定部9によって想定死角領域から所定の距離範囲、すなわち交差点内に進入したか否かを判定し、想定死角領域における自車両を基準とした相対的な位置情報を算出する処理を行う。以下、基準時刻設定部8および監視対象領域設定部9の詳細な動作について説明する。
 基準時刻設定部8は、走行軌跡計算部4が生成した走行軌跡情報に基づいて、自車両が交差点に進入した時刻を抽出し、当該時刻を基準時刻tとして設定する。
 図4は、基準時刻tについて説明するための図である。図4は、十字路を右折する自車両の位置と経過時間とを示す。図4に示すように、T=tにおいて、自車両は直進状態であり、T=tからtと時間が経過するにつれて自車両は次第に右方向へと進んでいる。
 監視対象領域設定装置100は、基準時刻設定部8により基準時刻tが抽出されることによって、基準時刻tにおける自車両の位置を基準位置として、想定死角領域の現在(例えばT=t)の自車両における想定死角領域の相対位置が特定できる。想定死角領域の相対位置を特定する方法の詳細は後述する。
 監視対象領域設定部9は、物体検出部1による監視の対象領域であって、想定死角領域を含む監視対象領域を設定する。監視対象領域設定部9は、例えば図3(a)および(b)において、物体検出部1の物体検出範囲のうち、想定死角領域を含む範囲を監視対象領域として設定する。監視対象領域設定部9の監視対象領域設定方法についての詳細は後述する。
 物体選別部10は、物体検出部1が検出した物体のうち、監視対象領域内に物体が存在するか否かを判定する。また、物体選別部10は、監視対象領域内において物体が複数存在する場合、そのうちのいずれについて運転手に報知を行うか、選別を行う。物体選別部10による選別の基準(所定の条件)については本実施の形態では特に限定しないが、例えば物体の位置や自車両との相対速度から、自車両との衝突の可能性が最も大きい物体を選別すればよい。あるいは、物体選別部10は、想定死角領域内に検出された全ての物体を選別してもよい。
 図5は、物体選別部10による物体の選別について説明するための図である。図5では、自車両が交差点を右折する状態を示す。図5では、想定死角領域は、右折待ちの自車両に対向する右折車のかげに存在する。例えば、対向車線を直進する二輪車等の物体Aは、想定死角領域に、存在する。また、物体BおよびCは、想定死角領域外、すなわち、明らかに運転手の死角ではない領域に存在する。図5では、物体選別部10は、物体BおよびCについては報知の対象とせず、物体Aについて報知の対象とする。これにより、物体検出部1は、物体検出処理による演算負荷を軽減できる。また、物体選別部10は、想定死角領域内に物体A以外にも物体が存在した場合、各物体の移動速度や移動方位から自車両との衝突までの時間を算出し、衝突の可能性が高い物体について報知の対象としてもよい。
 報知部11は、物体選別部10が選別した物体について、報知を行う。報知部11による報知の方法は、本実施の形態では特に限定しないが、例えば、自車両のメーターパネルやセンターコンソール、ダッシュボード等に予め取り付けられた報知ランプの点滅や点灯、スピーカーからの警告音等により報知を行う。
 <監視対象領域設定装置100の動作>
 次に、監視対象領域設定装置100の動作例について説明する。図6は、監視対象領域設定装置100の動作例を示すフローチャートである。
 ステップS1において、走行軌跡計算部4は、自車両情報記憶部3から自車両の速度に関する速度情報やハンドルの切り角を示す舵角情報、旋回速度を示す旋回速度情報を含む自車両情報を取得する。なお、監視対象領域設定装置100において、自車両情報は、自車両情報取得部2により随時取得され、自車両情報記憶部3に記憶される。
 ステップS2において、走行軌跡計算部4は、ステップS1において取得した自車両情報に基づいて、前フレームとの位置情報の差分を演算することにより、走行軌跡情報を生成するための走行軌跡情報生成処理を行う。走行軌跡情報生成処理についての詳細は後述する。
 ステップS3において、シーン判別部7は、ナビゲーション情報取得部6が生成したナビゲーション情報を取得する。なお、監視対象領域設定装置100において、ナビゲーション情報は、ナビゲーション情報取得部6により随時取得されてシーン判別部7に出力される。
 ステップS4において、シーン判別部7は、ステップS3において取得したナビゲーション情報に基づき、自車両の置かれた場面の判別、すなわちシーン判別を行う。
 ステップS5において、シーン判別部7は、ステップS4における判別の結果、自車両が想定死角領域から所定の距離範囲である「交差点内」に位置するか否かの判定を行う。自車両が「交差点内」であると判定された場合、フローは、ステップS6に進み、交差点外である場合、ステップS9に進む。
 ステップS6において、基準時刻設定部8により、既に基準時刻tが抽出されたか否かを判定する。基準時刻tが、まだ抽出されていなかった場合、フローはステップS7に進み、基準時刻tが抽出済みであった場合、ステップS10に進む。
 ステップS7において、基準時刻設定部8は、基準時刻tを抽出する基準時刻抽出処理を行う。基準時刻設定部8による基準時刻抽出処理についての詳細は後述する。
 ステップS8において、基準時刻設定部8により基準時刻tが抽出されたか否かを判定する。本ステップS8において基準時刻tが抽出されていない場合、フローはステップS9に進み、基準時刻tが抽出されている場合、ステップS10に進む。
 ステップS9は、ステップS5において自車両が「交差点内」に位置しないと判定された場合、あるいは、ステップS7の基準時刻抽出処理において基準フレームが抽出されなかったとステップS8において判定された場合に行われる。このような場合、本ステップS9において、監視対象領域設定装置100は重点的に監視すべき監視対象領域が存在しないと判断して、処理を終了してステップS1に戻る。
 ステップS10において、監視対象領域設定部9は、ステップS8までに抽出された基準時刻tに基づいて、自車両を基準とした想定死角領域の相対位置を特定し、想定死角領域を含む監視対象領域を設定するための監視対象領域設定処理を行う。監視対象領域設定処理についての詳細は後述する。
 ステップS11において、物体選別部10は、監視対象領域設定部9が設定した監視対象領域内に物体が存在するか否かを判定し、存在する場合には、いずれの物体について報知を行うかを選別する。
 ステップS12において、報知部11は、自車両の運転手に対して、運転手の死角を含む想定死角領域に、物体が存在することを報知する。これにより、運転手に当該死角への注意を促し、事故の発生する可能性を低減できる。
 <走行軌跡情報の生成処理>
 次に、走行軌跡計算部4による走行軌跡情報の生成処理について説明する。以下、時刻tにおける自車両情報は、車速:v[m/s]、舵角:θ[rad]、旋回速度:ω[rad/s]を含む。なお、nは1以上の整数であり、ある基準となる時刻(基準時刻t)からnフレーム目であることを意味する。
 そして、基準時刻tにおける自車両の位置(x,y)を基準(原点)とした座標系を想定したときの時刻tにおける自車両の位置を相対位置(x,y)、原点を基準とした自車両の方位角(相対方位)をαと定義する。時刻tn+1における自車両の相対位置(xn+1,yn+1)および相対方位は、以下の式(1)から(3)を用いて表すことができる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 ここで、Δtは、以下の式(4)で与えられる。
Figure JPOXMLDOC01-appb-M000004
 走行軌跡計算部4は、算出した自車両の相対位置(xn+1,yn+1)と相対位置(x,y)との差分に基づいてn+1フレームにおける移動距離や移動方位を算出する。
 <基準時刻設定処理>
 次に、基準時刻設定部8による基準時刻設定処理について説明する。基準時刻tは、上述したように、時刻tにおける自車両の相対位置の基準となる位置(x,y)に自車両が存在した時刻である。本実施の形態では、上述したように、基準時刻tは、現在自車両が交差点を曲がっている場合、過去に自車両が直進していた最後のフレームである。従って、本実施の形態の基準時刻設定処理では、まず現在自車両が交差点を曲がっている状態であるか否かについて判定する。
 基準時刻設定部8は、自車両情報記憶部3に記憶された自車両情報のうち、舵角情報に基づいて現在自車両が交差点を曲がっている状態であるか否かについて判定する。具体的には、基準時刻設定部8は、現在の舵角が所定の角度以上であり、現在の舵角が所定時間(フレーム)以上継続している場合、現在自車両が交差点を曲がっていると判定する。ここで、基準時刻設定部8は、自車両が現在交差点を曲がっていないと判定した場合、基準時刻tを設定しないため、処理を終了する(図4に示すステップS9に進む)。
 基準時刻設定部8は、現在自車両が交差点を曲がっている状態であると判定した場合、自車両情報記憶部3に記憶された自車両情報、および走行軌跡計算部4が出力した走行軌跡情報に基づいて、自車両が直進していた最後のフレームを特定し、当該フレームの時刻を基準時刻tと設定する。
 例えば図4において、tが現在時刻であり、T=tにおいて自車両が交差点内を曲がっていると基準時刻設定部8が判定した場合、基準時刻設定部8は、過去の自車両情報および走行軌跡情報を参照し、自車両が直進していた最後のフレームを特定する。図4では、T=t0が自車両が直進していた最後のフレームであるため、基準時刻設定部8はT=t0におけるフレームの時刻を基準時刻tと設定する。
 図7は、基準時刻設定部8による基準時刻設定処理の動作例を示すフローチャートである。ステップS21において、基準時刻設定部8は、評価フレームナンバー♯を現時刻のフレームに設定する。つまり、基準時刻設定部8は、現時刻のフレームを評価対象フレームの初期値に設定する。なお、評価フレームナンバー♯は、評価対象とするフレームを示すパラメータである。
 ステップS22において、基準時刻設定部8は、自車両が曲がっている状態であるか否かについて判定する。基準時刻設定部8による判定は、上述したように、自車両情報記憶部3に記憶された自車両情報、および走行軌跡計算部4が出力した走行軌跡情報に基づいて行われる。自車両が曲がっている状態であると判定された場合、フローは、ステップS23に進み、自車両が曲がっている状態でないと判定された場合、ステップS27に進む。
 ステップS22において自車両が曲がっている状態であると判定された場合、自車両は交差点内を曲がっている、すなわち右折あるいは左折をしている最中であると判断できる。何故なら、本ステップS22は、上述した図6のステップS5において、交差点付近であると判定された後のステップS7だらかである。
 次に、ステップS23において、基準時刻設定部8は、評価フレームにおける自車両の挙動が直進であるか否かを判定する。評価フレームにおいて自車両が直進ではない、すなわち自車両が交差点内を曲がっている最中であると判定された場合、フローはステップS24に進み、自車両が直進である場合、ステップS25に進む。
 ステップS23において評価フレームにおける自車両の挙動が直進では無かった場合、ステップS24において、基準時刻設定部8は、評価フレームナンバー♯から1を減算し、判定回数Nに1を加算する。判定回数Nは、基準時刻tを設定する場合、現在時刻から遡る回数(フレーム数)を示すパラメータである。
 一方、ステップS23において評価フレームにおける自車両の挙動が直進であった場合、ステップS25において、基準時刻設定部8は、当該評価フレームが基準フレームであるとし、当該フレームナンバーを0に設定する。基準時刻設定部8は、当該フレームを直進していた最後のフレームであると特定し、当該フレームの時刻を基準時刻tに設定する。
 すなわち、ステップS23からS25において、基準時刻設定部8は、現在時刻からフレームを1つずつ遡りながら、自車両が直進していたフレームを抽出する。これにより基準時刻設定部8は、基準フレームを特定し、基準時刻tを設定することができる。
 なお、ステップS26において、基準時刻設定部8は、ステップS24で1を加算された判定回数Nが所定の閾値を超えたか否かの判定を行う。判定回数Nが所定の閾値を超えた場合、すなわち、閾値分のフレームを遡っても自車両が直進しているフレームが存在しない場合、基準時刻設定部8は、基準時刻tを設定しないため、処理を終了する。ステップS24で1を加算されても判定回数Nが所定の閾値を超えない場合、基準時刻設定部8は、ステップS23に戻り、再度基準フレームを探索する。
 次に、ステップS27において、基準時刻設定部8は、自車両が停止しているか否かを判定する。交差点付近において自車両が停止している状態とは、例えば図3(b)では、T字路において右左折をする前に一時停止している状態である。一時停止している状態では、図3(b)では、想定死角領域が存在するため、基準時刻設定部8は、自車両が停止したフレームを基準フレームとし、当該フレームの時刻を基準時刻tと設定することができる。従って、ステップS27において自車両が停止していると判定された場合、フローはステップS28に進む。
 なお、ステップS27において自車両が停止していないと判定された場合、基準時刻設定部8は、交差点付近において、自車両が曲がりも停止もしていないことから、例えば交差点を直進中である等、自車両が運転手の死角を含む想定死角領域が存在しない場所に位置すると判断する。このため、ステップS27において自車両が停止していないと判定された場合、基準時刻設定部8は、処理を終了する。
 ステップS28において、基準時刻設定部8は、自車両が停止したフレームを特定し、当該フレームを基準フレームに設定し、当該フレームの時刻を基準時刻tに設定する。
 <監視対象領域設定処理>
 次に、監視対象領域設定部9における監視対象領域設定処理について説明する。図8は、監視対象領域の具体例について説明するための図である。図8(a)は、基準時刻tにおける自車両の位置を基準(原点)に設定し、想定死角領域を含む監視対象領域を設定した図である。具体的には、図8(a)は、基準時刻tにおける自車両の位置と、予め取得した自車両が現在位置する交差点における想定死角領域の位置とを、ナビゲーション情報取得部6から取得した地図情報にプロットした図である。なお、図8(a)において縦軸は基準時刻tにおける自車両の正面方向を示し、横軸は基準時刻tにおける自車両の真横方向を示す。ここで、想定死角領域は、道路の形状によって決定される、つまり、絶対座標で固定された位置であり、監視対象領域は、想定死角領域を含む領域が、自車両の動きに合わせて適応的に設定された領域であり、相対座標における位置は変化する。
 図8(a)に示す自車両の想定死角領域の位置関係に基づいて、監視対象領域設定部9は、想定死角領域を含む監視対象領域、例えば自車両の位置を中心とした扇形の監視対象領域を設定する。物体検出部1によるレーダ用の電波の到達可能距離は予め決まっているので、図8(a)において監視対象領域を形成する扇形の半径は固定値である。監視対象領域設定部9は、監視対象領域を形成する扇形の角度、例えば自車両の正面方向に対する角度θa_0およびθb_0を特定することで設定した監視対象領域を特定することができる。
 次に、図8(b)および図8(c)は、それぞれ時刻tおよび時刻tにおける監視対象領域を示す図である。時刻tおよび時刻tにおいて、自車両が移動しているため(自車両が交差点内を曲がっている)、想定死角領域との位置関係は変化する。ここで、時刻tにおいて想定死角領域を含む監視対象領域の角度範囲は自車両の正面方向に対してθa_1からθb_1までの範囲であり、時刻tにおいて想定死角領域を含む監視対象領域の角度範囲は自車両の正面方向に対してθa_2からθb_2までの範囲である。図8(a)から(c)では、時間の経過につれて自車両の位置は変化するが、基準時刻tにおける自車両の位置(x,y)を原点とした座標系に座標変換することで、各時刻における監視対象領域を、当該時刻における自車両の位置と角度範囲とを用いて表すことができる。
 図9は、各時刻における監視対象領域を、基準時刻tにおける自車両を原点とした座標系にプロットした様子を示す図である。想定死角領域は、図9における点(x,y)と(x,y)により特定される斜線を引いた範囲である。図9では簡単のため想定死角領域の四辺のうち二辺の中点である点(x,y)と(x,y)により想定死角領域を特定しているが、想定死角領域の位置は、想定死角領域の四隅の座標を用いて示してもよい。
 また、時刻tおよび時刻tにおける図8の監視対象領域は、想定死角領域を内包するが、図9では簡単のため監視対象領域を形成する扇形の中心部付近を図示しており、その他の領域を省略している。これは、上述したように監視対象領域を形成する扇形の半径が固定値であるため、図9では各時刻における監視対象領域の位置を示すために中心部を表示すればよいからである。実際には、図9に示す時刻tおよびtにおける監視対象領域は、右上方向に延長され、想定死角領域を内包するように設定される。
 ここで、n+1フレームにおける監視対象領域の角度範囲がθa_n+1からθb_n+1である場合、角度範囲は、nフレームにおける角度範囲θa_nからθb_nを用いて、以下の式(5)および(6)のように表すことができる。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 なお、図9に示す監視対象領域は、図3(a)に示す十字路を右折する場合の監視対象領域の一例であるが、例えば図3(b)に示すT字路で右左折をする場合においても、図9と同様の考え方により、想定死角領域を含む監視対象領域を設定することができる。
 図10は、監視対象領域設定部9による監視対象領域設定処理の動作例を示すフローチャートである。ステップS31において、監視対象領域設定部9は、監視対象領域の設定が完了したフレームがあるか否かを判定する。なお、以下では、監視対象領域の設定が完了したフレームを、登録済みのフレームと称する。登録済みのフレームが存在しない場合、フローはステップS32に進み、登録済みのフレームが存在する場合、ステップS33に進む。
 登録済みのフレームが存在しない場合、ステップS32において、監視対象領域設定部9は評価フレームナンバー♯を基準フレームナンバー、すなわち0に1を加算してステップS34に進む。
 一方、登録済みのフレームが存在する場合、ステップS33において、監視対象領域設定部9は、評価フレームナンバー♯を当該登録済みのフレームナンバーに1を加算してステップS34に進む。
 すわなち、監視対象領域設定部9は、ステップS32およびS33において、登録済みのフレームが存在しない場合、基準フレームの次のフレームを評価フレームとし、登録済みのフレームが存在する場合、登録済みのフレームの次のフレームを評価フレームとする。
 ステップS34において、監視対象領域設定部9は、評価フレームナンバー♯が現在のフレームナンバーに1を加算したフレームナンバーであるか否かの判定を行う。すなわち、現在のフレームが評価対象のフレームとなっているか否かを判定する。現在のフレームがまだ評価対象となっていない場合、フローはステップS35に進み、既に現在のフレームが評価対象となっていた場合、ステップS38に進む。
 ステップS34において、現在のフレームがまだ評価対象となっていないと判定された場合、ステップS35において、監視対象領域設定部9は、評価フレームにおける監視対象領域を設定する。そして、図9に関連して上記説明した方法により、監視対象領域設定部9は、設定した監視対象領域を特定する角度範囲を算出する。
 ステップS36において、監視対象領域設定部9は、ステップS35において監視対象領域を設定した評価対象フレームを登録フレームとして登録し、監視対象領域を特定する角度範囲の更新を行う。
 ステップS37において、監視対象領域設定部9は、評価フレームナンバー♯に1を加算してステップS34に戻る。すなわち、次のフレームの監視対象領域設定処理に進む。
 ステップS34において既に現在のフレームが評価対象となっていたと判定された場合、ステップS38において、現在のフレームにおける監視対象領域の角度範囲等を含む、監視対象領域に関する情報を出力する。これにより、現在のフレームにおける監視対象領域が設定される。
 以上説明したように、本開示の監視対象領域設定装置100は、自車両の周囲に存在する物体を検出する物体検出部1と、自車両の位置情報と自車両の周辺の地図情報とに基づいて、運転手から見て死角となると予め想定される想定死角領域(死角想定領域)から所定の距離範囲内に自車両が位置しているか否かを判別するシーン判別部7と、想定死角領域から所定の距離範囲内に自車両が位置している間、自車両から見て想定死角領域を少なくとも含む領域を、物体が検出された場合に報知を行う監視対象領域に設定する監視対象領域設定部9と、監視対象領域設定部9によって設定された監視対象領域内において、物体検出部1により検出された物体が所定の条件を満たすか否かの判定を行い、当該所定の条件を満たすか否かに応じて報知を行う対象とするか否かを選別する物体選別部10と、を有する。
 また、本開示の監視対象領域設定装置100は、一定周期毎に自車両の移動速度および移動方向を含む情報である自車両情報を蓄積する自車両情報記憶部3と、想定死角領域の位置に関する情報を取得し、想定死角領域が存在するシーン内における基準位置に自車両が存在した時刻を基準時刻tとして設定する基準時刻設定部8と、をさらに有し、監視対象領域設定部9は、基準時刻設定部8が設定した基準時刻tからフレーム(所定周期)毎の自車両の位置を、自車両情報記憶部3から取得した自車両情報に基づいて算出し、フレーム毎の自車両の位置から見た想定死角領域を少なくとも含む領域を監視対象領域に設定する。
 このような構成により、本開示の実施の形態の監視対象領域設定装置100は、想定死角領域を含むシーン内を自車両が通行する間、想定死角領域を含む監視対象領域を物体検出部1の監視対象として監視し続けることができる。そして、物体が存在した場合に自車両との接触や衝突等の可能性が高い想定死角領域に物体が存在した場合、運転手に対して報知することができる。このように、想定死角領域含む領域を物体検出範囲に設定し、継続的に監視できるので、監視対象領域設定装置100は、自車両の接触又は衝突の可能性を低減できる。
 本実施の形態では、図1のシーン判別部7が自車両に対する想定死角領域が存在すると判別するシーンは、十字路の交差点において、自車両が右折待ち中であり、対向する右折車が存在するシーンである。当該シーンにおける想定死角領域は、自車両に対向する右折車によって発生する自車両運転手の死角を含む領域である。
 また、本実施の形態では、図1のシーン判別部7が自車両に対する想定死角領域が存在すると判別する他のシーンは、T字路の交差点において、自車両が右折または左折する前に一時停止するシーンである。当該シーンにおける想定死角領域は、右折及び左折後の対向車線である。
 このため、図1の監視対象領域設定装置100は、交差点における右折時や、T字路における右左折時等、自車両運転手の死角が存在するシーンにおいて、当該死角を含む領域を監視継続することによって、接触等の可能性を低減できる。
 なお、上述した実施の形態では、想定死角領域からの所定の距離範囲として、対向する右折車が存在する場合の右折待ちの交差点の内部や、T字路において右折または左折する前に一時停止している交差点の内部を想定している。しかし、本開示はこれには限定されず、自車両運転手の死角を含む領域が予め想定される他の範囲を採用してもよい。例えば、交差点付近以外にも、出口が見えない急カーブの出口付近の領域、緩やかなカーブに続くトンネルの出入り口付近の領域、又は、運転手の死角が生じると予め想定される領域、を含めて、想定死角領域としてもよい。
 なお、上述した実施の形態では、図1のナビゲーション情報取得部6で取得された自車両の現在位置(例えば、緯度及び経度の少なくとも一方)に関する情報又は地図情報に基づき、シーン判別部7は、自車両が現在置かれている場面(シーン)を判別していた。しかし、本開示はこれには限定されず、図11では、自車両情報取得部2aは、自車両情報として、例えば、方向指示器からの情報(左方向及び右方向への指示のON/OFF)を含めることもでき、方向指示器からの情報が伝送される車内ネットワーク(例えば、CAN:Controller Area Network、FlexRay(登録商標))を通じて、上述した自車両に関する情報を取得する。
 図11のシーン判定部7aは、自車両情報取得部2aにより取得された方向指示器からの情報を含めて、自車両が現在置かれている場面(シーン)を判別してもよい。シーン判定部7aは、例えば、左折又は右折を示す方向指示器からの情報を1つのパラメータとして、自車両の位置を交差点付近と判別してもよい。あるいは、左折又は右折を示す方向指示器からの情報に基づいて、自車両が右折するか左折するかを判断し、自車両の位置を交差点付近と判別してもよい。このため、物体検出部1は、ナビゲーション情報を使用する構成と比較して、簡易な構成で実現できる。
 以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。
 上記各実施形態では、本開示はハードウェアを用いて構成する例にとって説明したが、本開示はハードウェアとの連携においてソフトウェアでも実現することも可能である。
 また、上記各実施形態の説明に用いた各機能ブロックは、典型的には、入力端子および出力端子を有する集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサを用いて実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続又は設定を再構成可能なリコンフィギュラブル プロセッサ(Reconfigurable Processor)を利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適用等が可能性としてありえる。
 本開示は、車両周辺の物体を検出する検出範囲を設定できる監視対象領域設定装置に好適である。
 100,100a 監視対象領域設定装置
 1 物体検出部
 1A 左前方レーダ
 1B 右前方レーダ
 2,2a 自車両情報取得部
 3 自車両情報記憶部
 4 走行軌跡計算部
 5 走行状態判別部
 6 ナビゲーション情報取得部
 7,7a シーン判別部
 8 基準時刻設定部
 9 監視対象領域設定部
 10 物体選別部
 11 報知部

Claims (8)

  1.  自車両の周囲に存在する1つ以上の物体を検出する物体検出部と、
     所定の周期毎に蓄積される自車両の位置情報に基づいて、想定領域から所定の距離範囲内に前記自車両が位置しているか否かを判別する判別部と、
     前記所定の距離範囲内に前記自車両が位置している場合、前記想定領域を含み、前記自車両の位置情報に応じて更新される監視対象領域を設定する監視対象領域設定部と、
     前記監視対象領域内において、前記検出された1つ以上の物体について報知を行う対象とするか否かを選別する物体選別部と、
     を有する監視対象領域設定装置。
  2.  前記所定の周期毎に前記自車両の移動速度および移動方向を含む情報である自車両情報を蓄積する自車両情報記憶部と、
     前記自車両情報に応じて決定される前記自車両の基準位置及び基準時刻を設定する基準時刻設定部と、
     をさらに有し、
     前記監視対象領域設定部は、前記基準時刻から前記所定の周期毎に、前記自車両情報に基づいて、前記自車両の位置を算出し、前記所定の周期毎に前記監視対象領域を更新する、
     請求項1に記載の監視対象領域設定装置。
  3.  前記検出された1つ以上の物体が報知の対象に選別された場合、報知を行う報知部をさらに有する、
     請求項1に記載の監視対象領域設定装置。
  4.  前記所定の距離範囲は、
    前記自車両に対向する右折車が存在し、前記自車両が右折待ち中である十字路の交差点の一部を含み、
    前記十字路の交差点における前記想定領域は、前記自車両の運転手の視界が、前記自車両に対向する右折車によって、遮蔽される領域を含む、
     請求項2に記載の監視対象領域設定装置。
  5.  前記十字路の交差点において、
    前記基準時刻設定部は、前記自車両が右折を開始する前の周期を前記基準時刻に設定する、
     請求項4に記載の監視対象領域設定装置。
  6.  前記所定の距離範囲は、前記自車両が右折または左折する前に一時停止するT字路の交差点の一部を含み、
     前記T字路の交差点における前記想定領域は、前記自車両の右折先あるいは左折先の領域を含む、
     請求項2に記載の監視対象領域設定装置。
  7.  前記基準時刻設定部は、前記自車両が前記T字路の交差点において一時停止した周期を前記基準時刻に設定する、
     請求項6に記載の監視対象領域設定装置。
  8.  自車両の周囲に存在する1つ以上の物体を検出し、
     所定の周期毎に蓄積される自車両の位置情報に基づいて、想定領域から所定の距離範囲内に前記自車両が位置しているか否かを判別し、、
     前記所定の距離範囲内に前記自車両が位置している場合、前記想定領域を含み、前記自車両の位置情報に応じて更新される監視対象領域を設定し、
     前記監視対象領域内において、前記検出された1つ以上の物体について報知を行う対象とするか否かを選別する、
     監視対象領域設定方法。
PCT/JP2016/002138 2015-05-11 2016-04-21 監視対象領域設定装置および監視対象領域設定方法 WO2016181618A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017517603A JPWO2016181618A1 (ja) 2015-05-11 2016-04-21 監視対象領域設定装置および監視対象領域設定方法
EP16792348.1A EP3296762A4 (en) 2015-05-11 2016-04-21 Monitored area setting device and monitored area setting method
US15/786,073 US20180137760A1 (en) 2015-05-11 2017-10-17 Monitoring-target-region setting device and monitoring-target-region setting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015096594 2015-05-11
JP2015-096594 2015-05-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/786,073 Continuation US20180137760A1 (en) 2015-05-11 2017-10-17 Monitoring-target-region setting device and monitoring-target-region setting method

Publications (1)

Publication Number Publication Date
WO2016181618A1 true WO2016181618A1 (ja) 2016-11-17

Family

ID=57249549

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/002138 WO2016181618A1 (ja) 2015-05-11 2016-04-21 監視対象領域設定装置および監視対象領域設定方法

Country Status (4)

Country Link
US (1) US20180137760A1 (ja)
EP (1) EP3296762A4 (ja)
JP (1) JPWO2016181618A1 (ja)
WO (1) WO2016181618A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3462212A1 (en) * 2017-09-28 2019-04-03 Aptiv Technologies Limited Radar system of a vehicle and method for detecting an object in standstill situation
CN112166344A (zh) * 2018-06-28 2021-01-01 日立汽车***株式会社 检测装置
JP2021018807A (ja) * 2019-07-19 2021-02-15 株式会社デンソー 制御装置
WO2021033479A1 (ja) * 2019-08-20 2021-02-25 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置
JP7468375B2 (ja) 2021-01-21 2024-04-16 トヨタ自動車株式会社 車両制御装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6775285B2 (ja) * 2015-09-24 2020-10-28 アルパイン株式会社 後側方車両検知警報装置
DE102017219902A1 (de) * 2017-11-09 2019-05-09 Robert Bosch Gmbh Verfahren und Steuergerät zur Totwinkelüberwachung an einem Zweirad
US11968603B2 (en) * 2019-01-10 2024-04-23 Lg Electronics Inc. Device and method for V2X communication
CN110647806B (zh) * 2019-08-13 2022-05-03 浙江大华技术股份有限公司 对象行为监测方法、装置、设备、***及存储介质
CN111891135B (zh) * 2020-06-29 2022-06-03 东风商用车有限公司 一种盲区内多车频繁报警控制方法
EP4113165A1 (en) * 2021-06-30 2023-01-04 Aptiv Technologies Limited Methods and systems for radar data processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046426A (ja) * 2002-07-10 2004-02-12 Honda Motor Co Ltd 車両用警告システム
US20080300733A1 (en) * 2006-02-15 2008-12-04 Bayerische Motoren Werke Aktiengesellschaft Method of aligning a swivelable vehicle sensor
JP2015082157A (ja) * 2013-10-22 2015-04-27 三菱電機株式会社 運転支援装置および運転支援方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3865121B2 (ja) * 2001-10-31 2007-01-10 株式会社小松製作所 車両の障害物検出装置
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
JP5776838B2 (ja) * 2012-03-15 2015-09-09 トヨタ自動車株式会社 運転支援装置
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046426A (ja) * 2002-07-10 2004-02-12 Honda Motor Co Ltd 車両用警告システム
US20080300733A1 (en) * 2006-02-15 2008-12-04 Bayerische Motoren Werke Aktiengesellschaft Method of aligning a swivelable vehicle sensor
JP2015082157A (ja) * 2013-10-22 2015-04-27 三菱電機株式会社 運転支援装置および運転支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3296762A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3462212A1 (en) * 2017-09-28 2019-04-03 Aptiv Technologies Limited Radar system of a vehicle and method for detecting an object in standstill situation
CN109581379A (zh) * 2017-09-28 2019-04-05 德尔福技术有限责任公司 车辆的雷达***和在静止状态下检测对象的方法
US10877139B2 (en) 2017-09-28 2020-12-29 Aptiv Technologies Limited Radar system of a vehicle and method for detecting an object in standstill situation
CN112166344A (zh) * 2018-06-28 2021-01-01 日立汽车***株式会社 检测装置
CN112166344B (zh) * 2018-06-28 2023-07-28 日立安斯泰莫株式会社 检测装置
JP2021018807A (ja) * 2019-07-19 2021-02-15 株式会社デンソー 制御装置
WO2021033479A1 (ja) * 2019-08-20 2021-02-25 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置
JP7457950B2 (ja) 2019-08-20 2024-03-29 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置
JP7468375B2 (ja) 2021-01-21 2024-04-16 トヨタ自動車株式会社 車両制御装置

Also Published As

Publication number Publication date
JPWO2016181618A1 (ja) 2018-04-05
EP3296762A4 (en) 2018-05-16
EP3296762A1 (en) 2018-03-21
US20180137760A1 (en) 2018-05-17

Similar Documents

Publication Publication Date Title
WO2016181618A1 (ja) 監視対象領域設定装置および監視対象領域設定方法
CN105799700B (zh) 避免碰撞控制***和控制方法
RU2732634C1 (ru) Способ помощи в путешествии и устройство помощи в путешествии
US9463796B2 (en) Driving assistance apparatus
JP6312831B2 (ja) 走行支援システム及び走行支援方法
JP2018167699A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US10421394B2 (en) Driving assistance device, and storage medium
JP2008152387A (ja) 車両用周辺監視装置
JP7251611B2 (ja) 移動体の挙動予測方法、挙動予測装置及び車両
JP6500724B2 (ja) 危険情報報知システム、サーバ及びコンピュータプログラム
WO2017104209A1 (ja) 運転支援装置
CN115443234B (zh) 车辆行为推定方法、车辆控制方法及车辆行为推定装置
US11210952B2 (en) Systems and methods for controlling vehicle traffic
JP7275623B2 (ja) 運転支援装置
JP2019197303A (ja) 車外報知装置
JP2004199390A (ja) 運転補助システム及び装置
JP4961991B2 (ja) 車両用周辺監視装置
US20220379884A1 (en) Travel assistance device, travel assistance method, and non-transitory computer readable medium
JP2007122201A (ja) 車両用道路形状検出装置
JP2015118555A (ja) 対向車情報生成装置
JP7336861B2 (ja) 挙動予測方法及び挙動予測装置
JP2022060075A (ja) 運転支援装置
WO2023145494A1 (ja) 情報処理装置及び情報処理方法
JP7236279B2 (ja) 走行支援方法及び走行支援装置
RU2773761C1 (ru) Способ прогнозирования поведения и устройство прогнозирования поведения для мобильного субъекта и транспортное средство

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16792348

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2016792348

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017517603

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE