JP7347207B2 - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP7347207B2
JP7347207B2 JP2019236691A JP2019236691A JP7347207B2 JP 7347207 B2 JP7347207 B2 JP 7347207B2 JP 2019236691 A JP2019236691 A JP 2019236691A JP 2019236691 A JP2019236691 A JP 2019236691A JP 7347207 B2 JP7347207 B2 JP 7347207B2
Authority
JP
Japan
Prior art keywords
vehicle
behavior
sensor
blind spot
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019236691A
Other languages
Japanese (ja)
Other versions
JP2021105833A (en
Inventor
春人 佐々木
麻純 寺山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019236691A priority Critical patent/JP7347207B2/en
Publication of JP2021105833A publication Critical patent/JP2021105833A/en
Application granted granted Critical
Publication of JP7347207B2 publication Critical patent/JP7347207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、運転支援装置の技術分野に関する。 The present invention relates to the technical field of driving support devices.

この種の装置として、例えば、自車両の周囲に存在する動的オブジェクト(車、歩行者等)に係る位置、速度等から、該動的オブジェクトの行動を予測して、自車両が走行する軌道を生成する装置が提案されている(特許文献1参照)。その他関連する技術として、特許文献2乃至4が挙げられる。 For example, this type of device predicts the behavior of dynamic objects (cars, pedestrians, etc.) around the vehicle based on their positions, speeds, etc., and predicts the trajectory on which the vehicle will travel. A device that generates the following has been proposed (see Patent Document 1). Other related techniques include Patent Documents 2 to 4.

特許文献2には、自動運転中に自車両の走行状態及び周囲の状況に基づいて、自車両が次に取り得る挙動をドライバに提示する装置であって、現在のドライバの走行履歴に類似する走行履歴からドライバモデルを生成して、該生成されたドライバモデルと、自車両の現在の走行環境を示す環境パラメータとをもとに、自車両が次に取り得る挙動を判定する装置が開示されている。特許文献3には、レーダ、カメラ等を用いて自車両の周辺に存在する周辺車両の状態を検出して、周辺車両により自車両が交通事故に遭遇する危険度を予測してドライバに報知する装置が開示されている。特許文献4には、レーダセンサによる後続車両の検出結果に基づいて、該後続車両が自車両に対する追い越し動作を行っているか否かを判定する装置が開示されている。 Patent Document 2 describes a device that presents to the driver the next possible behavior of the own vehicle during automatic driving based on the driving state of the own vehicle and the surrounding situation, and which is similar to the current driving history of the driver. Disclosed is a device that generates a driver model from a driving history and determines the next possible behavior of the vehicle based on the generated driver model and environmental parameters indicating the current driving environment of the vehicle. ing. Patent Document 3 discloses that the state of surrounding vehicles existing around the own vehicle is detected using radar, cameras, etc., and the degree of risk of the own vehicle encountering a traffic accident due to the surrounding vehicles is predicted and notified to the driver. An apparatus is disclosed. Patent Document 4 discloses a device that determines whether a following vehicle is performing an overtaking operation with respect to the own vehicle based on a detection result of the following vehicle by a radar sensor.

特開2016-038689号公報Japanese Patent Application Publication No. 2016-038689 特開2016-216021号公報Japanese Patent Application Publication No. 2016-216021 特開2010-067235号公報Japanese Patent Application Publication No. 2010-067235 特開2019-174320号公報JP2019-174320A

自車両が有するセンサの数や配置によっては死角が生じる。特許文献1に記載の技術において、センサの死角に動的オブジェクトが存在する場合に、その行動が予測されると、予測精度が比較的低いにもかかわらず、予測に係る演算負荷が比較的高くなってしまうという可能性がある。このため、特許文献1に記載の技術には改善の余地がある。尚、特許文献2乃至4に記載の技術では、センサの死角については考慮されていない。 Blind spots may occur depending on the number and arrangement of sensors that the vehicle has. In the technology described in Patent Document 1, when a dynamic object exists in the sensor's blind spot, when its behavior is predicted, the computational load associated with the prediction is relatively high, although the prediction accuracy is relatively low. There is a possibility that it will become. Therefore, there is room for improvement in the technique described in Patent Document 1. Note that the techniques described in Patent Documents 2 to 4 do not take blind spots of the sensor into consideration.

本発明は、上記事情に鑑みてなされたものであり、演算負荷を抑制しつつ、動的オブジェクトの挙動を予測することができる運転支援装置を提供することを課題とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driving support device that can predict the behavior of a dynamic object while suppressing the calculation load.

本発明の一態様に係る運転支援装置は、運転支援装置であって、センサの出力に基づいて自車両の周囲に存在する移動体を認識する認識手段と、前記認識手段の認識結果に基づいて、前記移動体の挙動を予測する予測手段と、を備え、前記予測手段は、前記移動体が前記センサの死角域に進入すると予測される場合、前記移動体が前記死角域に進入する前の前記認識結果に基づいて前記移動体の前記死角域進入後の挙動を予測するとともに、前記移動体が前記死角域に存在する場合、前記移動体の挙動の予測を中断し、当該運転支援装置は、前記自車両に対する前記移動体の相対位置に応じた発光器の一の領域を発光させることによって、前記自車両のドライバに注意喚起を行い、当該運転支援装置は、前記自車両の前方を撮像した画像の消失点と、前記自車両のヨー角とから決定される角度に応じて、前記発光器における前記一の領域の位置を変更するというものである。 A driving support device according to one aspect of the present invention is a driving support device that includes a recognition device that recognizes a moving object existing around the own vehicle based on the output of a sensor, and a recognition device that recognizes a moving object existing around the own vehicle based on the output of a sensor. , a prediction means for predicting the behavior of the moving body, and the prediction means is configured to predict the behavior of the moving body before the moving body enters the blind spot area when the moving body is predicted to enter the blind spot area of the sensor. The driving support device predicts the behavior of the moving object after entering the blind spot area based on the recognition result, and if the moving object is present in the blind spot area, the prediction of the behavior of the moving object is interrupted, and the driving support device , the driver of the own vehicle is alerted by emitting light from one area of the light emitter according to the relative position of the moving object with respect to the own vehicle, and the driving support device captures an image of the front of the own vehicle. The position of the one area in the light emitter is changed according to the angle determined from the vanishing point of the image and the yaw angle of the host vehicle.

実施形態に係る車両の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a vehicle according to an embodiment. 実施形態に係る車両の死角域の一例を示す図である。FIG. 2 is a diagram showing an example of a blind spot area of a vehicle according to an embodiment. 実施形態に係る支援系ECUが対象とする場面の一例を示す図である。FIG. 2 is a diagram illustrating an example of a scene targeted by a support system ECU according to an embodiment. 実施形態に係る支援系ECUの動作を示すフローチャートである。It is a flowchart which shows operation of support system ECU concerning an embodiment. 注意喚起の一例を示す図である。It is a figure which shows an example of a warning. 実施形態の第1変形例に係る構成を説明するための図である。It is a figure for explaining the composition concerning the 1st modification of an embodiment.

運転支援装置に係る実施形態を説明する。実施形態に係る運転支援装置は、認識手段及び予測手段を備える。 An embodiment related to a driving support device will be described. The driving support device according to the embodiment includes a recognition means and a prediction means.

認識手段は、例えばカメラ、ミリ波レーダ、LiDAR(Light Detection and Ranging)等のセンサの出力に基づいて、自車両の周囲に存在する移動体を認識する。このとき、認識手段は、移動体の認識結果として、例えば、自車両に対する移動体の相対速度、自車両に対する移動体の相対位置、等を取得してよい。尚、移動体の認識方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。 The recognition means recognizes moving objects existing around the vehicle based on outputs from sensors such as cameras, millimeter wave radars, and LiDAR (Light Detection and Ranging). At this time, the recognition means may obtain, for example, the relative speed of the moving object with respect to the own vehicle, the relative position of the moving object with respect to the own vehicle, etc. as the recognition result of the moving object. Note that existing technology can be applied to the method of recognizing a moving object, so a detailed explanation thereof will be omitted.

予測手段は、認識手段による認識結果に基づいて、移動体の挙動を予測する。「挙動」の一例としては、移動体の将来の位置や軌道(即ち、位置の時間変化)が挙げられる。尚、予測手段は、自車両との距離が縮まりつつある移動体についての挙動を予測し、その他の移動体についての挙動は予測しなくてもよい。 The prediction means predicts the behavior of the moving body based on the recognition result by the recognition means. An example of "behavior" is the future position or trajectory of a moving object (that is, a change in position over time). Note that the prediction means may predict the behavior of a moving object whose distance to the own vehicle is decreasing, and may not predict the behavior of other moving objects.

ところで、上述したカメラ等のセンサには、例えば取り付け位置や構造上の理由等から死角が生じる。センサの死角に移動体が存在する場合に、予測手段が、該移動体の挙動を予測しようとすると、例えば現在の移動体をセンサにより検出できないが故に予測結果の精度が低くなってしまうにもかかわらず、予測に係る演算負荷は比較的高くなってしまう。 Incidentally, sensors such as the above-mentioned cameras have blind spots due to, for example, mounting positions and structural reasons. When a moving object exists in the sensor's blind spot, if the prediction means attempts to predict the behavior of the moving object, the accuracy of the prediction result may become low, for example, because the sensor cannot detect the current moving object. Regardless, the computational load associated with prediction is relatively high.

そこで、予測手段は、移動体がセンサの死角域に進入すると予測される場合、移動体が死角域に進入する前の認識手段による認識結果(即ち、移動体がセンサの検出範囲内に存在するときの認識結果)に基づいて、移動体の死角域進入後の挙動を予測する。ここで、センサの取り付け位置や構造上の理由等からで生じる死角域については、その範囲が既知であるので、移動体が、センサの死角域に進入するタイミングや、センサの死角域から退出するタイミングを予測することも可能である。このため、「移動体の死角域進入後の挙動」には、移動体が死角域から退出するタイミングでの位置が含まれていてよい。予測手段は更に、移動体がセンサの死角域に存在する場合、移動体の挙動の予測を中断する。 Therefore, when it is predicted that the moving object will enter the blind spot area of the sensor, the prediction means calculates the recognition result by the recognition means before the moving object enters the blind spot area (i.e., if the moving object is within the detection range of the sensor). The system predicts the behavior of a moving object after it enters the blind spot area based on the recognition results (recognition results). Here, the range of blind spots that occur due to sensor installation positions or structural reasons is known, so the timing at which a moving object enters the sensor's blind spot or exits from the sensor's blind spot is determined. It is also possible to predict the timing. Therefore, the "behavior of the moving object after entering the blind spot area" may include the position at the time when the moving object exits the blind spot area. The prediction means further stops predicting the behavior of the moving object when the moving object is present in the blind spot area of the sensor.

このように、当該運転支援装置では、センサの死角に挙動予測の対象となる移動体が存在する場合には、該移動体の挙動の予測が中断される。このため、当該運転支援装置では、移動体の挙動の予測に係る演算負荷を抑制することができる。従って、当該運転支援装置によれば、演算負荷を抑制しつつ、移動体(上述の動的オブジェクトに相当)の行動を予測することができる。 In this manner, in the driving support device, when a moving object whose behavior is to be predicted is present in the blind spot of the sensor, prediction of the behavior of the moving object is interrupted. Therefore, in the driving support device, the calculation load related to predicting the behavior of the moving body can be suppressed. Therefore, according to the driving support device, it is possible to predict the behavior of a moving object (corresponding to the above-mentioned dynamic object) while suppressing the calculation load.

実施形態に係る運転支援装置の一具体例としての支援系ECU(Electronic Control Unit)10について図1乃至図6を参照して説明する。図1において、支援系ECU10は、上述した自車両の一例に相当する車両1に搭載されている。 A support system ECU (Electronic Control Unit) 10 as a specific example of a driving support device according to an embodiment will be described with reference to FIGS. 1 to 6. In FIG. 1, a support system ECU 10 is mounted on a vehicle 1 that corresponds to an example of the own vehicle described above.

車両1は、支援系ECU10に加えて、ドライバモニタ21、地図情報を含むナビゲーション装置22、車両センサ23、全周囲センサ24、スイッチ類及び操作系装置25、エンジンECU31、ブレーキECU32、ステアリングECU33、灯火類34、セカンダリアビリティ35、並びに、HMI(Human Machene Interface)類36を備える。尚、セカンダリアビリティは、例えばエアコンディショナ、オーディオ装置等の車両1の走行に関連しない装置を意味する。 In addition to the support ECU 10, the vehicle 1 includes a driver monitor 21, a navigation device 22 including map information, a vehicle sensor 23, an all-around sensor 24, switches and operation devices 25, an engine ECU 31, a brake ECU 32, a steering ECU 33, and lights. 34, secondary capability 35, and HMI (Human Machine Interface) 36. Note that the term "secondary availability" refers to devices that are not related to the running of the vehicle 1, such as an air conditioner or an audio device.

支援系ECU10は、ドライバモニタ21、ナビゲーション装置22、車両センサ23、全周囲センサ24、並びに、スイッチ類及び操作系装置25各々から出力された信号を参照して、車両1におけるドライバの車両操作(例えば加速操作、減速操作、操舵操作等)を支援可能に構成されている。 The support system ECU 10 refers to signals output from the driver monitor 21 , the navigation device 22 , the vehicle sensor 23 , the all-around sensor 24 , and the switches and operation system devices 25 to determine the driver's vehicle operations ( For example, it is configured to be able to support acceleration operations, deceleration operations, steering operations, etc.).

ドライバモニタ21、ナビゲーション装置22、車両センサ23、全周囲センサ24、スイッチ類及び操作系装置25、エンジンECU31、ブレーキECU32、ステアリングECU33、灯火類34、セカンダリアビリティ35、並びに、HMI類36には、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。 The driver monitor 21, navigation device 22, vehicle sensor 23, all-around sensor 24, switches and operating system devices 25, engine ECU 31, brake ECU 32, steering ECU 33, lights 34, secondary availability 35, and HMI 36 include: Since various existing aspects can be applied, detailed explanation thereof will be omitted.

支援系ECU10は、ドライバの車両操作の支援を実現するために、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、外界認識部11及び予測部12を備えている。尚、「外界認識部11」及び「予測部12」は、夫々、上述した「認識手段」及び「予測手段」の一例に相当する。 The support system ECU 10 includes an external world recognition unit 11 and a prediction unit 12 as a processing block logically realized inside the ECU 10 or a processing circuit physically realized in order to support the driver's vehicle operation. ing. Note that the "external world recognition unit 11" and the "prediction unit 12" correspond to examples of the above-mentioned "recognition means" and "prediction means", respectively.

外界認識部11は、例えば全周囲センサ24の出力に基づいて、車両1の周囲に存在する、例えば他車両、障害物等を認識可能に構成されている。具体的には例えば、外界認識部11は、車両1に対する他車両等の相対速度や相対位置、等を認識可能に構成されている。外界認識部11は更に、例えばナビゲーション装置22から車両1周辺の道路に係る情報を取得して、他車両等が存在する具体的な位置(例えば車線)や、車線端から他車両等までの車線幅方向の距離(例えば車線オフセット)、等を認識してよい。 The external world recognition unit 11 is configured to be able to recognize, for example, other vehicles, obstacles, etc. that exist around the vehicle 1, based on the output of the all-around sensor 24, for example. Specifically, for example, the external world recognition unit 11 is configured to be able to recognize the relative speed, relative position, etc. of other vehicles with respect to the vehicle 1. The external world recognition unit 11 further acquires information related to the roads around the vehicle 1 from the navigation device 22, for example, and determines the specific position (for example, lane) where other vehicles exist, and the lane from the edge of the lane to the other vehicle. The distance in the width direction (for example, lane offset), etc. may be recognized.

外界認識部11は、また、例えば全周囲センサ24の出力に基づいて、車両1が走行している車線を規定する白線を認識したり、車両1が走行している車線の車線端から車両1までの車線幅方向の距離を認識したりしてよい。尚、外界認識部11には、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。 The external world recognition unit 11 also recognizes, for example, a white line that defines the lane in which the vehicle 1 is traveling, based on the output of the omnidirectional sensor 24, and recognizes the white line that defines the lane in which the vehicle 1 is traveling. It may also be possible to recognize the distance in the lane width direction. Note that various existing aspects can be applied to the external world recognition unit 11, so a detailed explanation thereof will be omitted.

予測部12は、外界認識部11による認識結果に基づいて、上述した移動体の一例に相当する他車両の挙動を予測する。他車両の挙動の予測方法には、既存の各種態様を適用可能であるが、一例としては、外界認識部11による認識結果や、ナビゲーション装置22から取得される車両1周辺の道路に係る情報等から他車両の過去の挙動を学習して、学習結果から他車両の挙動を予測する方法が挙げられる。 The prediction unit 12 predicts the behavior of another vehicle, which is an example of the above-mentioned moving object, based on the recognition result by the external world recognition unit 11. Various existing aspects can be applied to the method of predicting the behavior of other vehicles, but examples include recognition results by the external world recognition unit 11, information regarding roads around the vehicle 1 acquired from the navigation device 22, etc. One method is to learn the past behavior of other vehicles from a vehicle and predict the behavior of other vehicles from the learning results.

上記学習結果には、例えば、他車両の前後加速度や横加速度、他車両の操舵角、他車両の車線幅方向への変動(例えばふらつき)の周期や振幅、他車両の姿勢の変動、等が含まれてよい。上記学習結果には更に、例えば、第1の他車両が第2の他車両を追い越したときの、第1及び第2の他車両各々の相対速度や相対位置等から学習された、第1の他車両が追越を開始したときの、第1の他車両及び第2の他車両の車間距離、第1の他車両と第2の他車両との相対速度及び第1の他車両の操舵角、第1の他車両が追越を完了したときの第1の他車両及び第2の他車両の車間距離、等が含まれてよい。 The above learning results include, for example, the longitudinal acceleration and lateral acceleration of other vehicles, the steering angle of other vehicles, the period and amplitude of fluctuations in the lane width direction (for example, wobbling) of other vehicles, and fluctuations in the attitude of other vehicles, etc. May be included. The above learning result further includes, for example, the first other vehicle learned from the relative speed and relative position of each of the first and second other vehicles when the first other vehicle overtakes the second other vehicle. The inter-vehicle distance between the first other vehicle and the second other vehicle, the relative speed between the first other vehicle and the second other vehicle, and the steering angle of the first other vehicle when the other vehicle starts overtaking. , the inter-vehicle distance between the first other vehicle and the second other vehicle when the first other vehicle completes overtaking, and the like.

支援系ECU10は、外界認識部11による認識結果や、予測部12による予測結果等に基づいて、例えば、ドライバにより設定された速度や車間距離を維持するようにエンジンECU31等を制御したり、車両1が自動で車線変更するようにステアリングECU33等を制御したり、緊急時に車両1が回避行動をとるようにステアリングECU33等を制御したりする。予測部12は、緊急時には、その旨をドライバに報知するために、HMI類36を制御してよい。これらの制御により、支援系ECU10は、ドライバの車両操作を支援する。 The support system ECU 10 controls, for example, the engine ECU 31 to maintain the speed and inter-vehicle distance set by the driver, based on the recognition result by the external world recognition unit 11, the prediction result by the prediction unit 12, etc. The steering ECU 33 and the like are controlled so that the vehicle 1 automatically changes lanes, and the steering ECU 33 and the like are controlled so that the vehicle 1 takes evasive action in an emergency. In the event of an emergency, the prediction unit 12 may control the HMIs 36 in order to notify the driver of the emergency. Through these controls, the support system ECU 10 supports the driver's vehicle operation.

ここで、全周囲センサ24について図2を参照して説明を加える。全周囲センサ24には、例えば車両1の前方及び後方を夫々撮像する前方カメラ及び後方カメラ、車両1の前方、右前側方、左前側方、後方、右後側方及び左後側方各々に存在する物体を夫々検出する前方レーダ、右前側方レーダ、左前側方レーダ、後方レーダ、右後側方レーダ及び左後側方レーダが含まれている。尚、前方レーダ等は、例えばミリ波レーダであってもよいし、レーザレーダ(即ち、LiDAR)であってもよい。 Here, the all-around sensor 24 will be explained with reference to FIG. 2. The omnidirectional sensor 24 includes, for example, a front camera and a rear camera that capture images of the front and rear of the vehicle 1, respectively, and cameras that capture images of the front, right front side, left front side, rear, right rear side, and left rear side of the vehicle 1, respectively. It includes a front radar, a right front lateral radar, a left front lateral radar, a rear radar, a right rear lateral radar, and a left rear lateral radar that respectively detect existing objects. Note that the forward radar and the like may be, for example, a millimeter wave radar or a laser radar (namely, LiDAR).

図2において、点線の直線は、前方カメラ及び後方カメラ各々の画角の一例を表しており、破線の楕円形は、前方レーダ等の検出範囲の一例を表している。図2に示す態様では、全周囲センサ24に死角が生じているものとする(図2の“死角域”参照)。 In FIG. 2, the dotted straight line represents an example of the angle of view of each of the front camera and the rear camera, and the dashed ellipse represents an example of the detection range of the front radar or the like. In the embodiment shown in FIG. 2, it is assumed that the all-around sensor 24 has a blind spot (see "blind spot area" in FIG. 2).

予測部12は、他車両が死角域に進入すると予測される場合、該他車両が死角域に進入する前(典型的には、直前)の外界認識部11による認識結果に基づいて、該他車両の死角域進入後の挙動を予測するように構成されている。このとき、予測部12は、死角域を通過した後の他車両の位置(例えば、他車両が死角域から退出したタイミングでの位置)を予測してよい。そして、予測部12は、他車両が死角域に存在する場合は、該他車両の挙動の予測を中断するように構成されている。 When it is predicted that another vehicle will enter the blind spot area, the prediction unit 12 determines whether the other vehicle will enter the blind spot area based on the recognition result by the external world recognition unit 11 before (typically, immediately before) the other vehicle enters the blind spot area. The system is configured to predict the behavior of the vehicle after entering the blind spot area. At this time, the prediction unit 12 may predict the position of the other vehicle after passing through the blind spot area (for example, the position at the timing when the other vehicle leaves the blind spot area). The prediction unit 12 is configured to interrupt prediction of the behavior of another vehicle when another vehicle exists in the blind spot area.

上述の如く構成された支援系ECU10が対象とする場面の一例について図3を参照して説明する。図3において、車両1は、3車線の道路を走行している。車両1が走行している走行車線に隣接する隣接車線の該走行車線とは反対側に隣接する隣隣接車線には、車両2が走行している。車両2は、車両1を追い越そうとしている。このとき、車両2が取り得る軌道としては、図3の軌道(I)、(II)及び(III)が挙げられる。 An example of a scene targeted by the support system ECU 10 configured as described above will be described with reference to FIG. 3. In FIG. 3, the vehicle 1 is traveling on a three-lane road. A vehicle 2 is running in an adjacent lane adjacent to the lane in which the vehicle 1 is running, which is adjacent to the lane opposite to the lane in which the vehicle 1 is running. Vehicle 2 is trying to overtake vehicle 1. At this time, examples of trajectories that the vehicle 2 can take include trajectories (I), (II), and (III) in FIG.

このような場面において、車両1のドライバが、車両2の挙動について十分な注意を払うことは少ない。なぜなら、ドライバは、隣隣接車線を走行している車両2の挙動が、直ちに車両1(即ち、自車両)の走行に影響を及ぼすと考えることが少ないからである。しかしながら、車両2は、図3の軌道(II)又は(III)を取る(即ち、車線変更する)可能性がある。支援系ECU10は、このような場面において、車両1のドライバに、車両2に対する注意喚起を行うことができる。 In such a situation, the driver of the vehicle 1 rarely pays sufficient attention to the behavior of the vehicle 2. This is because the driver rarely thinks that the behavior of the vehicle 2 traveling in the adjacent lane immediately affects the traveling of the vehicle 1 (that is, the own vehicle). However, the vehicle 2 may take trajectory (II) or (III) in FIG. 3 (ie, change lanes). The support system ECU 10 can alert the driver of the vehicle 1 to the vehicle 2 in such a situation.

ここで、支援系ECU10の予測部12は、上述の如く、他車両が全周囲センサ24の死角域に存在する場合は、該他車両の挙動の予測を中断する。尚、本実施形態においては、全周囲センサ24の死角域の間の領域であって、隣隣接車線と重複する領域(図3の“検出外域”参照)は、全周囲センサ24の有効検出範囲内ではあるが、検出対象外とされている。従って、予測部12は、他車両(例えば、車両2)が、全周囲センサ24の死角域又は検出外域に存在する場合、該他車両の挙動の予測を中断する。全周囲センサ24の死角域及び検出外域を、以降、適宜「センサ不検知領域」と称する。 Here, as described above, the prediction unit 12 of the support system ECU 10 interrupts prediction of the behavior of the other vehicle when the other vehicle exists in the blind spot area of the all-around sensor 24. In this embodiment, the area between the blind spots of the all-around sensor 24 and the area that overlaps with the adjacent lane (see "outside detection area" in FIG. 3) is the effective detection range of the all-around sensor 24. However, it is not subject to detection. Therefore, when another vehicle (for example, vehicle 2) is present in the blind spot area or outside detection area of the all-around sensor 24, the prediction unit 12 suspends prediction of the behavior of the other vehicle. The blind spot area and non-detection area of the all-around sensor 24 will hereinafter be appropriately referred to as a "sensor non-detection area."

このため、例えば図3の軌道(II)及び(III)のように、センサ不検知領域において車両2が車線変更を開始する場合、全周囲センサ24では、車両2の車線変更の開始を検出することができない。そこで、予測部12は、上述の如く、車両2がセンサ不検知領域に進入する前の外界認識部11による認識結果に基づいて、車両2のセンサ不検知領域進入後の挙動を予測する。このとき、予測部12は、例えば車両2がセンサ不検知領域を通過した後の位置(例えば、図3の“P1”、“P2”、“P3”)を予測してよい。或いは、予測部12は、センサ不検知領域における車両2の軌道(例えば図3の軌道(I)、(II)又は(III))を予測してよい。 Therefore, when the vehicle 2 starts changing lanes in the sensor non-detection area, as in the trajectories (II) and (III) in FIG. 3, the omnidirectional sensor 24 detects the start of the lane change of the vehicle 2. I can't. Therefore, as described above, the prediction unit 12 predicts the behavior of the vehicle 2 after entering the sensor non-detection area, based on the recognition result by the external world recognition unit 11 before the vehicle 2 enters the sensor non-detection area. At this time, the prediction unit 12 may predict, for example, the position after the vehicle 2 passes through the sensor non-detection area (for example, "P1", "P2", and "P3" in FIG. 3). Alternatively, the prediction unit 12 may predict the trajectory of the vehicle 2 in the sensor non-detection area (for example, trajectory (I), (II), or (III) in FIG. 3).

その後、支援系ECU10は、予測部12により予測された車両2の挙動と、車両2がセンサ不検知領域を通過した後の外界認識部11による車両2の認識結果とを紐づけて、車両2の実際の挙動を特定する。そして、支援系ECU10は、車両1と車両2との相対的な位置関係に応じて、車両1のドライバに、車両2に対する注意喚起を行うか否かを決定する。注意喚起を行う場合には、支援系ECU10は、HMI類36を制御する。尚、注意喚起の具体例については後述する。 Thereafter, the support system ECU 10 links the behavior of the vehicle 2 predicted by the prediction unit 12 with the recognition result of the vehicle 2 by the external world recognition unit 11 after the vehicle 2 passes through the sensor non-detection area, and Identify the actual behavior of Then, the support system ECU 10 determines whether or not to alert the driver of the vehicle 1 to the vehicle 2, depending on the relative positional relationship between the vehicle 1 and the vehicle 2. When alerting, the support system ECU 10 controls the HMI 36. Note that a specific example of the alert will be described later.

支援系ECU10の動作について図4のフローチャートを参照して説明を加える。図4において、支援系ECU10は、外界認識部11による認識結果に基づいて、対象車両(例えば図3の車両2)を監視する(ステップS101)。このとき、予測部12は、外界認識部11による認識結果に基づいて、対象車両の挙動を予測してよい。また、予測部12は、外界認識部11による認識結果に基づいて、対象車両の挙動を予測するための学習を行ってよい。 The operation of the support system ECU 10 will be explained with reference to the flowchart of FIG. In FIG. 4, the support system ECU 10 monitors a target vehicle (for example, vehicle 2 in FIG. 3) based on the recognition result by the external world recognition unit 11 (step S101). At this time, the prediction unit 12 may predict the behavior of the target vehicle based on the recognition result by the external world recognition unit 11. Further, the prediction unit 12 may perform learning to predict the behavior of the target vehicle based on the recognition result by the external world recognition unit 11.

支援系ECU10は、対象車両がセンサ不検知領域に達したか否かを判定する(ステップS102)。尚、対象車両がセンサ不検知領域に達したか否かは、外界認識部11による認識結果に基づいて判定されてもよいし、予測部12により到達予測時刻を予測して、該到達予測時刻になったか否かを判定することにより判定されてもよい。 The support system ECU 10 determines whether the target vehicle has reached the sensor non-detection area (step S102). Note that whether or not the target vehicle has reached the sensor non-detection area may be determined based on the recognition result by the external world recognition unit 11, or the predicted arrival time may be predicted by the prediction unit 12, and the prediction unit 12 may predict the predicted arrival time. The determination may be made by determining whether or not.

ステップS102の処理において、対象車両がセンサ不検知領域に達していないと判定された場合(ステップS102:No)、ステップS101の処理が行われる。他方、ステップS102の処理において、対象車両がセンサ不検知領域に達したと判定された場合(ステップS102:Yes)、予測部12は、対象車両がセンサ不検知領域を通過するt秒後の相対位置を予測する(ステップS103)。尚、「t秒」は、センサ不検知領域の大きさと、車両1に対する車両2の相対速度とから求められてよい。 In the process of step S102, if it is determined that the target vehicle has not reached the sensor non-detection area (step S102: No), the process of step S101 is performed. On the other hand, in the process of step S102, if it is determined that the target vehicle has reached the sensor non-detection area (step S102: Yes), the prediction unit 12 predicts the relative The position is predicted (step S103). Note that "t seconds" may be determined from the size of the sensor non-detection area and the relative speed of the vehicle 2 with respect to the vehicle 1.

ステップS103の処理の後、予測部12は、対象車両の挙動の予測に係る演算を停止(中断)する(ステップS104)。支援系ECU10は、対象車両がセンサ不検知領域を通過したか否かを判定する(ステップS105)。尚、対象車両がセンサ不検知領域を通過したか否かは、例えば、上記t秒経過したか否かを判定することにより判定されてよい。 After the process in step S103, the prediction unit 12 stops (interrupts) the calculation related to predicting the behavior of the target vehicle (step S104). The support system ECU 10 determines whether the target vehicle has passed through the sensor non-detection area (step S105). Note that whether or not the target vehicle has passed through the sensor non-detection area may be determined, for example, by determining whether the above-mentioned t seconds have elapsed.

ステップS105の処理において、対象車両がセンサ不検知領域を通過していないと判定された場合(ステップS105:No)、ステップS104の処理が継続される。他方、ステップS105の処理において、対象車両がセンサ不検知領域を通過したと判定された場合(ステップS105:Yes)、支援系ECU10は、ステップS103の処理において予測された相対位置と、外界認識部11により認識された対象車両の実際の位置とを紐づけて、対象車両を特定する(ステップS106)。 In the process of step S105, if it is determined that the target vehicle has not passed through the sensor non-detection area (step S105: No), the process of step S104 is continued. On the other hand, if it is determined in the process of step S105 that the target vehicle has passed through the sensor non-detection area (step S105: Yes), the support system ECU 10 uses the relative position predicted in the process of step S103 and the external world recognition unit. The target vehicle is identified by associating it with the actual position of the target vehicle recognized by step S11 (step S106).

続いて、支援系ECU10は、上記特定された対象車両と、車両1(即ち、自車両)との相対的な位置関係を特定する(ステップS107)。そして、支援系ECU10は、該特定された相対的な位置関係に応じて、必要であれば、他車両に対する注意喚起をドライバに行うようにHMI類36を制御する(ステップS108)。 Subsequently, the support system ECU 10 specifies the relative positional relationship between the specified target vehicle and the vehicle 1 (that is, the own vehicle) (step S107). Then, the support system ECU 10 controls the HMI 36 to alert the driver to other vehicles, if necessary, according to the specified relative positional relationship (step S108).

注意喚起の具体例について図5を参照して説明する。HMI類36は、例えばインストルメントルパネルのメータ類が配置される部分の枠を発光させる発光器を有する。図5(a)は、発光器の外観の一例を示す図である。 A specific example of alerting will be described with reference to FIG. 5. The HMI 36 includes, for example, a light emitter that causes a frame of a portion of an instrument panel where meters are arranged to emit light. FIG. 5(a) is a diagram showing an example of the appearance of a light emitter.

支援系ECU10は、車両1が走行している車線に他車両が進入した又は進入する可能性がある場合、発光器の領域1(図5(a)参照)の少なくとも一部が発光するように発光器を制御する。支援系ECU10は、車両1が走行している車線の右側の隣接車線に他車両が進入した又は進入する可能性がある場合、発光器の領域2(図5(a)参照)の少なくとも一部が発光するように発光器を制御する。支援系ECU10は、車両1が走行している車線の左側の隣接車線に他車両が進入した又は進入する可能性がある場合、発光器の領域3(図5(a)参照)の少なくとも一部が発光するように発光器を制御する。尚、図5(a)に示す「領域1」、「領域2」及び「領域3」の区切りは一例であり、これに限定されるものではないことは言うまでもない。 The support system ECU 10 causes at least a part of the area 1 of the light emitter (see FIG. 5(a)) to emit light when another vehicle has entered or is likely to enter the lane in which the vehicle 1 is traveling. Control the light emitter. When another vehicle has entered or is likely to enter the adjacent lane on the right side of the lane in which the vehicle 1 is traveling, the support system ECU 10 controls at least a portion of the area 2 of the light emitter (see FIG. 5(a)). Control the light emitter so that it emits light. When another vehicle has entered or is likely to enter the adjacent lane on the left side of the lane in which the vehicle 1 is traveling, the support system ECU 10 controls at least a portion of the area 3 of the light emitter (see FIG. 5(a)). Control the light emitter so that it emits light. Note that the divisions between "area 1," "area 2," and "area 3" shown in FIG.

注意喚起のより具体的な例について図3及び図5(b)~(e)を参照して説明する。例えば、他車両としての車両2が、図3の軌道(III)に沿って走行すると予測され、車両2がセンサ不検知領域を通過した後に、“P3”の位置において、上述のステップS106及びS107の処理により、車両1と車両2との相対的な位置関係が特定されたものとする。この場合、支援系ECU10は、例えば図5(b)に示すように、光(図中の網掛けの丸参照)が、発光器の領域2から領域1に向かって(即ち、発光器の右から中央に向かって)流れるように発光するように、発光器を制御する。 A more specific example of alerting will be described with reference to FIG. 3 and FIGS. 5(b) to 5(e). For example, it is predicted that the vehicle 2 as another vehicle will travel along the trajectory (III) in FIG. It is assumed that the relative positional relationship between vehicle 1 and vehicle 2 has been identified through the process. In this case, as shown in FIG. 5B, for example, the support system ECU 10 directs the light (see the shaded circle in the figure) from region 2 of the light emitter toward region 1 (that is, to the right of the light emitter). Control the light emitter so that it emits light in a flowing manner (from the center toward the center).

その後、車両2が、図3の軌道(III)に沿って走行し、車両1が走行している車線に進入した場合、支援系ECU10は、例えば図5(c)に示すように、光が発光器の領域2を右から左に向かって流れるように発光するとともに、領域1の比較的広い範囲が点滅するように、発光器を制御する。 Thereafter, when the vehicle 2 travels along the trajectory (III) in FIG. 3 and enters the lane in which the vehicle 1 is traveling, the support system ECU 10 detects the light as shown in FIG. 5(c), for example. The light emitter is controlled so that the region 2 of the light emitter emits light flowing from right to left, and a relatively wide range of region 1 blinks.

或いは、他車両としての車両2が、図3の軌道(II)に沿って走行すると予測され、車両2がセンサ不検知領域を通過した後に、“P2”の位置において、上述のステップS106及びS107の処理により、車両1と車両2との相対的な位置関係が特定されたものとする。この場合、支援系ECU10は、例えば図5(d)に示すように、光が発光器の領域2を右から左に向かって流れるように発光するように、発光器を制御する。 Alternatively, the vehicle 2 as another vehicle is predicted to travel along the trajectory (II) in FIG. 3, and after the vehicle 2 passes through the sensor non-detection area, the above-described steps S106 and S107 It is assumed that the relative positional relationship between vehicle 1 and vehicle 2 has been identified through the process. In this case, the support system ECU 10 controls the light emitter so that the light flows from the right to the left in the region 2 of the light emitter, as shown in FIG. 5(d), for example.

その後、車両2が、図3の軌道(II)に沿って走行し、車両1が走行している車線の右側の隣接車線に進入した場合、支援系ECU10は、例えば図5(e)に示すように、領域2の比較的広い範囲が点滅するように、発光器を制御する。 After that, when the vehicle 2 travels along the trajectory (II) in FIG. 3 and enters the adjacent lane on the right side of the lane in which the vehicle 1 is traveling, the support system ECU 10 operates as shown in FIG. 5(e), for example. The light emitter is controlled so that a relatively wide range of region 2 blinks.

他方で、他車両としての車両2が、図3の軌道(I)に沿って走行すると予測され、車両2がセンサ不検知領域を通過した後に、“P1”の位置において、上述のステップS106及びS107の処理により、車両1と車両2との相対的な位置関係が特定されたものとする。この場合、支援系ECU10は、車両が車両1の走行に影響を及ぼさないと判定して、発光しないように発光器を制御する(即ち、この場合、支援系ECU10は、注意喚起を行わない)。 On the other hand, it is predicted that the vehicle 2 as another vehicle will travel along the trajectory (I) in FIG. 3, and after the vehicle 2 passes through the sensor non-detection area, the above steps S106 and It is assumed that the relative positional relationship between vehicle 1 and vehicle 2 has been identified through the process of S107. In this case, the support system ECU 10 determines that the vehicle does not affect the running of the vehicle 1, and controls the light emitter so that it does not emit light (that is, in this case, the support system ECU 10 does not issue a warning). .

(技術的効果)
支援系ECU10によれば、対象車両がセンサ不検知領域に存在する場合には、予測部12による対象車両の挙動の予測が中断されるので、予測部12の演算負荷を抑制することができる。支援系ECU10では、予測部12により、センサ不検知領域に進入後の対象車両の挙動が予測されるので、上述の如く挙動の予測が中断されたとしても、車両1の安全を担保することができる。加えて、支援系ECU10によれば、対象車両がセンサ不検知領域を通過した後の、車両1(即ち、自車両)と対象車両との相対的な位置関係に応じてドライバに注意喚起を行うことができる。このとき、例えば発光器を用いて、図5(b)~(e)に示すような注意喚起を行えば、対象車両の挙動を車両1のドライバが直感的に把握することが期待できる。
(technical effect)
According to the support system ECU 10, when the target vehicle exists in the sensor non-detection area, prediction of the behavior of the target vehicle by the prediction unit 12 is interrupted, so that the calculation load on the prediction unit 12 can be suppressed. In the support system ECU 10, the prediction unit 12 predicts the behavior of the target vehicle after entering the sensor non-detection area, so even if the behavior prediction is interrupted as described above, the safety of the vehicle 1 can be ensured. can. In addition, the support system ECU 10 alerts the driver according to the relative positional relationship between the vehicle 1 (i.e., own vehicle) and the target vehicle after the target vehicle passes through the sensor non-detection area. be able to. At this time, if the driver of the vehicle 1 intuitively understands the behavior of the target vehicle by calling attention as shown in FIGS. 5(b) to 5(e) using, for example, a light emitting device, it is expected.

<変形例1>
車両1が直線区間を走行している場合、車両1が走行している車線は、正面を向いているドライバの視野の中央に位置する。このため、例えば図5(a)に示すように各領域を設定して、対象車両の車両1に対する相対位置に応じて、領域1、領域2及び領域3の少なくとも一部を発光させれば、ドライバが対象車両の位置や挙動を直感的に把握することができる。
<Modification 1>
When the vehicle 1 is traveling on a straight section, the lane in which the vehicle 1 is traveling is located in the center of the field of view of the driver facing forward. For this reason, for example, if each area is set as shown in FIG. The driver can intuitively understand the position and behavior of the target vehicle.

しかしながら、車両1がカーブ区間を走行している場合、カーブの方向に応じて、車両1が走行している車線は、正面を向いているドライバの視野の右側又は左側に位置する。そこで、支援系ECU10は、以下のようにして、発光器の各領域を設定又は変更してよい。 However, when the vehicle 1 is traveling on a curved section, depending on the direction of the curve, the lane in which the vehicle 1 is traveling is located on the right or left side of the driver's field of view when facing forward. Therefore, the support system ECU 10 may set or change each area of the light emitter as follows.

即ち、支援系ECU10は、全周囲センサ24に含まれる前方カメラにより撮像された画像から、車両1が走行している道路に係る消失点(Vanishing point)を特定する。支援系ECU10は、車両1の位置及び地図情報を参照して、上記特定された消失点に相当する地図上の地点(例えば図6(a)の点A)を特定する。また、支援系ECU10は、車両1のヨー角(図6(a)の角度θego参照)を特定する。支援系ECU10は、上記消失点に相当する地図上の地点と車両1のヨー角とから、例えば図6(a)における∠AEB(即ち、角度θvan)を特定する。 That is, the support system ECU 10 identifies the vanishing point of the road on which the vehicle 1 is traveling from the image captured by the front camera included in the omnidirectional sensor 24. The support system ECU 10 refers to the position of the vehicle 1 and the map information to identify a point on the map corresponding to the identified vanishing point (for example, point A in FIG. 6(a)). The support system ECU 10 also specifies the yaw angle of the vehicle 1 (see angle θego in FIG. 6(a)). The support system ECU 10 identifies, for example, ∠AEB (that is, the angle θvan) in FIG. 6A from the point on the map corresponding to the vanishing point and the yaw angle of the vehicle 1.

そして、支援系ECU10は、例えば図6(b)に示すように、角度θvanだけ、発光器の中心軸(図6(b)の一点鎖線参照)を回転して、図5(a)の領域1、領域2及び領域3に夫々対応する領域1´、領域2´及び領域3´を設定する。このように構成すれば、車両1がカーブ区間を走行している場合にも、車両1のドライバが対象車両の挙動を直感的に把握可能な注意喚起を行うことができる。 Then, the support system ECU 10 rotates the central axis of the light emitter (see the dashed line in FIG. 6(b)) by an angle θvan, for example, as shown in FIG. 1. Area 1', area 2', and area 3' corresponding to area 2 and area 3, respectively, are set. With this configuration, even when the vehicle 1 is traveling on a curve section, it is possible to issue a warning that allows the driver of the vehicle 1 to intuitively understand the behavior of the target vehicle.

<変形例2>
支援系ECU10は、気象や路面状態を考慮して注意喚起を行うタイミングを変更してもよい。具体的には例えば、支援系ECU10は、降雨・降雪時や、霧が発生している時、路面の摩擦係数が比較的小さい時(例えば路面凍結時等)は、晴天時に比べて早く注意喚起を開始してよい。このように構成すれば、車両1のドライバが対象車両に比較的早期に気付くことができ、ドライバが対象車両に比較的早期に対応できることが期待できる。
<Modification 2>
The support system ECU 10 may change the timing at which the warning is issued in consideration of weather and road surface conditions. Specifically, for example, the support system ECU 10 issues a warning earlier when it is raining or snowing, when there is fog, or when the friction coefficient of the road surface is relatively small (for example, when the road surface is frozen) than when it is sunny. You may start. With this configuration, it is expected that the driver of the vehicle 1 will be able to notice the target vehicle relatively early, and the driver will be able to respond to the target vehicle relatively quickly.

<変形例3>
支援系ECU10は、夜間や、車両1がトンネル内等の比較的暗い場所を走行している場合、ドライバへの注意喚起を行う際に発光器の発光量を減らしてよい。また、支援系ECU10は、車両1の進行方向前方に比較的強い光源(例えば太陽)が存在する場合、ドライバへの注意喚起を行う際に発光器の発光量を増やしてよい。このように構成すれば、車両1の周囲の光量に応じた適切な注意喚起を行うことができる。
<Modification 3>
The support system ECU 10 may reduce the amount of light emitted from the light emitter when alerting the driver at night or when the vehicle 1 is traveling in a relatively dark place such as a tunnel. Further, when a relatively strong light source (for example, the sun) is present in front of the vehicle 1 in the direction of travel, the support system ECU 10 may increase the amount of light emitted from the light emitter when alerting the driver. With this configuration, an appropriate warning can be given according to the amount of light around the vehicle 1.

<変形例4>
支援系ECU10は、センサ不検知領域を通過した後の対象車両が、例えばPCS(Pre Crash Safety)機能が作動するほど車両1に接近する場合、ドライバへの注意喚起を行う際に、発光器の発行色を変更してよい。具体的には、通常の発行色が例えば青色である場合、対象車両がPCS機能が作動するほど車両1に接近する場合の発行色を、例えば赤色等の警戒色にしてよい。
<Modification 4>
When the target vehicle passes through the sensor non-detection area and approaches the vehicle 1 to the extent that the PCS (Pre Crash Safety) function is activated, the support system ECU 10 activates the light emitter when alerting the driver. You can change the publication color. Specifically, when the normal issuing color is, for example, blue, the issuing color when the target vehicle approaches the vehicle 1 to the extent that the PCS function is activated may be set to a warning color, such as red, for example.

以上に説明した実施形態及び変形例から導き出される発明の各種態様を以下に説明する。 Various aspects of the invention derived from the embodiments and modifications described above will be described below.

発明の一態様に係る運転支援装置は、センサの出力に基づいて自車両の周囲に存在する移動体を認識する認識手段と、前記認識手段の認識結果に基づいて、前記移動体の挙動を予測する予測手段と、を備え、前記予測手段は、前記移動体が前記センサの死角域に進入すると予測される場合、前記移動体が前記死角域に進入する前の前記認識結果に基づいて前記移動体の前記死角域進入後の挙動を予測するとともに、前記移動体が前記死角域に存在する場合、前記移動体の挙動の予測を中断するというものである。 A driving support device according to one aspect of the invention includes a recognition unit that recognizes a moving object existing around the host vehicle based on the output of a sensor, and a behavior of the moving object is predicted based on the recognition result of the recognition unit. and a prediction means for predicting the movement of the moving body based on the recognition result before the moving body enters the blind spot area, when the moving body is predicted to enter the blind spot area of the sensor. The system predicts the behavior of a body after it enters the blind spot area, and if the moving body is present in the blind spot area, the prediction of the behavior of the moving body is interrupted.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う運転支援装置もまた本発明の技術的範囲に含まれるものである。 The present invention is not limited to the embodiments described above, and can be modified as appropriate within the scope or idea of the invention that can be read from the claims and the entire specification. are also included within the technical scope of the present invention.

1、2…車両、10…支援系ECU、11…外界認識部、12…予測部 DESCRIPTION OF SYMBOLS 1, 2... Vehicle, 10... Support system ECU, 11... External world recognition part, 12... Prediction part

Claims (1)

運転支援装置であって、
センサの出力に基づいて自車両の周囲に存在する移動体を認識する認識手段と、
前記認識手段の認識結果に基づいて、前記移動体の挙動を予測する予測手段と、
を備え、
前記予測手段は、前記移動体が前記センサの死角域に進入すると予測される場合、前記移動体が前記死角域に進入する前の前記認識結果に基づいて前記移動体の前記死角域進入後の挙動を予測するとともに、前記移動体が前記死角域に存在する場合、前記移動体の挙動の予測を中断し、
当該運転支援装置は、前記自車両に対する前記移動体の相対位置に応じた発光器の一の領域を発光させることによって、前記自車両のドライバに注意喚起を行い、
当該運転支援装置は、前記自車両の前方を撮像した画像の消失点と、前記自車両のヨー角とから決定される角度に応じて、前記発光器における前記一の領域の位置を変更する
ことを特徴とする運転支援装置。
A driving support device,
recognition means for recognizing moving objects existing around the host vehicle based on the output of the sensor;
prediction means for predicting the behavior of the moving object based on the recognition result of the recognition means;
Equipped with
When the mobile object is predicted to enter the blind spot area of the sensor, the prediction means is configured to determine whether the mobile object will enter the blind spot area based on the recognition result before the mobile object enters the blind spot area. predicting the behavior and, if the moving body is present in the blind spot area, interrupting the prediction of the behavior of the moving body ;
The driving support device alerts the driver of the own vehicle by causing one area of the light emitter to emit light according to the relative position of the moving object with respect to the own vehicle;
The driving support device changes the position of the one region in the light emitter according to an angle determined from a vanishing point of an image taken in front of the own vehicle and a yaw angle of the own vehicle.
A driving support device characterized by:
JP2019236691A 2019-12-26 2019-12-26 Driving support device Active JP7347207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019236691A JP7347207B2 (en) 2019-12-26 2019-12-26 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236691A JP7347207B2 (en) 2019-12-26 2019-12-26 Driving support device

Publications (2)

Publication Number Publication Date
JP2021105833A JP2021105833A (en) 2021-07-26
JP7347207B2 true JP7347207B2 (en) 2023-09-20

Family

ID=76919283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236691A Active JP7347207B2 (en) 2019-12-26 2019-12-26 Driving support device

Country Status (1)

Country Link
JP (1) JP7347207B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225615A (en) 2014-05-29 2015-12-14 トヨタ自動車株式会社 Drive assist system
WO2016157892A1 (en) 2015-04-03 2016-10-06 株式会社デンソー Information presentation apparatus
JP2018101295A (en) 2016-12-20 2018-06-28 トヨタ自動車株式会社 Object detection device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3985748B2 (en) * 2003-07-08 2007-10-03 日産自動車株式会社 In-vehicle obstacle detection device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225615A (en) 2014-05-29 2015-12-14 トヨタ自動車株式会社 Drive assist system
WO2016157892A1 (en) 2015-04-03 2016-10-06 株式会社デンソー Information presentation apparatus
JP2018101295A (en) 2016-12-20 2018-06-28 トヨタ自動車株式会社 Object detection device

Also Published As

Publication number Publication date
JP2021105833A (en) 2021-07-26

Similar Documents

Publication Publication Date Title
US10710580B2 (en) Tailgating situation handling by an automated driving vehicle
US9981658B2 (en) Autonomous driving vehicle system
JP4900211B2 (en) Driving support device, inter-vehicle distance setting method
US11449060B2 (en) Vehicle, apparatus for controlling same, and control method therefor
JP7185408B2 (en) vehicle controller
JPWO2019043847A1 (en) Travel control device, vehicle, and travel control method
US20210122369A1 (en) Extensiview and adaptive lka for adas and autonomous driving
JP7049283B2 (en) Vehicle control unit
CN111196217A (en) Vehicle assistance system
US20210229660A1 (en) Driving assist system
JP7317157B2 (en) Post-fusion of audio and visual detection in emergency vehicles
CN112193246A (en) Vehicle and method for performing inter-vehicle distance control
US11142189B2 (en) Vehicle control device
JP7414497B2 (en) Driving support device
US11327499B2 (en) Vehicle control system
CN113753051B (en) Vehicle control method, vehicle control program, and vehicle control system
US20230192081A1 (en) Method for controlling a distance-dependent cruise control system
JPH07125571A (en) Car-mounted equipment
JP7347207B2 (en) Driving support device
US11970167B2 (en) Driver assistance apparatus and driver assistance method
WO2022202256A1 (en) Vehicle control device and vehicle control method
JP3969287B2 (en) Vehicle notification device
JP2022169056A (en) Driving support device
US20230227028A1 (en) Driving assist device
US11760342B2 (en) Driving assist system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7347207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151