JP6756135B2 - Driving support method and driving support device - Google Patents

Driving support method and driving support device Download PDF

Info

Publication number
JP6756135B2
JP6756135B2 JP2016070378A JP2016070378A JP6756135B2 JP 6756135 B2 JP6756135 B2 JP 6756135B2 JP 2016070378 A JP2016070378 A JP 2016070378A JP 2016070378 A JP2016070378 A JP 2016070378A JP 6756135 B2 JP6756135 B2 JP 6756135B2
Authority
JP
Japan
Prior art keywords
vehicle
image
virtual image
driving support
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016070378A
Other languages
Japanese (ja)
Other versions
JP2017182543A (en
Inventor
草柳 佳紀
佳紀 草柳
則政 岸
則政 岸
吉郎 高松
吉郎 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016070378A priority Critical patent/JP6756135B2/en
Publication of JP2017182543A publication Critical patent/JP2017182543A/en
Application granted granted Critical
Publication of JP6756135B2 publication Critical patent/JP6756135B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、運転支援方法及び運転支援装置に関する。 The present invention relates to a driving support method and a driving support device.

従来より、自車両と後続車両の位置関係を乗員に通知する技術が知られている。例えば、特許文献1では、自車後方を撮影した画像上に所定間隔で並ぶアイコンを重畳し、合成した画像をモニタに表示している。 Conventionally, a technique for notifying an occupant of the positional relationship between the own vehicle and the following vehicle has been known. For example, in Patent Document 1, icons arranged at predetermined intervals are superimposed on an image of the rear of the own vehicle, and the combined image is displayed on the monitor.

特開2009−29203号公報JP-A-2009-292203

しかしながら、特許文献1では、自車両と後続車両の位置関係を、アイコンを基準として把握する必要があり、乗員が自車両と後続車両の位置関係を直感的に把握することが難しかった。 However, in Patent Document 1, it is necessary to grasp the positional relationship between the own vehicle and the following vehicle with reference to the icon, and it is difficult for the occupant to intuitively grasp the positional relationship between the own vehicle and the following vehicle.

本発明は、上記問題に鑑みて成されたものであり、その目的は、自車両と後続車両の位置関係を直感的に把握することができる運転支援方法及び運転支援装置を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a driving support method and a driving support device capable of intuitively grasping the positional relationship between the own vehicle and the following vehicle. ..

本発明の一態様に係る運転支援方法は、自車両の後方情報を取得し、取得した後方情報より後方画像を生成し、生成した後方画像上の自車両と後続車両との間に、自車両と後続車両の位置を示す仮想画像を重畳し、合成した画像をモニタに表示する。また、仮想画像上に記号を設定する。記号は、自車両の移動方向と反対の方向に移動するように設定され、自車両の車速が速いほど記号の移動速度が速くなる。 In the driving support method according to one aspect of the present invention, the rear information of the own vehicle is acquired, a rear image is generated from the acquired rear information, and the own vehicle is placed between the own vehicle and the following vehicle on the generated rear image. And a virtual image showing the position of the following vehicle are superimposed, and the combined image is displayed on the monitor. Also, a symbol is set on the virtual image. The symbol is set to move in the direction opposite to the moving direction of the own vehicle, and the faster the vehicle speed of the own vehicle, the faster the moving speed of the symbol.

本発明によれば、自車両と後続車両との位置関係を直感的に把握することができる。 According to the present invention, the positional relationship between the own vehicle and the following vehicle can be intuitively grasped.

図1は、本発明の実施形態に係る運転支援装置の構成図である。FIG. 1 is a configuration diagram of a driving support device according to an embodiment of the present invention. 図2は、本発明の実施形態に係る運転支援装置がモニタに表示する画像を説明する図である。FIG. 2 is a diagram illustrating an image displayed on a monitor by the driving support device according to the embodiment of the present invention. 図3は、本発明の実施形態に係る運転支援装置の動作例を説明するフローチャートである。FIG. 3 is a flowchart illustrating an operation example of the driving support device according to the embodiment of the present invention. 図4(a)、(b)、(c)は、本発明の実施形態に係る運転支援装置がモニタに表示する他の画像を説明する図である。4 (a), (b), and (c) are diagrams for explaining other images displayed on the monitor by the driving support device according to the embodiment of the present invention. 図5は、本発明の実施形態に係る運転支援装置がモニタに表示するさらに他の画像を説明する図である。FIG. 5 is a diagram illustrating still another image displayed on the monitor by the driving support device according to the embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are designated by the same reference numerals and the description thereof will be omitted.

図1を参照して本実施形態に係る運転支援装置1について説明する。図1に示すように、運転支援装置1は、右カメラ10と、左カメラ20と、画像処理回路30と、右ドアミラーモニタ40と、左ドアミラーモニタ50とを備える。 The driving support device 1 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the driving support device 1 includes a right camera 10, a left camera 20, an image processing circuit 30, a right door mirror monitor 40, and a left door mirror monitor 50.

右カメラ10は、自車右側の右ドアミラー設置位置の近傍に配置される。左カメラ20は、自車左側の左ドアミラー設置位置の近傍に配置される。右ドアミラー設置位置とは、自車後方の路面を含む後方を鏡に映し出す従来の自車右側のドアミラーの設置位置である。左ドアミラー設置位置も同様に、従来の自車左側のドアミラーの設置位置である。 The right camera 10 is arranged near the right door mirror installation position on the right side of the own vehicle. The left camera 20 is arranged near the left door mirror installation position on the left side of the vehicle. The right door mirror installation position is a conventional installation position of the door mirror on the right side of the vehicle, which reflects the rear including the road surface behind the vehicle in a mirror. Similarly, the installation position of the left door mirror is the installation position of the conventional door mirror on the left side of the own vehicle.

右カメラ10及び左カメラ20は、CCD(charge−coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有したカメラである。右カメラ10及び左カメラ20は、それぞれ自車両の右後方、左後方を撮像することにより後方情報を取得し、取得した後方情報に関する電気信号を画像処理回路30に出力する。 The right camera 10 and the left camera 20 are cameras having an image sensor such as a CCD (charge-coupled device) or a CMOS (complementary metal accessory semiconductor). The right camera 10 and the left camera 20 acquire rear information by photographing the right rear and the left rear of the own vehicle, respectively, and output an electric signal related to the acquired rear information to the image processing circuit 30.

画像処理回路30(コントローラ、制御部)は、右カメラ10及び左カメラ20から入力される電気信号を処理する回路であり、例えばIC、LSI等により構成される。画像処理回路30は、これを機能的に捉えた場合、ミラー画像生成部31と、後続車両検出部32と、記憶部33と、合成部34とに分類することができる。 The image processing circuit 30 (controller, control unit) is a circuit that processes electrical signals input from the right camera 10 and the left camera 20, and is composed of, for example, an IC, an LSI, or the like. When this is functionally captured, the image processing circuit 30 can be classified into a mirror image generation unit 31, a following vehicle detection unit 32, a storage unit 33, and a synthesis unit 34.

ミラー画像生成部31(生成回路)は、右カメラ10及び左カメラ20から入力される電気信号から右ドアミラーモニタ40及び左ドアミラーモニタ50に表示するミラー画像(後方画像)を生成する。ミラー画像生成部31は、生成したミラー画像を後続車両検出部32に出力する。 The mirror image generation unit 31 (generation circuit) generates a mirror image (rear image) to be displayed on the right door mirror monitor 40 and the left door mirror monitor 50 from the electric signals input from the right camera 10 and the left camera 20. The mirror image generation unit 31 outputs the generated mirror image to the following vehicle detection unit 32.

後続車両検出部32は、ミラー画像生成部31によって生成されたミラー画像を用いて、自車後方に存在する後続車両を検出する。後続車両の検出方法については、車両の特徴を探索するパターンマッチングなどの周知の方法を用いることができる。後続車両検出部32は、検出結果を合成部34に出力する。また、後続車両検出部32は、ミラー画像に複数の後続車両が写っている場合には、それら複数の後続車両を検出する。 The following vehicle detection unit 32 detects the following vehicle existing behind the own vehicle by using the mirror image generated by the mirror image generation unit 31. As a method for detecting the following vehicle, a well-known method such as pattern matching for searching the characteristics of the vehicle can be used. The following vehicle detection unit 32 outputs the detection result to the synthesis unit 34. Further, when a plurality of following vehicles are shown in the mirror image, the following vehicle detection unit 32 detects the plurality of following vehicles.

記憶部33には、ミラー画像に重畳するための仮想画像が各種記憶されている。 Various virtual images for superimposing on the mirror image are stored in the storage unit 33.

合成部34は、記憶部33に記憶されている仮想画像をミラー画像に重畳する。より詳しくは、合成部34は、自車両及び後続車両の位置を示す仮想画像をミラー画像に重畳する。そして、合成部34は、合成した画像を右ドアミラーモニタ40及び左ドアミラーモニタ50に出力する。 The compositing unit 34 superimposes the virtual image stored in the storage unit 33 on the mirror image. More specifically, the compositing unit 34 superimposes a virtual image showing the positions of the own vehicle and the following vehicle on the mirror image. Then, the compositing unit 34 outputs the composited image to the right door mirror monitor 40 and the left door mirror monitor 50.

右ドアミラーモニタ40及び左ドアミラーモニタ50は、自車右側の右ドアミラー設置位置、及び自車左側の左ドアミラー設置位置に配置される。右ドアミラーモニタ40及び左ドアミラーモニタ50は、例えば、防水加工を施した液晶ディスプレイ等を採用できる。なお、右ドアミラーモニタ40及び左ドアミラーモニタ50の形状は、従来のドアミラーと同様にラウンドした曲面形状としてもよく、市販モニタと同様に四角形状としてもよい。 The right door mirror monitor 40 and the left door mirror monitor 50 are arranged at the right door mirror installation position on the right side of the vehicle and the left door mirror installation position on the left side of the vehicle. For the right door mirror monitor 40 and the left door mirror monitor 50, for example, a waterproof liquid crystal display or the like can be adopted. The shape of the right door mirror monitor 40 and the left door mirror monitor 50 may be a round curved surface shape like a conventional door mirror, or a quadrangular shape like a commercially available monitor.

次に、図2を参照して運転支援装置1が右ドアミラーモニタ40に表示するミラー画像の一例を説明する。 Next, an example of a mirror image displayed on the right door mirror monitor 40 by the driving support device 1 will be described with reference to FIG.

図2に示すように、合成部34は、自車両M1の位置を示す仮想画像P1(第1仮想画像)と、自車両M1から見て右側を走行する後続車両M2の位置を示す仮想画像P2(第2仮想画像)をミラー画像上の自車両M1と後続車両M2との間に重畳する。また、仮想画像P1は、自車両M1が走行する車線から後続車両M2が走行する車線に向かって伸び、車線境界線を越える長さを有する。同様に、仮想画像P2は、後続車両M2が走行する車線から自車両M1が走行する車線に向かって伸び、車線境界線を越える長さを有する。このように仮想画像P1及びP2を、ミラー画像中の自車両M1と後続車両M2との間に重畳することにより、図2の矢印で示すように、乗員は、仮想画像P1から仮想画像P2までが車間距離であると一目で把握できる。すなわち、乗員は、自車両M1と後続車両M2との位置関係を直感的に把握できる。また、仮想画像P1と自車両M1は互いに離間した状態で表示されてもよく、互いに接した状態で表示されてもよい。仮想画像P2と後続車両M2も同様に、互いに離間してもよく、互いに接した状態で表示されてもよい。 As shown in FIG. 2, the compositing unit 34 has a virtual image P1 (first virtual image) showing the position of the own vehicle M1 and a virtual image P2 showing the position of the following vehicle M2 traveling on the right side of the own vehicle M1. (Second virtual image) is superimposed between the own vehicle M1 and the following vehicle M2 on the mirror image. Further, the virtual image P1 extends from the lane in which the own vehicle M1 travels toward the lane in which the following vehicle M2 travels, and has a length that exceeds the lane boundary line. Similarly, the virtual image P2 extends from the lane in which the following vehicle M2 travels toward the lane in which the own vehicle M1 travels, and has a length that exceeds the lane boundary line. By superimposing the virtual images P1 and P2 between the own vehicle M1 and the following vehicle M2 in the mirror image in this way, as shown by the arrow in FIG. 2, the occupant can move from the virtual image P1 to the virtual image P2. Can be grasped at a glance as the distance between vehicles. That is, the occupant can intuitively grasp the positional relationship between the own vehicle M1 and the following vehicle M2. Further, the virtual image P1 and the own vehicle M1 may be displayed in a state of being separated from each other, or may be displayed in a state of being in contact with each other. Similarly, the virtual image P2 and the following vehicle M2 may be separated from each other or may be displayed in contact with each other.

また、図2に示すように、合成部34は、仮想画像P1及びP2をミラー画像の路面に重畳するのが好ましい。これにより、仮想画像P1及びP2が浮いて見えなくなる。すなわち、仮想画像P1及びP2が路面に張り付いているように見えるため、乗員は、正確な車間距離を把握できる。 Further, as shown in FIG. 2, the compositing unit 34 preferably superimposes the virtual images P1 and P2 on the road surface of the mirror image. As a result, the virtual images P1 and P2 float and disappear. That is, since the virtual images P1 and P2 appear to be stuck to the road surface, the occupant can grasp the accurate inter-vehicle distance.

また、図2に示すように、合成部34は、自車両M1の後端部から後続車両M2の走行車線に向かって伸びる仮想画像P1を重畳し、後続車両M2の先端部から自車両M1の走行車線に向かって伸びる仮想画像P2を重畳するのが好ましい。一般に車間距離とは、自車両M1の後端部から後続車両M2の先端部までの距離である。このため、合成部34が、自車両M1の後端部及び後続車両M2の先端部から伸びるように仮想画像P1及びP2を重畳することにより、乗員は、自車両M1と後続車両M2との車間距離を正確に把握できる。なお、自車両M1の後端部とは、例えば自車両M1のリアバンパである。また、後続車両M2の先端部とは、例えば後続車両M2のフロントバンパである。 Further, as shown in FIG. 2, the synthesis unit 34 superimposes a virtual image P1 extending from the rear end portion of the own vehicle M1 toward the traveling lane of the following vehicle M2, and superimposes the virtual image P1 extending from the tip end portion of the following vehicle M2 to the own vehicle M1. It is preferable to superimpose the virtual image P2 extending toward the traveling lane. Generally, the inter-vehicle distance is the distance from the rear end of the own vehicle M1 to the front end of the following vehicle M2. Therefore, by superimposing the virtual images P1 and P2 so that the synthesis unit 34 extends from the rear end portion of the own vehicle M1 and the front end portion of the following vehicle M2, the occupant can move the distance between the own vehicle M1 and the following vehicle M2. You can accurately grasp the distance. The rear end portion of the own vehicle M1 is, for example, the rear bumper of the own vehicle M1. The tip of the following vehicle M2 is, for example, the front bumper of the following vehicle M2.

仮想画像P1及びP2は、形や色などが限定されるものではないが、自車両M1及び後続車両M2の影を示す画像であることが好ましい。一般に影は、路面に張り付いて映るため、合成部34が、影を示す画像として仮想画像P1及びP2を重畳することにより、仮想画像P1及びP2が路面に張り付いているように見える。これにより、乗員は、自車両M1と後続車両M2との車間距離を正確に把握できる。さらに、仮想画像P1及びP2が影のように見えることになるため、乗員が仮想画像P1及びP2に対して感じる違和感を低減することができる。 The virtual images P1 and P2 are not limited in shape and color, but are preferably images showing shadows of the own vehicle M1 and the following vehicle M2. Since shadows are generally reflected on the road surface, the composite unit 34 superimposes virtual images P1 and P2 as images showing shadows, so that the virtual images P1 and P2 appear to be attached to the road surface. As a result, the occupant can accurately grasp the inter-vehicle distance between the own vehicle M1 and the following vehicle M2. Further, since the virtual images P1 and P2 look like shadows, it is possible to reduce the discomfort felt by the occupant with respect to the virtual images P1 and P2.

また、合成部34は、仮想画像P1及びP2を走行車線に対し90度となるように重畳してもよく、自車両M1及び後続車両M2に対し90度となるように重畳してもよい。好ましくは、図2に示すように、合成部34は、仮想画像P1及びP2が平行となるように重畳する。このように仮想画像P1及びP2を重畳することにより、乗員は、車間距離の相対的な変化を直感的に把握できる。 Further, the compositing unit 34 may superimpose the virtual images P1 and P2 so as to be 90 degrees with respect to the traveling lane, or may superimpose the virtual images P1 and P2 so as to be 90 degrees with respect to the own vehicle M1 and the following vehicle M2. Preferably, as shown in FIG. 2, the compositing unit 34 superimposes the virtual images P1 and P2 so as to be parallel to each other. By superimposing the virtual images P1 and P2 in this way, the occupant can intuitively grasp the relative change in the inter-vehicle distance.

次に、図3に示すフローチャートを参照して、本実施形態に係る運転支援装置1の一動作例について説明する。このフローチャートは、例えばイグニッションスイッチがオンされたときに開始する。 Next, an operation example of the driving support device 1 according to the present embodiment will be described with reference to the flowchart shown in FIG. This flowchart starts, for example, when the ignition switch is turned on.

ステップS101において、右カメラ10及び左カメラ20は、自車後方を撮像し、撮像により取得した後方情報に関する電気信号を出力する。 In step S101, the right camera 10 and the left camera 20 take an image of the rear of the vehicle and output an electric signal related to the rear information acquired by the imaging.

ステップS102において、後続車両検出部32は、電気信号から生成されたミラー画像を用いて後続車両M2を検出する。後続車両検出部32が後続車両M2を検出した場合、ステップS103に処理が進む。後続車両検出部32が後続車両M2を検出しない場合、後続車両検出部32は待機する。 In step S102, the following vehicle detection unit 32 detects the following vehicle M2 using the mirror image generated from the electric signal. When the following vehicle detection unit 32 detects the following vehicle M2, the process proceeds to step S103. If the following vehicle detection unit 32 does not detect the following vehicle M2, the following vehicle detection unit 32 stands by.

ステップS103において、合成部34は、自車両M1及び後続車両M2の位置を示す仮想画像P1及びP2をミラー画像上に重畳する。 In step S103, the synthesis unit 34 superimposes virtual images P1 and P2 indicating the positions of the own vehicle M1 and the following vehicle M2 on the mirror image.

ステップS104において、合成部34は、合成画像を右ドアミラーモニタ40及び左ドアミラーモニタ50に出力する。 In step S104, the compositing unit 34 outputs the composite image to the right door mirror monitor 40 and the left door mirror monitor 50.

以上説明したように、本実施形態に係る運転支援装置1によれば、以下の作用効果が得られる。 As described above, according to the driving support device 1 according to the present embodiment, the following effects can be obtained.

運転支援装置1は、右カメラ10及び左カメラ20が撮像により取得した電気信号からミラー画像を生成し、ミラー画像上の自車両M1と後続車両M2との間に、自車両M1と後続車両M2の位置を示す仮想画像P1及びP2を重畳する。これにより、乗員は、仮想画像P1から仮想画像P2までが車間距離であると一目で把握できる。すなわち、乗員は、自車両M1と後続車両M2との位置関係を直感的に把握できる。 The driving support device 1 generates a mirror image from the electric signals acquired by the right camera 10 and the left camera 20 by imaging, and between the own vehicle M1 and the following vehicle M2 on the mirror image, the own vehicle M1 and the following vehicle M2. The virtual images P1 and P2 indicating the position of the above are superimposed. As a result, the occupant can grasp at a glance that the distance from the virtual image P1 to the virtual image P2 is the inter-vehicle distance. That is, the occupant can intuitively grasp the positional relationship between the own vehicle M1 and the following vehicle M2.

また、運転支援装置1は、自車両M1及び後続車両M2の位置を示す仮想画像P1及び仮想画像P2をミラー画像の路面に重畳する。これにより、仮想画像P1及びP2が浮いて見えなくなる。すなわち、仮想画像P1及びP2が路面に張り付いているように見えるため、乗員は、正確な車間距離を把握できる。 Further, the driving support device 1 superimposes the virtual image P1 and the virtual image P2 showing the positions of the own vehicle M1 and the following vehicle M2 on the road surface of the mirror image. As a result, the virtual images P1 and P2 float and disappear. That is, since the virtual images P1 and P2 appear to be stuck to the road surface, the occupant can grasp the accurate inter-vehicle distance.

仮想画像P1及びP2は、自車両M1及び後続車両M2の影を示す画像である。このように運転支援装置1が影を示す画像として仮想画像P1及びP2を重畳することにより、仮想画像P1及びP2が路面に張り付いているように見える。これにより、乗員は、自車両M1と後続車両M2との車間距離を正確に把握できる。さらに、仮想画像P1及びP2が影のように見えることになるため、乗員が仮想画像P1及びP2に対して感じる違和感を低減することができる。 The virtual images P1 and P2 are images showing shadows of the own vehicle M1 and the following vehicle M2. By superimposing the virtual images P1 and P2 as images showing shadows by the driving support device 1 in this way, the virtual images P1 and P2 appear to be attached to the road surface. As a result, the occupant can accurately grasp the inter-vehicle distance between the own vehicle M1 and the following vehicle M2. Further, since the virtual images P1 and P2 look like shadows, it is possible to reduce the discomfort felt by the occupant with respect to the virtual images P1 and P2.

また、運転支援装置1は、自車両M1の後端部から後続車両M2の走行車線に向かって伸びる仮想画像P1を重畳し、後続車両M2の先端部から自車両M1の走行車線に向かって伸びる仮想画像P2を重畳する。これにより、乗員は、正確な車間距離を把握できる。 Further, the driving support device 1 superimposes a virtual image P1 extending from the rear end portion of the own vehicle M1 toward the traveling lane of the following vehicle M2, and extends from the tip end portion of the following vehicle M2 toward the traveling lane of the own vehicle M1. The virtual image P2 is superimposed. As a result, the occupant can grasp the accurate inter-vehicle distance.

また、運転支援装置1は、仮想画像P1及びP2が平行となるように重畳する。これにより、乗員は、車間距離の相対的な変化を直感的に把握できる。 Further, the driving support device 1 superimposes the virtual images P1 and P2 so as to be parallel to each other. As a result, the occupant can intuitively grasp the relative change in the inter-vehicle distance.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 Although embodiments of the present invention have been described as described above, the statements and drawings that form part of this disclosure should not be understood to limit the invention. Various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art from this disclosure.

本実施形態では、仮想画像P1及びP2について影を示す画像として説明したが、仮想画像P1及びP2は影を示す画像に限定されない。例えば、図4(a)に示すように、合成部34は、仮想画像P2を線として重畳してもよい。同様に、図4(b)に示すように、合成部34は、仮想画像P1を線として重畳してもよい。また、図4(c)に示すように、合成部34は、仮想画像P1及びP2を線として重畳してもよい。また、線の代わりに楕円でもよい。このような各形状の仮想画像P1及びP2は、予め記憶部33に記憶されていてもよく、画像処理回路30が都度生成してもよい。なお、合成部34は、仮想画像P1及びP2の形状に関わらず、仮想画像P1及びP2が平行になるように重畳するのが好ましい。 In the present embodiment, the virtual images P1 and P2 have been described as images showing shadows, but the virtual images P1 and P2 are not limited to images showing shadows. For example, as shown in FIG. 4A, the compositing unit 34 may superimpose the virtual image P2 as a line. Similarly, as shown in FIG. 4B, the compositing unit 34 may superimpose the virtual image P1 as a line. Further, as shown in FIG. 4C, the compositing unit 34 may superimpose the virtual images P1 and P2 as lines. Also, an ellipse may be used instead of the line. The virtual images P1 and P2 having such shapes may be stored in the storage unit 33 in advance, or may be generated by the image processing circuit 30 each time. It is preferable that the compositing unit 34 superimposes the virtual images P1 and P2 so as to be parallel to each other regardless of the shapes of the virtual images P1 and P2.

また、運転支援装置1は、自車両M1の周囲の環境を取得し、取得した周囲の環境に基づく仮想画像P1及びP2を重畳してもよい。周囲の環境とは、例えば、走行中の時間帯が昼間であるか夜間であるか、路面が雨で濡れているか雪が積もっているかなどの走行中の環境をいう。これらの周囲の環境は、周知のセンサなどで取得することができる。周囲の環境が夜間の場合、仮想画像P1及びP2を影により示す画像として重畳すると視認性が低下する。そこで、合成部34は、仮想画像P1及びP2のコントラストや輝度などを変更し、夜間でも視認性が低下しない仮想画像P1及びP2を重畳する。また、周囲の環境に基づいて仮想画像P1及びP2を透視可能な透明性を有する画像としてもよい。このように、周囲の環境に基づく仮想画像P1及びP2を重畳することにより、乗員は、周囲の環境に関わらず自車両M1と後続車両M2との位置関係を直感的に把握できる。 Further, the driving support device 1 may acquire the surrounding environment of the own vehicle M1 and superimpose the virtual images P1 and P2 based on the acquired surrounding environment. The surrounding environment refers to the environment during driving, for example, whether the driving time zone is daytime or nighttime, whether the road surface is wet with rain or snow is piled up. These surrounding environments can be acquired by a well-known sensor or the like. When the surrounding environment is nighttime, if the virtual images P1 and P2 are superimposed as an image shown by a shadow, the visibility is lowered. Therefore, the compositing unit 34 changes the contrast and brightness of the virtual images P1 and P2, and superimposes the virtual images P1 and P2 whose visibility does not deteriorate even at night. Further, the virtual images P1 and P2 may be transparent images that can be seen through based on the surrounding environment. By superimposing the virtual images P1 and P2 based on the surrounding environment in this way, the occupant can intuitively grasp the positional relationship between the own vehicle M1 and the following vehicle M2 regardless of the surrounding environment.

また、仮想画像P1及びP2は車線境界線を越える長さを有する画像として説明したが、車線境界線がない道路の場合は、所定の長さを有する仮想画像P1及びP2を用いればよい。所定の長さについては、実験やシミュレーションを通じて求めることができる。 Further, although the virtual images P1 and P2 have been described as images having a length exceeding the lane boundary line, in the case of a road having no lane boundary line, virtual images P1 and P2 having a predetermined length may be used. The predetermined length can be obtained through experiments and simulations.

また、図5に示すように、合成部34は、仮想画像P1及びP2に記号を設定してもよい。ここで、「記号」とは、走行中の車両周囲の流れを示すもので、模様(例えば、波模様、グラデーション、肌理、木目など)、マーク(例えば、三角マーク、四角マークなど)等により示される。また、記号は、必ずしも、模様やマークに限定される必要はなく、疎らに見えるものであれば何でもよい。この記号は、車両走行に併せて動かすことにより、後方画像に写る車両周囲の動きに同化させることができる。これにより、乗員は、後方画像に対する違和感を抑制することができる。本実施形態では、仮想画像P1及びP2はそれぞれ、自車両M1及び後続車両M2の位置を示すので、アスファルトの模様を記号として設定する。なお、記号は、アスファルトの模様に限定されるものではなく、道路上の白線や、路肩など、車両の走行に併せて動いて見えるものを対象物としてもよい。画像処理回路30は、自車両M1の車速や移動方向に基づいて、記号の移動方向、及び記号の移動速度を設定する。また、画像処理回路30は、自車両M1の移動方向の反対となる方向に記号が移動するように記号を設定する。これにより、自車両M1の車速が速いほど記号の移動速度も速くなり、自車両M1の移動方向に応じた方向に記号が移動する。これにより、自車両M1の動きに適合するように記号が移動するため、記号は路面に張り付いているように見える。このように仮想画像P1及びP2に記号を設定することにより、乗員は、正確な車間距離を把握できる。なお、自車両M1の車速や移動方向は、車速センサや舵角センサを用いて取得することができる。 Further, as shown in FIG. 5, the synthesis unit 34 may set symbols for the virtual images P1 and P2. Here, the "symbol" indicates the flow around the vehicle while traveling, and is indicated by a pattern (for example, wavy pattern, gradation, texture, grain, etc.), a mark (for example, a triangle mark, a square mark, etc.). Is done. Further, the symbol does not necessarily have to be limited to a pattern or a mark, and may be anything that looks sparse. This symbol can be assimilated with the movement around the vehicle in the rear image by moving it along with the running of the vehicle. As a result, the occupant can suppress a sense of discomfort with respect to the rear image. In the present embodiment, since the virtual images P1 and P2 indicate the positions of the own vehicle M1 and the following vehicle M2, respectively, the asphalt pattern is set as a symbol. The symbol is not limited to the asphalt pattern, and may be an object such as a white line on the road or a road shoulder that appears to move in accordance with the running of the vehicle. The image processing circuit 30 sets the moving direction of the symbol and the moving speed of the symbol based on the vehicle speed and the moving direction of the own vehicle M1. Further, the image processing circuit 30 sets the symbol so that the symbol moves in the direction opposite to the moving direction of the own vehicle M1. As a result, the faster the vehicle speed of the own vehicle M1, the faster the moving speed of the symbol, and the symbol moves in the direction corresponding to the moving direction of the own vehicle M1. As a result, the symbol moves to match the movement of the own vehicle M1, so that the symbol appears to stick to the road surface. By setting the symbols in the virtual images P1 and P2 in this way, the occupant can grasp the accurate inter-vehicle distance. The vehicle speed and moving direction of the own vehicle M1 can be acquired by using a vehicle speed sensor or a steering angle sensor.

また、仮想画像P1及びP2は、常に表示されていると乗員が煩わしく感じる場合があるため、所定の条件が満たされた場合に限り表示するようにしてもよい。例えば、合成部34は、ウィンカースイッチの信号をトリガとして、仮想画像P1及びP2を重畳するようにしてもよい。詳しくは、合成部34は、ウィンカースイッチの信号を受信するまでは、仮想画像P1及びP2を重畳する処理を実施しないで待機し、ウィンカースイッチの信号を受信すると、仮想画像P1及びP2を重畳する。乗員が後続車両M2との車間距離を確認するシーンの一つは、車線変更時である。そこで、合成部34がウィンカースイッチの信号を受信した場合に仮想画像P1及びP2を重畳することにより、乗員が知りたい情報を、乗員が知りたいときに提供することができる。また、ウィンカースイッチの信号をトリガとして仮想画像P1及びP2を重畳する場合は、運転中常に仮想画像P1及びP2を重畳する場合と比較して、乗員が感じる煩わしさを低減でき、かつ画像処理に要するリソースを節約することができる。なお、車線変更が完了し、ウィンカースイッチの信号を受信しなくなった際には、合成部34は仮想画像P1及びP2を消去する。 Further, since the virtual images P1 and P2 may be annoying to the occupant if they are always displayed, they may be displayed only when a predetermined condition is satisfied. For example, the synthesis unit 34 may superimpose the virtual images P1 and P2 by using the signal of the blinker switch as a trigger. Specifically, the synthesis unit 34 waits without performing the process of superimposing the virtual images P1 and P2 until the signal of the winker switch is received, and when the signal of the winker switch is received, the virtual images P1 and P2 are superposed. .. One of the scenes in which the occupant confirms the inter-vehicle distance from the following vehicle M2 is when the lane is changed. Therefore, when the compositing unit 34 receives the signal of the blinker switch, the virtual images P1 and P2 are superimposed so that the information that the occupant wants to know can be provided when the occupant wants to know. Further, when the virtual images P1 and P2 are superimposed by using the signal of the blinker switch as a trigger, the annoyance felt by the occupant can be reduced and the image processing can be performed as compared with the case where the virtual images P1 and P2 are always superimposed during driving. You can save the required resources. When the lane change is completed and the blinker switch signal is no longer received, the compositing unit 34 erases the virtual images P1 and P2.

また、左右のドアミラー画像を表示する場所は、右ドアミラーモニタ40及び左ドアミラーモニタ50に限定されない。例えば、インストルメントパネルに設けたディスプレイ、ヘッドアップディスプレイ、カーナビゲーション装置のディスプレイ、ピラーディスプレイなどに表示してもよい。 Further, the place where the left and right door mirror images are displayed is not limited to the right door mirror monitor 40 and the left door mirror monitor 50. For example, it may be displayed on a display provided on an instrument panel, a head-up display, a display of a car navigation device, a pillar display, or the like.

また、合成部34は、車両の属性に応じて仮想画像P1及びP2を重畳してもよい。例えば、自車両M1の後方にバイクが存在する場合、合成部34はバイクの大きさに合わせて仮想画像P2を重畳してもよい。バイクはミラー画像上の大きさが他の車両と比較して小さいため、合成部34が仮想画像P2を重畳することにより、車間距離だけでなく、バイクの存在を乗員に知らせることができる。 Further, the compositing unit 34 may superimpose the virtual images P1 and P2 according to the attributes of the vehicle. For example, when a motorcycle exists behind the own vehicle M1, the compositing unit 34 may superimpose the virtual image P2 according to the size of the motorcycle. Since the size of the motorcycle on the mirror image is smaller than that of other vehicles, the compositing unit 34 superimposes the virtual image P2 so that not only the inter-vehicle distance but also the existence of the motorcycle can be notified to the occupants.

また、本実施形態では、ミラー画像に仮想画像P1及びP2を重畳したが、自車両M1の後方を写すミラー自体に仮想画像を重畳するようにしてもよい。自車両M1の後方をミラーで写す場合は、後続車両M2を画像から識別するのではなく、ソナー、カメラなど自車両周囲の状況を検出可能な各種センサにより、後続車両M2を認識するようにしてもよい。 Further, in the present embodiment, the virtual images P1 and P2 are superimposed on the mirror image, but the virtual image may be superimposed on the mirror itself that captures the rear of the own vehicle M1. When the rear of the own vehicle M1 is photographed with a mirror, the following vehicle M2 is recognized by various sensors such as sonar and a camera that can detect the situation around the own vehicle, instead of identifying the following vehicle M2 from the image. May be good.

なお、上述の実施形態の各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。 Each function of the above-described embodiment can be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as a processing device including an electric circuit. Processing circuits also include devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.

10 右カメラ
20 左カメラ
30 画像処理回路
31 ミラー画像生成部
32 後続車両検出部
33 記憶部
34 合成部
40 右ドアミラーモニタ
50 左ドアミラーモニタ
10 Right camera 20 Left camera 30 Image processing circuit 31 Mirror image generation unit 32 Following vehicle detection unit 33 Storage unit 34 Synthesis unit 40 Right door mirror monitor 50 Left door mirror monitor

Claims (7)

撮像により自車両の後方情報を取得する撮像素子と、前記後方情報より後方画像を生成するコントローラと、前記後方画像を表示するモニタと、を備える運転支援装置の運転支援方法において、
前記後方画像上の前記自車両と後続車両との間に、前記自車両と前記後続車両の位置を示す仮想画像を重畳し、
前記仮想画像上に記号を設定し、
前記記号は、前記自車両の移動方向と反対の方向に移動するように設定され、前記自車両の車速が速いほど前記記号の移動速度が速くなる
ことを特徴とする運転支援方法。
In a driving support method of a driving support device including an image sensor that acquires rear information of the own vehicle by imaging, a controller that generates a rear image from the rear information, and a monitor that displays the rear image.
A virtual image showing the positions of the own vehicle and the following vehicle is superimposed between the own vehicle and the following vehicle on the rear image .
Set a symbol on the virtual image and
The symbol is set to move in a direction opposite to the moving direction of the own vehicle, and the faster the vehicle speed of the own vehicle, the faster the moving speed of the symbol.
A driving support method characterized by that .
前記仮想画像を重畳することは、
前記仮想画像を路面に重畳することを含むことを特徴とする請求項1に記載の運転支援方法。
Superimposing the virtual image
The driving support method according to claim 1, wherein the virtual image is superimposed on a road surface.
前記仮想画像を重畳することは、
前記自車両と前記後続車両の影を示す前記仮想画像を重畳することを含むことを特徴とする請求項1または2に記載の運転支援方法。
Superimposing the virtual image
The driving support method according to claim 1 or 2, wherein the virtual image showing the shadow of the own vehicle and the following vehicle is superimposed.
前記仮想画像を重畳することは、
前記自車両の後端部に第1仮想画像を重畳し、かつ前記後続車両の先端部に第2仮想画像を重畳することを含むことを特徴とする請求項1〜のいずれか1項に記載の運転支援方法。
Superimposing the virtual image
The present invention according to any one of claims 1 to 3 , wherein the first virtual image is superimposed on the rear end portion of the own vehicle and the second virtual image is superimposed on the front end portion of the following vehicle. The described driving support method.
前記仮想画像を重畳することは、
前記第1仮想画像と、前記第2仮想画像とが平行になるように重畳することを含むことを特徴とする請求項に記載の運転支援方法。
Superimposing the virtual image
The driving support method according to claim 4 , wherein the first virtual image and the second virtual image are superimposed so as to be parallel to each other.
前記自車両の周囲の環境を検出することをさらに含み、
前記仮想画像を重畳することは、
検出された前記周囲の環境に応じて前記仮想画像を重畳することを含むことを特徴とする請求項1〜のいずれか1項に記載の運転支援方法。
Further including detecting the environment around the own vehicle,
Superimposing the virtual image
The driving support method according to any one of claims 1 to 5 , wherein the virtual image is superimposed according to the detected surrounding environment.
撮像により自車両の後方情報を取得する撮像素子と、
前記撮像素子によって取得された前記後方情報より後方画像を生成する生成回路と、
前記生成回路によって生成された前記後方画像を表示するモニタと、
前記自車両と後続車両の位置を示す仮想画像を前記後方画像上の前記自車両と前記後続車両との間に重畳する制御部と
を備え、
前記制御部は、前記仮想画像上に記号を設定し、
前記記号は、前記自車両の移動方向と反対の方向に移動するように設定され、前記自車両の車速が速いほど前記記号の移動速度が速くなる
ことを特徴とする運転支援装置。
An image sensor that acquires the rear information of the own vehicle by imaging,
A generation circuit that generates a rear image from the rear information acquired by the image sensor, and
A monitor that displays the rear image generated by the generation circuit, and
The Bei example and a control unit that superimposes between the host vehicle and the following vehicle on the rearward image virtual image indicating the position of the host vehicle and the following vehicle,
The control unit sets a symbol on the virtual image and sets a symbol.
The symbol is set to move in a direction opposite to the moving direction of the own vehicle, and the faster the vehicle speed of the own vehicle, the faster the moving speed of the symbol. ..
JP2016070378A 2016-03-31 2016-03-31 Driving support method and driving support device Active JP6756135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016070378A JP6756135B2 (en) 2016-03-31 2016-03-31 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070378A JP6756135B2 (en) 2016-03-31 2016-03-31 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2017182543A JP2017182543A (en) 2017-10-05
JP6756135B2 true JP6756135B2 (en) 2020-09-16

Family

ID=60007021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070378A Active JP6756135B2 (en) 2016-03-31 2016-03-31 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP6756135B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7128096B2 (en) * 2018-11-26 2022-08-30 本田技研工業株式会社 Video display device
JP7283059B2 (en) * 2018-11-28 2023-05-30 株式会社アイシン Perimeter monitoring device
WO2022250117A1 (en) * 2021-05-27 2022-12-01 株式会社デンソー Vehicle display system, vehicle display method, and vehicle display program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4749958B2 (en) * 2006-07-05 2011-08-17 本田技研工業株式会社 Driving assistance device
JP2009029203A (en) * 2007-07-25 2009-02-12 Honda Motor Co Ltd Driving support device
JP4986070B2 (en) * 2008-03-19 2012-07-25 マツダ株式会社 Ambient monitoring device for vehicles
JP5178361B2 (en) * 2008-07-09 2013-04-10 本田技研工業株式会社 Driving assistance device

Also Published As

Publication number Publication date
JP2017182543A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
CN105308620B (en) Information processing apparatus, proximity object notification method, and program
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
WO2016002163A1 (en) Image display device and image display method
US8854466B2 (en) Rearward view assistance apparatus displaying cropped vehicle rearward image
JP4389173B2 (en) Vehicle display device
JP6586849B2 (en) Information display device and information display method
JP7077616B2 (en) Display control device and display control method
JP2007221200A (en) Vehicle periphery monitoring system
JP6756135B2 (en) Driving support method and driving support device
JP2009227245A (en) Operation device for on-vehicle equipment
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2010116086A (en) On-vehicle display, display method, and display program
US10740909B2 (en) Drive recorder
JP2009166624A (en) Rear monitoring device and rear monitoring method for vehicle
JP2020068515A (en) Image processing apparatus
JP2018142884A (en) Bird's eye video creation device, bird's eye video creation system, bird's eye video creation method, and program
JP7047586B2 (en) Vehicle display control device
JP6327115B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2019188855A (en) Visual confirmation device for vehicle
JP6552285B2 (en) In-vehicle display device and vehicle rear image display method
US11938863B2 (en) Peripheral image generation device and display control method
JP6662655B2 (en) Vehicle image display device
JP2019153932A (en) Soil notification device
JP2006224927A (en) Device for visual recognition around vehicle
JP2009029340A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R151 Written notification of patent or utility model registration

Ref document number: 6756135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151