JP3638132B2 - Drawing device - Google Patents

Drawing device Download PDF

Info

Publication number
JP3638132B2
JP3638132B2 JP2001182017A JP2001182017A JP3638132B2 JP 3638132 B2 JP3638132 B2 JP 3638132B2 JP 2001182017 A JP2001182017 A JP 2001182017A JP 2001182017 A JP2001182017 A JP 2001182017A JP 3638132 B2 JP3638132 B2 JP 3638132B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
deriving
predicted trajectory
steering angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001182017A
Other languages
Japanese (ja)
Other versions
JP2002079898A (en
Inventor
伸彦 安井
崇 吉田
篤 飯阪
明 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001182017A priority Critical patent/JP3638132B2/en
Publication of JP2002079898A publication Critical patent/JP2002079898A/en
Application granted granted Critical
Publication of JP3638132B2 publication Critical patent/JP3638132B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、描画装置に関し、より特定的には、車両の運転を支援する運転支援装置に組み込むことが可能な描画装置に関する。さらに詳しく述べると、車両に固定される撮像装置により取り込まれた画像を基礎として、車両の周囲を表す出力画像を作成する描画装置に関する。
【0002】
【従来の技術】
従来から、上述のような描画装置を組み込んだ運転支援装置の研究・開発が盛んに行われている。従来の運転支援装置は、車両に搭載されており、一般的に、撮像装置と、操舵角センサと、演算部と、描画装置と、表示装置とを備えている。撮像装置は、車両の所定位置に固定されており、車両の全周囲の内、自身の視野角で規定される領域の状況を表す画像(以下、撮影画像と称する)を取り込む。また、操舵角センサは、車両の所定位置に固定されており、当該車両のステアリングの舵角量を検出する。演算部は、操舵角センサが検出した舵角量から、車両がこれから辿る予測軌跡を演算する。描画装置は、演算部が演算した予測軌跡を、撮像装置が取り込んだ撮影画像上に描画して、図20に示すような出力画像を生成する。表示装置は、描画装置が生成した出力画像を表示する。
【0003】
図20のような出力画像が表示装置で表示されることにより、当該ドライバは、現在のステアリング操作で、車両が障害物にぶつかることなく駐車スペースに納まるか否かの判断することができる。特に、舵角量が適当でない場合には、予測軌跡が駐車スペースから外れて表示されるので、ドライバはステアリングの操作を調整しやすくなる。
【0004】
また、以上のような運転支援装置の中には、特公平2−36417号に開示されているように、予測軌跡の近くに存在する障害物との距離を測定するアクティブセンサをさらに備えているものがある。演算部は、アクティブセンサから得られる距離に基づいて、自身が演算した予測軌跡において、撮影画像上に描画すべき部分(以下、描画予測軌跡と称する)を決定する。これによって、描画装置は、距離の測定対象となった障害物の直前で切れる描画予測軌跡を、撮影画像上に描画する。
【0005】
【発明が解決しようとする課題】
次に、従来の運転支援装置が有する2つの問題点を説明する。第1に、撮影画像の基調色は、車両の現在位置に応じて変わりうる。例えば、舗装された駐車場では、アスファルトの色が基調色となるが、未舗装の駐車場では、土の色を基調色になる。しかしながら、従来の運転支援装置では、予測軌跡の色が固定的に設定されているため、上述の基調色と似てしまう場合がある。かかる場合、ドライバが出力画像上で予測軌跡を瞬時に視認できない場合があるという問題点があった。
【0006】
第2に、従来の運転支援装置では、予測軌跡は、図20に示すように、撮影画像上に線で描かれるだけであるから、車両が移動できる限界をドライバが瞬時に理解できないという問題点があった。より具体的には、今、図21に示すように、従来の運転支援装置を有する車両Vusr が障害物Vbst が存在する方向に向かっている。このような状況では、車両Vusr は、予測軌跡Pp と障害物Vbst の表面との交点Pcrg で接触せずに、障害物Vbst の隅Pcnr と最初に接触する。つまり、車両Vusr が移動できる限界点は、図21に示すような状況では、障害物Vbst の隅Pcnr である。以上のように、たとえ、上記公報に開示されているように、障害物の直前で切れるように予測軌跡が描かれたとしても、上述の問題点は依然として残る。
【0007】
それゆえに、本発明の目的は、予測軌跡をドライバが視認しやすい出力画像を生成できる描画装置を提供することである。
また、本発明の他の目的は、車両が移動できる限界をドライバが理解しやすい出力画像を生成できる描画装置を提供することである。
【0008】
【課題を解決するための手段および発明の効果】
上記目的を達成するために、本発明の第1の局面は、車両の運転支援のために、当該車両の周囲を表す出力画像を作成する描画装置であって、車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する取得部と、取得部により得られた操舵角に基づいて、車両がこれから移動する予測軌跡を導出する導出部と、導出部により導出された予測軌跡に重畳すべきインジケータを格納する格納部と、車両に固定された撮像装置により取り込まれた撮影画像において、車両に近い側から遠い方に向かって順番にかつ間欠的に、格納部に格納されているインジケータを導出部が導出した予測軌跡に沿って重畳して、出力画像を生成する画像生成部とを備える。
【0009】
また、好ましくは、描画装置はさらに、導出部により導出された予測軌跡に基づいて、格納部に格納されているインジケータを、撮像装置により取り込まれた撮影画像のどこに重畳するかを示す重畳位置データを生成するデータ生成部を備える。ここで、画像生成部は、データ生成部により生成された重畳位置データに基づいて、格納部に格納されているインジケータを、撮像装置により取り込まれた撮影画像に重畳する。
【0010】
また、好ましくは、画像生成部は、予め定められた時間帯では、撮影画像上に、予測軌跡を重畳し、他の時間帯では、当該予測軌跡を重畳しない。
【0011】
また、好ましくは、描画装置はさらに、導出部により導出された予測軌跡から、予め定められた距離の間隔を有する複数の点の座標を算出し、算出された各座標に、車両に近いものから順に番号を割り当て、さらに、割り当てた番号及び算出された座標から少なくとも構成される組みを複数個含む重畳位置データを生成するデータ生成部を備える。ここで、画像生成部は、データ生成部により生成された重畳位置データに含まれる番号に従って座標を順番に選択し、格納部に格納されているインジケータを、撮像装置により取り込まれた撮影画像に順番に重畳する。
【0012】
上記第1の局面によれば、予測軌跡は、間欠的に表示されるので、出力画像上で目立つ。これによって、予測軌跡をドライバが視認しやすい出力画像を生成できる描画装置を提供することができる。
【0013】
また、本発明の第2の局面は、車両の運転支援のために、当該車両の周囲を表す出力画像を作成する描画装置であって、車両に設置された測距センサから、当該車両の周囲に存在する障害物までの距離を取得する第1の取得部と、第1の取得部により得られた距離に基づいて、車両が移動可能な限界点を導出する第1の導出部と、車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第2の取得部と、第2の取得部により得られた操舵角に基づいて、車両がこれから移動する予測軌跡を導出する第2の導出部と、第1の導出部により導出された限界点と、第2の導出部により導出された予測軌跡とに基づいて、車両がこれから動くと予測される領域の形状を表す予測走行領域を生成する領域生成部と、車両に固定された撮像装置により取り込まれた撮影画像に、領域生成部で生成された予測走行領域を重畳して、出力画像を生成する画像生成部とを備える。
【0014】
また、好ましくは、第1の導出部は、車両に備わる両方の車輪毎に予測軌跡を生成する。さらに、領域生成部は、第1の導出部により導出された限界点を通過する線分と、第2の導出部により導出された各予測軌跡とで囲まれる領域の形状を表す予測走行領域を生成する。
【0015】
また、好ましくは、第1の取得部は、車両に備わる複数の測距センサのそれぞれから、当該車両の周囲に存在する障害物までの距離を取得する。ここで、描画装置はさらに、第1の取得部により取得された距離に基づいて、障害物の表面上の複数の点を示す座標を算出する座標算出部を備える。また、第1の導出部は、座標算出部により算出された各点の座標に対してハフ変換を行い、その結果、障害物の隅の座標を、限界点として導出する。
【0016】
上記第2の局面によれば、出力画像は、予測軌跡と限界点とに基づいて生成されるので、車両が移動できる限界をドライバが理解しやすい出力画像を生成できる描画装置を提供することができる。
【0017】
また、本発明の第3の局面は、車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成する方法であって、車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第1の取得ステップと、第1の取得ステップで得られた操舵角に基づいて、車両がこれから移動する予測軌跡を導出する導出ステップと、導出ステップで導出された予測軌跡に重畳すべきインジケータを、描画装置に備わる記憶装置から取得する第2の取得ステップと、車両に固定された撮像装置により取り込まれた撮影画像において、車両に近い側から遠い方に向かって順番にかつ間欠的に、第2の取得ステップで取得されたインジケータを導出ステップで導出された予測軌跡に沿って重畳して、出力画像を生成する画像生成ステップとを備える。
【0018】
また、本発明の第4の局面は、車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成する方法であって、車両に設置された測距センサから、当該車両の周囲に存在する障害物までの距離を取得する第1の取得ステップと、第1の取得ステップで得られた距離に基づいて、車両が移動可能な限界点を導出する第1の導出ステップと、車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第2の取得ステップと、第2の取得ステップで得られた操舵角に基づいて、車両がこれから移動する予測軌跡を導出する第2の導出ステップと、第1の導出ステップで導出された限界点と、第2の導出ステップで導出された予測軌跡とに基づいて、車両がこれから動くと予測される領域の形状を表す予測走行領域を生成する領域生成ステップと、車両に固定された撮像装置により取り込まれた撮影画像に、領域生成ステップで生成された予測走行領域を重畳して、出力画像を生成する画像生成ステップとを備える。
【0019】
また、本発明の第5の局面は、車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成するためのコンピュータプログラムであって、車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第1の取得ステップと、第1の取得ステップで得られた操舵角に基づいて、車両がこれから移動する予測軌跡を導出する導出ステップと、導出ステップで導出された予測軌跡に重畳すべきインジケータを、描画装置に備わる記憶装置から取得する第2の取得ステップと、車両に固定された撮像装置により取り込まれた撮影画像において、車両に近い側から遠い方に向かって順番にかつ間欠的に、第2の取得ステップで取得されたインジケータを導出ステップで導出された予測軌跡に沿って重畳して、出力画像を生成する画像生成ステップとを備える。
コンピュータプログラムは典型的には、記憶媒体に格納される。
【0020】
また、本発明の第6の局面は、車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成するためのコンピュータプログラムであって、車両に設置された測距センサから、当該車両の周囲に存在する障害物までの距離を取得する第1の取得ステップと、第1の取得ステップで得られた距離に基づいて、車両が移動可能な限界点を導出する第1の導出ステップと、車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第2の取得ステップと、第2の取得ステップ で得られた操舵角に基づいて、車両がこれから移動する予測軌跡を導出する第2の導出ステップと、第1の導出ステップで導出された限界点と、第2の導出ステップで導出された予測軌跡とに基づいて、車両がこれから動くと予測される領域の形状を表す予測走行領域を生成する領域生成ステップと、車両に固定された撮像装置により取り込まれた撮影画像に、領域生成ステップで生成された予測走行領域を重畳して、出力画像を生成する画像生成ステップとを備える。
コンピュータプログラムは典型的には、記憶媒体に格納される
【0021】
【発明の実施の形態】
図1は、本発明の第1の実施形態に係る描画装置Urnd1のハードウェア構成を示すブロック図である。図1において、描画装置Urnd1は、プロセッサ1、プログラムメモリ2およびワーキングエリア3から構成される。プログラムメモリ2は、典型的には、ROM(Read Only Memory)である。プログラムメモリ2には、プロセッサ1の処理手順を規定するプログラムPGa が格納される。プロセッサ1は、以上のプログラムPGa に従って、図2に示すように、実車両Vusr (図3参照)の左側予測軌跡Pp1および右側予測軌跡Pp2を、インジケータSind1およびSind2を使って示す出力画像Sout を生成する。ここで、左側予測軌跡Pp1および右側予測軌跡Pp2とは、実車両Vusr の左側および右側の後輪がこれから辿る軌跡である。また、インジケータSind1およびSind2は、プログラムメモリ2に予め格納されているオブジェクトであって、予め定められた形状(例えば円形や長方形)を有しており、左側予測軌跡Pp1および右側予測軌跡Pp2を表す。
【0022】
ワーキングエリア3は、典型的には、RAM(Random Access Memory)であり、プロセッサ1がプログラムPGa を実行する際に使用される。以上の描画装置Urnd1は、典型的には、運転支援装置Uast1に組み込まれる。運転支援装置Uast1は、実車両Vusr に設置され、描画装置Urnd1の他にも、少なくとも1台の撮像装置4と、操舵角センサ5と、表示装置6とを備えている。
【0023】
撮像装置4は、図3に示すように実車両Vusr の後部に埋め込まれ、当該実車両Vusr の後方に広がる光景を撮影して、図4に示すような撮影画像Scpt を生成する。また、操舵角センサ5は、実車両Vusr の操舵角θを検出して、プロセッサ1に送信する。操舵角θとは、初期位置を基準として、ステアリングが回転した角度を意味する。初期位置は、一般的に、ステアリングが切られていない状態、つまり、実車両Vusr が直進姿勢にある状態におけるステアリングの位置を意味する。さらに、表示装置6は、典型的には液晶ディスプレイである。
【0024】
次に、以上の運転支援装置Uast1の動作について説明する。ドライバが運転支援装置Uast1による支援が必要なタイミングになると、プロセッサ1は、プログラムPGa の実行を開始する。
【0025】
ここで、図5は、プログラムPGa に記述されているプロセッサ1の処理手順を示すフローチャートである。図5において、プロセッサ1は、1つの撮像指示Icpt を生成し、撮像装置4に送信する(ステップS1)。ここで、図5に示すように、プロセッサ1は、ステップS10が終了すると、ステップS1に戻ってきて、次の撮像指示Icpt を生成する。今回の撮像指示Icpt から、次の撮像指示Icpt までの時間間隔は、実質的にt1 秒になるように、プログラムPGa は記述されている。t1 は、例えば、表示装置6が1秒間に30フレームの出力画像Sout を表示できる値に選ばれる。撮像指示Icpt は、撮像装置4に撮像を指示するための信号である。撮像装置4は、受信指示Icpt に応答して、図4に示すような撮影画像Scpt を取り込み、ワーキングエリア3に予約されたフレームメモリ(図示せず)に格納する(ステップS2)。
【0026】
次に、プロセッサ1は、導出タイミングT1 になったか否かを判断する(ステップS3)。導出タイミングT1 は、プログラムPGa に予め記述されており、プロセッサ1がt2 秒に1回の割合で、左側予測軌跡Pp1および右側予測軌跡Pp2を導出するようなタイミングである。t2 は、ステアリングの操舵角θの変化量は時間に対して小さいことから、t1 よりも大きい値(例えば0.1秒)に選ばれる。
【0027】
プロセッサ1は、導出タイミングT1 であれば、検出指示Idtc を生成して、操舵角センサ5に送信する(ステップS4)。検出指示Idtc は、操舵角θの検出を操舵角センサ5に指示するための信号である。操舵角センサ5は、受信検出指示Idct に応答して、操舵角θを検出する。検出された操舵角θは、ワーキングエリア3に格納される(ステップS5)。
【0028】
次に、プロセッサ1は、今回得られた操舵角θに基づいて、左側予測軌跡Pp1および右側予測軌跡Pp2を導出する(ステップS6)。より具体的には、プロセッサ1は、アッカーマンモデルに従って、左側予測軌跡Pp1および右側予測軌跡Pp2の式を導出する。左側予測軌跡Pp1の式は、アッカーマンモデルによれば、予め定められた長さを有する円弧の式である。より具体的には、かかる円弧は、実車両Vusr の旋回中心を中心として有し、その半径は、当該旋回中心から、左側の後輪の回転中心を路面上に正投影した点までの距離に等しい。右側予測軌跡Pp2の式も、右側の後輪のものである点を除けば、左側予測軌跡Pp1と同様である。
【0029】
その後、プロセッサ1は、2個のインジケータSind1およびSind2の重畳位置データDspを生成して、ワーキングエリア3に格納する(ステップS7)。具体的には、例えば、ステップS6で、図6に示すような左側予測軌跡Pp1と右側予測軌跡Pp2が得られたとする。プロセッサ1は、かかる左側予測軌跡Pp1と右側予測軌跡Pp2上で、実車両Vusr (図示せず)に最も近い2点a0 およびb0 を算出する。さらに、プロセッサ1は、左側予測軌跡Pp1上で、点a0 から所定距離Δd だけ離れた点a1 と、右側予測軌跡Pp2上で、点b0 から所定距離Δd だけ離れた点b1 とを算出する。プロセッサ1は、同様の処理を繰り返して、図6に示すような、i組み(iは2以上の自然数)の(a0 ,b0 ),(a1 ,b1 ),…(a(i-1) ,b(i-1) )を決定する。さらに、(a0 ,b0 ),…(a(i-1) ,b(i-1) )の各組みには、実車両Vusr に近いものから順番に番号が割り当てられる。以上の番号が付された順番が付された、(a0 ,b0 ),…(a(i-1) ,b(i-1) )の各組みが重畳位置データDspとして、図7に示すように、ワーキングエリア3に格納される。
【0030】
次に、プロセッサ1は、上述の撮影画像Scpt と、上述の重畳位置データDspに基づいて、1フレーム分の出力画像Sout をフレームメモリ上で生成する(ステップS8)。出力画像Sout は、図2を参照して説明したように、実車両Vusr の周囲の状況(つまり、撮影画像Scpt )に、インジケータSind1およびSind2が重畳された画像である。ステップS8をより具体的に説明すると、プロセッサ1は、まず、ステップS7で得た重畳位置データDspから、順番に従って、現在未選択の点の組みの中から、最先の1組みを選択する。現時点では、いずれの点も選択されていないことから、点の組み(a0 ,b0 )が選択される。さらに、プロセッサ1は、フレームメモリ上の撮影画像Scpt における点(a0 ,b0 )に、インジケータSind1およびSind2を重畳する。以上の重畳処理により、フレームメモリ上には、図8に示すような、1フレーム分の出力画像Sout が生成される。
【0031】
次に、プロセッサ1は、フレームメモリ上の出力画像Sout を表示装置6に転送する(ステップS9)。表示装置6は、受信画像Sout を自身の画面上に表示する。これによって、今回、表示装置6上には、出力画像Sout として、図8に示すように、実車両Vusr の周囲の状況を表す画像上の1組みの点(a0 ,b0 )に、左側予測軌跡Pp1および右側予測軌跡Pp2を示す2つのインジケータSind1およびSind2が合成されたものが表示される。
【0032】
次に、プロセッサ1は、図5の処理を終了するか否かを判断し(ステップS10)、終了しないと判断した場合には、フレームメモリに次の出力画像Sout を作成するために、ステップS1に戻る。その後、ステップS1およびS2が実行されることにより、フレームメモリには、新しい撮影画像Scpt が格納される。そして、次のステップS3で、プロセッサ1は、導出タイミングT1 になっていないと判断した場合、インジケータSind1およびSind2の重畳位置の変更タイミングT2 になったか否かを判断する(ステップS11)。変更タイミングT2 は、プログラムPGa に予め記述され、プロセッサ1がt3 秒に1回の割合で、インジケータSind1およびSind2の重畳位置を変更するようなタイミングである。ここで、t3 を小さくしすぎると、インジケータSind1が点a0 から点a1 へと早く移動しすぎることになり、ドライバが表示装置6上でインジケータSind1を目で追えなくなる。以上の観点から、t3 はt1 よりも大きい値(例えば0.05秒)に選ばれる。
【0033】
プロセッサ1は、ステップS11で変更タイミングT2 でないと判断した場合、ステップS2で格納された撮影画像Scpt と、重畳位置データDspにおいて現在選択されている点の組み(現時点では点(a0 ,b0 ))とに基づいて、1フレーム分の出力画像Sout をフレームメモリ上で生成する(ステップS12)。つまり、今回の出力画像Sout でも、撮影画像Scpt の点(a0 ,b0 )に、インジケータSind1およびSind2が重畳される。次に、プロセッサ1は、フレームメモリ上の出力画像Sout を表示装置6に転送して(ステップS13)、表示装置6に、今回生成した出力画像Sout を表示させる。
【0034】
次に、プロセッサ1は、ステップS10において、図5の処理を終了しないと判断した場合には、ステップS1に戻る。その後、ステップS1およびS2が実行されることにより、フレームメモリには、新しい撮影画像Scpt が格納される。さらに、ステップS3において、導出タイミングT1 でないと判断され、ステップS11で変更タイミングT2 であると判断されると、ステップS14に進む。そして、プロセッサ1は、ワーキングエリア3内の重畳位置データDspにおいて、未選択の点の組みの内、順番が最先のものを選択する(ステップS14)。前回選択されていた組みが(a0 ,b0 )の場合、本ステップS14では(a1 ,b1 ))が選択される。
【0035】
次に、プロセッサ1は、撮影画像Scpt と、重畳位置データDspにおいて現在選択されている点の組み(現時点では点(a1 ,b1 ))とに基づいて、1フレーム分の出力画像Sout をフレームメモリ上で生成する(ステップS15)。つまり、今回の出力画像Sout は、図9に示すように、フレームメモリ上の撮影画像Scpt における点(a1 ,b1 )に、インジケータSind1およびSind2が重畳されたものである。次に、プロセッサ1は、フレームメモリ上の出力画像Sout を表示装置6に転送して(ステップS16)、表示装置6に、今回の出力画像Sout を表示させる。
【0036】
以上のステップS1〜S16をステップS10で図5の処理を終了すると判断するまで繰り返す。これによって、インジケータSind1およびSind2は、ステップS9で算出された点a0 →a1 ,…→a(i-1) および点b0 →b1 ,…→b(i-1) に重畳される。そのため、インジケータSind1およびSind2は、表示装置6の画面上には、左側予測軌跡Pp1と右側予測軌跡Pp2に沿いつつ、実車両Vusr の進行方向に向かって移動するように表示される。さらに、インジケータSind1およびSind2が間欠的に表示されるので、表示装置6上には、左側予測軌跡Pp1と右側予測軌跡Pp2が間欠的に現れる。これによって、左側予測軌跡Pp1と右側予測軌跡Pp2が従来よりも強調されるため、ドライバは、出力画像Sout 上で両者を瞬時に把握することができる。
【0037】
また、プロセッサ1は、導出タイミングT1 に従って操舵角センサ5から操舵角θを受け取る毎に、左側予測軌跡Pp1および右側予測軌跡Pp2を導出し直す。そのため、表示装置6には、ドライバのステアリング操作に追従した正確な左側予測軌跡Pp1および右側予測軌跡Pp2が表示される。
【0038】
なお、第1の実施形態において、変更タイミングT2 は可変であってもよい。例えば、インジケータSind1およびSind2の重畳位置が実車両Vusr に相対的に近い場合には、変更タイミングT2 が早くくるようにプログラムPGa を記述してもよい。これによって、左側予測軌跡Pp1および右側予測軌跡Pp2の視認性がさらに向上する。
【0039】
また、第1の実施形態において、左側予測軌跡Pp1において、連続する2つの点aj からa(j+1) への距離Δd は一定であった。ここで、jは、0からi−1の整数である。しかし、距離Δd は一定でなくともよい。例えば、点aj が実車両Vusr に相対的に近い場合、距離Δd を相対的に小さい値に設定して、点a(j+1) を選択するように、プログラムPGa は記述されてもよい。逆に、点aj が実車両Vusr に相対的に近い場合、距離Δd を相対的に大きい値に設定して、点a(j+1) を選択するように、プログラムPGa は記述されてもよい。これらによって、左側予測軌跡Pp1および右側予測軌跡Pp2の視認性がさらに向上する。
【0040】
図10は、本発明の第2の実施形態に係る描画装置Urnd2のハードウェア構成を示すブロック図である。図10において、描画装置Urnd2は、プロセッサ21、プログラムメモリ22およびワーキングエリア23から構成される。プログラムメモリ22は、典型的には、ROM(Read Only Memory)であり、プロセッサ21の処理手順を規定するプログラムPGb を格納している。プロセッサ21は、以上のプログラムPGb に従って、図11に示すように、実車両Vusr (図3参照)の予測軌跡Pp を示す出力画像Sout を生成する。ここで、予測軌跡Pp とは、ここで、実車両Vusr の左側および右側の後輪がこれから辿る軌跡であり、後で説明する表示時間帯Pdtの間のみ表示される。
【0041】
ワーキングエリア23は、典型的には、RAM(Random Access Memory)であり、プロセッサ21がプログラムPGb を実行する際に使用される。以上の描画装置Urnd2は、典型的には、運転支援装置Uast2に組み込まれる。運転支援装置Uast2は、運転支援装置Uast1と比較すると、描画装置Urnd1が描画装置Urnd2に代わる点でのみ相違する。それ以外に運転支援装置Uast1およびUast2の間に、構成面の相違点はないので、図10において、図1に相当する構成には、同一の参照符号を付し、その説明を省略する。
【0042】
次に、以上の運転支援装置Uast2の動作について説明する。ドライバが運転支援装置Uast2による支援が必要なタイミングになると、プロセッサ21は、プログラムメモリ22内のプログラムPGb の実行を開始する。
【0043】
ここで、図12は、プログラムPGb に記述されているプロセッサ21の処理手順を示すフローチャートである。図12のフローチャートは、図5のものと比較すると、いくつかの同じステップを含んでいる。そのため、図12において、図5のステップに相当するものには同じステップ番号を付し、その説明を省略する。
【0044】
まず、プロセッサ21は、ステップ1〜S6を実行することにより、予測軌跡Pp の式を導出する。その後、プロセッサ21は、ステップS21に進み、ステップS2で格納された撮影画像Scpt と、ステップS6で導出した予測軌跡Pp に基づいて、1フレーム分の出力画像Sout をフレームメモリ上で生成する。より具体的には、プロセッサ21は、導出した予測軌跡Pp の全体を出力画像Sout 上に描画して、図11に示すような出力画像Sout を生成する。
【0045】
次に、プロセッサ21は、ステップS9を行って、フレームメモリ上の出力画像Sout を表示装置6に転送し表示させる。その後、プロセッサ21は、図12の処理を終了するか否かを判断し(ステップS10)、終了しないと判断した場合には、フレームメモリに次の出力画像Sout を作成するために、ステップS1に戻る。その後、ステップS1およびS2が実行されることにより、フレームメモリには、新しい撮影画像Scpt が格納される。そして、次のステップS3で、プロセッサ1は、導出タイミングT1 になっていないと判断した場合、予測軌跡Pp の表示時間帯Pdtか否かを判断する(ステップS22)。表示時間帯Pdtは、プログラムPGb に予め記述され、本実施形態では、t4 秒毎に訪れる。つまり、予測軌跡Pp の表示および非表示は、t4 秒毎に切り替わるとする。ただし、t4 を小さくしすぎると、予測軌跡Pp が表示されているのか、非表示であるのかが、ドライバには視認できなくなる。以上の観点から、t4 は、t1 よりも大きい値(例えば0.1秒)に選ばれる。
【0046】
プロセッサ21は、表示時間帯Pdtである場合、ステップS21に進み、予測軌跡Pp が描画された出力画像Sout (図11参照)をフレームメモリ上で生成する。次に、プロセッサ21は、ステップS9を行って、フレームメモリ上の出力画像Sout を表示装置6に転送し表示させる。その後、プロセッサ21は、図12の処理を終了するか否かを判断し(ステップS10)、終了しないと判断した場合には、フレームメモリに次の出力画像Sout を作成するために、ステップS1に戻る。その後、ステップS1およびS2が実行されることにより、フレームメモリには、新しい撮影画像Scpt が格納される。さらに、ステップS3において、導出タイミングT1 でないと判断され、ステップS22で表示時間帯Pdtでないと判断されると、ステップS23に進む。そして、プロセッサ21は、ステップS2で格納された撮影画像Scpt (図4参照)をそのまま、出力画像Sout として、表示装置6に転送する(ステップS23)。表示装置6は、受信出力画像Sout を表示する。
【0047】
プロセッサ21は、以上のステップS23までの処理を、ステップS10で図12の処理を終了すると判断するまで繰り返す。これによって、予測軌跡Pp は、表示時間帯Pdtの間でのみ表示され、それ以外の時間帯では表示されない。かかる表示および非表示の切り替えは交互に行われ、予測軌跡Pp は間欠的に表示される。このように、予測軌跡Pp が強調されるため、ドライバは出力画像Sout 上で予測軌跡Pp を視認し易くなる
【0048】
図13は、本発明の第3の実施形態に係る描画装置Urnd3のハードウェア構成を示すブロック図である。図13において、描画装置Urnd3は、プロセッサ41、プログラムメモリ42およびワーキングエリア43から構成される。プログラムメモリ42は、典型的には、ROM(Read Only Memory)である。プログラムメモリ42には、プロセッサ1の処理手順を規定するプログラムPGc が格納される。プロセッサ41は、以上のプログラムPGc に従って、図14に示すように、実車両Vusr (図3参照)の予測走行領域Rptが路面Frd上に示された出力画像Sout を生成する。ここで、予走行領域Rptとは、簡単に説明すると、実車両Vusr がこれから動くと予測される領域であり、より具体的には、第1の実施形態で説明した左側予測軌跡Pp1と、右側予測軌跡Pp2と、限界点Plmt を通る線分Llmt とで囲まれる領域である。
【0049】
ワーキングエリア43は、典型的には、RAM(Random Access Memory)であり、プロセッサ41がプログラムPGc を実行する際に使用される。以上の描画装置Urnd3は、典型的には、運転支援装置Uast3に組み込まれる。運転支援装置Uast3は、運転支援装置Uast1と比較すると、描画装置Urnd1が描画装置Urnd3に代わる点と、請求項における測距センサの一例としての4個のアクティブセンサ441 〜444 をさらに備える点とで相違する。以上の2点以外に運転支援装置Uast3およびUast1の間に、構成面の相違はないので、図13において、図1に相当する構成には、同一の参照符号を付し、その説明を省略する。
【0050】
各アクティブセンサ441 〜444 は、図15(a)に示すように、実車両Vusr の後端に埋め込まれ、好ましくは、水平方向に並ぶように配置される。以上のように配置されるアクティブセンサ441 〜444 は、実車両Vusr の後方に向けて超音波または電波を出射し、その反射波を観測することにより、図15(b)に示すように、当該実車両Vusr の後方において最も近くに位置する障害物Vbst までの距離d1 〜d4 を検出する。
【0051】
次に、以上の運転支援装置Uast3の動作について説明する。ドライバが運転支援装置Uast3による支援が必要なタイミングになると、プロセッサ41は、プログラムメモリ42内のプログラムPGc の実行を開始する。
【0052】
ここで、図16は、プログラムPGc に記述されているプロセッサ41の処理手順を示すフローチャートである。図16において、プロセッサ41は、測距指示Imsr を生成し、すべてのアクティブセンサ441 〜444 に送信する(ステップS41)。測距指示Imsr とは、全てのアクティブセンサ441 〜444 に対して、距離d1 〜d4 を検出して、プロセッサ41に送信するように要求するための信号である。各アクティブセンサ441 〜444 は、受信測距指示Imsr に応答して、上述の距離d1 〜d4 を検出し、ワーキングエリア43に格納する(ステップS42)。
【0053】
次に、今回得られた距離d1 〜d4 に基づいて、プロセッサ41は、障害物Vbst の表面上の4点P1 〜P4 の座標値(x1 ,y1 )〜(x4 ,y4 )を算出する(ステップS43)。以下、図17を参照して、ステップS43の処理を具体的に説明する。図17には、実車両Vusr と、障害物Vbst と、2次元座標系とが描かれている。2次元座標系において、Y軸は、実車両Vusr が有する左側の後輪Wr1および右側の後輪Wr2の回転中心を結ぶ。また、X軸は、上記回転中心を結ぶ線分の垂直二等分線の内、水平面に平行な直線である。前述したように、各アクティブセンサ441 〜444 は実車両Vusr に対して固定されるから、各アクティブセンサ441 〜443 が超音波等を出射する部分の位置A1 〜A4 は、2次元座標系において既知の座標値(xa1,ya1)〜(xa4,ya4)で表すことができる。また、距離d1 〜d4 が得られる時に、各アクティブセンサ441 〜444 が超音波等を出射する角度φ1 〜φ4 も既知である。ここで、本実施形態では、角度φ1 〜φ4 は、上記X軸と、出射波とがなす角度であり、図17には、角度φ1 が代表的に示されている。以上のことから、上述の座標値(x1 ,y1 )は、(d1 ・cos φ1 +xa1,d1 ・sin φ1 +ya1)であり、座標値(x2 ,y2 )〜(x4 ,y4 )は、(d2 ・cos φ2 +xa2,d2 ・sin φ2 +ya2)〜(d4 ・cos φ4 +xa4,d4 ・sin φ4 +ya4)である。
【0054】
次に、今回算出された障害物Vbst 上の4点P1 〜P4 に基づいて、プロセッサ41は、限界点Plmt の一例としての障害物Vbst の隅Pcnr の座標値(xlmt ,ylmt )を算出する(ステップS44)。ここで、限界点Plmt とは、実車両Vusr が進行可能な限界を示しており、それ以上進行すると障害物Vbst にぶつかると想定される点である。以下、図18を参照して、ステップS44の処理を具体的に説明する。まず、プロセッサ41は、上述の点P1 〜P4 に対してハフ変換を行って、ρ軸とθ軸からなるハフ空間上の曲線C1 〜C4 を導出する。ここで、曲線C1 〜C4 は、次式(1)〜(4)で表される。
ρ=x1 ・cos θ+y1 ・sin θ…(1)
ρ=x2 ・cos θ+y2 ・sin θ…(2)
ρ=x3 ・cos θ+y3 ・sin θ…(3)
ρ=x4 ・cos θ+y4 ・sin θ…(4)
【0055】
次に、プロセッサ41は、上式(1)および(2)から、曲線C1 およびC2 のハフ空間上での交点Pc1の座標値(ρ1 ,θ1 )と、上式(2)〜(4)から、曲線C2 、C3 およびC4 のハフ空間上での交点Pc2の座標値(ρ2 ,θ2 )とを算出する。さらに、プロセッサ41は、以上の交点Pc1から直線P1 P2 を表す式を導出する。ここで、直線P1 P2 は、2次元座標系上で、次式(5)で表される。同様に、直線P2 P4 は次式(6)で表される。
y=(−cos θ1 ・x+ρ1 )/sin θ1 …(5)
y=(−cos θ2 ・x+ρ2 )/sin θ2 …(6)
以上の式(5)および(6)から、プロセッサ41は、直線P1 P2 と直線P2 P3 との交点の座標値を求め、上述の座標値(xlmt ,ylmt )とする。
【0056】
次に、プロセッサ41は、図5のステップS4およびS5と同様にして、車両Vusr の現在の操舵角θを受け取る(ステップS45およびS46)。
【0057】
次に、プロセッサ41は、図19に示す車両Vusr の旋回中心点Pcnt の上述の2次元座標系における座標値(xcnt ,ycnt )を算出する(ステップS47)。さらに、プロセッサ41は、上述の旋回中心点Pcnt を中心とし、車両Vusr が有する左側後輪Wr1および右側後輪Wr2の回転中心点を通る円Cr1およびCr2の式を導出する(ステップS48)。座標値xcnt およびycnt と、円Cr1およびCr2の式とは、周知のアッカーマンモデルに従って簡単に算出できるので、ここでは、ステップS47およびS48の説明を省略する。また、円Cr1およびCr2は、第1の実施形態における左側予測軌跡Pp1および右側予測軌跡Pp2を含む。
【0058】
次に、プロセッサ41は、ステップS44で得られた座標値(xcnr ,ycnr )と、ステップS47で得られた座標値(xcnt ,ycnt )とを通過する直線Llmt の式を導出する(ステップS49)。直線Llmt は、車両Vusr が障害物Vbst にぶつかることなく移動できる限界を規定する直線である。
【0059】
次に、プロセッサ41は、ステップS48で得られた円Cr1およびCr2と、ステップS49で得られた直線Llmt と、線分Lr12 とで囲まれる領域を表す図形を、予測走行領域Rptとして生成する(ステップS410)。ここで、線分Lr12 は、左側後輪Wr1および右側後輪Wr2の回転中心点を結ぶ。
【0060】
次に、プロセッサ41は、図5のステップS1およびS2と同様にして、撮影画像Scpt を撮像装置4から受け取る(ステップS411,S412)。さらに、プロセッサ41は、ステップS412で格納された撮影画像Scpt と、ステップS410で生成された予測走行領域Rptに基づいて、1フレーム分の出力画像Sout をフレームメモリ上で生成する(ステップS413)。より具体的には、プロセッサ41は、導出した予測走行領域Rptを撮像装置4からみたものに変形して、撮影画像Scpt 上に描画して、図14に示すような出力画像Sout を生成する。次に、プロセッサ41は、フレームメモリ上の出力画像Sout を表示装置6に転送して、表示させる(ステップS414)。プロセッサ41は、以上のステップS41〜S414をステップS415で図16の処理を終了すると判断するまで繰り返す。以上説明したように、予測走行領域Rptは、車両Vusr が移動可能な限界を示す限界点Plmt まで帯状に延びるので、ドライバは、表示装置6で、当該車両Vusr をどこまで移動させることができるかを瞬時に認識することができる。
【0061】
また、以上の第1〜第3の実施形態では、撮像装置4は、車両Vusr の後部に埋め込まれるとして説明したが、当該車両Vusr の前部に埋め込まれても良い。また、撮像装置4の台数は運転支援装置Uast1〜Uast3の設計要件に応じて定められればよく、何台でもよい。
【0062】
また、以上の第1〜第3の実施形態では、左側予測軌跡Pp1および右側予測軌跡Pp2、予測軌跡Pp ならびに予測走行領域Rptが撮影画像Scpt 上に描画されていた。しかし、これに限らず、プロセッサ1、21および41が撮影画像Scpt に何らかの画像処理を行い、画像処理された撮影画像Scpt に、左側予測軌跡Pp1および右側予測軌跡Pp2、予測軌跡Pp ならびに予測走行領域Rptが描画されても良い。以上の画像処理としては、撮影画像Scpt から、車両Vusr の直上に定められた仮想視点からみた車両の周囲画像を生成する処理が代表的である。
【0063】
また、以上の第1〜第3の実施形態では、プロセッサ1、21および41が撮像装置4に対して撮像指示Icpt を送信し、これを契機にして、撮影画像Scpt がフレームメモリに格納されていた。しかし、撮像装置4が、自発的に撮影画像Scpt を生成して、フレームメモリに格納してもよい。同様に、操舵角センサ5は、プロセッサ1、21および41からの検出指示Idct に応答してではなく、操舵角θを自発的に検出してもよい。
【0064】
また、以上の第3の実施形態では、4台のアクティブセンサ441 〜444 が車両Vusr に設置されていたが、その台数は1台以上であればよい。ただし、1台の場合には、アクティブセンサ44のレンズの向きを動的に制御して、出射波の角度φを広い範囲で振る必要がある。
【0065】
また、以上の第3の実施形態では、障害物Vbst までの距離d1 〜d4 を測定するためにアクティブセンサ441 〜444 を用いた。しかし、これに限らず、他の測距センサ、例えば、パッシブセンサが用いられてもよい。パッシブセンサの一例を構成するためには、車両Vusr の後方に向けられた少なくとも2台の撮像装置が必要となる。これら撮像装置はそれぞれは、車両Vusr の後方にある障害物Vbst を撮影する。さらに、プロセッサ41は、以上の撮像装置からの複数の撮影画像に映っている障害物Vbst までの距離を、視差に基づいて測定する(いわゆるステレオ視)。
【0066】
また、以上の第1〜第3の実施形態では、プログラムPGa 〜PGc は、描画装置Urnd1〜Urnd3に格納されていた。しかし、これに限らず、プログラムPGa 〜PGc は、CD−ROMに代表される記録媒体に記録された状態で頒布されてもよいし、インターネットに代表される通信ネットワークを通じて頒布されてもよい。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る描画装置Urnd1のハードウェア構成を示すブロック図である。
【図2】図1のプロセッサ1により生成される出力画像Sout を示す図である。
【図3】図1の撮像装置4の設置位置を示す図である。
【図4】図1の撮像装置4が生成する撮影画像Scpt を示す図である。
【図5】図1のプロセッサ1の処理手順を示すフローチャートである。
【図6】図5のステップS6で導出される左側予測軌跡Pp1および右側予測軌跡Pp2を示す図である。
【図7】図5のステップS7で生成される重畳位置データDspを示す図である。
【図8】図5のステップS8で生成される出力画像Sout を示す図である。
【図9】図5のステップS15で生成される出力画像Sout を示す図である。
【図10】本発明の第2の実施形態に係る描画装置Urnd2のハードウェア構成を示すブロック図である。
【図11】図10のプロセッサ21により生成される出力画像Sout を示す図である。
【図12】図10のプロセッサ21の処理手順を示すフローチャートである。
【図13】本発明の第3の実施形態に係る描画装置Urnd3のハードウェア構成を示すブロック図である。
【図14】図13のプロセッサ41により生成される出力画像Sout の示す図である。
【図15】図13のアクティブセンサ441 〜444 の設置位置を示す図である。
【図16】図13のプロセッサ41の処理手順を示すフローチャートである。
【図17】図16のステップS43の処理を説明するための図である。
【図18】図16のステップS44の処理を説明するための図である。
【図19】図16のステップS410で生成される予測走行領域Rptを詳細に示す図である。
【図20】従来の運転支援装置に表示される出力画像を示す図である
【図21】従来の運転支援装置が抱えている問題点を説明するための図である。
【符号の説明】
Uast1〜Uast3…運転支援装置
Urnd1〜Urnd3…描画装置
1,21,41…プロセッサ
2,22,42…プログラムメモリ
3,23,43…ワーキングエリア
4…撮像装置
5…操舵角センサ
6…表示装置
441 〜444 …アクティブセンサ
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a drawing apparatus, and more particularly to a drawing apparatus that can be incorporated into a driving support apparatus that supports driving of a vehicle. More specifically, the present invention relates to a drawing device that creates an output image representing the surroundings of a vehicle based on an image captured by an imaging device fixed to the vehicle.
[0002]
[Prior art]
  2. Description of the Related Art Conventionally, research and development of driving support devices incorporating the above-described drawing device has been actively conducted. A conventional driving support device is mounted on a vehicle and generally includes an imaging device, a steering angle sensor, a calculation unit, a drawing device, and a display device. The imaging device is fixed at a predetermined position of the vehicle, and captures an image (hereinafter referred to as a captured image) that represents the state of an area defined by its own viewing angle within the entire periphery of the vehicle. The steering angle sensor is fixed at a predetermined position of the vehicle and detects the steering angle amount of the steering of the vehicle. The calculation unit calculates a predicted trajectory that the vehicle will follow from the steering angle amount detected by the steering angle sensor. The drawing apparatus draws the predicted trajectory calculated by the calculation unit on the captured image captured by the imaging apparatus, and generates an output image as shown in FIG. The display device displays the output image generated by the drawing device.
[0003]
  When the output image as shown in FIG. 20 is displayed on the display device, the driver can determine whether the vehicle can fit in the parking space without hitting an obstacle by the current steering operation. In particular, when the amount of steering angle is not appropriate, the predicted trajectory is displayed outside the parking space, so that the driver can easily adjust the steering operation.
[0004]
  In addition, the driving support apparatus as described above further includes an active sensor that measures the distance to an obstacle existing near the predicted locus, as disclosed in Japanese Examined Patent Publication No. 2-36417. There is something. Based on the distance obtained from the active sensor, the calculation unit determines a portion to be drawn on the captured image (hereinafter referred to as a drawing prediction locus) in the prediction locus calculated by itself. As a result, the drawing apparatus draws on the captured image a drawing prediction trajectory that is cut immediately before the obstacle whose distance is to be measured.
[0005]
[Problems to be solved by the invention]
  Next, two problems of the conventional driving support device will be described. First, the base color of the captured image can vary depending on the current position of the vehicle. For example, in a paved parking lot, the color of asphalt is the base color, but in an unpaved parking lot, the color of soil is the base color. However, in the conventional driving support apparatus, since the color of the predicted trajectory is fixedly set, it may resemble the above-described basic color. In such a case, there is a problem that the driver may not be able to instantly visually recognize the predicted trajectory on the output image.
[0006]
  Secondly, in the conventional driving support device, as shown in FIG. 20, since the predicted trajectory is only drawn on the captured image with a line, the driver cannot instantly understand the limit that the vehicle can move. was there. More specifically, as shown in FIG. 21, the vehicle Vusr having the conventional driving support device is heading in the direction where the obstacle Vbst exists. In such a situation, the vehicle Vusr first contacts the corner Pcnr of the obstacle Vbst without contacting the intersection Pcrg between the predicted trajectory Pp and the surface of the obstacle Vbst. That is, the limit point at which the vehicle Vusr can move is the corner Pcnr of the obstacle Vbst in the situation shown in FIG. As described above, even if the predicted trajectory is drawn so as to be cut immediately before the obstacle as disclosed in the above publication, the above-described problem still remains.
[0007]
  Therefore, an object of the present invention is to provide a drawing device that can generate an output image in which a driver can easily recognize a predicted trajectory.
  Another object of the present invention is to provide a drawing device that can generate an output image that allows a driver to easily understand the limit of movement of a vehicle.
[0008]
[Means for Solving the Problems and Effects of the Invention]
  In order to achieve the above object, a first aspect of the present invention is a drawing apparatus for creating an output image representing the surroundings of a vehicle for driving support of the vehicle, the steering angle sensor being fixed to the vehicle From the acquisition unit for acquiring the current steering angle of the vehicle, a deriving unit for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained by the acquiring unit, and the predicted trajectory derived by the deriving unit In the storage section for storing the indicator to be superimposed on the captured image captured by the imaging device fixed to the vehicle, in order from the side closer to the vehicle toward the far sideAnd intermittentlyAnd an image generation unit that generates an output image by superimposing the indicator stored in the storage unit along the predicted trajectory derived by the deriving unit.
[0009]
  Preferably, the drawing apparatus further includes superimposition position data indicating where the indicator stored in the storage unit is superimposed on the captured image captured by the imaging device based on the predicted trajectory derived by the deriving unit. The data generation part which produces | generates is provided. Here, the image generation unit superimposes the indicator stored in the storage unit on the captured image captured by the imaging device based on the superimposition position data generated by the data generation unit.
[0010]
  Preferably, the image generation unit superimposes the predicted trajectory on the captured image in a predetermined time zone and does not superimpose the predicted trajectory in other time zones.
[0011]
  Preferably, the drawing apparatus further calculates the coordinates of a plurality of points having a predetermined distance interval from the predicted trajectory derived by the deriving unit, and the calculated coordinates are closer to the vehicle. A data generation unit that assigns numbers in order and further generates superposition position data including a plurality of sets composed at least of the assigned numbers and the calculated coordinates is provided. Here, the image generation unit sequentially selects the coordinates in accordance with the numbers included in the superimposed position data generated by the data generation unit, and the indicators stored in the storage unit are sequentially displayed on the captured images captured by the imaging device. Superimpose on.
[0012]
  According to the first aspect,Since the measurement trajectory is displayed intermittently, it stands out on the output image. Thus, it is possible to provide a drawing device that can generate an output image in which the driver can easily recognize the predicted locus.
[0013]
  In addition, the second aspect of the present invention isA drawing device that creates an output image representing the surroundings of a vehicle for driving support of the vehicle, and obtains a distance from a distance measuring sensor installed in the vehicle to an obstacle existing around the vehicle Based on a first acquisition unit, a first deriving unit for deriving a limit point at which the vehicle can move based on the distance obtained by the first acquisition unit, and a steering angle sensor fixed to the vehicle, the vehicle A second acquisition unit for acquiring the current steering angle, a second derivation unit for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained by the second acquisition unit,Region generation that generates a predicted travel region that represents the shape of the region where the vehicle is predicted to move based on the limit point derived by the first deriving unit and the predicted trajectory derived by the second deriving unit AndCaptured image captured by an imaging device fixed to the vehicleOverlaid with the predicted travel area generated by the area generation unit,An image generation unit that generates an output image.
[0014]
  Preferably, the first derivation unit generates a predicted locus for each of both wheels provided in the vehicle. Further, the region generation unit calculates a predicted travel region that represents the shape of the region surrounded by the line segment passing through the limit point derived by the first deriving unit and each predicted trajectory derived by the second deriving unit. Generate.
[0015]
  Preferably, the first acquisition unit acquires a distance from each of a plurality of distance measuring sensors provided in the vehicle to an obstacle existing around the vehicle. Here, the drawing apparatus further includes a coordinate calculation unit that calculates coordinates indicating a plurality of points on the surface of the obstacle based on the distance acquired by the first acquisition unit. The first deriving unit performs Hough transform on the coordinates of each point calculated by the coordinate calculating unit, and as a result, the coordinates of the corners of the obstacle are derived as limit points.
[0016]
  According to the second aspect,Since the output image is generated based on the predicted trajectory and the limit point, it is possible to provide a drawing device that can generate an output image in which the driver can easily understand the limit at which the vehicle can move.
[0017]
  A third aspect of the present invention is a method for generating an output image representing the surroundings of a vehicle, which is used in a drawing device that generates an output image for driving support of the vehicle, and is fixed to the vehicle. A first acquisition step of acquiring the current steering angle of the vehicle from the steering angle sensor, and a derivation step of deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained in the first acquisition step; The second acquisition step of acquiring the indicator to be superimposed on the predicted trajectory derived in the derivation step from the storage device provided in the drawing device, and the captured image captured by the imaging device fixed to the vehicle are close to the vehicle. In order from the side toward the far sideAnd intermittentlyAnd an image generation step of generating an output image by superimposing the indicator acquired in the second acquisition step along the predicted trajectory derived in the derivation step.
[0018]
  A fourth aspect of the present invention is a method for generating an output image representing the surroundings of a vehicle, which is used in a drawing device that generates an output image for driving support of the vehicle, and is installed in the vehicle. A first acquisition step for acquiring a distance from the distance measurement sensor to an obstacle existing around the vehicle, and a limit point at which the vehicle can move is derived based on the distance obtained in the first acquisition step. Based on the first derivation step, the second acquisition step of acquiring the current steering angle of the vehicle from the steering angle sensor fixed to the vehicle, and the steering angle obtained in the second acquisition step, Based on the second deriving step for deriving the predicted trajectory from which the vehicle will move, the limit point derived in the first deriving step, and the predicted trajectory derived in the second deriving step, the vehicle will move from now on Predicted Generate an output image by superimposing the predicted travel area generated in the area generation step on the captured image captured by the imaging device fixed to the vehicle and the area generation step for generating the predicted travel area representing the shape of the area And an image generation step.
[0019]
  According to a fifth aspect of the present invention, there is provided a computer program for generating an output image representing the surroundings of a vehicle, which is used in a drawing device that generates an output image for driving support of the vehicle. From the fixed steering angle sensor, based on the first acquisition step of acquiring the current steering angle of the vehicle and the steering angle obtained in the first acquisition step, a predicted trajectory from which the vehicle will move is derived. In a derivation step, a second acquisition step of acquiring an indicator to be superimposed on the predicted trajectory derived in the derivation step from a storage device provided in the drawing device, and a captured image captured by an imaging device fixed to the vehicle, In order from the side closer to the vehicle toward the far sideAnd intermittentlyAnd an image generation step of generating an output image by superimposing the indicator acquired in the second acquisition step along the predicted trajectory derived in the derivation step.
  The computer program is typically stored on a storage medium.
[0020]
  According to a sixth aspect of the present invention, there is provided a computer program for generating an output image representing a periphery of the vehicle, which is used in a drawing device that generates an output image for driving support of the vehicle. A first acquisition step for acquiring a distance from an installed distance measuring sensor to an obstacle existing around the vehicle, and a limit on which the vehicle can move based on the distance obtained in the first acquisition step A first deriving step for deriving a point; a second obtaining step for obtaining a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle; and a second obtaining step. Based on the steering angle obtained in step 2, the second derivation step for deriving a predicted trajectory from which the vehicle will move, the limit point derived in the first derivation step, and the prediction derived in the second derivation step Based on the trajectory, an area generation step that generates a predicted travel area that represents the shape of the area where the vehicle is predicted to move from now on, and an area generation step that generates a captured image captured by an imaging device fixed to the vehicle And an image generation step of generating an output image by superimposing the predicted travel area.
  Computer programs are typically stored on storage media.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
  FIG. 1 is a block diagram showing a hardware configuration of the drawing apparatus Urnd1 according to the first embodiment of the present invention. In FIG. 1, the drawing device Urnd 1 is composed of a processor 1, a program memory 2 and a working area 3. The program memory 2 is typically a ROM (Read Only Memory). The program memory 2 stores a program PGa that defines the processing procedure of the processor 1. In accordance with the above program PGa, the processor 1 generates an output image Sout indicating the left predicted trajectory Pp1 and the right predicted trajectory Pp2 of the actual vehicle Vusr (see FIG. 3) using the indicators Sind1 and Sind2, as shown in FIG. To do. Here, the left predicted trajectory Pp1 and the right predicted trajectory Pp2 are trajectories followed by the left and right rear wheels of the actual vehicle Vusr. Indicators Sind1 and Sind2 are objects stored in advance in the program memory 2 and have a predetermined shape (for example, a circle or a rectangle), and represent the left predicted trajectory Pp1 and the right predicted trajectory Pp2. .
[0022]
  The working area 3 is typically a RAM (Random Access Memory), and is used when the processor 1 executes the program PGa. The above drawing device Urnd1 is typically incorporated in the driving support device Uast1. The driving support device Uast1 is installed in the actual vehicle Vusr and includes at least one imaging device 4, a steering angle sensor 5, and a display device 6 in addition to the drawing device Urnd1.
[0023]
  As shown in FIG. 3, the imaging device 4 captures a scene embedded in the rear part of the actual vehicle Vusr and spreading behind the actual vehicle Vusr to generate a captured image Scpt as shown in FIG. Further, the steering angle sensor 5 detects the steering angle θ of the actual vehicle Vusr and transmits it to the processor 1. The steering angle θ means an angle at which the steering is rotated with reference to the initial position. The initial position generally means the position of the steering when the steering is not turned off, that is, when the actual vehicle Vusr is in a straight running posture. Further, the display device 6 is typically a liquid crystal display.
[0024]
  Next, the operation of the above driving support apparatus Uast1 will be described. When it is time for the driver to require assistance from the driving assistance device Uast1, the processor 1 starts executing the program PGa.
[0025]
  Here, FIG. 5 is a flowchart showing a processing procedure of the processor 1 described in the program PGa. In FIG. 5, the processor 1 generates one imaging instruction Icpt and transmits it to the imaging device 4 (step S1). Here, as shown in FIG. 5, when step S10 ends, the processor 1 returns to step S1 to generate the next imaging instruction Icpt. The program PGa is described so that the time interval from the current imaging instruction Icpt to the next imaging instruction Icpt is substantially t1 seconds. For example, t1 is selected to a value that allows the display device 6 to display an output image Sout of 30 frames per second. The imaging instruction Icpt is a signal for instructing the imaging apparatus 4 to perform imaging. In response to the reception instruction Icpt, the imaging device 4 captures a captured image Scpt as shown in FIG. 4 and stores it in a frame memory (not shown) reserved in the working area 3 (step S2).
[0026]
  Next, the processor 1 determines whether or not the derivation timing T1 has come (step S3). The derivation timing T1 is described in advance in the program PGa, and is a timing at which the processor 1 derives the left prediction trajectory Pp1 and the right prediction trajectory Pp2 at a rate of once per t2 seconds. t2 is selected to be larger than t1 (for example, 0.1 second) because the amount of change in the steering angle θ of the steering is small with respect to time.
[0027]
  If it is the derivation timing T1, the processor 1 generates a detection instruction Idtc and transmits it to the steering angle sensor 5 (step S4). The detection instruction Idtc is a signal for instructing the steering angle sensor 5 to detect the steering angle θ. The steering angle sensor 5 detects the steering angle θ in response to the reception detection instruction Idct. The detected steering angle θ is stored in the working area 3 (step S5).
[0028]
  Next, the processor 1 derives the left predicted trajectory Pp1 and the right predicted trajectory Pp2 based on the steering angle θ obtained this time (step S6). More specifically, the processor 1 derives expressions of the left prediction trajectory Pp1 and the right prediction trajectory Pp2 according to the Ackermann model. According to the Ackerman model, the formula of the left prediction trajectory Pp1 is an arc formula having a predetermined length. More specifically, such an arc has the turning center of the actual vehicle Vusr as the center, and the radius is the distance from the turning center to the point where the rotation center of the left rear wheel is orthographically projected on the road surface. equal. The formula of the right predicted trajectory Pp2 is the same as that of the left predicted trajectory Pp1 except that the right predicted trajectory Pp2 is for the right rear wheel.
[0029]
  Thereafter, the processor 1 generates superimposed position data Dsp of the two indicators Sind1 and Sind2 and stores them in the working area 3 (step S7). Specifically, for example, it is assumed that the left predicted trajectory Pp1 and the right predicted trajectory Pp2 as shown in FIG. 6 are obtained in step S6. The processor 1 calculates two points a0 and b0 that are closest to the actual vehicle Vusr (not shown) on the left predicted trajectory Pp1 and the right predicted trajectory Pp2. Further, the processor 1 calculates a point a1 separated from the point a0 by a predetermined distance Δd on the left predicted locus Pp1 and a point b1 separated from the point b0 by a predetermined distance Δd on the right predicted locus Pp2. The processor 1 repeats the same processing, and as shown in FIG. 6, i sets (i is a natural number of 2 or more) (a0, b0), (a1, b1), ... (a (i-1), b (i-1)) is determined. Furthermore, numbers (a0, b0),... (A (i-1), b (i-1)) are assigned numbers in order from the closest to the actual vehicle Vusr. As shown in FIG. 7, each set of (a0, b0),... (A (i-1), b (i-1)) to which the above numbers are attached is used as superposition position data Dsp. Are stored in the working area 3.
[0030]
  Next, the processor 1 generates an output image Sout for one frame on the frame memory based on the above-described captured image Scpt and the above-described superimposed position data Dsp (step S8). As described with reference to FIG. 2, the output image Sout is an image in which indicators Sind1 and Sind2 are superimposed on the situation around the actual vehicle Vusr (that is, the photographed image Scpt). Step S8 will be described more specifically. First, the processor 1 selects the earliest one set from the currently unselected set of points according to the order from the superposition position data Dsp obtained in step S7. At this time, since no point is selected, a set of points (a0, b0) is selected. Further, the processor 1 superimposes the indicators Sind1 and Sind2 on the point (a0, b0) in the captured image Scpt on the frame memory. Through the above superimposition processing, an output image Sout for one frame as shown in FIG. 8 is generated on the frame memory.
[0031]
  Next, the processor 1 transfers the output image Sout on the frame memory to the display device 6 (step S9). The display device 6 displays the received image Sout on its own screen. As a result, as shown in FIG. 8, on the display device 6 this time, as shown in FIG. 8, a set of points (a0, b0) on the image representing the situation around the actual vehicle Vusr is left-side predicted trajectory. A combination of two indicators Sind1 and Sind2 indicating Pp1 and right predicted trajectory Pp2 is displayed.
[0032]
  Next, the processor 1 determines whether or not to end the processing of FIG. 5 (step S10). If it is determined that the processing does not end, the processor 1 generates a next output image Sout in the frame memory in step S1. Return to. Thereafter, steps S1 and S2 are executed, whereby a new captured image Scpt is stored in the frame memory. In the next step S3, if the processor 1 determines that the derivation timing T1 is not reached, the processor 1 determines whether or not the superimposition position change timing T2 of the indicators Sind1 and Sind2 has come (step S11). The change timing T2 is described in advance in the program PGa, and is a timing at which the processor 1 changes the overlapping positions of the indicators Sind1 and Sind2 at a rate of once every t3 seconds. If t3 is too small, the indicator Sind1 moves too quickly from the point a0 to the point a1, and the driver cannot follow the indicator Sind1 on the display device 6. From the above viewpoint, t3 is selected to be larger than t1 (for example, 0.05 seconds).
[0033]
  If the processor 1 determines that it is not the change timing T2 in step S11, the combination of the photographed image Scpt stored in step S2 and the point currently selected in the superimposed position data Dsp (currently, points (a0, b0)) Based on the above, an output image Sout for one frame is generated on the frame memory (step S12). That is, in the current output image Sout, the indicators Sind1 and Sind2 are superimposed on the point (a0, b0) of the captured image Scpt. Next, the processor 1 transfers the output image Sout on the frame memory to the display device 6 (step S13), and causes the display device 6 to display the output image Sout generated this time.
[0034]
  Next, when the processor 1 determines in step S10 that the process of FIG. 5 is not terminated, the processor 1 returns to step S1. Thereafter, steps S1 and S2 are executed, whereby a new captured image Scpt is stored in the frame memory. Further, if it is determined in step S3 that it is not the derivation timing T1, and if it is determined in step S11 that it is the change timing T2, the process proceeds to step S14. Then, the processor 1 selects, in the superposition position data Dsp in the working area 3, the earliest in the order from among a set of unselected points (step S14). If the previously selected combination is (a0, b0), (a1, b1)) is selected in this step S14.
[0035]
  Next, the processor 1 stores the output image Sout for one frame in the frame memory based on the photographed image Scpt and a set of points currently selected in the superimposed position data Dsp (currently, the points (a1, b1)). The above is generated (step S15). That is, the current output image Sout is obtained by superimposing the indicators Sind1 and Sind2 on the point (a1, b1) in the captured image Scpt on the frame memory, as shown in FIG. Next, the processor 1 transfers the output image Sout on the frame memory to the display device 6 (step S16), and causes the display device 6 to display the current output image Sout.
[0036]
  The above steps S1 to S16 are repeated until it is determined in step S10 that the processing of FIG. Accordingly, the indicators Sind1 and Sind2 are superimposed on the points a0 → a1,... → a (i-1) and points b0 → b1,... → b (i-1) calculated in step S9. Therefore, the indicators Sind1 and Sind2 are displayed on the screen of the display device 6 so as to move in the traveling direction of the actual vehicle Vusr along the left predicted trajectory Pp1 and the right predicted trajectory Pp2. Further, since the indicators Sind1 and Sind2 are displayed intermittently, the left predicted trajectory Pp1 and the right predicted trajectory Pp2 appear intermittently on the display device 6. As a result, the left predicted trajectory Pp1 and the right predicted trajectory Pp2 are emphasized more than before, and the driver can instantly grasp both on the output image Sout.
[0037]
  Further, every time the processor 1 receives the steering angle θ from the steering angle sensor 5 in accordance with the derivation timing T1, the processor 1 derives the left predicted trajectory Pp1 and the right predicted trajectory Pp2.TheTherefore, the display device 6 displays the accurate left predicted trajectory Pp1 and right predicted trajectory Pp2 following the driver's steering operation.
[0038]
  In the first embodiment, the change timing T2 may be variable. For example, if the superimposed positions of the indicators Sind1 and Sind2 are relatively close to the actual vehicle Vusr, the program PGa may be described so that the change timing T2 comes earlier. Thereby, the visibility of the left predicted trajectory Pp1 and the right predicted trajectory Pp2 is further improved.
[0039]
  Further, in the first embodiment, the distance Δd from two consecutive points aj to a (j + 1) is constant in the left prediction trajectory Pp1. Here, j is an integer from 0 to i-1. However, the distance Δd need not be constant. For example, if the point aj is relatively close to the actual vehicle Vusr, the program PGa may be written so that the distance Δd is set to a relatively small value and the point a (j + 1) is selected. Conversely, if the point aj is relatively close to the actual vehicle Vusr, the program PGa may be written so that the distance Δd is set to a relatively large value and the point a (j + 1) is selected. . Thus, the visibility of the left predicted trajectory Pp1 and the right predicted trajectory Pp2 is further improved.
[0040]
  FIG. 10 is a block diagram showing a hardware configuration of the rendering apparatus Urnd2 according to the second embodiment of the present invention. In FIG. 10, the drawing device Urnd 2 is composed of a processor 21, a program memory 22 and a working area 23. The program memory 22 is typically a ROM (Read Only Memory) and stores a program PGb that defines the processing procedure of the processor 21. The processor 21 generates an output image Sout indicating the predicted trajectory Pp of the actual vehicle Vusr (see FIG. 3) according to the above program PGb, as shown in FIG. Here, the predicted trajectory Pp is a trajectory followed by the left and right rear wheels of the actual vehicle Vusr, and is displayed only during a display time period Pdt described later.
[0041]
  The working area 23 is typically a RAM (Random Access Memory), and is used when the processor 21 executes the program PGb. The above drawing device Urnd2 is typically incorporated in the driving support device Uast2. The driving support device Uast2 is different from the driving support device Uast1 only in that the drawing device Urnd1 is replaced with the drawing device Urnd2. Other than that, there is no difference in configuration between the driving support apparatuses Uast1 and Uast2, and therefore, in FIG. 10, the same reference numerals are assigned to the components corresponding to FIG. 1, and the description thereof is omitted.
[0042]
  Next, the operation of the above driving assistance device Uast2 will be described. When the driver needs to support the driving support device Uast2, the processor 21 starts executing the program PGb in the program memory 22.
[0043]
  FIG. 12 is a flowchart showing the processing procedure of the processor 21 described in the program PGb. The flowchart of FIG. 12 includes several identical steps when compared to that of FIG. Therefore, in FIG. 12, the same step numbers are assigned to the steps corresponding to the steps in FIG.
[0044]
  First, the processor 21 derives the formula of the predicted trajectory Pp by executing steps 1 to S6. Thereafter, the processor 21 proceeds to step S21, and generates an output image Sout for one frame on the frame memory based on the captured image Scpt stored in step S2 and the predicted trajectory Pp derived in step S6. More specifically, the processor 21 draws the entire derived predicted trajectory Pp on the output image Sout to generate an output image Sout as shown in FIG.
[0045]
  Next, the processor 21 performs step S9 to transfer the output image Sout on the frame memory to the display device 6 for display. Thereafter, the processor 21 determines whether or not to end the processing of FIG. 12 (step S10). If it is determined that the processing does not end, the processor 21 proceeds to step S1 to create the next output image Sout in the frame memory. Return. Thereafter, steps S1 and S2 are executed, whereby a new captured image Scpt is stored in the frame memory. In the next step S3, when the processor 1 determines that the derivation timing T1 is not reached, the processor 1 determines whether or not it is the display time zone Pdt of the predicted trajectory Pp (step S22). The display time zone Pdt is described in advance in the program PGb, and in this embodiment is visited every t4 seconds. That is, the display and non-display of the predicted trajectory Pp are switched every t4 seconds. However, if t4 is too small, the driver cannot visually recognize whether the predicted trajectory Pp is displayed or not. From the above viewpoint, t4 is selected to be larger than t1 (for example, 0.1 second).
[0046]
  If it is the display time zone Pdt, the processor 21 proceeds to step S21 and generates an output image Sout (see FIG. 11) on which the predicted trajectory Pp is drawn on the frame memory. Next, the processor 21 performs step S9 to transfer the output image Sout on the frame memory to the display device 6 for display. Thereafter, the processor 21 determines whether or not to end the processing of FIG. 12 (step S10). If it is determined that the processing does not end, the processor 21 proceeds to step S1 to create the next output image Sout in the frame memory. Return. Thereafter, steps S1 and S2 are executed, whereby a new captured image Scpt is stored in the frame memory. Furthermore, if it is determined in step S3 that it is not the derivation timing T1, and if it is determined in step S22 that it is not the display time zone Pdt, the process proceeds to step S23. Then, the processor 21 transfers the captured image Scpt (see FIG. 4) stored in step S2 as it is to the display device 6 as an output image Sout (step S23). The display device 6 displays the received output image Sout.
[0047]
  The processor 21 repeats the processing up to step S23 until it is determined in step S10 that the processing of FIG. Thus, the predicted trajectory Pp is displayed only during the display time zone Pdt, and is not displayed during other time zones. Such switching between display and non-display is performed alternately, and the predicted trajectory Pp is displayed intermittently. Thus, since the predicted trajectory Pp is emphasized, the driver can easily view the predicted trajectory Pp on the output image Sout..
[0048]
  FIG. 13 is a block diagram showing a hardware configuration of the rendering apparatus Urnd3 according to the third embodiment of the present invention. In FIG. 13, the drawing device Urnd3 includes a processor 41, a program memory 42, and a working area 43. The program memory 42 is typically a ROM (Read Only Memory). The program memory 42 stores a program PGc that defines the processing procedure of the processor 1. In accordance with the above program PGc, the processor 41 generates an output image Sout in which the predicted travel area Rpt of the actual vehicle Vusr (see FIG. 3) is shown on the road surface Frd as shown in FIG. WhereMeasurementThe travel region Rpt is a region where the actual vehicle Vusr is predicted to move from now on, and more specifically, the left predicted trajectory Pp1 and the right predicted trajectory Pp2 described in the first embodiment. , A region surrounded by a line segment Llmt passing through the limit point Plmt.
[0049]
  The working area 43 is typically a RAM (Random Access Memory), and is used when the processor 41 executes the program PGc. The above drawing device Urnd3 is typically incorporated in the driving support device Uast3. The driving support device Uast3 is different from the driving support device Uast1 in that the drawing device Urnd1 replaces the drawing device Urnd3 and that the driving support device Uast3 further includes four active sensors 441 to 444 as an example of the distance measuring sensor in the claims. Is different. In addition to the above two points, there is no difference in configuration between the driving support devices Uast3 and Uast1, and therefore, in FIG. 13, the components corresponding to FIG. .
[0050]
  As shown in FIG. 15A, each of the active sensors 441 to 444 is embedded at the rear end of the actual vehicle Vusr and is preferably arranged so as to be aligned in the horizontal direction. The active sensors 441 to 444 arranged as described above emit ultrasonic waves or radio waves toward the rear of the actual vehicle Vusr and observe the reflected waves, as shown in FIG. The distances d1 to d4 to the nearest obstacle Vbst behind the actual vehicle Vusr are detected.
[0051]
  Next, the operation of the above driving assistance device Uast3 will be described. When the driver needs to be supported by the driving assistance device Uast3, the processor 41 starts executing the program PGc in the program memory 42.
[0052]
  FIG. 16 is a flowchart showing the processing procedure of the processor 41 described in the program PGc. In FIG. 16, the processor 41 generates a distance measurement instruction Imsr and transmits it to all the active sensors 441 to 444 (step S41). The distance measurement instruction Imsr is a signal for requesting all the active sensors 441 to 444 to detect the distances d1 to d4 and transmit them to the processor 41. Each of the active sensors 441 to 444 detects the above-mentioned distances d1 to d4 in response to the reception ranging instruction Imsr, and stores them in the working area 43 (step S42).
[0053]
  Next, based on the distances d1 to d4 obtained this time, the processor 41 calculates the coordinate values (x1, y1) to (x4, y4) of the four points P1 to P4 on the surface of the obstacle Vbst (step). S43). Hereinafter, the process of step S43 will be described in detail with reference to FIG. In FIG. 17, the actual vehicle Vusr, the obstacle Vbst, and the two-dimensional coordinate system are drawn. In the two-dimensional coordinate system, the Y axis connects the rotation centers of the left rear wheel Wr1 and the right rear wheel Wr2 of the actual vehicle Vusr. The X axis is a straight line parallel to the horizontal plane among the perpendicular bisectors connecting the rotation centers. As described above, since the active sensors 441 to 444 are fixed with respect to the actual vehicle Vusr, the positions A1 to A4 where the active sensors 441 to 443 emit ultrasonic waves and the like are known in the two-dimensional coordinate system. Coordinate values (xa1, ya1) to (xa4, ya4). Also, the angles φ1 to φ4 at which the active sensors 441 to 444 emit ultrasonic waves or the like when the distances d1 to d4 are obtained are also known. In this embodiment, the angles φ1 to φ4 are angles formed by the X axis and the outgoing wave, and the angle φ1 is representatively shown in FIG. From the above, the above-mentioned coordinate values (x1, y1) are (d1 · cos φ1 + xa1, d1 · sin φ1 + ya1), and the coordinate values (x2, y2) to (x4, y4) are (d2 · y4). cos φ2 + xa2, d2 · sin φ2 + ya2) to (d4 · cos φ4 + xa4, d4 · sin φ4 + ya4).
[0054]
  Next, based on the four points P1 to P4 on the obstacle Vbst calculated this time, the processor 41 calculates the coordinate value (xlmt, ylmt) of the corner Pcnr of the obstacle Vbst as an example of the limit point Plmt ( Step S44). Here, the limit point Plmt indicates a limit at which the actual vehicle Vusr can travel, and is assumed to hit the obstacle Vbst when traveling further. Hereinafter, the process of step S44 will be described in detail with reference to FIG. First, the processor 41 performs Hough transform on the above points P1 to P4 to derive curves C1 to C4 on the Hough space composed of the ρ axis and the θ axis. Here, the curves C1 to C4 are expressed by the following equations (1) to (4).
    ρ = x1 · cos θ + y1 · sin θ (1)
    ρ = x 2 · cos θ + y 2 · sin θ (2)
    ρ = x3 · cos θ + y3 · sin θ (3)
    ρ = x4 · cos θ + y4 · sin θ (4)
[0055]
  Next, the processor 41 calculates the coordinate values (ρ1, θ1) of the intersection Pc1 on the Hough space of the curves C1 and C2 from the above equations (1) and (2), and the above equations (2) to (4). Then, the coordinate values (ρ2, θ2) of the intersection Pc2 on the Hough space of the curves C2, C3 and C4 are calculated. Further, the processor 41 derives an expression representing the straight line P1 P2 from the intersection point Pc1. Here, the straight line P1 P2 is expressed by the following equation (5) on the two-dimensional coordinate system. Similarly, the straight line P2 P4 is expressed by the following equation (6).
    y = (− cos θ1 · x + ρ1) / sin θ1 (5)
    y = (− cos θ 2 · x + ρ 2) / sin θ 2 (6)
  From the above formulas (5) and (6), the processor 41 obtains the coordinate value of the intersection of the straight line P1 P2 and the straight line P2 P3 and sets it as the above-mentioned coordinate value (xlmt, ylmt).
[0056]
  Next, the processor 41 receives the current steering angle θ of the vehicle Vusr in the same manner as in steps S4 and S5 of FIG. 5 (steps S45 and S46).
[0057]
  Next, the processor 41 calculates the coordinate value (xcnt, ycnt) in the above-mentioned two-dimensional coordinate system of the turning center point Pcnt of the vehicle Vusr shown in FIG. 19 (step S47). Further, the processor 41 derives equations of circles Cr1 and Cr2 that pass through the rotation center points of the left rear wheel Wr1 and the right rear wheel Wr2 that the vehicle Vusr has, with the turning center point Pcnt as a center (step S48). Since the coordinate values xcnt and ycnt and the equations of the circles Cr1 and Cr2 can be easily calculated according to the well-known Ackermann model, the description of steps S47 and S48 is omitted here. Further, the circles Cr1 and Cr2 include the left predicted trajectory Pp1 and the right predicted trajectory Pp2 in the first embodiment.
[0058]
  Next, the processor 41 derives an expression of a straight line Llmt that passes through the coordinate values (xcnr, ycnr) obtained in step S44 and the coordinate values (xcnt, ycnt) obtained in step S47 (step S49). . The straight line Llmt is a straight line that defines a limit at which the vehicle Vusr can move without hitting the obstacle Vbst.
[0059]
  Next, the processor 41 generates a figure representing a region surrounded by the circles Cr1 and Cr2 obtained in step S48, the straight line Llmt obtained in step S49, and the line segment Lr12 as the predicted travel region Rpt ( Step S410). Here, the line segment Lr12 connects the rotation center points of the left rear wheel Wr1 and the right rear wheel Wr2.
[0060]
  Next, the processor 41 receives the captured image Scpt from the imaging device 4 in the same manner as steps S1 and S2 in FIG. 5 (steps S411 and S412). Further, the processor 41 generates an output image Sout for one frame on the frame memory based on the captured image Scpt stored in step S412 and the predicted travel region Rpt generated in step S410 (step S413). More specifically, the processor 41 transforms the derived predicted travel region Rpt into the one seen from the imaging device 4, draws it on the captured image Scpt, and generates an output image Sout as shown in FIG. Next, the processor 41 transfers the output image Sout on the frame memory to the display device 6 for display (step S414). The processor 41 repeats the above steps S41 to S414 until it is determined in step S415 that the processing of FIG. As described above, the predicted travel region Rpt extends in a band shape up to the limit point Plmt indicating the limit at which the vehicle Vusr can move, so the driver can determine how far the vehicle Vusr can be moved on the display device 6. It can be recognized instantly.
[0061]
  In the first to third embodiments described above, the imaging device 4 has been described as being embedded in the rear part of the vehicle Vusr, but may be embedded in the front part of the vehicle Vusr. In addition, the number of the imaging devices 4 may be determined according to the design requirements of the driving support devices Uast1 to Uast3, and may be any number.
[0062]
  In the first to third embodiments described above, the left predicted trajectory Pp1, the right predicted trajectory Pp2, the predicted trajectory Pp, and the predicted travel region Rpt are drawn on the captured image Scpt. However, the present invention is not limited to this, and the processors 1, 21, and 41 perform some image processing on the captured image Scpt, and the left-side predicted trajectory Pp1, the right-side predicted trajectory Pp2, the predicted trajectory Pp, and the predicted travel region are added to the image-processed captured image Scpt. Rpt may be drawn. A typical example of the image processing described above is processing for generating a surrounding image of the vehicle as viewed from a virtual viewpoint defined immediately above the vehicle Vusr from the captured image Scpt.
[0063]
  In the first to third embodiments described above, the processors 1, 21 and 41 transmit the imaging instruction Icpt to the imaging apparatus 4, and the captured image Scpt is stored in the frame memory in response to this. It was. However, the imaging device 4 may spontaneously generate the captured image Scpt and store it in the frame memory. Similarly, the steering angle sensor 5 may spontaneously detect the steering angle θ instead of responding to the detection instructions Idct from the processors 1, 21 and 41.
[0064]
  In the third embodiment described above, the four active sensors 441 to 444 are installed in the vehicle Vusr. However, the number of sensors may be one or more. However, in the case of a single unit, it is necessary to dynamically control the direction of the lens of the active sensor 44 to swing the angle φ of the outgoing wave within a wide range.
[0065]
  In the third embodiment described above, the active sensors 441 to 444 are used to measure the distances d1 to d4 to the obstacle Vbst. However, the present invention is not limited to this, and other distance measuring sensors, for example, passive sensors may be used. In order to configure an example of a passive sensor, at least two imaging devices directed to the rear of the vehicle Vusr are required. Each of these imaging devices captures an obstacle Vbst behind the vehicle Vusr. Furthermore, the processor 41 measures the distance to the obstacle Vbst shown in the plurality of captured images from the above imaging device based on the parallax (so-called stereo vision).
[0066]
  In the first to third embodiments described above, the programs PGa to PGc are stored in the drawing devices Urnd1 to Urnd3. However, the present invention is not limited to this, and the programs PGa to PGc may be distributed in a state where they are recorded on a recording medium typified by a CD-ROM, or may be distributed through a communication network typified by the Internet.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a rendering apparatus Urnd1 according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an output image Sout generated by the processor 1 of FIG. 1;
FIG. 3 is a diagram illustrating an installation position of the imaging device 4 in FIG. 1;
4 is a diagram illustrating a captured image Scpt generated by the imaging device 4 of FIG. 1;
FIG. 5 is a flowchart showing a processing procedure of the processor 1 of FIG. 1;
6 is a diagram showing a left predicted trajectory Pp1 and a right predicted trajectory Pp2 derived in step S6 of FIG.
FIG. 7 is a diagram showing superposition position data Dsp generated in step S7 of FIG.
8 is a diagram showing an output image Sout generated in step S8 of FIG.
9 is a diagram showing an output image Sout generated in step S15 of FIG.
FIG. 10 is a block diagram showing a hardware configuration of a drawing apparatus Urnd2 according to the second embodiment of the present invention.
11 is a diagram showing an output image Sout generated by the processor 21 of FIG.
12 is a flowchart showing a processing procedure of the processor 21 of FIG.
FIG. 13 is a block diagram showing a hardware configuration of a rendering apparatus Urnd3 according to a third embodiment of the present invention.
14 is a diagram showing an output image Sout generated by the processor 41 of FIG.
15 is a diagram showing the installation positions of the active sensors 441 to 444 in FIG.
16 is a flowchart showing a processing procedure of the processor 41 in FIG. 13;
FIG. 17 is a diagram for explaining the processing in step S43 in FIG. 16;
FIG. 18 is a diagram for explaining the process of step S44 of FIG. 16;
FIG. 19 is a diagram showing in detail the predicted travel area Rpt generated in step S410 of FIG.
FIG. 20 is a diagram illustrating an output image displayed on a conventional driving support device.
FIG. 21 is a diagram for explaining a problem that a conventional driving support apparatus has.
[Explanation of symbols]
Uast1 ~ Uast3 ... Driving assistance device
Urnd1 to Urnd3 ... Drawing device
1, 21, 41 ... Processor
2, 22, 42 ... Program memory
3, 23, 43 ... Working area
4 ... Imaging device
5 ... Steering angle sensor
6 ... Display device
441-444 ... Active sensor

Claims (13)

車両の運転支援のために、当該車両の周囲を表す出力画像を作成する描画装置であって、
前記車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する取得部と、
前記取得部により得られた操舵角に基づいて、前記車両がこれから移動する予測軌跡を導出する導出部と、
前記導出部により導出された予測軌跡に重畳すべきインジケータを格納する格納部と、
前記車両に固定された撮像装置により取り込まれた撮影画像において、前記車両に近い側から遠い方に向かって順番にかつ間欠的に、前記格納部に格納されているインジケータを前記導出部が導出した予測軌跡に沿って重畳して、前記出力画像を生成する画像生成部とを備える、描画装置。
A drawing device for creating an output image representing the surroundings of a vehicle for driving support of the vehicle,
An acquisition unit for acquiring a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle;
A derivation unit for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained by the acquisition unit;
A storage unit for storing an indicator to be superimposed on the predicted trajectory derived by the deriving unit;
In the captured image captured by the imaging device fixed to the vehicle, the derivation unit derives the indicator stored in the storage unit sequentially and intermittently from the side closer to the vehicle toward the far side. A drawing apparatus comprising: an image generation unit that generates the output image by superimposing along a predicted trajectory.
前記描画装置はさらに、前記導出部により導出された予測軌跡に基づいて、前記格納部に格納されているインジケータを、前記撮像装置により取り込まれた撮影画像のどこに重畳するかを示す重畳位置データを生成するデータ生成部を備え、The drawing device further includes superimposition position data indicating where the indicator stored in the storage unit is superimposed on the captured image captured by the imaging device based on the predicted trajectory derived by the deriving unit. A data generation unit for generating,
前記画像生成部は、前記データ生成部により生成された重畳位置データに基づいて、前記格納部に格納されているインジケータを、前記撮像装置により取り込まれた撮影画像に重畳する、請求項1に記載の描画装置。The said image generation part superimposes the indicator stored in the said storage part on the picked-up image captured by the said imaging device based on the superimposition position data produced | generated by the said data generation part. Drawing device.
前記画像生成部は、予め定められた時間帯では、前記撮影画像上に、前記予測軌跡を重畳し、他の時間帯では、当該予測軌跡を重畳しない、請求項1に記載の描画装置。  The drawing apparatus according to claim 1, wherein the image generation unit superimposes the predicted trajectory on the captured image in a predetermined time zone and does not superimpose the predicted trajectory in another time zone. 前記描画装置はさらに、前記導出部により導出された予測軌跡から、予め定められた距離の間隔を有する複数の点の座標を算出し、算出された各座標に、前記車両に近いものから順に番号を割り当て、さらに、割り当てた番号及び算出された座標から少なくとも構成される組みを複数個含む重畳位置データを生成するデータ生成部を備え、The drawing apparatus further calculates the coordinates of a plurality of points having a predetermined distance interval from the predicted trajectory derived by the deriving unit, and sequentially numbers the calculated coordinates from the closest to the vehicle. And a data generation unit that generates superimposition position data including a plurality of sets composed at least of the assigned number and the calculated coordinates,
前記画像生成部は、前記データ生成部により生成された重畳位置データに含まれる番号に従って座標を順番に選択し、前記格納部に格納されているインジケータを、前記撮像装置により取り込まれた撮影画像に順番に重畳する、請求項1に記載の描画装置。The image generation unit sequentially selects coordinates according to a number included in the superimposed position data generated by the data generation unit, and an indicator stored in the storage unit is added to the captured image captured by the imaging device. The drawing apparatus according to claim 1, wherein the drawing apparatus superimposes in order.
車両の運転支援のために、当該車両の周囲を表す出力画像を作成する描画装置であって、
前記車両に設置された測距センサから、当該車両の周囲に存在する障害物までの距離を取得する第1の取得部と、
前記第1の取得部により得られた距離に基づいて、前記車両が移動可能な限界点を導出する第1の導出部と、
前記車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第2の取得部と、
前記第2の取得部により得られた操舵角に基づいて、前記車両がこれから移動する予測軌跡を導出する第2の導出部と、
前記第1の導出部により導出された限界点と、前記第2の導出部により導出された予測軌跡とに基づいて、前記車両がこれから動くと予測される領域の形状を表す予測走行領域を生成する領域生成部と、
前記車両に固定された撮像装置により取り込まれた撮影画像に、前記領域生成部で生成された予測走行領域を重畳して、出力画像を生成する画像生成部とを備える、描画装置。
A drawing device for creating an output image representing the surroundings of a vehicle for driving support of the vehicle,
A first acquisition unit that acquires a distance from a distance measurement sensor installed in the vehicle to an obstacle existing around the vehicle;
A first deriving unit for deriving a limit point at which the vehicle can move based on the distance obtained by the first obtaining unit;
A second acquisition unit that acquires a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle;
A second deriving unit for deriving a predicted trajectory from which the vehicle moves based on the steering angle obtained by the second obtaining unit;
Based on the limit point derived by the first deriving unit and the predicted trajectory derived by the second deriving unit, a predicted traveling area representing the shape of the area where the vehicle is predicted to move is generated. An area generator to perform,
A drawing apparatus comprising: an image generation unit that generates an output image by superimposing a predicted travel region generated by the region generation unit on a captured image captured by an imaging device fixed to the vehicle.
前記第1の導出部は、前記車両に備わる両方の車輪毎に予測軌跡を生成し、The first derivation unit generates a predicted trajectory for both wheels provided in the vehicle,
前記領域生成部は、前記第1の導出部により導出された限界点を通過する線分と、前記第2の導出部により導出された各予測軌跡とで囲まれる領域の形状を表す予測走行領域を生成する、請求項5に記載の描画装置。The region generation unit is a predicted travel region that represents a shape of a region surrounded by a line segment passing through the limit point derived by the first deriving unit and each predicted locus derived by the second deriving unit. The drawing apparatus according to claim 5, which generates
前記第1の取得部は、前記車両に備わる複数の測距センサのそれぞれEach of the first acquisition units includes a plurality of distance measuring sensors provided in the vehicle. から、当該車両の周囲に存在する障害物までの距離を取得し、To get the distance to the obstacle around the vehicle,
前記描画装置はさらに、前記第1の取得部により取得された距離に基づいて、前記障害物の表面上の複数の点を示す座標を算出する座標算出部を備え、The drawing apparatus further includes a coordinate calculation unit that calculates coordinates indicating a plurality of points on the surface of the obstacle based on the distance acquired by the first acquisition unit,
前記第1の導出部は、前記座標算出部により算出された各点の座標に対してハフ変換を行い、前記障害物の隅の座標を、前記限界点として導出する、請求項5に記載の描画装置。The first deriving unit according to claim 5, wherein the first deriving unit performs a Hough transform on the coordinates of each point calculated by the coordinate calculating unit, and derives the coordinates of the corner of the obstacle as the limit point. Drawing device.
車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成する方法であって、
前記車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第1の取得ステップと、
前記第1の取得ステップで得られた操舵角に基づいて、前記車両がこれから移動する予測軌跡を導出する導出ステップと、
前記導出ステップで導出された予測軌跡に重畳すべきインジケータを、前記描画装置に備わる記憶装置から取得する第2の取得ステップと、
前記車両に固定された撮像装置により取り込まれた撮影画像において、前記車両に近い側から遠い方に向かって順番にかつ間欠的に、前記第2の取得ステップで取得されたインジケータを前記導出ステップで導出された予測軌跡に沿って重畳して、前記出力画像を生成する画像生成ステップとを備える、画像生成方法。
A method for generating an output image representing a periphery of a vehicle used in a drawing device that generates an output image for driving support of the vehicle,
A first acquisition step of acquiring a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle;
A derivation step for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained in the first acquisition step;
A second acquisition step of acquiring an indicator to be superimposed on the predicted trajectory derived in the derivation step from a storage device included in the drawing device;
In the captured image captured by the imaging device fixed to the vehicle, the indicator acquired in the second acquisition step is sequentially and intermittently from the side closer to the vehicle toward the far side in the derivation step. An image generation method comprising: an image generation step of generating the output image by superimposing along the derived predicted trajectory.
車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成する方法であって、
前記車両に設置された測距センサから、当該車両の周囲に存在する障害物までの距離を取得する第1の取得ステップと、
前記第1の取得ステップで得られた距離に基づいて、前記車両が移動可能な限界点を導出する第1の導出ステップと、
前記車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第2の取得ステップと、
前記第2の取得ステップで得られた操舵角に基づいて、前記車両がこれから移動する予測軌跡を導出する第2の導出ステップと、
前記第1の導出ステップで導出された限界点と、前記第2の導出ステップで導出された予測軌跡とに基づいて、前記車両がこれから動くと予測される領域の形状を表す予測走行領域を生成する領域生成ステップと、
前記車両に固定された撮像装置により取り込まれた撮影画像に、前記領域生成ステップで生成された予測走行領域を重畳して、出力画像を生成する画像生成ステップとを備える、画像生成方法。
A method for generating an output image representing a periphery of a vehicle used in a drawing device that generates an output image for driving support of the vehicle ,
A first obtaining step of obtaining a distance from a distance measuring sensor installed in the vehicle to an obstacle existing around the vehicle;
A first deriving step for deriving a limit point at which the vehicle is movable based on the distance obtained in the first obtaining step;
A second acquisition step of acquiring a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle;
A second derivation step for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained in the second acquisition step;
Based on the limit point derived in the first deriving step and the predicted trajectory derived in the second deriving step, a predicted traveling area representing the shape of the area where the vehicle is predicted to move is generated. A region generation step to be performed;
An image generation method comprising: an image generation step of generating an output image by superimposing the predicted travel region generated in the region generation step on a captured image captured by an imaging device fixed to the vehicle.
車両の運転支援のための出力画像を生成する描画装置において用いられ、当該車両の周囲を表す出力画像を生成するためのコンピュータプログラムであって、
前記車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第1の取得ステップと、
前記第1の取得ステップで得られた操舵角に基づいて、前記車両がこれから移動する予測軌跡を導出する導出ステップと、
前記導出ステップで導出された予測軌跡に重畳すべきインジケータを、前記描画装置に備わる記憶装置から取得する第2の取得ステップと、
前記車両に固定された撮像装置により取り込まれた撮影画像において、前記車両に近い側から遠い方に向かって順番にかつ間欠的に、前記第2の取得ステップで取得されたインジケータを前記導出ステップで導出された予測軌跡に沿って重畳して、前記出力画像を生成する画像生成ステップとを備える、コンピュータプログラム。
A computer program for generating an output image used to generate an output image for driving support of a vehicle and representing the surroundings of the vehicle,
A first acquisition step of acquiring a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle;
A derivation step for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained in the first acquisition step;
A second acquisition step of acquiring an indicator to be superimposed on the predicted trajectory derived in the derivation step from a storage device included in the drawing device;
In the captured image captured by the imaging device fixed to the vehicle, the indicator acquired in the second acquisition step is sequentially and intermittently from the side closer to the vehicle toward the far side in the derivation step. A computer program comprising: an image generation step of generating the output image by superimposing along the derived predicted trajectory.
記憶媒体に格納される、請求項10に記載のコンピュータプログラム The computer program according to claim 10 stored in a storage medium . 車両の運転支援のための出力画像を生成する描画装置において用い られ、当該車両の周囲を表す出力画像を生成するためのコンピュータプログラムであって、
前記車両に設置された測距センサから、当該車両の周囲に存在する障害物までの距離を取得する第1の取得ステップと、
前記第1の取得ステップで得られた距離に基づいて、前記車両が移動可能な限界点を導出する第1の導出ステップと、
前記車両に固定された操舵角センサから、当該車両の現在の操舵角を取得する第2の取得ステップと、
前記第2の取得ステップで得られた操舵角に基づいて、前記車両がこれから移動する予測軌跡を導出する第2の導出ステップと、
前記第1の導出ステップで導出された限界点と、前記第2の導出ステップで導出された予測軌跡とに基づいて、前記車両がこれから動くと予測される領域の形状を表す予測走行領域を生成する領域生成ステップと、
前記車両に固定された撮像装置により取り込まれた撮影画像に、前記領域生成ステップで生成された予測走行領域を重畳して、出力画像を生成する画像生成ステップとを備える、コンピュータプログラム。
A computer program for generating an output image used to generate an output image for driving support of a vehicle and representing the surroundings of the vehicle ,
A first obtaining step of obtaining a distance from a distance measuring sensor installed in the vehicle to an obstacle existing around the vehicle;
A first deriving step for deriving a limit point at which the vehicle is movable based on the distance obtained in the first obtaining step;
A second acquisition step of acquiring a current steering angle of the vehicle from a steering angle sensor fixed to the vehicle;
A second derivation step for deriving a predicted trajectory from which the vehicle will move based on the steering angle obtained in the second acquisition step;
Based on the limit point derived in the first deriving step and the predicted trajectory derived in the second deriving step, a predicted traveling area representing the shape of the area where the vehicle is predicted to move is generated. A region generation step to be performed;
The captured image captured by the fixed imaging device to the vehicle, by superimposing the predicted travel area generated by the area generation step, Bei El and an image generation step of generating an output image, the computer program.
記憶媒体に格納される、請求項12に記載のコンピュータプログラム The computer program according to claim 12, stored in a storage medium .
JP2001182017A 2000-06-30 2001-06-15 Drawing device Expired - Fee Related JP3638132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001182017A JP3638132B2 (en) 2000-06-30 2001-06-15 Drawing device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000199512 2000-06-30
JP2000-199512 2000-06-30
JP2000-199513 2000-06-30
JP2000199513 2000-06-30
JP2001182017A JP3638132B2 (en) 2000-06-30 2001-06-15 Drawing device

Publications (2)

Publication Number Publication Date
JP2002079898A JP2002079898A (en) 2002-03-19
JP3638132B2 true JP3638132B2 (en) 2005-04-13

Family

ID=27343938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001182017A Expired - Fee Related JP3638132B2 (en) 2000-06-30 2001-06-15 Drawing device

Country Status (1)

Country Link
JP (1) JP3638132B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821124B2 (en) * 2017-04-26 2021-01-27 株式会社Jvcケンウッド Driving support devices, driving support methods and programs

Also Published As

Publication number Publication date
JP2002079898A (en) 2002-03-19

Similar Documents

Publication Publication Date Title
KR102034189B1 (en) Method and device for visualizing the surroundings of a vehicle
JP6257989B2 (en) Driving assistance device
JP3947375B2 (en) Parking assistance device
JP2004114977A (en) Moving body periphery monitoring device
EP1167120B1 (en) Rendering device for parking aid
CN108583573B (en) A kind of lane departure prevention system
US20120170812A1 (en) Driving support display device
JP2012253428A (en) Information processing system, server device, and on-vehicle device
JP2001218197A (en) Device for displaying periphery of vehicle
JP2009017462A (en) Driving support system and vehicle
JP5045172B2 (en) Vehicle driving support device
KR101805377B1 (en) Method and device for tracking a position of object marking
JP2007148472A (en) Parking support system, parking facility device, and parking support device
JP2002335524A (en) Driving support device
JP4374850B2 (en) Moving object periphery monitoring device
JP4154980B2 (en) Moving object periphery monitoring device
JP4192680B2 (en) Moving object periphery monitoring device
EP1168248A2 (en) Rendering device
JP3638132B2 (en) Drawing device
JP6080735B2 (en) Driving assistance device
JP6363393B2 (en) Vehicle periphery monitoring device
US6825779B2 (en) Rendering device
JP2004104478A (en) Device and method for assisting parking
KR20140080874A (en) Apparatus and method for guiding parking with steering assist
KR20140080871A (en) Apparatus and method for warning object using haptic steering wheel

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050106

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120121

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees