JP6733277B2 - 画像表示方法及び画像表示装置 - Google Patents

画像表示方法及び画像表示装置 Download PDF

Info

Publication number
JP6733277B2
JP6733277B2 JP2016080668A JP2016080668A JP6733277B2 JP 6733277 B2 JP6733277 B2 JP 6733277B2 JP 2016080668 A JP2016080668 A JP 2016080668A JP 2016080668 A JP2016080668 A JP 2016080668A JP 6733277 B2 JP6733277 B2 JP 6733277B2
Authority
JP
Japan
Prior art keywords
vehicle
attention area
area
attention
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016080668A
Other languages
English (en)
Other versions
JP2017191472A (ja
Inventor
草柳 佳紀
佳紀 草柳
拓良 柳
柳  拓良
渡辺 省吾
省吾 渡辺
則政 岸
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016080668A priority Critical patent/JP6733277B2/ja
Publication of JP2017191472A publication Critical patent/JP2017191472A/ja
Application granted granted Critical
Publication of JP6733277B2 publication Critical patent/JP6733277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両等の乗用移動体用の画像表示方法及び画像表示装置に関する。
従来、車両の進行方向に存在する対象物を検出し、検出された対象物の強調画像をヘッドアップディスプレイ(HUD)の表示画面に表示する技術が知られている(特許文献1参照)。
しかしながら、特許文献1に記載の技術では、車両の直進時の進行方向に存在する対象物を強調表示しているが、直進以外の運転シーンについては配慮されていない。直進以外の、例えば車両の進行方向の変更を伴うような運転シーンにおいては特に、進行方向以外の範囲にも幅広く注意を向ける必要がある。
特開2001−23091号公報
上記課題に鑑み、本発明は、運転シーンに応じて乗員が注意すべき乗用移動体の周囲状況を乗員に対して容易に知覚させることができる乗用移動体用の画像表示方法及び画像表示装置を提供することを目的とする。
本発明の一態様によれば、乗用移動体の周囲状況を検出し、その周囲状況に基づいて、乗用移動体の周囲の注意領域を検出し、その注意領域に対して強調箇所を決定し、その強調箇所を強調表示するように周囲状況を示す仮想画像を生成し、その仮想画像を表示部に表示することを特徴とする画像表示方法及び画像表示装置が提供される。
本発明によれば、運転シーンに応じて乗員が注意すべき乗用移動体の周囲状況を乗員に対して容易に知覚させることができる乗用移動体用の画像表示方法及び画像表示装置を提供することができる。
本発明の実施形態に係る画像表示装置の一例を示すブロック図である。 図2(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図2(b)は、図2(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図3(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図3(b)は、図3(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図4(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図4(b)は、図4(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図5(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図5(b)は、図5(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図6(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図6(b)は、図6(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図7(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図7(b)は、図7(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 本発明の実施形態に係る表示画像の仮想視点の一例を示す概略図である。 図9(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図9(b)は、図9(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図10(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図10(b)は、図10(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 図11(a)は、本発明の実施形態に係る自車両の運転シーンの一例を示す概略図であり、図11(b)は、図11(a)に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 本発明の実施形態に係る自車両の運転シーンの一例を示す概略図である。 図12に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 本発明の実施形態に係る自車両の運転シーンの一例を示す概略図である。 図14に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 本発明の実施形態に係る自車両の運転シーンの一例を示す概略図である。 図16に対応した本発明の実施形態に係る表示画像の一例を示す概略図である。 本発明の実施形態に係る画像表示方法の一例を説明するためのフローチャートである。 本発明の実施形態に係る画像表示方法の他の一例を説明するためのフローチャートである。 本発明の実施形態の第1の変形例に係る自車両の運転シーンの一例を示す概略図である。 図20に対応した本発明の実施形態の第1の変形例に係る表示画像の一例を示す概略図である。 本発明の実施形態の第2の変形例に係る自車両の運転シーンの一例を示す概略図である。 図22に対応した本発明の実施形態の第2の変形例に係る表示画像の一例を示す概略図である。 図24(a)〜図24(c)は、本発明の実施形態の第3の変形例に係る表示画像の一例を示す概略図である。 図25(a)〜図25(c)は、本発明の実施形態の第4の変形例に係る表示画像の一例を示す概略図である。 本発明のその他の実施形態に係る表示画像の一例を示す概略図である。
以下において、図面を参照して、本発明の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
<画像表示装置の構成>
本発明の実施形態に係る画像表示装置は、車両等の乗用移動体に搭載可能である。以下の本発明の実施形態の説明においては、車両に搭載する場合を例示する。本発明の実施形態に係る画像表示装置は、図1に示すように、制御装置1、自車位置取得部2、周囲状況検出部4及び表示部5を備える。
自車位置取得部2は、例えばナビゲーション装置や、全地球測位システム(GPS)からGPS信号を受信するGPS受信機等で構成できる。自車位置取得部2は、自車両の地図上における現在位置を取得する。
周囲状況検出部4は、自車両の前方状況、後方状況、側方状況を含む自車両の周囲状況を検出する。周囲状況検出部4が検出可能な自車両の周囲状況は、他車両、歩行者、自転車、信号、標識、横断歩道、電柱、交差点及び白線を含む。周囲状況検出部4としては、例えばレーザレーダ、ミリ波レーダ、定在波レーダ、又はCCDカメラ等のカメラを用いたセンサが使用可能である。周囲状況検出部4の個数や種類、配置位置は特に限定されず、例えば自車両の前方、側方及び後方に複数個設置されていてもよい。
表示部5としては、液晶ディスプレイ等のディスプレイが使用可能である。表示部5は、車室内のインストルメンタルパネル等の乗員から視認しやすい位置に設置される。
制御装置1は、例えば、論理演算処理装置6、注意領域記憶装置3及びデータ記憶装置7等を含む電子制御ユニット(ECU)で構成できる。注意領域記憶装置3及びデータ記憶装置7としては、半導体記憶装置、磁気記憶装置又は光学記憶装置等が使用できる。なお、注意領域記憶装置3及びデータ記憶装置7は、論理演算処理装置6内に備えられるレジスタ等であってもよく、キャッシュメモリ等を含んでもよい。注意領域記憶装置3及びデータ記憶装置7は更に、2次記憶装置や、2次記憶装置等に設定される仮想メモリでもよい。注意領域記憶装置3は、自車両の各種の運転シーンと、後述する注意領域との対応関係を記憶する。
論理演算処理装置6としては、中央処理装置(CPU)等が使用できる。論理演算処理装置6は、シーン判別部10、注意領域検出部11、移動物体検出部12、強調箇所決定部13及び画像生成部14を機能的に備える。
シーン判別部10は、自車位置取得部2により取得された自車両の地図上における現在位置や、周囲状況検出部4により検出される自車両の周囲状況、シフトレバーの操作情報、ウインカスイッチの操作情報等から、自車両の運転シーンを判別する。シーン判別部10により判別可能な運転シーンは、例えば、後退駐車、縦列駐車、狭路での幅寄せ、狭路での通り抜け、車線変更(合流)、T字路、交差点左折及び交差点右折を含む。
注意領域検出部11は、注意領域記憶装置3に記憶されている運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された自車両の周囲状況において、シーン判別部10により判別された運転シーンに応じた乗員が注意すべき注意領域を検出する。
ここで、注意領域検出部11により検出可能な「注意領域」とは、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性が有る領域を意味する。注意領域は、注意対象物が存在する領域、注意場所が存在する領域、及び注意度が所定の閾値よりも高い領域を含む。
注意対象物は、例えば、他車両、歩行者(特に交通弱者)、盲導犬等を含む動物、自転車、信号、標識、横断歩道、交差点及び積雪等の障害物を含む。他車両は、例えば、対向車、暴走車及び緊急車両を含む。注意対象物は、例えば、周囲状況検出部4により検出される自車両の周囲状況等から判別可能である。
注意場所は、例えば、自車両の周囲、交差点、横断歩道、インターチェンジ、合流地点を含む。なお、例えば横断歩道のように、注意場所と注意対象物で共通する場所(物)があってもよい。注意場所は、例えば、自車位置取得部2により取得された自車両の地図上における現在位置や周囲状況検出部4により検出される自車両の周囲状況等から判別可能である。
注意度とは、自車両の周囲に存在する移動物体と自車両との接近度合いを意味する。注意度は、例えば周囲状況検出部4により検出される自車両の周囲状況等から得られる自車両と移動物体との距離及び相対速度から算出可能である。例えば、自車両と移動物体との距離が近いほど注意度を高く算出し、自車両と移動物体との相対速度が接近する方向に高いほど注意度を高く算出する。更に、自車両の速度が高いほど、注意度を高く算出してもよい。
ここで、注意度の算出方法の一例を説明する。例えば、衝突余裕時間(TTC)及び車間時間(THW)を用いて注意度を算出できる。衝突余裕時間tは、現在の相対速度が維持されると仮定して、自車両が先行する他車両に衝突するまでの時間を予測する指標であり、自車両と他車両との相対速度をv、距離をxとして、以下の式(1)で求められる。
=−x/v …(1)
また、車間時間tは、現在の自車速度で現在の先行車位置に到達する時間を示す指標であり、自車速度をv、自車両と他車両との距離をxとして、以下の式(2)で求められる。
=−x/v …(2)
式(1)及び式(2)で求めた衝突余裕時間t及び車間時間tを用いて、注意度RPは以下の式(3)のように設定可能である。
RP=1/2(α/t+β/t) …(3)
ここで、α、βのそれぞれは任意の係数であり適宜設定可能である。注意度と比較するための所定の閾値は適宜設定可能であり、制御装置1のデータ記憶装置7等に予め記憶していてもよい。
移動物体検出部12は、周囲状況検出部4により検出された自車両の周囲状況を用いて、注意領域検出部11により検出された注意領域内の移動物体を検出する。移動物体検出部12が検出可能な移動物体は、他車両、歩行者、動物、自転車を含む。移動物体検出部12が検出可能な移動物体は、実際に移動している物体と、信号待ち等で現在移動を停止しているが、移動する可能性の有る物体とを含む。
強調箇所決定部13は、注意領域検出部11により検出された注意領域に対して強調箇所を決定する。強調箇所決定部13は、例えば注意領域自体を強調箇所として決定してもよく、注意領域を囲む領域を強調箇所として決定してもよい。また、強調箇所決定部13は、注意領域の種類に応じて、注意領域の強調箇所や強調方法を変化させてもよい。
強調箇所決定部13は更に、移動物体検出部12により検出された移動物体の領域、移動物体の向き、移動物体の移動可能範囲等を強調箇所として決定してもよい。強調箇所決定部13は、移動物体が移動中の場合には、移動物体の相対的な移動速度に応じて、移動物体の強調箇所(範囲)や強調方法を変化させてもよい。例えば、強調箇所決定部13は、移動物体の相対的な移動速度が高いほど、移動物体が移動する方向に強調箇所を拡張してもよい。
画像生成部14は、周囲状況検出部4により検出された周囲状況を用いて、強調箇所決定部13により決定された強調箇所を強調表示するように仮想画像(コンピュータ・グラフィック(CG)画像)を生成する。画像生成部14は、例えば強調箇所の輝度を高めたり、着色したり、点滅させたりすること等により、強調箇所を強調表示してもよい。
画像生成部14は、運転シーン等に応じて種々の仮想視点位置から見た前方画像又は俯瞰画像等の仮想画像を生成可能であり、仮想画像のスケール、サイズ、縦横比等も適宜調整可能である。画像生成部14は、生成した仮想画像を表示するように表示用の画像信号を生成し、表示部5に画像信号を送信して表示部5を制御する。
次に、各種の運転シーンを挙げて、本発明の実施形態に係る画像表示方法の一例を説明する。まず、図2(a)は、「後退駐車」の運転シーンを示している。自車両20は、自車両20後方の他車両21,22間の駐車枠(駐車スペース)S1に駐車しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置やシフトレバーの操作情報等に基づいて、図2(a)に示した運転シーンを「後退駐車」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「後退駐車」の運転シーンと注意領域との対応関係を参照して、自車両20の旋回の内側を含む後方の領域A1を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況から、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A1及び他車両21,22が存在する注意領域を強調箇所として決定する。
画像生成部14は、図2(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I1を生成する。仮想画像I1において、図2(a)に示した自車両20及び駐車枠(駐車スペース)S1に対応する自車両M20及び駐車枠(駐車枠(駐車スペース)MS1が仮想的に表示されている。
更に、図2(a)に示した領域A1及び他車両21,22に対応する領域MA1及び他車両M21,M22が強調表示されている。図2(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。例えば、領域MAについては、領域MAを枠線で囲ったり、領域MA内を着色したりして強調表示してもよい。また、他車両21,22については、他車両21,22の周囲を枠線で囲ったり、他車両21,22内の色や輝度を変化させたりして強調表示してもよい。なお、図2(b)では自車両M20や他車両M21,M22は実際の車両の形状を模擬しているが、例えば単なる矩形やアイコン等であっても構わない。
次に、図3(a)は、「縦列駐車」の運転シーンを示している。自車両20は、自車両20後方の他車両21,22の間の駐車枠(駐車スペース)S1に駐車しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置やシフトレバーの操作情報等に基づいて、図3(a)に示した運転シーンを「縦列駐車」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「縦列駐車」の運転シーンと注意領域との対応関係を参照して、他車両21,22と接近する方向である、駐車したい方角に位置する前部角部の端部を含む円弧の領域A2と、駐車したい方角の後輪の接地部を含む円弧の領域A3を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、領域A2,A3及び他車両21,22が存在する注意領域を強調箇所として決定する。
画像生成部14は、図3(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I2を生成する。仮想画像I2において、図3(a)に示した自車両20及び駐車枠(駐車スペース)S1に対応する自車両M20及び駐車枠(駐車スペース)MS1が仮想的に表示されている。
更に、図3(a)に示した領域A2,A3及び他車両21,22に対応する領域MA2,MA3及び他車両M21,M22が強調表示されている。図3(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。例えば、領域MAについては、領域MAを枠線で囲ったり、領域MA内を着色したりして強調表示してもよい。また、他車両21,22については、他車両21,22の周囲を枠線で囲ったり、他車両21,22内の色や輝度を変化させたりして強調表示してもよい。
次に、図4(a)は、「狭路での幅寄せ」の運転シーンを示している。図4(a)に示すように、自車両20は、狭路において対向車である他車両21が接近しているため、左側のガードレール31に寄って走行している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での幅寄せ」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での幅寄せ」の運転シーンと注意領域との対応関係を参照して、自車両20を寄せる左側の操舵輪側面含む車体側面の領域A4を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21及びガードレール31を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A4、他車両21及びガードレール31が存在する注意領域を強調箇所として決定する。
画像生成部14は、図4(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I3を生成する。仮想画像I3において、図4(a)に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図4(a)に示した領域A4、他車両21及びガードレール31に対応する領域MA4及び他車両M21が強調表示されている。図4(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
次に、図5(a)は、「狭路での通り抜け」の運転シーンを示している。自車両20は、狭路において、対向車である他車両21が接近する前に、自車両20の前方の破線の矢印で示すようにS字を描いて前方の他車両22を追い越そうとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での通り抜け」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での通り抜け」の運転シーンと注意領域との対応関係を参照して、自車両20の前方(進行方向)を含む、車体左右側面の領域A5を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A5及び他車両21,22が存在する注意領域を強調箇所として決定する。
画像生成部14は、図5(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I4を生成する。仮想画像I4において、図5(a)に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図5(a)に示した領域A5、他車両21,22に対応する領域MA5、他車両M21,M22が強調表示されている。図5(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
次に、図6(a)は、「狭路での通り抜け」の他の運転シーンを示している。自車両20は、狭路において、電柱32と他車両21との間を通過しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「狭路での通り抜け」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「狭路での通り抜け」の運転シーンと注意領域との対応関係を参照して、自車両20の前方(進行方向)を含む、車体左右側面の領域A6を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21及び電柱32を注意対象物として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A6、他車両21、電柱32が存在する注意領域を強調箇所として決定する。
画像生成部14は、図6(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I5を生成する。仮想画像I5において、図6(a)に示した自車両20及びガードレール31に対応する自車両M20及びガードレールM31が仮想的に表示されている。更に、図6(a)に示した領域A6、他車両21及び電柱32に対応する領域MA6、他車両M21及び電柱32が強調表示されている。図6(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
次に、図7(a)は、「車線変更」の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の後方の領域A7を注意場所として検出する。なお、変更先の車線L2の自車両20の前方に位置する領域は、他車両がないため、注意場所として不検出とする。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21を注意対象物として検出する。
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A7及び他車両21が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21の相対速度を算出し、相対速度を強調箇所として決定する。
画像生成部14は、図7(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I6を生成する。仮想画像I6において、図7(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図7(a)に示した領域A7及び他車両21に対応する領域MA7及び他車両M21が強調表示されている。図7(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。更には、他車両M21の後部には後ろ向きに矢印M21aで相対速度が強調表示されている。矢印M21aは、他車両M21の相対速度が自車両M20から遠ざかる方向に高いことを示している。
なお、例えば図8に示すように、図6(a)に示した「狭路での通り抜け」の運転シーンにおける仮想画像I5の視点位置P1は、自車両20の上方且つ後方側から撮像するように設定され、撮像範囲R1を有している。一方、図7(a)に示した「車線変更」の運転シーンにおける仮想画像I6の視点位置P2は、視点位置P1よりも自車両20の上方且つ後方側から撮像するように設定され、視点位置P1の撮像範囲R1よりも広い撮像範囲R2を有している。このように、仮想画像の視点位置は、運転シーン等に応じて適宜調整可能である。
次に、図9(a)は、「車線変更」の他の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている点は図7(a)と同様であり、他車両21が自車両20の前方を走行している点が図7(a)と異なる。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の前方の領域A8を注意場所として検出する。なお、変更先の車線L2の自車両20の後方に位置する領域は、他車両がないため、注意場所として不検出とする。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21を注意対象物として検出する。
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A8及び他車両21が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21の相対速度を算出し、相対速度を強調箇所として決定する。
画像生成部14は、図9(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I7を生成する。仮想画像I7において、図9(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図9(a)に示した領域A8及び他車両21に対応する領域MA8及び他車両M21が強調表示されている。図9(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。更には、他車両M21の前部には前向きに矢印M21aで相対速度が強調表示されている。矢印M21aは、他車両M21の相対速度が自車両M20から遠ざかる方向に高いことを示している。矢印M21aは、相対速度が高いほど長くしてもよい。
次に、図10(a)は、「車線変更」の更に他の運転シーンを示している。インターチェンジにおいて、自車両20は合流前の車線L1を走行しており、右側の車線L2に車線変更しようとしている点は図7(a)及び図9(a)と同様であり、他車両21,22が自車両20の前方及び後方を走行している点が図7(a)及び図9(a)と異なる。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「車線変更」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「車線変更」の運転シーンと注意領域との対応関係を参照して、変更先の車線L2の真横含む、自車両20の前後方向の領域A9を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22を注意対象物として検出する。
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A9及び他車両21,22が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、他車両21,22の相対速度を算出し、相対速度を強調箇所として決定する。
画像生成部14は、図10(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I8を生成する。仮想画像I8において、図10(a)に示した自車両20及び車線L1,L2に対応する自車両M20及び車線ML1,ML2が仮想的に表示されている。更に、図10(a)に示した領域A9及び他車両21,22に対応する領域MA9及び他車両M21,M22が強調表示されている。図10(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
更に、自車両M20の後方に位置する他車両M21の前部には前向きに矢印M21aで相対速度が強調表示され、他車両M21の相対速度が自車両M20に接近する方向に高いことを示している。更に、自車両M20の前方に位置する他車両M22の後部には後向ききに矢印M22aで相対速度が強調表示され、他車両M22の相対速度が自車両M20に接近する方向に高いことを示している。矢印M21a,M22aは、相対速度が高いほど長くしてもよい。
次に、図11(a)は、図10(a)と同様の「車線変更」の運転シーンを示しているが、注意領域検出部11は、周囲状況検出部4により検出された周囲状況に基づいて、自車両20の周囲を複数(図11(a)では12個)の領域RAに仮想的に分割して、領域RAごとに注意度を算出してもよい。図11(a)では、複数の領域RAを自車両20の位置を基準に、車線に沿うように設定している。なお、複数の領域RAの形状や位置、個数は特に限定されず、運転シーン等に応じて適宜設定可能である。
例えば、領域RA内に他車両21,22が有る場合には、注意領域検出部11は、他車両21,22の相対距離及び相対速度から注意度を算出する。注意領域検出部11は更に、注意度が所定の閾値以上か否かを判定し、所定の閾値以上の領域(例えば他車両21が含まれる領域)RAを注意領域として検出する。強調箇所決定部13は、例えば、注意領域検出部11により検出された他車両21が含まれる領域RAを強調箇所として決定する。
画像生成部14は、図11(b)に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I8を生成する。仮想画像I8において、図11(a)に示した自車両20、他車両21,22及び車線L1,L2に対応する自車両M20、他車両M21,M22及び車線ML1,ML2が仮想的に表示されている。更に、図11(a)に示した他車両21が含まれる領域RAに対応する領域RBが強調表示されている。図11(b)では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
次に、図12は、「T字路」の運転シーンを示している。自車両20は、前方のT字路に進入しようとしている。T字路において、標識51及び横断歩道41,42が設置されており、他車両21,22及び自転車61〜64が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、周囲状況検出部4により検出された周囲状況等に基づいて、運転シーンを「T字路」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「T字路」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況等に基づいて、自車両20の左右両方向の領域A11,A12及び交差点の中心に位置する半円の領域A10を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、交差点の交錯道路を走行している他車両21,22、自転車61〜64、標識51、横断歩道41,42を注意対象物として検出する。
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A10〜A12、他車両21,22、自転車61〜64、標識51、横断歩道41,42が存在する注意領域を強調箇所として決定する。
画像生成部14は、図13に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I9を生成する。仮想画像I9において、図12に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図12に示した領域A10〜A12、他車両21,22、自転車61〜64、標識51、横断歩道41,42に対応する領域MA10〜MA12、他車両M21,M22、自転車M61〜M64、標識M51、横断歩道M41,M42が強調表示されている。図13では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
次に、図14は、「交差点左折」の運転シーンを示している。交差点には、標識51、信号機53及び横断歩道41,42が設置されており、他車両21,22、二輪車81,82、歩行者71及び自転車61が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点左折」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「交差点左折」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況に基づいて、交差点中心C1を基準とした自車両20の進行方向(左折)を含まない3/4程度の円弧の領域A13を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42を注意対象物として検出する。
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A13、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42が存在する注意領域を強調箇所として決定する。
画像生成部14は、図15に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I10を生成する。仮想画像I10において、図14に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図14に示した領域A13、他車両21,22、二輪車81,82、歩行者71、自転車61、標識51、信号機53、横断歩道41,42に対応する領域MA13、他車両M21,M22、二輪車M81,M82、歩行者M71、自転車M61、標識M51、信号機M53、横断歩道M41,M42が強調表示されている。図15では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
次に、図16は、「交差点右折」の運転シーンを示している。交差点には、標識51,52、信号機53及び横断歩道41,42が設置されており、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点右折」と判別する。
注意領域検出部11は、注意領域記憶装置3に記憶されている「交差点右折」の運転シーンと注意領域との対応関係を参照して、周囲状況検出部4により検出された周囲状況等に基づいて、交差点中心を基準とした自車両20の進行方向(右折)を含まない3/4程度の円弧の領域A14を注意場所として検出する。注意領域検出部11は更に、周囲状況検出部4により検出された周囲状況等に基づいて、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42を注意対象物として検出する。
強調箇所決定部13は、例えば、注意領域検出部11により検出された領域A14、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42が存在する注意領域を強調箇所として決定する。
画像生成部14は、図17に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I11を生成する。仮想画像I11において、図16に示した自車両20に対応する自車両M20が仮想的に表示されている。更に、図16に示した領域A14、他車両21〜23、二輪車81〜83、歩行者71,72、自転車61〜64、標識51,52、信号機53、横断歩道41,42に対応する領域MA14、他車両M21〜M23、二輪車M81〜M83、歩行者M71,M72、自転車M61〜M64、標識M51,M52、信号機M53、横断歩道M41,M42が強調表示されている。図17では便宜的に、ハッチングを付すことにより強調表示されていることを示す。
<画像表示方法>
次に、図18のフローチャートを参照しながら、本発明の実施形態に係る乗用移動体用の画像表示方法の一例を説明する。なお、図18のフローチャートの一連の処理は、所定の制御周期で繰り返し実行可能である。
ステップS1において、自車位置取得部2が、自車両20の地図上における現在位置を取得し、取得した自車両20の地図上における現在位置を制御装置1に入力する。周囲状況検出部4が、自車両20の周囲状況を検出し、検出した自車両20の周囲状況を制御装置1に入力する。
ステップS2において、シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置、周囲状況検出部4により検出された周囲状況、シフトレバーやウインカスイッチの操作情報等に基づいて、自車両20の運転シーンを判別する。
ステップS3において、注意領域検出部11は、注意領域記憶装置3に記憶されている運転シーンと注意領域との対応関係を参照して、シーン判別部10により判別された運転シーンに対応する注意領域を抽出する。そして、注意領域検出部11は、周囲状況検出部4により検出された自車両の周囲状況中の、注意場所が存在する領域、注意対象物が存在する領域、注意度が所定の閾値以上の領域等を含む注意領域を検出する。
ステップS4において、移動物体検出部12は、周囲状況検出部4により検出された周囲状況に基づいて、注意領域検出部11により検出された注意領域内の移動物体を検出する。ステップS5において、強調箇所決定部13が、移動物体検出部12により検出された移動物体の有無を判定する。移動物体が有ると判定された場合、ステップS6に進み、強調箇所決定部13が、注意領域内の移動物体を強調箇所として決定する。画像生成部14は、注意領域内の移動物体を強調表示した仮想画像を生成する。表示部5は、画像生成部14により生成された仮想画像を表示する。
ステップS7において、画像生成部14は、周囲状況検出部4により検出された周囲状況等に基づいて、移動物体が注意領域外に移動したか否かを判定する。移動物体が注意領域外に移動したと判定された場合、ステップS8に進む。ステップS8において、画像生成部14が、仮想画像中の移動物体の強調表示を停止する信号を表示部5に出力する。
ステップS5において、移動物体検出部12により検出された移動物体が無いと判定された場合、ステップS9に進む。ステップS9において、強調箇所決定部13が、注意領域検出部11により検出された注意領域に対して強調箇所を決定する。画像生成部14は、注意領域を強調表示した仮想画像を生成し、仮想画像を表示部5に表示させる。
ステップS10において、画像生成部14は、GPS等から得られる自車両20の位置等に基づいて、強調表示している注意領域を自車が通過したか否かを判定する。注意領域を自車が通過したと判定された場合、ステップS8に進み、画像生成部14は、仮想画像中の注意領域の強調表示を停止する信号を表示部5に出力する。
本発明の本発明の実施形態に係る乗用移動体用の画像表示プログラムは、図18に示した画像表示方法の手順を、制御装置1を構成するコンピュータに実行させる。即ち、本発明の実施の形態に係る運転支援プログラムは、乗用移動体の周囲状況を検出する手順、周囲状況に基づいて、乗用移動体の周囲の注意領域を検出する手順、注意領域に対して強調箇所を決定する手順、強調箇所を強調するように周囲状況を表示する仮想画像を生成する手順、仮想画像を表示部に表示する手順等を制御装置1を構成するコンピュータに実行させる。本発明の実施の形態に係る画像表示プログラムは、例えばデータ記憶装置7に格納可能である。
なお、本発明の実施形態に係る画像表示方法は、例えば図19に示すフローチャートの手順であってもよい。図18に示したフローチャートと同様にステップS1〜S3の手順を実行した後、ステップS11に進み、強調箇所決定部13が、移動物体検出部12により検出された移動物体の有無を判定せずに、注意領域検出部11により検出された注意領域注意領域に対して強調箇所を決定してもよい。画像生成部14は、注意領域を強調表示した仮想画像を生成する。表示部5は、画像生成部14により生成された仮想画像を表示する。
その後、ステップS12において、図18に示したフローチャートのステップS10と同様に、画像生成部14は、GPS等から得られる自車両20の位置等に基づいて、強調表示している注意領域を自車が通過したか否かを判定する。注意領域を自車が通過したと判定された場合、ステップS13に進み、図18に示したフローチャートのステップS10と同様に、画像生成部14は、仮想画像中の注意領域の強調表示を停止する。
また、図18に示したフローチャートでは、ステップS6とステップS9でそれぞれ注意領域又は移動物体を択一的に強調表示する場合を例示したが、注意領域及び移動物体を同時に強調表示してもよい。
以上説明したように、本発明の実施形態によれば、運転シーンを判別して、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性の有る領域を注意領域として、自車両20の周囲の幅広い範囲において運転シーンに応じた注意領域を検出し、注意領域を強調表示する。この結果、運転シーンに応じて特に進行方向以外にも乗員が注意すべき領域を、容易に且つ幅広い範囲で、乗員に対して知覚させることができる。
特に、本発明の実施形態のように自車両20の周囲状況全体をCG画像で表示する場合には、CG化により現実世界において運転時に不要な情報を排除できる一方で、乗員が注意領域を知覚するのに役立つ情報の損失が考えられる。これに対して、本発明の実施形態によれば、CG化による情報の損失を補うように、乗員に対して注意領域を容易に知覚させることができる。
更に、自車両20の周囲を複数の領域RAに仮想的に分割して、複数の領域RAごとに注意度を算出し、注意度が所定の閾値以上の領域を強調するように仮想画像を生成することにより、乗員が注意を向けるべき領域を複数の領域RAの単位で容易に知覚することができる。
<第1の変形例>
本発明の実施形態の第1の変形例として、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像を生成する場合を説明する。
図20は、「交差点左折」の運転シーンを示している。交差点には、標識51,52及び横断歩道41,42が設置されており、他車両21〜23、二輪車81〜83、歩行者71〜73及び自転車61〜67が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点左折」と判別する。
注意領域検出部11は、シーン判別部10により判別された運転シーンが「交差点左折」であることに基づいて、周囲状況検出部4により検出された周囲状況から、他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67、標識51,52、横断歩道41,42を注意対象物として検出する。なお、図14に示した「交差点左折」の運転シーンの場合と同様に、注意領域検出部11は、交差点の中心の3/4程度の円弧の領域を注意場所として更に検出してもよい。
強調箇所決定部13は、注意領域検出部11により検出された他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67、標識51,52、横断歩道41,42が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、注意領域検出部11により検出された注意対象物のうち、移動物体である他車両21〜23、二輪車81〜83、歩行者71〜73、自転車61〜67が、自車両20が左折する際に交錯する可能性のある進行方向を検出する。
例えば、強調箇所決定部13は、左側から交差点に進入する他車両21について、直進又は右左折する可能性があるが、自車両20が左折する際には交錯する可能性はないと判定する。強調箇所決定部13は、対向車線側から交差点に進入する他車両22及び二輪車81について、直進又は右左折する可能性があるが、自車両20が左折する際に交錯する可能性がある右折方向を強調箇所として決定する。
強調箇所決定部13は、右側から交差点に進入する他車両23及び二輪車83について、直進又は右左折する可能性があるが、自車両20が左折する際に交錯する可能性がある直進方向を強調箇所として決定する。強調箇所決定部13は、自車両20の後方の二輪車82について、自車両20が左折する際に巻き込む可能性がある直進方向を強調箇所として決定する。
強調箇所決定部13は、左側の横断歩道41近傍の歩行者71、72、自転車61,62,64については、自車両20が左折する際に交錯する可能性がある横断歩道41を横断する方向を強調箇所としてそれぞれ決定する。強調箇所決定部13は、交差点の横断歩道から離れた場所にいる歩行者73、自転車61,65,67については、自車両20が左折する際に交錯する可能性がある自車両20の前方を横断する方向を強調箇所としてそれぞれ決定する。
画像生成部14は、図21に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I13を生成する。仮想画像I13において、図20に示した他車両21〜23に対応する他車両M21〜M23が強調表示されるとともに、他車両M22,M23の進行方向を示す矢印D22,D23も強調表示されている。
更に、図20に示した二輪車81〜83に対応する二輪車M81〜M83が強調表示されるとともに、二輪車M81〜M83の進行方向を示す矢印D81〜D83も強調表示されている。更に、図20に示した歩行者71〜73及び自転車61〜67に対応する歩行者M71〜M73及び自転車M61〜M67が強調表示されるとともに、歩行者M71〜M73及び自転車M61〜M67の進行方向を示す矢印D71〜D73,D61〜D67も強調表示されている。
本発明の実施形態の第1の変形例によれば、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像I13を生成することにより、注意対象物の注意すべき進行方向を容易に把握することができる。
<第2の変形例>
本発明の実施形態の第3の変形例として、第1の変形例と同様に、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像を生成する場合であるが、第1の変形例とは異なり交差点を右折する場合を説明する。
図22は、「交差点右折」の運転シーンを示している。自車両20は、信号機が無い交差点を右折しようとしている。交差点には、標識51,52及び横断歩道41,42が設置されており、他車両21〜24、二輪車81〜84、歩行者71及び自転車61〜63が存在している。シーン判別部10は、自車位置取得部2により取得された自車両20の地図上における現在位置や、方向指示器の操作情報等に基づいて、運転シーンを「交差点右折」と判別する。
注意領域検出部11は、シーン判別部10により判別された運転シーンが「交差点右折」であることに基づいて、周囲状況検出部4により検出された周囲状況から、他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、標識51,52、横断歩道41,42を注意対象物として検出する。なお、図16に示した「交差点左折」の運転シーンの場合と同様に、注意領域検出部11は、交差点の中心の3/4程度の円弧の領域を注意場所として更に検出してもよい。
強調箇所決定部13は、注意領域検出部11により検出された他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、標識51,52、横断歩道41,42が存在する注意領域を強調箇所として決定する。強調箇所決定部13は更に、注意領域検出部11により検出された注意対象物のうち、移動物体である他車両21〜24、二輪車81〜84、歩行者71、自転車61〜63、が右折する際に交錯する可能性のある進行方向を強調箇所として決定する。
例えば、強調箇所決定部13は、左側から交差点に進入する他車両21及び二輪車81について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。強調箇所決定部13は、対向車線側から交差点に進入する他車両22及び二輪車82について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。
強調箇所決定部13は、右側から交差点に進入する他車両23及び二輪車84について、自車両20が右折する際に交錯する可能性がある直進方向及び右折方向を強調箇所として決定する。強調箇所決定部13は、自車両20の側方で交差点から離れていく他車両24について、自車両20が右折する際に交錯する可能性は無いと判定する。強調箇所決定部13は、自車両20の後方の二輪車83について、自車両20が右折する際に巻き込む可能性がある直進方向及び右折方向を強調箇所として決定する。
画像生成部14は、図23に示すように、強調箇所決定部13により決定した強調箇所を強調表示した仮想画像I14を生成する。仮想画像I14において、図22に示した他車両21〜24に対応する他車両M21〜M24が強調表示されるとともに、他車両M21〜M23の進行方向を示す矢印D21〜D23も強調表示されている。
更に、図22に示した二輪車81〜84に対応する二輪車M81〜M84が強調表示されるとともに、二輪車M81〜M84の進行方向を示す矢印D81〜D84も強調表示されている。更に、図22に示した歩行者71及び自転車61〜63に対応する歩行者M71及び自転車M61〜M63が強調表示されるとともに、歩行者M71及び自転車M61〜M63の進行方向を示す矢印D71,D61〜D63も強調表示されている。
本発明の実施形態の第2の変形例によれば、注意領域に存在する注意対象物の自車両20と交錯する可能性のある進行方向を検出し、検出された進行方向を強調した仮想画像I14を生成することにより、注意対象物の注意すべき進行方向を容易に把握することができる。
<第3の変形例>
本発明の実施形態の第3の変形例として、運転シーンが「狭路での通り抜け」である場合の強調表示の変形例を説明する。運転シーンが「狭路での通り抜け」である場合に、自車両20が前方に駐車中の他車両21を追い越す場合において、図24(a)に示すように、仮想画像I15中に、自車両M20の前方に車幅W1を規定する平行な直線L11,L12を強調表示してもよい。直線L11,L12を強調表示することにより、他車両M21との間隔及び自車両M20の車幅W1を容易に把握できる。
したがって、図24(b)に示すように、自車両20を旋回させ、図24(c)に示すように、他車両M21を追い越すたときも、仮想画像I15中の直線L11,L12により他車両M21との間隔を容易に把握でき、他車両M21を安全に追い越すことができる。
<第4の変形例>
本発明の実施形態の第4の変形例として、運転シーンが「狭路での通り抜け」である場合の強調表示の変形例を説明する。運転シーンが「狭路での通り抜け」であり、図4(a)に示すように自車両20がガードレール31と他車両21の間を通り抜ける場合に、図25(a)に示すように、自車両M20の車幅W1を規定する直線L11,L12を強調表示した仮想画像I16を生成してもよい。直線L11,L12を強調表示することにより、ガードレールM31や対向車である他車両M21との間隔を容易に把握できる。
また、運転シーンが「狭路での通り抜け」であり、図6(a)に示すように自車両20が電柱32と他車両21の間を通り抜ける場合に、図25(b)に示すように、自車両M20の車幅W1を規定する直線L11,L12を強調表示した仮想画像I17を生成してもよい。直線L11,L12を強調表示することにより、電柱M32や対向車である他車両M21との間隔を容易に把握できる。
また、運転シーンが「狭路での通り抜け」であり、自車両20が左折する場合に、図25(c)に示すように、自車両M20の軌跡を規定する曲線L11,L12を強調表示した仮想画像I18を生成してもよい。直線L11,L12を強調表示することにより、左折する軌跡を容易に把握できる。
(その他の実施の形態)
上記のように、本発明は実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
本発明の実施形態においては、乗用移動体が車両(自動車)である場合を例示したが、乗用移動体は車両に限定されず、飛行機やヘリコプター等の航空機、船舶等の乗員が乗って移動する移動体にも適用可能である。例えば、乗用移動体が航空機の場合の注意領域は、上空における航空機同士が交錯する可能性の有る領域を意味し、本発明の実施形態と同様に注意領域を強調表示できる。また、乗用移動体が船舶の場合の注意領域は、海上における船舶同士が交錯する可能性の有る領域を意味し、本発明の実施形態と同様に注意領域を強調表示できる。
本発明の実施形態においては、画像生成部14が仮想画像として俯瞰画像を生成する場合を例示したが、図26に示すように、仮想画像として前方画像I19を生成してもよい。前方画像I19においては、交差点において、他車両M21が強調表示されている。また、歩行者M71自体を強調表示するとともに、歩行者M71の足元を囲むように円形の領域M71aも強調表示されている。この領域M71aは、例えば歩行者M71の足元を囲みつつ、歩行者M71の向いている方向(移動可能性の高い方向)へ拡張してもよい。更に、歩行者M71の進行方向を示す矢印D71が矢印で強調表示されている。このように、注意領域に対する強調方法としては種々のバリエーションが採用可能である。
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
1…制御装置
2…自車位置取得部
3…注意領域記憶装置
4…周囲状況検出部
5…表示部
6…論理演算処理装置
7…データ記憶装置
10…シーン判別部
11…注意領域検出部
12…移動物体検出部
13…強調箇所決定部
14…画像生成部
20…自車両
21〜24…他車両
31…ガードレール
32…電柱
41,42…横断歩道
51,52…標識
53…信号機
61〜67…自転車
71〜73…歩行者
81〜84…二輪車

Claims (6)

  1. 乗用移動体の周囲状況を検出するステップと、
    前記周囲状況に基づいて、前記周囲状況中の前記乗用移動体の周囲の注意領域を検出するステップと、
    前記注意領域に対して強調箇所を決定するステップと、
    前記強調箇所を強調表示するように前記周囲状況を示す仮想画像を生成するステップと、
    前記仮想画像を表示部に表示するステップと
    を含み、
    前記強調箇所を決定するステップは、
    前記注意領域内の移動物体の有無を判定し、
    前記移動物体が有ると判定された場合、前記移動物体を前記強調箇所として決定し、前記移動物体が無いと判定された場合、前記注意領域を前記強調箇所として決定することにより、前記移動物体又は前記注意領域を択一的に強調表示する
    ことを特徴とする画像表示方法。
  2. 前記注意領域は、道路上における道路構造に応じて車両同士又は車両と人が交錯する可能性の有る領域であることを特徴とする請求項1に記載の画像表示方法。
  3. 前記強調箇所を決定するステップは、
    前記移動物体としての歩行者の足元を囲む領域を前記強調箇所として決定する
    ことを特徴とする請求項1又は2に記載の画像表示方法。
  4. 前記強調箇所を決定するステップは、
    前記検出された注意領域内の移動物体を検出し、
    前記検出された移動物体の進行方向を前記強調箇所として決定する
    ことを特徴とする請求項1〜3のいずれか1項に記載の画像表示方法。
  5. 前記注意領域を検出するステップは、
    前記乗用移動体の運転シーンを判別し、
    前記判別された運転シーンに応じて前記注意領域を検出する
    ことを特徴とする請求項1〜4のいずれか1項に記載の画像表示方法。
  6. 乗用移動体の周囲状況を検出する周囲状況検出部と、
    前記周囲状況に基づいて、前記周囲状況中の前記乗用移動体の周囲の注意領域を検出する注意領域検出部と、
    前記注意領域に対して強調箇所を決定する強調箇所決定部と、
    前記強調箇所を強調表示するように前記周囲状況を示す仮想画像を生成する画像生成部と、
    前記仮想画像を表示する表示部と
    を備え、
    前記強調箇所決定部は、
    前記注意領域内の移動物体の有無を判定し、
    前記移動物体が有ると判定された場合、前記移動物体を前記強調箇所として決定し、前記移動物体が無いと判定された場合、前記注意領域を前記強調箇所として決定することにより、前記移動物体又は前記注意領域を択一的に強調表示する
    ことを特徴とする画像表示装置。
JP2016080668A 2016-04-13 2016-04-13 画像表示方法及び画像表示装置 Active JP6733277B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016080668A JP6733277B2 (ja) 2016-04-13 2016-04-13 画像表示方法及び画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016080668A JP6733277B2 (ja) 2016-04-13 2016-04-13 画像表示方法及び画像表示装置

Publications (2)

Publication Number Publication Date
JP2017191472A JP2017191472A (ja) 2017-10-19
JP6733277B2 true JP6733277B2 (ja) 2020-07-29

Family

ID=60084855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016080668A Active JP6733277B2 (ja) 2016-04-13 2016-04-13 画像表示方法及び画像表示装置

Country Status (1)

Country Link
JP (1) JP6733277B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019193715A1 (ja) * 2018-04-05 2021-01-07 三菱電機株式会社 運転支援装置
JP2020077127A (ja) * 2018-11-06 2020-05-21 三菱自動車工業株式会社 運転支援装置
JP2021086342A (ja) * 2019-11-27 2021-06-03 株式会社デンソーテン 情報処理装置および情報処理方法
CN114730526A (zh) 2019-11-28 2022-07-08 三菱电机株式会社 物体识别装置、物体识别方法及物体识别程序

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2006327527A (ja) * 2005-05-30 2006-12-07 Honda Motor Co Ltd 車両の走行安全装置
JP5146482B2 (ja) * 2010-03-29 2013-02-20 株式会社デンソー 交錯点マップ作成装置および交錯点マップ作成装置用のプログラム
JP6231345B2 (ja) * 2013-10-18 2017-11-15 クラリオン株式会社 車両用発進支援装置
JP6394940B2 (ja) * 2014-05-23 2018-09-26 日本精機株式会社 車両用表示システム

Also Published As

Publication number Publication date
JP2017191472A (ja) 2017-10-19

Similar Documents

Publication Publication Date Title
RU2704773C1 (ru) Способ и устройство управления отображением
JP6658905B2 (ja) 走行支援装置及びコンピュータプログラム
JP6825709B2 (ja) 周囲車両表示方法及び周囲車両表示装置
JP7048398B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6901555B2 (ja) 自動運転車の制御のための車両制御装置及び方法
CN109426256A (zh) 自动驾驶车辆的基于驾驶员意图的车道辅助***
US11996018B2 (en) Display control device and display control program product
JP6666883B2 (ja) 走行支援装置
JP2018095143A (ja) 車両制御装置
JP2019095213A (ja) 重畳画像表示装置及びコンピュータプログラム
JP2019053574A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7002246B2 (ja) 車両用表示方法及び車両用表示装置
JP6733277B2 (ja) 画像表示方法及び画像表示装置
WO2020008220A1 (ja) 走行軌道生成方法及び走行軌道生成装置
JPWO2018012474A1 (ja) 画像制御装置及び表示装置
US20200096360A1 (en) Method for planning trajectory of vehicle
JPWO2020003452A1 (ja) 運転支援方法及び運転支援装置
JPWO2018220851A1 (ja) 自動運転車の制御のための車両制御装置及び方法
JP6654440B2 (ja) 車両認識装置および車両認識方法
JP2021157449A (ja) 車両及びその制御装置
JP2019027996A (ja) 車両用表示方法及び車両用表示装置
JP2019020127A (ja) 運転支援車両のルート探索方法及びルート探索装置
US20200168180A1 (en) Display system, display control method, and storage medium
JP2023165721A (ja) 表示制御装置
JP2020041913A (ja) 表示システム、表示制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R151 Written notification of patent or utility model registration

Ref document number: 6733277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151