JP2016097843A - 周辺監視装置 - Google Patents
周辺監視装置 Download PDFInfo
- Publication number
- JP2016097843A JP2016097843A JP2014237023A JP2014237023A JP2016097843A JP 2016097843 A JP2016097843 A JP 2016097843A JP 2014237023 A JP2014237023 A JP 2014237023A JP 2014237023 A JP2014237023 A JP 2014237023A JP 2016097843 A JP2016097843 A JP 2016097843A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- image data
- height
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】車両の周囲の状況の認識が容易になる。
【解決手段】実施形態の周辺監視装置は、車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力処理する入力部と、入力部が入力した測距データに基づいて生成された、車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する出力部と、を備える。
【選択図】図8
【解決手段】実施形態の周辺監視装置は、車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力処理する入力部と、入力部が入力した測距データに基づいて生成された、車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する出力部と、を備える。
【選択図】図8
Description
本発明の実施形態は、周辺監視装置に関する。
従来、車両の運転を支援する技術として、車両に設けられたセンサで、車両の周辺環境の障害物を検出し、検出された障害物の位置を表示する技術が提案されている。
従来技術においては、車両の周囲の物の位置を表示する手法として、例えば、ポリゴン等を用いた表示等様々な手法がある。
しかしながら、従来技術においては、表示されている物の高さを把握しにくいという問題があった。
本発明は、上記に鑑みてなされたものであり、周囲の状況を認識することが容易になる周辺監視装置を提供することを目的の1つとする。
実施形態の周辺監視装置は、一例として、車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力処理する入力部と、入力部が入力した測距データに基づいて生成された、車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する出力部と、を備える。よって、一例としては、車両の周囲の物体が高さに応じて色が異ならせて表示されるため、車両の周囲の状況の認識が容易になるという効果を奏する。
また、上記周辺監視装置は、一例として、入力部は、さらに、車両に設けられた撮像部から、当該車両の周囲に存在する物体が撮像された撮像画像データを入力処理し、出力部は、撮像画像データに表された物体の色と、測距データに基づいた物体の高さに応じた色と、を重畳した表示情報を、表示装置に出力する。よって、一例としては、車両の周囲の物体が高さに応じて色が異なると共に当該物体の色が表されるため、車両の周囲の状況の認識が容易になるという効果を奏する。
また、上記周辺監視装置は、一例として、出力部が出力する表示情報において、車両が走行する走行面を基準として、上方向と下方向とで色を異ならせる。よって、一例としては、走行面を基準とした高さに応じて、車両の周辺の物体の色が異なるため、車両の周囲の状況の認識が容易になるという効果を奏する。
また、上記周辺監視装置は、一例として、出力部は、撮像部により撮像された一枚の撮像画像データに表された物体の色を用いた、表示情報を、表示装置に出力する。よって、一例としては、撮像画像データで示された物の色が表示されるため、車両の周囲の状況の認識が容易になるという効果を奏する。
また、上記周辺監視装置は、一例として、出力部は、撮像部により撮像された時刻が異なる複数の撮像画像データを用いた表示情報を、表示装置に出力する。よって、一例としては、複数の撮像画像データを組み合わせて車両の周囲の状況を表すため、車両の周囲の状況の認識が容易になるという効果を奏する。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用および結果(効果)は、あくまで一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成によって得られる種々の効果(派生的な効果も含む)を得ることが可能である。
実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
図1に示されるように、車体2は、乗員(図示されず)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)から突出したステアリングホイールであり、加速操作部5は、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、センターコンソールから突出したシフトレバーであるが、これらには限定されない。
また、車室2a内には、表示装置8(表示出力部)や、音声出力装置9(音声出力部)が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、一例として、スピーカである。また、本実施形態では、一例として、表示装置8は、透明な操作入力部10(例えば、タッチパネル等)で覆われている。乗員等は、操作入力部10を介して表示装置8の表示画面に表示される映像(画像)を視認することができる。また、乗員等は、表示装置8の表示画面に表示される映像(画像)に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力(指示入力)を実行することができる。また、本実施形態では、一例として、表示装置8や、音声出力装置9、操作入力部10等は、ダッシュボードの車幅方向(左右方向)の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の操作入力部(図示されず)を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に音声出力装置(図示されず)を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。また、本実施形態では、一例として、モニタ装置11は、ナビゲーションシステムやオーディオシステムと兼用されているが、周辺監視装置用のモニタ装置を、これらシステムとは別に設けてもよい。また、音声出力装置9の他に、ブザー等の音声出力部から、警報音等が出力されるように構成することができる。
また、図1,2に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。そして、例えば前輪3Fのタイヤ角が操舵部4(ステアリングホイール)の操作に対応して変化(転舵)する。操舵システム12は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム12は、アクチュエータ12aによって操舵部4にトルク(アシストトルク)を付加して操舵力を補って、車輪3Fを操舵する。なお、別の実施例において、操舵システム12は、前輪と後輪が独立または関連して操舵されるように構成してもよい。一例として、二つの前輪3Fは、互いに同相(同位相、同転舵方向、同回動方向)で略平行に転舵され、二つの後輪3Rは、互いに同相で略平行に転舵される。なお、駆動輪は種々に設定可能である。
また、本実施形態では、一例として、図2に示されるように、車両1(車体2)には、複数(本実施形態では、一例として2つ)の撮像部16(16a〜16b)が設けられている。撮像部16は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部16は、所定のフレームレートで撮像画像データ(動画データ、フレームデータ)を出力できる。撮像部16は、それぞれ、広角レンズを有し、水平方向には例えば140°〜220°の範囲(視野角)を撮影することができる。また、撮像部16の光軸は下方(例えば、鉛直方向や斜め下方)に向けて設定されている。よって、撮像部16は、車両1が移動可能な路面を含む車体2の周辺の外部の環境を撮影する。
本実施形態では、一例として、撮像部16aは、車体2の前側(車両前後方向の前方側)の端部2c(平面視での端部)に位置され、フロントバンパ等に設けられている。撮像部16bは、車体2の後側(車両前後方向の後方側)の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。これにより、車両1の周囲の状況を撮像できる。
本実施形態では、一例として、図1,2に示されるように、車両1(車体2)には、2個の測距センサ17(17a〜17b)が設けられている。測距センサ17は、例えば、LEDやレーザダイオードから光を照射し、車両1の周囲に存在する物体に当たると反射され、当該反射された光を受光することで、当該物体が存在する方向及び距離を検出可能なセンサとする。
図3は、車両1に設けられた撮像部16が撮像する範囲と、測距センサ17が物体を検出可能な範囲を例示した図である。図3に示されるように、撮像部16a、16bが撮像する範囲は、車両の前方向又は後ろ方向を光軸321、322を基準として、140°〜220°の範囲311、312となる。測距センサ17a、17bは、車両1の左右方向に光の照射方向を移動可能としている。これにより、測距センサ17a、17bは、範囲301、302内で障害物を検出可能となる。
図4は、本実施形態の測距センサ17aから照射した光の経路を例示した図である。図4に示されるように、本実施形態では、車両1の走行している路面に対して、角度θになるように、測距センサ17aから光が照射されている。そして、車両1の走行に従って、測距センサ17aが測距している範囲が変化する。そこで、車両1が、走行に従って変化する検出結果を蓄積することで、車両1の周囲の状況を把握できる。
図5は、本実施形態の測距センサ17aにより検出された障害物を説明した図である。図5に示されるように、測距センサ17aから照射された光は、角度θで照射されているため、障害物にぶつかって反射してきた際に、距離の他に当該障害物の高さを認識できる。なお、図1,2で示される例では、説明を容易にするために車両1のフロントバンパやリヤトランクのドアに測距センサ17を設けた例について説明したが、測距センサ17を設ける位置を制限するものではない。例えば、さらに高い障害物を検出するために、車両1のルーフ近傍に測距センサ17を設けても良い。
さらに、測距センサ17は、車両1が走行している路面に対して、所定の角度で光を照射する例に制限するものではなく、測距センサ17が照射する光の方向を、上下方向に変化させてもよい。図6は、変形例の測距センサ17aが照射する光の方向を、上下方向に移動させた例を示した図である。図6に示されるように、測距センサ17aが上下方向に光を照射することで、車両1の周囲に存在する様々な物体の高さを検出することが可能となる。
また、本実施形態では、一例として、図7に示されるように、周辺監視システム(周辺監視装置)100では、ECU14(electronic control unit)や、モニタ装置11等の他、操舵システム12、測距センサ17、ブレーキシステム18、舵角センサ19(角度センサ)、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、車内ネットワーク23(電気通信回線)を介して電気的に接続されている。
車内ネットワーク23は、一例としては、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ12b、ブレーキセンサ18b、舵角センサ19(前輪3F用)、アクセルセンサ20、シフトセンサ21、車輪速センサ22、測距センサ17等の検出結果、ならびに、操作入力部10等の指示信号(制御信号、操作信号、入力信号、データ)を受け取ることができる。
ECU14は、一例として、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理や、車両1の移動経路の演算、物体との干渉の有無の判断等の各種の演算処理を実行する。CPU14aは、ROM14b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。
RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部16で得られた画像データを用いた画像処理や、表示装置8で表示される画像データの画像処理(一例としては画像合成)等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されることができる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
図8は、本実施形態にかかるECU14の構成を示すブロック図である。図8に示すように、ECU14は、ECU14として構成されたCPU14aが、ROM14b内に格納されたソフトウェアを実行することで、入力インターフェース部801と、曲率半径算出部802と、移動距離算出部803と、進行方向判定部804と、距離取得部805と、映像取得部806と、車両位置推定部807と、3Dマップ位置変換部808と、投影変換部809と、3Dマップ合成部811と、視点処理部812と、出力部813と、を実現する。また、RAM14c上に、位置記憶部810が設けられる。
入力インターフェース部801は、舵角センサ19からの舵角情報と、車輪速センサ22からの車輪速情報と、シフトセンサ21からのシフト情報と、測距センサ17からの測距情報と、撮像部16からの撮像画像データと、を入力処理する。
測距情報は、車両1に設けられた測距センサ17から、当該車両1から、車両1の周囲に存在する物体までの距離と共に、当該物体の高さ情報を算出可能なデータとする。撮像画像データは、車両1に設けられた撮像部16から、車両1の周囲に存在する物体を撮像したデータとする。
曲率半径算出部802は、舵角センサ19からの舵角情報に基づいて、車両1の旋回半径を算出する。
移動距離算出部803は、車輪速センサ22からの車輪速情報に基づいて、車両1の移動距離を算出する。
進行方向判定部804は、シフトセンサ21からのシフト情報と、車輪速センサ22からの車輪速情報と、に基づいて、車両1の進行方向を特定する。
距離取得部805は、測距センサ17からの測距情報に基づいて、車両1から、車両1の周辺に存在する物体までの距離と、当該物体が検出された高さと、を取得する。
映像取得部806は、撮像部16により撮像された撮像画像データを取得する。
車両位置推定部807は、算出された車両1の旋回半径、移動距離、及び進行方向に基づいて、車両1の位置を推定する。
3Dマップ位置変換部808は、車両1の位置と、当該車両1から物体までの距離と、当該物体が検出された高さと、に基づいて、車両1の位置と、当該物体の位置とを、車両1の周辺の環境を表した3Dマップ上における車両1の位置座標、及び当該物体の位置座標に変換する。
投影変換部809は、撮像画像データにおいて生じているレンズ等による歪みを取り除くと共に、撮像画像データに含まれている表示領域毎に区切った画像データを、3Dマップに貼り付けるためのテクスチャとして、3Dマップに含まれている各領域と対応付ける。
3Dマップ合成部811は、3Dマップ位置変換部808により変換された物体の位置に対して、車両1が走行している路面を基準として、高さに基づいた色の設定を行う。
本実施形態の3Dマップ合成部811は、3Dマップ上に存在する物体に対して、路面に近い高さを青色とし、路面から高くなるに従って赤色が濃くなるように設定する。本実施形態では、青色から赤色に変化する基準となる高さは、車両1が乗り越えられる高さを青色とし、車両1が乗り越えられない高さを赤色に設定する。
また、本実施形態の3Dマップ合成部811は、車両1が走行する走行面を基準として、上方向と下方向とで色を異ならせて設定している。本実施形態の3Dマップ合成部811は、3Dマップ上に存在する側溝や溝に対して、路面に近い高さを青色とし、当該路面から低くなるに従って黒色が濃くなるように設定する。本実施形態では、青色から黒色に変化する基準となる高さは、車両1が再び乗り上げられる高さを青色とし、車両1が乗り上げできない高さを黒色に設定する。
また、本実施形態の3Dマップ合成部811は、位置記憶部810に記憶されている、3Dマップ上の各領域に存在する物体、側溝や溝についても、上述した基準に従って、色を設定する。
本実施形態の3Dマップ合成部811は、3Dマップ上の領域毎に、当該領域を示す位置と、物体の有無と、対応付けられたテクスチャと、を位置記憶部810に記憶する。
図9は、本実施形態の位置記憶部810のテーブル構造を例示した図である。図9に示されるように、位置記憶部810は、3Dマップ上の、X座標、Y座標、Z座標、障害物有無、及びテクスチャを対応付けて記憶している。
本実施形態の3Dマップ合成部811は、3Dマップ上の領域毎に、当該領域に設定された色と、当該領域に対応付けられたテクスチャと、を重畳する。
図10は、本実施形態の3Dマップ合成部811が合成するための3Dマップ上のテクスチャと、3Dマップ上の各領域に設定された色、と、を例示した図である。図10(A)では、撮像画像データからのテクスチャが、3Dマップ上の各領域に対応付けられている。図10(B)は、測距データから検出された3Dマップ上の物体に対して、路面からの高さに応じて設定された色を示している。
図10(A)に示した3Dマップ上のテクスチャが表示された場合には、車両1の周囲の状況を認識できるが、車両1の周囲に存在する物体の高さを把握しにくい。一方、図10(B)に示した3Dマップ上のハイトカラー(高さに応じて設定された色)が表示された場合には、車両1の周囲に存在する物体の高さが認識できるが、車両1の周囲の状況を認識しにくい。
そこで、本実施形態の3Dマップ合成部811が、図10(A)に示した撮像画像データからのテクスチャと、図10(B)に示した物体の高さに応じて設定された色と、を重畳することとした。重畳した3Dマップにおいては、テクスチャによる周囲の状況と、色による路面からの高さと、が含まれている。
ところで、第1の実施形態の3Dマップ合成部811は、撮像部16により撮像された撮像画像データにより生成されたテクスチャと、位置記憶部810に記憶されたテクスチャと、を、3Dマップ上の物体に対して貼り付けている。換言すれば、現在の撮像部16により撮像された撮像画像データの他に、異なる時刻に撮像部16により撮像された撮像画像データを用いている。つまり、車両1が走行している場合、車両1の走行に応じて、異なる範囲が撮像部16により撮像された複数の撮像画像データから生成されたテクスチャを用いて、3Dマップが生成されている。3Dマップ合成部811は、現在車両1が撮影できない領域にテクスチャを貼り付けた3Dマップを生成できる。これにより、表示装置8は、車両1の周囲の状況を詳細に認識可能な表示画像データを表示できる。
視点処理部812は、領域毎に、高さに応じた色及びテクスチャが重畳された3Dマップに対して、表示装置8に表示するための視点を設定する。そして、視点処理部812は、設定された視点から3Dマップを見た場合の表示画像データを生成する。
出力部813は、視点処理部812により生成された表示画像データを、表示装置8に出力する。
上述した構成で表示装置8に表示された表示画像データを運転者が視認することで、周囲の状況とともに周囲に存在する物体の高さを認識できる。
次に、本実施形態のECU14における、表示画像データを表示するまでの処理について説明する。図11は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
まず、入力インターフェース部801が、各種センサからの情報を入力処理する(ステップS1101)。
次に、曲率半径算出部802が、車両1の旋回半径を算出する(ステップS1102)。移動距離算出部803は、車輪速センサ22の車輪速情報に基づいて、車両1の移動距離を算出する(ステップS1103)。
進行方向判定部804は、シフトセンサ21からのシフト情報と、車輪速センサ22からの車輪速情報と、に基づいて、車両1の進行方向を特定する(ステップS1104)。なお、ステップS1102〜S1104までの処理の順序は一例として記載したもので、処理の順序を制限するものではない。
次に、車両位置推定部807が、旋回半径、移動距離、及び進行方向に基づいて、車両1の位置を推定する(ステップS1105)。
そして、距離取得部805は、測距センサ17からの測距情報に基づいて、車両1から車両1周辺の物体までの距離と、当該物体の高さと、を取得する(ステップS1106)。
次に、3Dマップ位置変換部808が、車両1の位置、車両1と物体との間の距離、及び物体の高さに基づいて、3Dマップ上における車両1の位置座標、及び当該物体の位置座標に変換する(ステップS1107)。
映像取得部806は、入力インターフェース部801を介して、撮像部16により撮像された、車両1周辺を撮像した撮像画像データを取得する(ステップS1108)。
そして、投影変換部809は、撮像画像データの歪み補正を行うと共に、撮像画像データに含まれているテクスチャを、3Dマップ上の領域と対応付ける(ステップS1109)。
3Dマップ合成部811は、3Dマップ上の物体に対して、車両1が走行している路面を基準として、高さに基づいた色の設定を行う(ステップS1110)。また、3Dマップ合成部811は、ステップS1106で取得した物体の高さに基づいた色の設定の他に、位置記憶部810に記憶されている物体の高さに基づいた色の設定を行う。
3Dマップ合成部811は、3Dマップ上の領域毎に、当該領域に設定された色と、当該領域に対応付けられたテクスチャと、を重畳する(ステップS1111)。なお、ステップS1111における重畳には、ステップS1109で対応付けられたテクスチャの他に、位置記憶部810に記憶されているテクスチャも用いる。
3Dマップ合成部811は、3Dマップ上の領域毎に、当該領域を示す位置座標と、物体の有無と、テクスチャと、を対応付けて位置記憶部810に記憶させる(ステップS1112)。なお、ステップS1111とS1112の順序は制限するものではなく、どちらが先に行われても良い。
そして、視点処理部812は、設定された視点に従って、3Dマップを参照した際の表示画像データを生成する(ステップS1113)。
次に、出力部813が、生成された表示画像データを、表示装置8に出力する(ステップS1114)。
上述した処理手順により、車両1周辺の状況、及び車両1周辺に存在する物体の高さを認識可能な表示画像データが表示装置8に表示されるので、ユーザは、物体の高さを含む車両1の周囲の状況を把握できる。
また、本実施形態では、位置記憶部810にテクスチャを格納し、3Dマップの生成時に用いることとした。これにより、3Dマップ合成部811は、撮像時刻が異なる複数の撮像画像データから生成されたテクスチャを貼り付けた3Dマップを生成している。例えば、車両1が走行している場合に、より広い領域が撮影されているため、生成された3Dマップでは、車両1の周囲の状況がより詳細に認識可能となる。
(変形例1)
第1の実施形態では、撮像部16により撮像された撮像画像データから生成されたテクスチャと、3Dマップ上の高さに応じて設定された色と、を重畳する例について説明した。しかしながら、第1の実施形態は、テクスチャと、高さに応じて設定された色と、を重畳する手法に制限するものでない。そこで、変形例1としては、撮像部16により撮像された撮像画像データから生成したテクスチャを用いない手法が考えられる。
第1の実施形態では、撮像部16により撮像された撮像画像データから生成されたテクスチャと、3Dマップ上の高さに応じて設定された色と、を重畳する例について説明した。しかしながら、第1の実施形態は、テクスチャと、高さに応じて設定された色と、を重畳する手法に制限するものでない。そこで、変形例1としては、撮像部16により撮像された撮像画像データから生成したテクスチャを用いない手法が考えられる。
つまり、3Dマップ合成部811が、3Dマップ上の物体に対して、路面からの高さに応じた色を設定する。そして、視点処理部812は、領域毎に、高さに応じた色が設定された3Dマップに対して、表示装置8に表示するための視点を設定する。そして、視点処理部812は、設定された視点から3Dマップを見た場合の表示画像データを生成する。
出力部813は、視点処理部812により生成された表示画像データを、表示装置8に出力する。これにより、車両1の周囲の物体について、高さに応じて色が設定された表示画像データが表示される。これにより、運転者は、表示画像データを視認した際に、車両1の周囲の物体の高さが把握できるので、周囲の状況の把握が容易となる。これにより、車両1の運転する際の利便性を向上させることができる。
(変形例2)
第1の実施形態においては、第1の実施形態の3Dマップ合成部811が、撮像部16により撮像された撮像画像データにより生成されたテクスチャと、位置記憶部810に記憶されたテクスチャと、を、3Dマップ上の物体に対して貼り付ける例について説明した。しかしながら、撮像された時刻が異なる複数の撮像画像データを用いた例に制限するものではない。そこで、変形例2においては、現在撮像部16により撮像された撮像画像データを用いた例について説明する。
第1の実施形態においては、第1の実施形態の3Dマップ合成部811が、撮像部16により撮像された撮像画像データにより生成されたテクスチャと、位置記憶部810に記憶されたテクスチャと、を、3Dマップ上の物体に対して貼り付ける例について説明した。しかしながら、撮像された時刻が異なる複数の撮像画像データを用いた例に制限するものではない。そこで、変形例2においては、現在撮像部16により撮像された撮像画像データを用いた例について説明する。
本変形例では、位置記憶部810は、3Dマップ上の各領域の位置座標と障害物の有無のみを対応付けて記憶し、テクスチャを記憶しないものとする。そして、3Dマップ合成部811は、現在の撮像部16により撮像された撮像画像データから生成されたテクスチャと、高さに応じて設定された色と、を重畳して3Dマップを生成する。そして、出力部813は、視点処理部812で設定された視点から3Dマップを参照した場合の表示画像データを、表示装置8に出力する。
ところで、第1の実施形態では、現在撮像された撮像画像データと、過去に撮像された撮像画像データと、を合成しているために、周囲を歩いている人がいる場合などに矛盾が生じた表示になる可能性がある。これに対して、本変形例では、現在撮像された撮像画像データのみを用いることで、破綻が生じていない表示が可能となる。
(変形例3)
上述した実施形態では、測距センサ17が車両1の前部と後部との2カ所設けられた例について説明した。しかしながら、測距センサ17を設ける位置を前部と後部との2カ所に制限するものではない。
上述した実施形態では、測距センサ17が車両1の前部と後部との2カ所設けられた例について説明した。しかしながら、測距センサ17を設ける位置を前部と後部との2カ所に制限するものではない。
そこで、変形例3においては、車両1の4方向に測距センサ17を設けた例について説明する。図12は、本変形例にかかる車両1に設けられた4個の測距センサ17から物体を検出可能な範囲を例示した図である。図12に示す例では、4カ所に測距センサ17a、17b、17c、17dを設けることで、範囲1201、1202、1203、1204内で、物体の検出が可能となる。換言すれば、本変形例では、車両1が移動することなく、車両1の周囲に存在する物体を検出できる。また、撮像部16も同様に4カ所設けても良い。これにより、車両1が移動しない場合でも、車両1の周囲の状況を表した、3Dマップに貼り付けるためのテクスチャを生成できる。
以上説明したとおり、上述した実施形態、及び変形例によれば、測距センサ17が車両1から車両1周辺に存在する物体までの距離と共に、当該物体の高さを検出している。そして、ECU14は、表示装置8に車両1の周囲の状況を表示画像データとして表示する際に、車両1が走行している路面を基準として、車両1の周囲に存在する物体の高さに応じて色を設定して、表示する。これにより、運転者は、車両1の周辺に存在する物体の高さを認識できるので、周囲の状況を容易に把握できる。これにより、運転者の操舵負担を軽減できる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上述した実施形態に関して、付記を開示する。
(付記)
周辺監視装置で実行される方法であって、
車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力し、
入力された前記測距データに基づいて生成された、前記車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する、
方法。
(付記)
周辺監視装置で実行される方法であって、
車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力し、
入力された前記測距データに基づいて生成された、前記車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する、
方法。
車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力する入力ステップと、
前記測距データに基づいて生成された、前記車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する出力ステップと、
をコンピュータに実行させるためのプログラム。
前記測距データに基づいて生成された、前記車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する出力ステップと、
をコンピュータに実行させるためのプログラム。
1…車両、8…表示装置、11…モニタ装置、14…ECU、16…撮像部、17…測距センサ、19…舵角センサ、20…アクセルセンサ、21…シフトセンサ、22…車輪速センサ、100…周辺監視システム、801…入力インターフェース部、802…曲率半径算出部、803…移動距離算出部、804…進行方向判定部、805…距離取得部、806…映像取得部、807…車両位置推定部、808…3Dマップ位置変換部、809…投影変換部、810…位置記憶部、811…3Dマップ合成部、812…視点処理部、813…出力部。
Claims (5)
- 車両に設けられた測距検知部から、当該車両から物体までの距離と共に、当該物体の高さ情報を算出可能な測距データを入力処理する入力部と、
前記入力部が入力した前記測距データに基づいて生成された、前記車両の周囲の物体について高さに応じて色を異ならせた表示情報を、表示装置に出力する出力部と、
を備える周辺監視装置。 - 前記入力部は、さらに、車両に設けられた撮像部から、当該車両の周囲に存在する物体が撮像された撮像画像データを入力処理し、
前記出力部は、前記撮像画像データに表された前記物体の色と、前記測距データに基づいた前記物体の高さに応じた色と、を重畳した表示情報を、前記表示装置に出力する、
請求項1に記載の周辺監視装置。 - 前記出力部が出力する前記表示情報において、前記車両が走行する走行面を基準として、上方向と下方向とで色を異ならせる、
請求項1又は2に記載の周辺監視装置。 - 前記出力部は、前記撮像部により撮像された一枚の前記撮像画像データに表された前記物体の色を用いた、前記表示情報を、前記表示装置に出力する、
請求項2に記載の周辺監視装置。 - 前記出力部は、前記撮像部により撮像された時刻が異なる複数の前記撮像画像データを用いた前記表示情報を、前記表示装置に出力する、
請求項2に記載の周辺監視装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014237023A JP2016097843A (ja) | 2014-11-21 | 2014-11-21 | 周辺監視装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014237023A JP2016097843A (ja) | 2014-11-21 | 2014-11-21 | 周辺監視装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016097843A true JP2016097843A (ja) | 2016-05-30 |
Family
ID=56076002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014237023A Pending JP2016097843A (ja) | 2014-11-21 | 2014-11-21 | 周辺監視装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016097843A (ja) |
-
2014
- 2014-11-21 JP JP2014237023A patent/JP2016097843A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6806156B2 (ja) | 周辺監視装置 | |
JP6094266B2 (ja) | 駐車支援装置、駐車支援方法およびプログラム | |
JP6281289B2 (ja) | 周辺監視装置、及びプログラム | |
JP6060910B2 (ja) | 周辺監視装置、及びプログラム | |
JP6380002B2 (ja) | 周辺監視装置 | |
US10179608B2 (en) | Parking assist device | |
JP6555056B2 (ja) | 周辺監視装置 | |
JP6760122B2 (ja) | 周辺監視装置 | |
JP5991112B2 (ja) | 駐車支援装置、制御方法、およびプログラム | |
JP2018063294A (ja) | 表示制御装置 | |
JP2014004930A (ja) | 駐車支援装置、駐車支援方法、及び駐車支援プログラム | |
JP2012086684A (ja) | 駐車支援装置 | |
JP2019054420A (ja) | 画像処理装置 | |
JP2018056951A (ja) | 表示制御装置 | |
JP6720729B2 (ja) | 表示制御装置 | |
WO2018003188A1 (ja) | 周辺監視装置 | |
JP2022023870A (ja) | 表示制御装置 | |
JP7009785B2 (ja) | 周辺監視装置 | |
JP2014004931A (ja) | 駐車支援装置、駐車支援方法、及び駐車支援プログラム | |
CN110546047A (zh) | 停车辅助装置 | |
JP2017085410A (ja) | 走行支援装置 | |
JP6610140B2 (ja) | 周辺監視装置 | |
JP2016097843A (ja) | 周辺監視装置 | |
JP6711151B2 (ja) | 運転支援装置 | |
JP2017069846A (ja) | 表示制御装置 |