JP5158063B2 - 車両用表示装置 - Google Patents

車両用表示装置 Download PDF

Info

Publication number
JP5158063B2
JP5158063B2 JP2009274707A JP2009274707A JP5158063B2 JP 5158063 B2 JP5158063 B2 JP 5158063B2 JP 2009274707 A JP2009274707 A JP 2009274707A JP 2009274707 A JP2009274707 A JP 2009274707A JP 5158063 B2 JP5158063 B2 JP 5158063B2
Authority
JP
Japan
Prior art keywords
change
vehicle
unit
display
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009274707A
Other languages
English (en)
Other versions
JP2011119917A (ja
Inventor
直之 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009274707A priority Critical patent/JP5158063B2/ja
Publication of JP2011119917A publication Critical patent/JP2011119917A/ja
Application granted granted Critical
Publication of JP5158063B2 publication Critical patent/JP5158063B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Landscapes

  • Instrument Panels (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載して用いられる車両用表示装置に関するものである。
従来から、車載用の表示装置として、赤外線カメラによって撮像された画像を表示して、夜間走行時に運転者の視覚をサポートするナイトビューモニター装置が知られている。例えば、特許文献1〜3には、赤外線カメラにて車両前方を撮像した画像から、走行に影響を与える可能性のある対象物を判定し、当該対象物をディスプレイの画面上において枠で囲って表示する強調表示を行う車両周辺表示装置が開示されている。
なお、撮像した画像から対象物を判定するのには、若干の時間(例えば100ms程度)が必要となる。従って、対象物の判定を行っている間に車両の移動等があると、リアルタイムの画像中の対象物に対しては枠の位置がずれてしまうことなる。
そこで、この問題を解決する手段として、ディスプレイに表示する画像を遅延させる遅延処理を行い、その遅延させた画像において枠の表示を行わせることによって、画像中の対象物に対して枠の位置がずれないようにしている。
特開2004−106682号公報 特開2004−364112号公報 特開2006−240362号公報
しかしながら、従来の技術では、実視界の像と遅延させた画像との間にずれが存在するので、運転者が違和感を受けるなど、運転者にとっての快適性が損なわれる問題点を有していた。また、従来の技術では、遅延処理によるコストアップという問題点も有していた。
本発明は、上記従来の問題点に鑑みなされたものであって、その目的は、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することを可能にする車両用表示装置を提供することにある。
車両に搭載された撮像部では車両の走行に伴って撮像位置や撮像方向が変化するため、車両に搭載された撮像部によって車両周辺を逐次撮像して得られる撮像画像中の対象物は、車両の走行に大きく影響されて撮像画像中での位置が変化する。
請求項1の構成によれば、この車両の走行に関連する情報である走行関連情報をもとに撮像画像中における対象物位置の変化を位置変化予測部によって予測するので、撮像画像中における対象物位置の変化をより精度良く予測できる可能性が高い。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に変化した対象物位置をより精度良く予測できる可能性が高い。
また、以上の構成によれば、位置変化予測部での予測結果に応じて、対象物を示す強調表示の範囲を拡大するので、撮像画像中における対象物位置の変化に合わせて強調表示の範囲を拡大することによって、変化後の対象物位置にも合う(例えば重なる)ように強調表示を行うことが可能になる。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器にリアルタイムに表示している撮像画像中の対象物に合うように強調表示を行うことが可能となる。
従って、以上の構成によれば、遅延処理を行わなくても表示器にリアルタイムに表示している撮像画像中の対象物に合うように強調表示を行うことが可能となり、撮像画像中の対象物に合うように強調表示を行いながらも、実視界の像と表示器に表示する撮像画像との間にずれを生じさせないようにすることが可能となる。その結果、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することが可能になる。
なお、撮像画像の中央から離れた位置に存在する対象物ほど車両の走行の影響によってずれが生じやすい。請求項2の構成によれば、走行関連情報に加え、撮像画像中での対象物の位置である対象物位置をもとに、撮像画像中における対象物位置の変化を位置変化予測部によって予測するので、撮像画像中における対象物位置の変化をさらに精度良く予測できる可能性が高い。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に変化した対象物位置をさらに精度良く予測できる可能性が高い。
従って、以上の構成によれば、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器にリアルタイムに表示している撮像画像中の対象物に合うようにさらに精度良く強調表示を行うことが可能となる。
なお、撮像画像中での対象物位置は、車両の走行に伴う対象物位置の変化方向に大きく影響するため、撮像画像中での対象物位置をもとに上記変化方向を推定することが可能である。また、走行関連情報は、車両の走行に伴う対象物位置の変化量に大きく影響するため、走行関連情報をもとに上記変化量を推定することが可能である。ここで、請求項3の構成によれば、対象物位置の変化方向および変化量を位置変化予測部で予測し、予測した対象物位置の変化方向に応じた方向に強調表示の範囲を拡大するとともに、予測した対象物位置の変化量に応じた大きさに強調表示の範囲を拡大するので、対象物により的確に合うように強調表示を行わせることが可能になる。
また、請求項4の構成によれば、走行関連情報をもとに撮像画像中における対象物位置の変化を位置変化予測部によって予測するので、撮像画像中における対象物位置の変化をより精度良く予測できる可能性が高い。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に変化した対象物位置をより精度良く予測できる可能性が高い。
また、以上の構成によれば、位置変化予測部での予測結果に応じて、対象物を示す強調表示の位置をずらすので、撮像画像中における対象物位置の変化に合わせて強調表示の位置をずらすことによって、変化後の対象物位置に合う(例えば重なる)ように強調表示を行うことが可能になる。よって、以上の構成によれば、撮像画像中の対象物に合うように強調表示を行いながらも、実視界の像と表示器に表示する撮像画像との間にずれを生じさせないようにすることが可能となる。その結果、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することが可能になる。
また、請求項5の構成によれば、走行関連情報に加え、対象物位置をもとに、撮像画像中における対象物位置の変化を位置変化予測部によって予測するので、撮像画像中における対象物位置の変化をさらに精度良く予測できる可能性が高い。以上の構成によれば、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器にリアルタイムに表示している撮像画像中の対象物に合うようにさらに精度良く強調表示を行うことが可能となる。
また、請求項6の構成によれば、対象物位置の変化方向および変化量を位置変化予測部で予測し、予測した対象物位置の変化方向に応じた方向に強調表示の位置をずらすとともに、予測した対象物位置の変化量に応じた量だけ強調表示の位置をずらすので、対象物により的確に合うように強調表示を行わせることが可能になる。
なお、車両の車速が速くなるほど、撮像画像中における対象物位置の変化量が増大しやすい傾向にある。よって、請求項7のように、少なくとも車速をもとに、撮像画像中における対象物位置の変化を予測する態様としてもよい。
また、車両の旋回状態は、車両の走行に伴う対象物位置の変化に大きく影響する。例えば、車両の旋回方向は車両の走行に伴う対象物位置の変化方向に大きく影響し、車両の旋回量は車両の走行に伴う対象物位置の変化量に大きく影響する。よって、請求項8のように、少なくとも旋回状態に関する情報をもとに、撮像画像中における対象物位置の変化を予測する態様としてもよい。
なお、車両の操舵角からは、車両の実舵角を求めることが可能である。また、車両の実舵角からは、車両の旋回方向と車両の旋回量を知ることができる。そして、車両の旋回方向および旋回量は、前述したように、車両の走行に伴う対象物位置の変化方向および変化量に大きく影響する。よって、請求項9のように、車両の操舵角をもとに車両の実舵角を求め、求めた実舵角をもとに、撮像画像中における対象物位置の変化を予測する態様としてもよい。
なお、車両の進路前方のカーブ情報からは、今後の車両の旋回状態を予測することが可能である。また、前述したように、車両の旋回状態をもとに、車両の旋回方向と車両の旋回量を知ることができる。そして、車両の旋回方向および旋回量は、前述したように、車両の走行に伴う対象物位置の変化方向および変化量に大きく影響する。よって、請求項10のように、少なくとも車両の進路前方のカーブ情報をもとに、撮像画像中における対象物位置の変化を予測する態様としてもよい。
前述したように、撮像画像の中央から離れた位置に存在する対象物ほど車両の走行の影響によってずれが生じやすい。請求項11の構成によれば、この撮像画像中での当該対象物の位置である対象物位置をもとに撮像画像中における対象物位置の変化を位置変化予測部によって予測するので、撮像画像中における対象物位置の変化をより精度良く予測できる可能性が高い。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に変化した対象物位置をより精度良く予測できる可能性が高い。
また、以上の構成によれば、位置変化予測部での予測結果に応じて、対象物を示す強調表示の範囲を拡大するので、撮像画像中における対象物位置の変化に合わせて強調表示の範囲を拡大することによって、変化後の対象物位置にも合う(例えば重なる)ように強調表示を行うことが可能になる。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器にリアルタイムに表示している撮像画像中の対象物に合うように強調表示を行うことが可能となる。
従って、以上の構成によれば、遅延処理を行わなくても表示器にリアルタイムに表示している撮像画像中の対象物に合うように強調表示を行うことが可能となり、撮像画像中の対象物に合うように強調表示を行いながらも、実視界の像と表示器に表示する撮像画像との間にずれを生じさせないようにすることが可能となる。その結果、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することが可能になる。
また、請求項12の構成によれば、対象物位置の変化方向および変化量を位置変化予測部で予測し、予測した対象物位置の変化方向に応じた方向に強調表示の範囲を拡大するとともに、予測した対象物位置の変化量に応じた大きさに強調表示の範囲を拡大するので、対象物により的確に合うように強調表示を行わせることが可能になる。
また、請求項13の構成によれば、対象物位置をもとに撮像画像中における対象物位置の変化を位置変化予測部によって予測するので、撮像画像中における対象物位置の変化をより精度良く予測できる可能性が高い。よって、撮像画像から対象物および対象物位置を画像認識部で検知するのに時間を要している間に変化した対象物位置をより精度良く予測できる可能性が高い。
また、以上の構成によれば、位置変化予測部での予測結果に応じて、対象物を示す強調表示の位置をずらすので、撮像画像中における対象物位置の変化に合わせて強調表示の位置をずらすことによって、変化後の対象物位置に合う(例えば重なる)ように強調表示を行うことが可能になる。よって、以上の構成によれば、撮像画像中の対象物に合うように強調表示を行いながらも、実視界の像と表示器に表示する撮像画像との間にずれを生じさせないようにすることが可能となる。その結果、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することが可能になる。
また、請求項14の構成によれば、対象物位置の変化方向および変化量を位置変化予測部で予測し、予測した対象物位置の変化方向に応じた方向に強調表示の位置をずらすとともに、予測した対象物位置の変化量に応じた量だけ強調表示の位置をずらすので、対象物により的確に合うように強調表示を行わせることが可能になる。
ナイトビューモニター装置100の概略的な構成を示すブロック図である。 近赤外光投光器1から照射される近赤外光の照射範囲の一例を模式的に示す図である。 ナイトビューECU4の概略的な構成を示すブロック図である。 歩行者検知ロジックの概略を説明する模式図である。 車両の走行に伴う対象物位置の変化について説明を行うための図である。 (a)〜(c)は、歩行者検知枠のX座標方向における補正について説明を行うための図である。 表示画像の表示の一例を示す図である。
以下、本発明の実施形態について図面を用いて説明する。図1は、本発明が適用されたナイトビューモニター装置100の概略的な構成を示すブロック図である。図1に示すナイトビューモニター装置100は、車両に搭載されるものであり、近赤外光投光器1、カメラ部2、表示器3、およびナイトビューECU4を含んでいる。また、近赤外光投光器1、カメラ部2、および表示器3とナイトビューECU4とは、例えばCAN(Controller AreaNetwork)などの通信プロトコルに準拠した車内LANで各々接続されている。なお、ナイトビューモニター装置100を搭載している車両を以降では自車両と呼ぶ。また、ナイトビューモニター装置100は、請求項の車両用表示装置に相当する。
近赤外光投光器1は、自車両の車体前部に設置されている。また、近赤外光投光器1は、近赤外光を発光するLED、すなわち、近赤外領域(例えば約800nm〜約1200nm)にピーク波長帯域を有する単波長LEDを、1つまたは複数備えており、自車両前方に近赤外光を照射する。
ここで、図2を用いて、近赤外光投光器1から照射される近赤外光の照射範囲について説明を行う。図2は、近赤外光投光器1から照射される近赤外光の照射範囲の一例を模式的に示す図である。可視光を照射する自車両のヘッドライトは、図2に示すように、ロービーム時には自車両前方の約50mまでが可視光の照射範囲となる。これに対して、近赤外光投光器1から照射される近赤外光は、ロービーム時の可視光の照射範囲よりも前方の、自車両前方の例えば約100mまでが照射範囲となる。なお、近赤外光投光器1から照射される近赤外光の投光角度範囲は例えば約15°とする。
ロービーム時の可視光の照射範囲が約50mまでなので、街灯などからの外光がなければ自車両の運転者は自車両前方の50mより先を目視することは困難である。よって、自車両前方の50mよりも先の自車両の予想進路に歩行者が存在した場合には、ロービーム時のヘッドライトから照射される可視光だけではこの歩行者を目視できない可能性が高い。これに対して、ナイトビューモニター装置100では、近赤外光投光器1から近赤外光をロービーム時のヘッドライトの照射距離よりも遠い自車両前方の約100mまで照射し、その反射光をカメラ部2で撮像するので、ロービーム時のヘッドライトから照射される可視光だけでは目視できない歩行者も撮像画像中に捉えることができる。
カメラ部2は、ウィンドシールド(フロントガラス)の内側に設けられており、自車両の車体前部に撮像方向を固定して設置され、自車両前方に所定角範囲で広がる領域(つまり、画角の範囲内の領域)を逐次撮像するものである。よって、カメラ部2が請求項の撮像部に相当する。また、カメラ部2は、近赤外領域に感度を持つCCDもしくはCMOS等の画像撮像素子などから構成されており、近赤外光投光器1から照射される近赤外光の反射光を映像信号に変換する。そして、カメラ部2が撮像した自車両前方周辺の画像情報(つまり、映像信号)は、ナイトビューECU4に逐次供給される。なお、カメラ部2は、ウィンドシールド(フロントガラス)の内側に設けられる構成であってもよいし、ウィンドシールド5の外側に設けられる構成としてもよい。なお、本実施形態では、画角が例えば15°であるものとして以降の説明を続ける。
表示器3は、自車両の車室内における運転者が視認可能な位置に設けられており、ナイトビューECU4から出力される画像を逐次表示する。例えば表示器3は、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて構成することができる。なお、表示器3は、例えばメーターパネルに設けられるものとする。
また、本実施形態では、表示器3がメーターパネルに設けられる構成を示したが、必ずしもこれに限らない。例えば、車載ナビゲーション装置に設けられたディスプレイを表示器3として利用する構成としてもよい。また、ウィンドシールドに画像を投影するヘッドアップディスプレイ(HUD)を表示器3とする構成としてもよい。
ナイトビューECU4は、CPU、ROM、RAM、メインタイマ、バックアップRAM、入出力インターフェース等を備えて構成され、カメラ部2や各種センサ等から入力された各種情報に基づき、ROMに記憶された各種の制御プログラムを実行することで各種の処理を実行する。
ここで、図3を用いて、ナイトビューECU4の概略的な構成について説明を行う。図3は、ナイトビューECU4の概略的な構成を示すブロック図である。図3に示すようにナイトビューECU4は、映像信号取得部41、A/D変換部42、分配処理部43、画像認識部44、走行関連情報取得部45、枠表示位置決定部46、描画部47、および制御部48を備えている。
映像信号取得部41は、カメラ部2から送られてきた映像信号を逐次取得し、A/D変換部42に送る。A/D変換部42は、アナログ信号である映像信号をデジタル画像(以下、近赤外光画像と呼ぶ)に変換し、分配処理部43に逐次出力する。分配処理部43は、A/D変換部42から出力された近赤外光画像を、画像認識部44と描画部47とにそれぞれ逐次出力する。なお、近赤外光画像が請求項の撮像画像に相当する。
画像認識部44は、分配処理部43から出力された近赤外光画像から、認識対象とする物体である対象物を画像認識によって検知するとともに、撮像画像中での当該対象物の位置(以下、対象物位置)を検知する。なお、本実施形態では、対象物を歩行者とした場合を例に挙げて以降の説明を行う。ここで、図4を用いて、画像認識部44において近赤外光画像から歩行者を画像認識によって検知する歩行者検知ロジックについての説明を行う。なお、図4は、歩行者検知ロジックの概略を説明する模式図である。
ここで、以降の説明の便宜上、概略辞書、詳細辞書、および誤りフィルターについての説明を行う。概略辞書および詳細辞書は、歩行者の複数の近赤外光画像例をもとに歩行者の特徴を学習して予め構築された複数種類のパターンの集合を格納した辞書である。なお、概略辞書および詳細辞書は、機械学習手法の1つであるアダブースト(Adaboost)学習法によって生成することが可能である。
また、例えば概略辞書は歩行者の全体(例えば歩行者の全身や半身など)の特徴を学習して構築された辞書であるのに対して、詳細辞書は歩行者の細部(例えば頭や腕や脚など)の特徴を学習して構築された辞書であって、概略辞書よりも詳細辞書の方が歩行者の判断基準が厳しくなるように設定されている。
さらに、誤りフィルターは、歩行者以外の物体(つまり、ノイズとなる物体)の複数の近赤外光画像例をもとに歩行者以外の物体の特徴を学習して予め構築された複数種類のパターンの集合を格納した辞書であって、アダブースト学習法によって生成することが可能である。なお、概略辞書および詳細辞書は、歩行者が含まれる画像を選別するのに用いられ、誤りフィルターは、歩行者以外の物体が含まれる画像を選別するのに用いられる。
画像認識部44では、まず、近赤外光画像から歩行者らしき物体を含む所定の領域の画像(つまり、候補画像)を抽出する。なお、近赤外光画像から切り出す候補画像の大きさは、予め決められた一定の大きさであってもよいし、歩行者らしき物体までの推定または計測された距離に応じた大きさであってもよい。続いて、候補画像と概略辞書中のパターンとを照合することによって、歩行者を含む可能性の高い候補画像(つまり、抽出候補画像)を絞り込む。さらに、抽出候補画像と誤りフィルター中のパターンとを照合することによって、抽出候補画像のうちから明らかに歩行者以外の物体が含まれるものを除外し、明らかな誤検知を却下する。
そして、誤りフィルターによって誤検知分を除いた抽出候補画像と詳細辞書中のパターンとを照合することによって、歩行者を含む画像(つまり、歩行者画像)を確定し、歩行者の検知および検知した歩行者の近赤外光画像中での位置、高さの検知を行う。また、画像認識部44は、検知した歩行者の近赤外光画像中での位置(以下、対象物位置)および高さを枠表示位置決定部46に出力する。なお、検知した歩行者の対象物位置および高さを以降では歩行者検知情報と呼ぶものとする。
なお、ここで言うところの対象物位置とは、例えば近赤外光画像中での歩行者の座標(X座標・Y座標)である。また、歩行者の座標は、例えば歩行者画像の重心の座標であってもよいし、歩行者画像の縦幅および横幅の中心の座標であってもよいし、歩行者画像の外接四角形の重心の座標であってもよいし、歩行者画像の外接四角形の四隅の座標であってもよい。以降の例では、近赤外光画像が640×480ドットの画像である場合を例に挙げて説明を続ける。なお、この場合、ドライバから見た左右方向に相当するx座標方向のドット数が640ドット、上下方向に相当するy座標方向のドット数が480ドットとし、近赤外光画像の中央の座標は、(X,Y)=(320,240)であるものとする。
図3に戻って、走行関連情報取得部45は、車両の走行に関連する情報(以下、走行関連情報)を、車両に設けられた各種センサや車載ナビゲーション装置から逐次取得する。そして、走行関連情報取得部45は、取得した走行関連情報を枠表示位置決定部46に送る。
例えば、走行関連情報取得部45は、車速センサ(もしくは車輪速センサ)から出力される自車両の車速を取得したり、加速度センサから出力される自車両の加減速度を取得したり、ステアリングセンサから出力される操舵角を取得したり、ヨーレートセンサから出力されるヨーレートを取得したりする。なお、走行関連情報取得部45は、各種センサから出力される走行関連情報を直接に取得する構成であってもよいし、各種センサから走行関連情報を取得したECUから取得する構成であってもよい。
また、例えば、走行関連情報取得部45は、自車両の進路前方の右左折の情報やカーブの曲率半径(カーブR)などのカーブ情報を車載ナビゲーション装置から取得したりする。なお、走行関連情報取得部45が、路車間通信や車車間通信を行う無線通信装置を介して、路側機や他車両から自車両の進路前方のカーブ情報を取得する構成としてもよい。
枠表示位置決定部46は、画像認識部44から得られた歩行者検知情報に基づいて、歩行者検知枠を近赤外光画像中で表示させる位置および大きさを決定する。具体的には、歩行者検知情報のうちの対象物位置をもとに、歩行者検知枠を表示させる位置を決定し、歩行者検知情報のうちの歩行者の高さをもとに、歩行者検知枠の縦・横の大きさを決定する。
なお、歩行者の高さと歩行者検知枠の縦・横の大きさとが予め対応付けられたテーブル等を用いて、歩行者検知情報のうちの歩行者の高さをもとに、歩行者検知枠の縦・横の大きさを決定する構成とすればよい。また、このテーブルでは、歩行者の高さごとに、歩行者を覆うことができる程度の縦・横の大きさが対応付けられているものとすればよい。
また、ここで言うところの歩行者検知枠とは、歩行者を近赤外光画像中において強調表示させるための枠であって、例えば歩行者を囲む方形の枠や円形の枠等とすればよい。また、本実施形態では、歩行者を近赤外光画像中において強調表示させる方法として、近赤外光画像中の歩行者を枠で囲む構成を示したが、必ずしもこれに限らない。例えば、近赤外光画像中の歩行者を矢印で示す等、他の方法によるものであってもよい。
なお、ここまで説明を行なった歩行者検知枠の位置や縦・横の大きさの決定は仮決定である。枠表示位置決定部46は、さらに、走行関連情報取得部45で得られる走行関連情報や歩行者検知情報のうちの対象物位置をもとに、車両の走行に伴う対象物位置の変化を予測することによって、変化後の対象物位置に合った歩行者検知枠の位置や縦・横の大きさを本決定する。以下では、この本決定の処理について説明を行なう。
まず、図5を用いて、車両の走行に伴う対象物位置の変化についての説明を行う。なお、図5に示す例では、自車両は60km/hで走行しており、自車両は100msの間にT1の位置からT2の位置まで前進するものとする。また、カメラ部2の画角は15°であり、カメラ部2では、自車両から50m先の左右方向13.2mの範囲までの画像が撮像されるものとする。なお、ここでは、便宜上、対象物位置の左右方向への変化についての説明を行なう。
自車両が前進を続ける場合には、近赤外光画像中の対象物位置は、対象物位置が近赤外光画像の中央である場合を除き、近赤外光画像のX座標方向の端へとずれていく傾向にある。図5の例のように、自車両がAの位置にあるときに、近赤外光画像の中央から右方向にずれた場所に歩行者が見えている場合には、自車両がT2の位置まで前進することにより、近赤外光画像中のさらに右方向に歩行者がずれて見えることになる。例えば、図5の例で、近赤外光画像の右端に存在する、自車両から50m先の歩行者は、100msの走行において、0.22m相当右方向に移動して見えることになる。従って、カメラ部2で撮像した近赤外光画像から歩行者や対象物位置を検知する処理に時間を要しているうちに、検知した対象物位置とリアルタイムの近赤外光画像中の対象物位置との間に検知遅れによるずれが生じてしまうことなる。
なお、歩行者の移動速度に対して、自車両の通常走行時(例えば、徐行以外の走行時)の速度は著しく大きいので、ここでは、例えば100msのような短時間における歩行者の移動については、対象物位置の変化への影響を考慮しないものとする。
枠表示位置決定部46は、走行関連情報取得部45で得られる走行関連情報や歩行者検知情報のうちの対象物位置をもとに、上述のずれを予測し、変化後の対象物位置に合った歩行者検知枠の位置や縦・横の大きさに補正する処理を行い、歩行者検知枠の位置や縦・横の大きさを本決定する。よって、枠表示位置決定部46が請求項の位置変化予測部に相当する。
ここで、歩行者検知枠の補正について図6(a)〜図6(c)を用いて説明を行なう。図6(a)〜図6(c)は、歩行者検知枠のX座標方向における補正について説明を行うための図である。なお、ここでは、自車両の車速と対象物位置とをもとに歩行者検知枠の横の大きさを補正する場合を一例として挙げて説明を行う。
検知遅れによるずれが生じない場合には、歩行者検知情報のうちの歩行者の高さをもとに仮決定された歩行者検知枠の縦・横の大きさのままでも、図6(a)に示すように歩行者検知枠によって歩行者を中心として囲う事ができる。なお、歩行者の高さをもとに仮決定された歩行者検知枠の横の大きさをaとする。
一方、検知遅れによるずれが生じる場合には、歩行者検知情報のうちの歩行者の高さをもとに仮決定された歩行者検知枠の縦・横の大きさのままでは、図6(b)に示すように歩行者と歩行者検知枠とがずれてしまい、見苦しい表示となる。また、この場合には、運転者は、歩行者検知枠が何を囲っているのか判らなくなる可能性もある。
そこで、図6(c)に示すように歩行者検知枠の横の大きさを対象物位置および車速を考慮した量(ここではbとする)だけ大きくして表示する事により、ずれが生じた後の歩行者も歩行者検知枠によって囲い、運転者に判りやすい表示を達成する。
bについては、検知遅れによるずれ量を考慮することによって求めることが可能である。具体的には、直線走行を前提とする場合には、枠表示位置決定部46は、以下の(1)式からbを算出する。なお、(1)式において、自車両の車速はV、対象物のX座標方向の位置はXと表している。また、枠表示位置決定部46は、近赤外光画像中での歩行者のX座標をもとに、近赤外光画像のX座標方向における画角のうちの何度に相当する場所に歩行者が存在するかを求め、求めた度数を対象物のX座標方向の位置として扱うものとする。
例えば、近赤外光画像中での歩行者のX座標と近赤外光画像の画角のうちの度数とを予め対応付けておき、これらの対応関係をもとに枠表示位置決定部46で対象物のX座標方向の位置を求める構成とすればよい。一例としては、ドット数0を−7.5°、ドット数320を0°、ドット数640を+7.5°といったように対応させるものとする。
また、(1)式において、C1は正の定数であり、適宜、設定されるものである。例えば、C1は、X=+7.5°でV=60km/hのときにb=0.22m相当(例えば0.22m相当のドット数など)となる値を設定する構成とすればよい。なお、bが正の値であった場合には歩行者検知枠の横の大きさを右方向にbだけ大きくする一方、bが負の値であった場合には歩行者検知枠の横の大きさを左方向にbだけ大きくするものとする。
Figure 0005158063
(1)式によれば、対象物位置が近赤外光画像の中央よりも右方向に存在している場合には、Xは正の値なのでbも正の値となり、歩行者検知枠の横の大きさを右方向に大きくする補正を行うことになる。対象物位置が近赤外光画像の中央よりも右方向に存在している場合には、自車両の前進により、近赤外光画像中のさらに右方向に歩行者がずれていく傾向があることから、この補正によって、検知遅れによるずれが生じた後の歩行者も歩行者検知枠によって囲うことが可能になる。
一方、対象物位置が近赤外光画像の中央よりも左方向に存在している場合には、Xは負の値なのでbも負の値となり、歩行者検知枠の横の大きさを左方向に大きくする補正を行うことになる。対象物位置が近赤外光画像の中央よりも左方向に存在している場合には、自車両の前進により、近赤外光画像中のさらに左方向に歩行者がずれていく傾向があることから、この補正によって、検知遅れによるずれが生じた後の歩行者も歩行者検知枠によって囲うことが可能になる。
さらに、対象物位置が近赤外光画像の中央である場合には、Xは0°なのでb=0となり、歩行者検知枠の横の大きさの補正を行わない。よって、対象物位置が近赤外光画像の中央にあってずれが生じず、歩行者検知枠の横の大きさの補正を行う必要のない場合には補正を行わずに済む。
つまり、枠表示位置決定部46は、(1)式を用いることによって、対象物位置をもとに対象物位置の変化方向が左右方向のいずれであるかを求めるともに、対象物位置および車速をもとに対象物位置の変化量を求めているということが言える。
なお、前述の実施形態では、直線走行を前提とする場合の一例について説明を行ったが、走行関連情報のうちの操舵角やヨーレートから自車両の旋回状態を枠表示位置決定部46が把握したり、走行関連情報のうちのカーブ情報から自車両の今後の旋回状態を枠表示位置決定部46が予測したりすることにより、さらにbの値を調整する構成としてもよい。
この場合には、枠表示位置決定部46は、以下の(2)式からbを算出する。なお、(2)式において、自車両の実舵角はδと表している。また、枠表示位置決定部46は、走行関連情報のうちの操舵角をもとに、自車両の実舵角を求めて扱うものとする。例えば、操舵角と実舵角とを予め対応付けておき、これらの対応関係をもとに枠表示位置決定部46で実舵角を求める構成とすればよい。
なお、ここで言うところの実舵角は、自車両の右前輪の実舵角であってもよいし、左前輪の実舵角であってもよいし、左右輪の実舵角の平均値であってもよい。また、実舵角δは右操舵を正方向とする。よって、右方向に実舵角が付いている場合にはδは正の値となり、左方向に実舵角が付いている場合にはδは負の値となる。
Figure 0005158063

(2)式によれば、自車両が右方向に旋回する度合いが強くなるほど(X−δ)の値が小さくなるので、自車両が右方向に旋回する度合いが強くなるほど、歩行者検知枠の横の大きさを左方向に向けて調整することになる。例えば、Xが負の値であれば、歩行者検知枠の横の大きさを左方向に大きくする補正をより強めるように調整することになる。また、Xが正の値であれば、X>δの場合には、歩行者検知枠の横の大きさを右方向に大きくする補正を弱めるように調整し、X<δの場合には、歩行者検知枠の横の大きさを左方向に大きくするよう調整することになる。
自車両が右方向に旋回していく場合には、近赤外光画像中の歩行者は左方向にずれていく傾向があることから、この補正によって、検知遅れによるずれが生じた後の歩行者も歩行者検知枠によって囲うことが可能になる。
一方、(2)式によれば、自車両が左方向に旋回する度合いが強くなるほど(X−δ)の値が大きくなるので、自車両が左方向に旋回する度合いが強くなるほど、歩行者検知枠の横の大きさを右方向に向けて調整することになる。例えば、Xが正の値であれば、歩行者検知枠の横の大きさを右方向に大きくする補正をより強めるように調整することになる。また、Xが負の値であれば、X>δの場合には、歩行者検知枠の横の大きさを左方向に大きくするよう調整し、X<δの場合には、歩行者検知枠の横の大きさを左方向に大きくする補正を弱めるように調整することになる。
自車両が左方向に旋回していく場合には、近赤外光画像中の歩行者は右方向にずれていく傾向があることから、この補正によって、検知遅れによるずれが生じた後の歩行者も歩行者検知枠によって囲うことが可能になる。
さらに、対象物位置が近赤外光画像の中央であって、自車両が直進状態の場合には、Xは0°であってδも0°なのでb=0となり、歩行者検知枠の横の大きさの補正を行わない。よって、対象物位置が近赤外光画像の中央にあるとともに自車両が直進状態であってずれが生じず、歩行者検知枠の横の大きさの補正を行う必要のない場合には補正を行わずに済む。
つまり、枠表示位置決定部46は、(2)式を用いることによって、対象物位置および実舵角をもとに対象物の位置の変化方向が左右方向にいずれであるかを求めるともに、対象物位置および車速をもとに対象物位置の変化量を求めているということが言える。
なお、ここでは、操舵角を用いて実舵角を求め、歩行者検知枠の補正を行う構成を示したが、必ずしもこれに限らない。例えば、操舵角と同様にしてヨーレートを用いて実舵角を求め、歩行者検知枠の補正を行う構成としてもよい。
また、カーブ情報をもとに自車両が今後取り得る実舵角を予測し、歩行者検知枠の補正を行う構成としてもよい。例えば、自車両の進路前方の右左折の情報を用いる場合には、右折時に取り得る実舵角のデータおよび左折時に取り得る実舵角のデータを予めナイトビューECU4で保持しておき、これらのデータを枠表示位置決定部46が右折時、左折時に応じて利用することによって自車両が今後取り得る実舵角を予測する構成とすればよい。
また、カーブRを用いる場合には、カーブRごとに取り得る実舵角のデータを予めナイトビューECU4で保持しておき、これらのデータを枠表示位置決定部46がカーブRに応じて利用することによって自車両が今後取り得る実舵角を予測する構成とすればよい。
なお、枠表示位置決定部46が(1)式を用いてbを求める場合と(2)式を用いてbを求める場合とを示したが、一方のみを用いる構成としてもよいし、両方を併用する構成としてもよい。なお、両方を併用する場合には、例えば操舵角をもとに自車両が直進状態か否かを枠表示位置決定部46が判断し、直進状態であると判断した場合には(1)式を用いてbを求め、直進状態であると判断しなかった場合には(2)式を用いてbを求める構成とすればよい。
また、枠表示位置決定部46は、bが正の値であった場合には、仮決定した歩行者検知枠の横の大きさを右方向にbだけ大きく設定し直して本決定とする。また、枠表示位置決定部46は、bが負の値であった場合には、仮決定した歩行者検知枠の横の大きさを左方向にbだけ大きく設定し直して本決定とする。さらに、bが0であった場合には、仮決定した歩行者検知枠の横の大きさを本決定とする。なお、歩行者検知枠の位置および歩行者検知枠の縦の大きさについては、仮決定したものをそのまま本決定とする。
そして、枠表示位置決定部46は、本決定した歩行者検知枠の位置および縦・横の大きさ(以下、枠生成情報)を描画部47に送る。なお、枠表示位置決定部46において100msの間での対象物位置の変化を予測する構成である場合には、枠生成情報を得るのに用いた近赤外光画像から100ms後の近赤外光画像を分配処理部43が描画部47に出力するのに同期させて、当該枠生成情報を枠表示位置決定部46から描画部47に出力する構成とすればよい。枠表示位置決定部46は、新たな近赤外光画像をもとに枠生成情報が本決定されるたびにこの枠生成情報を描画部47に逐次出力することになる。
なお、ここでは、枠生成情報を得るのに用いた近赤外光画像から100ms後の近赤外光画像を分配処理部43が描画部47に出力するのに同期させて、当該枠生成情報を枠表示位置決定部46から描画部47に出力する構成を示したが、必ずしもこれに限らない。例えば、枠生成情報を得るのに用いた近赤外光画像から200ms後の近赤外光画像を分配処理部43が描画部47に出力するのに同期させて、当該枠生成情報を枠表示位置決定部46から描画部47に出力する構成などとしてもよい。
描画部47は、分配処理部43から逐次出力される近赤外光画像と枠表示位置決定部46から逐次出力される枠生成情報とをもとに、当該近赤外光画像中の当該枠生成情報が示す位置に、当該枠生成情報が示す大きさの歩行者検知枠を合成した表示画像を逐次生成し、生成した表示画像を表示器3に逐次出力する。よって、描画部47が請求項の表示制御部に相当する。
なお、上記合成では、分配処理部43と枠表示位置決定部46とから前述したように同期して出力された近赤外光画像および枠生成情報を用いるものとする。そして、表示器3では、描画部47から入力された表示画像を逐次表示する。また、制御部48は、近赤外光投光器1からの近赤外光の照射やカメラ部2での画像の撮像を制御する。
ここで、図7を用いて、表示画像の表示例について説明を行う。なお、図7は、表示画像の表示の一例を示す図である。図7中のAが表示画像を示しており、Bが表示画像周囲の注意喚起枠を示しており、Cが表示画像中の歩行者検知枠を示している。図7に示すように、近赤外光の反射光を用いて撮像された画像が表示されるとともに、表示画像中の歩行者が歩行者検知枠によって強調表示される。
さらに、運転者に歩行者の存在を確実に伝達するために、歩行者が表示画像中に存在する場合には、表示画像の外周部に注意喚起枠を発光表示させる。なお、注意喚起枠を発光表示させる以外にも、図示しないスピーカから案内音声やブザー音を出力することによって表示画像中に歩行者が存在することを運転者に知らせる構成としてもよい。
また、ナイトビューECU4には、ナイトビューECU4の起動/停止を切り替える操作スイッチ(以下、ナイトビュースイッチと呼ぶ)が接続されており、このナイトビュースイッチのON/OFFによってナイトビューECU4が起動/停止されるものとする。
なお、本実施形態では、ナイトビュースイッチのON/OFFによってナイトビューECU4が起動/停止される構成を示したが、必ずしもこれに限らない。例えば、ナイトビューECU4には、自車両のヘッドライトの点消灯を切り替える図示しないヘッドライトスイッチが接続されており、このヘッドライトスイッチのON/OFFに連動してナイトビューECU4が起動/停止される構成としてもよい。この場合、ヘッドライトスイッチがONになってヘッドライトが点灯された場合には、ナイトビューECU4が起動され、ヘッドライトスイッチがOFFになってヘッドライトが消灯された場合には、ナイトビューECU4が停止される。
以上の構成によれば、車両の走行に伴う対象物位置の変化量に大きく影響する車速をもとに近赤外光画像中における対象物位置の変化を予測するので近赤外光画像中における対象物位置の変化をより精度良く予測できる可能性が高い。また、上記変化量および車両の走行に伴う対象物位置の変化方向に大きく影響する対象物位置や実舵角をもとに近赤外光画像中における対象物位置の変化を予測するので、近赤外光画像中における対象物位置の変化をさらに精度良く予測できる可能性が高い。よって、近赤外光画像から歩行者および対象物位置を画像認識部44で検知するのに時間を要している間に変化した対象物位置をより精度良く予測できる可能性が高い。
また、以上の構成によれば、対象物位置の変化方向および変化量を予測し、予測した対象物位置の変化方向に応じた方向に歩行者検知枠の表示の範囲を拡大するとともに、予測した対象物位置の変化量に応じた大きさに歩行者検知枠の表示の範囲を拡大することになる。よって、以上の構成によれば、近赤外光画像から歩行者および対象物位置を画像認識部44で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器3にリアルタイムに表示している近赤外光画像中の歩行者により的確に合うように歩行者検知枠の表示を行わせることが可能になる。
従って、以上の構成によれば、遅延処理を行わなくても表示器3にリアルタイムに表示している近赤外光画像中の歩行者に合うように歩行者検知枠の表示を行うことが可能となり、近赤外光画像中の歩行者に合うように歩行者検知枠の表示を行いながらも、実視界の像と表示器3に表示する近赤外光画像との間にずれを生じさせないようにすることが可能となる。その結果、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することが可能になる。
なお、前述の実施形態では、枠表示位置決定部46が、車速および対象物位置、もしくは車速、対象物、およびカーブ情報をもとに歩行者検知枠を補正する構成を示したが、必ずしもこれに限らない。例えば、枠表示位置決定部46が、走行関連情報および対象物位置情報のうちの車速のみをもとに歩行者検知枠を補正する構成としてもよい。具体的には、枠表示位置決定部46は、以下の(3)式からbを算出し、歩行者検知枠の横の大きさを左右方向にそれぞれbだけ大きくする構成とすればよい。なお、(3)式におけるVは前述の(1)式および(2)式のVと同様のものである。また、(3)式において、C2は正の定数であり、適宜、設定されるものである。例えば、C2としてC1と同じ値を用いてもよい。
Figure 0005158063
自車両の車速が速くなるほど車両の走行に伴う対象物位置の変化量も大きくなる。(3)式によれば、自車両の車速が速くなるほどbの値も大きくなり、歩行者検知枠の横の大きさを左右方向に大きくする補正を行うことになる。よって、以上の構成によれば、検知遅れによるずれが生じた後の歩行者も歩行者検知枠によって囲うことが可能になる。
また、枠表示位置決定部46が、走行関連情報および対象物位置情報のうちの対象物位置情報のみをもとに歩行者検知枠を補正する構成としてもよい。具体的には、枠表示位置決定部46は、以下の(4)式からbを算出し、歩行者検知枠の横の大きさを左方向もしくは右方向にbだけ大きくする構成とすればよい。なお、(4)式におけるXは、前述した(1)式および(2)式のXと同様のものである。また、(4)式において、C3は正の定数であり、適宜、設定されるものである。
Figure 0005158063
なお、検知遅れによるずれは、自車両の車速が速くなるほど大きくなる一方、車速が遅くなるほど小さくなるので、歩行者検知枠の大きさを大きくする本実施形態の構成においては、一般道での原則的な法定最高速度である60km/hの走行に対応できるC3を設定すれば、60km/h以下の走行にも対応することが可能である。従って、例えば、C1は、X=+7.5°でb=0.22m相当(例えば0.22m相当のドット数など)となる値を設定する構成とすればよい。
以上の構成によれば、対象物位置が近赤外光画像の中央よりも右方向に存在している場合には、Xは正の値なのでbも正の値となり、歩行者検知枠の横の大きさを右方向に大きくする補正を行うことになる。また、対象物位置が近赤外光画像の中央よりも左方向に存在している場合には、Xは負の値なのでbも負の値となり、歩行者検知枠の横の大きさを左方向に大きくする補正を行うことになる。さらに、対象物位置が近赤外光画像の中央である場合には、Xは0°なのでb=0となり、歩行者検知枠の横の大きさの補正を行わない。
よって、以上の構成によって、近赤外光画像から歩行者および対象物位置を画像認識部44で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器3にリアルタイムに表示している近赤外光画像中の歩行者により的確に合うように歩行者検知枠の表示を行わせることが可能になる。
また、枠表示位置決定部46が、走行関連情報および対象物位置情報のうちの対象物位置情報とカーブ情報とのみをもとに歩行者検知枠を補正する構成としてもよい。具体的には、枠表示位置決定部46は、以下の(5)式からbを算出し、歩行者検知枠の横の大きさを左方向もしくは右方向にbだけ大きくする構成とすればよい。なお、(5)式におけるXは、前述した(4)式のXと同様のものであり、C3も前述した(4)式のC3と同様のものである。また、(5)式におけるδは、前述した(2)式のδと同様のものである。
Figure 0005158063
以上の構成によれば、自車両が右方向に旋回する度合いが強くなるほど(X−δ)の値が小さくなるので、自車両が右方向に旋回する度合いが強くなるほど、歩行者検知枠の横の大きさを左方向に向けて調整することになる。また、自車両が左方向に旋回する度合いが強くなるほど(X−δ)の値が大きくなるので、自車両が左方向に旋回する度合いが強くなるほど、歩行者検知枠の横の大きさを右方向に向けて調整することになる。さらに、対象物位置が近赤外光画像の中央であって、自車両が直進状態の場合には、Xは0°であってδも0°なのでb=0となり、歩行者検知枠の横の大きさの補正を行わない。
よって、以上の構成によって、近赤外光画像から歩行者および対象物位置を画像認識部44で検知するのに時間を要している間に対象物位置が変化してしまう場合でも、表示器3にリアルタイムに表示している近赤外光画像中の歩行者により的確に合うように歩行者検知枠の表示を行わせることが可能になる。
また、枠表示位置決定部46が、走行関連情報および対象物位置情報のうちのカーブ情報のみをもとに歩行者検知枠を補正する構成としてもよい。具体的には、枠表示位置決定部46は、以下の(6)式からbを算出し、歩行者検知枠の横の大きさを左方向もしくは右方向にbだけ大きくする構成とすればよい。なお、(6)式におけるδは、前述した(2)式および(5)式のδと同様のものである。また、(6)式において、C4は正の定数であり、適宜、設定されるものである。例えば、C4としてC3と同じ値を用いてもよい。
Figure 0005158063
さらに、前述の実施形態では、枠表示位置決定部46において歩行者検知枠の横の大きさを補正する構成を示したが、必ずしもこれに限らない。例えば、枠表示位置決定部46において歩行者検知枠の縦の大きさを補正する構成としてもよい。なお、枠表示位置決定部46において歩行者検知枠の縦の大きさを補正する構成とする場合には、歩行者検知枠の横の大きさの補正量bを求めたのと同様にして、歩行者検知枠の縦の大きさの補正量(cとする)を求めればよい。
具体的には、前述のXの代わりに、対象物のY座標方向の位置Yを用いる。なお、枠表示位置決定部46は、近赤外光画像中での歩行者のY座標をもとに、近赤外光画像のY座標方向における画角のうちの何度に相当する場所に歩行者が存在するかを求め、求めた度数を対象物のY座標方向の位置として扱うものとする。また、前述のδの代わりに、水平面に対する自車両の傾斜度θを用いる。なお、枠表示位置決定部46は、走行関連情報取得部45が3軸加速度センサから得た3軸方向についての加減速度をもとに水平面に対する自車両の傾斜度θを算出して扱うものとする。また、3軸加速度センサに限らず、傾斜計として用いることのできる2軸加速度センサを用いる構成としてもよい。
また、枠表示位置決定部46において歩行者検知枠の縦横のうち縦の大きさのみを補正する構成としてもよいし、横の大きさのみを補正する構成としてもよい。さらに、前述の実施形態を組み合わせ、枠表示位置決定部46において歩行者検知枠の縦横両方の大きさを補正する構成としてもよい。
また、前述の実施形態では、枠表示位置決定部46での対象物位置の変化の予測結果に応じて歩行者検知枠の表示の範囲を拡大する構成を示したが、必ずしもこれに限らない。例えば、枠表示位置決定部46での対象物位置の変化の予測結果に応じて歩行者検知枠の表示の位置をずらす構成としてもよい。具体的には、枠表示位置決定部46で算出される前述のbだけ歩行者検知枠の表示の位置を横方向にずらす構成としたり、前述のcだけ歩行者検知枠の表示の位置を縦方向にずらす構成としたりすればよい。
以上の構成によれば、近赤外光画像中における対象物位置の変化に合わせて歩行者検知枠の表示の位置をずらし、変化後の対象物位置の歩行者を囲うように歩行者検知枠の表示を行うことが可能になる。よって、以上の構成によっても、近赤外光画像中の歩行者に合うように歩行者検知枠の表示を行いながらも、実視界の像と表示器3に表示する近赤外光画像との間にずれを生じさせないようにすることが可能となる。その結果、運転者にとっての快適性をより損ないにくくするとともに、遅延処理によるコストアップを回避することが可能になる。
なお、前述の実施形態では、ナイトビューモニター装置100にカメラ部2を1つ設ける構成を示したが、必ずしもこれに限らない。例えば、対象物までの距離の検知等の位置精度を向上させるために、2つのカメラ部2からなるステレオカメラを用いる構成としてもよい。例えば対象物までの距離の情報は、画像認識部44での候補画像の抽出時における所定の領域の切り出しの大きさを決めるのに用いる構成とすることも可能である。
また、前述の実施形態では、可視光の照射範囲外の対象物を検知するために近赤外光を利用する構成を示したが、必ずしもこれに限らない。可視光の照射範囲外の対象物を検知するためには、不可視光を利用する構成とすればよく、例えば、遠赤外光を利用する構成としてもよい。なお、遠赤外光を用いる場合には、物体が発する熱を感知することが可能であるので、近赤外光を用いる場合のような投光器が不要となる。また、ここで言うところの不可視光とは、前述した可視光の範囲外の波長の光を示している。さらに、遠赤外光とは、例えば約4μm〜約1mmの波長の光を示している。
なお、前述の実施形態では、対象物を歩行者とした場合の構成を示したが、必ずしもこれに限らない。例えば、対象物を歩行者以外の移動体とする構成としてもよい。
また、前述の実施形態では、夜間に近赤外光の反射光を用いて撮像された近赤外光画像中の対象物を検知して当該対象物を示す強調表示を行う構成に本発明を適用する場合の一例について説明を行ったが、必ずしもこれに限らない。例えば、昼間に可視光の反射光を用いて撮像された撮像画像中の対象物を検知して当該対象物を示す強調表示を行う構成に本発明を適用してもよい。
さらに、前述の実施形態では、自車両前方に所定角範囲で広がる領域を撮像して得られた撮像画像を用いて、自車両の前進時の予想進路に存在する対象物を検知する構成に本発明を適用する場合を一例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、自車両後方に所定角範囲で広がる領域を撮像して得られた撮像画像を用いて、自車両の後退時の予想進路に存在する対象物を検知する構成に本発明を適用してもよい。
なお、本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 近赤外光投光器、2 カメラ部(撮像部)、3 表示器、4 ナイトビューECU、41 映像信号取得部、42 A/D変換部、43 分配処理部、44 画像認識部、45 走行関連情報取得部、46 枠表示位置決定部(位置変化予測部)、47 描画部(表示制御部)、48 制御部、100 ナイトビューモニター装置(車両用表示装置)

Claims (14)

  1. 車両に搭載されて前記車両の周辺を逐次撮像する撮像部と、
    前記撮像部で逐次撮像した撮像画像から対象物を検知するとともに、前記撮像画像中での当該対象物の位置である対象物位置を検知する画像認識部と、
    前記撮像部で逐次撮像した撮像画像を表示する表示器と
    前記画像認識部で検知した前記対象物位置に基づいて、前記表示器で表示する撮像画像中に前記対象物を示す強調表示を行う表示制御部と、
    前記車両の走行に関連する情報である走行関連情報を取得する走行関連情報取得部と、
    前記走行関連情報取得部で取得した走行関連情報をもとに、前記撮像画像中における前記対象物位置の変化を予測する位置変化予測部と、を備え、
    前記表示制御部は、前記位置変化予測部での予測結果に応じて前記強調表示の範囲を拡大することを特徴とする車両用表示装置。
  2. 請求項1において、
    前記位置変化予測部は、前記走行関連情報取得部で取得した走行関連情報に加え、前記画像認識部で検知した前記対象物位置をもとに、前記撮像画像中における前記対象物位置の変化を予測することを特徴とする車両用表示装置。
  3. 請求項2において、
    前記位置変化予測部は、前記対象物位置の変化として前記対象物位置の変化方向および変化量を予測するとともに、
    前記表示制御部は、前記位置変化予測部で予測した前記対象物位置の変化方向に応じた方向に前記強調表示の範囲を拡大するとともに、前記位置変化予測部で予測した前記対象物位置の変化量に応じた大きさに前記強調表示の範囲を拡大することを特徴とする車両用表示装置。
  4. 車両に搭載されて前記車両の周辺を逐次撮像する撮像部と、
    前記撮像部で逐次撮像した撮像画像から対象物を検知するとともに、前記撮像画像中での当該対象物の位置である対象物位置を検知する画像認識部と、
    前記撮像部で逐次撮像した撮像画像を表示する表示器と
    前記画像認識部で検知した前記対象物位置に基づいて、前記表示器で表示する撮像画像中に前記対象物を示す強調表示を行う表示制御部と、
    前記車両の走行に関連する情報である走行関連情報を取得する走行関連情報取得部と、
    前記走行関連情報取得部で取得した走行関連情報をもとに、前記撮像画像中における前記対象物位置の変化を予測する位置変化予測部と、を備え、
    前記表示制御部は、前記位置変化予測部での予測結果に応じて前記強調表示の位置をずらすことを特徴とする車両用表示装置。
  5. 請求項4において、
    前記位置変化予測部は、前記走行関連情報取得部で取得した走行関連情報に加え、前記画像認識部で検知した前記対象物位置をもとに、前記撮像画像中における前記対象物位置の変化を予測することを特徴とする車両用表示装置。
  6. 請求項5において、
    前記位置変化予測部は、前記対象物位置の変化として前記対象物位置の変化方向および変化量を予測するとともに、
    前記表示制御部は、前記位置変化予測部で予測した前記対象物位置の変化方向に応じた方向に、前記位置変化予測部で予測した前記対象物位置の変化量に応じた量だけ前記強調表示の位置をずらすことを特徴とする車両用表示装置。
  7. 請求項1〜6のいずれか1項において、
    走行関連情報取得部は、前記走行関連情報として少なくとも前記車両の車速を取得し、
    前記位置変化予測部は、少なくとも前記車速をもとに、前記撮像画像中における前記対象物位置の変化を予測することを特徴とする車両用表示装置。
  8. 請求項1〜7のいずれか1項において、
    走行関連情報取得部は、前記走行関連情報として少なくとも前記車両の旋回状態に関する情報を取得し、
    前記位置変化予測部は、少なくとも前記旋回状態に関する情報をもとに、前記撮像画像中における前記対象物位置の変化を予測することを特徴とする車両用表示装置。
  9. 請求項8において、
    前記旋回状態に関する情報は前記車両の操舵角であって、
    前記位置変化予測部は、前記操舵角から求めた前記車両の実舵角をもとに、前記撮像画像中における前記対象物位置の変化を予測することを特徴とする車両用表示装置。
  10. 請求項1〜7のいずれか1項において、
    走行関連情報取得部は、前記走行関連情報として少なくとも前記車両の進路前方のカーブ情報を取得し、
    前記位置変化予測部は、少なくとも前記カーブ情報をもとに、前記撮像画像中における前記対象物位置の変化を予測することを特徴とする車両用表示装置。
  11. 車両に搭載されて前記車両の周辺を逐次撮像する撮像部と、
    前記撮像部で逐次撮像した撮像画像から対象物を検知するとともに、前記撮像画像中での当該対象物の位置である対象物位置を検知する画像認識部と、
    前記撮像部で逐次撮像した撮像画像を表示する表示器と
    前記画像認識部で検知した前記対象物位置に基づいて、前記表示器で表示する撮像画像中に前記対象物を示す強調表示を行う表示制御部と、
    前記画像認識部で検知した前記対象物位置をもとに、前記撮像画像中における前記対象物の位置の変化を予測する位置変化予測部と、を備え、
    前記表示制御部は、前記位置変化予測部での予測結果に応じて前記強調表示の範囲を拡大することを特徴とする車両用表示装置。
  12. 請求項11において、
    前記位置変化予測部は、前記対象物位置の変化として前記対象物位置の変化方向および変化量を予測するとともに、
    前記表示制御部は、前記位置変化予測部で予測した前記対象物位置の変化方向に応じた方向に前記強調表示の範囲を拡大するとともに、前記位置変化予測部で予測した前記対象物位置の変化量に応じた大きさに前記強調表示の範囲を拡大することを特徴とする車両用表示装置。
  13. 車両に搭載されて前記車両の周辺を逐次撮像する撮像部と、
    前記撮像部で逐次撮像した撮像画像から対象物を検知するとともに、前記撮像画像中での当該対象物の位置である対象物位置を検知する画像認識部と、
    前記撮像部で逐次撮像した撮像画像を表示する表示器と
    前記画像認識部で検知した前記対象物位置に基づいて、前記表示器で表示する撮像画像中に前記対象物を示す強調表示を行う表示制御部と、
    前記画像認識部で検知した前記対象物位置をもとに、前記撮像画像中における前記対象物位置の変化を予測する位置変化予測部と、を備え、
    前記表示制御部は、前記位置変化予測部での予測結果に応じて前記強調表示の位置をずらすことを特徴とする車両用表示装置。
  14. 請求項13において、
    前記位置変化予測部は、前記対象物位置の変化として前記対象物位置の変化方向および変化量を予測するとともに、
    前記表示制御部は、前記位置変化予測部で予測した前記対象物位置の変化方向に応じた方向に、前記位置変化予測部で予測した前記対象物位置の変化量に応じた量だけ前記強調表示の位置をずらすことを特徴とする車両用表示装置。
JP2009274707A 2009-12-02 2009-12-02 車両用表示装置 Expired - Fee Related JP5158063B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009274707A JP5158063B2 (ja) 2009-12-02 2009-12-02 車両用表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009274707A JP5158063B2 (ja) 2009-12-02 2009-12-02 車両用表示装置

Publications (2)

Publication Number Publication Date
JP2011119917A JP2011119917A (ja) 2011-06-16
JP5158063B2 true JP5158063B2 (ja) 2013-03-06

Family

ID=44284722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009274707A Expired - Fee Related JP5158063B2 (ja) 2009-12-02 2009-12-02 車両用表示装置

Country Status (1)

Country Link
JP (1) JP5158063B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107852483A (zh) * 2015-08-04 2018-03-27 株式会社电装 向驾驶员提示辅助图像的装置及其方法
US10868976B2 (en) 2015-05-21 2020-12-15 Audi Ag Method for operating smartglasses in a motor vehicle, and system comprising smartglasses

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5533766B2 (ja) * 2011-04-05 2014-06-25 株式会社デンソー 車両用表示装置
DE102012200133A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerinformation
DE102012000949A1 (de) 2012-01-19 2013-07-25 Connaught Electronics Ltd. Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr, Kollisionswarnsystem und Kraftfahrzeug
DE102012001554A1 (de) 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102012005851A1 (de) 2012-03-22 2013-09-26 Connaught Electronics Ltd. Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs vor der Anwesenheit einesObjekts in der Umgebung des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
JP6065766B2 (ja) * 2013-06-28 2017-01-25 株式会社デンソー 情報提供装置および情報提供方法
JP5987791B2 (ja) * 2013-06-28 2016-09-07 株式会社デンソー ヘッドアップディスプレイ及びプログラム
JP6040897B2 (ja) 2013-09-04 2016-12-07 トヨタ自動車株式会社 注意喚起表示装置及び注意喚起表示方法
JP2015055112A (ja) * 2013-09-12 2015-03-23 パイオニア株式会社 情報表示装置、情報処理装置、及び情報処理システム
JP6346614B2 (ja) * 2013-09-13 2018-06-20 マクセル株式会社 情報表示システム
JP6264037B2 (ja) 2013-12-27 2018-01-24 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法
JP5942979B2 (ja) * 2013-12-27 2016-06-29 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法
JP5870993B2 (ja) 2013-12-27 2016-03-01 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法
JP6361347B2 (ja) * 2014-07-18 2018-07-25 日産自動車株式会社 車両用表示装置
JP6295868B2 (ja) * 2014-07-18 2018-03-20 日産自動車株式会社 車両用表示装置
JP6561616B2 (ja) * 2015-06-19 2019-08-21 日本精機株式会社 車載ヘッドアップディスプレイ装置及び車載表示システム
WO2017126036A1 (ja) * 2016-01-19 2017-07-27 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6674793B2 (ja) * 2016-02-25 2020-04-01 京セラ株式会社 運転支援情報表示装置
JP6610376B2 (ja) * 2016-03-25 2019-11-27 日本精機株式会社 表示装置
JPWO2017212653A1 (ja) * 2016-06-10 2019-04-04 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP3534603B1 (en) * 2016-10-28 2022-07-20 Kyocera Corporation Image pickup device and method
JP7146450B2 (ja) * 2018-05-24 2022-10-04 日本信号株式会社 物体検出装置
WO2020158601A1 (ja) * 2019-01-29 2020-08-06 日本精機株式会社 表示制御装置、方法、及びコンピュータ・プログラム
WO2021039762A1 (ja) * 2019-08-30 2021-03-04 日本精機株式会社 表示装置
US20230046397A1 (en) * 2019-12-23 2023-02-16 Kyocera Corporation Information processing apparatus, sensing apparatus, mobile object, and method for processing information

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
JP4246691B2 (ja) * 2004-11-30 2009-04-02 本田技研工業株式会社 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車
JP2007334511A (ja) * 2006-06-13 2007-12-27 Honda Motor Co Ltd 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP5105306B2 (ja) * 2008-04-11 2012-12-26 株式会社デンソー 車両用表示装置
JP2010088045A (ja) * 2008-10-02 2010-04-15 Toyota Motor Corp ナイトビューシステム、夜間歩行者表示方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10868976B2 (en) 2015-05-21 2020-12-15 Audi Ag Method for operating smartglasses in a motor vehicle, and system comprising smartglasses
EP3298474B1 (de) * 2015-05-21 2022-11-30 Audi AG Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug und system mit einer datenbrille
CN107852483A (zh) * 2015-08-04 2018-03-27 株式会社电装 向驾驶员提示辅助图像的装置及其方法
CN107852483B (zh) * 2015-08-04 2020-02-07 株式会社电装 向驾驶员提示辅助图像的装置及其方法

Also Published As

Publication number Publication date
JP2011119917A (ja) 2011-06-16

Similar Documents

Publication Publication Date Title
JP5158063B2 (ja) 車両用表示装置
JP6346614B2 (ja) 情報表示システム
US10311618B2 (en) Virtual viewpoint position control device and virtual viewpoint position control method
WO2018042801A1 (ja) 撮像装置
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP4879189B2 (ja) 安全走行支援装置
EP2544449B1 (en) Vehicle perimeter monitoring device
WO2016002163A1 (ja) 画像表示装置、画像表示方法
KR20200016958A (ko) 주차 지원 방법 및 주차 지원 장치
WO2011043006A1 (ja) 制御装置および車両周囲監視装置
JP2007094716A (ja) 車両の運転支援装置
JP2009067368A (ja) 表示装置
JP2009262629A (ja) 車両の運転支援装置
US10099617B2 (en) Driving assistance device and driving assistance method
JP5549235B2 (ja) 運転支援装置
JP2007257286A (ja) 車両用表示システム
JP2012185588A (ja) 車戴カメラ及び車載カメラシステム
JP5898539B2 (ja) 車両走行支援システム
JP2016020876A (ja) 車両用表示装置
JP6471522B2 (ja) カメラパラメータ調整装置
JP2008044612A (ja) 車載画像表示装置
JP4103518B2 (ja) 車載画像表示装置
JP6448714B2 (ja) 情報表示システム
US20200166362A1 (en) Information output device, output control method, and storage medium
JP6384138B2 (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees