JP2023141162A - 画像表示装置 - Google Patents
画像表示装置 Download PDFInfo
- Publication number
- JP2023141162A JP2023141162A JP2022047334A JP2022047334A JP2023141162A JP 2023141162 A JP2023141162 A JP 2023141162A JP 2022047334 A JP2022047334 A JP 2022047334A JP 2022047334 A JP2022047334 A JP 2022047334A JP 2023141162 A JP2023141162 A JP 2023141162A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- area
- vehicle
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】本開示は、ユーザに煩わしさを与えずに、運転支援機能の向上を図ることができる、画像表示装置を提供することを目的とする。【解決手段】画像表示装置は、移動体のユーザの視線領域を特定する視線領域特定部と、前記ユーザが外部の所定の領域を視認しているか否かを判定する判定部と、前記ユーザに対して警告画像を表示する画像出力部と、を備え、前記判定部は、前記視線領域に基づいて、前記ユーザが前記所定の領域を視認しているか否かを判定し、前記表示制御部は、前記所定の領域のうち前記判定部により前記ユーザが視認していないと判定された領域に前記警告画像を表示する。【選択図】図5
Description
本開示は、画像表示装置に関する。
車両の運転支援のため、ユーザ(運転者)にとって有効な情報を含む画像を車両のウインドシールドの前方に表示する画像表示装置が知られている。ユーザが当該画像を視認しながら車両を運転することで、運転支援機能の向上を図っている。例えば、特許文献1には、自車両が交差点に接近した場合に、適切なタイミングで他車両等の存在をユーザに認識させる画像表示装置が記載されている。
しかしながら、特許文献1に係る画像表示装置は、ユーザが一度視認した他車両等についても、その存在をユーザに認識させるための画像を表示し続けるため、ユーザに煩わしさを与える恐れがある。
本開示は、ユーザに煩わしさを与えずに、運転支援機能の向上を図ることができる、画像表示装置を提供することを目的とする。
本開示の一態様に係る画像表示装置であって、
移動体のユーザの視線領域を特定する視線領域特定部と、
前記ユーザが外部の所定の領域を視認しているか否かを判定する判定部と、
前記ユーザに対して警告画像を表示する表示制御部と、
を備え、
前記判定部は、前記視線領域に基づいて、前記ユーザが前記所定の領域を視認しているか否かを判定し、
前記表示制御部は、前記所定の領域のうち前記判定部により前記ユーザが視認していないと判定された領域に前記警告画像を表示する。
移動体のユーザの視線領域を特定する視線領域特定部と、
前記ユーザが外部の所定の領域を視認しているか否かを判定する判定部と、
前記ユーザに対して警告画像を表示する表示制御部と、
を備え、
前記判定部は、前記視線領域に基づいて、前記ユーザが前記所定の領域を視認しているか否かを判定し、
前記表示制御部は、前記所定の領域のうち前記判定部により前記ユーザが視認していないと判定された領域に前記警告画像を表示する。
上記構成によれば、判定部はユーザが注意すべき所定の領域を視認しているか否かを判定し、画像表示装置は、判定部の判定結果に基づいて警告画像を表示する。このため、ユーザが注意すべき所定の領域のうち、ユーザが視認している領域については警告画像を表示せず、ユーザが視認していない領域についてのみ警告画像を表示することができる。これにより、ユーザに煩わしさを与えずに、運転支援機能の向上を図ることができる。
また、前記表示制御部は、前記所定の領域のうち前記判定部により前記ユーザが視認していると判定された領域を、前記警告画像と異なる態様にて表示させてもよい。
上記構成によれば、ユーザが注意すべき所定の領域を視認しているか否かの判定結果に基づいて、注意すべき所定の領域の表示態様を変える。このため、注意すべき所定の領域のうち、ユーザが視認している領域については警告画像を目立たないように表示し、ユーザが視認していない領域については警告画像を目立つように表示することができる。これにより、視認した領域と視認していない領域を区別してユーザに認識させ、運転支援機能の向上を図ることができる。
また、前記判定部は、前記所定の領域と前記視線領域とが少なくとも1回重複した場合、前記ユーザが前記所定の領域を視認していると判定してもよい。
上記構成によれば、注意すべき所定の領域と視線領域とが1回重複すれば、その後、ユーザが当該領域から視線を逸らしても、当該領域は視認していると判定されるため、警告画像を表示しないようする。これにより、ユーザに煩わしさを与えずに、運転支援機能の向上を図ることができる。
また、前記移動体に搭載されたカメラは、前記移動体の外部に存在する人物または他車両を検出し、
前記画像表示装置は、前記カメラの検出結果に基づいて、前記所定の領域を特定してもよい。
前記画像表示装置は、前記カメラの検出結果に基づいて、前記所定の領域を特定してもよい。
上記構成によれば、ユーザが注意すべき所定の領域をリアルタイムで特定し、ユーザに認識させることができる。
また、前記画像表示装置は、前記移動体の位置情報に関連する前記所定の領域を外部サーバから取得してもよい。
上記構成によれば、画像表示装置は、潜在的な注意すべき所定の領域を外部サーバから取得する。これにより、人物または他車両は存在しないが、潜在的な注意すべき所定の領域をユーザに認識させることができる。
本開示によれば、ユーザに煩わしさを与えずに、運転支援機能の向上を図る画像表示装置を提供することができる。
(第一実施形態)
以下、本発明の第一実施形態(以下、第一実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
以下、本発明の第一実施形態(以下、第一実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する。これらの方向は、図2に示す車両1について設定された相対的な方向である。ここで、「左右方向」は、「左方向」及び「右方向」を含む方向である。「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。前後方向は、図2において示されていないが、左右方向及び上下方向に直交する方向である。
図1は、画像表示装置を備えた車両システム2のブロック図である。図1に示すように、車両システム2は、車両制御部3と、画像表示装置4と、センサ5と、カメラ6と、レーダ7と、を備える。さらに、車両システム2は、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11と、を備える。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17と、を備える。
車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及び/又はTPU(Tensor Processing Unit)である。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。
センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を備える。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、ユーザが運転席に座っているかどうかを検出する着座センサ、ユーザの顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。また、センサ5は、照度センサ等の周辺環境情報を取得するセンサを備えてもよい。
カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、車両1の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の距離や位置に関する情報とを含んでもよい。カメラ6は、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。また、カメラ6はLiDAR(Light Detection And Ranging)でもよい。
レーダ7は、ミリ波レーダ、マイクロ波レーダ及び/又はレーザーレーダ(例えば、LiDARユニット)等である。例えば、LiDARユニットは、車両1の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
HMI8は、ユーザからの入力操作を受付ける入力部と、走行情報等をユーザに向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。現在位置情報は、車両1のGPS座標(緯度及び経度)を含む。
無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備又は携帯型電子機器とアドホックモードによりインターネット等の通信ネットワークを介して通信してもよい。
記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2D又は3Dの地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3Dの地図情報は、点群データによって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。
画像表示装置4は、いわゆるヘッドアップディスプレイ(HUD)であり、表示制御部40と、視線領域特定部41と、判定部42と、画像出力部43と、路面描画部44と、を備える。図2に示した例では、画像表示装置4は、ウインドシールド18へ画像を表示させる。画像表示装置4は、車両1の外部の現実空間(特に、車両1の前方の周辺環境)と重畳されるように、所定の情報を車両1のユーザに向け画像として表示するように構成されている。画像表示装置4によって表示される画像情報は、例えば、車両1の走行に関連した車両走行情報及び/又は車両1の周辺環境に関連した周辺環境情報(特に、車両1の外部に存在する対象物に関連した情報)等である。
表示制御部40は、画像表示装置4の各部の動作を制御する。表示制御部40は、車両制御部3に接続されており、例えば、車両制御部3から送信される車両走行情報や周辺環境情報等に基づいて、画像出力部43の動作を制御するための制御信号を生成し、生成された制御信号を画像出力部43に送信する。表示制御部40は、CPU等のプロセッサとメモリが搭載され、メモリから読みだしたコンピュータプログラムをプロセッサが実行して、画像出力部43等の動作を制御する。なお、本実施形態では、車両制御部3と表示制御部40とは別個の構成として設けられているが、車両制御部3と表示制御部40は一体的に構成されてもよい。例えば、車両制御部3と表示制御部40は、単一の電子制御ユニットにより構成されていてもよい。
視線領域特定部41は、例えばCCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含む内部カメラである。視線領域特定部41は、図2に示すユーザの視点Eをトラッキングするアイトラッキングカメラとして機能し、ユーザの視線領域を計測して特定する。内部カメラは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。視線領域特定部41は、例えば、ルームミラーの近傍、あるいはインストルメントパネルの内部等に設けられている。なお、本実施形態では、視線領域特定部41は画像表示装置4の1つ要素として設けられているが、センサ5に含まれる構成であってもよい。
例えば視線領域特定部41は、アイトラッキングカメラでユーザの視点Eを含む領域を特定し、ユーザの視点Eを錐体の頂点とした立体角で開き角度が1度の範囲をユーザの視線領域として設定する。
例えば視線領域特定部41は、アイトラッキングカメラでユーザの視点Eを含む領域を特定し、ユーザの視点Eを錐体の頂点とした立体角で開き角度が1度の範囲をユーザの視線領域として設定する。
判定部42は、視線領域特定部41が計測したユーザの視線領域に基づいて、ユーザが所定の領域を視認しているか否かを判定する。ここで、所定の領域とは、例えば、車両制御部3が取得する周辺環境情報に含まれる、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する属性情報に応じた領域である。
例えば、カメラ6が取得した画像などにより他車両や歩行者などの交通他者が存在すると特定されていた場合は、該交通他者が存在する領域が所定の領域である。あるいは、車両の走行時に標識が通過する領域が所定の領域である。このように、所定の領域は、交通他者が存在する場合など、外部の状況に応じて都度設定される領域である。また、所定の領域は、標識が通過する領域など、外部の状況に寄らずに恒常的に設定される領域でもある。
例えば、カメラ6が取得した画像などにより他車両や歩行者などの交通他者が存在すると特定されていた場合は、該交通他者が存在する領域が所定の領域である。あるいは、車両の走行時に標識が通過する領域が所定の領域である。このように、所定の領域は、交通他者が存在する場合など、外部の状況に応じて都度設定される領域である。また、所定の領域は、標識が通過する領域など、外部の状況に寄らずに恒常的に設定される領域でもある。
画像出力部43は、車両1のユーザに向けて表示される所定の画像を生成するための光を出射するように構成されている。画像出力部43は、例えば、所定の領域のうち判定部42によりユーザが視認していないと判定した領域に関する警告画像を生成するための画像を出力可能である。つまり、表示制御部40は、例えば、所定の領域のうち判定部42によりユーザが視認していないと判定した領域に関する警告画像を表示可能である。警告画像は、例えば車両1の外部に存在する対象物に関する属性情報に応じて領域を赤枠で表示する等、ユーザに注意を促すための画像である。
路面描画部44は、車両1の外部の路面に向けて所定の情報を示す光パターンを出射するように構成されている。路面描画部44は、二つの路面描画部(左側路面描画部44Lおよび右側路面描画部44R)を備える。
図2は、画像表示装置4を車両1の側面側から見た模式図である。画像表示装置4は、少なくとも画像表示装置4の一部が車両1の内部に位置する。具体的には、画像表示装置4は、車両1の室内の所定箇所に設置されている。例えば、画像表示装置4は、車両1のダッシュボード内に配置されてもよい。
図2に示すように、画像表示装置4は、画像表示本体部21を備える。画像表示本体部21は、本体ハウジング22と、出射窓23とを有する。出射窓23は可視光を透過させる透光板で構成されている。画像表示本体部21は、本体ハウジング22の内部に、画像出力部43と、凹面鏡26(反射部の一例)と、平面鏡28と、を有する。なお、画像表示装置4の表示制御部40は、本実施形態では画像出力部43内に収容されている。
画像出力部43は、本体ハウジング22内において、光を上方に出射するように設置されている。平面鏡28は、画像出力部43から出射される光の光路上に配置されている。具体的には、平面鏡28は、画像出力部43の上方に配置され、画像出力部43から出射された光を凹面鏡26に向けて反射するように構成されている。
凹面鏡26は、画像出力部43から出射されて平面鏡28により反射された光の光路上に配置されている。具体的には、凹面鏡26は、本体ハウジング22内において、画像出力部43及び平面鏡28の前側に配置されている。凹面鏡26は、画像出力部43から出射された光をウインドシールド18に向けて反射するように構成されている。凹面鏡26は、所定の画像を形成するために凹状に湾曲した反射面を有し、画像出力部43から出射され結像された光の像を所定の倍率で反射させる。凹面鏡26は、例えば駆動機構27を有し、表示制御部40から送信される制御信号に基づいて凹面鏡26の位置及び向きを変化させることができるように構成されていてもよい。
画像出力部43から出射された光は、平面鏡28及び凹面鏡26で反射されて画像表示本体部21の出射窓23から出射される。画像表示本体部21の出射窓23から出射された光は、ウインドシールド18に照射される。出射窓23からウインドシールド18に照射された光の一部は、ユーザの視点Eに向けて反射される。この結果、ユーザは、画像表示本体部21から出射された光をウインドシールド18の前方の所定の距離において形成される虚像として認識する。このように、画像表示装置4によって表示される画像がウインドシールド18を通して車両1の前方の現実空間に重畳される結果、ユーザは、所定の画像により形成される虚像オブジェクトIが車両外部に位置する道路上に浮いているように視認することができる。
なお、虚像オブジェクトIとして2D画像(平面画像)を形成する場合には、所定の画像を任意に定めた単一距離の虚像となるように投影する。虚像オブジェクトIとして3D画像(立体画像)を形成する場合には、互いに同一または互いに異なる複数の所定の画像をそれぞれ異なる距離の虚像となるように投影する。また、虚像オブジェクトIの距離(ユーザの視点Eから虚像までの距離)は、画像出力部43からユーザの視点Eまでの距離を調整する(例えば画像出力部43と凹面鏡26との間の距離を調整する)ことによって適宜調整可能である。
図3は、第一実施形態に係る画像表示装置4を備えた車両1の正面図である。図3に示すように、左側路面描画部44Lは、左側ヘッドランプ20Lに搭載され、右側路面描画部44Rは、右側ヘッドランプ20R内に搭載されている。以降の説明では、左側路面描画部44Lおよび右側路面描画部44Rを単に路面描画部44という場合がある。
路面描画部44は、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光源から出射されたレーザ光を偏向するように構成された光偏向装置と、レンズ等の光学系部材とを備える。レーザ光源は、例えば、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光偏向装置は、例えば、MEMS(MicroElectro Mechanical Systems)ミラー、ガルバノミラー、ポリゴンミラー等である。路面描画部44は、レーザ光を走査することで光パターンを路面上に描画するように構成されている。レーザ光源がRGBレーザ光源である場合、路面描画部44は、様々な色の光パターンを路面上に描画することが可能となる。左側路面描画部44Lおよび右側路面描画部44Rは、それぞれ別の光パターンを路面上に描画してもよいし、それぞれの光パターンを合成することにより1つの光パターンを路面上に描画してもよい。
尚、本実施形態では、路面描画部44は、ヘッドランプ20L、20R内に搭載された路面描画部44L、44Rを備えているが、路面描画部44が路面上に光パターンを描画することが可能である限りにおいて、路面描画部44の数、配置場所及び形状は特に限定されるものではない。例えば、左側路面描画部44Lおよび右側路面描画部44Rは、ヘッドランプの近傍に配置されてもよい。また、路面描画部44の数が1つである場合、車体ルーフ上に配置されてもよい。また、路面描画部44の数が4つである場合、左側ヘッドランプ20L、右側ヘッドランプ20R、左側リアコンビネーションランプ(図示せず)及び右側リアコンビネーションランプ(図示せず)内にそれぞれ1つの路面描画部44が搭載されてもよい。
また、路面描画部44の描画方式は、DLP(Digital Light Processing)方式又はLCOS(Liquid Crystal on Silicon)方式であってもよい。この場合、光源としてレーザの代わりにLEDが使用される。
図4は、第一実施形態に係る画像表示装置4の画像表示処理のフローチャートである。図4に示すように、まず、カメラ6を起動して、車両1の周辺環境を示す画像データを取得する(S100)。
次に、車両制御部3は、カメラ6で取得された画像データに基づいて周辺環境情報を取得し、周辺環境情報が車両1の外部に存在する対象物を含んでいるか判定する(S101)。周辺環境情報が車両1の外部に存在する対象物を含んでいると判定した場合(S101のYES)、画像制御部40は所定の領域(車両1の外部に存在する対象物に応じた領域)を特定する(S102)。
次に、視線領域特定部41は、ユーザの視線領域を計測して特定する(S103)。
次に、判定部42は、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが所定の領域を視認しているか否かを判定する(S104)。具体的には、判定部42はユーザの視線領域と所定の領域が重複している割合が所定の値以上であれば、ユーザが所定の領域を視認していると判定する。判定部42が、ユーザが所定の領域を視認していないと判定した場合(S104のYES)、表示制御部40は、ユーザに対して、視認していないと判定された所定の領域について警告画像を表示する(S105)。
なお、ユーザの視線領域と所定の領域が少なくとも一回重複している割合が所定の値以上となれば、その後、ユーザの視線領域と所定の領域が重複している割合が所定の値未満となっても、判定部42は所定の領域を視認していると判定する。
次に、路面上に図形や文字等の光パターンを照射(路面描画)することで、車両の情報を、歩行者・対向車等の他者に対して通知・警告してもよい(S106)。また、他車に対して警告情報を車車間通信で送信してもよい(S106)。
次に、判定部42は、ユーザが所定の領域を視認しているか否かを再度判定する(S107)。判定部42が、ユーザが所定の領域を視認したと判定した場合(S107のYES)、表示制御部40は、所定の領域に表示された警告画像を終了する(S108)。このとき、表示制御部40は、所定の領域に表示された警告画像を薄くする等、目立たない態様で表示してもよい。判定部42が、ユーザが所定の領域を視認していないと判定した場合(S107のNO)、表示制御部40は、所定の領域に警告画像を表示し続ける(S105)。
ユーザが車両1の運転を続ける限りS101~S108の処理を繰り返す(S109のNO)。ユーザが車両1の運転を終了した場合(S109のYES)には、画像表示装置4は画像表示処理のフローを終了する。
図5は、第一実施形態に係る画像表示装置4が表示する画像の一例である。図5において、警告画像60、61は画像表示装置4が表示する画像であり、警告画像60、61以外の進入車50、歩行者51、52等は車両1の外部の現実空間を表している。
図5に示すように、車両1の外部に進入車50、歩行者51、52が存在している場合、車両制御部3は、カメラ6で取得された画像データに基づいて対象物として検出する(図4に示すS101)。次に、判定部42が、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが進入車50、歩行者51を視認していないと判定した場合(図4に示すS104のNO)、表示制御部40は、進入車50、歩行者51に関する所定の領域に警告画像60、61を表示する(図4に示すS105)。また、判定部42が、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが歩行者52を視認していると判定した場合(図4に示すS104のYES)、表示制御部40は、歩行者52に関する所定の領域に警告画像を表示しない。
上記構成により、ユーザが注意すべき所定の領域のうち、ユーザが視認している領域については警告画像を表示せず、ユーザが視認していない領域についてのみ警告画像をリアルタイムに表示することができる。これにより、ユーザに煩わしさを与えずに、運転支援機能の向上を図ることができる。
また、上記構成により、ユーザが注意すべき所定の領域のうち、ユーザが視認している領域については警告画像を目立たないように表示し、ユーザが視認していない領域については警告画像を目立つように表示することができる。これにより、視認した領域と視認していない領域を区別してユーザに認識させ、運転支援機能の向上を図ることができる。
(第二実施形態)
図6と図7を参照して、第二実施形態に係る画像表示装置4について説明する。
図6と図7を参照して、第二実施形態に係る画像表示装置4について説明する。
図6は、第二実施形態に係る画像表示装置4の画像表示処理のフローチャートである。図6に示すように、まず、車両制御部3は、無線通信部10を経由して、外部サーバ(不図示)から車両1が現在走行している位置情報や道路情報(例えば、地図情報および現在位置情報に基づく道路情報)に関連したユーザが注意すべき所定の領域を取得する(S200)。
次に、視線領域特定部41は、ユーザの視線領域を計測して特定する(S201)。
次に、判定部42は、視線領域特定部41が計測したユーザの視線領域に基づいて、ユーザが注意すべき所定の領域を視認しているか否かを判定する(S202)。具体的には、判定部42はユーザの視線領域と所定の領域が重複している割合が所定の値以上であれば、ユーザが所定の領域を視認していると判定する。判定部42が、ユーザが所定の領域を視認していないと判定した場合(S202のNO)、表示制御部40は、ユーザに対して視認していないと判定された所定の領域に警告画像を表示する(S203)。
次に、路面上に図形や文字等の光パターンを照射(路面描画)することで、車両の情報を、歩行者・対向車等の他者に対して通知・警告してもよい(S204)。また、他車に対して警告情報を車車間通信で送信してもよい(S204)。
次に、判定部42は、ユーザが所定の領域を視認しているか否かを再度判定する(S205)。判定部42が、ユーザが所定の領域を視認したと判定した場合(S205のYES)、表示制御部40は、所定の領域に表示された警告画像を終了する(S206)。このとき、表示制御部40は、所定の領域に表示された警告画像を薄くする等、目立たない態様で表示してもよい。判定部42が、ユーザが所定の領域を視認していないと判定した場合(S205のNO)、表示制御部40は、所定の領域に警告画像を表示し続ける(S203)。
なお、ユーザの視線領域と所定の領域が少なくとも一回重複している割合が所定の値以上となれば、その後、ユーザの視線領域と所定の領域が重複している割合が所定の値未満となっても、判定部42は所定の領域を視認していると判定する。
ユーザが車両1の運転を続ける限りS201~S206の処理を繰り返す(S207のNO)。ユーザが車両1の運転を終了した場合(S207のYES)には、画像表示装置4は画像表示処理のフローを終了する。
図7は、第二実施形態に係る画像表示装置4が表示する画像の一例である。図7において、警告画像70は画像表示装置4が表示する画像であり、警告画像70以外の歩行者51、52等は車両1の外部の現実空間を表している。
図7に示すように、判定部42が、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが所定の領域を視認していないと判定した場合、表示制御部40は、所定の領域に警告画像70を表示する(図6に示すS206)。また、判定部42が、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが所定の領域を視認していると判定した場合、表示制御部40は、注意すべき所定の領域に警告画像を表示しない。このとき、所定の領域とは、図5に示すような進入車50が存在しているかいないかに関わらず、潜在的にユーザが注意すべき領域を表す。
図7に示すように、判定部42が、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが所定の領域を視認していないと判定した場合、表示制御部40は、所定の領域に警告画像70を表示する(図6に示すS206)。また、判定部42が、視線領域特定部41が特定したユーザの視線領域に基づいて、ユーザが所定の領域を視認していると判定した場合、表示制御部40は、注意すべき所定の領域に警告画像を表示しない。このとき、所定の領域とは、図5に示すような進入車50が存在しているかいないかに関わらず、潜在的にユーザが注意すべき領域を表す。
上記構成によれば、人物または他車両は存在しないが、潜在的な注意すべき所定の領域をユーザに認識させることができる。これにより、運転支援機能の向上を図ることができる。
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
上述した実施形態においては、画像表示装置4がウインドシールド18に画像を表示させる例を説明したが、コンバイナなど車室内部に設けられた表示部に画像を表示させるように構成してもよい。
また、上述した実施形態においては、車両に搭載される画像表示装置4を説明したが、本発明の画像表示装置は、例えば航空機、鉄道、船舶などに搭載されてもよい。
また、上述した実施形態においては、車両に搭載される画像表示装置4を説明したが、本発明の画像表示装置は、例えば航空機、鉄道、船舶などに搭載されてもよい。
1:車両
2:車両システム
3:車両制御部
4:画像表示装置
5:センサ
6:カメラ
7:レーダ
8:HMI
9:GPS
10:無線通信部
11:記憶装置
18:ウインドシールド
20L:左側ヘッドランプ
20R:右側ヘッドランプ
21:画像表示本体部
22:本体ハウジング
23:出射窓
26:凹面鏡
27:駆動機構
40:表示制御部
41:視線領域特定部
42:判定部
43:画像出力部
44:路面描画部
44L:左側路面描画部
44R:右側路面描画部
I:虚像オブジェクト
E:視点
2:車両システム
3:車両制御部
4:画像表示装置
5:センサ
6:カメラ
7:レーダ
8:HMI
9:GPS
10:無線通信部
11:記憶装置
18:ウインドシールド
20L:左側ヘッドランプ
20R:右側ヘッドランプ
21:画像表示本体部
22:本体ハウジング
23:出射窓
26:凹面鏡
27:駆動機構
40:表示制御部
41:視線領域特定部
42:判定部
43:画像出力部
44:路面描画部
44L:左側路面描画部
44R:右側路面描画部
I:虚像オブジェクト
E:視点
Claims (5)
- 移動体のユーザの視線領域を特定する視線領域特定部と、
前記ユーザが外部の所定の領域を視認しているか否かを判定する判定部と、
前記ユーザに対して警告画像を表示する表示制御部と、
を備え、
前記判定部は、前記視線領域に基づいて、前記ユーザが前記所定の領域を視認しているか否かを判定し、
前記表示制御部は、前記所定の領域のうち前記判定部により前記ユーザが視認していないと判定された領域に前記警告画像を表示する、画像表示装置。 - 前記表示制御部は、前記所定の領域のうち前記判定部により前記ユーザが視認していると判定された領域を、前記警告画像と異なる態様にて表示する、請求項1に記載の画像表示装置。
- 前記判定部は、前記所定の領域と前記視線領域とが少なくとも1回重複した場合、前記ユーザが前記所定の領域を視認していると判定する、請求項1または2に記載の画像表示装置。
- 前記移動体に搭載されたカメラは、前記移動体の外部に存在する人物または他車両を検出し、
前記画像表示装置は、前記カメラの検出結果に基づいて、前記所定の領域を特定する、請求項1から3のいずれか一項に記載の画像表示装置。 - 前記画像表示装置は、前記移動体の位置情報に関連する前記所定の領域を外部サーバから取得する、請求項1から3のいずれか一項に記載の画像表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022047334A JP2023141162A (ja) | 2022-03-23 | 2022-03-23 | 画像表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022047334A JP2023141162A (ja) | 2022-03-23 | 2022-03-23 | 画像表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023141162A true JP2023141162A (ja) | 2023-10-05 |
Family
ID=88205943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022047334A Pending JP2023141162A (ja) | 2022-03-23 | 2022-03-23 | 画像表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023141162A (ja) |
-
2022
- 2022-03-23 JP JP2022047334A patent/JP2023141162A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7254832B2 (ja) | ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法 | |
JP7309724B2 (ja) | 車両用表示システム及び車両 | |
US11597316B2 (en) | Vehicle display system and vehicle | |
US11639138B2 (en) | Vehicle display system and vehicle | |
JP7470230B2 (ja) | 車両用表示システム、車両システム及び車両 | |
WO2021065617A1 (ja) | 車両用表示システム及び車両 | |
JP7295863B2 (ja) | 車両用表示システム及び車両 | |
JP2023175794A (ja) | ヘッドアップディスプレイ | |
WO2021015171A1 (ja) | ヘッドアップディスプレイ | |
US20240036311A1 (en) | Head-up display | |
JP7429689B2 (ja) | 車両用ヘッドアップディスプレイおよびそれに用いられる光源ユニット | |
CN211032356U (zh) | 车辆用显示***及车辆 | |
JP2023141162A (ja) | 画像表示装置 | |
WO2022102374A1 (ja) | 車両用表示システム | |
JP7492971B2 (ja) | ヘッドアップディスプレイ | |
US20240227664A1 (en) | Vehicle display system, vehicle system, and vehicle | |
WO2023190338A1 (ja) | 画像照射装置 | |
US20240069335A1 (en) | Head-up display |