JP6952899B2 - ヘッドアップディスプレイ - Google Patents

ヘッドアップディスプレイ Download PDF

Info

Publication number
JP6952899B2
JP6952899B2 JP2020530057A JP2020530057A JP6952899B2 JP 6952899 B2 JP6952899 B2 JP 6952899B2 JP 2020530057 A JP2020530057 A JP 2020530057A JP 2020530057 A JP2020530057 A JP 2020530057A JP 6952899 B2 JP6952899 B2 JP 6952899B2
Authority
JP
Japan
Prior art keywords
display
virtual image
road surface
plane
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020530057A
Other languages
English (en)
Other versions
JPWO2020012879A1 (ja
Inventor
米田 晴彦
晴彦 米田
壮太 佐藤
壮太 佐藤
望 下田
望 下田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2020012879A1 publication Critical patent/JPWO2020012879A1/ja
Application granted granted Critical
Publication of JP6952899B2 publication Critical patent/JP6952899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/23Optical features of instruments using reflectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/333Lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/336Light guides
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、ヘッドアップディスプレイ(Head−Up Display:HUD)に関する。
特許文献1には「表示オブジェクトを有する映像を含む光束を観視者の片目に向けて投影する映像投影部と、前記観視者が搭乗する車両の姿勢及び方位の少なくともいずれかの角度に関する車両角度情報、及び、前記車両の外界の背景における前記表示オブジェクトのターゲットの位置での背景物の角度に関する外界角度情報の少なくともいずれかを取得する角度情報取得部と、を備え、前記映像投影部は、前記角度情報取得部によって取得された前記車両角度情報及び前記外界角度情報の少なくともいずれかに基づいて、前記表示オブジェクトの前記映像内における角度を変化させる(要約抜粋)」車載用表示システムが開示されている。
特開2010−156608号公報
一般的な単眼カメラによるセンシングでは道路上にひかれた平行な白線が交差して見える点(消失点)を基準として、消失点からの高さ(角度)を元に計算することで距離を推定する。この計算は視界内の全てが同じ高さことを前提としているので、前方に勾配があるような平坦ではない路面に上記の高さの計算手法を適用すると、消失点からの距離だけではなく、勾配による路面の高さまで含まれてしまう。そのため、勾配路面の座標は消失点を基に算出された高さに勾配による路面の高さが加算され、勾配路面の座標に小さくない誤差が生じる。従って、前方路面の形状に合わせたAR表示を行うためには路面の三次元座標が必要となるが、単眼カメラだけでは平坦な路面でしか正確に座標を算出することができないことから、路面の勾配に沿ったAR表示をさせることはできないという課題が残る。
本発明は上記実情に鑑みてなされたものであり、勾配路面に対するAR表示をより好適に行えるHUDを提供することを目的とする。
上記課題を解決するために、本発明は、請求の範囲に記載の構成を備える。その一例をあげるならば、表示オブジェクトを含む映像光を被投射部材に照射し、前記表示オブジェクトを虚像として表示するヘッドアップディスプレイであって、光源及び表示面を含み、前記光源から発生した光が前記表示面に表示された表示オブジェクトを透過して生成された映像光を出力する映像表示装置と、前記映像光を拡大投射する虚像光学系と、前記映像表示装置に接続された主制御装置と、を備え、前記主制御装置は、前記ヘッドアップディスプレイが備えられた乗り物に搭載された路面検出センサにより検出された、前記乗り物の進行方向前方に位置する前方路面上にある複数の計測点に基づいて前記前方路面の路面情報を取得し、前記表示オブジェクトの虚像が表示される虚像面において、前記前方路面に沿って前記虚像を表示させるための前記虚像の表示位置である虚像面位置を、前記路面情報を用いて演算し、前記虚像面位置に対応する前記表示面の表示位置を演算し、当該表示面の表示位置に前記表示オブジェクトを表示させるための制御信号を前記映像表示装置に対して出力する、ことを特徴とする。
本発明によれば、勾配路面に対するAR表示をより好適に行えるHUDを提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
HUDの概略構成図 HUDのシステム構成図 HUDによる虚像表示処理の流れを示すフローチャート 前方路面の推定処理の概要を示す図(y−z平面) 前方路面の推定処理の概要を示す図(x−y平面) 表示オブジェクトを描画したい実空間における3次元位置を示す図(y−z平面) 接地面に平行な表示オブジェクトの形状(図中左;基本形状)と、基本形状を路面角度に応じて回転させた回転後の表示オブジェクトの形状(図中右;回転形状)とを示す図 前方路面に沿って表示オブジェクトを表示させた状態を示す図(y−z平面) 前方路面に沿って回転後の表示オブジェクトの虚像を表示させるために、虚像面に虚像を表示させる位置(虚像面位置P’’’ oi)を示す図(y−z平面) 虚像面位置と表示素子の表示面上の位置との位置関係を示す図 勾配変化のない前方路面に対してAR表示を行った例を示す図 勾配変化がある前方路面に対して勾配を考慮することなくAR表示を行った例を示す図 勾配変化がある前方路面に対して勾配を考慮してAR表示を行った例を示す図 障害物をLiDAR系で見た状態を示す図 図12Aと同じ障害物をカメラ座標系で見た状態を示す図 カメラ座標上の路面位置からカメラ投影面上の位置に変換する処理を示す図 カメラ投影面から画像の位置に変換する処理を示す図 障害物の虚像面位置を示す図(y−z平面) 前方路面の勾配を考慮することなく障害物に対してAR表示を行った例を示す図 前方路面の勾配を考慮して障害物に対してAR表示を行った例を示す図 第3実施形態に係る表示オブジェクトの実空間上の高さを求める処理を示す図 第4実施形態に係るHUDのシステム構成図
以下、本発明の実施形態を図面に基づいて詳細に説明する。なお、実施形態を説明するための全図において、同一部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下に示す各実施形態では、ヘッドアップディスプレイ(HUD)が搭載される乗り物として自動車を例に挙げて説明するが、乗り物は、電車や油圧ショベルのような作業機械でもよい。また本実施形態では乗り物として車両を例に挙げるため走行体はタイヤであるが、電車の場合は車輪であり、作業機械の場合はクローラであってもよい。
<第1実施形態>
図1及び図2を参照して本実施形態に係るHUD1の構成について説明する。図1はHUD1の概略構成図である。図2はHUD1のシステム構成図である。
図1に示すように、HUD1は、車両2に備えられたダッシュボード4内に備えられる。ダッシュボード4はHUD1から出射した映像光Lを通過させるためのダッシュボード開口部7を備える。映像光Lは車両2のウィンドシールド3で反射されて運転者5の目に入射する。運転者5は、その映像光Lによる矢印表示オブジェクトの虚像101をウィンドシールド3よりも更に前方に視認する。なお、被投射部材はウィンドシールド3に限られず、映像光Lが投射される部材であれば、コンバイナなど他の部材を用いてもよい。
HUD1は、外装筐体50と、外装筐体50に装着されるHUD制御装置20及び映像表示装置30と、映像表示装置30から出射される映像光Lを拡大投影する虚像光学系40とを含んで構成される。
外装筐体50の上面には、映像光Lの出射口となる筐体開口部51が形成される。筐体開口部51は、外装筐体50に塵やほこりが侵入することを防ぐための防眩板52で覆われている。防眩板52は、可視光を透過する部材により構成される。
映像表示装置30は、LCD(Liquid Crystal Display)を用いて構成される。より詳しくは、映像表示装置30は光源31、照明光学系32、及び表示オブジェクトを含む映像光Lを出射する表示素子33を含んで形成される(図2参照)。照明光学系32は、光源31及び表示素子33の間に配置され、光源31から出射した光を表示素子33に導くものである。
虚像光学系40は、映像表示装置30に近い位置から順に、映像光Lの出射方向に沿ってレンズユニット43と凹面ミラー41とが配置されて構成される。更に本実施形態に係る虚像光学系40は、凹面ミラー41を回転させる凹面ミラー駆動部42を含む。図1では図示しないが、レンズユニット43と凹面ミラー41との間に映像光Lの光路を折り返す折り返しミラーを設けてもよい。折返しミラーは、レンズユニット43から出射した映像光Lを凹面ミラー41に向けて反射するミラーである。折返しミラーを追加すると映像光Lの光路長をより長くし、虚像面100をより前方に表示させることができる。図1では、虚像面100に表示オブジェクトとして左折を示す矢印表示オブジェクトの虚像101が表示される。
レンズユニット43は、凹面ミラー41と映像表示装置30の光学的な距離を調整したりするための少なくとも一つ以上のレンズを含むレンズの集合体である。
凹面ミラー41は、レンズユニット43を透過した映像光Lを筐体開口部51に向けて反射させる部材である。凹面ミラー41は凹面ミラー駆動部42により回動する。凹面ミラー駆動部42は、例えばミラー回転軸とこのミラー回転軸を回転させるモータを用いて構成され、モータの回転を凹面ミラー41のミラー回転軸に伝達することで、凹面ミラー41が回転し、映像光Lの反射角度を変えてウィンドシールド3に向けて反射する。その結果、映像光Lの投射方向を変化させ、ウィンドシールド3における映像光Lの反射角度が変化する。映像光Lの反射角度が変化することで、虚像面100(図7参照)自体の高さが変化する。
本実施形態に係るHUD1は、車両2の進行方向前方に位置する前方路面210(図4A参照)の勾配に沿って表示オブジェクトを虚像としてAR(Augmented Reality)表示させる点に特徴がある。そのために、HUD1は、虚像面100(図7参照)において虚像101を表示する際の前輪6及び後輪の接地面200からの高さ(実空間における高さである。以下「表示オブジェクト高さ」という)を調整する。本実施形態では、虚像面100内における虚像101の表示位置(以下「虚像面位置」という)を変更することで表示オブジェクト高さの調整を実現する、なお、凹面ミラー41の角度を変えて虚像面100自体の高さが変化すると、異なる高さの虚像面100において同一の虚像面位置に虚像101を表示した場合には、表示オブジェクト高さは虚像面100自体の高低差分だけずれる。以下では説明の便宜のため、虚像面100自体は変化させず、即ち凹面ミラー41の角度は変えない前提で説明する。
車両2の前面には、路面検出センサとしてのLiDAR(Light Detection and Ranging)60が設置される。なお、図1に示したLiDAR60の設置位置や高さは一例であり、異なる設置位置や高さであってもよい。
ウィンドシールド3の上部車内側には、障害物検出センサとしてのカメラ70が設置され、ダッシュボード4上に位置算出センサとしてのGPS(global positioning system)受信機80が設置される。なお、図1に示すカメラ70の設置位置は一例にすぎず、車外に設置されてもよい。また、GPS受信機80の設置位置も一例に過ぎず、ダッシュボード4上には限定されない。
図2に示すように、車両2において、自動運転システム900とHUD1とが、車載ネットワーク(CAN:Control Area Network)90を介して接続される。
自動運転システム900は、主に走行駆動装置400、走行制御装置500、路面推定装置600、画像処理装置700、及びナビゲーション装置800を含む。走行駆動装置400は、エンジン制御装置410、ステアリングモータ420及びブレーキ430を含む。走行制御装置500はCAN90を介して路面推定装置600、画像処理装置700、及びナビゲーション装置800の其々から路面情報、障害物情報、地図情報やナビゲーション情報を取得し、これを用いて自動運転するための制御信号、例えばエンジン制御信号、操舵角信号、及び制動信号を走行駆動装置400に出力する。
前方路面210を表す推定式を演算する処理(路面推定処理)は、HUD1が実行してもよいが、本実施形態では、自動運転システム900の一構成要素となる路面推定装置600がLiDAR60からの計測点データを基に前方路面210の平面の推定式を演算し、これを含む路面情報をHUD1に出力する場合を例に挙げて説明する。また、カメラ70、画像処理装置700、GPS受信機80、及びナビゲーション装置800の其々も、自動運転システム900の一構成要素であると共に、HUD1において表示オブジェクトの虚像101の表示処理に用いられる場合を例に挙げて説明する。なお、路面推定装置600と同様に、カメラ70、GPS受信機80等をHUD1の専用品として構成してもよい。
第1実施形態では、LiDAR60が前方路面210上の複数の計測点(例えば図4Aにおける計測点P,P,P)までの距離及び位置を計測して計測点データを生成し、路面推定装置600がそれらの計測点データを含む平面を実空間における3軸直交座標系で定義した推定式を演算する。そして、この推定式を路面情報としてHUD1に出力する。更に路面推定装置600は、接地面200に対する前方路面210の平面がなす角(路面角度θ:図4A参照)を演算し、これも路面情報としてHUD1に出力してもよいし、路面角度θはHUD制御装置20が演算してもよい。なお、後述する第3実施形態では、路面情報は、路面角度θだけである。
上記「実空間における3軸直交座標系」は、接地面200に含まれる2軸直交座標系(x−z座標系)とこの2軸直交座標系に直交するy軸とにより定義される。x軸は車両2の左右方向軸、z軸は車両2の進行方向に沿った前後方向軸、y軸は接地面200を基準とする高さ方向軸に相当する。
またHUD1は、画像処理装置700がカメラ70からの出力(撮像画像)を基に車両2の前方に位置する障害物を検知し、その障害物の種類及び位置を示した虚像表示対象物情報を取得する。
更にHUD1は、ナビゲーション装置800がGPS受信機80からの出力(GPS電波)を基に車両2の現在位置を算出し、車両2の位置情報を取得する。
HUD制御装置20は、第1ECU(Electric Control Unit)21と、これにシステムバスを介して接続された第1不揮発性メモリ(ROM)22、メモリ(RAM)23、光源調整部24、歪み補正部25、表示素子制御部26、第1CAN通信部27、及び凹面ミラー制御部28を含む。第1CAN通信部27は、路面推定装置600、画像処理装置700、及びナビゲーション装置800の其々にCAN90を介して接続される。光源調整部24は光源31に、歪み補正部25は表示素子制御部26に、表示素子制御部26は表示素子33に接続される。更に凹面ミラー制御部28は凹面ミラー駆動部42に接続される。
路面推定装置600は、第2ECU601、第2CAN通信部602、及びLiDAR制御部603を接続して構成される。第2ECU601の入力段はLiDAR60の出力段に接続され、LiDAR60の出力(計測点データ)が第2ECU601に入力される。
各計測点データは、LiDAR60が前方路面210にレーザを照射し、前方路面210にレーザが当たった地点(計測点)からの反射波を受光し、受光した反射波の光強度及びレーザ飛行時間を基に計測点までの距離及び位置を演算した値を含む。
第2ECU601は、3つ以上の計測点データを含む平面の推定式及びこの平面が接地面200となす角(路面角度θ)を演算し、その演算結果を路面情報として第2CAN通信部602からHUD制御装置20へ送信する。
第2ECU601の出力段はLiDAR制御部603を介して、LiDAR60の入力段に接続される。第2ECU601はLiDAR制御部603を介してLiDAR60に制御信号を出力する。
画像処理装置700は、第3ECU701、第3CAN通信部702、及びカメラ制御部703を接続して構成される。第3ECU701の入力段はカメラ70の出力段に接続され、カメラ70が生成した撮像画像が第3ECU701に入力される。第3ECU701は、撮像画像に対して画像認識処理を行い、被写体に虚像表示対象物、例えば進路表示対象物や障害物が含まれているか否かを判断する。そして、被写体が虚像表示対象物である場合は、その種類と位置とを示す虚像表示対象物情報を第3CAN通信部702からHUD制御装置20へ送信する。
第3ECU701の出力段はカメラ制御部703を介してカメラ70の入力段に接続される。第3ECU701はカメラ制御部703を介してカメラ70に制御信号を出力する。
ナビゲーション装置800は、第4ECU801、第4CAN通信部802、及び第4不揮発性メモリ803を接続して構成される。第4ECU801の入力段はGPS受信機80に接続され、GPS受信機80が受信したGPS電波を基に第4ECU801が車両2の現在位置を演算し位置情報を第4CAN通信部802からHUD制御装置20へ送信する。また、第4ECU801は車両2の目的地までの経路を演算し、経路情報をHUD制御装置20に送信してもよい。位置情報や経路情報を総称して進路情報という。
第4ECU801の出力段は第4不揮発性メモリ803にも接続され、位置信号が時系列に沿って蓄積される。第4ECU801は、過去の位置情報を読出し、位置情報の時系列変化を求めることで車両2の進行方向を算出してもよい。また、第4ECU801は、過去の位置情報を基にデッドレコニング処理を実行して、その結果を用いてGPS電波から求めた現在位置に対して補正を行い、補正された現在位置をHUD制御装置20に出力してもよい。第4不揮発性メモリ803は地図情報を格納してもよい。
走行制御装置500は、第5ECU501及び第5CAN通信部502を含む。そして第5ECU501は第5CAN通信部502からCAN90を介して路面情報、虚像表示対象物情報、進路情報を取得し、走行駆動装置400に対する制御信号を出力する。また、走行制御装置500にアラーム450を接続してもよい。そして、第5ECU501が虚像表示対象物情報を用いて衝突可能性判定処理を実行し、衝突の危険性がある場合は警報信号をアラーム450に対して出力してもよい。この場合、アラーム450による警報発報と後述するHUD1の障害物に対する虚像表示とを同期させてもよい。上記光源調整部24、歪み補正部25、表示素子制御部26、凹面ミラー制御部28、LiDAR制御部603、カメラ制御部703の其々、また後述する第4実施形態で用いられるスキャニングミラー制御部26aは、CPUやMPUなどの演算素子と、当該演算素子が実行するプログラムとを協調させて構成してもよいし、各部の機能を実現する制御回路として構成してもよい。また第1CAN通信部27から第5CAN部502までの各通信部は、CAN90に接続するための通信器、通信インターフェース、ドライバソフトを適宜組み合わせて構成される。
図3はHUD1による虚像表示(AR表示)処理の流れを示すフローチャートである。
HUD1の主電源がONになると(S01/Yes)、カメラ70が撮像を開始し(S10)、LiDAR60による路面計測が開始し(S20)、GPS受信機80がGPS電波を受信し、ナビゲーション装置800による進路情報の取得が開始する(S30)。HUD1の主電源がONになるまでは(S01/No)待機する。
画像処理装置700は、カメラ70からの撮像画像を読込、画像認識処理(S11)を行う。ここでの画像認識処理とは、撮像画像に映り込んだ被写体を検出し、その被写体はHUD1が虚像表示対象物とする被写体であるかを認識する処理である。第1実施形態の虚像表示対象物は進路表示対象物とする。よって第3ECU701は、被写体として進路表示対象物、例えば前方路面、交差点、分岐点、合流点、曲がり角の少なくとも一つが撮像画像に映っているかを判定し、写っている場合は虚像表示対象物情報をCAN90に出力する。
路面推定装置600は、LiDAR60から計測点データを取得し前方路面を推定する(S21)。そして車両2の接地面200に対する前方路面210の路面情報をHUD制御装置20に出力する。
ナビゲーション装置800は、GPS受信機80からのGPS電波を基に車両2の現在位置及び進行方向を含む進路情報を生成しHUD制御装置20に出力する。
HUD制御装置20は虚像表示対象物情報に基づいて虚像表示対象物があると判断すると(S40/Yes)、路面推定装置600が推定した前方路面210の接地面200に対する路面角度θを演算する(S41)。路面角度θ(図4参照)は、接地面200に対する前方路面210の勾配と同義である。
そしてHUD制御装置20は、ステップS41で求めた路面角度θを基に表示オブジェクトの実空間上の高さを算出する(S42)。またHUD制御装置20は、勾配を有する前方路面210に沿って表示オブジェクトの虚像101(図1参照)を表示させるための表示オブジェクト回転角を算出する(S43)。表示オブジェクト回転角の詳細は後述する。
更にHUD制御装置20は、ステップS41で求めた勾配を基に、虚像面100において表示オブジェクトの虚像101を表示させる位置である虚像面位置P’’’ oi(図7参照)を算出する(S44)。各ステップの処理内容の詳細は後述する。
その後HUD制御装置20は、虚像面位置P’’’ oiに相当する表示素子33の表示面上の位置に表示オブジェクトを表示し、映像光Lを出射し、表示オブジェクトを虚像101として表示(AR表示相当)する(S45)。この虚像101は、運転者5が虚像表示対象物を見る視線と虚像面100との交点上に表示されるので、虚像表示対象物(例えば路面や障害物)に表示オブジェクトを重畳又は近接させてAR表示させることができる。
HUD1の電源がOFFでなければ(S46/No)、ステップS10、S20及びステップS30へ戻り、処理を継続する。一方、HUD1の電源がOFFになると(S46/Yes)、処理を終了する。
(ステップS21:前方路面推定処理)
図4Aは前方路面210の推定処理の概要を示す図(y−z平面)、図4Bは前方路面210の推定処理の概要を示す図(x−y平面)である。図4A、図4Bにおけるx軸,y軸,z軸の各軸は、既述の実空間における3軸直交座標系を構成する各軸である。この3軸直交座標系の原点は、車両2の最前方の路面、即ち接地面200を無限遠に延長した面上にある。
LiDAR60で測定された前方路面210の3次元実空間上の計測点をp(i=1,2,3,・・・)とする。計測点Pの座標は(x,y,z)からなる。図4A,図4Bは3つの計測点P,P,Pを示す。各計測点P,P,Pを含む平面Aをax+by+cz=dとすると、a,b,c,dは次式(1)で計算できる。
Figure 0006952899
但しP12はPとPから成るベクトル、P13はPとPから成るベクトル。×は外積演算を示す。
(S41:前方路面210の接地面200に対する路面角度θの演算処理)
z軸は接地面200に含まれるので、図4Aにおいて、接地面200に対する前方路面210の傾き、即ち路面角度θは、z軸とのなす傾きで表せる。前方路面210を含む平面Aの法線ベクトルはn=(a,b,c)となるので、前方路面210の路面角度θは以下の式(2)で計算できる。
Figure 0006952899
(S42:表示オブジェクトの実空間上の高さ)
図5は表示オブジェクトを描画したい実空間における3次元位置を示す図(y−z平面)である。図5では、表示オブジェクト120が前方路面210には沿っておらず、勾配を考慮せずに接地面200と同様の形状で表示されている。表示オブジェクト高さは、路面角度θを使って求めることもできるが、平面の推定式から求めたほうがわかりやすいので、以下では平面の推定式を使って表示オブジェクト高さを求める処理を説明する。
図5において、表示オブジェクトを描画したい実空間における3次元位置Pの奥行き方向の位置をz、横方向の位置をx、高さ方向の位置をy、とすると平面Aの推定式から高さ方向の位置yは下式(3)で計算できる。
Figure 0006952899
但し、表示オブジェクトを描画したい実空間における3次元位置をP=(x,y,z)とする。
(S43:表示オブジェクトの回転角算出)
図6Aは接地面200に平行な表示オブジェクトの形状(図中左;基本形状)と、基本形状を路面角度に応じて回転させた回転後の表示オブジェクトの形状(図中右;回転形状)とを示す図である。図6Bは前方路面210に沿って表示オブジェクト120を表示させた状態を示す図(y−z平面)である。
図6Aに示すように、接地面200に表示される表示オブジェクト120(基本形状)上の点Poi=(xoi,yoi,zoi(i=1,2,3,・・・)を、路面角度θで傾いた前方路面210に沿わせて表示させるために、下式(4)により路面角度θに基づいて回転させて点P oiの座標を求める。点P oiは、回転後の表示オブジェクト120a上の各点である。以下では、表示オブジェクト120の虚像の重心が原点にあるとする。
Figure 0006952899
本ステップにより、車両2に搭載したLiDAR60からの計測点データを用いて接地面200に対する前方路面210の路面角度θに合わせて表示オブジェクト120を回転させる。そして、図6Bに示すように、回転後の表示オブジェクト120aを前方路面210における表示させたい位置P’’ oiに移動する。なお、位置P’’ oiは実空間における3軸直交座標系で表される座標である。P’’ oiの座標は下式(5)で表せる。
Figure 0006952899
(S44:表示オブジェクトの虚像面位置を算出)
図7は前方路面210に沿って回転後の表示オブジェクト120aの虚像を表示させるために、虚像面100に虚像を表示させる位置(虚像面位置P’’’ oi)を示す図(y−z平面)である。実空間上での虚像面100をex+fy+gz=hとし、視点をPとすると、虚像面上の表示オブジェクトの位置P’’’ oiは下式(6)で求められる。視点Pの実空間における3軸直交座標系における座標は車両2の運転者5の実際の視点の座標であることが好ましいが、本実施形態では説明の便宜のため固定値(例えばアイリプスの中心座標のような設計値でもよい)を用い、予め視点Pの実空間における3軸直交座標は与えられているものとする。但し、別態様として運転者5の視点を検出する視点検出装置をHUD1に接続し、視点検出装置が検出した3軸直交座標系で定義された視点Pの座標を用いてもよい。
Figure 0006952899
(S45:虚像表示)
図8は虚像面位置と表示素子33の表示面33a上の位置との位置関係を示す図である。後述する虚像面―表示面対応データとは、図8の関係性、即ち虚像面におけるx−z座標と表示面内のs−t座標とを紐づけたデータである。
虚像を含む映像光Lは、光源31から出射した光が表示素子33の表示面33aを透過することにより生成される。従って、映像光Lが拡散するに伴い虚像面100の面積も拡張するが、虚像面100内における表示位置(虚像面位置P’’’ oi)と、それに対応する表示素子33の表示面33aにおける表示位置とは一義に定まる。
そこで、表示素子33の表示面33aに表示オブジェクトを表示し、そのときの表示位置P’’’’ oiを表示面33aにおける2軸直交座標系(s−t座標系)で表す。また表示位置P’’’’ oiに表示した表示オブジェクトの虚像が表示される虚像面位置P’’’ oiの座標を、実空間における3軸直交座標系のうちのx−y座標で表す。そして、表示位置P’’’’ oiのs−t座標と、虚像面位置P’’’ oiのx−y座標とを対応付けた虚像面―表示面対応データを生成する。
虚像面―表示面対応データは、第1不揮発性メモリ22の一部領域からなるキャリブレーションデータ記憶部22aに記憶する。
そして第1ECU21は、式(6)により虚像面位置P’’’ oiを求めると、虚像面―表示面対応データを参照して表示面33a上の表示位置P’’’’ oiに換算する。その後、第1ECU21は、回転後の表示オブジェクト120aと表示素子33上の表示位置P’’’’ oiとを歪み補正部25に出力する。歪み補正部25は歪み補正を行った回転後の表示オブジェクト120aと表示面33aの表示位置P’’’’ oiとを表示素子制御部26に出力する。表示素子制御部26は、回転後の表示オブジェクト120aを表示面33aの表示位置P’’’’ oiに表示するよう、表示素子33を駆動する。
次いで第1ECU21は、光源調整部24に対して光源31の点灯指示を出力し、光源調整部24が光源31を点灯する。これにより、光源31から出射光が発せられ、表示面33aの表示位置P’’’’ oiに表示された表示オブジェクトを含む映像光LがHUD1から出射する。そしてこの映像光Lにより虚像面100の位置P’’’ oiに回転後の表示オブジェクト120aが虚像として表示される。なお、図8の虚像面―表示面対応データは、凹面ミラー41がある角度、例えばφの場合のデータ例を示している。凹面ミラー角度φが変わると、虚像面100の位置P’’’ oiが同じであっても、それに対応する表示面33aにおける表示オブジェクトの表示位置が変わる。例えば虚像面100の位置P’’’ oiは、凹面ミラー角度φ1では、P’’’’ oiのs−t座標系で(sa1,ta1)と表せても、凹面ミラー角度φ2では(sa2,ta2)と表せる。従って、予めキャリブレーションデータ記憶部22aに、凹面ミラー角度φに応じた虚像面―表示面対応データが複数格納されており、第1ECU21は凹面ミラー制御部28に出力した凹面ミラー角度φを制御する信号を参照して、虚像面―表示面対応データを読み出し、表示面33aにおける表示オブジェクト120aの表示位置を演算する。
図9〜図11を基に、従来技術との比較による効果説明を行う。
図9は勾配変化のない前方路面にAR表示を行った例(従来例)を示す図である。図9では進行方向を示す矢印は、接地面200の同一平面上にある前方路面に沿って表示される。
図10は、勾配がある前方路面210に対して、勾配を考慮することなくAR表示を行った例を示す図である。前方路面210は、接地面200に対して上り勾配があり、接地面200よりも実空間において高い位置に前方路面210は存在する。この前方路面210に勾配を考慮することなくAR表示を行うと矢印の表示オブジェクトがあたかも前方路面210に突き刺さったり、突き抜けていくように見える。
図11は、勾配変化がある前方路面に対して勾配を考慮してAR表示を行った例(本実施形態に相当する)を示す図である。図11に示すように、勾配変化がある前方路面210に対して勾配(路面角度θ)を考慮して表示オブジェクトの表示高さを変え、かつ表示オブジェクトを回転させて表示すると、前方路面210に突き刺さったり、突き抜けていくようには見えず、前方路面210に沿って矢印の表示オブジェクトを表示させることができる。
本実施形態によれば、LiDAR60からの出力を用いて、前方路面210の路面角度θを求め、路面角度θを用いて表示オブジェクトの基本形状を回転させる。更に前方路面210の勾配に沿って表示させるための表示オブジェクト高さを求め、これを実現する表示オブジェクトの虚像面位置を算出する。そして、虚像面位置P’’’ oiに対応する表示面33a上の表示位置P’’’’ oiに回転後の表示オブジェクトを表示して映像光Lを出射することにより、前方路面210が接地面200に対して勾配を有していても、従来例に比べて、表示オブジェクトを前方路面210に沿って表示させることができる。
また本実施形態では、車両2に搭載したLiDAR60の出力を用いて接地面200に対する前方路面210の路面角度θを計測し、これに基づいて表示オブジェクトの表示位置及び回転角度を変更するが、この構成に替えて高精度地図の道路形状情報を用いても実現することも考えられる。しかし、地図の更新頻度によっては、道路状態と地図情報が一致しない可能性があり、地図情報が作成された時点から現時点までに道路状態や道路勾配が変化した場合には現状の正しい道路形状情報を取得できない可能性がある。これに対し、本実施形態によれば、逐次道路形状情報を取得することにより、リアルタイムに道路状態や道路勾配に追従させてAR表示ができるので、例えば前方路面210に虚像がつきぬけて表示されるといった現実感が無いAR表示を抑止し、より現実の風景に合ったAR表示ができる。
<第2実施形態>
第2実施形態は、虚像表示対象物が歩行者や車両等の障害物である点に特徴がある。画像処理装置700にて歩行者や車両等の障害物を検出した場合は、カメラ投影面上の位置及び路面情報を用いて、検出した障害物の3次元座標を推定できるため、高精度にAR表示をすることができる。
第2実施形態では、第1実施形態と比較して以下の3つの処理に特徴がある。
(処理1)LiDAR60により取得した路面情報とカメラ70の撮像画像との対応付け
(処理2)撮像画像上で検出された障害物(虚像表示対象物の一例である)の存在する計測点を取得
(処理3)近傍の計測点を含む平面に沿って障害物に付加する表示オブジェクトの虚像を表示する
(処理1について)
この処理1は、図3の処理が開始する以前に実行される処理であって、車両2からの距離が既知な位置に、既知の大きさの被写体を設置し、カメラ70及びLiDAR60のそれぞれで計測し、撮像画像に写った被写体とLiDAR60が検出した被写体上の計測点の位置とを対応付けることにより、カメラ座標系の座標を実空間の3軸直交座標系の座標と紐づけたカメラ‐実空間対応データを生成する処理である。
撮像画像に写った被写体はカメラ座標系の2次元座標で表せる。よって、LiDAR60が同一被写体上にある計測点を計測すると各計測点の実空間上の3軸直交座標系の座標が得られるので、3軸直交座標系の座標とカメラ座標系の2次元座標とを紐づけたカメラ‐実空間対応データが得られる。これにより、撮像画像に映った被写体のカメラ座標系で表した2次元座標と、LiDAR60が検出した被検出体の3軸直交座標とをカメラ‐実空間対応データを用いて同定し、撮像画像の被写体の3次元座標を算出することができる。
カメラ‐実空間対応データは、キャリブレーションデータ記憶部22aに記憶され、表示オブジェクトの虚像面位置の決定処理等に用いられる。
具体的には、カメラ‐実空間対応データではLiDAR60で取得した計測点データ(x,y,z成分から成る点群p)がカメラ70の撮像画像のどの画素に位置するかを対応づける。一般的に、カメラ70とLiDAR60の設置位置が異なるため、カメラ位置を原点とするカメラ座標系と、LiDAR位置を原点とするLiDAR座標系とを考える。図12A,図12Bに処理1の概要を示す。図12Aは障害物650をLiDAR座標系で見た状態を示す。図12Bは、図12Aと同じ障害物650をカメラ座標系で見た状態を示す。図12A,図12Bにおいて、それぞれ、座標に添え字cとlを付す。
図12Aにおいて、LiDAR60で測定された路面の3次元位置Pli(i=1,2,3)があるとする。図12Bは、3次元位置Pci(i=1,2,3)をカメラ座標系で表している。
LiDAR60の位置とカメラ70の位置との違いを並進ベクトルt、姿勢の違いを回転行列Rで表すと、カメラ座標系での路面位置Pciは下式(7)で計算できる。
Figure 0006952899
次に図13A、図13Bに示すように、カメラ座標上の路面位置pciをカメラ投影面上の位置Ppi、及び画像上の位置Pii(図13B)に変換する。カメラ投影面上の位置Ppiはカメラ70の焦点距離をfとすると、下式(8)のように計算できる。
Figure 0006952899
更に、画像上の位置Piiは、カメラのイメージセンサの幅をw、高さをhとし、画像の幅をw、高さhとすると、下式(9)のように計算できる。
Figure 0006952899
(処理2について)
図13Bに示すように、第2実施形態では、ステップS11において第1ECU21が、撮像画像上の路面位置Pi1,Pi2,Pi3の中に障害物Pivが存在するか確認する。第1ECU21は、下式(10)〜(12)がすべて満たされる場合、Pi1,Pi2,Pi3の中に障害物Pivが存在すると判断する。
Figure 0006952899
(処理3について)
上記の(処理2)が満たされた場合、第1ECU21は、ステップS40において、Pl1,Pl2,Pl3から成る平面A上に障害物が存在すると判断する。
カメラ原点とカメラ投影面上の障害物位置Ppvを結ぶ直線と平面Aの交点が障害物の実空間上の位置Pcvとなるので、第1ECU21は、処理2で求めた障害物の実空間上の位置Pcv=(xcv,ycv,zcv)を下式(13)より算出する。なお、下式(13)において、Ppv=(xpv,ypv,zpv)はカメラ投影面の障害物の位置を示す。
Figure 0006952899
(S44:障害物の虚像面位置)
図14は障害物の虚像面位置を示す図(y−z平面)である。HUD制御装置20の第1ECU21は、既述のステップS44と同じ方法で虚像面での障害物の位置を求める。Pcvはカメラ位置を原点とする障害物位置であるため、(処理1)で求めたカメラ‐実空間対応データを用いて、位置Pcvを(処理1)で定めた座標系での位置Pに変換する。カメラ座標と(処理1)で定めた座標系の位置と向きの違いを、並進ベクトルt、回転行列Rとすると、位置Pは下式(14)で計算される。
Figure 0006952899
実空間上での虚像面100をex+fy+gz=hとし、視点をPEとすると、虚像面100上の障害物の位置P は下式(15)により求められる。
Figure 0006952899
第2実施形態によれば、障害物のように不定期に出現し、地図情報では定義できない対象物に対しても表示オブジェクトをAR表示することができる。
第2実施形態によるAR表示効果を従来例と比較して説明する。図15Aは、前方路面の勾配を考慮することなく障害物に対してAR表示を行った例を示す図である。図15Bは、前方路面の勾配を考慮して障害物に対してAR表示を行った例を示す図である。
勾配を考慮しない場合、図15Aに示すように、前方車両からなる障害物650と表示オブジェクト660とが離間して表示される。これに対し、本実施形態によれば、図15Bに示すように、障害物650に表示オブジェクト660を近接させて表示させることができる。図15Bでは近接させただけであるが、障害物650に重畳させることも可能である。
<第3実施形態>
第1実施形態は、表示オブジェクトの実空間上の高さを3軸直交座標系で表した前方路面の推定式を基に求めたが、3軸直交座標の内のx−z軸(タイヤ接地面)に対する前方路面210の勾配(路面角度θ)を用いて表示オブジェクトの実空間上の高さを求めてもよい。図16は、第3実施形態に係る表示オブジェクトの実空間上の高さを求める処理を示す図である。
図16において、前方路面210の平面を表す式をax+by+cz=dとする。平面と接地面200との交線上の位置xの点(x,0,z’)はax+0+cz’=dより下式(16)で表せる。
Figure 0006952899
次に表示オブジェクトの実空間上の高さyは下式(17)により求める。
Figure 0006952899
<第4実施形態>
第1〜3実施形態ではLCDを用いた映像表示装置30を用いたが、MEMS(Micro Electro Mechanical Systems:微小電気機械システム)を用いた映像表示装置300であってもよい。図17は、第4実施形態に係るHUDのシステム構成図である。
図17に示すHUD1aは、MEMSを用いた映像表示装置300を用いて構成される。MEMSは、レーザ光源301と、レーザ光を反射するスキャニングミラー302及びスキャニングミラー302の鏡面の角度を変えるスキャニングミラー駆動部(モータ)302aと、マイクロレンズアレーを用いた拡散板303と、拡散板303からの映像光を入力し、凹面ミラー41に向けて出射するリレー光学系304を含む。リレー光学系304は、図2のレンズユニット43に代わる部材である。
レーザ光源301が照射したレーザ光は、スキャニングミラー302で反射され、拡散板303に到達する。スキャニングミラー302は反射角度を変えながらレーザ光を拡散板303に照射する。拡散板303では、レーザ光が一度結像し、表示オブジェクトが視認できる状態となる。よって拡散板303は、表示面33aに相当する。拡散板303からリレー光学系304へ向かう光は、結像した表示オブジェクトの映像情報を含むので、映像光Lに相当する。
HUD1aが備えるHUD制御装置20aは、第1実施形態に係るHUD制御装置20の表示素子制御部26に代えてスキャニングミラー制御部26aを備える。光源調整部24は、レーザ光源301に接続され、点滅制御及び光量調整を行う。
スキャニングミラー制御部26aは、スキャニングミラー駆動部302aを駆動制御し、スキャニングミラー302を回転させて鏡面の向きを変える。これにより、拡散板303において表示オブジェクトが表示される位置が変わる。
更に、HUD制御装置20aは、入力I/F27aを備える。LiDAR60、カメラ70、及びナビゲーション装置800の其々は、入力I/F27aに接続される。第1ECU21は、入力I/F27aを介してLiDAR60、カメラ70、及びナビゲーション装置800の各出力を取得し、路面推定処理及び障害物検知等の画像処理を行い、第1実施形態と同様のAR表示を実現する。
また、HUD制御装置20aは、CAN90を介して車両情報、例えば速度センサ950から走行速度を取得してAR表示してもよい。
本実施形態によれば、MEMSを用いた映像表示装置300においても、前方路面の勾配に合わせたAR表示が行える。また、第1実施形態のように自動運転システム900を搭載しない車両であっても、HUD1aに各種センサを取り付けることで、前方路面の勾配に合わせたAR表示が行える。
上記各実施形態は本発明を限定するものではなく、本発明の趣旨を逸脱しない範囲での様々な変更態様は本発明の技術的範囲に属する。例えば、各処理の説明で用いた計算式は、当該処理の一実施形態に過ぎず、当該処理に必要な算出結果をもたらす他の計算式を適用してもよい。
また路面検出センサは、前方路面210上の計測点までの距離及び位置(車両2の左右方向の位置)が検出できるセンサであればLiDAR60に限らず、ミリ波レーダやステレオカメラでもよい。
更に第1〜第3実施形態のLCDを用いた映像表示装置30に代わり、MEMSを用いた映像表示装置300を用いてもよい。また第4実施形態のMEMSを用いた映像表示装置300に代えて、LCDを用いた映像表示装置30を用いてもよい。
1 :HUD
20 :HUD制御装置(主制御装置)
60 :LiDAR
70 :カメラ
80 :GPS受信機
100 :虚像面
101 :虚像
200 :接地面
210 :前方路面

Claims (11)

  1. 表示オブジェクトを含む映像光を被投射部材に照射し、前記表示オブジェクトを虚像として表示するヘッドアップディスプレイであって、
    光源及び表示面を含み、前記光源から発生した光が前記表示面に表示された表示オブジェクトを透過して生成された映像光を出力する映像表示装置と、
    前記映像光を拡大投射する虚像光学系と、
    前記映像表示装置に接続された主制御装置と、を備え、
    前記主制御装置は、
    前記ヘッドアップディスプレイが備えられた乗り物に搭載された路面検出センサにより検出された、前記乗り物の進行方向前方に位置する前方路面上にある複数の計測点に基づいて前記前方路面の路面情報を取得し、
    前記表示オブジェクトの虚像が表示される虚像面において、前記前方路面に沿って前記虚像を表示させるための前記虚像の表示位置である虚像面位置を、前記路面情報を用いて演算し、
    前記虚像面位置に対応する前記表示面の表示位置を演算し、当該表示面の表示位置に前記表示オブジェクトを表示させるための制御信号を前記映像表示装置に対して出力する、
    ことを特徴とするヘッドアップディスプレイ。
  2. 請求項1に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記検出された複数の計測点のそれぞれについての、実空間における3軸直交座標系で定義された3次元座標に基づいて前記前方路面の路面情報を取得する、
    ことを特徴とするヘッドアップディスプレイ。
  3. 請求項1に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記虚像の実空間における虚像面位置を、前記虚像面における座標と前記表示面における座標とを紐づけた虚像面―表示面対応データを参照して、前記虚像面位置に対応する前記表示面の表示位置を演算する、
    ことを特徴とするヘッドアップディスプレイ。
  4. 請求項1に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記虚像を視認する運転者の視点と前記前方路面とを結ぶ視線が前記虚像面に交差する点の位置を、前記虚像の虚像面位置として演算する、
    ことを特徴とするヘッドアップディスプレイ。
  5. 請求項2に記載のヘッドアップディスプレイにおいて、
    前記3軸直交座標系は、前記乗り物に搭載された走行体の接地面に含まれるx−z軸直交座標系及び当該x−z軸直交座標系に直交するy軸を含む3軸直交座標系であり、
    前記主制御装置は、前記虚像面に前記虚像を表示させる前記接地面からの高さを前記虚像面位置として演算する、
    ことを特徴とするヘッドアップディスプレイ。
  6. 請求項5に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記路面情報として前記複数の計測点を含む平面の推定式を取得し、当該推定式に基づいて前記虚像面位置を演算する、
    ことを特徴とするヘッドアップディスプレイ。
  7. 請求項5に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記路面情報として前記接地面に対する前記複数の計測点を含む平面がなす角度である路面角度を更に取得または演算し、
    前記接地面に表示する際の前記表示オブジェクトの形状を基本形状とし、前記路面角度を用いて前記基本形状を回転させた形状からなる回転後の表示オブジェクトを、前記映像表示装置における前記表示オブジェクトの表示位置に表示させる、
    ことを特徴とするヘッドアップディスプレイ。
  8. 請求項5に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記路面情報として前記接地面に対する前記複数の計測点を含む平面がなす角度である路面角度を取得し、前記路面角度を用いて前記虚像の虚像面位置を演算すると共に、前記接地面に表示する際の前記表示オブジェクトの形状を基本形状とし、前記路面角度を用いて前記基本形状を回転させた形状からなる回転後の表示オブジェクトを、前記映像表示装置における前記表示オブジェクトの表示位置に表示させる、
    ことを特徴とするヘッドアップディスプレイ。
  9. 請求項1に記載のヘッドアップディスプレイにおいて、
    前記主制御装置は、前記乗り物に搭載されたカメラが前記前方路面を撮像した撮像画像に写った虚像表示対象物の位置情報を取得し、
    実空間における3軸直交座標系の座標とカメラ座標系の2次元座標とを紐づけたカメラ‐実空間対応データを参照し、前記虚像表示対象物の位置情報を前記3軸直交座標系の座標に変換し、
    変換後の前記虚像表示対象物の位置情報と前記路面情報とを参照し、前記虚像表示対象物の近傍にある複数の計測点を含む平面を演算し、当該平面に沿って前記虚像表示対象物に付加する表示オブジェクトの虚像を表示させるための虚像面位置を演算し、
    前記虚像の実空間における虚像面位置を、前記虚像面における座標と前記表示面における座標とを紐づけた虚像面―表示面対応データを参照して、前記虚像面―表示面対応データを参照し、前記虚像表示対象物に付加する表示オブジェクトの虚像面位置を前記表示面の表示位置を変換し、
    当該表示面の表示位置に前記虚像表示対象物に付加する表示オブジェクトを表示させるための制御信号を前記映像表示装置に対して出力する、
    ことを特徴とするヘッドアップディスプレイ。
  10. 請求項1に記載のヘッドアップディスプレイにおいて、
    前記映像表示装置は、
    光源と、
    表示素子と、
    前記光源及び前記表示素子の間に配置された照明光学系であって、前記光源から出射した光を前記表示素子に導く照明光学系と、を含む液晶ディスプレイである、
    ことを特徴とするヘッドアップディスプレイ。
  11. 請求項1に記載のヘッドアップディスプレイにおいて、
    前記映像表示装置は、
    レーザ光源と、
    前記レーザ光源が発したレーザ光を反射するスキャニングミラー、及び当該スキャニングミラーの鏡面の向きを変えるスキャニングミラー駆動部と、
    前記スキャニングミラーで反射されレーザ光を結像させる拡散板と、
    前記拡散板で結像した前記表示オブジェクトの映像情報を含む映像光が入射されるリレー光学系と、を含む微小電気機械システムである、
    ことを特徴とするヘッドアップディスプレイ。
JP2020530057A 2018-07-13 2019-06-17 ヘッドアップディスプレイ Active JP6952899B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018133706 2018-07-13
JP2018133706 2018-07-13
PCT/JP2019/023955 WO2020012879A1 (ja) 2018-07-13 2019-06-17 ヘッドアップディスプレイ

Publications (2)

Publication Number Publication Date
JPWO2020012879A1 JPWO2020012879A1 (ja) 2021-06-10
JP6952899B2 true JP6952899B2 (ja) 2021-10-27

Family

ID=69142621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020530057A Active JP6952899B2 (ja) 2018-07-13 2019-06-17 ヘッドアップディスプレイ

Country Status (4)

Country Link
US (2) US11719932B2 (ja)
JP (1) JP6952899B2 (ja)
CN (1) CN112424570A (ja)
WO (1) WO2020012879A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102116783B1 (ko) * 2018-10-10 2020-05-29 네이버랩스 주식회사 영상을 지면에 위치시켜 운전자의 시점에 증강현실을 구현하는 3차원 증강현실 헤드업 디스플레이
JP6692981B1 (ja) * 2019-09-13 2020-05-13 マレリ株式会社 表示装置及び表示方法
CN111442784B (zh) * 2020-04-03 2022-08-02 北京四维智联科技有限公司 一种基于ar导航的道路引导方法、装置及设备
CN113514952A (zh) * 2020-04-09 2021-10-19 华为技术有限公司 抬头显示装置和抬头显示方法
US11990066B2 (en) 2022-03-18 2024-05-21 Honda Motor Co., Ltd. System and method to adjust inclined heads-up display perspective
CN116974417B (zh) * 2023-07-25 2024-03-29 江苏泽景汽车电子股份有限公司 显示控制方法及装置、电子设备、存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242411A (ja) * 1999-05-10 2001-09-07 Asahi Glass Co Ltd ホログラム表示装置
JP5075595B2 (ja) * 2007-11-26 2012-11-21 株式会社東芝 表示装置及びそれを用いた移動体
JP5161760B2 (ja) 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
JP2012179935A (ja) * 2011-02-28 2012-09-20 Jvc Kenwood Corp 車両用表示装置
JP6186905B2 (ja) 2013-06-05 2017-08-30 株式会社デンソー 車載表示装置およびプログラム
KR101655553B1 (ko) * 2014-10-29 2016-09-08 현대자동차주식회사 운전자 보조 장치 및 방법
JP2016118851A (ja) * 2014-12-19 2016-06-30 アイシン・エィ・ダブリュ株式会社 虚像表示装置
JP6629889B2 (ja) 2016-02-05 2020-01-15 マクセル株式会社 ヘッドアップディスプレイ装置
JP6717856B2 (ja) 2016-02-05 2020-07-08 マクセル株式会社 ヘッドアップディスプレイ装置
US10976545B2 (en) 2016-09-01 2021-04-13 Mitsubishi Electric Corporation Display device and adjustment method
JP2019217791A (ja) 2016-10-14 2019-12-26 マクセル株式会社 車両用映像表示装置

Also Published As

Publication number Publication date
WO2020012879A1 (ja) 2020-01-16
CN112424570A (zh) 2021-02-26
US20210271079A1 (en) 2021-09-02
JPWO2020012879A1 (ja) 2021-06-10
US11719932B2 (en) 2023-08-08
US20230350200A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
JP6952899B2 (ja) ヘッドアップディスプレイ
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
US10789845B2 (en) Parking assistance method and parking assistance device
US10185152B2 (en) Vehicle display device
WO2018012299A1 (ja) 画像生成装置、画像生成方法、及び、プログラム
JP6981377B2 (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
JP6968676B2 (ja) 車両用表示装置
WO2016190135A1 (ja) 車両用表示システム
CN109968977B (zh) 显示***
CN109927552B (zh) 车辆用显示装置
JP2019129417A (ja) 表示制御装置及び表示システム
WO2021020145A1 (ja) 表示制御装置
JP2017107538A (ja) 構造光を運用し物体距離を感知する内輪差警告方法及びシステム
KR20190078944A (ko) 철도차량용 증강현실 헤드업 디스플레이 시스템
WO2021020385A1 (ja) 表示制御装置
US11607999B2 (en) Method and apparatus for invisible vehicle underbody view
JP2019039883A (ja) 車両用表示装置および表示制御方法
WO2016088151A1 (ja) 車載用表示装置、車両及び表示方法
JP2016185768A (ja) 車両用表示システム
JP7120982B2 (ja) 表示制御装置
JP6313271B2 (ja) 車両用運転支援装置
KR101072225B1 (ko) 3차원 주차장 인식시스템 및 제어방법
JP2017173536A (ja) 車両用表示装置
CN115723568A (zh) 显示控制装置、显示***、显示方法及非暂时性存储介质
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210928

R150 Certificate of patent or registration of utility model

Ref document number: 6952899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111