JP6731116B2 - ヘッドアップディスプレイ装置およびその表示制御方法 - Google Patents

ヘッドアップディスプレイ装置およびその表示制御方法 Download PDF

Info

Publication number
JP6731116B2
JP6731116B2 JP2019513244A JP2019513244A JP6731116B2 JP 6731116 B2 JP6731116 B2 JP 6731116B2 JP 2019513244 A JP2019513244 A JP 2019513244A JP 2019513244 A JP2019513244 A JP 2019513244A JP 6731116 B2 JP6731116 B2 JP 6731116B2
Authority
JP
Japan
Prior art keywords
image
display
area
unit
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019513244A
Other languages
English (en)
Other versions
JPWO2018193708A1 (ja
Inventor
渡辺 敏光
敏光 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2018193708A1 publication Critical patent/JPWO2018193708A1/ja
Application granted granted Critical
Publication of JP6731116B2 publication Critical patent/JP6731116B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/025Rear-view mirror arrangements comprising special mechanical means for correcting the field of view in relation to particular driving conditions, e.g. change of lane; scanning mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、ヘッドアップディスプレイ(HUD:Head Up Display)装置等の表示装置の技術に関し、拡張現実(AR:Augmented Reality)の画像情報を運転者に提供する技術に関する。
AR機能を有するAR表示装置やそのシステムとして、自動車等に搭載されるHUD装置がある。そのHUD装置(AR−HUDと呼ばれる場合もある)では、運転者等の利用者の視界におけるウィンドシールドやコンバイナ等の視認領域(画面)において、透過される実像に対し、映像光の投射によって虚像を重畳表示する。以下、虚像をAR画像と記載する場合がある。虚像は、例えば、自車の前方の道路や車等を含む実像に対する、運転支援等のための画像情報が挙げられる。詳しい例としては、車速等の車両情報の画像、進行方向を示すナビゲーション等の矢印画像、対向車や歩行者及び自転車等の接近を示す注意喚起や標識等の強調のための枠画像、等が挙げられる。また、虚像の生成のための元データとしては、車載のセンサやエンジン制御部やカーナビゲーションシステム等の情報が利用可能である。
HUD装置は、例えば、表示素子、光源、映像光を視認領域に導くためのレンズやミラー等の光学系を備える。表示素子からの映像光は、ミラー等を経由して、ウィンドシールドやコンバイナ等の視認領域内の領域(以下、AR表示領域、HUD表示範囲等と記載する場合がある)に投射される。画面内の領域で反射された光は、運転者の目に入射して網膜に結像し、運転者が虚像として認識する。
車載のHUD装置に関する先行技術例としては、特開2010−70066号公報(特許文献1)が挙げられる。特許文献1には、ヘッドアップディスプレイとして、映像の投影位置が、車両の振動や運転者の姿勢の変化により一方の目の視線上からずれることを低減し、表示される情報の視認性を高める旨が記載されている。
特開2010−70066号公報
従来のHUD装置を含む車載システムでは、AR機能を用いてウィンドシールド等の視認領域において、透過される実像に虚像を重畳表示する。その際、運転者の目の位置(視点位置と記載する場合がある)によっては、その視認領域を見た場合に実像の物体と虚像とで表示のずれが生じる場合がある。言い換えると、HUD装置による設計上の虚像の表示位置と、実際に運転者が視認する虚像の表示位置とで、一致しない場合がある。
上記実像と虚像との表示のずれが生じる要因としては、運転者が動いて姿勢を変える等の動作により目の位置が基本設定の目の位置から変動する場合や、体格等が異なる人が同じ基本設定のHUD装置の視認領域を見る場合等が挙げられる。
HUD技術では、視認領域を見る者(例えば運転者)の目の位置、例えば鉛直方向の高さ位置によって、虚像と実像の相対位置関係がずれる等の見え方が異なってくる。HUD装置が形成する虚像の位置と、見る者の目の位置との関係によって、見る者の網膜に結像される像の状態が定まる。HUD装置による虚像の位置と、見る者の目の位置とが所定の関係を満たさない場合には、見る者が虚像を視認できない。見る者が画像を視認できるために目の位置が入らなければならない範囲はアイボックスと呼ばれる。
例えば、運転者の視点位置が、基本設定の視点位置を含むアイボックスの範囲に対し、鉛直方向に変動して、アイボックスの範囲から外に出た場合は虚像もしくは虚像の全表示範囲を見る事が出来ない。運転者は虚像が見えるように光学系、例えばミラー等の角度調整を行うが、調整した結果として実像と虚像との表示のずれが発生する。運転者の視界の視認領域では、実像の物体に対して大きくずれた位置に虚像が表示されて、運転者が虚像を視認しにくい、または視認できない。実像と虚像との表示のずれが大きいほど、運転者は、虚像が視認しにくく、実像と虚像とを関係付けた認識がしにくい。すなわち、運転者にとって、そのような虚像は不適である。
本発明の目的は、AR機能を持つHUD装置の技術に関して、実像と虚像との表示のずれを低減して、好適なAR表示が実現できる技術を提供することである。
本発明のうち代表的な実施の形態は、ヘッドアップディスプレイ装置であって、以下に示す構成を有することを特徴とする。
一実施の形態のヘッドアップディスプレイ装置は、車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置であって、カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力部と、前記画像内の前記物体の位置を含む物体情報、および空間内の前記物体との距離を含む距離情報を取得する情報取得部と、前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成部と、前記取得された情報を用いて、前記ウィンドシールドまたはコンバイナの視認領域に前記画像を表示可能な範囲である表示領域の位置、および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換部と、前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御部と、前記制御に従って前記視認領域に対して前記画像を重畳表示する表示部と、を備え、前記変換部は、基本設定の運転者の視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う。
本発明のうち代表的な実施の形態によれば、AR機能を持つHUD装置の技術に関して、実像と虚像との表示のずれを低減して、好適なAR表示が実現できる。
本発明の実施の形態1のHUD装置を含む、車載システムの構成を示す図である。 実施の形態1で、自動車の運転座席付近を横から見た状態を示す図である。 実施の形態1で、運転者から前方の物体や虚像を見た場合の位置や距離等を示す図である。 実施の形態1で、運転者の視点の位置の変動の第1状態を示す図である。 実施の形態1で、運転者の視点の位置の変動の第2状態を示す図である。 実施の形態1で、運転者の視点の位置の変動の第3状態を示す図である。 実施の形態1で、運転者の視点の位置の変動の第4状態を示す図である。 実施の形態1で、運転者の視点の位置の変動の第5状態を示す図である。 実施の形態1で、運転者の視点の位置の変動の第6状態を示す図である。 実施の形態1で、制御部の主要処理のフローを示す図である。 実施の形態1で、運転者から見た視認領域の例として、表示のずれがない状態を示す図である。 実施の形態1で、運転者から見た視認領域の例として、表示のずれが有る状態の第1例を示す図である。 実施の形態1で、運転者から見た視認領域の例として、表示のずれが有る状態の第2例を示す図である。 実施の形態1で、カメラの画像の例を示す図である。 実施の形態1で、空間内の自車と他車との距離等を示す図である。 実施の形態1で、AR平面および変換後のAR表示領域を示す図である。 実施の形態1で、AR平面のAR表示領域にAR画像を配置する例を示す図である。 実施の形態1で、AR平面から曲面の視認領域への座標変換を示す図である。 実施の形態1で、AR画像の変換の例を示す図である。 実施の形態1で、表示位置変換部の変換テーブルを用いた計算を示す図である。 本発明の実施の形態2のHUD装置を含む、車載システムの構成を示す図である。 実施の形態2で、運転者から見た視認領域の例として、表示のずれが低減された状態の例を示す図である。 実施の形態2で、表示位置変換部の変換処理を示す図である。 実施の形態2で、表示位置変換部の変換処理の一部として、AR平面から曲面の視認領域への座標変換を示す図である。 本発明の実施の形態3のHUD装置を含む、車載システムの構成を示す図である。 実施の形態3で、自動車の運転座席付近を横から見た状態を示す図である。 実施の形態3で、表示位置変換部の変換処理を示す図である。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。
(実施の形態1)
図1〜図20を用いて、本発明の実施の形態1のヘッドアップディスプレイ装置(HUD装置)等について説明する。実施の形態1のHUD装置は、AR機能を持つAR表示装置であり、車載のAR−HUDとして実装される場合を示す。実施の形態1の表示制御方法は、実施の形態1のHUD装置で実行されるステップを有する方法である。実施の形態1のHUD装置は、制御部のプログラム処理によって、AR表示の際に実像と虚像との表示位置のずれを自動的に補正する変換処理を行う機能を有する。実施の形態1では、運転者が光学系のミラー等を調節しない場合でも、その設定状態でAR表示内容を補正する。
[比較例の課題]
実施の形態1に対する比較例として、従来のHUD装置を含む車載システムでは、以下のような課題がある。比較例のHUD装置は、実施の形態1のような実像と虚像との表示のずれを補正する機能を持たない。従来、利用例として、運転者は、自動車の運転座席に座って座席を自分の体格や姿勢に合わせて調節した後、HUD装置の視認領域のAR表示領域(AR画像が表示可能なHUD表示範囲)を調節して基本設定を行う。例えば、運転者は、自分の視線の先の視認領域内の好適な位置にAR表示領域の虚像が見える状態になるように、HUD装置の光学系のミラーの角度を手動で調節する。なお、このような調節を基本設定と記載する場合がある。
運転者が標準的な体格の人である場合、この基本設定が完了した状態では、視認領域のAR表示領域に表示される虚像を好適に視認でき、運転中のAR機能の利用が可能である。運転者の視点位置が多少変動したとしても、基本設定のアイボックスの範囲内に入っている限り、AR表示領域には余裕があり、虚像の視認が可能である。その場合、運転者は、ミラーの角度の再調節等も特に必要ない。
しかしながら、比較例のHUD装置では、AR機能の利用時、HUD装置の設計上のAR表示領域内の虚像の表示位置に対し、実際に運転者の視点から見た虚像の表示位置にずれが生じる場合がある。例えば、運転者の視点位置が基本設定の視点位置から鉛直方向に変化した場合に、運転者の視界の視認領域では、実像の物体に対してずれた位置に虚像が表示されて、運転者が虚像を視認しにくい場合がある。例えば、運転者の視点位置の変化が大きく、基本設定の視点位置を含むアイボックスの範囲から外に出る場合、虚像が視認されないか、実像と虚像との表示のずれが大きい状態で視認される。表示のずれは、視認領域内での実像と虚像との距離等に現れる。ずれの大きさがある程度までの場合、運転者が物体と虚像とを関係付けて認識できる。しかし、ずれの大きさがある程度以上になる場合、ARの虚像としては不適である。
また、比較例のHUD装置では、運転者の視点位置と、AR機能に用いるためのカメラの位置とが異なる。また、比較例のHUD装置では、カメラの撮影方向や画角と、運転者の視点から見たAR表示領域の方向や画角とが異なる。そのため、比較例のHUD装置では、設計上のAR画像の表示位置と、運転者から見えるAR画像の位置とでずれが生じる場合がある。
[HUD装置および車載システム]
図1は、実施の形態1のHUD装置1を含む、車載システム100の構成を示す。車載システム100は、自動車に搭載されているシステムである。利用者である運転者は、車載システム100およびHUD装置1を操作し利用する。このHUD装置1は、特にAR機能を持つAR−HUD装置である。
車載システム100は、ECU(Engine Control Unit:エンジン制御部)101、HUD装置1、カメラ2を含む車外撮影部102、映像データ記憶部103、通信部104、GPS(Global Positioning System)受信器105、カーナビ部106、センサ部108、DB部109等を有し、それらが車載バスおよびCAN(Car Area Network)110に接続されている。車載システム100は、その他図示しない音声出力部、操作部、電源部等を有する。
HUD装置1は、制御部10、表示部20を有する。HUD装置1は、AR機能を有する。HUD装置1は、AR機能を用いて、ウィンドシールド9の視認領域5のAR表示領域7にAR画像を表示することで、運転者に各種の情報を伝えることができる。HUD装置1は、視認領域5に虚像が表示可能なHUD表示範囲であるAR表示領域7の位置を自動的に補正する機能を有する。この機能により、運転者の視点から視認領域5を見た時の実像と虚像との表示のずれが低減される。HUD装置1は、音声出力部を併用して、運転者に音声出力、例えばカーナビ機能やAR機能による案内やアラーム等を行うこともできる。HUD装置1は、操作パネルや操作ボタン等も備え、運転者による手動操作入力、例えばAR機能のオン/オフやユーザ設定、光学系24のミラーの角度の調節、等も可能である。
制御部10は、HUD装置1の全体を制御する。制御部10は、CPU、ROM、RAM等のハードウェアおよび対応するソフトウェアを備える。制御部10や他の各部は、マイコンやFPGA等のハードウェアによって実装されてもよい。制御部10は、例えばCPUによりROMからプログラムを読み出してプログラムに従った処理を実行することで、画像入力部11等の各部を実現する。制御部10は、必要に応じて各種のデータや情報を内部のメモリまたは外部のメモリに格納し、読み出し等を行う。制御部10は、メモリのうちの不揮発性メモリに、AR機能のための設定情報等を保持する。設定情報は、表示位置変換部14の変換処理のための設定情報や、ユーザ設定情報を含む。ユーザ設定情報は、光学系24のミラーの角度の基本設定情報等を含む。
制御部10は、カメラ2で撮影された画像を入力し、取得した各情報を用いながら、視認領域5のAR表示領域7に虚像を表示するためのARデータである映像データを生成し、表示部20に与える。制御部10は、ARデータの生成の際に、視認領域5のAR表示領域7の位置およびAR表示領域7内のAR画像の表示位置を補正する機能を有する。また、制御部10は、表示部20を制御して、光学系24のミラーの角度の状態を調節でき、これにより、視認領域5のAR表示領域7の位置を調節して基本設定ができる。
表示部20は、投射型映像表示装置(プロジェクタ)等によって構成される。表示部20は、表示駆動回路21、表示素子22、光源23、光学系24、駆動部25を有し、それらが接続されている。表示部20は、制御部10からの制御および映像データに基づいて、視認領域5に虚像を表示するための映像光を生成して視認領域5に投射する。
表示駆動回路21は、AR表示部15からの映像データに従って、AR表示のための表示駆動信号を生成し、表示素子22および光源23に与えて駆動制御する。
光源23は、表示駆動信号に基づいて、表示素子22への照明光を発生する。光源23は、例えば高圧水銀ランプ、キセノンランプ、LED素子、またはレーザー素子等で構成される。光源23からの光は、図示しない照明光学系を通じて表示素子22に入射される。照明光学系は、照明光を集光し、均一化して、表示素子22に照射する。
表示素子22は、表示駆動信号および光源23からの照明光に基づいて、映像光を生成し、光学系24へ出射する。表示素子22は、例えばSLM(Spatial Light Modulator:空間光変調器)、DMD(Digital Micromirror Device、登録商標)、MEMSデバイス、またはLCD(透過型液晶パネルや反射型液晶パネル)等で構成される。
光学系24は、表示素子22からの映像光をウィンドシールド9の視認領域5へ導くためのレンズやミラー等の素子を含む(図2)。光学系24には、駆動部25が接続されている。表示素子22からの映像光は、光学系24のレンズによって拡大等され、ミラーによって反射等されて、視認領域5に投射される。すなわち、視認領域5の一部には、映像光が投射されるHUD表示範囲であるAR表示領域7が構成される。その映像光は、視認領域5のAR表示領域7で反射され、運転者の目に入射し、網膜に結像する。これにより、運転者の視界の視認領域5では、AR表示領域7において、透過されている実像に虚像が重畳表示される。
駆動部25は、光学系24を駆動するための光学系駆動部であり、レンズやミラー等を駆動するためのモータ等の部品を含む。駆動部25は、運転者の手動操作入力、あるいは制御部10からの制御に従って、光学系24を駆動し、例えばミラーの角度を変更する。駆動部25は、例えばミラーの角度を調節するための操作ボタンを備えている。運転者は、その操作ボタンの上下の手動操作によって、ミラーの角度を標準に設定された角度を基準として正負に変更可能である。例えば、操作ボタンの第1部分が押されている間、ミラーの角度が正方向(角度を大きくする方向)に変化し、第2部分が押されている間、ミラーの角度が負方向(角度を小さくする方向)に変化する。
ECU101は、エンジン制御を含む車両制御、車載システム100の全体の制御を行う。ECU101は、言い換えると車両制御部である。ECU101は、運転支援や運転自動制御のための高度な機能を有してもよい。その場合、ECU101は、その機能に係わる情報をHUD装置1に出力してHUD装置1を制御し、HUD装置1にその機能に係わるAR画像の表示を行わせてもよい。ECU101は、センサ部108からの検出情報に基づいて、車速等の走行状態を含む車両情報を把握し、制御に用いる。また、HUD装置1は、ECU101から車両情報を取得してAR表示に利用できる。
車外撮影部102は、カメラ2を含み、自車の停止中や走行中等に、1台以上のカメラ2を用いて、自車の外界の状況を撮影し、映像データ(時系列の画像フレームを含む)および車両周囲情報を取得する。車外撮影部102は、その映像データ等を、映像データ記憶部103に格納し、あるいはECU101やHUD装置1へ出力する。
カメラ2は、車外カメラであり、車両の所定の位置に所定の向きや画角で設置されている(図2)。カメラ2の位置は、例えば車両前部バンパー付近、ウィンドシールド9の辺付近、あるいは車両横部のバックミラー付近等である。カメラ2は、車両および運転者の前方を含むように、所定の向き(撮影方向)で所定の画角の範囲で撮影し、映像データを出力する。
車外撮影部102は、カメラ2の画像を処理する信号処理部を備えてもよいし、備えなくてもよい。その信号処理部は、1台以上のカメラ2の画像を処理して、車両周囲情報等を計算して得てもよい。その信号処理部は、ECU101やHUD装置1に備えてもよい。車外撮影部102は、カメラ2の画像の解析に基づいて、自車の周囲の他車や人や建物や路面や地形や天候等の状況を判断してもよい。
車外撮影部102は、自車と実像の物体との距離を計測する機能を備えてもよい。車外撮影部102にカメラ2として2つ以上のカメラ、例えばステレオカメラを備える場合、その左右の2つのカメラが撮影した2つの画像を用いて、公知の両眼視差に基づいた距離計測方式で、物体との距離が計算できる。また、車外撮影部102に1つのカメラしか備えない場合でも、そのカメラの画像内の物体の位置から物体との距離を計算できる。また、カメラ2の画像と他のセンサの検出情報とを併用することで、物体との距離を計算してもよい。
映像データ記憶部103は、カメラ2からの映像データ等を記憶する。映像データ記憶部103は、車外撮影部102内にあってもよいし、HUD装置1内にあってもよい。
通信部104は、車外の移動体網やインターネット等に対する通信を行う通信インタフェース装置を含む部分である。通信部104は、ECU101やHUD装置1等からの制御に基づいて、例えばインターネット上のサーバ等と通信ができる。例えば、HUD装置1は、通信部104を介してサーバからAR表示に用いるための元データや関連情報等を参照、取得できる。
通信部104は、車車間通信用無線受信機、路車間通信用無線受信機、VICS(Vehicle Information and Communication System:道路交通情報通信システム、登録商標)受信機等を含んでもよい。車車間通信は、自車と周辺の他車との間の通信である。路車間通信は、自車と周辺の道路や信号機等の機器との間の通信である。
GPS受信器105は、GPS衛星からの信号に基づいて、自車の現在の位置情報(例えば緯度、経度、高度等)を取得する。ECU101やHUD装置1やカーナビ部106は、GPS受信器105から自車の現在の位置情報を取得して、制御に用いることができる。
カーナビ部106は、車に搭載されている既存のカーナビゲーションシステムの部分であり、地図情報や、GPS受信器105から取得した位置情報等を保持し、それらの情報を用いて公知のナビゲーション処理を行う。ECU101やHUD装置1は、カーナビ部106から情報を取得して制御を行うことができる。HUD装置1は、カーナビ部106から地図情報等を参照してAR表示の元データとして用いてもよい。例えば、HUD装置1は、その元データに基づいて、AR画像の例として、目的地への進行方向のナビゲーションのための矢印画像を生成してもよい。
センサ部108は、自動車に搭載されている公知のセンサ群を有し、検出情報を出力する。ECU101やHUD装置1は、その検出情報を取得して制御を行う。センサ部108に含むセンサデバイスの例として、車速計、加速度センサ、ジャイロセンサ、地磁気センサ(電子コンパス)、エンジン始動センサ、シフトポジションセンサ、ハンドル操舵角センサ、ヘッドライトセンサ、外光センサ(色度センサや照度センサ)、赤外線センサ(近接物体センサ)、温度センサ、等がある。加速度センサおよびジャイロセンサは、自車の状態として、加速度、角速度および角度等を検出する。
センサ部108は、自車と物体との距離を計測する距離センサを備えてもよい。距離センサは、例えば光学的センサで実現でき、発した光が物体に当たって戻ってくるまでの時間から距離を計算できる。距離センサがある場合、HUD装置1の情報取得部12は、その距離センサから距離情報を取得できる。
DB部109は、ストレージ等で構成され、DBに、AR表示に利用するための元データや情報が格納されている。元データは、例えばAR画像(例:枠画像)を生成するための基本画像データ等がある。情報は、例えば物体(例:対向車)に関する基本情報や関連情報、基準画像等がある。なお、DB部109は、HUD装置1内に設けられてもよいし、車載システム100の外部の通信網上のデータセンタ等に設けられてもよい。DB部109のDBには、通信部104を介して外部から取得された情報が格納されてもよい。また、DB部109のDBは、カーナビ部106のDBとの併合でもよい。
ウィンドシールド9は、自動車の一部であり、透過性および剛性を持つガラス、所定の光学特性のフィルム等で構成されている(図2)。ウィンドシールド9の視認領域5には、AR機能の利用時にAR表示領域7が構成され、AR表示領域7において実像に対し虚像が重畳表示される。なお、ウィンドシールド9の手前にAR専用表示板(コンバイナ等)が設けられてもよい。視認領域5は、調節によってAR表示領域7が配置できる範囲に対応している。
画像入力部11は、カメラ2で撮影された画像を入力し、画像からARのための所定の物体を抽出する。情報取得部12は、AR表示および表示位置変換等のために必要な情報として、物体情報、距離情報、車両情報等を取得する。物体情報は、画像内の物体の位置を含む情報である。距離情報は、空間内の自車と物体との距離を含む情報である。車両情報は、車速等を含む情報である。AR画像生成部13は、物体に対して重畳表示するための基本的なAR画像を生成する。
表示位置変換部14は、言い換えると補正部である。表示位置変換部14は、情報取得部12で取得された情報を用いて、視認領域5にAR画像を表示可能なHUD表示範囲であるAR表示領域7の位置、およびAR表示領域7内のAR画像の表示位置を補正する変換処理を行う。AR表示部15は、補正後のデータを用いて、視認領域5に対してAR画像を重畳表示する制御を表示部20に対して行う。
[運転座席]
図2は、実施の形態1で、自動車の運転座席付近を横(X方向)から見た平面で、各部の配置構成例を概略的に示す。運転座席の前方にウィンドシールド9があり、その一部として視認領域5があり、視認領域5の一部としてAR表示領域7がある。運転座席の前方のダッシュボードの一箇所、例えばコンソールの位置には、HUD装置1の表示部20や、図示しないがカーナビ部106等が設置されている。図2では、表示素子22と光学系24のうちのミラー24Aとを示している。表示素子22から例えば前方(Z方向)に映像光が出射され、ミラー24Aによって上方(Y方向)のウィンドシールド9の方へ反射される場合を示す。ミラー24Aからの反射光は、ウィンドシールド9の内側の視認領域5で運転者の目の方へ反射される。なお、光学系24の構成は、これに限らず可能であり、視認領域5に映像光(ミラー24Aの反射光)を投射する位置および角度が可変であればよい。
運転者の目および視点の位置を点p1で示す。また、目の位置の点p1からの視線L1を一点鎖線で示す。なお、視点位置は、目の位置と異なってもよい。例えば、視点位置は、左右の両目の中間点として計算されてもよいし、頭や顔の中心点等として計算されてもよい。
視認領域5におけるAR表示領域7および虚像の位置を表す点p5を示す。点p5は、例えばAR表示領域7の中心点である。運転者の視線L1がその点p5を通る場合を示す。点p5は、視線L1の先の視認領域5との交点である。
車両におけるカメラ2の設置位置の点p2および撮影方向L2を示す。本例では、車両横部のバックミラー付近にカメラ2が設置されている。撮影方向L2がZ方向である場合を示す。
映像光の光軸を一点鎖線で示す。図2では、AR表示領域7に対応する映像光の範囲を示している。光学系24の一部として、ミラー24Aを有する。ミラー24Aは、自由曲面ミラー等であり、例えば凹面鏡である。ミラー24Aは、設置および向きの角度θを有する。ミラー24Aは、駆動部25からの駆動によって角度θが可変である。ミラー24Aは、X方向(視認領域5内の水平方向、左右方向に対応する)に延在する回転軸を有する。ミラー24Aは、その回転軸での回動によって、角度θが変更される。角度θは、図示するYZ面内での回転角度であり、所定の角度範囲内で可変である。
図2では、ミラー24Aの角度θの定義として、表示素子22からの入射方向(Z方向)に対応する水平面を0度として、ミラー24Aの反射面である凹面の中心軸(破線で示す)が成す角度(仰角)として示している。本例では角度θが45度程度である。制御に用いるミラー24Aの角度は、この角度θに限らず、他の角度を使用してもよい。いずれにせよ、視認領域5に対する反射光の投射の角度が可変である。凹面における映像光の反射角度や視認領域5への投射角度は、角度θ等に基づいて計算できる。
上記のように少なくとも角度θが可変であるミラー24Aの構造に基づいて、視認領域5内のAR表示領域7のY方向(視認領域5内の垂直方向、上下方向に対応する)の位置が調節可能である。すなわち、特に、角度θに応じて、運転者の視点から見て視認領域5内でAR表示領域7を上下に移動するように調節(基本設定)が可能である。
なお、X方向に関しても同様にミラー24Aの所定の角度(例えばZ方向の回転軸の角度)を可変とした構造としてもよい。その場合、視認領域5内のAR表示領域7のX方向の位置を調節可能である。また、ミラー24Aの曲面の設計によっては、後述のAR平面8から曲面の視認領域5への座標変換(歪み補正)の機能を持たせることもできる。
カメラ2と視点との位置関係については以下である。車載システム100およびHUD装置1では、空間内のカメラ2の位置(点p2)が予め設定されている。また、運転者の視点位置(点p1)は、運転座席の付近に対応する所定の範囲内の位置に概ね決まる。そのため、カメラ2の位置(点p2)と視点の位置(点p1)とは、所定の関係として概ね一定の距離等の関係を有し、それらの位置は計算によって相互に変換可能である。
[位置や距離]
図3は、図2と同様の自動車の運転座席の運転者から前方の道路上の物体の実像と、その実像に重畳表示される虚像とを見る場合の位置や距離等について概略的に示す。図3の右側から、運転者の視点(目)の位置P1(図2の点p1に対応する)、カメラ2の位置P2(点p2に対応する)、視認領域5上のAR表示領域7および虚像の位置P5(点p5に対応する)、視認領域5の前方の空間内のAR表示領域7および虚像の位置P3、視認領域5の前方の実像の物体の位置P4を示す。各位置は、3次元空間内の位置座標を有する。例えば、位置P1の位置座標(X1,Y1,Z1)を有する。同様に、位置P2(X2,Y2,Z2)、位置P3(X3,Y3,Z3)、位置P4(X4,Y4,Z4)、位置P5(X5,Y5,Z5)等を有する。
図3のように、実施の形態1のHUD装置1の計算上では、視認領域5の前方の実像301の物体の位置P4に対応させるように、視認領域5の前方の位置P3にAR表示領域7および虚像302が構成される。運転者の視点位置から見た視認領域5では、位置P3のAR表示領域7および虚像302が、位置P5(図2の点p5)のAR表示領域7および虚像として構成される。視線L1の先には、実像301の物体(例えば対向車、路面のマーク等)が存在する。また、その実像301の物体に対する虚像を重畳表示する場合、視認領域5の前方にAR表示領域7内の虚像302が計算される。視点位置P1からは、視認領域5の点p5のAR表示領域7内にその虚像が見える。
目の位置P1とカメラ2の位置P2との距離を距離D12で示す。図3では特にZ方向の距離成分のみを示すが、X方向およびY方向の距離成分もある。目の位置P1と虚像302の位置P3との距離(虚像距離)D13や、カメラ2の位置P2と虚像302の位置P3との距離D23を示す。目の位置P1と実像301の物体の位置P4との距離(物体距離)D14や、カメラ2の位置P2と実像301の物体の位置P4との距離D24を示す。カメラ2の位置P2と自車の前方先端(バンパー付近)との距離D6を示す。また、目の位置P1における地面からの鉛直方向(Y方向)の高さ(視点高さ)H1を示す。同様にカメラ2の位置P2の高さH2を示す。
自車の位置は、目の位置P1またはカメラ2の位置P2または視認領域5の位置P5等に基づいて適宜換算される。自車の位置からの物体(実像301)との距離のうち、Y方向の成分を距離DYで示す。
カメラ2の撮影方向L2は、水平面よりも少し下向きの場合を示す。水平方向(Z方向)に対するカメラ2の撮影方向L2の角度φを示す。カメラ2の撮像画角を画角φcで示す。視点の位置P1からAR表示領域7を見る場合の画角を画角βで示す。
車載システム100およびHUD装置1は、前述のように、車外撮影部102またはセンサ部108等を用いて、自車と物体との距離を計測する機能を有する。この距離計測機能は、公知の各種の手段を適用可能である。自車と物体との距離は、カメラ2の位置P2と物体の位置P4との距離D24や、視点位置P1と物体の位置P4との距離D14と概略的には同じである。自車のウィンドシールド9の視認領域5、カメラ2、運転者の視点等は、所定の位置関係を有するので、その関係に基づいて、それらの各種の距離は、相互に換算可能である。例えば、カメラ2の位置P2からの物体との距離D24から、距離D12を反映する計算をすれば、視点位置P1からの物体との距離D14が得られる。また、自車と物体との距離が得られた場合、GPSによる自車の位置情報を用いて、物体の位置情報もある程度の精度で計算可能である。
[視点位置(1)]
図4〜図9は、実施の形態1および比較例を含め、運転座席での運転者の視点位置や視線およびそれらの変動等について示す。
図4は、運転者の視点位置等の第1状態を示す。第1状態は、第1運転者として標準的な体格の人が、運転座席を調節後、その姿勢(第1姿勢)での視点位置に合わせるように、ミラー24A(図4では図示しない)の角度θを調節し、視認領域5にAR表示領域7が基本設定された状態である。
この第1状態で、第1運転者の目の位置P1Aを示す。位置P1Aは、位置座標(X1A,Y1A,Z1A)を有する。位置P1Aは、Y方向では高さH1A、位置Y1Aを有する。位置P1Aは、Z方向では位置Z1Aを有する。位置P1Aを中心とした基本設定のアイボックスEAも示す。位置P1Aからの視線L1Aを示す。
視認領域5の前方にある基本設定のAR表示領域7を、破線のAR表示領域7aで示す。対応する視認領域5内のAR表示領域7を、破線のAR表示領域7bで示す。視認領域5の点CAは、AR表示領域7aおよびAR表示領域7bの中心点を示す。視線L1Aは、位置P1Aから視線L1AでAR表示領域7の点CAを見る場合の視線を示す。その場合、視線L1Aは、AR表示領域7の画角βAを有する。視線L1Aは、水平面を0度とした伏せ角度として角度αhを有する。伏せ角度は、目が視認領域5越し前方に虚像302を見る際の水平面に対する角度である。
[視点位置(2)]
図5は、第2状態として、図4に対し、運転者の視点位置が異なる場合を示す。比較のために第1状態の位置P1A等も示す。第2状態は、例えば、図4の第1運転者と同じ人が、運転座席や姿勢を変更した場合の第2姿勢の状態を示す。あるいは、図4の第1運転者と違う人である第2運転者、例えば相対的に体格が大きい人の場合の第2姿勢の状態を示す。特に、第2姿勢では、目の位置が、第1状態の位置P1AよりもY方向で高くZ方向で後ろの位置P1Bになっている。位置P1Bは、位置座標(X1B,Y1B,Z1B)、および地面からの高さH1Bを有する。位置P1Bを中心とする場合のアイボックスEBも示す。位置P1Bは、第1状態の位置P1AのアイボックスEAからは外に出た位置である。
視線L1A2は、第2状態の目の位置P1Bから、図4と同じ基本設定のAR表示領域7の点CAを見る場合の視線を示す。視線L1A2では、AR表示領域7の画角βA2を有する。視線L1A2では、虚像を見る場合の伏せ角度として角度αh2を有する。
[視点位置(3)]
図6は、第3状態として、図5の第1または第2運転者の第2姿勢の視点の位置P1Bと同じであるが、視線が異なる場合を示す。図6は、図5の視点の位置P1Bに合わせてミラー24A(図6では図示しない)の角度によりAR表示領域7の位置を調節した後、位置P1Bから調節後のAR表示領域7の中心の点CBを見る場合の視線L1B等を示す。視認領域5のAR表示領域7bの点CBは、図5のAR表示領域7bの点CAよりもY方向で上側に移動している。視線L1Bは、AR表示領域7の画角βBを有する。視線L1Bは、伏せ角度として角度αh3を有する。
[視点位置(4)]
図7は、第4状態として、図4の第1状態の視点の位置P1Aから基本設定のAR表示領域7の点CAを見る場合の視線L1Aと、図5の第2状態の視点の位置P1Bから同じAR表示領域7の点CAを見る場合の視線L1A2とを重ねた状態を示す。また、図7では、視認領域5の前方の位置P3のAR表示領域7および虚像302も含めて横から見た状態を示す。この状態で、ミラー24Aの角度θの状態は角度θAである。図7の状態は、言い換えると、図5に対応して、第1状態の人の視点の位置P1Aに合わせた基本設定のAR表示領域7を、第2状態の人の視点の位置P1Bから見る場合を示す。
第1状態の位置P1Aから点CAを経由して先に見えるAR表示領域7a1と、第2状態の位置P1Bから点CAを経由して先に見えるAR表示領域7a2とを示す。基本設定状態では、HUD装置1が計算上構成しているのはAR表示領域7a1である。第1姿勢の人の場合には、視点の位置P1Aからの視線L1Aで、実像の物体と、AR表示領域7a1の虚像とがずれなく見える。それに対し、姿勢変更後の第2姿勢の人の場合には、視点の位置P1Bからの視線L1A2で、実際に見えるのは、AR表示領域7a2の虚像となる。そのため、AR表示領域7a1の先にある実像の物体と、AR表示領域7a2の先にある実像の物体と、それぞれの虚像とでは、表示のずれが生じる。
視点位置からAR表示領域7および虚像を見る場合の見込み角度を角度αで示す。見込み角度は、水平面を0度とした仰角で示す。位置P1Aから点CAを通る視線L1AでAR表示領域7a1の虚像を見る場合が角度α1である。位置P1Bから同じ点CAを通る視線L1A2でAR表示領域7a2の虚像を見る場合が角度α2である。角度α1と角度α2とが異なっている。第2状態の視点からの見込み角度が、第1状態の視点からの見込み角度よりも大きくなっている(α1<α2)。なお、見込み角度と伏せ角度とが対応関係を有する。このように、視点位置および視線の見込み角度等の変化に応じて、実像と虚像との表示のずれが生じる。この第4状態の場合、第2姿勢の運転者の視点の位置P1Bからは、AR表示領域7内の虚像が視認しにくいか、視認困難となる。
[視点位置(5)]
図8は、第5状態として、図4の第1状態の視点の位置P1Aから基本設定のAR表示領域7の点CAを見る場合の視線L1Aと、図6の第3状態の視点の位置P1Bから調節後のAR表示領域7の点CBを見る場合の視線L1Bとを重ねた状態を示す。また、図8では、同様に、視認領域5の前方の位置P3のAR表示領域7および虚像302も含めて横から見た状態を示す。この状態で、ミラー24Aの角度θの状態は、調節によって角度θAから角度θBに変更されている。図8の状態は、言い換えると、図6に対応して、第2状態の人の視点に合わせたAR表示領域7を、第2状態の人の視点P1Bから見る場合を示す。
第1状態の位置P1Aから点CAを経由して先に見えるAR表示領域7a1と、第2状態の位置P1Bから点CBを経由して先に見えるAR表示領域7a3とを示す。調節および姿勢変更後の第2姿勢の人の場合には、視点の位置P1Bからの視線L1Bで、実際に見えるのは、AR表示領域7a3の虚像となる。そのため、その人の視界では、AR表示領域7a1の先にある実像の物体と、AR表示領域7a3の虚像とで、表示位置のずれが生じる。
位置P1Bから点CBを通る視線L1BでAR表示領域7a3の虚像を見る場合の伏せ角度が角度α3である。調節によって、角度α3は、角度α2よりも小さくなっている。そのため、実像と虚像との表示のずれは、図7の第4状態の場合より低減されているものの、依然としてずれがある。すなわち、第2状態の人の視点の位置P1Bからは、AR表示領域7の虚像が視認しにくい。
また、従来、図7の状態から図8の状態になるようにミラー24Aの角度θを再度調節する場合にも、第2姿勢の運転者の視点の位置P1BからはAR表示領域7の虚像が視認しにくいので、調節作業もしにくい。例えば、相対的に体格が大きい人である第2運転者が、運転座席を調節後の視点の位置P1Bに合わせてAR表示領域7を再度調節しようとする。その際、HUD装置1は、視認領域5にAR表示領域7の設定および調節のためのガイドとなる画像(例えばAR表示領域7の枠を示す画像または所定のマーク等)を虚像として表示する。その際、運転者がミラー24Aの角度θを手動操作で少し変えると、視認領域5でのAR表示領域7の位置が比較的大きく変化する。これにより、変化後のAR表示領域7が視認領域5から外に出てしまう場合もあり、調節がしにくい。視認領域5内の点CBにAR表示領域7が調節できたとしても、上記のようにずれが依然としてあるので、虚像の視認性に課題がある。
実施の形態1に対する比較例のHUD装置では、図3で、カメラ2の画角φcと、AR表示領域7の画角βとが異なる。また、視点の位置P1の高さH1等と、カメラ2の位置P2の高さH2等とが異なる。そのため、比較例のHUD装置では、実像と虚像との表示のずれが生じる。そこで、実施の形態1のHUD装置1では、それらの画角および位置を合わせるように、自動的に補正を行う機能を有する。実施の形態1のHUD装置1では、制御部10の処理によって、カメラ2で撮影した画像に基づいて、視認領域5のAR表示領域7の位置を自動的に補正する変換処理を行う。その変換処理では、画像内物***置や距離に基づいて、視認領域5の前方のAR表示領域7の位置およびAR表示領域7内のAR画像の表示位置が計算される。これにより、実像と虚像との表示のずれがない、または低減された好適なAR表示が実現される。
[視点位置(6)]
図9は、第6状態として、図7や図8の状態に対し、実施の形態1での自動的な補正によって、AR表示領域7の位置およびAR表示領域7内のAR画像の表示位置が補正された場合の状態を示す。ミラー24Aの角度θの状態は図8と同じ角度θBである。視点の位置P1Bからの視線L1Bの先のAR表示領域7a3の虚像に対し、補正後の状態では、視点の位置P1Bからの視線L1Cの先のAR表示領域7a4の虚像として見える。AR表示領域7は、変換によって、補正前のAR表示領域7a3から、補正後のAR表示領域7a4となっている。視線L1Cは、位置P1Bから補正後のAR表示領域7の中心の点CCを通してAR表示領域7a4の虚像を見る場合の視線である。これにより、第2姿勢の運転者の視点の位置P1BからAR表示領域7を見た場合に、実像と虚像との表示のずれがない、または低減されている。
[処理フロー]
図10は、HUD装置1の制御部10の主要処理のフローを示す。この処理は、AR表示領域7の位置の変換処理を含む。制御部10は、自車の走行中およびAR機能の利用中に、このような処理をリアルタイムで行う。図10は、ステップS1〜S6を有する。以下、ステップの順に説明する。
(S1) 制御部10の画像入力部11は、車外撮影部102のカメラ2の映像データの画像フレームを、映像データ記憶部102から読み出す等して順次に入力する。
(S2) 画像入力部11は、入力された画像内から、ARのための所定の物体の領域や位置等を抽出する処理を行う。所定の物体は、例えばAR画像を表示する対象となる対向車や歩行者、自転車等、AR制御のために必要な路面の車線やマーク、路側帯、建物、交通標識等である。なお、この抽出処理は、特徴量抽出や画像マッチング等の画像解析を含む公知技術によって実現できる。
(S3) 情報取得部12は、S1の入力画像および抽出物体に対し、AR画像生成およびAR表示領域7の位置の変換のために必要な所定の情報を取得する。所定の情報は、物体情報、距離情報、車両情報等がある。
情報取得部12は、以下のように物体情報を取得する。情報取得部12は、例えば、S1の画像からの物体の抽出結果情報として、画像内の物体領域の位置やサイズや形状、判別された物体の種類(例えば対向車、人、自転車、路面、標識等)、等の情報を取得する。また、情報取得部12は、カーナビ部106やDB部109のDBから、予め登録されている物体情報を参照し取得してもよい。
情報取得部12は、以下のように距離情報を取得する。情報取得部12は、例えば、車外撮影部102またはセンサ部108から、自車と物体との距離を含む距離情報を取得する。情報取得部12は、例えば、車外撮影部102が距離計測機能を持つ場合には、車外撮影部102から距離情報を取得する。情報取得部12は、センサ部108が距離センサを持つ場合には、センサ部108から距離情報を取得する。あるいは、情報取得部12は、画像入力部11やセンサ部108から取得した画像や情報を用いて、距離を計算する。
情報取得部12は、以下のように車両情報を取得する。情報取得部12は、例えば、ECU101またはセンサ部108から、走行情報を含む車両情報を取得する。走行情報は、例えば、右折、左折、直進等の状態を表す情報を含む。ECU101は、センサ部108に基づいて、自車の車速等を含む車両情報を把握している。情報取得部12は、ECU101からその車両情報を取得する。また、情報取得部12は、例えばセンサ部108やGPS受信器105またはカーナビ部106から、自車の現在の位置情報や走行方向情報等を取得する。情報取得部12は、カーナビ部106からナビゲーション情報を取得してもよい。情報取得部12は、通信部104を介して外部から車車間通信情報や路車間通信情報やVICS情報を取得してもよい。
(S4) AR画像生成部13は、S1〜S3の画像や情報に基づいて、対象物体に関連付けて重畳表示するための基本的なAR画像を生成する。その際、AR画像生成部13は、AR画像の生成のために、カーナビ部106、ECU101、DB部109等から、元データを入力して用いてもよい。元データは、例えば、カーナビ部106の地図情報や自車の現在の位置情報や目的地や経路の情報、ECU101の車両情報、DB内の物体情報等が挙げられる。これらは、AR機能としてどのような画像情報を提供するかに依るものであり、特に限定しない。本例では、後述の図11のように、AR画像として、少なくとも対向車の枠画像や、ナビゲーションの矢印画像等を提供するので、そのための元データを有する。AR画像生成部13は、生成したAR画像データを出力する。
(S5) 一方、表示位置変換部14では、S1〜S3の情報、およびS4のAR画像データに基づいて、視認領域5のAR表示領域7の位置およびAR表示領域7内のAR画像の表示位置を自動的に補正および決定するための変換処理を行う。この補正は、実像と虚像との表示のずれに関する補正であり、言い換えると視認領域5内のAR表示領域7の位置のずれに関する補正である。表示位置変換部14は、変換後のAR表示領域7内にAR画像を配置する。すなわち、表示位置変換部14は、変換後のAR表示領域7内のAR画像の表示位置を決定する。
表示位置変換部14は、所定の変換テーブル(または所定の変換計算式)に基づいた変換処理を行うことで、変換後のAR表示領域7の位置、およびそのAR表示領域7内のAR画像の表示位置を決定する。表示位置変換部14は、入力値を変換テーブルに入力して変換処理を行い、出力値を出力する。入力値は、S3の取得情報に基づいた、画像内の物体の位置座標や、空間内の自車と物体との距離等である。出力値は、視認領域5(AR平面8)内のAR表示領域7やAR画像の位置等である。変換処理の内容詳細については後述する。
(S6) AR表示部15は、S4およびS5のデータおよび情報に基づいて、視認領域5のAR表示領域7にAR画像を表示するための制御処理を行って表示部20にAR表示を行わせる。AR表示部15は、S5の変換後(補正後)のデータを用いて、視認領域5に対応する計算上のAR平面8において、AR表示領域7にAR画像を表示するためのARデータを生成する。また、この際、AR表示部15は、AR平面8からウィンドシールド9の曲面の視認領域5へ対応付けるための座標変換(歪み補正)の処理も行う。AR表示部15は、生成したARデータである映像データを、表示部20へ与える。その後、前述のように、表示駆動回路21は、ARデータに従って表示駆動信号を生成し、光源23および表示素子22を駆動する。これにより、表示素子22からの映像光が光学系24のミラー24A等を経由して視認領域5のAR表示領域7に投射および反射され、実像の物体に対しAR画像が重畳表示される。以上のような主要処理が同様に繰り返し行われる。以下、具体例を用いながら、AR表示領域7の位置の変換処理等を説明する。
[視認領域(1)]
図11は、運転者の視点位置から見たウィンドシールド9の視認領域5におけるAR表示領域7やAR画像の例を示す。図11は、実像と虚像とで表示のずれがない状態の場合を示す。なお、図11等では視認領域5を簡易的に矩形のXY平面で示す。視認領域5内には、実像として、自車の前方の道路500、対向車501、建物、空等が視認されている。視認領域5のAR表示領域7の位置の例を破線枠で示す。この破線枠は実際には表示されない。本例では、視認領域5の中央付近に、比較的小さいサイズで矩形のAR表示領域7が設定されている場合を示すが、これに限らず可能である。点C1は、AR表示領域7の中心位置を示す。
AR表示領域7内で、必要に応じてAR画像が表示される。AR画像の例として、AR画像G1,G2を示す。AR画像G1は、対向車501の存在を強調するために、対向車501の領域を囲むような枠画像を表示する例である。AR画像G1によって運転者に注意を促すことができる。AR画像G1は、カメラ2の画像からの対向車の検出に応じて表示可能である。AR画像G1は、例えばECU101からの車両情報に基づいた表示制御も可能である。例えば、自車の車速、および対向車501との距離の判断に基づいて、AR画像G1の表示の有無、表示色、点滅の有無等が制御されてもよい。AR画像G2は、自車の前方の道路500の路面上に、自車の進行方向のナビゲーションのための矢印画像を表示する例である。AR画像G2は、例えば右折を表す矢印画像である。AR画像G2は、例えばカーナビ部106の目的地および経路の情報に基づいて生成および表示されている。なお、上記のようなAR画像の内容や表示の仕方に関しては一例であって限定されない。
点Q1は、視認領域5内およびカメラ2の画像内の物体である対向車501の領域の中心位置を示す。AR画像G1の表示中心位置は、点Q1である。点Q2は、道路500上の1つの位置(例えば交差路内)である。AR画像G2の表示中心位置は、点Q2である。
図3等のように、カメラ2の位置と運転者の視点位置とは異なるので、カメラ2で撮影した画像の内容は、運転者の視界の視認領域5の内容とは異なるが、概ね対応した内容となる。制御部10は、カメラ2の位置と運転者の視点位置との異なり(距離D12)に対応する補正の計算を行うことにより、カメラ2の画像と視認領域5とを対応付ける。なお、以下では、説明を簡単にするために、視認領域5と画像6とがほとんど同じとする。言い換えると、カメラ2の位置P2が自車位置や視点位置に一致していると仮定した場合を示す。これらの位置関係は、様々な場合があるが、前述のように相互に変換可能である。自車位置は、自車領域のうちで予め設定されている任意の点の位置であり、例えば図15の自車の位置M1であり、ウィンドシールド9の中心点等である。
なお、図11のAR画像の表示例は、実像の物体の位置とAR画像の表示位置とを同じ点にする方式の場合であるが、これに限らず可能である。他の方式として、物体の位置の近隣位置に、AR画像を引き出し線等を付けて関連付けて表示する方式等も可能である。
[視認領域(2)]
図12は、運転者の視界の視認領域5、およびそれに対応するカメラ2の画像6の例を示す。図12の例は、視認領域5内にAR表示領域7が設定されているが、実像と虚像とで表示のずれがある状態の場合を示す。この場合は、図7や図8の場合に対応する。カメラ2の画像6において、2次元座標系として、横方向(面内水平方向)を小文字のx、縦方向(面内垂直方向)を小文字のyで表す。画像6内の画素の点Qの位置座標を(x,y)で表す。
図12の状態では、視認領域5および画像6内の対向車501の位置(点Q1)に対し、AR表示領域7およびAR画像G1,G2の位置が、図11の状態よりも下にずれた位置になっている。例えば、AR画像G1である枠画像は、対向車501の領域に対してずれがあり、対向車501の領域に一部が重なっているものの、対向車501の領域を囲んでいない。表示のずれの大きさがある程度までなら、運転者が対向車501とAR画像G1との関係性を認識できるが、このずれが大きくなるほど、AR画像として不適となる。
[視認領域(3)]
図13は、視認領域5の他の例として、視認領域5内から外にAR表示領域7の一部が出てしまっている場合を示す。例えば、前述の図7の状態から図8の状態にミラー24Aの角度θを調節する際に、うまく調節できずに図13のような状態になる場合がある。図13の状態では、表示のずれが大きく、AR画像として不適である。AR画像G1は、途切れて一部しか表示されておらず、視認しにくく、対向車501との関係を認識できない。AR画像G2は、全く見えない。運転者は、実像と虚像とのずれが大きいほど、実像と虚像とを関連付ける認識がしにくい。このような表示のずれは、なるべく小さい方が望ましい。
[カメラ画像]
図14は、図11等に対応するカメラ2の画像6の例を示し、特に画像6から対向車501の領域を抽出する場合について概略的に示す。画像入力部11は、カメラ2の画像6から、特徴抽出等の画像解析に基づいて、AR表示領域7内に含まれているAR対象である所定の物体の領域および位置座標を検出する。本例では、図11の対向車501が対象物体である。画像入力部11は、その物体の中心の点Q1の位置座標(x1,y1)を検出し、その点Q1を中心とする領域601を抽出する。領域601は、ここでは単純に、対向車501の領域を包含する四角形としているが、これに限らず可能である。画像入力部11は、対象物体領域を、台形や楕円等の領域として検出してもよいし、より詳しく画素領域や形状等を検出してもよい。なお、画像入力部11の物体領域の抽出の際には、予め設定されている物体の特徴情報や定義情報、あるいは基準画像等に基づいて、公知の手法で検出可能である。
画像6内のAR表示領域7は、基本設定の例における視認領域5内のAR表示領域7の位置に対応付けられた位置を示す。AR表示領域7の中心の点C1は、画像6内の位置座標(xc1,yc1)を有する。
同様に、自車の前方の道路500の路面の交差路等を対象物体とする場合に、その物体領域の代表的な1つの位置を、点Q2の位置座標(x2,y2)として示す。画像入力部11は、交差路等の領域の点Q2を検出する。
[物体との距離]
図15は、3次元空間の水平面(XZ平面)における、自車と他車との位置関係および距離を示す。他車はAR対象物体である、例えば対向車501である。自車の位置をM1とし、その位置座標を(Xm1,Ym1,Zm1)で示す。他車の位置をM2とし、その位置座標を(Xm2,Ym2,Zm2)で示す。なお、ここでの自車および他車の位置座標は、GPSによる位置座標(緯度、経度、高度等)と対応付けられる。また、ここでの自車および他車の位置は、ウィンドシールドの中央付近に設定する場合を示す。前述のように、自車のウィンドシールド9の視認領域5、運転者の視点位置、カメラ2の位置等は、所定の位置関係を持ち、それらが相互に変換可能である。
空間内の自車の位置M1と他車の位置M2との距離を、距離Dで示す。距離Dのうち、自車の前方に対応するZ方向における、自車の位置M1と他車の位置M2との距離を、距離DZで示す。また、距離Dのうち、自車の左右に対応するX方向における、自車の位置M1と他車の位置M2との距離(間隔)を、距離DXで示す。図示しないが、高さ方向(Y方向)においても距離成分(図3での距離DYが相当する)を有する。距離DZは、図3では、距離D14または距離D24が対応する。
HUD装置1は、所定の方式で、自車の位置M1と他車(対向車501)の位置M2との距離を計測する。例えば、前述の車外撮影部102のステレオカメラを用いる場合、左右の2つの画像内での物体(他車)の位置座標(x,y)に基づいて、両眼視差方式によって距離Dが計算できる。
[AR平面(1)]
図16は、HUD装置1のAR機能の計算上の2次元平面であるAR平面8を示す。視認領域5および画像6に対応付けられてAR平面8が構成されている。このAR平面8は、実際の曲面の視認領域5のAR表示領域7にAR画像を表示する前の状態の平面である。AR平面8において、画像6と同様に、横軸を小文字のx、縦軸を小文字のyで示し、点Qの位置座標を(x,y)で示す。
表示位置変換部14は、AR平面8において、AR表示領域7およびAR画像の変換処理を行う。表示位置変換部14は、変換前のAR表示領域7に基づいて、変換処理により、変換後のAR表示領域7を決定し、AR平面8に配置する。変換後のAR表示領域7の中心点を、点R1の位置座標(xr1,yr1)で示す。AR表示領域7は、設定に基づいた横幅RH1や縦幅RH2も有する。
表示位置変換部14は、情報取得部12からの物体情報(図14の物体の位置座標)および距離情報(図15の距離D)を用いて、所定の変換処理によって、AR平面8におけるAR表示領域7内のAR画像の表示位置を得る。このAR平面8でのAR画像の表示位置を、点Vの位置座標(x,y)で表す。点Vは、AR画像を配置する際の基準点(例えば中心点)である。例えば、対向車501の領域の点Q1の位置座標(x1,y1)に対応した点V1の位置座標(xv1,yv1)が決定されている。また、路面上の点Q2の位置座標(x2,y2)に対応した点V2の位置座標(xv2,yv2)が決定されている。
[AR平面(2)]
図17は、図16のAR平面8でのAR表示領域7に対するAR画像の配置例を示す。表示位置変換部14は、AR表示領域7内の決定された各位置座標にAR画像を配置する。配置後のAR画像g1,g2を示す。例えば、AR表示領域7内の点V1を中心とした表示位置に、AR画像g1(AR画像G1に対応する)が配置されている。また、点V2を中心とした表示位置に、AR画像g2(AR画像G2に対応する)が配置されている。AR画像g1やAR画像g2は、AR画像生成部13で生成された基本AR画像に基づいた画像である。AR画像生成部13は、例えば、元データの枠画像に基づいて、物体領域サイズに対応させた表示サイズや、所定の表示色等を持つように調整した基本AR画像(枠画像)701を生成している。AR画像生成部13は、例えば、元データの矢印画像に基づいて、表示サイズや表示色や表示傾き(例えば路面に平行)等を調整した基本AR画像(矢印画像)702を生成している。表示位置変換部14は、基本AR画像701,702に基づいて、AR表示領域7にAR画像g1,g2を配置している。
なお、上記処理例では、表示位置変換部14が、AR表示領域7の位置の変換、および変換後のAR表示領域7内のAR画像の配置(表示位置の決定)を行っているが、これに限らず可能である。例えば、表示位置変換部14では、AR表示領域7の位置の変換のみを行い、AR画像生成部13またはAR表示部15が、変換後のAR表示領域7内へのAR画像の配置(表示位置の決定)を行ってもよい。
なお、AR平面8と実際の視認領域5との間に、ミラー24A等の光学系24が介在するので、表示素子22およびAR平面8の画像内容は、上下反転等の内容になる場合を含む。
[座標変換(歪み補正)]
図18は、AR平面8から、ウィンドシールド9に対応する3次元の曲面の視認領域5へ対応させるための座標変換(歪み補正)について示す。予め、自動車のウィンドシールド9の視認領域5の曲面形状やサイズ等がわかっているので、AR平面8から視認領域5への座標変換を、所定の補正計算として規定可能である。この座標変換は、所定の投影、射影変換等によって規定できる。図18の(A)は、変換前のAR平面8を示し、x軸、y軸を持つ直交座標系である。図18の(B)は、変換後の曲面の視認領域5を簡易的に2次元の座標系で示す(Z方向を省略した)。なお、この座標変換は、変換テーブル内の一部としてまとめることもできる。
この座標変換によって、AR平面8でのAR表示領域7の位置およびAR画像の表示位置が、曲面の視認領域5での位置に対応付けられる。例えば、(A)のAR平面8のAR表示領域7の中心の点R1は、(B)の変換後の曲面のAR表示領域7Wの点Wとなっている。例えば、AR画像g1の点V1(xv1,yv1)は、変換後のAR表示領域7Wの点W1(xw1,yw1)となっている。
AR表示部15は、図18の(B)のような変換後のデータをARデータとして表示部20に与える。これにより、表示部20からの投射表示によって視認領域5に図11のようなAR内容(AR画像G1等)が表示される。この際には、図12のような実像と虚像(AR表示領域7のAR画像)とのずれが低減されている。
[処理詳細(1−1)]
次に、制御部10の処理の詳細および具体例について説明する。
(1)まず、前述のS1、S2で、画像入力部11は、カメラ2の画像6内の物体の領域およびその中心点の位置座標(x,y)等を得ている。例えば、図14の画像6内の対向車501の領域601および点Q1の位置座標(x1,y1)等が得られる。
(2)S3で、情報取得部12は、画像6内の物体の位置座標(x,y)に基づいて、空間内の自車の位置と、物体の位置との距離を取得する。例えば、図15の対向車501との距離D(DX,DY,DZ)が得られる。
距離取得の詳細は以下である。例えば、車外撮影部102のカメラ2であるステレオカメラを用いて距離を測定する場合、まず、カメラ2の左右の2つの画像を用いて、公知の両眼視差方式に基づいて、図3のカメラ2の位置P2と物体の位置P4との距離D24が計算できる。あるいは、同様に、距離センサを用いる場合、距離センサと物体との距離が検出できる。
次に、情報取得部12は、得られた距離D24を、運転者の視点の位置P1と物体との距離D14に換算する。これは、例えばカメラ2の位置P2と視点の位置P1との距離D12を用いて換算できる。距離D12は、予め設定された概略値を用いてもよい。あるいは、後述の運転者撮影部107を備える場合には、その機能を用いて視点の位置P1を測定して、距離D12を計算してもよい。
(3)S4で、AR画像生成部13は、物体に重畳表示するための基本AR画像を生成する。例えば、AR画像G1に対応する図17の基本AR画像701等である。制御部10は、表示位置変換部14を用いて、以下のAR表示領域7およびAR画像の変換処理を行わせる。
(4)S5で、表示位置変換部14は、画像6内の物体の位置座標(x,y)および空間内の物体との距離等の情報を用いて、AR平面8においてAR表示領域7の位置、およびAR表示領域7内のAR画像の表示位置等を決定する。この際、表示位置変換部14は、変換テーブルに基づいた変換処理を行う。表示位置変換部14は、入力値を変換テーブルに入力して変換後の出力値を出力する。図16の例では、変換後のAR表示領域7の位置として中心の点R1の位置座標(xr1,yr1)、横幅RH1、縦幅RH2が得られ、そのAR表示領域7内のAR画像の表示位置として点V1(xv1,yv1)や点V2(xv2,yv2)等が得られる。
(5)S5で、表示位置変換部14は、AR平面8において、変換後のAR表示領域7内の決定された表示位置にAR画像を配置する。図17の例では、点V1にAR画像g1が配置され、点V2にAR画像g2が配置されている。AR表示部15は、AR画像配置後のAR平面8から曲面の視認領域5への座標変換を行って、表示用のARデータを生成する。図18の例では、座標変換後のAR表示領域7WおよびAR画像が生成されている。
[処理詳細(1−2)]
実施の形態1の表示位置変換部14の変換処理(S5)の詳細について以下である。
まず、AR画像情報に関する座標変換については以下である。図14の例のように、カメラ2の画像6における対象物体の基準点の画素座標をQ(x,y)で表す。例えば、対向車501の領域601に対応する点Q1の画像座標が(x1,y1)である。
カメラ2の初期設定値として以下とする。
・地上からの設置位置:H (図3の点p2、位置P2、高さH2)
・水平面に対する取付角度:φ (図3の撮影方向L2を表す角度φ)
・カメラセンサの垂直画角:φv (図3の画角φcの垂直成分)
・カメラセンサの水平画角:φh (図3の画角φcの水平成分)
・カメラセンサの垂直画素数:Ny (図14の画像6の縦幅Ny)
・カメラセンサの水平画素数:Nx (図14の画像6の横幅Nx)
・カメラセンサと自車Z方向先端(フロントバンパー等)との間の距離:J (図3の距離D6。または点p2と点p5との距離としてもよい)。
また、ここでは、自車からの対象物体までの前方(Z方向)の距離をE(図15の距離DZ)とする。自車からの対象物体までの横方向(X方向)の距離をF(図15の距離DX)とする。
この場合、対象物体の画素座標(x,y)に基づいて、距離Eは、下記の式1で計算でき、距離Fは、下記の式2で計算できる。なお、距離Fの値に関して、符号が負の場合は左、符号が正の場合は右を示すとする。
(式1) E=H・tan(90°−(φ+φv/2)+(y/Ny)・φv)−J
(式2) F=E・tan(((x−(Nx/2))/Nx)・(φh/2))
HUD装置1の初期設定値として以下とする。
・虚像の伏せ角度:αhud (図4の角度αh等)
・地面からの運転者の目の位置:Hhud (図3の高さH1)
・HUDの垂直画角:βv (図3のAR表示領域7の画角βの垂直成分)
・HUDの水平画角:βh (図3のAR表示領域7の画角βの水平成分)
・HUDの垂直画素数:Nyhud (図16のAR表示領域7の縦幅RH2)
・HUDの水平画素数:Nxhud (図16のAR表示領域7の横幅RH1)。
自車の視認領域5の前方の虚像302の表示位置距離情報を、距離En、距離Fnとする。距離Enは、前方(Z方向)の距離である(図3の距離D13や距離D23が対応する)。距離Fnは、左右(X方向)の距離である。また、HUD装置1の表示素子22における表示画素座標を(xhud,yhud)とする。距離Enは、下記の式3で表される。距離Fnは、下記の式4で表される。表示画素座標(xhud,yhud)は、下記の式3および式4を満足するように設定される。
(式3) En=Hhud・tan(90°−(αhud+βv/2)+(yhud/Nyhud)・βv)−J
(式4) Fn=En・tan(((xhud−(Nxhud/2))/Nxhud)・(βh/2))
次に、図17のようにAR表示領域7にAR画像を配置する際のAR画像の変換の詳細について示す。図19は、そのAR画像の変換の例を示す。本例は、図11のAR画像G2に関して、図17の矢印画像である基本AR画像702からAR画像g2への変換を示す。図19の(A)は、変換前の矢印画像を示す。このAR画像は、矢印画像を包含する枠が直角を持つ長方形の形状である。長方形のコーナーの4点を点c1〜c4で示す。長方形の横幅gr、縦幅gsを示す。点c1の表示画素座標を(xhud,yhud)とする。
図19の(B)は、第1変換後の矢印画像を示す。このAR画像は、矢印画像を包含する枠が台形となる。第1変換は、路面に平行な矢印画像にするための変換であり、まだAR表示領域7の位置の変換前である。例えば、AR画像生成部13は、第1変換までを行う。台形のコーナーの4点を点c1b〜c4bで示す。第1変換は、変換前の長方形の4点(c1〜c4)に基づいて、公知の射影変換によって、変換後の台形の4点(c1b〜c4b)が得られる。台形の下辺の幅をgr2、上辺の幅をgr3、縦幅をgs2で示す。
図19の(C)は、第2変換後の矢印画像を示す。第1変換後の矢印画像から、AR表示領域7の位置の変換に対応する第2変換によって、第2変換後の矢印画像の台形の4点(c1w〜c4w)が得られる。第2変換の計算の際には、上記の式3、式4において、点c1w〜c4wの4点の位置座標を満足するように、4点の表示位置距離情報(En,Fn)が計算される。表示位置変換部14(またはAR表示部15)は、得た4点c1w〜c4wを基準に、公知の射影変換によって、矢印画像全体を図19の(B)から(C)のように変形させる。
制御部10は、上記計算に基づいて、カメラ2の画像6内の物体の位置座標情報(x,y)および空間内の物体との距離情報から、空間内の実像301の物体の位置情報(図15の位置M2)を計算する。空間内の物体の位置は、自車の位置(図15の位置M1)を基準として、式1および式2の距離Eおよび距離F(図15の距離D)を用いて計算できる。
制御部10は、上記空間内の実像301の物体の位置情報(位置M2)に合わせるように、空間内のAR表示領域7内の虚像302の表示位置を決定する。すなわち、視点の位置P1からの視線L1上に虚像302および実像301の物体の位置が重なるように、AR表示領域7内の虚像302の表示位置が決定される。その虚像302の表示位置は、図3の空間では位置P3(X3,Y3,Z3)に対応し、図16のAR平面8では例えば点V1(xv1,yv1)に対応する。制御部10は、その虚像302の表示位置に基づいて、AR平面8のAR表示領域7内にAR画像を配置する(図17)。そして、制御部10は、配置後のAR平面8を座標変換し(図18)、ARデータとして出力する。
また、AR表示部15は、図18のように2軸の平面の座標変換を行う際には、2軸の各方向を複数に分割し、分割領域の交点のデータを保持する。図18の例では、x方向で9点を用いて8単位領域に分割し、y方向で5点を用いて4単位領域に分割している。そして、AR表示部15は、所定の座標変換テーブルを用いて座標変換を行う。AR表示部15は、交点以外の点のデータについては、交点からの補間演算を用いて得る。
[変換テーブル(1)]
図20は、実施の形態1における表示位置変換部14の変換テーブルを用いた計算の概念を示す。実施の形態1で、表示位置変換部14は、変換テーブルT1(第1変換テーブル)を使用する。変換テーブルT1は、例えば予め制御部10内のメモリ(ROM)に設定されている。
表示位置変換部14は、前述の画像内の物体の位置(Q(x,y))、および自車と物体との距離Dを入力値として、変換テーブルT1に入力し、変換テーブルT1での変換により、出力値として、AR表示領域7内のAR画像の表示位置(V(x,y))を出力する。
[効果等]
上記のように、実施の形態1のHUD装置1によれば、AR表示領域7およびAR画像の位置を自動的に補正する機能を有するので、実像と虚像との表示のずれをなくす、または低減して、好適なAR表示が実現できる。自車のカメラ2の位置P2や、運転者の視点の位置P1については、従来よりも変動が許容される範囲を広くすることができる。
なお、実施の形態1では、AR表示領域7およびAR画像の位置を、主に上下方向(Y方向)に補正および変換することを説明したが、これに限らず可能であり、左右方向(X方向)でも同様に補正および変換が可能である。
(実施の形態2)
図21〜図24を用いて、本発明の実施の形態2のHUD装置等について説明する。実施の形態2等における基本的な構成は、実施の形態1と同様である。以下では、実施の形態2等における実施の形態1とは異なる構成部分について説明する。実施の形態2のHUD装置1では、カメラ2の画像に基づいて制御部10の処理によって表示のずれを補正することに加え、光学系24のミラー24Aの角度θを検出する機能を有し、その角度θに基づいて表示のずれを補正する。例えば、運転者の視点位置が基本設定の視点位置よりも上下に大きく変動した場合、実像と虚像との表示のずれが大きくなり、実施の形態1の補正の機能のみでは対応できない。そのため、実施の形態2では、光学系24のミラー24Aの角度θを調節することでAR表示領域7の位置を変更できる機構に基づいて、その角度θの状態に応じてAR表示内容を補正する機能を有する。
[比較例の課題]
実施の形態2に対する比較例のHUD装置では以下の課題がある。前述の図4〜図8のように、運転者の姿勢や体格の状態に応じて、視点位置が異なり、また、AR表示領域を見る場合の視線が異なる。運転者は、自分の視点位置に応じて、視認領域5にHUDのAR表示領域7の虚像が見えるように、ミラー24Aの角度θの調節を含む基本設定を行う。
例えば、標準的な姿勢や体格の人の場合には、図3や図4のような状態になり、基本設定として、視点の位置P1AおよびアイボックスEAである。この基本設定の状態後、視点位置がアイボックスEA内に入っている場合、実像と虚像との表示のずれがないまたは小さいので、運転者は虚像を視認しやすい。例えば、位置P1Aからは図11のように視認領域5が見える。この状態後、第1運転者が姿勢を図5の第2姿勢に変えた場合や、体格が異なる第2運転者が第2姿勢で利用する場合等に、視点位置が基本設定のアイボックスEA外に出る。その場合には、実像と虚像との表示のずれが大きくなり、運転者は虚像が視認しにくくなる。
図5および図7の例では、第2姿勢の人の視点の位置P1Bから、第1姿勢の人の視点P1Aに合わせた基本設定のAR表示領域7の虚像を見る場合に、実像と虚像とのずれが大きく、虚像が視認しにくい。図6および図8の例では、第2姿勢の人の視点の位置P1Bから、第2姿勢の人の視点P1Bに合わせて調節したAR表示領域7の虚像を見る場合に、実像と虚像とのずれがあり、依然として虚像が視認しにくい。例えば、相対的に体格が大きい第2運転者の場合に、ミラー24Aの角度θが再度調節により角度θAから角度θBの状態に変更されている。
図8の例では、ミラー24Aの角度θの状態として、第1姿勢の人の視点の位置P1Aに対応する基本設定では、(A)の位置のミラー24Aで示す角度θAである。角度θAの状態では、映像光の中心軸が、視認領域5の点CAの位置に投射されて反射されている。視線L1Aは、視認領域5のAR表示領域7の点CAを通って、視認領域5の前方のAR表示領域7a1の虚像302を見る場合である。第2姿勢の人の視点の位置P1Bに対応する設定では、(B)の位置のミラー24Aで示す角度θBである。角度θBの状態では、映像光の中心軸が、視認領域5の点CBの位置に投射されて反射されている。視線L1Bは、視認領域5のAR表示領域7の点CBを通って、視認領域5の前方のAR表示領域7a3の虚像302を見る場合である。
第2姿勢の人の視点の位置P1Bは、第1姿勢の人の視点の位置P1Aよりも高い(H1A<H1B,Y1A<Y1B)。そのため、視認領域5では、図12の例のように、実像301の物体(例えば対向車501)の位置に対して虚像(例えばAR画像G1)が下側の位置にずれて見える。
図7や図8の例のように、運転者の姿勢等に応じた視点位置からAR表示領域7の虚像を見る際の視線の見込み角度や伏せ角度が異なる。例えば、図7ではα1≠α3である。その角度に応じて、実像301の物体と虚像302との間にずれが生じる。
実施の形態2に対する比較例のHUD装置として、実施の形態2のHUD装置1の機能を持たない場合、図5や図6の第2姿勢の人の視点の位置P1Bからは、例えば図12や図13のように、視認領域5で実像と虚像との表示のずれがある。そのため、運転者は虚像が視認しにくい、または視認できない。
比較例のHUD装置では、基本設定機能として、ミラー24Aの角度θを手動操作で調節する機構を有するが、視認領域5に対するAR表示領域7の位置をおおまかに調節できるものの、実像と虚像との表示のずれについての自動的な補正はできない。また、例えば相対的に体格が大きい人や小さい人の場合、そもそも基本設定の際に、視認領域5内にAR表示領域7の虚像が見える状態になるようにする調節がしにくい。
そこで、実施の形態2のHUD装置1では、光学系24のミラー24Aの角度θの状態を検出し、その角度θの状態に合わせて、AR表示領域7内のAR画像の表示位置を補正するように変換処理を行う機能を有する。これにより、運転者が視点位置に合わせてミラー24Aの角度θを調節した場合に、従来よりも実像と虚像との表示のずれが少ない好適なAR表示が実現される。
[HUD装置]
図21は、実施の形態2のHUD装置1を含む車載システム100の構成を示す。HUD装置1の表示部20は、駆動部25に検出部26を備える。検出部26は、光学系24のミラー24Aの角度θ等を検出する。駆動部25には、図示しないが、ミラー24Aの角度θを運転者の手動操作によって変更できる操作ボタン等を備えている。また、駆動部25には、制御部10からの制御に従って角度θを変更する機能を備えている。この操作ボタン等の入力に基づいて、駆動部25からモータ等を駆動してミラー24Aの角度θが変更される(例えば図8)。角度θが変更された場合、検出部26は、その時の角度θを検出する。検出部26は、常時に角度θを検出、出力してもよいし、変更された時のみ検出、出力してもよい。検出部26は、検出した角度θを含む角度情報を、制御部10に出力する。なお、検出部26が角度θを検出する方式については、特に限定しない。
制御部10の情報取得部12は、検出部26からの角度情報を取得し、他の情報と共に表示位置変換部14に出力する。なお、表示位置変換部14が検出部26から角度情報を入力してもよい。表示位置変換部14は、その角度情報、および前述の物体情報や距離情報を用いて、AR表示領域7およびAR画像の表示位置の変換処理等を行う。この変換処理は、実施の形態1の変換処理とは異なる。表示位置変換部14は、ミラー24Aの角度θの状態に応じて、AR表示領域7内のAR画像の表示位置を、上下方向(Y方向)に補正するように決定する。これにより、実像301の物体に対する虚像302の表示位置が適切な位置に一致させられる。
[視認領域]
実施の形態2のHUD装置1では、角度θの状態に応じてAR表示領域7内のAR画像の表示位置を補正する。よって、例えば、図5や図6の第2姿勢の人の視点の位置P1Bから視認領域5のAR表示領域7を見た場合、例えば図22のように、実像と虚像との表示のずれが低減された視認領域5が見える。
図22は、実施の形態2における視認領域5の例を示す。この視認領域5では、AR表示領域7の位置については、図12のAR表示領域7の位置とあまり変わらず、実像301の物体(例えば対向車501)に対して少し下側の位置にずれている。しかしながら、AR表示領域7内のAR画像の表示位置については、実施の形態2の変換によって、ずれが低減されるように補正されている。例えば、AR画像G1b,G2bが表示されている。AR画像G1bである枠画像は、図12のAR画像G1の表示位置に対し、より上側の位置になるように補正されており、図11の対向車501の位置(点Q1)に近付いている。AR画像G1bでは、変換によって表示サイズも補正されている。物体領域(対向車501)に対し、虚像(AR画像G1b)が概ね重なるように、表示位置関係が概ね適切な状態に改善されている。第2姿勢の人の視点の位置P1Bからは、実像と虚像との表示のずれが低減された視認領域5として見える。また、AR画像G2bである矢印画像についても、同様に、図12のAR画像G2の表示位置に対し、より上側の位置になるように補正されており、図11の位置(点Q2)に近付いている。視点の位置P1Bからは、AR画像G2bは概ね交差路の路面上に見える。運転者は、AR画像G1b,G2bを概ね好適に視認できる。
[処理詳細(2−1)]
次に、実施の形態2における制御部10の処理の詳細および具体例について説明する。
(1)運転者は、運転座席に座り、運転座席の状態を、自分の体格や姿勢に合わせるように調節する。例えば、標準的な体格の第1運転者の場合、図4の第1姿勢となる。例えば、相対的に体格が大きい第2運転者の場合、図5の第2姿勢となる。
(2)運転者は、HUD装置1のAR機能を利用する場合、基本設定として、AR表示領域7の調節を行う。運転者は、手動操作、例えば操作ボタンの上下の入力によって、表示部20のミラー24Aの角度θを調節することで、視認領域5内のAR表示領域7の位置を調節する。駆動部25は、手動操作の入力信号に従って、モータを駆動して、ミラー24Aの角度θを正負の方向に変化させる。なお、この際、HUD装置1は、視認領域5に、調節のためのガイドとなる所定の虚像を表示する。手動操作に応じてそのガイドの虚像が動くことになる。運転者は、そのガイドの虚像を見ながら、自分が好適に感じる位置になるように調節する。なお、調節(基本設定)に応じて、その時点の視点の位置P1に対応するアイボックスも決定されている。例えばアイボックスEAが設定される。
(3)検出部26は、調節されたミラー24Aの角度θを検出し、その角度情報を制御部10へ出力する。
(4)表示位置変換部14は、カメラ2の画像6内の物体の点Qの位置座標(x,y)、空間内の物体との距離D、および角度θに基づいて、AR平面8のAR表示領域7において、視点の位置からAR表示領域7を見た場合のAR画像の表示位置を補正するように変換処理を行う。この変換処理は、リアルタイムで行われ、以下のような処理を含む。
表示位置変換部14は、実施の形態1と同様に画像6内の物体の中心の点Qの位置座標(x,y)、および空間内の物体との距離Dの情報に基づいて、AR表示領域7内のAR画像の表示位置の点Vの画素座標(x,y)を計算する。その際、表示位置変換部14は、実施の形態2のための変換テーブルを用いて、変換処理を行う。
[変換テーブル(2)]
図23は、実施の形態2における表示位置変換部14の変換テーブルを用いた計算の概念を示す。実施の形態2で、表示位置変換部14は、変換テーブルT2(第2変換テーブル)を用いる。変換テーブルT2は、実施の形態1の変換テーブルT1と、所定の係数K1との乗算で構成される。
実施の形態2における変換の基準は、例えば予め図2〜図4のような標準的な姿勢の人の第1状態の視点位置等に対応させて設計されている。すなわち、基準として、まず、実施の形態1と同様の変換テーブルT1を用いることができる。この変換テーブルT1に、実施の形態2でミラー24Aの角度θを考慮するための係数K1を乗算して、変換テーブルT2を構成する。
係数K1は、所定の関数F2によって決定される。関数F2は、ミラー24Aの角度θを変数として含む関数である。関数F2の入力値として角度θを含む。係数K1は、関数F2の出力値として得られる。関数F2は、ほとんどミラー24Aの形状に応じて規定される。関数F2は、例えば予め制御部10内のメモリ(ROM)に設定されている。
更に、実施の形態2の変形例としては、変換テーブルT2を用いた変換処理の計算を高速化するために、以下のような方式を適用することができる。変換テーブルT2の乗算(T1×K1)や、関数F2が複雑になる場合がある。その場合、変形例として、公知のラグランジュ補完方式を用いて、その計算を簡易化して高速化する。なお、この簡易化によって、計算の精度は低下せず、AR表示のずれの補正の精度は確保される。
[処理詳細(2−2)]
実施の形態2での変換処理の詳細について以下である。この変換処理は、実施の形態1の変換処理に対して異なる構成点としては、運転者の視点位置、上下方向(Y方向)のずれを用いる点がある。HUD装置1を含むシステムにおいて、図7や図8の例のように、運転者の視点から虚像を見る際の見込み角度や対応する伏せ角度が異なる場合、前述の式3および式4における伏せ角度αhudが異なる。伏せ角度αhudが異なる結果として、表示素子22の表示画素座標(xhud,yhud)が異なる。そのため、変換テーブルT1に関する補正が必要であり、係数K1を用いて補正して変換テーブルT2となる。例えば、伏せ角度αhudが大きい場合と小さい場合とを比較すると、図24のようになる。
図24は、実施の形態2で、AR表示領域7の変換に係わるAR平面8の変換を示す。この変換は、前述の座標変換を含む。表示位置変換部14は、変換処理の一部として、AR平面8から曲面の視認領域5への座標変換も行う。図24の(A)は変換前のAR平面8およびAR表示領域7を示し、前述と同様に2軸(x,y)の平面である。ここでは、簡略化して、AR平面8とAR表示領域7を同じで示す。図24の(B)は変換後のAR平面8およびAR表示領域7を示す。変換後のAR平面8において、実線のマトリクス801は、伏せ角度αhudが小さい場合を示し、実施の形態1の変換テーブルT1と対応している。破線のマトリクス802は、伏せ角度αhudが大きい場合を示し、実施の形態2の変換テーブルT2と対応している。マトリクス802は、マトリクス801に対してより傾いた台形形状として見える。
実施の形態1の変換テーブルT1に、ミラー24Aの角度θに応じた補正のための係数K1を乗算することで、変換テーブルT2として用いることができる。言い換えると、マトリクス801に対して係数K1を乗算することでマトリクス802が得られる。マトリクス802のように、角度θに対応付けられた視点位置や伏せ角度に応じた変換テーブルT2を適用して、AR表示領域7内のAR画像の表示位置が変換される。これにより、運転者の視点位置から見た視認領域5では、実像と虚像との表示のずれが低減される。なお、実施の形態2で、伏せ角度αhudが小さい場合には、係数K1を1とすれば、変換テーブルT1の適用に相当する。
[効果等]
上記のように、実施の形態2のHUD装置1によれば、ミラー24Aの角度θの状態に応じて自動的にAR表示領域7内のAR画像の表示位置を補正する機能を有するので、実像と虚像との表示位置のずれをなくす、または低減して、好適なAR表示が実現できる。運転者の姿勢や体格の違いに応じてミラー24Aの角度θを調節してAR表示領域7の位置を調節できる機構を持つ場合に、表示のずれを低減させたより好適なAR表示が実現できる。
(実施の形態3)
図25〜図27を用いて、本発明の実施の形態3のHUD装置等について説明する。実施の形態3のHUD装置1では、実施の形態1の制御部10の処理によるAR表示内容の補正、および実施の形態2のミラー24Aの角度θに応じた補正等に加え、運転者の視点位置を検出する機能を有する。この機能は、車載システム100の運転者撮影部107を用いる。実施の形態3のHUD装置1では、その運転者の視点位置に応じてミラー24Aの角度θを自動的に調節する機能を有する。すなわち、角度θに応じて視認領域5内のAR表示領域7の位置が設定される。そして、実施の形態3のHUD装置では、その視点位置、角度θ、およびAR表示領域7の位置の状態に応じて、AR表示領域7内のAR画像の表示位置を補正する機能を有する。
[比較例の課題]
実施の形態3に対する比較例のHUD装置では以下の課題がある。基本的な課題としては、実施の形態1および実施の形態2の比較例のHUD装置の課題と同様である。まず、図4〜図8で、第1姿勢や第2姿勢の運転者の視点の位置P1に応じて、AR表示領域7のAR画像が見える位置になるように、ミラー24Aの角度θが調節される。例えば、図8の場合で、第2姿勢の人の視点の位置P1Bに合わせるように、ミラー24Aの角度θが角度θAから角度θBに変更される。そのような場合に、視点の位置P1Bから視認領域5の前方の位置P3のAR表示領域7の虚像302を見る際の見込み角度や伏せ角度が異なる。これにより、運転者の視点から見た場合に実像と虚像との表示のずれが生じる。
そこで、実施の形態3のHUD装置1では、運転者の視点位置(図3の位置P1)の検出に応じて、その視点位置に合わせるように、AR表示領域7内のAR画像の表示位置を補正する変換処理を行う機能を有する。
[HUD装置]
図25は、実施の形態3のHUD装置1を含む車載システム100の構成を示す。車載システム100は、運転者撮影部107を備える。運転者撮影部107は、カメラ3を含み、1台以上のカメラ3を用いて、運転者の目を含む車内の所定の範囲を撮影し、所定の処理を行う。カメラ3は、運転者カメラ、車内カメラであり、撮影した映像データを出力する。カメラ3は、車両の所定の位置に、所定の撮影方向や画角で設置されている(図26)。運転者撮影部107は、1台以上のカメラ3の画像を用いて、運転者の視点の位置P1(点p1)や視線L1を検出する(図26)。運転者撮影部107は、少なくとも、検出した視点位置や視線を含む視点情報を、HUD装置1の制御部10へ出力する。なお、目の位置P1を含む視点情報は、左右の両目の各位置の情報としてもよいし、両目の中間点等の位置としてもよい。
運転者撮影部107は、カメラ3の映像データや、所定の処理によって得た視点情報等を、HUD装置1やECU101へ出力する。HUD装置1やECU101は、その視点情報等を用いて制御を行うことができる。運転者撮影部107は、カメラ3の映像データや得た情報を、映像データ記憶部103に格納してもよい。
運転者撮影部107は、カメラ3の画像を用いて所定の処理を行う信号処理部を備える。その信号処理部は、ECU101やHUD装置1内に備えてもよい。運転者撮影部107の機能は、公知技術を用いて構成できる。実施の形態3では、運転者撮影部107は、カメラ2の画像の解析に基づいて、運転者の目の位置や、視線方向等を検出する機能、すなわちいわゆるアイトラッキング(視線追跡)機能を有する。なお、運転者撮影部107は、アイトラッキング(視線追跡)装置として実装されてもよい。なお、実施の形態1でも、変形例として、車載システム100に、運転者撮影部107を備えていてもよい。
制御部10は、運転者撮影部107と連携して運転者の視点位置を検出する視点位置検出機能を備える。実施の形態3では、特に、視点位置検出機能は、情報取得部12を用いて実現されている。情報取得部12は、運転者撮影部107から視点位置や視線を含む視点情報を取得する。情報取得部12は、前述の物体情報、距離情報、車両情報の他に、視点情報を保持および出力する。なお、運転者撮影部107ではなく、制御部10等によって視点位置等を計算してもよい。その場合、例えば、情報取得部12は、運転者撮影部107からカメラ3の画像を入力し、その画像を公知の手法で解析して、視点位置等を得る。
表示位置変換部14は、情報取得部12からの視点情報における目の位置P1等を用いて、AR表示領域7内のAR画像の表示位置の変換処理等を行う。この変換処理は、実施の形態1や実施の形態2の変換処理とは異なる。表示位置変換部14は、視点の位置P1および角度θの状態に応じて、AR表示領域7内のAR画像の表示位置を、上下方向(Y方向)に補正する。これにより、運転者の視点位置から見た場合の実像に対する虚像の表示位置を適切な位置に一致させる。
運転者撮影部107は、例えば以下の機能を有する。運転者撮影部107は、カメラ3の画像から目の部分を判断して、空間内(車内)の運転者の目の位置を検出する。図26では、点p1(位置P1)の位置座標(X1,Y1,Z1)である。また、運転者撮影部107は、頭や目の位置から、運転者の姿勢や動き等を判断、検出してもよい。また、運転者撮影部107は、例えば目の中の瞳孔や光反射点を判断する公知の方式に基づいて、運転者の視線方向(図26の視線L1)を検出してもよい。また、例えば、運転者撮影部107は、画像内の目のまばたき等の状態を判断することで、運転者の疲労状態や居眠り等を検出できる。
[運転座席]
図26は、図2と概ね同様であるが、実施の形態3での運転座席付近を示す。図26では、車内の所定の位置P3に、運転者撮影部107のカメラ3が設置されている。車両におけるカメラ3の設置位置の点p3および撮影方向L3を示す。本例では、運転座席の斜め上付近にカメラ3が設置されている。撮影方向L3は斜め下の運転座席および運転者の顔を向いている場合を示す。実施の形態3では、カメラ3を含む運転者撮影部107を有するので、運転者の視点位置が変動する場合にも、その視点位置を追跡して検出可能である。すなわち、変動する視点位置と物体との距離等も計測可能である。
[視認領域]
実施の形態3のHUD装置1では、視点位置の状態に応じてミラー24Aの角度θを自動的に調節して視認領域5のAR表示領域7の位置を補正すると共に、AR表示領域7内のAR画像の表示位置を補正する機能を有する。よって、例えば図7の第2姿勢の人の視点の位置P1Bから視認領域5を見た場合に、実像と虚像との表示のずれが低減された視認領域5として見える。例えば、実施の形態2の図22の例と同様な視認領域5が見える。この視認領域5では、AR表示領域7内のAR画像の表示位置が実像の物体に近付くように補正されており、表示のずれが低減されている。また、視点位置の変動に応じた補正に伴い、ミラー24Aの角度θも例えば図7の角度θAの状態から図8の角度θBの状態に自動的に調節される。すなわち、手動操作による調節が不要であり、運転者の手間が削減できる。
[処理詳細(3−1)]
次に、実施の形態3における制御部10の処理の詳細および具体例について説明する。
(1)HUD装置1は、AR機能の利用時には、運転者撮影部107のカメラ3を用いて、運転者の目の位置を検出し、視点情報を出力する。
(2)制御部10の情報取得部12は、その視点情報を取得する。情報取得部12は、視点情報に含まれている、空間内の目の位置P1の情報、例えば両目の中間点の位置座標(X1,Y1,Z1)に基づいて、視点位置が変動する場合の変動量(ずれ量Δとする)を計算する。情報取得部12は、その計算の際、基準となる基本設定の視点位置、例えば図4の位置P1Aを中心とするアイボックスEAを用いて、基準の位置P1Aからの変動後の目の位置の変動量(ずれ量Δ)を計算する。ずれ量Δは、例えば、Y方向(上下)のずれ量Δh、およびZ方向(前後)のずれ量Δdを含む。なお、運転者撮影部107が、そのずれ量Δを計算する機能を備えている場合には、制御部10でのずれ量Δの計算を省略できる。情報取得部12は、そのずれ量Δを含む視点情報を、表示位置変換部14へ出力する。
(3)表示位置変換部14は、視点位置の変動に応じて、ミラー24Aの角度θを調整するように駆動部25を制御する。駆動部25は、制御部10からの制御信号に従ってミラー24Aの角度θを変更する。
(4)制御部10は、視点位置の変動に応じて、ミラー24Aの角度θを調整するように駆動部25を制御する。駆動部25は、制御部10からの制御信号に従ってミラー24Aの角度θを変更する。
(5)検出部26は、自動調節によって変更されたミラー24Aの角度θの状態を検出し、角度情報を制御部10の情報取得部12へ出力する。
(6)制御部10の情報取得部12は、その調整後の角度θの状態を把握し、表示位置変換部14に角度θの状態を出力する。
(7)表示位置変換部14は、ずれ量Δを含む視点情報および角度θの状態に基づいて、実施の形態3のための所定の変換テーブルT3(第3変換テーブル)を用いて、AR平面8でのAR表示領域7内のAR画像の位置座標(x,y)を決定する変換処理を行う。この変換処理は、リアルタイムで行われ、以下のような処理を含む。表示位置変換部14は、実施の形態1と同様に画像6内の物体の点Qの位置座標(x,y)、および空間内の物体との距離Dの情報に基づいて、AR表示領域7内のAR画像の表示位置の点Vの画素座標(x,y)を計算する。その際、表示位置変換部14は、変換テーブルT3を用いて変換処理を行う。
(8)その後も、制御部10は、(1)から同様に、視点位置の変動の検出に応じた角度θの調節(AR表示領域7の位置の設定)およびAR表示領域7内のAR画像の補正を行う。
[変換テーブル(3)]
図27は、実施の形態3における表示位置変換部14の変換テーブルT3を用いた計算の概念を示す。変換テーブルT3は、視点の位置P1に応じた変換として規定されている。変換の基準は、例えば予め図2〜図4のような標準的な人の第1状態に対応させて設計されている。すなわち、基準として、実施の形態1と同様の変換テーブルT1が適用できる。この変換テーブルT1に、実施の形態3のための係数K2を乗算して、変換テーブルT3を構成する。係数K2は、視点位置に応じた係数である。
係数K2は、所定の関数F3によって決定される。関数F3は、視点位置のずれ量Δを変数として含む関数である。関数F3の入力値として視点位置のずれ量Δを含む。係数K2は、関数F3の出力値として得られる。関数F3は、ほとんどミラー24Aの形状に応じて決まる。関数F3は、予め制御部10のメモリ(ROM)内に格納されている。
ずれ量Δは、基準の目の位置(例えば位置P1A)からの変動の際のずれ量であり、Y方向のずれ量Δh、Z方向のずれ量Δdを含む。Y方向のずれ量Δは、例えば図5の位置Y1A(高さH1A)と位置Y1B(高さH1B)との差分に相当する。情報取得部12は、そのずれ量Δを運転者撮影部107から取得するか、あるいは取得した視点情報に基づいてずれ量Δを計算して得る。
また、実施の形態3で、変形例としては、変換テーブルT3を用いた変換処理の計算を高速化するために、実施の形態2と同様に、ラグランジュ補間方式を適用することができる。
なお、実施の形態3の変形例として、制御部10は、視点位置のずれ量Δの大きさに応じて、例えば閾値範囲との比較に応じて、ミラー24Aの角度θおよびAR表示領域7の調節の実行有無やタイミング等を制御してもよい。例えば、制御部10は、視点位置のずれ量Δが、基準のアイボックスに対応する範囲内である場合には、角度θの変更および変換処理を実行せず、範囲外である場合には、角度θの変更および変換処理を実行するように制御してもよい。
[処理詳細(3−2)]
HUD装置1を含むシステムにおいて、基準となる目の位置(基本設定のアイボックス内の位置)に対し、運転者の姿勢の変化等によって、視点位置が変動する。例えば、図4の位置P1Aから図5の位置P1Bに変動する。この変動の際の視点位置のずれ量Δとして、上下方向(Y方向)のずれ量Δh、および前後方向(Z方向)のずれ量Δdとする。この場合、図7や図8の例のように、運転者の視点位置から虚像を見る際の見込み角度や伏せ角度が異なる。そのため、前述の式3および式4における伏せ角度αhudが異なる。伏せ角度αhudが異なる結果として、表示素子22の表示画素座標(xhud,yhud)が異なる。そのため、変換テーブルT1に関する補正が必要であり、係数K2を用いて補正して変換テーブルT3となる。
実施の形態3では、制御部10は、変動する視点位置の把握に基づいて、光学系24のミラー24Aの角度θを自動的に調節する。制御部10は、視点位置のずれ量Δに応じて、適切な角度θ(または角度θの変更量)を計算する。この計算は、ずれ量Δと角度θとの関係を規定する所定の関数等を用いて実現できる。制御部10は、角度θを調節する場合、駆動部24にそのための制御信号を出力する。駆動部24は、その制御信号に従って、モータ等を駆動してミラー24Aの角度θを変更させる。
[効果等]
上記のように、実施の形態3のHUD装置1によれば、運転者の目の位置P1の状態に応じて自動的にAR表示領域7内のAR画像の表示位置を補正する機能を有するので、実像と虚像との表示のずれをなくす、または低減して、好適なAR表示が実現できる。また、実施の形態3では、運転者の手動操作によるミラー24Aの調節の手間を削減できる。
以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は上述した実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。実施の形態の構成要素の追加や削除、分離や併合、置換、組合せ等が可能である。実施の形態の機能等は、一部または全部が集積回路等のハードウェアで実現されてもよいし、ソフトウェアプログラム処理で実現されてもよい。各ソフトウェアは、製品出荷時点で予め装置内に格納されていてもよいし、製品出荷後に外部装置から通信を介して取得されてもよい。本発明は、車載システムに限らず、各種の用途に適用可能である。
1…HUD装置、2…カメラ、3…カメラ、5…視認領域、7…AR表示領域、9…ウィンドシールド、10…制御部、11…画像入力部、12…情報取得部、13…AR画像生成部、14…表示位置変換部、15…AR表示部、20…表示部、21…表示駆動回路、22…表示素子、23…光源、24…光学系、25…駆動部、100…車載システム、101…ECU、102…車外撮影部、103…映像データ記憶部、104…通信部、105…GPS受信器、106…カーナビ部、108…センサ部、109…DB部。

Claims (13)

  1. 車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置であって、
    カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力部と、
    前記画像内の前記物体の位置を含む物体情報、および空間内の前記物体との距離を含む距離情報を取得する情報取得部と、
    前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成部と、
    前記取得された情報を用いて、前記ウィンドシールドまたはコンバイナの視認領域に前記画像を表示可能な範囲である表示領域の位置、および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換部と、
    前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御部と、
    前記制御に従って前記視認領域に対して前記画像を重畳表示する表示部と、
    を備え、
    前記変換部は、基本設定の運転者の視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    ヘッドアップディスプレイ装置。
  2. 請求項1記載のヘッドアップディスプレイ装置において、
    前記変換部は、前記物体情報および前記距離情報を入力値として変換テーブルに入力して前記変換処理を行い、出力値として前記表示領域内の前記画像の表示位置を得る、
    ヘッドアップディスプレイ装置。
  3. 請求項1記載のヘッドアップディスプレイ装置において、
    車載システムに搭載され、
    前記表示部は、前記車両の前記ウィンドシールドまたはコンバイナに構成される前記視認領域の前記表示領域に対して投射表示を行う、
    ヘッドアップディスプレイ装置。
  4. 車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置における表示制御方法であって、
    カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力ステップと、
    前記画像内の前記物体の位置を含む物体情報、および空間内の前記物体との距離を含む距離情報を取得する情報取得ステップと、
    前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成ステップと、
    前記取得された情報を用いて、前記ウィンドシールドまたはコンバイナの視認領域に前記画像を表示可能な範囲である表示領域の位置、および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換ステップと、
    前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御ステップと、
    前記制御に従って前記視認領域に対して前記画像を重畳表示する表示ステップと、
    を備え、
    前記変換ステップは、基本設定の運転者の視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    表示制御方法。
  5. 車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させる虚像を表示するヘッドアップディスプレイ装置であって、
    カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力部と、
    前記画像内の前記物体の位置を含む物体情報、および空間内の前記物体との距離を含む距離情報を取得する情報取得部と、
    前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成部と、
    前記取得された情報を用いて、前記ウィンドシールドまたはコンバイナの視認領域に前記画像を表示可能な範囲である表示領域の位置および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換部と、
    前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御部と、
    前記制御に従って前記視認領域に対して前記画像を重畳表示する表示部と、
    を備え、
    前記表示部は、
    前記画像の映像光を前記視認領域に導くための光学系として、角度が可変であるミラーを含み、前記角度に応じて前記視認領域への前記映像光の投射位置が変わることで前記視認領域内の前記表示領域の位置が変わる構成を有する前記光学系と、
    運転者の操作または前記制御に基づいて、前記ミラーの前記角度を変えるように駆動する駆動部と、
    前記ミラーの前記角度を検出する検出部と、
    を有し、
    前記変換部は、前記ミラーの前記角度に応じた基本設定の前記運転者の視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    ヘッドアップディスプレイ装置。
  6. 請求項5記載のヘッドアップディスプレイ装置において、
    前記変換部は、前記角度に応じた係数を決定し、前記係数に応じて決定される変換テーブルを用いて、前記物体情報および前記距離情報を入力値として前記変換テーブルに入力して前記変換処理を行い、出力値として前記表示領域内の前記画像の表示位置を得る、
    ヘッドアップディスプレイ装置。
  7. 請求項5記載のヘッドアップディスプレイ装置において、
    車載システムに搭載され、
    前記表示部は、前記車両の前記ウィンドシールドまたはコンバイナに構成される前記視認領域の前記表示領域に対して投射表示を行う、
    ヘッドアップディスプレイ装置。
  8. 車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させる虚像を表示するヘッドアップディスプレイ装置における表示制御方法であって、
    カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力ステップと、
    前記画像内の前記物体の位置を含む物体情報、および空間内の前記物体との距離を含む距離情報を取得する情報取得ステップと、
    前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成ステップと、
    前記取得された情報を用いて、前記ウィンドシールドまたはコンバイナの視認領域に前記画像を表示可能な範囲である表示領域の位置および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換ステップと、
    前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御ステップと、
    を備え、
    前記ヘッドアップディスプレイ装置は、
    前記制御に従って前記視認領域に対して前記画像を重畳表示する表示部として、
    前記画像の映像光を前記視認領域に導くための光学系として、角度が可変であるミラーを含み、前記角度に応じて前記視認領域への前記映像光の投射位置が変わることで前記視認領域内の前記表示領域の位置が変わる構成を有する前記光学系と、
    運転者の操作または前記制御に基づいて、前記ミラーの前記角度を変えるように駆動する駆動部と、
    前記ミラーの前記角度を検出する検出部と、
    を有し、
    前記変換ステップは、前記ミラーの前記角度に応じた基本設定の前記運転者の視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    表示制御方法。
  9. 車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させる虚像を表示するヘッドアップディスプレイ装置であって、
    カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力部と、
    前記画像内の前記物体の位置を含む物体情報、空間内の前記物体との距離を含む距離情報、および前記ウィンドシールドまたはコンバイナの視認領域を見る運転者の視点位置を含む視点情報を取得する情報取得部と、
    前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成部と、
    前記取得された情報を用いて、前記視認領域に前記画像を表示可能な範囲である表示領域の位置および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換部と、
    前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御部と、
    前記制御に従って前記視認領域に対して前記画像を投射表示によって重畳表示する表示部と、
    を備え、
    前記変換部は、前記運転者の前記視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    ヘッドアップディスプレイ装置。
  10. 請求項9記載のヘッドアップディスプレイ装置において、
    前記表示部は、
    前記画像の映像光を前記視認領域に導くための光学系として、角度が可変であるミラーを含み、前記角度に応じて前記視認領域への前記映像光の投射の位置が変わることで前記視認領域内の前記表示領域の位置が変わる構成を有する前記光学系と、
    前記運転者の操作または前記制御に基づいて、前記ミラーの前記角度を変えるように駆動する駆動部と、
    前記ミラーの前記角度を検出する検出部と、
    を有し、
    前記変換部は、前記視点位置に応じて、前記ミラーの前記角度を調節するように制御し、前記調節された前記角度に応じた前記視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    ヘッドアップディスプレイ装置。
  11. 請求項9記載のヘッドアップディスプレイ装置において、
    前記変換部は、前記視点位置またはそのずれ量に応じた係数を決定し、前記係数に応じて決定される変換テーブルを用いて、前記物体情報および前記距離情報を入力値として前記変換テーブルに入力して前記変換処理を行い、出力値として前記表示領域内の前記画像の表示位置を得る、
    ヘッドアップディスプレイ装置。
  12. 請求項9記載のヘッドアップディスプレイ装置において、
    車載システムに搭載され、
    前記表示部は、前記車両の前記ウィンドシールドまたはコンバイナに構成される前記視認領域の前記表示領域に対して投射表示を行う、
    ヘッドアップディスプレイ装置。
  13. 車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して前記車両の前方の風景に重畳させる虚像を表示するヘッドアップディスプレイ装置における表示制御方法であって、
    カメラで撮影された画像を入力し、前記画像から所定の物体を抽出する画像入力ステップと、
    前記画像内の前記物体の位置を含む物体情報、空間内の前記物体との距離を含む距離情報、および前記ウィンドシールドまたはコンバイナの視認領域を見る運転者の視点位置を含む視点情報を取得する情報取得ステップと、
    前記物体に対して重畳表示するための前記虚像の画像を生成する画像生成ステップと、
    前記取得された情報を用いて、前記視認領域に前記画像を表示可能な範囲である表示領域の位置および前記表示領域内の前記画像の表示位置を、少なくとも鉛直上下方向を含めて補正する変換処理を行う変換ステップと、
    前記補正後のデータを用いて前記視認領域に対して前記画像を重畳表示する制御を行う表示制御ステップと、
    前記制御に従って前記視認領域に対して前記画像を投射表示によって重畳表示する表示ステップと、
    を備え、
    前記変換ステップは、前記運転者の前記視点位置から前記視認領域を通じて前記物体を見た場合の前記物体の位置に、前記表示領域内の前記画像の表示位置を合わせるように、前記変換処理を行う、
    表示制御方法。
JP2019513244A 2017-04-19 2018-02-21 ヘッドアップディスプレイ装置およびその表示制御方法 Active JP6731116B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2017082473 2017-04-19
JP2017082473 2017-04-19
JP2017083330 2017-04-20
JP2017083330 2017-04-20
JP2017084188 2017-04-21
JP2017084188 2017-04-21
PCT/JP2018/006167 WO2018193708A1 (ja) 2017-04-19 2018-02-21 ヘッドアップディスプレイ装置およびその表示制御方法

Publications (2)

Publication Number Publication Date
JPWO2018193708A1 JPWO2018193708A1 (ja) 2019-12-19
JP6731116B2 true JP6731116B2 (ja) 2020-07-29

Family

ID=63856975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019513244A Active JP6731116B2 (ja) 2017-04-19 2018-02-21 ヘッドアップディスプレイ装置およびその表示制御方法

Country Status (4)

Country Link
US (1) US11241960B2 (ja)
JP (1) JP6731116B2 (ja)
CN (1) CN110573369B (ja)
WO (1) WO2018193708A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110019580B (zh) * 2017-08-25 2022-07-12 腾讯科技(深圳)有限公司 地图显示方法、装置、存储介质及终端
JP7194906B2 (ja) * 2018-03-30 2022-12-23 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
JP6827609B2 (ja) 2019-01-10 2021-02-10 三菱電機株式会社 情報表示制御装置及び方法、並びにプログラム及び記録媒体
JP7338358B2 (ja) * 2019-09-25 2023-09-05 株式会社Jvcケンウッド 表示装置、表示システム、表示調整方法及び表示調整プログラム
WO2021132089A1 (ja) * 2019-12-25 2021-07-01 日本精機株式会社 ヘッドアップディスプレイ装置
WO2021153615A1 (ja) * 2020-01-30 2021-08-05 日本精機株式会社 視点検知システム
CN111510701A (zh) * 2020-04-22 2020-08-07 Oppo广东移动通信有限公司 虚拟内容的显示方法、装置、电子设备及计算机可读介质
JPWO2021251115A1 (ja) * 2020-06-08 2021-12-16
US11562576B2 (en) * 2020-08-05 2023-01-24 GM Global Technology Operations LLC Dynamic adjustment of augmented reality image
JP7439699B2 (ja) 2020-08-27 2024-02-28 日本精機株式会社 車両用表示装置
KR102543899B1 (ko) * 2020-08-27 2023-06-20 네이버랩스 주식회사 헤드업 디스플레이 및 그 제어방법
US20220163919A1 (en) * 2020-11-23 2022-05-26 GM Global Technology Operations LLC Micromirror pixel design to eliminate intensity artifacts in holographic displays
DE112022002430T5 (de) * 2021-04-30 2024-02-15 Nippon Seiki Co., Ltd. Anzeigesteuervorrichtung, Head-up-Display-Vorrichtung und Anzeigesteuerverfahren
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置
CN113815534B (zh) * 2021-11-05 2023-05-16 吉林大学重庆研究院 基于应对人眼的位置变化而对图形进行动态处理的方法
WO2023089834A1 (ja) * 2021-11-22 2023-05-25 日本電気株式会社 映像表示システム、映像表示方法、および映像表示装置
US11514654B1 (en) * 2021-12-09 2022-11-29 Unity Technologies Sf Calibrating focus/defocus operations of a virtual display based on camera settings
DE102022203951A1 (de) * 2022-04-25 2023-10-26 Psa Automobiles Sa Verfahren und Vorrichtung zum Projizieren von Objekten
EP4289652A1 (en) * 2022-06-08 2023-12-13 FERRARI S.p.A. Motor vehicle
CN114779477B (zh) * 2022-06-17 2022-11-04 江苏泽景汽车电子股份有限公司 一种显示画面补偿方法、装置、电子设备及存储介质
CN115202476B (zh) * 2022-06-30 2023-04-11 泽景(西安)汽车电子有限责任公司 显示图像的调整方法、装置、电子设备及存储介质
CN117289796B (zh) * 2023-09-22 2024-05-07 中山大学 基于触觉手套的复杂装备高交互混合现实***与方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7126583B1 (en) * 1999-12-15 2006-10-24 Automotive Technologies International, Inc. Interactive vehicle display system
JP2008062762A (ja) * 2006-09-06 2008-03-21 Fujitsu Ten Ltd 運転支援装置および運転支援方法
JP4895324B2 (ja) * 2006-11-27 2012-03-14 日本精機株式会社 ヘッドアップディスプレイ装置
JP2009150947A (ja) * 2007-12-19 2009-07-09 Hitachi Ltd 車両用ヘッドアップディスプレイ装置
JP2009292409A (ja) * 2008-06-09 2009-12-17 Yazaki Corp ヘッドアップディスプレイ装置
JP2010070066A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP5336169B2 (ja) * 2008-12-25 2013-11-06 矢崎総業株式会社 ヘッドアップディスプレイ装置
JP5392613B2 (ja) * 2009-09-28 2014-01-22 スタンレー電気株式会社 ヘッドアップディスプレイ
JP5275963B2 (ja) * 2009-12-08 2013-08-28 株式会社東芝 表示装置、表示方法及び移動体
JP5767705B2 (ja) * 2010-08-27 2015-08-19 エンパイア テクノロジー ディベロップメント エルエルシー ヘッドアップディスプレイ
JP5970872B2 (ja) * 2012-03-07 2016-08-17 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6375591B2 (ja) * 2013-01-15 2018-08-22 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
JP6094437B2 (ja) * 2013-09-24 2017-03-15 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
US9873355B2 (en) * 2014-04-25 2018-01-23 Mitsubishi Electric Corporation Automatic adjuster, automatic adjusting system and automatic adjusting method
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP2016170052A (ja) * 2015-03-13 2016-09-23 日本精機株式会社 目検出装置及び車両用表示システム
JP2016222061A (ja) * 2015-05-28 2016-12-28 日本精機株式会社 車両用表示システム
KR20170060652A (ko) * 2015-11-24 2017-06-02 현대오트론 주식회사 헤드업 디스플레이의 좌표 매칭 장치 및 그 방법
CN107462989A (zh) * 2016-06-06 2017-12-12 华硕电脑股份有限公司 影像稳定方法与电子装置
CN110099817A (zh) * 2016-12-21 2019-08-06 富士胶片株式会社 投影型显示装置、投影型显示装置的控制方法、投影型显示装置的控制程序
JP6731644B2 (ja) * 2017-03-31 2020-07-29 パナソニックIpマネジメント株式会社 表示位置補正装置、表示位置補正装置を備える表示装置、及び表示装置を備える移動体

Also Published As

Publication number Publication date
CN110573369A (zh) 2019-12-13
US11241960B2 (en) 2022-02-08
US20210107356A1 (en) 2021-04-15
JPWO2018193708A1 (ja) 2019-12-19
CN110573369B (zh) 2022-05-17
WO2018193708A1 (ja) 2018-10-25

Similar Documents

Publication Publication Date Title
JP6731116B2 (ja) ヘッドアップディスプレイ装置およびその表示制御方法
JP6870109B2 (ja) ヘッドアップディスプレイ装置およびその表示制御方法
US8536995B2 (en) Information display apparatus and information display method
JP6443236B2 (ja) 虚像提示システム、画像投射装置および虚像提示方法
JP6091586B1 (ja) 車両用画像処理装置および車両用画像処理システム
EP1939040B1 (en) Driving support method and driving support apparatus
EP1961613B1 (en) Driving support method and driving support device
US11215819B2 (en) Head-up display
JPWO2017138297A1 (ja) 画像表示装置及び画像表示方法
JPWO2011007484A1 (ja) 運転支援装置、運転支援方法及びプログラム
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
JP6626069B2 (ja) 車両用表示装置
JP2014201197A (ja) ヘッドアップディスプレイ装置
EP1914117A1 (en) A method of driving support and a driving support apparatus
JP2008236711A (ja) 運転支援方法及び運転支援装置
JP2015120395A (ja) 車両情報投影システム
JP2018020779A (ja) 車両情報投影システム
JP6186905B2 (ja) 車載表示装置およびプログラム
JP6801508B2 (ja) ヘッドアップディスプレイ装置
JP6318772B2 (ja) 虚像表示装置
JP2019206262A (ja) 表示装置
JPWO2018030320A1 (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200703

R150 Certificate of patent or registration of utility model

Ref document number: 6731116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250