JP2015101311A - Vehicle information projection system - Google Patents

Vehicle information projection system Download PDF

Info

Publication number
JP2015101311A
JP2015101311A JP2013245739A JP2013245739A JP2015101311A JP 2015101311 A JP2015101311 A JP 2015101311A JP 2013245739 A JP2013245739 A JP 2013245739A JP 2013245739 A JP2013245739 A JP 2013245739A JP 2015101311 A JP2015101311 A JP 2015101311A
Authority
JP
Japan
Prior art keywords
image
vehicle
display
virtual image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013245739A
Other languages
Japanese (ja)
Other versions
JP6201690B2 (en
Inventor
武志 谷内田
Takeshi Yanaida
武志 谷内田
広川 拓郎
Takuro Hirokawa
拓郎 広川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2013245739A priority Critical patent/JP6201690B2/en
Priority to EP14856234.1A priority patent/EP3061642B1/en
Priority to CN201480057605.2A priority patent/CN105682973B/en
Priority to PCT/JP2014/077560 priority patent/WO2015060193A1/en
Priority to US15/026,534 priority patent/US20160216521A1/en
Publication of JP2015101311A publication Critical patent/JP2015101311A/en
Application granted granted Critical
Publication of JP6201690B2 publication Critical patent/JP6201690B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a viewer to recognize information without discomfort by suppressing positional deviation (erroneous display) of a virtual image which is displayed corresponding to a specific object in an outer scenery of a vehicle.SOLUTION: An information acquisition part 200 estimates a position of a specific object on the outside of an own vehicle 2. First display means 11 generates a superimposition image J1 for the specific object. The information acquisition part 200 detects the behavior of the own vehicle 2. A display controller 400 adjusts the position to which a display image is projected in accordance with the position of the specific object estimated by the information acquisition part 200, and changes the superimposition image J1 to an alternative image J3 being a different display image on the basis of the behavior of the own vehicle 2.

Description

本発明は、所定の表示画像を投影し、車両の乗員前方側に虚像を視認させる車両情報投影システムに関する。   The present invention relates to a vehicle information projection system that projects a predetermined display image and visually recognizes a virtual image on the front side of a vehicle occupant.

従来の車両情報投影システムとして、特許文献1に開示されるような投影装置であるヘッドアップディスプレイ(HUD:Head−Up Display)装置を用いたものが知られている。このようなHUD装置は、車両のフロントガラスに表示画像を投影することで、視認者(乗員)に、車両の外界の実景とともに所定の情報を示す虚像を視認させるものであり、車両の案内経路を表す表示画像の形状や大きさや、表示させる位置を調整し、実景である車線に対応づけて表示することで、乗員は実景を視認しながら少ない視線移動だけで経路を確認することができるものである。   As a conventional vehicle information projection system, a system using a head-up display (HUD) device which is a projection device as disclosed in Patent Document 1 is known. Such a HUD device causes a viewer (occupant) to visually recognize a virtual image indicating predetermined information together with a real scene of the outside of the vehicle by projecting a display image on the windshield of the vehicle. By adjusting the shape and size of the display image representing the position and the display position and displaying it in correspondence with the lane that is the actual scene, the occupant can check the route with a small amount of line-of-sight movement while viewing the actual scene It is.

特開2011−121401号公報JP 2011-121401 A

しかしながら、特許文献1のような実景に対応させて虚像を視認させるHUD装置において、HUD装置が搭載された車両が、図9(a)に示すように急減速した場合、車両の前方側が下向き(図9におけるY軸のマイナス方向)に下がってしまう(前傾姿勢になってしまう)ため、図9(b)に示すように外景の特定対象Wに対して虚像Vが下向き(Y軸のマイナス方向)にずれて視認者が視認してしまうおそれがあり、さらに、図10(a)に示すように急加速した場合、車両の前方側が上向き(図10におけるY軸のプラス方向)に上がってしまう(後傾姿勢になってしまう)ため、外景の特定対象Wに対して虚像Vが上向き(Y軸のプラス方向)にずれて視認者に視認されてしまうおそれがあり、これら車両の外景の特定対象Wに対して虚像Vがずれてしまうこと(誤表示)により、視認者が違和感を覚えるおそれがあった。   However, in a HUD device that visually recognizes a virtual image corresponding to a real scene as in Patent Document 1, when a vehicle equipped with the HUD device decelerates rapidly as shown in FIG. 9A, the front side of the vehicle faces downward ( 9 (the negative direction of the Y axis in FIG. 9) is lowered (becomes a forward tilted posture), so that the virtual image V faces downward with respect to the specific object W of the outside scene as shown in FIG. If the vehicle accelerates rapidly as shown in FIG. 10 (a), the front side of the vehicle rises upward (in the positive direction of the Y axis in FIG. 10). Therefore, the virtual image V may be shifted upward (in the positive direction of the Y axis) with respect to the specific object W of the outside scene and viewed by the viewer. For specific target W By deviates virtual image V Te (false indications), the viewer there is a risk that uncomfortable feeling.

また自車両の傾きが大きくなった場合、特定対象Wと、これを指示する虚像Vとの位置ズレが増大し、特定対象Wに虚像Vが対応しなくなり、虚像Vを視認することでユーザが違和感を覚えるおそれがあった。   Further, when the inclination of the host vehicle increases, the positional deviation between the specific target W and the virtual image V instructing the specific target W increases, the virtual image V no longer corresponds to the specific target W, and the user visually recognizes the virtual image V. There was a risk of feeling uncomfortable.

本発明は上記問題を鑑みてなされたものであり、車両の外景の特定対象に対応させて表示させる虚像の位置ずれ(誤表示)を抑制し、視認者に違和感なく情報を認識させることができる車両情報投影システムを提供することを目的とする。   The present invention has been made in view of the above-described problem, and can suppress a positional shift (incorrect display) of a virtual image to be displayed in correspondence with a specific target of an outside scene of a vehicle, thereby allowing a viewer to recognize information without a sense of incongruity. An object is to provide a vehicle information projection system.

上記目的を達成するため、本発明に係る車両情報投影システムは、車両の外にある特定対象の位置を推定する車外状況推定手段と、前記特定対象に関する重畳画像を生成する表示器と、前記表示器が生成した前記重畳画像を前記車両の乗員前方の投影対象に向けるリレー光学系と、前記車外状況推定手段により推定された前記特定対象の位置に応じて、前記重畳画像が投影される位置を調整する画像位置調整手段とを具備した投影装置と、前記車両の挙動を検出する挙動検出手段と、を備え、前記挙動検出手段にて検出した車両挙動に基づき、前記重畳画像とは異なる代替画像を表示させるものである。   In order to achieve the above object, a vehicle information projection system according to the present invention includes an out-of-vehicle situation estimation unit that estimates a position of a specific target outside the vehicle, a display that generates a superimposed image related to the specific target, and the display A relay optical system that directs the superimposed image generated by a device toward a projection target in front of an occupant of the vehicle, and a position at which the superimposed image is projected according to the position of the specific target estimated by the outside-vehicle state estimation unit An alternative image that is different from the superimposed image based on the vehicle behavior detected by the behavior detecting means, comprising: a projection device including an image position adjusting means for adjusting; and a behavior detecting means for detecting the behavior of the vehicle. Is displayed.

本発明によれば、車両の外景の特定対象に対応させて表示させる虚像の位置ずれ(誤表示)を抑制し、視認者に違和感なく情報を認識させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the position shift (false display) of the virtual image displayed corresponding to the specific object of the outside scene of a vehicle can be suppressed, and a viewer can recognize information without a sense of incongruity.

本発明の第一実施形態における車両情報投影システムの構成を説明する図である。It is a figure explaining the composition of the vehicle information projection system in a first embodiment of the present invention. 上記実施形態における車両の乗員が視認する景色を説明する図である。It is a figure explaining the scenery which the passenger | crew of the vehicle in the said embodiment visually recognizes. 上記実施形態における車両の乗員が視認する景色を説明する図である。It is a figure explaining the scenery which the passenger | crew of the vehicle in the said embodiment visually recognizes. 上記実施形態における画像の位置を調整する動作フロー図である。It is an operation | movement flowchart which adjusts the position of the image in the said embodiment. 上記実施形態における表示の推移を説明する図である。It is a figure explaining transition of a display in the above-mentioned embodiment. 上記実施形態におけるHUD装置の構成を説明する図である。It is a figure explaining the structure of the HUD apparatus in the said embodiment. 上記実施形態におけるHUD装置の構成を説明する図である。It is a figure explaining the structure of the HUD apparatus in the said embodiment. 第二実施形態における画像の位置を調整する動作フロー図である。It is an operation | movement flowchart which adjusts the position of the image in 2nd embodiment. 従来技術の問題点を説明する図である。It is a figure explaining the problem of a prior art. 従来技術の問題点を説明する図である。It is a figure explaining the problem of a prior art.

(第一実施形態)
本発明の車両情報投影システム1の第一実施形態について、図1〜図7を参照して説明する。なお、以下では、車両情報投影システム1の構成の理解を容易にするため、図1等に示したX、Y、Z座標系を用いて適宜説明する。ここでは、虚像Vを視認する乗員3から見て左右方向に沿った軸をX軸、上下方向に沿った軸をY軸とし、X軸及びY軸と直交し、虚像Vを視認する乗員3の視線方向に沿った軸をZ軸としている。また、図中、X、Y、Z軸の各軸を示す矢印の向く方向を、矢印が示す軸の+(プラス)方向、その反対側を−(マイナス)方向として、適宜、説明する。
(First embodiment)
1st Embodiment of the vehicle information projection system 1 of this invention is described with reference to FIGS. Hereinafter, in order to facilitate understanding of the configuration of the vehicle information projection system 1, description will be made as appropriate using the X, Y, and Z coordinate systems shown in FIG. 1 and the like. Here, the occupant 3 who visually recognizes the virtual image V is orthogonal to the X axis and the Y axis, with the axis along the left-right direction viewed from the occupant 3 viewing the virtual image V as the X axis and the axis along the vertical direction as the Y axis. The axis along the line-of-sight direction is the Z-axis. Further, in the figure, the direction in which the arrows indicating the X, Y, and Z axes are directed is defined as the + (plus) direction of the axis indicated by the arrow, and the opposite side is appropriately described as the-(minus) direction.

図1に第一実施形態に係る車両情報投影システム1のシステム構成を示す。
本実施形態に係る車両情報投影システム1は、第1の虚像V1を表す第1表示光N1と、第2の虚像V2を表す第2表示光N2とを自車両2のフロントガラス2aに投影し、第1の虚像V1及び第2の虚像V2を自車両2の乗員(視認者)3に視認させる投影装置であるヘッドアップディスプレイ装置(以下、HUD装置)100と、自車両2に関する車両情報、及び自車両2の周辺の車外状況などを取得する情報取得部200と、情報取得部200から入力される情報に基づき、HUD装置100の表示を制御する表示コントローラ400と、から構成される。
FIG. 1 shows a system configuration of a vehicle information projection system 1 according to the first embodiment.
The vehicle information projection system 1 according to the present embodiment projects the first display light N1 representing the first virtual image V1 and the second display light N2 representing the second virtual image V2 onto the windshield 2a of the host vehicle 2. , A head-up display device (hereinafter referred to as a HUD device) 100 that is a projection device that causes the occupant (viewer) 3 of the host vehicle 2 to visually recognize the first virtual image V1 and the second virtual image V2, and vehicle information about the host vehicle 2, And the information acquisition part 200 which acquires the vehicle exterior situation around the own vehicle 2, and the display controller 400 which controls the display of the HUD apparatus 100 based on the information input from the information acquisition part 200 are comprised.

HUD装置100は、第1表示光N1を出射する第1投影手段10と、第2表示光N2を出射する第2投影手段20と、を筐体40内に配置したものであり、筐体40に設けられた透過部40aから第1表示光N1と第2表示光N2をフロントガラス2aの遠方表示領域(第1表示領域)E1と近傍表示領域(第2表示領域)E2へ出射する。
フロントガラス2aの遠方表示領域E1に反射した第1表示光N1は、図1に示すように、結像距離が比較的長く、乗員3から離れた位置に第1の虚像V1を視認させる。
また、フロントガラス2aに反射した第2表示光N2は、第1の虚像V1に比べて結像距離が短く、第1の虚像V1より乗員3側に第2の虚像V2を視認させる。具体的に例えば、第1投影手段10により投影される虚像(第1の虚像V1)は、乗員3から15m以上離れた位置にあるかのように視認され(結像距離15m以上)、第2投影手段20により投影される虚像(第2の虚像V2及び後述する補助虚像V3)は、乗員3から2.5m程度離れた位置にあるかのように視認される。
The HUD device 100 includes a first projection unit 10 that emits a first display light N1 and a second projection unit 20 that emits a second display light N2, which are arranged in a casing 40. The first display light N1 and the second display light N2 are emitted from the transmissive portion 40a provided in the front to the distant display area (first display area) E1 and the vicinity display area (second display area) E2 of the windshield 2a.
As shown in FIG. 1, the first display light N <b> 1 reflected on the far display area E <b> 1 of the windshield 2 a has a relatively long imaging distance and makes the first virtual image V <b> 1 visible at a position away from the passenger 3.
Further, the second display light N2 reflected by the windshield 2a has a shorter imaging distance than the first virtual image V1, and makes the second virtual image V2 visible to the occupant 3 side of the first virtual image V1. Specifically, for example, the virtual image (first virtual image V1) projected by the first projecting means 10 is visually recognized as if it is 15 m or more away from the occupant 3 (imaging distance of 15 m or more), and the second The virtual images (second virtual image V2 and auxiliary virtual image V3 described later) projected by the projecting unit 20 are visually recognized as if they are at a position about 2.5 m away from the occupant 3.

以下に、図2,3を用いて、乗員3が視認する第1の虚像V1及び第2の虚像V2について説明する。図2は、乗員3が自車両2の運転席で視認するフロントガラス2aに投影された第1の虚像V1及び第2の虚像V2の様子を説明する図であり、第1の虚像V1及び第2の虚像V2は、自車両2のステアリング2bの上側(Y軸のプラス側)に配設されるフロントガラス2aに投影される。本実施形態におけるHUD装置100は、第1の虚像V1が表示される領域(遠方表示領域E1)が、第2の虚像V2が表示される領域(近傍表示領域E2)より上側に配置されるように第1表示光N1及び第2表示光N2をそれぞれ出射する。図3は、後述する第1の虚像V1として衝突警告画像J1cを表示している様子を示す図である。   Below, the 1st virtual image V1 and the 2nd virtual image V2 which the passenger | crew 3 visually recognizes are demonstrated using FIG. FIG. 2 is a diagram for explaining a state of the first virtual image V1 and the second virtual image V2 projected on the windshield 2a that the occupant 3 visually recognizes at the driver's seat of the host vehicle 2, and the first virtual image V1 and the second virtual image V1. The second virtual image V2 is projected onto the windshield 2a disposed on the upper side (the Y axis plus side) of the steering 2b of the host vehicle 2. In the HUD device 100 according to the present embodiment, the area where the first virtual image V1 is displayed (distant display area E1) is arranged above the area where the second virtual image V2 is displayed (near display area E2). The first display light N1 and the second display light N2 are emitted respectively. FIG. 3 is a diagram illustrating a state in which a collision warning image J1c is displayed as a first virtual image V1 described later.

フロントガラス2aの遠方表示領域(第1の表示領域)E1に投影される第1の虚像V1としては、図2,3に示すように、目的地までの経路を自車両2の外界の車線Wa(特定対象)に重畳させて経路誘導する案内経路画像J1a,後述するステレオカメラ201aにより白線Wb(特定対象)を認識し、自車両2が車線を逸脱しそうになった場合、白線Wb近傍に重畳させて白線Wbの存在を認識させて車線逸脱を抑制する、または単に白線Wb近傍に重畳させて白線Wbの存在を認識させる白線認識画像J1b,後述するステレオカメラ201aにより自車両2の車線上にある特定対象(前方車両Wcや障害物)を認識し、これら認識された車線上の物体の近傍に重畳させて注意を促し、衝突を抑制する衝突警告画像J1c,前方車両Wcに追従するように自車両2の速度を制御するアダプティブクルーズコントロール(ACC:Adaptive Cruise Control)を使用する際に、前方車両Wcとして認識する車両に重畳させ、乗員3に追従する前方車両Wcを認識させる前方車両ロック画像(図示しない),前方車両Wcと自車両2との距離に関する指標を前方車両Wcと自車両2との間の車線に重畳させ、車間距離を乗員に認識させる車間距離画像(図示しない)などであり、自車両2の外界の実景の車線Wa、白線Wb、前方車両Wc、障害物などの特定対象に合わせて表示される重畳画像J1である。   As the first virtual image V1 projected onto the distant display area (first display area) E1 of the windshield 2a, as shown in FIGS. The guidance route image J1a for guiding the route by superimposing on the (specific target), the white line Wb (specific target) is recognized by the stereo camera 201a, which will be described later, and if the host vehicle 2 is about to depart from the lane, it is superimposed on the vicinity of the white line Wb The white line recognition image J1b that recognizes the presence of the white line Wb and suppresses the departure from the lane, or simply superimposes it in the vicinity of the white line Wb to recognize the presence of the white line Wb, on the lane of the host vehicle 2 by the stereo camera 201a described later. A collision warning image J1c that recognizes a specific target (a forward vehicle Wc or an obstacle), superimposes it in the vicinity of an object on the recognized lane, urges attention, and suppresses the collision. When an adaptive cruise control (ACC) that controls the speed of the host vehicle 2 so as to follow the vehicle c is used, it is superimposed on the vehicle recognized as the vehicle ahead Wc, and the vehicle Wc that follows the occupant 3 is superimposed on the vehicle. A front vehicle lock image to be recognized (not shown), an index related to the distance between the front vehicle Wc and the host vehicle 2 is superimposed on the lane between the front vehicle Wc and the host vehicle 2, and the inter-vehicle distance image that allows the occupant to recognize the inter-vehicle distance. This is a superimposed image J1 displayed in accordance with a specific target such as a lane Wa, a white line Wb, a forward vehicle Wc, an obstacle, or the like of an actual scene in the external environment of the host vehicle 2.

フロントガラス2aの近傍表示領域(第2の表示領域)E2に投影される第2の虚像V2としては、後述する車速センサ204や車両ECU300から出力された自車両2の速度情報や回転数情報や燃費情報など自車両2の運行状態に関する運行状態画像J2a,後述するGPSコントローラ203から自車両2の現在位置を認識し、ナビゲーションシステム202から自車両2が現在走行している車線に基づく規制情報(制限速度など)を読み出し、自車両2の現在位置に基づく規制情報に関する規制画像J2b,自車両2の異常を乗員3に認識させる車両警告画像(図示しない)などであり、自車両2の外界の実景の特定対象に合わせて表示しない近傍画像J2である。   As the second virtual image V2 projected on the vicinity display area (second display area) E2 of the windshield 2a, the speed information and the rotation speed information of the host vehicle 2 output from the vehicle speed sensor 204 and the vehicle ECU 300 described later, Regulation information based on the lane in which the host vehicle 2 is currently traveling from the navigation system 202 by recognizing the current position of the host vehicle 2 from the operation state image J2a relating to the operation state of the host vehicle 2 such as fuel efficiency information and a GPS controller 203 described later The vehicle speed warning image (not shown) for causing the occupant 3 to recognize the abnormality of the host vehicle 2 and the like. It is the neighborhood image J2 that is not displayed according to the specific object of the actual scene.

情報取得部200は、自車両2の前方を撮像し、自車両2の前方の状況を推定する前方情報取得部201と、自車両2の経路案内を行うナビゲーションシステム202と、GPSコントローラ203と、車速センサ204と、を備え、それぞれが取得した情報を後述する表示コントローラ400に出力するものである。
ちなみに、本願の特許請求の範囲に記載の車外状況推定手段は、本実施形態における前方情報取得部201,ナビゲーションシステム202,GPSコントローラ203などから構成されるが、自車両2の前方の状況を推定できるものであれば、これらに限定されるものではなく、ミリ波レーダーやソナー、または道路交通情報通信システムなどの外部通信装置と自車両2との間で通信を行うことによって、自車両2の前方の状況を推定するものであってもよい。また、本願の特許請求の範囲に記載の挙動検出手段は、本実施形態における前方情報取得部201,車速センサ204などから構成される。
The information acquisition unit 200 captures an image of the front of the host vehicle 2, estimates a situation ahead of the host vehicle 2, a navigation system 202 that provides route guidance for the host vehicle 2, a GPS controller 203, A vehicle speed sensor 204, and outputs the acquired information to the display controller 400 described later.
Incidentally, the vehicle exterior situation estimation means described in the claims of the present application includes the forward information acquisition unit 201, the navigation system 202, the GPS controller 203, and the like in the present embodiment, and estimates the situation ahead of the host vehicle 2. If possible, the present invention is not limited to these, and communication between an external communication device such as a millimeter wave radar, sonar, or road traffic information communication system and the own vehicle 2 can be performed. It may estimate the situation ahead. Further, the behavior detecting means described in the claims of the present application includes the front information acquisition unit 201, the vehicle speed sensor 204, and the like in the present embodiment.

前方情報取得部201は、自車両2の前方の情報を取得するものであり、本実施形態では、自車両2前方側を撮像するステレオカメラ201aと、このステレオカメラ201aで取得された撮像データを解析する撮像画像解析部(図示しない)と、を有する。   The front information acquisition unit 201 acquires information in front of the host vehicle 2, and in this embodiment, the stereo camera 201a that images the front side of the host vehicle 2 and the imaging data acquired by the stereo camera 201a are obtained. A captured image analysis unit (not shown) for analysis.

ステレオカメラ201aは、自車両2が走行する道路を含む前方領域を撮像するものであり、撮像画像解析部がステレオカメラ201aで取得された撮像データをパターンマッチング法により画像解析することで、道路形状に関する情報(車線Wa,白線Wb,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路等)や道路上の物体に関する情報(前方車両Wcや障害物)を解析することができ、さらに三角測量の原理に基づく画像解析により白線Wb,停止線,交差点,カーブ,分岐路,前方車両Wc,障害物等の特定対象と自車両2との間の距離を算出することができる。   The stereo camera 201a captures a front area including the road on which the host vehicle 2 travels, and the captured image analysis unit performs image analysis on the captured data acquired by the stereo camera 201a using a pattern matching method, thereby obtaining a road shape. Information (lane Wa, white line Wb, stop line, pedestrian crossing, road width, number of lanes, intersection, curve, branch road, etc.) and information on objects on the road (front vehicle Wc and obstacles) Furthermore, the distance between the subject vehicle 2 and the specific object such as the white line Wb, the stop line, the intersection, the curve, the branch road, the preceding vehicle Wc, and the obstacle can be calculated by image analysis based on the principle of triangulation. .

すなわち、本実施形態において、前方情報取得部201は、ステレオカメラ201aで撮像した撮像データから解析した、道路形状に関する情報、道路上の前方車両Wcなどの障害物に関する情報、及び撮像された特定対象と自車両2との距離に関する情報などを表示コントローラ400に出力する。   That is, in the present embodiment, the front information acquisition unit 201 analyzes the information about the road shape, the information about the obstacles such as the forward vehicle Wc on the road, and the specific target that is imaged, which are analyzed from the imaging data captured by the stereo camera 201a. Information about the distance between the vehicle 2 and the host vehicle 2 is output to the display controller 400.

ナビゲーションシステム202は、地図データを記憶する記憶部を有し、GPSコントローラ203からの位置情報に基づいて、現在位置近傍の地図データを記憶部から読み出し、案内経路を決定し、この案内経路に関する情報を表示コントローラ400に出力し、HUD装置100に案内経路画像J1aなどを表示させることにより、乗員3により設定された目的地までの経路案内を行うものである。また、ナビゲーションシステム202は、地図データを参照することにより、自車両2の前方の施設(特定対象)の名称・種類、及び自車両2と施設との距離を表示コントローラ400に出力する。   The navigation system 202 has a storage unit that stores map data. Based on the position information from the GPS controller 203, the navigation system 202 reads map data in the vicinity of the current position from the storage unit, determines a guide route, and information on the guide route. Is displayed on the display controller 400 and the HUD device 100 is caused to display a guidance route image J1a or the like, thereby performing route guidance to the destination set by the occupant 3. Further, the navigation system 202 outputs the name and type of the facility (specific target) ahead of the host vehicle 2 and the distance between the host vehicle 2 and the facility to the display controller 400 by referring to the map data.

また、地図データには、道路に関する情報(道路の幅員,車線数,交差点,カーブ,分岐路等)や制限速度などの道路標識に関する規制情報,車線が複数存在する場合の各車線についての情報(どの車線がどこに向かう車線か)などが、位置データに対応付けられて記憶されており、ナビゲーションシステム202は、GPSコントローラ203からの位置情報に基づいて、現在位置近傍の地図データを読み出し、表示コントローラ400に出力する。   Map data also includes information on roads (road width, number of lanes, intersections, curves, branch roads, etc.), restriction information on road signs such as speed limits, and information on each lane when there are multiple lanes ( Which lane is to which lane) and the like are stored in association with the position data, and the navigation system 202 reads map data in the vicinity of the current position based on the position information from the GPS controller 203 to display the display controller. Output to 400.

GPS(Global Positioning System)コントローラ203は、人工衛星などからGPS信号を受信し、このGPS信号をもとにして自車両2の位置の計算を行い、計算された自車両位置をナビゲーションシステム202に出力するものである。   A GPS (Global Positioning System) controller 203 receives a GPS signal from an artificial satellite, etc., calculates the position of the host vehicle 2 based on the GPS signal, and outputs the calculated host vehicle position to the navigation system 202. To do.

車速センサ204は、自車両2の速度を検出し、この自車両2の速度情報を表示コントローラ400に出力するものである。表示コントローラ400は、車速センサ204から入力される速度情報に基づき、HUD装置100に自車両2の車速を示す運行状態画像J2aを表示させる。また、後述する表示コントローラ400は、車速センサ204から入力される速度情報に基づき、自車両2の加速度を求めることができ、この算出された加速度により自車両2の挙動を推定し、この自車両2の挙動に基づき、第1の虚像V1の位置を調整することができる(画像位置調整処理)。この『画像位置調整処理』の詳細については後述することとする。   The vehicle speed sensor 204 detects the speed of the host vehicle 2 and outputs the speed information of the host vehicle 2 to the display controller 400. The display controller 400 causes the HUD device 100 to display an operation state image J2a indicating the vehicle speed of the host vehicle 2 based on the speed information input from the vehicle speed sensor 204. Further, the display controller 400 to be described later can obtain the acceleration of the host vehicle 2 based on the speed information input from the vehicle speed sensor 204, and estimates the behavior of the host vehicle 2 based on the calculated acceleration. Based on the behavior of 2, the position of the first virtual image V1 can be adjusted (image position adjustment process). Details of the “image position adjustment process” will be described later.

車両ECU300は、自車両2を総合的に制御するECU(Electronic Control Unit)であり、自車両2に搭載される様々なセンサ(図示しない)などから出力される信号に基づき、HUD装置100に表示させる表示画像を決定し、この表示画像の指示データを後述する表示コントローラ400に出力することで、表示コントローラ400がHUD装置100に所望の表示画像を投影させる。   The vehicle ECU 300 is an ECU (Electronic Control Unit) that comprehensively controls the host vehicle 2, and is displayed on the HUD device 100 based on signals output from various sensors (not shown) mounted on the host vehicle 2. By determining a display image to be displayed and outputting instruction data of the display image to a display controller 400 described later, the display controller 400 causes the HUD device 100 to project a desired display image.

表示コントローラ400は、HUD装置100における後述する第1投影手段10、第2投影手段20、アクチュエータ30aの動作を制御し、フロントガラス2aの所定の位置に第1表示光N1及び第2表示光N2を投影させるものであり、CPU(Central Processing Unit)やメモリなどを備える回路で構成されるECUであり、入出力部401と、表示制御手段402と、画像メモリ403、記憶部404とを含み、HUD装置100、情報取得部200及び車両ECU300とCAN(Controller Area Network)バス通信等により信号の伝達を行う。   The display controller 400 controls the operation of first projection means 10, second projection means 20, and actuator 30a, which will be described later, in the HUD device 100, and the first display light N1 and the second display light N2 are placed at predetermined positions on the windshield 2a. Is an ECU composed of a circuit including a CPU (Central Processing Unit) and a memory, and includes an input / output unit 401, a display control unit 402, an image memory 403, and a storage unit 404. The HUD device 100, the information acquisition unit 200, and the vehicle ECU 300 communicate signals with a CAN (Controller Area Network) bus communication or the like.

入出力部401は、情報取得部200及び車両ECU300と通信可能に接続され、情報取得部200から自車両2の車外における特定対象の有無や特定対象の種類や位置などを示す車外状況情報、自車両2の速度などの挙動を示す車両挙動情報、自車両2と車外の特定対象との距離を示す距離情報などを入力する。   The input / output unit 401 is communicably connected to the information acquisition unit 200 and the vehicle ECU 300. The information acquisition unit 200 communicates from the information acquisition unit 200 the presence / absence of a specific target outside the host vehicle 2, the type / position of the specific target, etc. The vehicle behavior information indicating the behavior such as the speed of the vehicle 2 and the distance information indicating the distance between the host vehicle 2 and the specific target outside the vehicle are input.

表示制御手段402は、情報取得部200から入力される車外状況情報に基づき、画像メモリ403から画像データを読み出し、第1投影手段10に表示させる重畳画像J1,代替画像J3と、第2投影手段20に表示させる近傍画像J2とを生成し、HUD装置100(第1投影手段10及び第2投影手段20)に出力する。   The display control unit 402 reads out the image data from the image memory 403 based on the vehicle exterior situation information input from the information acquisition unit 200 and displays the superimposed image J1, the substitute image J3 to be displayed on the first projection unit 10, and the second projection unit. 20 is generated and output to the HUD device 100 (first projection unit 10 and second projection unit 20).

表示制御手段402は、後述する第1表示手段11や第2表示手段21が有する表示素子11aやこの表示素子11aを照明する光源11bを駆動するドライバーなどを含み、第1表示手段11に重畳画像J1を表示させ、第2表示手段21に近傍画像J2を表示させるものである。
表示制御手段402は、第1表示手段11や第2表示手段21の表示素子11aや光源11bを制御することにより、重畳画像J1(第1の虚像V1)及び近傍画像J2(第2の虚像V2)の輝度や明度を調整することができ、これにより第1の虚像V1及び第2の虚像V2の視認性を調整することができる。これら画像の視認性(輝度、明度)は、従来の車両情報投影システムにおいては、図示しない照度センサから入力される乗員3の周辺の照度情報や、図示しない調整スイッチからの操作信号に基づき調整されるのみであるが、本発明の車両情報投影システム1に係る表示制御手段402は、後述する『画像位置調整処理』において、自車両2の挙動が大きいと判定した場合、特定対象に対応する重畳画像J1の輝度や明度を低下(非表示も含む)させ、自車両2から一定距離以内にある特定対象に対応する重畳画像J1を表示態様の異なる代替画像J3に表示切り替えさせる。
The display control unit 402 includes a display element 11a included in the first display unit 11 and the second display unit 21 described later, a driver that drives a light source 11b that illuminates the display element 11a, and the like. J1 is displayed, and the vicinity image J2 is displayed on the second display means 21.
The display control unit 402 controls the display element 11a and the light source 11b of the first display unit 11 and the second display unit 21 to thereby superimpose an image J1 (first virtual image V1) and a neighboring image J2 (second virtual image V2). ) Can be adjusted, and thereby the visibility of the first virtual image V1 and the second virtual image V2 can be adjusted. In the conventional vehicle information projection system, the visibility (luminance, brightness) of these images is adjusted based on illuminance information around the occupant 3 input from an illuminance sensor (not shown) and an operation signal from an adjustment switch (not shown). However, when the display control means 402 according to the vehicle information projection system 1 of the present invention determines that the behavior of the host vehicle 2 is large in “image position adjustment processing” to be described later, the superimposition corresponding to the specific target is performed. The brightness and brightness of the image J1 are reduced (including non-display), and the superimposed image J1 corresponding to the specific target within a certain distance from the host vehicle 2 is switched to the alternative image J3 having a different display mode.

ちなみに、重畳画像J1の生成において、表示制御手段402は、前方情報取得部201から入力される道路形状に関する情報、道路上の物体に関する情報、及び撮像された特定対象との距離に関する情報から、表示形態や表示する位置を決定し、実景の特定対象(経路誘導する分岐路,車線Wa,前方車両Wcや障害物Wc)に対応する位置に第1の虚像V1が視認されるように重畳画像J1を生成する。表示制御手段402は、具体的に例えば、ナビゲーションシステム202から入力される案内経路に関する情報に基づく自車両2の経路誘導をする案内経路画像J1a,前方情報取得部201から入力される車両前方情報に基づく車線の存在を認識させる白線認識画像J1b,及び前方車両Wcまたは障害物に対する注意を促す衝突警告画像J1cなどを生成し、これら生成した重畳画像J1を第1投影手段10に出力し、情報取得部200または車両ECU300から入力される情報に基づき、速度情報など自車両2の運行状態に関する運行状態画像J2a,制限速度などの規制情報に関する規制画像J2bなどを生成し、これら生成した近傍画像J2を表示制御手段402に出力する。   Incidentally, in the generation of the superimposed image J1, the display control unit 402 displays the information from the information on the road shape input from the front information acquisition unit 201, the information on the object on the road, and the information on the distance to the captured specific target. The form and the position to be displayed are determined, and the superimposed image J1 so that the first virtual image V1 is visually recognized at the position corresponding to the specific target of the real scene (the branch road for guiding the route, the lane Wa, the forward vehicle Wc, and the obstacle Wc). Is generated. Specifically, the display control unit 402 includes, for example, a guide route image J1a for guiding the route of the host vehicle 2 based on information on the guide route input from the navigation system 202, and the vehicle forward information input from the forward information acquisition unit 201. A white line recognition image J1b for recognizing the presence of a lane based on it, a collision warning image J1c for calling attention to the preceding vehicle Wc or an obstacle, and the like are generated, and the generated superimposed image J1 is output to the first projection means 10 to obtain information. Based on information input from the unit 200 or the vehicle ECU 300, an operation state image J2a relating to the operation state of the host vehicle 2 such as speed information, a restriction image J2b relating to restriction information such as a speed limit, and the like are generated. It outputs to the display control means 402.

また、表示制御手段402は、自車両2の挙動を推定し、この自車両2の挙動に基づき、第1の虚像V1が乗員3によって視認される位置、視認性、表示態様を調整する。以下に、図4の動作フローに基づき、本実施形態における『画像位置補正処理』について説明する。   Further, the display control unit 402 estimates the behavior of the host vehicle 2 and adjusts the position, visibility, and display mode of the first virtual image V1 viewed by the occupant 3 based on the behavior of the host vehicle 2. The “image position correction process” in the present embodiment will be described below based on the operation flow of FIG.

表示制御手段402は、まず、ステップS10において、所定時間毎に情報取得部200(車速センサ204)から速度情報(車両挙動情報)を入力し、この速度情報の時間変化から自車両2の加速度Aを算出する(ステップS20)。   First, in step S10, the display control unit 402 inputs speed information (vehicle behavior information) from the information acquisition unit 200 (vehicle speed sensor 204) at predetermined time intervals, and the acceleration A of the host vehicle 2 is determined from the time change of the speed information. Is calculated (step S20).

次に、表示制御手段402は、ステップS20において算出した加速度Aと予め記憶部404に記憶しておいた閾値Athとを比較する(ステップS30)。そして、加速度Aが閾値Ath以下の場合(ステップS30でYES)、表示制御手段402は、ステップS40において、記憶部404に予め記憶させておいた第1の画像位置補正テーブルデータのうちステップS20で算出した加速度Aに対応した位置補正量Dを読み出し、この位置補正量Dに基づき後述する第1投影手段10が表示する重畳画像J1(第1の虚像V1)の位置を調整して表示する(ステップS50)。このように、車両用計器の速度検出部として搭載される車速センサ204からの速度情報に基づき加速度Aを求め、この加速度Aから重畳画像J1(第1の虚像V1)の位置を調整する位置補正量Dを求めて、位置を調整することができるので、専用の検出センサを追加することなく、第1の虚像V1の位置を調整することができる。   Next, the display control unit 402 compares the acceleration A calculated in step S20 with the threshold value Ath stored in advance in the storage unit 404 (step S30). If the acceleration A is less than or equal to the threshold Ath (YES in step S30), the display control unit 402 in step S20 of the first image position correction table data stored in advance in the storage unit 404 in step S40. A position correction amount D corresponding to the calculated acceleration A is read, and the position of a superimposed image J1 (first virtual image V1) displayed by the first projection means 10 described later is adjusted and displayed based on the position correction amount D ( Step S50). Thus, the position correction which calculates | requires the acceleration A based on the speed information from the vehicle speed sensor 204 mounted as a speed detection part of a vehicle meter, and adjusts the position of the superimposed image J1 (first virtual image V1) from this acceleration A. Since the amount D can be obtained and the position can be adjusted, the position of the first virtual image V1 can be adjusted without adding a dedicated detection sensor.

また、加速度Aが閾値Athより大きい場合(ステップS30でNOの場合)、表示制御手段402は、ステップS60において、特定対象に対応する重畳画像J1(第1の虚像V1)を非表示(視認性低下も含む)に設定する。そして、表示制御手段402は、ステップS70において、代替画像J3の表示が必要かどうか判定する。具体的には、表示制御手段402は、危険度が高い衝突警告画像J1cに関する代替画像J3を必要と判定する。   If the acceleration A is greater than the threshold value Ath (NO in step S30), the display control unit 402 does not display the superimposed image J1 (first virtual image V1) corresponding to the specific target in step S60 (visibility). (Including decline). Then, in step S70, the display control unit 402 determines whether it is necessary to display the substitute image J3. Specifically, the display control unit 402 determines that the substitute image J3 related to the collision warning image J1c having a high degree of danger is necessary.

代替画像J3が必要である場合(ステップS70においてYES)、表示制御手段402は、代替画像J3の画像データを生成する。代替画像J3は、図5(b)に示すような矢印形状の画像であり、この矢印の指示方向は、第1の表示領域E1に対して特定対象(前方車両Wc)が相対的に移動した方向である。すなわち、自車両2が急加速して自車両2が後傾し、特定対象が第1の表示領域E1に対して下側(Y軸のマイナス方向)にずれてしまった場合、代替画像J3は、前方車両Wcがある下側(Y軸のマイナス方向)を指示するように生成される。   When the substitute image J3 is necessary (YES in step S70), the display control unit 402 generates image data of the substitute image J3. The substitute image J3 is an arrow-shaped image as shown in FIG. 5B, and the specified direction (the forward vehicle Wc) is moved relative to the first display area E1 in the direction indicated by the arrow. Direction. That is, when the host vehicle 2 accelerates rapidly and the host vehicle 2 tilts backward, and the specific target is shifted downward (in the negative direction of the Y axis) with respect to the first display area E1, the substitute image J3 is The forward vehicle Wc is generated so as to indicate the lower side (the negative direction of the Y axis).

その後、第1表示手段11は、表示制御手段402の制御のもと、ステップS50において、それまで表示されていた重畳画像J1を消去し、必要とされる代替画像J3を表示する。   Thereafter, under the control of the display control unit 402, the first display unit 11 deletes the superimposed image J1 that has been displayed so far, and displays the necessary substitute image J3.

また、表示制御手段402は、ステップS50において、重畳画像J1の位置調整が行われる場合、または、重畳画像J1が非表示にされる場合、または、代替画像J3が表示される場合のいずれの場合においても、実景の特定対象に対応した位置に第1の虚像V1として視認される重畳画像J1以外の近傍画像J2(運行状態映像J2a、規制画像J2bなど)は、表示を継続する。斯かる構成により、自車両2の姿勢が変化した場合においても特定の領域内(近傍表示領域E2内)で自車両2が情報を認識しつづけることができる。さらに、表示制御手段402は、自車両2の車両姿勢に応じて、特定対象が近傍画像J2と重なって視認されるおそれがある場合、ステップS50で近傍画像J2の表示位置を近傍表示領域E2内で移動させてもよい。   In addition, the display control unit 402 performs any of the cases where the position adjustment of the superimposed image J1 is performed in step S50, the superimposed image J1 is not displayed, or the substitute image J3 is displayed. In FIG. 5, the vicinity image J2 (operation state image J2a, regulation image J2b, etc.) other than the superimposed image J1 visually recognized as the first virtual image V1 at the position corresponding to the specific target of the real scene continues to be displayed. With such a configuration, even when the posture of the host vehicle 2 changes, the host vehicle 2 can continue to recognize information within a specific region (in the vicinity display region E2). Furthermore, if there is a possibility that the specific target may be visually recognized by overlapping the vicinity image J2 according to the vehicle posture of the host vehicle 2, the display control unit 402 determines the display position of the vicinity image J2 in the vicinity display area E2 in step S50. You may move it with.

以上の画像位置補正処理の一具体例を、図5を用いて説明する。図5(a)は、自車両2の車両姿勢が通常状態である場合の乗員3が視認する景色を示しており、図5(b)は、自車両2の車両姿勢が急加速などで後傾になり、画像位置補正処理が実行された場合の乗員3が視認する景色を示している。図5(a)に示す通常状態では、白線Wbを示す白線認識画像J1b、及び前方車両Wcを示す衝突警告画像J1cが第1の虚像V1として視認され、運行状態画像J2a及び規制画像J2bが第2の虚像V2として視認される。自車両2が急加速して自車両2が後傾し、特定対象が第1の表示領域E1に対して下側(Y軸のマイナス方向)にずれてしまった場合、代替画像J3は、図5(b)に示すように、前方車両Wcがある下側(Y軸のマイナス方向)を指示するように表示され、白線Wbを示す白線認識画像J1b、及び前方車両Wcを示す衝突警告画像J1cは非表示となり、運行状態画像J2a及び規制画像J2bは表示を継続する。なお、運行状態画像J2aは、自車両2の姿勢変化により、特定対象が第1の表示領域E1に対して下側(近傍表示領域E2側)にずれてしまうことにより、前方車両Wcと重なって視認される恐れがあるため、表示位置が移動される。   A specific example of the above image position correction processing will be described with reference to FIG. FIG. 5A shows a scene that the occupant 3 visually recognizes when the vehicle posture of the host vehicle 2 is in a normal state. FIG. 5B shows a rear view of the host vehicle 2 due to sudden acceleration or the like. Inclined and shows the scenery that the occupant 3 visually recognizes when the image position correction process is executed. In the normal state shown in FIG. 5A, the white line recognition image J1b indicating the white line Wb and the collision warning image J1c indicating the preceding vehicle Wc are visually recognized as the first virtual image V1, and the operation state image J2a and the regulation image J2b are the first. It is visually recognized as a virtual image V2. When the own vehicle 2 suddenly accelerates and the own vehicle 2 tilts backward, and the specific target is shifted downward (in the negative direction of the Y axis) with respect to the first display area E1, the substitute image J3 is shown in FIG. As shown in FIG. 5B, the front vehicle Wc is displayed so as to indicate a certain lower side (the negative direction of the Y axis), and the white line recognition image J1b indicating the white line Wb and the collision warning image J1c indicating the front vehicle Wc. Is not displayed, and the operation state image J2a and the regulation image J2b are continuously displayed. Note that the operation state image J2a overlaps with the preceding vehicle Wc due to the specific target being shifted downward (the vicinity display area E2 side) with respect to the first display area E1 due to the attitude change of the host vehicle 2. Since there is a possibility of being visually recognized, the display position is moved.

以上が、本実施の形態に係る車両情報投影システム1のシステム構成であり、これより、本実施形態のHUD装置100の構成の一例を図6,7を用いて説明する。図6は、本実施形態におけるHUD装置100のXZ平面における概略断面図であり、図7は、本実施形態におけるHUD装置100のYZ平面における概略断面図である。   The system configuration of the vehicle information projection system 1 according to the present embodiment has been described above, and an example of the configuration of the HUD device 100 according to the present embodiment will be described with reference to FIGS. FIG. 6 is a schematic cross-sectional view in the XZ plane of the HUD device 100 in the present embodiment, and FIG. 7 is a schematic cross-sectional view in the YZ plane of the HUD device 100 in the present embodiment.

本実施形態におけるHUD装置100は、上述したように、第1の虚像V1に係る第1表示光N1をフロントガラス2aの遠方表示領域(第1の表示領域)E1に投影する第1投影手段10と、第2の虚像V2に係る第2表示光N2をフロントガラス2aの近傍表示領域(第2の表示領域)E2に投影する第2投影手段20と、第1表示光N1及び第2表示光N2をフロントガラス2aに向ける凹面鏡30と、筐体40と、を備える。   As described above, the HUD device 100 according to the present embodiment projects the first display light N1 related to the first virtual image V1 onto the far display area (first display area) E1 of the windshield 2a. And second projection means 20 for projecting the second display light N2 related to the second virtual image V2 onto the vicinity display area (second display area) E2 of the windshield 2a, the first display light N1 and the second display light. A concave mirror 30 that directs N2 toward the windshield 2a and a housing 40 are provided.

第1投影手段10は、図6に示すように、重畳画像J1を表示面に表示する第1表示手段11、折り返しミラー12、コリメートレンズ13、平行ミラー14と、を備え、重畳画像J1を示す第1表示光N1を後述する凹面鏡30に向けて出射し、この凹面鏡30により第1表示光N1がフロントガラス2aの所定の領域に投影(反射)され、フロントガラス2aの遠方表示領域E1において、第1の虚像V1を乗員3に視認させるものである。   As shown in FIG. 6, the first projection unit 10 includes a first display unit 11 that displays a superimposed image J1 on a display surface, a folding mirror 12, a collimator lens 13, and a parallel mirror 14, and shows a superimposed image J1. The first display light N1 is emitted toward a concave mirror 30 to be described later, and the first display light N1 is projected (reflected) on a predetermined area of the windshield 2a by the concave mirror 30, and in the far display area E1 of the windshield 2a, The first virtual image V1 is visually recognized by the occupant 3.

第1表示手段11は、液晶ディスプレイ(LCD)などから構成される表示素子11aと、この表示素子11aを背面から照明する光源11bなどから構成されており、表示コントローラ400から出力される信号に基づき、所望の重畳画像J1を表示素子11aの表示面に表示するものである。なお、第1表示手段11は、透過型のLCDではなく、自発光型の有機ELディスプレイや、反射型のDMD(Digital Micromirror Device)、反射型及び透過型のLCOS(登録商標:Liquid Crystal On Silicon)等で構成されてもよい。   The first display means 11 includes a display element 11 a configured from a liquid crystal display (LCD) and the like, a light source 11 b that illuminates the display element 11 a from the back, and the like, and is based on a signal output from the display controller 400. The desired superimposed image J1 is displayed on the display surface of the display element 11a. The first display unit 11 is not a transmissive LCD, but a self-luminous organic EL display, a reflective DMD (Digital Micromirror Device), a reflective and transmissive LCOS (registered trademark: Liquid Crystal On Silicon). ) Or the like.

第1投影手段10において、第1表示手段11が表示する表示画像J(重畳画像J1または代替画像J3)を示す画像光Lは、折り返しミラー12によって反射され、コリメートレンズ13に入射する。画像光Lはコリメートレンズ13によって、平行化される(コリメートレンズ13が平行光Mを出射する)。コリメートレンズ13から出射した平行光Mは、平行ミラー14に入射する。平行ミラー14のうち、一方の反射面は、入射した光の一部を反射し一部を第1表示光N1として透過する半透過ミラー14aであり、もう一方の反射面は反射のみをする反射ミラー14bである。平行ミラー14に入射した平行光Mは、平行ミラー14内で反射を繰り返しつつ、一部の平行光Mは平行ミラー14から複数の第1表示光N1として出射する(半透過ミラー14aを複数の第1表示光N1が透過する)。第1表示光N1は、コリメートレンズ13により、平行化された光なので、第1表示光N1を乗員3が両眼で視認することにより、第1表示手段11が表示した重畳画像J1は、乗員3から遠方にあるように視認される(第1の虚像V1)。本実施形態における第1投影手段10においては、このコリメートレンズ13から出射される平行光Mを平行ミラー14間で複数回反射させることで、第1表示光N1をX軸方向に複製して出射させることができるので、乗員3の両眼がX軸方向に移動しても広範囲で第1の虚像V1を視認することができる。   In the first projection unit 10, the image light L indicating the display image J (superimposed image J1 or alternative image J3) displayed by the first display unit 11 is reflected by the folding mirror 12 and enters the collimating lens 13. The image light L is collimated by the collimating lens 13 (the collimating lens 13 emits the parallel light M). The parallel light M emitted from the collimating lens 13 enters the parallel mirror 14. Among the parallel mirrors 14, one reflecting surface is a semi-transmissive mirror 14a that reflects a part of incident light and transmits a part thereof as the first display light N1, and the other reflecting surface reflects only to reflect. This is a mirror 14b. While the parallel light M incident on the parallel mirror 14 is repeatedly reflected in the parallel mirror 14, a part of the parallel light M is emitted from the parallel mirror 14 as a plurality of first display lights N1 (a plurality of semi-transparent mirrors 14a are connected to the plurality of mirrors). The first display light N1 is transmitted). Since the first display light N1 is collimated by the collimator lens 13, the superimposed image J1 displayed by the first display unit 11 when the occupant 3 visually recognizes the first display light N1 with both eyes It is visually recognized as being far from 3 (first virtual image V1). In the first projection means 10 in the present embodiment, the parallel light M emitted from the collimating lens 13 is reflected a plurality of times between the parallel mirrors 14 to duplicate and emit the first display light N1 in the X-axis direction. Therefore, even if both eyes of the occupant 3 move in the X-axis direction, the first virtual image V1 can be visually recognized over a wide range.

第2投影手段20は、表示コントローラ400から入力される信号に基づき、表示画像J(近傍画像J2)を表示する第2表示手段21を有する。この第2表示手段21は、図7に示すように、後述する筐体40の開口40bから、近傍画像J2を示す第2表示光N2を後述する凹面鏡30に向けて出射し、この凹面鏡30により第2表示光N2がフロントガラス2aの所定の領域に投影(反射)され、フロントガラス2aの近傍表示領域E2において、第2の虚像V2を乗員3に視認させるものである。   The second projection unit 20 includes a second display unit 21 that displays a display image J (neighboring image J2) based on a signal input from the display controller 400. As shown in FIG. 7, the second display unit 21 emits second display light N <b> 2 indicating the neighborhood image J <b> 2 toward the concave mirror 30 described later from an opening 40 b of the casing 40 described later. The second display light N2 is projected (reflected) on a predetermined area of the windshield 2a, and causes the occupant 3 to visually recognize the second virtual image V2 in the vicinity display area E2 of the windshield 2a.

凹面鏡30は、例えば合成樹脂材料からなる基材の表面に、蒸着等の手段により反射膜を形成したものであり、第1投影手段10から出射される第1表示光N1と、第2投影手段20から出射される第2表示光N2と、をフロントガラス2aに向けて反射する。凹面鏡30で反射した第1表示光N1(第2表示光N2)は、筐体40の透過部40aを透過して、フロントガラス2aに向かう。フロントガラス2aに到達し、反射された第1表示光N1(第2表示光N2)は、フロントガラス2aの前方位置の遠方表示領域E1に重畳画像J1に係る第1の虚像V1を表示し、近傍表示領域E2に近傍画像J2に係る第2の虚像V2を表示する。これにより、HUD装置100は、第1の虚像V1(第2の虚像V2)と、フロントガラス2aの前方に実際に存在する外景(特定対象を含む)等の双方を、乗員3に視認させることができる。なお、凹面鏡30は拡大鏡としての機能を有し、第1表示手段11(第2表示手段21)に表示された重畳画像J1(近傍画像J2)を拡大してフロントガラス2a側へ反射する。すなわち、乗員3に視認される第1の虚像V1(第2の虚像V2)は第1表示手段11(第2表示手段21)が表示する重畳画像J1(近傍画像J2)が拡大した像である。   The concave mirror 30 is obtained by forming a reflective film on the surface of a base material made of, for example, a synthetic resin material by means such as vapor deposition. The first display light N1 emitted from the first projection means 10 and the second projection means The second display light N2 emitted from 20 is reflected toward the windshield 2a. The first display light N1 (second display light N2) reflected by the concave mirror 30 passes through the transmission part 40a of the housing 40 and travels toward the windshield 2a. The first display light N1 (second display light N2) reflected by reaching the windshield 2a displays the first virtual image V1 related to the superimposed image J1 in the far display area E1 at the front position of the windshield 2a. The second virtual image V2 related to the neighborhood image J2 is displayed in the neighborhood display area E2. Thereby, the HUD device 100 causes the occupant 3 to visually recognize both the first virtual image V1 (second virtual image V2) and the outside scene (including the specific target) that actually exists in front of the windshield 2a. Can do. The concave mirror 30 has a function as a magnifying mirror, enlarges the superimposed image J1 (neighboring image J2) displayed on the first display means 11 (second display means 21), and reflects it to the windshield 2a side. That is, the first virtual image V1 (second virtual image V2) visually recognized by the occupant 3 is an enlarged image of the superimposed image J1 (neighboring image J2) displayed by the first display unit 11 (second display unit 21). .

筐体40は、第1投影手段10、第2投影手段20、凹面鏡30を収納するものであり、それぞれを位置決め固定する。筐体40は、凹面鏡30が反射する第1表示光N1と第2表示光N2とをフロントガラス2aに出射するための透過部40aを有する。また、筐体40は、第2投影手段20が出射する第1表示光N1を凹面鏡30側へ透過する開口40bを有する。   The housing 40 houses the first projecting means 10, the second projecting means 20, and the concave mirror 30, and positions and fixes each of them. The housing 40 includes a transmission portion 40a for emitting the first display light N1 and the second display light N2 reflected by the concave mirror 30 to the windshield 2a. The housing 40 also has an opening 40b that transmits the first display light N1 emitted from the second projection unit 20 to the concave mirror 30 side.

以上が、本実施形態におけるHUD装置100の構成であるが、本発明の車両情報投影システム1に用いられるHUD装置(投影装置)は、上記の例に限られない。上記実施形態において、第1投影手段10により形成される第1の虚像V1は、第1表示手段11に表示される表示画像Jの画像光Lがコリメートレンズ13により平行光Mとされることで、第2投影手段20により形成される第2の虚像V2より遠方に視認されるものであったが、第1投影手段10は、コリメートレンズ13による遠方表示の手法を用いなくてもよく、第1表示手段11が出射する画像光Lがフロントガラス2aに到達するまでの光路長を、第2表示手段21が出射する画像光Lがフロントガラス2aに到達するまでの光路長より長くすることで、第1の虚像V1と第2の虚像V2とが視認される距離に差を設けてもよい。なお、HUD装置100は、上記実施形態の構成以外の公知の技術および投影装置を適用して構成されてもよい。   The above is the configuration of the HUD device 100 in the present embodiment, but the HUD device (projection device) used in the vehicle information projection system 1 of the present invention is not limited to the above example. In the above embodiment, the first virtual image V <b> 1 formed by the first projection unit 10 is obtained by converting the image light L of the display image J displayed on the first display unit 11 into the parallel light M by the collimator lens 13. The first projection unit 10 does not need to use a method of distant display by the collimating lens 13, although it is visible farther than the second virtual image V <b> 2 formed by the second projection unit 20. By making the optical path length until the image light L emitted from the first display means 11 reaches the windshield 2a longer than the optical path length until the image light L emitted from the second display means 21 reaches the windshield 2a. A difference may be provided in the distance at which the first virtual image V1 and the second virtual image V2 are visually recognized. The HUD device 100 may be configured by applying a known technique and a projection device other than the configuration of the above-described embodiment.

また、上記実施形態においては、第1の虚像V1の結像距離が第2の虚像V2の結像距離が長く設定されていたが、これに限らず、第1の虚像V1の結像距離が第2の虚像V2の結像距離とは、略同等であってもよい。また、この場合、第1の表示領域E1に表示される第1の虚像V1に関わる重畳画像J1と、第2の表示領域E2に表示される第2の虚像V2に関わる近傍画像J2とを共通の表示手段(例えば、上記実施形態における第2投影手段20のみ)で生成してもよい。   In the above embodiment, the imaging distance of the first virtual image V1 is set to be longer than the imaging distance of the second virtual image V2. However, this is not limiting, and the imaging distance of the first virtual image V1 is not limited to this. The imaging distance of the second virtual image V2 may be substantially equal. In this case, the superimposed image J1 related to the first virtual image V1 displayed in the first display area E1 and the neighboring image J2 related to the second virtual image V2 displayed in the second display area E2 are shared. The display means (for example, only the second projection means 20 in the above embodiment) may be used.

また、投影対象は、自車両2のフロントガラス2aに限定されず、板状のハーフミラー、ホログラム素子等により構成されているコンバイナであってもよい。   The projection target is not limited to the windshield 2a of the host vehicle 2, and may be a combiner configured by a plate-shaped half mirror, a hologram element, or the like.

また、第1の虚像V1と第2の虚像V2が同一の投影対象上に投影されていなくてもよく、一方はフロントガラス2aに投影され、他方は、上記コンバイナに投影されるように構成してもよい。   Further, the first virtual image V1 and the second virtual image V2 do not have to be projected on the same projection target, one is projected onto the windshield 2a, and the other is projected onto the combiner. May be.

以上説明したように、第一実施形態における車両情報投影システム1は、自車両2の外にある特定対象の位置を推定する情報取得部200(前方情報取得部201,ナビゲーションシステム202,GPSコントローラ203)と、特定対象に関する重畳画像J1(近傍画像J2)を生成する第1表示手段11(第2表示手段21)と、第1表示手段11(第2表示手段21)が生成した表示画像を自車両2の乗員3前方のフロントガラス2aに向ける凹面鏡30と、情報取得部200により推定された特定対象の位置に応じて、表示画像が投影される位置を、凹面鏡30を駆動することで調整するアクチュエータ30aと、を具備したHUD装置100と、自車両2の挙動を検出する情報取得部200(車速センサ204)と、を備え、情報取得部200にて検出した車速から加速度を算出し、この加速度から自車両2の挙動を推定し、この自車両2の挙動に基づき、重畳画像J1(近傍画像J2)を異なる表示画像に変更するものであり、このように、車両姿勢の変化により、乗員3が視認する第1の虚像V1と特定対象との相対位置が、特定の位置関係からずれてしまう場合、通常表示画像(重畳画像J1)とは異なる形状の代替画像J3表示することができるため、乗員3が第1の虚像V1の位置ずれを認識することを防止することができ、乗員3に第1の虚像V1の位置ずれによる違和感を与えない商品性のあるヘッドアップディスプレイ装置を提供できる。   As described above, the vehicle information projection system 1 according to the first embodiment has the information acquisition unit 200 (the front information acquisition unit 201, the navigation system 202, the GPS controller 203) that estimates the position of a specific target outside the host vehicle 2. ), And the display image generated by the first display means 11 (second display means 21) and the first display means 11 (second display means 21) for generating the superimposed image J1 (neighboring image J2) related to the specific object. The position where the display image is projected is adjusted by driving the concave mirror 30 according to the concave mirror 30 facing the windshield 2a in front of the occupant 3 of the vehicle 2 and the position of the specific target estimated by the information acquisition unit 200. An HUD device 100 including an actuator 30a, and an information acquisition unit 200 (vehicle speed sensor 204) that detects the behavior of the host vehicle 2, The acceleration is calculated from the vehicle speed detected by the acquisition unit 200, the behavior of the host vehicle 2 is estimated from the acceleration, and the superimposed image J1 (the neighborhood image J2) is changed to a different display image based on the behavior of the host vehicle 2. Thus, when the relative position between the first virtual image V1 visually recognized by the occupant 3 and the specific target deviates from the specific positional relationship due to the change in the vehicle posture, the normal display image (superimposed image J1) ) Can be displayed, so that it is possible to prevent the occupant 3 from recognizing the displacement of the first virtual image V1, and the occupant 3 is caused by the displacement of the first virtual image V1. It is possible to provide a head-up display device with merchantability that does not give an uncomfortable feeling.

なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。以下に変形例の一例を示す。   In addition, this invention is not limited by the above embodiment and drawing. Changes (including deletion of components) can be made as appropriate without departing from the scope of the present invention. An example of a modification is shown below.

(第二実施形態)
上記実施形態においては、自車両2の挙動を、車速センサ204の車速情報から自車両2の加速度を求めることにより推定していたが、これに限らず、ステレオカメラ201aにて撮像される特定対象の位置の時間推移に基づき、自車両2の挙動を推定してもよい。具体的には、図8の動作フローに基づき『画像位置調整処理』を行う。
(Second embodiment)
In the above embodiment, the behavior of the host vehicle 2 is estimated by obtaining the acceleration of the host vehicle 2 from the vehicle speed information of the vehicle speed sensor 204. However, the present invention is not limited to this, and the specific target imaged by the stereo camera 201a. The behavior of the host vehicle 2 may be estimated based on the time transition of the position. Specifically, “image position adjustment processing” is performed based on the operation flow of FIG.

表示制御手段402は、まず、ステップS10aにおいて、所定時間毎に前方情報取得部201(ステレオカメラ201a)から特定対象の位置情報(車両挙動情報)を入力し、この位置情報の時間変化から特定対象の移動量Cを算出する(ステップS20a)。なお、特定対象の移動量Cは、Y軸方向の移動量であり、ステレオカメラ201aの撮像方向における上下方向の移動量であり、この特定対象の移動量Cから自車両2のY軸方向の傾きを推定することができる。   First, in step S10a, the display control unit 402 inputs position information (vehicle behavior information) of a specific target from the front information acquisition unit 201 (stereo camera 201a) at predetermined time intervals, and the specific target is determined from the time change of the position information. Is calculated (step S20a). The movement amount C of the specific target is a movement amount in the Y-axis direction, and is a vertical movement amount in the imaging direction of the stereo camera 201a. From the movement amount C of the specific target in the Y-axis direction of the host vehicle 2 The slope can be estimated.

次に、表示制御手段402は、ステップS20aにおいて算出した移動量Cと予め記憶部404に記憶しておいた閾値Cthとを比較する(ステップS30a)。そして、移動量Cが閾値Cth以下の場合(ステップS30aでYES)、表示制御手段402は、ステップS40aにおいて、記憶部404に予め記憶させておいた第1の画像位置補正テーブルデータのうちステップS30aで算出した移動量Cに対応した位置補正量Dを読み出し、この位置補正量Dに基づき後述する第1投影手段10が表示する重畳画像J1(第1の虚像V1)の位置を調整して表示する(ステップS50a)。このように、ステレオカメラ201aが撮像する特定対象の位置ずれに基づき、第1の虚像V1の位置を補正することにより、正確に第1の虚像V1の位置を補正することができる。   Next, the display control unit 402 compares the movement amount C calculated in step S20a with the threshold value Cth stored in the storage unit 404 in advance (step S30a). When the movement amount C is equal to or less than the threshold Cth (YES in step S30a), the display control unit 402 performs step S30a of the first image position correction table data stored in advance in the storage unit 404 in step S40a. The position correction amount D corresponding to the movement amount C calculated in step 1 is read out, and the position of the superimposed image J1 (first virtual image V1) displayed by the first projection means 10 described later is adjusted and displayed based on the position correction amount D. (Step S50a). As described above, the position of the first virtual image V1 can be accurately corrected by correcting the position of the first virtual image V1 based on the positional shift of the specific target imaged by the stereo camera 201a.

また、移動量Cが閾値Cthより大きい場合(ステップS30aでNO)、表示制御手段402は、ステップS60aにおいて、特定対象に対応する第1の虚像V1を非表示(視認性低下も含む)に設定する。そして、表示制御手段402は、ステップS70aにおいて、代替画像J3の表示が必要かどうか判定する。   When the movement amount C is greater than the threshold Cth (NO in step S30a), the display control unit 402 sets the first virtual image V1 corresponding to the specific target to be hidden (including a decrease in visibility) in step S60a. To do. Then, in step S70a, the display control unit 402 determines whether it is necessary to display the substitute image J3.

代替画像J3が必要である場合(ステップS70aにおいてYES)、表示制御手段402は、代替画像J3の画像データを生成する。   When the substitute image J3 is necessary (YES in step S70a), the display control unit 402 generates image data of the substitute image J3.

その後、第1表示手段11は、表示制御手段402の制御のもと、ステップS50aにおいて、それまで表示されていた重畳画像J1(第1の虚像V1)を消去し、必要とされる代替画像J3を表示する。   Thereafter, under the control of the display control unit 402, the first display unit 11 deletes the superimposed image J1 (first virtual image V1) that has been displayed so far in step S50a, and the necessary substitute image J3. Is displayed.

なお、上記実施形態において、車両挙動に基づいて反射型の光学部材である凹面鏡(リレー光学系)30を回転させることで、重畳画像J1(第1の虚像V1)が投影される位置を調整していたが、これに限られず、第1投影手段10から出射される第1表示光N1を、レンズなどの屈折型の光学部材を回転および/または移動させることで、重畳画像J1(第1の虚像V1)が投影される位置を調整するものであってもよい。   In the above embodiment, the position at which the superimposed image J1 (first virtual image V1) is projected is adjusted by rotating the concave mirror (relay optical system) 30, which is a reflective optical member, based on the vehicle behavior. However, the present invention is not limited to this, and the first display light N1 emitted from the first projection unit 10 is rotated and / or moved by a refractive optical member such as a lens, so that the superimposed image J1 (first The position where the virtual image V1) is projected may be adjusted.

また、上記実施形態のHUD装置100において、第1投影手段10が出射する第1表示光N1と、第2投影手段20が出射する第2表示光N2とを、共通の凹面鏡(リレー光学系)30により、フロントガラス2aの方向へ向けて出射させていたが、別々のリレー光学系により、第1表示光N1と第2表示光N2とをフロントガラス2aに向けて出射させてもよい。   In the HUD device 100 of the above embodiment, the first display light N1 emitted from the first projection means 10 and the second display light N2 emitted from the second projection means 20 are shared by a concave mirror (relay optical system). However, the first display light N1 and the second display light N2 may be emitted toward the windshield 2a by separate relay optical systems.

また、上記実施形態のHUD装置100は、第1投影手段10及び第2投影手段20の投影手段を複数有していたが、第2投影手段20を省略してもよい。   Moreover, although the HUD apparatus 100 of the said embodiment had multiple projection means of the 1st projection means 10 and the 2nd projection means 20, you may abbreviate | omit the 2nd projection means 20. FIG.

また、表示コントローラ400は、上述した以外に、ジャイロセンサ、サスストロークセンサ、ブレーキペダルセンサ、アクセルペダルセンサなどの出力信号から自車両2の挙動を推定して、第1の虚像V1の位置補正量Dを算出してもよい。   In addition to the above, the display controller 400 estimates the behavior of the host vehicle 2 from output signals from a gyro sensor, a suspension stroke sensor, a brake pedal sensor, an accelerator pedal sensor, and the like, and corrects the position correction amount of the first virtual image V1. D may be calculated.

1 車両情報投影システム、100 HUD装置(投影装置)、10 第1投影手段、11 第1表示手段、20 第2投影手段、21 第2表示手段、30 凹面鏡(リレー光学系)、30a アクチュエータ(画像位置調整手段)、200 情報取得部(車外状況推定手段)、400 表示コントローラ(画像位置調整手段)、E1 遠方表示領域(第1表示領域)、E2 近傍表示領域(第2表示領域)、J1 重畳画像、J2 近傍画像、J3 代替画像、L 画像光、N1 第1表示光N2 第2表示光、V1 第1の虚像V2 第2の虚像

DESCRIPTION OF SYMBOLS 1 Vehicle information projection system, 100 HUD apparatus (projection apparatus), 10 1st projection means, 11 1st display means, 20 2nd projection means, 21 2nd display means, 30 Concave mirror (relay optical system), 30a Actuator (image) Position adjustment means), 200 information acquisition unit (exterior condition estimation means), 400 display controller (image position adjustment means), E1 distant display area (first display area), E2 proximity display area (second display area), J1 superimposition Image, J2 neighborhood image, J3 substitute image, L image light, N1 first display light N2 second display light, V1 first virtual image V2 second virtual image

Claims (4)

車両の外にある特定対象の位置を推定する車外状況推定手段と、
前記特定対象に関する重畳画像を生成する表示器、前記表示器が生成した前記重畳画像を前記車両の乗員前方の投影対象に向けるリレー光学系、前記車外状況推定手段により推定された前記特定対象の位置に応じて、前記重畳画像が投影される位置を調整する画像位置調整手段、を具備した投影装置と、
前記車両の挙動を検出する挙動検出手段と、を備え、
前記挙動検出手段にて検出した車両挙動に基づき、前記重畳画像とは異なる代替画像を表示させる、
ことを特徴とする車両情報投影システム。
An out-of-vehicle situation estimation means for estimating the position of a specific object outside the vehicle;
A display that generates a superimposed image related to the specific target, a relay optical system that directs the superimposed image generated by the display to a projection target in front of an occupant of the vehicle, and a position of the specific target estimated by the out-of-vehicle situation estimation unit And a projection device comprising image position adjustment means for adjusting the position at which the superimposed image is projected,
Behavior detecting means for detecting the behavior of the vehicle,
Based on the vehicle behavior detected by the behavior detection means, an alternative image different from the superimposed image is displayed.
The vehicle information projection system characterized by the above-mentioned.
前記代替画像は、前記表示画像とは形状が異なる、
ことを特徴とする請求項1に記載の車両情報投影システム。
The substitute image has a different shape from the display image.
The vehicle information projection system according to claim 1.
前記挙動検出手段は、前記車両の加速度を検出可能である、
ことを特徴とする請求項1または請求項2に記載の車両情報投影システム。
The behavior detecting means is capable of detecting acceleration of the vehicle.
The vehicle information projection system according to claim 1 or 2, characterized by the above.
前記挙動検出手段は、前記車両の外景における前記特定対象を撮像可能な撮像手段を有し、前記撮像手段にて撮像された前記特定対象の位置に基づき、前記車両挙動を検出する、
ことを特徴とする請求項1乃至3のいずれかに記載の車両情報投影システム。
The behavior detection unit includes an imaging unit capable of imaging the specific target in the outside scene of the vehicle, and detects the vehicle behavior based on the position of the specific target imaged by the imaging unit.
The vehicle information projection system according to any one of claims 1 to 3, wherein
JP2013245739A 2013-10-22 2013-11-28 Vehicle information projection system Active JP6201690B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013245739A JP6201690B2 (en) 2013-11-28 2013-11-28 Vehicle information projection system
EP14856234.1A EP3061642B1 (en) 2013-10-22 2014-10-16 Vehicle information projection system, and projection device
CN201480057605.2A CN105682973B (en) 2013-10-22 2014-10-16 Information of vehicles optical projection system and projection arrangement
PCT/JP2014/077560 WO2015060193A1 (en) 2013-10-22 2014-10-16 Vehicle information projection system, and projection device
US15/026,534 US20160216521A1 (en) 2013-10-22 2014-10-16 Vehicle information projection system and projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013245739A JP6201690B2 (en) 2013-11-28 2013-11-28 Vehicle information projection system

Publications (2)

Publication Number Publication Date
JP2015101311A true JP2015101311A (en) 2015-06-04
JP6201690B2 JP6201690B2 (en) 2017-09-27

Family

ID=53377372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013245739A Active JP6201690B2 (en) 2013-10-22 2013-11-28 Vehicle information projection system

Country Status (1)

Country Link
JP (1) JP6201690B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017007481A (en) * 2015-06-19 2017-01-12 日本精機株式会社 On-vehicle headup display device and on-vehicle display system
JP2017037634A (en) * 2015-08-07 2017-02-16 株式会社デンソー Display system
WO2017026223A1 (en) * 2015-08-07 2017-02-16 株式会社デンソー Display system
JP2017037400A (en) * 2015-08-07 2017-02-16 株式会社デンソー Information display device
KR20170083798A (en) * 2016-01-11 2017-07-19 엘지전자 주식회사 Head-up display apparatus and control method for the same
WO2018003650A1 (en) * 2016-06-29 2018-01-04 日本精機株式会社 Head-up display
JP2018086900A (en) * 2016-11-28 2018-06-07 日本精機株式会社 Head-up display device, display method and program
WO2018159319A1 (en) * 2017-02-28 2018-09-07 日本精機株式会社 Head-up display device and onboard display system
KR101899981B1 (en) * 2016-12-02 2018-09-19 엘지전자 주식회사 Head Up Display for Vehicle
JP2018151903A (en) * 2017-03-14 2018-09-27 アイシン・エィ・ダブリュ株式会社 Virtual image display device and computer program
KR101916993B1 (en) * 2015-12-24 2018-11-08 엘지전자 주식회사 Display apparatus for vehicle and control method thereof
WO2019003929A1 (en) * 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 Display system, information presentation system, method for controlling display system, program and recording medium for display system, and mobile body device
WO2019168156A1 (en) 2018-03-02 2019-09-06 パナソニックIpマネジメント株式会社 Display system
WO2020032189A1 (en) 2018-08-09 2020-02-13 パナソニックIpマネジメント株式会社 Display system
WO2020080405A1 (en) 2018-10-16 2020-04-23 パナソニックIpマネジメント株式会社 Display system, display device and display control method
JP2020067460A (en) * 2018-10-19 2020-04-30 本田技研工業株式会社 Display device, display control method, and program
US10649207B1 (en) 2017-06-30 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Display system, information presentation system, method for controlling display system, recording medium, and mobile body
JP2020135768A (en) * 2019-02-25 2020-08-31 トヨタ自動車株式会社 Vehicle display device
WO2020209298A1 (en) 2019-04-11 2020-10-15 パナソニックIpマネジメント株式会社 Gradient change detection system, display system using this, and program for moving body
WO2020241094A1 (en) 2019-05-31 2020-12-03 パナソニックIpマネジメント株式会社 Display system
WO2020241134A1 (en) 2019-05-29 2020-12-03 パナソニックIpマネジメント株式会社 Display system
CN112073699A (en) * 2019-06-11 2020-12-11 宁波舜宇车载光学技术有限公司 Projection system and projection method thereof
JP2021037894A (en) * 2019-09-04 2021-03-11 株式会社デンソー Display control device and display control program
JP2021091334A (en) * 2019-12-11 2021-06-17 株式会社デンソー Display control device
US11187910B2 (en) 2017-05-22 2021-11-30 Nippon Seiki Co., Ltd. Head-up display device for adjusting display distances of virtual images
WO2021251115A1 (en) 2020-06-08 2021-12-16 パナソニックIpマネジメント株式会社 Display system
US11393066B2 (en) 2019-12-31 2022-07-19 Seiko Epson Corporation Display system, electronic apparatus, mobile body, and display method
US11443718B2 (en) 2019-12-31 2022-09-13 Seiko Epson Corporation Circuit device, electronic apparatus, and mobile body for generating latency compensated display
DE102022106226A1 (en) 2021-03-30 2022-10-06 Panasonic Intellectual Property Management Co., Ltd. Display correction system, display system, display correction method and program
US11875760B2 (en) 2019-05-22 2024-01-16 Panasonic Intellectual Property Management Co., Ltd. Display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010113788A1 (en) * 2009-03-30 2010-10-07 株式会社エクォス・リサーチ Information display apparatus
JP2011007562A (en) * 2009-06-24 2011-01-13 Toshiba Alpine Automotive Technology Corp Navigation device for vehicle and navigation method
JP2013203103A (en) * 2012-03-27 2013-10-07 Denso It Laboratory Inc Display device for vehicle, control method therefor, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010113788A1 (en) * 2009-03-30 2010-10-07 株式会社エクォス・リサーチ Information display apparatus
JP2011007562A (en) * 2009-06-24 2011-01-13 Toshiba Alpine Automotive Technology Corp Navigation device for vehicle and navigation method
JP2013203103A (en) * 2012-03-27 2013-10-07 Denso It Laboratory Inc Display device for vehicle, control method therefor, and program

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017007481A (en) * 2015-06-19 2017-01-12 日本精機株式会社 On-vehicle headup display device and on-vehicle display system
JP2017037634A (en) * 2015-08-07 2017-02-16 株式会社デンソー Display system
WO2017026223A1 (en) * 2015-08-07 2017-02-16 株式会社デンソー Display system
JP2017037400A (en) * 2015-08-07 2017-02-16 株式会社デンソー Information display device
US10924679B2 (en) 2015-12-24 2021-02-16 Lg Electronics Inc. Display device for vehicle and control method thereof
KR101916993B1 (en) * 2015-12-24 2018-11-08 엘지전자 주식회사 Display apparatus for vehicle and control method thereof
KR20170083798A (en) * 2016-01-11 2017-07-19 엘지전자 주식회사 Head-up display apparatus and control method for the same
KR102578679B1 (en) * 2016-01-11 2023-09-13 엘지전자 주식회사 Head-up display apparatus and control method for the same
JPWO2018003650A1 (en) * 2016-06-29 2019-05-30 日本精機株式会社 Head-up display
WO2018003650A1 (en) * 2016-06-29 2018-01-04 日本精機株式会社 Head-up display
US10913355B2 (en) 2016-06-29 2021-02-09 Nippon Seiki Co., Ltd. Head-up display
JP2018086900A (en) * 2016-11-28 2018-06-07 日本精機株式会社 Head-up display device, display method and program
KR101899981B1 (en) * 2016-12-02 2018-09-19 엘지전자 주식회사 Head Up Display for Vehicle
US10606075B2 (en) 2016-12-02 2020-03-31 Lg Electronics Inc. Head-up display for vehicle
US11526005B2 (en) 2016-12-02 2022-12-13 Lg Electronics Inc. Head-up display for vehicle
JPWO2018159319A1 (en) * 2017-02-28 2019-12-26 日本精機株式会社 Head-up display device and in-vehicle display system
WO2018159319A1 (en) * 2017-02-28 2018-09-07 日本精機株式会社 Head-up display device and onboard display system
JP7047832B2 (en) 2017-02-28 2022-04-05 日本精機株式会社 Head-up display device and in-vehicle display system
JP2018151903A (en) * 2017-03-14 2018-09-27 アイシン・エィ・ダブリュ株式会社 Virtual image display device and computer program
US11187910B2 (en) 2017-05-22 2021-11-30 Nippon Seiki Co., Ltd. Head-up display device for adjusting display distances of virtual images
WO2019003929A1 (en) * 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 Display system, information presentation system, method for controlling display system, program and recording medium for display system, and mobile body device
US10649207B1 (en) 2017-06-30 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Display system, information presentation system, method for controlling display system, recording medium, and mobile body
WO2019168156A1 (en) 2018-03-02 2019-09-06 パナソニックIpマネジメント株式会社 Display system
US11305692B2 (en) 2018-03-02 2022-04-19 Panasonic Intellectual Property Management Co., Ltd. Display system
WO2020032189A1 (en) 2018-08-09 2020-02-13 パナソニックIpマネジメント株式会社 Display system
US11482195B2 (en) 2018-10-16 2022-10-25 Panasonic Intellectual Property Management Co., Ltd. Display system, display device and display control method for controlling a display position of an image based on a moving body
WO2020080405A1 (en) 2018-10-16 2020-04-23 パナソニックIpマネジメント株式会社 Display system, display device and display control method
JP2020067460A (en) * 2018-10-19 2020-04-30 本田技研工業株式会社 Display device, display control method, and program
US10928632B2 (en) 2018-10-19 2021-02-23 Honda Motor Co., Ltd. Display device, display control method, and storage medium
JP7272007B2 (en) 2019-02-25 2023-05-12 トヨタ自動車株式会社 Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
JP2020135768A (en) * 2019-02-25 2020-08-31 トヨタ自動車株式会社 Vehicle display device
WO2020209298A1 (en) 2019-04-11 2020-10-15 パナソニックIpマネジメント株式会社 Gradient change detection system, display system using this, and program for moving body
US11875760B2 (en) 2019-05-22 2024-01-16 Panasonic Intellectual Property Management Co., Ltd. Display system
US11945309B2 (en) 2019-05-29 2024-04-02 Panasonic Intellectual Property Management Co., Ltd. Display system
WO2020241134A1 (en) 2019-05-29 2020-12-03 パナソニックIpマネジメント株式会社 Display system
US11945310B2 (en) 2019-05-31 2024-04-02 Panasonic Intellectual Property Management Co., Ltd. Display system
WO2020241094A1 (en) 2019-05-31 2020-12-03 パナソニックIpマネジメント株式会社 Display system
CN112073699A (en) * 2019-06-11 2020-12-11 宁波舜宇车载光学技术有限公司 Projection system and projection method thereof
JP7255429B2 (en) 2019-09-04 2023-04-11 株式会社デンソー Display controller and display control program
JP2021037894A (en) * 2019-09-04 2021-03-11 株式会社デンソー Display control device and display control program
JP7415516B2 (en) 2019-12-11 2024-01-17 株式会社デンソー display control device
JP2021091334A (en) * 2019-12-11 2021-06-17 株式会社デンソー Display control device
US11443718B2 (en) 2019-12-31 2022-09-13 Seiko Epson Corporation Circuit device, electronic apparatus, and mobile body for generating latency compensated display
US11393066B2 (en) 2019-12-31 2022-07-19 Seiko Epson Corporation Display system, electronic apparatus, mobile body, and display method
WO2021251115A1 (en) 2020-06-08 2021-12-16 パナソニックIpマネジメント株式会社 Display system
US11982817B2 (en) 2020-06-08 2024-05-14 Panasonic Intellectual Property Management Co., Ltd. Display system
DE102022106226A1 (en) 2021-03-30 2022-10-06 Panasonic Intellectual Property Management Co., Ltd. Display correction system, display system, display correction method and program
US11837121B2 (en) 2021-03-30 2023-12-05 Panasonic Intellectual Property Management Co., Ltd. Display correction system, display system, and display correction method

Also Published As

Publication number Publication date
JP6201690B2 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
JP6201690B2 (en) Vehicle information projection system
WO2015060193A1 (en) Vehicle information projection system, and projection device
JP2015080988A (en) Vehicle information projection system and projection device
JP6176478B2 (en) Vehicle information projection system
JP6361794B2 (en) Vehicle information projection system
JP6342704B2 (en) Display device
US10976545B2 (en) Display device and adjustment method
US20210003414A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2010143520A (en) On-board display system and display method
JPWO2014174575A1 (en) Head-up display device for vehicle
JP6866875B2 (en) Display control device and display control program
US20210016793A1 (en) Control apparatus, display apparatus, movable body, and image display method
JP6225379B2 (en) Vehicle information projection system
WO2019224922A1 (en) Head-up display control device, head-up display system, and head-up display control method
WO2019207965A1 (en) Head-up display device
WO2019189619A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2018020779A (en) Vehicle information projection system
US20210323403A1 (en) Image control apparatus, display apparatus, movable body, and image control method
WO2019189515A1 (en) Control apparatus, display apparatus, movable body, and image display method
JP2019164318A (en) Video display system, video display method, program, and movable body including video display system
JP7024619B2 (en) Display control device for mobile body, display control method for mobile body, and control program
JP2019172243A (en) Control device, display device, movable body, control method and program
JP2019077340A (en) Head-up display device
US20200047686A1 (en) Display device, display control method, and storage medium
JP2020204773A (en) Virtual image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R150 Certificate of patent or registration of utility model

Ref document number: 6201690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150