JP2008168693A - Vehicular display device - Google Patents

Vehicular display device Download PDF

Info

Publication number
JP2008168693A
JP2008168693A JP2007001903A JP2007001903A JP2008168693A JP 2008168693 A JP2008168693 A JP 2008168693A JP 2007001903 A JP2007001903 A JP 2007001903A JP 2007001903 A JP2007001903 A JP 2007001903A JP 2008168693 A JP2008168693 A JP 2008168693A
Authority
JP
Japan
Prior art keywords
image
solar radiation
unit
display
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007001903A
Other languages
Japanese (ja)
Inventor
Takashi Osawa
敬 大澤
Keiko Kidokoro
恵子 城所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007001903A priority Critical patent/JP2008168693A/en
Publication of JP2008168693A publication Critical patent/JP2008168693A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Indicating Measured Values (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicular display device of simple structure capable of displaying with reality. <P>SOLUTION: A display section displays a ring-like object in the periphery of a speed meter. A detecting section is arranged in a cabin wherein the display section is arranged, and detects incident condition of the light. Specifically, the detecting section is a camera for picking up an image in front of the display section. A control section controls the display section so as to change display mode of the object in response to a result of detection by a detecting section. Specifically, an image of at least one part among images picked up by the camera is used as an image reflected by the object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両用表示装置に関し、より特定的には、車両における各種メータ等を表示するための車両用表示装置に関する。   The present invention relates to a vehicle display device, and more particularly to a vehicle display device for displaying various meters and the like in a vehicle.

従来、車両のナビゲーション装置はもちろん、車両の計器等においても液晶表示装置等の表示装置が用いられている。例えば、速度メータの一部に液晶表示装置を用いたものが実用化されている。また、特許文献1に示すように、1つの計器全体、さらには、コンビネーションメータ全体を表示装置に表示することも考えられる。表示装置を用いることによって、現実の計器(表示装置に表示される計器ではなく、機械的に構成された計器)に必要なムーブメントやモータや指針等の可動部品が不要となるので、計器類の構造を簡易にすることができる。また、計器類の表示形態(配置位置やデザイン)を、例えばユーザの好みによって容易に変更することができるので、計器類をユーザにとってより見やすくカスタマイズすることが容易になるという利点がある。
特開平11−248490号公報
Conventionally, a display device such as a liquid crystal display device is used not only in a vehicle navigation device but also in a vehicle instrument or the like. For example, a device using a liquid crystal display device as a part of a speed meter has been put into practical use. Moreover, as shown in Patent Document 1, it is also conceivable to display one entire instrument, and further the entire combination meter on a display device. The use of a display device eliminates the need for moving parts such as movements, motors, and pointers required for actual instruments (not mechanical instruments displayed on the display apparatus, but mechanically configured instruments). The structure can be simplified. Moreover, since the display form (arrangement position and design) of the instruments can be easily changed according to, for example, the user's preference, there is an advantage that the instruments can be easily viewed and customized for the user.
Japanese Patent Laid-Open No. 11-248490

しかし、表示装置によって計器を表示する場合には、現実の計器に比べてリアリティに欠ける。そのため、例えば表示が見にくくなったり、高級感のある意匠を実現することができなくなる。   However, when displaying a meter by a display device, it lacks reality compared to an actual meter. Therefore, for example, it becomes difficult to see the display, and it is impossible to realize a high-quality design.

なお、特許文献1には、メータの指針を立体的に表示するために、液晶表示装置の前にエレクトロルミネセンス表示装置を配置した表示計器が記載されている。しかし、この表示計器では表示装置が2つ必要となり、計器を表示するための構成が複雑になってしまう。   Patent Document 1 describes a display instrument in which an electroluminescence display device is arranged in front of a liquid crystal display device in order to display a meter pointer in a three-dimensional manner. However, this display instrument requires two display devices, and the configuration for displaying the instrument becomes complicated.

それ故、本発明の目的は、簡易な構成でより現実味のある表示を可能とする車両用表示装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a vehicle display device that enables a more realistic display with a simple configuration.

本発明は、上記の課題を解決するために、以下の構成を採用した。すなわち、第1の発明は、表示部と、検知部と、制御部とを備えている。表示部は、所定のオブジェクトを表示する。検知部は、表示部が配置される車室内に配置され、光の入射状況を検知する。制御部は、オブジェクトの表示形態を検知部による検知結果に応じて変化させるように表示部を制御する。   The present invention employs the following configuration in order to solve the above problems. In other words, the first invention includes a display unit, a detection unit, and a control unit. The display unit displays a predetermined object. A detection part is arrange | positioned in the vehicle interior in which a display part is arrange | positioned, and detects the incident condition of light. The control unit controls the display unit to change the display form of the object according to the detection result by the detection unit.

第2の発明においては、検知部は、表示部の画面前方を撮像する撮像手段であってもよい。このとき、制御部は、撮像手段によって撮像された撮像画像の少なくとも一部の画像を、オブジェクトに反射して映る画像として用いる。   In the second invention, the detection unit may be an imaging unit that images the front of the screen of the display unit. At this time, the control unit uses at least a part of the captured image captured by the imaging unit as an image reflected on the object.

第3の発明においては、制御部は、オブジェクトに反射して映る画像として用いる画像の明るさが所定の基準よりも明るい場合、当該画像が暗くなるように輝度を補正するようにしてもよい。   In the third invention, when the brightness of an image used as an image reflected and reflected on the object is brighter than a predetermined reference, the control unit may correct the brightness so that the image becomes dark.

第4の発明においては、制御部は、画像抽出部と、反転部とを含んでいてもよい。画像抽出部は、オブジェクトの形状に適合するように撮像画像から一部の画像を抽出する。反
転部は、抽出された画像を反転させる。このとき、表示部は、反転された画像をオブジェクトの表示領域内に表示する。
In the fourth invention, the control unit may include an image extraction unit and an inversion unit. The image extraction unit extracts a part of the image from the captured image so as to match the shape of the object. The inversion unit inverts the extracted image. At this time, the display unit displays the inverted image in the display area of the object.

第5の発明においては、オブジェクトの表示領域内には複数の領域が設定されてもよい。このとき、画像抽出部は、複数の領域の形状にそれぞれ適合するように撮像画像から一部の画像を当該複数の領域毎に抽出する。反転部は、抽出された複数の画像をそれぞれ反転させる。表示部は、反転された各画像を、対応する複数の領域にそれぞれ表示する。   In the fifth invention, a plurality of areas may be set in the display area of the object. At this time, the image extraction unit extracts a part of the image from the captured image for each of the plurality of regions so as to conform to the shapes of the plurality of regions. The inversion unit inverts the extracted plurality of images. The display unit displays each inverted image in a plurality of corresponding areas.

第6の発明においては、検知部は、日射の方向を検知する日射検知手段によって構成されてもよい。このとき、制御部は、オブジェクトの光沢の位置を日射の方向に応じて変化させる。   In 6th invention, a detection part may be comprised by the solar radiation detection means which detects the direction of solar radiation. At this time, the control unit changes the gloss position of the object according to the direction of solar radiation.

第7の発明においては、検知部は、日射の方向を検知する日射検知手段によって構成されてもよい。このとき、制御部は、オブジェクトに付される影の向きを日射の方向に応じて変化させる。   In 7th invention, a detection part may be comprised by the solar radiation detection means which detects the direction of solar radiation. At this time, a control part changes the direction of the shadow attached | subjected to an object according to the direction of solar radiation.

第8の発明においては、日射検知手段は、車両の空調機器の制御に用いられる日射センサによって構成されてもよい。   In an eighth aspect of the invention, the solar radiation detection means may be constituted by a solar radiation sensor used for controlling a vehicle air conditioner.

第1の発明によれば、検知部は、車室内における光の入射状況を検知し、制御部は、表示部に表示されるオブジェクトの表示形態を検知部による検知結果に応じて変化させる。これによって、表示装置の周囲の状況に応じてオブジェクトが変化するように表示することができるので、オブジェクトをあたかも現実の物のようにリアルに表現することができる。すなわち、従来のように表示装置を複数備えることなく簡易な構成で、より現実味のあるオブジェクトの表示を実現することができる。   According to 1st invention, a detection part detects the incident condition of the light in a vehicle interior, and a control part changes the display form of the object displayed on a display part according to the detection result by a detection part. As a result, the object can be displayed so as to change according to the situation around the display device, so that the object can be expressed realistically as if it were a real object. That is, a more realistic display of an object can be realized with a simple configuration without providing a plurality of display devices as in the prior art.

第2の発明によれば、表示部の画面前方を撮像手段によって撮像することによって、撮像画像を用いて、オブジェクトに反射して映る画像を表示する。これによって、画面前方における車内の光景がオブジェクトに反射しているかのように見えるので、オブジェクトの表示をよりリアルに見せることができる。   According to the second aspect of the invention, the front of the screen of the display unit is imaged by the imaging means, and an image reflected on the object is displayed using the captured image. This makes it appear as if the scene inside the vehicle in front of the screen is reflected by the object, so that the display of the object can be made more realistic.

第3の発明によれば、オブジェクトに反射して映る画像として用いる画像の明るさが所定の基準よりも明るい場合には、当該画像が暗くなるように調整される。これによれば、他の部分に比べて当該画像の部分が明るすぎるために、他の部分の視認性が悪化することを防止することができる。   According to the third aspect, when the brightness of an image used as an image reflected and reflected on an object is brighter than a predetermined reference, the image is adjusted to be dark. According to this, since the part of the said image is too bright compared with another part, it can prevent that the visibility of another part deteriorates.

第4の発明によれば、オブジェクトに反射して映る画像として用いる画像を撮像画像から容易に生成することができる。   According to the fourth invention, an image used as an image reflected and reflected on an object can be easily generated from the captured image.

第5の発明によれば、オブジェクトの表示領域は複数の領域に分割される。また、当該領域に表示すべき画像を撮像画像から生成する処理は、分割された領域毎に実行される。これによって、各領域にはそれぞれ異なる角度で反射した光景が映るようにオブジェクトを表示することができる。すなわち、オブジェクトの複数の面が異なる角度で配置されているようにオブジェクトを見せることができ、これによって、オブジェクトを立体的に見せることができる。   According to the fifth aspect, the display area of the object is divided into a plurality of areas. Moreover, the process which produces | generates the image which should be displayed on the said area | region from a captured image is performed for every divided | segmented area | region. As a result, the object can be displayed so that scenes reflected at different angles are reflected in each region. That is, the object can be shown as if a plurality of surfaces of the object are arranged at different angles, and thus the object can be seen three-dimensionally.

第6の発明によれば、日射検知部は日射の方向を検知し、制御部は、日射の方向に応じてオブジェクトの光沢の位置を変化させてオブジェクトを表示する。これによって、オブジェクトは、実際に日射がオブジェクトの面に反射しているかのように見えるので、オブ
ジェクトの表示をよりリアルに見せることができる。
According to the sixth aspect, the solar radiation detection unit detects the direction of solar radiation, and the control unit displays the object by changing the gloss position of the object according to the direction of solar radiation. As a result, the object appears as if the solar radiation is actually reflected on the surface of the object, so that the display of the object can be made more realistic.

第7の発明によれば、日射検知部は日射の方向を検知し、制御部は、日射の方向に応じてオブジェクトに付される影の向きを変化させて表示する。これによって、オブジェクトが実際に存在する物であるかのように見えるので、オブジェクトをよりリアルに見せることができる。   According to the seventh aspect, the solar radiation detection unit detects the direction of solar radiation, and the control unit displays the direction of the shadow attached to the object by changing the direction of the solar radiation. This makes it appear as if the object actually exists, so that the object can appear more realistic.

第8の発明によれば、日射センサを別途用意する必要がないので、車両全体として部品点数を減少することができるとともに、車両に従来から設けられる機器を用いて容易に本発明を実現することができる。   According to the eighth invention, since it is not necessary to prepare a solar radiation sensor separately, the number of parts can be reduced as a whole vehicle, and the present invention can be easily realized by using a device conventionally provided in the vehicle. Can do.

(第1の実施形態)
図1〜図7を参照して、本発明の第1の実施形態に係る車両用表示装置について説明する。図1は、第1の実施形態に係る車両用表示装置の機能的な構成を示すブロック図である。図1に示すように、車両用表示装置は、カメラ1、センサ部2、制御部3、および表示部4を備える。本車両用表示装置は、車両に搭載される各種表示装置(計器類を表示するための表示装置や、経路案内に用いる地図等を表示するための表示装置等)に適用可能である。本実施形態では、車両用表示装置は、例えば速度メータ等の計器類を表示するものとして説明する。
(First embodiment)
With reference to FIGS. 1-7, the vehicle display apparatus which concerns on the 1st Embodiment of this invention is demonstrated. FIG. 1 is a block diagram showing a functional configuration of the vehicle display device according to the first embodiment. As shown in FIG. 1, the vehicle display device includes a camera 1, a sensor unit 2, a control unit 3, and a display unit 4. The vehicle display device can be applied to various display devices (a display device for displaying instruments, a display device for displaying a map or the like used for route guidance) mounted on the vehicle. In the present embodiment, the vehicle display device will be described as displaying instruments such as a speed meter.

カメラ1は、特許請求の範囲に記載の撮像手段の一例であり、例えばCCDカメラ等によって構成される。カメラ1は、所定時間間隔で画像を撮像し、撮像した画像(撮像画像)のデータを制御部3へ逐次出力する。カメラ1は、例えば居眠り検知用等、別の用途で車室内に設置されるものであってもよい。別の用途で設置されるカメラを用いることによって、車両全体として部品点数を減少することができるとともに、車両に従来から設けられる機器を用いて容易に本発明を実現することができるようになる。なお、カメラ1は、表示部4が配置される車室内に配置され、光の入射状況を検知するものである。つまり、第1の実施形態においては、カメラ1が特許請求の範囲に記載の検知部に相当する。   The camera 1 is an example of an imaging unit described in the claims, and is configured by, for example, a CCD camera or the like. The camera 1 captures images at predetermined time intervals, and sequentially outputs data of the captured images (captured images) to the control unit 3. The camera 1 may be installed in the vehicle interior for another use, such as for detection of falling asleep. By using a camera installed for another purpose, the number of parts can be reduced as a whole vehicle, and the present invention can be easily realized by using a device conventionally provided in the vehicle. In addition, the camera 1 is arrange | positioned in the vehicle interior in which the display part 4 is arrange | positioned, and detects the incident condition of light. That is, in the first embodiment, the camera 1 corresponds to the detection unit described in the claims.

センサ部2は、車速センサ等、計器類において提示される各種情報を測定する1以上のセンサを有する。センサ部2のセンサによって測定された情報は制御部3へ出力される。   The sensor unit 2 includes one or more sensors that measure various types of information presented in instruments such as a vehicle speed sensor. Information measured by the sensor of the sensor unit 2 is output to the control unit 3.

制御部3は、典型的にはディスプレイECUであり、メモリ等の記憶手段およびCPU等の情報処理手段によって構成される。制御部3は、センサ部2のセンサによって測定された情報を示すための計器類の画像を生成し、生成された画像を表示部4に表示させる。本実施形態では、当該計器類の画像を生成するために上記撮像画像が用いられる。計器類の画像を生成する処理の詳細については後述する。   The control unit 3 is typically a display ECU, and includes a storage unit such as a memory and an information processing unit such as a CPU. The control unit 3 generates an image of instruments for indicating information measured by the sensor of the sensor unit 2 and causes the display unit 4 to display the generated image. In the present embodiment, the captured image is used to generate an image of the instrument. Details of processing for generating an image of an instrument will be described later.

表示部4は、制御部3によって生成された画像(計器類の画像)を表示する表示装置であり、例えば液晶表示装置によって構成される。   The display unit 4 is a display device that displays an image (an instrument image) generated by the control unit 3, and is configured by, for example, a liquid crystal display device.

図2は、カメラ1および表示部4の車両における配置の一例を示す図である。図2は、車室内に設けられるステアリング5、ステアリングコラム6、およびインストルメントパネル7を車両の横方向から示す図である。図2に示すように、表示部4は、典型的には車両のインストルメントパネル7に設置される。また、カメラ1は、画面前方の向きにステアリングコラム6上に設置される。これによって、カメラ1は、表示部4の画面前方を撮像することができる。カメラ1は、表示部4の画面前方を画面前方の向きに撮像することができる位置に設置されればよく、例えばインストルメントパネル7またはセンターミラーに設置されてもよい。なお、センサ部2のセンサおよび制御部3は、例えば制御部3で
あればインストルメントパネル7内やセンターコンソール内等、車両内の適宜の位置に設置される。
FIG. 2 is a diagram illustrating an example of the arrangement of the camera 1 and the display unit 4 in the vehicle. FIG. 2 is a view showing the steering 5, the steering column 6, and the instrument panel 7 provided in the vehicle compartment from the lateral direction of the vehicle. As shown in FIG. 2, the display part 4 is typically installed in the instrument panel 7 of a vehicle. In addition, the camera 1 is installed on the steering column 6 in the front direction of the screen. As a result, the camera 1 can image the front of the screen of the display unit 4. The camera 1 should just be installed in the position which can image the screen front of the display part 4 in the direction of the screen front, for example, may be installed in the instrument panel 7 or the center mirror. For example, in the case of the control unit 3, the sensor of the sensor unit 2 and the control unit 3 are installed at appropriate positions in the vehicle, such as in the instrument panel 7 or the center console.

以下、第1の実施形態に係る車両用表示装置の動作について説明する。以下では、計器類の一例である速度メータの画像が表示部4の画面に表示される場合を例として車両用表示装置の動作を説明する。図3は、画面に表示される速度メータの例を示す図である。本実施形態では、図3に示すように、速度メータ9の周囲にリング状のオブジェクト8(図3に示す斜線領域)が表示される。オブジェクト8は、速度メータにより現実味を持たせるための加飾表示であり、制御部3は、光沢のある金属のような質感となるようにオブジェクト8を表示する。具体的には、画面前方における車内の光景がオブジェクト8の面に反射しているかのようにオブジェクト8を表示する(図6参照)。これによって、ユーザ(運転者等)にはオブジェクト8が実際の金属(または鏡)のように見え、車両用表示装置は計器(オブジェクト8)をよりリアルに表示させることができる。以下、車両用表示装置の動作の詳細を説明する。   The operation of the vehicle display device according to the first embodiment will be described below. Below, operation | movement of the display apparatus for vehicles is demonstrated by making into an example the case where the image of the speedometer which is an example of measuring instruments is displayed on the screen of the display part 4. FIG. FIG. 3 is a diagram illustrating an example of a speed meter displayed on the screen. In the present embodiment, as shown in FIG. 3, a ring-shaped object 8 (shaded area shown in FIG. 3) is displayed around the speedometer 9. The object 8 is a decorative display for giving a realistic feeling to the speed meter, and the control unit 3 displays the object 8 so as to have a glossy metal-like texture. Specifically, the object 8 is displayed as if the scene inside the vehicle in front of the screen is reflected on the surface of the object 8 (see FIG. 6). As a result, the object 8 appears to the user (driver or the like) as an actual metal (or mirror), and the vehicle display device can display the instrument (object 8) more realistically. Details of the operation of the vehicle display device will be described below.

図4は、制御部3の処理の流れを示すフローチャートである。図4に示すフローチャートは、例えば表示部4(車両用表示装置)の電源がオンにされたことに応じて開始される。   FIG. 4 is a flowchart showing the flow of processing of the control unit 3. The flowchart shown in FIG. 4 is started, for example, when the display unit 4 (vehicle display device) is turned on.

まずステップS1において、制御部3は、カメラ1によって撮像された撮像画像を取得する。すなわち、カメラ1から出力された撮像画像のデータが制御部3のメモリに記憶される。図5は、撮像画像の一例を示す図である。上述したようにカメラ1は画面の前方を撮像するので、撮像画像には、ステアリング5、ステアリングコラム6、運転者11、およびウィンドウ12等、画面前方の光景が含まれる。なお、ステップS1〜S9の処理ループは所定時間に1回の割合で実行され、これによってステップS1の処理は繰り返し実行される。なお、メモリには最新の撮像画像のデータのみが記憶されていればよい。   First, in step S <b> 1, the control unit 3 acquires a captured image captured by the camera 1. That is, data of the captured image output from the camera 1 is stored in the memory of the control unit 3. FIG. 5 is a diagram illustrating an example of a captured image. As described above, since the camera 1 images the front of the screen, the captured image includes scenes in front of the screen such as the steering 5, the steering column 6, the driver 11, and the window 12. Note that the processing loop of steps S1 to S9 is executed at a rate of once per predetermined time, whereby the processing of step S1 is repeatedly executed. Note that only the latest captured image data needs to be stored in the memory.

続くステップS2において、制御部3は、メモリに記憶されている撮像画像から一部の画像を抽出する。抽出される画像領域の形状は、オブジェクト8の形状に適合する形状である。オブジェクト8の形状に適合する形状とは、例えば、オブジェクト8の形状と同じ形状(相似形状)である。例えば、図5に示す撮像画像が取得された場合、制御部3は、オブジェクト8の形状と同じ形状である領域13(図5に示す点線領域)の内部の画像を撮像画像から抽出する。なお、本実施形態では、上記ステップS2を実行する制御部(情報処理手段)が、特許請求の範囲に記載の画像抽出部に相当する。   In subsequent step S2, the control unit 3 extracts a part of the image from the captured image stored in the memory. The shape of the extracted image region is a shape that matches the shape of the object 8. The shape that matches the shape of the object 8 is, for example, the same shape (similar shape) as the shape of the object 8. For example, when the captured image illustrated in FIG. 5 is acquired, the control unit 3 extracts an image inside the region 13 (dotted region illustrated in FIG. 5) having the same shape as the shape of the object 8 from the captured image. In the present embodiment, the control unit (information processing means) that executes step S2 corresponds to the image extraction unit described in the claims.

また、撮像画像内における領域13の位置および大きさは、予め定められている。具体的には、領域13の大きさは、画面前方における車内の光景がオブジェクト8の面に実際に反射している場合と理想的には同じ大きさで反転画像が表示されるように、予め設定される。また、領域13の位置は、画面前方における車内の光景がオブジェクト8の面に実際に反射している場合と理想的には同じ画像が表示されるように、設定される。なお、領域13の位置および大きさは、実際に反射した場合の画像と全く同じ画像が得られる必要はなく、実際に反射した場合の画像と若干異なっていても、本発明の効果を十分に得ることができる。   Further, the position and size of the region 13 in the captured image are determined in advance. Specifically, the size of the region 13 is set in advance so that a reverse image is displayed in the ideal size that is ideally the same as when the scene inside the vehicle in front of the screen is actually reflected on the surface of the object 8. Is set. Further, the position of the region 13 is set so that the ideal image is displayed as when the scene inside the vehicle in front of the screen is actually reflected on the surface of the object 8. It should be noted that the position and size of the region 13 do not have to be exactly the same as the image actually reflected, and even if it is slightly different from the image actually reflected, the effect of the present invention is sufficiently obtained. Obtainable.

ステップS2によって抽出された画像(抽出画像)のデータは、制御部3のメモリに記憶される。なお、ステップS2の処理は繰り返し実行されるが、メモリには最新の抽出画像のデータのみが記憶されていればよい。   Data of the image (extracted image) extracted in step S2 is stored in the memory of the control unit 3. Note that although the process of step S2 is repeatedly executed, only the latest extracted image data needs to be stored in the memory.

続くステップS3において、制御部3は、メモリに記憶されている抽出画像の左右を反転させる。抽出画像は、オブジェクト8に反射して映る画像として用いられるので、撮像
画像の左右を反転させる必要があるからである。反転された画像(反転画像)のデータは、制御部3のメモリに記憶される。なお、ステップS3の処理は繰り返し実行されるが、メモリには最新の反転画像のデータのみが記憶されていればよい。本実施形態では、上記ステップS3を実行する制御部(情報処理手段)が、特許請求の範囲に記載の反転部に相当する。
In subsequent step S3, the control unit 3 inverts the left and right of the extracted image stored in the memory. This is because the extracted image is used as an image reflected on the object 8 and therefore it is necessary to reverse the left and right of the captured image. The data of the inverted image (inverted image) is stored in the memory of the control unit 3. Note that although the process of step S3 is repeatedly executed, only the latest inverted image data needs to be stored in the memory. In the present embodiment, the control unit (information processing means) that executes step S3 corresponds to the reversing unit described in the claims.

上記ステップS1〜S3の処理によって反転画像が生成される。そして、後述するステップS6〜S8の処理によって、オブジェクト8の部分に反転画像が重ねて表示される。これによって、オブジェクト8に反射して映る画像が表示されることとなる(図6)。ここで、表示部4の画面が明るくなりすぎないように、表示部4に表示すべき画像の輝度には上限値が設定されている。この上限値は、周囲の環境(昼であるか夜であるか等)に応じて自動的に設定されたり、または、ユーザによって好みの値に設定されたりする。つまり、オブジェクト8以外の他の表示部分については、各画素の輝度が上限値以下となるように画像が生成されて表示される。一方、上記反転画像は、カメラ1で撮像された画像から生成されるので、反転画像の画素の輝度は上記上限値よりも大きくなる場合がある。この場合、反転画像をそのままの輝度でオブジェクト8の領域に表示すると、他の表示部分に比べてオブジェクト8の部分が明るすぎることになり、他の表示部分(速度メータ)の視認性を悪化させるおそれがある。   A reverse image is generated by the processing of steps S1 to S3. Then, the reverse image is displayed in an overlapping manner on the portion of the object 8 by the processing of steps S6 to S8 described later. As a result, an image reflected on the object 8 is displayed (FIG. 6). Here, an upper limit is set for the luminance of the image to be displayed on the display unit 4 so that the screen of the display unit 4 does not become too bright. This upper limit value is automatically set according to the surrounding environment (whether it is daytime or night), or is set to a favorite value by the user. That is, for other display parts other than the object 8, an image is generated and displayed so that the luminance of each pixel is equal to or lower than the upper limit value. On the other hand, since the inverted image is generated from an image captured by the camera 1, the luminance of the pixel of the inverted image may be larger than the upper limit value. In this case, if the inverted image is displayed in the area of the object 8 with the same luminance, the part of the object 8 is too bright compared to other display parts, and the visibility of the other display part (speed meter) is deteriorated. There is a fear.

そこで、本実施形態においては、ステップS4およびS5の処理によって、他の表示部分に比べて反転画像が明るすぎる場合には暗くするように反転画像の明るさ(輝度)が調整される。すなわち、ステップS4において、制御部3は、メモリに記憶されている反転画像が所定の基準よりも明るすぎないか否かを判定する。具体的には、制御部3は、反転画像の各画素の中で、所定の基準よりも輝度が大きい画素が存在するか否かを判定する。所定の基準とは、他の表示部分の画像の輝度、換言すれば、上記上限値である。なお、他の実施形態においては、制御部3は、所定の基準として、上記上限値をa倍(0<a<1)した値を用いるようにしてもよい。上記上限値よりも輝度が大きい画素が存在する場合、反転画像が明るすぎると判定され、上記上限値よりも輝度が大きい画素が存在しない場合、反転画像が明るすぎることはないと判定される。ステップS4の判定結果が肯定である場合、ステップS5の処理が実行される。一方、ステップS4の判定結果が否定である場合、ステップS5の処理がスキップされてステップS6の処理が実行される。   Therefore, in the present embodiment, the brightness (luminance) of the inverted image is adjusted by the processes in steps S4 and S5 so as to darken the inverted image when it is too bright compared to the other display portions. That is, in step S4, the control unit 3 determines whether or not the reverse image stored in the memory is too bright than a predetermined reference. Specifically, the control unit 3 determines whether or not there is a pixel whose luminance is higher than a predetermined reference among the pixels of the inverted image. The predetermined standard is the brightness of the image of the other display portion, in other words, the upper limit value. In another embodiment, the control unit 3 may use a value obtained by multiplying the upper limit value by a (0 <a <1) as the predetermined reference. If there is a pixel whose luminance is higher than the upper limit value, it is determined that the reverse image is too bright. If there is no pixel whose luminance is higher than the upper limit value, it is determined that the reverse image is not too bright. If the determination result of step S4 is affirmative, the process of step S5 is executed. On the other hand, if the determination result of step S4 is negative, the process of step S5 is skipped and the process of step S6 is executed.

ステップS5において、制御部3は、メモリに記憶されている反転画像を補正する。反転画像は、各画素の輝度が上記上限値よりも小さくなるように補正される。具体的には、制御部3は、反転画像の各画素のうちの最大の輝度値が上記上限値よりも小さい値となるように、当該各画素の輝度値を所定の割合だけ減少する。メモリには、補正後の反転画像のデータが記憶される。ステップS5の後、ステップS6の処理が実行される。   In step S5, the control unit 3 corrects the reverse image stored in the memory. The inverted image is corrected so that the luminance of each pixel is smaller than the upper limit value. Specifically, the control unit 3 decreases the luminance value of each pixel by a predetermined ratio so that the maximum luminance value among the pixels of the inverted image is smaller than the upper limit value. The memory stores data of the inverted image after correction. After step S5, the process of step S6 is executed.

ステップS6において、制御部3は、オブジェクト8の画像(オブジェクト8の領域に表示すべき画像)を反転画像を用いて生成する。オブジェクト8の画像は、反転画像がオブジェクト8の表示領域と等しいサイズになるように、反転画像を所定の倍率で拡大または縮小することによって生成される。   In step S6, the control unit 3 generates an image of the object 8 (an image to be displayed in the area of the object 8) using the inverted image. The image of the object 8 is generated by enlarging or reducing the inverted image at a predetermined magnification so that the inverted image has the same size as the display area of the object 8.

続くステップS7において、制御部3は、表示部4に表示すべき画像を生成する。具体的には、まず、オブジェクト8以外の他の表示部分(速度メータ9等)の画像を生成する。なお、この画像は、センサ部2から制御部3に出力される情報に基づいて生成される。次に、制御部3は、生成された画像と、オブジェクト8の表示領域にステップS6で生成された画像とを合成する。これによって、表示部4に表示すべき画像が生成される。   In subsequent step S <b> 7, the control unit 3 generates an image to be displayed on the display unit 4. Specifically, first, an image of a display portion other than the object 8 (speed meter 9 or the like) is generated. This image is generated based on information output from the sensor unit 2 to the control unit 3. Next, the control unit 3 combines the generated image with the image generated in step S6 in the display area of the object 8. Thereby, an image to be displayed on the display unit 4 is generated.

続くステップS8において、制御部3は、ステップS7で生成された画像を表示部4に
表示させる。図6は、表示部4の画面に表示される画像の一例を示す図である。図6に示す画像は、図5に示す撮像画像を用いて生成された反転画像を、図3に示すオブジェクト8の表示領域に表示したものである。図6に示されるように、オブジェクト8の表示領域には、撮像画像に対して反転したステアリング5およびウィンドウ12等の画像が表示される。これによって、ユーザには、画面前方における車内の光景がオブジェクト8の面に反射しているかのように見えるので、計器類をよりリアルに表示することができる。
In subsequent step S8, the control unit 3 causes the display unit 4 to display the image generated in step S7. FIG. 6 is a diagram illustrating an example of an image displayed on the screen of the display unit 4. The image shown in FIG. 6 is a reverse image generated using the captured image shown in FIG. 5 displayed in the display area of the object 8 shown in FIG. As shown in FIG. 6, in the display area of the object 8, an image of the steering wheel 5, the window 12, and the like inverted with respect to the captured image is displayed. This makes it possible for the user to display instruments in a more realistic manner because the scene inside the vehicle in front of the screen appears to be reflected by the surface of the object 8.

ステップS9において、制御部3は、表示部4に画像を表示する処理を終了するか否かを判定する。ステップS9の判定は、例えば、表示部4(車両用表示装置)の電源をオフにするボタンが押下されたか否か等によって行われる。ステップS9の判定結果が否定である場合、ステップS1の処理が再度実行される。以降、ステップS9の判定結果が肯定となるまでステップS1〜S9の処理ループが繰り返し実行される。ステップS1〜S9の処理ループが繰り返し実行されることによって、オブジェクト8の表示領域に表示される画像がリアルタイムで変化するので、オブジェクト8をよりリアルに表現することができる。一方、ステップS9の判定結果が肯定である場合、制御部3は図4に示す処理を終了する。   In step S <b> 9, the control unit 3 determines whether or not to end the process of displaying an image on the display unit 4. The determination in step S9 is made based on, for example, whether or not a button for turning off the power of the display unit 4 (vehicle display device) has been pressed. If the determination result of step S9 is negative, the process of step S1 is executed again. Thereafter, the processing loop of steps S1 to S9 is repeatedly executed until the determination result of step S9 becomes affirmative. By repeatedly executing the processing loop of steps S1 to S9, the image displayed in the display area of the object 8 changes in real time, so that the object 8 can be expressed more realistically. On the other hand, when the determination result of step S9 is affirmative, the control unit 3 ends the process shown in FIG.

以上のように、第1の実施形態に係る車両用表示装置によれば、表示画面の前方を撮像手段によって撮像し、オブジェクトに反射して映る画像として撮像画像を用いて計器類を表示する。これによって、画面に表示されている計器類に、画面前方における車内の光景が反射しているかのように見えるので、計器類の表示をよりリアルに見せることができる。   As described above, according to the vehicle display device according to the first embodiment, the front of the display screen is imaged by the imaging unit, and the instrument is displayed using the captured image as an image reflected and reflected on the object. Thus, since the instrument displayed on the screen looks as if the scene inside the vehicle in front of the screen is reflected, the display of the instrument can be displayed more realistically.

なお、上記第1の実施形態では、リング状のオブジェクト8の表示領域に撮像画像の一部を表示させるものであったが、オブジェクトの形状はどのような形状であってもよい。例えば、所定の大きさの表示領域に撮像画像を表示させることによって、オブジェクトにバニティーミラーの機能を持たせることができる。さらに、上記ステップS6における所定の倍率よりも画像を拡大して上記表示領域に表示させることによって、オブジェクトに拡大鏡の機能を持たせることができ、実際のバニティーミラー以上の機能を持たせることができる。なお、オブジェクトをバニティーミラーとして用いる場合、撮像画像に対して画像認識処理を行って運転者の顔を認識し、運転者の顔が画面の略中心に表示されるようにすることが好ましい。また、制御部3は、車速センサから出力される情報に基づき、車速が0[km/h]であるか否かを判断し、車速が0[km/h]であると判断される場合にのみ、バニティーミラーとして用いるオブジェクトを表示させるようにしてもよい。   In the first embodiment, a part of the captured image is displayed in the display area of the ring-shaped object 8, but the shape of the object may be any shape. For example, an object can have a vanity mirror function by displaying a captured image in a display area of a predetermined size. Furthermore, by enlarging the image at a predetermined magnification in step S6 and displaying the image in the display area, the object can have a function of a magnifying glass, and can have a function more than an actual vanity mirror. it can. When the object is used as a vanity mirror, it is preferable to perform an image recognition process on the captured image to recognize the driver's face so that the driver's face is displayed at the approximate center of the screen. Further, the control unit 3 determines whether or not the vehicle speed is 0 [km / h] based on information output from the vehicle speed sensor, and when it is determined that the vehicle speed is 0 [km / h]. Only the object used as a vanity mirror may be displayed.

(第2の実施形態)
図7〜図12を参照して、本発明の第2の実施形態に係る車両用表示装置について説明する。第2の実施形態に係る車両用表示装置は、第1の実施形態で画面に表示したリング状のオブジェクトを立体的に見えるようにしたものである。なお、第2の実施形態に係る車両用表示装置の機能的な構成は図1と同様である。
(Second Embodiment)
With reference to FIGS. 7-12, the vehicle display apparatus which concerns on the 2nd Embodiment of this invention is demonstrated. The vehicle display device according to the second embodiment is configured to make the ring-shaped object displayed on the screen in the first embodiment appear three-dimensionally. The functional configuration of the vehicle display device according to the second embodiment is the same as that shown in FIG.

図7は、第2の実施形態において表示すべきオブジェクトの概念図である。第2の実施形態においても第1の実施形態と同様、オブジェクトが速度メータの周囲に表示される場合を例として説明する。第2の実施形態においては、オブジェクト21は、図7に示すように、外周と内周との間において断面が凸型である形状(具体的には、断面が三角形となる形状)となるように表示される。以下では、オブジェクト21の外周側の面を外周面21aとし、オブジェクト21の内周側の面を内周面21bとする。なお、図7は、オブジェクト21の形状を概念的に示すものであって、画面に実際に表示される画像を示すものではない。第2の実施形態では、オブジェクト21を立体的に見せることによってオブジェクトをよりリアルに見せることを目的とする。   FIG. 7 is a conceptual diagram of objects to be displayed in the second embodiment. In the second embodiment, as in the first embodiment, a case where an object is displayed around the speedometer will be described as an example. In the second embodiment, as shown in FIG. 7, the object 21 has a shape having a convex cross section between the outer periphery and the inner periphery (specifically, a shape having a triangular cross section). Is displayed. Hereinafter, the outer peripheral surface of the object 21 is referred to as an outer peripheral surface 21a, and the inner peripheral surface of the object 21 is referred to as an inner peripheral surface 21b. FIG. 7 conceptually shows the shape of the object 21 and does not show an image actually displayed on the screen. The second embodiment aims to make the object appear more realistic by making the object 21 appear three-dimensional.

図8は、第2の実施形態の概要を説明するための図である。第2の実施形態においては、オブジェクト21の表示領域内には、外側領域および内側領域という複数の領域が設定される。外側領域は上記外周面21aに対応し、内側領域は上記内周面21bに対応する。第2の実施形態においては、車両用表示装置は、設定される領域毎に、当該領域の形状に適合する画像を撮像画像から抽出する。そして、各領域に表示すべき画像は、抽出された画像を用いて領域毎に生成される。その結果、各領域にはそれぞれ異なる画像が表示されるので、オブジェクト21の各面において反射している方向が異なっているようにユーザに見せることができる。具体的には、外側領域と内側領域とにおいてそれぞれ異なる画像を表示することによって、オブジェクト21の外周面21aと内周面21bとにおいて反射している方向を異なっているように、すなわち、外周面21aと内周面21bとがユーザの視線に対して異なる角度で配置されているように見せることができる。これによって、オブジェクト21を立体的に見せることができる。   FIG. 8 is a diagram for explaining the outline of the second embodiment. In the second embodiment, a plurality of areas, an outer area and an inner area, are set in the display area of the object 21. The outer region corresponds to the outer peripheral surface 21a, and the inner region corresponds to the inner peripheral surface 21b. In the second embodiment, the vehicular display device extracts, for each set region, an image that matches the shape of the region from the captured image. And the image which should be displayed on each area | region is produced | generated for every area | region using the extracted image. As a result, since different images are displayed in the respective areas, it is possible to show the user that the reflecting directions on the respective surfaces of the object 21 are different. Specifically, different images are displayed in the outer region and the inner region, so that the direction of reflection on the outer peripheral surface 21a and the inner peripheral surface 21b of the object 21 is different, that is, the outer peripheral surface. It can be seen that 21a and the inner peripheral surface 21b are arranged at different angles with respect to the user's line of sight. As a result, the object 21 can be shown three-dimensionally.

次に、第2の実施形態における車両用表示装置の動作について説明する。なお、第2の実施形態における基本的な動作は、図4に示すフローチャートと同様である。以下、図4に示すフローチャートとの相違点を中心に動作を説明する。   Next, the operation of the vehicle display device in the second embodiment will be described. The basic operation in the second embodiment is the same as the flowchart shown in FIG. Hereinafter, the operation will be described focusing on differences from the flowchart shown in FIG.

ステップS1の処理は、第1の実施形態と同様である。続くステップS2の処理において、制御部3は、オブジェクト21内に設定される複数の領域毎に、撮像画像から画像の抽出を行う。抽出される画像は、対応する領域の形状に適合する形状である。第2の実施形態では、外側領域の形状に適合する形状の画像、および内側領域の形状に適合する形状の画像がステップS2において抽出される。以下、図9〜図11を用いて画像を抽出する方法について詳細に説明する。   The process of step S1 is the same as that of the first embodiment. In the subsequent step S <b> 2, the control unit 3 extracts an image from the captured image for each of a plurality of areas set in the object 21. The extracted image has a shape that matches the shape of the corresponding region. In the second embodiment, an image having a shape that matches the shape of the outer region and an image having a shape that matches the shape of the inner region are extracted in step S2. Hereinafter, a method for extracting an image will be described in detail with reference to FIGS.

図9は、画像を抽出する方法を説明するための図である。図9は、図7に示すオブジェクト21が画面上に実際に存在するとした場合に、オブジェクト21を上方から見たときの断面図である。図9の折れ線L1に示すように、画面前方のユーザから見て右側の外周面21aには、ユーザの右側の光景が反射して映る。同様に、ユーザから見て左側の外周面21aにはユーザの左側の光景が映り、ユーザから見て上側の外周面21aにはユーザの上側の光景が映り、ユーザから見て下側の外周面21aにはユーザの下側の光景が映る。以上より、外側領域に表示すべき画像を抽出する領域は、図10に示す領域22のように、画面に表示されるオブジェクト21の外周面21aと同じ向きに配置される。なお、領域22の大きさは、外周面21aが視線に対してどのような角度で配置されているように見せるかによって異なる。   FIG. 9 is a diagram for explaining a method of extracting an image. FIG. 9 is a cross-sectional view of the object 21 as viewed from above when the object 21 shown in FIG. 7 is actually present on the screen. As shown by the polygonal line L1 in FIG. 9, the scene on the right side of the user is reflected and reflected on the outer peripheral surface 21a on the right side as viewed from the user in front of the screen. Similarly, the left outer peripheral surface 21a as viewed from the user shows the user's left scene, the upper outer surface 21a as viewed from the user shows the user's upper scene, and the lower outer peripheral surface as viewed from the user. The lower scene of the user is shown in 21a. As described above, the area from which the image to be displayed in the outer area is extracted is arranged in the same direction as the outer peripheral surface 21a of the object 21 displayed on the screen, as in the area 22 shown in FIG. Note that the size of the region 22 varies depending on the angle at which the outer peripheral surface 21a is arranged with respect to the line of sight.

一方、図9の折れ線L2に示すように、ユーザから見て右側の内周面には、ユーザの左側の光景が反射して映る。同様に、ユーザから見て左側の外周面21aにはユーザの右側の光景が映り、ユーザから見て上側の外周面21aにはユーザの下側の光景が映り、ユーザから見て下側の外周面21aにはユーザの上側の光景が映る。以上より、外側領域に表示すべき画像を抽出する領域は、図11に示す領域23のように、画面に表示されるオブジェクト21の内周面21bの向きに対して180°回転した向きに配置される。なお、領域23の向きを180°回転させるか否かは、内周面21bが視線に対してどのような角度で配置されているように見せるかによって異なる。例えば、内周面21bが画面とほぼ平行に配置されているように見せる場合には、領域23は、画面に表示されるオブジェクト21の内周面21bと同じ向きに配置される。また、領域23の大きさは、外周面が視線に対してどのような角度で配置されているように見せるかによって異なる。   On the other hand, as shown by the broken line L2 in FIG. 9, the left side scene of the user is reflected and reflected on the inner peripheral surface on the right side as viewed from the user. Similarly, the user's right scene is shown on the left outer peripheral surface 21a as viewed from the user, and the user's lower scene is shown on the upper outer peripheral surface 21a as viewed from the user. The upper surface of the user is reflected on the surface 21a. As described above, the area for extracting the image to be displayed in the outer area is arranged in a direction rotated by 180 ° with respect to the direction of the inner peripheral surface 21b of the object 21 displayed on the screen, as in the area 23 shown in FIG. Is done. Whether or not the direction of the region 23 is rotated by 180 ° differs depending on the angle at which the inner peripheral surface 21b is arranged with respect to the line of sight. For example, when the inner peripheral surface 21b is shown to be arranged substantially parallel to the screen, the region 23 is arranged in the same direction as the inner peripheral surface 21b of the object 21 displayed on the screen. Further, the size of the region 23 varies depending on the angle at which the outer peripheral surface is arranged with respect to the line of sight.

以上に説明したように、本実施形態では、外側領域の表示に用いる画像を抽出する領域22と、内側領域の表示に用いる画像を抽出する領域23とが、180°異なる向きとな
るように各領域22および23を設定する。
As described above, in the present embodiment, the region 22 for extracting the image used for the display of the outer region and the region 23 for extracting the image used for the display of the inner region have directions different by 180 °. Regions 22 and 23 are set.

ステップS3において、制御部3は、ステップ2で抽出された各画像をそれぞれ反転させる。さらに、ステップS4において、制御部3は、ステップS3で反転された各反転画像についてそれぞれ、第1の実施形態と同様、反転画像が明るすぎるか否か判定を行う。ステップS4では、各反転画像のうちのいずれかについて明るすぎると判定された場合、全ての反転画像に対してステップS5の補正処理を実行する。なお、他の実施形態においては、明るすぎると判定された反転画像のみに対してステップS5の補正処理を実行するようにしてもよい。   In step S3, the control unit 3 inverts each image extracted in step 2. Furthermore, in step S4, the control unit 3 determines whether the inverted image is too bright for each inverted image inverted in step S3, as in the first embodiment. In step S4, when it is determined that any one of the inverted images is too bright, the correction process in step S5 is performed on all the inverted images. In other embodiments, the correction process in step S5 may be executed only for the reverse image determined to be too bright.

ステップS6において、制御部3は、反転画像を用いてオブジェクト21の画像を生成する。すなわち、制御部3は、各反転画像を、それぞれ対応する領域に適合するサイズとなるように所定の倍率で拡大・縮小する。   In step S6, the control unit 3 generates an image of the object 21 using the inverted image. That is, the control unit 3 enlarges / reduces each inverted image at a predetermined magnification so as to have a size suitable for the corresponding region.

なお、他の実施形態においては、ステップS6において、拡大・縮小処理を行うことに加えて、各反転画像に対して歪曲処理を行うようにしてもよい。具体的には、第2の実施形態の場合であれば、制御部3は、リング形状の各反転画像を径方向に縮小するように歪ませる処理を行う。この結果、オブジェクト21の外周面21aおよび内周面21bには径方向に縮小された画像が表示されることとなる。これによって、外周面21aおよび内周面21bが表示部4の画面に対して径方向に傾いているように見えるので、オブジェクト21をより立体的に見せることができる。また、反転画像を歪ませる度合い(拡大・縮小する比率)を連続的に変化させることによって、オブジェクト表面が曲面であるかのように見せることも可能である。なお、歪曲処理を行う場合には、歪ませた後の反転画像の形状が、当該反転画像に対応する領域の形状と同じ形状となるように、ステップS2において抽出する画像の形状を調整する必要がある。つまり、歪曲処理を行う場合、ステップS2における「オブジェクト8の形状に適合する形状」とは、抽出した画像に対して歪曲処理を行った後の形状がオブジェクトの形状と同じになる形状を意味することとなる。   In other embodiments, in addition to performing enlargement / reduction processing in step S6, distortion processing may be performed on each inverted image. Specifically, in the case of the second embodiment, the control unit 3 performs a process of distorting each ring-shaped inverted image so as to be reduced in the radial direction. As a result, an image reduced in the radial direction is displayed on the outer peripheral surface 21 a and the inner peripheral surface 21 b of the object 21. Thereby, since the outer peripheral surface 21a and the inner peripheral surface 21b appear to be inclined in the radial direction with respect to the screen of the display unit 4, the object 21 can be seen more three-dimensionally. It is also possible to make the object surface appear as a curved surface by continuously changing the degree of distortion (enlargement / reduction ratio) of the inverted image. When performing distortion processing, it is necessary to adjust the shape of the image extracted in step S2 so that the shape of the inverted image after distortion is the same as the shape of the region corresponding to the inverted image. There is. That is, when performing distortion processing, the “shape that matches the shape of the object 8” in step S2 means a shape in which the shape after the distortion processing is performed on the extracted image is the same as the shape of the object. It will be.

ステップS6の後、ステップS7〜S9の処理が実行される。ステップS7〜S9の処理は第1の実施形態と同様である。以上で第2の実施形態における車両用表示装置の動作の説明を終了する。   After step S6, the processes of steps S7 to S9 are executed. The processes in steps S7 to S9 are the same as in the first embodiment. Above, description of operation | movement of the display apparatus for vehicles in 2nd Embodiment is complete | finished.

図12は、第2の実施形態において表示部4の画面に表示される画像の一例を示す図である。図12に示す画像は、図10および図11に示す撮像画像を用いて生成された反転画像を、図8に示すオブジェクト21の表示領域に表示したものである。図12に示されるように、オブジェクト21の表示領域内の外周面21a(外側領域)には、図10に示す領域22の画像を反転させた画像が表示される。また、オブジェクト21の表示領域内の内周面21b(内側領域)には、図11に示す領域23の画像を180°回転させかつ反転させた画像が表示される。このように、外側領域と内側領域とで反射角度が異なるように見せることによって、オブジェクト21を立体的に見せることができる。   FIG. 12 is a diagram illustrating an example of an image displayed on the screen of the display unit 4 in the second embodiment. The image shown in FIG. 12 is a reverse image generated using the captured images shown in FIGS. 10 and 11 displayed in the display area of the object 21 shown in FIG. As shown in FIG. 12, an image obtained by inverting the image of the region 22 shown in FIG. 10 is displayed on the outer peripheral surface 21 a (outer region) in the display region of the object 21. Further, an image obtained by rotating and inverting the image of the region 23 shown in FIG. 11 by 180 ° is displayed on the inner peripheral surface 21b (inner region) in the display region of the object 21. In this way, the object 21 can be seen in three dimensions by making the reflection angle different between the outer region and the inner region.

なお、上記第2の実施形態においては、撮像画像から、予め定められた領域の画像を抽出することによって、オブジェクトの画像を生成した(ステップS1〜S6)。ここで、他の実施形態においては、3次元モデルを用いた処理によってオブジェクトの画像を生成してもよい。すなわち、仮想の3次元空間にオブジェクト21の3次元モデルを構築し、公知のレイトレーシングや環境マッピングの手法を用いて撮像画像を当該3次元モデルに貼り付ける(マッピングする)。そして、所定の視点から当該3次元モデルを見たときの画像を生成することによって、画面に表示すべきオブジェクトの画像を生成することができる。   In the second embodiment, an object image is generated by extracting an image of a predetermined area from the captured image (steps S1 to S6). Here, in another embodiment, an object image may be generated by processing using a three-dimensional model. That is, a three-dimensional model of the object 21 is constructed in a virtual three-dimensional space, and a captured image is pasted (mapped) on the three-dimensional model using a known ray tracing or environment mapping method. An image of an object to be displayed on the screen can be generated by generating an image when the three-dimensional model is viewed from a predetermined viewpoint.

以上の第2の実施形態によれば、オブジェクトの表示領域を複数の領域に分割し、撮像画像から当該領域に表示すべき画像を生成する処理を、分割された領域毎に実行する。これによって、それぞれ異なる角度で反射した光景が各領域に映るように表示されることになる。したがって、オブジェクトの複数の面が異なる角度で配置されているようにオブジェクトを見せることができ、オブジェクトを立体的に見せることができる。   According to the second embodiment described above, the process of dividing the display area of the object into a plurality of areas and generating an image to be displayed in the area from the captured image is executed for each divided area. As a result, the scenes reflected at different angles are displayed so as to appear in each area. Therefore, the object can be shown as if a plurality of surfaces of the object are arranged at different angles, and the object can be seen three-dimensionally.

上記第1および第2の実施形態においては、撮像画像を用いてオブジェクトに反射して映る画像を生成し、生成した画像をオブジェクトの表示領域に表示させることによって、オブジェクトをリアルに表現するものであった。ここで、オブジェクトをリアルに表現する他の手法としては、オブジェクトに光沢を付けて表現する方法が考えられる。すなわち、オブジェクトに付する光沢の位置を日射の向きに応じて変化させることで、オブジェクトがあたかも現実に存在している物であるように見せることができる。以下、第3の実施形態の詳細を説明する。   In the first and second embodiments described above, an image reflected by an object is generated using a captured image, and the generated image is displayed in the display area of the object, thereby expressing the object realistically. there were. Here, as another method of expressing the object realistically, a method of expressing the object with gloss can be considered. In other words, by changing the position of the gloss attached to the object according to the direction of solar radiation, the object can appear as if it actually exists. Details of the third embodiment will be described below.

(第3の実施形態)
図13〜図15を参照して、本発明の第3の実施形態に係る車両用表示装置について説明する。図13は、第3の実施形態に係る車両用表示装置の機能的な構成を示すブロック図である。図13に示すように、車両用表示装置は、日射検知部31、センサ部2、制御部3、および表示部4を備える。なお、図13において、図1と同じ構成には図1と同じ参照符号を付し、詳細な説明を省略する。
(Third embodiment)
A vehicle display device according to a third embodiment of the present invention will be described with reference to FIGS. FIG. 13 is a block diagram illustrating a functional configuration of the vehicle display device according to the third embodiment. As shown in FIG. 13, the vehicle display device includes a solar radiation detection unit 31, a sensor unit 2, a control unit 3, and a display unit 4. In FIG. 13, the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted.

図13に示す日射検知部31は、日射の方向および日射強度を検知するものである。第3の実施形態では、日射検知部31は、指向性を有する2つの日射センサによって構成される。具体的には、一方の日射センサは、車両の右側からの日射強度が強いほど大きな値を出力し、他方の日射センサは、車両の左側からの日射強度が強いほど大きな値を出力するように構成される。上記2つの日射センサの出力値の比率によって、日射の方向を判断することができる。また、上記2つの日射センサの出力値の合計によって、日射強度を判断することができる。なお、日射検知部31は、少なくとも日射の方向を検知するものであればよい。また、2つの日射センサは、例えば、車両のインストルメントパネルのフロントガラス付近の左右に配置される。以上のように、日射検知部31は、車室内に配置され、光の入射状況を検知するものである。つまり、第3の実施形態においては、日射検知部31が特許請求の範囲に記載の検知部および日射検知部に相当する。   The solar radiation detection part 31 shown in FIG. 13 detects the direction and solar radiation intensity of solar radiation. In 3rd Embodiment, the solar radiation detection part 31 is comprised by two solar radiation sensors which have directivity. Specifically, one of the solar radiation sensors outputs a larger value as the solar radiation intensity from the right side of the vehicle increases, and the other solar radiation sensor outputs a larger value as the solar radiation intensity from the left side of the vehicle increases. Composed. The direction of solar radiation can be determined from the ratio of the output values of the two solar radiation sensors. Further, the solar radiation intensity can be determined from the sum of the output values of the two solar radiation sensors. In addition, the solar radiation detection part 31 should just detect the direction of solar radiation at least. Moreover, two solar radiation sensors are arrange | positioned at the left and right vicinity of the windshield of the instrument panel of a vehicle, for example. As mentioned above, the solar radiation detection part 31 is arrange | positioned in a vehicle interior, and detects the incident condition of light. That is, in the third embodiment, the solar radiation detection unit 31 corresponds to the detection unit and the solar radiation detection unit described in the claims.

日射検知部31は、上記2つの日射センサからの2種類の出力値を制御部3へ出力する。なお、他の実施形態においては、日射検知部31は、2種類の出力値から日射の方向を算出する回路をさらに備えていてもよい。このとき、日射の方向を示すデータが日射検知部31から制御部3へ出力される。   The solar radiation detection unit 31 outputs two types of output values from the two solar radiation sensors to the control unit 3. In other embodiments, the solar radiation detection unit 31 may further include a circuit that calculates the direction of solar radiation from two types of output values. At this time, data indicating the direction of solar radiation is output from the solar radiation detection unit 31 to the control unit 3.

また、日射センサは、車両に搭載されている空調機器の制御に用いられるものを共用してもよい。別の用途で設置される日射センサを用いることによって、車両全体として部品点数を減少することができるとともに、車両に従来から設けられる機器を用いて容易に本発明を実現することができるようになる。   Moreover, the solar radiation sensor may share what is used for control of the air-conditioning equipment mounted in the vehicle. By using a solar radiation sensor installed for another purpose, the number of parts can be reduced as a whole vehicle, and the present invention can be easily realized by using a device conventionally provided in the vehicle. .

なお、第3の実施形態においては、日射センサを用いて日射の方向を検知するようにしたが、他の実施形態においては、第1の実施形態で用いたカメラによって撮像される撮像画像に基づいて日射の方向を検知するようにしてもよい。具体的には、撮像画像に含まれるウィンドウ部分の画像について輝度を算出することによって、左右どちらの方向のウィンドウが明るいかを判別することができる。さらに、左右どちらの方向のウィンドウが明るいかによって、日射の方向を判断することができる。また、空調機器の制御に用いられる赤外線式内気センサを用いて日射の方向を検知するようにしてもよい。   In the third embodiment, the direction of solar radiation is detected using a solar radiation sensor, but in other embodiments, it is based on a captured image captured by the camera used in the first embodiment. The direction of solar radiation may be detected. Specifically, by calculating the luminance of the window portion image included in the captured image, it is possible to determine which of the left and right windows is bright. Furthermore, the direction of solar radiation can be determined depending on which of the left and right windows is bright. Moreover, you may make it detect the direction of solar radiation using the infrared-type inside-air sensor used for control of an air conditioner.

次に、第3の実施形態に係る車両用表示装置の動作について説明する。以下では、第1の実施形態と同様、計器類の一例である速度メータの画像が表示部4の画面に表示される場合を例として車両用表示装置の動作を説明する。図14は、第3の実施形態において画面に表示される速度メータの例を示す図である。第3の実施形態でも第1の実施形態と同様、速度メータ9の周囲にリング状のオブジェクト35(図14に示す斜線領域)が表示される。第3の実施形態では、オブジェクト35の画像に光沢(ハイライト)36が付されて表示される。さらに、光沢36の位置および輝度は、現実の日射の方向に応じて変化する。これによって、ユーザ(運転者等)にはオブジェクト35が実際に存在する物(金属)のように見え、車両用表示装置は計器(オブジェクト8)をよりリアルに表示させることができる。以下、車両用表示装置の動作の詳細を説明する。   Next, the operation of the vehicular display device according to the third embodiment will be described. Hereinafter, as in the first embodiment, the operation of the vehicular display device will be described by taking as an example a case where an image of a speed meter, which is an example of an instrument, is displayed on the screen of the display unit 4. FIG. 14 is a diagram illustrating an example of a speed meter displayed on the screen in the third embodiment. Also in the third embodiment, as in the first embodiment, a ring-shaped object 35 (shaded area shown in FIG. 14) is displayed around the speedometer 9. In the third embodiment, the image of the object 35 is displayed with a gloss (highlight) 36 attached thereto. Furthermore, the position and brightness of the gloss 36 change according to the actual direction of solar radiation. Accordingly, the user (driver or the like) looks like an object (metal) where the object 35 actually exists, and the vehicle display device can display the instrument (object 8) more realistically. Details of the operation of the vehicle display device will be described below.

図15は、第3の実施形態における制御部3の処理の流れを示すフローチャートである。以下、第1の実施形態との相違点を中心に、第3の実施形態における動作について説明する。   FIG. 15 is a flowchart showing the flow of processing of the control unit 3 in the third embodiment. Hereinafter, the operation in the third embodiment will be described focusing on the differences from the first embodiment.

まずステップS31において、制御部3は、日射検知部31から出力される2種類の出力値を取得する。すなわち、日射検知部31から出力された2種類の出力値のデータが制御部3のメモリに記憶される。なお、ステップS31〜S37の処理ループは所定時間に1回の割合で実行され、これによってステップS31の処理は繰り返し実行される。なお、メモリには最新の2種類の出力値のデータのみが記憶されていればよい。   First, in step S <b> 31, the control unit 3 acquires two types of output values output from the solar radiation detection unit 31. That is, two types of output value data output from the solar radiation detection unit 31 are stored in the memory of the control unit 3. Note that the processing loop of steps S31 to S37 is executed at a rate of once per predetermined time, whereby the processing of step S31 is repeatedly executed. Only the latest two types of output value data need be stored in the memory.

続くステップS32において、制御部3は、メモリに記憶されている2種類の出力値に基づいて日射の方向および日射強度を算出する。例えば、日射の方向は、車両の前方を中心とした左右両側の所定範囲の角度によって表される。また、車両の前方を0[°]とし、右側の方向を正とし、左側の方向を負として日射の方向θ[°]を表す場合、日射の方向は例えば次のように算出される。すなわち、出力値A1と出力値A2とが等しい場合にはθ=0°とし、出力値A2に比べて出力値A1が大きいほどθの値は大きくなり、出力値A2に比べて出力値A1が小さいほど小さくなるように算出される。なお、出力値A1は、車両の右側からの日射強度を検知する日射センサの出力値であり、出力値A2は、車両の左側からの日射強度を検知する日射センサの出力値であるとする。また、日射強度は、例えば、上記2種類の出力値の和として算出することができる。   In subsequent step S32, the control unit 3 calculates the direction of solar radiation and the intensity of solar radiation based on the two types of output values stored in the memory. For example, the direction of solar radiation is represented by a predetermined range of angles on both the left and right sides centered on the front of the vehicle. Further, when the solar radiation direction θ [°] is represented by 0 [°] in front of the vehicle, positive in the right direction, and negative in the left direction, the solar radiation direction is calculated as follows, for example. That is, when the output value A1 is equal to the output value A2, θ = 0 °, and the larger the output value A1 compared to the output value A2, the larger the value of θ, and the output value A1 compared to the output value A2. The smaller the value, the smaller the calculation. The output value A1 is an output value of a solar radiation sensor that detects the solar radiation intensity from the right side of the vehicle, and the output value A2 is an output value of a solar radiation sensor that detects the solar radiation intensity from the left side of the vehicle. The solar radiation intensity can be calculated as, for example, the sum of the two types of output values.

ステップS32によって算出された日射方向(θ)および日射強度のデータは、制御部3のメモリに記憶される。なお、ステップS32の処理は繰り返し実行されるが、メモリには最新の日射方向および日射強度のデータのみが記憶されていればよい。   The data of the solar radiation direction (θ) and solar radiation intensity calculated in step S32 are stored in the memory of the control unit 3. In addition, although the process of step S32 is repeatedly performed, only the data of the newest solar radiation direction and solar radiation intensity should just be memorize | stored in memory.

ステップS33において、制御部3は、オブジェクト35に付す光沢36の位置および輝度を決定する。光沢36の位置は、メモリに記憶されている日射方向に基づいて決定される。例えば、上記角度θが0°である場合にはオブジェクト35の上側の基準位置(12時の位置)に決定され、上記角度θが正の値である場合には基準位置から右側の位置に決定され、上記角度θが負の値である場合には基準位置から左側の位置に決定される。また、光沢36の位置は、角度θの絶対値が大きいほど基準位置から離れるように決定される。   In step S <b> 33, the control unit 3 determines the position and brightness of the gloss 36 attached to the object 35. The position of the gloss 36 is determined based on the solar radiation direction stored in the memory. For example, when the angle θ is 0 °, the upper reference position (12 o'clock position) of the object 35 is determined, and when the angle θ is a positive value, the right position is determined from the reference position. When the angle θ is a negative value, the position is determined to the left side from the reference position. Further, the position of the gloss 36 is determined so as to be farther from the reference position as the absolute value of the angle θ is larger.

また、光沢36の輝度は、メモリに記憶されている日射強度に基づいて決定される。具体的には、日射強度の値が大きいほど輝度が大きくなるように決定される。なお、光沢36の部分が明るすぎるとメータの視認性が悪くなるおそれがあるので、制御部3は、光沢36が他の表示部分よりも暗くなるように光沢36の輝度を決定する。すなわち、光沢36の輝度は、他の表示部分の輝度よりも低くなるように決定される。   The brightness of the gloss 36 is determined based on the solar radiation intensity stored in the memory. Specifically, the brightness is determined to increase as the value of the solar radiation intensity increases. Note that if the portion of the gloss 36 is too bright, the visibility of the meter may deteriorate, so the control unit 3 determines the brightness of the gloss 36 so that the gloss 36 is darker than the other display portions. That is, the brightness of the gloss 36 is determined to be lower than the brightness of the other display portions.

ステップS33で決定された光沢の位置および輝度のデータは、制御部3のメモリに記憶される。なお、ステップS33の処理は繰り返し実行されるが、メモリには最新の位置および輝度のデータのみが記憶されていればよい。   The gloss position and luminance data determined in step S33 are stored in the memory of the control unit 3. Note that although the process of step S33 is repeatedly executed, only the latest position and luminance data need be stored in the memory.

ステップS34において、制御部3は、オブジェクト35の画像を生成する。オブジェクト35の画像は、メモリに記憶されている位置および輝度に従って光沢36が付されるように生成される。具体的には、オブジェクト35の画像は、光沢が付されていないオブジェクトの画像を予め用意しておき、当該画像に対して光沢を付することによって生成される。すなわち、制御部3は、予め用意されたオブジェクトの画像について、メモリに記憶されている位置および輝度に従って光沢が付されるように一部の色や輝度を変換する。   In step S <b> 34, the control unit 3 generates an image of the object 35. The image of the object 35 is generated so as to have a gloss 36 according to the position and brightness stored in the memory. Specifically, the image of the object 35 is generated by preparing in advance an image of an object that is not glossy and adding gloss to the image. That is, the control unit 3 converts some colors and luminances so that the object image prepared in advance is glossed according to the position and luminance stored in the memory.

また、予め用意されるオブジェクトの画像は、どのようなものであってもよいが、例えば、車室内の光景を表す画像(ステアリングやウィンドウ等が映り込んでいる画像)であってもよい。これによって、オブジェクトに車室内の光景が反射しているように見せることができる。さらに、車室内の光景を表す画像を用いる場合には、制御部3は、光沢の輝度を光沢の位置に応じて変化させるようにしてもよい。例えば、当該画像上における光沢の位置が、ウィンドウの位置となる場合には光沢を表示し(または、光沢の輝度を相対的に高く設定し)、光沢の位置がウィンドウ以外(例えばステアリングやシート等)の位置となる場合には、光沢を表示しない(または、光沢の輝度を相対的に低く設定する)ようにしてもよい。これによれば、オブジェクトをよりリアルに表現することができる。なお、他の実施形態においては、光沢が付されていないオブジェクトの画像を予め用意しておくことに代えて、上記第1の実施形態において用いた反転画像を用いるようにしてもよい。   The object image prepared in advance may be any image, and may be, for example, an image representing a scene in the vehicle interior (an image in which a steering wheel, a window, or the like is reflected). As a result, it is possible to make the object appear as if the scene in the vehicle interior is reflected. Further, when an image representing a scene in the passenger compartment is used, the control unit 3 may change the luminance of the gloss according to the position of the gloss. For example, when the position of the gloss on the image is the position of the window, the gloss is displayed (or the brightness of the gloss is set relatively high), and the position of the gloss is other than the window (for example, steering wheel or seat) ), The gloss may not be displayed (or the gloss brightness may be set relatively low). According to this, an object can be expressed more realistically. In another embodiment, the reverse image used in the first embodiment may be used instead of preparing an image of an object that is not glossy in advance.

また、他の実施形態においては、3次元モデルを用いた処理によってオブジェクト35の画像を生成してもよい。すなわち、仮想の3次元空間に構築されるオブジェクト35の3次元モデルを予め用意しておき、メモリに記憶されている位置に基づいて当該3次元空間における光源の位置を設定する。そして、所定の視点から当該3次元モデルを見たときの画像を生成することによって、画面に表示すべきオブジェクトの画像を生成することができる。   In another embodiment, an image of the object 35 may be generated by processing using a three-dimensional model. That is, a three-dimensional model of the object 35 constructed in the virtual three-dimensional space is prepared in advance, and the position of the light source in the three-dimensional space is set based on the position stored in the memory. An image of an object to be displayed on the screen can be generated by generating an image when the three-dimensional model is viewed from a predetermined viewpoint.

ステップS35において、制御部3は、表示部4に表示すべき画像を生成する。ステップS35の処理は、図3に示すステップS7の処理と同様である。続くステップS36において、制御部3は、ステップS35で生成された画像を表示部4に表示させる。これによって、日射の方向に応じた位置に光沢36が付されたオブジェクト35を含む計器類の画像が表示される(図14参照)ので、ユーザには、実際に日射がオブジェクト35の面に反射しているかのように見え、計器をよりリアルに表示させることができる。ステップS37の処理は、図3に示すステップS9の処理と同様である。ステップS31〜S37の処理ループが繰り返し実行されることによって、オブジェクト35の光沢が実際の日射に応じてリアルタイムで変化するので、オブジェクト35をよりリアルに表現することができる。   In step S <b> 35, the control unit 3 generates an image to be displayed on the display unit 4. The process of step S35 is the same as the process of step S7 shown in FIG. In subsequent step S36, the control unit 3 causes the display unit 4 to display the image generated in step S35. As a result, an image of instruments including the object 35 with the gloss 36 attached at a position corresponding to the direction of solar radiation is displayed (see FIG. 14), so that the user actually reflects the solar radiation on the surface of the object 35. The instrument can be displayed more realistically. The process of step S37 is the same as the process of step S9 shown in FIG. By repeatedly executing the processing loop of steps S31 to S37, the gloss of the object 35 changes in real time according to the actual solar radiation, so the object 35 can be expressed more realistically.

以上のように、第3の実施形態に係る車両用表示装置によれば、日射の方向を検知し、日射の方向に応じてオブジェクトの光沢の位置を変化させて計器類を表示する。これによって、画面に表示されているオブジェクトは、実際に日射がオブジェクト8の面に反射しているかのように見えるので、計器類の表示をよりリアルに見せることができる。   As described above, according to the vehicular display device according to the third embodiment, the direction of solar radiation is detected, and the instrument is displayed by changing the position of the gloss of the object according to the direction of solar radiation. As a result, the object displayed on the screen appears as if the solar radiation is actually reflected on the surface of the object 8, so that the display of the instruments can be made more realistic.

上記第3の実施形態においては、日射に応じて変化する光沢をオブジェクトに付けることによって、オブジェクトをリアルに表現するものであった。ここで、オブジェクトをリ
アルに表現する他の手法としては、オブジェクトに影を付けて表現する方法が考えられる。すなわち、オブジェクトに付する影の向きを日射の向きに応じて変化させることで、オブジェクトがあたかも現実に存在している物であるように見せることができる。以下、第4の実施形態の詳細を説明する。
In the third embodiment, the object is realistically represented by giving the object a gloss that changes according to the solar radiation. Here, as another method of expressing the object realistically, a method of expressing the object with a shadow may be considered. That is, by changing the direction of the shadow attached to the object in accordance with the direction of solar radiation, the object can appear as if it actually exists. Details of the fourth embodiment will be described below.

(第4の実施形態)
図16および図17を参照して、本発明の第4の実施形態に係る車両用表示装置について説明する。第4の実施形態に係る車両用表示装置は、画面に表示されるオブジェクトに実際の日射方向に応じた影を付するようにしたものである。なお、第4の実施形態に係る車両用表示装置の機能的な構成は図13と同様である。
(Fourth embodiment)
A vehicle display device according to a fourth embodiment of the present invention will be described with reference to FIGS. 16 and 17. The vehicle display device according to the fourth embodiment adds a shadow according to the actual solar radiation direction to an object displayed on the screen. The functional configuration of the vehicle display device according to the fourth embodiment is the same as that shown in FIG.

図16は、第4の実施形態の概要を説明するための図である。第4の実施形態においては、経路等の案内を行うためのナビゲーション装置の表示装置として車両用表示装置が用いられる場合を例として説明を行う。具体的には、図14に示されるように、操作指示用のオブジェクト(ボタン)41および42が画面に表示される場合を例として説明する。第4の実施形態では、車両用表示装置は、ボタン41に影43を付し、ボタン42に影44を付して表示する。このとき、各ボタンに対して影が付される向きは、日射の方向に応じて変化する。例えば、日射方向が車両の前方向よりもやや右方向(右斜め前)である場合、図14に示されるように、オブジェクトに対して左下に影が付される。このように、あたかも実際の日射によって影ができているように表示することで、オブジェクトの表示をよりリアルにかつ立体的に見せることができる。   FIG. 16 is a diagram for explaining the outline of the fourth embodiment. In the fourth embodiment, a case where a vehicle display device is used as a display device of a navigation device for guiding a route or the like will be described as an example. Specifically, as illustrated in FIG. 14, a case where operation instruction objects (buttons) 41 and 42 are displayed on the screen will be described as an example. In the fourth embodiment, the vehicular display device displays the button 41 with a shadow 43 and the button 42 with a shadow 44. At this time, the direction in which the shadow is applied to each button changes according to the direction of solar radiation. For example, when the solar radiation direction is slightly rightward (right diagonally forward) from the front direction of the vehicle, a shadow is added to the lower left of the object as shown in FIG. Thus, by displaying the image as if it were shaded by actual solar radiation, the display of the object can be made more realistic and three-dimensional.

次に、第4の実施形態における車両用表示装置の動作について説明する。図17は、第4の実施形態における制御部3の処理の流れを示すフローチャートである。以下、第1および第3の実施形態との相違点を中心に、第4の実施形態における動作について説明する。   Next, the operation of the vehicle display device in the fourth embodiment will be described. FIG. 17 is a flowchart showing the flow of processing of the control unit 3 in the fourth embodiment. Hereinafter, the operation in the fourth embodiment will be described focusing on the differences from the first and third embodiments.

まずステップS41において、制御部3は、日射検知部31から出力される2種類の出力値を取得する。ステップS41の処理はステップS31の処理と同じである。続くステップS42において、制御部3は、メモリに記憶されている2種類の出力値に基づいて日射の方向を算出する。日射の方向の算出方法は、第3の実施形態におけるステップS32と同じである。ステップS42によって算出された日射方向(θ)のデータは、制御部3のメモリに記憶される。   First, in step S <b> 41, the control unit 3 acquires two types of output values output from the solar radiation detection unit 31. The process of step S41 is the same as the process of step S31. In subsequent step S42, the control unit 3 calculates the direction of solar radiation based on the two types of output values stored in the memory. The calculation method of the direction of solar radiation is the same as step S32 in the third embodiment. The data of the solar radiation direction (θ) calculated in step S42 is stored in the memory of the control unit 3.

ステップS43において、制御部3は、メモリに記憶されている日射方向に基づいて、オブジェクトに対して影を付す方向を決定する。具体的には、影を付す方向は、日射の方向とおおむね逆の方向に決定される。例えば、日射方向が車両の前方向よりもやや右方向(右斜め前)である場合、すなわち、日射方向が画面の右上方向である場合、影を付す方向はオブジェクトの左下方向に決定される。ステップS43で決定された影の方向のデータは、制御部3のメモリに記憶される。   In step S43, the control unit 3 determines the direction in which the object is shaded based on the solar radiation direction stored in the memory. Specifically, the direction in which the shadow is applied is determined to be approximately opposite to the direction of solar radiation. For example, when the solar radiation direction is slightly rightward (right diagonally forward) from the front direction of the vehicle, that is, when the solar radiation direction is the upper right direction of the screen, the shadowing direction is determined as the lower left direction of the object. The shadow direction data determined in step S43 is stored in the memory of the control unit 3.

ステップS44において、制御部3は、表示部4に表示すべき画像を生成する。具体的には、図14に示されるようなナビゲーション用の画像を生成する。このとき、表示されるボタンには、メモリに記憶されている影の方向に従って影が付される。これによって、続くステップS45においてナビゲーション画像が表示部4の画面に表示される。ステップS45およびS46の処理はステップS36およびS37の処理と同じである。ステップS41〜S46の処理ループが繰り返し実行されることによって、影の向きが日射の方向に応じてリアルタイムで変化するので、オブジェクト35をよりリアルに表現することができる。   In step S <b> 44, the control unit 3 generates an image to be displayed on the display unit 4. Specifically, an image for navigation as shown in FIG. 14 is generated. At this time, the displayed button is shaded according to the direction of the shadow stored in the memory. Thereby, the navigation image is displayed on the screen of the display unit 4 in the subsequent step S45. Steps S45 and S46 are the same as steps S36 and S37. By repeatedly executing the processing loop of steps S41 to S46, the shadow direction changes in real time according to the direction of solar radiation, so the object 35 can be expressed more realistically.

以上のように、第4の実施形態に係る車両用表示装置によれば、日射の方向を検知し、日射の方向に応じてオブジェクトに付される影の向きを変化させて表示する。これによって、画面に表示されているオブジェクトが実際に存在する物であるかのように見えるので、オブジェクトをよりリアルに見せることができる。   As described above, according to the vehicular display device according to the fourth embodiment, the direction of solar radiation is detected, and the direction of the shadow attached to the object is changed and displayed according to the direction of solar radiation. This makes it appear as if the object displayed on the screen actually exists, so that the object can appear more realistic.

なお、上記第4の実施形態においては、表示部4にナビゲーション用の画像が表示される場合を例として説明したが、影を付す対象となるオブジェクトはどのようなものであってもよい。例えば、ナビゲーション画面において表示されるボタンに限らず、車両の各種機能(空調機能やオーディオ機能等)を操作するためのボタンが表示部4に表示される場合には、影を付す対象となるオブジェクトはこれらのボタンであってもよい。さらに、上記第1〜第3で説明したような計器類に影を付するようにしてもよい(図18参照)。   In the fourth embodiment, the case where the navigation image is displayed on the display unit 4 has been described as an example. However, any object to be shaded may be used. For example, when buttons for operating various functions of the vehicle (such as an air conditioning function and an audio function) are displayed on the display unit 4 in addition to the buttons displayed on the navigation screen, an object to be shaded May be these buttons. Further, the instruments as described in the first to third embodiments may be shaded (see FIG. 18).

図18は、第4の実施形態の変形例における表示画面を示す図である。図18においては、第2の実施形態に示したような立体的な(立体的に見える)オブジェクト51が速度メータの周囲に表示されている。車両用表示装置は、オブジェクト51に付する影52および53の位置および形状、ならびに、速度メータの指針54の影55の位置を、日射方向に応じて変化させて表示する。これによって、オブジェクト51および指針54を立体的かつリアルに見せることができる。なお、図18においてさらに、第3の実施形態と第4の実施形態とを組み合わせて、オブジェクト51に光沢を付するようにしてもよい。   FIG. 18 is a diagram showing a display screen in a modified example of the fourth embodiment. In FIG. 18, a three-dimensional (three-dimensionally visible) object 51 as shown in the second embodiment is displayed around the speedometer. The vehicular display device displays the positions and shapes of the shadows 52 and 53 attached to the object 51 and the position of the shadow 55 of the speedometer pointer 54 according to the solar radiation direction. As a result, the object 51 and the pointer 54 can be seen three-dimensionally and realistically. In FIG. 18, the object 51 may be further glossed by combining the third embodiment and the fourth embodiment.

以上に説明した第1〜第4の実施形態によれば、車両用表示装置は、検知部(カメラ1または日射検知部31)によって光の入射状況を検知し、オブジェクトの表示形態(オブジェクトに反射して映る画像、オブジェクトの光沢、または、オブジェクトに付される影等)を検知結果(カメラ1による撮像画像、または、日射センサの出力)に応じて変化させる。これによって、現実の光の入射状況に応じて画面に表示されるオブジェクトの表示が変化するので、当該オブジェクトをあたかも現実の物のようにリアルに見せることができる。   According to the first to fourth embodiments described above, the vehicle display device detects the incident state of light by the detection unit (camera 1 or solar radiation detection unit 31) and reflects the object display form (reflected by the object). The image displayed, the gloss of the object, the shadow attached to the object, and the like) are changed according to the detection result (the image captured by the camera 1 or the output of the solar radiation sensor). As a result, the display of the object displayed on the screen changes according to the actual incident state of light, so that the object can be seen as if it were real.

本発明は、簡易な構成でより現実味のある表示を可能とする車両用表示装置を提供すること等を目的として、例えば計器類等を表示するための車両用表示装置として利用することが可能である。   The present invention can be used, for example, as a vehicle display device for displaying instruments and the like for the purpose of providing a vehicle display device that enables more realistic display with a simple configuration. is there.

第1の実施形態に係る車両用表示装置の機能的な構成を示すブロック図The block diagram which shows the functional structure of the display apparatus for vehicles which concerns on 1st Embodiment. カメラ1および表示部4の車両における配置の一例を示す図The figure which shows an example of arrangement | positioning in the vehicle of the camera 1 and the display part 4 画面に表示される速度メータの例を示す図The figure which shows the example of the speed meter displayed on the screen 第1の実施形態における制御部3の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the control part 3 in 1st Embodiment. 撮像画像の一例を示す図The figure which shows an example of a captured image 表示部4の画面に表示される画像の一例を示す図The figure which shows an example of the image displayed on the screen of the display part 4. 第2の実施形態において表示すべきオブジェクトの概念図Conceptual diagram of an object to be displayed in the second embodiment 第2の実施形態の概要を説明するための図The figure for demonstrating the outline | summary of 2nd Embodiment. 画像を抽出する方法を説明するための図The figure for demonstrating the method of extracting an image 外側領域に表示すべき画像を抽出する領域を示す図The figure which shows the area | region which extracts the image which should be displayed on an outer side area | region 内側領域に表示すべき画像を抽出する領域を示す図The figure which shows the field which extracts the image which should be displayed in the inside field 第2の実施形態において表示部4の画面に表示される画像の一例を示す図The figure which shows an example of the image displayed on the screen of the display part 4 in 2nd Embodiment. 第3の実施形態に係る車両用表示装置の機能的な構成を示すブロック図The block diagram which shows the functional structure of the display apparatus for vehicles which concerns on 3rd Embodiment. 第3の実施形態において画面に表示される速度メータの例を示す図The figure which shows the example of the speedometer displayed on a screen in 3rd Embodiment 第3の実施形態における制御部3の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the control part 3 in 3rd Embodiment. 第4の実施形態の概要を説明するための図The figure for demonstrating the outline | summary of 4th Embodiment 第4の実施形態における制御部3の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the control part 3 in 4th Embodiment. 第4の実施形態の変形例における表示画面を示す図The figure which shows the display screen in the modification of 4th Embodiment.

符号の説明Explanation of symbols

1 カメラ
2 センサ部
3 制御部
4 表示部
8,21,35,41,42,51 オブジェクト
9 速度メータ
31 日射検知部
DESCRIPTION OF SYMBOLS 1 Camera 2 Sensor part 3 Control part 4 Display part 8, 21, 35, 41, 42, 51 Object 9 Speedometer 31 Solar radiation detection part

Claims (8)

所定のオブジェクトを表示する表示部と、
前記表示部が配置される車室内に配置され、光の入射状況を検知する検知部と、
前記オブジェクトの表示形態を前記検知部による検知結果に応じて変化させるように前記表示部を制御する制御部とを備える、車両用表示装置。
A display unit for displaying a predetermined object;
A detection unit that is arranged in a vehicle interior where the display unit is arranged and detects a light incident state;
A vehicle display device comprising: a control unit that controls the display unit so as to change a display form of the object according to a detection result by the detection unit.
前記検知部は、前記表示部の画面前方を撮像する撮像手段であり、
前記制御部は、前記撮像手段によって撮像された撮像画像の少なくとも一部の画像を、前記オブジェクトに反射して映る画像として用いる、請求項1に記載の車両用表示装置。
The detection unit is an imaging unit that images the screen front of the display unit,
The vehicle display device according to claim 1, wherein the control unit uses at least a part of an image captured by the imaging unit as an image reflected on the object.
前記制御部は、前記オブジェクトに反射して映る画像として用いる画像の明るさが所定の基準よりも明るい場合、当該画像が暗くなるように輝度を補正する、請求項2に記載の車両用表示装置。   The vehicle display device according to claim 2, wherein when the brightness of an image used as an image reflected and reflected on the object is brighter than a predetermined reference, the control unit corrects the luminance so that the image becomes dark. . 前記制御部は、
前記オブジェクトの形状に適合するように前記撮像画像から一部の画像を抽出する画像抽出部と、
前記抽出された画像を反転させる反転部とを含み、
前記表示部は、前記反転された画像を前記オブジェクトの表示領域内に表示する、請求項2に記載の車両用表示装置。
The controller is
An image extraction unit that extracts a part of the image from the captured image so as to conform to the shape of the object;
An inversion unit for inverting the extracted image,
The vehicle display device according to claim 2, wherein the display unit displays the inverted image in a display area of the object.
前記オブジェクトの表示領域内には複数の領域が設定され、
前記画像抽出部は、前記複数の領域の形状にそれぞれ適合するように前記撮像画像から一部の画像を当該複数の領域毎に抽出し、
前記反転部は、抽出された複数の画像をそれぞれ反転させ、
前記表示部は、前記反転された各画像を、対応する前記複数の領域にそれぞれ表示する、請求項4に記載の車両用表示装置。
A plurality of areas are set in the display area of the object,
The image extraction unit extracts a part of the plurality of regions from the captured image so as to conform to the shapes of the plurality of regions,
The inversion unit inverts each of the extracted images,
The vehicle display device according to claim 4, wherein the display unit displays each of the inverted images in the corresponding plurality of regions.
前記検知部は、日射の方向を検知する日射検知手段によって構成され、
前記制御部は、前記オブジェクトの光沢の位置を日射の方向に応じて変化させる、請求項1に記載の車両用表示装置。
The detection unit is configured by solar radiation detection means for detecting the direction of solar radiation,
The vehicle display device according to claim 1, wherein the control unit changes a gloss position of the object according to a direction of solar radiation.
前記検知部は、日射の方向を検知する日射検知手段によって構成され、
前記制御部は、前記オブジェクトに付される影の向きを日射の方向に応じて変化させる、請求項1に記載の車両用表示装置。
The detection unit is configured by solar radiation detection means for detecting the direction of solar radiation,
The vehicle display device according to claim 1, wherein the control unit changes a direction of a shadow attached to the object according to a direction of solar radiation.
前記日射検知手段は、車両の空調機器の制御に用いられる日射センサによって構成される、請求項6または請求項7に記載の車両用表示装置。   The said solar radiation detection means is a display apparatus for vehicles of Claim 6 or Claim 7 comprised by the solar radiation sensor used for control of the air conditioner of a vehicle.
JP2007001903A 2007-01-10 2007-01-10 Vehicular display device Pending JP2008168693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007001903A JP2008168693A (en) 2007-01-10 2007-01-10 Vehicular display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007001903A JP2008168693A (en) 2007-01-10 2007-01-10 Vehicular display device

Publications (1)

Publication Number Publication Date
JP2008168693A true JP2008168693A (en) 2008-07-24

Family

ID=39697206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007001903A Pending JP2008168693A (en) 2007-01-10 2007-01-10 Vehicular display device

Country Status (1)

Country Link
JP (1) JP2008168693A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010058633A (en) * 2008-09-03 2010-03-18 Aisin Aw Co Ltd Vehicular instrument display device, vehicular instrument display method, and computer program
JP2011226881A (en) * 2010-04-19 2011-11-10 Nippon Seiki Co Ltd Instrument for vehicle
WO2013094012A1 (en) * 2011-12-20 2013-06-27 パイオニア株式会社 Headup display, display apparatus, and control method
JP2014052343A (en) * 2012-09-10 2014-03-20 Calsonic Kansei Corp On-vehicle device
JP2014190318A (en) * 2013-03-28 2014-10-06 Yanmar Co Ltd Engine device
JP2014213636A (en) * 2013-04-23 2014-11-17 アルパイン株式会社 Vehicular display device
JP2015071369A (en) * 2013-10-03 2015-04-16 矢崎総業株式会社 Display device for vehicle
WO2016046981A1 (en) * 2014-09-26 2016-03-31 三菱電機株式会社 Drawing control device
JP2016194924A (en) * 2015-03-31 2016-11-17 ビステオン グローバル テクノロジーズ インコーポレイテッド Graphical user interface (gui) shading based on context
US10380714B2 (en) 2017-09-26 2019-08-13 Denso International America, Inc. Systems and methods for ambient animation and projecting ambient animation on an interface

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010058633A (en) * 2008-09-03 2010-03-18 Aisin Aw Co Ltd Vehicular instrument display device, vehicular instrument display method, and computer program
JP2011226881A (en) * 2010-04-19 2011-11-10 Nippon Seiki Co Ltd Instrument for vehicle
WO2013094012A1 (en) * 2011-12-20 2013-06-27 パイオニア株式会社 Headup display, display apparatus, and control method
JP2014052343A (en) * 2012-09-10 2014-03-20 Calsonic Kansei Corp On-vehicle device
JP2014190318A (en) * 2013-03-28 2014-10-06 Yanmar Co Ltd Engine device
JP2014213636A (en) * 2013-04-23 2014-11-17 アルパイン株式会社 Vehicular display device
JP2015071369A (en) * 2013-10-03 2015-04-16 矢崎総業株式会社 Display device for vehicle
WO2016046981A1 (en) * 2014-09-26 2016-03-31 三菱電機株式会社 Drawing control device
JP6038419B2 (en) * 2014-09-26 2016-12-07 三菱電機株式会社 Drawing control device
CN106715180A (en) * 2014-09-26 2017-05-24 三菱电机株式会社 Drawing control device
US10134369B2 (en) 2014-09-26 2018-11-20 Mitsubishi Electric Corporation Drawing control device
JP2016194924A (en) * 2015-03-31 2016-11-17 ビステオン グローバル テクノロジーズ インコーポレイテッド Graphical user interface (gui) shading based on context
US10380714B2 (en) 2017-09-26 2019-08-13 Denso International America, Inc. Systems and methods for ambient animation and projecting ambient animation on an interface

Similar Documents

Publication Publication Date Title
JP2008168693A (en) Vehicular display device
JP4765524B2 (en) Vehicle display device
CN105191297B (en) Image display control apparatus and image display system
JP5181939B2 (en) VEHICLE INSTRUMENT DISPLAY DEVICE, VEHICLE INSTRUMENT DISPLAY METHOD, AND COMPUTER PROGRAM
JP4622740B2 (en) Display control device for vehicle
US20120293659A1 (en) Parameter determining device, parameter determining system, parameter determining method, and recording medium
EP2631696A2 (en) Image generator
JP2010030331A (en) Vehicle display device
JP2009276943A (en) Display device for vehicle
JP2012194756A (en) Display device and navigation device
JP2018136698A (en) Display control device and display control program
CN117916706A (en) Method for operating smart glasses in a motor vehicle during driving, correspondingly operable smart glasses and motor vehicle
JP2008037118A (en) Display for vehicle
JP2014213636A (en) Vehicular display device
JP6326223B2 (en) Graphic meter
JP2012138876A (en) Image generating apparatus, image display system, and image display method
JP5338374B2 (en) Display device for vehicle and display method for vehicle
JP2008034964A (en) Image display apparatus
CN210139817U (en) Automobile augmented reality display system and automobile
CN108025674A (en) Method and apparatus for the vehicle environmental for showing vehicle
JP6278655B2 (en) Graphic meter
JP2015063178A (en) Display device for vehicle
JP5893534B2 (en) In-vehicle device
TW201823684A (en) Vehicle navigation projection system and method thereof
TW201823683A (en) Vehicle navigation display system and method thereof