JP7471416B2 - IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM - Google Patents

IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM Download PDF

Info

Publication number
JP7471416B2
JP7471416B2 JP2022534566A JP2022534566A JP7471416B2 JP 7471416 B2 JP7471416 B2 JP 7471416B2 JP 2022534566 A JP2022534566 A JP 2022534566A JP 2022534566 A JP2022534566 A JP 2022534566A JP 7471416 B2 JP7471416 B2 JP 7471416B2
Authority
JP
Japan
Prior art keywords
temperature
light
emitting element
unit
temperature measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022534566A
Other languages
Japanese (ja)
Other versions
JPWO2022009345A1 (en
Inventor
俊明 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022009345A1 publication Critical patent/JPWO2022009345A1/ja
Application granted granted Critical
Publication of JP7471416B2 publication Critical patent/JP7471416B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of El Displays (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本開示は、画像処理装置、表示制御装置、画像表示装置、画像処理方法、プログラム、及び前記プログラムを記録した記録媒体に関する。 The present disclosure relates to an image processing device, a display control device, an image display device, an image processing method, a program, and a recording medium on which the program is recorded.

一般的に、LED(発光ダイオード、Light Emitting Diode)などの発光素子で発生する光の輝度及び色度は温度に応じて変化する。特許文献1は、バックライトにLEDが用いられた液晶表示パネルの温度を測定し、測定された温度に応じた補正データを用いて画像データを補正する液晶表示パネルの駆動方法を提案している。In general, the brightness and chromaticity of light generated by light-emitting elements such as LEDs (light-emitting diodes) change depending on the temperature. Patent Document 1 proposes a method for driving a liquid crystal display panel in which the temperature of the liquid crystal display panel using LEDs as the backlight is measured, and image data is corrected using correction data according to the measured temperature.

また、赤(R)、緑(G)及び青(B)の光を発するLED(例えば、3個のLED)を有する1つの発光素子部を1画素とし、複数の画素が規則的に配置された表示パネルを備えた、表示器であるLEDディスプレイが実用されている。なお、1つのパッケージ内に複数のLEDを備えた発光素子部は、「3in1チップタイプLED素子」又は「3in1発光素子」とも称される。 LED displays, which are displays, are in practical use and have a display panel in which a single light-emitting element section having LEDs (e.g., three LEDs) that emit red (R), green (G), and blue (B) light constitutes one pixel, and multiple pixels are regularly arranged. A light-emitting element section having multiple LEDs in one package is also called a "3-in-1 chip-type LED element" or "3-in-1 light-emitting element."

国際公開第2011/125374号(段落0045、0050~0053、図1)International Publication No. 2011/125374 (paragraphs 0045, 0050-0053, Figure 1)

しかしながら、発光素子部を画素とする表示パネルでは、表示コンテンツ(すなわち、入力画像データ)によって、個々のLEDに流れる電流が変わるため、個々の発光素子部の温度が異なる。また、発光素子部を画素とする表示パネルでは、表示器に搭載される電源、回路などの熱源で熱が発生するので、熱源と発光素子部との位置関係に応じて個々の発光素子部の温度が異なる。これらの理由により、表示器に表示される画像に輝度ムラ及び色ムラが発生する。However, in a display panel in which the light-emitting element units are pixels, the current flowing through each LED changes depending on the display content (i.e., input image data), and so the temperature of each light-emitting element unit differs. Also, in a display panel in which the light-emitting element units are pixels, heat is generated from heat sources such as power supplies and circuits mounted on the display, and so the temperature of each light-emitting element unit differs depending on the positional relationship between the heat source and the light-emitting element unit. For these reasons, uneven brightness and color occur in the image displayed on the display.

本開示の目的は、表示器に表示される画像の輝度ムラ及び色ムラの少なくとも一方を低減することである。 The objective of this disclosure is to reduce at least one of the brightness unevenness and color unevenness of an image displayed on a display device.

本開示の画像処理装置は、各々が1つ以上の発光素子を含む複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、を有し、前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含むことを特徴とする。 The image processing device of the present disclosure includes a temperature measurement unit that measures the temperature in the vicinity of a plurality of light-emitting element units, each of which includes one or more light-emitting elements, and outputs a temperature measurement value indicating the temperature; a learning temperature measurement unit that is temporarily provided for measuring the temperature of the light-emitting element units and outputs a learning temperature measurement value indicating the temperature; a temperature estimation unit that uses a neural network to estimate the temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display having the plurality of light-emitting element units and is used to display an image, and outputs a temperature estimate value indicating the estimated temperature; and a temperature compensation unit that corrects the image data based on the temperature estimate value so that at least one of changes in luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units, and the temperature estimate value of the light-emitting element unit to be estimated among the plurality of light-emitting element units is determined based on the image data and a previous The temperature measurement value is calculated using a model formula that matches the temperature measurement values in the vicinity of the multiple light-emitting element units measured by the temperature measurement unit, structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated, and the parameters of the model formula are values obtained by pre-learning the neural network using multiple data sets prepared for learning so that the temperature estimation value approaches the learning temperature measurement value , and the data sets include the image data, the temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit.

本開示の画像処理方法は、温度測定部により、各々が1つ以上の発光素子を含む複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力するステップと、ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力するステップと、前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正するステップと、を有し、前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が、前記発光素子部の温度を測定するために一時的に設けられた学習用温度測定部が出力した学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、前記データセットは、前記画像データ、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含むことを特徴とする。
The image processing method of the present disclosure includes the steps of measuring the temperature in the vicinity of a plurality of light-emitting element units, each of which includes one or more light-emitting elements, by a temperature measurement unit, and outputting a temperature measurement value indicating the temperature; estimating the temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data input to a display having the plurality of light-emitting element units and for displaying an image, using a neural network, and outputting a temperature estimate value indicating the estimated temperature; and correcting the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units, and the temperature estimate value of a light-emitting element unit to be estimated among the plurality of light-emitting element units is determined based on the image data, the temperature measurement value in the vicinity of the plurality of light-emitting element units, and a position between the light-emitting element unit to be estimated and the temperature measurement unit. The temperature estimation value is calculated using a model formula that matches structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated, and the parameters of the model formula are values obtained by pre-training the neural network using a plurality of data sets prepared for learning so that the temperature estimation value approaches a learning temperature measurement value output by a learning temperature measurement unit temporarily installed to measure the temperature of the light-emitting element unit, and the data sets include the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units measured by the temperature measurement unit , structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .

本開示の画像処理装置、表示制御装置、画像表示装置、画像処理方法、プログラム、及び記録媒体を用いれば、表示器に表示される画像の輝度ムラ及び色ムラの少なくとも一方を低減することができる。 By using the image processing device, display control device, image display device, image processing method, program, and recording medium disclosed herein, it is possible to reduce at least one of brightness unevenness and color unevenness in an image displayed on a display device.

実施の形態1に係る画像表示装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an image display device according to a first embodiment; (a)は、図1に示される表示器に備えられた複数の発光素子部を概略的に示す正面図であり、(b)は、1つの発光素子部の構造を概略的に示す拡大図である。2A is a front view showing a schematic diagram of a plurality of light-emitting element units provided in the display shown in FIG. 1 , and FIG. 2B is an enlarged view showing a schematic diagram of a structure of one light-emitting element unit. (a)及び(b)は、複数のLEDを有する発光素子部で発生する光の輝度及び色度の、温度による変化の例を示す図である。5A and 5B are diagrams showing an example of changes in luminance and chromaticity of light generated by a light-emitting element section having a plurality of LEDs depending on temperature. 図1に示される画像処理装置の機能を実現するコンピュータを、表示器及び温度測定部とともに示すハードウェア構成図である。2 is a hardware configuration diagram showing a computer that realizes the functions of the image processing device shown in FIG. 1 together with a display device and a temperature measuring unit. 図1に示される画像処理装置の温度推定部を構成するニューラルネットワークの例を示す図である。2 is a diagram showing an example of a neural network constituting a temperature estimation unit of the image processing device shown in FIG. 1 . 図1に示される画像処理装置の温度補償部の構成を示すブロック図である。2 is a block diagram showing a configuration of a temperature compensation unit of the image processing apparatus shown in FIG. 1 . (a)及び(b)は、図5に示される補償テーブル格納部に格納されている補償テーブルで定義される入力と出力との関係の例を示す図である。6A and 6B are diagrams showing an example of the relationship between input and output defined in a compensation table stored in a compensation table storage unit shown in FIG. 5 . 図1に示される画像処理装置が実行する処理を示すフローチャートである。2 is a flowchart showing a process executed by the image processing device shown in FIG. 1 . 実施の形態1に係る画像表示装置を、学習装置及び学習用温度測定部とともに示すブロック図である。1 is a block diagram showing an image display device according to a first embodiment, together with a learning device and a learning temperature measurement unit. (a)から(d)は、図1に示される温度測定部の設置例を示す図である。2A to 2D are diagrams illustrating an example of installation of a temperature measuring unit shown in FIG. 1. 実施の形態2に係る画像表示装置の構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of an image display device according to a second embodiment. 図11に示される画像処理装置の温度推定部を構成するニューラルネットワークの例を示す図である。FIG. 12 is a diagram illustrating an example of a neural network that constitutes a temperature estimation unit of the image processing device shown in FIG. 11 . 実施の形態2に係る画像表示装置が実行する処理を示すフローチャートである。10 is a flowchart showing a process executed by an image display device according to a second embodiment. 実施の形態3に係る画像表示装置の構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of an image display device according to a third embodiment. 実施の形態3に係る画像表示装置が実行する処理を示すフローチャートである。13 is a flowchart showing a process executed by an image display device according to a third embodiment.

以下に、実施の形態に係る画像処理装置、表示制御装置、画像表示装置、画像処理方法、コンピュータに画像処理を実行させるプログラム、及び前記プログラムを記録した記録媒体を、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。 Below, an image processing device, a display control device, an image display device, an image processing method, a program for causing a computer to execute image processing, and a recording medium on which the program is recorded, relating to the embodiments, are described with reference to the drawings. The following embodiments are merely examples, and the embodiments can be combined as appropriate, and each embodiment can be modified as appropriate.

実施の形態1.
図1は、実施の形態1に係る画像表示装置1の構成を示すブロック図である。図1に示されるように、画像表示装置1は、画像を表示する表示器2と、表示器2を制御する表示制御装置3とを有する。表示制御装置3は、画像処理装置4と、電源、IC(Integrated Circuit)チップなどの第1~第N(Nは正の整数)の熱源である熱源6a,6bと、熱源6a,6bの温度をそれぞれ測定する第1~第Nの温度測定部である温度測定部5a,5bとを有する。図1の例では、N=2である場合を説明する。ただし、温度測定部の数(すなわち、N)は、1であってもよい。或いは、温度測定部の数(すなわち、N)は、3以上であってもよい。
Embodiment 1.
FIG. 1 is a block diagram showing the configuration of an image display device 1 according to the first embodiment. As shown in FIG. 1, the image display device 1 has a display device 2 that displays an image, and a display control device 3 that controls the display device 2. The display control device 3 has an image processing device 4, heat sources 6a and 6b that are first to Nth (N is a positive integer) heat sources such as a power source and an IC (Integrated Circuit) chip, and temperature measurement units 5a and 5b that are first to Nth temperature measurement units that measure the temperatures of the heat sources 6a and 6b, respectively. In the example of FIG. 1, a case where N=2 will be described. However, the number of temperature measurement units (i.e., N) may be 1. Alternatively, the number of temperature measurement units (i.e., N) may be 3 or more.

図2(a)は、図1に示される表示器2に備えられた複数の発光素子部20を概略的に示す正面図であり、図2(b)は、1つの発光素子部20の構造を概略的に示す拡大図である。図2(a)に示されるように、表示器2では、水平走査方向(図2(a)における横方向)にxmax個、垂直走査方向(図2(a)における縦方向)にymax個の発光素子部20が規則的に(例えば、マトリックス状に)配置されている。xmax及びymaxは、予め決められた正の整数である。 Fig. 2(a) is a front view showing a schematic of a plurality of light-emitting element units 20 provided in the display device 2 shown in Fig. 1, and Fig. 2(b) is an enlarged view showing a schematic of the structure of one light-emitting element unit 20. As shown in Fig. 2(a), in the display device 2, x max light-emitting element units 20 are arranged regularly (e.g., in a matrix) in the horizontal scanning direction (horizontal direction in Fig. 2(a)) and y max light-emitting element units 20 are arranged in the vertical scanning direction (vertical direction in Fig. 2(a)). x max and y max are predetermined positive integers.

各発光素子部20は、例えば、赤(R)、緑(G)及び青(B)の光を発する発光素子としてのLEDを有する。R、G、Bの光を発するLEDは、それぞれ「R用のLED」、「G用のLED」、「B用のLED」とも表記される。また、R、G、Bの光を発するLEDは、「R、G、B用のLED」とも表記される。図2(b)に符号R、G、Bで示されるように、各発光素子部(すなわち、各画素)20は、1つのパッケージ内にR用のLED、G用のLED、及びB用のLEDが設けられた構造を有している。ただし、発光素子部20の構造は、上記のものに限定されず、1つ以上の発光素子を有するものであればよい。Each light-emitting element unit 20 has, for example, LEDs as light-emitting elements that emit red (R), green (G) and blue (B) light. The LEDs that emit R, G and B light are also written as "LED for R", "LED for G" and "LED for B", respectively. The LEDs that emit R, G and B light are also written as "LED for R, G and B". As shown by the symbols R, G and B in FIG. 2(b), each light-emitting element unit (i.e., each pixel) 20 has a structure in which an LED for R, an LED for G and an LED for B are provided in one package. However, the structure of the light-emitting element unit 20 is not limited to the above, and it may have one or more light-emitting elements.

図3(a)及び(b)は、R、G、B用のLEDを有する発光素子部20で発生する光の輝度及び色度の温度による変化の例を示す図である。図3(a)には、基準温度Tmrにおける輝度である基準輝度に対する温度Tにおける輝度の比である輝度比(すなわち、輝度の正規化値)Vpがグラフで示されている。図3(b)には、基準温度Tmrにおける色度である基準色度に対する温度Tにおける色度の比である色度比(すなわち、色度の正規化値)Xp,Ypがグラフで示されている。図3(a)及び(b)に示されるように、R、G、B用のLEDを有する発光素子部20は、発生する光の輝度及び色度の双方又は一方が、温度Tに応じて変化する。図3(a)では、輝度比Vpは温度Tの上昇に応じて低下する。図3(b)では、色度は、CIE-xy色度図におけるxy座標(x,y)を示す2つの数値であるx及びyで表されている。図3(b)では、CIE-xy色度図におけるx及びyの値の変化を示す色度比Xp及びYpは、温度Tの上昇に応じて低下する。なお、CIE-xy色度におけるx及びyは、図2(a)などにおける表示器2の画面における画素の位置を示す座標としての(x,y)とは異なる記号である。3(a) and (b) are diagrams showing an example of the change in luminance and chromaticity of light generated by the light-emitting element unit 20 having LEDs for R, G, and B due to temperature. In FIG. 3(a), the luminance ratio (i.e., normalized luminance value) Vp, which is the ratio of luminance at temperature T to reference luminance, which is the luminance at reference temperature Tmr, is shown in a graph. In FIG. 3(b), the chromaticity ratio (i.e., normalized chromaticity value) Xp, Yp, which is the ratio of chromaticity at temperature T to reference chromaticity, which is the chromaticity at reference temperature Tmr, is shown in a graph. As shown in FIG. 3(a) and (b), the luminance and/or chromaticity of the light generated by the light-emitting element unit 20 having LEDs for R, G, and B change depending on the temperature T. In FIG. 3(a), the luminance ratio Vp decreases depending on the increase in temperature T. In FIG. 3(b), the chromaticity is represented by two numerical values x and y that indicate the xy coordinates (x, y) in the CIE-xy chromaticity diagram. In Fig. 3(b), chromaticity ratios Xp and Yp, which indicate changes in the values of x and y in the CIE-xy chromaticity diagram, decrease with an increase in temperature T. Note that x and y in the CIE-xy chromaticity diagram are symbols different from the coordinates (x, y) indicating the position of a pixel on the screen of the display device 2 in Fig. 2(a) and other figures.

温度測定部5aは、画像表示装置1に搭載された熱源6aの周辺(例えば、近傍)に設置され、熱源6aの温度を測定して、熱源6aの温度を示す温度測定値Ta0を出力する。熱源6aは、表示器2を構成する発光素子部に含まれるLEDの温度に影響を与える。温度測定部5bも、同様に、画像表示装置1に搭載される熱源6bの温度を測定して温度測定値TaNを出力する。実施の形態1では、温度測定部の数が2個である例を説明する。The temperature measurement unit 5a is installed around (for example, near) the heat source 6a mounted on the image display device 1, measures the temperature of the heat source 6a, and outputs a temperature measurement value Ta0 indicating the temperature of the heat source 6a. The heat source 6a affects the temperature of the LEDs included in the light-emitting element portion that constitutes the display device 2. Similarly, the temperature measurement unit 5b measures the temperature of the heat source 6b mounted on the image display device 1, and outputs a temperature measurement value TaN. In embodiment 1, an example in which the number of temperature measurement units is two will be described.

温度測定部5a及び5bのそれぞれは、温度センサを有する。温度センサは、接触式のものであってもよく、非接触式のものであってもよい。接触式の温度センサは、例えば、サーミスタ又は熱電対により構成されたものである。非接触式の温度センサは、例えば、赤外線を受けて表面温度を検知するものである。Each of the temperature measuring units 5a and 5b has a temperature sensor. The temperature sensor may be of a contact type or a non-contact type. A contact type temperature sensor is, for example, configured with a thermistor or a thermocouple. A non-contact type temperature sensor detects the surface temperature by receiving, for example, infrared rays.

画像処理装置4は、入力画像データに応じた画像を表示器2に表示させる。画像処理装置4は、入力画像データに基づいて、表示器2の各発光素子部(すなわち、座標(x,y)の画素)20の温度を推定し、推定された温度である温度推定値Te0(x,y)に基づいて、温度変化による座標(x,y)の発光素子部20で発生する光の輝度及び色度の変化を補償するための画像データ(例えば、画素ごとの画像データ)の補正を行い、補正された画像データを表示器2に供給する。The image processing device 4 causes the display device 2 to display an image corresponding to the input image data. The image processing device 4 estimates the temperature of each light-emitting element unit (i.e., the pixel at coordinates (x, y)) 20 of the display device 2 based on the input image data, corrects the image data (e.g., image data for each pixel) to compensate for changes in luminance and chromaticity of light generated by the light-emitting element unit 20 at coordinates (x, y) due to temperature changes based on a temperature estimate value Te0(x, y), which is the estimated temperature, and supplies the corrected image data to the display device 2.

画像処理装置4は、その一部又は全部を処理回路で構成し得る。例えば、画像処理装置4の複数の部分の機能をそれぞれ別個の処理回路で実現してもよく、又は、画像処理装置4の複数の部分の機能を纏めて1つの処理回路で実現してもよい。処理回路は、ハードウェアで構成されてもよく、ソフトウェアとしてのプログラムを実行するコンピュータで構成されていてもよい。画像処理装置4の機能のうちの一部をハードウェアで実現し、他の部分をソフトウェアとしてのプログラムを実行するコンピュータで実現してもよい。The image processing device 4 may be configured in part or in whole by a processing circuit. For example, the functions of multiple parts of the image processing device 4 may each be realized by a separate processing circuit, or the functions of multiple parts of the image processing device 4 may be realized together by a single processing circuit. The processing circuit may be configured by hardware, or may be configured by a computer that executes a program as software. Some of the functions of the image processing device 4 may be realized by hardware, and other parts may be realized by a computer that executes a program as software.

図4は、画像処理装置4の機能を実現するコンピュータ9を、表示器2及び温度測定部5a,5bとともに示すブロック図である。コンピュータ9は、情報処理部としてのプロセッサ91と、記憶部としてのメモリ92とを有する。 Figure 4 is a block diagram showing a computer 9 that realizes the functions of the image processing device 4, together with the display 2 and temperature measurement units 5a and 5b. The computer 9 has a processor 91 as an information processing unit and a memory 92 as a storage unit.

プロセッサ91は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)等を備える。The processor 91 includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, or a DSP (Digital Signal Processor).

メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)等の半導体メモリを有している。メモリ92は、磁気ディスク、光ディスク、又は、光磁気ディスク等を有してもよい。The memory 92 includes, for example, a semiconductor memory such as a random access memory (RAM), a read-only memory (ROM), a flash memory, an erasable programmable read-only memory (EPROM), or an electrically erasable programmable read-only memory (EEPROM). The memory 92 may include a magnetic disk, an optical disk, or a magneto-optical disk.

プロセッサ91は、メモリ92に記憶されているプログラムを実行することにより、画像処理装置4の機能を実現する。画像処理装置4の機能には、表示器2における表示動作の制御が含まれる。なお、図4に示されるコンピュータ9は、単一のプロセッサ91を含むが、2つ以上のプロセッサを含んでいてもよい。The processor 91 executes a program stored in the memory 92 to realize the functions of the image processing device 4. The functions of the image processing device 4 include control of the display operation on the display device 2. Note that the computer 9 shown in FIG. 4 includes a single processor 91, but may include two or more processors.

図1には、画像処理装置4を構成する機能ブロックが示されている。画像処理装置4は、画像入力部11、温度推定部12、推定温度格納部13、温度補償部14、及び画像出力部15を備える。 Figure 1 shows the functional blocks constituting the image processing device 4. The image processing device 4 comprises an image input unit 11, a temperature estimation unit 12, an estimated temperature storage unit 13, a temperature compensation unit 14, and an image output unit 15.

画像入力部11は、入力画像データとしてのデジタル画像データDiを受信して、画像データDaとして出力するデジタルインターフェースである。ただし、画像入力部11は、入力画像データに基づくアナログ画像信号をデジタル画像データに変換するA/D変換器で構成されていてもよい。入力画像データは、発光素子部ごと(すなわち、画素ごと)にR、G、B用のLED(すなわち、副画素)の輝度値に対応する画素値(すなわち、成分値)を持つ。The image input unit 11 is a digital interface that receives digital image data Di as input image data and outputs it as image data Da. However, the image input unit 11 may be configured with an A/D converter that converts an analog image signal based on the input image data into digital image data. The input image data has pixel values (i.e., component values) corresponding to the luminance values of the R, G, and B LEDs (i.e., subpixels) for each light-emitting element unit (i.e., for each pixel).

温度推定部12は、表示器2の複数の発光素子部(すなわち、複数の画素)20の中から発光素子部(すなわち、推定対象の発光素子部)を順に選択し、選択された発光素子部の温度を推定し、推定された温度を示す温度推定値Te0を出力する。座標(x,y)の位置にある発光素子部の温度推定値Te0は、Te0(x,y)で表される。図2(a)に示されるように、座標(x,y)における「x」は、表示器2の画面内における水平走査方向の位置を表し、「y」は、表示器2の画面内における垂直操作方向の位置を表す。座標(x,y)における「x」は、画面の左端の発光素子部において1であり、画面の右端の発光素子部においてxmaxである。座標(x,y)における「y」は、画面の上端の発光素子部において1であり、画面の下端の発光素子部においてymaxである。したがって、画面の左上隅の発光素子部の位置は、座標(1,1)で表され、画面の右下隅の発光素子部の位置は、座標(xmax,ymax)で表される。座標(x,y)におけるx及びyは、画素ピッチごとに1ずつ変化する。 The temperature estimation unit 12 sequentially selects a light-emitting element unit (i.e., a light-emitting element unit to be estimated) from among a plurality of light-emitting element units (i.e., a plurality of pixels) 20 of the display device 2, estimates the temperature of the selected light-emitting element unit, and outputs a temperature estimation value Te0 indicating the estimated temperature. The temperature estimation value Te0 of the light-emitting element unit at the position of coordinates (x, y) is expressed as Te0(x, y). As shown in FIG. 2(a), "x" in the coordinates (x, y) represents the position in the horizontal scanning direction in the screen of the display device 2, and "y" represents the position in the vertical operation direction in the screen of the display device 2. "x" in the coordinates (x, y) is 1 in the light-emitting element unit at the left end of the screen, and x max in the light-emitting element unit at the right end of the screen. "y" in the coordinates (x, y) is 1 in the light-emitting element unit at the top end of the screen, and y max in the light-emitting element unit at the bottom end of the screen. Therefore, the position of the light-emitting element unit at the upper left corner of the screen is represented by coordinates (1, 1), and the position of the light-emitting element unit at the lower right corner of the screen is represented by coordinates ( xmax , ymax ). x and y in the coordinates (x, y) change by 1 for each pixel pitch.

推定温度格納部13は、温度推定部12から出力された温度推定値Te0(x,y)を格納し、画像データの1フレーム期間遅らせて、「1フレーム前の温度推定値」Te1(x,y)として出力する。The estimated temperature storage unit 13 stores the temperature estimated value Te0(x,y) output from the temperature estimation unit 12, delays it by one frame period of the image data, and outputs it as the "temperature estimated value one frame before" Te1(x,y).

推定温度格納部13から出力される温度推定値Te1(x,y)に対して、温度推定部12から出力される温度推定値Te0(x,y)は、1フレーム期間の遅れのないものであるので、「現フレームの温度推定値」と呼ばれる。 Compared to the temperature estimation value Te1(x,y) output from the estimated temperature storage unit 13, the temperature estimation value Te0(x,y) output from the temperature estimation unit 12 is not delayed by one frame period, and is therefore called the "temperature estimation value of the current frame."

実施の形態1では、推定温度格納部13は、1フレーム期間遅らせた温度推定値Te1(x,y)を出力する。ただし、推定温度格納部13は、1フレーム期間遅らせた温度推定値Te1(x,y)を出力する代わりに、1フレーム期間遅らせた温度推定値Te1(x,y)からFフレーム期間(Fは、2以上の整数)遅らせた温度推定値TeF(x,y)までのF個の温度推定値Te1(x,y)~TeF(x,y)を生成して出力してもよい。In the first embodiment, the estimated temperature storage unit 13 outputs a temperature estimate Te1(x,y) delayed by one frame period. However, instead of outputting the temperature estimate Te1(x,y) delayed by one frame period, the estimated temperature storage unit 13 may generate and output F temperature estimates Te1(x,y) to TeF(x,y) from the temperature estimate Te1(x,y) delayed by one frame period to the temperature estimate TeF(x,y) delayed by F frame periods (F is an integer equal to or greater than 2).

温度推定値Te0(x,y)~TeF(x,y)は、互いに異なるフレーム期間、すなわち互いに異なる時刻における推定値であるので、これらを纏めたものを、「複数フレームの温度推定値」又は「複数時刻の温度推定値」とも言う。また、現フレームの温度推定値Te0(x,y)を、「現在の温度推定値」とも言う。また、1フレーム以上前の温度推定値Te1(x,y)~TeF(x,y)を、「過去の温度推定値」とも言う。 The temperature estimates Te0(x,y) to TeF(x,y) are estimates for different frame periods, i.e., different times, so collectively they are also referred to as "temperature estimates for multiple frames" or "temperature estimates for multiple times." The temperature estimate Te0(x,y) of the current frame is also referred to as the "current temperature estimate." The temperature estimates Te1(x,y) to TeF(x,y) from one frame or more ago are also referred to as "past temperature estimates."

温度推定部12は、表示器2を構成する複数の発光素子部20の各々の温度を推定する。例えば、推定には、画像入力部11から出力された現フレームの入力画像データDaと、温度測定部5a,5bから出力された現フレームの温度測定値Ta0、TaNと、構造位置情報C0と、推定温度格納部13から出力された1フレーム前の温度推定値Te1とが用いられる。複数の発光素子部のうちの推定対象の発光素子部の温度推定値は、推定対象の発光素子部の画像データと、温度測定値と、推定対象の発光素子部と温度測定部との間の位置関係を示す情報を含む構造位置情報C0と、推定対象の発光素子部を含む予め決められた領域内の発光素子部の温度の測定値と、の関係を学習することで得られた学習結果に基づいて推定される。The temperature estimation unit 12 estimates the temperature of each of the multiple light-emitting element units 20 that constitute the display 2. For example, the estimation uses the input image data Da of the current frame output from the image input unit 11, the temperature measurement values Ta0 and TaN of the current frame output from the temperature measurement units 5a and 5b, the structural position information C0, and the temperature estimation value Te1 of the previous frame output from the estimated temperature storage unit 13. The temperature estimation value of the light-emitting element unit to be estimated among the multiple light-emitting element units is estimated based on the learning result obtained by learning the relationship between the image data of the light-emitting element unit to be estimated, the temperature measurement value, the structural position information C0 including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature measurement value of the light-emitting element unit in a predetermined area including the light-emitting element unit to be estimated.

温度推定部12は、表示器2を構成する複数の発光素子部20の中から推定対象の発光素子部を順に選択し、選択されている発光素子部についての温度を推定する。構造位置情報C0は、複数の発光素子部20に対する温度測定部5a,5bの位置を示す情報を含む。構造位置情報C0は、例えば、温度測定部5a,5bの位置と温度推定対象の発光素子部の位置との相対位置情報(すなわち、位置関係)、温度測定部5a,5bの位置情報、などのいずれかを含むことができる。The temperature estimation unit 12 sequentially selects a light-emitting element unit to be estimated from among the multiple light-emitting element units 20 constituting the display device 2, and estimates the temperature of the selected light-emitting element unit. The structural position information C0 includes information indicating the positions of the temperature measurement units 5a, 5b relative to the multiple light-emitting element units 20. The structural position information C0 may include, for example, any of relative position information (i.e., positional relationship) between the positions of the temperature measurement units 5a, 5b and the position of the light-emitting element unit to be estimated, position information of the temperature measurement units 5a, 5b, etc.

選択されている発光素子部の温度の推定に当たっては、入力画像データDaのうち、当該発光素子部の周辺領域内の発光素子部についての画像データも用いられ、1フレーム前の温度推定値Te1のうち、当該発光素子部の周辺領域内の発光素子部についての温度推定値も用いられる。例えば、選択されている発光素子部の座標が(x,y)で表される場合、座標が(x±α,y±β)で表される範囲が選択されている発光素子部の周辺領域とされる。±αは、-αmaxから+αmaxまでの範囲であり、±βは、-βmaxから+βmaxまでの範囲である。ここで、αmax及びβmaxの各々は、予め定められた値であり、例えば、2~10程度である。なお、αmaxとβmaxとは、互いに同じ値であってもよく、異なる値であってもよい。 In estimating the temperature of the selected light-emitting element unit, the image data of the light-emitting element unit in the peripheral region of the light-emitting element unit is also used from the input image data Da, and the temperature estimate value Te1 of the previous frame for the light-emitting element unit in the peripheral region of the light-emitting element unit is also used. For example, when the coordinates of the selected light-emitting element unit are expressed as (x, y), the range expressed by the coordinates (x±α, y±β) is regarded as the peripheral region of the selected light-emitting element unit. ±α is the range from -α max to +α max , and ±β is the range from -β max to +β max . Here, each of α max and β max is a predetermined value, for example, about 2 to 10. Note that α max and β max may be the same value or different values.

なお、入力画像データDaについての周辺領域の範囲と、1フレーム前の温度推定値Te1についての周辺領域の範囲とが異なっていてもよい。すなわち、入力画像データDaについての周辺領域についてのαmax,βmax(=αmax(0),βmax(0))と、1フレーム前の温度推定値Te1についての周辺領域についてのαmax,βmax(=αmax(1),βmax(1))とが、互いに異なっていてもよい。例えば、1フレーム前の温度推定値Te1についての周辺領域を、入力画像データDaの温度推定値Te0についての周辺領域より狭くしてもよい。つまり、αmax(1)<αmax(0),βmax(1)<βmax(0)としてもよい。或いは、αmax(F)<αmax(F-1),βmax(F)<βmax(F-1)としてもよい。 The range of the peripheral area for the input image data Da may be different from the range of the peripheral area for the temperature estimate Te1 of the previous frame. That is, α max , β max (=α max (0), β max (0)) for the peripheral area for the input image data Da may be different from α max , β max (=α max (1), β max (1)) for the peripheral area for the temperature estimate Te1 of the previous frame. For example, the peripheral area for the temperature estimate Te1 of the previous frame may be narrower than the peripheral area for the temperature estimate Te0 of the input image data Da. That is, α max (1) < α max (0), β max (1) < β max (0) may be satisfied. Alternatively, it is also possible to set α max (F)<α max (F−1) and β max (F)<β max (F−1).

温度推定部12は、画像データDa(x±α,y±β)と、過去の温度推定値Te1(x±α,y±β)と、温度測定部5a,5bから出力された現フレームの温度測定値Ta0、TaNと、構造位置情報C0とに基づいて、選択されている発光素子部の温度推定値Te0(x,y)を求める。温度推定部12は、例えば、多層ニューラルネットワークで構成されている。図5には、そのようなニューラルネットワーク25の一例が示されている。The temperature estimation unit 12 determines the temperature estimation value Te0(x,y) of the selected light-emitting element unit based on the image data Da(x±α,y±β), the past temperature estimation value Te1(x±α,y±β), the temperature measurement values Ta0, TaN of the current frame output from the temperature measurement units 5a, 5b, and the structural position information C0. The temperature estimation unit 12 is, for example, configured as a multi-layer neural network. FIG. 5 shows an example of such a neural network 25.

図5に示されるニューラルネットワーク25は、入力層251と、中間層(すなわち、隠れ層)252と、出力層253とを有する。図示の例では、中間層の数が3であるが、中間層の数は、2以下であってもよく、4以上であってもよい。The neural network 25 shown in FIG. 5 has an input layer 251, an intermediate layer (i.e., a hidden layer) 252, and an output layer 253. In the illustrated example, the number of intermediate layers is three, but the number of intermediate layers may be two or less, or four or more.

入力層251のニューロンPの各々には、構造位置情報C0、温度測定値Ta0,TaN、過去の温度推定値Te1(x±α,y±β)、すなわち複数の発光素子部20のそれぞれの温度推定値、及び入力画像データDa(x±α,y±β)、すなわち複数の発光素子部20のそれぞれの画像データ(すなわち、画素値)のいずれかが割り当てられ、各ニューロンPには、割り当てられた値(点灯率、温度測定値、温度推定値、及び入力画像データ)が入力される。入力層251のニューロンPは、入力をそのまま出力する。 Each neuron P in the input layer 251 is assigned one of structural position information C0, temperature measurement values Ta0, TaN, past temperature estimates Te1 (x±α, y±β), i.e., the temperature estimates of each of the multiple light-emitting element units 20, and input image data Da (x±α, y±β), i.e., the image data (i.e., pixel values) of each of the multiple light-emitting element units 20, and each neuron P is input with the assigned values (lighting rate, temperature measurement, temperature estimate, and input image data). Neurons P in the input layer 251 output the input as is.

出力層253のニューロンPは、複数のビット、例えば、10ビットから成り、選択されている発光素子部の温度推定値Te0(x,y)を示すデータを出力する。Neuron P in the output layer 253 outputs data consisting of multiple bits, for example 10 bits, indicating the temperature estimate Te0(x,y) of the selected light-emitting element unit.

中間層252及び出力層253のニューロンPの各々は、複数の入力に対して下記のモデル式である式(1)で表される演算を行う。Each neuron P in the intermediate layer 252 and the output layer 253 performs an operation represented by the following model formula (1) on multiple inputs.

Figure 0007471416000001
Figure 0007471416000001

式(1)において、Nは、ニューロンPへの入力の数である。ニューロンPへの入力の数は、ニューロン相互間で同じであるは限らない。式(1)において、x~xは、ニューロンPの入力データ、w~wは、入力データx~xに対する重み、bは、バイアスを示す。重みw~w及びバイアスbは、学習により定められる。また、重みw~w及びバイアスbを纏めてパラメータとも言う。 In formula (1), N is the number of inputs to neuron P. The number of inputs to neuron P is not necessarily the same for each neuron. In formula (1), x 1 to x N are input data to neuron P, w 1 to w N are weights for the input data x 1 to x N , and b is a bias. The weights w 1 to w N and the bias b are determined by learning. The weights w 1 to w N and the bias b are also collectively referred to as parameters.

関数s(a)は、活性化関数である。活性化関数は、例えば、aが0以下であれば0を出力し、それ以外であれば1を出力するステップ関数であってもよい。活性化関数s(a)は、aが0以下であれば0を出力し、それ以外であれば入力値aを出力するReLU(Rectified Linear Unit)関数であってもよく、入力値aをそのまま出力値とする恒等関数でもよく、ジグモイド関数であってもよい。 The function s(a) is an activation function. The activation function may be, for example, a step function that outputs 0 if a is 0 or less, and outputs 1 otherwise. The activation function s(a) may be a ReLU (Rectified Linear Unit) function that outputs 0 if a is 0 or less, and outputs the input value a otherwise, an identity function that uses the input value a as the output value as is, or a sigmoid function.

上記のように、入力層251のニューロンPは、入力をそのまま出力するものであるので、入力層251のニューロンPで用いられる活性化関数は、恒等関数である。As described above, neuron P in input layer 251 outputs the input as is, so the activation function used by neuron P in input layer 251 is the identity function.

例えば、中間層252では、ステップ関数又はジグモイド関数を用い、出力層ではReLU関数を用いてもよい。また、同じ層内のニューロンPの相互間で異なる活性化関数が用いられていてもよい。なお、ニューロンPの数、層の数(すなわち、段階数)は、図5に示される例に限定されない。For example, a step function or a sigmoid function may be used in the intermediate layer 252, and a ReLU function may be used in the output layer. Different activation functions may be used between neurons P in the same layer. Note that the number of neurons P and the number of layers (i.e., the number of stages) are not limited to the example shown in FIG. 5.

温度補償部14は、温度推定部12で推定された温度である温度推定値Te0(x,y)に応じて、画像入力部11から供給される画像データDaを補正し、補正された画像データDbを出力する。この補正は、画素ごとに行われる。この補正は、発光素子部20の温度の変化による輝度及び色度の変化を打ち消すための補正であり、輝度及び色度の変化に対する補償のために行われる。The temperature compensation unit 14 corrects the image data Da supplied from the image input unit 11 according to the temperature estimation value Te0(x,y), which is the temperature estimated by the temperature estimation unit 12, and outputs the corrected image data Db. This correction is performed for each pixel. This correction is performed to cancel out changes in luminance and chromaticity due to changes in the temperature of the light-emitting element unit 20, and is performed to compensate for changes in luminance and chromaticity.

図6は、図1に示される画像処理装置4の温度補償部14の構成を示すブロック図である。図6に示されるように、温度補償部14は、例えば、補償テーブル格納部141と、係数読出し部142と、係数乗算部143とを有する。 Figure 6 is a block diagram showing the configuration of the temperature compensation unit 14 of the image processing device 4 shown in Figure 1. As shown in Figure 6, the temperature compensation unit 14 has, for example, a compensation table storage unit 141, a coefficient reading unit 142, and a coefficient multiplication unit 143.

補償テーブル格納部141は、温度による輝度及び色度の変化を補償するための補償情報である補償テーブルを格納している。The compensation table storage unit 141 stores a compensation table, which is compensation information for compensating for changes in luminance and chromaticity due to temperature.

図7(a)及び(b)は、補償テーブル格納部141に格納されている補償テーブルで定義される入力と出力との関係の一例を示す図である。ここで言う入力と出力との関係は、入力に対する出力の比、すなわち係数で表される。この係数を、補償係数と言う。7(a) and (b) are diagrams showing an example of the relationship between input and output defined in the compensation table stored in the compensation table storage unit 141. The relationship between input and output here is expressed by the ratio of the output to the input, i.e., a coefficient. This coefficient is called the compensation coefficient.

例えば、温度Tによる輝度の変化が図3(a)に示されるす輝度比Vpである場合、輝度についての補償テーブルとしては、図7(a)に示される入力-出力関係を有するもの、すなわち、温度Tの上昇に対する変化が、図3(a)に示される輝度比Vpとは、逆向きであるものが記憶されている。例えば、輝度比Vpの正規化値の逆数に等しい値が、補償係数Vqとして補償テーブルに格納されている。For example, when the change in luminance due to temperature T is the luminance ratio Vp shown in Figure 3(a), a compensation table for luminance is stored that has the input-output relationship shown in Figure 7(a), that is, a compensation table for luminance in which the change with respect to an increase in temperature T is in the opposite direction to the luminance ratio Vp shown in Figure 3(a). For example, a value equal to the reciprocal of the normalized value of the luminance ratio Vp is stored in the compensation table as a compensation coefficient Vq.

係数読出し部142は、各発光素子部20の温度推定値Te0(x,y)を用いて、補償テーブル格納部141に格納されている補償テーブルを参照することで、各発光素子部20の温度推定値Te0(x,y)に対応する補償係数Vq(x,y)を読み出し、読み出された補償係数を係数乗算部143に供給する。The coefficient reading unit 142 uses the temperature estimation value Te0(x, y) of each light-emitting element unit 20 to refer to the compensation table stored in the compensation table storage unit 141, thereby reading out the compensation coefficient Vq(x, y) corresponding to the temperature estimation value Te0(x, y) of each light-emitting element unit 20, and supplies the read out compensation coefficient to the coefficient multiplication unit 143.

係数乗算部143は、読み出された補償係数Vq(x,y)を、入力画像データDa(x,y)に乗算することで補正を行い、補正後の画像データDb(x,y)、すなわち、入力画像データDa(x,y)に対応する補償された画像データDb(x,y)を生成して、出力する。The coefficient multiplication unit 143 performs correction by multiplying the read compensation coefficient Vq(x, y) by the input image data Da(x, y), and generates and outputs corrected image data Db(x, y), i.e., compensated image data Db(x, y) corresponding to the input image data Da(x, y).

なお、補償テーブル格納部141が上記のように、輝度を補正するための補償係数から成る補償テーブルを格納する代わりに、輝度と色度を補正するための、つまり、R、G、Bの成分値の各々を補正するための補償係数から成る補償テーブルを保持していてもよい。In addition, instead of storing a compensation table consisting of compensation coefficients for correcting luminance as described above, the compensation table storage unit 141 may hold a compensation table consisting of compensation coefficients for correcting luminance and chromaticity, that is, for correcting each of the R, G, and B component values.

温度による色度を表すX刺激値及びY刺激値の変化が、図3(b)に示される色度比Xp及びYpである場合、補償テーブルとしては、図7(b)に示される入力-出力関係を有するもの、すなわち、温度Tの上昇に対する変化が、図3(b)に示される色度比Xp及びYpとは、逆向きであるものが記憶されている。例えば、色度のx成分の色度比Xpの逆数に等しい値が補償係数Xqとして補償テーブルに格納され、色度のy成分の色度比Ypの逆数に等しい値が補償係数Yqとして補償テーブルに格納されている。具体的には、補償テーブルには、入力のRGB画像データに乗算する補償係数XYq(x,y)として3×3の変換行列が格納されている。 When the change in the X-stimulus value and the Y-stimulus value representing chromaticity due to temperature is the chromaticity ratios Xp and Yp shown in FIG. 3(b), the compensation table has the input-output relationship shown in FIG. 7(b), that is, the change with respect to an increase in temperature T is in the opposite direction to the chromaticity ratios Xp and Yp shown in FIG. 3(b). For example, a value equal to the reciprocal of the chromaticity ratio Xp of the x-component of chromaticity is stored in the compensation table as the compensation coefficient Xq, and a value equal to the reciprocal of the chromaticity ratio Yp of the y-component of chromaticity is stored in the compensation table as the compensation coefficient Yq. Specifically, the compensation table stores a 3×3 transformation matrix as the compensation coefficient XYq(x,y) by which the input RGB image data is multiplied.

係数読出し部142は、各発光素子部20の温度推定値Te0(x,y)を用いて、補償テーブル格納部141に格納されている補償テーブルを参照することで、各発光素子部20の温度推定値Te0(x,y)に対応するR用のLEDの輝度補償係数VRq(x,y)、G用のLEDの輝度補償係数VGq(x,y)、B用のLEDの輝度補償係数VBq(x,y)、色度の補償係数XYq(x,y)を読出し、読み出した補償係数を係数乗算部143に供給する。The coefficient reading unit 142 uses the temperature estimated value Te0(x, y) of each light-emitting element unit 20 to refer to the compensation table stored in the compensation table storage unit 141 to read out the luminance compensation coefficient VRq(x, y) of the R LED, the luminance compensation coefficient VGq(x, y) of the G LED, the luminance compensation coefficient VBq(x, y) of the B LED, and the chromaticity compensation coefficient XYq(x, y) corresponding to the temperature estimated value Te0(x, y) of each light-emitting element unit 20, and supplies the read compensation coefficients to the coefficient multiplication unit 143.

係数乗算部143は、読み出されたR、G、B用のLEDの輝度補償係数VRq(x,y),VGq(x,y),VBq(x,y),XYq(x,y)を、R、G、B用のLEDの画像データDRa(x,y),DGa(x,y),DBa(x,y)にそれぞれ乗算することで補正を行い、補正後のR、G、B用のLEDの画像データDRb(x,y),DGb(x,y),DBb(x,y)を生成して、出力する。この処理は、以下の式(2)で表される。The coefficient multiplication unit 143 performs correction by multiplying the read brightness compensation coefficients VRq(x,y), VGq(x,y), VBq(x,y), and XYq(x,y) of the R, G, and B LEDs by the image data DRa(x,y), DGa(x,y), and DBa(x,y) of the R, G, and B LEDs, respectively, and generates and outputs the corrected image data DRb(x,y), DGb(x,y), and DBb(x,y) of the R, G, and B LEDs. This process is expressed by the following equation (2).

Figure 0007471416000002
Figure 0007471416000002

また、別の形態として、係数読出し部142は、各発光素子部20の温度推定値Te0(x,y)を用いて、補償テーブル格納部141に格納されている補償テーブルを参照することで、各発光素子部20の温度推定値Te0(x,y)に対応するR、G、Bの入力階調値Ri,Gi,Biの色を変換してR、G、Bの階調値を出力するテーブルVRGB(Ri,Gi,Bi)を係数乗算部143に供給する。この場合、係数乗算部143は、R、G、Bの入力画像データDRa(x,y),DGa(x,y),DBa(x,y)に基づいて、変換テーブルVRGBを参照して補正後のR、G、Bの画像データDRb(x,y),DGb(x,y),DBb(x,y)を生成して、出力する。In another embodiment, the coefficient reading unit 142 uses the temperature estimation value Te0(x,y) of each light-emitting element unit 20 to refer to the compensation table stored in the compensation table storage unit 141, and supplies the coefficient multiplication unit 143 with a table VRGB(Ri,Gi,Bi) that converts the colors of the R,G,B input gradation values Ri,Gi,Bi corresponding to the temperature estimation value Te0(x,y) of each light-emitting element unit 20 and outputs the R,G,B gradation values. In this case, the coefficient multiplication unit 143 generates and outputs the corrected R,G,B image data DRb(x,y), DGb(x,y), DBb(x,y) by referring to the conversion table VRGB based on the R,G,B input image data DRa(x,y), DGa(x,y), DBa(x,y).

発光素子部相互間では、温度Tによる輝度及び色度の変化の仕方が異なる場合がある。その場合には、図3(a)及び(b)に示される輝度比Vp及び色度比Xp,Ypを示す曲線として、平均的な変化を表すものが用いられることが望ましい。例えば、複数の発光素子部20についての変化を平均した値が用いられ、図7(a)及び(b)の補償係数を表す補償テーブルとして、そのような平均的な変化を補償するためのものが作成されることが望ましい。The way in which the luminance and chromaticity change with temperature T may differ between light-emitting element sections. In such cases, it is desirable to use curves showing the luminance ratio Vp and chromaticity ratios Xp, Yp shown in Figures 3(a) and (b) that represent the average changes. For example, it is desirable to use values obtained by averaging the changes for multiple light-emitting element sections 20, and to create a compensation table representing the compensation coefficients of Figures 7(a) and (b) to compensate for such average changes.

上記のように、複数の発光素子部についての平均的な変化を補償するための補償テーブルを用いる代わりに、発光素子部ごとに異なる補償テーブルを用いてもよい。また、R、G、B用のLEDごとに異なる補償テーブルを用いてもよい。Instead of using a compensation table to compensate for the average change for multiple light-emitting element units as described above, a different compensation table may be used for each light-emitting element unit. Also, a different compensation table may be used for each R, G, and B LED.

補償テーブルは、発光素子部の温度推定値Te0が取り得る値の各々に対して、補償係数の値を持つものとしているが、これに限定されない。すなわち、発光素子部の温度推定値Te0に対し、離散的に補償係数の値を持ち、補償係数の値を持たない発光素子部の温度推定値Te0については、補間によって対応する補償係数の値を求めてもよい。この補間は、例えば、補償係数の値を持つ温度推定値Te0(すなわち、テーブル点)に対応する補償係数の値を用いることで、行うことができる。The compensation table has a compensation coefficient value for each possible value of the temperature estimate Te0 of the light-emitting element unit, but is not limited to this. In other words, the compensation coefficient value may be discretely set for the temperature estimate Te0 of the light-emitting element unit, and for the temperature estimate Te0 of the light-emitting element unit that does not have a compensation coefficient value, the corresponding compensation coefficient value may be obtained by interpolation. This interpolation may be performed, for example, by using the compensation coefficient value corresponding to the temperature estimate Te0 (i.e., the table point) that has a compensation coefficient value.

画像出力部15は、温度補償部14から出力された画像データDbを、表示器2の表示方式に合致したフォーマットの信号に変換し、変換後の画像信号Doを出力する。例えば、表示器2の発光素子部がPWM(Pulse Width Modulation)駆動によって発光する場合には、画像出力部15は、画像データの階調値をPWM信号に変換する。The image output unit 15 converts the image data Db output from the temperature compensation unit 14 into a signal in a format that matches the display method of the display device 2, and outputs the converted image signal Do. For example, when the light-emitting element unit of the display device 2 emits light by PWM (Pulse Width Modulation) driving, the image output unit 15 converts the gradation value of the image data into a PWM signal.

表示器2は、画像処理装置4から受け取った画像信号Doに基づいて画像を表示する。表示される画像は、温度による輝度及び色度の変化が発光素子部(すなわち、画素)ごとに又はLED(すなわち、副画素)ごとに補償されたものとなる。したがって、表示器2に表示される画像の輝度ムラ及び色ムラが低減される。The display device 2 displays an image based on the image signal Do received from the image processing device 4. The displayed image is one in which changes in luminance and chromaticity due to temperature are compensated for for each light-emitting element section (i.e., pixel) or for each LED (i.e., subpixel). Therefore, uneven luminance and color of the image displayed on the display device 2 are reduced.

図8は、図1に示される画像処理装置4が実行する処理を示すフローチャートである。画像処理装置4が図4に示されるコンピュータ9で構成されている場合、図8に示される処理はプロセッサ91による処理を示す。 Figure 8 is a flowchart showing the processing executed by the image processing device 4 shown in Figure 1. When the image processing device 4 is configured as the computer 9 shown in Figure 4, the processing shown in Figure 8 shows processing by the processor 91.

図8に示される処理は、フレーム期間ごとに行われる。ステップST1では、画像データが画像入力部11に入力される、画像入力部11による処理が実行される。ステップST2及びST3では、温度測定部5a,5bによって熱源6a,6bの温度測定である第1及び第2の温度測定が行われ、温度測定値Ta0、TaNが出力される。ステップST4では、温度推定部12によって発光素子部20の温度の推定が行われる。 The processing shown in Figure 8 is performed for each frame period. In step ST1, image data is input to the image input unit 11, and processing is performed by the image input unit 11. In steps ST2 and ST3, the temperature measurement units 5a and 5b perform first and second temperature measurements, which are temperature measurements of the heat sources 6a and 6b, and output the measured temperature values Ta0 and TaN. In step ST4, the temperature estimation unit 12 estimates the temperature of the light-emitting element unit 20.

ステップST5では、推定温度格納部13に、温度推定値が格納される。この処理と並行して、ステップST6では、温度補償部14によって選択されている発光素子部について、温度補償が行われ、ステップST7で、画像出力部15によって画像データが出力される。In step ST5, the temperature estimate is stored in the estimated temperature storage unit 13. In parallel with this process, in step ST6, temperature compensation is performed for the light-emitting element unit selected by the temperature compensation unit 14, and in step ST7, image data is output by the image output unit 15.

図5に示されるニューラルネットワーク25は、機械学習により生成される。機械学習のための学習装置は、図1の画像表示装置1に接続されて使用される。図9は、実施の形態1に係る画像表示装置1を、学習装置101及び学習用温度測定部102とともに示すブロック図である。 The neural network 25 shown in Figure 5 is generated by machine learning. A learning device for machine learning is connected to the image display device 1 of Figure 1 and used. Figure 9 is a block diagram showing the image display device 1 of embodiment 1 together with the learning device 101 and the learning temperature measurement unit 102.

学習用温度測定部102は、1以上の温度センサを有する。1以上の温度センサはそれぞれ、表示器2を構成する複数の発光素子部20うちの1以上の発光素子部に対応して設けられたものであり、各温度センサは、対応する発光素子部の温度を測定して、温度測定値Tf(1),Tf(2),…を取得する。温度センサの各々は、温度測定部5a,5bを構成する温度センサと同様の構成のものであってもよい。また、学習用温度測定部102は、その全体又は一部、例えば、温度センサが、表示器2と一体に、すなわち、表示器2の筐体内に設けられていてもよい。The learning temperature measurement unit 102 has one or more temperature sensors. Each of the one or more temperature sensors is provided corresponding to one or more of the multiple light-emitting element units 20 that constitute the display device 2, and each temperature sensor measures the temperature of the corresponding light-emitting element unit to obtain the temperature measurement values Tf(1), Tf(2), .... Each of the temperature sensors may be configured similarly to the temperature sensors that constitute the temperature measurement units 5a and 5b. In addition, the learning temperature measurement unit 102 may be entirely or partially, for example, the temperature sensor may be provided integrally with the display device 2, i.e., within the housing of the display device 2.

温度測定の対象となる1以上の発光素子部は、予め指定される。1つの発光素子部を指定する場合、例えば、画面の中央に位置する発光素子部を指定してもよく、画面の中央と周辺部との中間に位置する発光素子部を指定してもよい。温度測定の対象となる1以上の発光素子部として2以上の発光素子部を指定する場合、例えば、画面の互いに離隔した位置にある2以上の発光素子部を指定してもよく、又は、画面の中央に位置する発光素子部と、画面の周辺部に位置する1以上の発光素子部を指定してもよい。温度測定の対象として指定されている発光素子部を、指定発光素子部とも言う。 One or more light-emitting element units to be the subject of temperature measurement are designated in advance. When one light-emitting element unit is designated, for example, a light-emitting element unit located at the center of the screen may be designated, or a light-emitting element unit located halfway between the center and the periphery of the screen may be designated. When two or more light-emitting element units are designated as one or more light-emitting element units to be the subject of temperature measurement, for example, two or more light-emitting element units located at positions spaced apart from each other on the screen may be designated, or a light-emitting element unit located at the center of the screen and one or more light-emitting element units located at the periphery of the screen may be designated. The light-emitting element unit designated as the subject of temperature measurement is also called a designated light-emitting element unit.

2以上の指定発光素子部の温度を測定する場合、温度測定値Tf(1),Tf(2),…の平均値を温度測定値Tfとして出力してもよい。以下では、指定発光素子部の数が1であるものとし、指定発光素子部の位置を座標(x,y)で表し、指定発光素子部の温度測定値をTf(x,y)で表す。 When measuring the temperatures of two or more designated light-emitting element units, the average value of the temperature measurements Tf(1), Tf(2), ... may be output as the temperature measurement value Tf. In the following, it is assumed that the number of designated light-emitting element units is 1, the position of the designated light-emitting element unit is represented by coordinates ( xd , yd ), and the temperature measurement value of the designated light-emitting element unit is represented by Tf( xd , yd ).

学習装置101は、コンピュータで構成されていてもよい。画像処理装置4がコンピュータで構成される場合、同じコンピュータで学習装置101が構成されていてもよい。学習装置101を構成するコンピュータは、例えば、図3に示されるものであってもよい。その場合、学習装置101の機能は、プロセッサ91がメモリ92に記憶されているプログラムを実行することで実現されるものであってもよい。The learning device 101 may be configured as a computer. When the image processing device 4 is configured as a computer, the learning device 101 may be configured as the same computer. The computer that constitutes the learning device 101 may be, for example, the one shown in FIG. 3. In that case, the functions of the learning device 101 may be realized by the processor 91 executing a program stored in the memory 92.

学習装置101は、画像処理装置4の一部を動作させ、温度推定部12に、上記指定発光素子部の温度を推定させ、温度推定値Te0(x,y)が、学習用温度測定部102での測定で得られた指定発光素子部の温度測定値Tf(x,y)に近くなるように学習を行う。 The learning device 101 operates a part of the image processing device 4, causes the temperature estimation unit 12 to estimate the temperature of the above-mentioned designated light-emitting element unit, and performs learning so that the temperature estimation value Te0( xd , yd ) becomes close to the temperature measurement value Tf( xd , yd ) of the designated light-emitting element unit obtained by measurement by the learning temperature measurement unit 102.

学習には、学習入力データの組LDSが複数個用いられる。複数個の学習入力データの組LDSの各々は、学習のために用意された、入力画像データDaと、温度測定値Ta0、TaNと、1フレーム前の温度推定値Te1とを含む。A plurality of sets of learning input data LDS are used for learning. Each of the plurality of sets of learning input data LDS includes input image data Da, temperature measurement values Ta0 and TaN, and a temperature estimate value Te1 from one frame before, which are prepared for learning.

入力画像データDaとしては、指定発光素子部の周辺領域(x±α,y±β)内の発光素子部についての画像データDa(x±α,y±β)が用いられる。また、1フレーム前の温度推定値Te1としては、指定発光素子部の周辺領域(x±α,y±β)内の発光素子部についての温度推定値Te1(x±α,y±β)が用いられる。 The input image data Da is image data Da( xd ±α, yd ±β) for the light-emitting element units in the peripheral region ( xd ±α, yd ±β) of the designated light-emitting element unit. The temperature estimate Te1 for the previous frame is temperature estimate Te1( xd ±α, yd±β) for the light-emitting element units in the peripheral region ( xd ±α, yd ± β ) of the designated light-emitting element unit.

複数個の学習入力データの組LDS相互間では、入力画像データDa(x±α,y±β)、温度測定値Ta0,TaN、及び1フレーム前の温度推定値Te1(x±α,y±β)のうちの少なくとも1つが異なる。 At least one of the input image data Da ( xd ±α, yd ±β), the measured temperature values Ta0, TaN, and the temperature estimate value Te1 ( xd ±α, yd ±β) of the previous frame differs between the multiple learning input data sets LDS.

学習装置101は、予め用意された複数個の学習入力データの組LDSを順に選択し、選択されている学習入力データの組LDSを画像処理装置4に入力し、温度推定部12で算出された温度推定値Te0(x,y)と学習用温度測定部102での測定で得られた温度測定値Tf(x,y)とを取得し、温度推定値Te0(x,y)が温度測定値Tf(x,y)に近づくように学習を行う。 The learning device 101 sequentially selects from a plurality of previously prepared learning input data sets LDS, inputs the selected learning input data set LDS to the image processing device 4, acquires the temperature estimation value Te0( xd , yd ) calculated by the temperature estimation unit 12 and the measured temperature value Tf( xd , yd) obtained by measurement by the learning temperature measurement unit 102, and performs learning so that the temperature estimation value Te0( xd , yd ) approaches the measured temperature value Tf( xd , yd ).

「選択されている学習入力データの組LDSを画像処理装置4に入力する」とは、選択されている学習入力データの組LDSに含まれる画像データDa(x±α,y±β)を、温度推定部12及び温度補償部14に入力し、選択されている学習入力データの組LDSに含まれる温度測定値Ta0,TaN、及び1フレーム前の温度推定値Te1(x±α,y±β)を、温度推定部12に入力することを意味する。 “Inputting the selected learning input data set LDS to the image processing device 4” means inputting image data Da ( xd ±α, yd ±β) contained in the selected learning input data set LDS to the temperature estimation unit 12 and the temperature compensation unit 14, and inputting the temperature measurement values Ta0, TaN and the temperature estimation value Te1 ( xd ±α, yd ±β) of the previous frame contained in the selected learning input data set LDS to the temperature estimation unit 12.

学習装置101によるニューラルネットワークの生成においては、まず元となるニューラルネットワークを用意する。すなわち、温度推定部12を、元となるニューラルネットワークで仮のニューラルネットワークを構築する。このニューラルネットワークは、図5に示されるニューラルネットワークと同様のものであるが、中間層及び出力層のニューロンの各々は、その前段の層の全てのニューロンに結合されている。In generating a neural network using the learning device 101, a base neural network is first prepared. That is, a provisional neural network is constructed for the temperature estimation unit 12 using the base neural network. This neural network is similar to the neural network shown in FIG. 5, but each neuron in the intermediate layer and output layer is connected to all neurons in the previous layer.

ニューラルネットワークの生成においては、複数のニューロンの各々についてパラメータ(すなわち、重み及びバイアス)の値を定める必要がある。複数のニューロンについてのパラメータの集合をパラメータの組と言い、符号PSで表す。 In generating a neural network, it is necessary to determine the values of parameters (i.e., weights and biases) for each of the multiple neurons. A collection of parameters for multiple neurons is called a parameter set and is denoted by PS.

ニューラルネットワークの生成においては、上記の元となるニューラルネットワークを用いて、温度推定値Te0(x,y)の、温度測定値Tf(x,y)に対する差が予め定められた閾値以下となるように、パラメータの組PSの最適化を行う。最適化は、例えば、誤差逆伝搬法により行い得る。 In generating the neural network, the parameter set PS is optimized using the above-mentioned original neural network so that the difference between the temperature estimate Te0( xd , yd ) and the temperature measurement Tf( xd , yd ) is equal to or smaller than a predetermined threshold. The optimization can be performed, for example, by backpropagation.

具体的には、学習装置101は、学習入力データの組LDSを複数個用意し、パラメータの組PSの初期値を設定し、上記の複数個の学習入力データの組LDSを順に選択する。学習装置101は、選択されている学習入力データの組LDSを画像処理装置4に入力し、指定発光素子部の温度測定値Tf(x,y)と温度推定値Te0(x,y)との差(Te0(x,y)-Tf(x,y))を誤差ERとして求める。 Specifically, the learning device 101 prepares a plurality of learning input data sets LDS, sets an initial value of the parameter set PS, and sequentially selects the plurality of learning input data sets LDS. The learning device 101 inputs the selected learning input data set LDS to the image processing device 4, and obtains the difference (Te0(xd, yd) - Tf( xd , yd )) between the measured temperature value Tf( xd , yd ) of the designated light-emitting element unit and the estimated temperature value Te0( xd , yd ) as the error ER.

学習装置101は、上記の複数個の学習データの組LDSについての上記の誤差ERの総和ESをコスト関数として求め、上記のコスト関数が閾値よりも大きければ、上記のコスト関数がより小さくなるように、パラメータの組PSを変更する。学習装置101は、以上の処理を、コスト関数が閾値以下となるまで繰り返す。パラメータの組PSの変更は、勾配降下法で行い得る。誤差ERの総和ESとしては、誤差ERの絶対値の和又は誤差ERの2乗の和を用いることができる。The learning device 101 obtains the sum ES of the errors ER for the set LDS of multiple learning data as a cost function, and if the cost function is greater than a threshold, changes the parameter set PS so that the cost function becomes smaller. The learning device 101 repeats the above process until the cost function becomes equal to or less than the threshold. The parameter set PS can be changed by a gradient descent method. The sum of the absolute values of the errors ER or the sum of the squares of the errors ER can be used as the sum ES of the errors ER.

温度補償部14に入力された画像データDa(x±α,y±β)は、画像出力部15を介して表示器2に供給され、表示器2の発光素子部の駆動に用いられる。指定発光素子部の周辺領域外の発光素子部は、駆動してもよく、駆動しなくてもよい。駆動する場合には、任意の信号で駆動してもよい。 The image data Da ( xd ±α, yd ±β) input to the temperature compensation unit 14 is supplied to the display device 2 via the image output unit 15 and is used to drive the light-emitting element units of the display device 2. The light-emitting element units outside the peripheral area of the designated light-emitting element units may or may not be driven. If they are driven, they may be driven by any signal.

温度推定部12での推定で得られた温度推定値Te0(x,y)は、学習装置101に入力され、学習装置101では、温度推定値Te0(x,y)が温度測定値Tf(x,y)に近くなるように学習が行われる。 The temperature estimation value Te0( xd , yd ) obtained by estimation in the temperature estimation unit 12 is input to the learning device 101, and the learning device 101 performs learning so that the temperature estimation value Te0( xd , yd ) becomes close to the measured temperature value Tf( xd , yd ).

パラメータの組PSの最適化の後、学習装置101は、重みがゼロとなったシナプス結合(すなわち、ニューロン間の結合)を切断する。After optimizing the parameter set PS, the learning device 101 disconnects synaptic connections (i.e., connections between neurons) whose weights are zero.

学習が終了した後、学習用温度測定部102の温度センサは、取り外され、画像表示装置1は、該温度センサが取り外された状態で使用される。すなわち、画像表示のために利用される際は、画像表示装置1は、発光素子部の温度を検知する温度センサを必要としない。発光素子部の温度を検知する温度センサがなくても、温度推定部12で発光素子部の温度を推定し得るからである。After learning is completed, the temperature sensor of the learning temperature measurement unit 102 is removed, and the image display device 1 is used with the temperature sensor removed. In other words, when used for image display, the image display device 1 does not require a temperature sensor to detect the temperature of the light-emitting element unit. This is because the temperature estimation unit 12 can estimate the temperature of the light-emitting element unit even without a temperature sensor to detect the temperature of the light-emitting element unit.

学習装置101は、学習が終了した後に、取り外されてもよく、装着されたままであってもよい。特に、学習装置101の機能がプロセッサ91によるプログラムの実行によって実現される場合には、該プログラムは、メモリ92に記憶されたままであってもよい。After the learning is completed, the learning device 101 may be removed or may remain attached. In particular, when the function of the learning device 101 is realized by the execution of a program by the processor 91, the program may remain stored in the memory 92.

以上のように、実施の形態1によれば、入力画像データに基づいて各発光素子部の温度を推定することができるので、画像表示装置1が各発光素子部の温度を測定する温度センサを備えたものでなくても、温度変化による発光素子部で発生する光の輝度及び色度の変化を補償することができる。As described above, according to embodiment 1, the temperature of each light-emitting element component can be estimated based on the input image data, so that even if the image display device 1 is not equipped with a temperature sensor that measures the temperature of each light-emitting element component, it is possible to compensate for changes in the luminance and chromaticity of the light generated by the light-emitting element component due to temperature changes.

なお、上記の例では、学習が終了した後に、画像表示装置1は、指定発光素子部以外の発光素子部の温度を測定する温度センサを備えたものでなくてもよく、さらに画像表示の際は、指定発光素子部の温度を測定を行わなくても、温度変化による発光素子部で発生する光の輝度及び色度の変化を補償することができると言う効果が得られる。In the above example, after learning is completed, the image display device 1 does not need to be equipped with a temperature sensor that measures the temperature of light-emitting element parts other than the designated light-emitting element part, and furthermore, when displaying an image, the effect is obtained that changes in the luminance and chromaticity of light generated in the light-emitting element part due to temperature changes can be compensated for without measuring the temperature of the designated light-emitting element part.

また、実施の形態1では、温度測定部(例えば、5a,5b)の位置を熱源の周辺とすることができる。しかし、温度測定部(例えば、5a,5b)の位置は、これに限定されない。例えば、表示器2の表側における発光素子部20の配置が図10(a)のようにマトリクス状であるときに、図10(b)のように裏側の4隅に温度測定部5を設置してもよいし、図10(c)のように裏側に等間隔に温度測定部5を設置してもよいし、図10(d)のように裏側の中心に温度測定部5を設置してもよい。 In addition, in embodiment 1, the temperature measurement units (e.g., 5a, 5b) can be located around the heat source. However, the location of the temperature measurement units (e.g., 5a, 5b) is not limited to this. For example, when the light-emitting element units 20 on the front side of the display 2 are arranged in a matrix as shown in FIG. 10(a), the temperature measurement units 5 may be installed at the four corners of the back side as shown in FIG. 10(b), or the temperature measurement units 5 may be installed at equal intervals on the back side as shown in FIG. 10(c), or the temperature measurement unit 5 may be installed in the center of the back side as shown in FIG. 10(d).

実施の形態2.
図11は、実施の形態2に係る画像表示装置1bの構成を示すブロック図である。図11において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図11に示されるように、画像表示装置1bは、表示器2と、表示制御装置3bとを備える。表示制御装置3bは、画像処理装置4bと、電源、ICチップなどの熱源6a,6bと、熱源6a,6bの温度をそれぞれ測定する温度測定部5a,5bとを有する。図11に示される画像処理装置4bは、図2の推定温度格納部13が設けられておらず、図2の温度推定部12の代わりに温度推定部12bが設けられている点において、図1に示される表示制御装置3の画像処理装置4と異なる。この点以外に関して、実施の形態2に係る画像表示装置1bは、実施の形態1に係る画像表示装置1と同じである。
Embodiment 2.
FIG. 11 is a block diagram showing the configuration of an image display device 1b according to the second embodiment. In FIG. 11, the same reference numerals as those in FIG. 1 are used for components that are the same as or correspond to those in FIG. 1. As shown in FIG. 11, the image display device 1b includes a display 2 and a display control device 3b. The display control device 3b includes an image processing device 4b, heat sources 6a and 6b such as a power source and an IC chip, and temperature measuring units 5a and 5b for measuring the temperatures of the heat sources 6a and 6b, respectively. The image processing device 4b shown in FIG. 11 is different from the image processing device 4 of the display control device 3 shown in FIG. 1 in that the estimated temperature storage unit 13 in FIG. 2 is not provided, and a temperature estimation unit 12b is provided instead of the temperature estimation unit 12 in FIG. 2. In other respects, the image display device 1b according to the second embodiment is the same as the image display device 1 according to the first embodiment.

上記のように、実施の形態1における温度推定部12は、構造位置情報C0、入力画像データDa、温度測定値Ta0、TaN、及び過去の温度推定値Te1に基づいて表示器2の各発光素子部の温度を推定する。これに対して、実施の形態2の温度推定部12bは、過去の温度推定値Te1を用いず、構造位置情報C0、入力画像データDa、温度測定値Ta0、TaNを用いて表示器2の各発光素子部の温度を推定する。As described above, the temperature estimation unit 12 in embodiment 1 estimates the temperature of each light-emitting element unit of the display device 2 based on the structural position information C0, the input image data Da, the temperature measurements Ta0 and TaN, and the past temperature estimate value Te1. In contrast, the temperature estimation unit 12b in embodiment 2 estimates the temperature of each light-emitting element unit of the display device 2 using the structural position information C0, the input image data Da, and the temperature measurements Ta0 and TaN without using the past temperature estimate value Te1.

図12は、図11に示される画像処理装置4bの温度推定部12bを構成するニューラルネットワーク25bの例を示す図である。温度推定部12bは、例えば、多層ニューラルネットワークで構成されている。 Figure 12 is a diagram showing an example of a neural network 25b constituting the temperature estimation unit 12b of the image processing device 4b shown in Figure 11. The temperature estimation unit 12b is composed of, for example, a multi-layer neural network.

図12に示されるニューラルネットワーク25bは、図6に示されるニューラルネットワーク25と同様に、入力層251bと、中間層(すなわち、隠れ層)252bと、出力層253bとを有する。図12の例では、中間層の数が3であるが、中間層の数は、2以下であってもよく4以上であってもよい。 The neural network 25b shown in Fig. 12 has an input layer 251b, an intermediate layer (i.e., a hidden layer) 252b, and an output layer 253b, similar to the neural network 25 shown in Fig. 6. In the example of Fig. 12, the number of intermediate layers is three, but the number of intermediate layers may be two or less, or four or more.

入力層251bは、図6に示されるニューラルネットワーク25の入力層251と概して同じである。ただし、図12に示されるニューラルネットワーク25bの入力層251bには、温度推定値Te1(x±α,y±β)が入力されず、構造位置情報C0、入力画像データDa(x±α,y±β)、温度測定値Ta0,TaNが入力される。The input layer 251b is generally the same as the input layer 251 of the neural network 25 shown in Fig. 6. However, the temperature estimate Te1 (x±α, y±β) is not input to the input layer 251b of the neural network 25b shown in Fig. 12, and instead, the structural position information C0, the input image data Da (x±α, y±β), and the temperature measurement values Ta0 and TaN are input.

出力層253bのニューロンは、図7の出力層253のニューロンと同様に、複数のビット、例えば、10ビットから成り、発光素子部の温度推定値Te0(x,y)を示すデータを出力する。中間層252bのニューロンのうちの少なくとも一部のニューロンとしては、帰還用のシナプス結合を有するニューロンが用いられている。帰還用のシナプス結合を有するニューロンPは、各々複数の入力に対して下記の式(3)のモデル式で表される演算を行う。 The neurons in the output layer 253b, like the neurons in the output layer 253 in FIG. 7, are composed of multiple bits, for example, 10 bits, and output data indicating the temperature estimate Te0(x,y) of the light-emitting element unit. At least some of the neurons in the intermediate layer 252b are neurons having feedback synaptic connections. Neurons P having feedback synaptic connections each perform an operation represented by the model formula (3) below for multiple inputs.

Figure 0007471416000003
Figure 0007471416000003

式(3)において、wは、同じニューロンの1「時間ステップ」前の出力y(t-1)に対する重みを示す。式(3)は、w×y(t-1)の項が加えられている点を除いて、式(1)と同じである。 In equation (3), w 0 denotes the weight for the same neuron's output one "time step" earlier, y(t-1). Equation (3) is the same as equation (1) except for the addition of the term w 0 ×y(t-1).

図13は、実施の形態2に係る画像表示装置1bが実行する処理を示すフローチャートである。画像処理装置4bが図4に示されるコンピュータ9で構成されている場合、図13はプロセッサ91による処理の手順を示す。 Figure 13 is a flowchart showing the processing executed by the image display device 1b according to embodiment 2. When the image processing device 4b is configured as the computer 9 shown in Figure 4, Figure 13 shows the procedure of processing by the processor 91.

図13の処理の手順は、図8の処理の手順と概して同じである。ただし、図13の処理の手順には、図8のステップST5が含まれていない。また、図13では、図6のステップST4がステップST4bに置き換えられている。ステップST4bでは、各発光素子部の温度の推定が行われる。この処理は、図11の温度推定部12bによる処理と同様である。 The processing procedure in Figure 13 is generally the same as the processing procedure in Figure 8. However, the processing procedure in Figure 13 does not include step ST5 in Figure 8. Also, in Figure 13, step ST4 in Figure 6 is replaced with step ST4b. In step ST4b, an estimation of the temperature of each light-emitting element portion is performed. This processing is similar to the processing by temperature estimation unit 12b in Figure 11.

実施の形態2に係る画像表示装置1b、表示制御装置3b、及び画像処理装置4bによれば、実施の形態1のものと同様の効果が得られる。さらに、実施の形態1で用いられる推定温度格納部13が不要であるので、構成が簡単であるという利点がある。 The image display device 1b, the display control device 3b, and the image processing device 4b according to the second embodiment provide the same effects as those of the first embodiment. Furthermore, since the estimated temperature storage unit 13 used in the first embodiment is not required, there is an advantage that the configuration is simple.

実施の形態3.
図14は、実施の形態3に係る画像表示装置1cの構成を示すブロック図である。図14において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図14に示されるように、画像表示装置1cは、表示器2と、表示制御装置3cとを備える。表示制御装置3cは、画像処理装置4cと、熱源6a,6bと、熱源6a,6bの温度をそれぞれ測定する温度測定部5a,5bとを有する。図14に示される画像処理装置4cは、ばらつき補正部16を有する点において、図1に示される表示制御装置3の画像処理装置4と異なる。この点以外に関して、実施の形態3に係る画像表示装置1cは、実施の形態1に係る画像表示装置1と同じである。
Embodiment 3.
FIG. 14 is a block diagram showing the configuration of an image display device 1c according to the third embodiment. In FIG. 14, the same reference numerals as those in FIG. 1 are used for the components that are the same as or correspond to those in FIG. 1. As shown in FIG. 14, the image display device 1c includes a display 2 and a display control device 3c. The display control device 3c includes an image processing device 4c, heat sources 6a and 6b, and temperature measuring units 5a and 5b that measure the temperatures of the heat sources 6a and 6b, respectively. The image processing device 4c shown in FIG. 14 differs from the image processing device 4 of the display control device 3 shown in FIG. 1 in that it includes a variation correction unit 16. In other respects, the image display device 1c according to the third embodiment is the same as the image display device 1 according to the first embodiment.

画像処理装置4cのばらつき補正部16は、表示器2の複数の発光素子部20の各々で発生する光の輝度及び色度の少なくとも一方のばらつきを補正する。ここで言うばらつきは、発光素子部で発生する光の輝度及び色度の少なくとも一方の、個体差によるばらつきである。The variation correction unit 16 of the image processing device 4c corrects the variation in at least one of the luminance and chromaticity of the light generated by each of the multiple light-emitting element units 20 of the display device 2. The variation referred to here is the variation due to individual differences in at least one of the luminance and chromaticity of the light generated by the light-emitting element units.

温度補償部14は、複数の発光素子部20の各々で発生する光の輝度及び色度の、温度Tによる変化を補償するように画像データを補正する。これに対し、ばらつき補正部16は、発光素子部相互間の個体差による輝度及び色度のばらつきを補償する。The temperature compensation unit 14 corrects the image data to compensate for changes in the luminance and chromaticity of the light generated by each of the multiple light-emitting element units 20 due to temperature T. In contrast, the variation correction unit 16 compensates for variations in luminance and chromaticity due to individual differences between the light-emitting element units.

また、以下では、画像入力部11からばらつき補正部16に、表示器2の複数の発光素子部についての画像データDaが、例えば、図2(a)に示される表示器2の画面の左上隅の発光素子部から順に入力され、最後に右下隅の発光素子部の画像データが入力される。この場合、ばらつき補正部16は、各時点で入力されている画像データDaを、処理対象となっている発光素子部(「注目発光素子部」とも言う。)についての画像データDaとして扱い、該画像データDaに対してばらつき補正を行い、補正された画像データDbを出力する。 In the following, image data Da for multiple light-emitting element units of the display 2 is input from the image input unit 11 to the variation correction unit 16, for example, in order from the light-emitting element unit in the upper left corner of the screen of the display 2 shown in Figure 2 (a), and finally the image data for the light-emitting element unit in the lower right corner is input. In this case, the variation correction unit 16 treats the image data Da input at each point in time as image data Da for the light-emitting element unit being processed (also called the "light-emitting element unit of interest"), performs variation correction on the image data Da, and outputs the corrected image data Db.

表示器2は、画像信号Doに基づいて画像を表示する。表示される画像は、温度による輝度及び色度の変化が画素ごとに補償され、かつ発光素子部の個体差による輝度及び色度のばらつきが補正されたものである。したがって、表示器2には、輝度ムラ及び色ムラの低減された画像が表示される。The display device 2 displays an image based on the image signal Do. The displayed image is one in which the changes in brightness and chromaticity due to temperature are compensated for on a pixel-by-pixel basis, and the variations in brightness and chromaticity due to individual differences in the light-emitting element units are corrected. Therefore, the display device 2 displays an image with reduced brightness and color unevenness.

図15は、実施の形態3に係る画像表示装置1cが実行する処理を示すフローチャートである。画像処理装置4cが図4に示されるコンピュータ9で構成されている場合、図15はプロセッサ91による処理の手順を示す。 Figure 15 is a flowchart showing the processing executed by the image display device 1c relating to embodiment 3. When the image processing device 4c is configured as the computer 9 shown in Figure 4, Figure 15 shows the procedure of processing by the processor 91.

図15に示されるフローチャートは、ステップST8が付加されている点を除いて、図8に示されるフローチャートと同じである。ステップST8では、ばらつき補正部16によるばらつき補正が行われる。The flowchart shown in FIG. 15 is the same as the flowchart shown in FIG. 8, except for the addition of step ST8. In step ST8, variation correction is performed by the variation correction unit 16.

実施の形態3に係る画像表示装置1c、表示制御装置3c、及び画像処理装置4cによれば、実施の形態1のものと同様の効果が得られる。さらに、発光素子部ごとのばらつきを補正することができるので、表示器2に表示される画像の輝度ムラ及び色ムラをより一層低減できる。 The image display device 1c, the display control device 3c, and the image processing device 4c according to the third embodiment provide the same effects as those of the first embodiment. Furthermore, since the variation in each light-emitting element unit can be corrected, the brightness and color unevenness of the image displayed on the display 2 can be further reduced.

変形例.
上記実施の形態1~3では、1つの発光素子部がR、G、B用の3個のLEDで構成された例を説明したが、1つの発光素子部を構成するLEDの数は3個に限定されない。例えば、1つの発光素子部は、2個以下のLEDで構成されてもよく、又は、4個以上のLEDで構成されてもよい。
Variant examples.
In the above-described first to third embodiments, an example has been described in which one light-emitting element section is composed of three LEDs for R, G, and B, but the number of LEDs constituting one light-emitting element section is not limited to 3. For example, one light-emitting element section may be composed of two or less LEDs, or may be composed of four or more LEDs.

また、上記実施の形態1~3では、表示制御装置3,3b,3cが、輝度の補償を行う例、又は輝度及び色度の両方の補償を行う例を説明したが、表示制御装置3,3b,3cは、輝度及び色度の少なくとも一方の補償を行うために、画像データを補正するものであればよい。すなわち、温度補償部14は、温度変化による輝度及び色度の少なくとも一方の補償を行うように、画像データを補正するものであればよい。 In addition, in the above embodiments 1 to 3, examples have been described in which the display control devices 3, 3b, and 3c compensate for luminance or compensate for both luminance and chromaticity, but the display control devices 3, 3b, and 3c only need to correct image data to compensate for at least one of the luminance and chromaticity. In other words, the temperature compensation unit 14 only needs to correct image data so as to compensate for at least one of the luminance and chromaticity due to temperature changes.

また、上記実施の形態1~3では、画像表示装置1,1b,1c、表示制御装置3,3b,3c、及び画像処理装置4,4b,4c、について説明したが、表示制御装置3,3b,3cで実施される表示制御方法、画像処理装置4,4b,4cで実施される画像処理方法も、本開示の一部を成す。 In addition, in the above embodiments 1 to 3, image display devices 1, 1b, 1c, display control devices 3, 3b, 3c, and image processing devices 4, 4b, 4c have been described, but the display control methods implemented in the display control devices 3, 3b, 3c and the image processing methods implemented in the image processing devices 4, 4b, 4c also form part of the present disclosure.

また、上記表示制御方法又は上記画像処理方法における処理をコンピュータ9に実行させるプログラム及び該プログラムを記録した、コンピュータで読取可能な記録媒体(例えば、非一時的な記録媒体)も、本開示の一部を成す。In addition, a program that causes a computer 9 to execute the processing in the above-mentioned display control method or the above-mentioned image processing method, and a computer-readable recording medium (e.g., a non-transitory recording medium) on which the program is recorded, also form part of the present disclosure.

1,1b,1c 画像表示装置、 2 表示器、 3,3b,3c 表示制御装置、 4,4b,4c 画像処理装置、 5,5a,5b 温度測定部、 6a,6b 熱源、 9 コンピュータ、 11 画像入力部、 12,12b 温度推定部、 13 推定温度格納部、 14 温度補償部、 15 画像出力部、 16 ばらつき補正部、 25,25b ニューラルネットワーク、 91 プロセッサ、 92 メモリ、 101 学習装置、 102 学習用温度測定部、 141 補償テーブル格納部、 142 係数読出し部、 143 係数乗算部、 251,251b 入力層、 252,252b 中間層、 253,253b 出力層。
1, 1b, 1c image display device, 2 display, 3, 3b, 3c display control device, 4, 4b, 4c image processing device, 5, 5a, 5b temperature measurement unit, 6a, 6b heat source, 9 computer, 11 image input unit, 12, 12b temperature estimation unit, 13 estimated temperature storage unit, 14 temperature compensation unit, 15 image output unit, 16 variation correction unit, 25, 25b neural network, 91 processor, 92 memory, 101 learning device, 102 learning temperature measurement unit, 141 compensation table storage unit, 142 coefficient reading unit, 143 coefficient multiplication unit, 251, 251b input layer, 252, 252b intermediate layer, 253, 253b output layer.

Claims (12)

各々が1つ以上の発光素子を含む複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、
前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする画像処理装置。
a temperature measuring unit that measures temperatures in the vicinity of a plurality of light-emitting element units each including one or more light-emitting elements and outputs a temperature measurement value indicating the temperatures;
a learning temperature measurement unit that is temporarily provided for measuring a temperature of the light-emitting element unit and outputs a learning temperature measurement value indicating the temperature;
a temperature estimation unit that estimates a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display device having the plurality of light-emitting element units and is used to display an image, using a neural network, and outputs a temperature estimation value that indicates the estimated temperature;
a temperature compensation unit that corrects the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units;
having
the temperature estimation value of an estimation target light-emitting element component among the plurality of light-emitting element components is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element components measured by the temperature measurement unit , structural position information including information indicating a positional relationship between the estimation target light-emitting element component and the temperature measurement unit, and a temperature of the light-emitting element component within a predetermined range including the estimation target light-emitting element component;
the parameters of the model formula are values obtained by previously training the neural network using a plurality of data sets prepared for training so that the temperature estimation value approaches the training temperature measurement value ,
The image processing device characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and temperatures of the light-emitting element units within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
前記ニューラルネットワークを構成するニューロンのうちの少なくとも一部のニューロンは帰還用のシナプス結合を有する
ことを特徴とする請求項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein at least some of the neurons constituting the neural network have feedback synaptic connections.
前記温度推定部は、
前記ニューラルネットワークを用いて、前記複数の発光素子部の近傍の温度測定値と、前記画像データと、前記温度推定部によって推定された過去の温度推定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記温度推定部によって推定された過去の温度推定値と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、前記過去の温度推定値、及び、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする請求項1に記載の画像処理装置。
The temperature estimation unit is
using the neural network, estimating a temperature of each of the plurality of light-emitting element components based on temperature measurement values in the vicinity of the plurality of light-emitting element components, the image data, past temperature estimates estimated by the temperature estimation unit, and structural position information including information indicating a positional relationship between the light-emitting element component to be estimated and the temperature measurement unit, and outputting a temperature estimate value indicating the estimated temperature;
the temperature estimation value of an estimation target light-emitting element unit among the plurality of light-emitting element units is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units, structural position information including information indicating a positional relationship between the estimation target light-emitting element unit and the temperature measurement unit, past temperature estimation values estimated by the temperature estimation unit, and temperatures of light-emitting element units within a predetermined range including the estimation target light-emitting element unit;
the parameters of the model formula are values obtained by previously learning the neural network using a plurality of data sets prepared for learning so that the temperature estimation value approaches the temperature measurement value,
2. The image processing device according to claim 1, wherein the data set includes the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units, structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, the past temperature estimate, and temperatures of light-emitting element units within a predetermined range including the light-emitting element unit to be estimated.
前記過去の温度推定値は、Fを2以上の整数としたときに、現在の画像データより1フレーム前からFフレーム前の温度推定値である請求項3に記載の画像処理装置。 The image processing device according to claim 3, wherein the past temperature estimate is a temperature estimate from one frame before the current image data to F frames before, where F is an integer equal to or greater than 2. 前記ニューラルネットワークは、多層ニューラルネットワークである
請求項1から4のいずれか1項に記載の画像処理装置。
The image processing device according to claim 1 , wherein the neural network is a multi-layer neural network.
前記複数の発光素子部で発生する、前記複数の発光素子部の個体差による光の輝度及び色度の少なくとも一方のばらつきを補正するばらつき補正部を更に有し、
前記ばらつき補正部は、前記温度補償部から出力され画像データを補正する
請求項1から5のいずれか1項に記載の画像処理装置。
a variation correction unit that corrects variation in at least one of luminance and chromaticity of light generated in the plurality of light-emitting element components due to individual differences of the plurality of light-emitting element components,
The image processing device according to claim 1 , wherein the variation correction section corrects the image data output from the temperature compensation section.
前記発光素子は、発光ダイオードである請求項1から6のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 6, wherein the light-emitting element is a light-emitting diode. 複数の発光素子部を有し、前記複数の発光素子部の各々が1つ以上の発光素子を含む、表示器の表示動作を制御する表示制御装置であって、
入力された画像データに基づく画像を前記表示器に表示させる画像処理装置と、
前記複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、
前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、
を備え、
前記画像処理装置は、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする表示制御装置。
A display control device that controls a display operation of a display device, the display control device having a plurality of light-emitting element units, each of the plurality of light-emitting element units including one or more light-emitting elements,
an image processing device that displays an image based on input image data on the display device;
a temperature measuring unit that measures a temperature in the vicinity of the plurality of light-emitting element components and outputs a temperature measurement value indicating the temperature;
a learning temperature measurement unit that is temporarily provided for measuring a temperature of the light-emitting element unit and outputs a learning temperature measurement value indicating the temperature;
Equipped with
The image processing device includes:
a temperature estimation unit that estimates a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display device having the plurality of light-emitting element units and is used to display an image, using a neural network, and outputs a temperature estimation value that indicates the estimated temperature;
a temperature compensation unit that corrects the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units;
having
the temperature estimation value of an estimation target light-emitting element component among the plurality of light-emitting element components is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element components measured by the temperature measurement unit , structural position information including information indicating a positional relationship between the estimation target light-emitting element component and the temperature measurement unit, and a temperature of the light-emitting element component within a predetermined range including the estimation target light-emitting element component;
the parameters of the model formula are values obtained by previously training the neural network using a plurality of data sets prepared for training so that the temperature estimation value approaches the training temperature measurement value ,
A display control device characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and temperatures of light-emitting element units within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
複数の発光素子部を有し、前記複数の発光素子部の各々が1つ以上の発光素子を含む、表示器と、
入力された画像データに基づく画像を前記表示器に表示させる画像処理装置と、
前記複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、
前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、
を備え、
前記画像処理装置は、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする画像表示装置。
A display having a plurality of light-emitting element units, each of the plurality of light-emitting element units including one or more light-emitting elements;
an image processing device that displays an image based on input image data on the display device;
a temperature measuring unit that measures a temperature in the vicinity of the plurality of light-emitting element components and outputs a temperature measurement value indicating the temperature;
a learning temperature measurement unit that is temporarily provided for measuring a temperature of the light-emitting element unit and outputs a learning temperature measurement value indicating the temperature;
Equipped with
The image processing device includes:
a temperature estimation unit that estimates a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display device having the plurality of light-emitting element units and is used to display an image, using a neural network, and outputs a temperature estimation value that indicates the estimated temperature;
a temperature compensation unit that corrects the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units;
having
the temperature estimation value of an estimation target light-emitting element component among the plurality of light-emitting element components is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element components measured by the temperature measurement unit , structural position information including information indicating a positional relationship between the estimation target light-emitting element component and the temperature measurement unit, and a temperature of the light-emitting element component within a predetermined range including the estimation target light-emitting element component;
the parameters of the model formula are values obtained by previously training the neural network using a plurality of data sets prepared for training so that the temperature estimation value approaches the training temperature measurement value ,
The image display device characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element units within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
温度測定部により、各々が1つ以上の発光素子を含む複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力するステップと、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力するステップと、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正するステップと、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が、前記発光素子部の温度を測定するために一時的に設けられた学習用温度測定部が出力した学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする画像処理方法。
a step of measuring temperatures in the vicinity of a plurality of light-emitting element units each including one or more light-emitting elements by a temperature measurement unit, and outputting a temperature measurement value indicating the temperature;
using a neural network to estimate a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data input to a display device having the plurality of light-emitting element units for displaying an image, and outputting a temperature estimation value indicating the estimated temperature;
correcting the image data based on the temperature estimate value so as to compensate for at least one of changes in luminance and chromaticity due to temperature for each of the plurality of light-emitting element components;
having
the temperature estimation value of an estimation target light-emitting element unit among the plurality of light-emitting element units is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units, structural position information including information indicating a positional relationship between the estimation target light-emitting element unit and the temperature measurement unit, and a temperature of the light-emitting element unit within a predetermined range including the estimation target light-emitting element unit;
the parameters of the model formula are values obtained by previously learning the neural network using a plurality of data sets prepared for learning so that the temperature estimation value approaches a learning temperature measurement value output by a learning temperature measurement unit temporarily provided for measuring the temperature of the light-emitting element unit ,
An image processing method characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element components measured by the temperature measurement unit , structural position information including information indicating the positional relationship between the light-emitting element component to be estimated and the temperature measurement unit, and temperatures of light-emitting element components within a predetermined range including the light-emitting element component to be estimated measured by the learning temperature measurement unit .
請求項10に記載の画像処理方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 10. 請求項11に記載のプログラムを記録した、コンピュータで読取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 11 is recorded.
JP2022534566A 2020-07-08 2020-07-08 IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM Active JP7471416B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/026737 WO2022009345A1 (en) 2020-07-08 2020-07-08 Image-processing device, display control device, image display device, image-processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JPWO2022009345A1 JPWO2022009345A1 (en) 2022-01-13
JP7471416B2 true JP7471416B2 (en) 2024-04-19

Family

ID=79552473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022534566A Active JP7471416B2 (en) 2020-07-08 2020-07-08 IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM

Country Status (2)

Country Link
JP (1) JP7471416B2 (en)
WO (1) WO2022009345A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114613320B (en) * 2022-03-29 2024-01-16 湖北长江新型显示产业创新中心有限公司 Display panel and display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206834A1 (en) 2016-01-20 2017-07-20 Samsung Display Co., Ltd. Temperature estimating apparatus, a method of estimating a temperature, and a display system including the temperature estimating apparatus
US20170236490A1 (en) 2016-02-17 2017-08-17 Samsung Display Co., Ltd. Luminance compensator in display device
WO2019059000A1 (en) 2017-09-25 2019-03-28 Eizo株式会社 Atmospheric temperature estimating device, atmospheric temperature estimating method, program and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08177599A (en) * 1994-12-28 1996-07-09 Mazda Motor Corp Vehicle equipment temperature estimating method and temperature estimating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206834A1 (en) 2016-01-20 2017-07-20 Samsung Display Co., Ltd. Temperature estimating apparatus, a method of estimating a temperature, and a display system including the temperature estimating apparatus
US20170236490A1 (en) 2016-02-17 2017-08-17 Samsung Display Co., Ltd. Luminance compensator in display device
WO2019059000A1 (en) 2017-09-25 2019-03-28 Eizo株式会社 Atmospheric temperature estimating device, atmospheric temperature estimating method, program and system

Also Published As

Publication number Publication date
JPWO2022009345A1 (en) 2022-01-13
WO2022009345A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US10134334B2 (en) Luminance uniformity correction for display panels
TWI498872B (en) Method and apparatus for converting rgb data signals to rgbw data signals in an oled display
CN103946917B (en) Display device control method
KR101442680B1 (en) Apparatus and method for driving of organic light emitting display device
KR102197270B1 (en) Method of compensating image of display panel, method of driving display panel including the same and display apparatus for performing the same
KR20180058048A (en) Display apparatus, Calibration apparatus and Calibration method thereof
TWI443639B (en) Image display device and method of driving the same
US10235936B2 (en) Luminance uniformity correction for display panels
TWI686787B (en) Image display device
US20150035870A1 (en) Display apparatus and control method for same
US9618789B2 (en) Planar lighting apparatus and liquid crystal display apparatus
KR20120092790A (en) Method of driving display panel and display apparatus performing the method
CN109147657A (en) Optical compensating member and its operation method applied to display panel
TW202015031A (en) Display system and display frame compensation method thererof
JP7471416B2 (en) IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
US7948499B2 (en) Color control algorithm for use in display systems
US20220208065A1 (en) Image processing device, method, image display device, and recording medium
KR20170087078A (en) Transparent liquid crystal display apparatus and method of driving the same
CN114420039A (en) IR drop compensation for display panels including regions of different pixel layouts
KR20210093734A (en) Device and method for brightness control of display device
WO2022054148A1 (en) Image processing device, image display device, image processing method, and image processing program
JP7233551B2 (en) Image display device, display control device, image processing device, program and recording medium
JP7313287B2 (en) Method and apparatus for displaying images on dual display panel
KR102023936B1 (en) Video display device using retinex theory and method for driving the same
WO2022113154A1 (en) Video display device and brightness correction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409

R150 Certificate of patent or registration of utility model

Ref document number: 7471416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150