JP7471416B2 - IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM - Google Patents
IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM Download PDFInfo
- Publication number
- JP7471416B2 JP7471416B2 JP2022534566A JP2022534566A JP7471416B2 JP 7471416 B2 JP7471416 B2 JP 7471416B2 JP 2022534566 A JP2022534566 A JP 2022534566A JP 2022534566 A JP2022534566 A JP 2022534566A JP 7471416 B2 JP7471416 B2 JP 7471416B2
- Authority
- JP
- Japan
- Prior art keywords
- temperature
- light
- emitting element
- unit
- temperature measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 79
- 238000003672 processing method Methods 0.000 title claims description 9
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000009529 body temperature measurement Methods 0.000 claims description 129
- 238000013528 artificial neural network Methods 0.000 claims description 39
- 210000002569 neuron Anatomy 0.000 claims description 25
- 238000012937 correction Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 8
- 230000000946 synaptic effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000003111 delayed effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/30—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
- G09G3/32—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Control Of El Displays (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Description
本開示は、画像処理装置、表示制御装置、画像表示装置、画像処理方法、プログラム、及び前記プログラムを記録した記録媒体に関する。 The present disclosure relates to an image processing device, a display control device, an image display device, an image processing method, a program, and a recording medium on which the program is recorded.
一般的に、LED(発光ダイオード、Light Emitting Diode)などの発光素子で発生する光の輝度及び色度は温度に応じて変化する。特許文献1は、バックライトにLEDが用いられた液晶表示パネルの温度を測定し、測定された温度に応じた補正データを用いて画像データを補正する液晶表示パネルの駆動方法を提案している。In general, the brightness and chromaticity of light generated by light-emitting elements such as LEDs (light-emitting diodes) change depending on the temperature.
また、赤(R)、緑(G)及び青(B)の光を発するLED(例えば、3個のLED)を有する1つの発光素子部を1画素とし、複数の画素が規則的に配置された表示パネルを備えた、表示器であるLEDディスプレイが実用されている。なお、1つのパッケージ内に複数のLEDを備えた発光素子部は、「3in1チップタイプLED素子」又は「3in1発光素子」とも称される。 LED displays, which are displays, are in practical use and have a display panel in which a single light-emitting element section having LEDs (e.g., three LEDs) that emit red (R), green (G), and blue (B) light constitutes one pixel, and multiple pixels are regularly arranged. A light-emitting element section having multiple LEDs in one package is also called a "3-in-1 chip-type LED element" or "3-in-1 light-emitting element."
しかしながら、発光素子部を画素とする表示パネルでは、表示コンテンツ(すなわち、入力画像データ)によって、個々のLEDに流れる電流が変わるため、個々の発光素子部の温度が異なる。また、発光素子部を画素とする表示パネルでは、表示器に搭載される電源、回路などの熱源で熱が発生するので、熱源と発光素子部との位置関係に応じて個々の発光素子部の温度が異なる。これらの理由により、表示器に表示される画像に輝度ムラ及び色ムラが発生する。However, in a display panel in which the light-emitting element units are pixels, the current flowing through each LED changes depending on the display content (i.e., input image data), and so the temperature of each light-emitting element unit differs. Also, in a display panel in which the light-emitting element units are pixels, heat is generated from heat sources such as power supplies and circuits mounted on the display, and so the temperature of each light-emitting element unit differs depending on the positional relationship between the heat source and the light-emitting element unit. For these reasons, uneven brightness and color occur in the image displayed on the display.
本開示の目的は、表示器に表示される画像の輝度ムラ及び色ムラの少なくとも一方を低減することである。 The objective of this disclosure is to reduce at least one of the brightness unevenness and color unevenness of an image displayed on a display device.
本開示の画像処理装置は、各々が1つ以上の発光素子を含む複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、を有し、前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含むことを特徴とする。 The image processing device of the present disclosure includes a temperature measurement unit that measures the temperature in the vicinity of a plurality of light-emitting element units, each of which includes one or more light-emitting elements, and outputs a temperature measurement value indicating the temperature; a learning temperature measurement unit that is temporarily provided for measuring the temperature of the light-emitting element units and outputs a learning temperature measurement value indicating the temperature; a temperature estimation unit that uses a neural network to estimate the temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display having the plurality of light-emitting element units and is used to display an image, and outputs a temperature estimate value indicating the estimated temperature; and a temperature compensation unit that corrects the image data based on the temperature estimate value so that at least one of changes in luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units, and the temperature estimate value of the light-emitting element unit to be estimated among the plurality of light-emitting element units is determined based on the image data and a previous The temperature measurement value is calculated using a model formula that matches the temperature measurement values in the vicinity of the multiple light-emitting element units measured by the temperature measurement unit, structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated, and the parameters of the model formula are values obtained by pre-learning the neural network using multiple data sets prepared for learning so that the temperature estimation value approaches the learning temperature measurement value , and the data sets include the image data, the temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit.
本開示の画像処理方法は、温度測定部により、各々が1つ以上の発光素子を含む複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力するステップと、ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力するステップと、前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正するステップと、を有し、前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が、前記発光素子部の温度を測定するために一時的に設けられた学習用温度測定部が出力した学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、前記データセットは、前記画像データ、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含むことを特徴とする。
The image processing method of the present disclosure includes the steps of measuring the temperature in the vicinity of a plurality of light-emitting element units, each of which includes one or more light-emitting elements, by a temperature measurement unit, and outputting a temperature measurement value indicating the temperature; estimating the temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data input to a display having the plurality of light-emitting element units and for displaying an image, using a neural network, and outputting a temperature estimate value indicating the estimated temperature; and correcting the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units, and the temperature estimate value of a light-emitting element unit to be estimated among the plurality of light-emitting element units is determined based on the image data, the temperature measurement value in the vicinity of the plurality of light-emitting element units, and a position between the light-emitting element unit to be estimated and the temperature measurement unit. The temperature estimation value is calculated using a model formula that matches structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated, and the parameters of the model formula are values obtained by pre-training the neural network using a plurality of data sets prepared for learning so that the temperature estimation value approaches a learning temperature measurement value output by a learning temperature measurement unit temporarily installed to measure the temperature of the light-emitting element unit, and the data sets include the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units measured by the temperature measurement unit , structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element unit within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
本開示の画像処理装置、表示制御装置、画像表示装置、画像処理方法、プログラム、及び記録媒体を用いれば、表示器に表示される画像の輝度ムラ及び色ムラの少なくとも一方を低減することができる。 By using the image processing device, display control device, image display device, image processing method, program, and recording medium disclosed herein, it is possible to reduce at least one of brightness unevenness and color unevenness in an image displayed on a display device.
以下に、実施の形態に係る画像処理装置、表示制御装置、画像表示装置、画像処理方法、コンピュータに画像処理を実行させるプログラム、及び前記プログラムを記録した記録媒体を、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。 Below, an image processing device, a display control device, an image display device, an image processing method, a program for causing a computer to execute image processing, and a recording medium on which the program is recorded, relating to the embodiments, are described with reference to the drawings. The following embodiments are merely examples, and the embodiments can be combined as appropriate, and each embodiment can be modified as appropriate.
実施の形態1.
図1は、実施の形態1に係る画像表示装置1の構成を示すブロック図である。図1に示されるように、画像表示装置1は、画像を表示する表示器2と、表示器2を制御する表示制御装置3とを有する。表示制御装置3は、画像処理装置4と、電源、IC(Integrated Circuit)チップなどの第1~第N(Nは正の整数)の熱源である熱源6a,6bと、熱源6a,6bの温度をそれぞれ測定する第1~第Nの温度測定部である温度測定部5a,5bとを有する。図1の例では、N=2である場合を説明する。ただし、温度測定部の数(すなわち、N)は、1であってもよい。或いは、温度測定部の数(すなわち、N)は、3以上であってもよい。
FIG. 1 is a block diagram showing the configuration of an
図2(a)は、図1に示される表示器2に備えられた複数の発光素子部20を概略的に示す正面図であり、図2(b)は、1つの発光素子部20の構造を概略的に示す拡大図である。図2(a)に示されるように、表示器2では、水平走査方向(図2(a)における横方向)にxmax個、垂直走査方向(図2(a)における縦方向)にymax個の発光素子部20が規則的に(例えば、マトリックス状に)配置されている。xmax及びymaxは、予め決められた正の整数である。
Fig. 2(a) is a front view showing a schematic of a plurality of light-
各発光素子部20は、例えば、赤(R)、緑(G)及び青(B)の光を発する発光素子としてのLEDを有する。R、G、Bの光を発するLEDは、それぞれ「R用のLED」、「G用のLED」、「B用のLED」とも表記される。また、R、G、Bの光を発するLEDは、「R、G、B用のLED」とも表記される。図2(b)に符号R、G、Bで示されるように、各発光素子部(すなわち、各画素)20は、1つのパッケージ内にR用のLED、G用のLED、及びB用のLEDが設けられた構造を有している。ただし、発光素子部20の構造は、上記のものに限定されず、1つ以上の発光素子を有するものであればよい。Each light-
図3(a)及び(b)は、R、G、B用のLEDを有する発光素子部20で発生する光の輝度及び色度の温度による変化の例を示す図である。図3(a)には、基準温度Tmrにおける輝度である基準輝度に対する温度Tにおける輝度の比である輝度比(すなわち、輝度の正規化値)Vpがグラフで示されている。図3(b)には、基準温度Tmrにおける色度である基準色度に対する温度Tにおける色度の比である色度比(すなわち、色度の正規化値)Xp,Ypがグラフで示されている。図3(a)及び(b)に示されるように、R、G、B用のLEDを有する発光素子部20は、発生する光の輝度及び色度の双方又は一方が、温度Tに応じて変化する。図3(a)では、輝度比Vpは温度Tの上昇に応じて低下する。図3(b)では、色度は、CIE-xy色度図におけるxy座標(x,y)を示す2つの数値であるx及びyで表されている。図3(b)では、CIE-xy色度図におけるx及びyの値の変化を示す色度比Xp及びYpは、温度Tの上昇に応じて低下する。なお、CIE-xy色度におけるx及びyは、図2(a)などにおける表示器2の画面における画素の位置を示す座標としての(x,y)とは異なる記号である。3(a) and (b) are diagrams showing an example of the change in luminance and chromaticity of light generated by the light-emitting
温度測定部5aは、画像表示装置1に搭載された熱源6aの周辺(例えば、近傍)に設置され、熱源6aの温度を測定して、熱源6aの温度を示す温度測定値Ta0を出力する。熱源6aは、表示器2を構成する発光素子部に含まれるLEDの温度に影響を与える。温度測定部5bも、同様に、画像表示装置1に搭載される熱源6bの温度を測定して温度測定値TaNを出力する。実施の形態1では、温度測定部の数が2個である例を説明する。The
温度測定部5a及び5bのそれぞれは、温度センサを有する。温度センサは、接触式のものであってもよく、非接触式のものであってもよい。接触式の温度センサは、例えば、サーミスタ又は熱電対により構成されたものである。非接触式の温度センサは、例えば、赤外線を受けて表面温度を検知するものである。Each of the
画像処理装置4は、入力画像データに応じた画像を表示器2に表示させる。画像処理装置4は、入力画像データに基づいて、表示器2の各発光素子部(すなわち、座標(x,y)の画素)20の温度を推定し、推定された温度である温度推定値Te0(x,y)に基づいて、温度変化による座標(x,y)の発光素子部20で発生する光の輝度及び色度の変化を補償するための画像データ(例えば、画素ごとの画像データ)の補正を行い、補正された画像データを表示器2に供給する。The
画像処理装置4は、その一部又は全部を処理回路で構成し得る。例えば、画像処理装置4の複数の部分の機能をそれぞれ別個の処理回路で実現してもよく、又は、画像処理装置4の複数の部分の機能を纏めて1つの処理回路で実現してもよい。処理回路は、ハードウェアで構成されてもよく、ソフトウェアとしてのプログラムを実行するコンピュータで構成されていてもよい。画像処理装置4の機能のうちの一部をハードウェアで実現し、他の部分をソフトウェアとしてのプログラムを実行するコンピュータで実現してもよい。The
図4は、画像処理装置4の機能を実現するコンピュータ9を、表示器2及び温度測定部5a,5bとともに示すブロック図である。コンピュータ9は、情報処理部としてのプロセッサ91と、記憶部としてのメモリ92とを有する。
Figure 4 is a block diagram showing a
プロセッサ91は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)等を備える。The
メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)等の半導体メモリを有している。メモリ92は、磁気ディスク、光ディスク、又は、光磁気ディスク等を有してもよい。The
プロセッサ91は、メモリ92に記憶されているプログラムを実行することにより、画像処理装置4の機能を実現する。画像処理装置4の機能には、表示器2における表示動作の制御が含まれる。なお、図4に示されるコンピュータ9は、単一のプロセッサ91を含むが、2つ以上のプロセッサを含んでいてもよい。The
図1には、画像処理装置4を構成する機能ブロックが示されている。画像処理装置4は、画像入力部11、温度推定部12、推定温度格納部13、温度補償部14、及び画像出力部15を備える。
Figure 1 shows the functional blocks constituting the
画像入力部11は、入力画像データとしてのデジタル画像データDiを受信して、画像データDaとして出力するデジタルインターフェースである。ただし、画像入力部11は、入力画像データに基づくアナログ画像信号をデジタル画像データに変換するA/D変換器で構成されていてもよい。入力画像データは、発光素子部ごと(すなわち、画素ごと)にR、G、B用のLED(すなわち、副画素)の輝度値に対応する画素値(すなわち、成分値)を持つ。The
温度推定部12は、表示器2の複数の発光素子部(すなわち、複数の画素)20の中から発光素子部(すなわち、推定対象の発光素子部)を順に選択し、選択された発光素子部の温度を推定し、推定された温度を示す温度推定値Te0を出力する。座標(x,y)の位置にある発光素子部の温度推定値Te0は、Te0(x,y)で表される。図2(a)に示されるように、座標(x,y)における「x」は、表示器2の画面内における水平走査方向の位置を表し、「y」は、表示器2の画面内における垂直操作方向の位置を表す。座標(x,y)における「x」は、画面の左端の発光素子部において1であり、画面の右端の発光素子部においてxmaxである。座標(x,y)における「y」は、画面の上端の発光素子部において1であり、画面の下端の発光素子部においてymaxである。したがって、画面の左上隅の発光素子部の位置は、座標(1,1)で表され、画面の右下隅の発光素子部の位置は、座標(xmax,ymax)で表される。座標(x,y)におけるx及びyは、画素ピッチごとに1ずつ変化する。
The
推定温度格納部13は、温度推定部12から出力された温度推定値Te0(x,y)を格納し、画像データの1フレーム期間遅らせて、「1フレーム前の温度推定値」Te1(x,y)として出力する。The estimated
推定温度格納部13から出力される温度推定値Te1(x,y)に対して、温度推定部12から出力される温度推定値Te0(x,y)は、1フレーム期間の遅れのないものであるので、「現フレームの温度推定値」と呼ばれる。
Compared to the temperature estimation value Te1(x,y) output from the estimated
実施の形態1では、推定温度格納部13は、1フレーム期間遅らせた温度推定値Te1(x,y)を出力する。ただし、推定温度格納部13は、1フレーム期間遅らせた温度推定値Te1(x,y)を出力する代わりに、1フレーム期間遅らせた温度推定値Te1(x,y)からFフレーム期間(Fは、2以上の整数)遅らせた温度推定値TeF(x,y)までのF個の温度推定値Te1(x,y)~TeF(x,y)を生成して出力してもよい。In the first embodiment, the estimated
温度推定値Te0(x,y)~TeF(x,y)は、互いに異なるフレーム期間、すなわち互いに異なる時刻における推定値であるので、これらを纏めたものを、「複数フレームの温度推定値」又は「複数時刻の温度推定値」とも言う。また、現フレームの温度推定値Te0(x,y)を、「現在の温度推定値」とも言う。また、1フレーム以上前の温度推定値Te1(x,y)~TeF(x,y)を、「過去の温度推定値」とも言う。 The temperature estimates Te0(x,y) to TeF(x,y) are estimates for different frame periods, i.e., different times, so collectively they are also referred to as "temperature estimates for multiple frames" or "temperature estimates for multiple times." The temperature estimate Te0(x,y) of the current frame is also referred to as the "current temperature estimate." The temperature estimates Te1(x,y) to TeF(x,y) from one frame or more ago are also referred to as "past temperature estimates."
温度推定部12は、表示器2を構成する複数の発光素子部20の各々の温度を推定する。例えば、推定には、画像入力部11から出力された現フレームの入力画像データDaと、温度測定部5a,5bから出力された現フレームの温度測定値Ta0、TaNと、構造位置情報C0と、推定温度格納部13から出力された1フレーム前の温度推定値Te1とが用いられる。複数の発光素子部のうちの推定対象の発光素子部の温度推定値は、推定対象の発光素子部の画像データと、温度測定値と、推定対象の発光素子部と温度測定部との間の位置関係を示す情報を含む構造位置情報C0と、推定対象の発光素子部を含む予め決められた領域内の発光素子部の温度の測定値と、の関係を学習することで得られた学習結果に基づいて推定される。The
温度推定部12は、表示器2を構成する複数の発光素子部20の中から推定対象の発光素子部を順に選択し、選択されている発光素子部についての温度を推定する。構造位置情報C0は、複数の発光素子部20に対する温度測定部5a,5bの位置を示す情報を含む。構造位置情報C0は、例えば、温度測定部5a,5bの位置と温度推定対象の発光素子部の位置との相対位置情報(すなわち、位置関係)、温度測定部5a,5bの位置情報、などのいずれかを含むことができる。The
選択されている発光素子部の温度の推定に当たっては、入力画像データDaのうち、当該発光素子部の周辺領域内の発光素子部についての画像データも用いられ、1フレーム前の温度推定値Te1のうち、当該発光素子部の周辺領域内の発光素子部についての温度推定値も用いられる。例えば、選択されている発光素子部の座標が(x,y)で表される場合、座標が(x±α,y±β)で表される範囲が選択されている発光素子部の周辺領域とされる。±αは、-αmaxから+αmaxまでの範囲であり、±βは、-βmaxから+βmaxまでの範囲である。ここで、αmax及びβmaxの各々は、予め定められた値であり、例えば、2~10程度である。なお、αmaxとβmaxとは、互いに同じ値であってもよく、異なる値であってもよい。 In estimating the temperature of the selected light-emitting element unit, the image data of the light-emitting element unit in the peripheral region of the light-emitting element unit is also used from the input image data Da, and the temperature estimate value Te1 of the previous frame for the light-emitting element unit in the peripheral region of the light-emitting element unit is also used. For example, when the coordinates of the selected light-emitting element unit are expressed as (x, y), the range expressed by the coordinates (x±α, y±β) is regarded as the peripheral region of the selected light-emitting element unit. ±α is the range from -α max to +α max , and ±β is the range from -β max to +β max . Here, each of α max and β max is a predetermined value, for example, about 2 to 10. Note that α max and β max may be the same value or different values.
なお、入力画像データDaについての周辺領域の範囲と、1フレーム前の温度推定値Te1についての周辺領域の範囲とが異なっていてもよい。すなわち、入力画像データDaについての周辺領域についてのαmax,βmax(=αmax(0),βmax(0))と、1フレーム前の温度推定値Te1についての周辺領域についてのαmax,βmax(=αmax(1),βmax(1))とが、互いに異なっていてもよい。例えば、1フレーム前の温度推定値Te1についての周辺領域を、入力画像データDaの温度推定値Te0についての周辺領域より狭くしてもよい。つまり、αmax(1)<αmax(0),βmax(1)<βmax(0)としてもよい。或いは、αmax(F)<αmax(F-1),βmax(F)<βmax(F-1)としてもよい。 The range of the peripheral area for the input image data Da may be different from the range of the peripheral area for the temperature estimate Te1 of the previous frame. That is, α max , β max (=α max (0), β max (0)) for the peripheral area for the input image data Da may be different from α max , β max (=α max (1), β max (1)) for the peripheral area for the temperature estimate Te1 of the previous frame. For example, the peripheral area for the temperature estimate Te1 of the previous frame may be narrower than the peripheral area for the temperature estimate Te0 of the input image data Da. That is, α max (1) < α max (0), β max (1) < β max (0) may be satisfied. Alternatively, it is also possible to set α max (F)<α max (F−1) and β max (F)<β max (F−1).
温度推定部12は、画像データDa(x±α,y±β)と、過去の温度推定値Te1(x±α,y±β)と、温度測定部5a,5bから出力された現フレームの温度測定値Ta0、TaNと、構造位置情報C0とに基づいて、選択されている発光素子部の温度推定値Te0(x,y)を求める。温度推定部12は、例えば、多層ニューラルネットワークで構成されている。図5には、そのようなニューラルネットワーク25の一例が示されている。The
図5に示されるニューラルネットワーク25は、入力層251と、中間層(すなわち、隠れ層)252と、出力層253とを有する。図示の例では、中間層の数が3であるが、中間層の数は、2以下であってもよく、4以上であってもよい。The
入力層251のニューロンPの各々には、構造位置情報C0、温度測定値Ta0,TaN、過去の温度推定値Te1(x±α,y±β)、すなわち複数の発光素子部20のそれぞれの温度推定値、及び入力画像データDa(x±α,y±β)、すなわち複数の発光素子部20のそれぞれの画像データ(すなわち、画素値)のいずれかが割り当てられ、各ニューロンPには、割り当てられた値(点灯率、温度測定値、温度推定値、及び入力画像データ)が入力される。入力層251のニューロンPは、入力をそのまま出力する。
Each neuron P in the
出力層253のニューロンPは、複数のビット、例えば、10ビットから成り、選択されている発光素子部の温度推定値Te0(x,y)を示すデータを出力する。Neuron P in the
中間層252及び出力層253のニューロンPの各々は、複数の入力に対して下記のモデル式である式(1)で表される演算を行う。Each neuron P in the
式(1)において、Nは、ニューロンPへの入力の数である。ニューロンPへの入力の数は、ニューロン相互間で同じであるは限らない。式(1)において、x1~xNは、ニューロンPの入力データ、w1~wNは、入力データx1~xNに対する重み、bは、バイアスを示す。重みw1~wN及びバイアスbは、学習により定められる。また、重みw1~wN及びバイアスbを纏めてパラメータとも言う。 In formula (1), N is the number of inputs to neuron P. The number of inputs to neuron P is not necessarily the same for each neuron. In formula (1), x 1 to x N are input data to neuron P, w 1 to w N are weights for the input data x 1 to x N , and b is a bias. The weights w 1 to w N and the bias b are determined by learning. The weights w 1 to w N and the bias b are also collectively referred to as parameters.
関数s(a)は、活性化関数である。活性化関数は、例えば、aが0以下であれば0を出力し、それ以外であれば1を出力するステップ関数であってもよい。活性化関数s(a)は、aが0以下であれば0を出力し、それ以外であれば入力値aを出力するReLU(Rectified Linear Unit)関数であってもよく、入力値aをそのまま出力値とする恒等関数でもよく、ジグモイド関数であってもよい。
The function s(a) is an activation function. The activation function may be, for example, a step function that outputs 0 if a is 0 or less, and
上記のように、入力層251のニューロンPは、入力をそのまま出力するものであるので、入力層251のニューロンPで用いられる活性化関数は、恒等関数である。As described above, neuron P in
例えば、中間層252では、ステップ関数又はジグモイド関数を用い、出力層ではReLU関数を用いてもよい。また、同じ層内のニューロンPの相互間で異なる活性化関数が用いられていてもよい。なお、ニューロンPの数、層の数(すなわち、段階数)は、図5に示される例に限定されない。For example, a step function or a sigmoid function may be used in the
温度補償部14は、温度推定部12で推定された温度である温度推定値Te0(x,y)に応じて、画像入力部11から供給される画像データDaを補正し、補正された画像データDbを出力する。この補正は、画素ごとに行われる。この補正は、発光素子部20の温度の変化による輝度及び色度の変化を打ち消すための補正であり、輝度及び色度の変化に対する補償のために行われる。The
図6は、図1に示される画像処理装置4の温度補償部14の構成を示すブロック図である。図6に示されるように、温度補償部14は、例えば、補償テーブル格納部141と、係数読出し部142と、係数乗算部143とを有する。
Figure 6 is a block diagram showing the configuration of the
補償テーブル格納部141は、温度による輝度及び色度の変化を補償するための補償情報である補償テーブルを格納している。The compensation
図7(a)及び(b)は、補償テーブル格納部141に格納されている補償テーブルで定義される入力と出力との関係の一例を示す図である。ここで言う入力と出力との関係は、入力に対する出力の比、すなわち係数で表される。この係数を、補償係数と言う。7(a) and (b) are diagrams showing an example of the relationship between input and output defined in the compensation table stored in the compensation
例えば、温度Tによる輝度の変化が図3(a)に示されるす輝度比Vpである場合、輝度についての補償テーブルとしては、図7(a)に示される入力-出力関係を有するもの、すなわち、温度Tの上昇に対する変化が、図3(a)に示される輝度比Vpとは、逆向きであるものが記憶されている。例えば、輝度比Vpの正規化値の逆数に等しい値が、補償係数Vqとして補償テーブルに格納されている。For example, when the change in luminance due to temperature T is the luminance ratio Vp shown in Figure 3(a), a compensation table for luminance is stored that has the input-output relationship shown in Figure 7(a), that is, a compensation table for luminance in which the change with respect to an increase in temperature T is in the opposite direction to the luminance ratio Vp shown in Figure 3(a). For example, a value equal to the reciprocal of the normalized value of the luminance ratio Vp is stored in the compensation table as a compensation coefficient Vq.
係数読出し部142は、各発光素子部20の温度推定値Te0(x,y)を用いて、補償テーブル格納部141に格納されている補償テーブルを参照することで、各発光素子部20の温度推定値Te0(x,y)に対応する補償係数Vq(x,y)を読み出し、読み出された補償係数を係数乗算部143に供給する。The
係数乗算部143は、読み出された補償係数Vq(x,y)を、入力画像データDa(x,y)に乗算することで補正を行い、補正後の画像データDb(x,y)、すなわち、入力画像データDa(x,y)に対応する補償された画像データDb(x,y)を生成して、出力する。The
なお、補償テーブル格納部141が上記のように、輝度を補正するための補償係数から成る補償テーブルを格納する代わりに、輝度と色度を補正するための、つまり、R、G、Bの成分値の各々を補正するための補償係数から成る補償テーブルを保持していてもよい。In addition, instead of storing a compensation table consisting of compensation coefficients for correcting luminance as described above, the compensation
温度による色度を表すX刺激値及びY刺激値の変化が、図3(b)に示される色度比Xp及びYpである場合、補償テーブルとしては、図7(b)に示される入力-出力関係を有するもの、すなわち、温度Tの上昇に対する変化が、図3(b)に示される色度比Xp及びYpとは、逆向きであるものが記憶されている。例えば、色度のx成分の色度比Xpの逆数に等しい値が補償係数Xqとして補償テーブルに格納され、色度のy成分の色度比Ypの逆数に等しい値が補償係数Yqとして補償テーブルに格納されている。具体的には、補償テーブルには、入力のRGB画像データに乗算する補償係数XYq(x,y)として3×3の変換行列が格納されている。 When the change in the X-stimulus value and the Y-stimulus value representing chromaticity due to temperature is the chromaticity ratios Xp and Yp shown in FIG. 3(b), the compensation table has the input-output relationship shown in FIG. 7(b), that is, the change with respect to an increase in temperature T is in the opposite direction to the chromaticity ratios Xp and Yp shown in FIG. 3(b). For example, a value equal to the reciprocal of the chromaticity ratio Xp of the x-component of chromaticity is stored in the compensation table as the compensation coefficient Xq, and a value equal to the reciprocal of the chromaticity ratio Yp of the y-component of chromaticity is stored in the compensation table as the compensation coefficient Yq. Specifically, the compensation table stores a 3×3 transformation matrix as the compensation coefficient XYq(x,y) by which the input RGB image data is multiplied.
係数読出し部142は、各発光素子部20の温度推定値Te0(x,y)を用いて、補償テーブル格納部141に格納されている補償テーブルを参照することで、各発光素子部20の温度推定値Te0(x,y)に対応するR用のLEDの輝度補償係数VRq(x,y)、G用のLEDの輝度補償係数VGq(x,y)、B用のLEDの輝度補償係数VBq(x,y)、色度の補償係数XYq(x,y)を読出し、読み出した補償係数を係数乗算部143に供給する。The
係数乗算部143は、読み出されたR、G、B用のLEDの輝度補償係数VRq(x,y),VGq(x,y),VBq(x,y),XYq(x,y)を、R、G、B用のLEDの画像データDRa(x,y),DGa(x,y),DBa(x,y)にそれぞれ乗算することで補正を行い、補正後のR、G、B用のLEDの画像データDRb(x,y),DGb(x,y),DBb(x,y)を生成して、出力する。この処理は、以下の式(2)で表される。The
また、別の形態として、係数読出し部142は、各発光素子部20の温度推定値Te0(x,y)を用いて、補償テーブル格納部141に格納されている補償テーブルを参照することで、各発光素子部20の温度推定値Te0(x,y)に対応するR、G、Bの入力階調値Ri,Gi,Biの色を変換してR、G、Bの階調値を出力するテーブルVRGB(Ri,Gi,Bi)を係数乗算部143に供給する。この場合、係数乗算部143は、R、G、Bの入力画像データDRa(x,y),DGa(x,y),DBa(x,y)に基づいて、変換テーブルVRGBを参照して補正後のR、G、Bの画像データDRb(x,y),DGb(x,y),DBb(x,y)を生成して、出力する。In another embodiment, the
発光素子部相互間では、温度Tによる輝度及び色度の変化の仕方が異なる場合がある。その場合には、図3(a)及び(b)に示される輝度比Vp及び色度比Xp,Ypを示す曲線として、平均的な変化を表すものが用いられることが望ましい。例えば、複数の発光素子部20についての変化を平均した値が用いられ、図7(a)及び(b)の補償係数を表す補償テーブルとして、そのような平均的な変化を補償するためのものが作成されることが望ましい。The way in which the luminance and chromaticity change with temperature T may differ between light-emitting element sections. In such cases, it is desirable to use curves showing the luminance ratio Vp and chromaticity ratios Xp, Yp shown in Figures 3(a) and (b) that represent the average changes. For example, it is desirable to use values obtained by averaging the changes for multiple light-emitting
上記のように、複数の発光素子部についての平均的な変化を補償するための補償テーブルを用いる代わりに、発光素子部ごとに異なる補償テーブルを用いてもよい。また、R、G、B用のLEDごとに異なる補償テーブルを用いてもよい。Instead of using a compensation table to compensate for the average change for multiple light-emitting element units as described above, a different compensation table may be used for each light-emitting element unit. Also, a different compensation table may be used for each R, G, and B LED.
補償テーブルは、発光素子部の温度推定値Te0が取り得る値の各々に対して、補償係数の値を持つものとしているが、これに限定されない。すなわち、発光素子部の温度推定値Te0に対し、離散的に補償係数の値を持ち、補償係数の値を持たない発光素子部の温度推定値Te0については、補間によって対応する補償係数の値を求めてもよい。この補間は、例えば、補償係数の値を持つ温度推定値Te0(すなわち、テーブル点)に対応する補償係数の値を用いることで、行うことができる。The compensation table has a compensation coefficient value for each possible value of the temperature estimate Te0 of the light-emitting element unit, but is not limited to this. In other words, the compensation coefficient value may be discretely set for the temperature estimate Te0 of the light-emitting element unit, and for the temperature estimate Te0 of the light-emitting element unit that does not have a compensation coefficient value, the corresponding compensation coefficient value may be obtained by interpolation. This interpolation may be performed, for example, by using the compensation coefficient value corresponding to the temperature estimate Te0 (i.e., the table point) that has a compensation coefficient value.
画像出力部15は、温度補償部14から出力された画像データDbを、表示器2の表示方式に合致したフォーマットの信号に変換し、変換後の画像信号Doを出力する。例えば、表示器2の発光素子部がPWM(Pulse Width Modulation)駆動によって発光する場合には、画像出力部15は、画像データの階調値をPWM信号に変換する。The
表示器2は、画像処理装置4から受け取った画像信号Doに基づいて画像を表示する。表示される画像は、温度による輝度及び色度の変化が発光素子部(すなわち、画素)ごとに又はLED(すなわち、副画素)ごとに補償されたものとなる。したがって、表示器2に表示される画像の輝度ムラ及び色ムラが低減される。The
図8は、図1に示される画像処理装置4が実行する処理を示すフローチャートである。画像処理装置4が図4に示されるコンピュータ9で構成されている場合、図8に示される処理はプロセッサ91による処理を示す。
Figure 8 is a flowchart showing the processing executed by the
図8に示される処理は、フレーム期間ごとに行われる。ステップST1では、画像データが画像入力部11に入力される、画像入力部11による処理が実行される。ステップST2及びST3では、温度測定部5a,5bによって熱源6a,6bの温度測定である第1及び第2の温度測定が行われ、温度測定値Ta0、TaNが出力される。ステップST4では、温度推定部12によって発光素子部20の温度の推定が行われる。
The processing shown in Figure 8 is performed for each frame period. In step ST1, image data is input to the
ステップST5では、推定温度格納部13に、温度推定値が格納される。この処理と並行して、ステップST6では、温度補償部14によって選択されている発光素子部について、温度補償が行われ、ステップST7で、画像出力部15によって画像データが出力される。In step ST5, the temperature estimate is stored in the estimated
図5に示されるニューラルネットワーク25は、機械学習により生成される。機械学習のための学習装置は、図1の画像表示装置1に接続されて使用される。図9は、実施の形態1に係る画像表示装置1を、学習装置101及び学習用温度測定部102とともに示すブロック図である。
The
学習用温度測定部102は、1以上の温度センサを有する。1以上の温度センサはそれぞれ、表示器2を構成する複数の発光素子部20うちの1以上の発光素子部に対応して設けられたものであり、各温度センサは、対応する発光素子部の温度を測定して、温度測定値Tf(1),Tf(2),…を取得する。温度センサの各々は、温度測定部5a,5bを構成する温度センサと同様の構成のものであってもよい。また、学習用温度測定部102は、その全体又は一部、例えば、温度センサが、表示器2と一体に、すなわち、表示器2の筐体内に設けられていてもよい。The learning
温度測定の対象となる1以上の発光素子部は、予め指定される。1つの発光素子部を指定する場合、例えば、画面の中央に位置する発光素子部を指定してもよく、画面の中央と周辺部との中間に位置する発光素子部を指定してもよい。温度測定の対象となる1以上の発光素子部として2以上の発光素子部を指定する場合、例えば、画面の互いに離隔した位置にある2以上の発光素子部を指定してもよく、又は、画面の中央に位置する発光素子部と、画面の周辺部に位置する1以上の発光素子部を指定してもよい。温度測定の対象として指定されている発光素子部を、指定発光素子部とも言う。 One or more light-emitting element units to be the subject of temperature measurement are designated in advance. When one light-emitting element unit is designated, for example, a light-emitting element unit located at the center of the screen may be designated, or a light-emitting element unit located halfway between the center and the periphery of the screen may be designated. When two or more light-emitting element units are designated as one or more light-emitting element units to be the subject of temperature measurement, for example, two or more light-emitting element units located at positions spaced apart from each other on the screen may be designated, or a light-emitting element unit located at the center of the screen and one or more light-emitting element units located at the periphery of the screen may be designated. The light-emitting element unit designated as the subject of temperature measurement is also called a designated light-emitting element unit.
2以上の指定発光素子部の温度を測定する場合、温度測定値Tf(1),Tf(2),…の平均値を温度測定値Tfとして出力してもよい。以下では、指定発光素子部の数が1であるものとし、指定発光素子部の位置を座標(xd,yd)で表し、指定発光素子部の温度測定値をTf(xd,yd)で表す。 When measuring the temperatures of two or more designated light-emitting element units, the average value of the temperature measurements Tf(1), Tf(2), ... may be output as the temperature measurement value Tf. In the following, it is assumed that the number of designated light-emitting element units is 1, the position of the designated light-emitting element unit is represented by coordinates ( xd , yd ), and the temperature measurement value of the designated light-emitting element unit is represented by Tf( xd , yd ).
学習装置101は、コンピュータで構成されていてもよい。画像処理装置4がコンピュータで構成される場合、同じコンピュータで学習装置101が構成されていてもよい。学習装置101を構成するコンピュータは、例えば、図3に示されるものであってもよい。その場合、学習装置101の機能は、プロセッサ91がメモリ92に記憶されているプログラムを実行することで実現されるものであってもよい。The
学習装置101は、画像処理装置4の一部を動作させ、温度推定部12に、上記指定発光素子部の温度を推定させ、温度推定値Te0(xd,yd)が、学習用温度測定部102での測定で得られた指定発光素子部の温度測定値Tf(xd,yd)に近くなるように学習を行う。
The
学習には、学習入力データの組LDSが複数個用いられる。複数個の学習入力データの組LDSの各々は、学習のために用意された、入力画像データDaと、温度測定値Ta0、TaNと、1フレーム前の温度推定値Te1とを含む。A plurality of sets of learning input data LDS are used for learning. Each of the plurality of sets of learning input data LDS includes input image data Da, temperature measurement values Ta0 and TaN, and a temperature estimate value Te1 from one frame before, which are prepared for learning.
入力画像データDaとしては、指定発光素子部の周辺領域(xd±α,yd±β)内の発光素子部についての画像データDa(xd±α,yd±β)が用いられる。また、1フレーム前の温度推定値Te1としては、指定発光素子部の周辺領域(xd±α,yd±β)内の発光素子部についての温度推定値Te1(xd±α,yd±β)が用いられる。 The input image data Da is image data Da( xd ±α, yd ±β) for the light-emitting element units in the peripheral region ( xd ±α, yd ±β) of the designated light-emitting element unit. The temperature estimate Te1 for the previous frame is temperature estimate Te1( xd ±α, yd±β) for the light-emitting element units in the peripheral region ( xd ±α, yd ± β ) of the designated light-emitting element unit.
複数個の学習入力データの組LDS相互間では、入力画像データDa(xd±α,yd±β)、温度測定値Ta0,TaN、及び1フレーム前の温度推定値Te1(xd±α,yd±β)のうちの少なくとも1つが異なる。 At least one of the input image data Da ( xd ±α, yd ±β), the measured temperature values Ta0, TaN, and the temperature estimate value Te1 ( xd ±α, yd ±β) of the previous frame differs between the multiple learning input data sets LDS.
学習装置101は、予め用意された複数個の学習入力データの組LDSを順に選択し、選択されている学習入力データの組LDSを画像処理装置4に入力し、温度推定部12で算出された温度推定値Te0(xd,yd)と学習用温度測定部102での測定で得られた温度測定値Tf(xd,yd)とを取得し、温度推定値Te0(xd,yd)が温度測定値Tf(xd,yd)に近づくように学習を行う。
The
「選択されている学習入力データの組LDSを画像処理装置4に入力する」とは、選択されている学習入力データの組LDSに含まれる画像データDa(xd±α,yd±β)を、温度推定部12及び温度補償部14に入力し、選択されている学習入力データの組LDSに含まれる温度測定値Ta0,TaN、及び1フレーム前の温度推定値Te1(xd±α,yd±β)を、温度推定部12に入力することを意味する。
“Inputting the selected learning input data set LDS to the
学習装置101によるニューラルネットワークの生成においては、まず元となるニューラルネットワークを用意する。すなわち、温度推定部12を、元となるニューラルネットワークで仮のニューラルネットワークを構築する。このニューラルネットワークは、図5に示されるニューラルネットワークと同様のものであるが、中間層及び出力層のニューロンの各々は、その前段の層の全てのニューロンに結合されている。In generating a neural network using the
ニューラルネットワークの生成においては、複数のニューロンの各々についてパラメータ(すなわち、重み及びバイアス)の値を定める必要がある。複数のニューロンについてのパラメータの集合をパラメータの組と言い、符号PSで表す。 In generating a neural network, it is necessary to determine the values of parameters (i.e., weights and biases) for each of the multiple neurons. A collection of parameters for multiple neurons is called a parameter set and is denoted by PS.
ニューラルネットワークの生成においては、上記の元となるニューラルネットワークを用いて、温度推定値Te0(xd,yd)の、温度測定値Tf(xd,yd)に対する差が予め定められた閾値以下となるように、パラメータの組PSの最適化を行う。最適化は、例えば、誤差逆伝搬法により行い得る。 In generating the neural network, the parameter set PS is optimized using the above-mentioned original neural network so that the difference between the temperature estimate Te0( xd , yd ) and the temperature measurement Tf( xd , yd ) is equal to or smaller than a predetermined threshold. The optimization can be performed, for example, by backpropagation.
具体的には、学習装置101は、学習入力データの組LDSを複数個用意し、パラメータの組PSの初期値を設定し、上記の複数個の学習入力データの組LDSを順に選択する。学習装置101は、選択されている学習入力データの組LDSを画像処理装置4に入力し、指定発光素子部の温度測定値Tf(xd,yd)と温度推定値Te0(xd,yd)との差(Te0(xd,yd)-Tf(xd,yd))を誤差ERとして求める。
Specifically, the
学習装置101は、上記の複数個の学習データの組LDSについての上記の誤差ERの総和ESをコスト関数として求め、上記のコスト関数が閾値よりも大きければ、上記のコスト関数がより小さくなるように、パラメータの組PSを変更する。学習装置101は、以上の処理を、コスト関数が閾値以下となるまで繰り返す。パラメータの組PSの変更は、勾配降下法で行い得る。誤差ERの総和ESとしては、誤差ERの絶対値の和又は誤差ERの2乗の和を用いることができる。The
温度補償部14に入力された画像データDa(xd±α,yd±β)は、画像出力部15を介して表示器2に供給され、表示器2の発光素子部の駆動に用いられる。指定発光素子部の周辺領域外の発光素子部は、駆動してもよく、駆動しなくてもよい。駆動する場合には、任意の信号で駆動してもよい。
The image data Da ( xd ±α, yd ±β) input to the
温度推定部12での推定で得られた温度推定値Te0(xd,yd)は、学習装置101に入力され、学習装置101では、温度推定値Te0(xd,yd)が温度測定値Tf(xd,yd)に近くなるように学習が行われる。
The temperature estimation value Te0( xd , yd ) obtained by estimation in the
パラメータの組PSの最適化の後、学習装置101は、重みがゼロとなったシナプス結合(すなわち、ニューロン間の結合)を切断する。After optimizing the parameter set PS, the
学習が終了した後、学習用温度測定部102の温度センサは、取り外され、画像表示装置1は、該温度センサが取り外された状態で使用される。すなわち、画像表示のために利用される際は、画像表示装置1は、発光素子部の温度を検知する温度センサを必要としない。発光素子部の温度を検知する温度センサがなくても、温度推定部12で発光素子部の温度を推定し得るからである。After learning is completed, the temperature sensor of the learning
学習装置101は、学習が終了した後に、取り外されてもよく、装着されたままであってもよい。特に、学習装置101の機能がプロセッサ91によるプログラムの実行によって実現される場合には、該プログラムは、メモリ92に記憶されたままであってもよい。After the learning is completed, the
以上のように、実施の形態1によれば、入力画像データに基づいて各発光素子部の温度を推定することができるので、画像表示装置1が各発光素子部の温度を測定する温度センサを備えたものでなくても、温度変化による発光素子部で発生する光の輝度及び色度の変化を補償することができる。As described above, according to
なお、上記の例では、学習が終了した後に、画像表示装置1は、指定発光素子部以外の発光素子部の温度を測定する温度センサを備えたものでなくてもよく、さらに画像表示の際は、指定発光素子部の温度を測定を行わなくても、温度変化による発光素子部で発生する光の輝度及び色度の変化を補償することができると言う効果が得られる。In the above example, after learning is completed, the
また、実施の形態1では、温度測定部(例えば、5a,5b)の位置を熱源の周辺とすることができる。しかし、温度測定部(例えば、5a,5b)の位置は、これに限定されない。例えば、表示器2の表側における発光素子部20の配置が図10(a)のようにマトリクス状であるときに、図10(b)のように裏側の4隅に温度測定部5を設置してもよいし、図10(c)のように裏側に等間隔に温度測定部5を設置してもよいし、図10(d)のように裏側の中心に温度測定部5を設置してもよい。
In addition, in
実施の形態2.
図11は、実施の形態2に係る画像表示装置1bの構成を示すブロック図である。図11において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図11に示されるように、画像表示装置1bは、表示器2と、表示制御装置3bとを備える。表示制御装置3bは、画像処理装置4bと、電源、ICチップなどの熱源6a,6bと、熱源6a,6bの温度をそれぞれ測定する温度測定部5a,5bとを有する。図11に示される画像処理装置4bは、図2の推定温度格納部13が設けられておらず、図2の温度推定部12の代わりに温度推定部12bが設けられている点において、図1に示される表示制御装置3の画像処理装置4と異なる。この点以外に関して、実施の形態2に係る画像表示装置1bは、実施の形態1に係る画像表示装置1と同じである。
FIG. 11 is a block diagram showing the configuration of an
上記のように、実施の形態1における温度推定部12は、構造位置情報C0、入力画像データDa、温度測定値Ta0、TaN、及び過去の温度推定値Te1に基づいて表示器2の各発光素子部の温度を推定する。これに対して、実施の形態2の温度推定部12bは、過去の温度推定値Te1を用いず、構造位置情報C0、入力画像データDa、温度測定値Ta0、TaNを用いて表示器2の各発光素子部の温度を推定する。As described above, the
図12は、図11に示される画像処理装置4bの温度推定部12bを構成するニューラルネットワーク25bの例を示す図である。温度推定部12bは、例えば、多層ニューラルネットワークで構成されている。
Figure 12 is a diagram showing an example of a
図12に示されるニューラルネットワーク25bは、図6に示されるニューラルネットワーク25と同様に、入力層251bと、中間層(すなわち、隠れ層)252bと、出力層253bとを有する。図12の例では、中間層の数が3であるが、中間層の数は、2以下であってもよく4以上であってもよい。
The
入力層251bは、図6に示されるニューラルネットワーク25の入力層251と概して同じである。ただし、図12に示されるニューラルネットワーク25bの入力層251bには、温度推定値Te1(x±α,y±β)が入力されず、構造位置情報C0、入力画像データDa(x±α,y±β)、温度測定値Ta0,TaNが入力される。The
出力層253bのニューロンは、図7の出力層253のニューロンと同様に、複数のビット、例えば、10ビットから成り、発光素子部の温度推定値Te0(x,y)を示すデータを出力する。中間層252bのニューロンのうちの少なくとも一部のニューロンとしては、帰還用のシナプス結合を有するニューロンが用いられている。帰還用のシナプス結合を有するニューロンPは、各々複数の入力に対して下記の式(3)のモデル式で表される演算を行う。
The neurons in the
式(3)において、w0は、同じニューロンの1「時間ステップ」前の出力y(t-1)に対する重みを示す。式(3)は、w0×y(t-1)の項が加えられている点を除いて、式(1)と同じである。 In equation (3), w 0 denotes the weight for the same neuron's output one "time step" earlier, y(t-1). Equation (3) is the same as equation (1) except for the addition of the term w 0 ×y(t-1).
図13は、実施の形態2に係る画像表示装置1bが実行する処理を示すフローチャートである。画像処理装置4bが図4に示されるコンピュータ9で構成されている場合、図13はプロセッサ91による処理の手順を示す。
Figure 13 is a flowchart showing the processing executed by the
図13の処理の手順は、図8の処理の手順と概して同じである。ただし、図13の処理の手順には、図8のステップST5が含まれていない。また、図13では、図6のステップST4がステップST4bに置き換えられている。ステップST4bでは、各発光素子部の温度の推定が行われる。この処理は、図11の温度推定部12bによる処理と同様である。
The processing procedure in Figure 13 is generally the same as the processing procedure in Figure 8. However, the processing procedure in Figure 13 does not include step ST5 in Figure 8. Also, in Figure 13, step ST4 in Figure 6 is replaced with step ST4b. In step ST4b, an estimation of the temperature of each light-emitting element portion is performed. This processing is similar to the processing by
実施の形態2に係る画像表示装置1b、表示制御装置3b、及び画像処理装置4bによれば、実施の形態1のものと同様の効果が得られる。さらに、実施の形態1で用いられる推定温度格納部13が不要であるので、構成が簡単であるという利点がある。
The
実施の形態3.
図14は、実施の形態3に係る画像表示装置1cの構成を示すブロック図である。図14において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図14に示されるように、画像表示装置1cは、表示器2と、表示制御装置3cとを備える。表示制御装置3cは、画像処理装置4cと、熱源6a,6bと、熱源6a,6bの温度をそれぞれ測定する温度測定部5a,5bとを有する。図14に示される画像処理装置4cは、ばらつき補正部16を有する点において、図1に示される表示制御装置3の画像処理装置4と異なる。この点以外に関して、実施の形態3に係る画像表示装置1cは、実施の形態1に係る画像表示装置1と同じである。
FIG. 14 is a block diagram showing the configuration of an
画像処理装置4cのばらつき補正部16は、表示器2の複数の発光素子部20の各々で発生する光の輝度及び色度の少なくとも一方のばらつきを補正する。ここで言うばらつきは、発光素子部で発生する光の輝度及び色度の少なくとも一方の、個体差によるばらつきである。The
温度補償部14は、複数の発光素子部20の各々で発生する光の輝度及び色度の、温度Tによる変化を補償するように画像データを補正する。これに対し、ばらつき補正部16は、発光素子部相互間の個体差による輝度及び色度のばらつきを補償する。The
また、以下では、画像入力部11からばらつき補正部16に、表示器2の複数の発光素子部についての画像データDaが、例えば、図2(a)に示される表示器2の画面の左上隅の発光素子部から順に入力され、最後に右下隅の発光素子部の画像データが入力される。この場合、ばらつき補正部16は、各時点で入力されている画像データDaを、処理対象となっている発光素子部(「注目発光素子部」とも言う。)についての画像データDaとして扱い、該画像データDaに対してばらつき補正を行い、補正された画像データDbを出力する。
In the following, image data Da for multiple light-emitting element units of the
表示器2は、画像信号Doに基づいて画像を表示する。表示される画像は、温度による輝度及び色度の変化が画素ごとに補償され、かつ発光素子部の個体差による輝度及び色度のばらつきが補正されたものである。したがって、表示器2には、輝度ムラ及び色ムラの低減された画像が表示される。The
図15は、実施の形態3に係る画像表示装置1cが実行する処理を示すフローチャートである。画像処理装置4cが図4に示されるコンピュータ9で構成されている場合、図15はプロセッサ91による処理の手順を示す。
Figure 15 is a flowchart showing the processing executed by the
図15に示されるフローチャートは、ステップST8が付加されている点を除いて、図8に示されるフローチャートと同じである。ステップST8では、ばらつき補正部16によるばらつき補正が行われる。The flowchart shown in FIG. 15 is the same as the flowchart shown in FIG. 8, except for the addition of step ST8. In step ST8, variation correction is performed by the
実施の形態3に係る画像表示装置1c、表示制御装置3c、及び画像処理装置4cによれば、実施の形態1のものと同様の効果が得られる。さらに、発光素子部ごとのばらつきを補正することができるので、表示器2に表示される画像の輝度ムラ及び色ムラをより一層低減できる。
The
変形例.
上記実施の形態1~3では、1つの発光素子部がR、G、B用の3個のLEDで構成された例を説明したが、1つの発光素子部を構成するLEDの数は3個に限定されない。例えば、1つの発光素子部は、2個以下のLEDで構成されてもよく、又は、4個以上のLEDで構成されてもよい。
Variant examples.
In the above-described first to third embodiments, an example has been described in which one light-emitting element section is composed of three LEDs for R, G, and B, but the number of LEDs constituting one light-emitting element section is not limited to 3. For example, one light-emitting element section may be composed of two or less LEDs, or may be composed of four or more LEDs.
また、上記実施の形態1~3では、表示制御装置3,3b,3cが、輝度の補償を行う例、又は輝度及び色度の両方の補償を行う例を説明したが、表示制御装置3,3b,3cは、輝度及び色度の少なくとも一方の補償を行うために、画像データを補正するものであればよい。すなわち、温度補償部14は、温度変化による輝度及び色度の少なくとも一方の補償を行うように、画像データを補正するものであればよい。
In addition, in the
また、上記実施の形態1~3では、画像表示装置1,1b,1c、表示制御装置3,3b,3c、及び画像処理装置4,4b,4c、について説明したが、表示制御装置3,3b,3cで実施される表示制御方法、画像処理装置4,4b,4cで実施される画像処理方法も、本開示の一部を成す。
In addition, in the
また、上記表示制御方法又は上記画像処理方法における処理をコンピュータ9に実行させるプログラム及び該プログラムを記録した、コンピュータで読取可能な記録媒体(例えば、非一時的な記録媒体)も、本開示の一部を成す。In addition, a program that causes a
1,1b,1c 画像表示装置、 2 表示器、 3,3b,3c 表示制御装置、 4,4b,4c 画像処理装置、 5,5a,5b 温度測定部、 6a,6b 熱源、 9 コンピュータ、 11 画像入力部、 12,12b 温度推定部、 13 推定温度格納部、 14 温度補償部、 15 画像出力部、 16 ばらつき補正部、 25,25b ニューラルネットワーク、 91 プロセッサ、 92 メモリ、 101 学習装置、 102 学習用温度測定部、 141 補償テーブル格納部、 142 係数読出し部、 143 係数乗算部、 251,251b 入力層、 252,252b 中間層、 253,253b 出力層。
1, 1b, 1c image display device, 2 display, 3, 3b, 3c display control device, 4, 4b, 4c image processing device, 5, 5a, 5b temperature measurement unit, 6a, 6b heat source, 9 computer, 11 image input unit, 12, 12b temperature estimation unit, 13 estimated temperature storage unit, 14 temperature compensation unit, 15 image output unit, 16 variation correction unit, 25, 25b neural network, 91 processor, 92 memory, 101 learning device, 102 learning temperature measurement unit, 141 compensation table storage unit, 142 coefficient reading unit, 143 coefficient multiplication unit, 251, 251b input layer, 252, 252b intermediate layer, 253, 253b output layer.
Claims (12)
前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする画像処理装置。 a temperature measuring unit that measures temperatures in the vicinity of a plurality of light-emitting element units each including one or more light-emitting elements and outputs a temperature measurement value indicating the temperatures;
a learning temperature measurement unit that is temporarily provided for measuring a temperature of the light-emitting element unit and outputs a learning temperature measurement value indicating the temperature;
a temperature estimation unit that estimates a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display device having the plurality of light-emitting element units and is used to display an image, using a neural network, and outputs a temperature estimation value that indicates the estimated temperature;
a temperature compensation unit that corrects the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units;
having
the temperature estimation value of an estimation target light-emitting element component among the plurality of light-emitting element components is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element components measured by the temperature measurement unit , structural position information including information indicating a positional relationship between the estimation target light-emitting element component and the temperature measurement unit, and a temperature of the light-emitting element component within a predetermined range including the estimation target light-emitting element component;
the parameters of the model formula are values obtained by previously training the neural network using a plurality of data sets prepared for training so that the temperature estimation value approaches the training temperature measurement value ,
The image processing device characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and temperatures of the light-emitting element units within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
ことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein at least some of the neurons constituting the neural network have feedback synaptic connections.
前記ニューラルネットワークを用いて、前記複数の発光素子部の近傍の温度測定値と、前記画像データと、前記温度推定部によって推定された過去の温度推定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記温度推定部によって推定された過去の温度推定値と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、前記過去の温度推定値、及び、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする請求項1に記載の画像処理装置。 The temperature estimation unit is
using the neural network, estimating a temperature of each of the plurality of light-emitting element components based on temperature measurement values in the vicinity of the plurality of light-emitting element components, the image data, past temperature estimates estimated by the temperature estimation unit, and structural position information including information indicating a positional relationship between the light-emitting element component to be estimated and the temperature measurement unit, and outputting a temperature estimate value indicating the estimated temperature;
the temperature estimation value of an estimation target light-emitting element unit among the plurality of light-emitting element units is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units, structural position information including information indicating a positional relationship between the estimation target light-emitting element unit and the temperature measurement unit, past temperature estimation values estimated by the temperature estimation unit, and temperatures of light-emitting element units within a predetermined range including the estimation target light-emitting element unit;
the parameters of the model formula are values obtained by previously learning the neural network using a plurality of data sets prepared for learning so that the temperature estimation value approaches the temperature measurement value,
2. The image processing device according to claim 1, wherein the data set includes the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units, structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, the past temperature estimate, and temperatures of light-emitting element units within a predetermined range including the light-emitting element unit to be estimated.
請求項1から4のいずれか1項に記載の画像処理装置。 The image processing device according to claim 1 , wherein the neural network is a multi-layer neural network.
前記ばらつき補正部は、前記温度補償部から出力され画像データを補正する
請求項1から5のいずれか1項に記載の画像処理装置。 a variation correction unit that corrects variation in at least one of luminance and chromaticity of light generated in the plurality of light-emitting element components due to individual differences of the plurality of light-emitting element components,
The image processing device according to claim 1 , wherein the variation correction section corrects the image data output from the temperature compensation section.
入力された画像データに基づく画像を前記表示器に表示させる画像処理装置と、
前記複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、
前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、
を備え、
前記画像処理装置は、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする表示制御装置。 A display control device that controls a display operation of a display device, the display control device having a plurality of light-emitting element units, each of the plurality of light-emitting element units including one or more light-emitting elements,
an image processing device that displays an image based on input image data on the display device;
a temperature measuring unit that measures a temperature in the vicinity of the plurality of light-emitting element components and outputs a temperature measurement value indicating the temperature;
a learning temperature measurement unit that is temporarily provided for measuring a temperature of the light-emitting element unit and outputs a learning temperature measurement value indicating the temperature;
Equipped with
The image processing device includes:
a temperature estimation unit that estimates a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display device having the plurality of light-emitting element units and is used to display an image, using a neural network, and outputs a temperature estimation value that indicates the estimated temperature;
a temperature compensation unit that corrects the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units;
having
the temperature estimation value of an estimation target light-emitting element component among the plurality of light-emitting element components is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element components measured by the temperature measurement unit , structural position information including information indicating a positional relationship between the estimation target light-emitting element component and the temperature measurement unit, and a temperature of the light-emitting element component within a predetermined range including the estimation target light-emitting element component;
the parameters of the model formula are values obtained by previously training the neural network using a plurality of data sets prepared for training so that the temperature estimation value approaches the training temperature measurement value ,
A display control device characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating a positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and temperatures of light-emitting element units within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
入力された画像データに基づく画像を前記表示器に表示させる画像処理装置と、
前記複数の発光素子部の近傍の温度を測定し、前記温度を示す温度測定値を出力する温度測定部と、
前記発光素子部の温度を測定するために一時的に設けられ、前記温度を示す学習用温度測定値を出力する学習用温度測定部と、
を備え、
前記画像処理装置は、
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力する温度推定部と、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正する温度補償部と、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が前記学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする画像表示装置。 A display having a plurality of light-emitting element units, each of the plurality of light-emitting element units including one or more light-emitting elements;
an image processing device that displays an image based on input image data on the display device;
a temperature measuring unit that measures a temperature in the vicinity of the plurality of light-emitting element components and outputs a temperature measurement value indicating the temperature;
a learning temperature measurement unit that is temporarily provided for measuring a temperature of the light-emitting element unit and outputs a learning temperature measurement value indicating the temperature;
Equipped with
The image processing device includes:
a temperature estimation unit that estimates a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data that is input to a display device having the plurality of light-emitting element units and is used to display an image, using a neural network, and outputs a temperature estimation value that indicates the estimated temperature;
a temperature compensation unit that corrects the image data based on the temperature estimate value so that a change in at least one of luminance and chromaticity due to temperature is compensated for for each of the plurality of light-emitting element units;
having
the temperature estimation value of an estimation target light-emitting element component among the plurality of light-emitting element components is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element components measured by the temperature measurement unit , structural position information including information indicating a positional relationship between the estimation target light-emitting element component and the temperature measurement unit, and a temperature of the light-emitting element component within a predetermined range including the estimation target light-emitting element component;
the parameters of the model formula are values obtained by previously training the neural network using a plurality of data sets prepared for training so that the temperature estimation value approaches the training temperature measurement value ,
The image display device characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element units, structural position information including information indicating the positional relationship between the light-emitting element unit to be estimated and the temperature measurement unit, and the temperature of the light-emitting element units within a predetermined range including the light-emitting element unit to be estimated measured by the learning temperature measurement unit .
ニューラルネットワークを用いて、前記温度測定値と、前記複数の発光素子部を有する表示器に入力され、画像を表示させるための画像データと、に基づいて、前記複数の発光素子部の各々の温度を推定し、推定された前記温度を示す温度推定値を出力するステップと、
前記複数の発光素子部の各々について、温度による輝度及び色度の少なくとも一方の変化が補償されるように、前記温度推定値に基づいて前記画像データを補正するステップと、
を有し、
前記複数の発光素子部のうちの推定対象の発光素子部の前記温度推定値は、前記画像データと、前記複数の発光素子部の近傍の温度測定値と、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報と、前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度と、を対応付けるモデル式を用いて算出され、
前記モデル式のパラメータは、学習のために用意された複数のデータセットを用いて、前記温度推定値が、前記発光素子部の温度を測定するために一時的に設けられた学習用温度測定部が出力した学習用温度測定値に近づくように前記ニューラルネットワークを予め学習して得られる値であって、
前記データセットは、前記画像データ、前記温度測定部で測定された前記複数の発光素子部の近傍の温度測定値、前記推定対象の発光素子部と前記温度測定部との間の位置関係を示す情報を含む構造位置情報、及び、前記学習用温度測定部で測定された前記推定対象の発光素子部を含む予め決められた範囲の領域内の発光素子部の温度を含む
ことを特徴とする画像処理方法。 a step of measuring temperatures in the vicinity of a plurality of light-emitting element units each including one or more light-emitting elements by a temperature measurement unit, and outputting a temperature measurement value indicating the temperature;
using a neural network to estimate a temperature of each of the plurality of light-emitting element units based on the temperature measurement value and image data input to a display device having the plurality of light-emitting element units for displaying an image, and outputting a temperature estimation value indicating the estimated temperature;
correcting the image data based on the temperature estimate value so as to compensate for at least one of changes in luminance and chromaticity due to temperature for each of the plurality of light-emitting element components;
having
the temperature estimation value of an estimation target light-emitting element unit among the plurality of light-emitting element units is calculated using a model formula that associates the image data, temperature measurement values in the vicinity of the plurality of light-emitting element units, structural position information including information indicating a positional relationship between the estimation target light-emitting element unit and the temperature measurement unit, and a temperature of the light-emitting element unit within a predetermined range including the estimation target light-emitting element unit;
the parameters of the model formula are values obtained by previously learning the neural network using a plurality of data sets prepared for learning so that the temperature estimation value approaches a learning temperature measurement value output by a learning temperature measurement unit temporarily provided for measuring the temperature of the light-emitting element unit ,
An image processing method characterized in that the dataset includes the image data, temperature measurement values in the vicinity of the multiple light-emitting element components measured by the temperature measurement unit , structural position information including information indicating the positional relationship between the light-emitting element component to be estimated and the temperature measurement unit, and temperatures of light-emitting element components within a predetermined range including the light-emitting element component to be estimated measured by the learning temperature measurement unit .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/026737 WO2022009345A1 (en) | 2020-07-08 | 2020-07-08 | Image-processing device, display control device, image display device, image-processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022009345A1 JPWO2022009345A1 (en) | 2022-01-13 |
JP7471416B2 true JP7471416B2 (en) | 2024-04-19 |
Family
ID=79552473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022534566A Active JP7471416B2 (en) | 2020-07-08 | 2020-07-08 | IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7471416B2 (en) |
WO (1) | WO2022009345A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114613320B (en) * | 2022-03-29 | 2024-01-16 | 湖北长江新型显示产业创新中心有限公司 | Display panel and display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206834A1 (en) | 2016-01-20 | 2017-07-20 | Samsung Display Co., Ltd. | Temperature estimating apparatus, a method of estimating a temperature, and a display system including the temperature estimating apparatus |
US20170236490A1 (en) | 2016-02-17 | 2017-08-17 | Samsung Display Co., Ltd. | Luminance compensator in display device |
WO2019059000A1 (en) | 2017-09-25 | 2019-03-28 | Eizo株式会社 | Atmospheric temperature estimating device, atmospheric temperature estimating method, program and system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08177599A (en) * | 1994-12-28 | 1996-07-09 | Mazda Motor Corp | Vehicle equipment temperature estimating method and temperature estimating device |
-
2020
- 2020-07-08 WO PCT/JP2020/026737 patent/WO2022009345A1/en active Application Filing
- 2020-07-08 JP JP2022534566A patent/JP7471416B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206834A1 (en) | 2016-01-20 | 2017-07-20 | Samsung Display Co., Ltd. | Temperature estimating apparatus, a method of estimating a temperature, and a display system including the temperature estimating apparatus |
US20170236490A1 (en) | 2016-02-17 | 2017-08-17 | Samsung Display Co., Ltd. | Luminance compensator in display device |
WO2019059000A1 (en) | 2017-09-25 | 2019-03-28 | Eizo株式会社 | Atmospheric temperature estimating device, atmospheric temperature estimating method, program and system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022009345A1 (en) | 2022-01-13 |
WO2022009345A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10134334B2 (en) | Luminance uniformity correction for display panels | |
TWI498872B (en) | Method and apparatus for converting rgb data signals to rgbw data signals in an oled display | |
CN103946917B (en) | Display device control method | |
KR101442680B1 (en) | Apparatus and method for driving of organic light emitting display device | |
KR102197270B1 (en) | Method of compensating image of display panel, method of driving display panel including the same and display apparatus for performing the same | |
KR20180058048A (en) | Display apparatus, Calibration apparatus and Calibration method thereof | |
TWI443639B (en) | Image display device and method of driving the same | |
US10235936B2 (en) | Luminance uniformity correction for display panels | |
TWI686787B (en) | Image display device | |
US20150035870A1 (en) | Display apparatus and control method for same | |
US9618789B2 (en) | Planar lighting apparatus and liquid crystal display apparatus | |
KR20120092790A (en) | Method of driving display panel and display apparatus performing the method | |
CN109147657A (en) | Optical compensating member and its operation method applied to display panel | |
TW202015031A (en) | Display system and display frame compensation method thererof | |
JP7471416B2 (en) | IMAGE PROCESSING APPARATUS, DISPLAY CONTROL APPARATUS, IMAGE DISPLAY APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM | |
US7948499B2 (en) | Color control algorithm for use in display systems | |
US20220208065A1 (en) | Image processing device, method, image display device, and recording medium | |
KR20170087078A (en) | Transparent liquid crystal display apparatus and method of driving the same | |
CN114420039A (en) | IR drop compensation for display panels including regions of different pixel layouts | |
KR20210093734A (en) | Device and method for brightness control of display device | |
WO2022054148A1 (en) | Image processing device, image display device, image processing method, and image processing program | |
JP7233551B2 (en) | Image display device, display control device, image processing device, program and recording medium | |
JP7313287B2 (en) | Method and apparatus for displaying images on dual display panel | |
KR102023936B1 (en) | Video display device using retinex theory and method for driving the same | |
WO2022113154A1 (en) | Video display device and brightness correction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |