JP4835008B2 - 情報処理装置および方法、記録媒体、並びにプログラム - Google Patents

情報処理装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP4835008B2
JP4835008B2 JP2005061062A JP2005061062A JP4835008B2 JP 4835008 B2 JP4835008 B2 JP 4835008B2 JP 2005061062 A JP2005061062 A JP 2005061062A JP 2005061062 A JP2005061062 A JP 2005061062A JP 4835008 B2 JP4835008 B2 JP 4835008B2
Authority
JP
Japan
Prior art keywords
image
pixel
measurement target
display
target display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005061062A
Other languages
English (en)
Other versions
JP2006243518A (ja
Inventor
明弘 奥村
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005061062A priority Critical patent/JP4835008B2/ja
Priority to US11/368,206 priority patent/US7952610B2/en
Publication of JP2006243518A publication Critical patent/JP2006243518A/ja
Application granted granted Critical
Publication of JP4835008B2 publication Critical patent/JP4835008B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0285Improving the quality of display appearance using tables for spatial correction of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/145Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen
    • G09G2360/147Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen the originated light output being determined for each pixel

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、表示装置の特性をより正確に評価することができるようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。
近年、表示装置として、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、DMD(Digital Micromirror Device)(商標)などのさまざまな表示デバイスを用いた表示装置が普及してきている。これにともない、表示画面の輝度分布や輝度値、応答特性などの表示装置の特性を測定し、表示装置を評価する方法が数多く提案されている。
例えば、LCDなどのホールド型の表示装置において、人間が、表示画面に表示された動く物体(移動物体)、すなわち、画面上を動く画像を観察する場合、人間の目は、その移動物体を追従(追視)しながら観察するので(人間の注視点が常に移動するので)、いわゆる動きぼけが生じ、人間の目には、表示画面上の移動物体がぼけて見えることが知られている。
このような人間の目が知覚する動きぼけの量を測定するための画像を得る方法として、例えば、表示装置に表示された画像(動画像)を、回動するミラーで反射させて、カメラで撮影する方法が提案されている。すなわち、表示装置に表示させた画像を、回動するミラーに写し、カメラは、ミラーに写っている画像を撮影する。このとき、表示装置から出射した光は、ミラーにおいて反射して、カメラに入射する。したがって、ミラーを所定の角速度で回動させることにより、カメラは、表示装置の表示画面に対して、相対的に移動しながら表示画面に表示された画像を撮影することになり、これにより、表示画面に表示された複数の静止画像が実質的に合成された1つの静止画像、すなわち、人間の目が知覚した動きぼけを再現した静止画像を得ることができる。この方法においては、カメラを直接回動させないため、カメラを回動させる可動部(駆動部)を設ける必要がない。
また、動きぼけを再現する方法として、表示画面に表示された動く物体(移動物体)の画像を時系列に撮影し、撮影により得られた画像データを、それぞれ表示画面に表示された移動物体の移動方向に同調させて、ずらしながら重ね合わせることによって、人間の目が知覚した動きぼけを再現した画像を生成しているものもある(例えば、特許文献1参照)。
特開2001−204049号公報
しかしながら、上述した、ミラーを回動させて、人間の目が知覚する動きぼけを再現する方法においては、ミラーを回動させる回転軸の位置および角度の調整を正確に行うことができないため、表示装置の表示画面上の移動物体が移動する方向に、ミラーを正確に回動させることができなかった。その結果、人間の目が知覚する動きぼけを正確に再現することができなかった。また、ミラーを回動させて、人間の目が知覚する動きぼけを再現する方法においては、表示画面上の移動物体の動きは、水平方向(配置したミラーが回動する方向)の等速運動に限られているため、その他の動き、例えば、斜め方向の動きや垂直方向の動きには対応できなかった。
さらに、測定の対象となる表示装置の表示画面に対して、その表示画面(表示画面に表示された画像)を撮影するカメラが傾いていると、撮影された画像は、測定の対象となる表示装置の表示画面に対して、カメラが傾いている角度だけ傾いてしまう。そこで、角度にずれがないようにするのに長い時間をかけて角度を調整しなければならない課題があった。
さらに、また、従来、表示装置の特性の評価は、表示装置の表示画面全体の明るさもしくは色の変化、または表示装置の表示画面上の1つの画素と比較して大きい領域の明るさもしくは色の変化を測定した結果に基づいて行われているため、表示装置の特性を正確に測定し、評価することができなかった。
本発明は、このような状況に鑑みてなされたものであり、表示装置の特性を迅速かつより正確に測定し、評価することができるようにするものである。
本発明の情報処理装置は、測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、撮影画像上の測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、第1の領域と同じ大きさの撮影画像上の第1の領域とは異なる第2の領域とについて、第1の領域内にある撮影画像の画素と、その画素の第1の領域内における位置と第2の領域内において同じ位置にある撮影画像の画素との輝度値の差分絶対値の和を求めることで、撮影画像上の撮影画素の大きさ、および第1の領域の辺と撮影画像上の撮影画素の辺とがなす角度を演算する第1の演算手段と、撮影画素の大きさおよび角度を用いて、測定対象ディスプレイを撮影して得られた撮影画像の画像データを、各画素の画素値が、測定対象ディスプレイの画素の輝度値を示す画像データに変換する変換手段とを備えることを特徴とする。
変換手段には、測定対象画像の1つのフレームを表示する表示期間よりも短い露光期間で撮影して得られた撮影画像の画像データを、測定対象ディスプレイの画素の輝度値を示す画像データに変換させ、測定対象画像上における移動物体の動き量と、撮影画素の大きさおよび角度とに基づいて、撮影画像が撮影されてから、次の撮影画像が撮影されるまでの期間における、撮影画像上の移動物体の動き量Vを演算する第2の演算手段と、表示期間において、n番目に撮影された撮影画像をnVだけ移動物体の移動方向にシフトさせ、表示期間に撮影された、シフト後の撮影画像の平均画像を生成する生成手段とをさらに設けることができる。
本発明の情報処理方法、記録媒体のプログラム、またはプログラムは、測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、撮影画像上の測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、第1の領域と同じ大きさの撮影画像上の第1の領域とは異なる第2の領域とについて、第1の領域内にある撮影画像の画素と、その画素の第1の領域内における位置と第2の領域内において同じ位置にある撮影画像の画素との輝度値の差分絶対値の和を求めることで、撮影画像上の撮影画素の大きさ、および第1の領域の辺と撮影画像上の撮影画素の辺とがなす角度を演算する演算ステップと、撮影画素の大きさおよび角度を用いて、測定対象ディスプレイを撮影して得られた撮影画像の画像データを、各画素の画素値が、測定対象ディスプレイの画素の輝度値を示す画像データに変換する変換ステップとを含むことを特徴とする。
本発明の情報処理装置および方法、記録媒体、並びにプログラムにおいては、測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、撮影画像上の測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、第1の領域と同じ大きさの撮影画像上の第1の領域とは異なる第2の領域とについて、第1の領域内にある撮影画像の画素と、その画素の第1の領域内における位置と第2の領域内において同じ位置にある撮影画像の画素との輝度値の差分絶対値の和を求めることで、撮影画像上の撮影画素の大きさ、および第1の領域の辺と撮影画像上の撮影画素の辺とがなす角度が演算され、撮影画素の大きさおよび角度を用いて、測定対象ディスプレイを撮影して得られた撮影画像の画像データが、各画素の画素値が、測定対象ディスプレイの画素の輝度値を示す画像データに変換される。
本発明によれば、表示装置の特性を迅速かつより正確に測定し、評価することができる。
本発明は、表示装置の特性を測定する測定システムに適用することができる。
以下、図面を参照して本発明を適用した実施の形態について説明する。
図1は、本発明を適用した測定システムの一実施の形態の構成例を示している。この測定システム1においては、例えば、CRT(Cathode Ray Tube)、LCD、PDPなどの表示デバイスを用いた、測定対象ディスプレイ11に表示された画像が、CCD(Charged Coupled Device)カメラなどの高速カメラ12によって撮影される。
高速カメラ12は、カメラヘッド31、レンズ32、および高速カメラ本体33からなる。カメラヘッド31は、レンズ32を介して入射された被写体の光学的な像を電気的な信号に変換する。カメラヘッド31は、支持部材13に支持されており、測定対象ディスプレイ11および支持部材13は、水平な台14上に配置されている。支持部材13は、測定対象ディスプレイ11の表示画面に対するカメラヘッド31の角度および位置を変えることができるように、カメラヘッド31を支持する。また、高速カメラ本体33は、そこに接続されているコントローラ17の制御のもと、カメラヘッド31に測定対象ディスプレイ11に表示された画像を撮影させ、これにより得られた画像データ(撮影画像データ)を、コントローラ17を介して、データ処理装置18に供給する。
映像信号発生器15は、有線により測定対象ディスプレイ11および同期信号発生器16に接続されており、動画像または静止画像を表示させるための映像信号を発生し、発生した映像信号を測定対象ディスプレイ11に供給し、表示させるとともに、映像信号に同期している、例えば、周波数が60Hzの同期信号を同期信号発生器16に供給する。
同期信号発生器16は、映像信号発生器15から供給された同期信号を逓倍、または位相シフトさせて、有線で接続されている高速カメラ本体33に供給する。例えば、同期信号発生器16は、映像信号発生器15から供給された同期信号の10逓倍の同期信号を発生させて、高速カメラ本体33に供給する。
高速カメラ本体33は、コントローラ17の制御の基に、カメラヘッド31から供給された、アナログ信号である画像信号を、デジタルデータである撮影画像データ(画像データ)に変換する。高速カメラ本体33は、コントローラ17を介して撮影画像データをデータ処理装置18に供給する。例えば、測定対象ディスプレイ11に対する高速カメラ12の傾きを補正する処理(後述するキャリブレーション処理)を行う場合、高速カメラ12が、測定対象ディスプレイ11の表示画面を撮影するとき、撮影した画像がサブフィールドの画像とならないように、高速カメラ本体33は、コントローラ17の制御のもと、同期信号発生器16からの同期信号に同期して、カメラヘッド31に、測定対象ディスプレイ11に表示された画像を、2フィールドの期間より長い期間、例えば、2乃至4フィールドの期間の露光期間で撮影させる。
これに対して、例えば、測定対象ディスプレイ11の特性を測定する場合、高速カメラ12が測定対象ディスプレイ11に表示されたサブフィールドの画像を撮影するとき、撮影した画像がサブフィールドの画像となるように、高速カメラ本体33は、コントローラ17の制御のもと、同期信号発生器16からの同期信号に同期して、高速カメラ12に、測定対象ディスプレイ11に表示された画像を1000コマ/秒で撮影させる。
なお、高速カメラ12が1秒当たりに撮影するコマ数が、測定対象ディスプレイ11に表示される画像のコマ数に比べて十分に多い場合には、同期信号発生器16が、高速カメラ本体33に供給する同期信号は、必ずしも映像信号発生器15から供給された同期信号に同期させなくてもよい。
コントローラ17は、例えば、パーソナルコンピュータまたは専用の制御装置からなり、高速カメラ本体33を制御する。また、コントローラ17は、高速カメラ本体33から供給された撮影画像データを、データ処理装置18に供給する。
データ処理装置18は、映像信号発生器15を制御し、映像信号発生器15に所定の映像信号を発生させて、測定対象ディスプレイ11に供給させることにより、測定対象ディスプレイ11に画像を表示させる。
また、データ処理装置18は、有線または無線によりコントローラ17に接続されており、データ処理装置18は、必要に応じてコントローラ17を制御することにより、高速カメラ12に、測定対象ディスプレイ11に表示された画像(表示画像)を撮影させる。データ処理装置18は、コントローラ17を介して、高速カメラ12から供給された撮影画像データを基に、観察ディスプレイ18Aに画像を表示するか、または撮影画像データを基に、所定の演算を行うことにより得られた、測定対象ディスプレイ11の特性を示す値を観察ディスプレイ18Aに表示する。なお、以下、撮影画像データを基に表示される画像を、撮影画像とも称する。
さらに、データ処理装置18は、コントローラ17を介して高速カメラ12から供給された撮影画像データを基に、撮影画像データで表示される画像における、測定対象ディスプレイ11の画素の画像を特定する。例えば、データ処理装置18は、測定対象ディスプレイ11に表示された画像を、測定対象ディスプレイ11に表示される画像の1コマ(2フィールドまたは1フレーム)の期間と等しいか、それより長い期間の露光期間で撮影して得られた撮影画像データを基に、撮影画像データで表示される画像における、測定対象ディスプレイ11の画素のそれぞれに対する画像の範囲を特定する。なお、1コマはフィールドとフレームのいずれでもよいが、以下においてはフィールドとして説明する。
そして、データ処理装置18は、撮影画像データを、測定対象ディスプレイ11の画素の輝度または色(赤(R)成分、緑(G)成分、および青(B)成分の値)を示す画素データに変換するための式を生成する。
さらに、データ処理装置18は、生成した式を基に、コントローラ17を介して高速カメラ12から供給された撮影画像データから、測定対象ディスプレイ11の画素の輝度または色を示す画素データを演算する。例えば、データ処理装置18は、生成した式を基に、測定対象ディスプレイ11に表示された画像を1000コマ/秒で撮影して得られた撮影画像データから、測定対象ディスプレイ11の画素の輝度または色を示す画素データを演算する。
データ処理装置18は、例えば、図2に示されるように構成される。図2において、CPU(Central Processing Unit)121は、ROM(Read Only Memory)122に記憶されているプログラム、または記憶部128からRAM(Random Access Memory)123にロードされたプログラムに従って各種の処理を実行する。RAM123にはまた、CPU121が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU121、ROM122、およびRAM123は、バス124を介して相互に接続されている。このバス124にはまた、入出力インタフェース125も接続されている。
入出力インタフェース125には、キーボード、マウスなどよりなる入力部126、CRT、LCDなどよりなる観察ディスプレイ18A、並びにスピーカなどよりなる出力部127、ハードディスクなどより構成される記憶部128、モデムなどより構成される通信部129が接続されている。通信部129は、インターネットを含む図示せぬネットワークを介しての通信処理を行う。
入出力インタフェース125にはまた、必要に応じてドライブ130が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア131が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部128にインストールされる。
なお、図示は省略するが、コントローラ17も、図2に示したデータ処理装置18と基本的に同様の構成とされている。
ところで、測定対象ディスプレイ11に表示された画像を、高速カメラ12で撮影した場合、測定対象ディスプレイ11の表示画面の画素を基準とした軸の方向と、高速カメラ12が撮影した画像の軸の方向とが一致するとは限らない。
図3Aに示されるように、測定対象ディスプレイ11の表示画面におけるx軸は、測定対象ディスプレイ11の表示画面の横に1列に並ぶ画素の方向と一致する方向の軸であり、測定対象ディスプレイ11の表示画面におけるy軸は、測定対象ディスプレイ11の表示画面の縦に1列に並ぶ画素の方向と一致する方向の軸である。測定対象ディスプレイ11の表示画面における点Oは、測定対象ディスプレイ11の表示画面の中心である。
一方、図3Bに示されるように、データ処理装置18は、撮影画像データにおける画素の並びを基準として、高速カメラ12で撮影された画像を処理するので、データ処理装置18におけるa軸は、撮影画像データにおいて横に1列に並ぶ画素の方向と一致する方向の軸であり、データ処理装置18におけるb軸は、撮影画像データにおいて縦に1列に並ぶ画素の方向と一致する方向の軸である。データ処理装置18における点Oは、撮影画像の中心である。
高速カメラ12は、撮影の視野(撮影する範囲)内の光学的な像を、カメラヘッド31のイメージセンサで画像信号に変換し、画像信号から撮影画像データを生成するので、撮影画像データにおける画素の並びは、高速カメラ12におけるイメージセンサの画素の並びによって定まる。データ処理装置18は、カメラヘッド31により撮影した画像をそのまま表示するのであるから、データ処理装置18におけるa軸およびb軸は、高速カメラ12(カメラヘッド31)の横方向と縦方向と一致する。
したがって、測定対象ディスプレイ11の表示画面におけるx軸およびy軸の方向と、データ処理装置18におけるa軸およびb軸の方向との関係を考えると、カメラヘッド31が測定対象ディスプレイ11に対して時計回転方向に角度θだけ傾いている場合、図3Aに示されるように、カメラヘッド31の横方向のa軸は、測定対象ディスプレイ11の横方向のx軸に対して時計回転方向に角度θだけ傾くことになる。そして、カメラヘッド31のa軸がデータ処理装置18のa軸と一致するように撮影画像が表示されるので、図3Bに示されるように、x軸はa軸に対して反時計回転方向に角度θだけ傾くことになる。
言い換えれば、測定対象ディスプレイ11を撮影する高速カメラ12の撮影の視野(撮影する範囲)内の光学的な像であって、測定対象ディスプレイ11の表示画面の光学的な像における、画素の縦横に並ぶ方向と、カメラヘッド31のイメージセンサの画素の縦横に並ぶ方向とがなす角度θは、データ処理装置18において、撮影画像データによる画像としての、測定対象ディスプレイ11の表示画面の画素の配列によって定まるx軸およびy軸と、データ処理装置18におけるa軸およびb軸との傾き角として現れるといえる。
測定対象ディスプレイ11の表示画面上の部分151を、測定対象ディスプレイ11の表示画面の1つの画素とすれば、データ処理装置18において、傾き角θを考慮して、撮影画像データを補正すると、撮影画像データから、測定対象ディスプレイ11の表示画面の1つの画素の画像を示すデータを容易に抽出することができるようになることが分かる。
そこで、測定対象ディスプレイ11に表示された画像を、高速カメラ12で撮影して、測定対象ディスプレイ11の特性を測定する場合に、高速カメラ12で撮影された画像の軸(a軸およびb軸)と測定対象ディスプレイ11の表示画面の画素を基準とした軸(x軸およびy軸)との傾き角θを求めて、傾き角θに応じて高速カメラ12で撮影された画像を補正することによって、より正確に測定対象ディスプレイ11の特性を測定することができる。なお、以下、高速カメラ12が撮影した画像の軸の、測定対象ディスプレイ11の表示画面の画素を基準とした軸に対する傾き角θを補正する処理をキャリブレーション処理と称する。
データ処理装置18は、測定対象ディスプレイ11に所定の画像を表示させて、測定対象ディスプレイ11の特性を測定する場合、まず、キャリブレーション処理を行ってから、測定対象ディスプレイ11の特性の測定を開始する。
図4は、キャリブレーション処理を実行する、データ処理装置18のキャリブレーション部のソフトウェアを中心とした機能的構成を示すブロック図である。
キャリブレーション部201は、表示部211、撮影部212、拡大部213、入力部214、演算部215、配置部216、および生成部217を含むように構成される。
表示部211は、例えば、LCDなどの出力部127としての観察ディスプレイ18Aに、拡大部213から供給された画像データを基に、画像を表示させる。また、表示部211は、映像信号発生器15(図1)を制御し、測定対象ディスプレイ11に画像を表示させる。すなわち、表示部211は、映像信号発生器15を制御し、映像信号発生器15に映像信号を発生させて、発生した映像信号を測定対象ディスプレイ11に供給させることによって、測定対象ディスプレイ11に画像を表示させる。
撮影部212は、コントローラ17を介して接続されている高速カメラ12に、測定対象ディスプレイ11に表示された画像(表示画面)を撮影させる。すなわち、撮影部212は、コントローラ17が高速カメラ12に、測定対象ディスプレイ11に表示された画像を撮影させるように、コントローラ17を制御することによって、測定対象ディスプレイ11に表示された画像を撮影する。
拡大部213は、コントローラ17を介して、高速カメラ12のズーム率を制御し、観察ディスプレイ18A上で測定対象ディスプレイ11の画素を十分認識できる程度の画像が得られるように、画像を予め定められた所定の倍率(割合)で拡大させる。
入力部214は、キーボード、マウスなどからなる入力部126から、測定者(ユーザ)の操作に応じた入力信号を取得し、撮影部212、または演算部215に供給する。
演算部215は、高速カメラ12が撮影した撮影画像の軸の、測定対象ディスプレイ11の表示画面の画素を基準とした軸に対する傾き角θ(以下、単に、傾き角θと称する)、および撮影画像として、観察ディスプレイ18Aに表示されている測定対象ディスプレイ11の画素(の画像)(以下、撮影画素と称する)の、観察ディスプレイ18Aの表示画面上における大きさ(ピッチ)を求めるための演算を行う。
配置部216は、傾き角θ、および観察ディスプレイ18Aの表示画面上(撮影画像上)における測定対象ディスプレイ11の画素(撮影画素)の大きさを求めるために用いられる、撮影画像上における撮影画素とほぼ同一の大きさのブロック(以下、基準ブロックと称する)を、観察ディスプレイ18Aのほぼ画面中央に配置する。すなわち、配置部216は、観察ディスプレイ18Aのほぼ画面中央を、基準ブロックの表示位置として指定する信号を生成し、表示部211に供給する。そして、表示部211は、観察ディスプレイ18Aのほぼ画面中央を、基準ブロックの表示位置として指定する信号が配置部216から供給されると、基準ブロックを、観察ディスプレイ18Aの表示画面のほぼ中央に表示させる。
生成部217は、演算部215により演算された、傾き角θおよび撮影画素の大きさを基に、撮影画像データを、測定対象ディスプレイ11の画素の輝度さまたは色を示す、測定対象ディスプレイ11の画素データに変換する式を生成する。
図5は、キャリブレーション部201によるキャリブレーション処理が実行された後、測定対象ディスプレイ11の特性を測定する処理を実行する、データ処理装置18の測定部のソフトウェアを中心とした機能的構成を示すブロック図である。
測定部301は、表示部311、撮影部312、選択部313、拡大部314、入力部315、演算部316、変換部317、正規化部318、および判定部319を含むように構成される。
表示部311は、観察ディスプレイ18Aに、拡大部314から供給された画像データを基に、画像を表示させる。また、表示部311は、映像信号発生器15(図1)を制御し、測定対象ディスプレイ11に、測定の対象となる画像(以下、測定対象画像とも称する)を表示させる。すなわち、表示部311は、映像信号発生器15を制御し、映像信号発生器15に映像信号を発生させて、発生した映像信号を測定対象ディスプレイ11に供給させることによって、測定対象ディスプレイ11に測定対象画像を表示させる。
撮影部312は、コントローラ17を介して接続されている高速カメラ12に、測定対象ディスプレイ11に表示された測定対象画像(表示画面)を撮影させる。すなわち、撮影部312は、コントローラ17が高速カメラ12に、測定対象ディスプレイ11に表示された測定対象画像を撮影させるように、コントローラ17を制御することによって、測定対象ディスプレイ11に表示された測定対象画像を撮影する。
選択部313は、観察ディスプレイ18Aに表示されている、撮影画像としての測定対象ディスプレイ11の画素(撮影画素)から、1つの撮影画素を選択する。
拡大部314は、コントローラ17を介して、高速カメラ12のズーム率を制御し、観察ディスプレイ18A上で測定対象ディスプレイ11の画素を十分認識できる程度の画像が得られるように、画像を予め定められた所定の倍率(割合)で拡大させる。
入力部315は、入力部126(図2)から、測定者の操作に応じた入力信号を取得し、撮影部312または選択部313に供給する。
演算部316は、撮影画像データを測定対象ディスプレイ11の画素データに変換する式を用いて、撮影画像データから、選択部313によって選択された測定対象ディスプレイ11の画素の色単位のデータを演算する。ここで、選択された測定対象ディスプレイ11の画素の色単位のデータとは、選択部313によって選択された、撮影画像上の測定対象ディスプレイ11の1つの画素(撮影画素)のR(赤)、G(緑)、およびB(青)のそれぞれの値を示すデータをいう。また、演算部316は、変換部317が撮影画像データを変換して得られた、測定対象ディスプレイ11の画素の色単位のデータ(測定対象ディスプレイ11の画素の色を単位とするデータ)を基に、測定対象ディスプレイ11の表示画面における各色の値の平均値を演算する。演算部316は、傾き角θ、および観察ディスプレイ18Aの表示画面上における、測定対象ディスプレイ11の画素(撮影画素)の大きさを基に、測定対象ディスプレイ11に表示されている移動物体の動き量を演算する。
変換部317は、撮影画像データを測定対象ディスプレイ11の画素データに変換する式を用いて、撮影画像データを、測定対象ディスプレイ11の画素の色単位のデータに変換する。また、変換部317は、撮影画像データを測定対象ディスプレイ11の画素データに変換する式を用いて、撮影画像データを測定対象ディスプレイ11の画素単位のデータに変換する。ここで、測定対象ディスプレイ11の画素単位のデータとは、例えば、撮影画像上の測定対象ディスプレイ11の各画素の輝度の値を示すデータなどの、測定対象ディスプレイ11上の各画素を単位とするデータをいう。
正規化部318は、測定対象ディスプレイ11に表示されて撮影された移動物体の、各撮影画像上の移動物体の画素の値を正規化する。判定部319は、測定対象ディスプレイ11に表示させる全てのフィールドを測定したか否かを判定し、全てのフィールドを測定したと判定されるまで、測定部301の各部に測定の処理を実行させる。
次に、図6のフローチャートを参照して、データ処理装置18によるキャリブレーション処理を説明する。
ステップS1において、表示部211は、測定対象ディスプレイ11に、キャリブレーション処理を行うための画像(基準画像)を表示させる。例えば、表示部211は、映像信号発生器15を制御し、映像信号発生器15に、基準画像を表示させるための映像信号を発生させ、発生した映像信号を測定対象ディスプレイ11に供給させる。そして、測定対象ディスプレイ11は、映像信号発生器15から供給された映像信号を基に、測定対象ディスプレイ11の表示画面に基準画像を表示する。例えば、測定対象ディスプレイ11は、基準画像が、0から255までの256階調で表示される画像である場合、基準画像として、全ての画素のレベルが、常に240以上の同じレベルである白画像を表示する。
測定対象ディスプレイ11に基準画像を表示させてから、測定者がデータ処理装置18を操作することによって、基準画像の撮影を指示すると、入力部214から撮影部212に、測定者の操作に応じて、基準画像の撮影を指示する入力信号が供給されるので、ステップS2において、撮影部212は、高速カメラ12で、測定対象ディスプレイ11に表示された基準画像(白画像)を撮影する。すなわち、ステップS2において、撮影部212は、入力部214からの入力信号に応じて、コントローラ17が、高速カメラ12に基準画像を撮影させるように、コントローラ17を制御する。そして、高速カメラ12は、コントローラ17の制御のもと、同期信号発生器16からの同期信号に同期して、例えば、測定対象ディスプレイ11に表示された基準画像(白画像)を撮影する。
このとき、例えば、高速カメラ12は、測定対象ディスプレイ11に表示された画像を、2フィールドの期間より長い期間、例えば、2フィールドまたは4フィールドの期間の露光期間で撮影する。このように、2フィールドの期間より長い露光期間で撮影することで、測定対象ディスプレイ11としてCRTやPDPを用いた場合に、撮影画像がサブフィールドの画像となってしまうことがなくなり、撮影画像として、測定対象ディスプレイ11の全ての画素のレベルが同じレベルである白画像を得ることができる。
ステップS3において、拡大部213は、コントローラ17を介して、高速カメラ12のズーム率を制御し、観察ディスプレイ18A上で測定対象ディスプレイ11の画素を十分認識できる程度の画像が得られるように、基準画像の撮影画像を拡大させる。高速カメラ12が測定対象ディスプレイ11の表示画像を撮影し、その画像を拡大することにより得られた撮影画像データは、高速カメラ12から、コントローラ17を介してデータ処理装置18に供給される。表示部211は、拡大部213から供給された撮影画像データを観察ディスプレイ18Aに供給し、表示させるので、そこには拡大された基準画像(の撮影画像)が表示される。
観察ディスプレイ18Aに基準画像が表示されてから、測定者が、データ処理装置18を操作し、観察ディスプレイ18Aの表示画面に表示させる基準ブロックの(辺の)大きさX1、Y1を入力すると、入力部214から演算部215には、測定者が入力した基準ブロックの辺の大きさX1、Y1を示す入力信号が供給されるので、ステップS4において、演算部215は、入力部214から供給された入力信号に基づいて、基準ブロックの大きさをX1、Y1と設定する。
ここで、基準ブロックの大きさX1、Y1とは、観察ディスプレイ18Aの表示画面上における、互いに直交する基準ブロックの辺を、第1の辺および第2の辺としたときの、第1の辺および第2の辺のそれぞれの大きさ(長さ)をいい、測定者は、予め定められた、観察ディスプレイ18Aの表示画面上における、測定対象ディスプレイ11の画素(撮影画素)の大きさの概略値を、基準ブロックの大きさX1、Y1として入力する。したがって、例えば、図7に示すように、表示部211が、撮影画像を観察ディスプレイ18Aに表示させ、さらに、図中、中央の四角形を基準ブロック401として、観察ディスプレイ18Aに表示させる場合、演算部215は、入力部214から供給された入力信号に基づいて、基準ブロック401の図中、横方向の辺の大きさ(X方向の大きさ)をX1と設定し、縦方向の辺の大きさ(Y方向の大きさ)をY1と設定する。
なお、図7では、基準ブロック401は、図中、中央の四角形で表されており、また、図中、基準ブロック401の中に示される、右上がりのハッチングが施されている長方形、ハッチングが施されていない長方形、および右下がりのハッチングが施されている長方形からなる四角形は、高速カメラ12によって撮影された、測定対象ディスプレイ11の表示画面の1つの画素(R、G、Bの各色を表示する領域)の画像(撮影画素)を表している。具体的には、図中、撮影画素の左側の、右上がりのハッチングが施されている長方形は、その撮影画素に対応する測定対象ディスプレイ11の画素が、測定対象ディスプレイ11の表示画面上において、赤く(R)発光した領域を示しており、中央のハッチングが施されていない長方形は、撮影画素に対応する測定対象ディスプレイ11の画素が、測定対象ディスプレイ11の表示画面上において、緑に(G)発光した領域を示しており、右側の、右下がりのハッチングが施されている長方形は、撮影画素に対応する測定対象ディスプレイ11の画素が、測定対象ディスプレイ11の表示画面上において、青く(B)発光した領域を示している。
図7では、撮影画像として、測定対象ディスプレイ11の表示画面の画素(撮影画素)が、図中、縦方向および横方向に並んだ画像が表示されている。
図6のフローチャートの説明に戻り、ステップS4の基準ブロック401の大きさの設定処理の後、ステップS5において、演算部215は、撮影画像の大きさ、および設定した基準ブロック401の大きさを基に、基準ブロック401の繰り返し回数を演算する。
例えば、図7において、図中、撮影画像の下側の辺の左端から右端へ向かう方向をX方向、撮影画面の左側の辺の下端から上端へ向かう方向をY方向とし、撮影画像のX方向の大きさ(長さ)の半部の大きさを(Lx/2)(したがって、X方向の大きさはLx)とし、撮影画像のY方向の大きさの半部の大きさを(Ly/2)(したがって、Y方向の大きさはLy)とすると、演算部215は、撮影画像のX方向の大きさをLx、撮影画像のY方向の大きさをLy、基準ブロック401のX方向の大きさをX1、および基準ブロック401のY方向の大きさをY1として、式(1)および式(2)に基づいて、X方向の基準ブロック401の繰り返し回数n、およびY方向の基準ブロック401の繰り返し回数mをそれぞれ演算する。
n=Lx/X1 ・・・(1)
m=Ly/Y1 ・・・(2)
ここで、X方向の基準ブロック401の繰り返し回数nは、基準ブロック401を、X方向に、撮影画像の左端から右端まで並べていったときに、X方向に基準ブロック401を並べることができる個数を示しており、Y方向の基準ブロック401の繰り返し回数mは、基準ブロック401を、Y方向に、撮影画像の下端から上端まで並べていったときに、Y方向に基準ブロック401を並べることができる個数を示している。したがって、図7に示すように、撮影画像のX方向の大きさLxは、nX1とも表すことができ、同様に、撮影画像のY方向の大きさLyは、mY1とも表すことができる。
図6のフローチャートの説明に戻り、ステップS5において、演算部215が、基準ブロック401の繰り返し回数を演算すると、ステップS6において、配置部216は、基準ブロック401を、観察ディスプレイ18Aのほぼ画面中央に配置する。
すなわち、ステップS6において、配置部216は、演算部215が設定した基準ブロック401の大きさX1、Y1の値を参照して、観察ディスプレイ18Aのほぼ画面中央を、大きさがX1、Y1である基準ブロック401の表示位置として指定する信号を生成し、表示部211に供給する。そして、表示部211は、観察ディスプレイ18Aのほぼ画面中央を、基準ブロック401の表示位置として指定する信号が配置部216から供給されると、図7に示したように、表示させている撮影画像に重畳させて、基準ブロック401を、観察ディスプレイ18Aの表示画面のほぼ中央に表示させる。
撮影画像(観察ディスプレイ18A)に基準ブロック401が表示されると、演算部215は、撮影画像上の所定の位置にある、基準ブロック401と同じ大きさのブロック(以下、マッチング候補ブロックと称する)の位置を、高速カメラ12が撮影した撮影画像の軸の、測定対象ディスプレイ11の表示画面の画素を基準とした軸に対する傾き角をθ(変数)として、傾き角θの値を基に補正し、位置が補正されたマッチング候補ブロック内の画素の輝度と、基準ブロック401内の画素の輝度との差分絶対値和が最小となる傾き角θ、撮影画面上の撮影画素(測定対象ディスプレイ11の画素)の大きさ(ピッチ)X2、Y2を求める。
すなわち、ステップS7において、演算部215は、差分絶対値和を表す式SADにおけるX2、Y2、傾き角θを変化させ、SADが最小となる値を求める。
例えば、図7において、撮影画像の中心を基準として、X方向およびY方向を軸とする座標系における所定の点の座標を(XB,YB)とし、XB、YBをそれぞれ式(3)および式(4)で表す。
XB=k×X2 ・・・(3)
YB=l×Y2 ・・・(4)
ここで、X2は、撮影画素(撮影画像上の測定対象ディスプレイ11の画素)のX方向のピッチを表し、Y2は、撮影画素のY方向のピッチを表す。また、kおよびlは、それぞれ、所定の整数(但し、X方向の基準ブロック401の繰り返し回数をn、Y方向の基準ブロック401の繰り返し回数をmとして、(−n/2)≦k≦(n/2)、(−m/2)≦l≦(m/2))を表す。
次に、点(XB,YB)を中心とし、X方向に平行な直線上に配置されるマッチング候補ブロック402の位置を、傾き角θを基に補正する。図7において、マッチング候補ブロック403は、傾き角θを基に補正されたマッチング候補ブロック402を表している。マッチング候補ブロック402の中心の点(XB,YB)に対応するマッチング候補ブロック403の中心の点(XB’,YB’)の座標XB’、YB’は、それぞれ式(5)および式(6)で表される。
XB’=XB+YB×θ/(Ly/2) ・・・(5)
YB’=YB+XB×θ/(Lx/2) ・・・(6)
ここで、例えば、図7に示すように、長さがLx/2であり、点(XB,YB)を通るX方向に平行な直線D1が、撮影画像の右側の辺(端部)と交わる点を点A1とし、直線D1の点A1とは反対側の端点、および点(XB’,YB’)を通る直線D2が、撮影画像の右側の辺(端部)と交わる点を点A2とした場合に、点A1から点A2までの距離を傾き角θと近似する。
なお、この場合、点(XB’,YB’)の位置は、点(XB,YB)を、傾き角θに基づく、所定の方向に、所定の距離だけ平行移動させた位置となる。ここで、式(6)におけるθの値は、点(XB,YB)のX座標の値XBがLx/2である場合における、傾き角θに対するY座標の値YBの変動量(撮影画素の数)を表しており、X座標の値XBによって、Y座標の値YBに対する補正量の最大値がθとなるようにY座標の値YBを補正する。したがって、Y座標の値YBに対する補正量は、X座標の値XBの値に比例して大きくなる。同様に、点(XB,YB)のY座標の値YBがLy/2である場合における、傾き角θに対するX座標の値XBの変動量をθとして、式(5)において、Y座標の値YBによって、X座標の値XBに対する補正量の最大値がθとなるようにX座標の値XBを補正する。
演算部215は、点(XB,YB)を、傾き角θを基に補正した点を、点(XB’,YB’)として、式(7)で表される、差分絶対値和を表す式におけるX2、Y2、θを変化させて、値SADが最小となる値を求める。
Figure 0004835008
なお、式(7)において、1番左側のΣは、|Ys(i,j)−Yr(XB’+i,YB’+j)|のiを(−1/2)X1から(1/2)X1まで変えて総和をとることを表し、左から2番目乃至4番目のΣは、それぞれ、|Ys(i,j)−Yr(XB’+i,YB’+j)|のjを(−1/2)Y1から(1/2)Y1まで変えて、kを(−n/2)から(n/2)まで変えて、lを(−m/2)から(m/2)まで変えて、それぞれ総和をとることを表す。
また、Ys(i,j)は、基準ブロック401内の所定の点(i,j)における輝度の値(但し、(−1/2)X1≦i≦(1/2)X1,(−1/2)Y1≦j≦(1/2)Y1)を表しており、Yr(XB’+i,YB’+j)は、マッチング候補ブロック403内の所定の点(XB’+i,YB’+j)における輝度の値(但し、(−1/2)X1≦i≦(1/2)X1,(−1/2)Y1≦j≦(1/2)Y1)を表している。
さらに、差分絶対値和を表す式(7)におけるX2、Y2、θを変化させる場合、例えば、X2の大きさは、X1±10%(すなわち、X1±(X1/10))程度の範囲、Y2の大きさは、Y1±10%(すなわち、Y1±(Y1/10))程度の範囲で変化させる。また、傾き角θの大きさは、例えば、±10画素(撮影画素)程度の範囲で変化させる。したがって、例えば、図7の例においては、マッチング候補ブロック402に対応する、マッチング候補ブロック403は、θの大きさを、点A1から、図中、上方向(Y方向)に10画素(撮影画素)の範囲、および点A1から、図中、下方向(Y方向と逆方向)に10画素(撮影画素)の範囲で変化させて値SADが最小となるθの値を求める。
図6のフローチャートの説明に戻り、差分絶対値和を表す式(7)の値SADが最小となるX2、Y2、θを求めると、ステップS8において、生成部217は、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式を生成し、処理を終了する。
例えば、ステップS8において、生成部217は、差分絶対値和を表す式(7)の値SADが最小となるX2、Y2、θを、上述した式(5)および式(6)(式(3)および式(4))に代入することによって、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式を生成する。
また、表示部211は、キャリブレーション処理が終了すると、図8に示すように、値SADが最小となるX2、Y2、θを求めた結果を、観察ディスプレイ18Aに表示させる。図8では、図7における場合と同様に、右上がりのハッチングが施されている長方形、ハッチングが施されていない長方形、および右下がりのハッチングが施されている長方形からなる四角形が、1つの撮影画素を表している。また、それぞれの撮影画素(撮影画像上の測定対象ディスプレイ11の画素)が、縦と横の点線で区切られる四角形(ブロック)で囲まれている。値SADを最小とする結果がこの点線で表されており、この点線で表される1つの四角形(縦と横の点線で区切られる四角形)の中心の点が、点(XB’,YB’)となっている。なお、図8では、説明のため、撮影画素を囲む点線で表される四角形は、撮影画素に対して少しずらされて表示されている。さらに、点線で表される1つの四角形のX方向の大きさがX2、Y方向の大きさがY2となっており、各撮影画素の頂点の位置、傾き角θ、各撮影画素のX方向の大きさ、および各撮影画素のY方向の大きさが正確に求められたことが分かる。
これは、測定対象ディスプレイ11に、全ての画素が同じ明るさの基準画像(白画像)を表示させることで、基準画像を撮影した撮影画像を用いて、基準ブロック401内の所定の点における輝度の値と、マッチング候補ブロック403内の所定の点における輝度の値とを比較し、撮影画像上の測定対象ディスプレイ11の1つの画素(撮影画素)を容易に検出することができるので、各撮影画素の頂点の位置、傾き角θ、各撮影画素のX方向の大きさ、および各撮影画素のY方向の大きさを正確に求めることができるからである。
以上のようにして、データ処理装置18は、撮影された基準画像を用いて、傾き角θ、撮影画像上の撮影画素(測定対象ディスプレイ11の画素)の大きさ(ピッチ)X2、Y2を求める。
このように、撮影された基準画像(の撮影画像)を用いて、傾き角θ、撮影画像上の撮影画素の大きさX2、Y2を求めることで、データ処理装置18は、撮影画像上の各撮影画素の位置および大きさを特定することができるので、測定対象ディスプレイ11の画素ごとの特性を測定することができる。これにより、測定対象ディスプレイ11の特性を迅速かつより正確に測定し、評価することができる。
以上、キャリブレーション処理において、撮影画素とほぼ同じ大きさのブロックを基準ブロックとして、撮影画像上の撮影画素の大きさX2、Y2を求めると説明したが、1つのブロックの大きさが、測定対象ディスプレイ11の画素の整数倍(例えば、10倍)の大きさであるクロスハッチの画像(クロスハッチ画像)を、基準画像として測定対象ディスプレイ11に表示させ、観察ディスプレイ18Aの表示画面上における、クロスハッチ画像の1つのブロックとほぼ同じ大きさのブロックを基準ブロックとして、クロスハッチ画像の1つのブロックの大きさを求めることによっても、傾き角θ、および撮影画像上の測定対象ディスプレイ11の画素(撮影画素)の大きさを求めることができる。
以下、図9のフローチャートを参照して、データ処理装置18が、撮影画像として、測定対象ディスプレイ11に表示されたクロスハッチ画像を用いて、キャリブレーション処理を実行する、クロスハッチによるキャリブレーション処理を説明する。
ステップS21において、表示部211は、測定対象ディスプレイ11の表示画面の中央に、基準画像としてのクロスハッチ画像を表示させる。例えば、表示部211は、映像信号発生器15を制御し、映像信号発生器15に、クロスハッチ画像を表示させるための映像信号を発生させ、発生した映像信号を測定対象ディスプレイ11に供給させる。そして、測定対象ディスプレイ11は、映像信号発生器15から供給された映像信号を基に、測定対象ディスプレイ11の表示画面に基準画像としてのクロスハッチ画像を表示する。
例えば、測定対象ディスプレイ11は、表示画面の中央に、図10に示すクロスハッチ画像を表示する。図10では、黒い線に囲まれた四角形が、クロスハッチの1つのブロックを示しており、クロスハッチのブロックが、図中、縦方向および横方向に並んでいる。このクロスハッチの1つのブロックは、例えば、縦方向の大きさ(長さ)が、測定対象ディスプレイ11の10個分の画素の大きさとなっており、また、横方向の大きさ(長さ)も、測定対象ディスプレイ11の10個分の画素の大きさとなっている。したがって、この場合、クロスハッチの1つのブロックには、測定対象ディスプレイ11の100個(縦10個×横10個)の画素が含まれる大きさとなり、クロスハッチの1つのブロックは、これらの100個の画素によって表示される。
さらに、図中、横方向のクロスハッチの線(黒い線)は、例えば、その縦方向の太さが、測定対象ディスプレイ11の画素の1個分の太さとなっており、図中、縦方向のクロスハッチの線(黒い線)は、例えば、その横方向の太さが、測定対象ディスプレイ11の画素の3個分の太さとなっている。
図9のフローチャートの説明に戻り、測定対象ディスプレイ11に基準画像としてクロスハッチ画像を表示させてから、測定者がデータ処理装置18を操作することによって、基準画像の撮影を指示すると、入力部214から撮影部212に、測定者の操作に応じて、基準画像の撮影を指示する入力信号が供給されるので、ステップS22において、撮影部212は、高速カメラ12で、測定対象ディスプレイ11に表示されたクロスハッチ画像を撮影する。すなわち、ステップS22において、撮影部212は、入力部214からの入力信号に応じて、コントローラ17が、高速カメラ12に基準画像を撮影させるように、コントローラ17を制御する。そして、高速カメラ12は、コントローラ17の制御のもと、同期信号発生器16からの同期信号に同期して、測定対象ディスプレイ11に表示された基準画像としてのクロスハッチ画像を撮影する。
ステップS23において、拡大部213は、コントローラ17を介して、高速カメラ12のズーム率を制御し、観察ディスプレイ18A上で測定対象ディスプレイ11に表示されているクロスハッチ画像の1つのブロックを十分認識できる程度の画像が得られるように、画像を拡大させる。高速カメラ12が測定対象ディスプレイ11の表示画像を撮影し、その画像を拡大することにより得られた撮影画像データは、高速カメラ12から、コントローラ17を介してデータ処理装置18に供給される。表示部211は、拡大部213から供給された撮影画像データを観察ディスプレイ18Aに供給し、表示させるので、そこには拡大された基準画像(の撮影画像)としてのクロスハッチ画像が表示される。このとき、観察ディスプレイ18Aには、例えば、図11に示すクロスハッチ画像が表示される。
図11では、撮影されたクロスハッチのブロックが、X方向およびY方向に並んでいる。黒い線に囲まれているブロック431は、撮影された1つのクロスハッチのブロックの画像を表している。データ処理装置18は、1つのブロック431を、図6のフローチャートを参照して説明した、1つの撮影画素(観察ディスプレイ18Aに表示されている、撮影画像としての測定対象ディスプレイ11の1つの画素)とみなして、図6のステップS4の処理乃至ステップS7の処理のそれぞれに対応する処理を行う。
すなわち、観察ディスプレイ18Aに撮影画像としてのクロスハッチ画像(基準画像)が表示されてから、測定者が、データ処理装置18を操作し、観察ディスプレイ18Aの表示画面に表示されている、クロスハッチの1つのブロック431のX方向の大きさの概略値XC、およびY方向の大きさの概略値YCを、観察ディスプレイ18Aの表示画面に表示させる基準ブロックの大きさとして入力すると、入力部214から演算部215には、測定者が入力した基準ブロックの辺の大きさXC、YCを示す入力信号が供給されるので、ステップS24において、演算部215は、入力部214から供給された入力信号に基づいて、撮影画像としてのクロスハッチの1つのブロック431のX方向の大きさの概略値XC、およびY方向の大きさの概略値YCを、基準ブロックの大きさとして設定する。
その後さらにステップS25の処理乃至ステップS27の処理が行われるが、これらの処理は、図6におけるステップS5の処理乃至ステップS7の処理のそれぞれと同様なので、その説明は省略する。なお、ステップS25の処理乃至ステップS27の処理において、図6のフローチャートの説明での基準ブロック401の大きさX1、Y1とした部分が、それぞれXC、YCとなり、ステップS27の処理において求められるX2およびY2は、それぞれ図11のクロスハッチの1つのブロック431のX方向大きさ、およびY方向の大きさとなる。
ステップS28において、演算部215は、求められたX2およびY2の値を、それぞれ、予め定められた、測定対象ディスプレイ11の表示画面におけるクロスハッチの1つのブロックの画素数(測定対象ディスプレイ11の画素数)Xp、Ypで割って、観察ディスプレイ18Aに表示されている、撮影画像としての、測定対象ディスプレイ11の1つの画素(撮影画素)の大きさ(ピッチ)を求める。
例えば、図11に示すクロスハッチの1つのブロック431に対応する、測定対象ディスプレイ11の表示画面上のクロスハッチの1つのブロックのX方向の画素数(測定対象ディスプレイ11の画素数)がXp、Y方向の画素数(測定対象ディスプレイ11の画素数)がYpであり、差分絶対値和を表す値SADが最小となるX方向のブロック431の大きさがX2、Y方向の大きさがY2である場合、演算部215は、式(8)および式(9)を演算することによって、観察ディスプレイ18Aの表示画面上における、撮影画像としての測定対象ディスプレイ11の1つの画素(撮影画素)のX方向の大きさXd、Y方向の大きさYdの大きさを求める。
Xd=X2/Xp ・・・(8)
Yd=Y2/Yp ・・・(9)
なお、クロスハッチの1つのブロックのX方向の画素数Xp、およびY方向の画素数Ypは、予め定められた値であり、それぞれ、測定対象ディスプレイ11に表示されるクロスハッチ画像の1つのブロックを表示する、X方向の測定対象ディスプレイ11の画素数、およびY方向の測定対象ディスプレイ11の画素数である。
撮影画像としての測定対象ディスプレイ11の1つの画素(撮影画素)のX方向の大きさXd、Y方向の大きさYdの大きさを求めると、ステップS29において、生成部217は、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式を生成し、処理を終了する。
なお、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式は、例えば、図6のステップS8の処理で説明したX2をXdとし、Y2をYdとして、式(5)および式(6)に代入することによって、生成することができる。
また、表示部211は、クロスハッチによるキャリブレーション処理が終了すると、図12に示すように、観察ディスプレイ18Aに、値SADが最小となるX2、Y2、θを求めた結果を表示する。なお、図中、図11における場合と対応する部分には、同一の符号を付してあり、繰り返しになるので、その説明は省略する。
図12では、図11に示した撮影画像としてのクロスハッチ画像とともに、値SADを最小とする結果が点線で表されている。縦と横の点線で区切られる1つのブロック451のX方向の大きさがX2、Y方向の大きさがY2となっている。ブロック451のX2の大きさは、クロスハッチの1つのブロック431のX方向の大きさと同じ大きさとなっており、ブロック451のY2の大きさは、クロスハッチの1つのブロック431のY方向の大きさと同じ大きさとなっているので、クロスハッチのブロック431のX方向の大きさ、およびY方向の大きさが正確に求められたことが分かる。また、クロスハッチの1つのブロック431のX方向に平行な辺と、点線で表される1つのブロック451のX方向に平行な辺とが、平行となっており、傾き角θも正確に求められたことが分かる。
これは、クロスハッチ画像において、ブロック431の明るさと、クロスハッチの線の明るさとを大きく変えてあるので、クロスハッチのブロック431の頂点を容易に検出することができ、その結果、クロスハッチのブロック431のX方向の大きさ、Y方向の大きさ、および傾き角θを正確に求めることができるからである。
以上のようにして、データ処理装置18は、撮影されたクロスハッチ画像を用いて、傾き角θ、撮影画像上のクロスハッチの1つのブロック431の大きさ(ピッチ)X2、Y2を求める。そして、さらに、ブロック431の大きさX2、Y2を基に、撮影画像上の撮影画素(測定対象ディスプレイ11の画素)の大きさXd、Ydを求める。
このように、撮影されたクロスハッチ画像を用いて、傾き角θ、撮影画像上のクロスハッチの1つのブロック431の大きさX2、Y2を求め、さらに、ブロック431の大きさX2、Y2を基に、撮影画像上の撮影画素の大きさXd、Ydを求めることで、データ処理装置18は、撮影画像上の各撮影画素の位置および大きさを特定することができ、測定対象ディスプレイ11の画素ごとの特性を測定することができる。これにより、測定対象ディスプレイ11の特性を迅速かつより正確に測定し、評価することができる。
また、クロスハッチの1つのブロック431の大きさX2、Y2を求め、その大きさX2、Y2を基に、撮影画像上の各撮影画素の大きさを求めるようにしたので、1つの撮影画素の大きさを直接求める場合よりも、より低い倍率で撮影された撮影画像を用いて、高速カメラ12が撮影した撮影画像の軸の、測定対象ディスプレイ11の表示画面の画素を基準とした軸に対する傾き角θを補正することができる。
すなわち、1つの撮影画素の大きさを直接求める場合、高速カメラ12は、測定対象ディスプレイ11の1つの画素(の撮影画像)が、観察ディスプレイ18Aの表示画面上において、十分確認できる程度の大きさで表示されるように、測定対象ディスプレイ11の表示画面(に表示された画像)をズームして撮影する必要があるが、クロスハッチ画像を用いて、撮影画素の大きさを求める場合、高速カメラ12は、測定対象ディスプレイ11に表示された、クロスハッチの1つのブロック(の撮影画像)が、観察ディスプレイ18Aの表示画面上において、十分確認できる程度の大きさで表示されるように、測定対象ディスプレイ11の表示画面(に表示されたクロスハッチ画像)をズームして撮影すればよいので、1つの撮影画素の大きさを直接求める場合と比べて、より低い倍率(ズーム)で撮影された撮影画像を用いて、高速カメラ12が撮影した撮影画像の軸の、測定対象ディスプレイ11の表示画面の画素を基準とした軸に対する傾き角θを補正することができる。
次に、図13のフローチャートを参照して、データ処理装置18が、測定対象ディスプレイ11としてのLCDの表示画面上の1つの画素の応答特性を測定する処理である、LCDの応答特性の測定処理を説明する。この処理は、図6または図9のキャリブレーション処理が完了した後行われる。
ステップS51において、表示部311は、測定対象ディスプレイ11(LCD)に、測定の対象となる画像(測定対象画像)を表示させる。例えば、表示部311は、映像信号発生器15を制御し、映像信号発生器15に、測定対象画像を表示させるための映像信号を発生させ、発生した映像信号を測定対象ディスプレイ11に供給させる。そして、測定対象ディスプレイ11(LCD)は、映像信号発生器15から供給された映像信号を基に、測定対象ディスプレイ11の表示画面に測定対象画像を表示する。
例えば、測定対象ディスプレイ11は、測定対象画像として、1つのフィールド(1コマ)において、測定対象ディスプレイ11の表示画面上の全ての画素の値(例えば、輝度の値)が等しく、フィールドごとに測定対象ディスプレイ11の各画素の値が、変化するような測定対象画像を表示する。
測定者がデータ処理装置18を操作することによって、測定対象画像の撮影を指示すると、入力部315から撮影部312に、測定者の操作に応じて、測定対象画像の撮影を指示する入力信号が供給されるので、ステップS52において、撮影部312は、測定対象ディスプレイ11(LCD)の表示画像を高速カメラ12で撮影する。すなわち、ステップS52において、撮影部312は、入力部315からの入力信号に応じて、コントローラ17が、高速カメラ12に測定対象画像を撮影させるように、コントローラ17を制御する。そして、高速カメラ12は、コントローラ17の制御のもと、同期信号発生器16からの同期信号に同期して、測定対象ディスプレイ11の表示画像(測定対象ディスプレイ11に表示された測定対象画像)を撮影する。
例えば、高速カメラ12は、測定対象ディスプレイ11の1つの画素が、観察ディスプレイ18Aの表示画面上において、十分に認識することができる程度の倍率で、測定対象ディスプレイ11の表示画像(測定対象ディスプレイ11に表示された測定対象画像)を6000コマ/秒で撮影する。なお、高速カメラ12の位置は、キャリブレーション処理を行ったときの高速カメラ12の位置のままとされる。
このとき、拡大部314は、コントローラ17を介して、高速カメラ12のズーム率を制御し、観察ディスプレイ18A上で、測定対象ディスプレイ11に表示された画素を十分に認識できる程度の画像が得られるように、画像を拡大させる。高速カメラ12が測定対象ディスプレイ11の表示画像を撮影し、その画像を拡大することにより得られた撮影画像データは、高速カメラ12から、コントローラ17を介してデータ処理装置18に供給される。表示部311は、拡大部314から供給された撮影画像データを観察ディスプレイ18Aに供給し、表示させるので、そこには拡大された撮影画像が表示される。
測定者がデータ処理装置18を操作することによって、観察ディスプレイ18Aに表示されている撮影画像上の測定対象ディスプレイ11の画素(撮影画素)のうち、1つの撮影画素を選択するように指示すると、入力部315から選択部313には、測定者の指示に応じた入力信号が供給されるので、ステップS53において、選択部313は、入力部315から供給された入力信号に応じて、観察ディスプレイ18Aに表示されている、撮影画像としての測定対象ディスプレイ11(LCD)の画素(撮影画素)のうち、測定者によって指示された1つの画素(撮影画素)を選択する。
例えば、観察ディスプレイ18Aには、図14に示すような撮影画像が表示される。図14では、右上がりのハッチングが施されている長方形は、測定対象ディスプレイ11の表示画面上において赤く発光した領域を表しており、ハッチングが施されていない長方形は緑に発光した領域を表しており、右下がりのハッチングが施されている長方形は、青く発光した領域を表している。また、右上がりのハッチングが施されている長方形、ハッチングが施されていない長方形、および右下がりのハッチングが施されている長方形が、図中、横方向に順番に並んでおり、右上がりのハッチングが施されている長方形、ハッチングが施されていない長方形、および右上がりのハッチングが施されている長方形からなる1つの四角形が、1つの撮影画素(測定対象ディスプレイ11の画素)を表している。
また、観察ディスプレイ18Aの表示画面には、撮影された測定対象ディスプレイ11の画素の画像(撮影画素)とともに、1つの撮影画素を選択するためのカーソル501が表示されている。カーソル501は、1つの撮影画素を囲むようにして表示されるようになされており、測定者は、データ処理装置18を操作することによって、観察ディスプレイ18Aの表示画面上において、カーソル501を移動させて、観察ディスプレイ18Aに表示されている、撮影された測定対象ディスプレイ11の画素(撮影画素)から、所望の1つの画素(撮影画素)を選択する。この場合、カーソル501に囲まれている撮影画素が選択される。
図13の説明に戻り、ステップS54において、演算部316は、選択部313が選択した測定対象ディスプレイ11(LCD)の画素の色単位のデータを、撮影画像データから演算する。
例えば、撮影画像上において、図7を参照して説明した、撮影画像の中心を基準とし、X方向に平行な直線、およびY方向に平行な直線を軸とする座標系における、選択部313によって選択された撮影画素の中心の点の座標が、(XB’,YB’)で表されるとき、演算部316は、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式(値SADが最小となるX2、Y2、θを、上述した式(5)および式(6)に代入した式)を用いて、式(10)、式(11)、および式(12)をそれぞれ演算して、選択された測定対象ディスプレイ11の画素の赤(R)成分の値Pr、測定対象ディスプレイ11の画素の緑(G)成分の値Pg、および測定対象ディスプレイ11の画素の青(B)成分の値Pbをそれぞれ求めることにより、測定対象ディスプレイ11(LCD)の画素の色単位のデータを演算する。
Figure 0004835008
Figure 0004835008
Figure 0004835008
ここで、式(10)において、lr(XB’+i,YB’+j)は、撮影画像上の点(XB’+i,YB’+j)における、観察ディスプレイ18Aの画素の赤(R)成分の値を表している。また、式(10)の左側のΣは、lr(XB’+i,YB’+j)/(X2×Y2)のiを(−1/2)X2から(1/2)X2まで変えて総和をとることを表し、右側のΣは、lr(XB’+i,YB’+j)/(X2×Y2)のjを(−1/2)Y2から(1/2)Y2まで変えて総和をとることを表す。
同様に、式(11)において、lg(XB’+i,YB’+j)は、撮影画像上の点(XB’+i,YB’+j)における、観察ディスプレイ18Aの画素の緑(G)成分の値を表している。また、式(11)の左側のΣは、lg(XB’+i,YB’+j)/(X2×Y2)のiを(−1/2)X2から(1/2)X2まで変えて総和をとることを表し、右側のΣは、lg(XB’+i,YB’+j)/(X2×Y2)のjを(−1/2)Y2から(1/2)Y2まで変えて総和をとることを表す。
さらに、式(12)において、lb(XB’+i,YB’+j)は、撮影画像上の点(XB’+i,YB’+j)における、観察ディスプレイ18Aの画素の青(B)成分の値を表している。また、式(12)の左側のΣは、lb(XB’+i,YB’+j)/(X2×Y2)のiを(−1/2)X2から(1/2)X2まで変えて総和をとることを表し、右側のΣは、lb(XB’+i,YB’+j)/(X2×Y2)のjを(−1/2)Y2から(1/2)Y2まで変えて総和をとることを表す。
演算部316は、式(10)、式(11)、および式(12)をそれぞれ演算することによって、選択部313によって選択された測定対象ディスプレイ11の画素の色単位のデータを、撮影画像データから演算する。なお、演算部316は、高速カメラ12から供給された、全ての撮影画像データについて、選択された測定対象ディスプレイ11の画素の色単位のデータを演算する。演算部316は、高速カメラ12から供給された、各フィールド(コマ)間の複数のタイミングで撮影された撮影画像データについて、測定対象ディスプレイ11の選択された画素の色単位のデータを演算する。
ステップS55において、表示部311は、演算された色単位のデータを基に、観察ディスプレイ18Aに色単位のデータに基づく値を表示して、処理は終了する。これにより、観察ディスプレイ18Aには、例えば、図15に示す測定対象ディスプレイ11(LCD)の応答特性を示す値(画像)が表示される。
図15において、横軸は時間を表し、縦軸は測定対象ディスプレイ11の1つの画素の色単位の値(R、G、またはBの値)を表している。この例では、16msに8回の割合で高速カメラ12による撮影が行われている。また、曲線511乃至曲線513のそれぞれは、1つの画素の値を0からそれより大きい所定の値に切り替えたときの、その画素のRの値、Gの値、およびBの値のそれぞれの時間的変化を表している。
曲線511乃至曲線513のそれぞれの値は、値の切り替えの始めの部分(0ms)から8msまでは0のままであり、その後、徐々に増大し、切り替え後、24ms以降は、出力すべき値を維持していることが分かる。そして、R成分の変化はG、B成分の変化に比べて遅いことが分かる。
曲線521乃至曲線523のそれぞれは、1つの画素の値を所定の値から0に切り替えたときの、その画素のRの値、Gの値、およびBの値のそれぞれの時間的変化を表している。
曲線521乃至曲線523のそれぞれの値は、値の切り替えの始めの部分(0ms)から6msまでは画素の値を0に切り替える前の所定の値のままであり、その後、徐々に減少し、16msあるいは24ms以降は、曲線521乃至曲線523のそれぞれの値が0となっていることが分かる。そして、R成分の変化はG、B成分の変化に比べて速いことが分かる。
このようにして、データ処理装置18は、キャリブレーション処理により求めた、撮影画像データを測定対象ディスプレイ11の画素データに変換する式を用いて、測定対象ディスプレイ11(LCD)の画素の色単位のデータを、撮影画像データから演算する。
このように、測定対象ディスプレイ11の画素の色単位のデータを演算することによって、測定対象ディスプレイ11の画素のそれぞれについて、時間方向の特性をより短い時間を単位として測定し、評価することができる。したがって、測定対象ディスプレイ11の特性を迅速かつより正確に測定し、評価することができる。また、測定対象ディスプレイ11の画素の色単位のデータを演算することによって、例えば、所定の領域における画素ごとの輝度の値のばらつきを評価することができる。これにより、測定の対象である測定対象ディスプレイ11が、設計値通りに発光しているか否かを、測定対象ディスプレイ11の画素ごとに評価することができる。
同様に、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式を用いることで、観察ディスプレイ18Aの表示画面上における、撮影された測定対象ディスプレイ11の画素内の任意の1点(の画像を表示する観察ディスプレイ18Aの画素)の輝度の値を求めることもできるので、観察ディスプレイ18Aの表示画面上における測定対象ディスプレイ11の画素(撮影画素)内の輝度の値のばらつきを評価することができる。
さらに、測定対象ディスプレイ11が、1フィールド(1コマ)分の画像を表示している間に、測定対象ディスプレイ11の表示画面(に表示されている画像)を複数枚撮影することにより、測定対象ディスプレイ11の1つの画素の時間方向の特性を、より短い時間を単位として測定し、評価することができる。
例えば、測定対象ディスプレイ11としてのPDPを台14上に配置し、1/60秒で1フィールドの画像を表示させ、その画像を高速カメラ12に、500コマ/秒で撮影させることによって、PDPが表示した画像のサブフィールドごとの特性を測定し、評価することができる。
以下、図16のフローチャートを参照して、データ処理装置18が、測定対象ディスプレイ11としてのPDPに表示されたサブフィールドの特性を測定する処理である、PDPのサブフィールド特性の測定処理を説明する。
ステップS81において、表示部311は、測定対象ディスプレイ11(PDP)に、測定の対象となる画像(測定対象画像)を表示させる。具体的には、表示部311は、映像信号発生器15を制御し、映像信号発生器15に、測定対象画像を表示させるための映像信号を発生させ、発生した映像信号を測定対象ディスプレイ11に供給させる。そして、測定対象ディスプレイ11(PDP)は、例えば、映像信号発生器15から供給された映像信号を基に、測定対象ディスプレイ11の表示画面に、測定対象画像として、1/60秒で1フィールドの画像を表示する。
測定者がデータ処理装置18を操作することによって、測定対象画像の撮影を指示すると、入力部315から撮影部312に、測定者の操作に応じて、測定対象画像の撮影を指示する入力信号が供給されるので、ステップS82において、撮影部312は、測定対象ディスプレイ11(PDP)の表示画像を、高速カメラ12で撮影する。すなわち、ステップS82において、撮影部312は、入力部315からの入力信号に応じて、コントローラ17が、高速カメラ12に測定対象画像を撮影させるように、コントローラ17を制御する。そして、高速カメラ12は、コントローラ17の制御のもと、同期信号発生器16からの同期信号に同期して、測定対象ディスプレイ11(PDP)の表示画像(測定対象画像)を撮影し、これにより得られる撮影画像データを、コントローラ17を介してデータ処理装置18に供給する。
例えば、高速カメラ12は、測定対象ディスプレイ11(PDP)に表示された測定対象画像を500コマ/秒で撮影する。なお、高速カメラ12の位置は、キャリブレーション処理を行ったときの高速カメラ12の位置のままとされる。
例えば、測定対象ディスプレイ11に、1つのサブフィールドの周期を1/500秒とし、フィールドの周期を1/60秒として測定対象画像(例えば、人の顔の画像)を表示させ、その画像をフィールドの画像の表示と同期させて、60コマ/秒で高速カメラ12により撮影した場合、観察ディスプレイ18Aには、1つの撮影画像として、図17に示すような画像が表示される。
図17では、撮影画像として、人の顔の画像が表示されている。高速カメラ12は、測定対象ディスプレイ11に表示された画像を、1フィールドの画像の表示時間と同じ時間で(露光時間で)1コマ撮影したので、撮影画像として得られる画像は、人間の目が、測定対象ディスプレイ11を観察している場合に知覚する1フィールド分の画像と同様の画像となる。
また、図17における場合と同一の画像を、測定対象ディスプレイ11に表示させ(1/60秒で1フィールドの画像を表示させ)、その画像を、サブフィールドの画像の表示と同期させて、高速カメラ12が500コマ/秒で撮影した場合、観察ディスプレイ18Aには、1つの撮影画像として、例えば、図18に示すような画像が表示される。
図18では、撮影画像として、人の顔と思われる画像が表示されていることが分かる。高速カメラ12は、測定対象ディスプレイ11に表示された画像を、1つのサブフィールドの画像の表示時間と同じ時間で(露光時間で)1コマ撮影したので、撮影画像として得られる画像は、1つのサブフィールドの画像として、測定対象ディスプレイ11に表示される画像となる。したがって、測定対象ディスプレイ11に表示される画像を、例えば、500コマ/秒で撮影することによって、人間の目が、測定対象ディスプレイ11を観察している場合には知覚することができない、サブフィールドの画像を撮影することができ、その撮影画像を基に、測定対象ディスプレイ11のより正確な特性を測定し、評価することができる。
図16の説明に戻り、高速カメラ12が、測定対象ディスプレイ11の表示画像を撮影し、高速カメラ12からデータ処理装置18に撮影画像データが供給されると、ステップS83において、変換部317は、高速カメラ12から供給された撮影画像データを、測定対象ディスプレイ11(PDP)の画素の色単位のデータに変換する。
例えば、変換部317は、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式(値SADが最小となるX2、Y2、θを、式(5)および式(6)に代入した式)を用いて、式(10)、式(11)、および式(12)をそれぞれ演算することにより、撮影画像上の測定対象ディスプレイ11の1つの画素のRの値Pr、Gの値Pg、およびBの値Pbをそれぞれ求め、同様にして、撮影画像上の全ての測定対象ディスプレイ11のRの値Pr、Gの値Pg、およびBの値Pbを求めることによって、撮影画像データを、測定対象ディスプレイ11(PDP)の画素の色単位のデータに変換する。このとき、変換部317は、高速カメラ12から供給された全ての撮影画像データについて、上述した処理を行い、高速カメラ12から供給された全ての撮影画像データを、それぞれ測定対象ディスプレイ11(PDP)の画素の色単位のデータに変換する。
ステップS84において、演算部316は、変換部317が撮影画像データを変換することによって得られた、測定対象ディスプレイ11の画素の色単位のデータを基に、測定対象ディスプレイ11の各画面(各サブフィールドごとの撮影画像)における各色の値の平均値を演算する。
例えば、演算部316は、測定対象ディスプレイ11の画素の色単位のデータから、1つのサブフィールドの各画素のRの値を抽出し、その各画素のRの値の平均値を求める。同様に、演算部316は、そのサブフィールドの各画素のGの値、およびBの値をそれぞれ抽出し、その各画素のGの値の平均値、およびBの値の平均値をそれぞれ求める。
以下同様にして、次のサブフィールドの各画素のRの値の平均値、Gの値の平均値、およびBの値の平均値を順次求めていくことにより、全ての測定対象ディスプレイ11の画素の色単位のデータについて、各撮影画像における各色の値の平均値を演算する。
ステップS85において、表示部311は、色単位のデータに基づく値を、観察ディスプレイ18Aに表示して、処理は終了する。
これにより、観察ディスプレイ18Aには、例えば、図19に示す、色単位のデータに基づく値(の画像)が表示される。
なお、図中、横軸は、撮影された撮影画像(サブフィールドの画像)の順番を表し、縦軸は、1つのサブフィールドにおける、測定対象ディスプレイ11の画素のRの値の平均値、Gの値の平均値、またはBの値の平均値を表している。また、曲線581乃至曲線583は、それぞれ、各サブフィールドにおける、測定対象ディスプレイ11の画素のRの値の平均値、Gの値の平均値、およびBの値の平均値を表している。
図19では、1番目乃至11番目に表示されたサブフィールドの画像では、曲線581乃至曲線583の値は0であり、測定対象ディスプレイ11には、画像が表示されていないことが分かる。また、15番目乃至50番目に表示されたサブフィールドの画像では、Bの曲線583の値が、Rの曲線581およびGの曲線582の値に比べて大きく、全体的に青い色の画像が表示されていることが分かる。さらに、57番目乃至71番目に表示されたサブフィールドの画像では、Bの曲線583の値が、Rの曲線581およびGの曲線582の値に比べて小さく、全体的に黄色い画像が表示されていることが分かる。
以上のようにして、データ処理装置18は、キャリブレーション処理により求めた、撮影画像データを測定対象ディスプレイ11の画素データに変換する式を用いて、撮影画像データを、撮影された測定対象ディスプレイ11(PDP)の画素単位のデータに変換する。
このように、測定対象ディスプレイ11にサブフィールドの画像が表示されるのと同期させて、測定対象ディスプレイ11に表示されたサブフィールドの画像を撮影し、これにより得られた撮影画像データを、測定対象ディスプレイ11の画素単位のデータに変換することによって、サブフィールドを単位とする測定対象ディスプレイ11(PDP)の特性を測定し、評価することができる。
ところで、人間がディスプレイに表示されている移動物体を観察する場合に、人間の目は、その移動物体を追従(追視)しながら観察するので、LCDでは、観察している移動物体がぼけて見えることが知られている。また、PDPでは、人間がディスプレイ(PDP)に表示されている移動物体を観察する場合に、蛍光体の発光特性により、移動物体の色がにじんで見えることが知られている。
データ処理装置18では、撮影画像データを基に、人間の目が知覚する動きぼけや色のにじみを再現することができる。図20のフローチャートを参照して、データ処理装置18が、撮影画像データを基に、動きぼけを再現した画像、またはその画像の各撮影画素の値を表示する、ぼけ特性の測定処理を説明する。
ステップS101において、表示部311は、測定対象ディスプレイ11に、測定の対象となる画像(測定対象画像)を表示させる。例えば、表示部311は、映像信号発生器15を制御し、映像信号発生器15に、測定対象画像を表示させるための映像信号を発生させ、発生した映像信号を測定対象ディスプレイ11に供給させる。そして、測定対象ディスプレイ11は、映像信号発生器15から供給された映像信号を基に、測定対象ディスプレイ11の表示画面に、測定対象画像を表示する。例えば、測定対象ディスプレイ11は、測定対象画像として、測定対象ディスプレイ11の表示画面上を所定の移動物体が所定の方向に移動していく、フィールド周波数が60Hzである画像のうちの、1フィールド分の画像を表示する。
測定者がデータ処理装置18を操作することによって、測定対象画像の撮影を指示すると、入力部315から撮影部312に、測定者の操作に応じて、測定対象画像の撮影を指示する入力信号が供給されるので、ステップS102において、撮影部312は、測定対象ディスプレイ11に表示された表示画像(測定対象画像)を、高速カメラ12で撮影する。すなわち、ステップS102において、撮影部312は、入力部315からの入力信号に応じて、コントローラ17が、高速カメラ12に測定対象画像を撮影させるように、コントローラ17を制御する。そして、高速カメラ12は、コントローラ17の制御のもと、測定対象ディスプレイ11に表示された測定対象画像を撮影し、これにより得られる撮影画像データを、コントローラ17を介してデータ処理装置18に供給する。
例えば、ステップS102において、高速カメラ12は、測定対象ディスプレイ11に表示された測定対象画像を600コマ/秒で、1コマ撮影する。なお、高速カメラ12の位置は、キャリブレーション処理を行ったときの高速カメラ12の位置のままとされる。
ステップS103において、変換部317は、高速カメラ12から供給された撮影画像データを、測定対象ディスプレイ11の画素単位のデータに変換する。
例えば、変換部317は、撮影画像データを、測定対象ディスプレイ11の画素データに変換する式(値SADが最小となるX2、Y2、θを、式(5)および式(6)に代入した式)を用いて、式(10)、式(11)、および式(12)をそれぞれ演算することにより、撮影画像上の1つの測定対象ディスプレイ11の画素のRの値Pr、Gの値Pg、およびBの値Pbをそれぞれ求める。そして、変換部317は、求めた測定対象ディスプレイ11の画素のRの値Pr、Gの値Pg、およびBの値Pbを基に、式(13)を演算することにより、その画素の輝度の値を求める。
Ey=(0.3×Pr)+(0.59×Pg)+(0.11×Pb) ・・・(13)
ここで、Eyは、測定対象ディスプレイ11の画素のRの値Pr、Gの値Pg、およびBの値Pbを基に求められる測定対象ディスプレイ11の画素の輝度の値を示す。変換部317は、同様にして、撮影画像上の全ての測定対象ディスプレイ11の画素の輝度の値Eyを求めることによって、高速カメラ12から供給された撮影画像データを、測定対象ディスプレイ11の画素単位の輝度の値を示すデータに変換する。このとき、変換部317は、高速カメラ12から供給された全ての撮影画像データについて、上述した演算を行い、高速カメラ12から供給された全ての撮影画像データを、それぞれ測定対象ディスプレイ11の画素単位の輝度の値を示すデータに変換する。
ステップS104において、演算部316は、測定対象ディスプレイ11に表示されている移動物体の1フィールド当たりの動き量vx、vyを演算する。
例えば、撮影画像上において、図7を参照して説明した、撮影画像の中心を基準とし、X方向に平行な直線、およびY方向に平行な直線を軸とする座標系における、測定対象ディスプレイ11に表示されている移動物体の、1フィールド当たりのX方向の動き量をvx、移動物体のY方向の動き量をvyとすると、演算部316は、値SADが最小となるX2、Y2、θを用いて、式(14)、および式(15)を演算することによって、移動物体の動き量vx、およびvyをそれぞれ求める。
vx=(Vx×X2)+(Vy×Y2×θ/(Ly/2)) ・・・(14)
vy=(Vy×Y2)+(Vx×X2×θ/(Lx/2)) ・・・(15)
なお、ここで、VxおよびVyは、それぞれ、測定対象ディスプレイ11に表示する測定対象画像の入力画像(測定対象画像)データ上での、1フィールド当たりのX方向の動き量、およびY方向の動き量を表す。また、LxおよびLyは、それぞれ、撮影画像のX方向の大きさ(長さ)およびY方向の大きさを表す。式(14)では、傾き角θが0である場合のX方向の動き量vxの大きさVx×X2を、式(5)におけるときと同様に、傾き角θが0である場合のY方向の動き量vyの大きさVy×Y2にθ/(Ly/2)を掛け合わせることにより得られる、傾き角θに対するvxの補正量だけ補正している。また、式(15)では、傾き角θが0である場合のY方向の動き量vyの大きさVy×Y2を、式(6)におけるときと同様に、傾き角θが0である場合のX方向の動き量vxの大きさVx×X2にθ/(Lx/2)を掛け合わせることにより得られる、傾き角θに対するvyの補正量だけ補正している。
ステップS105において、正規化部318は、各画面(撮影画像)上の、測定対象ディスプレイ11に表示されている移動物体の画素の値を正規化する。
例えば、測定対象ディスプレイ11として、CRTを台14上に配置して、測定対象ディスプレイ11(CRT)に測定対象画像を表示させた場合、移動物体は、撮影画像上において、図21に示すように移動する。
図中、縦軸は上から下方向に向かう時刻を表しており、横方向の線は、各時刻における撮影画像を示している。また、1つの撮影画像上の丸は、撮影画像上における移動物体を表示する1つの画素(観察ディスプレイ18Aの画素)を表している。また、図中、右上から左下に向かう矢印は、各撮影画像上において、それぞれ対応する移動物体の位置の時間方向の変化を示している。
CRTでは、表示画面を構成する複数の水平ライン(走査線)のそれぞれに沿って、内蔵している電子銃を走査させることで、画像(画面)を表示するため、各画素には、1フィールドの時間のうち、わずかな時間しか画像が表示されない。図21では、1フィールドの画像を表示する間に、10枚の撮影画像(測定対象ディスプレイ11の表示画面の画像)が撮影されており、各フィールドの画像を撮影した撮影画像のうち、1枚目(1番目)の撮影画像(図中、1番上の撮影画像)には、移動物体が写っており、2番目乃至10番目の撮影画像には、移動物体が写っていない。
ここで、測定対象ディスプレイ11に表示されている移動物体が、図7を参照して説明した、撮影画像の中心を基準とし、X方向に平行な直線、およびY方向に平行な直線を軸とする座標系において、一定の速度で移動し、移動物体の1フィールド当たりのX方向の動き量をvx、Y方向の動き量をvy、測定対象ディスプレイ11のフィールド周波数をfd、1秒当たりに高速カメラ12が撮影した撮影画像の枚数(コマ数)をfzとすると、撮影画像1枚(コマ)当たりのX方向の移動物体の動き量Vzx、Y方向の動き量Vzyは、それぞれ式(16)、および式(17)で表される。
Vzx=vx×fd/fz ・・・(16)
Vzy=vy×fd/fz ・・・(17)
すなわち、撮影画像1枚当たりのX方向の移動物体の動き量Vzxは、移動物体の1フィールド当たりのX方向の動き量vxに、測定対象ディスプレイ11のフィールド周波数fdをかけ算することにより得られる、1秒当たりの移動物体のX方向の動き量(vx×fd)を、1秒間に高速カメラ12が撮影した撮影画像の枚数fzで割ることによって得られる。同様に、撮影画像1枚当たりのY方向の移動物体の動き量Vzyは、移動物体の1フィールド当たりのY方向の動き量vyに、測定対象ディスプレイ11のフィールド周波数fdをかけ算することにより得られる、1秒当たりの移動物体のY方向の動き量(vy×fd)を、1秒間に高速カメラ12が撮影した撮影画像の枚数fzで割ることによって得られる。
高速カメラ12が、1番始めに撮影した撮影画像を1番目の撮影画像、q番目(但しqは、2以上の整数)に撮影した撮影画像をq番目の撮影画像とすると、正規化部318は、q番目の撮影画像を、X方向にqVzx、Y方向にqVzyだけ平行移動(シフト)させて、1番目の撮影画像から順番に、各撮影画像上の、測定対象ディスプレイ11に表示されている移動物体の画素の値(例えば、輝度の値)を加算して、例えば、画素の値の最大値が255となるように正規化する(各画素の値が0乃至255の値で表現される場合、各画素の値を加算した値を、加算した回数(撮影画像の数)で割り算する)。すなわち、正規化部318は、各撮影画像を、移動物体の移動方向に空間的にずらして、撮影画像を合成する。
一方、測定対象ディスプレイ11として、LCDを台14上に配置して、測定対象ディスプレイ11(LCD)に測定対象画像を表示させた場合、移動物体は、撮影画像上において、図22に示すように移動する。
図中、縦軸は上から下方向に向かって時刻を表しており、横方向の線は、1つの撮影画像を示している。また、1つの撮影画像上の丸は、撮影画像上における移動物体を表示する1つの画素(観察ディスプレイ18Aの画素)を表している。さらに、図中、右上から左下に向かう矢印は、各撮影画像上において、それぞれ対応する移動物体の位置の時間方向の変化を示しており、vxは、移動物体の1フィールド当たりの図中、左方向の動き量を表している。
LCDでは、表示画面上の画素は、1フィールド(1コマ)の画像を表示する間、画像を表示するための所定の画素の値で発光し続ける。そして、1フィールドの画像を表示する時間が経過し、次のフィールドの画像を表示する時刻になると、表示画面上の画素は、次のフィールドの画像を表示するための画素の値で、さらにその次フィールドの画像を表示する時刻になるまで発光し続ける。すなわち、LCDでは、残像が表示される。図22では、1フィールドの画像を表示する間に、10枚(コマ)の撮影画像(測定対象ディスプレイ11の表示画面の画像)が撮影されており、撮影画像上において、移動物体は、1フィールドの画像を表示する間、同じ位置に表示され続けている。また、移動物体は、1フィールドごとに、図中、左方向にvxだけ平行移動(シフト)させた位置に表示されている。
測定対象ディスプレイ11として、LCDを用いた場合、正規化部318は、例えば、各撮影画像を、移動物体の移動方向に空間的にずらして、各撮影画像上の、測定対象ディスプレイ11に表示されている移動物体の画素の値(例えば、輝度の値)の平均値を演算し、撮影画像の平均画像を生成する。
図20のフローチャートの説明に戻り、正規化部318が、各撮影画像上の測定対象ディスプレイ11に表示されている移動物体の画素の値(例えば、輝度の値)を正規化すると、ステップS106において、判定部319は、測定対象画像の全てのフィールドを測定したか否かを判定する。
ステップS106において、測定対象画像の全てのフィールドを測定していないと判定された場合、処理はステップS101に戻り、それ以降の処理が繰り返される。
ステップS106において、測定対象画像の全てのフィールドを測定したと判定された場合、処理はステップS107に進み、表示部311は、正規化した測定対象ディスプレイ11の画素の値、または正規化した測定対象ディスプレイ11の画素の値に基づく画像データを基に、観察ディスプレイ18Aに測定対象ディスプレイ11の画素の値、または画像を表示して、処理は終了する。
図23は、測定対象ディスプレイ11としてCRTを用いた場合に、観察ディスプレイ18Aに表示される動きぼけを再現した画像の例を表す。図中、複数個の四角形からなる、中央の長方形は、測定対象ディスプレイ11としてのCRTに表示された移動物体であり、中央の長方形を構成する複数個の四角形は、それぞれ測定対象ディスプレイ11の画素(撮影画素)を表している。また、移動物体は、CRTの表示画面上において、図中、左から右方向に対応する方向に移動させたものである。
図23では、移動物体は、図中、左右方向(移動物体の移動方向)にもぼけておらず、人間の目が、RCTに表示された移動物体を観察する場合に、特に、動きぼけは生じない、すなわち、移動物体がぼけて見えないことが分かる。
これに対して図24は、図23で説明した移動物体と同一の移動物体を、測定対象ディスプレイ11としてのLCDに表示させた場合に、観察ディスプレイ18Aに表示される人間の目が知覚する動きぼけを再現した画像の例を表す。
図24において、移動物体は、ハッチングが施されていない長方形からなる領域581、右下がりのハッチングが施されている長方形からなる領域582、および右上がりのハッチングが施されている長方形からなる領域583のそれぞれからなる長方形で表されている。また、ハッチングが施されていない長方形からなる領域581は、図中、横方向に並んでいる測定対象ディスプレイ11の画素(撮影画素)が重なり合っている画像を表しており、図23における場合とは異なり、移動物体を表示する撮影画素を識別することができない。
また、図中、領域581の右側の、右下がりのハッチングが施されている長方形からなる領域582は、移動物体の右側のエッジ(移動物体と背景との境界)の部分の領域を表している。領域582の画像は、領域581の画像に比べて低い輝度で表示されており、移動物体の輪郭がぼけていることが分かる。同様に、図中、領域581の左側の、右上がりのハッチングが施されている長方形からなる領域583は、移動物体の左側のエッジ(移動物体と背景との境界)の部分の領域を表している。領域583の画像は、領域581の画像に比べて低い輝度で表示されており、移動物体の輪郭がぼけていることが分かる。
このように、図24では、移動物体が、図23に示した移動物体と比べて、図中、左右方向に、1.5倍程度に広がっており、移動物体そのもの、特に、移動物体の輪郭がぼけて見えることが分かる。
さらに、表示部311は、正規化部318から供給された、正規化された測定対象ディスプレイ11の画素の値を基に、観察ディスプレイ18Aに、図25に示すような、撮影画像上の、測定対象ディスプレイ11の画素の正規化された輝度の値を表示させることができる。
図中、縦軸は、測定対象ディスプレイ11の画素の正規化された輝度の値を表し、横軸は、所定の位置を基準とした、観察ディスプレイ18Aの画素の位置を表している。例えば、横軸の“7”は、基準となる観察ディスプレイ18Aの画素に対応する、測定対象ディスプレイ11の画素(撮影画素)から、移動物体の移動方向に数えて7番目の撮影画素の位置を表す。
また、曲線591および曲線592は、測定対象ディスプレイ11としてそれぞれ異なるLCDを用いた場合の、撮影画像上における、LCDの各画素(測定対象ディスプレイ11の画素)の輝度の値の変化をそれぞれ示し、曲線593は、測定対象ディスプレイ11として、CRTを用いた場合の、撮影画像上における、CRTの各画素(測定対象ディスプレイ11の画素)の輝度の値の変化を示している。
曲線593は、9番目の画素乃至12番目の画素まで、それぞれ隣り合う画素の輝度の値が、その境界において急激に変化しており、移動物体の輪郭がぼけていないことがわかる。また、曲線591および曲線592のそれぞれは、10番目の画素乃至17番目の画素まで、それぞれの測定対象ディスプレイ11(LCD)の画素の輝度の値が、図中、左側から右側にいくにつれて、徐々に大きくなっており、移動物体の輪郭がぼけていることが分かる。
さらに、図26は、測定対象ディスプレイ11としてPDPを用いて、PDPに移動物体を、図中、右側から左側に移動させた画像を表示させて、PDPの表示画面を撮影した撮影画像を示す図である。
図中、矢印は時刻を示し、撮影画像601−1乃至撮影画像601−8のそれぞれは、測定対象ディスプレイ11としてのPDPの表示画面を撮影した撮影画像を表し、撮影画像601−1乃至撮影画像601−8のそれぞれは、撮影画像601−1から撮影画像601−8まで、撮影された順番に並べられている。図中、撮影画像601−1乃至撮影画像601−8のそれぞれには移動物体の画像が写っており、移動物体がサブフィールドごとに、異なる色で表示されていることが分かる。なお、以下、撮影画像601−1乃至撮影画像601−8のそれぞれを、個々に区別する必要のない場合、単に撮影画像601と称する。
また、データ処理装置18が、図20のステップS103の処理乃至ステップS107の処理を行うことによって、これらの撮影画像601−1乃至撮影画像601−8のそれぞれを、移動物体の移動方向に空間的にずらして合成すると、例えば、観察ディスプレイ18Aには、図27に示すような画像が表示される。
図27に示す画像は、例えば、4フィールド分の画像を測定対象ディスプレイ11としてのPDPに表示させて、PDPの表示画面を撮影した撮影画像601を基に合成された、PDPにおける移動物体の色のにじみを再現した画像である。
図27では、画像の中央に移動物体が表示されている。移動物体の移動方向は、図中、右から左の方向であり、PDPでは青く発光する蛍光体の応答速度に比べて、赤く発光する蛍光体、および緑に発光する蛍光体の応答速度が遅いため、移動物体の図中、右側の部分の領域701、すなわち、実際には、移動物体が既に通り過ぎてしまった部分の領域は黄色く見え、移動物体の図中、左側の部分の領域702、すなわち、移動物体の移動方向の先頭の部分の領域は青く見える。
以上のようにして、データ処理装置18は、キャリブレーション処理により求めた、撮影画像データを測定対象ディスプレイ11の画素データに変換する式を用いて、撮影画像データを、撮影された測定対象ディスプレイ11の画素単位のデータに変換する。そして、データ処理装置18は、画素単位のデータを基に、各撮影画像上の、測定対象ディスプレイ11に表示されている移動物体の画素の値を正規化する。
このように、画素単位のデータを基に、各撮影画像上の、測定対象ディスプレイ11に表示されている移動物体の画素の値を正規化することによって、測定対象ディスプレイ11に表示された画像を、人間の目が知覚する画像をより正確に再現することができ、また、その過程の時系列の撮影画像を得ることもできる。さらに、測定対象ディスプレイ11に表示されている移動物体の画素の値を正規化することによって、人間の目が知覚する画像を、数値で評価することができ、これにより、人間の視覚特性では評価することができない特性を定量的に評価することができる。
なお、測定対象ディスプレイ11の特性を測定する場合、高速カメラ12が、測定対象ディスプレイ11の表示画像を撮影する撮影画像のコマ数は、少なくとも、1秒間に表示されるサブフィールドの画像の数以上の数(コマ)とする。したがって、例えば、高速カメラ12は、1秒間に、フィールド周波数の10倍程度のコマ数を撮影することが望ましい。高速カメラ12が、1つのサブフィールドの画像を複数枚撮影し、それらの撮影画像上の画素の値の平均値を用いることで、より正確な測定を行うことができる。
上述した、測定対象ディスプレイ11の表示画面を撮影した撮影画像データから、測定対象ディスプレイ11の画素単位のデータを求め、さらに、その画素単位のデータを用いて、測定対象ディスプレイ11の特性を測定する方法は、例えば、表示装置(ディスプレイ)の開発時におけるデバッグ作業、映画やアニメーションの編集作業などに適用することができる。
例えば、映画やアニメーションの編集作業時に、入力画像に対して、実際のディスプレイ(表示画面)での見え方を評価することで、動きぼけや色のにじみをより少なくするためのより高度な編集を行うことができる。また、例えば、自社の表示装置の特性と、他社の表示装置の特性とを同じ条件で測定し、それぞれの測定結果を比較することで、他社が、自社の特許技術を利用しているか否かの解析を行うことができる。
以上のように、本発明によれば、測定の対象となる表示装置に、1フィールドの期間に、測定の対象となる表示装置に表示される画像を、複数枚撮影するようにしたので、測定の対象となる表示装置の時間方向の特性を、より短い時間を単位として測定し、評価することができる。また、本発明によれば、測定の対象となる表示装置の表示画面を撮影したデータから、測定の対象となる表示装置の画素単位のデータを求めるようにしたので、測定の対象となる表示装置の特性を迅速かつより正確に測定し、評価することができる。
なお、測定システム1においては、高速カメラ12、映像信号発生器15、同期信号発生器16、およびコントローラ17のうちの任意のものが、データ処理装置18に含まれる構成としてもよい。また、測定対象ディスプレイ11の特性を測定する場合、高速カメラ12が撮影することにより得られた撮影画像データを、例えば、光ディスクや磁気ディスクなどのリムーバブルメディア131に予め記録しておき、リムーバブルメディア131から、データ処理装置18に撮影画像データを供給するようにしてもよい。
さらに、キャリブレーション処理を行うために、測定対象ディスプレイ11に表示させる基準画像は、測定対象ディスプレイ11の特性を測定するための画像の1番目のフィールドの画像として表示させ、キャリブレーション処理を行った後、2番目以降のフィールドの画像を表示して撮影し、測定対象ディスプレイ11の特性を測定するようにしてもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
この記録媒体は、図2に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)(商標)を含む)、若しくは半導体メモリなどよりなるリムーバブルメディア131により構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM122や、記憶部128に含まれるハードディスクなどで構成される。
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明を適用した測定システムの一実施の形態の構成例を示す図である。 データ処理装置の構成例を示すブロック図である。 高速カメラが撮影した画像の軸の、測定対象ディスプレイの表示画面の画素を基準とした軸に対する傾き角θを説明する図である。 データ処理装置のキャリブレーション部のソフトウェアを中心とした機能的構成を示すブロック図である。 データ処理装置の測定部のソフトウェアを中心とした機能的構成を示すブロック図である。 キャリブレーション処理を説明するフローチャートである。 キャリブレーション処理を説明するための図である。 差分絶対値和を表す値SADが最小となるX2、Y2、θを求めた結果を表示した画面の一例を示す図である。 クロスハッチによるキャリブレーション処理を説明するフローチャートである。 測定対象ディスプレイに表示されたクロスハッチ画像を説明する図である。 撮影されたクロスハッチ画像を表示した画面の一例を示す図である。 差分絶対値和を表す値SADが最小となるX2、Y2、θを求めた結果を表示した画面の一例を示す図である。 LCDの応答特性の測定処理を説明するフローチャートである。 撮影された測定対象ディスプレイの画素を表示する画面の一例を示す図である。 LCDの応答特性を示す図である。 PDPのサブフィールド特性の測定処理を説明するフローチャートである。 測定対象ディスプレイの画面を撮影した画像の一例を示す図である。 測定対象ディスプレイの画面を撮影した画像の一例を示す図である。 PDPのサブフィールド特性を説明する図である。 ぼけ特性の測定処理を説明するフローチャートである。 測定対象ディスプレイ上に表示された移動物体の移動を説明する図である。 測定対象ディスプレイ上に表示された移動物体の移動を説明する図である。 動きぼけを再現した画像の一例を示す図である。 動きぼけを再現した画像の一例を示す図である。 動きぼけを再現した画像の各画素の輝度の値の変化を説明する図である。 測定対象ディスプレイに表示されたサブフィールドを撮影した画像を説明する図である。 動きぼけを再現した画像の一例を示す図である。
符号の説明
11 測定対象ディスプレイ, 12 高速カメラ, 15 映像信号発生器, 16 同期信号発生器, 17 コントローラ, 18 データ処理装置, 121 CPU, 122 ROM, 123 RAM, 128 記憶部, 131 リムーバブルメディア, 201 キャリブレーション部, 211 表示部, 212 撮影部, 213 拡大部, 215 演算部, 216 配置部, 217 生成部, 301 測定部, 311 表示部, 312 撮影部, 313 選択部, 314 拡大部, 315 入力部, 316 演算部, 317 変換部, 318 正規化部, 319 判定部

Claims (5)

  1. 測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、前記撮影画像上の前記測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、前記第1の領域と同じ大きさの前記撮影画像上の前記第1の領域とは異なる第2の領域とについて、前記第1の領域内にある前記撮影画像の画素と、その画素の前記第1の領域内における位置と前記第2の領域内において同じ位置にある前記撮影画像の画素との輝度値の差分絶対値の和を求めることで、前記撮影画像上の前記撮影画素の大きさ、および前記第1の領域の辺と前記撮影画像上の前記撮影画素の辺とがなす角度を演算する第1の演算手段と、
    前記撮影画素の大きさおよび前記角度を用いて、前記測定対象ディスプレイを撮影して得られた前記撮影画像の画像データを、各画素の画素値が、前記測定対象ディスプレイの画素の輝度値を示す画像データに変換する変換手段と
    を備えることを特徴とする情報処理装置。
  2. 前記変換手段は、前記測定対象画像の1つのフレームを表示する表示期間よりも短い露光期間で撮影して得られた前記撮影画像の画像データを、前記測定対象ディスプレイの画素の輝度値を示す画像データに変換し、
    前記測定対象画像上における移動物体の動き量と、前記撮影画素の大きさおよび前記角度とに基づいて、前記撮影画像が撮影されてから、次の前記撮影画像が撮影されるまでの期間における、前記撮影画像上の前記移動物体の動き量Vを演算する第2の演算手段と、
    前記表示期間において、n番目に撮影された前記撮影画像をnVだけ前記移動物体の移動方向にシフトさせ、前記表示期間に撮影された、シフト後の前記撮影画像の平均画像を生成する生成手段と
    をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  3. 測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、前記撮影画像上の前記測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、前記第1の領域と同じ大きさの前記撮影画像上の前記第1の領域とは異なる第2の領域とについて、前記第1の領域内にある前記撮影画像の画素と、その画素の前記第1の領域内における位置と前記第2の領域内において同じ位置にある前記撮影画像の画素との輝度値の差分絶対値の和を求めることで、前記撮影画像上の前記撮影画素の大きさ、および前記第1の領域の辺と前記撮影画像上の前記撮影画素の辺とがなす角度を演算する演算ステップと、
    前記撮影画素の大きさおよび前記角度を用いて、前記測定対象ディスプレイを撮影して得られた前記撮影画像の画像データを、各画素の画素値が、前記測定対象ディスプレイの画素の輝度値を示す画像データに変換する変換ステップと
    を含むことを特徴とする情報処理方法。
  4. 測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、前記撮影画像上の前記測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、前記第1の領域と同じ大きさの前記撮影画像上の前記第1の領域とは異なる第2の領域とについて、前記第1の領域内にある前記撮影画像の画素と、その画素の前記第1の領域内における位置と前記第2の領域内において同じ位置にある前記撮影画像の画素との輝度値の差分絶対値の和を求めることで、前記撮影画像上の前記撮影画素の大きさ、および前記第1の領域の辺と前記撮影画像上の前記撮影画素の辺とがなす角度を演算する演算ステップと、
    前記撮影画素の大きさおよび前記角度を用いて、前記測定対象ディスプレイを撮影して得られた前記撮影画像の画像データを、各画素の画素値が、前記測定対象ディスプレイの画素の輝度値を示す画像データに変換する変換ステップと
    を含むことを特徴とする情報処理をコンピュータに実行させるプログラムが記録されている記録媒体。
  5. 測定の対象となる、測定対象画像を表示している測定対象ディスプレイを撮影して得られた撮影画像のほぼ中央の領域であって、前記撮影画像上の前記測定対象ディスプレイの画素の画像である撮影画素の大きさとほぼ同じ大きさの矩形の領域である第1の領域と、前記第1の領域と同じ大きさの前記撮影画像上の前記第1の領域とは異なる第2の領域とについて、前記第1の領域内にある前記撮影画像の画素と、その画素の前記第1の領域内における位置と前記第2の領域内において同じ位置にある前記撮影画像の画素との輝度値の差分絶対値の和を求めることで、前記撮影画像上の前記撮影画素の大きさ、および前記第1の領域の辺と前記撮影画像上の前記撮影画素の辺とがなす角度を演算する演算ステップと、
    前記撮影画素の大きさおよび前記角度を用いて、前記測定対象ディスプレイを撮影して得られた前記撮影画像の画像データを、各画素の画素値が、前記測定対象ディスプレイの画素の輝度値を示す画像データに変換する変換ステップと
    をコンピュータに実行させることを特徴とするプログラム。
JP2005061062A 2005-03-04 2005-03-04 情報処理装置および方法、記録媒体、並びにプログラム Expired - Fee Related JP4835008B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005061062A JP4835008B2 (ja) 2005-03-04 2005-03-04 情報処理装置および方法、記録媒体、並びにプログラム
US11/368,206 US7952610B2 (en) 2005-03-04 2006-03-03 Information processing apparatus, information processing method, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005061062A JP4835008B2 (ja) 2005-03-04 2005-03-04 情報処理装置および方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006243518A JP2006243518A (ja) 2006-09-14
JP4835008B2 true JP4835008B2 (ja) 2011-12-14

Family

ID=37009770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005061062A Expired - Fee Related JP4835008B2 (ja) 2005-03-04 2005-03-04 情報処理装置および方法、記録媒体、並びにプログラム

Country Status (2)

Country Link
US (1) US7952610B2 (ja)
JP (1) JP4835008B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7489336B2 (en) * 2005-06-30 2009-02-10 Hewlett-Packard Development Company, L.P. Methods and apparatus for detecting and adjusting over-scanned images
TWI366393B (en) * 2007-10-12 2012-06-11 Taiwan Tft Lcd Ass Method and apparatus of measuring image-sticking of a display device
JP5430950B2 (ja) * 2008-04-01 2014-03-05 ミツミ電機株式会社 画像表示装置
JP4548520B2 (ja) 2008-07-02 2010-09-22 ソニー株式会社 係数生成装置および方法、画像生成装置および方法、並びにプログラム
US9666157B2 (en) 2011-01-07 2017-05-30 3M Innovative Properties Company Application to measure display size
KR101729164B1 (ko) * 2015-09-03 2017-04-24 주식회사 쓰리디지뷰아시아 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법
TWI720813B (zh) * 2020-02-10 2021-03-01 商之器科技股份有限公司 醫療影像用行動裝置顯示器亮度校正系統與方法
WO2023094882A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display
WO2023094879A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04100094A (ja) * 1990-08-20 1992-04-02 Nippon Telegr & Teleph Corp <Ntt> 表示試験装置
US5351201A (en) * 1992-08-19 1994-09-27 Mtl Systems, Inc. Method and apparatus for automatic performance evaluation of electronic display devices
JPH09197999A (ja) * 1996-01-19 1997-07-31 Canon Inc 画像表示システムおよびその表示方法
JP4139485B2 (ja) * 1998-09-17 2008-08-27 シャープ株式会社 表示画像評価方法および表示画像評価システム
JP3701163B2 (ja) 2000-01-19 2005-09-28 株式会社日立製作所 動画表示特性の評価装置
JP3991677B2 (ja) * 2001-12-26 2007-10-17 コニカミノルタビジネステクノロジーズ株式会社 プロファイルを作成するプログラム、および、プロファイル作成システム
JP4286068B2 (ja) * 2003-06-03 2009-06-24 大塚電子株式会社 画面の動画質評価方法

Also Published As

Publication number Publication date
JP2006243518A (ja) 2006-09-14
US7952610B2 (en) 2011-05-31
US20060208980A1 (en) 2006-09-21

Similar Documents

Publication Publication Date Title
JP4835008B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP6569742B2 (ja) 投影システム、画像処理装置、投影方法およびプログラム
CN103002210B (zh) 图像处理装置以及图像处理方法
US20170230570A1 (en) Image processing device, photographing control method, and program
JP4165540B2 (ja) 投写画像の位置調整方法
JP2003219324A (ja) 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム
JP2005039769A (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JPWO2019026746A1 (ja) 画像処理装置および方法、撮像装置、並びにプログラム
TWI592903B (zh) Image processing device, image processing method and program
JP6702600B2 (ja) プロジェクター及びフォーカス調整方法
JP5212046B2 (ja) デジタルカメラおよび画像処理装置並びに画像処理プログラム
JP6604908B2 (ja) 画像処理装置、その制御方法、および制御プログラム
US11218662B2 (en) Image processing device, image processing method, and projection system
JP7245773B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP2019033339A (ja) 情報処理装置、投影装置、情報処理方法、及び、プログラム
KR20120048343A (ko) 파노라마 영상 제공 방법 및 장치
JP2017219566A (ja) 表示装置及び表示方法
JP2004015204A (ja) マルチプロジェクションシステム
JP7496564B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2014155000A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2020017061A (ja) 画像処理装置、画像表示装置、画像処理方法、及びプログラム
JP2012113244A (ja) 画像処理装置、画像処理方法及びプログラム
JP5634245B2 (ja) 動きベクトル検出装置及びその制御方法、プログラム
JP5558934B2 (ja) 画像処理装置、画像処理方法
JP2016139036A (ja) 表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees