JP2005250069A - Projector device and color correcting method - Google Patents

Projector device and color correcting method Download PDF

Info

Publication number
JP2005250069A
JP2005250069A JP2004059808A JP2004059808A JP2005250069A JP 2005250069 A JP2005250069 A JP 2005250069A JP 2004059808 A JP2004059808 A JP 2004059808A JP 2004059808 A JP2004059808 A JP 2004059808A JP 2005250069 A JP2005250069 A JP 2005250069A
Authority
JP
Japan
Prior art keywords
screen
image
distance
sensor
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004059808A
Other languages
Japanese (ja)
Inventor
Shiroshi Kanemitsu
史呂志 金光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Precision Inc
Original Assignee
Seiko Precision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Precision Inc filed Critical Seiko Precision Inc
Priority to JP2004059808A priority Critical patent/JP2005250069A/en
Publication of JP2005250069A publication Critical patent/JP2005250069A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector device capable of correcting the hue and gradation of a projection image according to the distance to a screen. <P>SOLUTION: Reflected light of a color image for adjustment projected on a screen 1 is photodetected by line sensors 31c and 31d of a 1st passive distance measuring instrument 30 to measure the quantities of photodetection by the line sensors 31c and 31d in a unit time. A control part 3 finds correction values (α, β, γ) by colors from the ratio (DT/D) of the measured distance D to the screen 1 and a reference distance and the ratios of the measured quantities of photodetection by the line sensors 31c and 31d to a reference value [e.g. ä(R/W)/(R<SB>T</SB>/W<SB>T</SB>)}]. Reference values of the respective colors are values set so that hues of a plurality of colors to be corrected are optimum, so while the hues of the plurality of colors to be corrected are maintained, the image can be corrected to gradation corresponding to the distance to the screen. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、スクリーン上に投影する画像の色補正を行うプロジェクタ装置及びこのプロジェクタ装置の色補正方法に関する。   The present invention relates to a projector device that performs color correction of an image projected on a screen and a color correction method for the projector device.

スクリーンに映像を拡大して映すプロジェクタ装置においては、加法混色により色表現を行うため、照明光や外光等の環境光および画像を投影するスクリーンの種別によって、表示される画像が制作者の意図したものと大きく異なってしまうことがある。このため、プレゼンテーション等の実行前に補正用の画像をスクリーン上に投影し、投影された画像の反射光をセンサで測定して画像の色補正を行うことがある。   In projector devices that magnify the image on the screen, color representation is performed by additive color mixing, so the displayed image depends on the type of screen that projects ambient light, such as illumination light and external light, and the image. It may be very different from what you did. For this reason, an image for correction may be projected on a screen before the presentation or the like is performed, and reflected light of the projected image may be measured by a sensor to perform image color correction.

特許文献1に開示された色補正方法について以下に詳述する。図15には特許文献1に開示されたプロジェクタ装置の構成が示されている。このプロジェクタ装置100の色補正の手順について図16に示されたフローチャートを参照しながら説明する。まず、キャリブレーション信号発生部105は、R,G,B,Wのうちのどの色の色変換用キャリブレーション画像を表示するのかを決定し(ステップS101)、決定した色の最高階調の画像が表示されるようにキャリブレーション信号(R2,G2,B2のいずれか1つまたは複数)を出力する。   The color correction method disclosed in Patent Document 1 will be described in detail below. FIG. 15 shows the configuration of the projector apparatus disclosed in Patent Document 1. The color correction procedure of the projector apparatus 100 will be described with reference to the flowchart shown in FIG. First, the calibration signal generation unit 105 determines which color conversion calibration image of R, G, B, and W is to be displayed (step S101), and an image of the highest gradation of the determined color. A calibration signal (one or more of R2, G2, and B2) is output so that is displayed.

色変換部106は、初期値に設定された色変換用行列を用いて色変換を行い、R3,G3,B3のいずれか1つまたは複数を出力する。また、階調補正部108は、初期値に設定された1D−LUTを用いて階調補正を行いR4,G4,B4のいずれか1つまたは複数を出力する。   The color conversion unit 106 performs color conversion using the color conversion matrix set to the initial value, and outputs any one or more of R3, G3, and B3. The gradation correction unit 108 performs gradation correction using the 1D-LUT set to the initial value, and outputs any one or more of R4, G4, and B4.

そして、プロジェクタ装置100は、D/A変換部113、L/V駆動部114を介して出力されるRGB信号に基づき、色変換用キャリブレーション画像をスクリーンに投写表示する(ステップS102)。   Then, the projector device 100 projects and displays a color conversion calibration image on the screen based on the RGB signals output via the D / A conversion unit 113 and the L / V drive unit 114 (step S102).

色光センサ112は、スクリーンに投写表示された色変換用キャリブレーション画像の測色を行う(ステップS103)。色光センサからの測色情報に基づく測色データは行列生成部110に記憶される(ステップS104)。   The color light sensor 112 measures the color conversion calibration image projected and displayed on the screen (step S103). Colorimetric data based on the colorimetric information from the color light sensor is stored in the matrix generation unit 110 (step S104).

プロジェクタ装置100は、この測色処理(ステップS101〜ステップS104までの処理)をすべての色の色変換用キャリブレーション画像の測色処理が終了するまで繰り返し行う。そして、必要なすべての測定データが揃った段階で(ステップS105/YES)、行列生成部110が色変換用データの一種である色変換用行列を生成し、行列記憶部107に記憶する(ステップS106)。   The projector 100 repeats this color measurement process (the process from step S101 to step S104) until the color measurement process for the color conversion calibration images for all colors is completed. Then, when all necessary measurement data has been obtained (step S105 / YES), the matrix generation unit 110 generates a color conversion matrix, which is a kind of color conversion data, and stores it in the matrix storage unit 107 (step S105). S106).

特開2003−50572号公報JP 2003-50572 A

しかしながら、特許文献1のプロジェクタ装置では、上述したステップS101〜ステップS104までの測色処理を繰り返し行い、色補正を行うすべての色(R(赤)、G(緑)、B(青)、W(白))について測色処理を行っている。従って色変換用データを作成するまでの時間がかかり過ぎるという問題を有している。   However, in the projector device disclosed in Patent Document 1, all the colors (R (red), G (green), B (blue), W, and W) for which color correction is performed by repeatedly performing the color measurement processing from step S101 to step S104 described above. (White)) is being measured. Therefore, there is a problem that it takes too much time to create the color conversion data.

また、測色処理を行うためにR(赤)、G(緑)、B(青)、W(白)の単色画像をスクリーン上にそれぞれ投影しなければならず、見た目によくないため使用者に不快感を与えてしまう。   In addition, in order to perform colorimetric processing, R (red), G (green), B (blue), and W (white) single color images must be projected on the screen, which is not good for the user. Will be uncomfortable.

また、特許文献1のプロジェクタ装置ではスクリーン上に投影した色画像の測色を行うために測色専用の色光センサを別途設けている。従って装置構成が大きくなると共に、装置にかかる費用が高くなるという問題がある。   In addition, in the projector device of Patent Document 1, a color light sensor dedicated to colorimetry is separately provided in order to perform colorimetry of a color image projected on a screen. Therefore, there is a problem that the apparatus configuration becomes large and the cost for the apparatus becomes high.

さらに特許文献1では、色光センサ112はスクリーンからの距離の影響を反映した輝度値も測定できると記載しているが、この色光センサ112により測定した距離の影響を反映した輝度値に基づく色補正について具体的に記載していない。一般に、画像の色合いが同じでも、プロジェクタとスクリーンとの距離が短いと画像が濃くスクリーンに投影され、距離が長いと淡く投影される。   Further, Patent Document 1 describes that the color light sensor 112 can also measure the luminance value reflecting the influence of the distance from the screen. However, the color correction based on the luminance value reflecting the influence of the distance measured by the color light sensor 112 is described. Is not specifically described. In general, even if the color of the image is the same, if the distance between the projector and the screen is short, the image is projected darkly on the screen, and if the distance is long, it is projected lightly.

本発明は上記事情に鑑みてなされたものであり、スクリーンまでの距離に基づく色補正が可能なプロジェクタ装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a projector device capable of color correction based on a distance to a screen.

かかる目的を達成するために請求項1記載のプロジェクタ装置は、スクリーンに投影された画像の反射光を受光するセンサを備え、前記スクリーンまでの距離を測定する測距手段と、所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが該画像の反射光を単位時間に受光した基準受光量と、前記スクリーンまでの基準距離とを記憶した記憶手段と、前記スクリーンに投影された前記画像の反射光を前記単位時間に前記センサが受光する受光量を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光量と前記基準受光量との比率とに応じて、前記画像の色合いと濃淡とを補正する制御手段と、を有することを特徴としている。   In order to achieve the above object, a projector apparatus according to claim 1 is provided with a sensor for receiving reflected light of an image projected on a screen, a distance measuring means for measuring a distance to the screen, a desired color tone and light and shade. When the image is projected onto the screen, the sensor stores the reference received light amount that the reflected light of the image is received per unit time and the reference distance to the screen, and the image is projected onto the screen. The amount of light received by the sensor for the reflected light of the image per unit time is measured, and the ratio between the distance to the screen and the reference distance at the time of measurement, and the measured amount of received light and the reference amount of received light And control means for correcting the hue and shading of the image in accordance with the ratio.

請求項1記載の発明は、測定時のスクリーンまでの距離と基準距離との比率と、測定したセンサの受光量と基準受光量との比率とに応じて、画像の色合いと濃淡とを補正している。よって、各基準値を、画像の色合いと濃淡が最適となるように設定すれば、画像の色合いと濃淡とを一度に補正することができる。   According to the first aspect of the present invention, the hue and shading of the image are corrected in accordance with the ratio of the distance to the screen at the time of measurement and the reference distance, and the ratio of the received light amount of the sensor and the reference received light amount. ing. Therefore, if each reference value is set so that the hue and shade of the image are optimal, the hue and shade of the image can be corrected at a time.

請求項2記載のプロジェクタ装置は、スクリーンに投影された画像の反射光を受光するセンサを備え、前記スクリーンまでの距離を測定する測距手段と、所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが該画像の所定量の反射光を受光するまでにかかる基準受光時間と、前記スクリーンまでの基準距離とを記憶した記憶手段と、前記スクリーンに投影された前記画像の反射光を前記センサが前記所定量受光するまでにかかる受光時間を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光時間と前記基準受光時間との比率とに応じて、前記画像の色合いと濃淡とを補正する制御手段と、を有することを特徴としている。   The projector device according to claim 2, further comprising: a sensor that receives reflected light of an image projected on a screen; and a distance measuring unit that measures a distance to the screen; and the image having a desired color and shade on the screen. Storage means for storing a reference light reception time required for the sensor to receive a predetermined amount of reflected light of the image and a reference distance to the screen when projected, and reflection of the image projected on the screen The light reception time required for the sensor to receive the predetermined amount of light is measured, the ratio of the distance to the screen at the time of measurement and the reference distance, the ratio of the measured light reception time and the reference light reception time, And a control means for correcting the hue and shading of the image.

請求項2記載の発明は、測定時のスクリーンまでの距離と基準距離との比率と、測定したセンサの受光時間と基準受光時間との比率とに応じて、画像の色合いと濃淡とを補正している。各基準値を、画像の色合いと濃淡が最適となるように設定すれば、画像の色合いと濃淡とを一度に補正することができる。   The invention according to claim 2 corrects the hue and shading of the image in accordance with the ratio between the distance to the screen at the time of measurement and the reference distance, and the ratio between the light reception time of the measured sensor and the reference light reception time. ing. If each reference value is set so that the hue and shade of the image are optimal, the hue and shade of the image can be corrected at once.

請求項3記載のプロジェクタ装置は、請求項1または2記載のプロジュクタ装置において、前記画像は補正するすべての色画像を含むことを特徴としている。   According to a third aspect of the present invention, in the projector device according to the first or second aspect, the image includes all color images to be corrected.

請求項3記載の発明は、補正する全ての色画像を含んだ画像をスクリーンに投影している。従って、色補正のための測定を一度で行うことができ、色補正にかかる時間を短縮させることができる。   According to the third aspect of the present invention, an image including all color images to be corrected is projected on the screen. Therefore, measurement for color correction can be performed at once, and the time required for color correction can be shortened.

請求項4記載の色補正方法は、画像をスクリーンに投影し、該画像の反射光をセンサで受光して前記スクリーンまでの距離を測定するステップと、所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが単位時間に該画像の反射光を受光する基準受光量と、前記スクリーンまでの基準距離とを記憶するステップと、前記スクリーンに投影された前記画像の反射光を前記センサが単位時間に受光する受光量を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光量と前記基準受光量との比率とに応じて、前記画像の色合いと濃淡とを補正するステップと、を有することを特徴としている。   5. The color correction method according to claim 4, wherein the image is projected onto a screen, the reflected light of the image is received by a sensor and the distance to the screen is measured, and the image having a desired color and shade is displayed on the screen. Storing a reference received light amount that the sensor receives reflected light of the image per unit time and a reference distance to the screen when projected onto the screen, and reflected light of the image projected on the screen The amount of light received by the sensor per unit time is measured, and the image is determined according to the ratio between the distance to the screen and the reference distance at the time of measurement, and the ratio between the measured amount of received light and the reference amount of received light. And a step of correcting the hue and shading.

請求項4記載の発明は、測定時のスクリーンまでの距離と基準距離との比率と、測定したセンサの受光量と基準受光量との比率とに応じて、画像の色合いと濃淡とを補正している。各基準値を、画像の色合いと濃淡が最適となるように設定すれば、画像の色合いと濃淡とを一度に補正することができる。   The invention according to claim 4 corrects the hue and shading of the image according to the ratio of the distance to the screen at the time of measurement and the reference distance, and the ratio of the received light amount of the measured sensor to the reference light reception amount. ing. If each reference value is set so that the hue and shade of the image are optimal, the hue and shade of the image can be corrected at once.

請求項5記載の色補正方法は、画像をスクリーンに投影し、該画像の反射光をセンサで受光して前記スクリーンまでの距離を測定するステップと、所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが該画像の所定量の反射光を受光するまでにかかる基準受光時間と、前記スクリーンまでの基準距離とを記憶するステップと、前記センサが前記スクリーンに投影された前記画像の前記所定量の反射光を受光するまでにかかる受光時間を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光時間と前記基準受光時間との比率とに応じて、前記画像の色合いと濃淡とを補正するステップと、を有することを特徴としている。   6. The color correction method according to claim 5, wherein the image is projected onto a screen, the reflected light of the image is received by a sensor and the distance to the screen is measured, and the image having a desired color and shade is displayed on the screen. Storing a reference light receiving time required for the sensor to receive a predetermined amount of reflected light of the image and a reference distance to the screen, and when the sensor is projected onto the screen. Measure the light reception time required to receive the predetermined amount of reflected light of the image, the ratio of the distance to the screen at the time of measurement and the reference distance, the ratio of the measured light reception time and the reference light reception time And a step of correcting the hue and shading of the image according to the above.

請求項5記載の発明は、測定時のスクリーンまでの距離と基準距離との比率と、測定したセンサの受光時間と基準受講時間との比率とに応じて、画像の色合いと濃淡とを補正している。各基準値を、画像の色合いと濃淡が最適となるように設定すれば、画像の色合いと濃淡とを一度に補正することができる。   The invention according to claim 5 corrects the hue and shading of the image in accordance with the ratio between the distance to the screen at the time of measurement and the reference distance and the ratio between the measured light receiving time of the sensor and the reference attendance time. ing. If each reference value is set so that the hue and shade of the image are optimal, the hue and shade of the image can be corrected at once.

本発明は、スクリーンまでの距離に応じて投影画像の色合いと濃淡とを一度に補正することができる。   The present invention can correct the hue and shading of a projected image at a time according to the distance to the screen.

次に、添付図面を参照しながら本発明の最良の実施例を説明する。   Next, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

まず、図1を参照しながら本実施例のプロジェクタ装置2の構成について説明する。図1に示されるように本実施例のプロジェクタ装置2は、投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光して、投影画像の焦点位置を判定するためのコントラスト値を算出する自動焦点検出装置20と、プロジェクタ装置2からスクリーン1までの距離をスクリーン1の左右方向(水平方向)の複数ポイントで測距する第1パッシブ測距装置30と、同じくプロジェクタ装置2からスクリーン1までの距離をスクリーン1の上下方向(垂直方向)の複数ポイントで測距する第2パッシブ測距装置40と、図示しないパーソナルコンピュータ等の機器から画像を入力して、スクリーン1に投影する表示データを出力する投影画像生成部5と、投影レンズ光学系8へ表示データを出力する表示駆動部6と、表示駆動部6により出力された表示データをスクリーン1上に投影する投影レンズ光学系8と、投影レンズ光学系8の焦点距離を変更するために、光軸に沿って投影レンズ光学系8を移動させるステッピングモータ等からなる光学系駆動部7と、プロジェクタ装置2の構成に必要なデータや命令を記憶したメモリ部4と、これら各部を制御する制御部3とを有している。   First, the configuration of the projector device 2 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the projector device 2 of the present embodiment receives the reflected light of the image projected on the screen 1 by the projection lens optical system 8 and determines the contrast value for determining the focal position of the projected image. An automatic focus detection device 20 that calculates the distance, a first passive distance measuring device 30 that measures the distance from the projector device 2 to the screen 1 at a plurality of points in the left-right direction (horizontal direction) of the screen 1, and the projector device 2 An image is input from the second passive distance measuring device 40 that measures the distance to the screen 1 at a plurality of points in the vertical direction (vertical direction) of the screen 1 and a device such as a personal computer (not shown) and projected onto the screen 1. A projection image generation unit 5 that outputs display data, a display drive unit 6 that outputs display data to the projection lens optical system 8, and a display drive unit A projection lens optical system 8 that projects the display data output by the screen 1 onto the screen 1, and a stepping motor that moves the projection lens optical system 8 along the optical axis in order to change the focal length of the projection lens optical system 8 The optical system drive part 7 which consists of this, the memory part 4 which memorize | stored the data and command which are required for the structure of the projector apparatus 2, and the control part 3 which controls these parts.

自動焦点検出装置20は、投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光する受光センサ21と、受光センサ21から出力される電気信号に演算を行い、画像のコントラスト値を算出する演算部22とを有している。本実施例では、受光センサ21としてCCDラインセンサを適用している。   The automatic focus detection device 20 receives the reflected light of the image projected on the screen 1 by the projection lens optical system 8 and the electric signal output from the light reception sensor 21 to calculate the contrast value of the image. And an arithmetic unit 22 for calculating In this embodiment, a CCD line sensor is applied as the light receiving sensor 21.

図2を参照しながら自動焦点検出装置20の演算部22の構成について説明する。図2に示されるように演算部22には、受光センサ21から入力した電気信号の高周波成分を取り出す高域通過フィルタ(HPF)22aと、高周波成分だけとなった輝度信号の振幅検波を行なう検波器22bと、検波器22bの検波出力をA/D変換し、ディジタル信号に変換するA/D変換器22cと、A/D変換器22cから出力されるディジタル信号を積分する積分器22dとを有している。積分器22dからは図3に示すような画像信号のコントラスト値が出力される。   The configuration of the calculation unit 22 of the automatic focus detection apparatus 20 will be described with reference to FIG. As shown in FIG. 2, the calculation unit 22 includes a high-pass filter (HPF) 22 a that extracts a high-frequency component of the electric signal input from the light receiving sensor 21, and detection that performs amplitude detection of the luminance signal that is only the high-frequency component. A detector 22b, an A / D converter 22c for A / D converting the detection output of the detector 22b and converting it into a digital signal, and an integrator 22d for integrating the digital signal output from the A / D converter 22c. Have. The integrator 22d outputs the contrast value of the image signal as shown in FIG.

画像信号の高周波成分に現れるコントラスト値は、図3に示されるように合焦位置でコントラスト値が最大となり、合焦位置から外れるに従ってコントラスト値が減少していくという特性を有している。この特性を利用して、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める(以下、この方法を山登りオートフォーカスと呼ぶ)。   As shown in FIG. 3, the contrast value appearing in the high-frequency component of the image signal has a characteristic that the contrast value is maximized at the in-focus position and decreases as the position deviates from the in-focus position. Using this characteristic, the position (focus position) of the projection lens optical system 8 when an image photographed by the projection lens optical system 8 forms an image on the screen 1 is obtained (hereinafter, this method is hill-climbed and autofocused). Called).

次に、第1パッシブ測距装置30及び第2パッシブ測距装置40の構成について説明する。図4には、図1に示したプロジェクタ装置2を正面から見た構成図が示されている。プロジェクタ装置2の正面には投影レンズが設けられている。投影レンズは投影レンズ光学系(コンデンサレンズを含んでいてもよい)8に含まれ、投影レンズを介してスクリーン1上へ画像を投影する。   Next, the configuration of the first passive distance measuring device 30 and the second passive distance measuring device 40 will be described. FIG. 4 shows a configuration diagram of the projector device 2 shown in FIG. 1 as viewed from the front. A projection lens is provided in front of the projector device 2. The projection lens is included in a projection lens optical system (which may include a condenser lens) 8 and projects an image onto the screen 1 via the projection lens.

図4に示されるように第1パッシブ測距装置30は、プロジェクタ装置2の正面を構成する平面上で、水平方向に基線長aだけ離間して配置された一対のレンズ31a及び31bを備えた撮像部31を有している。同様に第2パッシブ測距装置40は、プロジェクタ装置2の正面を構成する平面上で、垂直方向に基線長bだけ離間して配置された一対のレンズ41a及び41bを備えた撮像部41を有している。第1パッシブ測距装置30は、図5(A)に示すように第1基準方向(プロジェクタ装置2の水平方向)に対するスクリーン1の傾斜角度θ1を算出するために、スクリーン1の水平方向の複数の測距位置までの距離を測距する。第2パッシブ測距装置40は、図5(B)に示すように第2基準方向(プロジェクタ装置2の垂直方向)に対するスクリーン1の傾斜角度θ2を算出するために、スクリーン1の垂直方向の複数の測距位置までの距離を測距する。なお、図5(A)には、プロジェクタ装置2及びスクリーン1を上から見た上面図が示され、図5(B)には、プロジェクタ装置2及びスクリーン1を側方から見た側面図が示されている。また、本実施例では、図4に示されるように撮像部31の基線長aに平行する方向をプロジェクタ装置2の第1基準方向と呼ぶ。また、撮像部41の基線長bに平行する方向をプロジェクタ装置2の第2基準方向と呼ぶ。   As shown in FIG. 4, the first passive distance measuring device 30 includes a pair of lenses 31 a and 31 b that are spaced apart by a base line length a in the horizontal direction on the plane that forms the front of the projector device 2. An imaging unit 31 is provided. Similarly, the second passive distance measuring device 40 includes an image pickup unit 41 including a pair of lenses 41a and 41b arranged on the plane constituting the front surface of the projector device 2 and spaced apart by the base line length b in the vertical direction. doing. As shown in FIG. 5A, the first passive distance measuring device 30 calculates a tilt angle θ1 of the screen 1 with respect to the first reference direction (the horizontal direction of the projector device 2). Measure the distance to the distance measuring position. As shown in FIG. 5B, the second passive distance measuring device 40 calculates a plurality of vertical angles of the screen 1 in order to calculate the inclination angle θ2 of the screen 1 with respect to the second reference direction (the vertical direction of the projector device 2). Measure the distance to the distance measuring position. 5A shows a top view of the projector device 2 and the screen 1 as viewed from above, and FIG. 5B shows a side view of the projector device 2 and the screen 1 as viewed from the side. It is shown. In the present embodiment, as shown in FIG. 4, a direction parallel to the base line length a of the imaging unit 31 is referred to as a first reference direction of the projector device 2. A direction parallel to the base line length b of the imaging unit 41 is referred to as a second reference direction of the projector device 2.

図6および図7を参照しながら撮像部31の構成について説明する。外部から入射した光を受光するレンズ31aの下には、焦点距離fだけ離間してラインセンサ31cを配置している。またレンズ31bの下には、焦点距離fだけ離間してラインセンサ31dを配置されている。これらのラインセンサ31c,31dは、直線状に配列された複数の光検出素子を有する一対のラインCCDまたはその他のライン型撮像素子からなる。ラインセンサ31c,31dの構成を図7に示す。図7に示すラインセンサ31c,31dは、一対のラインセンサにより複数方向の距離を検出することが可能となる。図7に示すように、ラインセンサ31c、31dを複数に分割し、測距方向に応じて基準位置を複数設定することにより、1つの測距装置で複数方向の距離を検出することができる。すなわち、図7に示すようにラインセンサ31c中に複数の測距方向(本例ではR(右)、C(中央)、L(左)とする)に基づく複数の基準位置に応じた複数の測距演算領域(31cR、31cC、31cL)を設ける。同様にラインセンサ31d中に複数の測距方向(R、C、L)に基づく複数の基準位置に応じた複数の測距演算領域(31dR、31dC、31dL)を設ける。そして、測距方向で対応する1対の測距演算領域(31cRと31dR、31cCと31dC、31cLと31dL)中の部分映像データを使用して基準位置からのずれ量を求めることができる。   The configuration of the imaging unit 31 will be described with reference to FIGS. 6 and 7. A line sensor 31c is arranged below the lens 31a that receives light incident from the outside, separated by a focal length f. A line sensor 31d is disposed below the lens 31b by a focal distance f. These line sensors 31c and 31d are composed of a pair of line CCDs having a plurality of photodetecting elements arranged in a straight line or other line type image pickup elements. The configuration of the line sensors 31c and 31d is shown in FIG. The line sensors 31c and 31d shown in FIG. 7 can detect distances in a plurality of directions by a pair of line sensors. As shown in FIG. 7, by dividing the line sensors 31c and 31d into a plurality and setting a plurality of reference positions according to the distance measuring direction, it is possible to detect distances in a plurality of directions with one distance measuring device. That is, as shown in FIG. 7, the line sensor 31c includes a plurality of distance measurement directions corresponding to a plurality of reference positions based on a plurality of distance measuring directions (in this example, R (right), C (center), and L (left)). Distance calculation calculation areas (31cR, 31cC, 31cL) are provided. Similarly, a plurality of ranging calculation areas (31dR, 31dC, 31dL) corresponding to a plurality of reference positions based on a plurality of ranging directions (R, C, L) are provided in the line sensor 31d. Then, the amount of deviation from the reference position can be obtained by using partial video data in a pair of distance measurement calculation areas (31cR and 31dR, 31cC and 31dC, 31cL and 31dL) corresponding to the distance measurement direction.

撮像部31は、レンズ31a及び31bを介してラインセンサ31c及び31d上に結像した画像について、図示しない出力部を介して画像の光量に応じた電気信号を直列的に出力する。なお、撮像部41の構成は撮像部31と同様であるため説明を省略する。   For the image formed on the line sensors 31c and 31d via the lenses 31a and 31b, the imaging unit 31 serially outputs an electrical signal corresponding to the light amount of the image via an output unit (not shown). Note that the configuration of the imaging unit 41 is the same as that of the imaging unit 31, and thus the description thereof is omitted.

演算部32は、ラインセンサ31c,31dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算する。演算部42も同様にラインセンサ41c,41dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算し、この相関値に基づいて測定対象までの距離を演算する。   The calculation unit 32 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the line sensors 31c and 31d over a predetermined shift range. Similarly, the calculation unit 42 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the line sensors 41c and 41d over a predetermined shift range, and calculates the correlation value. Based on this, the distance to the measurement object is calculated.

制御部3は、出力される投影画像のコントラスト値を自動焦点検出装置20から受け取って、投影レンズ光学系8の焦点がスクリーンに合う位置(合焦位置)を特定する。また、第1パッシブ測距装置30、第2パッシブ測距装置40の測距結果に基づき、投影画像の色合いと濃淡とが最適な値となるように色補正を行う。また、第1パッシブ測距装置30の測距演算結果に基づき、プロジェクタ装置2の第1基準方向に対するスクリーン1の傾斜角度を算出する。同様に第2パッシブ測距装置40の測距演算結果に基づき、プロジェクタ装置2の第2基準方向に対するスクリーン1の傾斜角度を算出する。これらの傾斜角度情報を基に台形歪みの形状を求め、スクリーン1に投影された画像とは逆の台形歪みを発生するための制御信号を投影画像生成部5に通知する。   The control unit 3 receives the contrast value of the output projection image from the automatic focus detection device 20 and specifies the position (focus position) where the projection lens optical system 8 is focused on the screen. Further, based on the distance measurement results of the first passive distance measuring device 30 and the second passive distance measuring device 40, color correction is performed so that the hue and shading of the projected image become optimum values. Further, the tilt angle of the screen 1 with respect to the first reference direction of the projector device 2 is calculated based on the distance calculation result of the first passive distance measuring device 30. Similarly, the tilt angle of the screen 1 with respect to the second reference direction of the projector device 2 is calculated based on the distance calculation result of the second passive distance measuring device 40. Based on the tilt angle information, the shape of the trapezoidal distortion is obtained, and a control signal for generating a trapezoidal distortion opposite to the image projected on the screen 1 is notified to the projected image generation unit 5.

投影画像生成部5は、外部のパソコン等の画像データ出力部から出力される画像データを入力し、入力した画像データを表示用データに変換して表示駆動部6に出力する。   The projection image generation unit 5 receives image data output from an image data output unit such as an external personal computer, converts the input image data into display data, and outputs the display data to the display drive unit 6.

表示駆動部6は、画像歪み補正部として機能し、制御部3が算出した第1基準方向および第2基準方向に対する傾斜角に基づき、不図示の投影レンズとしてのコンデンサレンズを含む投影レンズ光学系8を調整して、投影画像の台形歪みを補正する。また、表示駆動部6は、不図示の投影レンズのピント調整を自動的に行うオートフォーカス手段として機能する。投影レンズ光学系8は、所定の映像光をスクリーン1上に投影する。   The display drive unit 6 functions as an image distortion correction unit, and based on the tilt angles with respect to the first reference direction and the second reference direction calculated by the control unit 3, a projection lens optical system including a condenser lens as a projection lens (not shown) 8 is adjusted to correct the trapezoidal distortion of the projected image. The display driving unit 6 functions as an autofocus unit that automatically adjusts the focus of a projection lens (not shown). The projection lens optical system 8 projects predetermined image light on the screen 1.

次に、図6を参照しながら第1パッシブ測距装置(外光三角測距方式)30の動作原理を説明する。図6は、第1パッシブ測距装置30によりスクリーン1までの距離を測距する様子を示した図である。なお、第2パッシブ測距装置40の動作原理も第1パッシブ測距装置30と同様であるため説明を省略する。   Next, the operation principle of the first passive distance measuring device (external light triangular distance measuring method) 30 will be described with reference to FIG. FIG. 6 is a diagram showing how the first passive distance measuring device 30 measures the distance to the screen 1. The operation principle of the second passive distance measuring device 40 is the same as that of the first passive distance measuring device 30, and thus the description thereof is omitted.

図6(A)において、一対のレンズ31a及び31bが、プロジェクタ装置2の正面を構成する平面上に水平方向に延びた所定の基線長aだけ離間して配置されている。プロジェクタ装置2の正面を構成する平面の下には、これら一対のレンズ31a及び31bからそれらの焦点距離fだけそれぞれ離間して、基線長a方向に延びた一対のラインセンサ31c及び31dが配置されている。ラインセンサ31c及び31dは、その中央部分がそれぞれレンズ31a及び31bの光軸31ax及び31bx上にほぼ位置するように配置されている。これらラインセンサ31c及び31d上に、それぞれ対応するレンズ31a及び31bを介して距離測定(測距)対象のスクリーン1上のある位置の画像Tが結像される。図6(A)においては、スクリーン1上の測定位置Tが、異なる方向の光路A及びBを通って、それぞれのレンズ31a及び31bを介して、ラインセンサ31c及び31d上に結像されている。   6A, a pair of lenses 31a and 31b are arranged apart from each other by a predetermined baseline length a extending in the horizontal direction on a plane constituting the front surface of the projector device 2. A pair of line sensors 31c and 31d extending in the direction of the baseline length a and spaced apart from the pair of lenses 31a and 31b by their focal lengths f are arranged below the plane constituting the front surface of the projector device 2. ing. The line sensors 31c and 31d are arranged so that the central portions thereof are substantially located on the optical axes 31ax and 31bx of the lenses 31a and 31b, respectively. On these line sensors 31c and 31d, an image T at a certain position on the screen 1 for distance measurement (ranging) is formed via the corresponding lenses 31a and 31b. In FIG. 6A, the measurement position T on the screen 1 is imaged on the line sensors 31c and 31d through the optical paths A and B in different directions and through the respective lenses 31a and 31b. .

測定位置Tが無限遠の位置に存在すると仮定した場合、一対のレンズ31a及び31bから焦点距離fにあるラインセンサ31c及び31d上には、測定位置Tがレンズ31a及び31bのそれぞれの光軸31ax及び31bxと交差する基準位置31cx及び31dxに結像されることになる。ここで測定位置Tが無限遠位置からレンズ31aの光軸31ax上の方向Aに沿って近づき、図6(A)に示す位置、すなわち、レンズ31aからスクリーン1までの距離LCに達すると、測定位置Tはラインセンサ31c上においては、基準位置31cx上に結像されたままであるが、ラインセンサ31d上においては、レンズ31bにより基準位置31dxから位相差(ずれ量)αだけずれた位置に結像される。   Assuming that the measurement position T exists at an infinite position, the measurement position T is located on the line sensors 31c and 31d at the focal length f from the pair of lenses 31a and 31b, and the optical axes 31ax of the lenses 31a and 31b. And 31bx are imaged at reference positions 31cx and 31dx. Here, when the measurement position T approaches from the infinity position along the direction A on the optical axis 31ax of the lens 31a and reaches the position shown in FIG. 6A, that is, the distance LC from the lens 31a to the screen 1, the measurement is performed. The position T remains imaged on the reference position 31cx on the line sensor 31c, but on the line sensor 31d, the position T is connected to a position shifted by a phase difference (shift amount) α from the reference position 31dx by the lens 31b. Imaged.

このとき、三角測距の原理から測定位置Tまでの距離LCは、LC=af/αで求められる。ここで、基線長aと焦点距離fは予め知られている既知の値であり、ラインセンサ31d上の基準位置31dxからの位相差(ずれ量)αを検出すれば、距離LCを測定できる。すなわち、スクリーン1までの距離を検出できる。これが外光三角測距のパッシブ型ラインセンサ測距装置の動作原理である。位相差(ずれ量)αの検出及びLC=af/αの演算は、図1で示した演算部32で実行される。   At this time, the distance LC from the principle of triangulation to the measurement position T is obtained by LC = af / α. Here, the base line length a and the focal length f are known values known in advance, and the distance LC can be measured by detecting the phase difference (shift amount) α from the reference position 31dx on the line sensor 31d. That is, the distance to the screen 1 can be detected. This is the operating principle of a passive line sensor distance measuring device for external light triangulation. The detection of the phase difference (shift amount) α and the calculation of LC = af / α are executed by the calculation unit 32 shown in FIG.

ラインセンサ31dの基準位置31dxからの位相差(ずれ量)αの検出は、一対のラインセンサ31c及び31dから出力される一対の画像データ信号列IL及びIRからそれぞれ抽出した部分画像データ群iLm及びiRnについて、演算部32が相関演算を行なうことにより検出する。   Detection of the phase difference (shift amount) α from the reference position 31dx of the line sensor 31d is performed by detecting the partial image data group iLm extracted from the pair of image data signal sequences IL and IR output from the pair of line sensors 31c and 31d, respectively. iRn is detected by the calculation unit 32 performing a correlation calculation.

相関演算は、図6(B)に示すように、部分画像データ群iLm及びiRnを互いに重ねた時に最も一致度が高くなる領域を求める演算である。演算方法は、重ね合わせる部分画像データ群iLm及びiRnをラインセンサ31c及び31d上で相対的にずらしながら検出していく。図6(B)においては、一方のラインセンサ31cからの部分画像データ群iLmを基準位置31cxに位置を固定して、基準部として使用する。他方のラインセンサ31dからの部分画像データ群iRnは参照部として位置を一画素ずつずらして行き、基準部と最も一致度の高い部分画像データ群iRnを探す。最も一致度の高い部分画像データ群iRnを発生するラインセンサ31d上の位置とそのラインセンサ31dの基準位置31dxとの間の間隔が位相差(ずれ量)αである。   As shown in FIG. 6B, the correlation calculation is an operation for obtaining a region having the highest matching degree when the partial image data groups iLm and iRn are overlapped with each other. In the calculation method, the partial image data groups iLm and iRn to be superimposed are detected while being relatively shifted on the line sensors 31c and 31d. In FIG. 6B, the position of the partial image data group iLm from one line sensor 31c is fixed to the reference position 31cx and used as the reference portion. The partial image data group iRn from the other line sensor 31d is shifted one pixel at a time as a reference portion, and the partial image data group iRn having the highest degree of coincidence with the reference portion is searched. The interval between the position on the line sensor 31d that generates the partial image data group iRn having the highest degree of coincidence and the reference position 31dx of the line sensor 31d is the phase difference (deviation amount) α.

ラインセンサ31c及び31dの各々は、所定数の光検出素子(画素)を所定長の直線上に配列した一対のラインCCDで構成されているから、位相差(ずれ量)αは、部分画像データ群iRnの画像データ信号列IR内の画素位置と画素ピッチから容易に求めることができる。このようにして、レンズ31aの光軸31axと同じ方向Aにある測定位置Tまでの距離LCを、位相差(ずれ量)αを検出することにより測定できる。   Since each of the line sensors 31c and 31d is composed of a pair of line CCDs in which a predetermined number of photodetecting elements (pixels) are arranged on a straight line having a predetermined length, the phase difference (shift amount) α is the partial image data. It can be easily obtained from the pixel position and pixel pitch in the image data signal sequence IR of the group iRn. In this way, the distance LC to the measurement position T in the same direction A as the optical axis 31ax of the lens 31a can be measured by detecting the phase difference (deviation amount) α.

本実施例のプロジェクタ装置2は、画像の色合いと濃淡とをスクリーン1までの距離に応じて一度に補正できるようにしている。このため、まず本実施例では、測距用の白黒パターンの画像をスクリーン1に投影して測距演算を行い、スクリーン1までの距離を求める。   The projector device 2 according to the present embodiment is capable of correcting the hue and density of an image at a time according to the distance to the screen 1. For this reason, in this embodiment, first, an image of a black and white pattern for distance measurement is projected on the screen 1 to perform a distance measurement calculation to obtain a distance to the screen 1.

次に、図8に示す赤(以下、Rとも表記する),緑(以下、Gとも表記する),青(以下、Bとも表記する)の3原色に白(以下、Wとも表記する)の計4色を含む調整用色画像をスクリーン1に投影し、スクリーン1からの反射光をセンサで受光して、単位時間当たりの受光量であるセンサデータを求める。スクリーン1からの反射光を第1パッシブ測距装置30、第2パッシブ測距装置のラインセンサ31c、31d、41c、41d、自動焦点検出装置20の受光センサ21のいずれか1つ(以下では、説明の便宜上第1パッシブ測距装置30の一対のラインセンサ31c,31dにより受光したとして説明する)で受光する。一対のラインセンサ31c,31dから出力される電気信号に演算部32でA/D変換、フィルタ処理等の演算を行い、センサデータを求める。   Next, three primary colors of red (hereinafter also referred to as R), green (hereinafter also referred to as G), and blue (hereinafter also referred to as B) shown in FIG. 8 are white (hereinafter also referred to as W). A color image for adjustment including a total of four colors is projected onto the screen 1, and reflected light from the screen 1 is received by a sensor to obtain sensor data that is the amount of light received per unit time. The reflected light from the screen 1 is converted into any one of the first passive distance measuring device 30, the line sensors 31c, 31d, 41c, 41d of the second passive distance measuring device, and the light receiving sensor 21 of the automatic focus detecting device 20 (hereinafter, For convenience of explanation, the light is received by a pair of line sensors 31c and 31d of the first passive distance measuring device 30). The electric signal output from the pair of line sensors 31c and 31d is subjected to calculations such as A / D conversion and filter processing by the calculation unit 32 to obtain sensor data.

次に、得られたセンサデータを用いて画像の色合いと濃淡とをスクリーン1までの距離に応じた値に一度に補正する。プロジェクタ装置2のメモリ部4には、R,G,B,Wの色画像ごとに、基準となるセンサデータ(基準受光量)の値(R,G,B,W)と、基準となる距離(以下、基準距離Dと呼ぶ)とが予め記録されている。基準となるセンサデータの値(R,G,B,W)は、R,G,Bの色合いが最適な画像パターンをスクリーン1に投影した時に、ラインセンサ31c,31dが単位時間に受光する受光量をR,G,Bごとに設定した基準量を表している。基準距離Dは、例えば濃淡が最適な画像パターンをスクリーン1に投影した時のスクリーン1までの距離を表わしている。 Next, using the obtained sensor data, the hue and shading of the image are corrected at once to values corresponding to the distance to the screen 1. The memory unit 4 of the projector device 2 stores, for each of R, G, B, and W color images, values of reference sensor data (reference received light amount) (R T , G T , B T , W T ), A reference distance (hereinafter referred to as a reference distance DT ) is recorded in advance. The sensor data values (R T , G T , B T , W T ) used as the reference are the unit times of the line sensors 31c, 31d when the image pattern having the optimum R, G, B hue is projected onto the screen 1. Represents a reference amount set for each of R, G, and B. The reference distance DT represents the distance to the screen 1 when, for example, an image pattern with optimal shading is projected onto the screen 1.

スクリーン1に投影される調整用色画像は、図8に示すようにR,G,B,Wの各色画像を領域ごとに分けたものであるので、この色画像の反射光を受光するラインセンサ31c,31dも画素の位置(画素番号)によりどの画素がどの色画像の反射光を受光しているのかが判る。制御部3はセンサデータの値を画素番号によりR,G,B,Wの色ごとに分ける。   Since the color image for adjustment projected on the screen 1 is obtained by dividing each color image of R, G, B, and W into regions as shown in FIG. 8, a line sensor that receives reflected light of this color image. 31c and 31d also recognize which pixel receives reflected light of which color image by the position (pixel number) of the pixel. The control unit 3 divides the sensor data values for each of R, G, B, and W colors according to pixel numbers.

次に、以下に示す式(1)、(2)、(3)により補正値α、β、γを求める。
α=(D/D)*{(R/W)/(R/W)}・・・・・(1)
β=(D/D)*{(G/W)/(G/W)}・・・・・(2)
γ=(D/D)*{(B/W)/(B/W)}・・・・・(3)
補正値αは、測定したスクリーンまでの距離Dと基準距離Dとの比率と、測定したセンサの受光量(R/W)と基準となるセンサデータ(R/W)との比率とから求められる。補正値β、γについても同様である。
Next, correction values α, β, and γ are obtained by the following equations (1), (2), and (3).
α = (D T / D) * {(R T / W T ) / (R / W)} (1)
β = (D T / D) * {(G T / W T ) / (G / W)} (2)
γ = (D T / D) * {(B T / W T ) / (B / W)} (3)
The correction value α is a ratio between the measured distance D to the screen and the reference distance DT, and a ratio between the measured received light amount (R / W) of the sensor and reference sensor data (R T / W T ). It is requested from. The same applies to the correction values β and γ.

この式(1)、(2)、(3)を変形すると、
α*D*R/W=D*R/W・・・・・(1’)
β*D*G/W=D*G/W・・・・・(2’)
γ*D*B/W=D*B/W・・・・・(3’)
となる。
When this equation (1), (2), (3) is transformed,
α * D * R / W = D T * R T / W T (1 ′)
β * D * G / W = D T * G T / W T (2 ′)
γ * D * B / W = D T * B T / W T ····· (3 ')
It becomes.

式(1’),(2’),(3’)の右辺の(D*R/W),(D*G/W),(D*B/W)は、R,G,Bの色合いと濃淡とを考慮して最も好ましい値に設定されているので、測定した距離Dと測定したR,G,Bのセンサデータの値とからα,β,γの値を求め、測定して得られたR,G,BをαR,βG,γBに調整することでR,G,Bの色合い(R,G,Bの色のバランス)を保ちつつ、距離に応じた濃淡に調整することができる。 (D T * R T / W T ), (D T * G T / W T ), (D T * B T / W T ) on the right side of the expressions (1 ′), (2 ′), and (3 ′) Is set to the most preferable value in consideration of the shades and shades of R, G, and B. Therefore, α, β, and γ are determined from the measured distance D and the values of the measured R, G, and B sensor data. The distance of R, G, B is maintained by adjusting R, G, B obtained by measuring to R, G, B to αR, βG, γB while maintaining the R, G, B color balance (R, G, B color balance). It can be adjusted to light and shade according to.

このように本実施例は、投影画像の色合いと濃淡とをスクリーン1までの距離に応じて一度に補正することができる。また、投影画像の色合いと濃淡との補正に、スクリーン1までの距離を測定するパッシブ測距装置の出力を使用するので、構成を簡略化することができる。   As described above, according to the present exemplary embodiment, it is possible to correct the color tone and shading of the projected image at a time according to the distance to the screen 1. Further, since the output of the passive distance measuring device that measures the distance to the screen 1 is used for correcting the hue and shading of the projected image, the configuration can be simplified.

次に、図9に示すフローチャートを参照しながら本実施例の処理手順を説明する。まず、プロジェクタ装置の電源がオンされると、投影画像の焦点をスクリーン1に合わせるためのオートフォーカスを行う(ステップS1)。このオートフォーカスの手順については後ほど詳述する。次に、測距用の白黒パターンの画像をスクリーン1に投影してスクリーン1までの距離を求め、スクリーン1の傾斜角度を演算して台形歪みを補正する(ステップS2)。この処理についても後ほど詳述する。   Next, the processing procedure of the present embodiment will be described with reference to the flowchart shown in FIG. First, when the power supply of the projector apparatus is turned on, autofocus for focusing the projected image on the screen 1 is performed (step S1). The autofocus procedure will be described in detail later. Next, a black and white pattern image for distance measurement is projected onto the screen 1 to obtain the distance to the screen 1, and the tilt angle of the screen 1 is calculated to correct the trapezoidal distortion (step S2). This process will also be described in detail later.

次に、調整用の色画像をスクリーン1に投影する(ステップS3)。調整用の色画像には、図8に示すようにR,G,B,Wの4色が含まれている。この調整用色画像のスクリーン1からの反射光を第1パッシブ測距装置30で受光して、演算部32でA/D変換、フィルタ処理等の演算を行いセンサデータを出力する。センサデータは、ラインセンサ31c,31dで単位時間当たりに受光した反射光量に応じたデータとなる。センサデータは一端メモリ部4に記憶される(ステップS4)。   Next, a color image for adjustment is projected on the screen 1 (step S3). The color image for adjustment includes four colors of R, G, B, and W as shown in FIG. The reflected light of the color image for adjustment from the screen 1 is received by the first passive distance measuring device 30, and the calculation unit 32 performs calculations such as A / D conversion and filter processing to output sensor data. The sensor data is data corresponding to the amount of reflected light received per unit time by the line sensors 31c and 31d. The sensor data is stored in the memory unit 4 (step S4).

制御部3は、メモリ部4に蓄積したセンサデータを用いて投影画像の色補正と濃淡補正とを行う(ステップS5)。プロジェクタ装置2には、R,G,B,Wの色画像ごとの基準となるセンサデータの値(R,G,B,W)と、基準距離Dとが予め記録されている。 The control unit 3 performs color correction and shading correction of the projected image using the sensor data stored in the memory unit 4 (step S5). In the projector device 2, sensor data values (R T , G T , B T , W T ) serving as a reference for each of R, G, B, W color images and a reference distance D T are recorded in advance. Yes.

制御部3は、ステップS2で測距したスクリーンまでの距離データDと、W,R,G,Bのセンサデータとを用いて上述した式(1’)、(2’)、(3’)により補正値α、β、γの値を求める。求めたα、β、γによりR,G,BをαR,βG,γBに調整することでR,G,Bの色合いを保ちつつ、距離に応じた濃淡に調整することができる。   The control unit 3 uses the distance data D to the screen measured in step S2 and the W, R, G, B sensor data, and the equations (1 ′), (2 ′), (3 ′) described above. Thus, the correction values α, β, and γ are obtained. By adjusting R, G, and B to αR, βG, and γB based on the obtained α, β, and γ, it is possible to adjust the shade according to the distance while maintaining the hue of R, G, and B.

次に、図10に示すフローチャートを参照しながらオートフォーカス(図9に示すステップS1)の動作手順を説明する。なお、ここでは山登りオートフォーカスについて説明するが、オートフォーカスは、山登りオートフォーカスに限定されるものではなく、他の方法を適用することができる。また、以下では、ステップモータを用いて投影レンズ光学系8を駆動する例を説明するが、他のモータ、例えばDCモータなどを用いることも可能である。この場合、DCモータへの通電時間によって投影レンズ光学系8の駆動量を制御する。まず、光学系駆動部7により投影レンズ光学系8が初期位置に駆動され、計測結果を記憶するメモリ部4の領域が初期化される(ステップS11)。初期化される情報としては、自動焦点検出装置20で算出されるコントラスト値(cont)と、算出されたコントラスト値の中で値が最大となるコントラスト値(Max_cont)と、初期位置からMax_cont位置までのステップ数の情報などが挙げられる。   Next, the operation procedure of autofocus (step S1 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. Although hill-climbing autofocus is described here, autofocus is not limited to hill-climbing autofocus, and other methods can be applied. In the following, an example in which the projection lens optical system 8 is driven using a step motor will be described. However, other motors such as a DC motor may be used. In this case, the drive amount of the projection lens optical system 8 is controlled by the energization time of the DC motor. First, the projection lens optical system 8 is driven to the initial position by the optical system driving unit 7, and the area of the memory unit 4 for storing the measurement result is initialized (step S11). Information to be initialized includes a contrast value (cont) calculated by the automatic focus detection device 20, a contrast value (Max_cont) having the maximum value among the calculated contrast values, and from the initial position to the Max_cont position. Information on the number of steps.

次に、プロジェクタ装置2内に予め記憶されている、自動焦点調節に適したオートフォーカス用の画像パターンを投影レンズ光学系8によりスクリーン1上に投影する(ステップS12)。   Next, an image pattern for autofocus suitable for automatic focus adjustment stored in advance in the projector apparatus 2 is projected onto the screen 1 by the projection lens optical system 8 (step S12).

次に、図3に示すようにステッピングモータ等の光学系駆動部7により投影レンズ光学系8を初期位置から一定速度で移動させる(繰り出し開始)。なお、初期位置とは、投影レンズ光学系8によって投影される画像のピントが合う位置(合焦位置)が無限遠となる投影レンズ光学系8の位置である。同時に受光センサ21がスクリーン1に投影された画像パターンの反射光を受光する(ステップS13)。受光センサ21は受光した反射光量に応じた電気信号を後段の演算部22に出力する(ステップS14)。受光センサ21からの電気信号は演算部22でフィルタ処理、A/D変換処理、積分処理などが施され(ステップS15)、画像のコントラスト値(cont)が算出される(ステップS16)。算出されたコントラスト値(cont)は、制御部3に出力される。   Next, as shown in FIG. 3, the projection lens optical system 8 is moved from the initial position at a constant speed by the optical system driving unit 7 such as a stepping motor (start of feeding). The initial position is the position of the projection lens optical system 8 at which the position (focus position) where the image projected by the projection lens optical system 8 is focused is infinite. At the same time, the light receiving sensor 21 receives the reflected light of the image pattern projected on the screen 1 (step S13). The light receiving sensor 21 outputs an electrical signal corresponding to the amount of reflected light received to the subsequent calculation unit 22 (step S14). The electric signal from the light receiving sensor 21 is subjected to filter processing, A / D conversion processing, integration processing, and the like by the calculation unit 22 (step S15), and an image contrast value (cont) is calculated (step S16). The calculated contrast value (cont) is output to the control unit 3.

制御部3は、演算部22で算出されたコントラスト値(cont)が、最大のコントラスト値(Max_cont)よりも大きいか否かを判定する。最大のコントラスト値(Max_cont)とは、算出したコントラスト値よりも前に得られたコントラスト値の中で値が最大のものである。もし、算出したコントラスト値(cont)が最大コントラスト値(Max_cont)よりも大きければ(ステップS17/YES)、コントラスト値(cont)を最大コントラスト値(Max_cont)として入れ換え、この位置までのステップ数(初期位置を0として起算したもの)をメモリ部4に登録する(ステップS18)また、算出したコントラスト値が最大コントラスト値(Max_cont)よりも小さい場合には(ステップS17/NO)、このコントラスト値に対する処理を終了する。   The control unit 3 determines whether or not the contrast value (cont) calculated by the calculation unit 22 is larger than the maximum contrast value (Max_cont). The maximum contrast value (Max_cont) is the maximum value among the contrast values obtained before the calculated contrast value. If the calculated contrast value (cont) is larger than the maximum contrast value (Max_cont) (step S17 / YES), the contrast value (cont) is replaced as the maximum contrast value (Max_cont), and the number of steps up to this position (initial value) (Starting from position 0) is registered in the memory unit 4 (step S18). If the calculated contrast value is smaller than the maximum contrast value (Max_cont) (step S17 / NO), processing for this contrast value is performed. Exit.

次に、制御部3はステッピングモータを駆動するステップ数が、予め設定されたステップ数に達したかどうかを確認する(ステップS19)。投影レンズ光学系8を初期位置から最近位置まで駆動させるためのステップ数は予め決まっているため、現在の駆動ステップ数が、この最近位置までのステップ数に達したかどうかを判定する。達していなければ(ステップS19/NO)、受光センサ21で出力される反射光量に応じた電気信号からコントラスト値を算出し、最大コントラスト値(Max_cont)と比較する手順を繰り返す。なお、最近位置とは、投影レンズ光学系8がプロジェクタ装置2に最も近い位置にピントを合わせることができる投影レンズ光学系8の位置である。   Next, the controller 3 checks whether or not the number of steps for driving the stepping motor has reached a preset number of steps (step S19). Since the number of steps for driving the projection lens optical system 8 from the initial position to the nearest position is determined in advance, it is determined whether or not the current number of driving steps has reached the number of steps up to this nearest position. If not reached (step S19 / NO), the contrast value is calculated from the electric signal corresponding to the amount of reflected light output from the light receiving sensor 21, and the procedure of comparing with the maximum contrast value (Max_cont) is repeated. The nearest position is a position of the projection lens optical system 8 at which the projection lens optical system 8 can focus on a position closest to the projector device 2.

現在の駆動ステップ数が、最近位置までのステップ数に達した場合には(ステップS28/YES)、コントラスト値の測定を終了し、検出したMax_cont位置へ投影レンズ光学系8を移動させる制御を行う(ステップS20)。このような手順を経ることで、投影される画像の焦点をスクリーンに合わせることができる。   When the current number of driving steps reaches the number of steps up to the nearest position (step S28 / YES), the measurement of the contrast value is terminated, and control is performed to move the projection lens optical system 8 to the detected Max_cont position. (Step S20). Through such a procedure, the projected image can be focused on the screen.

次に、図11に示されたフローチャートを参照しながら台形歪み補正(図9に示すステップS2)の手順を説明する。まず、投影レンズ光学系8によりスクリーン1上に位相差検出用の画像パターンを投影する(ステップS21)。第1パッシブ測距装置30、及び第2パッシブ測距装置40で位相差の検出が容易となるように、白と黒の縦縞の画像パターンが位相差検出用画像として使用される。スクリーン1上に投影された位相検出用画像の反射光を第1パッシブ測距装置30、及び第2パッシブ測距装置40で受光して、プロジェクタ装置2からスクリーン1上の複数の測定位置までの距離を測距する(ステップS22)。位相差検出用画像の反射光をラインセンサ31c,31d,41c,41dでそれぞれ受光し、各ラインセンサの基準位置からのずれ量(位相差)を演算部32、42でそれぞれ検出して、測定対象(スクリーン1上の測定位置)までの距離を測定する。演算部32は、ラインセンサ31c,31dから出力される一対の画像データ信号列からそれぞれ抽出した部分画像データ群について相関演算を行い、ずれ量を検出する。演算部42についても同様に、ラインセンサ41c、41dから出力される画像データに対して相関演算を行い、ずれ量を検出する。第1パッシブ測距装置30、及び第2パッシブ測距装置40によって測距された測距データは、制御部3に送信される。   Next, the procedure of trapezoidal distortion correction (step S2 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. First, an image pattern for phase difference detection is projected on the screen 1 by the projection lens optical system 8 (step S21). An image pattern of white and black vertical stripes is used as the phase difference detection image so that the phase difference can be easily detected by the first passive distance measuring device 30 and the second passive distance measuring device 40. The reflected light of the phase detection image projected on the screen 1 is received by the first passive distance measuring device 30 and the second passive distance measuring device 40, and the projector device 2 reaches the plurality of measurement positions on the screen 1. The distance is measured (step S22). Reflected light of the phase difference detection image is received by the line sensors 31c, 31d, 41c, and 41d, and deviations (phase differences) from the reference positions of the line sensors are detected by the calculation units 32 and 42, respectively. The distance to the object (measurement position on the screen 1) is measured. The calculation unit 32 performs a correlation calculation on the partial image data groups extracted from the pair of image data signal sequences output from the line sensors 31c and 31d, and detects the shift amount. Similarly, the calculation unit 42 performs a correlation calculation on the image data output from the line sensors 41c and 41d, and detects a deviation amount. The distance measurement data measured by the first passive distance measuring device 30 and the second passive distance measuring device 40 is transmitted to the control unit 3.

次に、測距データを用いて角度演算を行う(ステップS23)。第1パッシブ測距装置30の測距データにより第1基準方向に対するスクリーン1の傾斜角度θ1(図12参照)を算出する方法を例に挙げて、角度演算について説明する。図12に示すように、第1パッシブ測距装置30の第1基準方向(プロジェクタ装置2の水平方向)に対するスクリーン1の傾斜角度をθ1とし、測距位置1Aに対して測距演算領域31cCを用いて測距演算された結果をLl、測距位置1Bに対して測距演算領域31cRを用いて測距演算された結果をL2、測距位置1Aと光軸Lとの距離をL1’、測距位置1Bと光軸Lとの距離をL2’とすると、傾斜角度θ1は、
tanθ1=(L2−L1)/(L1’+L2’)
で求められる。
Next, angle calculation is performed using distance measurement data (step S23). The angle calculation will be described by taking as an example a method of calculating the tilt angle θ1 (see FIG. 12) of the screen 1 with respect to the first reference direction from the distance measurement data of the first passive distance measuring device 30. As shown in FIG. 12, the inclination angle of the screen 1 with respect to the first reference direction (the horizontal direction of the projector device 2) of the first passive distance measuring device 30 is θ1, and the distance measurement calculation area 31cC is set for the distance measurement position 1A. The distance calculation result is L1, the distance calculation result for the distance measurement position 1B using the distance calculation area 31cR is L2, the distance between the distance measurement position 1A and the optical axis L is L1 ′, When the distance between the ranging position 1B and the optical axis L is L2 ′, the inclination angle θ1 is
tan θ1 = (L2−L1) / (L1 ′ + L2 ′)
Is required.

ここで、三角形の相似により、L1:L1’=f:P(1a−k)が成り立つ。これを展開すると、L1’=PL1(1a−k)/fとなる。ここで、1aは測距演算領域31cLに結像した測距位置1Aのコントラスト重心位置に相当する画素番号、kは光軸に相当するラインセンサの画素番号、Pはラインセンサの画素ピッチ、fは焦点距離である。同様にL2’は、L2’=PL2(1b−k)/fで表わせる。ここで、1bは測距演算領域31cRに結像した測距位置1Bのコントラスト重心位置に相当する画素番号である。なお、P及びfは設計段階等で求められる定数であり、これらの値は制御部3内に予め記憶しておく。なお、コントラスト重心位置の求め方については公知技術(例えば特開平8−75985号参照)であるため、本実施例では、その説明を省略する。また、第2パッシブ測距装置40の測距データに基づいて、第2基準方向に対するスクリーン1の傾斜角度θ2を算出する方法についても同様の方法を適用することができる。   Here, L1: L1 ′ = f: P (1a−k) holds due to the similarity of the triangles. When this is expanded, L1 '= PL1 (1a-k) / f. Here, 1a is the pixel number corresponding to the contrast centroid position of the distance measurement position 1A imaged in the distance calculation calculation area 31cL, k is the pixel number of the line sensor corresponding to the optical axis, P is the pixel pitch of the line sensor, f Is the focal length. Similarly, L2 'can be expressed by L2' = PL2 (1b-k) / f. Here, 1b is a pixel number corresponding to the contrast gravity center position of the distance measurement position 1B imaged in the distance measurement calculation area 31cR. P and f are constants obtained at the design stage or the like, and these values are stored in the control unit 3 in advance. In addition, since the method for obtaining the contrast center-of-gravity position is a known technique (see, for example, JP-A-8-75985), the description thereof is omitted in this embodiment. A similar method can be applied to a method of calculating the inclination angle θ2 of the screen 1 with respect to the second reference direction based on the distance measurement data of the second passive distance measuring device 40.

傾斜角θ1、θ2が求まると、制御部3は求めた傾斜角θ1、θ2を表示駆動部6に出力する。表示駆動部6は、制御部3が算出した水平方向及び垂直方向の傾斜角に基づきコンデンサレンズを含む投影レンズ光学系8を調整して投影画像の台形歪みを補正する(ステップS24)。また、投影画像生成部5において制御部3が算出した水平方向及び垂直方向の傾斜角度に基づき投影画像とは逆の台形歪みのある画像の表示データを生成し(キーストン補正)、投影画像の台形歪みを電気的に補正するようにしてもよい。   When the inclination angles θ1 and θ2 are obtained, the control unit 3 outputs the obtained inclination angles θ1 and θ2 to the display driving unit 6. The display drive unit 6 adjusts the projection lens optical system 8 including the condenser lens based on the horizontal and vertical tilt angles calculated by the control unit 3 to correct the trapezoidal distortion of the projected image (step S24). Further, the projection image generation unit 5 generates display data of an image having a trapezoidal distortion opposite to the projection image based on the horizontal and vertical tilt angles calculated by the control unit 3 (keystone correction), and the trapezoid of the projection image. You may make it correct | amend distortion electrically.

次に、本発明の第2実施例について説明する。上述した第1実施例では調整用色画像をスクリーン1に投影しておいて、この調整用色画像の反射光を受光するラインセンサ31c,31dの単位時間当たりの受光量により投影画像の色合いと濃淡とを補正していた。これに対し本実施例では、ラインセンサ31c,31dが所定量の反射光を受光するまでにかかる蓄積時間を測定して、この蓄積時間により投影画像の色合いと濃淡とを一度に補正する。   Next, a second embodiment of the present invention will be described. In the first embodiment described above, the color image for adjustment is projected on the screen 1, and the color of the projected image is determined by the amount of light received per unit time of the line sensors 31c and 31d that receive the reflected light of the color image for adjustment. The shading was corrected. On the other hand, in the present embodiment, the accumulation time required until the line sensors 31c and 31d receive a predetermined amount of reflected light is measured, and the shade and shade of the projected image are corrected at once by this accumulation time.

本実施例の投影画像の色補正の手順について図13に示すフローチャートを参照しながら説明する。なお、本実施例においても第1実施例のようにオートフォーカスを事前に行っておくものとする。オートフォーカスの詳細については第1実施例で説明済みであるため省略する。まず、測距用の白黒パターンの画像をスクリーン1に投影し、スクリーン1からの反射光を第1パッシブ測距装置30のラインセンサ31c,31dで受光する。ラインセンサ31c,31dの出力に演算部32でA/D変換、フィルタ処理等の演算を行い、センサデータを出力する。演算部32は、センサデータを用いてスクリーン1までの距離を求める(ステップS32)。なお、測距演算の詳細については、図6の説明で詳細に行っているのでここでは説明を省略する。演算部32は、求めた距離データをメモリ部4に保存する。   The procedure for color correction of the projected image of this embodiment will be described with reference to the flowchart shown in FIG. In this embodiment, it is assumed that autofocus is performed in advance as in the first embodiment. The details of autofocus have been described in the first embodiment, and will be omitted. First, a monochrome pattern image for distance measurement is projected onto the screen 1, and reflected light from the screen 1 is received by the line sensors 31 c and 31 d of the first passive distance measuring device 30. The arithmetic unit 32 performs arithmetic operations such as A / D conversion and filter processing on the outputs of the line sensors 31c and 31d, and outputs sensor data. The calculating part 32 calculates | requires the distance to the screen 1 using sensor data (step S32). The details of the distance measurement calculation are described in detail with reference to FIG. The calculation unit 32 stores the obtained distance data in the memory unit 4.

次に、調整用色画像をスクリーン1に投影する(ステップS33)。本実施例では、R,G,B,Wの単色画像を順次スクリーン1に投影する。R,G,B,Wの各色画像の反射光をラインセンサ31c,31dで受光する。ラインセンサ31c,31dの出力にA/D変換、フィルタ処理等を施したセンサデータのデータ量が所定量となるまでにかかる時間(以下、データ蓄積時間と呼ぶ)を演算部32で計測し、色画像ごとのデータ蓄積時間をメモリ部4に記録する(ステップS34)。   Next, the adjustment color image is projected onto the screen 1 (step S33). In the present embodiment, R, G, B, and W monochrome images are sequentially projected onto the screen 1. Reflected light of each color image of R, G, B, W is received by the line sensors 31c, 31d. The time required for the data amount of sensor data obtained by subjecting the output of the line sensors 31c and 31d to A / D conversion, filter processing, etc. to be a predetermined amount (hereinafter referred to as data accumulation time) is measured by the arithmetic unit 32, The data storage time for each color image is recorded in the memory unit 4 (step S34).

R,G,B,Wの全色について、データ蓄積時間の記録が終了すると(ステップS35/YES)、以下に示す式(4)、(5)、(6)を使用してR,G,Bの補正値α,β,γを求め、投影画像の色補正と濃淡補正とを同時に行う(ステップS36)。
α=(D/D)*{(R/W)/(R/W)}・・・・・(4)
β=(D/D)*{(G/W)/(G/W)}・・・・・(5)
γ=(D/D)*{(B/W)/(B/W)}・・・・・(6)
なお、Dは、基準となる距離(以下、基準距離と呼ぶ)であり、R,G,B,Wは、R,G,Bの色合いが最適な画像パターンをスクリーン1に投影した時に、ラインセンサ31c,31dが所定量の反射光を受光するまでにかかる時間をR,G,B,Wごとに設定した基準データ蓄積時間を表している。補正値αは、測定したスクリーンまでの距離Dと基準距離Dとの比率と、測定したセンサの受光時間(R/W)と基準値となる受光時間(R/W)との比率とから求められる。補正値β、γについても同様である。
When recording of the data accumulation time is completed for all the colors R, G, B, and W (step S35 / YES), the following equations (4), (5), and (6) are used to calculate R, G, Correction values α, β, and γ for B are obtained, and color correction and shading correction of the projected image are performed simultaneously (step S36).
α = (D S / D) * {(R S / W S ) / (R / W)} (4)
β = (D S / D) * {(G S / W S ) / (G / W)} (5)
γ = (D S / D) * {(B S / W S ) / (B / W)} (6)
Incidentally, D S is a reference distance (hereinafter, the reference distance is referred to as) a, R S, G S, B S, W S is R, G, tint B is an optimal image pattern on the screen 1 This represents a reference data accumulation time in which the time taken for the line sensors 31c and 31d to receive a predetermined amount of reflected light when projected is set for each of R, G, B, and W. The correction value alpha, the ratio of the ratio between the distance D and the reference distance D S to the measured screen, and the light receiving time of the measured sensor (R / W) and the reference value become photodetection time (R S / W S) It is demanded from. The same applies to the correction values β and γ.

式(4),(5),(6)を変形すると、
α*D*R/W=D*R/W・・・・・(4’)
β*D*G/W=D*G/W・・・・・(5’)
γ*D*B/W=D*B/W・・・・・(6’)
となる。
When equations (4), (5) and (6) are transformed,
α * D * R / W = D S * R S / W S (4 ′)
β * D * G / W = D S * G S / W S ····· (5 ')
γ * D * B / W = D S * B S / W S (6 ′)
It becomes.

式(4’),(5’),(6’)の右辺の(D*R/W),(D*G/W),(D*B/W)は、R,G,Bの色合いと濃淡とを考慮して最も好ましい値に設定されているので、測定した距離Dと測定したR,G,Bのセンサデータの受光時間とからα,β,γの値を求め、測定して得られたR,G,BをαR,βG,γBに調整することでR,G,Bの色合い(R,G,Bの色のバランス)を保ちつつ、距離に応じた濃淡に調整することができる。 Formula (4 '), (5'), (6 ') of the right-hand side of (D S * R S / W S), (D S * G S / W S), (D S * B S / W S) Is set to the most preferable value in consideration of the shades and shades of R, G, and B. Therefore, α, β, and from the measured distance D and the light reception time of the measured R, G, and B sensor data While obtaining the value of γ and adjusting R, G, B obtained by measurement to αR, βG, γB, while maintaining the hue of R, G, B (the balance of colors of R, G, B), It is possible to adjust the shading according to the distance.

このような色補正方法であっても、投影画像の色合いと濃淡とをスクリーン1までの距離に応じて最適な値に補正することができる。   Even with such a color correction method, the hue and shading of the projected image can be corrected to optimum values according to the distance to the screen 1.

なお、上述した実施例は本発明の好適な実施例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。例えば、測距装置にモニタセルを設けて、調整用色画像の測定をモニタセルで行ってもよい。この場合、図14に示すようにラインセンサ31cに隣接してモニタセルMを設け、距離の測定をラインセンサ31c,31dで行い、スクリーン1に投影された調整用色画像の反射光をこのモニタセルMで受光して、色補正のためのデータを出力する。また、上述した実施例1では、調整用色画像としてW,R,G,Bのすべてを含む色画像を使用し、実施例2では、W,R,G,Bの単色画像を使用しているが、実施例1において単色画像を使用することも可能であるし、実施例2において複数色を含む色画像を使用することも可能である。   The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention. For example, a monitor cell may be provided in the distance measuring device, and the adjustment color image may be measured by the monitor cell. In this case, as shown in FIG. 14, the monitor cell M is provided adjacent to the line sensor 31c, the distance is measured by the line sensors 31c and 31d, and the reflected light of the color image for adjustment projected on the screen 1 is reflected on the monitor cell M. And receive data for color correction. In the first embodiment, a color image including all of W, R, G, and B is used as the adjustment color image. In the second embodiment, a single color image of W, R, G, and B is used. However, a single color image can be used in the first embodiment, and a color image including a plurality of colors can be used in the second embodiment.

プロジェクタ装置2の構成を示す図である。2 is a diagram showing a configuration of a projector device 2. FIG. 自動焦点検出装置20の演算部22の構成を示す図である。2 is a diagram illustrating a configuration of a calculation unit 22 of an automatic focus detection device 20. FIG. 山登りオートフォーカスについて説明するための図である。It is a figure for demonstrating hill-climbing autofocus. プロジェクタ装置を正面から見た構成を示す図である。It is a figure which shows the structure which looked at the projector apparatus from the front. (A)はスクリーン1の水平方向に対する傾斜角度を説明するための図であり、(B)はスクリーン1の垂直方向に対する傾斜角度を説明するための図である。(A) is a figure for demonstrating the inclination angle with respect to the horizontal direction of the screen 1, (B) is a figure for demonstrating the inclination angle with respect to the vertical direction of the screen 1. FIG. パッシブ測距装置によりスクリーンを測距する様子を示した図である。It is the figure which showed a mode that a screen distance-measures with a passive ranging device. ラインセンサの構成を示す図である。It is a figure which shows the structure of a line sensor. スクリーンに投影される調整用色画像のパターンを示す図である。It is a figure which shows the pattern of the color image for adjustment projected on a screen. 第1実施例の色補正手順を示すフローチャートである。It is a flowchart which shows the color correction procedure of 1st Example. オートフォーカスの手順を示すフローチャートである。It is a flowchart which shows the procedure of an autofocus. 台形歪み補正の手順を示すフローチャートである。It is a flowchart which shows the procedure of trapezoid distortion correction. スクリーン1の傾斜角度の算出方法を説明する図である。It is a figure explaining the calculation method of the inclination angle of the screen. 第2実施例の色補正手順を示すフローチャートである。It is a flowchart which shows the color correction procedure of 2nd Example. モニタセルの構成を示す図である。It is a figure which shows the structure of a monitor cell. 特許文献1に開示されたプロジェクタの構成を示す図である。It is a figure which shows the structure of the projector disclosed by patent document 1. FIG. 特許文献1に開示されたプロジェクタの動作手順を示すフローチャートである。10 is a flowchart showing an operation procedure of the projector disclosed in Patent Document 1.

符号の説明Explanation of symbols

1 スクリーン 2 プロジェクタ装置
3 制御部 4 メモリ部
5 投影画像生成部 6 表示駆動部
7 光学系駆動部 8 投影レンズ光学系
20 自動焦点検出装置 21 受光センサ
22 演算部 30 第1パッシブ測距装置
31 撮像部 32 演算部
40 第2パッシブ測距装置 41 撮像部
42 演算部
DESCRIPTION OF SYMBOLS 1 Screen 2 Projector apparatus 3 Control part 4 Memory part 5 Projection image production | generation part 6 Display drive part 7 Optical system drive part 8 Projection lens optical system 20 Automatic focus detection apparatus 21 Light reception sensor 22 Calculation part 30 1st passive ranging device 31 Imaging Unit 32 Calculation unit 40 Second passive distance measuring device 41 Imaging unit 42 Calculation unit

Claims (5)

スクリーンに投影された画像の反射光を受光するセンサを備え、前記スクリーンまでの距離を測定する測距手段と、
所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが該画像の反射光を単位時間に受光した基準受光量と、前記スクリーンまでの基準距離とを記憶した記憶手段と、
前記スクリーンに投影された前記画像の反射光を前記単位時間に前記センサが受光する受光量を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光量と前記基準受光量との比率とに応じて、前記画像の色合いと濃淡とを補正する制御手段と、を有することを特徴とするプロジェクタ装置。
A distance measuring means comprising a sensor for receiving reflected light of an image projected on the screen, and measuring a distance to the screen;
Storage means for storing a reference received light amount by which the sensor receives reflected light of the image per unit time and a reference distance to the screen when the image of a desired color and shade is projected onto the screen;
The amount of received light received by the sensor per unit time for the reflected light of the image projected on the screen is measured, the ratio of the distance to the screen at the time of measurement and the reference distance, and the measured amount of received light And a control unit that corrects the hue and shading of the image in accordance with the ratio to the reference amount of received light.
スクリーンに投影された画像の反射光を受光するセンサを備え、前記スクリーンまでの距離を測定する測距手段と、
所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが該画像の所定量の反射光を受光するまでにかかる基準受光時間と、前記スクリーンまでの基準距離とを記憶した記憶手段と、
前記スクリーンに投影された前記画像の反射光を前記センサが前記所定量受光するまでにかかる受光時間を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光時間と前記基準受光時間との比率とに応じて、前記画像の色合いと濃淡とを補正する制御手段と、を有することを特徴とするプロジェクタ装置。
A distance measuring means comprising a sensor for receiving reflected light of an image projected on the screen, and measuring a distance to the screen;
Storage means for storing a reference light reception time required for the sensor to receive a predetermined amount of reflected light of the image and a reference distance to the screen when the image having a desired color and shade is projected onto the screen When,
The light reception time required for the sensor to receive the predetermined amount of reflected light of the image projected on the screen is measured, the ratio of the distance to the screen at the time of measurement and the reference distance, and the measured light reception And a control unit that corrects the hue and shading of the image in accordance with a ratio between the time and the reference light receiving time.
前記画像は補正するすべての色画像を含むことを特徴とする請求項1または2記載のプロジェクタ装置。 The projector apparatus according to claim 1, wherein the image includes all color images to be corrected. 画像をスクリーンに投影し、該画像の反射光をセンサで受光して前記スクリーンまでの距離を測定するステップと、
所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが単位時間に該画像の反射光を受光する基準受光量と、前記スクリーンまでの基準距離とを記憶するステップと、
前記スクリーンに投影された前記画像の反射光を前記センサが単位時間に受光する受光量を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光量と前記基準受光量との比率とに応じて、前記画像の色合いと濃淡とを補正するステップと、を有することを特徴とする色補正方法。
Projecting an image on a screen, receiving reflected light of the image with a sensor, and measuring a distance to the screen;
Storing a reference received light amount by which the sensor receives reflected light of the image per unit time and a reference distance to the screen when the image of a desired color and shade is projected onto the screen;
The amount of light received by the sensor to receive reflected light of the image projected on the screen per unit time is measured, the ratio of the distance to the screen at the time of measurement and the reference distance, the measured amount of received light and the And a step of correcting the hue and shading of the image in accordance with a ratio to a reference light reception amount.
画像をスクリーンに投影し、該画像の反射光をセンサで受光して前記スクリーンまでの距離を測定するステップと、
所望の色合い及び濃淡の前記画像を前記スクリーンに投影した時に、前記センサが該画像の所定量の反射光を受光するまでにかかる基準受光時間と、前記スクリーンまでの基準距離とを記憶するステップと、
前記センサが前記スクリーンに投影された前記画像の前記所定量の反射光を受光するまでにかかる受光時間を測定し、測定時の前記スクリーンまでの距離と前記基準距離との比率と、測定した前記受光時間と前記基準受光時間との比率とに応じて、前記画像の色合いと濃淡とを補正するステップと、を有することを特徴とする色補正方法。
Projecting an image on a screen, receiving reflected light of the image with a sensor, and measuring a distance to the screen;
Storing a reference light receiving time required for the sensor to receive a predetermined amount of reflected light of the image and a reference distance to the screen when the image having a desired color and shade is projected onto the screen; ,
The sensor measures the light reception time required to receive the predetermined amount of reflected light of the image projected on the screen, and measures the ratio of the distance to the screen at the time of measurement and the reference distance. And a step of correcting the hue and shading of the image in accordance with a ratio between the light receiving time and the reference light receiving time.
JP2004059808A 2004-03-03 2004-03-03 Projector device and color correcting method Pending JP2005250069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004059808A JP2005250069A (en) 2004-03-03 2004-03-03 Projector device and color correcting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004059808A JP2005250069A (en) 2004-03-03 2004-03-03 Projector device and color correcting method

Publications (1)

Publication Number Publication Date
JP2005250069A true JP2005250069A (en) 2005-09-15

Family

ID=35030607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004059808A Pending JP2005250069A (en) 2004-03-03 2004-03-03 Projector device and color correcting method

Country Status (1)

Country Link
JP (1) JP2005250069A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129703A (en) * 2016-01-20 2017-07-27 セイコーエプソン株式会社 Projector and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129703A (en) * 2016-01-20 2017-07-27 セイコーエプソン株式会社 Projector and control method thereof

Similar Documents

Publication Publication Date Title
US7766486B2 (en) Projecting apparatus and method and recording medium recording the projecting method
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
JP5454223B2 (en) camera
US8854533B2 (en) Image capture apparatus and control method therefor
JP5157400B2 (en) Imaging device
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
US20140204231A1 (en) Focus adjustment device and imaging apparatus
JP6682310B2 (en) Focus detection apparatus and method, and imaging apparatus
US6886946B2 (en) Projection type image display apparatus and image display system
JP2008287171A (en) Projection type image display device
JP2008040087A (en) Imaging device, imaging apparatus and focus detecting device
JP2008177903A (en) Imaging device
JP2001330769A (en) Image pickup device and its control method
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP2002365519A (en) Device for detecting state of focusing
WO2002099498A1 (en) Device for determining focused state of taking lens
JP2007194865A (en) Image projecting device, projection image correction method and program
JP2005250069A (en) Projector device and color correcting method
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2005249432A (en) Projector device and distance measuring method
JP2005181726A (en) Projector apparatus and method for adjusting projected image
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP5343249B2 (en) Camera with viewfinder display function by optical scanning
JP2005123725A (en) Projector and method for correcting trapezoidal distortion thereof
JP2005124105A (en) Projector and color correcting method thereof