JP2005234071A - Projector device and projection image adjustment method - Google Patents

Projector device and projection image adjustment method Download PDF

Info

Publication number
JP2005234071A
JP2005234071A JP2004040796A JP2004040796A JP2005234071A JP 2005234071 A JP2005234071 A JP 2005234071A JP 2004040796 A JP2004040796 A JP 2004040796A JP 2004040796 A JP2004040796 A JP 2004040796A JP 2005234071 A JP2005234071 A JP 2005234071A
Authority
JP
Japan
Prior art keywords
screen
image
edge
pixel
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004040796A
Other languages
Japanese (ja)
Inventor
Yohei Otsuka
洋平 大塚
Shiroshi Kanemitsu
史呂志 金光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Precision Inc
Original Assignee
Seiko Precision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Precision Inc filed Critical Seiko Precision Inc
Priority to JP2004040796A priority Critical patent/JP2005234071A/en
Publication of JP2005234071A publication Critical patent/JP2005234071A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Lens Barrels (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector device capable of performing highly accurate auto-zooming regardless of the surroundings around a screen. <P>SOLUTION: The projector device includes: a light receiving sensor 21 which receives reflected light and outputs an electric signal according to the amount of light received; a computing part 22 which computes the output of the light receiving sensor 21 and outputs sensor data; and a control circuit 3 which exerts control with the sensor data so that an image pattern is displayed onto the maximum display area of the screen 1. The control circuit 3 exerts control such that the image pattern reduced to the minimum size is projected onto the screen 1, the image pattern is enlarged and displayed while the pixel position where reflected light from the end 11 of the screen is received is compared with the pixel position where the reflected light from the end 13 of the image pattern projected on the screen 1 is received, and the end 13 of the image pattern is made to coincide with the end 11 of the screen 1. This ensures accurate auto-zooming regardless of the surroundings around the screen 1. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明はプロジェクタ装置に関し、特に画像をスクリーンの表示領域いっぱいに表示する機能(以下、オートズーム機能という)を備えたプロジェクタ装置及びこのプロジェクタ装置における投影画像調整方法に関する。   The present invention relates to a projector apparatus, and more particularly, to a projector apparatus having a function of displaying an image over the entire display area of a screen (hereinafter referred to as an auto zoom function) and a projection image adjusting method in the projector apparatus.

オートズーム機能を備えたプロジェクタ装置が特許文献1に開示されている。特許文献1に開示のプロジェクタ装置は、プロジェクタ装置からスクリーンまでの距離を測定するアクティブ測距装置を備えており、この測距装置の発光素子を上下左右に移動させて、受光素子での信号入力レベルの変化を調べている。スクリーンとスクリーン外の壁とでは投射光の反射率が大きく変わるため、スクリーン端部を検出することができる。スクリーン端部を検出すると、発光素子を移動させた移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めて、このスクリーンの大きさに基づいてオートズームを行っている。   A projector apparatus having an auto zoom function is disclosed in Patent Document 1. The projector device disclosed in Patent Document 1 includes an active distance measuring device that measures the distance from the projector device to the screen. The light emitting element of the distance measuring device is moved up, down, left, and right, and a signal is input to the light receiving element. Investigating changes in level. Since the reflectance of the projected light varies greatly between the screen and the wall outside the screen, the edge of the screen can be detected. When the screen edge is detected, the screen size is calculated from the amount of movement of the light emitting element and the focal length information of the projection lens, and auto-zoom is performed based on the screen size.

特開平6−27431号公報JP-A-6-27431

しかしながら、発光素子を移動させるための駆動機構は、プロジェクタ装置には本来必要のない機構であり、このため装置構成が大きくなる、装置が高価になるなどの問題がある。また、発光素子の移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めなければならず、不要な演算処理が発生する。   However, the drive mechanism for moving the light emitting element is a mechanism that is not originally required for the projector apparatus, and there is a problem that the apparatus configuration becomes large and the apparatus becomes expensive. Further, the size of the screen must be calculated from the movement amount of the light emitting element and the focal length information of the projection lens, and unnecessary calculation processing occurs.

また、スクリーンとスクリーン外の壁との反射率の違いからスクリーン端部を検出しているが、壁の反射率が高く、壁の反射率がスクリーンの反射率に近かった場合、スクリーン端部を検出することが難しくなる。   Also, the screen edge is detected from the difference in reflectance between the screen and the wall outside the screen, but if the wall reflectance is high and the wall reflectance is close to the screen reflectance, the screen edge is It becomes difficult to detect.

本発明は上記事情に鑑みてなされたものであり、スクリーンの周りの環境によらず精度の高いオートズームを行うことができるプロジェクタ装置及び画像調整方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a projector apparatus and an image adjustment method capable of performing highly accurate auto zoom regardless of the environment around the screen.

かかる目的を達成するために請求項1記載のプロジェクタ装置は、画像をスクリーンに拡大表示する画像投影手段と、複数の画素を有するセンサを備え、受光量に応じたセンサデータを出力するセンサデータ出力手段と、最も縮小した前記画像を前記スクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示し、前記画像の端部を前記スクリーンの端部に合わせる制御手段と、を有することを特徴としている。   In order to achieve the above object, a projector apparatus according to claim 1 is provided with an image projection means for enlarging and displaying an image on a screen and a sensor having a plurality of pixels, and outputs sensor data corresponding to the amount of received light. Means for projecting the most reduced image onto the screen and receiving the reflected light at the edge of the screen, and the pixel position receiving the reflected light at the edge of the image projected onto the screen. And a control unit that enlarges and displays the image while comparing and aligns the end of the image with the end of the screen.

請求項1記載の発明は、スクリーン端部の反射光を受光したセンサの画素位置と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素位置とを比較して、画像の端部をスクリーンの端部に合わせるように画像投影手段を制御している。従って、簡単な構成でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。また、最も縮小した画像をスクリーンに投影しておき、画像を拡大させながら画像端部をスクリーン端部に合わせているため、壁等の反射率によらず確実にオートズームを行うことができる。   According to the first aspect of the present invention, the pixel position of the sensor that receives the reflected light at the edge of the screen is compared with the pixel position of the sensor that receives the reflected light at the edge of the image projected on the screen. The image projecting means is controlled so that the end is aligned with the end of the screen. Therefore, an image can be displayed in the entire display area of the screen with a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted. In addition, since the most reduced image is projected onto the screen and the image edge is aligned with the screen edge while enlarging the image, automatic zooming can be reliably performed regardless of the reflectivity of the wall or the like.

請求項2記載のプロジェクタ装置は、請求項1記載のプロジェクタ装置において、前記制御手段は、前記スクリーン端部の反射光を受光した画素、または前記画像の端部の反射光を受光した画素を検出する時に、前記センサの中央部から端部に向かってセンサデータの値が大きく変化する画素を検出することを特徴としている。   The projector device according to claim 2, wherein the control unit detects a pixel that receives reflected light at the edge of the screen or a pixel that receives reflected light at the edge of the image. In this case, a pixel in which the value of sensor data changes greatly from the center to the end of the sensor is detected.

請求項2記載の発明は、センサの中央部から端部に向かってセンサデータの値が大きく変化する画素を検出することで、スクリーン端部の反射光を受光した画素と、スクリーンに投影された画像の端部の反射光を受光した画素とを検出している。センサの中央部は、画像の反射光を受光していることになるのでセンサデータの値が略一定となる。従ってスクリーン端部及び画像端部のセンサデータの判定が容易となり、壁の反射率によらず確実にスクリーン端部と画像の端部とを検出することができる。   According to the second aspect of the present invention, pixels that receive reflected light at the edge of the screen are projected onto the screen by detecting pixels in which the value of the sensor data changes greatly from the center to the edge of the sensor. A pixel that receives the reflected light at the edge of the image is detected. Since the central part of the sensor receives the reflected light of the image, the value of the sensor data becomes substantially constant. Accordingly, the sensor data at the screen edge and the image edge can be easily determined, and the screen edge and the image edge can be reliably detected regardless of the reflectance of the wall.

請求項3記載のプロジェクタ装置は、請求項1または2記載のプロジェクタ装置において、前記制御手段は、前記センサの中央部から端部に向かって隣接画素間のセンサデータの差を取り、該センサデータの差が所定のしきい値を超えた画素を検出することで前記画像または前記スクリーンの端部を検出することを特徴としている。   According to a third aspect of the present invention, in the projector device according to the first or second aspect, the control means takes a difference in sensor data between adjacent pixels from a central portion to an end portion of the sensor, and the sensor data The image or the edge of the screen is detected by detecting a pixel whose difference exceeds a predetermined threshold value.

請求項3記載の発明は、センサの中央部から端部に向かって隣接画素間のセンサデータの差を取り、センサデータの差を所定のしきい値と比較している。従って、画像またはスクリーンの端部を確実に検出することができる。   According to the third aspect of the present invention, the sensor data difference between adjacent pixels is taken from the center to the end of the sensor, and the sensor data difference is compared with a predetermined threshold value. Therefore, it is possible to reliably detect the edge of the image or the screen.

請求項4記載のプロジェクタ装置は、請求項1または2記載のプロジェクタ装置において、前記制御手段は、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、前記しきい値を超えたセンサデータを検出することで前記画像の端部または前記スクリーンの端部を検出することを特徴としている。   According to a fourth aspect of the present invention, in the projector device according to the first or second aspect, the control means selects sensor data to be compared with a predetermined threshold value from the central portion toward the end portion of the sensor, An edge of the image or an edge of the screen is detected by detecting sensor data that exceeds the threshold value.

請求項4記載の発明は、センサの中央部から端部に向かってセンサデータと所定のしきい値とを比較している。従って、画像またはスクリーンの端部を確実に検出することができる。   The invention according to claim 4 compares the sensor data with a predetermined threshold value from the center to the end of the sensor. Therefore, it is possible to reliably detect the edge of the image or the screen.

請求項5記載のプロジェクタ装置は、請求項1から4のいずれか一項記載のプロジェクタ装置において、前記画像は、白色画像の端部が黒色になっていることを特徴としている。   A projector device according to a fifth aspect is the projector device according to any one of the first to fourth aspects, wherein an edge of a white image is black in the image.

請求項5記載の発明は、画像が白色画像の端部を黒色にした画像としている。従って、白色画像と端部の黒色画像とでセンサデータの値に差ができるため、画像の端部の判定が容易になる。   In the invention described in claim 5, the image is an image in which the edge of the white image is black. Accordingly, since the sensor data value can be different between the white image and the black image at the end, it is easy to determine the end of the image.

請求項6記載のプロジェクタ装置は、請求項1から5のいずれか一項記載のプロジェクタ装置において、前記スクリーンの端部は、黒色に形成されていることを特徴としている。   A projector device according to a sixth aspect is the projector device according to any one of the first to fifth aspects, wherein an end portion of the screen is formed in black.

請求項6記載の発明は、スクリーンの端部を黒色に形成している。従って、スクリーンの表示領域と端部とでセンサデータの値に差ができるため、スクリーン端部の判定が容易となる。   In the invention described in claim 6, the end of the screen is formed in black. Accordingly, since the sensor data value can be different between the display area and the edge of the screen, it is easy to determine the edge of the screen.

請求項7記載の投影画像調整方法は、最も縮小した画像をスクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示していくことで、前記画像の端部を前記スクリーンの端部に合わせることを特徴としている。   The projected image adjustment method according to claim 7, wherein the most contracted image is projected onto a screen, and the pixel position where the reflected light at the edge of the screen is received and the reflected light at the edge of the image projected onto the screen are obtained. The image is enlarged and displayed while comparing with the received pixel position, so that the edge of the image is aligned with the edge of the screen.

請求項7記載の発明は、スクリーン端部の反射光を受光したセンサの画素位置と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素位置とを比較して、画像の端部をスクリーンの端部に合わせている。従って、簡単な構成でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。また、最も縮小した画像をスクリーンに投影しておき、画像を拡大させながら画像端部をスクリーン端部に合わせているため壁の反射率によらず確実にオートズームを行うことができる。   According to the seventh aspect of the present invention, the pixel position of the sensor that receives the reflected light at the edge of the screen is compared with the pixel position of the sensor that receives the reflected light at the edge of the image projected on the screen. The edge is aligned with the edge of the screen. Therefore, an image can be displayed in the entire display area of the screen with a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted. In addition, since the most reduced image is projected onto the screen and the image edge is aligned with the screen edge while enlarging the image, automatic zooming can be reliably performed regardless of the reflectance of the wall.

本発明は、スクリーンの周りの環境によらずスクリーンの表示領域いっぱいに画像を表示させることができる。   According to the present invention, an image can be displayed in the entire display area of the screen regardless of the environment around the screen.

次に、添付図面を参照しながら本発明の最良の実施例を説明する。   Next, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

まず、図1を参照しながら本実施例のプロジェクタ装置の構成について説明する。図1に示されるように本実施例のプロジェクタ装置2は、投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光して、投影画像の焦点位置を判定するためのコントラストデータを算出する自動焦点検出装置20と、プロジェクタ装置2からスクリーン1までの距離をスクリーン1の左右方向(水平方向)の複数ポイントで測距する第1パッシブ測距装置30と、同じくプロジェクタ装置2からスクリーン1までの距離をスクリーン1の上下方向(垂直方向)の複数ポイントで測距する第2パッシブ測距装置40と、図示しないパーソナルコンピュータ等の機器から画像を入力して、画像情報を出力する投影画像生成部5と、投影レンズ光学系8へ画像を出力する表示駆動部6と、表示駆動部6により出力された画像をスクリーン1上に投影する投影レンズ光学系8と、投影レンズ光学系8の焦点距離を変更するために、光軸に沿って投影レンズ光学系8を移動させるステッピングモータ等からなる光学系駆動部7と、プロジェクタ装置2の構成に必要なデータや命令を記憶したメモリ部4と、これら各部を制御する制御回路3とを有している。   First, the configuration of the projector apparatus according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the projector apparatus 2 of the present embodiment receives the reflected light of the image projected on the screen 1 by the projection lens optical system 8 and contrast data for determining the focal position of the projected image. An automatic focus detection device 20 that calculates the distance, a first passive distance measuring device 30 that measures the distance from the projector device 2 to the screen 1 at a plurality of points in the left-right direction (horizontal direction) of the screen 1, and the projector device 2 An image is input from a second passive distance measuring device 40 that measures the distance to the screen 1 at a plurality of points in the vertical direction (vertical direction) of the screen 1 and a device such as a personal computer (not shown) to output image information. The projection image generation unit 5, the display drive unit 6 that outputs an image to the projection lens optical system 8, and the image output by the display drive unit 6 are scanned. An optical system driving unit 7 including a projection lens optical system 8 that projects onto the lean 1 and a stepping motor that moves the projection lens optical system 8 along the optical axis in order to change the focal length of the projection lens optical system 8. And a memory unit 4 that stores data and commands necessary for the configuration of the projector device 2, and a control circuit 3 that controls these units.

自動焦点検出装置20は、図1に示されるように投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光する受光センサ21と、受光センサ21から出力される電気信号に演算を行い、受光量に応じたセンサデータと、画像のコントラストとを算出する演算部22とを有している。本実施例では、受光センサ21としてCCDラインセンサを適用している。   As shown in FIG. 1, the automatic focus detection device 20 receives a reflected light of an image projected on the screen 1 by the projection lens optical system 8 and calculates an electric signal output from the light receiving sensor 21. And a calculation unit 22 that calculates sensor data corresponding to the amount of received light and image contrast. In this embodiment, a CCD line sensor is applied as the light receiving sensor 21.

図2を参照しながら自動焦点検出装置20の演算部22について説明する。図2に示されるように演算部22は、受光センサ21によって出力される電気信号から高周波成分を取り出す高域通過フィルタ(以下、HPFとも記載する)221と、高周波成分だけとなった輝度信号の振幅検波を行なう検波器222と、検波器222の検波出力をA/D変換し、ディジタルのセンサデータに変換するA/D変換器223と、A/D変換器223から出力されるディジタルのセンサデータを積分する積分器224と、を有している。A/D変換器223からはセンサデータが出力され、積分器224からは図3に示す画像信号のコントラストデータが出力される。   The calculation unit 22 of the automatic focus detection apparatus 20 will be described with reference to FIG. As shown in FIG. 2, the calculation unit 22 includes a high-pass filter (hereinafter also referred to as HPF) 221 that extracts a high-frequency component from the electrical signal output from the light-receiving sensor 21, and a luminance signal that includes only the high-frequency component. A detector 222 that performs amplitude detection, an A / D converter 223 that converts the detection output of the detector 222 into digital sensor data, and a digital sensor that is output from the A / D converter 223 And an integrator 224 for integrating data. Sensor data is output from the A / D converter 223, and contrast data of the image signal shown in FIG. 3 is output from the integrator 224.

画像信号の高周波成分に現れるコントラストは、図3に示されるように、合焦位置でコントラストが最大となり、合焦位置から外れるに従ってコントラストが減少していくという特性を有している。この特性を利用して、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める(以下、この方法を山登りオートフォーカスと呼ぶ)。   As shown in FIG. 3, the contrast appearing in the high-frequency component of the image signal has a characteristic that the contrast becomes maximum at the in-focus position and decreases as the position deviates from the in-focus position. Using this characteristic, the position (focus position) of the projection lens optical system 8 when an image photographed by the projection lens optical system 8 forms an image on the screen 1 is obtained (hereinafter, this method is hill-climbed and autofocused). Called).

図4は、図1に示したプロジェクタ装置2を正面から見た構成を示した図である。プロジェクタ装置2の正面には投影レンズが設けられている。投影レンズは投影レンズ光学系(コンデンサレンズを含んでいてもよい)8に含まれ、投影レンズを介してスクリーン1上へ画像が投影される。   FIG. 4 is a diagram showing a configuration of projector device 2 shown in FIG. 1 as viewed from the front. A projection lens is provided in front of the projector device 2. The projection lens is included in a projection lens optical system (which may include a condenser lens) 8, and an image is projected onto the screen 1 through the projection lens.

図4に示されるように第1パッシブ測距装置30は、プロジェクタ装置2の正面を構成する平面上で、水平方向に基線長aだけ離間して配置された一対のレンズ31a及び31bを備えた撮像部31を有している。同様に第2パッシブ測距装置40は、図4に示されるようにプロジェクタ装置2の正面を構成する平面上で、垂直方向に基線長bだけ離間して配置された一対のレンズ41a及び41bを備えた撮像部41を有している。なお、本実施例では、図4に示されるように撮像部31の基線長aに平行する方向をプロジェクタ装置2の第1基準方向と呼ぶ。また、撮像部41の基線長bに平行する方向をプロジェクタ装置2の第2基準方向と呼ぶ。   As shown in FIG. 4, the first passive distance measuring device 30 includes a pair of lenses 31 a and 31 b that are spaced apart by a base line length a in the horizontal direction on the plane that forms the front of the projector device 2. An imaging unit 31 is provided. Similarly, the second passive distance measuring device 40 includes a pair of lenses 41a and 41b that are spaced apart by a base line length b in the vertical direction on the plane that forms the front of the projector device 2 as shown in FIG. It has an imaging unit 41 provided. In this embodiment, as shown in FIG. 4, the direction parallel to the base line length a of the imaging unit 31 is referred to as the first reference direction of the projector device 2. A direction parallel to the base line length b of the imaging unit 41 is referred to as a second reference direction of the projector device 2.

図5(A)に示すように基線長aだけ離れた一対のレンズ31a,31bの下には、基線長cだけ離れた一対のラインセンサ31c,31dが設けられている。同様に基線長bだけ離れた一対のレンズ41a,41bの下には、基線長dだけ離れた一対のラインセンサ41c,41dが設けられている。図5(A)に示されるように基線長aだけ離間して配置されたレンズ31a,31b間の距離は、基線長cだけ離間して配置されたラインセンサ31c,31d間の距離よりも長くなっている。また、図示していないが、同様に基線長bだけ離間して配置されたレンズ41a,41b間の距離は、基線長dだけ離間して配置されたラインセンサ41c,41d間の距離よりも長くなっている。このため図5(B)に示されるように一対のレンズの各光軸が一対のラインセンサの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。なお、図5(A)に点線で示すレンズが通常位置に配置されたレンズであり、このレンズの受光可能範囲が点線で示されている。また、実線で示すレンズが本実施例でのレンズ位置であり、このレンズの受光可能範囲が一点鎖線で示されている。   As shown in FIG. 5A, a pair of line sensors 31c and 31d separated by a base line length c are provided below the pair of lenses 31a and 31b separated by a base line length a. Similarly, a pair of line sensors 41c and 41d separated by a base line length d are provided below the pair of lenses 41a and 41b separated by a base line length b. As shown in FIG. 5A, the distance between the lenses 31a and 31b that are spaced apart by the baseline length a is longer than the distance between the line sensors 31c and 31d that are spaced apart by the baseline length c. It has become. Although not shown, the distance between the lenses 41a and 41b that are similarly spaced apart by the baseline length b is longer than the distance between the line sensors 41c and 41d that are spaced apart by the baseline length d. It has become. Therefore, as shown in FIG. 5B, the optical axes of the pair of lenses are arranged so as to be located outside the optical axes of the pair of line sensors. With this configuration, it is possible to widen the light receiving range of the passive distance measuring device as shown in FIG. Note that the lens indicated by the dotted line in FIG. 5A is a lens disposed at the normal position, and the light receiving range of this lens is indicated by the dotted line. A lens indicated by a solid line is a lens position in the present embodiment, and a light receivable range of the lens is indicated by a one-dot chain line.

図6を参照しながら撮像部31の構成について説明する。外部から入射した光を受光するレンズ31aの下には、焦点距離fだけ離間されてラインセンサ31cが配置され、またセンサ31bの下には、焦点距離fだけ離間されてラインセンサ31dが配置されている。これらのラインセンサ31c,31dは、直線状に配列された複数の光検出素子を有する一対のラインCCDまたはその他のライン型撮像素子からなる。なお、ラインセンサ31c,31dの構成については説明の便宜上後ほど詳述する。撮像部31は、レンズ31a及び31bを介してラインセンサ31c及び31d上に結像した画像について、図示しない出力部を介して画像の光量に応じた電気信号を直列的に出力する。なお、撮像部41についても撮像部31と同様に、レンズ41a,41bから焦点距離fだけ離間されてそれぞれラインセンサ41c,41dが配置されている。   The configuration of the imaging unit 31 will be described with reference to FIG. A line sensor 31c is disposed below the lens 31a that receives light incident from the outside and spaced apart by the focal length f, and a line sensor 31d is disposed below the sensor 31b and spaced apart by the focal length f. ing. These line sensors 31c and 31d are composed of a pair of line CCDs having a plurality of photodetecting elements arranged in a straight line or other line type image pickup elements. The configuration of the line sensors 31c and 31d will be described later in detail for convenience of explanation. For the image formed on the line sensors 31c and 31d via the lenses 31a and 31b, the imaging unit 31 serially outputs an electrical signal corresponding to the light amount of the image via an output unit (not shown). As with the imaging unit 31, the imaging unit 41 is also separated from the lenses 41a and 41b by a focal length f and line sensors 41c and 41d are arranged, respectively.

演算部32は、ラインセンサ31c,31dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算する。演算部42も同様にラインセンサ41c,41dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算し、この相関値に基づいてスクリーン1までの距離を演算する。   The calculation unit 32 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the line sensors 31c and 31d over a predetermined shift range. Similarly, the calculation unit 42 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the line sensors 41c and 41d over a predetermined shift range, and calculates the correlation value. Based on this, the distance to the screen 1 is calculated.

制御回路3は、自動焦点検出装置20の演算部22から出力されるコントラストデータにより、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める。そして求めた合焦位置に投影レンズ光学系8を移動させる制御を行う。また、制御回路3は、第1パッシブ測距装置30の測距演算結果に基づき、プロジェクタ装置2の第1基準方向(水平方向)に対するスクリーン1の傾斜角度θ1(図7(A)参照)を算出する。同様に第2パッシブ測距装置40の測距演算結果に基づき、プロジェクタ装置2の第2基準方向(垂直方向)に対するスクリーン1の傾斜角度θ2(図7(B)参照)を算出する。また、制御回路3は、画像がスクリーン1の表示領域いっぱいに投影されるように投影レンズ光学系8の位置を調整する。   The control circuit 3 uses the contrast data output from the calculation unit 22 of the automatic focus detection device 20 to position the projection lens optical system 8 when the image captured by the projection lens optical system 8 forms an image on the screen 1 ( Find the focus position. Then, control is performed to move the projection lens optical system 8 to the obtained in-focus position. Further, the control circuit 3 determines the inclination angle θ1 of the screen 1 with respect to the first reference direction (horizontal direction) of the projector device 2 (see FIG. 7A) based on the distance measurement calculation result of the first passive distance measuring device 30. calculate. Similarly, the inclination angle θ2 of the screen 1 with respect to the second reference direction (vertical direction) of the projector device 2 (see FIG. 7B) is calculated based on the distance measurement calculation result of the second passive distance measuring device 40. Further, the control circuit 3 adjusts the position of the projection lens optical system 8 so that the image is projected over the entire display area of the screen 1.

投影画像生成部5は、外部のパソコン等の画像データ出力部から出力される画像データを入力し、入力した画像データを表示用データに変換して表示駆動部6に出力する。   The projection image generation unit 5 receives image data output from an image data output unit such as an external personal computer, converts the input image data into display data, and outputs the display data to the display drive unit 6.

表示駆動部6は、画像歪み補正部として機能し、制御回路3が算出した第1基準方向及び第2基準方向に対する傾斜角に基づき、不図示の投影レンズとしてのコンデンサレンズを含む投影レンズ光学系8を調整して、投影画像の台形歪みを補正する。また、表示駆動部6は、不図示の投影レンズのピント調整を自動的に行うオートフォーカス手段として機能する。投影レンズ光学系8は、所定の映像光をスクリーン1上に投影する。   The display drive unit 6 functions as an image distortion correction unit, and based on the tilt angles with respect to the first reference direction and the second reference direction calculated by the control circuit 3, a projection lens optical system including a condenser lens as a projection lens (not shown). 8 is adjusted to correct the trapezoidal distortion of the projected image. The display driving unit 6 functions as an autofocus unit that automatically adjusts the focus of a projection lens (not shown). The projection lens optical system 8 projects predetermined image light on the screen 1.

次に、図6を参照しながら第1パッシブ測距装置(外光三角測距方式)30の動作原理を説明する。図6には第1パッシブ測距装置30によりスクリーン1までの距離を測定する様子が示されている。なお、第2パッシブ測距装置40の動作原理も第1パッシブ測距装置30と同様であるため説明を省略する。   Next, the operation principle of the first passive distance measuring device (external light triangular distance measuring method) 30 will be described with reference to FIG. FIG. 6 shows how the first passive distance measuring device 30 measures the distance to the screen 1. The operation principle of the second passive distance measuring device 40 is the same as that of the first passive distance measuring device 30, and thus the description thereof is omitted.

図6(A)において、一対のレンズ31a及び31bが、プロジェクタ装置2の正面を構成する平面上に水平方向に延びた所定の基線長aだけ離間して配置されている。プロジェクタ装置2の正面を構成する平面の下には、これら一対のレンズ31a及び31bからそれらの焦点距離fだけそれぞれ離間され、基線長a方向に延びた一対のラインセンサ31c及び31dが配置されている。レンズ31a,31bの各光軸が一対のラインセンサ31c,31dの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。これらラインセンサ31c及び31d上に、それぞれ対応するレンズ31a及び31bを介して距離測定(測距)対象のスクリーン1上のある位置の画像Tが結像される。図6(A)においては、スクリーン1上の測定位置Tが、異なる方向の光路A及びBを通って、それぞれのレンズ31a及び31bを介してラインセンサ31c及び31d上に結像されている。   6A, a pair of lenses 31a and 31b are arranged apart from each other by a predetermined baseline length a extending in the horizontal direction on a plane constituting the front surface of the projector device 2. A pair of line sensors 31c and 31d that are spaced apart from the pair of lenses 31a and 31b by their focal lengths f and extend in the direction of the baseline length a are disposed below the plane that forms the front surface of the projector device 2. Yes. The optical axes of the lenses 31a and 31b are arranged so as to be located outside the optical axes of the pair of line sensors 31c and 31d. With this configuration, it is possible to widen the light receiving range of the passive distance measuring device as shown in FIG. On these line sensors 31c and 31d, an image T at a certain position on the screen 1 for distance measurement (ranging) is formed via the corresponding lenses 31a and 31b. In FIG. 6A, the measurement position T on the screen 1 is imaged on the line sensors 31c and 31d through the optical paths A and B in different directions and the respective lenses 31a and 31b.

測定位置Tが無限遠の位置に存在すると仮定した場合、一対のレンズ31a及び31bから焦点距離fにあるラインセンサ31c及び31d上には、測定位置Tがレンズ31a及び31bのそれぞれの光軸31ax及び31bxと交差する基準位置31cx及び31dxに結像されることになる。ここで測定位置Tが無限遠位置からレンズ31aの光軸31ax上の方向Aに沿って近づき、図6(A)の位置、すなわち、レンズ31aからスクリーン1までの距離LCに達すると、測定位置Tはラインセンサ31c上においては、基準位置31cx上に結像されたままであるが、ラインセンサ31d上においては、レンズ31bにより基準位置31dxから位相差(ずれ量)αだけずれた位置に結像される。   Assuming that the measurement position T exists at an infinite position, the measurement position T is located on the line sensors 31c and 31d at the focal length f from the pair of lenses 31a and 31b, and the optical axes 31ax of the lenses 31a and 31b. And 31bx are imaged at reference positions 31cx and 31dx. Here, when the measurement position T approaches from the infinity position along the direction A on the optical axis 31ax of the lens 31a and reaches the position LC in FIG. 6A, that is, the distance LC from the lens 31a to the screen 1, the measurement position is reached. Although T is imaged on the reference position 31cx on the line sensor 31c, it is imaged on the line sensor 31d at a position shifted by a phase difference (deviation amount) α from the reference position 31dx by the lens 31b. Is done.

このとき、三角測距の原理から測定位置Tまでの距離LCは、LC=af/αで求められる。ここで、基線長aと焦点距離fは予め知られている既知の値であり、ラインセンサ31d上の基準位置31dxからの位相差(ずれ量)αを検出すれば、距離LCを測定できる。すなわち、スクリーン1までの距離を検出できる。これが外光三角測距のパッシブ型ラインセンサ測距装置の動作原理である。位相差(ずれ量)αの検出及びLC=af/αの演算は、図1に示す演算部32で実行される。   At this time, the distance LC from the principle of triangulation to the measurement position T is obtained by LC = af / α. Here, the base line length a and the focal length f are known values known in advance, and the distance LC can be measured by detecting the phase difference (shift amount) α from the reference position 31dx on the line sensor 31d. That is, the distance to the screen 1 can be detected. This is the operating principle of a passive line sensor distance measuring device for external light triangulation. The detection of the phase difference (deviation amount) α and the calculation of LC = af / α are executed by the calculation unit 32 shown in FIG.

ラインセンサ31dの基準位置31dxからの位相差(ずれ量)αの検出は、一対のラインセンサ31c及び31dから出力される一対の画像データ信号列IL及びIRからそれぞれ抽出した部分画像データ群iLm及びiRnについて、演算部32が相関演算を行なうことにより検出する。   Detection of the phase difference (shift amount) α from the reference position 31dx of the line sensor 31d is performed by detecting the partial image data group iLm extracted from the pair of image data signal sequences IL and IR output from the pair of line sensors 31c and 31d, respectively. iRn is detected by the calculation unit 32 performing a correlation calculation.

上記相関演算の概略を説明する。図6(B)に示すように、相関演算は部分画像データ群iLm及びiRnを互いに重ねた時に最も一致度が高くなる領域を、重ね合わせる部分画像データ群iLm及びiRnをラインセンサ31c及び31d上で相対的にずらしながら検出していく演算である。図6(B)においては、一方のラインセンサ31cからの部分画像データ群iLmを基準位置31cxに位置を固定して、基準部として使用する。他方のラインセンサ31dからの部分画像データ群iRnは参照部として位置を一画素ずつずらして行き、基準部と最も一致度の高い部分画像データ群iRnを探す。最も一致度の高い部分画像データ群iRnを発生するラインセンサ31d上の位置とそのラインセンサ31dの基準位置31dxと間の間隔が位相差(ずれ量)αである。   An outline of the correlation calculation will be described. As shown in FIG. 6 (B), the correlation calculation is performed on the line sensors 31c and 31d, where the partial image data groups iLm and iRn are superimposed on the line sensors 31c and 31d. This is an operation of detecting while relatively shifting. In FIG. 6B, the position of the partial image data group iLm from one line sensor 31c is fixed to the reference position 31cx and used as the reference portion. The partial image data group iRn from the other line sensor 31d is shifted one pixel at a time as a reference portion, and the partial image data group iRn having the highest degree of coincidence with the reference portion is searched. The interval between the position on the line sensor 31d that generates the partial image data group iRn having the highest degree of coincidence and the reference position 31dx of the line sensor 31d is the phase difference (deviation amount) α.

ラインセンサ31c及び31dの各々は、所定数の光検出素子(画素)を所定長の直線上に配列した一対のラインCCDで構成されているから、位相差(ずれ量)αは、部分画像データ群iRnの画像データ信号列IR内の画素位置と画素ピッチから容易に求めることができる。このようにして、レンズ31aの光軸31axと同じ方向Aにある測定位置Tまでの距離LCを、位相差(ずれ量)αを検出することにより測定できる。   Since each of the line sensors 31c and 31d is composed of a pair of line CCDs in which a predetermined number of photodetecting elements (pixels) are arranged on a straight line having a predetermined length, the phase difference (shift amount) α is the partial image data. It can be easily obtained from the pixel position and pixel pitch in the image data signal sequence IR of the group iRn. In this way, the distance LC to the measurement position T in the same direction A as the optical axis 31ax of the lens 31a can be measured by detecting the phase difference (deviation amount) α.

次に、ラインセンサの構成について図8を参照しながら説明する。図8には、一対のラインセンサ31c、31dにて、複数方向の距離を検出する際のラインセンサの構成が示されている。図8に示すように、ラインセンサ31c、31dを複数に分割し、測距方向に応じて基準位置を複数設定することにより、1つの測距装置で複数方向の距離を検出することができる。すなわち、一対のラインセンサ31c,31dで複数方向の測距を行う際には、図8に示したようにラインセンサ31c中に複数の測距方向(本例ではR(右)、C(中央)、L(左)とする)に基づく複数の基準位置に応じた複数の測距演算領域(31cR、31cC、31cL)を設ける。同様にラインセンサ31d中に複数の測距方向(R、C、L)に基づく複数の基準位置に応じた複数の測距演算領域(31dR、31dC、31dL)を設ける。そして、測距方向で対応する1対の測距演算領域(31cRと31dR、31cCと31dC、31cLと31dL)中の部分映像データを使用して基準位置からのずれ量を求めることができる。   Next, the configuration of the line sensor will be described with reference to FIG. FIG. 8 shows the configuration of a line sensor when a pair of line sensors 31c and 31d detect distances in a plurality of directions. As shown in FIG. 8, by dividing the line sensors 31c and 31d into a plurality and setting a plurality of reference positions according to the distance measuring direction, the distance in a plurality of directions can be detected by one distance measuring device. That is, when distance measurement in a plurality of directions is performed by the pair of line sensors 31c and 31d, a plurality of distance measurement directions (R (right), C (center in this example) are included in the line sensor 31c as shown in FIG. ), L (left)), a plurality of distance measurement calculation areas (31cR, 31cC, 31cL) corresponding to a plurality of reference positions are provided. Similarly, a plurality of ranging calculation areas (31dR, 31dC, 31dL) corresponding to a plurality of reference positions based on a plurality of ranging directions (R, C, L) are provided in the line sensor 31d. Then, the amount of deviation from the reference position can be obtained by using partial video data in a pair of distance measurement calculation areas (31cR and 31dR, 31cC and 31dC, 31cL and 31dL) corresponding to the distance measurement direction.

本実施例のプロジェクタ装置2は、スクリーン1の表示領域いっぱいに画像を投影するオートズーム機能を備えている。このオートズーム機能について説明する。本実施例では、まずズームレンズを含む投影レンズ光学系8をテレ側の端部(画像を最も縮小して投影する位置)に移動させる。投影レンズ光学系8は前回使用した時の位置にあるため、図9(A)に示すように投影レンズ光学系8をテレ側の端部に移動させておくことで、投影した画像がスクリーン1からはみ出さないようにする。なお、図9(A)にはスクリーン1にオートズーム用の画像パターンが投影された状態を示しているが、この時には画像パターンはスクリーン1に投影していなくてもよい。   The projector device 2 of this embodiment has an auto zoom function for projecting an image over the entire display area of the screen 1. The auto zoom function will be described. In the present embodiment, first, the projection lens optical system 8 including the zoom lens is moved to the tele end (the position at which the image is most contracted and projected). Since the projection lens optical system 8 is in the position when it was used last time, the projected image can be obtained by moving the projection lens optical system 8 to the end on the tele side as shown in FIG. Avoid overhanging. 9A shows a state in which an image pattern for auto-zoom is projected on the screen 1, the image pattern does not have to be projected on the screen 1 at this time.

次に、スクリーン1にオートズーム用の画像パターンを投影して、画像パターンの端部13とスクリーン1の端部11とを検出する。オートズーム用の画像パターンは、図9(A),(B)に示すように白色の画像領域12と、黒色の端部13とからなる。また、スクリーン1も図9(A),(B)に示すように画像を表示する表示領域10と、所定の幅に亘って黒色に形成された端部11とからなる。このため白色の画像領域12からの反射光を受光する受光センサ21の画素と、黒色の端部13からの反射光を受光する受光センサ21の画素とではセンサデータの値にかなりの差を生じる。同様にスクリーン1の表示領域10からの反射光を受光する受光センサ21の画素と、スクリーン1の端部11からの反射光を受光する受光センサ21の画素とではセンサデータの値にかなりの差を生じる。センサデータを比較していくことで画像パターンの端部13とスクリーン1の端部11とを検出することができる。なお、画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。画像パターンの中心がスクリーン1の中心から大きくずれていると、投影画像の調整処理を行ってもスクリーン1から画像がはみ出る、スクリーン1いっぱいに画像が投影されないなどの不具合が生じる可能性もある。   Next, an image pattern for auto-zoom is projected on the screen 1 to detect the end 13 of the image pattern and the end 11 of the screen 1. As shown in FIGS. 9A and 9B, the image pattern for auto-zoom includes a white image region 12 and a black end portion 13. The screen 1 also includes a display area 10 for displaying an image and an end portion 11 formed in black over a predetermined width as shown in FIGS. 9 (A) and 9 (B). Therefore, there is a considerable difference in the sensor data value between the pixel of the light receiving sensor 21 that receives the reflected light from the white image region 12 and the pixel of the light receiving sensor 21 that receives the reflected light from the black end portion 13. . Similarly, there is a considerable difference in the sensor data value between the pixel of the light receiving sensor 21 that receives the reflected light from the display area 10 of the screen 1 and the pixel of the light receiving sensor 21 that receives the reflected light from the end 11 of the screen 1. Produce. By comparing the sensor data, the edge 13 of the image pattern and the edge 11 of the screen 1 can be detected. Note that the image pattern may be projected on the screen 1 so that the center of the image pattern and the center of the screen 1 substantially coincide. If the center of the image pattern is greatly deviated from the center of the screen 1, there is a possibility that the image protrudes from the screen 1 even when the projection image adjustment process is performed, or that the image is not projected to the full screen 1.

センサデータを比較していく具体的な方法として、本実施例では受光センサ21の隣り合う画素のセンサデータの差を取り、求めたセンサデータの差を所定のしきい値と比較していく。所定のしきい値との比較は、受光センサ21の中央部から端部に向けて行う。上述したように画像パターンの中心とスクリーン1の中心とがほぼ一致するように画像パターンが投影されているので、受光センサ21の中央部は、画像パターンの画像領域12からの反射光を受光していることになる。白色の画像領域12からの反射光を受光する画素の出力は、値が略一定となっており、画像パターンの端部13及びスクリーン1の端部11からの反射光を受光する画素の出力とは値が大きく異なっている。このため受光センサ21の中央部から端部に向けてセンサデータの差を所定のしきい値と比較していくことで、画像パターンの端部13又はスクリーン1の端部11を検出することができる。なお、受光センサ21の中央部から端部に向けてセンサデータの差をしきい値と比較していった場合、センサデータの差が最初に所定のしきい値よりも大きくなった画素が、画像パターンの端部13(以降、この画素を画素Pと呼ぶ)、次にセンサデータの差が所定のしきい値よりも大きくなった画素が、スクリーン1の端部11と判定することができる(以降、この画素を画素Sと呼ぶ)。また、隣接する画素間のセンサデータの差を絶対値を取ってしきい値と比較すると、画像領域12と端部13との境界と、端部13とスクリーン1の表示領域10との境界とを検出してしまうことになる。このため隣接する画素間でのセンサデータの差をしきい値と比較する時には、センサデータの差の絶対値をしきい値と比較しないようにする。   As a specific method for comparing the sensor data, in this embodiment, the difference between the sensor data of adjacent pixels of the light receiving sensor 21 is taken, and the obtained difference between the sensor data is compared with a predetermined threshold value. The comparison with the predetermined threshold is performed from the center of the light receiving sensor 21 toward the end. Since the image pattern is projected so that the center of the image pattern and the center of the screen 1 substantially coincide as described above, the central portion of the light receiving sensor 21 receives the reflected light from the image area 12 of the image pattern. Will be. The output of the pixel that receives the reflected light from the white image region 12 has a substantially constant value, and the output of the pixel that receives the reflected light from the edge 13 of the image pattern and the edge 11 of the screen 1 The values are very different. For this reason, the edge 13 of the image pattern or the edge 11 of the screen 1 can be detected by comparing the difference in sensor data from the center to the edge of the light receiving sensor 21 with a predetermined threshold value. it can. When the difference in sensor data is compared with a threshold value from the center portion toward the end portion of the light receiving sensor 21, a pixel in which the difference in sensor data initially exceeds a predetermined threshold value is The edge 13 of the image pattern (hereinafter, this pixel will be referred to as pixel P), and the pixel whose sensor data difference is greater than a predetermined threshold can be determined as the edge 11 of the screen 1. (Hereinafter, this pixel is referred to as pixel S). Further, when the difference in sensor data between adjacent pixels is taken as an absolute value and compared with a threshold value, the boundary between the image region 12 and the end portion 13 and the boundary between the end portion 13 and the display region 10 of the screen 1 are Will be detected. For this reason, when comparing the difference in sensor data between adjacent pixels with a threshold value, the absolute value of the difference in sensor data is not compared with the threshold value.

次に、画像パターンの端部13の位置とスクリーン1の端部11の位置とを比較して、画像パターンの端部13をスクリーン1の端部11に合わせる。投影レンズ光学系8を最初にテレ側の端部に移動しているので、図9(B)に示すように画像パターンの端部13はスクリーン1の端部11よりも内側にある。画像パターンの端部13として判定された画素Pの画素番号と、スクリーン1の端部11として判定された画素Sの画素番号とを比較し、両者が一致していない場合には、投影レンズ光学系8をワイド側に駆動(以降、画像パターンを拡大する方向への投影レンズ光学系8の駆動をワイド駆動と呼ぶ)する。例えば、レンズ駆動手段としてステップモータを用いた場合、ワイド側に1ステップ駆動する。この位置での受光センサ21のセンサデータを取り出して、画像パターンの端部13(画素Pの位置)を再度検出する。以降この処理を画像パターン13とスクリーン1の端部11とが一致するまで、すなわち、センサデータの差が最初にしきい値を超えた画素Pの位置が、スクリーン1の端部11の画素Sの位置に一致するまで行う。   Next, the position of the end portion 13 of the image pattern is compared with the position of the end portion 11 of the screen 1 to match the end portion 13 of the image pattern with the end portion 11 of the screen 1. Since the projection lens optical system 8 is first moved to the tele end, the end 13 of the image pattern is inside the end 11 of the screen 1 as shown in FIG. The pixel number of the pixel P determined as the end portion 13 of the image pattern is compared with the pixel number of the pixel S determined as the end portion 11 of the screen 1, and if they do not match, the projection lens optics The system 8 is driven to the wide side (hereinafter, the driving of the projection lens optical system 8 in the direction of enlarging the image pattern is referred to as wide driving). For example, when a step motor is used as the lens driving unit, the lens is driven by one step on the wide side. The sensor data of the light receiving sensor 21 at this position is taken out, and the edge 13 (position of the pixel P) of the image pattern is detected again. Thereafter, this process is repeated until the image pattern 13 and the edge 11 of the screen 1 coincide, that is, the position of the pixel P where the difference in sensor data first exceeds the threshold value is the position of the pixel S at the edge 11 of the screen 1. Repeat until the position matches.

このように本実施例は、最も縮小した画像をスクリーン1に投影しておき、スクリーン端部11の反射光を受光した画素位置と、スクリーン1に投影された画像パターンの端部13の反射光を受光した画素位置とを比較しながら画像を拡大表示し、画像パターンの端部13をスクリーン1の端部11に合わせる制御を行っている。従って、スクリーン1の周りの環境によらず精度のよいオートズームを行うことができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。   As described above, in this embodiment, the most reduced image is projected onto the screen 1, the pixel position where the reflected light from the screen end 11 is received, and the reflected light from the end 13 of the image pattern projected onto the screen 1. The image is enlarged and displayed while comparing with the pixel position where the light is received, and control is performed to align the end 13 of the image pattern with the end 11 of the screen 1. Therefore, it is possible to perform auto zoom with high accuracy regardless of the environment around the screen 1. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted.

また、隣接する画素のセンサデータの差と、所定のしきい値との比較をスクリーン1の中央部から端部に向けて、すなわちラインセンサの中央部から端部に向けて行っている。ラインセンサの中央部は、スクリーン1または画像パターンの反射光、特に白色に対応する反射光を受光しているのでセンサデータの値が略一定となっている。従って、白色と黒色とのセンサデータの差からスクリーン端部11及び画像パターンの端部13のセンサデータの判定が容易になり、端部の検出を確実に行うことができる。   Further, the difference between the sensor data of adjacent pixels and a predetermined threshold value are compared from the center to the end of the screen 1, that is, from the center to the end of the line sensor. Since the central part of the line sensor receives reflected light of the screen 1 or the image pattern, particularly reflected light corresponding to white, the value of the sensor data is substantially constant. Therefore, the sensor data of the screen edge 11 and the image pattern edge 13 can be easily determined from the difference between the sensor data of white and black, and the edge can be reliably detected.

なお、プロジェクタ装置においては、投影画像のアスペクト比は一定であるため、画像パターンの端部13とスクリーン1の端部11とを合わせる処理を水平方向と垂直方向のいずれか一方において行えば、他方も必然的に合わされることになる。   In the projector device, since the aspect ratio of the projected image is constant, if the process of combining the edge 13 of the image pattern and the edge 11 of the screen 1 is performed in either the horizontal direction or the vertical direction, the other Will inevitably be matched.

また、本実施例ではスクリーンの端部11を黒色としているが、スクリーン1の背後に黒色の物体(例えば壁)があれば、スクリーン1全体を白色にしてもスクリーンの端部11を十分に検出することができる。   In this embodiment, the end 11 of the screen is black. However, if there is a black object (for example, a wall) behind the screen 1, the end 11 of the screen is sufficiently detected even if the entire screen 1 is white. can do.

また、本実施例では隣接する画素のセンサデータの差を所定のしきい値と比較することで、画像パターンの端部13からの反射光を受光した画素位置と、スクリーン1の端部11からの反射光を受光した画素位置とを検出している。この他に、受光センサ21から出力されるセンサデータを直接しきい値と比較して、画像パターンの端部13及びスクリーンの端部11を検出することも可能である。   Further, in this embodiment, the difference between sensor data of adjacent pixels is compared with a predetermined threshold value, so that the reflected pixel light from the edge 13 of the image pattern and the edge 11 of the screen 1 are detected. The pixel position where the reflected light is received is detected. In addition, it is also possible to detect the edge 13 of the image pattern and the edge 11 of the screen by directly comparing the sensor data output from the light receiving sensor 21 with a threshold value.

次にオートズーム機能を実現するための動作手順を図10に示すフローチャートを参照しながら説明する。まず、投影画像の焦点がスクリーン1に合うように焦点合わせを行うオートフォーカス処理(ステップS1)、プロジェクタ装置2とスクリーン1との位置関係により生じる台形歪みを補正する台形歪み補正処理(ステップS2)などが行われる。これらの処理の詳細な手順については後述する。オートズーム処理の前に焦点合わせ、台形歪みの補正を行っておくことで、画像パターンの端部13をスクリーン1の端部に精度よく合わせることができる。すなわち、オートズーム機能の精度を向上させることができる。オートフォーカス処理、台形歪み補正処理が終わると、オートズーム処理を実行する(ステップS3)。   Next, an operation procedure for realizing the auto zoom function will be described with reference to a flowchart shown in FIG. First, autofocus processing for performing focusing so that the projected image is focused on the screen 1 (step S1), and trapezoidal distortion correction processing for correcting trapezoidal distortion caused by the positional relationship between the projector device 2 and the screen 1 (step S2). Etc. are performed. Detailed procedures of these processes will be described later. By performing focusing and correcting trapezoidal distortion before the auto zoom process, the edge 13 of the image pattern can be accurately aligned with the edge of the screen 1. That is, the accuracy of the auto zoom function can be improved. When the autofocus process and the trapezoidal distortion correction process are finished, the auto zoom process is executed (step S3).

次に上述した各処理の詳細な手順についてフローチャートを参照しながら説明する。まず、図11に示されたフローチャートを参照しながらオートフォーカス(図10に示すステップS1)の動作手順を説明する。なお、ここでは山登りオートフォーカスについて説明するが、オートフォーカスは、山登りオートフォーカスに限定されるものではなく、他の方法を適用することができる。また、以下では、ステップモータを用いて投影レンズ光学系8を駆動する例を説明するが、他のモータ、例えばDCモータなどを用いることも可能である。この場合、DCモータへの通電時間によって投影レンズ光学系8の駆動量を制御する。まず、光学系駆動部7により投影レンズ光学系8が初期位置に駆動され、計測結果を記憶するメモリ部4の領域が初期化される(ステップS20)。初期化される情報としては、自動焦点検出装置20で算出されるコントラスト値(cont)と、算出されたコントラスト値の中で値が最大となるコントラスト値(Max_cont)と、初期位置からMax_cont位置までのステップ数の情報などが挙げられる。   Next, a detailed procedure of each process described above will be described with reference to a flowchart. First, the operation procedure of autofocus (step S1 shown in FIG. 10) will be described with reference to the flowchart shown in FIG. Although hill-climbing autofocus is described here, autofocus is not limited to hill-climbing autofocus, and other methods can be applied. In the following, an example in which the projection lens optical system 8 is driven using a step motor will be described. However, other motors such as a DC motor may be used. In this case, the drive amount of the projection lens optical system 8 is controlled by the energization time of the DC motor. First, the projection lens optical system 8 is driven to the initial position by the optical system driving unit 7, and the area of the memory unit 4 for storing the measurement result is initialized (step S20). Information to be initialized includes a contrast value (cont) calculated by the automatic focus detection device 20, a contrast value (Max_cont) having the maximum value among the calculated contrast values, and from the initial position to the Max_cont position. Information on the number of steps.

次に、プロジェクタ装置2内に予め記憶されている、自動焦点調節に適したオートフォーカス用の画像パターンを投影レンズ光学系8によりスクリーン1上に投影する(ステップS21)。   Next, an image pattern for autofocus suitable for automatic focus adjustment stored in advance in the projector device 2 is projected onto the screen 1 by the projection lens optical system 8 (step S21).

次に、図3に示すようにステッピングモータ等の光学系駆動部7により投影レンズ光学系8を初期位置から一定速度で移動させる(繰り出し開始)。なお、初期位置とは、投影レンズ光学系8によって投影される画像のピントが合う位置(合焦位置)が無限遠となる投影レンズ光学系8の位置である。同時に受光センサ21がスクリーン1に投影された画像パターンの反射光を受光する(ステップS22)。受光センサ21は受光した反射光量に応じた電気信号を後段の演算部22に出力する(ステップS23)。受光センサ21からの電気信号は演算部22でフィルタ処理、A/D変換処理、積分処理などが施され(ステップS24)、画像のコントラスト値(cont)が算出される(ステップS25)。算出されたコントラスト値(cont)は、制御回路3に出力される。   Next, as shown in FIG. 3, the projection lens optical system 8 is moved from the initial position at a constant speed by the optical system driving unit 7 such as a stepping motor (start of feeding). The initial position is the position of the projection lens optical system 8 at which the position (focus position) where the image projected by the projection lens optical system 8 is focused is infinite. At the same time, the light receiving sensor 21 receives the reflected light of the image pattern projected on the screen 1 (step S22). The light receiving sensor 21 outputs an electrical signal corresponding to the amount of reflected light received to the subsequent calculation unit 22 (step S23). The electric signal from the light receiving sensor 21 is subjected to filter processing, A / D conversion processing, integration processing, and the like by the calculation unit 22 (step S24), and an image contrast value (cont) is calculated (step S25). The calculated contrast value (cont) is output to the control circuit 3.

制御回路3は、演算部22で算出されたコントラスト値(cont)が、最大のコントラスト値(Max_cont)よりも大きいか否かを判定する。最大のコントラスト値(Max_cont)とは、算出したコントラスト値よりも前に得られたコントラスト値の中で値が最大のものである。もし、算出したコントラスト値(cont)が最大コントラスト値(Max_cont)よりも大きければ(ステップS26/YES)、コントラスト値(cont)を最大コントラスト値(Max_cont)として入れ換え、この位置までのステップ数(初期位置を0として起算したもの)をメモリ部4に登録する(ステップS27)また、算出したコントラスト値が最大コントラスト値(Max_cont)よりも小さい場合には(ステップS26/NO)、このコントラスト値に対する処理を終了する。   The control circuit 3 determines whether or not the contrast value (cont) calculated by the calculation unit 22 is larger than the maximum contrast value (Max_cont). The maximum contrast value (Max_cont) is the maximum value among the contrast values obtained before the calculated contrast value. If the calculated contrast value (cont) is larger than the maximum contrast value (Max_cont) (step S26 / YES), the contrast value (cont) is replaced as the maximum contrast value (Max_cont), and the number of steps up to this position (initial value) (When the position is counted as 0) is registered in the memory unit 4 (step S27). If the calculated contrast value is smaller than the maximum contrast value (Max_cont) (step S26 / NO), processing for this contrast value is performed. Exit.

次に、制御回路3はステッピングモータを駆動するステップ数が、予め設定されたステップ数に達したかどうかを確認する(ステップS28)。投影レンズ光学系8を初期位置から最近位置まで駆動させるためのステップ数は予め決まっているため、現在の駆動ステップ数が、この最近位置までのステップ数に達したかどうかを判定する。達していなければ(ステップS28/NO)、受光センサ21で出力される反射光量に応じた電気信号からコントラスト値を算出し、最大コントラスト値(Max_cont)と比較する手順を繰り返す。なお、最近位置とは、投影レンズ光学系8がプロジェクタ装置2に最も近い位置にピントを合わせることができる投影レンズ光学系8の位置である。   Next, the control circuit 3 checks whether or not the number of steps for driving the stepping motor has reached a preset number of steps (step S28). Since the number of steps for driving the projection lens optical system 8 from the initial position to the nearest position is determined in advance, it is determined whether or not the current number of driving steps has reached the number of steps up to this nearest position. If not reached (step S28 / NO), the contrast value is calculated from the electrical signal corresponding to the amount of reflected light output from the light receiving sensor 21, and the procedure of comparing with the maximum contrast value (Max_cont) is repeated. The nearest position is a position of the projection lens optical system 8 at which the projection lens optical system 8 can focus on a position closest to the projector device 2.

現在の駆動ステップ数が、最近位置までのステップ数に達した場合には(ステップS28/YES)、コントラスト値の測定を終了し、検出したMax_cont位置へ投影レンズ光学系8を移動させる制御を行う(ステップS29)。このような手順を経ることで、投影される画像の焦点をスクリーンに合わせることができる。   When the current number of driving steps reaches the number of steps up to the nearest position (step S28 / YES), the measurement of the contrast value is terminated, and control is performed to move the projection lens optical system 8 to the detected Max_cont position. (Step S29). Through such a procedure, the projected image can be focused on the screen.

次に、図12に示されたフローチャートを参照しながら台形歪み補正(図10に示すステップS2)の手順を説明する。まず、投影レンズ光学系8によりスクリーン1上に位相差検出用の画像パターンを投影する(ステップS30)。第1パッシブ測距装置30、及び第2パッシブ測距装置40で位相差の検出が容易となるように、白と黒の縦縞の画像パターンが位相差検出用画像として使用される。スクリーン1上に投影された位相検出用画像の反射光を第1パッシブ測距装置30、及び第2パッシブ測距装置40で受光して、プロジェクタ装置2からスクリーン1上の複数の測定位置までの距離を測距する(ステップS31)。位相差検出用画像の反射光をラインセンサ31c,31d,41c,41dでそれぞれ受光し、各ラインセンサの基準位置からのずれ量(位相差)を演算部32、42でそれぞれ検出して、測定対象(スクリーン1上の測定位置)までの距離を測定する。演算部32は、ラインセンサ31c,31dから出力される一対の画像データ信号列からそれぞれ抽出した部分画像データ群について相関演算を行い、ずれ量を検出する。演算部42についても同様に、ラインセンサ41c、41dから出力される画像データに対して相関演算を行い、ずれ量を検出する。第1パッシブ測距装置30、及び第2パッシブ測距装置40によって測距された測距データは、制御回路3に送信される。   Next, the procedure of trapezoidal distortion correction (step S2 shown in FIG. 10) will be described with reference to the flowchart shown in FIG. First, an image pattern for phase difference detection is projected on the screen 1 by the projection lens optical system 8 (step S30). An image pattern of white and black vertical stripes is used as the phase difference detection image so that the phase difference can be easily detected by the first passive distance measuring device 30 and the second passive distance measuring device 40. The reflected light of the phase detection image projected on the screen 1 is received by the first passive distance measuring device 30 and the second passive distance measuring device 40, and the projector device 2 reaches the plurality of measurement positions on the screen 1. The distance is measured (step S31). Reflected light of the phase difference detection image is received by the line sensors 31c, 31d, 41c, and 41d, and deviations (phase differences) from the reference positions of the line sensors are detected by the calculation units 32 and 42, respectively. The distance to the object (measurement position on the screen 1) is measured. The calculation unit 32 performs a correlation calculation on the partial image data groups extracted from the pair of image data signal sequences output from the line sensors 31c and 31d, and detects the shift amount. Similarly, the calculation unit 42 performs a correlation calculation on the image data output from the line sensors 41c and 41d, and detects a deviation amount. The distance measurement data measured by the first passive distance measuring device 30 and the second passive distance measuring device 40 is transmitted to the control circuit 3.

次に、測距データを用いて角度演算を行う(ステップS32)。第1パッシブ測距装置30の測距データにより第1基準方向に対するスクリーン1の傾斜角度θ1(図13参照)を算出する方法を例に挙げて、角度演算について説明する。図13に示すように、第1パッシブ測距装置30の第1基準方向(プロジェクタ装置2の水平方向)に対するスクリーン1の傾斜角度をθ1とし、測距位置1Aに対して測距演算領域31cCを用いて測距演算された結果をLl、測距位置1Bに対して測距演算領域31cRを用いて測距演算された結果をL2、測距位置1Aと光軸Lとの距離をL1’、測距位置1Bと光軸Lとの距離をL2’とすると、傾斜角度θ1は、
tanθ1=(L2−L1)/(L1’+L2’)
で求められる。
Next, angle calculation is performed using distance measurement data (step S32). The angle calculation will be described by taking as an example a method of calculating the tilt angle θ1 (see FIG. 13) of the screen 1 with respect to the first reference direction from the distance measurement data of the first passive distance measuring device 30. As shown in FIG. 13, the inclination angle of the screen 1 with respect to the first reference direction (the horizontal direction of the projector device 2) of the first passive distance measuring device 30 is θ1, and the distance calculation calculation area 31cC is set to the distance measurement position 1A. The distance calculation result is L1, the distance calculation result for the distance measurement position 1B using the distance calculation area 31cR is L2, the distance between the distance measurement position 1A and the optical axis L is L1 ′, When the distance between the ranging position 1B and the optical axis L is L2 ′, the inclination angle θ1 is
tan θ1 = (L2−L1) / (L1 ′ + L2 ′)
Is required.

ここで、三角形の相似により、L1:L1’=f:P(1a−k)が成り立つ。これを展開すると、L1’=PL1(1a−k)/fとなる。ここで、1aは測距演算領域31cLに結像した測距位置1Aのコントラスト重心位置に相当する画素番号、kは光軸に相当するラインセンサの画素番号、Pはラインセンサの画素ピッチ、fは焦点距離である。同様にL2’は、L2’=PL2(1b−k)/fで表わせる。ここで、1bは測距演算領域31cRに結像した測距位置1Bのコントラスト重心位置に相当する画素番号である。なお、P及びfは設計段階等で求められる定数であり、これらの値は制御回路3内に予め記憶しておく。なお、コントラスト重心位置の求め方については公知技術(例えば特開平8−75985号参照)であるため、本実施例では、その説明を省略する。また、第2パッシブ測距装置40の測距データに基づいて、第2基準方向に対するスクリーン1の傾斜角度θ2を算出する方法についても同様の方法を適用することができる。   Here, L1: L1 ′ = f: P (1a−k) holds due to the similarity of the triangles. When this is expanded, L1 '= PL1 (1a-k) / f. Here, 1a is the pixel number corresponding to the contrast centroid position of the distance measurement position 1A imaged in the distance calculation calculation area 31cL, k is the pixel number of the line sensor corresponding to the optical axis, P is the pixel pitch of the line sensor, f Is the focal length. Similarly, L2 'can be expressed by L2' = PL2 (1b-k) / f. Here, 1b is a pixel number corresponding to the contrast gravity center position of the distance measurement position 1B imaged in the distance measurement calculation area 31cR. P and f are constants obtained at the design stage or the like, and these values are stored in the control circuit 3 in advance. In addition, since the method for obtaining the contrast center-of-gravity position is a known technique (see, for example, JP-A-8-75985), the description thereof is omitted in this embodiment. A similar method can be applied to a method of calculating the inclination angle θ2 of the screen 1 with respect to the second reference direction based on the distance measurement data of the second passive distance measuring device 40.

傾斜角θ1、θ2が求まると、制御回路3は求めた傾斜角θ1、θ2を表示駆動部6に出力する。表示駆動部6は、制御回路3が算出した水平方向及び垂直方向の傾斜角に基づきコンデンサレンズを含む投影レンズ光学系8を調整して投影画像の台形歪みを補正する(ステップS33)。また、投影画像生成部5において制御回路3が算出した水平方向及び垂直方向の傾斜角度に基づき投影画像とは逆の台形歪みのある画像の表示データを生成し(キーストン補正)、投影画像の台形歪みを電気的に補正するようにしてもよい。   When the inclination angles θ1 and θ2 are obtained, the control circuit 3 outputs the obtained inclination angles θ1 and θ2 to the display driving unit 6. The display driving unit 6 adjusts the projection lens optical system 8 including the condenser lens based on the horizontal and vertical tilt angles calculated by the control circuit 3 to correct the trapezoidal distortion of the projected image (step S33). Further, based on the horizontal and vertical tilt angles calculated by the control circuit 3 in the projection image generation unit 5, display data of an image having a trapezoidal distortion opposite to the projection image is generated (keystone correction), and the trapezoid of the projection image is generated. You may make it correct | amend distortion electrically.

次に、図14に示されたフローチャートを参照しながらオートズーム処理(図10に示すステップS3)の詳細な動作手順を説明する。まず、ズームレンズを含む投影レンズ光学系8をテレ側の端部(画像を最も縮小して投影する位置)に移動させる(ステップS40)。投影レンズ光学系8は前回使用時の位置にあるため、図9(A)に示すように投影レンズ光学系8をテレ側の端部に移動させることで、画像をスクリーン1に投影した際に画像がスクリーン1からはみ出さないようにする。なお、図9(A)にはスクリーン1にオートズーム用の画像パターンが投影された状態を示しているが、この時には画像パターンはスクリーン1に投影していなくてもよい。   Next, a detailed operation procedure of the auto zoom process (step S3 shown in FIG. 10) will be described with reference to the flowchart shown in FIG. First, the projection lens optical system 8 including the zoom lens is moved to the tele end (position where the image is most reduced and projected) (step S40). Since the projection lens optical system 8 is in the position at the previous use, when the image is projected on the screen 1 by moving the projection lens optical system 8 to the end on the tele side as shown in FIG. The image should not protrude from the screen 1. 9A shows a state in which an image pattern for auto-zoom is projected on the screen 1, the image pattern does not have to be projected on the screen 1 at this time.

次に、スクリーン1にオートズーム用の画像パターンを投影する(ステップS41)。オートズーム用の画像パターンは、白色の画像領域12と黒色の端部13とからなる。同様にスクリーン1も画像を表示する表示領域10と、所定の幅に亘って黒色に形成された端部11とからなる。スクリーン1に投影された画像パターンを図9(A)に示す。画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。   Next, an image pattern for auto zoom is projected on the screen 1 (step S41). The image pattern for auto zooming includes a white image region 12 and a black end portion 13. Similarly, the screen 1 includes a display area 10 for displaying an image and an end portion 11 formed in black over a predetermined width. The image pattern projected on the screen 1 is shown in FIG. The image pattern may be projected on the screen 1 so that the center of the image pattern and the center of the screen 1 substantially coincide.

スクリーン1での反射光を自動焦点検出装置20の受光センサ21で受光してセンサデータを出力し、このセンサデータを用いて画像パターンの端部13及びスクリーン1の端部11を検出する(ステップS42)。画像パターンの端部13及びスクリーン1の端部11を検出すると、画像パターンの端部13をスクリーン1の端部11に合わせる画像調整処理43が行われる。   The reflected light from the screen 1 is received by the light receiving sensor 21 of the automatic focus detection device 20 to output sensor data, and the sensor data is used to detect the edge 13 of the image pattern and the edge 11 of the screen 1 (step). S42). When the edge 13 of the image pattern and the edge 11 of the screen 1 are detected, an image adjustment process 43 for matching the edge 13 of the image pattern with the edge 11 of the screen 1 is performed.

次に、センサデータの値を用いて画像パターンの端部13及びスクリーン1の端部11を検出する処理(図14に示すステップS42)の詳細を図15に示すフローチャートを参照しながら説明する。オートズーム用の画像パターンをスクリーン1に投影し、スクリーン1からの反射光を自動焦点検出装置20の受光センサ21で受光する。受光センサ21からは反射光量に応じた電気信号が演算部22に送られる。演算部22は、入力した電気信号から高周波成分を高域通過フィルタ221で取り出し、検波器222で振幅検波を行い、検波器222の出力をA/D変換したセンサデータを制御回路3に出力する(ステップS51)。なお、上述したように端部の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。   Next, details of the process (step S42 shown in FIG. 14) for detecting the edge 13 of the image pattern and the edge 11 of the screen 1 using the sensor data values will be described with reference to the flowchart shown in FIG. An image pattern for auto-zoom is projected onto the screen 1, and reflected light from the screen 1 is received by the light receiving sensor 21 of the automatic focus detection device 20. An electrical signal corresponding to the amount of reflected light is sent from the light receiving sensor 21 to the calculation unit 22. The arithmetic unit 22 extracts a high frequency component from the input electric signal by the high-pass filter 221, performs amplitude detection by the detector 222, and outputs sensor data obtained by A / D converting the output of the detector 222 to the control circuit 3. (Step S51). As described above, the line sensor used for detecting the end portion may use any one of the line sensors 31c, 31d, 41c, and 41d, or a pair of line sensors 31c. 31d or line sensors 41c and 41d may be used.

演算部22で演算され取り出されたセンサデータには、スクリーン1の反射光と画像パターンの反射光とが含まれており、隣接画素のセンサデータの差をしきい値と比較していくことで、スクリーンの端部11と画像パターンの端部13とを検出することができる。制御回路3は、センサデータの差としきい値との比較をスクリーン中央部から端部に向けて行い、センサデータの差が最初にしきい値を超えた画素(画素P)を検出する(ステップS52)。この画素Pの画素番号をメモリ部4に記憶する(ステップS53)。なお、スクリーン中央部から端部の方向へセンサデータの差としきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS54/YES)、図示しない表示部にエラー表示を行う(ステップS55)。   The sensor data calculated and extracted by the calculation unit 22 includes the reflected light of the screen 1 and the reflected light of the image pattern, and the difference between the sensor data of adjacent pixels is compared with a threshold value. The edge 11 of the screen and the edge 13 of the image pattern can be detected. The control circuit 3 compares the difference between the sensor data and the threshold value from the center of the screen toward the end, and detects a pixel (pixel P) in which the difference between the sensor data first exceeds the threshold value (step S52). ). The pixel number of the pixel P is stored in the memory unit 4 (step S53). If the sensor data difference from the center of the screen toward the edge and the threshold value are compared, sensor data having a value larger than the threshold value cannot be found in all pixels ( (Step S54 / YES), an error is displayed on a display unit (not shown) (Step S55).

センサデータの差が最初にしきい値を超えた画素Pを検出すると(ステップS52/YES)、画素Pの次の画素からセンサデータの差としきい値との比較を継続して行う(ステップS56)。センサデータの差がしきい値よりも大きい画素(画素S)を検出すると(ステップS56/YES)、この画素Sの画素番号をメモリ部4に記憶する(ステップS57)。なお、スクリーン中央部から端部の方向へセンサデータの差としきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS58/YES)、このまま処理を終了する。また、再度画像パターンをスクリーン1に投影して、投影画像調整処理を行うものであってもよい。   When the pixel P in which the difference in sensor data first exceeds the threshold value is detected (step S52 / YES), the comparison between the difference in sensor data and the threshold value is continued from the pixel next to the pixel P (step S56). . When a pixel (pixel S) having a sensor data difference larger than the threshold value is detected (step S56 / YES), the pixel number of the pixel S is stored in the memory unit 4 (step S57). If the sensor data difference from the center of the screen toward the edge and the threshold value are compared, sensor data having a value larger than the threshold value cannot be found in all pixels ( In step S58 / YES), the process is terminated as it is. Alternatively, the image pattern may be projected again on the screen 1 to perform a projected image adjustment process.

次に、画像調整処理(図14のステップS43)の詳細を図16に示すフローチャートを参照しながら説明する。制御回路3は、投影レンズ光学系8をワイド側に1ステップ駆動する(ステップS60)。この位置で画像パターンをスクリーン1に投影し、スクリーン1からの反射光を受光センサ21で受光する。受光センサ21の出力を演算部22で演算しセンサデータを出力する(ステップS61)。制御回路3は、センサデータの差としきい値との比較をスクリーン中央部からスクリーン端部11に向けて行う(ステップS62)。スクリーン中央部の画素のセンサデータの差からしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに変えていく。センサデータの差がしきい値よりも大きい画素を検出すると(ステップS62/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をPとする)(ステップS63)。なお、スクリーン中央部から端部の方向へセンサデータの差としきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS65/YES)、図示しない表示部にエラー表示を行う(ステップS66)。   Next, details of the image adjustment process (step S43 in FIG. 14) will be described with reference to the flowchart shown in FIG. The control circuit 3 drives the projection lens optical system 8 one step to the wide side (step S60). The image pattern is projected onto the screen 1 at this position, and the reflected light from the screen 1 is received by the light receiving sensor 21. The calculation unit 22 calculates the output of the light receiving sensor 21 and outputs sensor data (step S61). The control circuit 3 compares the difference between the sensor data and the threshold value from the center of the screen toward the screen end 11 (step S62). The comparison target is gradually changed to the sensor data on the screen end 11 side for the first time in comparison with the threshold value from the difference in the sensor data of the pixels in the center of the screen. When a pixel having a sensor data difference larger than the threshold value is detected (step S62 / YES), the pixel number of the sensor data is stored (in the following description, this pixel number is P) (step S63). If the sensor data difference from the center of the screen toward the edge and the threshold value are compared, sensor data having a value larger than the threshold value cannot be found in all pixels ( (Step S65 / YES), an error display is performed on a display unit (not shown) (Step S66).

センサデータの差が最初にしきい値を超えた画素Pを検出すると(ステップS62/YES)、制御回路3は、画素Pを、スクリーン端部11の画素Sと比較する(ステップS64)。画素Pの画素番号と画素Sの画素番号とが一致した場合(ステップS64/YES)、投影した画像パターンの端部13をスクリーンの端部11に一致させることができたので、この処理を終了する。画素Pの画素番号が、画素Sの画素番号に一致していなかった場合には(ステップS64/NO)、上述したステップS60〜ステップS63までの処理を繰り返し行い、画素Pの画素番号と画素Sの画素番号とを一致させる。   When the pixel P in which the difference in sensor data first exceeds the threshold value is detected (step S62 / YES), the control circuit 3 compares the pixel P with the pixel S at the screen edge 11 (step S64). If the pixel number of the pixel P and the pixel number of the pixel S match (step S64 / YES), the end 13 of the projected image pattern can be matched with the end 11 of the screen, and thus this processing ends. To do. If the pixel number of the pixel P does not match the pixel number of the pixel S (step S64 / NO), the above-described processing from step S60 to step S63 is repeated, and the pixel number of the pixel P and the pixel S Are matched with the pixel number.

なお、上述した実施例は本発明の好適な実施例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

プロジェクタ装置2の構成を示す図である。2 is a diagram showing a configuration of a projector device 2. FIG. 自動焦点検出装置20の構成を示すブロック図である。2 is a block diagram showing a configuration of an automatic focus detection device 20. FIG. 山登りオートフォーカスを説明するための図である。It is a figure for demonstrating hill-climbing autofocus. プロジェクタ装置を正面から見た構成を示す図である。It is a figure which shows the structure which looked at the projector apparatus from the front. レンズ31a,31b,41a,41bとラインセンサ31c,31d,41c,41dとの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of lens 31a, 31b, 41a, 41b and line sensor 31c, 31d, 41c, 41d. パッシブ測距装置によりスクリーンを測距する様子を示した図である。It is the figure which showed a mode that a screen distance-measures with a passive ranging device. (A)はスクリーン1の水平方向に対する傾斜角度を説明するための図であり、(B)はスクリーン1の垂直方向に対する傾斜角度を説明するための図である。(A) is a figure for demonstrating the inclination angle with respect to the horizontal direction of the screen 1, (B) is a figure for demonstrating the inclination angle with respect to the vertical direction of the screen 1. FIG. ラインセンサの構成を示す図である。It is a figure which shows the structure of a line sensor. 画像の端部をスクリーンの端部に合わせる動作時の投影レンズ光学系8の位置を説明するための図であり、(A)は投影レンズ光学系が前回の使用位置にあるときにスクリーン1に投影される画像であり、(B)は投影レンズ光学系をテレ側の端部に移動したときにスクリーン1に投影される画像を示している。It is a figure for demonstrating the position of the projection lens optical system 8 at the time of the operation | movement which matches the edge part of an image with the edge part of a screen, (A) is a screen 1 when a projection lens optical system exists in the last use position. (B) shows an image projected onto the screen 1 when the projection lens optical system is moved to the tele end. 全体の動作手順を示すフローチャートである。It is a flowchart which shows the whole operation | movement procedure. オートフォーカスの詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of an autofocus. 台形歪み補正の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of trapezoid distortion correction. 傾斜角度の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of an inclination angle. オートズームの詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of an auto zoom. 端部検出処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of an edge part detection process. 画像調整処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of image adjustment processing.

符号の説明Explanation of symbols

1 スクリーン 2 プロジェクタ装置
3 制御回路 4 メモリ部
5 投影画像生成部 6 表示駆動部
7 光学系駆動部 8 投影レンズ光学系
20 自動焦点検出装置 21 受光センサ
22 演算部 30 第1パッシブ測距装置
31 撮像部 31a,31b レンズ
31c,31d ラインセンサ 32 演算部
40 第2パッシブ測距装置 41 撮像部
41a,41b レンズ 41c,41d ラインセンサ
42 演算部 221 HPF
222 検波器 223 A/D変換器
224 積分器
DESCRIPTION OF SYMBOLS 1 Screen 2 Projector apparatus 3 Control circuit 4 Memory part 5 Projection image generation part 6 Display drive part 7 Optical system drive part 8 Projection lens optical system 20 Automatic focus detection apparatus 21 Light receiving sensor 22 Calculation part 30 1st passive ranging device 31 Imaging Unit 31a, 31b Lens 31c, 31d Line sensor 32 Calculation unit 40 Second passive distance measuring device 41 Imaging unit 41a, 41b Lens 41c, 41d Line sensor 42 Calculation unit 221 HPF
222 Detector 223 A / D converter 224 Integrator

Claims (7)

画像をスクリーンに拡大表示する画像投影手段と、
複数の画素を有するセンサを備え、受光量に応じたセンサデータを出力するセンサデータ出力手段と、
最も縮小した前記画像を前記スクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示し、前記画像の端部を前記スクリーンの端部に合わせる制御手段と、
を有することを特徴とするプロジェクタ装置。
Image projection means for enlarging and displaying an image on a screen;
Sensor data output means comprising a sensor having a plurality of pixels and outputting sensor data according to the amount of received light;
While projecting the most reduced image onto the screen and comparing the pixel position where the reflected light at the edge of the screen is received with the pixel position where the reflected light at the edge of the image projected onto the screen is compared Control means for enlarging and displaying the image, and aligning the edge of the image with the edge of the screen;
A projector apparatus comprising:
前記制御手段は、前記スクリーン端部の反射光を受光した画素、または前記画像の端部の反射光を受光した画素を検出する時に、前記センサの中央部から端部に向かってセンサデータの値が大きく変化する画素を検出することを特徴とする請求項1記載のプロジェクタ装置。 When the control means detects a pixel that has received reflected light at the edge of the screen or a pixel that has received reflected light at the edge of the image, the value of sensor data from the center to the edge of the sensor The projector apparatus according to claim 1, wherein a pixel in which the change greatly varies is detected. 前記制御手段は、前記センサの中央部から端部に向かって隣接画素間のセンサデータの差を取り、該センサデータの差が所定のしきい値を超えた画素を検出することで前記画像または前記スクリーンの端部を検出することを特徴とする請求項1または2記載のプロジェクタ装置。 The control means takes a difference in sensor data between adjacent pixels from the center to the end of the sensor, and detects the image or the pixel by detecting a pixel in which the difference in the sensor data exceeds a predetermined threshold value. The projector device according to claim 1, wherein an end portion of the screen is detected. 前記制御手段は、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、前記しきい値を超えたセンサデータを検出することで前記画像の端部または前記スクリーンの端部を検出することを特徴とする請求項1または2記載のプロジェクタ装置。 The control means selects sensor data to be compared with a predetermined threshold value from the central portion toward the end portion of the sensor, and detects the sensor data exceeding the threshold value to detect the edge portion of the image or The projector device according to claim 1, wherein an end portion of the screen is detected. 前記画像は、白色画像の端部が黒色になっていることを特徴とする請求項1から4のいずれか一項記載のプロジェクタ装置。 5. The projector device according to claim 1, wherein an edge of the white image is black in the image. 前記スクリーンの端部は、黒色に形成されていることを特徴とする請求項1から5のいずれか一項記載のプロジェクタ装置。 The projector device according to claim 1, wherein an end portion of the screen is formed in black. 最も縮小した画像をスクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示していくことで、前記画像の端部を前記スクリーンの端部に合わせることを特徴とする投影画像調整方法。 Projecting the most reduced image onto the screen, comparing the pixel position that received the reflected light at the edge of the screen with the pixel position that received the reflected light at the edge of the image projected onto the screen The projected image adjustment method is characterized by aligning the edge of the image with the edge of the screen by enlarging the image.
JP2004040796A 2004-02-18 2004-02-18 Projector device and projection image adjustment method Pending JP2005234071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004040796A JP2005234071A (en) 2004-02-18 2004-02-18 Projector device and projection image adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004040796A JP2005234071A (en) 2004-02-18 2004-02-18 Projector device and projection image adjustment method

Publications (1)

Publication Number Publication Date
JP2005234071A true JP2005234071A (en) 2005-09-02

Family

ID=35017112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004040796A Pending JP2005234071A (en) 2004-02-18 2004-02-18 Projector device and projection image adjustment method

Country Status (1)

Country Link
JP (1) JP2005234071A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221081A (en) * 2010-04-05 2011-11-04 Nec Access Technica Ltd Projector, projector control method and projector control program
JP2012078683A (en) * 2010-10-05 2012-04-19 Seiko Epson Corp Projector and trapezoidal distortion correction method
US11889238B2 (en) 2019-12-27 2024-01-30 Fujifilm Corporation Projection apparatus, projection method, and control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221081A (en) * 2010-04-05 2011-11-04 Nec Access Technica Ltd Projector, projector control method and projector control program
JP2012078683A (en) * 2010-10-05 2012-04-19 Seiko Epson Corp Projector and trapezoidal distortion correction method
US11889238B2 (en) 2019-12-27 2024-01-30 Fujifilm Corporation Projection apparatus, projection method, and control program

Similar Documents

Publication Publication Date Title
JP2003131121A (en) Device and method for automatic focus adjustment
US7042560B2 (en) Angle detecting apparatus and projector having the same
JP5845023B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
JP6014452B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
US7570298B2 (en) Image-taking apparatus with first focus control such that in-focus position is searched for based on first signal and second focus control such that one of in-focus position and drive amount is determined based on second signal
JP6381434B2 (en) FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
JP2002365524A (en) Autofocus device and imaging device using the same
US20070058962A1 (en) Lens apparatus
JP2005181726A (en) Projector apparatus and method for adjusting projected image
JP2005249432A (en) Projector device and distance measuring method
JP2005234071A (en) Projector device and projection image adjustment method
JP4576852B2 (en) Focus status detection device
JP2005049604A (en) Projector and focusing method for projector
JP2005143043A (en) Projector and focus detecting method
JP2004038114A (en) Auto-focus camera
JPH11109218A (en) Automatic focus detector
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2005234350A (en) Projector device and focus adjusting method
JP3382321B2 (en) Optical equipment
WO2004104668A1 (en) Projector and image adjusting method
JP2005143054A (en) Projector and method for detecting fault state thereof
JP2004347908A (en) Projector and automatic focusing method
JP2005348379A (en) Projector and distance data correction method
JP2004347909A (en) Projector and automatic focusing method
JP2011247988A (en) Imaging apparatus