JP2005234071A - Projector device and projection image adjustment method - Google Patents
Projector device and projection image adjustment method Download PDFInfo
- Publication number
- JP2005234071A JP2005234071A JP2004040796A JP2004040796A JP2005234071A JP 2005234071 A JP2005234071 A JP 2005234071A JP 2004040796 A JP2004040796 A JP 2004040796A JP 2004040796 A JP2004040796 A JP 2004040796A JP 2005234071 A JP2005234071 A JP 2005234071A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- image
- edge
- pixel
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Lens Barrels (AREA)
Abstract
Description
本発明はプロジェクタ装置に関し、特に画像をスクリーンの表示領域いっぱいに表示する機能(以下、オートズーム機能という)を備えたプロジェクタ装置及びこのプロジェクタ装置における投影画像調整方法に関する。 The present invention relates to a projector apparatus, and more particularly, to a projector apparatus having a function of displaying an image over the entire display area of a screen (hereinafter referred to as an auto zoom function) and a projection image adjusting method in the projector apparatus.
オートズーム機能を備えたプロジェクタ装置が特許文献1に開示されている。特許文献1に開示のプロジェクタ装置は、プロジェクタ装置からスクリーンまでの距離を測定するアクティブ測距装置を備えており、この測距装置の発光素子を上下左右に移動させて、受光素子での信号入力レベルの変化を調べている。スクリーンとスクリーン外の壁とでは投射光の反射率が大きく変わるため、スクリーン端部を検出することができる。スクリーン端部を検出すると、発光素子を移動させた移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めて、このスクリーンの大きさに基づいてオートズームを行っている。
A projector apparatus having an auto zoom function is disclosed in
しかしながら、発光素子を移動させるための駆動機構は、プロジェクタ装置には本来必要のない機構であり、このため装置構成が大きくなる、装置が高価になるなどの問題がある。また、発光素子の移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めなければならず、不要な演算処理が発生する。 However, the drive mechanism for moving the light emitting element is a mechanism that is not originally required for the projector apparatus, and there is a problem that the apparatus configuration becomes large and the apparatus becomes expensive. Further, the size of the screen must be calculated from the movement amount of the light emitting element and the focal length information of the projection lens, and unnecessary calculation processing occurs.
また、スクリーンとスクリーン外の壁との反射率の違いからスクリーン端部を検出しているが、壁の反射率が高く、壁の反射率がスクリーンの反射率に近かった場合、スクリーン端部を検出することが難しくなる。 Also, the screen edge is detected from the difference in reflectance between the screen and the wall outside the screen, but if the wall reflectance is high and the wall reflectance is close to the screen reflectance, the screen edge is It becomes difficult to detect.
本発明は上記事情に鑑みてなされたものであり、スクリーンの周りの環境によらず精度の高いオートズームを行うことができるプロジェクタ装置及び画像調整方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a projector apparatus and an image adjustment method capable of performing highly accurate auto zoom regardless of the environment around the screen.
かかる目的を達成するために請求項1記載のプロジェクタ装置は、画像をスクリーンに拡大表示する画像投影手段と、複数の画素を有するセンサを備え、受光量に応じたセンサデータを出力するセンサデータ出力手段と、最も縮小した前記画像を前記スクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示し、前記画像の端部を前記スクリーンの端部に合わせる制御手段と、を有することを特徴としている。
In order to achieve the above object, a projector apparatus according to
請求項1記載の発明は、スクリーン端部の反射光を受光したセンサの画素位置と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素位置とを比較して、画像の端部をスクリーンの端部に合わせるように画像投影手段を制御している。従って、簡単な構成でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。また、最も縮小した画像をスクリーンに投影しておき、画像を拡大させながら画像端部をスクリーン端部に合わせているため、壁等の反射率によらず確実にオートズームを行うことができる。 According to the first aspect of the present invention, the pixel position of the sensor that receives the reflected light at the edge of the screen is compared with the pixel position of the sensor that receives the reflected light at the edge of the image projected on the screen. The image projecting means is controlled so that the end is aligned with the end of the screen. Therefore, an image can be displayed in the entire display area of the screen with a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted. In addition, since the most reduced image is projected onto the screen and the image edge is aligned with the screen edge while enlarging the image, automatic zooming can be reliably performed regardless of the reflectivity of the wall or the like.
請求項2記載のプロジェクタ装置は、請求項1記載のプロジェクタ装置において、前記制御手段は、前記スクリーン端部の反射光を受光した画素、または前記画像の端部の反射光を受光した画素を検出する時に、前記センサの中央部から端部に向かってセンサデータの値が大きく変化する画素を検出することを特徴としている。
The projector device according to
請求項2記載の発明は、センサの中央部から端部に向かってセンサデータの値が大きく変化する画素を検出することで、スクリーン端部の反射光を受光した画素と、スクリーンに投影された画像の端部の反射光を受光した画素とを検出している。センサの中央部は、画像の反射光を受光していることになるのでセンサデータの値が略一定となる。従ってスクリーン端部及び画像端部のセンサデータの判定が容易となり、壁の反射率によらず確実にスクリーン端部と画像の端部とを検出することができる。 According to the second aspect of the present invention, pixels that receive reflected light at the edge of the screen are projected onto the screen by detecting pixels in which the value of the sensor data changes greatly from the center to the edge of the sensor. A pixel that receives the reflected light at the edge of the image is detected. Since the central part of the sensor receives the reflected light of the image, the value of the sensor data becomes substantially constant. Accordingly, the sensor data at the screen edge and the image edge can be easily determined, and the screen edge and the image edge can be reliably detected regardless of the reflectance of the wall.
請求項3記載のプロジェクタ装置は、請求項1または2記載のプロジェクタ装置において、前記制御手段は、前記センサの中央部から端部に向かって隣接画素間のセンサデータの差を取り、該センサデータの差が所定のしきい値を超えた画素を検出することで前記画像または前記スクリーンの端部を検出することを特徴としている。 According to a third aspect of the present invention, in the projector device according to the first or second aspect, the control means takes a difference in sensor data between adjacent pixels from a central portion to an end portion of the sensor, and the sensor data The image or the edge of the screen is detected by detecting a pixel whose difference exceeds a predetermined threshold value.
請求項3記載の発明は、センサの中央部から端部に向かって隣接画素間のセンサデータの差を取り、センサデータの差を所定のしきい値と比較している。従って、画像またはスクリーンの端部を確実に検出することができる。 According to the third aspect of the present invention, the sensor data difference between adjacent pixels is taken from the center to the end of the sensor, and the sensor data difference is compared with a predetermined threshold value. Therefore, it is possible to reliably detect the edge of the image or the screen.
請求項4記載のプロジェクタ装置は、請求項1または2記載のプロジェクタ装置において、前記制御手段は、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、前記しきい値を超えたセンサデータを検出することで前記画像の端部または前記スクリーンの端部を検出することを特徴としている。 According to a fourth aspect of the present invention, in the projector device according to the first or second aspect, the control means selects sensor data to be compared with a predetermined threshold value from the central portion toward the end portion of the sensor, An edge of the image or an edge of the screen is detected by detecting sensor data that exceeds the threshold value.
請求項4記載の発明は、センサの中央部から端部に向かってセンサデータと所定のしきい値とを比較している。従って、画像またはスクリーンの端部を確実に検出することができる。
The invention according to
請求項5記載のプロジェクタ装置は、請求項1から4のいずれか一項記載のプロジェクタ装置において、前記画像は、白色画像の端部が黒色になっていることを特徴としている。 A projector device according to a fifth aspect is the projector device according to any one of the first to fourth aspects, wherein an edge of a white image is black in the image.
請求項5記載の発明は、画像が白色画像の端部を黒色にした画像としている。従って、白色画像と端部の黒色画像とでセンサデータの値に差ができるため、画像の端部の判定が容易になる。
In the invention described in
請求項6記載のプロジェクタ装置は、請求項1から5のいずれか一項記載のプロジェクタ装置において、前記スクリーンの端部は、黒色に形成されていることを特徴としている。 A projector device according to a sixth aspect is the projector device according to any one of the first to fifth aspects, wherein an end portion of the screen is formed in black.
請求項6記載の発明は、スクリーンの端部を黒色に形成している。従って、スクリーンの表示領域と端部とでセンサデータの値に差ができるため、スクリーン端部の判定が容易となる。
In the invention described in
請求項7記載の投影画像調整方法は、最も縮小した画像をスクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示していくことで、前記画像の端部を前記スクリーンの端部に合わせることを特徴としている。 The projected image adjustment method according to claim 7, wherein the most contracted image is projected onto a screen, and the pixel position where the reflected light at the edge of the screen is received and the reflected light at the edge of the image projected onto the screen are obtained. The image is enlarged and displayed while comparing with the received pixel position, so that the edge of the image is aligned with the edge of the screen.
請求項7記載の発明は、スクリーン端部の反射光を受光したセンサの画素位置と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素位置とを比較して、画像の端部をスクリーンの端部に合わせている。従って、簡単な構成でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。また、最も縮小した画像をスクリーンに投影しておき、画像を拡大させながら画像端部をスクリーン端部に合わせているため壁の反射率によらず確実にオートズームを行うことができる。 According to the seventh aspect of the present invention, the pixel position of the sensor that receives the reflected light at the edge of the screen is compared with the pixel position of the sensor that receives the reflected light at the edge of the image projected on the screen. The edge is aligned with the edge of the screen. Therefore, an image can be displayed in the entire display area of the screen with a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted. In addition, since the most reduced image is projected onto the screen and the image edge is aligned with the screen edge while enlarging the image, automatic zooming can be reliably performed regardless of the reflectance of the wall.
本発明は、スクリーンの周りの環境によらずスクリーンの表示領域いっぱいに画像を表示させることができる。 According to the present invention, an image can be displayed in the entire display area of the screen regardless of the environment around the screen.
次に、添付図面を参照しながら本発明の最良の実施例を説明する。 Next, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
まず、図1を参照しながら本実施例のプロジェクタ装置の構成について説明する。図1に示されるように本実施例のプロジェクタ装置2は、投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光して、投影画像の焦点位置を判定するためのコントラストデータを算出する自動焦点検出装置20と、プロジェクタ装置2からスクリーン1までの距離をスクリーン1の左右方向(水平方向)の複数ポイントで測距する第1パッシブ測距装置30と、同じくプロジェクタ装置2からスクリーン1までの距離をスクリーン1の上下方向(垂直方向)の複数ポイントで測距する第2パッシブ測距装置40と、図示しないパーソナルコンピュータ等の機器から画像を入力して、画像情報を出力する投影画像生成部5と、投影レンズ光学系8へ画像を出力する表示駆動部6と、表示駆動部6により出力された画像をスクリーン1上に投影する投影レンズ光学系8と、投影レンズ光学系8の焦点距離を変更するために、光軸に沿って投影レンズ光学系8を移動させるステッピングモータ等からなる光学系駆動部7と、プロジェクタ装置2の構成に必要なデータや命令を記憶したメモリ部4と、これら各部を制御する制御回路3とを有している。
First, the configuration of the projector apparatus according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the
自動焦点検出装置20は、図1に示されるように投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光する受光センサ21と、受光センサ21から出力される電気信号に演算を行い、受光量に応じたセンサデータと、画像のコントラストとを算出する演算部22とを有している。本実施例では、受光センサ21としてCCDラインセンサを適用している。
As shown in FIG. 1, the automatic focus detection device 20 receives a reflected light of an image projected on the
図2を参照しながら自動焦点検出装置20の演算部22について説明する。図2に示されるように演算部22は、受光センサ21によって出力される電気信号から高周波成分を取り出す高域通過フィルタ(以下、HPFとも記載する)221と、高周波成分だけとなった輝度信号の振幅検波を行なう検波器222と、検波器222の検波出力をA/D変換し、ディジタルのセンサデータに変換するA/D変換器223と、A/D変換器223から出力されるディジタルのセンサデータを積分する積分器224と、を有している。A/D変換器223からはセンサデータが出力され、積分器224からは図3に示す画像信号のコントラストデータが出力される。
The
画像信号の高周波成分に現れるコントラストは、図3に示されるように、合焦位置でコントラストが最大となり、合焦位置から外れるに従ってコントラストが減少していくという特性を有している。この特性を利用して、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める(以下、この方法を山登りオートフォーカスと呼ぶ)。
As shown in FIG. 3, the contrast appearing in the high-frequency component of the image signal has a characteristic that the contrast becomes maximum at the in-focus position and decreases as the position deviates from the in-focus position. Using this characteristic, the position (focus position) of the projection lens
図4は、図1に示したプロジェクタ装置2を正面から見た構成を示した図である。プロジェクタ装置2の正面には投影レンズが設けられている。投影レンズは投影レンズ光学系(コンデンサレンズを含んでいてもよい)8に含まれ、投影レンズを介してスクリーン1上へ画像が投影される。
FIG. 4 is a diagram showing a configuration of
図4に示されるように第1パッシブ測距装置30は、プロジェクタ装置2の正面を構成する平面上で、水平方向に基線長aだけ離間して配置された一対のレンズ31a及び31bを備えた撮像部31を有している。同様に第2パッシブ測距装置40は、図4に示されるようにプロジェクタ装置2の正面を構成する平面上で、垂直方向に基線長bだけ離間して配置された一対のレンズ41a及び41bを備えた撮像部41を有している。なお、本実施例では、図4に示されるように撮像部31の基線長aに平行する方向をプロジェクタ装置2の第1基準方向と呼ぶ。また、撮像部41の基線長bに平行する方向をプロジェクタ装置2の第2基準方向と呼ぶ。
As shown in FIG. 4, the first passive
図5(A)に示すように基線長aだけ離れた一対のレンズ31a,31bの下には、基線長cだけ離れた一対のラインセンサ31c,31dが設けられている。同様に基線長bだけ離れた一対のレンズ41a,41bの下には、基線長dだけ離れた一対のラインセンサ41c,41dが設けられている。図5(A)に示されるように基線長aだけ離間して配置されたレンズ31a,31b間の距離は、基線長cだけ離間して配置されたラインセンサ31c,31d間の距離よりも長くなっている。また、図示していないが、同様に基線長bだけ離間して配置されたレンズ41a,41b間の距離は、基線長dだけ離間して配置されたラインセンサ41c,41d間の距離よりも長くなっている。このため図5(B)に示されるように一対のレンズの各光軸が一対のラインセンサの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。なお、図5(A)に点線で示すレンズが通常位置に配置されたレンズであり、このレンズの受光可能範囲が点線で示されている。また、実線で示すレンズが本実施例でのレンズ位置であり、このレンズの受光可能範囲が一点鎖線で示されている。
As shown in FIG. 5A, a pair of
図6を参照しながら撮像部31の構成について説明する。外部から入射した光を受光するレンズ31aの下には、焦点距離fだけ離間されてラインセンサ31cが配置され、またセンサ31bの下には、焦点距離fだけ離間されてラインセンサ31dが配置されている。これらのラインセンサ31c,31dは、直線状に配列された複数の光検出素子を有する一対のラインCCDまたはその他のライン型撮像素子からなる。なお、ラインセンサ31c,31dの構成については説明の便宜上後ほど詳述する。撮像部31は、レンズ31a及び31bを介してラインセンサ31c及び31d上に結像した画像について、図示しない出力部を介して画像の光量に応じた電気信号を直列的に出力する。なお、撮像部41についても撮像部31と同様に、レンズ41a,41bから焦点距離fだけ離間されてそれぞれラインセンサ41c,41dが配置されている。
The configuration of the
演算部32は、ラインセンサ31c,31dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算する。演算部42も同様にラインセンサ41c,41dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算し、この相関値に基づいてスクリーン1までの距離を演算する。
The
制御回路3は、自動焦点検出装置20の演算部22から出力されるコントラストデータにより、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める。そして求めた合焦位置に投影レンズ光学系8を移動させる制御を行う。また、制御回路3は、第1パッシブ測距装置30の測距演算結果に基づき、プロジェクタ装置2の第1基準方向(水平方向)に対するスクリーン1の傾斜角度θ1(図7(A)参照)を算出する。同様に第2パッシブ測距装置40の測距演算結果に基づき、プロジェクタ装置2の第2基準方向(垂直方向)に対するスクリーン1の傾斜角度θ2(図7(B)参照)を算出する。また、制御回路3は、画像がスクリーン1の表示領域いっぱいに投影されるように投影レンズ光学系8の位置を調整する。
The
投影画像生成部5は、外部のパソコン等の画像データ出力部から出力される画像データを入力し、入力した画像データを表示用データに変換して表示駆動部6に出力する。
The projection
表示駆動部6は、画像歪み補正部として機能し、制御回路3が算出した第1基準方向及び第2基準方向に対する傾斜角に基づき、不図示の投影レンズとしてのコンデンサレンズを含む投影レンズ光学系8を調整して、投影画像の台形歪みを補正する。また、表示駆動部6は、不図示の投影レンズのピント調整を自動的に行うオートフォーカス手段として機能する。投影レンズ光学系8は、所定の映像光をスクリーン1上に投影する。
The
次に、図6を参照しながら第1パッシブ測距装置(外光三角測距方式)30の動作原理を説明する。図6には第1パッシブ測距装置30によりスクリーン1までの距離を測定する様子が示されている。なお、第2パッシブ測距装置40の動作原理も第1パッシブ測距装置30と同様であるため説明を省略する。
Next, the operation principle of the first passive distance measuring device (external light triangular distance measuring method) 30 will be described with reference to FIG. FIG. 6 shows how the first passive
図6(A)において、一対のレンズ31a及び31bが、プロジェクタ装置2の正面を構成する平面上に水平方向に延びた所定の基線長aだけ離間して配置されている。プロジェクタ装置2の正面を構成する平面の下には、これら一対のレンズ31a及び31bからそれらの焦点距離fだけそれぞれ離間され、基線長a方向に延びた一対のラインセンサ31c及び31dが配置されている。レンズ31a,31bの各光軸が一対のラインセンサ31c,31dの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。これらラインセンサ31c及び31d上に、それぞれ対応するレンズ31a及び31bを介して距離測定(測距)対象のスクリーン1上のある位置の画像Tが結像される。図6(A)においては、スクリーン1上の測定位置Tが、異なる方向の光路A及びBを通って、それぞれのレンズ31a及び31bを介してラインセンサ31c及び31d上に結像されている。
6A, a pair of
測定位置Tが無限遠の位置に存在すると仮定した場合、一対のレンズ31a及び31bから焦点距離fにあるラインセンサ31c及び31d上には、測定位置Tがレンズ31a及び31bのそれぞれの光軸31ax及び31bxと交差する基準位置31cx及び31dxに結像されることになる。ここで測定位置Tが無限遠位置からレンズ31aの光軸31ax上の方向Aに沿って近づき、図6(A)の位置、すなわち、レンズ31aからスクリーン1までの距離LCに達すると、測定位置Tはラインセンサ31c上においては、基準位置31cx上に結像されたままであるが、ラインセンサ31d上においては、レンズ31bにより基準位置31dxから位相差(ずれ量)αだけずれた位置に結像される。
Assuming that the measurement position T exists at an infinite position, the measurement position T is located on the
このとき、三角測距の原理から測定位置Tまでの距離LCは、LC=af/αで求められる。ここで、基線長aと焦点距離fは予め知られている既知の値であり、ラインセンサ31d上の基準位置31dxからの位相差(ずれ量)αを検出すれば、距離LCを測定できる。すなわち、スクリーン1までの距離を検出できる。これが外光三角測距のパッシブ型ラインセンサ測距装置の動作原理である。位相差(ずれ量)αの検出及びLC=af/αの演算は、図1に示す演算部32で実行される。
At this time, the distance LC from the principle of triangulation to the measurement position T is obtained by LC = af / α. Here, the base line length a and the focal length f are known values known in advance, and the distance LC can be measured by detecting the phase difference (shift amount) α from the reference position 31dx on the
ラインセンサ31dの基準位置31dxからの位相差(ずれ量)αの検出は、一対のラインセンサ31c及び31dから出力される一対の画像データ信号列IL及びIRからそれぞれ抽出した部分画像データ群iLm及びiRnについて、演算部32が相関演算を行なうことにより検出する。
Detection of the phase difference (shift amount) α from the reference position 31dx of the
上記相関演算の概略を説明する。図6(B)に示すように、相関演算は部分画像データ群iLm及びiRnを互いに重ねた時に最も一致度が高くなる領域を、重ね合わせる部分画像データ群iLm及びiRnをラインセンサ31c及び31d上で相対的にずらしながら検出していく演算である。図6(B)においては、一方のラインセンサ31cからの部分画像データ群iLmを基準位置31cxに位置を固定して、基準部として使用する。他方のラインセンサ31dからの部分画像データ群iRnは参照部として位置を一画素ずつずらして行き、基準部と最も一致度の高い部分画像データ群iRnを探す。最も一致度の高い部分画像データ群iRnを発生するラインセンサ31d上の位置とそのラインセンサ31dの基準位置31dxと間の間隔が位相差(ずれ量)αである。
An outline of the correlation calculation will be described. As shown in FIG. 6 (B), the correlation calculation is performed on the
ラインセンサ31c及び31dの各々は、所定数の光検出素子(画素)を所定長の直線上に配列した一対のラインCCDで構成されているから、位相差(ずれ量)αは、部分画像データ群iRnの画像データ信号列IR内の画素位置と画素ピッチから容易に求めることができる。このようにして、レンズ31aの光軸31axと同じ方向Aにある測定位置Tまでの距離LCを、位相差(ずれ量)αを検出することにより測定できる。
Since each of the
次に、ラインセンサの構成について図8を参照しながら説明する。図8には、一対のラインセンサ31c、31dにて、複数方向の距離を検出する際のラインセンサの構成が示されている。図8に示すように、ラインセンサ31c、31dを複数に分割し、測距方向に応じて基準位置を複数設定することにより、1つの測距装置で複数方向の距離を検出することができる。すなわち、一対のラインセンサ31c,31dで複数方向の測距を行う際には、図8に示したようにラインセンサ31c中に複数の測距方向(本例ではR(右)、C(中央)、L(左)とする)に基づく複数の基準位置に応じた複数の測距演算領域(31cR、31cC、31cL)を設ける。同様にラインセンサ31d中に複数の測距方向(R、C、L)に基づく複数の基準位置に応じた複数の測距演算領域(31dR、31dC、31dL)を設ける。そして、測距方向で対応する1対の測距演算領域(31cRと31dR、31cCと31dC、31cLと31dL)中の部分映像データを使用して基準位置からのずれ量を求めることができる。
Next, the configuration of the line sensor will be described with reference to FIG. FIG. 8 shows the configuration of a line sensor when a pair of
本実施例のプロジェクタ装置2は、スクリーン1の表示領域いっぱいに画像を投影するオートズーム機能を備えている。このオートズーム機能について説明する。本実施例では、まずズームレンズを含む投影レンズ光学系8をテレ側の端部(画像を最も縮小して投影する位置)に移動させる。投影レンズ光学系8は前回使用した時の位置にあるため、図9(A)に示すように投影レンズ光学系8をテレ側の端部に移動させておくことで、投影した画像がスクリーン1からはみ出さないようにする。なお、図9(A)にはスクリーン1にオートズーム用の画像パターンが投影された状態を示しているが、この時には画像パターンはスクリーン1に投影していなくてもよい。
The
次に、スクリーン1にオートズーム用の画像パターンを投影して、画像パターンの端部13とスクリーン1の端部11とを検出する。オートズーム用の画像パターンは、図9(A),(B)に示すように白色の画像領域12と、黒色の端部13とからなる。また、スクリーン1も図9(A),(B)に示すように画像を表示する表示領域10と、所定の幅に亘って黒色に形成された端部11とからなる。このため白色の画像領域12からの反射光を受光する受光センサ21の画素と、黒色の端部13からの反射光を受光する受光センサ21の画素とではセンサデータの値にかなりの差を生じる。同様にスクリーン1の表示領域10からの反射光を受光する受光センサ21の画素と、スクリーン1の端部11からの反射光を受光する受光センサ21の画素とではセンサデータの値にかなりの差を生じる。センサデータを比較していくことで画像パターンの端部13とスクリーン1の端部11とを検出することができる。なお、画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。画像パターンの中心がスクリーン1の中心から大きくずれていると、投影画像の調整処理を行ってもスクリーン1から画像がはみ出る、スクリーン1いっぱいに画像が投影されないなどの不具合が生じる可能性もある。
Next, an image pattern for auto-zoom is projected on the
センサデータを比較していく具体的な方法として、本実施例では受光センサ21の隣り合う画素のセンサデータの差を取り、求めたセンサデータの差を所定のしきい値と比較していく。所定のしきい値との比較は、受光センサ21の中央部から端部に向けて行う。上述したように画像パターンの中心とスクリーン1の中心とがほぼ一致するように画像パターンが投影されているので、受光センサ21の中央部は、画像パターンの画像領域12からの反射光を受光していることになる。白色の画像領域12からの反射光を受光する画素の出力は、値が略一定となっており、画像パターンの端部13及びスクリーン1の端部11からの反射光を受光する画素の出力とは値が大きく異なっている。このため受光センサ21の中央部から端部に向けてセンサデータの差を所定のしきい値と比較していくことで、画像パターンの端部13又はスクリーン1の端部11を検出することができる。なお、受光センサ21の中央部から端部に向けてセンサデータの差をしきい値と比較していった場合、センサデータの差が最初に所定のしきい値よりも大きくなった画素が、画像パターンの端部13(以降、この画素を画素Pと呼ぶ)、次にセンサデータの差が所定のしきい値よりも大きくなった画素が、スクリーン1の端部11と判定することができる(以降、この画素を画素Sと呼ぶ)。また、隣接する画素間のセンサデータの差を絶対値を取ってしきい値と比較すると、画像領域12と端部13との境界と、端部13とスクリーン1の表示領域10との境界とを検出してしまうことになる。このため隣接する画素間でのセンサデータの差をしきい値と比較する時には、センサデータの差の絶対値をしきい値と比較しないようにする。
As a specific method for comparing the sensor data, in this embodiment, the difference between the sensor data of adjacent pixels of the
次に、画像パターンの端部13の位置とスクリーン1の端部11の位置とを比較して、画像パターンの端部13をスクリーン1の端部11に合わせる。投影レンズ光学系8を最初にテレ側の端部に移動しているので、図9(B)に示すように画像パターンの端部13はスクリーン1の端部11よりも内側にある。画像パターンの端部13として判定された画素Pの画素番号と、スクリーン1の端部11として判定された画素Sの画素番号とを比較し、両者が一致していない場合には、投影レンズ光学系8をワイド側に駆動(以降、画像パターンを拡大する方向への投影レンズ光学系8の駆動をワイド駆動と呼ぶ)する。例えば、レンズ駆動手段としてステップモータを用いた場合、ワイド側に1ステップ駆動する。この位置での受光センサ21のセンサデータを取り出して、画像パターンの端部13(画素Pの位置)を再度検出する。以降この処理を画像パターン13とスクリーン1の端部11とが一致するまで、すなわち、センサデータの差が最初にしきい値を超えた画素Pの位置が、スクリーン1の端部11の画素Sの位置に一致するまで行う。
Next, the position of the
このように本実施例は、最も縮小した画像をスクリーン1に投影しておき、スクリーン端部11の反射光を受光した画素位置と、スクリーン1に投影された画像パターンの端部13の反射光を受光した画素位置とを比較しながら画像を拡大表示し、画像パターンの端部13をスクリーン1の端部11に合わせる制御を行っている。従って、スクリーン1の周りの環境によらず精度のよいオートズームを行うことができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。
As described above, in this embodiment, the most reduced image is projected onto the
また、隣接する画素のセンサデータの差と、所定のしきい値との比較をスクリーン1の中央部から端部に向けて、すなわちラインセンサの中央部から端部に向けて行っている。ラインセンサの中央部は、スクリーン1または画像パターンの反射光、特に白色に対応する反射光を受光しているのでセンサデータの値が略一定となっている。従って、白色と黒色とのセンサデータの差からスクリーン端部11及び画像パターンの端部13のセンサデータの判定が容易になり、端部の検出を確実に行うことができる。
Further, the difference between the sensor data of adjacent pixels and a predetermined threshold value are compared from the center to the end of the
なお、プロジェクタ装置においては、投影画像のアスペクト比は一定であるため、画像パターンの端部13とスクリーン1の端部11とを合わせる処理を水平方向と垂直方向のいずれか一方において行えば、他方も必然的に合わされることになる。
In the projector device, since the aspect ratio of the projected image is constant, if the process of combining the
また、本実施例ではスクリーンの端部11を黒色としているが、スクリーン1の背後に黒色の物体(例えば壁)があれば、スクリーン1全体を白色にしてもスクリーンの端部11を十分に検出することができる。
In this embodiment, the end 11 of the screen is black. However, if there is a black object (for example, a wall) behind the
また、本実施例では隣接する画素のセンサデータの差を所定のしきい値と比較することで、画像パターンの端部13からの反射光を受光した画素位置と、スクリーン1の端部11からの反射光を受光した画素位置とを検出している。この他に、受光センサ21から出力されるセンサデータを直接しきい値と比較して、画像パターンの端部13及びスクリーンの端部11を検出することも可能である。
Further, in this embodiment, the difference between sensor data of adjacent pixels is compared with a predetermined threshold value, so that the reflected pixel light from the
次にオートズーム機能を実現するための動作手順を図10に示すフローチャートを参照しながら説明する。まず、投影画像の焦点がスクリーン1に合うように焦点合わせを行うオートフォーカス処理(ステップS1)、プロジェクタ装置2とスクリーン1との位置関係により生じる台形歪みを補正する台形歪み補正処理(ステップS2)などが行われる。これらの処理の詳細な手順については後述する。オートズーム処理の前に焦点合わせ、台形歪みの補正を行っておくことで、画像パターンの端部13をスクリーン1の端部に精度よく合わせることができる。すなわち、オートズーム機能の精度を向上させることができる。オートフォーカス処理、台形歪み補正処理が終わると、オートズーム処理を実行する(ステップS3)。
Next, an operation procedure for realizing the auto zoom function will be described with reference to a flowchart shown in FIG. First, autofocus processing for performing focusing so that the projected image is focused on the screen 1 (step S1), and trapezoidal distortion correction processing for correcting trapezoidal distortion caused by the positional relationship between the
次に上述した各処理の詳細な手順についてフローチャートを参照しながら説明する。まず、図11に示されたフローチャートを参照しながらオートフォーカス(図10に示すステップS1)の動作手順を説明する。なお、ここでは山登りオートフォーカスについて説明するが、オートフォーカスは、山登りオートフォーカスに限定されるものではなく、他の方法を適用することができる。また、以下では、ステップモータを用いて投影レンズ光学系8を駆動する例を説明するが、他のモータ、例えばDCモータなどを用いることも可能である。この場合、DCモータへの通電時間によって投影レンズ光学系8の駆動量を制御する。まず、光学系駆動部7により投影レンズ光学系8が初期位置に駆動され、計測結果を記憶するメモリ部4の領域が初期化される(ステップS20)。初期化される情報としては、自動焦点検出装置20で算出されるコントラスト値(cont)と、算出されたコントラスト値の中で値が最大となるコントラスト値(Max_cont)と、初期位置からMax_cont位置までのステップ数の情報などが挙げられる。
Next, a detailed procedure of each process described above will be described with reference to a flowchart. First, the operation procedure of autofocus (step S1 shown in FIG. 10) will be described with reference to the flowchart shown in FIG. Although hill-climbing autofocus is described here, autofocus is not limited to hill-climbing autofocus, and other methods can be applied. In the following, an example in which the projection lens
次に、プロジェクタ装置2内に予め記憶されている、自動焦点調節に適したオートフォーカス用の画像パターンを投影レンズ光学系8によりスクリーン1上に投影する(ステップS21)。
Next, an image pattern for autofocus suitable for automatic focus adjustment stored in advance in the
次に、図3に示すようにステッピングモータ等の光学系駆動部7により投影レンズ光学系8を初期位置から一定速度で移動させる(繰り出し開始)。なお、初期位置とは、投影レンズ光学系8によって投影される画像のピントが合う位置(合焦位置)が無限遠となる投影レンズ光学系8の位置である。同時に受光センサ21がスクリーン1に投影された画像パターンの反射光を受光する(ステップS22)。受光センサ21は受光した反射光量に応じた電気信号を後段の演算部22に出力する(ステップS23)。受光センサ21からの電気信号は演算部22でフィルタ処理、A/D変換処理、積分処理などが施され(ステップS24)、画像のコントラスト値(cont)が算出される(ステップS25)。算出されたコントラスト値(cont)は、制御回路3に出力される。
Next, as shown in FIG. 3, the projection lens
制御回路3は、演算部22で算出されたコントラスト値(cont)が、最大のコントラスト値(Max_cont)よりも大きいか否かを判定する。最大のコントラスト値(Max_cont)とは、算出したコントラスト値よりも前に得られたコントラスト値の中で値が最大のものである。もし、算出したコントラスト値(cont)が最大コントラスト値(Max_cont)よりも大きければ(ステップS26/YES)、コントラスト値(cont)を最大コントラスト値(Max_cont)として入れ換え、この位置までのステップ数(初期位置を0として起算したもの)をメモリ部4に登録する(ステップS27)また、算出したコントラスト値が最大コントラスト値(Max_cont)よりも小さい場合には(ステップS26/NO)、このコントラスト値に対する処理を終了する。
The
次に、制御回路3はステッピングモータを駆動するステップ数が、予め設定されたステップ数に達したかどうかを確認する(ステップS28)。投影レンズ光学系8を初期位置から最近位置まで駆動させるためのステップ数は予め決まっているため、現在の駆動ステップ数が、この最近位置までのステップ数に達したかどうかを判定する。達していなければ(ステップS28/NO)、受光センサ21で出力される反射光量に応じた電気信号からコントラスト値を算出し、最大コントラスト値(Max_cont)と比較する手順を繰り返す。なお、最近位置とは、投影レンズ光学系8がプロジェクタ装置2に最も近い位置にピントを合わせることができる投影レンズ光学系8の位置である。
Next, the
現在の駆動ステップ数が、最近位置までのステップ数に達した場合には(ステップS28/YES)、コントラスト値の測定を終了し、検出したMax_cont位置へ投影レンズ光学系8を移動させる制御を行う(ステップS29)。このような手順を経ることで、投影される画像の焦点をスクリーンに合わせることができる。
When the current number of driving steps reaches the number of steps up to the nearest position (step S28 / YES), the measurement of the contrast value is terminated, and control is performed to move the projection lens
次に、図12に示されたフローチャートを参照しながら台形歪み補正(図10に示すステップS2)の手順を説明する。まず、投影レンズ光学系8によりスクリーン1上に位相差検出用の画像パターンを投影する(ステップS30)。第1パッシブ測距装置30、及び第2パッシブ測距装置40で位相差の検出が容易となるように、白と黒の縦縞の画像パターンが位相差検出用画像として使用される。スクリーン1上に投影された位相検出用画像の反射光を第1パッシブ測距装置30、及び第2パッシブ測距装置40で受光して、プロジェクタ装置2からスクリーン1上の複数の測定位置までの距離を測距する(ステップS31)。位相差検出用画像の反射光をラインセンサ31c,31d,41c,41dでそれぞれ受光し、各ラインセンサの基準位置からのずれ量(位相差)を演算部32、42でそれぞれ検出して、測定対象(スクリーン1上の測定位置)までの距離を測定する。演算部32は、ラインセンサ31c,31dから出力される一対の画像データ信号列からそれぞれ抽出した部分画像データ群について相関演算を行い、ずれ量を検出する。演算部42についても同様に、ラインセンサ41c、41dから出力される画像データに対して相関演算を行い、ずれ量を検出する。第1パッシブ測距装置30、及び第2パッシブ測距装置40によって測距された測距データは、制御回路3に送信される。
Next, the procedure of trapezoidal distortion correction (step S2 shown in FIG. 10) will be described with reference to the flowchart shown in FIG. First, an image pattern for phase difference detection is projected on the
次に、測距データを用いて角度演算を行う(ステップS32)。第1パッシブ測距装置30の測距データにより第1基準方向に対するスクリーン1の傾斜角度θ1(図13参照)を算出する方法を例に挙げて、角度演算について説明する。図13に示すように、第1パッシブ測距装置30の第1基準方向(プロジェクタ装置2の水平方向)に対するスクリーン1の傾斜角度をθ1とし、測距位置1Aに対して測距演算領域31cCを用いて測距演算された結果をLl、測距位置1Bに対して測距演算領域31cRを用いて測距演算された結果をL2、測距位置1Aと光軸Lとの距離をL1’、測距位置1Bと光軸Lとの距離をL2’とすると、傾斜角度θ1は、
tanθ1=(L2−L1)/(L1’+L2’)
で求められる。
Next, angle calculation is performed using distance measurement data (step S32). The angle calculation will be described by taking as an example a method of calculating the tilt angle θ1 (see FIG. 13) of the
tan θ1 = (L2−L1) / (L1 ′ + L2 ′)
Is required.
ここで、三角形の相似により、L1:L1’=f:P(1a−k)が成り立つ。これを展開すると、L1’=PL1(1a−k)/fとなる。ここで、1aは測距演算領域31cLに結像した測距位置1Aのコントラスト重心位置に相当する画素番号、kは光軸に相当するラインセンサの画素番号、Pはラインセンサの画素ピッチ、fは焦点距離である。同様にL2’は、L2’=PL2(1b−k)/fで表わせる。ここで、1bは測距演算領域31cRに結像した測距位置1Bのコントラスト重心位置に相当する画素番号である。なお、P及びfは設計段階等で求められる定数であり、これらの値は制御回路3内に予め記憶しておく。なお、コントラスト重心位置の求め方については公知技術(例えば特開平8−75985号参照)であるため、本実施例では、その説明を省略する。また、第2パッシブ測距装置40の測距データに基づいて、第2基準方向に対するスクリーン1の傾斜角度θ2を算出する方法についても同様の方法を適用することができる。
Here, L1: L1 ′ = f: P (1a−k) holds due to the similarity of the triangles. When this is expanded, L1 '= PL1 (1a-k) / f. Here, 1a is the pixel number corresponding to the contrast centroid position of the
傾斜角θ1、θ2が求まると、制御回路3は求めた傾斜角θ1、θ2を表示駆動部6に出力する。表示駆動部6は、制御回路3が算出した水平方向及び垂直方向の傾斜角に基づきコンデンサレンズを含む投影レンズ光学系8を調整して投影画像の台形歪みを補正する(ステップS33)。また、投影画像生成部5において制御回路3が算出した水平方向及び垂直方向の傾斜角度に基づき投影画像とは逆の台形歪みのある画像の表示データを生成し(キーストン補正)、投影画像の台形歪みを電気的に補正するようにしてもよい。
When the inclination angles θ1 and θ2 are obtained, the
次に、図14に示されたフローチャートを参照しながらオートズーム処理(図10に示すステップS3)の詳細な動作手順を説明する。まず、ズームレンズを含む投影レンズ光学系8をテレ側の端部(画像を最も縮小して投影する位置)に移動させる(ステップS40)。投影レンズ光学系8は前回使用時の位置にあるため、図9(A)に示すように投影レンズ光学系8をテレ側の端部に移動させることで、画像をスクリーン1に投影した際に画像がスクリーン1からはみ出さないようにする。なお、図9(A)にはスクリーン1にオートズーム用の画像パターンが投影された状態を示しているが、この時には画像パターンはスクリーン1に投影していなくてもよい。
Next, a detailed operation procedure of the auto zoom process (step S3 shown in FIG. 10) will be described with reference to the flowchart shown in FIG. First, the projection lens
次に、スクリーン1にオートズーム用の画像パターンを投影する(ステップS41)。オートズーム用の画像パターンは、白色の画像領域12と黒色の端部13とからなる。同様にスクリーン1も画像を表示する表示領域10と、所定の幅に亘って黒色に形成された端部11とからなる。スクリーン1に投影された画像パターンを図9(A)に示す。画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。
Next, an image pattern for auto zoom is projected on the screen 1 (step S41). The image pattern for auto zooming includes a
スクリーン1での反射光を自動焦点検出装置20の受光センサ21で受光してセンサデータを出力し、このセンサデータを用いて画像パターンの端部13及びスクリーン1の端部11を検出する(ステップS42)。画像パターンの端部13及びスクリーン1の端部11を検出すると、画像パターンの端部13をスクリーン1の端部11に合わせる画像調整処理43が行われる。
The reflected light from the
次に、センサデータの値を用いて画像パターンの端部13及びスクリーン1の端部11を検出する処理(図14に示すステップS42)の詳細を図15に示すフローチャートを参照しながら説明する。オートズーム用の画像パターンをスクリーン1に投影し、スクリーン1からの反射光を自動焦点検出装置20の受光センサ21で受光する。受光センサ21からは反射光量に応じた電気信号が演算部22に送られる。演算部22は、入力した電気信号から高周波成分を高域通過フィルタ221で取り出し、検波器222で振幅検波を行い、検波器222の出力をA/D変換したセンサデータを制御回路3に出力する(ステップS51)。なお、上述したように端部の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。
Next, details of the process (step S42 shown in FIG. 14) for detecting the
演算部22で演算され取り出されたセンサデータには、スクリーン1の反射光と画像パターンの反射光とが含まれており、隣接画素のセンサデータの差をしきい値と比較していくことで、スクリーンの端部11と画像パターンの端部13とを検出することができる。制御回路3は、センサデータの差としきい値との比較をスクリーン中央部から端部に向けて行い、センサデータの差が最初にしきい値を超えた画素(画素P)を検出する(ステップS52)。この画素Pの画素番号をメモリ部4に記憶する(ステップS53)。なお、スクリーン中央部から端部の方向へセンサデータの差としきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS54/YES)、図示しない表示部にエラー表示を行う(ステップS55)。
The sensor data calculated and extracted by the
センサデータの差が最初にしきい値を超えた画素Pを検出すると(ステップS52/YES)、画素Pの次の画素からセンサデータの差としきい値との比較を継続して行う(ステップS56)。センサデータの差がしきい値よりも大きい画素(画素S)を検出すると(ステップS56/YES)、この画素Sの画素番号をメモリ部4に記憶する(ステップS57)。なお、スクリーン中央部から端部の方向へセンサデータの差としきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS58/YES)、このまま処理を終了する。また、再度画像パターンをスクリーン1に投影して、投影画像調整処理を行うものであってもよい。
When the pixel P in which the difference in sensor data first exceeds the threshold value is detected (step S52 / YES), the comparison between the difference in sensor data and the threshold value is continued from the pixel next to the pixel P (step S56). . When a pixel (pixel S) having a sensor data difference larger than the threshold value is detected (step S56 / YES), the pixel number of the pixel S is stored in the memory unit 4 (step S57). If the sensor data difference from the center of the screen toward the edge and the threshold value are compared, sensor data having a value larger than the threshold value cannot be found in all pixels ( In step S58 / YES), the process is terminated as it is. Alternatively, the image pattern may be projected again on the
次に、画像調整処理(図14のステップS43)の詳細を図16に示すフローチャートを参照しながら説明する。制御回路3は、投影レンズ光学系8をワイド側に1ステップ駆動する(ステップS60)。この位置で画像パターンをスクリーン1に投影し、スクリーン1からの反射光を受光センサ21で受光する。受光センサ21の出力を演算部22で演算しセンサデータを出力する(ステップS61)。制御回路3は、センサデータの差としきい値との比較をスクリーン中央部からスクリーン端部11に向けて行う(ステップS62)。スクリーン中央部の画素のセンサデータの差からしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに変えていく。センサデータの差がしきい値よりも大きい画素を検出すると(ステップS62/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をPとする)(ステップS63)。なお、スクリーン中央部から端部の方向へセンサデータの差としきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS65/YES)、図示しない表示部にエラー表示を行う(ステップS66)。
Next, details of the image adjustment process (step S43 in FIG. 14) will be described with reference to the flowchart shown in FIG. The
センサデータの差が最初にしきい値を超えた画素Pを検出すると(ステップS62/YES)、制御回路3は、画素Pを、スクリーン端部11の画素Sと比較する(ステップS64)。画素Pの画素番号と画素Sの画素番号とが一致した場合(ステップS64/YES)、投影した画像パターンの端部13をスクリーンの端部11に一致させることができたので、この処理を終了する。画素Pの画素番号が、画素Sの画素番号に一致していなかった場合には(ステップS64/NO)、上述したステップS60〜ステップS63までの処理を繰り返し行い、画素Pの画素番号と画素Sの画素番号とを一致させる。
When the pixel P in which the difference in sensor data first exceeds the threshold value is detected (step S62 / YES), the
なお、上述した実施例は本発明の好適な実施例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
1 スクリーン 2 プロジェクタ装置
3 制御回路 4 メモリ部
5 投影画像生成部 6 表示駆動部
7 光学系駆動部 8 投影レンズ光学系
20 自動焦点検出装置 21 受光センサ
22 演算部 30 第1パッシブ測距装置
31 撮像部 31a,31b レンズ
31c,31d ラインセンサ 32 演算部
40 第2パッシブ測距装置 41 撮像部
41a,41b レンズ 41c,41d ラインセンサ
42 演算部 221 HPF
222 検波器 223 A/D変換器
224 積分器
DESCRIPTION OF
222 Detector 223 A /
Claims (7)
複数の画素を有するセンサを備え、受光量に応じたセンサデータを出力するセンサデータ出力手段と、
最も縮小した前記画像を前記スクリーンに投影し、前記スクリーン端部の反射光を受光した画素位置と、前記スクリーンに投影された前記画像の端部の反射光を受光した画素位置とを比較しながら前記画像を拡大表示し、前記画像の端部を前記スクリーンの端部に合わせる制御手段と、
を有することを特徴とするプロジェクタ装置。 Image projection means for enlarging and displaying an image on a screen;
Sensor data output means comprising a sensor having a plurality of pixels and outputting sensor data according to the amount of received light;
While projecting the most reduced image onto the screen and comparing the pixel position where the reflected light at the edge of the screen is received with the pixel position where the reflected light at the edge of the image projected onto the screen is compared Control means for enlarging and displaying the image, and aligning the edge of the image with the edge of the screen;
A projector apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004040796A JP2005234071A (en) | 2004-02-18 | 2004-02-18 | Projector device and projection image adjustment method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004040796A JP2005234071A (en) | 2004-02-18 | 2004-02-18 | Projector device and projection image adjustment method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005234071A true JP2005234071A (en) | 2005-09-02 |
Family
ID=35017112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004040796A Pending JP2005234071A (en) | 2004-02-18 | 2004-02-18 | Projector device and projection image adjustment method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005234071A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221081A (en) * | 2010-04-05 | 2011-11-04 | Nec Access Technica Ltd | Projector, projector control method and projector control program |
JP2012078683A (en) * | 2010-10-05 | 2012-04-19 | Seiko Epson Corp | Projector and trapezoidal distortion correction method |
US11889238B2 (en) | 2019-12-27 | 2024-01-30 | Fujifilm Corporation | Projection apparatus, projection method, and control program |
-
2004
- 2004-02-18 JP JP2004040796A patent/JP2005234071A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221081A (en) * | 2010-04-05 | 2011-11-04 | Nec Access Technica Ltd | Projector, projector control method and projector control program |
JP2012078683A (en) * | 2010-10-05 | 2012-04-19 | Seiko Epson Corp | Projector and trapezoidal distortion correction method |
US11889238B2 (en) | 2019-12-27 | 2024-01-30 | Fujifilm Corporation | Projection apparatus, projection method, and control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003131121A (en) | Device and method for automatic focus adjustment | |
US7042560B2 (en) | Angle detecting apparatus and projector having the same | |
JP5845023B2 (en) | FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE | |
JP6014452B2 (en) | FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE | |
US7570298B2 (en) | Image-taking apparatus with first focus control such that in-focus position is searched for based on first signal and second focus control such that one of in-focus position and drive amount is determined based on second signal | |
JP6381434B2 (en) | FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD | |
JP2002365524A (en) | Autofocus device and imaging device using the same | |
US20070058962A1 (en) | Lens apparatus | |
JP2005181726A (en) | Projector apparatus and method for adjusting projected image | |
JP2005249432A (en) | Projector device and distance measuring method | |
JP2005234071A (en) | Projector device and projection image adjustment method | |
JP4576852B2 (en) | Focus status detection device | |
JP2005049604A (en) | Projector and focusing method for projector | |
JP2005143043A (en) | Projector and focus detecting method | |
JP2004038114A (en) | Auto-focus camera | |
JPH11109218A (en) | Automatic focus detector | |
JP4865275B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2005234350A (en) | Projector device and focus adjusting method | |
JP3382321B2 (en) | Optical equipment | |
WO2004104668A1 (en) | Projector and image adjusting method | |
JP2005143054A (en) | Projector and method for detecting fault state thereof | |
JP2004347908A (en) | Projector and automatic focusing method | |
JP2005348379A (en) | Projector and distance data correction method | |
JP2004347909A (en) | Projector and automatic focusing method | |
JP2011247988A (en) | Imaging apparatus |