JP2012128113A - Projection correcting method, projection correcting device, and projection correcting program - Google Patents
Projection correcting method, projection correcting device, and projection correcting program Download PDFInfo
- Publication number
- JP2012128113A JP2012128113A JP2010278493A JP2010278493A JP2012128113A JP 2012128113 A JP2012128113 A JP 2012128113A JP 2010278493 A JP2010278493 A JP 2010278493A JP 2010278493 A JP2010278493 A JP 2010278493A JP 2012128113 A JP2012128113 A JP 2012128113A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- correction
- image
- image data
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、投影補正方法、投影補正装置、及び投影補正プログラムに関する。 The present invention relates to a projection correction method, a projection correction apparatus, and a projection correction program.
複数のプロジェクタを使用して画像を投影するマルチプロジェクタシステムは、様々な用途に利用されている。例えば、各プロジェクタからの画像を繋ぎ合わせて巨大な画像を生成するタイリング法を用いたシステムが知られている。非特許文献1には、スクリーンに発生した影を消すため、2つのプロジェクタのうち、どちらのプロジェクタから投影された光が隠蔽されたかを判定し、スクリーン上に現れた影による欠損した輝度を補償する方法が記載されている。これらの例では、複数のプロジェクタを使うことの利点が発揮されている。 A multi-projector system that projects an image using a plurality of projectors is used in various applications. For example, a system using a tiling method that connects images from projectors to generate a huge image is known. In Non-Patent Document 1, in order to erase the shadow generated on the screen, it is determined which of the two projectors the light projected from the projector is concealed, and the missing luminance due to the shadow appearing on the screen is compensated How to do is described. In these examples, the advantage of using a plurality of projectors is demonstrated.
非特許文献1に記載の方法を含め、一般的に、プロジェクタを使ったフロント・プロジェクション、又はリア・プロジェクションでは、スクリーンを取り巻く照明環境に変化があると、スクリーン上の光学輝度が変化して、所望の画像が投影されないという問題があった。例えば、照明を消した暗室状態と蛍光灯を照らした環境では、スクリーン上の投影像においてそれぞれの輝度は異なる。また、スライドを使ったプレゼンテーションや遠隔会議システム等の環境では、スライドを投影した初期状態から照明状態が変化すると、スクリーン上での見え方が変化してしまう。 In general, including the method described in Non-Patent Document 1, in front projection using a projector or rear projection, if there is a change in the lighting environment surrounding the screen, the optical brightness on the screen changes, There is a problem that a desired image is not projected. For example, in a dark room state where the illumination is turned off and in an environment where a fluorescent lamp is illuminated, the luminances of the projected images on the screen are different. Also, in an environment such as a presentation using slides or a teleconference system, when the lighting state changes from the initial state in which the slide is projected, the appearance on the screen changes.
これに対して、非特許文献2には、1台のプロジェクタとカメラからなるシステムを使った輝度補正方法が記載されている。この方法では、プロジェクタからのRGB輝度値とカメラで観測されたRGB輝度値との間の相関関係に着目する。この方法はカラー混合行列(Color Mixing Matrix)と呼ばれる3×3の行列Vを使って、予め定めたRGB輝度値C=(CR,CG,CB)をカメラが観測するように、プロジェクタからのRGB出力値P=(PR,PG,PB) を補正する。
On the other hand, Non-Patent
しかしながら、非特許文献2に記載の技術では、スクリーンに発生した影を消去できないという欠点があった。以上のように、非特許文献1、2に記載の技術では、所望の画像を投影できないという欠点があった。
However, the technique described in Non-Patent
本発明は、上記の点に鑑みてなされたものであり、所望の画像を投影できる投影補正方法、投影補正装置、及び投影補正プログラムを提供する。 The present invention has been made in view of the above points, and provides a projection correction method, a projection correction apparatus, and a projection correction program capable of projecting a desired image.
(1)本発明は、上記の課題を解決するためになされたものであり、本発明の一態様は、第1の投影装置と第2の投影装置が同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1のステップと、前記第1のステップで撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2のステップと、前記第2のステップで投影された投影画像を撮像する第3のステップと、前記第3のステップで撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4のステップと、を有することを特徴とする投影補正方法である。 (1) The present invention has been made in order to solve the above-described problems. In one embodiment of the present invention, the first projection apparatus and the second projection apparatus share the same projected image data with the same contents. The first projection device based on the first step of projecting so as to overlap the location of the image and capturing the projection image, the image data of the image captured in the first step, and the projection image data The second step of correcting and projecting the projected image projected by the camera, the third step of capturing the projected image projected in the second step, and the image data of the image captured in the third step And a fourth step of correcting and projecting the projection image projected by the second projection device based on the projection image data.
(2)また、本発明の一態様は、上記の投影補正方法において、前記第1のステップと前記第2のステップを予め定めた回数繰り返した後、前記第3のステップと前記第4のステップを行うことを特徴とする。 (2) Further, according to one aspect of the present invention, in the projection correction method, the first step and the second step are repeated a predetermined number of times, and then the third step and the fourth step are performed. It is characterized by performing.
(3)また、本発明の一態様は、上記の投影補正方法において、前記第2のステップ、及び第4のステップで、画像の明るさを補正することを特徴とする。 (3) Further, according to one aspect of the present invention, in the above-described projection correction method, the brightness of the image is corrected in the second step and the fourth step.
(4)また、本発明の一態様は、同一の内容の被投影画像を同一の場所に重なるように投影する第1の投影装置、第2の投影装置と、前記第1の投影装置と前記第2の投影装置によって投影された投影画像を撮像する撮像部と、前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正する第1の補正部と、前記第1の補正部が補正した投影画像を前記第1の投影装置が投影した後に、前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第2の投影装置が投影する投影画像を補正する第2の補正部と、を有することを特徴とする投影補正装置である。 (4) Further, according to one embodiment of the present invention, the first projection device, the second projection device, the first projection device, and the first projection device that project projected images having the same contents so as to overlap each other at the same place The first projection device projects based on an imaging unit that captures a projection image projected by the second projection device, and image data and projection image data of the projection image captured by the imaging unit. A first correction unit that corrects the projected image, and image data of the projection image captured by the imaging unit after the first projection device projects the projection image corrected by the first correction unit A projection correction apparatus comprising: a second correction unit that corrects a projection image projected by the second projection apparatus based on projection image data.
(5)また、本発明の一態様は、投影補正装置のコンピュータに、同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1の手順、第1の手順で撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2の手順、前記第2の手順で投影された投影画像を撮像する第3の手順、前記第3の手順で撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4の手順、を実行させる投影補正プログラムである。 (5) Further, according to one aspect of the present invention, a first procedure for projecting projected image data having the same contents on a computer of a projection correction apparatus so as to overlap the same location and capturing a projected image is provided. The second procedure for correcting and projecting the projection image projected by the first projection device based on the image data of the image captured by the procedure and the projection image data, and projecting by the second procedure A third procedure for capturing the projected image, and correcting and projecting the projection image projected by the second projection device based on the image data of the image captured in the third procedure and the projection image data This is a projection correction program for executing the fourth procedure.
本発明によれば、所望の画像を投影できる。 According to the present invention, a desired image can be projected.
(第1の実施形態)
以下、図面を参照しながら、本発明の第1の実施形態について詳しく説明する。
図1は、本発明の第1の実施形態に係る投影補正装置1の構成を示すブロック図である。図示する例では、投影補正装置1は、カメラ(撮像部)101、画像入力部102、フレーム処理部103、適応輝度補正部104−1(第1の補正部)、104−2(第2の補正部)(適応輝度補正部104−1、適応輝度補正部104−2を、適応輝度補正部104とも称す)、プロジェクタ105−1(第1の投影装置)、105−2(第2の投影装置)プロジェクタ105−1、プロジェクタ105−2を、プロジェクタ105とも称す)、コンテンツDB(データベース)106、及び輝度補正DB(データベース)107を備える。
(First embodiment)
Hereinafter, the first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a projection correction apparatus 1 according to the first embodiment of the present invention. In the illustrated example, the projection correction apparatus 1 includes a camera (imaging unit) 101, an
カメラ101は、スクリーンに投影された投影画像を撮像する。カメラ101は、撮像した画像の撮像画像データを画像入力部102に出力する。例えば、カメラ101は、天井付近等の上方に設置し、スクリーンのみが写るように撮像する。これにより、投影補正装置1では、スクリーン全体が隠れることなく投影画像全体を撮像できる。
画像入力部102は、カメラ101から入力された撮像画像データをフレーム処理部103へ出力する。
The
The
フレーム処理部103は、処理の開始時に、初期状態であることを示す初期化信号を適応輝度補正部104に出力する。ここで、処理の開始時とは、例えば、システムの起動時や、別の画像へ切り替えたとき、ユーザがリセット操作を行ったときなどである。
フレーム処理部103は、画像入力部102から入力された撮像画像データを適応輝度補正部104に出力する。フレーム処理部103は、撮像画像データと共に、後述するSW信号を適応輝度補正部104に出力する。SW信号とは、撮像画像データを適応輝度補正部104に出力したことを示す信号であり、複数ある適応輝度補正部104のうち、輝度信号の補正を行う適応輝度補正部104を示す情報である。輝度信号とは、フレーム処理部103によって、コンテンツDB106から読み出されたオリジナル画像データの画素毎の輝度(明るさ)を示す信号である。フレーム処理部103が出力するSW信号には、フレーム番号が付される。フレーム番号とは、フレーム処理部103が、入力された画像に対して、入力された順に付す番号であり、1から始まる自然数である。
フレーム処理部103は、フレーム番号が、予め定めた値になったときに、処理を終了する。
The
The
The
適応輝度補正部104は、入力された初期化信号に応じて、輝度補正DB107に記録されたパラメータの初期化を行う。なお、この初期化の詳細については、後述する。
適応輝度補正部104は、フレーム処理部103から入力されたSW信号に基づいて、輝度信号の補正を行うか否かを判定する。適応輝度補正部104は、輝度信号の補正を行うと判定した場合には、コンテンツDB105から、投影される画像データであるオリジナル画像データを読み出す。適応輝度補正部104は、読み出したオリジナル画像データと、フレーム処理部103から入力された撮像画像データとに基づいて、読み出したオリジナル画像データの輝度信号を補正し、補正した輝度信号をプロジェクタ105に出力する。
一方、適応輝度補正部104は、輝度信号の補正を行わないと判定した場合には、補正を行わずに輝度信号をプロジェクタ105に出力する。
適応輝度補正部104は、後述する、輝度補正に使用する補助補正量を輝度補正DB107に書き込み、読み出される。適応輝度補正部104は、後述する、ブレンディング・パラメータα、βを適応輝度補正部104から読み出す。
The adaptive
The adaptive
On the other hand, when it is determined that the luminance signal correction is not performed, the adaptive
The adaptive
プロジェクタ105は、適応輝度補正部104から入力された輝度信号に基づき、画像をスクリーンに投影する。
コンテンツDB106は、スクリーンに投影されるオリジナル画像データ(被投影画像データ)を保存する。輝度補正DB107は、適応輝度補正部104から、輝度補正に使用する補助補正量やブレンディング・パラメータを書き込まれ、記憶する。
The
The
次に、図2を参照して、本実施形態に係る投影補正装置1の動作を説明する。
ここでは、本実施形態における投影補正装置1で行われる各処理の詳細について説明する。
<SW信号の生成処理とフレーム判定について>
ここでは、フレーム処理部103において生成されるSW信号の例について説明する。本実施形態では、SW信号は、フレーム番号に基づいて生成される。フレーム番号とは、フレーム処理部103が、入力された画像に対して、入力された順に付す番号であり、1から始まる自然数である。フレーム処理部103は、SW信号を、フレーム番号を用いて、例えば、以下のようにして生成する。
Next, the operation of the projection correction apparatus 1 according to the present embodiment will be described with reference to FIG.
Here, details of each process performed by the projection correction apparatus 1 in the present embodiment will be described.
<About SW signal generation processing and frame determination>
Here, an example of the SW signal generated in the
フレーム処理部103は、フレーム番号1からフレーム番号Fまでの撮像画像データに対しては、プロジェクタ105−1の補助補正量D1を更新するために用いられることを示すSW信号を生成する。フレーム番号F+1から2Fまでの撮像画像データに対しては、プロジェクタ105−2の補助補正量D2を更新するために用いられることを示すSW信号を生成する。適応輝度補正部104が入力されたSW信号に基づいてプロジェクタ105−1、2が行う2F回の画像に対する補正をフレーム判定と呼ぶ。
次回以降のフレーム判定でも、フレーム番号(m)×F+1から(m+1)×Fまでの撮像画像データに対しては、プロジェクタ105−1の補助補正量D1を更新するために用いられることを示すSW信号を生成する。フレーム番号(m+1)×F+1から(m+2)×Fまでの撮像画像データに対しては、プロジェクタ105−1の補助補正量D2を更新するために用いられることを示すSW信号を生成する(m=0、1、・・・、N−2)。
Be a frame determined next time, with respect to the captured image data from the frame number (m) × F + 1 to (m + 1) × F, indicating that the used to update the auxiliary correction amount D 1 of the projector 105 - An SW signal is generated. For frame number (m + 1) × F from + 1 (m + 2) × image data to F, generates a SW signal indicating that used to update the auxiliary correction amount D 2 of the projector 105-1 (m = 0, 1, ..., N-2).
フレーム処理部103は、上記の例では、撮像画像データに対して、最大でN×Fのフレーム番号を付す。適応輝度補正部104は、それぞれのフレーム番号に対応する撮像画像データを用いて補正処理を行う。例として、F=2、N=3の場合を例示する。フレーム番号1、2には、プロジェクタ105−1で補正処理を行うことを示すSW信号を出力し、フレーム番号3、4には、プロジェクタ105−2で補正処理を行うことを示すSW信号を出力する。ここまでが、第1回目のフレーム判定である。
フレーム番号5、6には、プロジェクタ105−1で補正処理を行うことを示すSW信号を出力し、フレーム番号7、8には、プロジェクタ105−2で補正処理を行うことを示すSW信号を出力する。ここまでが、第2回目のフレーム判定である。
In the above example, the
SW signals indicating that correction processing is performed by the projector 105-1 are output to frame numbers 5 and 6, and SW signals indicating that correction processing is performed by the projector 105-2 are output to frame numbers 7 and 8. To do. This is the second frame determination.
<補正に用いるパラメータの計算について>
本実施形態において、カメラにより観測される輝度値Cは、式(1)に示すように、複数のプロジェクタから投影されるRGB輝度値の和で表される。
<Calculation of parameters used for correction>
In the present embodiment, the luminance value C observed by the camera is represented by the sum of RGB luminance values projected from a plurality of projectors, as shown in Expression (1).
ここで、P1は式(2)で表される、適応輝度補正部104−1から出力されるRGB輝度値であり、P2は式(3)で表される、適応輝度補正部104−2から出力されるRGB輝度値である。また、V1は式(4)で表されるプロジェクタ105−1のカラー混合行列であり、V2は式(5)で表されるプロジェクタ105−2のカラー混合行列である。また、α、βは、投影画像の輝度を、プロジェクタ105−1、2双方のプロジェクタで分配するためのブレンディング・パラメータであり、1より小さな正の定数である。 Here, P 1 is expressed by Equation (2), an RGB luminance values outputted from the adaptive luminance correcting unit 104-1, P 2 is expressed by Equation (3), the adaptive luminance correcting unit 104- RGB luminance values output from 2. Further, V 1 is a color mixing matrix projector 105-1 of the formula (4), V 2 is a color mixing matrix projector 105-2 of the formula (5). Α and β are blending parameters for distributing the brightness of the projected image between the projectors 105-1 and 105-2, and are positive constants smaller than 1.
式(1)に示されるCは、撮像画像データの輝度値であり、式(6)のように表される。また、Fは、室内の照明などによる環境光成分を表し、式(7)のように表される。 C shown in Expression (1) is a luminance value of the captured image data, and is expressed as Expression (6). F represents an ambient light component due to indoor lighting or the like, and is expressed as in Expression (7).
適応輝度補正部104は、フレーム処理部103から初期化信号を入力されたときに、V1、V2、及びFを計算し、その値は、輝度補正DB107に書き込まれる。V1、V2、及びFの計算方法の一例について説明する。ここで、パラメータV1、V2、Fを計算するにあたっては、α=β=1とする。まず、適応輝度補正部104−1は、全画素が0のRGB値を持つサンプル画像のRGB輝度値P1を、プロジェクタ105−1、2に出力し、スクリーンに投影する。式(1)に従えば、撮像画像データの輝度値C=Fとなり、Fが求まる。
When the initialization signal is input from the
次に、適応輝度補正部104−1は、別のサンプル画像を用い、プロジェクタ105−1に出力する。カメラ1は、投影された画像を撮像する。適応輝度補正部104−1は、フレーム処理部103から撮像画像データを入力され、撮像画像データの輝度値(C0と呼ぶ)を得る。
続いて、適応輝度補正部104−1は、C0を取得したのと同じサンプル画像を用い、RGBのうちR(赤)チャネルの出力をΔPRだけ変化させ、プロジェクタ105−1に出力する。カメラ1は、投影された画像を撮像する。適応輝度補正部104−1は、フレーム処理部103から撮像画像データを入力され、撮像画像データの輝度値(C1と呼ぶ)を得る。
Next, adaptive brightness correction section 104-1 uses another sample image and outputs it to projector 105-1. The camera 1 captures the projected image. Adaptive luminance correcting unit 104-1 is input captured image data from the
Then, the adaptive luminance correcting unit 104-1, using the same sample image that was acquired the C 0, the output of the R (red) channel is changed by [Delta] P R of RGB, and outputs to the projector 105-1. The camera 1 captures the projected image. Adaptive luminance correcting unit 104-1 is input captured image data from the
適応輝度補正部104−1は、ΔC=C1−C0を計算する。ΔCのR、G、B、成分はそれぞれ、ΔCR=VRR1ΔPR、ΔCG=VGR1ΔPR、ΔCB=VBR1ΔPRと表されるため、適応輝度補正部104−1は、VRR1=ΔCR/ΔPR、VGR1=ΔCG/ΔPR、VBR1=ΔCB/ΔPRを計算する。適応輝度補正部104-1は、G(緑)、B(青)チャネルに対しても同様に計算する。また、適応輝度補正部104−2も同様に計算する。 The adaptive brightness correction unit 104-1 calculates ΔC = C 1 −C 0 . [Delta] C of R, G, B, respectively component, since represented ΔC R = V RR1 ΔP R, ΔC G = V GR1 ΔP R, and ΔC B = V BR1 ΔP R, the adaptive luminance correcting unit 104-1, Calculate V RR1 = ΔC R / ΔP R , V GR1 = ΔC G / ΔP R , and V BR1 = ΔC B / ΔP R. The adaptive luminance correction unit 104-1 performs the same calculation for the G (green) and B (blue) channels. The adaptive luminance correction unit 104-2 performs the same calculation.
<輝度補正処理について>
適応輝度補正部104−1、2から出力されるRGB輝度値P1、P2を次の式(8)、(9)のように表す。
<About brightness correction processing>
The RGB luminance values P 1 and P 2 output from the adaptive luminance correction units 104-1 and 104-2 are expressed as in the following equations (8) and (9).
ここで、補助補正量D1、D2は、補正のために導入されたパラメータであり、処理開始時に、適応輝度補正部104により、式(10)、(11)のように初期化される。補助補正量D1、D2は、補正を行う過程で適応輝度補正部104により変更されていく。
Here, the auxiliary correction amounts D 1 and D 2 are parameters introduced for correction, and are initialized by the adaptive
適応輝度補正部104は、式(8)、(9)に補助補正量D1、D2を代入することにより計算されたRGB輝度値P1、P2を計算する。適応輝度補正部104は、続いて、P1、P2に、ある正の定数α、β(以下ではブレンディング・パラメータと称する)を乗じた輝度値で表される画像データをそれぞれのプロジェクタ105−1、2に出力する。プロジェクタ105−1、2は、入力された該輝度値に基づいて、画像をスクリーンに投影する。RGBカメラ101は、画像がスクリーンに投影されたとき、式(12)で表される輝度値C’を観測する。
The adaptive
適応輝度補正部104は、観測された輝度値C’が、オリジナル画像の輝度値である所望の輝度値Cとなるように、すなわち、式(13)で示したΔCの絶対値がある閾値よりも小さくなるように、プロジェクタから出力されるRGB輝度値P1、P2を逐次的に補正する。
The adaptive
具体的には、以下の(ア)、(イ)の処理を繰り返し行う。
処理(ア):適応輝度補正部104−1は、式(14)に示すように、D1にΔC1(ここでは、ΔCを、D1にのみ補正を加え、D2には補正を加えないということを明確にするために、ΔC1と表記する。)を加えることにより、補正後の補助補正量D1を求める。
Specifically, the following processes (a) and (b) are repeated.
Process (A): the adaptive luminance correcting unit 104-1, as shown in equation (14), [Delta] C 1 (in this case the D 1, the [Delta] C, adding only the correction to D 1, corrects the addition to the D 2 In order to clarify that there is not, it is expressed as ΔC 1 ) to obtain the corrected auxiliary correction amount D 1 .
適応輝度補正部104−1は、このD1を式(8)に代入し、P1を求める。一方のプロジェクタ105−2は、補助補正値D2にΔC1を加えることなく、D2をそのまま用い、D2を、式(9)に代入することによりP2を求める。適応輝度補正部104−1、2は、このようにして求められたP1、P2に、ブレンディング・パラメータα、βそれぞれを乗じて生成したRGB輝度値を持つ画像データを、プロジェクタ105−1、2を通じて投影する。カメラ101は、投影画像を撮像し、輝度値C’を得る。式(13)にC’を代入することにより、ΔCを求める。以上が、処理(ア)である。
Adaptive luminance correcting unit 104-1 assigns the D 1 in the formula (8), determine the P 1. One projector 105-2, the auxiliary correction value D 2 to without adding [Delta] C 1, used as a D 2, the D 2, obtaining the P 2 by substituting the equation (9). The adaptive luminance correction units 104-1 and 104-2, image data having RGB luminance values generated by multiplying P 1 and P 2 thus obtained by the blending parameters α and β, respectively, are used as the projector 105-1. 2 through. The
処理(イ):適応輝度補正部104−2は、式(15)に示すように、D2にΔC2(ここでは、ΔCを、D2にのみ補正を加え、D1には補正を加えないということを明確にするために、ΔC2と表記する。)を加えることにより、補正後の補助補正量D2を求める。 Process (b): the adaptive luminance correcting unit 104-2, as shown in equation (15), [Delta] C 2 (here, the D 2, the [Delta] C, adding only correction D 2, the correction is added to D 1 In order to clarify that there is not, it is expressed as ΔC 2 ), thereby obtaining the corrected auxiliary correction amount D 2 .
適応輝度補正部104−2は、このD2を式(9)に代入し、P2を求める。一方のプロジェクタ105−1は、補助補正値D1にΔC2を加えることなく、D1をそのまま用い、D1を、式(8)に代入することによりP1を求める。適応輝度補正部104−1、2は、このようにして求められたP1、P2に、ブレンディング・パラメータα、βそれぞれを乗じて生成したRGB輝度値を持つ画像データを、プロジェクタ105−1、2を通じて投影することにより、ΔCを求める。以上が、処理(イ)である。
以後、(ア)、(イ)の処理を繰り返し行うことにより、P1、P2を更新していく。
Adaptive luminance correcting unit 104-2 assigns the D 2 in the formula (9), determining the P 2. One projector 105-1, the auxiliary correction values D 1 to without adding [Delta] C 2, used as a D 1, the D 1, obtaining the P 1 by substituting the equation (8). The adaptive luminance correction units 104-1 and 104-2, image data having RGB luminance values generated by multiplying P 1 and P 2 thus obtained by the blending parameters α and β, respectively, are used as the projector 105-1. 2 to obtain ΔC. The above is the processing (A).
Thereafter, P 1 and P 2 are updated by repeatedly performing the processes (a) and (b).
<画像収束判定について>
上記の(ア)、(イ)の操作を、繰り返し行い、式(16)に示すように|ΔC|が、予め定めた閾値Aよりも小さくなったとき、P1、P2に基づいてスクリーンに投影される画像は収束したと判定する。
<About image convergence judgment>
The above operations (a) and (b) are repeated, and when | ΔC | becomes smaller than a predetermined threshold A as shown in the equation (16), the screen is based on P 1 and P 2. It is determined that the image projected onto is converged.
図2は、本実施形態に係る投影補正装置1の動作を示すフローチャートである。
(ステップS11)フレーム処理部103は、初期化信号を、適応輝度補正部104に出力する。適応輝度補正部104は、フレーム処理部103から初期化信号を入力されたときに、輝度補正DB107内に保存された、カラー混合行列V1、V2、F、補助補正量D1、D2、及びブレンディング・パラメータα、βを初期化する。具体的には、適応輝度補正部104は、カラー混合行列V1、V2、及び環境光のRGB成分を表すFを、上述したように計算し、計算した値を代入する。なお、V1、V2、及びFは、投影補正装置1を起動するときに一度だけ計算する。計算された、V1、V2、及びFは、輝度補正DB107内に保存しておき、次回以降にステップS11で適応輝度補正部104が初期化を行う場合は、V1、V2、及びFは、再度計算する必要はなく、輝度補正DB107内に保存してあるV1、V2、及びFをそのまま用いる。適応輝度補正部104は、補助補正量D1、D2に「0」を代入し、ブレンディング・パラメータα、βに、1以下の正の値を代入する。その後ステップS12に進む。
FIG. 2 is a flowchart showing the operation of the projection correction apparatus 1 according to this embodiment.
(Step S11) The
(ステップS12)カメラ101は、プロジェクタ105−1、2によってスクリーンに投影された投影画像を撮像する。カメラ101は撮像した撮像画像データを画像入力部102に出力する。その後ステップS13に進む。
(ステップS13)フレーム処理部103は、フレーム処理を行う。本ステップS13の処理の詳細は、図3を用いて後述する。その後ステップS14に進む。
(Step S12) The
(Step S13) The
(ステップS14)適応輝度補正部104は、輝度補正処理を行う。本ステップS14の処理の詳細は、図4を用いて後述する。その後ステップS15に進む。
(Step S14) The adaptive
(ステップS15)適応輝度補正部104は、上述したように、式(16)に基づいて、画像収束判定を行う。画像が収束したと判定されたときは、終了処理に進む。画像が収束していないと判定されたときは、ステップS16に進む。
(ステップS16)適応輝度補正部104は、処理開始からの経過時間が、予め定めた値(例えば、1s)より大きいか否かを判定する。予め定めた値より大きいと判定された場合(Yes)は、終了処理に進む。予め定めた値より大きくないと判定された場合(No)は、ステップS17に進む。
(ステップS17)フレーム処理部103は、フレーム番号が、予め定められた値であるか否かを判定する。予め定めた値である場合(Yes)は、終了処理に進む。予め定めた値でない場合(No)は、ステップS12に進む。
(Step S15) As described above, the adaptive
(Step S16) The adaptive
(Step S17) The
次に、図3を参照して、図2に示したステップS13の処理について詳細に説明する。
図3は、本実施形態に係るフレーム処理(ステップS13)の処理を示すフローチャートである。
(ステップS131)フレーム処理部103は、画像入力部102から撮像画像データを入力されたか否かを判定する。撮像画像データを入力されたと判定された場合は、ステップS132に進む。撮像画像データを入力されなかったと判定された場合は、ステップS131に戻る。
(ステップS132)フレーム処理部103は、画像入力部102から入力された撮像画像データを、適応輝度補正部104−1、2に出力する。その後ステップS133に進む。
(ステップS133)フレーム処理部103は、SW信号を適応輝度補正部104−1、2に出力する。なお、このSW信号には、上述したように、画像のフレーム番号を付加してもよい。その後、終了処理に進む。
Next, the process of step S13 shown in FIG. 2 will be described in detail with reference to FIG.
FIG. 3 is a flowchart showing the frame process (step S13) according to the present embodiment.
(Step S131) The
(Step S132) The
(Step S133) The
次に、図4を参照して、図2に示したステップS14の処理について詳細に説明する。ステップS14は、プロジェクタの前方にある物体の影や、照明状態の変化などに起因するスクリーン上の投影画像の輝度の変化に応じて、プロジェクタに出力する輝度信号を補正する処理を行う。 Next, the process of step S14 shown in FIG. 2 will be described in detail with reference to FIG. Step S14 performs a process of correcting the luminance signal output to the projector in accordance with the change in the luminance of the projected image on the screen due to the shadow of the object in front of the projector or the change in the illumination state.
図4は、本実施形態に係る補正処理(ステップS14)を示すフローチャートである。
(ステップS141)適応輝度処理部104は、フレーム処理部103からSW信号が入力されたか否かを判定する。SW信号が入力されたと判定された場合(Yes)は、ステップS142に進む。SW信号が入力されなかったと判定された場合(No)は、ステップS141に戻る。
(ステップS142)適応輝度処理部104は、フレーム処理部103から入力されたSW信号に基づいて、輝度補正を行うか否かを判定する。輝度補正を行うと判定された場合(Yes)は、ステップS143に進む。輝度補正を行わないと判定された場合(No)は、ステップS145に進む。
FIG. 4 is a flowchart showing the correction process (step S14) according to the present embodiment.
(Step S141) The adaptive
(Step S142) The adaptive
(ステップS143)適応輝度処理部104は、コンテンツDB106から、オリジナル画像データを読み出す。
適応輝度処理部104は、撮像画像データに対応する輝度値C’と、オリジナル画像データに対応する輝度値Cを用いて、式(13)に示したΔCを計算する。その後ステップS144に進む。
(ステップS144)適応輝度処理部104は、ステップS143で計算されたΔCを用いて、式(14)、又は式(15)で示すように、補助補正値D1又はD2を更新する。その後ステップS145に進む。
(Step S143) The adaptive
The adaptive
(Step S144) adaptive
(ステップS145)適応輝度処理部104は、D1、及びD2を用いて、式(8)又は(9)で示すように、RGB輝度値P1、P2を計算する。その後ステップS146に進む。
(ステップS146)適応輝度処理部104−1は、ステップS145で計算したP1に基づいて、輝度信号αP1を計算し、αP1をプロジェクタ105−1に出力する。適応輝度処理部104−2は、ステップS145で計算したP2に基づいて、輝度信号βP2を計算し、βP2をプロジェクタ105−2に出力する。プロジェクタ105−1、2は、入力された輝度信号に基づいて、画像をスクリーンに投影する。その後終了処理に進む。
(Step S145) The adaptive
(Step S146) adaptive luminance processing section 104-1, based on P 1 calculated in step S145, calculates the luminance signal .alpha.P 1, and outputs the .alpha.P 1 to the projector 105-1. Adaptive luminance processing section 104-2, based on P 2 calculated in step S145, calculates the luminance signal .beta.P 2, and outputs the .beta.P 2 to the projector 105-2. The projectors 105-1 and 105-2 project an image on a screen based on the input luminance signal. Thereafter, the process proceeds to an end process.
上述した構成によれば、投影補正装置1は、例えば、以下のように動作する。
フレーム処理部103は、パラメータを初期化する。(ステップS11)カメラ101は、投影画像を撮像する。(ステップS12)フレーム処理部103は、投影画像を適応輝度補正部104−1、2に出力する(ステップS132)。フレーム処理部103は、適応輝度補正部104−1が輝度信号の補正を行うことを示すSW信号を適応輝度補正部104−1、2に出力する(ステップS133)。
According to the configuration described above, the projection correction apparatus 1 operates as follows, for example.
The
適応輝度補正部104−1は、式(13)に示したΔC(ここでは、ΔC1)を計算し(ステップS143)、式(14)で示した補助補正値D1を更新する(ステップS144)。適応輝度補正部104−1は、式(8)で与えられるP1に、αを乗じた輝度信号をプロジェクタ105−1に出力する。プロジェクタ105−1は、入力された輝度信号αP1に基づいて、画像をスクリーンに投影する(ステップS145、146)。適応輝度補正部104−2は、式(9)で与えられるP2に、βを乗じた輝度信号をプロジェクタ105−2に出力する。プロジェクタ105−2は、入力された輝度信号βP2に基づいて、画像をスクリーンに投影する(ステップS146)。 Adaptive luminance correction section 104-1 calculates ΔC (here, ΔC 1 ) shown in equation (13) (step S143), and updates auxiliary correction value D 1 shown in equation (14) (step S144). ). Adaptive luminance correcting unit 104-1, and outputs the P 1 given by Equation (8), a luminance signal obtained by multiplying the α projector 105-1. Projector 105-1, based on the luminance signal .alpha.P 1 input, to project an image on the screen (step S145,146). Adaptive luminance correcting unit 104-2, and outputs the P 2 given by equation (9), a luminance signal obtained by multiplying the β projector 105-2. Projector 105-2, based on the luminance signal .beta.P 2 input, to project an image on the screen (step S146).
適応輝度補正部104−1は、ΔC1が、予め定めた閾値より小さいか否かを判定する(ステップS15)。適応輝度補正部104−1は、ΔC1が、予め定めた閾値より小さいと判定した場合は、終了処理に進む。適応輝度補正部104−1は、ΔC1が、予め定めた閾値より小さくないと判定した場合は、次いで、処理開始からの時間の値が、予め定めた閾値よりも大きいか否かを判定する(ステップS16)。適応輝度補正部104−1は、処理開始からの時間の値が、予め定めた閾値よりも大きいと判定した場合は、終了処理に進む。適応輝度補正部104−1は、処理開始からの時間の値が、予め定めた閾値よりも大きくないと判定した場合は、フレーム処理部103は、フレーム番号が、予め定めた値であるか否かを判定する(ステップS17)。フレーム番号が、予め定めた値であると判定された場合は、終了処理に進む。フレーム番号が、予め定めた値でないと判定した場合は、カメラ101は、新たに投影画像を撮像する(ステップS12)。
Adaptive luminance correcting unit 104-1, [Delta] C 1 is determined whether less or not than a predetermined threshold value (step S15). Adaptive luminance correcting unit 104-1, [Delta] C 1 is, if it is determined to be smaller than the predetermined threshold value, the process proceeds to end process. When it is determined that ΔC 1 is not smaller than the predetermined threshold, the adaptive luminance correction unit 104-1 then determines whether or not the value of the time from the start of processing is larger than the predetermined threshold. (Step S16). When it is determined that the time value from the start of processing is greater than a predetermined threshold value, adaptive luminance correction section 104-1 proceeds to end processing. If adaptive luminance correction section 104-1 determines that the value of the time from the start of processing is not greater than a predetermined threshold value,
フレーム処理部103は、投影画像を適応輝度補正部104−1、2に出力する(ステップS132)。フレーム処理部103は、適応輝度補正部104−2が輝度信号の補正を行うことを示すSW信号を適応輝度補正部104−1、2に出力する(ステップS133)。
The
適応輝度補正部104−2は、式(13)に示したΔC(ここでは、ΔC2)を計算し(ステップS143)、式(15)で示した補助補正値D2を更新する(ステップS144)。適応輝度補正部104−2は、式(9)で与えられるP2に、βを乗じた輝度信号をプロジェクタ105−2に出力する。プロジェクタ105−2は、入力された輝度信号βP2に基づいて、画像をスクリーンに投影するステップS145、146)。適応輝度補正部104−1は、式(8)で与えられるP1に、αを乗じた輝度信号をプロジェクタ105−1に出力する。プロジェクタ105−1は、入力された輝度信号βP2に基づいて、画像をスクリーンに投影する(ステップS146)。 The adaptive luminance correction unit 104-2 calculates ΔC (here, ΔC 2 ) shown in Expression (13) (Step S143), and updates the auxiliary correction value D 2 shown in Expression (15) (Step S144). ). Adaptive luminance correcting unit 104-2, and outputs the P 2 given by equation (9), a luminance signal obtained by multiplying the β projector 105-2. Projector 105-2, based on the luminance signal .beta.P 2 input, step S145,146 for projecting an image onto a screen). Adaptive luminance correcting unit 104-1, and outputs the P 1 given by Equation (8), a luminance signal obtained by multiplying the α projector 105-1. Projector 105-1, based on the luminance signal .beta.P 2 input, to project an image on the screen (step S146).
適応輝度補正部104−2は、ΔC2が、予め定めた閾値より小さいか否かを判定する(ステップS15)。適応輝度補正部104−2は、ΔC2が、予め定めた閾値より小さいと判定した場合は、終了処理に進む。適応輝度補正部104−2は、ΔC2が、予め定めた閾値より小さくないと判定した場合は、処理開始からの時間の値が、予め定めた閾値よりも大きいか否かを判定する(ステップS16)。適応輝度補正部104−2は、処理開始からの時間の値が、予め定めた閾値よりも大きいと判定された場合は、終了処理に進む。適応輝度補正部104−2は、処理開始からの時間の値が、予め定めた閾値よりも大きくないと判定した場合は、フレーム処理部103は、フレーム番号が、予め定めた値であるか否かを判定する(ステップS17)。フレーム番号が、予め定めた値であると判定された場合は、終了処理に進む。フレーム番号が、予め定めた値でないと判定した場合は、カメラ101は、新たに投影画像を撮像する(ステップS12)。
以後、適応輝度補正部104−1、2は、交互に補助補正値D1及びD2の更新を繰り返す。この動作により、適応輝度補正部104−1、2は、オリジナル画像データと撮像画像データとの差が小さくなるように、順次補正された輝度値P1、P2を計算する。
Adaptive luminance correcting unit 104-2, [Delta] C 2 is determined or smaller or not than a predetermined threshold value (step S15). Adaptive luminance correcting unit 104-2, [Delta] C 2 is, when it is determined to be smaller than the predetermined threshold value, the process proceeds to end process. If it is determined that ΔC 2 is not smaller than the predetermined threshold value, adaptive luminance correction section 104-2 determines whether or not the value of the time from the start of processing is larger than the predetermined threshold value (Step S1). S16). If it is determined that the time value from the start of processing is greater than a predetermined threshold value, adaptive luminance correction section 104-2 proceeds to end processing. If adaptive brightness correction section 104-2 determines that the value of the time from the start of processing is not greater than a predetermined threshold,
Thereafter, the adaptive luminance correction units 104-1 and 104-2 repeatedly update the auxiliary correction values D 1 and D 2 alternately. By this operation, the adaptive brightness correction units 104-1 and 104-2 calculate the brightness values P 1 and P 2 that are sequentially corrected so that the difference between the original image data and the captured image data becomes small.
このように、本実施形態によれば、プロジェクタ105−1とプロジェクタ105−2は、コンテンツDB106に記録された画像データに基づいて、画像を同一の場所に重なるように投影する。カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−1は、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−1に出力し、プロジェクタ105−1は、画像を投影する。一方、適応輝度補正部104−2は、D2を更新せずに,式(9)により輝度補正を行い、輝度信号をプロジェクタ105−2に出力し、プロジェクタ105−2は、画像を投影する。つまり、撮像された画像データと被投影画像データとに基づいて、投影装置が投影する投影画像を補正して投影する。
カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−2は、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−2に出力し、プロジェクタ105−2は、画像を投影する。一方、適応輝度補正部104−1は、D1を更新せずに,式(8)により輝度補正を行い、輝度信号をプロジェクタ105−1に出力し、プロジェクタ105−1は、画像を投影する。つまり、撮像された画像データと被投影画像データとに基づいて、投影装置が投影する投影画像を補正して投影する。
これにより、本実施形態では、投影補正装置1は、投影装置とスクリーンの間に人などが入って投影画像に影ができたときや、環境の明るさが変化した場合など、撮像画像とオリジナル画像との間に差が生じた場合に、自動的に各プロジェクタの出力を調整し、その差を小さくできる。すなわち、所望の画像を投影できる。また、高品質で高コントラストな投影像を維持することができる。
As described above, according to the present embodiment, the projector 105-1 and the projector 105-2 project images so as to overlap each other based on the image data recorded in the
The
As a result, in this embodiment, the projection correction apparatus 1 is configured such that when a person or the like enters between the projection apparatus and the screen and a shadow is formed on the projection image, or when the brightness of the environment changes, the captured image and the original When there is a difference between the images, the output of each projector can be automatically adjusted to reduce the difference. That is, a desired image can be projected. In addition, a high-quality and high-contrast projection image can be maintained.
また、本実施形態によれば、プロジェクタ105−1とプロジェクタ105−2が投影した画像データに基づいて、適応輝度補正部104−1は輝度補正を行い、適応輝度補正部104−2はD2を更新せずに,式(9)により輝度補正を行い、輝度信号をプロジェクタ105−1、2に出力し、プロジェクタ105−1、2は、画像を投影する。
上記の動作を予め定めた回数を繰り返した後に、プロジェクタ105−1とプロジェクタ105−2が投影した画像データに基づいて、適応輝度補正部104−2は、輝度補正を行い適応輝度補正部104−1はD1を更新せずに,式(8)により輝度補正を行い、で、輝度信号をプロジェクタ105−1、2に出力し、プロジェクタ105−1、2は、画像を投影する。
これにより、本実施形態では、一方のプロジェクタを複数の撮像画像データに基づいて補正を行った後に、他方のプロジェクタを複数の撮像画像データに基づいて補正を行うため、補正が収束するまでの時間を短縮することができる。
Further, according to the present embodiment, the adaptive luminance correction unit 104-1 performs luminance correction based on the image data projected by the projector 105-1 and the projector 105-2, and the adaptive luminance correction unit 104-2 performs D 2. Without updating the brightness, the brightness is corrected by the equation (9), and the brightness signal is output to the projectors 105-1 and 105-2. The projectors 105-1 and 105-2 project the image.
After repeating the above operation a predetermined number of times, the adaptive brightness correction unit 104-2 performs brightness correction based on the image data projected by the projector 105-1 and the projector 105-2, and the adaptive brightness correction unit 104- No. 1 does not update D 1 but performs luminance correction according to equation (8), and outputs a luminance signal to the projectors 105-1 and 105-2, and the projectors 105-1 and 105-2 project an image.
Thereby, in this embodiment, since one projector is corrected based on a plurality of captured image data, and the other projector is corrected based on a plurality of captured image data, the time until the correction converges Can be shortened.
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、プロジェクタを2台用いる場合について説明した。本実施形態では、プロジェクタをN台(N>2)用いる場合について説明をする。
図5は、N台のプロジェクタを使った投影補正装置2の構成を示すブロック図である。本実施形態に係る投影補正装置2は、適応輝度補正部204、及びプロジェクタ205がそれぞれN台であることを除いて、第1の実施形態における投影補正装置1と同様であるため、説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings.
In the first embodiment, the case where two projectors are used has been described. In this embodiment, a case where N projectors (N> 2) are used will be described.
FIG. 5 is a block diagram showing a configuration of the
次に、図6を参照して、本実施形態に係る投影補正装置2の動作を説明する。
図6は、本実施形態に係る投影補正装置2の動作を示すフローチャートである。
Next, the operation of the
FIG. 6 is a flowchart showing the operation of the
(ステップS21)フレーム処理部103は、初期化命令を、適応輝度補正部104に出力する。適応輝度補正部104は、フレーム処理部103から初期化命令を入力されたときに、輝度補正DB107内に保存された、カラー混合行列V1、V2、・・・、VN、環境光のRGB成分であるF、補助補正量D1、D2、・・・、DN、及びブレンディング・パラメータα1、α2、・・・、αNを初期化する。具体的には、適応輝度補正部104は、カラー混合行列V1、V2、・・・、VN、及び環境光のRGB成分であるFを、上述したように計算し、計算した値を代入する。なお、V1、V2、・・・VN及びFは、投影補正装置1を起動するときに一度だけ計算する。計算された、V1、V2、・・・VN及びFは、輝度補正DB107内に保存しておき、次回以降にステップS11で適応輝度補正部104が初期化を行う場合は、V1、V2、・・・VN及びFは、再度計算する必要はなく、輝度補正DB107内に保存してあるV1、V2、及びFをそのまま用いる。補助補正量D1、D2、・・・、DNに「0」を代入し、ブレンディング・パラメータα1、α2、・・・、αNに、1以下の正の値αを代入される。その後ステップS22に進む。
ステップS22の処理は、図2に示した第1の実施形態におけるステップS12の処理と同様である。
(ステップS23)フレーム処理部103は、フレーム処理を行う。本ステップS23の処理の詳細は、図7を用いて後述する。その後ステップS24に進む。
(Step S <b> 21) The
The process of step S22 is the same as the process of step S12 in the first embodiment shown in FIG.
(Step S23) The
(ステップS24)適応輝度補正部104は、輝度補正処理を行う。本ステップS24の処理の詳細は、図8を用いて後述する。その後ステップS25に進む。
ステップS25〜ステップS27の処理は、図2に示した第1の実施形態におけるステップS15〜S17の処理と同様である。
(Step S24) The adaptive
The processes in steps S25 to S27 are the same as the processes in steps S15 to S17 in the first embodiment shown in FIG.
次に、図7を参照して、図6に示したフレーム処理(ステップS23)について詳細に説明する。
図7は、本実施形態に係るフレーム処理(ステップS23)を示すフローチャートである。
ステップS231の処理は、図3に示した第1の実施形態におけるステップS131の処理と同様である。
(ステップS232)フレーム処理部103は、画像入力部102から入力された撮像画像データを、適応輝度補正部104−1、2、・・・、Nに出力する。その後ステップS233に進む。
(ステップS233)フレーム処理部103は、輝度補正を行うプロジェクタを指定するSW信号を適応輝度補正部104−1、2・・・、Nに出力する。なお、このSW信号には、画像のフレーム番号を付加してもよい。その後、終了処理に進む。
Next, the frame process (step S23) shown in FIG. 6 will be described in detail with reference to FIG.
FIG. 7 is a flowchart showing the frame processing (step S23) according to the present embodiment.
The process of step S231 is the same as the process of step S131 in the first embodiment shown in FIG.
(Step S232) The
(Step S233) The
次に、図8を参照して、図6に示した補正処理(ステップS24)について詳細に説明する。
図8は、本実施形態に係る補正処理(ステップS24)を示すフローチャートである。
ステップS241〜S243の処理は、図4に示した第1の実施形態におけるステップS141〜S143の処理と同様である。
(ステップS244)適応輝度処理部104―kは、ステップS243で計算されたΔC(ΔCkと呼ぶ)を用いて、式(17)で示すように、補助補正値Dkを更新する。その後ステップS245に進む。
Next, the correction process (step S24) shown in FIG. 6 will be described in detail with reference to FIG.
FIG. 8 is a flowchart showing the correction process (step S24) according to the present embodiment.
The processing of steps S241 to S243 is the same as the processing of steps S141 to S143 in the first embodiment shown in FIG.
(Step S244) adaptive luminance processing unit 104-k, using the [Delta] C calculated in step S243 (referred to as [Delta] C k), as shown in equation (17), updates the auxiliary correction value D k. Thereafter, the process proceeds to step S245.
(ステップS245)適応輝度処理部104は、D1、D2、・・・、DNを用いて、式(18)で示すように、RGB輝度値P1、P2、・・・、PNを計算する。その後ステップS246に進む。
(Step S245) The adaptive
(ステップS246)適応輝度処理部104−k(k=1、2、・・・、N)は、ステップS605で計算したPkに基づいて、輝度信号αkPkをプロジェクタ105−kに出力する。プロジェクタ105−k(k=1、2、・・・、N)は、入力された輝度信号に基づいて、画像をスクリーンに投影する。その後終了処理に進む。 (Step S246) The adaptive luminance processing unit 104-k (k = 1, 2,..., N) outputs the luminance signal α k P k to the projector 105-k based on P k calculated in Step S605. To do. The projector 105-k (k = 1, 2,..., N) projects an image on the screen based on the input luminance signal. Thereafter, the process proceeds to an end process.
このように、本実施形態によれば、プロジェクタ105−k(k=1、2、・・・、N)は、コンテンツDB106に記録された画像データに基づいて、画像を同一の場所に重なるように投影する。カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−kは、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−kに出力し、プロジェクタ105−kは、画像を投影する。一方、適応輝度補正部104−j(j≠k)は、Djを更新しないで輝度補正を行い、輝度信号をプロジェクタ105−j(j≠k)に出力し、プロジェクタ105−j(j≠k)は、画像を投影する。
カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−j(j≠k)は、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−jに出力し、プロジェクタ105−jは、画像を投影する。一方、適応輝度補正部104−k(k≠j)は、Dkを更新しないで輝度補正を行い、輝度信号をプロジェクタ105−k(k≠j)に出力し、プロジェクタ105−1は、画像を投影する。
Thus, according to the present embodiment, the projector 105-k (k = 1, 2,..., N) overlaps images in the same place based on the image data recorded in the
The
これにより、本実施形態では、投影補正装置1は、複数のプロジェクタの前に人が入るなどして投影画像に影ができたときや、環境の明るさが変化した場合など、撮像画像とオリジナル画像との間に差が生じた場合に、自動的に各プロジェクタの出力を調整し、その差を小さくできる。すなわち、所望の画像を投影できる。また、高品質で高コントラストな投影像を維持することができる。 As a result, in this embodiment, the projection correction apparatus 1 uses the captured image and the original when, for example, a shadow is formed on the projection image due to a person entering before a plurality of projectors, or when the brightness of the environment changes. When there is a difference between the images, the output of each projector can be automatically adjusted to reduce the difference. That is, a desired image can be projected. In addition, a high-quality and high-contrast projection image can be maintained.
なお、上述した実施形態において、SW信号は、撮像画像データのフレーム番号に基づいて生成したが、SW信号はこれに限られることはなく、補正を行う適応輝度処理部104を特定できるものであれば、いかなるものでもかまわない。
In the above-described embodiment, the SW signal is generated based on the frame number of the captured image data. However, the SW signal is not limited to this, and it is possible to identify the adaptive
なお、上述した実施形態において、輝度とは、明度などの他の明るさを示すものでもよい。また、補正の対象とするものは、色、彩度などでもよい。 In the above-described embodiment, the luminance may indicate other brightness such as brightness. Further, the correction target may be color, saturation, or the like.
なお、上述した実施形態において、プロジェクタ、カメラ、及びコンテンツDBは必ずしも構成要素として接続している必要はなく、画像入力部、フレーム処理部、適応輝度補正部間のそれぞれのデータの流れは、ハードディスク、RAID装置、CD−ROMなどの記憶媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもかまわない。 In the above-described embodiment, the projector, the camera, and the content DB do not necessarily have to be connected as components, and the data flow between the image input unit, the frame processing unit, and the adaptive luminance correction unit is a hard disk. In addition, a storage medium such as a RAID device or a CD-ROM may be used, or a remote data resource may be used via a network.
なお、ブレンディング・パラメータα、βは、必ずしも同じ値にする必要はないが、同程度の値にすることが望ましい。例えば、α>β、かつβの値が非常に小さいとする。この場合、2代目のプロジェクタの輝度を補正しても補正結果を出力するときにβ倍され、輝度補正が有効に機能しない。α、βは、α=βを規定値とし、規定値としては、プロジェクタを2台使った場合は、0.4〜0.7程度、プロジェクタを3台使った場合は、0.5〜0.8程度に設定すると収束が速い。ただし、α、βの最適な値は、投影環境、特にスクリーンの材質や使用するプロジェクタによって代わるため、装置の設定環境に応じて設定する。 The blending parameters α and β are not necessarily set to the same value, but are preferably set to the same value. For example, it is assumed that α> β and the value of β is very small. In this case, even if the brightness of the second-generation projector is corrected, it is multiplied by β when outputting the correction result, and the brightness correction does not function effectively. For α and β, α = β is a specified value, and the specified value is about 0.4 to 0.7 when two projectors are used, and 0.5 to 0 when three projectors are used. When set to about .8, convergence is fast. However, the optimum values of α and β are set according to the setting environment of the apparatus because they change depending on the projection environment, particularly the material of the screen and the projector to be used.
なお、上述した各実施形態における投影補正装置が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 Note that all or some of the functions of the units included in the projection correction apparatus in each of the embodiments described above are recorded on a computer-readable recording medium and a program for realizing these functions is recorded on the recording medium. Alternatively, the program may be read by a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices.
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
1、2・・・投影補正装置、101・・・カメラ、102・・・画像入力部、103・・・フレーム処理部、104(104−1、104−2、・・・、104−N)・・・適応輝度補正部、105(105−1、105−2、・・・、105−N)・・・プロジェクタ、106・・・コンテンツDB、107・・・輝度補正DB
DESCRIPTION OF
Claims (5)
前記第1のステップで撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2のステップと、
前記第2のステップで投影された投影画像を撮像する第3のステップと、
前記第3のステップで撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4のステップと、
を有することを特徴とする投影補正方法。 A first step in which the first projection device and the second projection device project projected image data having the same contents so as to overlap each other at the same location, and capture a projected image;
A second step of correcting and projecting the projection image projected by the first projection device based on the image data of the image captured in the first step and the projection image data; and
A third step of capturing the projection image projected in the second step;
A fourth step of correcting and projecting the projection image projected by the second projection device based on the image data of the image captured in the third step and the projection image data;
A projection correction method comprising:
を特徴とする請求項1に記載の投影補正方法。 2. The projection correction method according to claim 1, wherein the third step and the fourth step are performed after the first step and the second step are repeated a predetermined number of times.
を特徴とする請求項1又は2のいずれか1項に記載の投影補正方法。 The projection correction method according to claim 1, wherein the brightness of the image is corrected in the second step and the fourth step.
前記第1の投影装置と前記第2の投影装置によって投影された投影画像を撮像する撮像部と、
前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正する第1の補正部と、
前記第1の補正部が補正した投影画像を前記第1の投影装置が投影した後に、前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第2の投影装置が投影する投影画像を補正する第2の補正部と、
を有することを特徴とする投影補正装置。 A first projection device, a second projection device, which project projected images having the same contents so as to overlap each other at the same location;
An imaging unit that captures a projection image projected by the first projection device and the second projection device;
A first correction unit that corrects a projection image projected by the first projection device based on image data and projection image data of the projection image captured by the imaging unit;
After the first projection device projects the projection image corrected by the first correction unit, based on the image data and the projection image data of the projection image captured by the imaging unit, the second A second correction unit for correcting a projection image projected by the projection device;
A projection correction apparatus comprising:
同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1の手順、
第1の手順で撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2の手順、
前記第2の手順で投影された投影画像を撮像する第3の手順、
前記第3の手順で撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4の手順、
を実行させる投影補正プログラム。
In the computer of the projection correction device,
A first procedure of projecting projected image data having the same contents so as to overlap each other at the same location and capturing a projected image;
A second procedure for correcting and projecting the projection image projected by the first projection device based on the image data of the image captured in the first procedure and the projection target image data;
A third procedure for capturing a projection image projected in the second procedure;
A fourth procedure for correcting and projecting the projection image projected by the second projection device based on the image data of the image captured in the third procedure and the projection image data;
Projection correction program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278493A JP5654337B2 (en) | 2010-12-14 | 2010-12-14 | Projection correction method, projection correction apparatus, and projection correction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278493A JP5654337B2 (en) | 2010-12-14 | 2010-12-14 | Projection correction method, projection correction apparatus, and projection correction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012128113A true JP2012128113A (en) | 2012-07-05 |
JP5654337B2 JP5654337B2 (en) | 2015-01-14 |
Family
ID=46645225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010278493A Expired - Fee Related JP5654337B2 (en) | 2010-12-14 | 2010-12-14 | Projection correction method, projection correction apparatus, and projection correction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5654337B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017058628A (en) * | 2015-09-18 | 2017-03-23 | 日本電信電話株式会社 | Spatial image performance device, control method of the spatial image performance device, and video system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07162743A (en) * | 1993-12-03 | 1995-06-23 | Matsushita Electric Ind Co Ltd | Image processor for projector, and projector |
JP2001051346A (en) * | 1999-08-05 | 2001-02-23 | Nippon Telegr & Teleph Corp <Ntt> | Automatic pixel position adjusting device |
JP2004228824A (en) * | 2003-01-22 | 2004-08-12 | Hitachi Ltd | Stack projection device and its adjusting method |
JP2006245737A (en) * | 2005-03-01 | 2006-09-14 | Casio Comput Co Ltd | Projection image correction device and method for projection image correction and program |
JP2008116565A (en) * | 2006-11-01 | 2008-05-22 | Seiko Epson Corp | Image correction device, projection system, image correction method, image correction program and recording medium |
JP2009258205A (en) * | 2008-04-14 | 2009-11-05 | Sharp Corp | Projector device, image projection method, program, recording medium, and portable telephone terminal |
-
2010
- 2010-12-14 JP JP2010278493A patent/JP5654337B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07162743A (en) * | 1993-12-03 | 1995-06-23 | Matsushita Electric Ind Co Ltd | Image processor for projector, and projector |
JP2001051346A (en) * | 1999-08-05 | 2001-02-23 | Nippon Telegr & Teleph Corp <Ntt> | Automatic pixel position adjusting device |
JP2004228824A (en) * | 2003-01-22 | 2004-08-12 | Hitachi Ltd | Stack projection device and its adjusting method |
JP2006245737A (en) * | 2005-03-01 | 2006-09-14 | Casio Comput Co Ltd | Projection image correction device and method for projection image correction and program |
JP2008116565A (en) * | 2006-11-01 | 2008-05-22 | Seiko Epson Corp | Image correction device, projection system, image correction method, image correction program and recording medium |
JP2009258205A (en) * | 2008-04-14 | 2009-11-05 | Sharp Corp | Projector device, image projection method, program, recording medium, and portable telephone terminal |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017058628A (en) * | 2015-09-18 | 2017-03-23 | 日本電信電話株式会社 | Spatial image performance device, control method of the spatial image performance device, and video system |
Also Published As
Publication number | Publication date |
---|---|
JP5654337B2 (en) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8605106B2 (en) | Projector and color improvement method of the projector | |
JP5590668B2 (en) | Projector apparatus, video signal correction apparatus, video signal correction method, and program | |
JP2017049992A (en) | High dynamic range tone mapping | |
CN105144688A (en) | Imaging device and imaging system | |
JP5123713B2 (en) | Image processing apparatus and image processing method | |
KR102144390B1 (en) | Image processing device and method to perform local contrast enhancement | |
JP5804856B2 (en) | Image processing apparatus, image processing method, and program | |
JP5596427B2 (en) | Optical projection control method, optical projection control apparatus, optical projection control system, and program | |
US9672650B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2016133799A (en) | Illumination system | |
US8619151B2 (en) | Photographing method and apparatus providing correction of object shadows, and a recording medium storing a program for executing the method | |
JP5654337B2 (en) | Projection correction method, projection correction apparatus, and projection correction program | |
US11010882B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2010237633A (en) | Projector | |
EP2744209A1 (en) | Content processing device, content processing method, and recording medium | |
JP2005117616A (en) | Method, device, and medium for video image recording and method and device for video image display | |
JP2010010754A (en) | Display device | |
JP6210772B2 (en) | Information processing apparatus, imaging apparatus, control method, and program | |
JP2019033339A (en) | Information processing apparatus, projection apparatus, information processing method, and program | |
WO2019158129A1 (en) | Method and device for augmented reality visual element display | |
KR20110095556A (en) | Image projection apparatus and image correcting method thereof | |
JP5339299B2 (en) | Optical brightness correction apparatus, optical brightness correction method, and optical brightness correction program | |
KR20170059310A (en) | Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image | |
JP2007101837A (en) | Load information acquisition device for optical modulating element, and image display apparatus | |
JP7309352B2 (en) | Electronic equipment and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130122 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130605 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5654337 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |