JP2012128113A - Projection correcting method, projection correcting device, and projection correcting program - Google Patents

Projection correcting method, projection correcting device, and projection correcting program Download PDF

Info

Publication number
JP2012128113A
JP2012128113A JP2010278493A JP2010278493A JP2012128113A JP 2012128113 A JP2012128113 A JP 2012128113A JP 2010278493 A JP2010278493 A JP 2010278493A JP 2010278493 A JP2010278493 A JP 2010278493A JP 2012128113 A JP2012128113 A JP 2012128113A
Authority
JP
Japan
Prior art keywords
projection
correction
image
image data
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278493A
Other languages
Japanese (ja)
Other versions
JP5654337B2 (en
Inventor
Isao Miyagawa
勲 宮川
Yoshiko Sugaya
佳子 菅谷
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010278493A priority Critical patent/JP5654337B2/en
Publication of JP2012128113A publication Critical patent/JP2012128113A/en
Application granted granted Critical
Publication of JP5654337B2 publication Critical patent/JP5654337B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To project a desired image.SOLUTION: The projection correcting method includes; a first step in which a first projector and a second projector project projection object image data of a same content in such a manner as superimposing the projection object image data on a same place and capture a projection image; a second step for correcting and projecting the projection image projected by the first protector based on the image data of the image captured in the first step and the projection object image data; a third step for capturing the projection image projected in the second step; and a fourth step for correcting and projecting the projection image projected by the second projector based on the image data of the image captured in the third step and the projection object image data.

Description

本発明は、投影補正方法、投影補正装置、及び投影補正プログラムに関する。   The present invention relates to a projection correction method, a projection correction apparatus, and a projection correction program.

複数のプロジェクタを使用して画像を投影するマルチプロジェクタシステムは、様々な用途に利用されている。例えば、各プロジェクタからの画像を繋ぎ合わせて巨大な画像を生成するタイリング法を用いたシステムが知られている。非特許文献1には、スクリーンに発生した影を消すため、2つのプロジェクタのうち、どちらのプロジェクタから投影された光が隠蔽されたかを判定し、スクリーン上に現れた影による欠損した輝度を補償する方法が記載されている。これらの例では、複数のプロジェクタを使うことの利点が発揮されている。   A multi-projector system that projects an image using a plurality of projectors is used in various applications. For example, a system using a tiling method that connects images from projectors to generate a huge image is known. In Non-Patent Document 1, in order to erase the shadow generated on the screen, it is determined which of the two projectors the light projected from the projector is concealed, and the missing luminance due to the shadow appearing on the screen is compensated How to do is described. In these examples, the advantage of using a plurality of projectors is demonstrated.

非特許文献1に記載の方法を含め、一般的に、プロジェクタを使ったフロント・プロジェクション、又はリア・プロジェクションでは、スクリーンを取り巻く照明環境に変化があると、スクリーン上の光学輝度が変化して、所望の画像が投影されないという問題があった。例えば、照明を消した暗室状態と蛍光灯を照らした環境では、スクリーン上の投影像においてそれぞれの輝度は異なる。また、スライドを使ったプレゼンテーションや遠隔会議システム等の環境では、スライドを投影した初期状態から照明状態が変化すると、スクリーン上での見え方が変化してしまう。   In general, including the method described in Non-Patent Document 1, in front projection using a projector or rear projection, if there is a change in the lighting environment surrounding the screen, the optical brightness on the screen changes, There is a problem that a desired image is not projected. For example, in a dark room state where the illumination is turned off and in an environment where a fluorescent lamp is illuminated, the luminances of the projected images on the screen are different. Also, in an environment such as a presentation using slides or a teleconference system, when the lighting state changes from the initial state in which the slide is projected, the appearance on the screen changes.

これに対して、非特許文献2には、1台のプロジェクタとカメラからなるシステムを使った輝度補正方法が記載されている。この方法では、プロジェクタからのRGB輝度値とカメラで観測されたRGB輝度値との間の相関関係に着目する。この方法はカラー混合行列(Color Mixing Matrix)と呼ばれる3×3の行列Vを使って、予め定めたRGB輝度値C=(C,C,C)をカメラが観測するように、プロジェクタからのRGB出力値P=(P,P,P) を補正する。 On the other hand, Non-Patent Document 2 describes a luminance correction method using a system including one projector and a camera. In this method, attention is paid to the correlation between the RGB luminance value from the projector and the RGB luminance value observed by the camera. This method uses a 3 × 3 matrix V called a color mixing matrix (Color Mixing Matrix) so that the camera observes a predetermined RGB luminance value C = (C R , C G , C B ). The RGB output value P = (P R , P G , P B ) is corrected.

J. Summet, M. Flagg, T. J. Cham, J. M. Rehg, and R. Sukthankar: ``Shadow Elimination and Blinding Light Suppression for Interactive Projected Displays", IEEE Transactions on Visualization and Computer Graphics, vol.13, no.3, pp.508-517, 2007.J. Summet, M. Flagg, TJ Cham, JM Rehg, and R. Sukthankar: `` Shadow Elimination and Blinding Light Suppression for Interactive Projected Displays '', IEEE Transactions on Visualization and Computer Graphics, vol.13, no.3, pp .508-517, 2007. K. Fujii, M. D. Grossberg, and S. K. Nayar: ``A Projector-Camera System with Real-Time Photometric Adaptation for Dynamic Environments", Proc. of IEEE Computer Vision and Pattern Recognition (CVPR), vol.1, pp.814-821, 2005.K. Fujii, MD Grossberg, and SK Nayar: `` A Projector-Camera System with Real-Time Photometric Adaptation for Dynamic Environments '', Proc. Of IEEE Computer Vision and Pattern Recognition (CVPR), vol.1, pp.814- 821, 2005.

しかしながら、非特許文献2に記載の技術では、スクリーンに発生した影を消去できないという欠点があった。以上のように、非特許文献1、2に記載の技術では、所望の画像を投影できないという欠点があった。   However, the technique described in Non-Patent Document 2 has a drawback that shadows generated on the screen cannot be erased. As described above, the techniques described in Non-Patent Documents 1 and 2 have a drawback that a desired image cannot be projected.

本発明は、上記の点に鑑みてなされたものであり、所望の画像を投影できる投影補正方法、投影補正装置、及び投影補正プログラムを提供する。   The present invention has been made in view of the above points, and provides a projection correction method, a projection correction apparatus, and a projection correction program capable of projecting a desired image.

(1)本発明は、上記の課題を解決するためになされたものであり、本発明の一態様は、第1の投影装置と第2の投影装置が同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1のステップと、前記第1のステップで撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2のステップと、前記第2のステップで投影された投影画像を撮像する第3のステップと、前記第3のステップで撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4のステップと、を有することを特徴とする投影補正方法である。 (1) The present invention has been made in order to solve the above-described problems. In one embodiment of the present invention, the first projection apparatus and the second projection apparatus share the same projected image data with the same contents. The first projection device based on the first step of projecting so as to overlap the location of the image and capturing the projection image, the image data of the image captured in the first step, and the projection image data The second step of correcting and projecting the projected image projected by the camera, the third step of capturing the projected image projected in the second step, and the image data of the image captured in the third step And a fourth step of correcting and projecting the projection image projected by the second projection device based on the projection image data.

(2)また、本発明の一態様は、上記の投影補正方法において、前記第1のステップと前記第2のステップを予め定めた回数繰り返した後、前記第3のステップと前記第4のステップを行うことを特徴とする。 (2) Further, according to one aspect of the present invention, in the projection correction method, the first step and the second step are repeated a predetermined number of times, and then the third step and the fourth step are performed. It is characterized by performing.

(3)また、本発明の一態様は、上記の投影補正方法において、前記第2のステップ、及び第4のステップで、画像の明るさを補正することを特徴とする。 (3) Further, according to one aspect of the present invention, in the above-described projection correction method, the brightness of the image is corrected in the second step and the fourth step.

(4)また、本発明の一態様は、同一の内容の被投影画像を同一の場所に重なるように投影する第1の投影装置、第2の投影装置と、前記第1の投影装置と前記第2の投影装置によって投影された投影画像を撮像する撮像部と、前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正する第1の補正部と、前記第1の補正部が補正した投影画像を前記第1の投影装置が投影した後に、前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第2の投影装置が投影する投影画像を補正する第2の補正部と、を有することを特徴とする投影補正装置である。 (4) Further, according to one embodiment of the present invention, the first projection device, the second projection device, the first projection device, and the first projection device that project projected images having the same contents so as to overlap each other at the same place The first projection device projects based on an imaging unit that captures a projection image projected by the second projection device, and image data and projection image data of the projection image captured by the imaging unit. A first correction unit that corrects the projected image, and image data of the projection image captured by the imaging unit after the first projection device projects the projection image corrected by the first correction unit A projection correction apparatus comprising: a second correction unit that corrects a projection image projected by the second projection apparatus based on projection image data.

(5)また、本発明の一態様は、投影補正装置のコンピュータに、同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1の手順、第1の手順で撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2の手順、前記第2の手順で投影された投影画像を撮像する第3の手順、前記第3の手順で撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4の手順、を実行させる投影補正プログラムである。 (5) Further, according to one aspect of the present invention, a first procedure for projecting projected image data having the same contents on a computer of a projection correction apparatus so as to overlap the same location and capturing a projected image is provided. The second procedure for correcting and projecting the projection image projected by the first projection device based on the image data of the image captured by the procedure and the projection image data, and projecting by the second procedure A third procedure for capturing the projected image, and correcting and projecting the projection image projected by the second projection device based on the image data of the image captured in the third procedure and the projection image data This is a projection correction program for executing the fourth procedure.

本発明によれば、所望の画像を投影できる。   According to the present invention, a desired image can be projected.

本発明の第1の実施形態に係る投影補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the projection correction apparatus which concerns on the 1st Embodiment of this invention. 本実施形態に係る投影補正装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the projection correction apparatus which concerns on this embodiment. 本実施形態に係るフレーム処理を示すフローチャートである。It is a flowchart which shows the frame process which concerns on this embodiment. 本実施形態に係る補正処理を示すフローチャートである。It is a flowchart which shows the correction process which concerns on this embodiment. 本発明の第2の実施形態に係る投影補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the projection correction apparatus which concerns on the 2nd Embodiment of this invention. 本実施形態に係る投影補正装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the projection correction apparatus which concerns on this embodiment. 本実施形態に係るフレーム処理を示すフローチャートである。It is a flowchart which shows the frame process which concerns on this embodiment. 本実施形態に係る補正処理を示すフローチャートである。It is a flowchart which shows the correction process which concerns on this embodiment.

(第1の実施形態)
以下、図面を参照しながら、本発明の第1の実施形態について詳しく説明する。
図1は、本発明の第1の実施形態に係る投影補正装置1の構成を示すブロック図である。図示する例では、投影補正装置1は、カメラ(撮像部)101、画像入力部102、フレーム処理部103、適応輝度補正部104−1(第1の補正部)、104−2(第2の補正部)(適応輝度補正部104−1、適応輝度補正部104−2を、適応輝度補正部104とも称す)、プロジェクタ105−1(第1の投影装置)、105−2(第2の投影装置)プロジェクタ105−1、プロジェクタ105−2を、プロジェクタ105とも称す)、コンテンツDB(データベース)106、及び輝度補正DB(データベース)107を備える。
(First embodiment)
Hereinafter, the first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a projection correction apparatus 1 according to the first embodiment of the present invention. In the illustrated example, the projection correction apparatus 1 includes a camera (imaging unit) 101, an image input unit 102, a frame processing unit 103, an adaptive luminance correction unit 104-1 (first correction unit), and 104-2 (second output). Correction unit) (Adaptive luminance correction unit 104-1 and adaptive luminance correction unit 104-2 are also referred to as adaptive luminance correction unit 104), projector 105-1 (first projection device), 105-2 (second projection) Apparatus) a projector 105-1 and a projector 105-2 are also referred to as a projector 105), a content DB (database) 106, and a brightness correction DB (database) 107.

カメラ101は、スクリーンに投影された投影画像を撮像する。カメラ101は、撮像した画像の撮像画像データを画像入力部102に出力する。例えば、カメラ101は、天井付近等の上方に設置し、スクリーンのみが写るように撮像する。これにより、投影補正装置1では、スクリーン全体が隠れることなく投影画像全体を撮像できる。
画像入力部102は、カメラ101から入力された撮像画像データをフレーム処理部103へ出力する。
The camera 101 captures a projection image projected on the screen. The camera 101 outputs captured image data of the captured image to the image input unit 102. For example, the camera 101 is installed above the ceiling or the like, and takes an image so that only the screen is captured. Thereby, the projection correction apparatus 1 can capture the entire projection image without hiding the entire screen.
The image input unit 102 outputs the captured image data input from the camera 101 to the frame processing unit 103.

フレーム処理部103は、処理の開始時に、初期状態であることを示す初期化信号を適応輝度補正部104に出力する。ここで、処理の開始時とは、例えば、システムの起動時や、別の画像へ切り替えたとき、ユーザがリセット操作を行ったときなどである。
フレーム処理部103は、画像入力部102から入力された撮像画像データを適応輝度補正部104に出力する。フレーム処理部103は、撮像画像データと共に、後述するSW信号を適応輝度補正部104に出力する。SW信号とは、撮像画像データを適応輝度補正部104に出力したことを示す信号であり、複数ある適応輝度補正部104のうち、輝度信号の補正を行う適応輝度補正部104を示す情報である。輝度信号とは、フレーム処理部103によって、コンテンツDB106から読み出されたオリジナル画像データの画素毎の輝度(明るさ)を示す信号である。フレーム処理部103が出力するSW信号には、フレーム番号が付される。フレーム番号とは、フレーム処理部103が、入力された画像に対して、入力された順に付す番号であり、1から始まる自然数である。
フレーム処理部103は、フレーム番号が、予め定めた値になったときに、処理を終了する。
The frame processing unit 103 outputs an initialization signal indicating the initial state to the adaptive luminance correction unit 104 at the start of processing. Here, the process start time is, for example, when the system is started, when another image is switched, or when the user performs a reset operation.
The frame processing unit 103 outputs the captured image data input from the image input unit 102 to the adaptive luminance correction unit 104. The frame processing unit 103 outputs an SW signal described later to the adaptive luminance correction unit 104 together with the captured image data. The SW signal is a signal indicating that the captured image data is output to the adaptive luminance correction unit 104, and is information indicating the adaptive luminance correction unit 104 that corrects the luminance signal among the plurality of adaptive luminance correction units 104. . The luminance signal is a signal indicating the luminance (brightness) for each pixel of the original image data read from the content DB 106 by the frame processing unit 103. A frame number is assigned to the SW signal output from the frame processing unit 103. The frame number is a number that the frame processing unit 103 assigns to the input image in the input order, and is a natural number starting from 1.
The frame processing unit 103 ends the process when the frame number reaches a predetermined value.

適応輝度補正部104は、入力された初期化信号に応じて、輝度補正DB107に記録されたパラメータの初期化を行う。なお、この初期化の詳細については、後述する。
適応輝度補正部104は、フレーム処理部103から入力されたSW信号に基づいて、輝度信号の補正を行うか否かを判定する。適応輝度補正部104は、輝度信号の補正を行うと判定した場合には、コンテンツDB105から、投影される画像データであるオリジナル画像データを読み出す。適応輝度補正部104は、読み出したオリジナル画像データと、フレーム処理部103から入力された撮像画像データとに基づいて、読み出したオリジナル画像データの輝度信号を補正し、補正した輝度信号をプロジェクタ105に出力する。
一方、適応輝度補正部104は、輝度信号の補正を行わないと判定した場合には、補正を行わずに輝度信号をプロジェクタ105に出力する。
適応輝度補正部104は、後述する、輝度補正に使用する補助補正量を輝度補正DB107に書き込み、読み出される。適応輝度補正部104は、後述する、ブレンディング・パラメータα、βを適応輝度補正部104から読み出す。
The adaptive brightness correction unit 104 initializes the parameters recorded in the brightness correction DB 107 according to the input initialization signal. Details of this initialization will be described later.
The adaptive luminance correction unit 104 determines whether or not to correct the luminance signal based on the SW signal input from the frame processing unit 103. When it is determined that the luminance signal is to be corrected, the adaptive luminance correction unit 104 reads original image data that is image data to be projected from the content DB 105. The adaptive luminance correction unit 104 corrects the luminance signal of the read original image data based on the read original image data and the captured image data input from the frame processing unit 103, and sends the corrected luminance signal to the projector 105. Output.
On the other hand, when it is determined that the luminance signal correction is not performed, the adaptive luminance correction unit 104 outputs the luminance signal to the projector 105 without performing the correction.
The adaptive luminance correction unit 104 writes and reads an auxiliary correction amount used for luminance correction, which will be described later, in the luminance correction DB 107. The adaptive brightness correction unit 104 reads blending parameters α and β, which will be described later, from the adaptive brightness correction unit 104.

プロジェクタ105は、適応輝度補正部104から入力された輝度信号に基づき、画像をスクリーンに投影する。
コンテンツDB106は、スクリーンに投影されるオリジナル画像データ(被投影画像データ)を保存する。輝度補正DB107は、適応輝度補正部104から、輝度補正に使用する補助補正量やブレンディング・パラメータを書き込まれ、記憶する。
The projector 105 projects an image on the screen based on the luminance signal input from the adaptive luminance correction unit 104.
The content DB 106 stores original image data (projected image data) projected on the screen. The luminance correction DB 107 stores the auxiliary correction amount and blending parameters used for luminance correction from the adaptive luminance correction unit 104 and stores them.

次に、図2を参照して、本実施形態に係る投影補正装置1の動作を説明する。
ここでは、本実施形態における投影補正装置1で行われる各処理の詳細について説明する。
<SW信号の生成処理とフレーム判定について>
ここでは、フレーム処理部103において生成されるSW信号の例について説明する。本実施形態では、SW信号は、フレーム番号に基づいて生成される。フレーム番号とは、フレーム処理部103が、入力された画像に対して、入力された順に付す番号であり、1から始まる自然数である。フレーム処理部103は、SW信号を、フレーム番号を用いて、例えば、以下のようにして生成する。
Next, the operation of the projection correction apparatus 1 according to the present embodiment will be described with reference to FIG.
Here, details of each process performed by the projection correction apparatus 1 in the present embodiment will be described.
<About SW signal generation processing and frame determination>
Here, an example of the SW signal generated in the frame processing unit 103 will be described. In the present embodiment, the SW signal is generated based on the frame number. The frame number is a number that the frame processing unit 103 assigns to the input image in the input order, and is a natural number starting from 1. The frame processing unit 103 generates the SW signal using the frame number, for example, as follows.

フレーム処理部103は、フレーム番号1からフレーム番号Fまでの撮像画像データに対しては、プロジェクタ105−1の補助補正量Dを更新するために用いられることを示すSW信号を生成する。フレーム番号F+1から2Fまでの撮像画像データに対しては、プロジェクタ105−2の補助補正量Dを更新するために用いられることを示すSW信号を生成する。適応輝度補正部104が入力されたSW信号に基づいてプロジェクタ105−1、2が行う2F回の画像に対する補正をフレーム判定と呼ぶ。
次回以降のフレーム判定でも、フレーム番号(m)×F+1から(m+1)×Fまでの撮像画像データに対しては、プロジェクタ105−1の補助補正量Dを更新するために用いられることを示すSW信号を生成する。フレーム番号(m+1)×F+1から(m+2)×Fまでの撮像画像データに対しては、プロジェクタ105−1の補助補正量Dを更新するために用いられることを示すSW信号を生成する(m=0、1、・・・、N−2)。
Frame processing unit 103, for the captured image data from the frame number 1 to frame number F, and generates a SW signal indicating that used to update the auxiliary correction amount D 1 of the projector 105-1. For the captured image data from the frame number F + 1 to 2F, it generates an SW signal indicating that used to update the auxiliary correction amount D 2 of the projector 105-2. The correction for the 2F times of images performed by the projectors 105-1 and 105 based on the SW signal input by the adaptive luminance correction unit 104 is referred to as frame determination.
Be a frame determined next time, with respect to the captured image data from the frame number (m) × F + 1 to (m + 1) × F, indicating that the used to update the auxiliary correction amount D 1 of the projector 105 - An SW signal is generated. For frame number (m + 1) × F from + 1 (m + 2) × image data to F, generates a SW signal indicating that used to update the auxiliary correction amount D 2 of the projector 105-1 (m = 0, 1, ..., N-2).

フレーム処理部103は、上記の例では、撮像画像データに対して、最大でN×Fのフレーム番号を付す。適応輝度補正部104は、それぞれのフレーム番号に対応する撮像画像データを用いて補正処理を行う。例として、F=2、N=3の場合を例示する。フレーム番号1、2には、プロジェクタ105−1で補正処理を行うことを示すSW信号を出力し、フレーム番号3、4には、プロジェクタ105−2で補正処理を行うことを示すSW信号を出力する。ここまでが、第1回目のフレーム判定である。
フレーム番号5、6には、プロジェクタ105−1で補正処理を行うことを示すSW信号を出力し、フレーム番号7、8には、プロジェクタ105−2で補正処理を行うことを示すSW信号を出力する。ここまでが、第2回目のフレーム判定である。
In the above example, the frame processing unit 103 assigns a maximum N × F frame number to the captured image data. The adaptive luminance correction unit 104 performs correction processing using captured image data corresponding to each frame number. As an example, the case of F = 2 and N = 3 is illustrated. SW signals indicating that correction processing is performed by the projector 105-1 are output to frame numbers 1 and 2, and SW signals indicating that correction processing is performed by the projector 105-2 are output to frame numbers 3 and 4. To do. Up to this point is the first frame determination.
SW signals indicating that correction processing is performed by the projector 105-1 are output to frame numbers 5 and 6, and SW signals indicating that correction processing is performed by the projector 105-2 are output to frame numbers 7 and 8. To do. This is the second frame determination.

<補正に用いるパラメータの計算について>
本実施形態において、カメラにより観測される輝度値Cは、式(1)に示すように、複数のプロジェクタから投影されるRGB輝度値の和で表される。
<Calculation of parameters used for correction>
In the present embodiment, the luminance value C observed by the camera is represented by the sum of RGB luminance values projected from a plurality of projectors, as shown in Expression (1).

Figure 2012128113
Figure 2012128113

ここで、Pは式(2)で表される、適応輝度補正部104−1から出力されるRGB輝度値であり、Pは式(3)で表される、適応輝度補正部104−2から出力されるRGB輝度値である。また、Vは式(4)で表されるプロジェクタ105−1のカラー混合行列であり、Vは式(5)で表されるプロジェクタ105−2のカラー混合行列である。また、α、βは、投影画像の輝度を、プロジェクタ105−1、2双方のプロジェクタで分配するためのブレンディング・パラメータであり、1より小さな正の定数である。 Here, P 1 is expressed by Equation (2), an RGB luminance values outputted from the adaptive luminance correcting unit 104-1, P 2 is expressed by Equation (3), the adaptive luminance correcting unit 104- RGB luminance values output from 2. Further, V 1 is a color mixing matrix projector 105-1 of the formula (4), V 2 is a color mixing matrix projector 105-2 of the formula (5). Α and β are blending parameters for distributing the brightness of the projected image between the projectors 105-1 and 105-2, and are positive constants smaller than 1.

Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113

式(1)に示されるCは、撮像画像データの輝度値であり、式(6)のように表される。また、Fは、室内の照明などによる環境光成分を表し、式(7)のように表される。   C shown in Expression (1) is a luminance value of the captured image data, and is expressed as Expression (6). F represents an ambient light component due to indoor lighting or the like, and is expressed as in Expression (7).

Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113

適応輝度補正部104は、フレーム処理部103から初期化信号を入力されたときに、V、V、及びFを計算し、その値は、輝度補正DB107に書き込まれる。V、V、及びFの計算方法の一例について説明する。ここで、パラメータV、V、Fを計算するにあたっては、α=β=1とする。まず、適応輝度補正部104−1は、全画素が0のRGB値を持つサンプル画像のRGB輝度値Pを、プロジェクタ105−1、2に出力し、スクリーンに投影する。式(1)に従えば、撮像画像データの輝度値C=Fとなり、Fが求まる。 When the initialization signal is input from the frame processing unit 103, the adaptive luminance correction unit 104 calculates V 1 , V 2 , and F, and the values are written in the luminance correction DB 107. An example of a method for calculating V 1 , V 2 , and F will be described. Here, in calculating the parameters V 1 , V 2 , and F, α = β = 1. First, the adaptive luminance correcting unit 104-1, the RGB luminance values P 1 of the sample image all pixels having the RGB value of 0 is outputted to the projector 105-1,2, is projected on a screen. According to equation (1), the brightness value C of the captured image data is C = F, and F is obtained.

次に、適応輝度補正部104−1は、別のサンプル画像を用い、プロジェクタ105−1に出力する。カメラ1は、投影された画像を撮像する。適応輝度補正部104−1は、フレーム処理部103から撮像画像データを入力され、撮像画像データの輝度値(Cと呼ぶ)を得る。
続いて、適応輝度補正部104−1は、Cを取得したのと同じサンプル画像を用い、RGBのうちR(赤)チャネルの出力をΔPだけ変化させ、プロジェクタ105−1に出力する。カメラ1は、投影された画像を撮像する。適応輝度補正部104−1は、フレーム処理部103から撮像画像データを入力され、撮像画像データの輝度値(Cと呼ぶ)を得る。
Next, adaptive brightness correction section 104-1 uses another sample image and outputs it to projector 105-1. The camera 1 captures the projected image. Adaptive luminance correcting unit 104-1 is input captured image data from the frame processing unit 103 obtains the luminance value of the captured image data (referred to as C 0).
Then, the adaptive luminance correcting unit 104-1, using the same sample image that was acquired the C 0, the output of the R (red) channel is changed by [Delta] P R of RGB, and outputs to the projector 105-1. The camera 1 captures the projected image. Adaptive luminance correcting unit 104-1 is input captured image data from the frame processing unit 103 obtains the luminance value of the captured image data (C 1 hereinafter).

適応輝度補正部104−1は、ΔC=C−Cを計算する。ΔCのR、G、B、成分はそれぞれ、ΔC=VRR1ΔP、ΔC=VGR1ΔP、ΔC=VBR1ΔPと表されるため、適応輝度補正部104−1は、VRR1=ΔC/ΔP、VGR1=ΔC/ΔP、VBR1=ΔC/ΔPを計算する。適応輝度補正部104-1は、G(緑)、B(青)チャネルに対しても同様に計算する。また、適応輝度補正部104−2も同様に計算する。 The adaptive brightness correction unit 104-1 calculates ΔC = C 1 −C 0 . [Delta] C of R, G, B, respectively component, since represented ΔC R = V RR1 ΔP R, ΔC G = V GR1 ΔP R, and ΔC B = V BR1 ΔP R, the adaptive luminance correcting unit 104-1, Calculate V RR1 = ΔC R / ΔP R , V GR1 = ΔC G / ΔP R , and V BR1 = ΔC B / ΔP R. The adaptive luminance correction unit 104-1 performs the same calculation for the G (green) and B (blue) channels. The adaptive luminance correction unit 104-2 performs the same calculation.

<輝度補正処理について>
適応輝度補正部104−1、2から出力されるRGB輝度値P、Pを次の式(8)、(9)のように表す。
<About brightness correction processing>
The RGB luminance values P 1 and P 2 output from the adaptive luminance correction units 104-1 and 104-2 are expressed as in the following equations (8) and (9).

Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113

ここで、補助補正量D、Dは、補正のために導入されたパラメータであり、処理開始時に、適応輝度補正部104により、式(10)、(11)のように初期化される。補助補正量D、Dは、補正を行う過程で適応輝度補正部104により変更されていく。 Here, the auxiliary correction amounts D 1 and D 2 are parameters introduced for correction, and are initialized by the adaptive luminance correction unit 104 as shown in equations (10) and (11) at the start of processing. . The auxiliary correction amounts D 1 and D 2 are changed by the adaptive luminance correction unit 104 during the correction process.

Figure 2012128113
Figure 2012128113
Figure 2012128113
Figure 2012128113

適応輝度補正部104は、式(8)、(9)に補助補正量D、Dを代入することにより計算されたRGB輝度値P、Pを計算する。適応輝度補正部104は、続いて、P、Pに、ある正の定数α、β(以下ではブレンディング・パラメータと称する)を乗じた輝度値で表される画像データをそれぞれのプロジェクタ105−1、2に出力する。プロジェクタ105−1、2は、入力された該輝度値に基づいて、画像をスクリーンに投影する。RGBカメラ101は、画像がスクリーンに投影されたとき、式(12)で表される輝度値C’を観測する。 The adaptive luminance correction unit 104 calculates RGB luminance values P 1 and P 2 calculated by substituting the auxiliary correction amounts D 1 and D 2 into the equations (8) and (9). Subsequently, the adaptive luminance correction unit 104 continuously outputs image data represented by luminance values obtained by multiplying P 1 and P 2 by certain positive constants α and β (hereinafter referred to as blending parameters) to the respective projectors 105-. 1 and 2 are output. The projectors 105-1 and 105-2 project an image on a screen based on the input luminance value. The RGB camera 101 observes the luminance value C ′ represented by Expression (12) when an image is projected on the screen.

Figure 2012128113
Figure 2012128113

適応輝度補正部104は、観測された輝度値C’が、オリジナル画像の輝度値である所望の輝度値Cとなるように、すなわち、式(13)で示したΔCの絶対値がある閾値よりも小さくなるように、プロジェクタから出力されるRGB輝度値P、Pを逐次的に補正する。 The adaptive luminance correction unit 104 sets the observed luminance value C ′ to the desired luminance value C that is the luminance value of the original image, that is, from a threshold with a certain absolute value of ΔC shown in Expression (13). So that the RGB luminance values P 1 and P 2 output from the projector are sequentially corrected.

Figure 2012128113
Figure 2012128113

具体的には、以下の(ア)、(イ)の処理を繰り返し行う。
処理(ア):適応輝度補正部104−1は、式(14)に示すように、DにΔC(ここでは、ΔCを、Dにのみ補正を加え、Dには補正を加えないということを明確にするために、ΔCと表記する。)を加えることにより、補正後の補助補正量Dを求める。
Specifically, the following processes (a) and (b) are repeated.
Process (A): the adaptive luminance correcting unit 104-1, as shown in equation (14), [Delta] C 1 (in this case the D 1, the [Delta] C, adding only the correction to D 1, corrects the addition to the D 2 In order to clarify that there is not, it is expressed as ΔC 1 ) to obtain the corrected auxiliary correction amount D 1 .

Figure 2012128113
Figure 2012128113

適応輝度補正部104−1は、このDを式(8)に代入し、Pを求める。一方のプロジェクタ105−2は、補助補正値DにΔCを加えることなく、Dをそのまま用い、Dを、式(9)に代入することによりPを求める。適応輝度補正部104−1、2は、このようにして求められたP、Pに、ブレンディング・パラメータα、βそれぞれを乗じて生成したRGB輝度値を持つ画像データを、プロジェクタ105−1、2を通じて投影する。カメラ101は、投影画像を撮像し、輝度値C’を得る。式(13)にC’を代入することにより、ΔCを求める。以上が、処理(ア)である。 Adaptive luminance correcting unit 104-1 assigns the D 1 in the formula (8), determine the P 1. One projector 105-2, the auxiliary correction value D 2 to without adding [Delta] C 1, used as a D 2, the D 2, obtaining the P 2 by substituting the equation (9). The adaptive luminance correction units 104-1 and 104-2, image data having RGB luminance values generated by multiplying P 1 and P 2 thus obtained by the blending parameters α and β, respectively, are used as the projector 105-1. 2 through. The camera 101 captures a projected image and obtains a luminance value C ′. By substituting C ′ into equation (13), ΔC is obtained. The above is the process (a).

処理(イ):適応輝度補正部104−2は、式(15)に示すように、DにΔC(ここでは、ΔCを、Dにのみ補正を加え、Dには補正を加えないということを明確にするために、ΔCと表記する。)を加えることにより、補正後の補助補正量Dを求める。 Process (b): the adaptive luminance correcting unit 104-2, as shown in equation (15), [Delta] C 2 (here, the D 2, the [Delta] C, adding only correction D 2, the correction is added to D 1 In order to clarify that there is not, it is expressed as ΔC 2 ), thereby obtaining the corrected auxiliary correction amount D 2 .

Figure 2012128113
Figure 2012128113

適応輝度補正部104−2は、このDを式(9)に代入し、Pを求める。一方のプロジェクタ105−1は、補助補正値DにΔCを加えることなく、Dをそのまま用い、Dを、式(8)に代入することによりP1を求める。適応輝度補正部104−1、2は、このようにして求められたP、Pに、ブレンディング・パラメータα、βそれぞれを乗じて生成したRGB輝度値を持つ画像データを、プロジェクタ105−1、2を通じて投影することにより、ΔCを求める。以上が、処理(イ)である。
以後、(ア)、(イ)の処理を繰り返し行うことにより、P、Pを更新していく。
Adaptive luminance correcting unit 104-2 assigns the D 2 in the formula (9), determining the P 2. One projector 105-1, the auxiliary correction values D 1 to without adding [Delta] C 2, used as a D 1, the D 1, obtaining the P 1 by substituting the equation (8). The adaptive luminance correction units 104-1 and 104-2, image data having RGB luminance values generated by multiplying P 1 and P 2 thus obtained by the blending parameters α and β, respectively, are used as the projector 105-1. 2 to obtain ΔC. The above is the processing (A).
Thereafter, P 1 and P 2 are updated by repeatedly performing the processes (a) and (b).

<画像収束判定について>
上記の(ア)、(イ)の操作を、繰り返し行い、式(16)に示すように|ΔC|が、予め定めた閾値Aよりも小さくなったとき、P、Pに基づいてスクリーンに投影される画像は収束したと判定する。
<About image convergence judgment>
The above operations (a) and (b) are repeated, and when | ΔC | becomes smaller than a predetermined threshold A as shown in the equation (16), the screen is based on P 1 and P 2. It is determined that the image projected onto is converged.

Figure 2012128113
Figure 2012128113

図2は、本実施形態に係る投影補正装置1の動作を示すフローチャートである。
(ステップS11)フレーム処理部103は、初期化信号を、適応輝度補正部104に出力する。適応輝度補正部104は、フレーム処理部103から初期化信号を入力されたときに、輝度補正DB107内に保存された、カラー混合行列V、V、F、補助補正量D、D、及びブレンディング・パラメータα、βを初期化する。具体的には、適応輝度補正部104は、カラー混合行列V、V、及び環境光のRGB成分を表すFを、上述したように計算し、計算した値を代入する。なお、V、V、及びFは、投影補正装置1を起動するときに一度だけ計算する。計算された、V、V、及びFは、輝度補正DB107内に保存しておき、次回以降にステップS11で適応輝度補正部104が初期化を行う場合は、V、V、及びFは、再度計算する必要はなく、輝度補正DB107内に保存してあるV、V、及びFをそのまま用いる。適応輝度補正部104は、補助補正量D、Dに「0」を代入し、ブレンディング・パラメータα、βに、1以下の正の値を代入する。その後ステップS12に進む。
FIG. 2 is a flowchart showing the operation of the projection correction apparatus 1 according to this embodiment.
(Step S11) The frame processing unit 103 outputs an initialization signal to the adaptive luminance correction unit 104. When the initialization signal is input from the frame processing unit 103, the adaptive luminance correction unit 104 stores the color mixing matrices V 1 , V 2 , F, and auxiliary correction amounts D 1 , D 2 stored in the luminance correction DB 107. , And blending parameters α and β. Specifically, the adaptive luminance correction unit 104 calculates the color mixing matrices V 1 and V 2 and F representing the RGB components of the ambient light as described above, and substitutes the calculated values. Note that V 1 , V 2 , and F are calculated only once when the projection correction apparatus 1 is activated. The calculated V 1 , V 2 , and F are stored in the brightness correction DB 107, and when the adaptive brightness correction unit 104 performs initialization in step S 11 after the next time, V 1 , V 2 , and F does not need to be calculated again, and V 1 , V 2 , and F stored in the brightness correction DB 107 are used as they are. The adaptive brightness correction unit 104 assigns “0” to the auxiliary correction amounts D 1 and D 2 and assigns a positive value of 1 or less to the blending parameters α and β. Thereafter, the process proceeds to step S12.

(ステップS12)カメラ101は、プロジェクタ105−1、2によってスクリーンに投影された投影画像を撮像する。カメラ101は撮像した撮像画像データを画像入力部102に出力する。その後ステップS13に進む。
(ステップS13)フレーム処理部103は、フレーム処理を行う。本ステップS13の処理の詳細は、図3を用いて後述する。その後ステップS14に進む。
(Step S12) The camera 101 captures the projection image projected on the screen by the projectors 105-1 and 105-2. The camera 101 outputs the captured image data to the image input unit 102. Thereafter, the process proceeds to step S13.
(Step S13) The frame processing unit 103 performs frame processing. Details of the processing in step S13 will be described later with reference to FIG. Thereafter, the process proceeds to step S14.

(ステップS14)適応輝度補正部104は、輝度補正処理を行う。本ステップS14の処理の詳細は、図4を用いて後述する。その後ステップS15に進む。 (Step S14) The adaptive brightness correction unit 104 performs brightness correction processing. Details of the processing in step S14 will be described later with reference to FIG. Thereafter, the process proceeds to step S15.

(ステップS15)適応輝度補正部104は、上述したように、式(16)に基づいて、画像収束判定を行う。画像が収束したと判定されたときは、終了処理に進む。画像が収束していないと判定されたときは、ステップS16に進む。
(ステップS16)適応輝度補正部104は、処理開始からの経過時間が、予め定めた値(例えば、1s)より大きいか否かを判定する。予め定めた値より大きいと判定された場合(Yes)は、終了処理に進む。予め定めた値より大きくないと判定された場合(No)は、ステップS17に進む。
(ステップS17)フレーム処理部103は、フレーム番号が、予め定められた値であるか否かを判定する。予め定めた値である場合(Yes)は、終了処理に進む。予め定めた値でない場合(No)は、ステップS12に進む。
(Step S15) As described above, the adaptive luminance correction unit 104 performs image convergence determination based on Expression (16). When it is determined that the image has converged, the process proceeds to an end process. If it is determined that the image has not converged, the process proceeds to step S16.
(Step S16) The adaptive brightness correction unit 104 determines whether or not the elapsed time from the start of processing is greater than a predetermined value (for example, 1 s). If it is determined that the value is larger than the predetermined value (Yes), the process proceeds to the end process. If it is determined that the value is not greater than the predetermined value (No), the process proceeds to step S17.
(Step S17) The frame processing unit 103 determines whether or not the frame number is a predetermined value. If the value is a predetermined value (Yes), the process proceeds to an end process. When it is not a predetermined value (No), the process proceeds to step S12.

次に、図3を参照して、図2に示したステップS13の処理について詳細に説明する。
図3は、本実施形態に係るフレーム処理(ステップS13)の処理を示すフローチャートである。
(ステップS131)フレーム処理部103は、画像入力部102から撮像画像データを入力されたか否かを判定する。撮像画像データを入力されたと判定された場合は、ステップS132に進む。撮像画像データを入力されなかったと判定された場合は、ステップS131に戻る。
(ステップS132)フレーム処理部103は、画像入力部102から入力された撮像画像データを、適応輝度補正部104−1、2に出力する。その後ステップS133に進む。
(ステップS133)フレーム処理部103は、SW信号を適応輝度補正部104−1、2に出力する。なお、このSW信号には、上述したように、画像のフレーム番号を付加してもよい。その後、終了処理に進む。
Next, the process of step S13 shown in FIG. 2 will be described in detail with reference to FIG.
FIG. 3 is a flowchart showing the frame process (step S13) according to the present embodiment.
(Step S131) The frame processing unit 103 determines whether or not captured image data is input from the image input unit 102. If it is determined that the captured image data has been input, the process proceeds to step S132. If it is determined that the captured image data has not been input, the process returns to step S131.
(Step S132) The frame processing unit 103 outputs the captured image data input from the image input unit 102 to the adaptive luminance correction units 104-1 and 104-2. Thereafter, the process proceeds to step S133.
(Step S133) The frame processing unit 103 outputs the SW signal to the adaptive luminance correction units 104-1 and 104-2. Note that the frame number of the image may be added to the SW signal as described above. Thereafter, the process proceeds to an end process.

次に、図4を参照して、図2に示したステップS14の処理について詳細に説明する。ステップS14は、プロジェクタの前方にある物体の影や、照明状態の変化などに起因するスクリーン上の投影画像の輝度の変化に応じて、プロジェクタに出力する輝度信号を補正する処理を行う。   Next, the process of step S14 shown in FIG. 2 will be described in detail with reference to FIG. Step S14 performs a process of correcting the luminance signal output to the projector in accordance with the change in the luminance of the projected image on the screen due to the shadow of the object in front of the projector or the change in the illumination state.

図4は、本実施形態に係る補正処理(ステップS14)を示すフローチャートである。
(ステップS141)適応輝度処理部104は、フレーム処理部103からSW信号が入力されたか否かを判定する。SW信号が入力されたと判定された場合(Yes)は、ステップS142に進む。SW信号が入力されなかったと判定された場合(No)は、ステップS141に戻る。
(ステップS142)適応輝度処理部104は、フレーム処理部103から入力されたSW信号に基づいて、輝度補正を行うか否かを判定する。輝度補正を行うと判定された場合(Yes)は、ステップS143に進む。輝度補正を行わないと判定された場合(No)は、ステップS145に進む。
FIG. 4 is a flowchart showing the correction process (step S14) according to the present embodiment.
(Step S141) The adaptive luminance processing unit 104 determines whether or not the SW signal is input from the frame processing unit 103. If it is determined that the SW signal has been input (Yes), the process proceeds to step S142. If it is determined that the SW signal has not been input (No), the process returns to step S141.
(Step S142) The adaptive luminance processing unit 104 determines whether or not to perform luminance correction based on the SW signal input from the frame processing unit 103. If it is determined that the luminance correction is to be performed (Yes), the process proceeds to step S143. If it is determined that the luminance correction is not performed (No), the process proceeds to step S145.

(ステップS143)適応輝度処理部104は、コンテンツDB106から、オリジナル画像データを読み出す。
適応輝度処理部104は、撮像画像データに対応する輝度値C’と、オリジナル画像データに対応する輝度値Cを用いて、式(13)に示したΔCを計算する。その後ステップS144に進む。
(ステップS144)適応輝度処理部104は、ステップS143で計算されたΔCを用いて、式(14)、又は式(15)で示すように、補助補正値D又はDを更新する。その後ステップS145に進む。
(Step S143) The adaptive luminance processing unit 104 reads original image data from the content DB 106.
The adaptive luminance processing unit 104 calculates ΔC shown in Expression (13) using the luminance value C ′ corresponding to the captured image data and the luminance value C corresponding to the original image data. Thereafter, the process proceeds to step S144.
(Step S144) adaptive luminance processing unit 104, using the ΔC calculated in step S143, equation (14), or as shown in equation (15), updates the auxiliary correction value D 1 or D 2. Thereafter, the process proceeds to step S145.

(ステップS145)適応輝度処理部104は、D、及びDを用いて、式(8)又は(9)で示すように、RGB輝度値P、Pを計算する。その後ステップS146に進む。
(ステップS146)適応輝度処理部104−1は、ステップS145で計算したPに基づいて、輝度信号αPを計算し、αPをプロジェクタ105−1に出力する。適応輝度処理部104−2は、ステップS145で計算したPに基づいて、輝度信号βPを計算し、βPをプロジェクタ105−2に出力する。プロジェクタ105−1、2は、入力された輝度信号に基づいて、画像をスクリーンに投影する。その後終了処理に進む。
(Step S145) The adaptive luminance processing unit 104 calculates RGB luminance values P 1 and P 2 using D 1 and D 2 as shown in Expression (8) or (9). Thereafter, the process proceeds to step S146.
(Step S146) adaptive luminance processing section 104-1, based on P 1 calculated in step S145, calculates the luminance signal .alpha.P 1, and outputs the .alpha.P 1 to the projector 105-1. Adaptive luminance processing section 104-2, based on P 2 calculated in step S145, calculates the luminance signal .beta.P 2, and outputs the .beta.P 2 to the projector 105-2. The projectors 105-1 and 105-2 project an image on a screen based on the input luminance signal. Thereafter, the process proceeds to an end process.

上述した構成によれば、投影補正装置1は、例えば、以下のように動作する。
フレーム処理部103は、パラメータを初期化する。(ステップS11)カメラ101は、投影画像を撮像する。(ステップS12)フレーム処理部103は、投影画像を適応輝度補正部104−1、2に出力する(ステップS132)。フレーム処理部103は、適応輝度補正部104−1が輝度信号の補正を行うことを示すSW信号を適応輝度補正部104−1、2に出力する(ステップS133)。
According to the configuration described above, the projection correction apparatus 1 operates as follows, for example.
The frame processing unit 103 initializes parameters. (Step S11) The camera 101 captures a projected image. (Step S12) The frame processing unit 103 outputs the projection image to the adaptive luminance correction units 104-1 and 104-2 (step S132). The frame processing unit 103 outputs an SW signal indicating that the adaptive luminance correction unit 104-1 corrects the luminance signal to the adaptive luminance correction units 104-1 and 104-2 (step S133).

適応輝度補正部104−1は、式(13)に示したΔC(ここでは、ΔC)を計算し(ステップS143)、式(14)で示した補助補正値Dを更新する(ステップS144)。適応輝度補正部104−1は、式(8)で与えられるPに、αを乗じた輝度信号をプロジェクタ105−1に出力する。プロジェクタ105−1は、入力された輝度信号αPに基づいて、画像をスクリーンに投影する(ステップS145、146)。適応輝度補正部104−2は、式(9)で与えられるPに、βを乗じた輝度信号をプロジェクタ105−2に出力する。プロジェクタ105−2は、入力された輝度信号βPに基づいて、画像をスクリーンに投影する(ステップS146)。 Adaptive luminance correction section 104-1 calculates ΔC (here, ΔC 1 ) shown in equation (13) (step S143), and updates auxiliary correction value D 1 shown in equation (14) (step S144). ). Adaptive luminance correcting unit 104-1, and outputs the P 1 given by Equation (8), a luminance signal obtained by multiplying the α projector 105-1. Projector 105-1, based on the luminance signal .alpha.P 1 input, to project an image on the screen (step S145,146). Adaptive luminance correcting unit 104-2, and outputs the P 2 given by equation (9), a luminance signal obtained by multiplying the β projector 105-2. Projector 105-2, based on the luminance signal .beta.P 2 input, to project an image on the screen (step S146).

適応輝度補正部104−1は、ΔCが、予め定めた閾値より小さいか否かを判定する(ステップS15)。適応輝度補正部104−1は、ΔCが、予め定めた閾値より小さいと判定した場合は、終了処理に進む。適応輝度補正部104−1は、ΔCが、予め定めた閾値より小さくないと判定した場合は、次いで、処理開始からの時間の値が、予め定めた閾値よりも大きいか否かを判定する(ステップS16)。適応輝度補正部104−1は、処理開始からの時間の値が、予め定めた閾値よりも大きいと判定した場合は、終了処理に進む。適応輝度補正部104−1は、処理開始からの時間の値が、予め定めた閾値よりも大きくないと判定した場合は、フレーム処理部103は、フレーム番号が、予め定めた値であるか否かを判定する(ステップS17)。フレーム番号が、予め定めた値であると判定された場合は、終了処理に進む。フレーム番号が、予め定めた値でないと判定した場合は、カメラ101は、新たに投影画像を撮像する(ステップS12)。 Adaptive luminance correcting unit 104-1, [Delta] C 1 is determined whether less or not than a predetermined threshold value (step S15). Adaptive luminance correcting unit 104-1, [Delta] C 1 is, if it is determined to be smaller than the predetermined threshold value, the process proceeds to end process. When it is determined that ΔC 1 is not smaller than the predetermined threshold, the adaptive luminance correction unit 104-1 then determines whether or not the value of the time from the start of processing is larger than the predetermined threshold. (Step S16). When it is determined that the time value from the start of processing is greater than a predetermined threshold value, adaptive luminance correction section 104-1 proceeds to end processing. If adaptive luminance correction section 104-1 determines that the value of the time from the start of processing is not greater than a predetermined threshold value, frame processing section 103 determines whether the frame number is a predetermined value. Is determined (step S17). If it is determined that the frame number is a predetermined value, the process proceeds to an end process. If it is determined that the frame number is not a predetermined value, the camera 101 captures a new projection image (step S12).

フレーム処理部103は、投影画像を適応輝度補正部104−1、2に出力する(ステップS132)。フレーム処理部103は、適応輝度補正部104−2が輝度信号の補正を行うことを示すSW信号を適応輝度補正部104−1、2に出力する(ステップS133)。   The frame processing unit 103 outputs the projection image to the adaptive luminance correction units 104-1 and 104-2 (step S132). The frame processing unit 103 outputs the SW signal indicating that the adaptive luminance correction unit 104-2 corrects the luminance signal to the adaptive luminance correction units 104-1 and 104-2 (step S133).

適応輝度補正部104−2は、式(13)に示したΔC(ここでは、ΔC)を計算し(ステップS143)、式(15)で示した補助補正値Dを更新する(ステップS144)。適応輝度補正部104−2は、式(9)で与えられるPに、βを乗じた輝度信号をプロジェクタ105−2に出力する。プロジェクタ105−2は、入力された輝度信号βPに基づいて、画像をスクリーンに投影するステップS145、146)。適応輝度補正部104−1は、式(8)で与えられるPに、αを乗じた輝度信号をプロジェクタ105−1に出力する。プロジェクタ105−1は、入力された輝度信号βPに基づいて、画像をスクリーンに投影する(ステップS146)。 The adaptive luminance correction unit 104-2 calculates ΔC (here, ΔC 2 ) shown in Expression (13) (Step S143), and updates the auxiliary correction value D 2 shown in Expression (15) (Step S144). ). Adaptive luminance correcting unit 104-2, and outputs the P 2 given by equation (9), a luminance signal obtained by multiplying the β projector 105-2. Projector 105-2, based on the luminance signal .beta.P 2 input, step S145,146 for projecting an image onto a screen). Adaptive luminance correcting unit 104-1, and outputs the P 1 given by Equation (8), a luminance signal obtained by multiplying the α projector 105-1. Projector 105-1, based on the luminance signal .beta.P 2 input, to project an image on the screen (step S146).

適応輝度補正部104−2は、ΔCが、予め定めた閾値より小さいか否かを判定する(ステップS15)。適応輝度補正部104−2は、ΔCが、予め定めた閾値より小さいと判定した場合は、終了処理に進む。適応輝度補正部104−2は、ΔCが、予め定めた閾値より小さくないと判定した場合は、処理開始からの時間の値が、予め定めた閾値よりも大きいか否かを判定する(ステップS16)。適応輝度補正部104−2は、処理開始からの時間の値が、予め定めた閾値よりも大きいと判定された場合は、終了処理に進む。適応輝度補正部104−2は、処理開始からの時間の値が、予め定めた閾値よりも大きくないと判定した場合は、フレーム処理部103は、フレーム番号が、予め定めた値であるか否かを判定する(ステップS17)。フレーム番号が、予め定めた値であると判定された場合は、終了処理に進む。フレーム番号が、予め定めた値でないと判定した場合は、カメラ101は、新たに投影画像を撮像する(ステップS12)。
以後、適応輝度補正部104−1、2は、交互に補助補正値D及びDの更新を繰り返す。この動作により、適応輝度補正部104−1、2は、オリジナル画像データと撮像画像データとの差が小さくなるように、順次補正された輝度値P、Pを計算する。
Adaptive luminance correcting unit 104-2, [Delta] C 2 is determined or smaller or not than a predetermined threshold value (step S15). Adaptive luminance correcting unit 104-2, [Delta] C 2 is, when it is determined to be smaller than the predetermined threshold value, the process proceeds to end process. If it is determined that ΔC 2 is not smaller than the predetermined threshold value, adaptive luminance correction section 104-2 determines whether or not the value of the time from the start of processing is larger than the predetermined threshold value (Step S1). S16). If it is determined that the time value from the start of processing is greater than a predetermined threshold value, adaptive luminance correction section 104-2 proceeds to end processing. If adaptive brightness correction section 104-2 determines that the value of the time from the start of processing is not greater than a predetermined threshold, frame processing section 103 determines whether or not the frame number is a predetermined value. Is determined (step S17). If it is determined that the frame number is a predetermined value, the process proceeds to an end process. If it is determined that the frame number is not a predetermined value, the camera 101 captures a new projection image (step S12).
Thereafter, the adaptive luminance correction units 104-1 and 104-2 repeatedly update the auxiliary correction values D 1 and D 2 alternately. By this operation, the adaptive brightness correction units 104-1 and 104-2 calculate the brightness values P 1 and P 2 that are sequentially corrected so that the difference between the original image data and the captured image data becomes small.

このように、本実施形態によれば、プロジェクタ105−1とプロジェクタ105−2は、コンテンツDB106に記録された画像データに基づいて、画像を同一の場所に重なるように投影する。カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−1は、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−1に出力し、プロジェクタ105−1は、画像を投影する。一方、適応輝度補正部104−2は、D2を更新せずに,式(9)により輝度補正を行い、輝度信号をプロジェクタ105−2に出力し、プロジェクタ105−2は、画像を投影する。つまり、撮像された画像データと被投影画像データとに基づいて、投影装置が投影する投影画像を補正して投影する。
カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−2は、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−2に出力し、プロジェクタ105−2は、画像を投影する。一方、適応輝度補正部104−1は、D1を更新せずに,式(8)により輝度補正を行い、輝度信号をプロジェクタ105−1に出力し、プロジェクタ105−1は、画像を投影する。つまり、撮像された画像データと被投影画像データとに基づいて、投影装置が投影する投影画像を補正して投影する。
これにより、本実施形態では、投影補正装置1は、投影装置とスクリーンの間に人などが入って投影画像に影ができたときや、環境の明るさが変化した場合など、撮像画像とオリジナル画像との間に差が生じた場合に、自動的に各プロジェクタの出力を調整し、その差を小さくできる。すなわち、所望の画像を投影できる。また、高品質で高コントラストな投影像を維持することができる。
As described above, according to the present embodiment, the projector 105-1 and the projector 105-2 project images so as to overlap each other based on the image data recorded in the content DB 106. The camera 101 captures the projected image. Adaptive luminance correction section 104-1 performs luminance correction, and outputs the luminance signal after the luminance correction to projector 105-1, and projector 105-1 projects an image. On the other hand, the adaptive luminance correcting unit 104-2 does not update the D 2, performs the brightness correction by equation (9), and outputs the luminance signal to the projector 105-2, projector 105-2 projects the image . That is, the projection image projected by the projection device is corrected and projected based on the captured image data and the projection image data.
The camera 101 captures the projected image. The adaptive luminance correction unit 104-2 performs luminance correction, outputs the luminance signal after luminance correction to the projector 105-2, and the projector 105-2 projects an image. On the other hand, the adaptive luminance correcting unit 104-1 does not update the D 1, performs a brightness correction by equation (8), and outputs the luminance signal to the projector 105-1, projector 105-1 projects the image . That is, the projection image projected by the projection device is corrected and projected based on the captured image data and the projection image data.
As a result, in this embodiment, the projection correction apparatus 1 is configured such that when a person or the like enters between the projection apparatus and the screen and a shadow is formed on the projection image, or when the brightness of the environment changes, the captured image and the original When there is a difference between the images, the output of each projector can be automatically adjusted to reduce the difference. That is, a desired image can be projected. In addition, a high-quality and high-contrast projection image can be maintained.

また、本実施形態によれば、プロジェクタ105−1とプロジェクタ105−2が投影した画像データに基づいて、適応輝度補正部104−1は輝度補正を行い、適応輝度補正部104−2はD2を更新せずに,式(9)により輝度補正を行い、輝度信号をプロジェクタ105−1、2に出力し、プロジェクタ105−1、2は、画像を投影する。
上記の動作を予め定めた回数を繰り返した後に、プロジェクタ105−1とプロジェクタ105−2が投影した画像データに基づいて、適応輝度補正部104−2は、輝度補正を行い適応輝度補正部104−1はD1を更新せずに,式(8)により輝度補正を行い、で、輝度信号をプロジェクタ105−1、2に出力し、プロジェクタ105−1、2は、画像を投影する。
これにより、本実施形態では、一方のプロジェクタを複数の撮像画像データに基づいて補正を行った後に、他方のプロジェクタを複数の撮像画像データに基づいて補正を行うため、補正が収束するまでの時間を短縮することができる。
Further, according to the present embodiment, the adaptive luminance correction unit 104-1 performs luminance correction based on the image data projected by the projector 105-1 and the projector 105-2, and the adaptive luminance correction unit 104-2 performs D 2. Without updating the brightness, the brightness is corrected by the equation (9), and the brightness signal is output to the projectors 105-1 and 105-2. The projectors 105-1 and 105-2 project the image.
After repeating the above operation a predetermined number of times, the adaptive brightness correction unit 104-2 performs brightness correction based on the image data projected by the projector 105-1 and the projector 105-2, and the adaptive brightness correction unit 104- No. 1 does not update D 1 but performs luminance correction according to equation (8), and outputs a luminance signal to the projectors 105-1 and 105-2, and the projectors 105-1 and 105-2 project an image.
Thereby, in this embodiment, since one projector is corrected based on a plurality of captured image data, and the other projector is corrected based on a plurality of captured image data, the time until the correction converges Can be shortened.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、プロジェクタを2台用いる場合について説明した。本実施形態では、プロジェクタをN台(N>2)用いる場合について説明をする。
図5は、N台のプロジェクタを使った投影補正装置2の構成を示すブロック図である。本実施形態に係る投影補正装置2は、適応輝度補正部204、及びプロジェクタ205がそれぞれN台であることを除いて、第1の実施形態における投影補正装置1と同様であるため、説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings.
In the first embodiment, the case where two projectors are used has been described. In this embodiment, a case where N projectors (N> 2) are used will be described.
FIG. 5 is a block diagram showing a configuration of the projection correction apparatus 2 using N projectors. The projection correction apparatus 2 according to the present embodiment is the same as the projection correction apparatus 1 according to the first embodiment except that there are N adaptive brightness correction units 204 and N projectors 205, respectively. To do.

次に、図6を参照して、本実施形態に係る投影補正装置2の動作を説明する。
図6は、本実施形態に係る投影補正装置2の動作を示すフローチャートである。
Next, the operation of the projection correction apparatus 2 according to this embodiment will be described with reference to FIG.
FIG. 6 is a flowchart showing the operation of the projection correction apparatus 2 according to this embodiment.

(ステップS21)フレーム処理部103は、初期化命令を、適応輝度補正部104に出力する。適応輝度補正部104は、フレーム処理部103から初期化命令を入力されたときに、輝度補正DB107内に保存された、カラー混合行列V、V、・・・、V、環境光のRGB成分であるF、補助補正量D、D、・・・、D、及びブレンディング・パラメータα、α、・・・、αを初期化する。具体的には、適応輝度補正部104は、カラー混合行列V、V、・・・、V、及び環境光のRGB成分であるFを、上述したように計算し、計算した値を代入する。なお、V、V、・・・V及びFは、投影補正装置1を起動するときに一度だけ計算する。計算された、V、V、・・・V及びFは、輝度補正DB107内に保存しておき、次回以降にステップS11で適応輝度補正部104が初期化を行う場合は、V、V、・・・V及びFは、再度計算する必要はなく、輝度補正DB107内に保存してあるV、V、及びFをそのまま用いる。補助補正量D、D、・・・、Dに「0」を代入し、ブレンディング・パラメータα、α、・・・、αに、1以下の正の値αを代入される。その後ステップS22に進む。
ステップS22の処理は、図2に示した第1の実施形態におけるステップS12の処理と同様である。
(ステップS23)フレーム処理部103は、フレーム処理を行う。本ステップS23の処理の詳細は、図7を用いて後述する。その後ステップS24に進む。
(Step S <b> 21) The frame processing unit 103 outputs an initialization command to the adaptive luminance correction unit 104. The adaptive luminance correction unit 104 receives the color mixing matrices V 1 , V 2 ,..., V N , ambient light stored in the luminance correction DB 107 when the initialization command is input from the frame processing unit 103. F is a RGB components, auxiliary correction amount D 1, D 2, ···, D N, and blending parameters α 1, α 2, ···, initializes the alpha N. Specifically, the adaptive luminance correction unit 104 calculates the color mixing matrix V 1 , V 2 ,..., V N and F, which is the RGB component of the ambient light, as described above, and calculates the calculated values. substitute. V 1 , V 2 ,... V N and F are calculated only once when the projection correction apparatus 1 is activated. The calculated V 1 , V 2 ,... V N and F are stored in the brightness correction DB 107, and when the adaptive brightness correction unit 104 initializes in step S11 after the next time, V 1 , V 2 ,... V N and F do not need to be calculated again, and V 1 , V 2 , and F stored in the brightness correction DB 107 are used as they are. Auxiliary correction amount D 1, D 2, ···, and "0" is substituted for the D N, blending parameters α 1, α 2, ···, the alpha N, is assigned a less positive value alpha The Thereafter, the process proceeds to step S22.
The process of step S22 is the same as the process of step S12 in the first embodiment shown in FIG.
(Step S23) The frame processing unit 103 performs frame processing. Details of the processing in step S23 will be described later with reference to FIG. Thereafter, the process proceeds to step S24.

(ステップS24)適応輝度補正部104は、輝度補正処理を行う。本ステップS24の処理の詳細は、図8を用いて後述する。その後ステップS25に進む。
ステップS25〜ステップS27の処理は、図2に示した第1の実施形態におけるステップS15〜S17の処理と同様である。
(Step S24) The adaptive brightness correction unit 104 performs brightness correction processing. Details of the processing in step S24 will be described later with reference to FIG. Thereafter, the process proceeds to step S25.
The processes in steps S25 to S27 are the same as the processes in steps S15 to S17 in the first embodiment shown in FIG.

次に、図7を参照して、図6に示したフレーム処理(ステップS23)について詳細に説明する。
図7は、本実施形態に係るフレーム処理(ステップS23)を示すフローチャートである。
ステップS231の処理は、図3に示した第1の実施形態におけるステップS131の処理と同様である。
(ステップS232)フレーム処理部103は、画像入力部102から入力された撮像画像データを、適応輝度補正部104−1、2、・・・、Nに出力する。その後ステップS233に進む。
(ステップS233)フレーム処理部103は、輝度補正を行うプロジェクタを指定するSW信号を適応輝度補正部104−1、2・・・、Nに出力する。なお、このSW信号には、画像のフレーム番号を付加してもよい。その後、終了処理に進む。
Next, the frame process (step S23) shown in FIG. 6 will be described in detail with reference to FIG.
FIG. 7 is a flowchart showing the frame processing (step S23) according to the present embodiment.
The process of step S231 is the same as the process of step S131 in the first embodiment shown in FIG.
(Step S232) The frame processing unit 103 outputs the captured image data input from the image input unit 102 to the adaptive luminance correction units 104-1, 2,. Thereafter, the process proceeds to step S233.
(Step S233) The frame processing unit 103 outputs an SW signal for designating a projector for performing luminance correction to the adaptive luminance correction units 104-1, 2,. Note that an image frame number may be added to the SW signal. Thereafter, the process proceeds to an end process.

次に、図8を参照して、図6に示した補正処理(ステップS24)について詳細に説明する。
図8は、本実施形態に係る補正処理(ステップS24)を示すフローチャートである。
ステップS241〜S243の処理は、図4に示した第1の実施形態におけるステップS141〜S143の処理と同様である。
(ステップS244)適応輝度処理部104―kは、ステップS243で計算されたΔC(ΔCと呼ぶ)を用いて、式(17)で示すように、補助補正値Dを更新する。その後ステップS245に進む。
Next, the correction process (step S24) shown in FIG. 6 will be described in detail with reference to FIG.
FIG. 8 is a flowchart showing the correction process (step S24) according to the present embodiment.
The processing of steps S241 to S243 is the same as the processing of steps S141 to S143 in the first embodiment shown in FIG.
(Step S244) adaptive luminance processing unit 104-k, using the [Delta] C calculated in step S243 (referred to as [Delta] C k), as shown in equation (17), updates the auxiliary correction value D k. Thereafter, the process proceeds to step S245.

Figure 2012128113
Figure 2012128113

(ステップS245)適応輝度処理部104は、D、D、・・・、Dを用いて、式(18)で示すように、RGB輝度値P、P、・・・、Pを計算する。その後ステップS246に進む。 (Step S245) The adaptive luminance processing unit 104 uses the D 1 , D 2 ,..., DN and uses the RGB luminance values P 1 , P 2 ,. N is calculated. Thereafter, the process proceeds to step S246.

Figure 2012128113
Figure 2012128113

(ステップS246)適応輝度処理部104−k(k=1、2、・・・、N)は、ステップS605で計算したPに基づいて、輝度信号αをプロジェクタ105−kに出力する。プロジェクタ105−k(k=1、2、・・・、N)は、入力された輝度信号に基づいて、画像をスクリーンに投影する。その後終了処理に進む。 (Step S246) The adaptive luminance processing unit 104-k (k = 1, 2,..., N) outputs the luminance signal α k P k to the projector 105-k based on P k calculated in Step S605. To do. The projector 105-k (k = 1, 2,..., N) projects an image on the screen based on the input luminance signal. Thereafter, the process proceeds to an end process.

このように、本実施形態によれば、プロジェクタ105−k(k=1、2、・・・、N)は、コンテンツDB106に記録された画像データに基づいて、画像を同一の場所に重なるように投影する。カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−kは、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−kに出力し、プロジェクタ105−kは、画像を投影する。一方、適応輝度補正部104−j(j≠k)は、Dを更新しないで輝度補正を行い、輝度信号をプロジェクタ105−j(j≠k)に出力し、プロジェクタ105−j(j≠k)は、画像を投影する。
カメラ101は、投影された投影画像を撮像する。適応輝度補正部104−j(j≠k)は、輝度補正を行い、輝度補正後の輝度信号をプロジェクタ105−jに出力し、プロジェクタ105−jは、画像を投影する。一方、適応輝度補正部104−k(k≠j)は、Dを更新しないで輝度補正を行い、輝度信号をプロジェクタ105−k(k≠j)に出力し、プロジェクタ105−1は、画像を投影する。
Thus, according to the present embodiment, the projector 105-k (k = 1, 2,..., N) overlaps images in the same place based on the image data recorded in the content DB 106. Project to. The camera 101 captures the projected image. The adaptive luminance correction unit 104-k performs luminance correction, outputs the luminance signal after luminance correction to the projector 105-k, and the projector 105-k projects an image. On the other hand, the adaptive brightness correction unit 104-j (j ≠ k) performs brightness correction without updating D j , outputs a brightness signal to the projector 105-j (j ≠ k), and the projector 105-j (j ≠ k). k) projects an image.
The camera 101 captures the projected image. The adaptive luminance correction unit 104-j (j ≠ k) performs luminance correction, outputs the luminance signal after luminance correction to the projector 105-j, and the projector 105-j projects an image. On the other hand, the adaptive luminance correction unit 104-k (k ≠ j) performs luminance correction without updating D k and outputs a luminance signal to the projector 105-k (k ≠ j). Project.

これにより、本実施形態では、投影補正装置1は、複数のプロジェクタの前に人が入るなどして投影画像に影ができたときや、環境の明るさが変化した場合など、撮像画像とオリジナル画像との間に差が生じた場合に、自動的に各プロジェクタの出力を調整し、その差を小さくできる。すなわち、所望の画像を投影できる。また、高品質で高コントラストな投影像を維持することができる。   As a result, in this embodiment, the projection correction apparatus 1 uses the captured image and the original when, for example, a shadow is formed on the projection image due to a person entering before a plurality of projectors, or when the brightness of the environment changes. When there is a difference between the images, the output of each projector can be automatically adjusted to reduce the difference. That is, a desired image can be projected. In addition, a high-quality and high-contrast projection image can be maintained.

なお、上述した実施形態において、SW信号は、撮像画像データのフレーム番号に基づいて生成したが、SW信号はこれに限られることはなく、補正を行う適応輝度処理部104を特定できるものであれば、いかなるものでもかまわない。  In the above-described embodiment, the SW signal is generated based on the frame number of the captured image data. However, the SW signal is not limited to this, and it is possible to identify the adaptive luminance processing unit 104 that performs correction. Anything can be used.

なお、上述した実施形態において、輝度とは、明度などの他の明るさを示すものでもよい。また、補正の対象とするものは、色、彩度などでもよい。  In the above-described embodiment, the luminance may indicate other brightness such as brightness. Further, the correction target may be color, saturation, or the like.

なお、上述した実施形態において、プロジェクタ、カメラ、及びコンテンツDBは必ずしも構成要素として接続している必要はなく、画像入力部、フレーム処理部、適応輝度補正部間のそれぞれのデータの流れは、ハードディスク、RAID装置、CD−ROMなどの記憶媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもかまわない。   In the above-described embodiment, the projector, the camera, and the content DB do not necessarily have to be connected as components, and the data flow between the image input unit, the frame processing unit, and the adaptive luminance correction unit is a hard disk. In addition, a storage medium such as a RAID device or a CD-ROM may be used, or a remote data resource may be used via a network.

なお、ブレンディング・パラメータα、βは、必ずしも同じ値にする必要はないが、同程度の値にすることが望ましい。例えば、α>β、かつβの値が非常に小さいとする。この場合、2代目のプロジェクタの輝度を補正しても補正結果を出力するときにβ倍され、輝度補正が有効に機能しない。α、βは、α=βを規定値とし、規定値としては、プロジェクタを2台使った場合は、0.4〜0.7程度、プロジェクタを3台使った場合は、0.5〜0.8程度に設定すると収束が速い。ただし、α、βの最適な値は、投影環境、特にスクリーンの材質や使用するプロジェクタによって代わるため、装置の設定環境に応じて設定する。   The blending parameters α and β are not necessarily set to the same value, but are preferably set to the same value. For example, it is assumed that α> β and the value of β is very small. In this case, even if the brightness of the second-generation projector is corrected, it is multiplied by β when outputting the correction result, and the brightness correction does not function effectively. For α and β, α = β is a specified value, and the specified value is about 0.4 to 0.7 when two projectors are used, and 0.5 to 0 when three projectors are used. When set to about .8, convergence is fast. However, the optimum values of α and β are set according to the setting environment of the apparatus because they change depending on the projection environment, particularly the material of the screen and the projector to be used.

なお、上述した各実施形態における投影補正装置が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Note that all or some of the functions of the units included in the projection correction apparatus in each of the embodiments described above are recorded on a computer-readable recording medium and a program for realizing these functions is recorded on the recording medium. Alternatively, the program may be read by a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

1、2・・・投影補正装置、101・・・カメラ、102・・・画像入力部、103・・・フレーム処理部、104(104−1、104−2、・・・、104−N)・・・適応輝度補正部、105(105−1、105−2、・・・、105−N)・・・プロジェクタ、106・・・コンテンツDB、107・・・輝度補正DB   DESCRIPTION OF SYMBOLS 1, 2 ... Projection correction apparatus, 101 ... Camera, 102 ... Image input part, 103 ... Frame processing part, 104 (104-1, 104-2, ..., 104-N) ... Adaptive brightness correction unit, 105 (105-1, 105-2, ..., 105-N) ... Projector, 106 ... Content DB, 107 ... Brightness correction DB

Claims (5)

第1の投影装置と第2の投影装置が同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1のステップと、
前記第1のステップで撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2のステップと、
前記第2のステップで投影された投影画像を撮像する第3のステップと、
前記第3のステップで撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4のステップと、
を有することを特徴とする投影補正方法。
A first step in which the first projection device and the second projection device project projected image data having the same contents so as to overlap each other at the same location, and capture a projected image;
A second step of correcting and projecting the projection image projected by the first projection device based on the image data of the image captured in the first step and the projection image data; and
A third step of capturing the projection image projected in the second step;
A fourth step of correcting and projecting the projection image projected by the second projection device based on the image data of the image captured in the third step and the projection image data;
A projection correction method comprising:
前記第1のステップと前記第2のステップを予め定めた回数繰り返した後、前記第3のステップと前記第4のステップを行うこと
を特徴とする請求項1に記載の投影補正方法。
2. The projection correction method according to claim 1, wherein the third step and the fourth step are performed after the first step and the second step are repeated a predetermined number of times.
前記第2のステップ、及び第4のステップで、画像の明るさを補正すること
を特徴とする請求項1又は2のいずれか1項に記載の投影補正方法。
The projection correction method according to claim 1, wherein the brightness of the image is corrected in the second step and the fourth step.
同一の内容の被投影画像を同一の場所に重なるように投影する第1の投影装置、第2の投影装置と、
前記第1の投影装置と前記第2の投影装置によって投影された投影画像を撮像する撮像部と、
前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正する第1の補正部と、
前記第1の補正部が補正した投影画像を前記第1の投影装置が投影した後に、前記撮像部によって撮像された前記投影画像の画像データと被投影画像データとに基づいて、前記第2の投影装置が投影する投影画像を補正する第2の補正部と、
を有することを特徴とする投影補正装置。
A first projection device, a second projection device, which project projected images having the same contents so as to overlap each other at the same location;
An imaging unit that captures a projection image projected by the first projection device and the second projection device;
A first correction unit that corrects a projection image projected by the first projection device based on image data and projection image data of the projection image captured by the imaging unit;
After the first projection device projects the projection image corrected by the first correction unit, based on the image data and the projection image data of the projection image captured by the imaging unit, the second A second correction unit for correcting a projection image projected by the projection device;
A projection correction apparatus comprising:
投影補正装置のコンピュータに、
同一の内容の被投影画像データを同一の場所に重なるように投影し、投影画像を撮像する第1の手順、
第1の手順で撮像された画像の画像データと前記被投影画像データとに基づいて、前記第1の投影装置が投影する投影画像を補正して投影する第2の手順、
前記第2の手順で投影された投影画像を撮像する第3の手順、
前記第3の手順で撮像された画像の画像データと被投影画像データに基づいて、前記第2の投影装置が投影する投影画像を補正して投影する第4の手順、
を実行させる投影補正プログラム。
In the computer of the projection correction device,
A first procedure of projecting projected image data having the same contents so as to overlap each other at the same location and capturing a projected image;
A second procedure for correcting and projecting the projection image projected by the first projection device based on the image data of the image captured in the first procedure and the projection target image data;
A third procedure for capturing a projection image projected in the second procedure;
A fourth procedure for correcting and projecting the projection image projected by the second projection device based on the image data of the image captured in the third procedure and the projection image data;
Projection correction program to execute.
JP2010278493A 2010-12-14 2010-12-14 Projection correction method, projection correction apparatus, and projection correction program Expired - Fee Related JP5654337B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278493A JP5654337B2 (en) 2010-12-14 2010-12-14 Projection correction method, projection correction apparatus, and projection correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278493A JP5654337B2 (en) 2010-12-14 2010-12-14 Projection correction method, projection correction apparatus, and projection correction program

Publications (2)

Publication Number Publication Date
JP2012128113A true JP2012128113A (en) 2012-07-05
JP5654337B2 JP5654337B2 (en) 2015-01-14

Family

ID=46645225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278493A Expired - Fee Related JP5654337B2 (en) 2010-12-14 2010-12-14 Projection correction method, projection correction apparatus, and projection correction program

Country Status (1)

Country Link
JP (1) JP5654337B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058628A (en) * 2015-09-18 2017-03-23 日本電信電話株式会社 Spatial image performance device, control method of the spatial image performance device, and video system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162743A (en) * 1993-12-03 1995-06-23 Matsushita Electric Ind Co Ltd Image processor for projector, and projector
JP2001051346A (en) * 1999-08-05 2001-02-23 Nippon Telegr & Teleph Corp <Ntt> Automatic pixel position adjusting device
JP2004228824A (en) * 2003-01-22 2004-08-12 Hitachi Ltd Stack projection device and its adjusting method
JP2006245737A (en) * 2005-03-01 2006-09-14 Casio Comput Co Ltd Projection image correction device and method for projection image correction and program
JP2008116565A (en) * 2006-11-01 2008-05-22 Seiko Epson Corp Image correction device, projection system, image correction method, image correction program and recording medium
JP2009258205A (en) * 2008-04-14 2009-11-05 Sharp Corp Projector device, image projection method, program, recording medium, and portable telephone terminal

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162743A (en) * 1993-12-03 1995-06-23 Matsushita Electric Ind Co Ltd Image processor for projector, and projector
JP2001051346A (en) * 1999-08-05 2001-02-23 Nippon Telegr & Teleph Corp <Ntt> Automatic pixel position adjusting device
JP2004228824A (en) * 2003-01-22 2004-08-12 Hitachi Ltd Stack projection device and its adjusting method
JP2006245737A (en) * 2005-03-01 2006-09-14 Casio Comput Co Ltd Projection image correction device and method for projection image correction and program
JP2008116565A (en) * 2006-11-01 2008-05-22 Seiko Epson Corp Image correction device, projection system, image correction method, image correction program and recording medium
JP2009258205A (en) * 2008-04-14 2009-11-05 Sharp Corp Projector device, image projection method, program, recording medium, and portable telephone terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058628A (en) * 2015-09-18 2017-03-23 日本電信電話株式会社 Spatial image performance device, control method of the spatial image performance device, and video system

Also Published As

Publication number Publication date
JP5654337B2 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
US8605106B2 (en) Projector and color improvement method of the projector
JP5590668B2 (en) Projector apparatus, video signal correction apparatus, video signal correction method, and program
JP2017049992A (en) High dynamic range tone mapping
CN105144688A (en) Imaging device and imaging system
JP5123713B2 (en) Image processing apparatus and image processing method
KR102144390B1 (en) Image processing device and method to perform local contrast enhancement
JP5804856B2 (en) Image processing apparatus, image processing method, and program
JP5596427B2 (en) Optical projection control method, optical projection control apparatus, optical projection control system, and program
US9672650B2 (en) Image processing apparatus, image processing method, and storage medium
JP2016133799A (en) Illumination system
US8619151B2 (en) Photographing method and apparatus providing correction of object shadows, and a recording medium storing a program for executing the method
JP5654337B2 (en) Projection correction method, projection correction apparatus, and projection correction program
US11010882B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2010237633A (en) Projector
EP2744209A1 (en) Content processing device, content processing method, and recording medium
JP2005117616A (en) Method, device, and medium for video image recording and method and device for video image display
JP2010010754A (en) Display device
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP2019033339A (en) Information processing apparatus, projection apparatus, information processing method, and program
WO2019158129A1 (en) Method and device for augmented reality visual element display
KR20110095556A (en) Image projection apparatus and image correcting method thereof
JP5339299B2 (en) Optical brightness correction apparatus, optical brightness correction method, and optical brightness correction program
KR20170059310A (en) Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image
JP2007101837A (en) Load information acquisition device for optical modulating element, and image display apparatus
JP7309352B2 (en) Electronic equipment and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141120

R150 Certificate of patent or registration of utility model

Ref document number: 5654337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees