JP2016092779A - Image projection system, information processing apparatus, information processing method, and program - Google Patents

Image projection system, information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2016092779A
JP2016092779A JP2014229051A JP2014229051A JP2016092779A JP 2016092779 A JP2016092779 A JP 2016092779A JP 2014229051 A JP2014229051 A JP 2014229051A JP 2014229051 A JP2014229051 A JP 2014229051A JP 2016092779 A JP2016092779 A JP 2016092779A
Authority
JP
Japan
Prior art keywords
image
projection
irradiation
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014229051A
Other languages
Japanese (ja)
Inventor
信一 住吉
Shinichi Sumiyoshi
信一 住吉
中重 文宏
Fumihiro Nakashige
文宏 中重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014229051A priority Critical patent/JP2016092779A/en
Publication of JP2016092779A publication Critical patent/JP2016092779A/en
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a light spot applied on a projection surface accurately and stably, without any influence of a video signal, in a system using a plurality of image projection apparatuses.SOLUTION: An image projection apparatus includes a synchronization signal output section 11 which transmits a synchronization signal designated to capture a projection surface in a projection period excluding a period where a light instruction apparatus emits light of a predetermined color, to an information processing apparatus. The information processing apparatus includes: a projection control section 28 for projecting projection images so as to synthesize the projection images of a plurality of projection apparatuses; an imaging control section 21 which causes an imaging section to capture the projection surface, in response to the synchronization signal; an irradiation image detection section 24 which detects an irradiation image applied on the projection surface by the light instruction apparatus from image data captured by the imaging section; and an irradiation image generation section 25 which generates irradiation image data by adding a predetermined image according to a position of the detected irradiation image.SELECTED DRAWING: Figure 4

Description

本発明は、画像投影システム、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an image projection system, an information processing apparatus, an information processing method, and a program.

プロジェクタは、スクリーンに文字やグラフなどの画像を拡大投影するので、多人数に対するプレゼンテーションなどに広く用いられている。このプレゼンテーションの際に、プレゼンターが説明を判りやすくするために、スクリーンに投影された画像を、レーザポインタなどを用いて指し示す場合がある。しかしながら、レーザポインタで投影画像を直接的に指し示すのは、手振れによって所望の場所を正確に指せないといった問題があった。そこで、使用者がレーザポインタによって照射した地点を、プロジェクタに内蔵されたCCD(Charge Coupled Device)カメラが検知し、この照射地点と同じ地点にポインタ画像を表示する、という技術が知られている。   A projector enlarges and projects an image such as a character or graph on a screen, and is therefore widely used for presentations for a large number of people. During the presentation, in order to make it easy for the presenter to understand the explanation, the image projected on the screen may be indicated using a laser pointer or the like. However, pointing the projected image directly with the laser pointer has a problem that the desired location cannot be accurately pointed by camera shake. Therefore, a technique is known in which a CCD (Charge Coupled Device) camera built in a projector detects a point irradiated by a laser pointer by a user and displays a pointer image at the same point as the irradiation point.

例えば、特許文献1には、複数のプロジェクタによって複数のスクリーン上に同一の投影用画像を投影する場合に、投影画像に、レーザポインタなどの光点と共に撮影した画像を用いて光点の座標を演算し画像合成処理をする技術が開示されている。なお、この特許文献1は、複数台のプロジェクタ映像を合成することによって成立するマルチプロジェクションやプロジェクションマッピング時に対応するものではない。   For example, in Patent Document 1, when the same projection image is projected on a plurality of screens by a plurality of projectors, the coordinates of the light spot are obtained by using an image taken together with a light spot such as a laser pointer in the projection image. A technique for calculating and performing image composition processing is disclosed. Note that Patent Document 1 does not correspond to multi-projection or projection mapping established by combining a plurality of projector images.

しかしながら、上記に示されるような従来の技術にあっては、複数台の画像投影装置(プロジェクタ)の映像を合成した投影面において、映像信号の影響を受けることにより投影面に照射されたレーザポインタ等の光点が検出できなくなる可能性があるという問題があった。   However, in the conventional techniques as described above, the laser pointer irradiated to the projection surface due to the influence of the video signal on the projection surface where the images of the plurality of image projection apparatuses (projectors) are combined. There is a problem that the light spot such as the above may not be detected.

本発明は、上記に鑑みてなされたものであって、複数の画像投影装置を用いるシステムにおいても、映像信号の影響を受けることなく、精度良く安定的に投影面に照射された光点を検出することを目的とする。   The present invention has been made in view of the above, and even in a system using a plurality of image projection apparatuses, the light spot irradiated to the projection surface can be detected accurately and stably without being affected by the video signal. The purpose is to do.

上述した課題を解決し、目的を達成するために、本発明は、画像データを投影面に投影する複数の画像投影装置と、前記複数の画像投影装置と接続された情報処理装置と、前記投影面を撮影する撮影部と、を有し、前記画像投影装置は、光指示装置が照射している照射色とは異なる投影期間を、前記投影面を撮影するタイミングとして指定した同期信号を前記情報処理装置へと送信する同期信号出力部を備え、前記情報処理装置は、前記複数の画像投影装置の投影画像を一つの合成画像となるように各投影画像を投影する投影制御部と、前記同期信号に従い、前記撮影部に前記投影面を撮影させる撮影制御部と、前記撮影部で撮影された前記画像データから前記光指示装置が前記投影面に対して照射した照射画像を検出する照射画像検出部と、前記検出された前記照射画像の位置に応じて所定の画像が付加された照射画像データを生成する照射画像生成部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a plurality of image projection apparatuses that project image data onto a projection plane, an information processing apparatus connected to the plurality of image projection apparatuses, and the projection An image capturing unit that captures a surface, and the image projection device includes a synchronization signal that specifies a projection period that is different from an irradiation color irradiated by the light indicating device as a timing for capturing the projection surface. A synchronization signal output unit for transmitting to a processing device, wherein the information processing device projects the projection images so that the projection images of the plurality of image projection devices become one composite image; and the synchronization In accordance with the signal, an imaging control unit that causes the imaging unit to image the projection plane, and an irradiation image detection that detects an irradiation image irradiated on the projection plane by the light indicating device from the image data captured by the imaging unit Department and Characterized in that and an illumination image generating unit for generating radiation image data in which a predetermined image is added in accordance with the position of the detected said radiation image.

本発明は、複数の画像投影装置を用いるシステムにおいても、映像信号の影響を受けることなく、精度良く安定的に投影面に照射された光点を検出することができるという効果を奏する。   The present invention has an effect that even in a system using a plurality of image projection apparatuses, it is possible to detect a light spot irradiated onto a projection surface accurately and stably without being affected by a video signal.

図1は、第1の実施の形態の画像投影装置の使用態様を示す全体図である。FIG. 1 is an overall view showing a usage mode of the image projection apparatus according to the first embodiment. 図2は、第1の実施の形態の画像投影装置のハードウェアの内部構成を示す図である。FIG. 2 is a diagram illustrating an internal configuration of hardware of the image projection apparatus according to the first embodiment. 図3は、画像投影装置、及び外部PCのハードウェア構成を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration of the image projection apparatus and the external PC. 図4は、図3における機能構成を示すブロック図である。FIG. 4 is a block diagram showing a functional configuration in FIG. 図5は、第1の実施の形態の投影パターンの一例を示す図である。FIG. 5 is a diagram illustrating an example of a projection pattern according to the first embodiment. 図6は、第1の実施の形態のカラーホイールシアン(Cy)−白色(W)−赤色(R)−マゼンタ(M)−黄色(Y)−緑色(G)−青(B)の7セグメントを示す図である。FIG. 6 shows seven segments of color wheel cyan (Cy) -white (W) -red (R) -magenta (M) -yellow (Y) -green (G) -blue (B) according to the first embodiment. FIG. 図7は、第1の実施の形態のカラーホイールの7セグメントと、各セグメントが投影面に表示されたときのカメラ撮影画像との相関関係を示す図である。FIG. 7 is a diagram illustrating a correlation between the seven segments of the color wheel according to the first embodiment and a camera-captured image when each segment is displayed on the projection plane. 図8は、カラーホイールの一周期に対する投影光色との関係を示す図である。FIG. 8 is a diagram illustrating the relationship between the color of projection light and one period of the color wheel. 図9は、ある投影画像に対し、赤色(R)、緑色(G)、青色(B)のレーザポインタを照射した場合の画像データを示す図である。FIG. 9 is a diagram illustrating image data when a red (R), green (G), and blue (B) laser pointer is irradiated to a certain projected image. 図10は、タイミングA,B,Cで投影画像に対して投影されたレーザポインタを撮影した場合の、検出されるレーザポインタを示す図である。FIG. 10 is a diagram showing a detected laser pointer when the laser pointer projected on the projection image at timings A, B, and C is photographed. 図11は、単色のレーザポインタを検出するための、カラーホイールの回転周期と撮影カメラの撮影周期とシャッタータイミングの関係を示している図である。FIG. 11 is a diagram illustrating the relationship between the rotation cycle of the color wheel, the shooting cycle of the shooting camera, and the shutter timing for detecting a monochrome laser pointer. 図12は、複数色のレーザポインタを検出するための、カラーホイールの回転周期と撮影カメラの撮影周期とシャッタータイミングの関係を示している図である。FIG. 12 is a diagram illustrating the relationship between the rotation cycle of the color wheel, the shooting cycle of the shooting camera, and the shutter timing for detecting laser pointers of a plurality of colors. 図13は、オプションカメラの例を示す説明図である。FIG. 13 is an explanatory diagram illustrating an example of an option camera. 図14は、射影変換係数の算出と、レーザポインタの検出の処理の流れを示すフローチャートである。FIG. 14 is a flowchart showing a flow of processing for calculating a projective transformation coefficient and detecting a laser pointer. 図15は、第1の実施の形態の画像投影装置におけるポインタの投射態様の一例を示す全体図である。FIG. 15 is an overall view illustrating an example of a projection mode of a pointer in the image projection apparatus according to the first embodiment. 図16は、第1の実施の形態の投影パターンの一例を示す図である。FIG. 16 is a diagram illustrating an example of a projection pattern according to the first embodiment. 図17は、円筒型スクリーンを用いた投影システムの例を示す説明図である。FIG. 17 is an explanatory diagram showing an example of a projection system using a cylindrical screen. 図18は、車を投影するシステム例を示す説明図である。FIG. 18 is an explanatory diagram showing a system example for projecting a car. 図19は、特殊な物体でのインタラクション例を説明図である。FIG. 19 is an explanatory diagram of an example of interaction with a special object.

以下に添付図面を参照して、この発明にかかる画像投影システム、情報処理装置、情報処理方法、及びプログラムの一実施の形態を詳細に説明する。   Exemplary embodiments of an image projection system, an information processing apparatus, an information processing method, and a program according to the present invention will be explained below in detail with reference to the accompanying drawings.

(実施の形態)
本実施の形態は、同じ映像信号発生器(映像生成器、パーソナルコンピュータなど)から同じタイミングで映像信号を受け取る複数のプロジェクタがあるシステム例である。本システムでは、同じタイミングで映像信号を受け取ると、カラーホイールの動きも同一となり、どの瞬間でもすべての画像投影装置(プロジェクタ)で投影色が合致している状態となる。さらに、投影面を撮影するカメラを搭載し、カメラが投影像の座標を認識するプロジェクタ装置において、複数台のプロジェクタ装置からの同期投影と、特定色を発色する区間に同期して光点画像をカメラで撮影との2つを実施する。これにより、カメラで撮影された光点の色彩情報(RGBのいずれかのチャンネルのデータ)が特異的に検出するものである。以下、図面を参照して詳細な具体例をあげて説明する。
(Embodiment)
This embodiment is an example of a system having a plurality of projectors that receive video signals from the same video signal generator (video generator, personal computer, etc.) at the same timing. In this system, when the video signal is received at the same timing, the movement of the color wheel is also the same, and the projection colors match in all the image projection apparatuses (projectors) at any moment. Furthermore, in a projector device that is equipped with a camera that captures the projection plane and recognizes the coordinates of the projected image, the light spot image is synchronized with the synchronized projection from a plurality of projector devices and the section that develops a specific color. The camera and shooting are performed. Thereby, the color information (data of any of RGB channels) of the light spot photographed by the camera is specifically detected. Hereinafter, a detailed example will be described with reference to the drawings.

以下、図面を参照して本発明の画像投影装置を具体化した第1の実施の形態について説明する。図1は、画像投影装置を含む画像投影システムの示す全体図である。画像投影装置10a,10b,10cは、外部PC20と接続されて、外部PC20から入力された静止画や動画などの画像データを投影面であるスクリーン30に対して投影する。また、ユーザは照射装置としてレーザポインタ40を用いた場合を示している。また、外部PC20にはカメラ部22が接続されている。なお、カメラ部22は、外付けのハードウェアとして設けてもよいし、外部PC20に内蔵されていてもよい。   Hereinafter, a first embodiment of an image projection apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is an overall view showing an image projection system including an image projection apparatus. The image projection apparatuses 10a, 10b, and 10c are connected to the external PC 20 and project image data such as still images and moving images input from the external PC 20 onto the screen 30 that is a projection plane. Moreover, the user has shown the case where the laser pointer 40 is used as an irradiation apparatus. A camera unit 22 is connected to the external PC 20. The camera unit 22 may be provided as external hardware, or may be built in the external PC 20.

図2は、画像投影装置10a,10b,10cの光学エンジン部の内部構成を示す図である。図2に示されるように、画像投影装置10a,10b,10cは、光学系3a、及び投射系3bを備える。光学系3aは、カラーホイール5、ライトトンネル6、リレーレンズ7、平面ミラー8、凹面ミラー9を備えている。これらの各部材は、画像投影装置10の本体部内に設けられている。また、画像投影装置10には、DMD(デジタルミラーデバイス)2が設けられている。DMD2は、画像を形成する画像形成素子であるDMD素子により構成されている。   FIG. 2 is a diagram illustrating an internal configuration of the optical engine unit of the image projection apparatuses 10a, 10b, and 10c. As shown in FIG. 2, the image projectors 10a, 10b, and 10c include an optical system 3a and a projection system 3b. The optical system 3 a includes a color wheel 5, a light tunnel 6, a relay lens 7, a plane mirror 8, and a concave mirror 9. Each of these members is provided in the main body of the image projector 10. The image projection apparatus 10 is provided with a DMD (digital mirror device) 2. The DMD 2 includes a DMD element that is an image forming element that forms an image.

円盤状のカラーホイール5は、光源4から照射される白色光を単位時間ごとにRGBの各色が繰り返す光に変換してライトトンネル6に向けて出射する。本実施の形態では、カラーホイール5が用いられる画像投影装置10において、レーザポインタ40を検出する構成について説明する。なお、カラーホイール5の詳細な構成については後述する。ライトトンネル6は、板ガラスを張り合わせて筒状に構成されており、カラーホイール5から出射された光をリレーレンズ7へと導出する。リレーレンズ7は、二枚のレンズを組み合わせて構成されており、ライトトンネル6から出射される光の軸上色収差を補正しつつ集光する。平面ミラー8、及び凹面ミラー9は、リレーレンズ7により出射される光を反射して、DMD2へと案内して、集光させる。DMD2は、複数のマイクロミラーからなる矩形状のミラー面を有し、映像や画像のデータに基づいて各マイクロミラーが時分割駆動されることにより、所定の画像データを形成するように投射光を加工して反射するDMD素子を備えている。   The disc-shaped color wheel 5 converts the white light emitted from the light source 4 into light that repeats each color of RGB every unit time and emits the light toward the light tunnel 6. In the present embodiment, a configuration for detecting the laser pointer 40 in the image projector 10 using the color wheel 5 will be described. The detailed configuration of the color wheel 5 will be described later. The light tunnel 6 is formed in a cylindrical shape by laminating plate glasses, and guides the light emitted from the color wheel 5 to the relay lens 7. The relay lens 7 is configured by combining two lenses, and collects light while correcting axial chromatic aberration of light emitted from the light tunnel 6. The plane mirror 8 and the concave mirror 9 reflect the light emitted from the relay lens 7 and guide it to the DMD 2 to collect it. The DMD 2 has a rectangular mirror surface composed of a plurality of micromirrors, and each micromirror is driven in a time-sharing manner based on video and image data, thereby projecting projection light so as to form predetermined image data. A DMD element that is processed and reflected is provided.

また、光源4は、例えば高圧水銀ランプなどが用いられる。光源4は光学系3aに向けて白色光を照射する。光学系3a内においては、光源4から照射された白色光がRGBに分光され、DMD2へと導出される。DMD2は、変調信号に応じて画像形成を行う。投射系3bは、形成された画像を拡大投射する。   The light source 4 is a high-pressure mercury lamp, for example. The light source 4 emits white light toward the optical system 3a. In the optical system 3a, the white light emitted from the light source 4 is separated into RGB and led to the DMD 2. The DMD 2 forms an image according to the modulation signal. The projection system 3b enlarges and projects the formed image.

また、図2で示されるDMD2の図中手前側となる鉛直方向上方には、DMD2に入射した光のうち、投射光としては使用しない不要な光を受光するOFF光板が設けられている。DMD2に光が入射すると、DMD素子の働きにより時分割で映像データに基づいて複数のマイクロミラーが作動し、このマイクロミラーによって使用する光は投射レンズへと反射され、捨てる光はOFF光板へと反射される。DMD2では、投射画像に使用する光は投射系3bへと反射され、複数の投射レンズを通って拡大され、拡大された映像光が拡大されて投射される。   Further, an OFF light plate that receives unnecessary light that is not used as projection light among light incident on the DMD 2 is provided above the DMD 2 shown in FIG. When light enters the DMD 2, a plurality of micromirrors are operated based on video data in a time-sharing manner by the action of the DMD element, the light used by the micromirrors is reflected to the projection lens, and the discarded light is directed to the OFF light plate Reflected. In the DMD 2, light used for the projection image is reflected to the projection system 3b, is enlarged through a plurality of projection lenses, and the enlarged image light is enlarged and projected.

図3は、画像投影装置10、及び外部PC20のハードウェア構成を示すブロック図である。画像投影装置10は、映像信号の入力を制御し、投射系3b、及び光学系3aの駆動を同期するように制御を行う。画像投影装置10は、CPU(Central Processing Unit)50、ROM(Read Only Memory)51、RAM(Random Access Memory)52を含むマイクロコンピュータシステムでなる。CPU50には、DMD2、ランプ電源17、カラーホイール5などが接続され、また、HDMI(登録商標)などのデジタル信号や、VGA(Video Graphics Array:登録商標)やコンポーネント信号等のアナログ信号が入力される。また、外部PC20は、CPU60、ROM61、RAM62などを有している。   FIG. 3 is a block diagram illustrating hardware configurations of the image projection apparatus 10 and the external PC 20. The image projection device 10 controls the input of the video signal and synchronizes the driving of the projection system 3b and the optical system 3a. The image projection apparatus 10 is a microcomputer system including a CPU (Central Processing Unit) 50, a ROM (Read Only Memory) 51, and a RAM (Random Access Memory) 52. The CPU 50 is connected to the DMD 2, the lamp power supply 17, the color wheel 5, and the like, and receives digital signals such as HDMI (registered trademark) and analog signals such as VGA (Video Graphics Array: registered trademark) and component signals. The The external PC 20 includes a CPU 60, a ROM 61, a RAM 62, and the like.

図4は、図3における機能構成を示すブロック図である。CPU50は、同期信号出力部11、映像処理部12、映像信号入力部13、駆動制御部14の機能が設けられている。また、CPU60は、撮影制御部21、映像信号入力部23、照射画像検出部24、照射画像生成部25、投影制御部28の機能を備えている。また、照射画像生成部25は、後述するように変換処理部、変換係数演算部、ポインタ生成部の機能を含んでいる。   FIG. 4 is a block diagram showing a functional configuration in FIG. The CPU 50 is provided with functions of a synchronization signal output unit 11, a video processing unit 12, a video signal input unit 13, and a drive control unit 14. Further, the CPU 60 includes functions of the imaging control unit 21, the video signal input unit 23, the irradiation image detection unit 24, the irradiation image generation unit 25, and the projection control unit 28. Further, the irradiation image generation unit 25 includes functions of a conversion processing unit, a conversion coefficient calculation unit, and a pointer generation unit, as will be described later.

なお、上述の画像投影装置10a,10b,10cのCPU50、及び外部PC20におけるCPU60の機能構成の全部、または一部をハードウェアで構成してもよい。   Note that all or part of the functional configurations of the CPU 50 of the image projection apparatuses 10a, 10b, and 10c and the CPU 60 of the external PC 20 may be configured by hardware.

映像信号入力部13は、入力信号に応じてRGBやYPbPr信号等へと映像を加工する処理を行う。なお、映像信号入力部13は、入力された映像信号がデジタル信号の場合は、入力信号のビット数に応じて映像処理部12が規定するビットフォーマットに変換する。また、映像信号入力部13は、入力された映像信号がアナログ信号入力の場合はアナログ信号をデジタルサンプリングするDAC処理等を行い、RGBまたはYPbPrのフォーマット信号を映像処理部へと入力する。   The video signal input unit 13 performs processing for processing video into RGB, YPbPr signals, and the like according to the input signals. When the input video signal is a digital signal, the video signal input unit 13 converts the video signal into a bit format defined by the video processing unit 12 according to the number of bits of the input signal. Further, when the input video signal is an analog signal input, the video signal input unit 13 performs a DAC process for digitally sampling the analog signal, and inputs an RGB or YPbPr format signal to the video processing unit.

映像処理部12は、入力信号に応じてデジタル画像処理等を行う。具体的には、コントラスト、明るさ、彩度、色相、RGBゲイン、シャープネス、拡大縮小等のスケーラー機能等、または駆動制御部14の特性に応じて適切な画像処理を行う。デジタル画像処理後の入力信号は駆動制御部14に渡される。また、映像処理部12は、任意に指定した、または登録したレイアウトの画像信号を生成することもできる。   The video processing unit 12 performs digital image processing or the like according to the input signal. Specifically, appropriate image processing is performed according to the scaler function such as contrast, brightness, saturation, hue, RGB gain, sharpness, enlargement / reduction, or the like, or the characteristics of the drive control unit 14. The input signal after the digital image processing is passed to the drive control unit 14. The video processing unit 12 can also generate an image signal of a layout that is arbitrarily designated or registered.

駆動制御部14は、入力信号に応じて白色光に色をつけるカラーホイール5や光の出射を選択するDMD2、光源4の駆動電流をコントロールするランプ電源17の駆動条件を決定し、カラーホイール5やDMD2、ランプ電源17に駆動の指示を出す。   The drive control unit 14 determines the drive condition of the color wheel 5 that colors white light according to the input signal, the DMD 2 that selects light emission, and the lamp power source 17 that controls the drive current of the light source 4. In addition, a drive instruction is issued to the DMD 2 and the lamp power source 17.

光指示装置としてレーザポインタ40が照射している照射色とは異なる投影期間を、投影面を撮影するタイミングとして指定した同期信号を外部PC20(情報処理装置)へと送信する。すなわち、同期信号出力部11は、予め設定されるレーザポインタ40の照射色光が投影されていない期間を、投影面を撮影するタイミングとして指定した同期信号を外部PC20へと送信する。駆動制御部14は、画像投影装置10a,10b,10cの画像データを投影する際に、所望の色調の画像データに対応した光を生成させる。   A synchronization signal that designates a projection period that is different from the irradiation color irradiated by the laser pointer 40 as a light indicating device as a timing for photographing the projection surface is transmitted to the external PC 20 (information processing device). That is, the synchronization signal output unit 11 transmits to the external PC 20 a synchronization signal that designates a period during which the irradiation color light of the laser pointer 40 that is set in advance is not projected as a timing for photographing the projection plane. The drive control unit 14 generates light corresponding to image data of a desired color tone when projecting the image data of the image projection apparatuses 10a, 10b, and 10c.

投影制御部28は、複数の画像投影装置10a,10b,10cから投影される投影画像の出力タイミングを合致させて1つの合成画像をスクリーン(投影面)30に投影する。   The projection control unit 28 projects one composite image on the screen (projection plane) 30 by matching the output timings of the projection images projected from the plurality of image projection apparatuses 10a, 10b, and 10c.

撮影制御部21は、同期信号出力部11の同期信号に従い、カメラ部22により投影面を撮影させる。照射画像検出部24は、カメラ部22で撮影された画像データからレーザポインタ40が投影面に対して照射した照射画像を検出する。   The imaging control unit 21 causes the camera unit 22 to image the projection plane in accordance with the synchronization signal from the synchronization signal output unit 11. The irradiation image detection unit 24 detects an irradiation image irradiated by the laser pointer 40 on the projection surface from the image data captured by the camera unit 22.

照射画像生成部25は、検出された照射画像の位置に応じて所定の画像が付加された投影用画像データを生成する。すなわち、照射画像生成部25は、検出された照射画像の位置座標を元にした領域に画像処理後の照射画像データを生成する。   The irradiation image generation unit 25 generates image data for projection to which a predetermined image is added according to the position of the detected irradiation image. In other words, the irradiation image generation unit 25 generates irradiation image data after image processing in an area based on the position coordinates of the detected irradiation image.

投影制御部28は、外部PC20から各画像投影装置10a,10b,10cへの転送タイミングを合致させる機構を有する。つまり、一つの出力のデータを、USB(Universal Serial Bus)等により複数の信号に分配するような機構である。これらのデータを、画像投影装置10a,10b,10c間のつながりに違和感がないよう接続するマルチプロジェクション処理によりつなぎ合わせ投影する。すなわち、投影制御部28は、各画像投影装置10a,10b,10cの投影画像を一つの合成画像となるように各投影画像を投影する。これにより、マルチプロジェクション、及び立体物、ドーム、円筒型を含むプロジェクションマッピングに対応可能となる。   The projection control unit 28 has a mechanism for matching the transfer timing from the external PC 20 to each of the image projection apparatuses 10a, 10b, and 10c. That is, it is a mechanism that distributes one output data to a plurality of signals by USB (Universal Serial Bus) or the like. These data are connected and projected by a multi-projection process in which connections between the image projection apparatuses 10a, 10b, and 10c are connected so that there is no sense of incongruity. That is, the projection control unit 28 projects the projection images so that the projection images of the image projection apparatuses 10a, 10b, and 10c become one composite image. This makes it possible to support multi-projection and projection mapping including a three-dimensional object, a dome, and a cylindrical shape.

また、複数の画像投影装置10a,10b,10cのうち、特定の画像投影装置が、他の画像投影装置に対して同一タイミングで映像信号を送信する。図1に示す例では、画像投影装置10aが同期信号出力プロジェクタとして機能する。これにより、一つの同期信号信を出力する画像投影装置のみで、1つまたは複数のカメラ部22と同期をとることが可能となる。   Further, among the plurality of image projection apparatuses 10a, 10b, and 10c, a specific image projection apparatus transmits a video signal to the other image projection apparatuses at the same timing. In the example shown in FIG. 1, the image projection device 10a functions as a synchronization signal output projector. Accordingly, it is possible to synchronize with one or a plurality of camera units 22 only by an image projection apparatus that outputs one synchronization signal.

次に、外部PC20における構成を説明する。外部PC20にあっては、画像投影装置10から投影された投影パターンを撮影し、投影パターンの座標と画像データにおける座標とのずれから射影変換係数を決定する処理の流れと、照射されたポインタを検出する処理の流れとが存在する。まずは、投影された投影パターンを撮影する処理の流れについて説明する。   Next, the configuration of the external PC 20 will be described. In the external PC 20, the projection pattern projected from the image projection device 10 is photographed, and the process flow for determining the projective transformation coefficient from the deviation between the coordinates of the projection pattern and the coordinates in the image data, and the irradiated pointer are used. There is a flow of processing to detect. First, the flow of processing for photographing the projected pattern will be described.

外部PC20の撮影制御部21は、同期信号出力部11から同期信号を受け取り、カメラ部22に撮影指示を出す。カメラ部22が撮影した画像が画像投影装置10へと入力される場合、映像信号入力部23にて撮影したカメラ画像に、シェーディング補正、ベイヤー変換、色補正等を行い、RGB信号を生成する。照射画像生成部25の変換係数演算部は、図5に示した投影パターンを外部PC20で生成し、画像投影装置10にて投影する。   The shooting control unit 21 of the external PC 20 receives the synchronization signal from the synchronization signal output unit 11 and issues a shooting instruction to the camera unit 22. When an image captured by the camera unit 22 is input to the image projection device 10, the camera image captured by the video signal input unit 23 is subjected to shading correction, Bayer conversion, color correction, and the like to generate an RGB signal. The conversion coefficient calculation unit of the irradiation image generation unit 25 generates the projection pattern shown in FIG. 5 by the external PC 20 and projects it by the image projection apparatus 10.

カメラ部22は、投影パターンを投影したシーンを撮影する。カメラ部22の撮影方式としては、グローバルシャッター方式と、ローリングシャッター方式とがある。グローバルシャッター方式では、全画素の同時感光が行われ、それぞれの画素に対して、ローリングシャッター方式よりも複雑な回路を必要とするが、全画素を一気に感光させ、撮影することができるという利点がある。ローリングシャッター方式では、順次走査型の感光が行われ、シンプルな回路で実装でき、走査する形で撮影することができる。しかし、1つの画素ごとに、撮影タイミングが違うので、高速移動する物体を撮影した際には、歪みなどが発生することがある。カメラ部22のシャッター速度は、撮影制御部21によって制御されることが望ましい。   The camera unit 22 captures a scene on which the projection pattern is projected. As a photographing method of the camera unit 22, there are a global shutter method and a rolling shutter method. In the global shutter method, all pixels are simultaneously exposed to light, and each pixel requires a more complicated circuit than the rolling shutter method. However, the advantage is that all pixels can be exposed and photographed at once. is there. In the rolling shutter system, progressive scanning type photosensitivity is performed, which can be implemented with a simple circuit and can be photographed while scanning. However, since the shooting timing is different for each pixel, distortion or the like may occur when shooting an object that moves at high speed. The shutter speed of the camera unit 22 is preferably controlled by the shooting control unit 21.

撮影制御部21は、例えばカラーホイール5の回転速度から、同期信号で指定されたタイミングの時間の長さの撮影に必要なシャッター速度を決定して、制御する。撮影された画像を元に、照射画像検出部24は、現在投影している投影面上での各格子点の座標を取得する。照射画像生成部25の変換係数演算部は、投影パターンの映像信号上における座標(x,y)と撮影画像上での座標(x‘,y’)の関係を紐付ける射影変換係数Hを算出し、照射画像生成部25の変換処理部へパラメータHをセットする。照射画像検出部24は、投影面に照射された座標を抽出する。検出された照射点座標(x’,y‘)は照射画像生成部25の変換処理部によって対応する格子点のパラメータHを用いて射影変換を行い、照射点の映像信号上の座標(x,y)に変換される。   The imaging control unit 21 determines and controls the shutter speed necessary for imaging for the length of time at the timing specified by the synchronization signal, for example, from the rotation speed of the color wheel 5. Based on the photographed image, the irradiation image detection unit 24 acquires the coordinates of each lattice point on the currently projected projection surface. The conversion coefficient calculation unit of the irradiation image generation unit 25 calculates a projection conversion coefficient H that links the relationship between the coordinates (x, y) on the video signal of the projection pattern and the coordinates (x ′, y ′) on the captured image. Then, the parameter H is set in the conversion processing unit of the irradiation image generation unit 25. The irradiation image detection unit 24 extracts coordinates irradiated on the projection surface. The detected irradiation point coordinates (x ′, y ′) are subjected to projective transformation using the corresponding lattice point parameter H by the conversion processing unit of the irradiation image generating unit 25, and the coordinates (x, y).

次に照射画像生成部25のポインタ生成部は、座標(x,y)に照射点画像データ(投影用画像データ)を生成する。照射点画像データは、例えば座標(x,y)を中心に半径z画素分の円形や、予め登録されたポインタ画像などを任意の生成の仕方で生成してよい。これらの計算を外部PC20内で行い、投影用画像信号を生成して、投影制御部28に送られる。画像投影装置10の映像処理部12は、映像信号にポインタ生成部で生成された映像信号を重畳し、任意の画像処理を行ったのち駆動制御部14へ制御信号を出力する。そして、ポインタ画像が重畳された投影像が画像投影装置10から投影されることとなる。   Next, the pointer generation unit of the irradiation image generation unit 25 generates irradiation point image data (projection image data) at coordinates (x, y). As the irradiation point image data, for example, a circle having a radius of z pixels centering on the coordinates (x, y), a pointer image registered in advance, or the like may be generated by an arbitrary generation method. These calculations are performed in the external PC 20 to generate a projection image signal, which is sent to the projection control unit 28. The video processing unit 12 of the image projection apparatus 10 superimposes the video signal generated by the pointer generation unit on the video signal, performs arbitrary image processing, and then outputs a control signal to the drive control unit 14. Then, the projection image on which the pointer image is superimposed is projected from the image projection device 10.

続いて、照射画像検出部24による投影面に照射されたポインタの座標を検出する処理の流れについて説明する。図6はカラーホイール5のシアン(Cy)−白色(W)−赤色(R)−マゼンタ(M)−黄色(Y)−緑色(G)−青(B)の複数色に対応した7つのフィルタを示す図である。また、図7は、カラーホイール5のフィルタと、各セグメントが投影面に表示されたときのカメラ撮影画像、すなわちRGBデータとの相関関係を示している。例えば、赤色(Red)のセグメントであればRGBでも赤色(Red)のデータの値が大半を占めている。また、赤色(Red)のセグメントにおいては、緑色(Green)と青色(Blue)の透過率が小さくこれらの色の光は制限される。同様に2次色のシアン(Cyan)のセグメントであれば、青色(Blue)と緑色(Green)の光が透過され、3次色の白色(White)はRGB全ての光が透過される。   Next, a flow of processing for detecting the coordinates of the pointer irradiated on the projection surface by the irradiation image detection unit 24 will be described. FIG. 6 shows seven filters corresponding to a plurality of colors of the color wheel 5 of cyan (Cy) -white (W) -red (R) -magenta (M) -yellow (Y) -green (G) -blue (B). FIG. FIG. 7 shows a correlation between the filter of the color wheel 5 and a camera photographed image when each segment is displayed on the projection plane, that is, RGB data. For example, in the case of a red (Red) segment, the value of red (Red) data occupies most of the RGB. Further, in the red (Red) segment, the transmittance of green (Green) and blue (Blue) is small, and light of these colors is limited. Similarly, in the secondary color cyan segment, blue (Blue) and green (Green) light is transmitted, and in the tertiary color white (White), all RGB light is transmitted.

図8は、カラーホイール5の一周期に対する投影光色との関係を示す図である。なお、光色とは、光源のランプそのもの光の色と、装置から投射された光から視覚的に認識できる色の双方を含む概念である。図中で実線の矢印で示される該当期間の区間はその発光色において、該当するカラーホイール5のセグメントを通じて画像信号が投影されている領域であることを示している。例えば投影光色赤(Red)に注目すると赤(Red)に分類される成分はセグメントが赤(Red),マゼンタ(Magenta),黄(Yellow)の区間、及び白(White)の区間である。一方、タイミングAの破線の矢印で示された区間は映像信号が投影されない区間である。すなわち、このタイミングAである緑色,青色,及びシアンに該当するカラーホイール5のタイミングでは、投影光色が赤色であっても、実際に映像信号の投影がされていないことから、赤色のレーザポインタ40であっても検出しやすくなる。   FIG. 8 is a diagram showing a relationship between the color of the projection light and one color wheel 5 period. The light color is a concept including both the color of the light source lamp itself and the color visually recognizable from the light projected from the apparatus. In the drawing, the section of the corresponding period indicated by the solid arrow indicates that the image signal is projected through the segment of the corresponding color wheel 5 in the emission color. For example, when attention is paid to the projection light color red (Red), the components classified into red (Red) are segments of red (Red), magenta (Magenta), yellow (Yellow), and white (White). On the other hand, a section indicated by a dashed arrow at timing A is a section in which no video signal is projected. That is, at the timing of the color wheel 5 corresponding to green, blue, and cyan, which is the timing A, the video signal is not actually projected even if the projection light color is red. Even 40 is easy to detect.

したがって、本実施の形態では、このタイミングに同期させて投影パターンに照射された赤(R)、緑(G)、青(B)のレーザポインタ40の撮影、および検出が行われる。図9は、ある投影画像に対し、赤(R)、緑(G)、青(B)のレーザポインタ40を照射した場合の画像データを示す図である。また、図10は、タイミングA,B,Cで投影画像に対して投影されたレーザポインタを撮影した場合の、検出されるレーザポインタ40を示す図である。図10のタイミングA Red shot imageは、カメラ部22でタイミングAの区間と同期をとって撮影し、取得した画像データを示したものである。このタイミングAとの同期は、画像投影装置10の駆動制御部14がカラーホイール5を駆動するタイミングとあわせて同期信号出力部11に指示を送信することで実現される。すなわち、カラーホイール5は、固定の周波数(本実施の形態では120Hz)で回転するため、撮影制御部21(受信部)は、カラーホイール5がタイミングAになるタイミングで、同期信号を受信する。   Therefore, in the present embodiment, imaging and detection of the red (R), green (G), and blue (B) laser pointers 40 irradiated to the projection pattern are performed in synchronization with this timing. FIG. 9 is a diagram showing image data when a red (R), green (G), and blue (B) laser pointer 40 is irradiated to a certain projected image. FIG. 10 is a diagram showing the detected laser pointer 40 when the laser pointer projected on the projected image at the timings A, B, and C is photographed. Timing A Red shot image in FIG. 10 shows image data acquired by the camera unit 22 in synchronization with a section of timing A. The synchronization with the timing A is realized by transmitting an instruction to the synchronization signal output unit 11 together with the timing when the drive control unit 14 of the image projection apparatus 10 drives the color wheel 5. That is, since the color wheel 5 rotates at a fixed frequency (120 Hz in the present embodiment), the imaging control unit 21 (reception unit) receives the synchronization signal at the timing when the color wheel 5 becomes timing A.

このタイミングAの区間では赤(Red)版の映像信号が照射されていないので、赤色のレーザポインタ40の照射点の検出が容易になる。よって、赤色のレーザポインタ40の照射光を検知する場合は、タイミングAと同期してカメラ部22で撮影すれば検出の精度が向上する。同様にタイミングBでは、緑色(Green)版の映像信号が照射されていないので、緑色のレーザポインタ40の検出の精度が向上する。そして、タイミングCでは青色(Blue)版の映像信号が照射されていないため、青色のレーザポインタ40の照射点の検出が容易となる。このように、タイミングごとによって検出しやすい色があり、また各タイミングを有効活用することによって複数の照射点を同時に検出することもできる。   Since the red (Red) image signal is not irradiated in the section of timing A, the irradiation point of the red laser pointer 40 can be easily detected. Therefore, when detecting the irradiation light of the red laser pointer 40, the detection accuracy can be improved by photographing with the camera unit 22 in synchronization with the timing A. Similarly, at timing B, since the green image signal is not irradiated, the detection accuracy of the green laser pointer 40 is improved. At timing C, since the blue version of the video signal is not irradiated, it becomes easy to detect the irradiation point of the blue laser pointer 40. Thus, there are colors that are easy to detect depending on the timing, and a plurality of irradiation points can be detected simultaneously by effectively utilizing each timing.

次にカメラ部22による撮影を、カラーホイール5の駆動と同期させる方法について説明する。カラーホイール5自体に回転検出するための指標となる黒色シールと、カラーホイール5のホルダーに黒色シールを検知するためのセンサーが設けられている。駆動制御部14は、この黒色シールが検出されるタイミングをセンサーから取得することによって同期信号の生成指示を行う。生成される同期信号は、設定されたレーザポインタ40の照射点の色に最も近い色が投影されていない期間と同期するように決定される。よって、撮影を行うカメラ部22はカラーホイール5の同期信号に合わせて撮影のシャッタータイミングを制御することができる。   Next, a method for synchronizing photographing by the camera unit 22 with driving of the color wheel 5 will be described. The color wheel 5 itself is provided with a black seal serving as an index for detecting rotation, and a sensor for detecting the black seal on the holder of the color wheel 5. The drive control unit 14 issues a synchronization signal generation instruction by acquiring the timing at which the black seal is detected from the sensor. The generated synchronization signal is determined so as to be synchronized with a period in which the color closest to the set color of the irradiation point of the laser pointer 40 is not projected. Therefore, the camera unit 22 that performs shooting can control the shutter timing of shooting in accordance with the synchronization signal of the color wheel 5.

図11と図12はカラーホイール5の回転周期と撮影カメラの撮影周期とシャッタータイミングの関係を示している。カラーホイール5は120Hzの周期で回転し、カラーカメラは30Hzの周期で撮影する。本例ではカラーホイール5が4回転するのに対してカメラ部22が1回撮影することができる。図11はレーザポインタ40が赤系の色を持つ場合の撮影を同期させるタイミングを示す例である。なお、レーザポインタ40の色は、例えばユーザが画像投影装置10や外部PC20の操作用のインタフェースから入力することによって設定され(設定部)、外部PC20が把握することができる。ここで、本実施形態の場合、Cの区間が赤色(Red)のブランク期間、すなわちタイミングAに相当するカラーホイール5の(緑色)Green、(青色)Blue、(シアン)Cyanに相当するものとする。この場合、カメラ部22は1周期目で1つのCの区間に対して露光して、撮影することで、このときに撮影した画像を観測すると赤色のレーザポインタ40の照射点を検出することができるようになる。   11 and 12 show the relationship between the rotation cycle of the color wheel 5, the shooting cycle of the shooting camera, and the shutter timing. The color wheel 5 rotates at a cycle of 120 Hz, and the color camera captures images at a cycle of 30 Hz. In this example, while the color wheel 5 rotates four times, the camera unit 22 can take a picture once. FIG. 11 shows an example of timing for synchronizing photographing when the laser pointer 40 has a red color. Note that the color of the laser pointer 40 is set by, for example, a user input from an operation interface of the image projection apparatus 10 or the external PC 20 (setting unit), and can be grasped by the external PC 20. Here, in the present embodiment, the section C corresponds to a red (Red) blank period, that is, (green) Green, (blue) Blue, (cyan) Cyan of the color wheel 5 corresponding to the timing A. To do. In this case, the camera unit 22 can detect and irradiate one C section in the first period and detect the irradiation point of the red laser pointer 40 when observing the image captured at this time. become able to.

通常、DMD2がONのときは光がスクリーン30に照射され、OFFのときは照射されないが、上述の例ではONのときでも対応するタイミングに同期して撮影を行うことで、RGBいずれかの色版データからも照射点が検出できるようになる。つまり、映像の内容に依存せずレーザポインタ40から照射される照射点を検出することができるようになる。   Normally, when the DMD 2 is ON, the light is emitted to the screen 30 and is not irradiated when the DMD 2 is OFF. In the above example, even if the light is ON, any color of RGB can be obtained by shooting in synchronization with the corresponding timing. The irradiation point can be detected from the plate data. That is, the irradiation point irradiated from the laser pointer 40 can be detected without depending on the content of the image.

図12はレーザポインタ40が複数の色を持つ場合の同期の方法を示す図である。カメラ部22は1周期目で1つのAの区間に対して露光して、撮影がされる。Aの区間は、ここではタイミングAに相当する区間であり、このタイミングで撮影された画像データを観測すると赤色(Red)のレーザポインタ40の照射点が検出できる。2周期目についてもBの区間に対して露光して撮影される。Bの区間はタイミングBに相当する区間であり、このタイミングで撮影された画像データを観測することで緑色(Green)のレーザポインタ40の照射点が検出できる。3周期目では同様に青色(Blue)の照射点が検出できる。以降は、同様に制御が行われる。以上の場合、同期信号には1周期目のタイミングA、2周期目のタイミングB、3週目のタイミングCの3つのタイミングが含まれている。なお、同じ色で複数のレーザポインタ40を使用する場合においては画面内に複数の点として検出されることになるので問題なく検出できる。   FIG. 12 is a diagram showing a synchronization method when the laser pointer 40 has a plurality of colors. The camera unit 22 exposes and shoots one A section in the first cycle. Here, the section A corresponds to the timing A, and when the image data photographed at this timing is observed, the irradiation point of the red laser pointer 40 can be detected. In the second period, the B section is exposed and photographed. The section B corresponds to the timing B, and the irradiation point of the green laser pointer 40 can be detected by observing the image data photographed at this timing. Similarly, in the third period, a blue irradiation point can be detected. Thereafter, the same control is performed. In the above case, the synchronization signal includes three timings: timing A in the first cycle, timing B in the second cycle, and timing C in the third week. When a plurality of laser pointers 40 are used with the same color, they are detected as a plurality of points on the screen, and can be detected without any problem.

また、複数の色のレーザポインタ40を検出する場合、カメラ部22を1個で複数の色を検出する例を記載したが、検出する色ごとにカメラ部22を別個搭載し、それぞれの色ごとに検出制御するようにしてもよい。これにより、カメラ部22側の撮影タスクが他の色に占有される時間がなくなり、各単色の検出区間を短くすることができるようになる。この場合、カメラ部22それぞれに対して、どのタイミングが対応しているかを予め設定しておくことが望ましい。すなわち、例えばRGBの3色の色に対応して、3台のカメラ部22を設けるようにすると、1周期ごとに各色のレーザポインタ40の照射点を検出することができるようになる。   Further, in the case of detecting the laser pointer 40 of a plurality of colors, an example has been described in which a single camera unit 22 detects a plurality of colors. However, a camera unit 22 is separately mounted for each color to be detected, and each color is detected. Alternatively, the detection control may be performed. As a result, the time taken for the shooting task on the camera unit 22 side to be occupied by other colors is eliminated, and the detection interval for each single color can be shortened. In this case, it is desirable to set in advance which timing corresponds to each camera unit 22. That is, for example, if three camera units 22 are provided corresponding to three colors of RGB, it becomes possible to detect the irradiation point of the laser pointer 40 of each color for each period.

また、上記以外にも中間色の色を検出したい場合においてはタイミングA,B,Cの領域をさらに細かく色ごとに分割すればよい。この場合、検出したい中間色に相当するタイミングで撮影を行うことで、カラーホイール5の領域ごとに検出することもできる。   In addition to the above, when it is desired to detect intermediate colors, the areas of timings A, B, and C may be further divided into colors. In this case, it is also possible to detect for each area of the color wheel 5 by shooting at a timing corresponding to the intermediate color to be detected.

図13は、オプションカメラの例を示す説明図である。図13(A)はカメラ部分が外付けされたタイプ、(B)はカメラ部分が内蔵されたタイプ、(C)はカメラ部分が外部接続されるタイプについて示しており、図1のシステムに利用される。   FIG. 13 is an explanatory diagram illustrating an example of an option camera. 13A shows a type with an external camera part, FIG. 13B shows a type with a built-in camera part, and FIG. 13C shows a type with a camera part externally connected. Is done.

次に、以上の理論と制御に基づき、射影変換係数の算出と、レーザポインタ40の検出の処理の流れについて図14を参照して説明する。本動作は、光点検出モードが照射デバイスによって映像投影面に照射された光点を検出する機能である。初期設定とは、投影環境が変わった場合に射影変換係数を演算するためのフローである。光点モードを最初に起動した場合に動作する。入力I/Fが無信号になった場合等、任意の状態変化をトリガーにして状態を変更してもよい。各種入力I/Fから出力される映像信号を投射にフローが戻っているのはカメラ部22が撮影対象とするフレームセットが次のフレームセットに置き換わって同様に処理されていくループ処理を示している。   Next, based on the above theory and control, the flow of processing for calculating the projective transformation coefficient and detecting the laser pointer 40 will be described with reference to FIG. This operation is a function in which the light spot detection mode detects a light spot irradiated on the image projection plane by the irradiation device. The initial setting is a flow for calculating the projective transformation coefficient when the projection environment changes. Operates when the light spot mode is activated for the first time. For example, when the input I / F becomes no signal, the state may be changed by using an arbitrary state change as a trigger. The flow returns to the projection of the video signals output from the various input I / Fs, showing a loop process in which the frame set to be captured by the camera unit 22 is replaced with the next frame set and processed in the same manner. Yes.

図14で示した処理は、入力された映像信号の1フレーム単位で行われる処理である。図14に示されるように、まず駆動制御部14は、映像信号の入力I/Fから入力された映像信号を投射するための処理を行う(ステップS101)。次いで、撮影制御部21は、照射点検出モードであるか否かを判定する(ステップS102)。照射点検出モードとは、照射装置によってスクリーン30に照射された照射点を検出するモードである。照射点検出モードは、例えばユーザがレーザポインタ40を使用する場合などに、操作画面やボタンなどを操作することで起動される。照射点検出モードでないと判定された場合(ステップS102:No)、ステップS101へと戻り次の映像信号のフレームへと移行する。   The processing shown in FIG. 14 is processing performed in units of one frame of the input video signal. As shown in FIG. 14, first, the drive control unit 14 performs a process for projecting the video signal input from the video signal input I / F (step S <b> 101). Next, the imaging control unit 21 determines whether or not the irradiation point detection mode is set (step S102). The irradiation point detection mode is a mode for detecting an irradiation point irradiated on the screen 30 by the irradiation device. The irradiation point detection mode is activated by operating an operation screen or a button when the user uses the laser pointer 40, for example. When it is determined that the irradiation point detection mode is not set (step S102: No), the process returns to step S101 and shifts to the frame of the next video signal.

一方、照射点検出モードであると判定された場合(ステップS102:Yes)、撮影制御部21は、初期設定モードか」否かを判定する(ステップS103)。初期設定モードとは、投影環境が変わった場合に射影変換係数を演算する処理であり、照射点モードを最初に起動した場合には初期設定モードとなっている。また、例えば射影変換係数がセットされているか否かや、射影変換係数がセットされてから一定時間経過しているか否かなどによって判断してもよい。射影変換係数とは、投影前の画像信号と、投影した際の画像パターンとの座標のずれを補正するための係数である。   On the other hand, when it is determined that the irradiation point detection mode is set (step S102: Yes), the imaging control unit 21 determines whether or not it is the initial setting mode (step S103). The initial setting mode is a process of calculating a projective transformation coefficient when the projection environment changes, and is the initial setting mode when the irradiation point mode is first activated. Further, for example, the determination may be made based on whether or not a projective transformation coefficient is set and whether or not a certain time has elapsed since the projection transformation coefficient was set. The projective transformation coefficient is a coefficient for correcting a shift in coordinates between an image signal before projection and an image pattern upon projection.

初期設定モードであると判定された場合(ステップS103:Yes)、駆動制御部14は、画像形成部2等を駆動して、射影変換用の画像パターン(図5参照)を照射させる(ステップS104)。次いで、撮影制御部21は、同期信号出力部11を通じて、駆動制御部14から画像パターンが投影されたことを通知され、照射された画像パターンを撮影する(ステップS105)。そして、照射画像生成部25内の変換係数演算部は、映像信号入力部23を通じて入力されたカメラ部22が撮影した画像パターンにおける座標と、照射された画像パターンのデータにおける座標とのずれを測定する。この2つのデータ間における座標が一致するように射影変換係数を算出する(ステップS106)。算出が完了した射影変換係数は保存されて、ステップS103へと移行する。   If it is determined that the mode is the initial setting mode (step S103: Yes), the drive control unit 14 drives the image forming unit 2 and the like to irradiate an image pattern for projective conversion (see FIG. 5) (step S104). ). Next, the imaging control unit 21 is notified that the image pattern has been projected from the drive control unit 14 through the synchronization signal output unit 11, and captures the irradiated image pattern (step S105). The conversion coefficient calculation unit in the irradiation image generation unit 25 measures a shift between the coordinates in the image pattern captured by the camera unit 22 input through the video signal input unit 23 and the coordinates in the data of the irradiated image pattern. To do. Projection transformation coefficients are calculated so that the coordinates between the two data coincide (step S106). The projection transformation coefficient for which calculation has been completed is stored, and the process proceeds to step S103.

一方、射影変換係数が設定され、初期設定モードでないと判定された場合(ステップS103:No)、撮影制御部21は、同期信号出力部11から送信された撮影タイミングにあわせて、照射パターンを撮影する(ステップS107)。この撮影のタイミングは、上述したように照射されているレーザポインタ40の色に応じて決定されている。したがって、照射画像検出部24は、撮影された画像データからレーザポインタ40の照射点を検出することができる(ステップS108)。検出された照射点の座標は、照射画像生成部25内の変換処理部に入力される。照射画像生成部25の変換処理部は、照射画像生成部25内の変換係数演算部が演算した射影変換係数を用いて、照射点の座標を、画像データ上の座標へと射影変換する(ステップS109)。射影変換された座標のデータは画像投影装置10へと送信される。映像処理部12は、投射する元の映像信号に対して、受信した座標において合成するポインタの画像データを生成し(ステップS110)、映像信号とポインタの画像データとを合成する(ステップS111)。すなわち、検出された照射点の位置に応じて所定の画像が付加された投影用画像データが生成される。   On the other hand, when the projection conversion coefficient is set and it is determined that the mode is not the initial setting mode (step S103: No), the imaging control unit 21 captures the irradiation pattern in accordance with the imaging timing transmitted from the synchronization signal output unit 11. (Step S107). The timing of this shooting is determined according to the color of the laser pointer 40 being irradiated as described above. Therefore, the irradiation image detection unit 24 can detect the irradiation point of the laser pointer 40 from the captured image data (step S108). The coordinates of the detected irradiation point are input to the conversion processing unit in the irradiation image generation unit 25. The conversion processing unit of the irradiation image generation unit 25 performs projective conversion of the coordinates of the irradiation point into coordinates on the image data by using the projection conversion coefficient calculated by the conversion coefficient calculation unit in the irradiation image generation unit 25 (step). S109). The coordinate data subjected to the projective transformation is transmitted to the image projector 10. The video processing unit 12 generates pointer image data to be combined at the received coordinates with respect to the original video signal to be projected (step S110), and combines the video signal and the pointer image data (step S111). That is, projection image data to which a predetermined image is added according to the position of the detected irradiation point is generated.

この際、合成するポインタとしては、視認性をよくするために例えば、図15に示されるように、レーザポインタ40が、元のサイズよりも算出された照射点を中心に拡大されて投影されるようにすることもできる。すなわち、図15の符号15に示すように、光点の連続的な検出結果をつなげて、軌跡を描画した画像を投影している。この場合、ポインタが大きくなるため、映像におけるポインタがより見やすくなる。また、ポインタを拡大するのではなく、映像処理部12は、算出された照射点の座標を基準に、周囲の一部の画像データの領域を拡大表示して投影するようにしてもよい。   At this time, as a pointer to be combined, for example, as shown in FIG. 15, the laser pointer 40 is enlarged and projected around the irradiation point calculated from the original size in order to improve visibility. It can also be done. That is, as shown by reference numeral 15 in FIG. 15, an image in which a locus is drawn is projected by connecting the continuous detection results of light spots. In this case, since the pointer becomes large, the pointer in the video becomes easier to see. Instead of enlarging the pointer, the video processing unit 12 may enlarge and project a part of the surrounding image data area based on the calculated coordinates of the irradiation point.

また、射影変換係数を演算する際に投影する投影パターンの一例としては、図5で示したもののほか、例えば図16で示したように、(A)のグリッドパターンや、(B)の円パターンを用いるようにしてもよい。円パターンの投影パターンを用いる場合、射影変形があっても重心を取ることで、座標がずれていても正確な座標を入手することができるようになる。また、グリッドパターンを用いれば、座標のずれ自体を抑制しつつ、環境光による外乱がないことを想定できれば、より精度の高いパターン抽出が実現可能である。   Further, as an example of the projection pattern to be projected when calculating the projective transformation coefficient, in addition to the one shown in FIG. 5, for example, as shown in FIG. 16, a grid pattern (A) or a circle pattern (B) May be used. When a projected pattern of a circular pattern is used, accurate coordinates can be obtained even if the coordinates are shifted by taking the center of gravity even if there is projective deformation. If a grid pattern is used, it is possible to extract a pattern with higher accuracy if it can be assumed that there is no disturbance due to ambient light while suppressing the coordinate shift itself.

また、情報処理装置である外部PC20は、画像投影装置10とローカルに接続されているが、ネットワークを通じて接続された情報処理装置によって演算や、撮影の同期を行うようにしてもよい。例えば、ネットワーク上におかれた、高機能な演算処理サーバを用いて、初期の射影変換の行列演算を行ったり、重畳するコンテンツ等をダウンロードし、画像処理時に用いたりするようにしてもよい。   Further, the external PC 20 that is an information processing apparatus is locally connected to the image projection apparatus 10, but may be configured to perform computation and synchronization of shooting by an information processing apparatus connected through a network. For example, it is possible to perform an initial projection transformation matrix calculation using a high-performance calculation processing server placed on a network, or to download contents to be superimposed and use them during image processing.

[変形例1]
上述した図1に示す例では、スクリーン30は平面仮定をしているが、曲面に適用してもよい。図17は、円筒型スクリーンを用いた投影システムの例を示すものである。この図17に示すように、円筒型スクリーンの投影像が実現でき、さらに上述した実施の形態の技術と組み合わせる。これによって、操作者とシステムの間の情報(映像)とのやりとりといったインタラクション(interaction)が可能な投影システムとなる。
[Modification 1]
In the example shown in FIG. 1 described above, the screen 30 is assumed to be a plane, but may be applied to a curved surface. FIG. 17 shows an example of a projection system using a cylindrical screen. As shown in FIG. 17, a projection image of a cylindrical screen can be realized and further combined with the technique of the above-described embodiment. Thus, a projection system capable of interaction such as exchange of information (video) between the operator and the system is obtained.

[変形例2]
上述した図1に示す例では、スクリーン30は平面仮定をしているが、車や3Dプリンタによる出力物のような立体物に適用してもよい。図18は、車を投影するシステム例を示すものである。この図18に示すように、投影像が実現でき、さらに上述した実施の形態の技術と組み合わせることで、インタラクションが可能なシステムとなる。また、投影対象が立体物の場合、死角が多くなるため、インタラクションの範囲を広げる場合は、カメラ部22を複数台に増やし、同期信号付きプロジェクタとつなげ同期撮影を行う。
[Modification 2]
In the example shown in FIG. 1 described above, the screen 30 is assumed to be a plane, but may be applied to a three-dimensional object such as an output product by a car or a 3D printer. FIG. 18 shows an example of a system for projecting a car. As shown in FIG. 18, a projection image can be realized, and a system capable of interaction can be obtained by combining with the technique of the above-described embodiment. In addition, when the projection target is a three-dimensional object, the blind spot increases, and when the range of interaction is widened, the camera unit 22 is increased to a plurality of units and connected to a projector with a synchronization signal to perform synchronous shooting.

このように、カメラ部22は、1つまたは複数台設けられている構成(図17、図18参照)とすることで、プロジェクションマッピングによる立体物への投影において、死角が多いことに対して複数台のカメラ部22a,22b,22cで撮影可能になる。   As described above, by adopting a configuration in which one or a plurality of camera units 22 are provided (see FIGS. 17 and 18), a plurality of blind spots are generated in the projection onto a three-dimensional object by projection mapping. Images can be taken by the camera units 22a, 22b, and 22c.

[変形例3]
上述した図1に示す例では、スクリーン30は平面仮定をしているが、指の押し込み力等により反応する物質でできた特殊物体に適用してもよい。この特殊な物体でのインストラクション例を図19に示す。例えば、指で押し込んだ部分がゴムボールのように変形し、かつ、発光する物体であるとする。図19のように、例えば、緑の物質が黄色く自発光するとしたら、その光点をカメラ部22で検出できる。
[Modification 3]
In the example shown in FIG. 1 described above, the screen 30 is assumed to be a plane, but the screen 30 may be applied to a special object made of a substance that reacts by a pushing force of a finger or the like. An example of instruction with this special object is shown in FIG. For example, it is assumed that a portion pushed by a finger is deformed like a rubber ball and emits light. As shown in FIG. 19, for example, if a green substance emits yellow light spontaneously, the light spot can be detected by the camera unit 22.

このように、複数の画像投影装置10a,10,10cで投影される投影対象物は、外力に応じて発色する弾性体または塑性体とする。これによって、プロジェクションマッピングにおいて押し込んだ位置が光る物体の光点検出が実現する。   As described above, the projection objects projected by the plurality of image projection apparatuses 10a, 10, and 10c are elastic bodies or plastic bodies that develop colors according to external forces. This realizes detection of a light spot of an object whose illuminated position is illuminated in projection mapping.

先に記載した参考文献のような技術を用いることで、投影像が実現でき、さらに上述した実施の形態の技術と組み合わせることで、インタラクションが可能なシステムとなる。また、立体物の場合、死角が多くなるため、インタラクション範囲を広げる場合は、カメラ部22を複数台に増やし、同期信号付きプロジェクタとつなげ同期撮影を行う必要がある。   A projection image can be realized by using a technique such as the reference described above, and a system capable of interaction can be obtained by combining with the technique of the above-described embodiment. In the case of a three-dimensional object, the number of blind spots increases. Therefore, in order to widen the interaction range, it is necessary to increase the number of camera units 22 and connect to a projector with a synchronization signal to perform synchronized shooting.

[変形例4]
図16は、図5に示したチェスパターン以外の投影パターン例である。上述した図5の例では、チェスパターンを例に説明をしているが、図16(A)に示すようにグリッドパターン、また(B)に示す円パターンなど、他のパターンにて、ロバストにパターン抽出してもよい。例えば、図16(B)の円パターンは、射影変形があっても重心を取ることで、ロバストにある程度正確な座標を入手することができる。また図16(A)に示す、グリッドパターンを用いれば、ロバスト性は下がるが、環境光による外乱がないことを想定できれば、より精度の高いパターン抽出が実現可能である。
[Modification 4]
FIG. 16 is an example of a projection pattern other than the chess pattern shown in FIG. In the example of FIG. 5 described above, a chess pattern has been described as an example. However, a robust pattern such as a grid pattern as shown in FIG. 16A or a circular pattern as shown in FIG. Pattern extraction may be performed. For example, the circle pattern in FIG. 16B can obtain coordinates that are robust to a certain extent by taking the center of gravity even if there is projective deformation. Further, if the grid pattern shown in FIG. 16A is used, the robustness is lowered, but if it is assumed that there is no disturbance due to ambient light, more accurate pattern extraction can be realized.

このように上述した実施の形態では、画像のブランキング区間に同期した1台または複数のカメラ部22と複数台の画像投影装置10a,10b,10cを用いて、投影像上のレーザポインタ40の光点をカメラ部22で撮影する。これにより、レーザポインタ40の光点の色彩情報(RGBのいずれかのチャンネルのデータ)が特異的に検出することができる。したがって、複数の画像投影装置10a,10b,10cを用いたマルチプロジェクション等のシステムにおいて、精度良く、かつ、映像信号の影響受けることなく、レーザポインタ40の光点を検出することができる。   As described above, in the above-described embodiment, the laser pointer 40 on the projected image is used by using one or a plurality of camera units 22 and a plurality of image projection apparatuses 10a, 10b, and 10c synchronized with the blanking interval of the image. The light spot is photographed by the camera unit 22. Thereby, the color information of the light spot of the laser pointer 40 (data of any of RGB channels) can be specifically detected. Therefore, in a system such as multi-projection using a plurality of image projection apparatuses 10a, 10b, and 10c, the light spot of the laser pointer 40 can be detected with high accuracy and without being affected by the video signal.

ところで、本実施の形態の情報処理装置で実行されるプログラムは、ROM等に予め組み込まれて提供される。また、上記プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   By the way, the program executed by the information processing apparatus of the present embodiment is provided by being incorporated in advance in a ROM or the like. Further, the program is provided as a file in an installable or executable format and recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD. It may be configured.

さらに、本実施の形態の情報処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   Furthermore, the program executed by the information processing apparatus of the present embodiment may be configured to be stored by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed by the information processing apparatus according to the present embodiment may be configured to be provided or distributed via a network such as the Internet.

本実施の形態の情報処理装置で実行されるプログラムは、上述した各部を含むモジュール構成となっている。実際のハードウェアとしてはCPU(プロセッサ)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。   The program executed by the information processing apparatus according to the present embodiment has a module configuration including the above-described units. As actual hardware, a CPU (processor) reads out a program from the ROM and executes the program, so that each unit is loaded on the main storage device, and each unit is generated on the main storage device.

2 DMD
3a 光学系
3b 投射系
4 光源
5 カラーホイール
6 ライトトンネル
7 リレーレンズ
8 平面ミラー
9 凹面ミラー
10 画像投影装置
11 同期信号出力部
12 映像処理部
13 映像信号入力部
14 駆動制御部
17 ランプ電源
20 外部PC
21 撮影制御部
22 カメラ部
23 映像信号入力部
24 照射画像検出部
25 照射画像生成部
28 投影制御部
30 スクリーン
40 レーザポインタ
50,60 CPU
51,61 ROM
52,62 RAM
2 DMD
3a Optical system 3b Projection system 4 Light source 5 Color wheel 6 Light tunnel 7 Relay lens 8 Plane mirror 9 Concave mirror 10 Image projection device 11 Synchronization signal output unit 12 Video processing unit 13 Video signal input unit 14 Drive control unit 17 Lamp power source 20 External PC
21 Imaging Control Unit 22 Camera Unit 23 Video Signal Input Unit 24 Irradiation Image Detection Unit 25 Irradiation Image Generation Unit 28 Projection Control Unit 30 Screen 40 Laser Pointer 50, 60 CPU
51, 61 ROM
52, 62 RAM

特開2009−229834号公報JP 2009-229834 A

Claims (8)

画像データを投影面に投影する複数の画像投影装置と、前記複数の画像投影装置と接続された情報処理装置と、前記投影面を撮影する撮影部と、を有し、
前記画像投影装置は、
光指示装置が照射している照射色とは異なる投影期間を、前記投影面を撮影するタイミングとして指定した同期信号を前記情報処理装置へと送信する同期信号出力部を備え、
前記情報処理装置は、
前記複数の画像投影装置の投影画像を一つの合成画像となるように各投影画像を投影する投影制御部と、
前記同期信号に従い、前記撮影部に前記投影面を撮影させる撮影制御部と、
前記撮影部で撮影された前記画像データから前記光指示装置が前記投影面に対して照射した照射画像を検出する照射画像検出部と、
前記検出された前記照射画像の位置に応じて所定の画像が付加された照射画像データを生成する照射画像生成部と、
を備えることを特徴とする画像投影システム。
A plurality of image projection devices that project image data onto a projection surface; an information processing device connected to the plurality of image projection devices; and a photographing unit that photographs the projection surface;
The image projector is
A synchronization signal output unit configured to transmit a synchronization signal designating a projection period different from the irradiation color irradiated by the light indicating device as a timing for photographing the projection plane to the information processing device;
The information processing apparatus includes:
A projection control unit that projects the projection images so that the projection images of the plurality of image projection devices become one composite image;
In accordance with the synchronization signal, a photographing control unit that causes the photographing unit to photograph the projection plane;
An irradiation image detection unit for detecting an irradiation image irradiated on the projection plane from the image data captured by the imaging unit;
An irradiation image generation unit that generates irradiation image data to which a predetermined image is added according to the position of the detected irradiation image;
An image projection system comprising:
前記複数の画像投影装置のうち特定の画像投影装置が、他の画像投影装置に対して同一タイミングで映像信号を送信することを特徴とする請求項1に記載の画像投影システム。   The image projection system according to claim 1, wherein a specific image projection apparatus among the plurality of image projection apparatuses transmits a video signal to another image projection apparatus at the same timing. 前記投影制御部は、複数の画像投影装置からの各投影画像がつながった合成画像となるように投影することを特徴とする請求項1または2に記載の画像投影システム。   The image projection system according to claim 1, wherein the projection control unit projects the projection images from a plurality of image projection apparatuses so as to be a combined image in which the projection images are connected. 前記撮影部は、1つまたは複数台設けられていることを特徴とする請求項1,2または3に記載の画像投影システム。   The image projection system according to claim 1, wherein one or a plurality of the photographing units are provided. 前記複数の画像投影装置で投影される投影対象物は、外力に応じて発色する弾性体または塑性体であることを特徴とする請求項1〜4の何れか一つに記載の画像投影システム。   5. The image projection system according to claim 1, wherein the projection object projected by the plurality of image projection apparatuses is an elastic body or a plastic body that develops color according to an external force. 複数の画像投影装置からの投影画像を一つの合成画像となるように各投影画像を投影する投影制御部と、
前記画像投影装置からの同期信号に従い、前記投影面を撮影部に撮影させる撮影制御部と、
前記撮影部で撮影された画像データから光指示装置が前記投影面に対して照射した照射画像を検出する照射画像検出部と、
前記検出された前記照射画像の位置に応じて所定の画像が付加された照射画像データを生成する照射画像生成部と、
を備えることを特徴とする情報処理装置。
A projection control unit that projects the projection images from the plurality of image projection devices so that the projection images become one composite image;
In accordance with a synchronization signal from the image projection device, a photographing control unit that causes the photographing unit to photograph the projection surface;
An irradiation image detection unit for detecting an irradiation image irradiated on the projection plane by the light indicating device from image data captured by the imaging unit;
An irradiation image generation unit that generates irradiation image data to which a predetermined image is added according to the position of the detected irradiation image;
An information processing apparatus comprising:
複数の画像投影装置からの投影画像を一つの合成画像となるように各投影画像を投影する投影制御工程と、
前記画像投影装置からの同期信号に従い、前記投影面を撮影部に撮影させる撮影制御工程と、
前記撮影部で撮影された画像データから光指示装置が前記投影面に対して照射した照射画像を検出する照射画像検出工程と、
前記検出された前記照射画像の位置に応じて所定の画像が付加された照射画像データを生成する照射画像生成工程と、
を含むことを特徴とする情報処理方法。
A projection control step of projecting each projection image so that the projection images from a plurality of image projection devices become one composite image;
In accordance with a synchronization signal from the image projection device, an imaging control step for causing the imaging unit to image the projection surface;
An irradiation image detection step of detecting an irradiation image irradiated on the projection plane by the light indicating device from image data captured by the imaging unit;
An irradiation image generation step of generating irradiation image data to which a predetermined image is added according to the position of the detected irradiation image;
An information processing method comprising:
複数の画像投影装置からの投影画像を一つの合成画像となるように各投影画像を投影する投影制御ステップと、
前記画像投影装置からの同期信号に従い、前記投影面を撮影部に撮影させる撮影制御ステップと、
前記撮影部で撮影された画像データから光指示装置が前記投影面に対して照射した照射画像を検出する照射画像検出ステップと、
前記検出された前記照射画像の位置に応じて所定の画像が付加された照射画像データを生成する照射画像生成ステップと、
をコンピュータに実行させるためのプログラム。
A projection control step of projecting each projection image so that the projection images from the plurality of image projection devices become one composite image;
In accordance with a synchronization signal from the image projection device, an imaging control step for causing the imaging unit to image the projection plane;
An irradiation image detection step of detecting an irradiation image irradiated to the projection plane by the light indicating device from image data captured by the imaging unit;
An irradiation image generation step of generating irradiation image data to which a predetermined image is added according to the position of the detected irradiation image;
A program that causes a computer to execute.
JP2014229051A 2014-11-11 2014-11-11 Image projection system, information processing apparatus, information processing method, and program Pending JP2016092779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014229051A JP2016092779A (en) 2014-11-11 2014-11-11 Image projection system, information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014229051A JP2016092779A (en) 2014-11-11 2014-11-11 Image projection system, information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2016092779A true JP2016092779A (en) 2016-05-23

Family

ID=56019107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229051A Pending JP2016092779A (en) 2014-11-11 2014-11-11 Image projection system, information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2016092779A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10712841B2 (en) 2017-03-22 2020-07-14 Casio Computer Co., Ltd. Display control device, display control system, display control method, and storage medium having stored thereon display control program
US11323672B2 (en) 2019-11-28 2022-05-03 Seiko Epson Corporation Control method for projector and projector
KR20220132936A (en) * 2021-03-24 2022-10-04 비젼온칩 주식회사 Method and device for moving picture device using projector
US11531255B2 (en) 2019-11-29 2022-12-20 Seiko Epson Corporation Projector, projection optical device, and method of controlling projector
KR102630707B1 (en) * 2022-08-01 2024-01-30 비젼온칩 주식회사 Method and device for moving picture device using projector and 3D recognition device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10712841B2 (en) 2017-03-22 2020-07-14 Casio Computer Co., Ltd. Display control device, display control system, display control method, and storage medium having stored thereon display control program
US11323672B2 (en) 2019-11-28 2022-05-03 Seiko Epson Corporation Control method for projector and projector
US11531255B2 (en) 2019-11-29 2022-12-20 Seiko Epson Corporation Projector, projection optical device, and method of controlling projector
KR20220132936A (en) * 2021-03-24 2022-10-04 비젼온칩 주식회사 Method and device for moving picture device using projector
WO2022203212A3 (en) * 2021-03-24 2022-11-17 비젼온칩 주식회사 Apparatus and method for filming video using projector
KR102470050B1 (en) 2021-03-24 2022-11-25 비젼온칩 주식회사 Method and device for moving picture device using projector
KR102630707B1 (en) * 2022-08-01 2024-01-30 비젼온칩 주식회사 Method and device for moving picture device using projector and 3D recognition device

Similar Documents

Publication Publication Date Title
JP3867205B2 (en) Pointed position detection device, pointed position detection system, and pointed position detection method
US9619693B2 (en) Display system, display device, projection device and program
KR101767853B1 (en) Information processing device, image projecting system, and computer program
JP2015037250A (en) Image projection device and presentation system
US20140267427A1 (en) Projector, method of controlling projector, and program thereof
CN102404537B (en) Projector and method of controlling projector
JP2016092779A (en) Image projection system, information processing apparatus, information processing method, and program
JP2015043066A (en) Image projection device
US20120140096A1 (en) Timing Solution for Projector Camera Devices and Systems
JPWO2018225531A1 (en) Image processing apparatus and method
JP2009133911A (en) Rear projector and multi-display system
JP2005151418A (en) Projector
CN104658462A (en) Porjector and method of controlling projector
JP2021118413A (en) Control method of projector, projector, and display system
JP2015053675A (en) Image projection device
JP2012181264A (en) Projection device, projection method, and program
JP2007065542A (en) Image projection device
JP2012018214A (en) Projection type video display device
JP2005148298A (en) Projector
JPWO2018142586A1 (en) Projection-type image display device
JP2008292570A (en) Projection type image display device
JP2020047186A (en) Image processing apparatus and program
JP2005148131A (en) Projector
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP2015079214A (en) Projection screen and image projection system