JP2017116689A - Image projection system, control method for the same, terminal device, and program - Google Patents

Image projection system, control method for the same, terminal device, and program Download PDF

Info

Publication number
JP2017116689A
JP2017116689A JP2015251072A JP2015251072A JP2017116689A JP 2017116689 A JP2017116689 A JP 2017116689A JP 2015251072 A JP2015251072 A JP 2015251072A JP 2015251072 A JP2015251072 A JP 2015251072A JP 2017116689 A JP2017116689 A JP 2017116689A
Authority
JP
Japan
Prior art keywords
image
projection
projector
projectors
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015251072A
Other languages
Japanese (ja)
Inventor
博行 市枝
Hiroyuki Ichieda
博行 市枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015251072A priority Critical patent/JP2017116689A/en
Publication of JP2017116689A publication Critical patent/JP2017116689A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow each projector to be easily associated with a position of a projection image in a projection surface in an image projection system provided with a plurality of projectors.SOLUTION: A multi-projection system 1 comprises a plurality of projectors and a tablet terminal 2 and projects projection images arranged side-by-side to a screen SC from the plurality of projectors. Each of the projector 101 through 103 comprises: a storage section storing identification information; a projection section projecting the image; and a projection control section causing the projection section to project an image code generated based on the identification information. The tablet terminal 2 acquires correspondence information indicating correspondence relationships among individual projectors and positions of the projection images in a screen SC based on a plurality of image codes included in picked-up images obtained by imaging the screen SC on which individual ones of the plurality of projectors project the plurality of image codes by cameras.SELECTED DRAWING: Figure 1

Description

本発明は、画像投写システム、画像投写システムの制御方法、端末装置、及び、プログラムに関する。   The present invention relates to an image projection system, a control method for the image projection system, a terminal device, and a program.

従来、複数のプロジェクターによって投写面に投写画像を並べて投写する技術が知られている(例えば、特許文献1参照)。特許文献1では、投写画像を撮像した撮像画像に基づき、隣接するプロジェクターから投写される投写画像の重畳領域の輝度の目標値を決定し、重畳領域の輝度が決定した目標値となるように遮光を制御する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for projecting projected images side by side on a projection surface by a plurality of projectors is known (see, for example, Patent Document 1). In Patent Document 1, based on a captured image obtained by capturing a projected image, a target value of the brightness of a superimposed area of a projected image projected from an adjacent projector is determined, and light is blocked so that the brightness of the superimposed area becomes the determined target value. Techniques for controlling are disclosed.

特開2012−4858号公報JP 2012-4858 A

特許文献1のように複数のプロジェクターを備える画像投写システムにおいて、それぞれのプロジェクターが投写する投写画像の歪みや画質等を調整する際、プロジェクターと、投写面における投写画像との対応関係を示す情報が必要となる。しかしながら、それぞれのプロジェクターと投写画像との対応を1つ1つ確認する作業は負荷が大きいという問題があった。
そこで、本発明は、複数のプロジェクターを備える画像投写システムにおいて、容易にプロジェクターと投写面における投写画像の位置との対応付けができるようにすることを目的とする。
In an image projection system including a plurality of projectors as in Patent Document 1, when adjusting distortion, image quality, and the like of a projection image projected by each projector, information indicating a correspondence relationship between the projector and the projection image on the projection surface is displayed. Necessary. However, there is a problem that the work of checking the correspondence between each projector and the projected image one by one is heavy.
Therefore, an object of the present invention is to make it possible to easily associate a projector and a position of a projected image on a projection surface in an image projection system including a plurality of projectors.

上記目的を達成するために、本発明は、複数のプロジェクターと、撮像装置と、処理装置と、を備え、複数の前記プロジェクターから投写面に投写画像を並べて投写する画像投写システムであって、前記プロジェクターは、前記プロジェクターを識別する識別情報を記憶する記憶部と、画像データに基づき画像を投写する投写部と、前記記憶部が記憶する識別情報に基づき生成された識別画像を、前記投写部により投写させる投写制御部と、を備え、前記処理装置は、複数の前記プロジェクターのそれぞれが前記識別画像を投写した前記投写面を前記撮像装置により撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する処理制御部を備えることを特徴とする。
これにより、複数のプロジェクターが投写する識別画像を撮像することにより、撮像した撮像画像に含まれる識別画像に基づいて、プロジェクターと投写面における投写画像の位置との対応付けができる。
In order to achieve the above object, the present invention is an image projection system comprising a plurality of projectors, an imaging device, and a processing device, wherein the projection images are projected side by side on the projection surface from the plurality of projectors, The projector includes a storage unit that stores identification information for identifying the projector, a projection unit that projects an image based on image data, and an identification image generated based on the identification information stored in the storage unit by the projection unit. A projection control unit for projecting, wherein the processing device is based on the plurality of identification images included in a captured image obtained by capturing the projection surface on which the plurality of projectors project the identification image by the imaging device. The correspondence information indicating the correspondence between each projector and the position of the projection image on the projection plane is acquired. Characterized in that it comprises a processing control unit.
Thus, by capturing the identification images projected by the plurality of projectors, it is possible to associate the projectors with the positions of the projected images on the projection plane based on the identification images included in the captured images.

また、本発明の画像投写システムは、前記処理装置は、撮像部を備え、前記撮像装置として機能することを特徴とする。
これにより、処理装置が撮像装置として機能するため、撮像装置を処理装置と別体の装置として備える必要がなく、画像投写システムを簡易にできる。
In the image projection system of the present invention, the processing device includes an imaging unit, and functions as the imaging device.
Thereby, since the processing device functions as an imaging device, it is not necessary to provide the imaging device as a separate device from the processing device, and the image projection system can be simplified.

また、本発明の画像投写システムは、前記識別画像は、情報を符号化して得られる画像コードであり、前記処理装置は、前記撮像画像に含まれる複数の前記画像コードを復号して情報を取得することを特徴とする。
これにより、処理装置が、撮像画像に含まれる複数の画像コードから情報を取得することができる。従って、例えば、プロジェクターのネットワークアドレス等の情報を、識別画像を利用して処理装置に入力できる。
In the image projection system of the present invention, the identification image is an image code obtained by encoding information, and the processing device acquires information by decoding a plurality of the image codes included in the captured image. It is characterized by doing.
Thereby, the processing apparatus can acquire information from a plurality of image codes included in the captured image. Therefore, for example, information such as the network address of the projector can be input to the processing device using the identification image.

また、本発明の画像投写システムは、前記プロジェクターは、第1の通信部を備え、前記処理装置は、第2の通信部を備え、前記処理制御部は、前記撮像画像に含まれる複数の前記画像コードから取得した情報に基づき、前記第2の通信部により前記プロジェクターと通信することを特徴とする。
これにより、処理装置が画像コードから取得した情報に基づき、プロジェクターと通信できる。
In the image projection system according to the aspect of the invention, the projector includes a first communication unit, the processing apparatus includes a second communication unit, and the processing control unit includes a plurality of the captured images. Based on the information acquired from the image code, the second communication unit communicates with the projector.
Accordingly, the processing apparatus can communicate with the projector based on information acquired from the image code.

また、本発明の画像投写システムは、前記処理制御部は、取得した前記対応情報を前記第2の通信部により、前記プロジェクターと通信する外部装置に送信することを特徴とする。
これにより、対応情報を外部装置に送信するため、外部装置が複数のプロジェクターと投写画像との対応に基づく処理を行うことができる。
The image projection system of the present invention is characterized in that the processing control unit transmits the acquired correspondence information to an external device that communicates with the projector by the second communication unit.
Accordingly, since the correspondence information is transmitted to the external device, the external device can perform processing based on the correspondence between the plurality of projectors and the projected image.

また、本発明の画像投写システムは、前記処理制御部は、前記撮像画像に含まれる複数の前記画像コードから、前記プロジェクターのIPアドレスを含む情報を取得することを特徴とする。
これにより、処理装置が複数の画像コードから取得するプロジェクターのIPアドレスを取得できるため、投写面に投写するプロジェクターを特定できる。
In the image projection system according to the aspect of the invention, the processing control unit may acquire information including an IP address of the projector from a plurality of the image codes included in the captured image.
Thereby, since the IP address of the projector which a processing apparatus acquires from several image codes can be acquired, the projector which projects on a projection surface can be specified.

上記目的を達成するために、本発明は、複数のプロジェクターと、撮像装置と、処理装置と、を備え、複数の前記プロジェクターから投写面に投写画像を並べて投写する画像投写システムの制御方法であって、複数の前記プロジェクターにより、それぞれの前記プロジェクターが記憶する前記プロジェクターを識別するための識別情報に基づき生成された識別画像を、前記投写面に投写し、前記処理装置により、複数の前記プロジェクターのそれぞれが前記識別画像を投写した前記投写面を前記撮像装置により撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得することを特徴とする。
これにより、複数のプロジェクターが投写する識別画像を撮像することにより、撮像した撮像画像に含まれる識別画像に基づいて、プロジェクターと投写面における投写画像の位置との対応付けができる。
In order to achieve the above object, the present invention provides a control method for an image projection system that includes a plurality of projectors, an imaging device, and a processing device, and that projects projected images side by side from the plurality of projectors onto a projection surface. Then, an identification image generated based on identification information for identifying the projector stored in each of the projectors is projected on the projection plane by the plurality of projectors, and the processing device is used to project the plurality of projectors. Correspondence between each projector and the position of the projection image on the projection plane based on the plurality of identification images included in the captured image obtained by imaging the projection plane on which the identification image is projected by the imaging device It is characterized by acquiring correspondence information indicating the relationship.
Thus, by capturing the identification images projected by the plurality of projectors, it is possible to associate the projectors with the positions of the projected images on the projection plane based on the identification images included in the captured images.

上記目的を達成するために、本発明は、複数のプロジェクターから投写面に投写される投写画像を撮像する端末装置であって、画像を撮像する撮像部と、複数の前記プロジェクターから前記プロジェクターを識別する識別情報に基づき生成された識別画像が複数投写された前記投写面を、前記撮像部により撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する処理制御部と、を備えることを特徴とする。
これにより、複数のプロジェクターが投写する識別画像を撮像することにより、撮像した撮像画像に含まれる識別画像に基づいて、プロジェクターと投写面における投写画像の位置との対応付けができる。
In order to achieve the above object, the present invention provides a terminal device that captures a projected image projected on a projection surface from a plurality of projectors, and identifies the projector from an image capturing unit that captures images and the plurality of projectors. The projection plane on which a plurality of identification images generated based on the identification information to be projected is projected on each of the projector and the projection plane based on the plurality of identification images included in the captured image captured by the imaging unit. And a processing control unit that acquires correspondence information indicating a correspondence relationship with the position of the projected image.
Thus, by capturing the identification images projected by the plurality of projectors, it is possible to associate the projectors with the positions of the projected images on the projection plane based on the identification images included in the captured images.

上記目的を達成するために、本発明は、複数のプロジェクターから投写面に投写される投写画像を撮像する端末装置を制御する制御部により実行されるプログラムであって、前記制御部を、複数の前記プロジェクターから、前記プロジェクターを識別する識別情報に基づき生成された識別画像が複数投写された前記投写面を、撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する処理制御部として機能させることを特徴とする。
これにより、複数のプロジェクターが投写する識別画像を撮像することにより、撮像した撮像画像に含まれる識別画像に基づいて、プロジェクターと投写面における投写画像の位置との対応付けができる。
In order to achieve the above object, the present invention provides a program executed by a control unit that controls a terminal device that captures a projection image projected on a projection plane from a plurality of projectors, the control unit including a plurality of control units. Each of the projectors based on a plurality of the identification images included in a captured image obtained by projecting the projection surface on which a plurality of identification images generated based on the identification information for identifying the projector is projected from the projector, It is made to function as a process control part which acquires the correspondence information which shows the correspondence with the position of the said projection image in the said projection surface.
Thus, by capturing the identification images projected by the plurality of projectors, it is possible to associate the projectors with the positions of the projected images on the projection plane based on the identification images included in the captured images.

マルチプロジェクションシステムの構成を示す図。The figure which shows the structure of a multi-projection system. プロジェクターの構成を示す図。The figure which shows the structure of a projector. タブレット端末の構成を示す図。The figure which shows the structure of a tablet terminal. マルチプロジェクションの動作を示すフローチャート。The flowchart which shows the operation | movement of multi-projection. 画像コードの一例を示す図。The figure which shows an example of an image code.

図1は、マルチプロジェクションシステム1(画像投写システム)の構成を示す図である。マルチプロジェクションシステム1は、複数のプロジェクターを並べて配置し、これら複数のプロジェクターによる投写画像を組み合わせて、タイリング表示により1つの画像を投写するシステムである。   FIG. 1 is a diagram showing a configuration of a multi-projection system 1 (image projection system). The multi-projection system 1 is a system in which a plurality of projectors are arranged side by side, and one image is projected by tiling display by combining projection images from the plurality of projectors.

図1に示すように、マルチプロジェクションシステム1は、複数のプロジェクターと、タブレット端末2(撮像装置、処理装置、端末装置)とを備える。本実施形態では、マルチプロジェクションシステム1は、プロジェクター101、プロジェクター102、及び、プロジェクター103の3台のプロジェクターを備える。図1に示すように、プロジェクター101〜103は、スクリーンSCに対して横一列に配置される。以下、プロジェクター101、プロジェクター102、及び、プロジェクター103を区別せず総称する場合に、プロジェクター100と表記する。   As illustrated in FIG. 1, the multi-projection system 1 includes a plurality of projectors and a tablet terminal 2 (an imaging device, a processing device, and a terminal device). In the present embodiment, the multi-projection system 1 includes three projectors: a projector 101, a projector 102, and a projector 103. As shown in FIG. 1, the projectors 101 to 103 are arranged in a horizontal row with respect to the screen SC. Hereinafter, the projector 101, the projector 102, and the projector 103 are collectively referred to as the projector 100 when not distinguished from each other.

プロジェクター100は、投写対象に画像光を投写して、投写対象の面に画像データに基づく画像を形成する。プロジェクター100が画像を投写する投写対象は、平面であっても曲面や凹凸面であってもよいが、本実施形態では、平面で構成されるスクリーンSC(投写面)に投写する場合を例示する。スクリーンSCは、壁面等の固定された平面を利用してもよいし、吊り下げ式や立ち下げ式の幕状のスクリーンであってもよい。   The projector 100 projects image light onto a projection target and forms an image based on the image data on the projection target surface. The projection target on which the projector 100 projects an image may be a flat surface, a curved surface, or an uneven surface. However, in the present embodiment, a case of projecting onto a screen SC (projection surface) configured with a flat surface is exemplified. . The screen SC may use a fixed plane such as a wall surface, or may be a hanging or falling curtain screen.

タブレット端末2は、スマートフォン等の携帯電話や、PDA(Personal Digital Assistants)等の装置である。タブレット端末2は、カメラ61(撮像部)(図3)を備え、ユーザーの操作に基づき、プロジェクター101、プロジェクター102、及び、プロジェクター103がスクリーンSC上に投写した投写画像を撮像する。   The tablet terminal 2 is a mobile phone such as a smartphone or a device such as a PDA (Personal Digital Assistants). The tablet terminal 2 includes a camera 61 (imaging unit) (FIG. 3), and captures a projected image projected on the screen SC by the projector 101, the projector 102, and the projector 103 based on a user operation.

図1に示すように、マルチプロジェクションシステム1は、ハブ4を備える。ハブ4には、プロジェクター101、プロジェクター102、及び、プロジェクター103がケーブルを介して接続する。また、ハブ4には、画像供給装置3(外部装置)がケーブルを介して接続する。画像供給装置3は、外部の装置に画像データを出力する装置であり、パーソナルコンピューター等の装置である。本実施形態において、画像供給装置3は、ハブ4を介して、プロジェクター101、プロジェクター102、及び、プロジェクター103に画像データを出力する。   As shown in FIG. 1, the multi-projection system 1 includes a hub 4. The projector 101, the projector 102, and the projector 103 are connected to the hub 4 via a cable. Further, the image supply device 3 (external device) is connected to the hub 4 via a cable. The image supply device 3 is a device that outputs image data to an external device, and is a device such as a personal computer. In the present embodiment, the image supply device 3 outputs image data to the projector 101, the projector 102, and the projector 103 via the hub 4.

また、図1に示すように、ハブ4には、アクセスポイントAPが接続する。タブレット端末2は、アクセスポイントAPが有する無線ネットワークに接続し、プロジェクター101〜103、及び、画像供給装置3と通信する。   As shown in FIG. 1, an access point AP is connected to the hub 4. The tablet terminal 2 is connected to a wireless network included in the access point AP, and communicates with the projectors 101 to 103 and the image supply device 3.

スクリーンSCは、プロジェクター101〜103が投写画像を投写する投写面を構成する。スクリーンSCは、投写領域A1〜A3を配置可能なサイズを有する。図1に示すように、本実施形態では、スクリーンSCに、投写領域A1、投写領域A2、及び、投写領域A3の3つの投写領域が横並びに配置される。プロジェクター101は、投写画像をスクリーンSCの投写領域A1に投写する。また、プロジェクター102は、投写画像をスクリーンSCの投写領域A2に投写する。また、プロジェクター103は、投写画像をスクリーンSCの投写領域A3に投写する。プロジェクター101〜103は、画像供給装置3からハブ4を介して入力される画像データに基づく画像を、プロジェクター101〜103のそれぞれが対応する投写領域に投写する。   The screen SC constitutes a projection surface on which the projectors 101 to 103 project a projected image. The screen SC has a size capable of arranging the projection areas A1 to A3. As shown in FIG. 1, in the present embodiment, three projection areas, a projection area A1, a projection area A2, and a projection area A3, are arranged side by side on the screen SC. The projector 101 projects the projection image onto the projection area A1 of the screen SC. Further, the projector 102 projects the projection image onto the projection area A2 of the screen SC. Further, the projector 103 projects the projection image onto the projection area A3 of the screen SC. The projectors 101 to 103 project images based on image data input from the image supply device 3 via the hub 4 in the projection areas corresponding to the projectors 101 to 103, respectively.

本実施形態では、画像供給装置3は、画像データの1フレームを3つに分割し、分割した画像データのそれぞれを、プロジェクター101〜103のそれぞれに出力する。例えば、画像供給装置3は、3つに分割した画像データのうち1の画像データを、プロジェクター101が投写する投写画像の画像データとして、プロジェクター101に出力する。   In the present embodiment, the image supply device 3 divides one frame of image data into three, and outputs the divided image data to the projectors 101 to 103, respectively. For example, the image supply device 3 outputs one image data of the three divided image data to the projector 101 as image data of a projection image projected by the projector 101.

次に、プロジェクター100の構成について説明する。
図2は、プロジェクター100の構成を示すブロック図である。
Next, the configuration of the projector 100 will be described.
FIG. 2 is a block diagram illustrating a configuration of the projector 100.

プロジェクター100は、インターフェイス部(以下、I/F部と略記する)124を備える。I/F部124には、例えば、デジタル映像信号が入力されるDVIインターフェイス、USBインターフェイス、LANインターフェイス等を用いることができる。また、I/F部124には、例えば、NTSCや、PAL、SECAM等のコンポジット映像信号が入力されるS映像端子や、コンポジット映像が入力されるRCA端子、コンポーネント映像信号が入力されるD端子等を用いることができる。さらに、I/F部124には、HDMI(登録商標)規格に従ったHDMIコネクター等の汎用インターフェイスを用いることができる。   The projector 100 includes an interface unit (hereinafter abbreviated as I / F unit) 124. For the I / F unit 124, for example, a DVI interface, a USB interface, a LAN interface, or the like to which a digital video signal is input can be used. In addition, the I / F unit 124 includes, for example, an S video terminal to which a composite video signal such as NTSC, PAL, or SECAM is input, an RCA terminal to which a composite video is input, or a D terminal to which a component video signal is input. Etc. can be used. Furthermore, a general-purpose interface such as an HDMI connector according to the HDMI (registered trademark) standard can be used for the I / F unit 124.

プロジェクター100は、大きく分けて光学的な画像の形成を行う投写部110と、この投写部110に入力される画像信号を電気的に処理する画像処理系と、を備える。   The projector 100 includes a projection unit 110 that roughly forms an optical image and an image processing system that electrically processes an image signal input to the projection unit 110.

投写部110は、光源部111と、液晶パネル112Aを備える光変調装置112と、投写光学系113とを備える。   The projection unit 110 includes a light source unit 111, a light modulation device 112 including a liquid crystal panel 112A, and a projection optical system 113.

光源部111は、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)、レーザー等からなる光源を備える。また、光源部111は、光源が発した光を光変調装置112に導くリフレクター及び補助リフレクターを備えていてもよい。また、光源部111は、投写光の光学特性を高めるためのレンズ群や、偏光板、又は、光源が発した光の光量を光変調装置112に至る経路上で低減させる調光素子等(いずれも図示略)を備えるものであってもよい。   The light source unit 111 includes a light source including a xenon lamp, an ultra-high pressure mercury lamp, an LED (Light Emitting Diode), a laser, and the like. The light source unit 111 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 112. The light source unit 111 includes a lens group for enhancing the optical characteristics of the projection light, a polarizing plate, a light control element that reduces the amount of light emitted from the light source on the path to the light modulation device 112, etc. May also be provided).

光変調装置112は、例えば、透過型の液晶パネル112Aを備え、この液晶パネル112Aに後述する画像処理系からの信号を受けて画像を形成する。この場合、光変調装置112は、カラーの投影を行うための、RGBの三原色に対応した3枚の液晶パネル112Aを備え、光源部111からの光はRGBの三色の色光に分離され、各色光は対応する各液晶パネル112Aに入射する。各液晶パネル112Aを通過して変調された色光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投写光学系113に射出される。   The light modulation device 112 includes, for example, a transmissive liquid crystal panel 112A, and forms an image on the liquid crystal panel 112A in response to a signal from an image processing system described later. In this case, the light modulation device 112 includes three liquid crystal panels 112A corresponding to the three primary colors RGB for performing color projection, and the light from the light source unit 111 is separated into RGB three-color light, and each color The light enters each corresponding liquid crystal panel 112A. The color light modulated by passing through each liquid crystal panel 112 </ b> A is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 113.

なお、光変調装置112は、透過型の液晶パネル112Aを三枚用いた構成に限定されず、例えば三枚の反射型の液晶パネルを用いることも可能である。また、光変調装置112は、1枚の液晶パネルとカラーホイールを組み合わせた方式や、1枚のDMD(Digital Mirror Device)とカラーホイールを組み合わせた方式等により構成してもよい。ここで、光変調装置112として一枚のみの液晶パネル112A又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル112A及びDMD以外にも、光源が発した光を変調可能な構成であれば採用できる。   The light modulation device 112 is not limited to the configuration using three transmissive liquid crystal panels 112A, and for example, three reflective liquid crystal panels may be used. Further, the light modulation device 112 may be configured by a method in which one liquid crystal panel and a color wheel are combined, a method in which one DMD (Digital Mirror Device) and a color wheel are combined, or the like. Here, when only one liquid crystal panel 112A or DMD is used as the light modulation device 112, a member corresponding to a combining optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel 112A and the DMD, any configuration that can modulate the light emitted from the light source can be used.

投写光学系113は、光変調装置112で変調された入射光を、投写レンズを用いて投写開口部(不図示)から外に向けて放射し、スクリーンSC上に投写画像を結像させる。   The projection optical system 113 radiates the incident light modulated by the light modulation device 112 outward from a projection opening (not shown) using a projection lens, and forms a projection image on the screen SC.

投写部110には、投写光学系駆動部121及び光源駆動部122が接続される。投写光学系駆動部121は、後述する制御部130の制御に従って、投写光学系113が備える各モーターを駆動する。光源駆動部122は、制御部130の制御に従って光源部111が備える光源を駆動する。投写光学系駆動部121及び光源駆動部122は、バス105に接続される。   A projection optical system drive unit 121 and a light source drive unit 122 are connected to the projection unit 110. The projection optical system drive unit 121 drives each motor included in the projection optical system 113 according to the control of the control unit 130 described later. The light source driving unit 122 drives a light source included in the light source unit 111 according to the control of the control unit 130. The projection optical system driving unit 121 and the light source driving unit 122 are connected to the bus 105.

プロジェクター100は、通信部156(第1の通信部)を備える。通信部156は、各種データを通信するインターフェイスであり、制御部130の制御の下で、アクセスポイントAPを介してタブレット端末2と通信する。   The projector 100 includes a communication unit 156 (first communication unit). The communication unit 156 is an interface for communicating various data, and communicates with the tablet terminal 2 through the access point AP under the control of the control unit 130.

プロジェクター100の備える画像処理系は、プロジェクター100全体を統合的に制御する制御部130を中心に構成され、その他、記憶部151、画像処理部125、光変調装置駆動部123、入力処理部153を備える。制御部130、記憶部151、入力処理部153、画像処理部125、及び、光変調装置駆動部123は、それぞれバス105に接続される。   The image processing system included in the projector 100 is configured around a control unit 130 that controls the entire projector 100 in an integrated manner, and additionally includes a storage unit 151, an image processing unit 125, a light modulation device driving unit 123, and an input processing unit 153. Prepare. The control unit 130, the storage unit 151, the input processing unit 153, the image processing unit 125, and the light modulation device driving unit 123 are each connected to the bus 105.

制御部130は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備え、ROMに記憶された制御プログラムをCPUにより実行して、プロジェクター100を制御する。また、制御部130は、記憶部151に記憶された制御プログラムを読み出して実行することにより、後述する投写制御部131、通信制御部132、及び、識別画像生成部133として機能する。   The control unit 130 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like (not shown), and controls the projector 100 by executing a control program stored in the ROM by the CPU. . The control unit 130 functions as a projection control unit 131, a communication control unit 132, and an identification image generation unit 133, which will be described later, by reading and executing the control program stored in the storage unit 151.

記憶部151は、フラッシュメモリーや、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の不揮発性のメモリーで構成され、各種データを書き換え可能に不揮発的に記憶する。記憶部151は、プロジェクター100の制御に使用される制御プログラムや、画像データ等を記憶する。   The storage unit 151 includes a nonvolatile memory such as a flash memory or an EEPROM (Electrically Erasable Programmable Read-Only Memory), and stores various data in a rewritable manner. The storage unit 151 stores a control program used for controlling the projector 100, image data, and the like.

また、記憶部151は、プロジェクター100を識別する識別情報161を記憶する。識別情報161は、IPアドレスを示すIPアドレス情報や、MACアドレスを示すMACアドレス情報、プロジェクター100がアクセスポイントAPとして機能する場合のSSIDを示すSSID情報等を含む。   In addition, the storage unit 151 stores identification information 161 that identifies the projector 100. The identification information 161 includes IP address information indicating an IP address, MAC address information indicating a MAC address, SSID information indicating an SSID when the projector 100 functions as an access point AP, and the like.

画像処理部125は、I/F部124から入力される画像データを、光変調装置112の液晶パネル112Aの仕様に適合した解像度のデータに変換する解像度変換処理等を実行する。画像処理部125は、光変調装置112により表示する表示用画像をフレームメモリー126に描画して、描画した表示用画像を光変調装置駆動部123に出力する。光変調装置駆動部123は、画像処理部125から入力した表示用画像に基づいて、光変調装置112を駆動する。これにより、光変調装置112の液晶パネル112Aに画像が描画され、描画された画像が、投写光学系113を介してスクリーンSCに投写画像として投写される。   The image processing unit 125 executes resolution conversion processing that converts the image data input from the I / F unit 124 into data having a resolution that conforms to the specifications of the liquid crystal panel 112A of the light modulation device 112. The image processing unit 125 draws a display image to be displayed by the light modulation device 112 in the frame memory 126 and outputs the drawn display image to the light modulation device driving unit 123. The light modulation device driving unit 123 drives the light modulation device 112 based on the display image input from the image processing unit 125. Thus, an image is drawn on the liquid crystal panel 112A of the light modulation device 112, and the drawn image is projected as a projection image on the screen SC via the projection optical system 113.

プロジェクター100は、ユーザーが操作を行うための各種スイッチ、及び、インジケーターランプを備える操作パネル155を備える。操作パネル155は、入力処理部153に接続される。入力処理部153は、制御部130の制御に従って、プロジェクター100の動作状態や設定状態に応じて操作パネル155のインジケーターランプを適宜点灯或いは点滅させる。操作パネル155のスイッチが操作されると、操作されたスイッチに対応する操作信号が入力処理部153から制御部130に出力される。   The projector 100 includes various switches for the user to perform operations and an operation panel 155 including an indicator lamp. The operation panel 155 is connected to the input processing unit 153. The input processing unit 153 appropriately turns on or blinks the indicator lamp of the operation panel 155 according to the operation state or setting state of the projector 100 according to the control of the control unit 130. When a switch on the operation panel 155 is operated, an operation signal corresponding to the operated switch is output from the input processing unit 153 to the control unit 130.

また、プロジェクター100は、ユーザーが使用するリモコン(不図示)を有する。リモコンは、各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。プロジェクター100は、リモコンが発する赤外線信号を受光するリモコン受光部154を備える。リモコン受光部154は、リモコンから受光した赤外線信号をデコードして、リモコンにおける操作内容を示す操作信号を生成し、制御部130に出力する。   Further, the projector 100 has a remote control (not shown) used by the user. The remote control includes various buttons, and transmits an infrared signal corresponding to the operation of these buttons. The projector 100 includes a remote control light receiving unit 154 that receives an infrared signal emitted from the remote control. The remote control light receiving unit 154 decodes the infrared signal received from the remote control, generates an operation signal indicating the operation content on the remote control, and outputs the operation signal to the control unit 130.

次に、制御部130の備える投写制御部131と、通信制御部132と、識別画像生成部133と、について説明する。   Next, the projection control unit 131, the communication control unit 132, and the identification image generation unit 133 included in the control unit 130 will be described.

投写制御部131は、画像処理部125を制御して、I/F部124を介して供給される画像データに基づいてフレームメモリー126に画像を描画させる。また、投写制御部131は、画像処理部125を制御して、記憶部151が記憶する画像データに基づいてフレームメモリー126に画像を描画させる。投写制御部131は、光変調装置駆動部123を制御して、フレームメモリー126に描画された画像を光変調装置112の液晶パネル112Aに描画させる。光変調装置112の液晶パネル112Aに描画された画像は、投写光学系113を介してスクリーンSC上に投写画像として投写される。本実施形態では、投写制御部131は、画像処理部125を制御して、識別画像生成部133が生成するQRコードデータに基づいてフレームメモリー126にQRコード(登録商標)(識別画像、画像コード)を描画させ、光変調装置駆動部123を制御して、フレームメモリー126に描画されたQRコードを投写画像としてスクリーンSC上に投写させる。   The projection control unit 131 controls the image processing unit 125 to cause the frame memory 126 to draw an image based on image data supplied via the I / F unit 124. Further, the projection control unit 131 controls the image processing unit 125 to cause the frame memory 126 to draw an image based on the image data stored in the storage unit 151. The projection control unit 131 controls the light modulation device driving unit 123 to draw the image drawn in the frame memory 126 on the liquid crystal panel 112A of the light modulation device 112. The image drawn on the liquid crystal panel 112A of the light modulation device 112 is projected as a projection image on the screen SC via the projection optical system 113. In the present embodiment, the projection control unit 131 controls the image processing unit 125 to store a QR code (registered trademark) (identification image, image code) in the frame memory 126 based on the QR code data generated by the identification image generation unit 133. ) And the light modulator driving unit 123 is controlled to project the QR code drawn in the frame memory 126 onto the screen SC as a projection image.

識別画像生成部133は、後述するトリガーを検出した場合、記憶部151が記憶する識別情報161を符号化し、画像コードを示す画像コードデータを生成する。本実施形態では、識別画像生成部133は、画像コードデータとしてQRコードデータを生成する。識別画像生成部133は、生成した画像コードデータを投写制御部131に出力する。投写制御部131は、識別画像生成部133から画像コードデータを取得すると、投写部110を制御し、画像コードデータに基づく画像コードをスクリーンSCに投写させる。前述した通り、本実施形態では、投写制御部131は、スクリーンSCにQRコードを投写させる。   When the identification image generation unit 133 detects a trigger described later, the identification image generation unit 133 encodes the identification information 161 stored in the storage unit 151 and generates image code data indicating an image code. In the present embodiment, the identification image generation unit 133 generates QR code data as image code data. The identification image generation unit 133 outputs the generated image code data to the projection control unit 131. When acquiring the image code data from the identification image generation unit 133, the projection control unit 131 controls the projection unit 110 to project an image code based on the image code data onto the screen SC. As described above, in the present embodiment, the projection control unit 131 projects a QR code on the screen SC.

通信制御部132は、通信部156を制御してタブレット端末2と通信を行う。通信制御部132は、通信部156により、タブレット端末2が出力する情報を受信する。   The communication control unit 132 controls the communication unit 156 to communicate with the tablet terminal 2. The communication control unit 132 receives information output from the tablet terminal 2 through the communication unit 156.

次に、タブレット端末2の構成について説明する。
図3は、タブレット端末2の構成を示すブロック図である。
Next, the configuration of the tablet terminal 2 will be described.
FIG. 3 is a block diagram illustrating a configuration of the tablet terminal 2.

タブレット端末2は、タブレット端末2の各部を制御する端末制御部20(処理制御部)を備える。端末制御部20は、図示しないCPUや、ROM、RAM等を備え、ROMに記憶された制御プログラムを実行して、タブレット端末2を制御する。また、端末制御部20は、端末記憶部30に記憶された制御プログラムを実行することにより、後述する、表示制御部21、端末通信制御部22、撮像制御部23、及び、識別画像解析部24として機能する。   The tablet terminal 2 includes a terminal control unit 20 (processing control unit) that controls each unit of the tablet terminal 2. The terminal control unit 20 includes a CPU, ROM, RAM, and the like (not shown), and controls the tablet terminal 2 by executing a control program stored in the ROM. In addition, the terminal control unit 20 executes a control program stored in the terminal storage unit 30, thereby causing a display control unit 21, a terminal communication control unit 22, an imaging control unit 23, and an identification image analysis unit 24 to be described later. Function as.

タブレット端末2は、端末記憶部30を備える。端末記憶部30は、フラッシュメモリーや、EEPROM等の不揮発性の記憶装置により構成され、各種データを不揮発的に記憶する。また、端末記憶部30は、専用ソフトウェアSFを記憶する。専用ソフトウェアSFは、CPUにより実行されることで、端末制御部20が、ソフトウェアとハードウェアとの協働により、撮像制御部23、及び、識別画像解析部24として機能するためのソフトウェアである。   The tablet terminal 2 includes a terminal storage unit 30. The terminal storage unit 30 is configured by a nonvolatile storage device such as a flash memory or an EEPROM, and stores various data in a nonvolatile manner. Further, the terminal storage unit 30 stores the dedicated software SF. The dedicated software SF is software for causing the terminal control unit 20 to function as the imaging control unit 23 and the identification image analysis unit 24 in cooperation with software and hardware by being executed by the CPU.

タブレット端末2は、端末無線通信部40(第2の通信部)を備える。端末無線通信部40は、アンテナやRF(Radio Frequency)回路等を備え、端末制御部20に接続される。端末無線通信部40は、端末制御部20によって制御され、所定の通信規格に従って、アクセスポイントAPと通信することより、プロジェクター100及び画像供給装置3の間で各種データを送受信する。   The tablet terminal 2 includes a terminal wireless communication unit 40 (second communication unit). The terminal wireless communication unit 40 includes an antenna, an RF (Radio Frequency) circuit, and the like, and is connected to the terminal control unit 20. The terminal wireless communication unit 40 is controlled by the terminal control unit 20 and transmits and receives various data between the projector 100 and the image supply device 3 by communicating with the access point AP according to a predetermined communication standard.

タブレット端末2は、表示部51を備える。表示部51は、表示パネル52を備え、端末制御部20に接続する。表示部51は、端末制御部20から入力した画像データに基づいて、図示しない描画メモリーに表示パネル52の解像度に合わせたフレームを描画し、描画したフレームに基づき表示パネル52に画像を表示させる。   The tablet terminal 2 includes a display unit 51. The display unit 51 includes a display panel 52 and is connected to the terminal control unit 20. The display unit 51 draws a frame according to the resolution of the display panel 52 in a drawing memory (not shown) based on the image data input from the terminal control unit 20, and causes the display panel 52 to display an image based on the drawn frame.

タブレット端末2は、タッチスクリーン53と、スイッチ部54と、操作検出部55とを備える。タッチスクリーン53は、表示パネル52への接触操作を検出して、検出した操作位置を示す位置信号を操作検出部55に出力する。操作検出部55は、タッチスクリーン53から入力される位置信号に基づいて、タッチスクリーン53上の座標を示す座標情報を生成し、端末制御部20に出力する。スイッチ部54は、タッチスクリーン53とは別に設けられたスイッチ等の各操作子を備え、これらスイッチが操作された場合に操作信号を操作検出部55に出力する。操作検出部55は、スイッチ部54から入力された操作信号に基づいて、操作された操作子に対応する操作情報を生成して端末制御部20に出力する。   The tablet terminal 2 includes a touch screen 53, a switch unit 54, and an operation detection unit 55. The touch screen 53 detects a touch operation on the display panel 52 and outputs a position signal indicating the detected operation position to the operation detection unit 55. The operation detection unit 55 generates coordinate information indicating coordinates on the touch screen 53 based on the position signal input from the touch screen 53 and outputs the coordinate information to the terminal control unit 20. The switch unit 54 includes operation elements such as switches provided separately from the touch screen 53, and outputs an operation signal to the operation detection unit 55 when these switches are operated. The operation detection unit 55 generates operation information corresponding to the operated operator based on the operation signal input from the switch unit 54 and outputs the operation information to the terminal control unit 20.

カメラ61(撮像部)は、端末制御部20の制御に従って撮像を実行し、撮像した撮像画像データを端末制御部20に出力する。   The camera 61 (imaging unit) executes imaging under the control of the terminal control unit 20 and outputs the captured image data to the terminal control unit 20.

次に、端末制御部20が備える表示制御部21、端末通信制御部22、撮像制御部23、及び、識別画像解析部24について説明する。   Next, the display control unit 21, the terminal communication control unit 22, the imaging control unit 23, and the identification image analysis unit 24 included in the terminal control unit 20 will be described.

表示制御部21は、表示部51を制御して、表示パネル52に各種情報を表示させる。表示制御部21は、端末記憶部30から画像データ(不図示)を読み出して、又は、端末無線通信部40を介して画像データを受信して、表示部51に出力する。表示部51は、入力した画像データに基づいて、不図示の描画メモリーに表示パネル52の解像度に合わせたフレームを描画し、描画したフレームに基づき、表示パネル52を駆動する。   The display control unit 21 controls the display unit 51 to display various information on the display panel 52. The display control unit 21 reads image data (not shown) from the terminal storage unit 30 or receives the image data via the terminal wireless communication unit 40 and outputs it to the display unit 51. The display unit 51 draws a frame that matches the resolution of the display panel 52 in a drawing memory (not shown) based on the input image data, and drives the display panel 52 based on the drawn frame.

端末通信制御部22は、端末無線通信部40を制御して、アクセスポイントAPと無線通信を行う。端末通信制御部22は、アクセスポイントAPとの通信を開始する場合に、アクセスポイントAPとの間で接続を確立するための所定の処理を実行する。   The terminal communication control unit 22 controls the terminal wireless communication unit 40 to perform wireless communication with the access point AP. The terminal communication control unit 22 executes predetermined processing for establishing a connection with the access point AP when communication with the access point AP is started.

撮像制御部23は、ユーザーのタブレット端末2に対する操作に基づき、カメラ61を制御し、投写対象に投写された投写画像を撮像する。撮像制御部23は、カメラ61により撮像した撮像画像データを識別画像解析部24に出力する。本実施形態では、撮像制御部23は、スクリーンSC上に投写された複数の画像コードを、カメラ61により撮像し、複数の画像コードを撮像した撮像画像を示す撮像画像データを識別画像解析部24に出力する。   The imaging control unit 23 controls the camera 61 based on the user's operation on the tablet terminal 2 and captures a projected image projected on the projection target. The imaging control unit 23 outputs captured image data captured by the camera 61 to the identification image analysis unit 24. In the present embodiment, the imaging control unit 23 captures a plurality of image codes projected on the screen SC by the camera 61, and the captured image data indicating the captured images obtained by capturing the plurality of image codes is identified image analysis unit 24. Output to.

識別画像解析部24は、撮像制御部23から入力された撮像画像データに基づき、撮像画像に含まれる複数の画像コードのそれぞれについて、画像コードを復号し、識別情報161を取得する。また、識別画像解析部24は、撮像制御部23から入力された撮像画像データと、取得した複数の識別情報161に基づき、プロジェクター100と投写対象における投写画像の位置との対応関係を示す対応情報を生成して取得する。本実施形態では、識別画像解析部24は、プロジェクター101〜103と投写領域A1〜A3に投写される投写画像の位置との対応関係を示す対応情報を生成して取得する。   The identification image analysis unit 24 acquires the identification information 161 by decoding the image code for each of the plurality of image codes included in the captured image based on the captured image data input from the imaging control unit 23. In addition, the identification image analysis unit 24 indicates correspondence information indicating a correspondence relationship between the projector 100 and the position of the projection image in the projection target based on the captured image data input from the imaging control unit 23 and the plurality of pieces of identification information 161 acquired. Generate and get. In the present embodiment, the identification image analysis unit 24 generates and acquires correspondence information indicating the correspondence between the projectors 101 to 103 and the positions of the projection images projected on the projection areas A1 to A3.

ところで、マルチプロジェクションシステム1において、それぞれのプロジェクター100が投写する投写画像の歪みや画質等の調整を行う際、プロジェクター101〜103とスクリーンSCにおける投写画像の位置との対応情報が必要となる。ここで、投写画像の位置とは、他のプロジェクターが投写する投写画像との相対的な位置を示す。また、投写画像の位置とは、投写面(本実施形態ではスクリーンSC)に投写される全ての投写画像のうち、プロジェクター101〜103が投写する投写画像の位置を示す。例えば、タブレット端末2により、プロジェクター101〜103が投写する投写画像のそれぞれについて、歪みや画質等の調整を行う際、タブレット端末2は、調整の対象となる投写画像を投写するプロジェクター100を制御する必要があり、この際、対応情報が必要となる。しかしながら、マルチプロジェクションシステム1において、多数のプロジェクター(例えば、プロジェクター101〜103)がある場合、プロジェクターとスクリーンSC上における投写画像の位置との対応付けが容易でない。特に、スクリーンSCへの投写に関与しないプロジェクターがマルチプロジェクションシステム1にある場合、スクリーンSC上への投写に関与するプロジェクター100と、当該プロジェクター100が投写する投写画像の位置との対応関係が一層煩雑になる。   By the way, in the multi-projection system 1, when adjusting the distortion and image quality of the projected images projected by the respective projectors 100, information on correspondence between the projectors 101 to 103 and the position of the projected image on the screen SC is required. Here, the position of the projected image indicates a relative position with respect to the projected image projected by another projector. Further, the position of the projected image indicates the position of the projected image projected by the projectors 101 to 103 among all the projected images projected on the projection plane (screen SC in the present embodiment). For example, when adjusting distortion, image quality, and the like for each of the projection images projected by the projectors 101 to 103 by the tablet terminal 2, the tablet terminal 2 controls the projector 100 that projects the projection image to be adjusted. In this case, correspondence information is required. However, in the multi-projection system 1, when there are a large number of projectors (for example, the projectors 101 to 103), it is not easy to associate the projectors with the positions of the projected images on the screen SC. In particular, when the multi-projection system 1 includes a projector that is not involved in the projection onto the screen SC, the correspondence between the projector 100 involved in the projection onto the screen SC and the position of the projection image projected by the projector 100 is further complicated. become.

そこで、本実施形態のマルチプロジェクションシステム1は、以下に示す動作を実行する。   Therefore, the multi-projection system 1 of the present embodiment executes the following operation.

図4は、マルチプロジェクションシステム1の動作を示すフローチャートである。図4において、(A)はタブレット端末2の動作を示し、(B)はプロジェクター100の動作を示す。   FIG. 4 is a flowchart showing the operation of the multi-projection system 1. 4A shows the operation of the tablet terminal 2, and FIG. 4B shows the operation of the projector 100.

ここで、図4に示すフローチャートの開始時点において、タブレット端末2は、アクセスポイントAPに接続しプロジェクター100と通信が可能な状態であるが、プロジェクター100を特定した通信ができない状態であることとする。   Here, at the start of the flowchart shown in FIG. 4, the tablet terminal 2 is connected to the access point AP and can communicate with the projector 100, but cannot communicate with the projector 100. .

タブレット端末2の端末通信制御部22は、ユーザーの操作に基づき、端末無線通信部40により、プロジェクター100に画像コードの投写を指示する指示情報を送信する(ステップSA1)。本実施形態の場合、端末通信制御部22は、端末無線通信部40により、アクセスポイントAPを介して、マルチプロジェクションシステム1が備えるプロジェクター101〜103に、指示情報を送信する。   Based on a user operation, the terminal communication control unit 22 of the tablet terminal 2 transmits instruction information for instructing the projector 100 to project an image code by the terminal wireless communication unit 40 (step SA1). In this embodiment, the terminal communication control unit 22 transmits instruction information to the projectors 101 to 103 included in the multi-projection system 1 through the access point AP by the terminal wireless communication unit 40.

プロジェクター100の通信制御部132は、通信部156により、指示情報を受信する(ステップSB1)。次いで、識別画像生成部133は、通信制御部132が指示情報を受信したことをトリガーとし、記憶部151が記憶する識別情報161を符号化して、画像コードを示す画像コードデータを生成する(ステップSB2)。   The communication control unit 132 of the projector 100 receives the instruction information through the communication unit 156 (step SB1). Next, the identification image generation unit 133 encodes the identification information 161 stored in the storage unit 151 using the reception of the instruction information by the communication control unit 132 as a trigger, and generates image code data indicating the image code (step). SB2).

次いで、投写制御部131は、識別画像生成部133が生成した画像コードデータに基づき、画像コードを投写部110により投写させる(ステップSB3)。前述した通り、本実施形態では、投写制御部131は、画像コードとしてQRコードを投写部110により投写させる。   Next, the projection control unit 131 causes the projection unit 110 to project an image code based on the image code data generated by the identification image generation unit 133 (step SB3). As described above, in the present embodiment, the projection control unit 131 causes the projection unit 110 to project a QR code as an image code.

図5は、QRコードの一例を示す図である。図5において、(A)は、プロジェクター101〜103によるQRコードの投写の一例を示す図である。   FIG. 5 is a diagram illustrating an example of a QR code. 5A is a diagram illustrating an example of QR code projection by the projectors 101 to 103. FIG.

図5の(A)に示すように、プロジェクター100は、タブレット端末2から指示情報を受信すると、対応する投写領域にQRコードを投写する。具体的には、プロジェクター101は、タブレット端末2から指示情報を受信すると、識別情報161を符号化してQRコードG1を示すQRコードデータを生成し、投写領域A1にQRコードG1を投写する。また、プロジェクター102は、タブレット端末2から指示情報を受信すると、識別情報161を符号化してQRコードG2を示すQRコードデータを生成し、投写領域A2にQRコードG2を投写する。また、プロジェクター103は、タブレット端末2から指示情報を受信すると、識別情報161を符号化してQRコードG3を示すQRコードデータを生成し、投写領域A3にQRコードG3を投写する。プロジェクター101が投写するQRコードG1は、プロジェクター101に関する識別情報161を含む。また、プロジェクター102が投写するQRコードG2は、プロジェクター102に関する識別情報161を含む。また、プロジェクター103が投写するQRコードG3は、プロジェクター103に関する識別情報161を含む。   As shown in FIG. 5A, when the projector 100 receives the instruction information from the tablet terminal 2, the projector 100 projects a QR code in the corresponding projection area. Specifically, when receiving the instruction information from the tablet terminal 2, the projector 101 encodes the identification information 161 to generate QR code data indicating the QR code G1, and projects the QR code G1 on the projection area A1. When the projector 102 receives the instruction information from the tablet terminal 2, the projector 102 encodes the identification information 161 to generate QR code data indicating the QR code G2, and projects the QR code G2 on the projection area A2. When the projector 103 receives the instruction information from the tablet terminal 2, the projector 103 encodes the identification information 161 to generate QR code data indicating the QR code G3, and projects the QR code G3 on the projection area A3. The QR code G1 projected by the projector 101 includes identification information 161 regarding the projector 101. Further, the QR code G2 projected by the projector 102 includes identification information 161 related to the projector 102. The QR code G3 projected by the projector 103 includes identification information 161 related to the projector 103.

図4に示すフローチャートの説明に戻り、プロジェクター100の投写制御部131が投写部110により画像コードを投写すると、タブレット端末2の撮像制御部23は、ユーザーの操作に基づき、カメラ61によって画像コードが投写されたスクリーンSCを撮像するか否かを判別する(ステップSA2)。すなわち、ユーザーがシャッターボタン等の操作により撮像を指示した場合に、撮像制御部23は、撮像を実行すると判別し(ステップSA2:YES)、カメラ61により当該スクリーンSCを撮像する(ステップSA3)。   Returning to the description of the flowchart shown in FIG. 4, when the projection control unit 131 of the projector 100 projects an image code by the projection unit 110, the imaging control unit 23 of the tablet terminal 2 receives the image code by the camera 61 based on a user operation. It is determined whether or not to image the projected screen SC (step SA2). That is, when the user gives an instruction for imaging by operating the shutter button or the like, the imaging control unit 23 determines that imaging is to be performed (step SA2: YES), and the screen 61 is imaged by the camera 61 (step SA3).

図5の(B)は、プロジェクター101〜103がQRコードを投写したスクリーンSC上をカメラ61により撮像した撮像画像SGの一例を示す図である。図5の(B)に示すように、撮像制御部23は、カメラ61により、QRコードG1〜G3が投写されたスクリーンSCを撮像する。   FIG. 5B is a diagram illustrating an example of a captured image SG obtained by the camera 61 capturing an image on the screen SC on which the projectors 101 to 103 project a QR code. As illustrated in FIG. 5B, the imaging control unit 23 uses the camera 61 to image the screen SC on which the QR codes G1 to G3 are projected.

撮像制御部23は、カメラ61により、複数の画像コードが投写されたスクリーンSCを撮像すると(ステップSA3)、当該スクリーンSCを撮像した撮像画像SGを示す撮像画像データを識別画像解析部24に出力する。識別画像解析部24は、当該撮像画像データに基づき、識別情報161を取得する(ステップSA4)。次いで、識別画像解析部24は、識別情報161を取得すると、取得した識別情報161に基づき、プロジェクター100と画像コードの位置との対応関係を示す対応情報を生成して取得する(ステップSA5)。   When the camera 61 images the screen SC on which a plurality of image codes are projected by the camera 61 (step SA3), the captured image data indicating the captured image SG obtained by imaging the screen SC is output to the identification image analysis unit 24. To do. The identification image analysis unit 24 acquires identification information 161 based on the captured image data (step SA4). Next, when the identification image analysis unit 24 acquires the identification information 161, the identification image analysis unit 24 generates and acquires correspondence information indicating the correspondence relationship between the projector 100 and the position of the image code based on the acquired identification information 161 (step SA5).

ここで、対応情報の生成について説明する。
識別画像解析部24は、画像コードとしてQRコードが投写される場合、QRコードの3つの隅にある四角のシンボルに基づき、撮像画像SGがQRコードを含んでいると判別する。本実施形態の場合、識別画像解析部24は、撮像画像SGが、QRコードG1〜G3の3つQRコードを含むと判別する。次いで、識別画像解析部24は、QRコードG1〜G3のそれぞれについて、QRコードを復号して識別情報161を取得する。つまり、識別画像解析部24は、QRコードG1を復号してプロジェクター101に関する識別情報161を取得する。また、識別画像解析部24は、QRコードG2を復号してプロジェクター102に関する識別情報161を取得する。また、識別画像解析部24は、QRコードG3を復号してプロジェクター103に関する識別情報161を取得する。
Here, generation of correspondence information will be described.
When the QR code is projected as the image code, the identification image analysis unit 24 determines that the captured image SG includes the QR code based on the square symbols at the three corners of the QR code. In the present embodiment, the identification image analysis unit 24 determines that the captured image SG includes three QR codes QR codes G1 to G3. Next, the identification image analysis unit 24 acquires the identification information 161 by decoding the QR code for each of the QR codes G1 to G3. That is, the identification image analysis unit 24 decodes the QR code G1 and acquires the identification information 161 related to the projector 101. Further, the identification image analysis unit 24 decodes the QR code G2 and acquires identification information 161 regarding the projector 102. Further, the identification image analysis unit 24 decodes the QR code G3 and acquires the identification information 161 related to the projector 103.

前述した通り、識別情報161は、IPアドレス情報や、MACアドレス情報、SSID情報等を含む。したがって、マルチプロジェクションシステム1は、タブレット端末2が、撮像画像SGが含む画像コードからプロジェクター100の識別情報161を取得するため、例えば、IPアドレス等の情報を、画像コードを利用してタブレット端末2に入力できる。本実施形態では、マルチプロジェクションシステム1は、タブレット端末2に、プロジェクター101〜103のそれぞれについて、例えば、IPアドレス等の情報を入力できる。   As described above, the identification information 161 includes IP address information, MAC address information, SSID information, and the like. Therefore, in the multi-projection system 1, since the tablet terminal 2 acquires the identification information 161 of the projector 100 from the image code included in the captured image SG, for example, the tablet terminal 2 uses information such as an IP address as the image code. Can be entered. In the present embodiment, the multi-projection system 1 can input information such as an IP address for each of the projectors 101 to 103 to the tablet terminal 2.

次いで、識別画像解析部24は、画像コードの位置を取得する。本実施形態では、識別画像解析部24は、QRコードG1〜G3の位置を取得する。   Next, the identification image analysis unit 24 acquires the position of the image code. In the present embodiment, the identification image analysis unit 24 acquires the positions of the QR codes G1 to G3.

識別画像解析部24は、撮像制御部23から撮像画像SGを示す撮像画像データを取得すると、所定の座標系に撮像画像データを展開する。次いで、識別画像解析部24は、当該撮像画像データに含まれる画像コードを特定する。画像コードがQRコードとして投写される場合、識別画像解析部24は、QRコードの3つの隅にある四角のシンボルに基づき、撮像画像データに含まれるQRコードを特定する。次いで、識別画像解析部24は、特定した画像コードの座標を特定する。識別画像解析部24は、撮像画像データが複数の画像コードを含む場合、各画像コードの座標を特定する。次いで、識別画像解析部24は、特定した各画像コードの座標に基づき、各画像コードについて、スクリーンSC上におけるそれぞれの画像コードと他の画像コードとの相対位置を取得する。本実施形態では、識別画像解析部24は、撮像画像SGに含まれるQRコードG1〜G3について、所定の座標系における各QRコードの座標を特定し、特定した座標に基づいて、スクリーンSC上におけるQRコードG1〜G3のそれぞれの相対位置を取得する。   When the identification image analysis unit 24 acquires the captured image data indicating the captured image SG from the imaging control unit 23, the identification image analysis unit 24 develops the captured image data in a predetermined coordinate system. Next, the identification image analysis unit 24 specifies an image code included in the captured image data. When the image code is projected as a QR code, the identification image analysis unit 24 identifies the QR code included in the captured image data based on the square symbols at the three corners of the QR code. Next, the identification image analysis unit 24 specifies the coordinates of the specified image code. When the captured image data includes a plurality of image codes, the identification image analysis unit 24 specifies the coordinates of each image code. Next, the identification image analysis unit 24 acquires the relative position of each image code and another image code on the screen SC for each image code based on the coordinates of each identified image code. In the present embodiment, the identification image analysis unit 24 identifies the coordinates of each QR code in a predetermined coordinate system for the QR codes G1 to G3 included in the captured image SG, and on the screen SC based on the identified coordinates. The relative positions of the QR codes G1 to G3 are acquired.

識別画像解析部24は、識別情報161、及び、画像コードの位置を取得すると、識別情報161と、画像コードの位置とを対応付ける。以下、画像コードに対応付ける識別情報161として、IPアドレス情報を例示する。
本実施形態の場合、識別画像解析部24は、プロジェクター101のIPアドレスを示すIPアドレス情報と、当該IPアドレス情報を取得したQRコードG1の位置と、を対応付け、対応付いた情報をプロジェクター101とQRコードG1の位置との対応情報として生成する。
また、識別画像解析部24は、プロジェクター102のIPアドレスを示すIPドレス情報と、当該IPアドレス情報を取得したQRコードG2の位置と、を対応付け、対応付いた情報をプロジェクター102とQRコードG2の位置との対応情報として生成する。
また、識別画像解析部24は、プロジェクター103のIPアドレスを示すIPアドレス情報と、当該IPアドレス情報を取得したQRコードG3の位置と、を対応付け、対応付いた情報をプロジェクター103とQRコードG3の位置との対応情報として生成する。
When the identification image analysis unit 24 acquires the identification information 161 and the position of the image code, the identification image 161 associates the identification information 161 with the position of the image code. Hereinafter, the IP address information is exemplified as the identification information 161 associated with the image code.
In the case of the present embodiment, the identification image analysis unit 24 associates the IP address information indicating the IP address of the projector 101 with the position of the QR code G1 from which the IP address information is acquired, and associates the associated information with the projector 101. And the correspondence information between the position of the QR code G1.
The identification image analysis unit 24 associates the IP address information indicating the IP address of the projector 102 with the position of the QR code G2 from which the IP address information is acquired, and associates the associated information with the projector 102 and the QR code G2. It generates as correspondence information with the position of.
Further, the identification image analysis unit 24 associates the IP address information indicating the IP address of the projector 103 with the position of the QR code G3 that acquired the IP address information, and associates the associated information with the projector 103 and the QR code G3. It generates as correspondence information with the position of.

なお、タブレット端末2のカメラ61が、スクリーンSC上の投写領域A1〜A3の全体を一度に撮像できない場合、複数回に分けて撮像を行ってもよい。このような状態は、例えば、カメラ61の画角が、投写領域A1〜A3の全体を撮像可能な画角より小さい場合や、タブレット端末2がスクリーンSCに近い場合に起こり得る。ユーザーが撮像を指示する操作、或いは事前の操作により、複数の撮像画像SGを合成する指示を行った場合、端末制御部20は、複数の撮像画像SGを取得する処理を行う。この場合、ユーザーがシャッターボタン等を操作する毎に、撮像制御部23がカメラ61を制御して撮像を行う。   Note that when the camera 61 of the tablet terminal 2 cannot capture the entire projection areas A1 to A3 on the screen SC at a time, the imaging may be performed in a plurality of times. Such a state may occur, for example, when the angle of view of the camera 61 is smaller than the angle of view capable of capturing the entire projection areas A1 to A3, or when the tablet terminal 2 is close to the screen SC. When the user gives an instruction to capture an image or gives an instruction to synthesize a plurality of captured images SG by a previous operation, the terminal control unit 20 performs a process of acquiring a plurality of captured images SG. In this case, every time the user operates the shutter button or the like, the imaging control unit 23 controls the camera 61 to perform imaging.

端末制御部20は、カメラ61により撮像を行う毎に、識別画像解析部24によって、撮像画像SGに含まれる画像コードを認識し、復号して、識別情報161を取得してもよい。この場合、識別画像解析部24は、取得した識別情報161を用いて、撮像画像毎に、対応情報を生成する。識別画像解析部24は、複数の撮像画像SGについて生成した対応情報を合成して、マルチプロジェクションシステム1の全体に対応する対応情報を生成する。この場合、識別画像解析部24は、それぞれの撮像画像SGから得られる識別情報161または画像コードの画像に基づき、撮像画像SGの画角(撮像範囲)が互いに重なり合う撮像画像SGを特定する。識別画像解析部24は、各撮像画像SGの画角の重なり合いを特定し、マルチプロジェクションシステム1全体における識別情報161の位置関係を求め、マルチプロジェクションシステム1の全体の対応情報を生成する。   The terminal control unit 20 may acquire the identification information 161 by recognizing and decoding the image code included in the captured image SG by the identification image analysis unit 24 every time the camera 61 captures an image. In this case, the identification image analysis unit 24 generates correspondence information for each captured image using the acquired identification information 161. The identification image analysis unit 24 combines correspondence information generated for the plurality of captured images SG to generate correspondence information corresponding to the entire multi-projection system 1. In this case, the identification image analysis unit 24 identifies the captured images SG in which the angles of view (imaging ranges) of the captured images SG overlap each other based on the identification information 161 obtained from each captured image SG or the image of the image code. The identification image analysis unit 24 identifies the overlapping of the angle of view of each captured image SG, obtains the positional relationship of the identification information 161 in the entire multi-projection system 1, and generates correspondence information of the entire multi-projection system 1.

また、識別画像解析部24は、複数の撮像画像SGを合成して1つの合成画像を生成し、この合成画像から画像コードを認識し、復号することにより、識別情報161を取得してもよい。この場合、識別画像解析部24は、複数の撮像画像SGを合成した合成画像から、1組の対応情報を生成すればよい。   The identification image analysis unit 24 may acquire the identification information 161 by combining a plurality of captured images SG to generate one composite image, recognizing and decoding the image code from the composite image. . In this case, the identification image analysis unit 24 may generate a set of correspondence information from a composite image obtained by combining a plurality of captured images SG.

また、識別画像解析部24は、撮像画像SGが含む画像コードから、プロジェクター101〜103の配置情報を生成してもよい。配置情報とは、プロジェクター100の配置関係を示す情報であり、例えば、自身の隣にどのプロジェクターが配置されるかを示す情報である。ここで、配置情報の生成について説明する。   Further, the identification image analysis unit 24 may generate arrangement information of the projectors 101 to 103 from the image code included in the captured image SG. The arrangement information is information indicating the arrangement relationship of the projector 100, for example, information indicating which projector is arranged next to itself. Here, generation of arrangement information will be described.

例えば、識別画像解析部24は、プロジェクター101について、特定した画像コードの座標に基づき、スクリーンSCを正面視した場合において、QRコードG1の右隣にQRコードG2が位置すると判別する。そして、識別画像解析部24は、プロジェクター101に関する対応情報とプロジェクター102に関する対応情報とに基づき、プロジェクター101の右隣にプロジェクター102が配置されることを示す配置情報を生成する。
また、例えば、識別画像解析部24は、プロジェクター102について、特定した画像コードの座標に基づき、スクリーンSCを正面視した場合において、QRコードG2の左隣にQRコードG1が位置し、右隣にQRコードG3が位置すると判別する。そして、識別画像解析部24は、プロジェクター101〜103のそれぞれに関する対応情報に基づき、プロジェクター102の左隣にプロジェクター101が配置され、右隣にプロジェクター103が配置されることを示す配置情報を生成する。
また、例えば、識別画像解析部24は、プロジェクター103について、特定した画像コードの座標に基づき、スクリーンSCを正面視した場合において、QRコードG3の左隣にQRコードG2が位置すると判別する。そして、識別画像解析部24は、プロジェクター102に関する対応情報とプロジェクター103に関する対応情報とに基づき、プロジェクター103の左隣にプロジェクター102が配置されることを示す配置情報を生成する。
For example, the identification image analysis unit 24 determines that the QR code G2 is located to the right of the QR code G1 when the screen SC is viewed from the front of the projector 101 based on the coordinates of the specified image code. Then, the identification image analysis unit 24 generates arrangement information indicating that the projector 102 is arranged on the right side of the projector 101 based on the correspondence information about the projector 101 and the correspondence information about the projector 102.
Further, for example, when the screen SC is viewed from the front of the projector 102 based on the coordinates of the specified image code, the identification image analysis unit 24 locates the QR code G1 on the left side of the QR code G2 and on the right side. It is determined that the QR code G3 is located. Then, the identification image analysis unit 24 generates arrangement information indicating that the projector 101 is arranged on the left side of the projector 102 and the projector 103 is arranged on the right side based on the correspondence information regarding each of the projectors 101 to 103. .
Further, for example, the identification image analysis unit 24 determines that the QR code G2 is located on the left side of the QR code G3 when the screen SC is viewed from the front with respect to the projector 103 based on the coordinates of the specified image code. Then, the identification image analysis unit 24 generates arrangement information indicating that the projector 102 is arranged on the left side of the projector 103 based on the correspondence information about the projector 102 and the correspondence information about the projector 103.

なお、配置情報の生成の方法については一例であり、上述した方法に限定されない。   Note that the method of generating the arrangement information is an example and is not limited to the method described above.

図4のフローチャートの説明に戻り、識別画像解析部24が、対応情報を生成して取得すると、端末制御部20は、識別情報161と対応情報とを出力する(ステップSA6)。これによって、マルチプロジェクションシステム1は、複数のプロジェクター100と投写画像の位置との対応に基づく処理を行うことができる。   Returning to the description of the flowchart of FIG. 4, when the identification image analysis unit 24 generates and acquires correspondence information, the terminal control unit 20 outputs the identification information 161 and the correspondence information (step SA6). Thereby, the multi-projection system 1 can perform processing based on the correspondence between the plurality of projectors 100 and the positions of the projected images.

ここで、複数のプロジェクター100と投写画像の位置との対応関係に基づく処理について、タブレット端末2により投写画像を調整する場合を例示して説明する。投写画像の調整としては、投写画像の位置を調整するレンズシフト調整や、台形の投写画像を適切な形に調整する台形歪み補正、湾曲する投写画像を適切な形に調整する湾曲補正、色むら補正、色合い補正等が挙げられる。また、マルチプロジェクションシステム1における投写画像の調整としては、エッジブレンディングや、格子状に配置されたポイントの調整により投写画像を補正するポイント補正、黒レベル補正が挙げられる。   Here, processing based on the correspondence between the plurality of projectors 100 and the positions of the projected images will be described by exemplifying a case where the projected image is adjusted by the tablet terminal 2. Adjustment of the projected image includes lens shift adjustment that adjusts the position of the projected image, trapezoidal distortion correction that adjusts the trapezoidal projected image to an appropriate shape, curvature correction that adjusts a curved projected image to an appropriate shape, and uneven color. Correction, hue correction, and the like. Further, examples of adjustment of the projected image in the multi-projection system 1 include edge blending, point correction for correcting the projected image by adjusting points arranged in a grid, and black level correction.

タブレット端末2により投写画像を調整する場合、端末制御部20の識別画像解析部24は、記憶部等に識別情報161と対応情報とを記憶し、識別情報161と対応情報とを表示制御部21に出力する。そして、表示制御部21は、入力された識別情報161と対応情報とに基づく情報を表示する。例えば、表示制御部21は、調整の対象となる投写画像を投写するプロジェクター100を選択する選択画面を表示部51により表示する。表示制御部21は、選択画面に、識別情報161に基づく情報として各プロジェクター100のIPアドレスを表示する。本実施形態の場合、表示制御部21は、選択画面にプロジェクター101〜103のそれぞれのIPアドレスを表示する。また、表示制御部21は、対応情報に基づく情報として、プロジェクター100を示す画像を選択可能に表示する。本実施形態の場合、表示制御部21は、プロジェクター101〜103のそれぞれについて、プロジェクター100を示す画像を選択可能に表示する。選択画面におけるプロジェクター100を示す画像の配置は、配置情報に基づき、配置される。つまり、本実施形態では、プロジェクター101を示す画像が選択画面の左に配置され、プロジェクター102を示す画像が選択画面の中央に配置され、プロジェクター103を示す画像が選択画面の右に配置される。   When adjusting the projected image by the tablet terminal 2, the identification image analysis unit 24 of the terminal control unit 20 stores the identification information 161 and the correspondence information in a storage unit or the like, and displays the identification information 161 and the correspondence information on the display control unit 21. Output to. Then, the display control unit 21 displays information based on the input identification information 161 and the correspondence information. For example, the display control unit 21 causes the display unit 51 to display a selection screen for selecting the projector 100 that projects the projection image to be adjusted. The display control unit 21 displays the IP address of each projector 100 as information based on the identification information 161 on the selection screen. In the case of this embodiment, the display control unit 21 displays the IP addresses of the projectors 101 to 103 on the selection screen. Moreover, the display control part 21 displays the image which shows the projector 100 so that selection is possible as information based on correspondence information. In the case of the present embodiment, the display control unit 21 displays an image indicating the projector 100 in a selectable manner for each of the projectors 101 to 103. The arrangement of the image showing the projector 100 on the selection screen is arranged based on the arrangement information. That is, in the present embodiment, an image showing the projector 101 is arranged on the left of the selection screen, an image showing the projector 102 is arranged in the center of the selection screen, and an image showing the projector 103 is arranged on the right of the selection screen.

なお、上述した選択画面の表示は一例であり、例えば、プロジェクター101〜103のそれぞれのIPアドレスを表示しない構成でもよい。   Note that the display of the selection screen described above is an example, and for example, a configuration in which the IP addresses of the projectors 101 to 103 are not displayed may be used.

表示制御部21は、選択画面において、1のプロジェクター100を示す画像が選択された場合、投写画像の調整を示す調整情報を選択可能に表示する。この場合、表示制御部21は、選択されたプロジェクター100を示す画像の色を、他のプロジェクター100を示す画像と異なる色で表示してもよい。これにより、ユーザーは、どのプロジェクター100を選択しているかを認識できる。次いで、表示した調整情報がユーザーによって選択された場合、調整の対象となるプロジェクター100の識別情報161に基づき、端末通信制御部22は、端末無線通信部40により、調整の対象となるプロジェクター100に、選択された調整情報が示す調整を指示する情報を送信する。   When an image showing one projector 100 is selected on the selection screen, the display control unit 21 displays adjustment information indicating adjustment of the projected image so as to be selectable. In this case, the display control unit 21 may display the color of the image showing the selected projector 100 in a color different from the image showing the other projector 100. Thereby, the user can recognize which projector 100 is selected. Next, when the displayed adjustment information is selected by the user, the terminal communication control unit 22 uses the terminal wireless communication unit 40 to change the projector 100 to be adjusted based on the identification information 161 of the projector 100 to be adjusted. , Information indicating the adjustment indicated by the selected adjustment information is transmitted.

本実施形態において、ユーザーが調整の対象として選択したプロジェクター100がプロジェクター101であり、選択された調整情報を示す調整が、台形歪み補正である場合、端末無線通信部40は、プロジェクター101のIPアドレスに基づき、台形歪み補正を指示する情報を、プロジェクター101に送信する。このように、タブレット端末2は、画像コードから取得した識別情報161がIPアドレスを含むため、スクリーンSCに投写するプロジェクター100を特定できる。   In the present embodiment, when the projector 100 selected as the adjustment target by the user is the projector 101 and the adjustment indicating the selected adjustment information is trapezoidal distortion correction, the terminal wireless communication unit 40 determines the IP address of the projector 101. Based on, information for instructing trapezoidal distortion correction is transmitted to the projector 101. Thus, since the identification information 161 acquired from the image code includes the IP address, the tablet terminal 2 can specify the projector 100 to be projected on the screen SC.

プロジェクター100は、投写画像の調整を指示する情報を受信すると、当該情報に基づく投写画像の調整を実行する。例えば、プロジェクター101が、タブレット端末2から台形歪み補正を指示する情報を受信すると、プロジェクター101は、投写画像について、台形歪み補正を実行する。   When the projector 100 receives information for instructing adjustment of a projection image, the projector 100 executes adjustment of the projection image based on the information. For example, when the projector 101 receives information for instructing keystone correction from the tablet terminal 2, the projector 101 performs keystone correction on the projected image.

このように、識別情報161と対応情報とに基づき、マルチプロジェクションシステム1は、タブレット端末2が、調整の対象となる投写画像を投写するプロジェクター100に調整の指示を示す情報を送信する。そのため、マルチプロジェクションシステム1は、タブレット端末2により、調整の対象となる投写画像について、当該投写画像を投写するプロジェクター100を制御して投写画像を調整できる。   As described above, based on the identification information 161 and the correspondence information, the multi-projection system 1 transmits information indicating an adjustment instruction to the projector 100 that projects the projection image to be adjusted by the tablet terminal 2. Therefore, the multi-projection system 1 can adjust the projection image of the projection image to be adjusted by controlling the projector 100 that projects the projection image with the tablet terminal 2.

識別情報161と対応情報との出力について、タブレット端末2の表示制御部21に出力し、表示部51が識別情報161と対応情報とに基づく情報を表示する場合を例示した。しかしながら、これら情報の出力については、上述したものに限定されない。例えば、タブレット端末2が、これら情報を画像供給装置3に送信する構成でもよい。本実施形態の場合、タブレット端末2の端末通信制御部22は、プロジェクター101〜103のそれぞれに関する識別情報161と対応情報とを、端末無線通信部40によりアクセスポイントAPを介して画像供給装置3に送信する。これにより、画像供給装置3は、識別情報161と対応情報とに基づき、複数のプロジェクター100と投写画像の位置との対応に基づく処理を実行できる。したがって、タブレット端末2と複数のプロジェクター100とが互いに通信しない構成であっても、マルチプロジェクションシステム1は、画像供給装置3により、例えば、投写画像の歪みや画質等の調整を、適切に実行できる。   The output of the identification information 161 and the correspondence information is output to the display control unit 21 of the tablet terminal 2, and the case where the display unit 51 displays information based on the identification information 161 and the correspondence information is illustrated. However, the output of these pieces of information is not limited to that described above. For example, the tablet terminal 2 may be configured to transmit such information to the image supply device 3. In the case of the present embodiment, the terminal communication control unit 22 of the tablet terminal 2 sends the identification information 161 and the correspondence information regarding each of the projectors 101 to 103 to the image supply device 3 via the access point AP by the terminal wireless communication unit 40. Send. Thereby, the image supply device 3 can execute processing based on the correspondence between the plurality of projectors 100 and the positions of the projection images based on the identification information 161 and the correspondence information. Therefore, even if the tablet terminal 2 and the plurality of projectors 100 do not communicate with each other, the multi-projection system 1 can appropriately execute, for example, adjustment of distortion and image quality of the projected image by the image supply device 3. .

また、タブレット端末2が、識別情報161と対応情報とを出力する場合を例示したが、生成した配置情報をプロジェクター100に出力してもよい。この場合、タブレット端末2の端末通信制御部22は、端末無線通信部40により、配置情報をプロジェクター100に送信する。本実施形態の場合、端末通信制御部22は、プロジェクター101に関する配置情報をプロジェクター101に送信し、プロジェクター102に関する配置情報をプロジェクター102に送信し、プロジェクター103に関する配置情報をプロジェクター103に送信する。これによって、マルチプロジェクションシステム1は、プロジェクター100が受信した配置情報に基づき、例えば、プロジェクター100同士の通信による投写画像の歪みや画質等を調整することができる。   Moreover, although the case where the tablet terminal 2 outputs the identification information 161 and the correspondence information is illustrated, the generated arrangement information may be output to the projector 100. In this case, the terminal communication control unit 22 of the tablet terminal 2 transmits the arrangement information to the projector 100 through the terminal wireless communication unit 40. In the case of this embodiment, the terminal communication control unit 22 transmits arrangement information regarding the projector 101 to the projector 101, transmits arrangement information regarding the projector 102 to the projector 102, and transmits arrangement information regarding the projector 103 to the projector 103. As a result, the multi-projection system 1 can adjust, for example, distortion and image quality of a projected image due to communication between the projectors 100 based on the arrangement information received by the projector 100.

以上、説明したように、本実施形態のマルチプロジェクションシステム1(画像投写システム)は、複数のプロジェクター100と、タブレット端末2(撮像装置、処理装置)と、を備え、複数のプロジェクター100からスクリーンSC(投写面)に投写画像を並べて投写するシステムである。プロジェクター100は、プロジェクター100を識別する識別情報161を記憶する記憶部151と、画像データに基づき画像を投写する投写部110と、記憶部151が記憶する識別情報161に基づき生成された画像コード(識別画像)を、投写部110により投写させる投写制御部131と、を備える。タブレット端末2は、複数のプロジェクター100のそれぞれが画像コードを投写したスクリーンSCをタブレット端末2(撮像装置)により撮像した撮像画像SGに含まれる複数の画像コードに基づいて、それぞれのプロジェクター100と、スクリーンSCにおける投写画像の位置との対応関係を示す対応情報を取得する端末制御部20(処理制御部)を備える。   As described above, the multi-projection system 1 (image projection system) of the present embodiment includes the plurality of projectors 100 and the tablet terminal 2 (imaging device, processing device). This is a system for projecting projected images side by side on a (projection plane). The projector 100 includes a storage unit 151 that stores identification information 161 for identifying the projector 100, a projection unit 110 that projects an image based on image data, and an image code (based on the identification information 161 stored in the storage unit 151). A projection control unit 131 that causes the projection unit 110 to project the identification image). The tablet terminal 2 includes each projector 100 based on a plurality of image codes included in a captured image SG obtained by capturing the screen SC on which each of the plurality of projectors 100 projects an image code with the tablet terminal 2 (imaging device). A terminal control unit 20 (processing control unit) that acquires correspondence information indicating a correspondence relationship with the position of the projected image on the screen SC is provided.

これにより、複数のプロジェクター100が投写する画像コードを撮像することにより、撮像した撮像画像SGに含まれる画像コードに基づいて、プロジェクター100とスクリーンSCにおける投写画像の位置との対応付けができる。したがって、マルチプロジェクションシステム1において、多数のプロジェクター100がある場合や、スクリーンSCへの投写に関与しないプロジェクター100がマルチプロジェクションシステム1にある場合等であっても、容易に、スクリーンSC上への投写するプロジェクター100と、当該プロジェクター100が投写する投写画像の位置との対応付けができる。
また、タブレット端末2が、対応情報を生成して取得する装置、及び、画像コードが投写されるスクリーンSCを撮像する装置として機能するため、これら装置を別体の装置として備える必要がなく、マルチプロジェクションシステム1の構成を簡易にできる。
Thus, by capturing the image code projected by the plurality of projectors 100, the projector 100 and the position of the projected image on the screen SC can be associated with each other based on the image code included in the captured image SG. Therefore, even when there are a large number of projectors 100 in the multi-projection system 1 or when there are projectors 100 that are not involved in projection onto the screen SC, the projection onto the screen SC can be easily performed. The projector 100 to be associated with the position of the projected image projected by the projector 100 can be associated.
Further, since the tablet terminal 2 functions as a device that generates and acquires correspondence information and a device that captures the screen SC on which the image code is projected, it is not necessary to provide these devices as separate devices. The configuration of the projection system 1 can be simplified.

また、画像コードは、情報を符号化して得られる画像コードである。タブレット端末2は、撮像画像SGに含まれる複数の画像コードを復号して情報を取得する。   The image code is an image code obtained by encoding information. The tablet terminal 2 acquires information by decoding a plurality of image codes included in the captured image SG.

これにより、タブレット端末2が、撮像画像SGに含まれる複数の画像コードから情報を取得することができる。従って、例えば、マルチプロジェクションシステム1は、プロジェクター100のIPアドレス等の情報を、画像コードを利用してタブレット端末2に入力できる。   Thereby, the tablet terminal 2 can acquire information from a plurality of image codes included in the captured image SG. Therefore, for example, the multi-projection system 1 can input information such as the IP address of the projector 100 to the tablet terminal 2 using the image code.

また、プロジェクター100は、通信部156(第1の通信部)を備え、タブレット端末2は、端末無線通信部40(第2の通信部)を備える。端末通信制御部22(処理制御部)は、撮像画像SGに含まれる複数の画像コードから取得した情報に基づき、端末無線通信部40によりプロジェクター100と通信する。   The projector 100 includes a communication unit 156 (first communication unit), and the tablet terminal 2 includes a terminal wireless communication unit 40 (second communication unit). The terminal communication control unit 22 (processing control unit) communicates with the projector 100 through the terminal wireless communication unit 40 based on information acquired from a plurality of image codes included in the captured image SG.

これにより、タブレット端末2が画像コードから取得した情報に基づき、プロジェクター100と通信できる。特に、IPアドレスに基づきプロジェクター100と通信するため、複数のプロジェクターを備えるマルチプロジェクションシステム1において、特定のプロジェクターと通信できる。   Thereby, the tablet terminal 2 can communicate with the projector 100 based on the information acquired from the image code. In particular, since communication with the projector 100 is performed based on the IP address, the multi-projection system 1 including a plurality of projectors can communicate with a specific projector.

また、端末制御部20の端末通信制御部22は、取得した対応情報を端末無線通信部40により、プロジェクター100と通信する画像供給装置3(外部装置)に送信する。   Further, the terminal communication control unit 22 of the terminal control unit 20 transmits the acquired correspondence information to the image supply device 3 (external device) that communicates with the projector 100 by the terminal wireless communication unit 40.

これにより、対応情報を画像供給装置3に送信するため、画像供給装置3が複数のプロジェクター100と投写画像の位置との対応に基づく処理を行うことができる。   Accordingly, since the correspondence information is transmitted to the image supply device 3, the image supply device 3 can perform processing based on the correspondence between the plurality of projectors 100 and the positions of the projection images.

また、端末制御部20の識別画像解析部24は、撮像画像SGに含まれる複数の画像コードから、プロジェクター100のIPアドレスを含む情報を取得する。   Further, the identification image analysis unit 24 of the terminal control unit 20 acquires information including the IP address of the projector 100 from a plurality of image codes included in the captured image SG.

これにより、タブレット端末2が複数の画像コードからプロジェクター100のIPアドレスを取得できるため、スクリーンSCに投写するプロジェクター100を特定できる。   Thereby, since the tablet terminal 2 can acquire the IP address of the projector 100 from a plurality of image codes, the projector 100 to be projected on the screen SC can be specified.

タブレット端末2は、複数のプロジェクター100がスクリーンSCに投写する投写画像を撮像する。タブレット端末2は、画像を撮像するカメラ61(撮像部)と、複数のプロジェクター100からプロジェクター100を識別する識別情報161に基づき生成された画像コードが複数投写されたスクリーンSCを、カメラ61により撮像した撮像画像SGに含まれる複数の画像コードに基づいて、それぞれのプロジェクター100と、スクリーンSCにおける投写画像の位置との対応関係を示す対応情報を取得する端末制御部20と、を備える。端末制御部20は、取得した対応情報と識別情報161とを出力する。   The tablet terminal 2 captures a projected image that the plurality of projectors 100 projects onto the screen SC. The tablet terminal 2 captures, by the camera 61, a camera 61 (imaging unit) that captures an image and a screen SC on which a plurality of image codes generated based on identification information 161 that identifies the projector 100 from a plurality of projectors 100 are projected. On the basis of a plurality of image codes included in the captured image SG, each projector 100 and a terminal control unit 20 that acquires correspondence information indicating a correspondence relationship between the positions of the projected images on the screen SC are provided. The terminal control unit 20 outputs the acquired correspondence information and identification information 161.

これにより、複数のプロジェクター100が投写する識別画像を撮像することにより、撮像した撮像画像SGに含まれる識別画像に基づいて、プロジェクター100とスクリーンSCにおける投写画像の位置との対応付けができる。また、タブレット端末2が対応情報と識別情報161と出力するため、マルチプロジェクションシステム1は、プロジェクター100とスクリーンSCにおける投写画像の位置との対応に基づく処理を実行できる。   Thus, by capturing the identification images projected by the plurality of projectors 100, the projector 100 can be associated with the position of the projected image on the screen SC based on the identification image included in the captured image SG. Further, since the tablet terminal 2 outputs the correspondence information and the identification information 161, the multi-projection system 1 can execute processing based on the correspondence between the projector 100 and the position of the projected image on the screen SC.

なお、上述した各実施形態は、本発明の好適な実施形態の一例を示すものであり、本発明の実施態様はこれに限定されるものでなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。   Each embodiment described above shows an example of a preferred embodiment of the present invention, and the embodiment of the present invention is not limited to this, and various modifications are possible within the scope of the present invention. Can be implemented.

例えば、上述した実施形態において、プロジェクター100が指示情報を受信して画像コードを投写する場合を例示したが、画像コードを投写するトリガーは、指示情報の受信に限定されない。例えば、ユーザーの操作パネル155やリモコンに対する操作をトリガーとして、プロジェクター100が画像コードを投写する構成でもよい。このような構成にすれば、離れた位置に設置されていて、同一ネットワークに接続されているもののタイリング表示には関与しないプロジェクターから画像コードが投写されてしまうことを回避することができる。   For example, in the above-described embodiment, the projector 100 receives the instruction information and projects the image code. However, the trigger for projecting the image code is not limited to the reception of the instruction information. For example, the projector 100 may be configured to project an image code using a user operation on the operation panel 155 or a remote control as a trigger. With such a configuration, it is possible to avoid projecting an image code from a projector that is installed at a remote location and is connected to the same network but is not involved in tiling display.

また、例えば、上述した実施形態において、タブレット端末2は、QRコードG1〜G3が投写されたスクリーンSCを撮像する構成を例示した。すなわち、タブレット端末2は、スクリーンSCに投写される画像コードが全て含まれる態様で撮像する構成を例示した。しかしながら、これに限定されず、少なくとも2つ以上の画像コードを含む態様で撮像する構成でもよい。これによって、画像コードが多数あり、一度に全ての画像コードを撮像できない場合であっても、タブレット端末2は、画像コードを投写するプロジェクター101〜103のそれぞれについて、対応情報を取得できる。また、撮像した撮像画像SGが少なくとも2つ以上の画像コードを含むため、タブレット端末2は、配置情報を生成できる。また、スクリーンSCに投写されている複数の画像コードを、その配置に応じて特定の順序で撮像するようにすれば、画像コードを1つずつ撮像した場合であっても配置情報を生成することができる。この場合、配置に関する情報(例えば、縦横の列数)については、ユーザーに入力させ、撮像する順序については、配置に応じて一意に定まるようにしてもよいし、ユーザーに指定させてもよい。   Further, for example, in the above-described embodiment, the tablet terminal 2 exemplifies a configuration that images the screen SC on which the QR codes G1 to G3 are projected. That is, the tablet terminal 2 exemplifies a configuration in which an image is captured in a mode in which all image codes projected on the screen SC are included. However, the present invention is not limited to this, and a configuration in which imaging is performed in a mode including at least two or more image codes may be employed. Thus, even when there are a large number of image codes and all of the image codes cannot be captured at once, the tablet terminal 2 can acquire correspondence information for each of the projectors 101 to 103 that projects the image code. Moreover, since the picked-up captured image SG includes at least two or more image codes, the tablet terminal 2 can generate arrangement information. Further, if a plurality of image codes projected on the screen SC are imaged in a specific order according to the arrangement, arrangement information is generated even when the image codes are imaged one by one. Can do. In this case, information regarding the arrangement (for example, the number of columns in the vertical and horizontal directions) may be input by the user, and the imaging order may be uniquely determined according to the arrangement, or may be specified by the user.

また、例えば、上述した実施形態において、識別情報161を含む画像として、画像コードを投写する場合を例示したが、これに限定されず、バーコードやイラスト等、タブレット端末2が認識し、識別情報161を取得できる画像であればよい。   Further, for example, in the above-described embodiment, the case where an image code is projected as an image including the identification information 161 is illustrated, but the present invention is not limited to this, and the tablet terminal 2 recognizes the identification information such as a barcode or an illustration. Any image that can acquire 161 may be used.

また、例えば、上述した実施形態において、マルチプロジェクションシステム1は、対応情報を生成して取得する装置、及び、画像コードが投写されるスクリーンSCを撮像する装置として機能するタブレット端末2を備える構成を例示した。しかしながら、マルチプロジェクションシステム1は、これら装置を別体の装置として備える構成でもよい。   Further, for example, in the above-described embodiment, the multi-projection system 1 includes a tablet terminal 2 that functions as a device that generates and acquires correspondence information and a device that captures the screen SC on which an image code is projected. Illustrated. However, the multi-projection system 1 may be configured to include these devices as separate devices.

また、例えば、上述した実施形態では、スクリーンSCの前方から投写するフロントプロジェクション型のプロジェクター101〜103を例示したが、本発明はこれに限定されない。例えば、スクリーンSCの背面側から投写するリアプロジェクション(背面投写)型のプロジェクター101〜103でもよい。   For example, in the above-described embodiment, the front projection type projectors 101 to 103 that project from the front of the screen SC are exemplified, but the present invention is not limited to this. For example, rear projection (rear projection) type projectors 101 to 103 that project from the rear side of the screen SC may be used.

また、例えば、上述した実施形態では、マルチプロジェクションシステム1が備えるプロジェクター100について、3台のプロジェクター100を例示したが、マルチプロジェクションシステム1の備えるプロジェクターの台数は、複数であれば任意である。また、プロジェクターの配置をスクリーンSCに対し横一列とする例を示したが、これに限定されず、例えば、縦一列に配置してもよし、縦横とも複数列に配置してもよい。   Further, for example, in the above-described embodiment, three projectors 100 are exemplified for the projector 100 included in the multi-projection system 1, but the number of projectors included in the multi-projection system 1 is arbitrary as long as it is plural. In addition, although an example in which the projectors are arranged in a horizontal row with respect to the screen SC has been shown, the present invention is not limited to this.

また、図2及び図3に示した各機能部は機能的構成を示すものであって、具体的な実装形態は特に限定されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上述した各実施形態においてソフトウェアで実現される機能の一部をハードウェアとしてもよく、或いは、ハードウェアで実現される機能の一部をハードウェアで実現してもよい。その他、マルチプロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Moreover, each function part shown in FIG.2 and FIG.3 shows a functional structure, and a specific mounting form is not specifically limited. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program. In each of the above-described embodiments, a part of functions realized by software may be hardware, or a part of functions realized by hardware may be realized by hardware. In addition, specific detailed configurations of other parts of the multi-projection system 1 can be arbitrarily changed without departing from the spirit of the present invention.

1…画像投写システム(マルチプロジェクションシステム)、2…タブレット端末(処理装置、撮像装置)、20…端末制御部(処理制御部)、22…端末通信制御部、23…撮像制御部、24…識別画像解析部、40…端末無線通信部(第2の通信部)、61…カメラ(撮像部)、101、102、103…プロジェクター、110…投写部、111…光源部、112…光変調装置、113…投写光学系、130…制御部、131…投写制御部、132…通信制御部、133…識別画像生成部、151…記憶部、156…通信部(第1の通信部)、3…画像供給装置(外部装置)、SC…スクリーン(投写面)。   DESCRIPTION OF SYMBOLS 1 ... Image projection system (multi-projection system), 2 ... Tablet terminal (processing apparatus, imaging device), 20 ... Terminal control part (processing control part), 22 ... Terminal communication control part, 23 ... Imaging control part, 24 ... Identification Image analysis unit, 40 ... terminal wireless communication unit (second communication unit), 61 ... camera (imaging unit), 101, 102, 103 ... projector, 110 ... projection unit, 111 ... light source unit, 112 ... light modulation device, DESCRIPTION OF SYMBOLS 113 ... Projection optical system, 130 ... Control part, 131 ... Projection control part, 132 ... Communication control part, 133 ... Identification image generation part, 151 ... Memory | storage part, 156 ... Communication part (1st communication part), 3 ... Image Supply device (external device), SC ... screen (projection surface).

Claims (9)

複数のプロジェクターと、撮像装置と、処理装置と、を備え、複数の前記プロジェクターから投写面に投写画像を並べて投写する画像投写システムであって、
前記プロジェクターは、
前記プロジェクターを識別する識別情報を記憶する記憶部と、
画像データに基づき画像を投写する投写部と、
前記記憶部が記憶する識別情報に基づき生成された識別画像を、前記投写部により投写させる投写制御部と、を備え、
前記処理装置は、
複数の前記プロジェクターのそれぞれが前記識別画像を投写した前記投写面を前記撮像装置により撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する処理制御部を備える、
ことを特徴とする画像投写システム。
An image projection system comprising a plurality of projectors, an imaging device, and a processing device, wherein the projected images are projected side by side on a projection surface from the plurality of projectors,
The projector is
A storage unit for storing identification information for identifying the projector;
A projection unit that projects an image based on image data;
A projection control unit that causes the projection unit to project an identification image generated based on the identification information stored in the storage unit,
The processor is
Each of the projectors and the projected image on the projection plane based on the plurality of the identification images included in the captured image obtained by capturing the projection surface on which the identification image is projected by the imaging device. A processing control unit for acquiring correspondence information indicating a correspondence relationship with the position of
An image projection system characterized by that.
前記処理装置は、撮像部を備え、前記撮像装置として機能する、
ことを特徴とする請求項1に記載の画像投写システム
The processing device includes an imaging unit and functions as the imaging device.
The image projection system according to claim 1, wherein
前記識別画像は、情報を符号化して得られる画像コードであり、
前記処理装置は、前記撮像画像に含まれる複数の前記画像コードを復号して情報を取得する、
ことを特徴とする請求項1又は2に記載の画像投写システム。
The identification image is an image code obtained by encoding information,
The processing device acquires information by decoding a plurality of the image codes included in the captured image;
The image projection system according to claim 1, wherein the image projection system is an image projection system.
前記プロジェクターは、第1の通信部を備え、
前記処理装置は、第2の通信部を備え、
前記処理制御部は、前記撮像画像に含まれる複数の前記画像コードから取得した情報に基づき、前記第2の通信部により前記プロジェクターと通信する、
ことを特徴とする請求項3に記載の画像投写システム。
The projector includes a first communication unit,
The processing device includes a second communication unit,
The processing control unit communicates with the projector by the second communication unit based on information acquired from a plurality of the image codes included in the captured image.
The image projection system according to claim 3.
前記処理制御部は、
取得した前記対応情報を前記第2の通信部により、前記プロジェクターと通信する外部装置に送信する、
ことを特徴とする請求項4に記載の画像投写システム。
The processing control unit
The acquired correspondence information is transmitted by the second communication unit to an external device that communicates with the projector.
The image projection system according to claim 4.
前記処理制御部は、
前記撮像画像に含まれる複数の前記画像コードから、前記プロジェクターのIPアドレスを含む情報を取得する
ことを特徴とする請求項4又は5に記載の画像投写システム。
The processing control unit
The image projection system according to claim 4, wherein information including an IP address of the projector is acquired from the plurality of image codes included in the captured image.
複数のプロジェクターと、撮像装置と、処理装置と、を備え、複数の前記プロジェクターから投写面に投写画像を並べて投写する画像投写システムの制御方法であって、
複数の前記プロジェクターにより、
それぞれの前記プロジェクターが記憶する前記プロジェクターを識別するための識別情報に基づき生成された識別画像を、前記投写面に投写し、
前記処理装置により、
複数の前記プロジェクターのそれぞれが前記識別画像を投写した前記投写面を前記撮像装置により撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する、
ことを特徴とする画像投写システムの制御方法。
A control method for an image projection system, comprising: a plurality of projectors; an imaging device; and a processing device, wherein the projection images are arranged and projected on a projection plane from the plurality of projectors.
With the plurality of projectors,
Projecting an identification image generated based on identification information for identifying the projector stored in each of the projectors onto the projection surface,
By the processing device,
Each of the projectors and the projected image on the projection plane based on the plurality of the identification images included in the captured image obtained by capturing the projection surface on which the identification image is projected by the imaging device. To obtain correspondence information indicating the correspondence with the position of
And a control method for the image projection system.
複数のプロジェクターから投写面に投写される投写画像を撮像する端末装置であって、
画像を撮像する撮像部と、
複数の前記プロジェクターから前記プロジェクターを識別する識別情報に基づき生成された識別画像が複数投写された前記投写面を、前記撮像部により撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する処理制御部と、を備える、
ことを特徴とする端末装置。
A terminal device that captures a projected image projected from a plurality of projectors onto a projection surface,
An imaging unit that captures an image;
Each of the projection planes on which a plurality of identification images generated based on identification information for identifying the projectors from a plurality of the projectors is projected, based on the plurality of identification images included in the captured image captured by the imaging unit, respectively. A processing control unit that acquires correspondence information indicating a correspondence relationship between the projector and the position of the projection image on the projection plane.
A terminal device characterized by that.
複数のプロジェクターから投写面に投写される投写画像を撮像する端末装置を制御する制御部により実行されるプログラムであって、
前記制御部を、
複数の前記プロジェクターから、前記プロジェクターを識別する識別情報に基づき生成された識別画像が複数投写された前記投写面を、撮像した撮像画像に含まれる複数の前記識別画像に基づいて、それぞれの前記プロジェクターと、前記投写面における前記投写画像の位置との対応関係を示す対応情報を取得する処理制御部として機能させる、
ことを特徴とするプログラム。
A program executed by a control unit that controls a terminal device that captures a projection image projected on a projection plane from a plurality of projectors,
The control unit
Each of the projectors based on the plurality of identification images included in the captured image obtained by projecting a plurality of the projection images on which the plurality of identification images generated based on the identification information for identifying the projectors are projected from the plurality of projectors. And a processing control unit that acquires correspondence information indicating a correspondence relationship between the projection image and the position of the projection image on the projection plane.
A program characterized by that.
JP2015251072A 2015-12-24 2015-12-24 Image projection system, control method for the same, terminal device, and program Pending JP2017116689A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015251072A JP2017116689A (en) 2015-12-24 2015-12-24 Image projection system, control method for the same, terminal device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015251072A JP2017116689A (en) 2015-12-24 2015-12-24 Image projection system, control method for the same, terminal device, and program

Publications (1)

Publication Number Publication Date
JP2017116689A true JP2017116689A (en) 2017-06-29

Family

ID=59234495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015251072A Pending JP2017116689A (en) 2015-12-24 2015-12-24 Image projection system, control method for the same, terminal device, and program

Country Status (1)

Country Link
JP (1) JP2017116689A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066161A1 (en) * 2016-10-03 2018-04-12 パナソニックIpマネジメント株式会社 Display device, control device, and multi-display system
US10261404B2 (en) 2017-01-11 2019-04-16 Seiko Epson Corporation Display device and control method
WO2020090110A1 (en) * 2018-11-02 2020-05-07 Necディスプレイソリューションズ株式会社 Display system and control method
JP2021156959A (en) * 2020-03-25 2021-10-07 パナソニックIpマネジメント株式会社 Image projection system, control method thereof, and program
CN114866749A (en) * 2021-02-03 2022-08-05 精工爱普生株式会社 Setting method and recording medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066161A1 (en) * 2016-10-03 2018-04-12 パナソニックIpマネジメント株式会社 Display device, control device, and multi-display system
US10261404B2 (en) 2017-01-11 2019-04-16 Seiko Epson Corporation Display device and control method
WO2020090110A1 (en) * 2018-11-02 2020-05-07 Necディスプレイソリューションズ株式会社 Display system and control method
US11294614B2 (en) 2018-11-02 2022-04-05 Sharp Nec Display Solutions, Ltd. Display system and control method
JP2021156959A (en) * 2020-03-25 2021-10-07 パナソニックIpマネジメント株式会社 Image projection system, control method thereof, and program
JP7361283B2 (en) 2020-03-25 2023-10-16 パナソニックIpマネジメント株式会社 Image projection system, control method for image projection system, and program
CN114866749A (en) * 2021-02-03 2022-08-05 精工爱普生株式会社 Setting method and recording medium
JP2022119093A (en) * 2021-02-03 2022-08-16 セイコーエプソン株式会社 Setting method, and program
JP7243748B2 (en) 2021-02-03 2023-03-22 セイコーエプソン株式会社 Setting method and program
CN114866749B (en) * 2021-02-03 2023-05-26 精工爱普生株式会社 Setting method and recording medium

Similar Documents

Publication Publication Date Title
US10341626B2 (en) Image projection system, projector, and control method for image projection system
JP6631181B2 (en) Image projection system, projector, and method of controlling image projection system
US10373589B2 (en) Display system, display device, controller, method of controlling display device, and program
US8794768B2 (en) Projection display device and method of controlling the same
US10681320B2 (en) Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium
US9992466B2 (en) Projector with calibration using a plurality of images
JP2017116689A (en) Image projection system, control method for the same, terminal device, and program
JP6624807B2 (en) Image projection device and program
US10431131B2 (en) Projector and control method for projector
US10768884B2 (en) Communication apparatus, display apparatus, control method thereof, storage medium, and display system for configuring multi-display settings
US10536627B2 (en) Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera
JP2015166893A (en) Position detector and control method of position detector
CN104347020A (en) Projector and projector control method
JP2017129728A (en) Image quality correcting method and image projecting system
JP2016180942A (en) Display device, display system, control method for display device, and program
US10839482B2 (en) Information processing apparatus, image display method, display system, and computer readable storage medium
US10891098B2 (en) Display device and method for controlling display device
JP6665543B2 (en) Projector and method of correcting captured image
JP6720549B2 (en) Projector and projector control method
JP6347126B2 (en) Projector and projector control method
JPWO2016147236A1 (en) Lighting device
JP2017118288A (en) Image projection system, projector, control method for projector, and program
JP2016163294A (en) Display device and display method
US20230171386A1 (en) Control method and display system
JP2017152765A (en) Projector and projector control method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906