JP2023117583A - Display method, projector, information processor, program, and projection system - Google Patents

Display method, projector, information processor, program, and projection system Download PDF

Info

Publication number
JP2023117583A
JP2023117583A JP2022020226A JP2022020226A JP2023117583A JP 2023117583 A JP2023117583 A JP 2023117583A JP 2022020226 A JP2022020226 A JP 2022020226A JP 2022020226 A JP2022020226 A JP 2022020226A JP 2023117583 A JP2023117583 A JP 2023117583A
Authority
JP
Japan
Prior art keywords
image
information
projection
photographing
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022020226A
Other languages
Japanese (ja)
Inventor
峻介 石沢
Shunsuke Ishizawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2022020226A priority Critical patent/JP2023117583A/en
Publication of JP2023117583A publication Critical patent/JP2023117583A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To display an image in a preferable mode when viewed from a position of an observer.SOLUTION: A display method includes: projecting projection light indicating a first image from a projection section provided at a first position to a first region to be projected; generating correction information for correcting the image projected from the projection section on the basis of first photographing information representing a photographing result obtained by photographing, from a second position, the first region to which the projection light indicating the first image is projected; and correcting the image projected from the projection section on the basis of the correction information. When the first image is corrected on the basis of the correction information, a degree of a difference between image information for displaying the first image and second photographing information representing a photographing result that indicates a second image obtained by correcting the first image on the basis of the correction information and that is obtained by photographing, from the second position, the first region to which the projection light is projected, is smaller than a degree of a difference between the image information for displaying the first image and the first photographing information.SELECTED DRAWING: Figure 12

Description

本発明は、表示方法、プロジェクター、情報処理装置、プログラムおよびプロジェクションシステムに関する。 The present invention relates to a display method, a projector, an information processing device, a program, and a projection system.

プロジェクターから投射される画像を補正することで、歪みや色ムラ等が小さくなるように表示する技術が開発されている。例えば、特許文献1には、センサーを用いてプロジェクターの傾斜角を検出し、当該傾斜角に基づいて、投射画像の形状を補正するプロジェクターが開示されている。 Techniques have been developed for correcting an image projected from a projector so as to reduce distortion, color unevenness, and the like. For example, Patent Literature 1 discloses a projector that detects the tilt angle of the projector using a sensor and corrects the shape of the projected image based on the tilt angle.

特開2021-144176号公報JP 2021-144176 A

特許文献1に係るプロジェクターは、投射される画像を、観察者の位置を考慮して補正することができない。このため、特許文献1に係るプロジェクターを使用した際に、投射された画像が観察者から見て好ましい態様で表示されないことがあった。 The projector according to Patent Literature 1 cannot correct the projected image in consideration of the position of the observer. For this reason, when using the projector according to Patent Document 1, the projected image may not be displayed in a preferred manner for the observer.

本発明に係る表示方法の一態様は、第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射することと、前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成することと、前記補正情報に基づいて、前記投射部から投射される画像を補正することと、を含み、前記補正情報に基づいて前記第1画像を補正する場合に、前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、ことを特徴とする。 One aspect of the display method according to the present invention includes: projecting projection light representing a first image from a projection unit provided at a first position onto a first area of a projection target; and displaying the first image. generating correction information for correcting an image projected from the projection unit based on first photographing information representing a photographing result of photographing the first area onto which the projection light is projected from a second position; correcting an image projected from the projection unit based on the correction information, wherein when correcting the first image based on the correction information, the first photographing information and the first The first area projected with the projection light representing a second image obtained by correcting the first image based on the correction information is projected from the second position, rather than the degree of difference from image information for displaying the image. It is characterized in that the degree of difference between second photographing information representing photographed photographing results and image information for displaying the first image is reduced.

本発明に係るプロジェクターの一態様は、第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射させる投射制御部と、前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、前記補正情報に基づいて、前記投射部から投射される画像を補正する補正部と、を備え、前記補正部が、前記補正情報に基づいて前記第1画像を補正する場合に、前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、前記補正情報に基づいて前記第1画像を補正した第2正画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、ことを特徴とする。 One aspect of the projector according to the present invention includes: a projection control unit configured to project projection light representing a first image from a projection unit provided at a first position onto a first region of a projection target; generation unit for generating correction information for correcting an image projected from the projection unit based on first imaging information representing a result of imaging the first area onto which the projection light shown is projected from a second position and a correcting unit that corrects the image projected from the projection unit based on the correction information, and when the correcting unit corrects the first image based on the correction information, the 1. The projection light indicating the second normal image obtained by correcting the first image based on the correction information is projected rather than the degree of difference between the photographing information and the image information for displaying the first image. It is characterized in that the degree of difference between the second photographing information representing the result of photographing the first area from the second position and the image information for displaying the first image is reduced.

本発明に係る情報処理装置の一態様は、プロジェクターが具備する投射部が、第1位置から投射対象の第1領域に対して第1画像を示す投射光を投射する場合に、前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、を備え、前記補正情報は、前記プロジェクターが、前記補正情報に基づいて前記第1画像を補正する場合に、前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度を小さくするための情報である、ことを特徴とする。 In one aspect of the information processing apparatus according to the present invention, when a projection unit included in a projector projects projection light representing a first image from a first position onto a first region of a projection target, the first region a generating unit that generates correction information for correcting an image projected from the projection unit based on first photographing information representing a photographing result of photographing from a second position, wherein the correction information is the When the projector corrects the first image based on the correction information, it is possible to correct the first image based on the correction information rather than the degree of difference between the first shooting information and image information for displaying the first image. second photographing information representing a photographing result obtained by photographing from the second position the first area projected with projection light representing a second image obtained by correcting the first image; It is characterized in that it is information for reducing the degree of difference from image information.

本発明に係るプログラムの一態様は、プロセッサーを、第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射させる投射制御部と、前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、前記補正情報に基づいて、前記投射部から投射される画像を補正する補正部と、して機能させ、前記補正部が、前記補正情報に基づいて前記第1画像を補正する場合に、前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、ことを特徴とする。 One aspect of the program according to the present invention is a projection control unit that causes a processor to project projection light representing a first image from a projection unit provided at a first position onto a first area of a projection target; Correction information for correcting the image projected from the projection unit is generated based on first photographing information representing a photographing result of photographing the first area projected with projection light representing one image from a second position. and a correction unit that corrects the image projected from the projection unit based on the correction information, and the correction unit corrects the first image based on the correction information. In this case, the degree of difference between the first photographing information and the image information for displaying the first image is more important than the amount of projected light indicating the second image obtained by correcting the first image based on the correction information. A degree of difference between second photographing information representing a photographing result of photographing the projected first area from the second position and image information for displaying the first image is reduced. .

本発明に係るプロジェクションシステムの一態様は、第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射させる投射制御部と、前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、前記補正情報に基づいて、前記投射部から投射される画像を補正する補正部と、を備え、前記補正部が、前記補正情報に基づいて前記第1画像を補正する場合に、前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、ことを特徴とする。 One aspect of the projection system according to the present invention includes a projection control unit for projecting projection light representing a first image from a projection unit provided at a first position onto a first region of a projection target; generating correction information for correcting the image projected from the projection unit based on the first imaging information representing the imaging result of imaging the first area projected with the projection light indicating from the second position and a correcting unit that corrects the image projected from the projection unit based on the correction information, and when the correcting unit corrects the first image based on the correction information, the The projection light indicating the second image obtained by correcting the first image based on the correction information is projected rather than the degree of difference between the first photographing information and the image information for displaying the first image. It is characterized in that the degree of difference between the second photographing information representing the result of photographing the first area from the second position and the image information for displaying the first image is reduced.

プロジェクター1が補正前の画像を投射する様子を示す模式図である。4 is a schematic diagram showing how the projector 1 projects an image before correction; FIG. プロジェクター1が補正後の画像を投射する様子を示す模式図である。4 is a schematic diagram showing how the projector 1 projects an image after correction. FIG. 第1実施形態に係るプロジェクター1の構成を示すブロック図である。1 is a block diagram showing the configuration of a projector 1 according to a first embodiment; FIG. パターン画像情報112の示す画像GS1を説明するための模式図である。FIG. 3 is a schematic diagram for explaining an image GS1 indicated by pattern image information 112; 第1撮影情報115の示す写真ImGD1を説明するための模式図である。FIG. 11 is a schematic diagram for explaining a photograph ImGD1 indicated by first photographing information 115; FIG. 補正情報117に基づいて補正されたパターン画像情報112の示す画像GD1を説明するための模式図である。3 is a schematic diagram for explaining an image GD1 indicated by pattern image information 112 corrected based on correction information 117; FIG. プロジェクター1の配置および投射部15の構成の一例を示す模式図である。2 is a schematic diagram showing an example of the arrangement of the projector 1 and the configuration of the projection unit 15; FIG. 補正前後の画像GDの形状および輝度分布を模式的に表した図である。FIG. 4 is a diagram schematically showing the shape and luminance distribution of an image GD before and after correction; 補正前後の画像GSの形状および明るさ分布を模式的に表した図である。It is the figure which represented typically the shape and brightness distribution of the image GS before and behind correction|amendment. 補正前後の画像GPの形状および明るさ分布を模式的に表した図である。FIG. 4 is a diagram schematically showing the shape and brightness distribution of an image GP before and after correction; 第1実施形態に係る投射光形成部151の構成を説明するためのブロック図である。3 is a block diagram for explaining the configuration of a projection light forming section 151 according to the first embodiment; FIG. 第1実施形態に係るプロジェクター1の動作について説明するためのフローチャートである。4 is a flowchart for explaining the operation of the projector 1 according to the first embodiment; 第2撮影情報116の示す写真Img2を説明するための模式図である。FIG. 11 is a schematic diagram for explaining a photograph Img2 indicated by second photographing information 116; 第2実施形態に係るプロジェクター1Aおよびスマートフォン2Aの構成を示すブロック図である。FIG. 10 is a block diagram showing configurations of a projector 1A and a smartphone 2A according to a second embodiment; 第2実施形態に係るスマートフォン2Aの動作について説明するためのフローチャートである。It is a flow chart for explaining operation of smart phone 2A concerning a 2nd embodiment. 変形例1に係る画像GD1Xを説明するための模式図である。FIG. 10 is a schematic diagram for explaining an image GD1X according to Modification 1; 投射光の投射対象に表示された画像の有するパターンと、画像の明るさとの関係を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the relationship between the pattern of an image displayed on a projection target of projection light and the brightness of the image; 変形例3に係る投射部15Bの構成を説明するための模式図である。FIG. 11 is a schematic diagram for explaining the configuration of a projection unit 15B according to Modification 3;

以下、添付図面を参照しながら、本発明に係る好適な実施形態を説明する。なお、図面において各部の寸法および縮尺は実際と異なる場合があり、理解を容易にするために模式的に示す部分もある。また、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られない。また、本明細書および特許請求の範囲において、数値範囲を「Φ~Ψ」(Φ、Ψはともに数値)を用いて表現する場合、その範囲は上限(Ψ)および下限(Φ)の数値を含むものである。また、上限(Ψ)および下限(Φ)の単位は同じである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the dimensions and scale of each part in the drawings may differ from the actual ones, and some parts are shown schematically for easy understanding. Moreover, the scope of the present invention is not limited to these forms unless there is a description to the effect that the present invention is particularly limited in the following description. In addition, in the present specification and claims, when a numerical range is expressed using "Φ ~ Ψ" (Φ and Ψ are both numerical values), the range is the upper limit (Ψ) and the lower limit (Φ). includes. Also, the units of the upper limit (Ψ) and the lower limit (Φ) are the same.

1.第1実施形態
第1実施形態では、プロジェクターから投射される画像を、撮影機能を備えるスマートフォンを用いて当該プロジェクターとは異なる位置から撮影し、取得した写真に基づいて当該プロジェクターから投射される画像を補正することで、観察者から見て好ましい態様で画像を表示するプロジェクターを例示して、本発明に係る表示方法、プロジェクター、情報処理装置、プログラムおよびプロジェクションシステムについて説明する。
1. First Embodiment In the first embodiment, an image projected from a projector is captured from a position different from that of the projector using a smartphone equipped with a shooting function, and the image projected from the projector is captured based on the captured photograph. A display method, a projector, an information processing device, a program, and a projection system according to the present invention will be described by exemplifying a projector that, by correcting, displays an image in a preferred mode for the observer.

なお、本実施形態において、「観察者から見て好ましい態様で画像を表示する」とは、例えば、
投射される画像、換言すれば、投射光を形成するための画像:画像α、
画像αを示す投射光が投射された被投射物ω上に表示される画像:画像β、
画像βを観察者の位置から撮影する際に取得される写真に記録された画像:画像γ、
画像αを補正することで得られる画像:画像δ、
画像δを示す投射光が投射された被投射物ω上に表示される画像:画像ε、
画像εを観察者の位置から撮影する際に取得される写真に記録された画像:画像ζ、
とした場合、画像αの表示態様と、画像ζの表示態様とが同様になるように、画像αを補正し、投射対象に画像εを表示することである。ここで、「画像αの表示態様と、画像ζの表示態様とが同様になる」とは、具体的には、画像αと、画像ζとが、同様の形状、模様、色および明るさ等で表示されることである。すなわち、画像αと、画像ζとの相違の程度が小さいほど、観察者から見て好ましい態様で表示されるといえる。
Note that, in the present embodiment, "displaying an image in a manner preferable to the observer" means, for example,
the image to be projected, in other words the image for forming the projected light: image α,
Image displayed on projected object ω onto which projection light representing image α is projected: image β,
The image recorded in the photograph acquired when the image β is taken from the observer's position: image γ,
Image obtained by correcting image α: image δ,
Image displayed on projected object ω onto which projection light representing image δ is projected: image ε,
The image recorded in the photograph acquired when the image ε is taken from the observer's position: image ζ,
, the image α is corrected so that the display mode of the image α and the display mode of the image ζ are the same, and the image ε is displayed on the projection target. Here, "the display mode of the image α and the display mode of the image ζ become similar" specifically means that the image α and the image ζ have the same shape, pattern, color, brightness, etc. is to be displayed in . That is, it can be said that the smaller the degree of difference between the image α and the image ζ, the more preferable the image is displayed for the observer.

1.1.プロジェクターおよびプロジェクションシステムの概要
図1および図2を参照しつつ、第1実施形態に係るプロジェクター1およびプロジェクションシステムSysの概要について説明する。図1は、プロジェクター1が補正前の画像を投射する様子を示す模式図である。また、図2は、プロジェクター1が補正後の画像を投射する様子を示す模式図である。第1実施形態に係るプロジェクションシステムSysは、プロジェクター1と、スマートフォン2とを備える。
本実施形態において、プロジェクター1は、壁面W1に対して、画像GSを表示するための画像光を投射する場合を想定する。なお、プロジェクター1は、壁面W1に限らず、壁面W2に対して画像光を投射してもよい。また、壁面W1は、一様に平坦な面として図示されるが、例えば、曲面部分や凹凸部分を含む面であってもよい。
図1および図2では、XYZ空間において、プロジェクター1は、壁面W1に投射光を投射可能な位置R1に配置される。スマートフォン2は、壁面W1を撮影可能な位置R2に配置される。壁面W1は、XY水平面に垂直でZおよびX軸方向に延び、壁面W2は、XY水平面に垂直でZおよびY軸方向に延びる。本実施形態では、プロジェクター1は、壁面W1に対して正対配置されるものとする。従って、プロジェクター1の光軸は、壁面W1に垂直とする。
1.1. Overview of Projector and Projection System An overview of the projector 1 and the projection system Sys according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a schematic diagram showing how the projector 1 projects an image before correction. FIG. 2 is a schematic diagram showing how the projector 1 projects the corrected image. A projection system Sys according to the first embodiment includes a projector 1 and a smartphone 2 .
In this embodiment, it is assumed that the projector 1 projects image light for displaying the image GS onto the wall surface W1. Note that the projector 1 may project the image light onto the wall surface W2 as well as the wall surface W1. Moreover, although the wall surface W1 is illustrated as a uniformly flat surface, it may be a surface including curved portions or uneven portions, for example.
1 and 2, in the XYZ space, the projector 1 is placed at a position R1 where projection light can be projected onto the wall surface W1. The smartphone 2 is placed at a position R2 where the wall surface W1 can be photographed. The wall surface W1 is perpendicular to the XY horizontal plane and extends in the Z and X axis directions, and the wall surface W2 is perpendicular to the XY horizontal plane and extends in the Z and Y axis directions. In this embodiment, the projector 1 is arranged to face the wall surface W1. Therefore, the optical axis of the projector 1 is perpendicular to the wall surface W1.

図1において、位置R1に設けられたプロジェクター1は、壁面W1の領域T1に対して投射光を投射することで、領域T1に画像GS1を表示する。画像GS1は、補正前の画像を示す投射光を投射することで、領域T1に表示される画像である。また、画像GS1は、パターンPS1を有する。スマートフォン2は、観察者からの操作に基づいて撮影部25を制御することで、画像GS1が表示された領域T1を含むように設定された撮影範囲Sを、位置R2から撮影する。そして、プロジェクター1は、スマートフォン2から、撮影範囲Sを位置R2から撮影した撮影結果を表す撮影情報114を取得する。 In FIG. 1, the projector 1 provided at the position R1 displays an image GS1 on the area T1 of the wall surface W1 by projecting projection light onto the area T1. The image GS1 is an image displayed in the region T1 by projecting projection light representing an image before correction. The image GS1 also has a pattern PS1. The smartphone 2 controls the photographing unit 25 based on the operation of the observer to photograph the photographing range S set to include the region T1 where the image GS1 is displayed from the position R2. Then, the projector 1 acquires the photographing information 114 representing the result of photographing the photographing range S from the position R2 from the smartphone 2 .

図2において、位置R1に設けられたプロジェクター1は、壁面W1の領域T1に対して投射光を投射することで、領域T1に画像GS2を表示する。画像GS2は、スマートフォン2から取得した撮影情報114に基づいて補正された画像を示す投射光を投射することで、領域T1に表示される画像である。また、画像GS2は、パターンPS2を有する。 In FIG. 2, the projector 1 provided at the position R1 displays an image GS2 on the area T1 of the wall surface W1 by projecting projection light onto the area T1. The image GS2 is an image displayed in the area T1 by projecting projection light representing an image corrected based on the imaging information 114 acquired from the smartphone 2 . The image GS2 also has a pattern PS2.

なお、本明細書において、画像GSは、投射光の投射対象に表示された画像の総称であり、画像GS1、画像GS2、および後述する画像GS3を一例とする。ここで、投射光の投射対象とは、例えば、壁面W1が挙げられる。 In this specification, the image GS is a general term for images displayed on a projection target of projection light, and an image GS1, an image GS2, and an image GS3, which will be described later, are taken as examples. Here, the projection target of the projection light includes, for example, the wall surface W1.

1.2.プロジェクターの構成および機能
以下、図3~図13を参照しつつ、第1実施形態に係るプロジェクター1の構成および機能について説明する。各図のX軸、Y軸およびZ軸は、図1および図2のX軸、Y軸およびZ軸に対応する。
1.2. Configuration and Functions of Projector The configuration and functions of the projector 1 according to the first embodiment will be described below with reference to FIGS. 3 to 13. FIG. The X-, Y- and Z-axes in each figure correspond to the X-, Y- and Z-axes in FIGS.

図3は、第1実施形態に係るプロジェクター1の構成を示すブロック図である。プロジェクター1は、各種情報を記憶する記憶部11と、プロジェクター1の動作を制御する制御部12と、スマートフォン2、外部記憶装置または外部サーバー等との通信を実行する通信部13と、プロジェクター1の使用者からの入力操作を受け付ける操作部14と、複数の発光素子を有し、当該複数の発光素子から投射光を投射することで投射光の投射対象に画像を表示する投射部15とを備える。また図3では図示省略するが、プロジェクター1は、表示制御回路16を備える。表示制御回路16の説明については後述する。 FIG. 3 is a block diagram showing the configuration of the projector 1 according to the first embodiment. The projector 1 includes a storage unit 11 that stores various information, a control unit 12 that controls the operation of the projector 1, a communication unit 13 that performs communication with the smartphone 2, an external storage device, an external server, or the like, and the projector 1. An operation unit 14 that receives an input operation from a user, and a projection unit 15 that has a plurality of light emitting elements and projects light from the plurality of light emitting elements to display an image on a projection target of the projection light. . Although not shown in FIG. 3 , the projector 1 also includes a display control circuit 16 . A description of the display control circuit 16 will be given later.

記憶部11は、例えば、RAM等の揮発性メモリーおよびROM等の不揮発性メモリーを含んで構成される。ここで、RAMとは、Random Access Memoryの略称である。また、ROMとは、Read Only Memoryの略称である。 The storage unit 11 includes, for example, a volatile memory such as RAM and a nonvolatile memory such as ROM. Here, RAM is an abbreviation for Random Access Memory. Also, ROM is an abbreviation for Read Only Memory.

記憶部11の有する不揮発性メモリーは、プロジェクター1の動作を規定するプログラム110と、画像GSを表示する際に投射される投射光を形成するための画像情報111と、スマートフォン2から取得された撮影情報114と、プロジェクター1から投射される画像を補正するための補正情報117とを記憶する。画像情報111は、パターン画像情報112と、所定画像情報113とを含む。撮影情報114は、第1撮影情報115と、第2撮影情報116とを含む。補正情報117は、パターン情報118と、輝度分布情報119とを含む。
また、記憶部11の有する揮発性メモリーは、プログラム110を実行する際のワークエリアとして制御部12によって利用される。
The non-volatile memory of the storage unit 11 stores a program 110 that defines the operation of the projector 1, image information 111 for forming projection light projected when displaying the image GS, and a photographing acquired from the smartphone 2. Information 114 and correction information 117 for correcting an image projected from the projector 1 are stored. The image information 111 includes pattern image information 112 and predetermined image information 113 . The imaging information 114 includes first imaging information 115 and second imaging information 116 . The correction information 117 includes pattern information 118 and luminance distribution information 119 .
Also, the volatile memory of the storage unit 11 is used by the control unit 12 as a work area when executing the program 110 .

なお、記憶部11の一部または全部は、外部記憶装置または外部サーバー等に設けてもよい。また、記憶部11に記憶される各種情報の一部または全部は、予め記憶部11に記憶されるものであってもよいし、通信部13を通じて、スマートフォン2、外部記憶装置または外部サーバー等から取得されるものであってもよい。 Part or all of the storage unit 11 may be provided in an external storage device, an external server, or the like. Some or all of the various information stored in the storage unit 11 may be stored in the storage unit 11 in advance, or may be sent from the smartphone 2, an external storage device, an external server, or the like through the communication unit 13. It may be acquired.

制御部12は、1または複数のCPUを含んで構成される。但し、制御部12は、CPUの代わりに、または、CPUに加えて、FPGA等のプログラマブルロジックデバイスを備えるものでもよい。ここで、CPUとはCentral Processing Unitの略称であり、FPGAとはField-Programmable Gate Arrayの略称である。 The control unit 12 includes one or more CPUs. However, the control unit 12 may be provided with a programmable logic device such as FPGA instead of or in addition to the CPU. Here, CPU is an abbreviation for Central Processing Unit, and FPGA is an abbreviation for Field-Programmable Gate Array.

制御部12は、制御部12が有するCPU等がプログラム110を実行し、プログラム110に従って動作することで、図3に示す投射画像取得部120、投射制御部121、撮影情報取得部122、補正情報生成部123および画像処理部124として機能する。 The control unit 12 executes the program 110 by the CPU or the like of the control unit 12 and operates according to the program 110 to obtain the projection image acquisition unit 120, the projection control unit 121, the shooting information acquisition unit 122, and the correction information shown in FIG. It functions as a generator 123 and an image processor 124 .

投射画像取得部120は、通信部13を制御することで、プロジェクター1と通信可能に接続されたパーソナルコンピューター等の外部端末から、画像情報111を取得する。また、投射画像取得部120は、取得した画像情報111を記憶部11に記憶させる。本実施形態において、画像取得部120は、パターン画像情報112と、所定画像情報113とを取得する。そして、画像取得部120は、取得したパターン画像情報112および所定画像情報113を記憶部11に記憶させる。 The projection image acquisition unit 120 acquires the image information 111 from an external terminal such as a personal computer communicably connected to the projector 1 by controlling the communication unit 13 . Also, the projection image acquisition unit 120 causes the storage unit 11 to store the acquired image information 111 . In this embodiment, the image acquisition unit 120 acquires pattern image information 112 and predetermined image information 113 . Then, the image acquiring section 120 causes the storage section 11 to store the acquired pattern image information 112 and predetermined image information 113 .

図4は、パターン画像情報112の示す画像GD1を説明するための模式図である。画像GD1は、画像GS1を表示する際に投射される投射光を形成するための画像である。換言すれば、画像GD1を示す投射光が投射された領域T1には、画像G2が表示される。すなわち、画像G2は、画像GD1を壁面W1の領域T1に投射することで表示された画像である。本実施形態において、画像GD1は、長方形の輪郭を有する画像である。また、画像GD1は、パターンPD1を有する画像である。 FIG. 4 is a schematic diagram for explaining the image GD1 indicated by the pattern image information 112. As shown in FIG. The image GD1 is an image for forming projection light projected when displaying the image GS1. In other words, the image G2 is displayed in the region T1 onto which the projection light representing the image GD1 is projected. That is, the image G2 is an image displayed by projecting the image GD1 onto the area T1 of the wall surface W1. In this embodiment, the image GD1 is an image with a rectangular outline. Also, the image GD1 is an image having the pattern PD1.

なお、本明細書において、画像情報111の示す画像を、画像GDと総称する。すなわち、画像GDは、画像GSを表示する投射光を形成するための画像である。画像GD1は、画像GDの一例である。 In this specification, the image indicated by the image information 111 is collectively referred to as image GD. That is, the image GD is an image for forming projection light for displaying the image GS. Image GD1 is an example of image GD.

投射制御部121は、投射部15を制御することで、壁面W1の領域T1に対して、画像GSを表示するための投射光を投射させる。例えば、投射制御部121は、壁面W1の領域T1に対して、画像GD1を示す投射光を投射させることで、画像GS1を表示する。また、投射制御部121は、壁面W1の領域T1に対して、後述する画像GD2を示す投射光を投射させることで、画像GS2を表示する。 The projection control unit 121 controls the projection unit 15 to project the projection light for displaying the image GS onto the area T1 of the wall surface W1. For example, the projection control unit 121 displays the image GS1 by projecting projection light representing the image GD1 onto the area T1 of the wall surface W1. Further, the projection control unit 121 displays an image GS2 by projecting projection light representing an image GD2, which will be described later, onto the area T1 of the wall surface W1.

撮影情報取得部122は、通信部13を制御することで、プロジェクター1と通信可能に接続されたスマートフォン2から、画像GSが表示された壁面W1を位置R2から撮影した撮影結果を表す撮影情報114を取得する。また、撮影情報取得部122は、取得した撮影情報114を記憶部11に記憶させる。 The photographing information acquisition unit 122 controls the communication unit 13 to acquire photographing information 114 representing the photographing result of photographing the wall surface W1 on which the image GS is displayed from the position R2 from the smartphone 2 communicably connected to the projector 1. to get Further, the imaging information acquisition unit 122 causes the storage unit 11 to store the acquired imaging information 114 .

本実施形態において、撮影情報取得部122は、第1撮影情報115と、第2撮影情報116とを取得する。そして、撮影情報取得部122は、取得した第1撮影情報115および第2撮影情報116を記憶部11に記憶させる。 In this embodiment, the imaging information acquisition unit 122 acquires the first imaging information 115 and the second imaging information 116 . Then, the imaging information acquisition unit 122 causes the storage unit 11 to store the acquired first imaging information 115 and second imaging information 116 .

第1撮影情報115は、撮影情報取得部122がスマートフォン2から取得した、画像GS1が表示された壁面W1の領域T1を観察者の位置R2から撮影した撮影結果を表す情報である。すなわち、第1撮影情報115は、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す画像データである。また、第2撮影情報116は、撮影情報取得部122がスマートフォン2から取得した、画像GS2が表示された壁面W1の領域T1を観察者の位置R2から撮影した撮影結果を表す情報である。 The first photographing information 115 is information representing the result of photographing the region T1 of the wall surface W1 displaying the image GS1 from the observer's position R2, which is obtained by the photographing information obtaining unit 122 from the smartphone 2 . That is, the first photographing information 115 is image data representing the result of photographing the region T1 onto which the projection light representing the image GD1 is projected from the position R2. The second photographing information 116 is information representing the result of photographing the area T1 of the wall surface W1 displaying the image GS2 from the observer's position R2, which is obtained by the photographing information obtaining unit 122 from the smartphone 2 .

図5は、第1撮影情報115の示す写真Img1を説明するための模式図である。写真Img1には、画像GP1が含まれる。画像GP1は、画像GD1を示す投射光が投射された領域T1に表示された画像GS1を、観察者の位置R2から撮影した際に取得された写真Img1に記録される画像である。本実施形態において、画像GP1は、長方形とは異なる形状の輪郭を有する画像として、写真Img1に記録される。また、写真Img1に含まれる画像GP1は、パターンPP1を有する。パターンPP1は、領域T1に表示された画像GS1の有するパターンPS1を、観察者の位置R2から撮影することで、写真Img1に記録される。なお、パターンPS2は画像GD1の有するパターンPD1が領域T1に表示されたものであることから、パターンPP1は、パターンPD1と対応する。 FIG. 5 is a schematic diagram for explaining the photograph Img1 indicated by the first photographing information 115. As shown in FIG. Photo Img1 includes image GP1. The image GP1 is an image recorded in the photograph Img1 obtained when the image GS1 displayed in the area T1 projected with the projection light representing the image GD1 is photographed from the observer's position R2. In this embodiment, the image GP1 is recorded in the photograph Img1 as an image having a contour with a shape different from a rectangle. Also, the image GP1 included in the photograph Img1 has a pattern PP1. The pattern PP1 is recorded in the photograph Img1 by photographing the pattern PS1 of the image GS1 displayed in the area T1 from the observer's position R2. Since the pattern PS2 is the pattern PD1 of the image GD1 displayed in the area T1, the pattern PP1 corresponds to the pattern PD1.

なお、本明細書において、撮影情報114の示す写真に含まれる画像を、画像GPと総称する。本実施形態では、画像GPは、投射光の投射対象に表示された画像GSを、観察者の位置から撮影した際に、取得された写真に記録された画像である。画像GP1は、画像GPの一例である。ここで、観察者の位置とは、例えば、位置R2が挙げられる。 In this specification, the images included in the photograph indicated by the photographing information 114 are collectively referred to as images GP. In this embodiment, the image GP is an image recorded in a photograph obtained when the image GS displayed on the projection target of the projection light is photographed from the observer's position. Image GP1 is an example of image GP. Here, the observer's position includes, for example, the position R2.

補正情報生成部123は、撮影情報114に基づいて、投射部15から投射される画像を補正するための補正情報117を生成する。本実施形態において、補正情報生成部123は、第1撮影情報115と、パターン画像情報112との相違の程度に基づいて、補正情報117を生成する。また、前述の通り、補正情報117は、パターン情報118と、輝度分布情報119とを含む。 The correction information generation unit 123 generates correction information 117 for correcting the image projected from the projection unit 15 based on the shooting information 114 . In this embodiment, the correction information generator 123 generates the correction information 117 based on the degree of difference between the first imaging information 115 and the pattern image information 112 . Also, as described above, the correction information 117 includes pattern information 118 and luminance distribution information 119 .

パターン情報118は、画像GPの有するパターンの形状に関する情報である。具体的には、パターン情報118は、画像GPの有するパターンの形状と、画像GDの有するパターンの形状との相違の程度に基づいて得られる情報である。本実施形態において、パターン情報118は、画像GP1の有するパターンPP1と、画像GD1の有するパターンPD1との相違の程度に基づいて得られる情報である。 The pattern information 118 is information about the shape of the pattern of the image GP. Specifically, the pattern information 118 is information obtained based on the degree of difference between the pattern shape of the image GP and the pattern shape of the image GD. In this embodiment, the pattern information 118 is information obtained based on the degree of difference between the pattern PP1 of the image GP1 and the pattern PD1 of the image GD1.

輝度分布情報119は、画像GPに含まれる複数の画素の各々の明るさに関する情報である。具体的には、輝度分布情報119は、画像GPにおける明るさの分布と、画像GDにおける輝度の分布との相違の程度に基づいて得られる情報である。本実施形態において、輝度分布情報119は、画像GP1に含まれる複数の画素の各々の明るさに関する情報であって、画像GP1における明るさの分布と、画像GD1における輝度の分布との相違の程度に基づいて得られる情報である。 The luminance distribution information 119 is information regarding the brightness of each of the plurality of pixels included in the image GP. Specifically, the brightness distribution information 119 is information obtained based on the degree of difference between the brightness distribution in the image GP and the brightness distribution in the image GD. In this embodiment, the luminance distribution information 119 is information about the brightness of each of the plurality of pixels included in the image GP1, and is the degree of difference between the brightness distribution in the image GP1 and the brightness distribution in the image GD1. It is information obtained based on

画像処理部124は、補正情報117に基づいて、投射部15から投射される画像GDを補正する。本実施形態において、画像処理部124は、補正情報117に基づいて、画像GD1を補正する。具体的には、画像処理部124は、輝度分布情報119に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正することと、パターン情報118に基づいて、画像GD1の有するパターンPP1の形状を補正することとを実行する。輝度分布情報119に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正することは、換言すれば、輝度分布情報119に基づいて、画像GS2を表示する際に複数の発光素子の各々から投射される光の明るさを補正することである。また、補正情報117に基づいて、画像GD1を補正することは、換言すれば、補正情報117に基づいて、画像GD1を表すパターン画像情報112を補正することである。なお、補正情報117に基づいて補正されたパターン画像情報112を、補正画像情報JGCと称することがある。また、画像処理部124は、補正情報117に基づいて、所定画像情報113の示す画像を補正してもよい。 The image processing section 124 corrects the image GD projected from the projection section 15 based on the correction information 117 . In this embodiment, the image processing unit 124 corrects the image GD1 based on the correction information 117. FIG. Specifically, based on the luminance distribution information 119, the image processing unit 124 corrects the luminance of each of the plurality of pixels included in the image GD1, and based on the pattern information 118, corrects the pattern PP1 of the image GD1. and correcting the shape of the Correcting the luminance of each of the plurality of pixels included in the image GD1 based on the luminance distribution information 119 is, in other words, based on the luminance distribution information 119 to correct the luminance of the plurality of light emitting elements when displaying the image GS2. It is to correct the brightness of the light projected from each. Correcting the image GD1 based on the correction information 117 is, in other words, correcting the pattern image information 112 representing the image GD1 based on the correction information 117 . Note that the pattern image information 112 corrected based on the correction information 117 may be referred to as corrected image information JGC. Also, the image processing unit 124 may correct the image indicated by the predetermined image information 113 based on the correction information 117 .

図6は、補正情報117に基づいて補正されたパターン画像情報112の示す画像GD2を説明するための模式図である。画像GD2は、画像GS2を表示する際に投射される投射光を形成するための画像である。換言すれば、画像GD2を示す投射光が投射された領域T1には、画像GS2が表示される。すなわち、画像GS2は、画像GD2を壁面W1の領域T1に投射することで表示された画像である。本実施形態において、画像GD2は、パターンPD2を有する画像である。パターンPD2は、パターン情報118に基づいて、画像GD1の有するパターンPD1の形状を補正することで得られる。また、画像GD2に含まれる複数の画素の各々の輝度は、輝度分布情報119に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正することで得られる。なお、画像GD2は、補正画像情報JGCの示す画像であるということがある。 FIG. 6 is a schematic diagram for explaining the image GD2 indicated by the pattern image information 112 corrected based on the correction information 117. As shown in FIG. The image GD2 is an image for forming projection light projected when displaying the image GS2. In other words, the image GS2 is displayed in the region T1 onto which the projection light representing the image GD2 is projected. That is, the image GS2 is an image displayed by projecting the image GD2 onto the area T1 of the wall surface W1. In this embodiment, the image GD2 is an image having the pattern PD2. The pattern PD2 is obtained by correcting the shape of the pattern PD1 of the image GD1 based on the pattern information 118. FIG. Also, the brightness of each of the plurality of pixels included in the image GD2 is obtained by correcting the brightness of each of the plurality of pixels included in the image GD1 based on the brightness distribution information 119. FIG. Note that the image GD2 may be an image indicated by the corrected image information JGC.

通信部13は、例えば、コネクターおよびインターフェース回路を有するインターフェース基板を含み、スマートフォン2、外部記憶装置または外部サーバー等から各種情報を受信する機能と、スマートフォン2、外部記憶装置または外部サーバー等へ各種情報を送信する機能とを有する。 The communication unit 13 includes, for example, an interface board having a connector and an interface circuit, and has a function of receiving various information from the smartphone 2, an external storage device, an external server, etc., and various information to the smartphone 2, an external storage device, an external server, etc. and a function to transmit

本実施形態において、通信部13は、不図示のパーソナルコンピューターと通信可能に接続され、当該パーソナルコンピューターから画像情報111を取得する場合を想定する。なお、画像情報111は、予め記憶部11に記憶されるものでもよい。また、本実施形態において、通信部13は、例えば、無線通信を利用するローカルエリアネットワーク等を介してスマートフォン2と通信可能に接続され、スマートフォン2から撮影情報114を取得する場合を想定する。 In this embodiment, it is assumed that the communication unit 13 is communicably connected to a personal computer (not shown) and acquires the image information 111 from the personal computer. Note that the image information 111 may be stored in the storage unit 11 in advance. Also, in the present embodiment, it is assumed that the communication unit 13 is communicably connected to the smartphone 2 via a local area network using wireless communication, for example, and acquires the shooting information 114 from the smartphone 2 .

操作部14は、プロジェクター1の使用者から、プロジェクター1に対する入力操作を受け付ける。操作部14は、例えば、プロジェクター1の筐体に設けられた、タッチパネルまたは操作ボタン等である。操作部14がタッチパネルを含んで構成される場合、操作部14は、検出したタッチ位置を示すデータを制御部12へ出力する。また、操作部14が操作ボタンを含んで構成される場合、操作部14は、押下されたボタンを識別するデータを制御部12へ出力する。これにより、プロジェクター1に対する入力操作の内容が制御部12へ伝達される。 The operation unit 14 receives an input operation to the projector 1 from the user of the projector 1 . The operation unit 14 is, for example, a touch panel or operation buttons provided on the housing of the projector 1 . When the operation unit 14 includes a touch panel, the operation unit 14 outputs data indicating the detected touch position to the control unit 12 . When the operation unit 14 includes operation buttons, the operation unit 14 outputs data identifying the pressed button to the control unit 12 . Thereby, the content of the input operation to the projector 1 is transmitted to the control unit 12 .

投射部15は、投射制御部121の制御により、画像情報111に基づく投射光を投射し、壁面W1上に画像GSを表示する。第1実施形態において、投射部15は、例えば、パターン画像情報112に基づく投射光を投射し、壁面W1上に画像GS1を表示する。また、投射部15は、補正画像情報JGCに基づく投射光を投射し、壁面W1上に画像GS1を表示する。 The projection unit 15 projects projection light based on the image information 111 under the control of the projection control unit 121 to display the image GS on the wall surface W1. In the first embodiment, the projection unit 15 projects projection light based on, for example, the pattern image information 112 to display the image GS1 on the wall surface W1. Further, the projection unit 15 projects projection light based on the corrected image information JGC to display the image GS1 on the wall surface W1.

図7に示すように、投射部15は、画像光を形成するための投射光形成部151と、複数のレンズを有する投射レンズ系150とを備える。 As shown in FIG. 7, the projection unit 15 includes a projection light forming unit 151 for forming image light, and a projection lens system 150 having a plurality of lenses.

図7は、図2の状態を、プロジェクター1が実現する一例を説明するための模式図である。図8、9および10は、図7に対応した補正前後の画像の形状およびX軸方向の輝度分布または明るさ分布を模式的に表した図である。 FIG. 7 is a schematic diagram for explaining an example in which the state of FIG. 2 is realized by the projector 1. As shown in FIG. 8, 9 and 10 are diagrams schematically showing the shape of an image before and after correction corresponding to FIG. 7 and the luminance distribution or brightness distribution in the X-axis direction.

図7は、XYZ空間のXY水平面の位置R1およびR2に、それぞれプロジェクター1およびスマートフォン2が、XY水平面に垂直なYZ面である壁面W1に向けて配置されることを示す。位置R1のプロジェクター1の投射部15は、壁面W1に対し正面から画像GSを投射して表示させる。位置R2のスマートフォンの撮影部25は、壁面W1に表示された画像GSを水平斜め方向から撮影し画像GPを形成させる。また、位置R2の観察者は、画像GSを直接、あるいは、画像GPとして観察する。
画像GSは、投射光形成部151で形成された画像GDが拡大されて壁面W1に表示されるものである。後述するように、投射光形成部151は、画像光で画像GDを形成する複数の画素を備える。複数の画素は、各々に対応する画素回路を備える。また、複数の画素回路は、各々、画像光を射出するための光を発する発光素子を備える。
投射光形成部151によって射出された画像光は、投射レンズ系150を経て壁面W1へ到達することで、壁面W1上に画像GSを表示する。本実施形態では、投射レンズ系150は、画像光を拡大した投射光として壁面W1上に画像GSを結像させる。
投射光が投射対象である壁面W1に結像し、表示される画像GSの一例が「投射画像」である。本実施形態では、投射光形成部151は、画素がマトリクス状に配列され、画素毎に発光素子を備えた表示パネルで構成され、投射光形成部151で形成される画像GDの一例が、「パネル画像」である。また、投射対象に表示される画像GSを観察した画像GPが「撮影画像」の一例である。
FIG. 7 shows that the projector 1 and the smartphone 2 are placed at positions R1 and R2 on the XY horizontal plane in the XYZ space, respectively, toward the wall surface W1, which is the YZ plane perpendicular to the XY horizontal plane. The projection unit 15 of the projector 1 at the position R1 projects and displays the image GS from the front on the wall surface W1. The photographing unit 25 of the smartphone at the position R2 photographs the image GS displayed on the wall surface W1 from a horizontal oblique direction to form an image GP. Also, an observer at position R2 observes image GS directly or as image GP.
The image GS is displayed on the wall surface W1 by enlarging the image GD formed by the projection light forming section 151 . As will be described later, the projection light forming section 151 includes a plurality of pixels that form the image GD with image light. Each of the plurality of pixels has a corresponding pixel circuit. Also, each of the plurality of pixel circuits includes a light emitting element that emits light for emitting image light.
The image light emitted by the projection light forming unit 151 passes through the projection lens system 150 and reaches the wall surface W1, thereby displaying the image GS on the wall surface W1. In this embodiment, the projection lens system 150 forms an image GS on the wall surface W1 as projection light that is an enlarged image light.
An example of the image GS that is displayed when the projection light is imaged on the wall surface W1 that is the projection target is the “projection image”. In this embodiment, the projection light forming section 151 is configured by a display panel in which pixels are arranged in a matrix and each pixel has a light emitting element. An example of the image GD formed by the projection light forming section 151 is " panel image”. Also, an image GP obtained by observing the image GS displayed on the projection target is an example of the “captured image”.

図8、9および10は、それぞれ、画像GD、画像GSおよび画像GPに対応し、図の各軸も、図7等に対応する。補正後の画像GD2、GS2、GP2を実線で示し、補正前の画像GD1、GS1、GP1を点線で示す。画像GD1、GS1およびGP1は、それぞれ、「第1パネル画像」および「第1投射画像」の一例であり、画像GD2、GS2およびGP2は、それぞれ「第2パネル画像」および「第2投射画像」の一例である。 8, 9 and 10 respectively correspond to the image GD, the image GS and the image GP, and each axis of the figures also corresponds to FIG. 7 and the like. Images GD2, GS2, and GP2 after correction are indicated by solid lines, and images GD1, GS1, and GP1 before correction are indicated by dotted lines. Images GD1, GS1 and GP1 are examples of the "first panel image" and "first projection image" respectively, and images GD2, GS2 and GP2 are examples of the "second panel image" and "second projection image" respectively. is an example.

図8、図9および図10の点線で示されるように、補正前では、矩形の画像GD1が投射された画像GS1は、スマートフォン2側からは、台形の画像GP1として観察される。また、スマートフォン2側から観察される画像GP1の明るさ分布は、スマートフォン2からの距離に依存する。画像GP1は、壁面W1に沿って壁面W2に向かってすぼむ台形形状で、壁面W1の奥側である壁面W2側ほど暗い画像として観察される。この状態が、図1に対応する。なお、プロジェクター1側からは、矩形形状で明るさ分布が均一な画像が観察される。 As indicated by dotted lines in FIGS. 8, 9, and 10, before correction, the image GS1 onto which the rectangular image GD1 is projected is viewed from the smartphone 2 side as a trapezoidal image GP1. Also, the brightness distribution of the image GP1 observed from the smartphone 2 side depends on the distance from the smartphone 2 . The image GP1 has a trapezoidal shape tapering toward the wall surface W2 along the wall surface W1, and is observed as a darker image toward the wall surface W2, which is the inner side of the wall surface W1. This state corresponds to FIG. From the side of the projector 1, an image having a rectangular shape and a uniform brightness distribution is observed.

図8、図9および図10の実線で示されるように、補正後では、壁面W1には、投射光形成部151で形成された台形の画像GD2が拡大されて画像GS2が表示される。スマートフォン2側からは、矩形の画像GP2として観察される。また、スマートフォン2側からは、明るさ分布が均一な画像が観察される。画像GP2は、壁面W1に対して矩形形状で、壁面W1とスマートフォン2の距離に依存しない明るさ分布の均一な画像として観察される。この状態が、図2に対応する。なお、プロジェクター1側からは、壁面W1に沿って壁面W2に向かって広がる台形形状で、壁面W1の奥側である壁面W2側ほど明るい画像として観察される。また、投射光形成部151で形成される画像GD2も同様な形状であり、壁面W1の奥側である壁面W2側ほど輝度が高い。 As indicated by the solid lines in FIGS. 8, 9 and 10, after correction, the trapezoidal image GD2 formed by the projection light forming section 151 is enlarged to display an image GS2 on the wall surface W1. From the smartphone 2 side, it is observed as a rectangular image GP2. Also, an image with a uniform brightness distribution is observed from the smartphone 2 side. The image GP2 has a rectangular shape with respect to the wall surface W1 and is observed as an image with a uniform brightness distribution that does not depend on the distance between the wall surface W1 and the smartphone 2 . This state corresponds to FIG. From the side of the projector 1, the image is observed as a trapezoidal image that spreads along the wall surface W1 toward the wall surface W2, and the image is brighter toward the wall surface W2, which is the inner side of the wall surface W1. The image GD2 formed by the projection light forming unit 151 also has a similar shape, and the brightness increases toward the wall surface W2, which is the inner side of the wall surface W1.

従って、図8、図9および図10に示すように、画像GP2と、画像GD1または画像GS1との相違の程度は、画像GP1と、画像GD1または画像GS1との相違の程度より小さい。これにより、観察者は、所望の高品質な画像を観察することができる。本実施形態の場合、画像GP2は、矩形形状で明るさ分布が均一であり、台形形状で明るさ分布が均一でない画像GP1より、画像GD1または画像GS1との相違の程度は小さい。本実施形態では、画像GP1、画像GD2および画像GS2は、台形形状で、明るさおよび輝度分布が均一でなく、画像GD2および画像GS2と、画像GP1とは、X軸方向に反転した台形形状および明るさおよび輝度分布となる。 Therefore, as shown in FIGS. 8, 9 and 10, the degree of difference between image GP2 and image GD1 or image GS1 is smaller than the degree of difference between image GP1 and image GD1 or image GS1. Thereby, the observer can observe a desired high-quality image. In this embodiment, the image GP2 has a rectangular shape and a uniform brightness distribution, and is less different from the image GD1 or the image GS1 than the image GP1 that has a trapezoidal shape and an uneven brightness distribution. In this embodiment, the image GP1, the image GD2, and the image GS2 are trapezoidal in shape, and the brightness and luminance distribution are not uniform. brightness and luminance distribution.

後述するように、本実施形態の表示パネルである投射光形成部151は、縦M×横N個の画素がマトリクス状に配置され、最大縦M×横N個の画素により矩形の画像を形成することができる。この縦M×横N個の画素の矩形の画像の範囲内で画像の形状を変更可能である。また、投射光形成部151は、画素毎に発光素子を備え、容易に輝度分布等を変更可能で、明るさのダイナミックレンジを広くすることができ、図2に示すような高品位な画像をスマートフォン2側から観察可能とすることができる。 As will be described later, the projection light forming section 151, which is the display panel of the present embodiment, has M vertical by N horizontal pixels arranged in a matrix, and forms a rectangular image with a maximum of M vertical by N horizontal pixels. can do. It is possible to change the shape of the image within the range of this rectangular image of M vertical pixels by N horizontal pixels. Further, the projection light forming unit 151 includes a light emitting element for each pixel, and can easily change the luminance distribution and the like, widen the dynamic range of brightness, and produce a high-quality image as shown in FIG. It can be made observable from the smartphone 2 side.

本実施形態では、プロジェクター1の投写部15が、投射対象物である壁面W1と正対する場合、すなわち、投写部15の光軸は壁面W1に垂直な場合を示した。プロジェクター1の投写部15が、投射対象物に正対しない場合、プロジェクター1側から観察して矩形形状となるように、あらかじめ別の補正がされている場合もある。従って、補正は、矩形画像を台形画像に変形するものに限らない。
また、本実施形態では、投射光学系150は、投射光形成部151で形成された画像GDを、壁面W1の領域T1に画像GSとして、そのまま拡大表示させることを示した。投射光学系150が反転像等を結像させる場合は、画像GDと画像GSの関係は、図8、9および10に示したもと異なるものとなる。
また、本実施形態では、投射光形成部151により、画像を変形させたが、光学系や画像処理系によっても画像を変形させることができる。
In this embodiment, the case where the projection unit 15 of the projector 1 directly faces the wall surface W1 that is the projection target, that is, the case where the optical axis of the projection unit 15 is perpendicular to the wall surface W1 is shown. If the projection unit 15 of the projector 1 does not directly face the projection object, another correction may be made in advance so that the projection object has a rectangular shape when viewed from the projector 1 side. Therefore, correction is not limited to transforming a rectangular image into a trapezoidal image.
Further, in the present embodiment, the projection optical system 150 enlarges and displays the image GD formed by the projection light forming section 151 as the image GS on the region T1 of the wall surface W1. When the projection optical system 150 forms an inverted image or the like, the relationship between the image GD and the image GS is different from that shown in FIGS.
Further, in this embodiment, the image is deformed by the projection light forming section 151, but the image can also be deformed by an optical system or an image processing system.

本実施形態では、撮影画像GPが、観察者の所望の画像となるように、プロジェクター1は、投射画像GSを補正する。プロジェクター1は、投射光形成部151を制御して、パネル画像GDの、形状、輝度分布等を変化させるとにより、観察者に所望の画像を提供する。 In the present embodiment, the projector 1 corrects the projection image GS so that the captured image GP is an image desired by the observer. The projector 1 controls the projection light forming section 151 to change the shape, luminance distribution, etc. of the panel image GD, thereby providing a desired image to the observer.

図11は、第1実施形態に係る投射光形成部151の構成を説明するためのブロック図である。投射光形成部151は、走査線駆動回路KCSと、データ線駆動回路KCDと、M本の走査線LSと、N本のデータ線LDと、複数の画素PXを有する発光部DPAとを含む。ここで、値Mは、2以上の整数である。また、値Nは、2以上の整数である。また、図11には、画素PXの構成の一例と、投射光形成部151へ画像信号SVDおよび制御信号SCLを供給する表示制御回路16を示す。画像GDは、画像信号SVDに基づく画像である。 FIG. 11 is a block diagram for explaining the configuration of the projection light forming section 151 according to the first embodiment. The projection light forming portion 151 includes a scanning line driving circuit KCS, a data line driving circuit KCD, M scanning lines LS, N data lines LD, and a light emitting portion DPA having a plurality of pixels PX. Here, the value M is an integer of 2 or more. Also, the value N is an integer of 2 or more. 11 also shows an example of the configuration of the pixel PX and the display control circuit 16 that supplies the image signal SVD and the control signal SCL to the projection light forming section 151. As shown in FIG. The image GD is an image based on the image signal SVD.

図11において、M本の走査線LSの各々を区別するため、走査線LSの符号の末尾に、行番号を示す「1」、「2」、…「m」、…および「M」が付与される。例えば、走査線LS2は、2行目の走査線LSであることを示す。また、走査線LSmは、m行目の走査線LSであることを示す。ここで、値mは、1≦m≦Mを満たす整数である。図11に示す例では、値mは、3以上M未満の整数であり、値Mは、4以上の整数である場合を想定する。また、M本の走査線LSの各々を通じて発光部DPAへ供給されるM個の走査信号Swについても、M本の走査線LSの各々と対応するように、符号の末尾に、行番号を示す「1」、「2」、…「m」、…および「M」が付与される。例えば、走査信号Swmは、m行目の走査線LSmを通じて、発光部DPAへ供給される。 In FIG. 11, in order to distinguish each of the M scanning lines LS, "1", "2", . . . "m", . be done. For example, the scanning line LS2 indicates that it is the scanning line LS of the second row. Also, the scanning line LSm indicates that it is the scanning line LS of the m-th row. Here, the value m is an integer that satisfies 1≤m≤M. In the example shown in FIG. 11, it is assumed that the value m is an integer of 3 or more and less than M, and the value M is an integer of 4 or more. Also, for the M scanning signals Sw supplied to the light emitting unit DPA through each of the M scanning lines LS, a row number is indicated at the end of the code so as to correspond to each of the M scanning lines LS. "1", "2", ... "m", ... and "M" are given. For example, the scanning signal Swm is supplied to the light emitting unit DPA through the m-th scanning line LSm.

また、図11において、N本のデータ線LDの各々を区別するため、データ線LDの符号の末尾に、列番号を示す「1」、「2」、…「n」、…および「N」が付与される。例えば、データ線LD2は、2列目のデータ線LDであることを示す。また、データ線LDnは、n列目のデータ線LDであることを示す。ここで、値nは、1≦n≦Nを満たす整数である。図11に示す例では、値nは、3以上N未満の整数であり、値Nは、4以上の整数である場合を想定する。また、N本のデータ線LDの各々を通じて発光部DPAへ供給されるN個のデータ信号Svについても、N本のデータ線LDの各々と対応するように、符号の末尾に、列番号を示す「1」、「2」、…「n」、…および「N」が付与される。例えば、データ信号Svnは、n列目のデータ線LDnを通じて、発光部DPAへ供給される。 In FIG. 11, in order to distinguish each of the N data lines LD, "1", "2", . . . "n", . is given. For example, the data line LD2 indicates that it is the data line LD of the second column. Also, the data line LDn indicates that it is the n-th data line LD. Here, the value n is an integer that satisfies 1≦n≦N. In the example shown in FIG. 11, it is assumed that the value n is an integer of 3 or more and less than N, and the value N is an integer of 4 or more. Further, the N data signals Sv supplied to the light emitting unit DPA through the N data lines LD are also indicated with column numbers at the end of the code so as to correspond to each of the N data lines LD. "1", "2", ... "n", ... and "N" are given. For example, the data signal Svn is supplied to the light emitting unit DPA through the n-th data line LDn.

M本の走査線LSは、図11の紙面において横方向に延在し、N本のデータ線LDは、図11の紙面において縦方向に延在している。また、発光部DPAは、M本の走査線LSの各々とN本のデータ線LDの各々との交差に対応して設けられる画素PXを含む。すなわち、複数の画素PXは、発光部DPAにおいて、縦M行×横N列のマトリクス状に配列される。 The M scanning lines LS extend horizontally on the page of FIG. 11, and the N data lines LD extend vertically on the page of FIG. In addition, the light emitting portion DPA includes pixels PX provided corresponding to intersections between each of the M scanning lines LS and each of the N data lines LD. That is, the plurality of pixels PX are arranged in a matrix of M rows×N columns in the light emitting portion DPA.

発光部DPAは、複数の画素PXの各々と1対1で対応する画素回路KPXを有する。本実施形態では、複数の画素PXに対応する複数の画素回路KPXは、電気的に互いに同一の構成であることとする。ここでは、第m行第n列の画素PXに対応して設けられる画素回路KPXを例示して説明する。 The light emitting unit DPA has pixel circuits KPX that correspond one-to-one with each of the plurality of pixels PX. In this embodiment, it is assumed that the plurality of pixel circuits KPX corresponding to the plurality of pixels PX have the same electrically configuration. Here, the pixel circuit KPX provided corresponding to the pixel PX in the m-th row and n-th column will be described as an example.

画素回路KPXは、発光素子E1を有する。また、画素回路KPXは、発光素子E1に対して電流を供給するための、Pチャネル型のトランジスターTs1およびトランジスターTs2と、保持容量Cd1とを備える。なお、トランジスターTs1およびトランジスターTs2の一方または両方は、Nチャネル型のトランジスターであってもよい。また、本実施形態では、トランジスターTs1およびトランジスターTs2が、薄膜トランジスターの場合を例示して説明するが、トランジスターTs1およびトランジスターTs2は、MOSFET等の電界効果トランジスターであってもよい。ここで、MOSFETとはMetal-Oxide-Semiconductor Field-Effect Transistorの略称である。 The pixel circuit KPX has a light emitting element E1. The pixel circuit KPX also includes P-channel transistors Ts1 and Ts2 for supplying current to the light emitting element E1, and a storage capacitor Cd1. Note that one or both of the transistor Ts1 and the transistor Ts2 may be an N-channel transistor. In addition, although the transistor Ts1 and the transistor Ts2 are thin film transistors in this embodiment, the transistor Ts1 and the transistor Ts2 may be field effect transistors such as MOSFETs. Here, MOSFET is an abbreviation for Metal-Oxide-Semiconductor Field-Effect Transistor.

発光素子E1は、画素電極E11と、発光機能層E12と、共通電極E13とを備える。画素電極E11は、発光機能層E12に正孔を供給する陽極として機能する。共通電極E13は、画素回路KPXの低電位側の電源電位である電位Vctに設定された給電線LBmに電気的に接続され、発光機能層E12に電子を供給する陰極として機能する。そして、画素電極E11から供給される正孔と、共通電極E13から供給される電子とが発光機能層E12で結合し、発光機能層E12が発光する。 The light-emitting element E1 includes a pixel electrode E11, a light-emitting functional layer E12, and a common electrode E13. The pixel electrode E11 functions as an anode that supplies holes to the light-emitting functional layer E12. The common electrode E13 is electrically connected to the power supply line LBm set to the potential Vct, which is the power supply potential on the low potential side of the pixel circuit KPX, and functions as a cathode that supplies electrons to the light emitting function layer E12. Then, holes supplied from the pixel electrode E11 and electrons supplied from the common electrode E13 are combined in the light-emitting functional layer E12, and the light-emitting functional layer E12 emits light.

なお、画像GDがカラーの画像である場合、発光部DPAは、例えば、赤色の光を発する発光素子E1を有する画素回路KPXと、緑色の光を発する発光素子E1を有する画素回路KPXと、青色の光を発する発光素子E1を有する画素回路KPXとを備えることが好ましい。これにより、発光部DPAは、赤色の光と、緑色の光と、青色の光とを組み合わせることで、赤、緑、青以外の色も表現することが可能となる。この場合、赤色の光を発する発光素子E1を有する画素回路KPXと、緑色の光を発する発光素子E1を有する画素回路KPXと、青色の光を発する発光素子E1を有する画素回路KPXとは、例えば、行方向に沿って、赤、緑、青、赤、緑、青、…と並ぶように、規則的に配列される。 When the image GD is a color image, the light emitting part DPA includes, for example, a pixel circuit KPX having a light emitting element E1 that emits red light, a pixel circuit KPX having a light emitting element E1 that emits green light, and a pixel circuit KPX having a light emitting element E1 that emits green light. and a pixel circuit KPX having a light emitting element E1 that emits light of . Accordingly, the light emitting part DPA can express colors other than red, green, and blue by combining red light, green light, and blue light. In this case, the pixel circuit KPX having the light emitting element E1 that emits red light, the pixel circuit KPX having the light emitting element E1 that emits green light, and the pixel circuit KPX having the light emitting element E1 that emits blue light are, for example, , red, green, blue, red, green, blue, . . . are arranged regularly along the row direction.

また、画素回路KPXの有する発光素子E1は、有機材料からなる発光機能層E12を有する有機EL素子であってもよいし、無機材料からなる発光機能層E12を有するLED素子であってもよい。ここで、有機ELとは有機Electro-Luminescenceの略称であり、LEDとはLight-Emitting Diodeの略称である。 Further, the light-emitting element E1 of the pixel circuit KPX may be an organic EL element having a light-emitting functional layer E12 made of an organic material, or an LED element having a light-emitting functional layer E12 made of an inorganic material. Here, organic EL is an abbreviation for organic Electro-Luminescence, and LED is an abbreviation for Light-Emitting Diode.

トランジスターTs1は、ゲートが、第m行の走査線LSmと電気的に接続され、ソースまたはドレインの一方が、第n列のデータ線LDnと電気的に接続され、ソースまたはドレインの他方が、トランジスターTs2のゲートおよび保持容量Cd1が有する2つの電極のうち一方の電極と電気的に接続される。 The transistor Ts1 has a gate electrically connected to the m-th scanning line LSm, one of the source and the drain electrically connected to the n-th data line LDn, and the other of the source and the drain being a transistor. The gate of Ts2 is electrically connected to one of the two electrodes of holding capacitor Cd1.

トランジスターTs2は、ゲートが、トランジスターTs1のソースまたはドレインの他方および保持容量Cd1の一方の電極と電気的に接続され、ソースまたはドレインの一方が、画素電極E11と電気的に接続され、ソースまたはドレインの他方が、画素回路KPXの高電位側の電源電位である電位Velに設定された給電線LAmに電気的に接続される。 The transistor Ts2 has a gate electrically connected to the other of the source or drain of the transistor Ts1 and one electrode of the storage capacitor Cd1, and one of the source or drain is electrically connected to the pixel electrode E11. is electrically connected to the power supply line LAm set to the potential Vel, which is the power supply potential on the high potential side of the pixel circuit KPX.

保持容量Cd1は、保持容量Cd1が有する2つの電極のうちの一方の電極が、トランジスターTs1のソースまたはドレインの他方およびトランジスターTs2のゲートと電気的に接続され、保持容量Cd1が有する2つの電極のうち他方の電極が、給電線LAmと電気的に接続される。保持容量Cd1は、トランジスターTs2のゲートの電位を保持する保持容量として機能する。 One electrode of the two electrodes of the holding capacitor Cd1 is electrically connected to the other of the source or drain of the transistor Ts1 and the gate of the transistor Ts2, and the two electrodes of the holding capacitor Cd1 are connected to the gate of the transistor Ts2. The other electrode is electrically connected to the feeder line LAm. The holding capacitor Cd1 functions as a holding capacitor that holds the potential of the gate of the transistor Ts2.

表示制御回路16には、制御部12より、デジタルの画像データである画像情報111が同期信号SSCに同期して供給される。画像情報111は、発光部DPAの有する複数の画素PXが表示すべき階調レベルを規定する。同期信号SSCは、垂直同期信号、水平同期信号、及び、ドットクロック信号等を含む信号である。 Image information 111, which is digital image data, is supplied from the control unit 12 to the display control circuit 16 in synchronization with the synchronization signal SSC. The image information 111 defines gradation levels to be displayed by the plurality of pixels PX of the light emitting portion DPA. The synchronizing signal SSC is a signal including a vertical synchronizing signal, a horizontal synchronizing signal, a dot clock signal, and the like.

表示制御回路16は、同期信号SSCに基づいて、投射光形成部151の動作を制御するための制御信号SCLを生成し、生成した制御信号SCLを投射光形成部151に対して供給する。また、表示制御回路16は、画像情報111に基づいて、アナログの画像信号SVDを生成し、生成した画像信号SVDを投射光形成部151に対して供給する。ここで、画像信号SVDとは、各画素PXが画像情報111の指定する階調を表示するように、当該画素PXが備える発光素子E1が発する光の明るさを規定する信号である。 The display control circuit 16 generates a control signal SCL for controlling the operation of the projection light forming section 151 based on the synchronization signal SSC, and supplies the generated control signal SCL to the projection light forming section 151 . The display control circuit 16 also generates an analog image signal SVD based on the image information 111 and supplies the generated image signal SVD to the projection light forming section 151 . Here, the image signal SVD is a signal that defines the brightness of light emitted by the light emitting element E1 included in each pixel PX so that each pixel PX displays the gradation specified by the image information 111. FIG.

走査線駆動回路KCSは、制御信号SCLに基づいて、M本の走査線LSを、水平走査期間毎に所定の順番で1本ずつ選択し、選択した走査線LSに対して、ハイレベルの走査信号Swを供給する。なお、走査線駆動回路KCSは、選択した走査線LS以外の走査線LSに対して、ローレベルの走査信号Swを供給する。本実施形態では、所定の順番が、1、2、…、M行目の順番である場合を想定する。すなわち、本実施形態では、複数の画素PXは、1、2、…、M行目の順番で走査される。 The scanning line drive circuit KCS selects M scanning lines LS one by one in a predetermined order for each horizontal scanning period based on the control signal SCL, and applies high-level scanning to the selected scanning lines LS. It supplies the signal Sw. Note that the scanning line driving circuit KCS supplies a low-level scanning signal Sw to the scanning lines LS other than the selected scanning line LS. In this embodiment, it is assumed that the predetermined order is the order of the 1st, 2nd, . . . , Mth rows. That is, in the present embodiment, the plurality of pixels PX are scanned in the order of the 1st, 2nd, . . . , Mth rows.

データ線駆動回路KCDは、表示制御回路16より供給される画像信号SVDおよび制御信号SCLに基づいて、各画素PXが表示すべき階調を規定するアナログのデータ信号Sv1~SvNを生成し、生成したデータ信号Sv1~SvNを、水平走査期間毎に、N本のデータ線LDに対して出力する。換言すれば、データ線駆動回路KCDは、水平走査期間において、第n列のデータ線LDに対して、データ信号Svnを出力する。
なお、本実施形態では、表示制御回路16が出力する画像信号SVDはアナログの信号であるが、表示制御回路16が出力する画像信号SVDはデジタルの信号であってもよい。この場合、データ線駆動回路KCDは、画像信号SVDをD/A変換し、アナログのデータ信号Sv1~SvNを生成する。
Based on the image signal SVD and the control signal SCL supplied from the display control circuit 16, the data line driving circuit KCD generates analog data signals Sv1 to SvN that define the gradation to be displayed by each pixel PX. The resulting data signals Sv1 to SvN are output to N data lines LD every horizontal scanning period. In other words, the data line driving circuit KCD outputs the data signal Svn to the n-th data line LD during the horizontal scanning period.
In this embodiment, the image signal SVD output by the display control circuit 16 is an analog signal, but the image signal SVD output by the display control circuit 16 may be a digital signal. In this case, the data line driving circuit KCD D/A converts the image signal SVD to generate analog data signals Sv1 to SvN.

走査線駆動回路KCSが、走査信号Swmをハイレベルに設定し、第m行の走査線LSmを選択すると、第m行第n列の画素PXに設けられたトランジスターTs1がオンする。そして、トランジスターTs1がオンすると、第n列のデータ線LDnから、トランジスターTs2のゲートに対して、データ信号Svnが供給される。この場合、トランジスターTs2は、発光素子E1に対して、ゲートに供給されたデータ信号Svnの電位、正確には、ゲート及びソース間の電位差に応じた電流を供給する。そして、発光素子E1は、トランジスターTs2から供給される電流の大きさに応じた明るさの光、すなわち、データ信号Svnの電位に応じた明るさの光を発する。供給される電流の大きさにて応じて発光波長が変化する発光素子の場合は、明るさは発光時間等により制御される。 When the scanning line driving circuit KCS sets the scanning signal Swm to a high level and selects the scanning line LSm of the m-th row, the transistor Ts1 provided in the pixel PX of the m-th row and n-th column is turned on. Then, when the transistor Ts1 is turned on, the data signal Svn is supplied from the data line LDn of the n-th column to the gate of the transistor Ts2. In this case, the transistor Ts2 supplies the light-emitting element E1 with the potential of the data signal Svn supplied to the gate, more precisely, the current corresponding to the potential difference between the gate and the source. The light emitting element E1 emits light with a brightness corresponding to the magnitude of the current supplied from the transistor Ts2, that is, light with a brightness corresponding to the potential of the data signal Svn. In the case of a light-emitting element whose emission wavelength changes according to the magnitude of the supplied current, the brightness is controlled by the emission time or the like.

その後、走査線駆動回路KCSが、第m行の走査線LSmの選択を解除して、トランジスターTs1がオフした場合、トランジスターTs2のゲートの電位は、保持容量Cd1により保持される。このため、発光素子E1は、トランジスターTs1がオフした後も、データ信号Svnの電位に応じた明るさの光を発することができる。 Thereafter, when the scanning line driving circuit KCS deselects the m-th row scanning line LSm to turn off the transistor Ts1, the potential of the gate of the transistor Ts2 is held by the holding capacitor Cd1. Therefore, the light-emitting element E1 can emit light with brightness according to the potential of the data signal Svn even after the transistor Ts1 is turned off.

本実施形態の投射光形成部151は、画素毎に発光素子E1を備えた表示パネルで構成され、画像GDの形状および輝度分布を容易に変更できるが、別途光源を用いて画像を投射させる液晶パネルでも実現可能である。しかし、画素毎に発光素子を備えた表示パネルは、と液晶ディスプレイパネルと比べて明るさ等のダイナミックレンジが広く、幅広い階調の明るさおよび色を表現することができる。このため、投射光形成部151に発光素子E1を備えるプロジェクター1は、液晶パネルを備えるプロジェクターと比べて、投射される光の明るさを精度よく補正することができる。さらに、投射光形成部151に発光素子E1を備えるプロジェクター1は、別途の光源やその光学系および冷却機構が不要のため、小型化等が可能である。 The projection light forming unit 151 of this embodiment is composed of a display panel having a light emitting element E1 for each pixel, and the shape and luminance distribution of the image GD can be easily changed. A panel is also feasible. However, a display panel having a light-emitting element for each pixel has a wider dynamic range of brightness and the like than a liquid crystal display panel, and can express brightness and colors with a wide range of gradations. Therefore, the projector 1 having the light-emitting element E1 in the projection light forming section 151 can accurately correct the brightness of the projected light compared to a projector having a liquid crystal panel. Furthermore, the projector 1 having the light emitting element E1 in the projection light forming section 151 does not require a separate light source, its optical system, and a cooling mechanism, so that it can be made smaller.

1.3.プロジェクターの動作
図12は、第1実施形態に係るプロジェクター1の動作について説明するためのフローチャートである。当該フローチャートに示す一連の動作は、例えば、プロジェクター1の電源がONになり、操作部14がプロジェクター1の使用者から動作開始に関する入力操作を受け付けた際に開始される。
1.3. Operation of Projector FIG. 12 is a flowchart for explaining the operation of the projector 1 according to the first embodiment. A series of operations shown in the flowchart is started, for example, when the power of the projector 1 is turned on and the operation unit 14 receives an input operation regarding start of operation from the user of the projector 1 .

ステップS101において、投射画像取得部120は、通信部13を制御することで、プロジェクター1と通信可能に接続されたパーソナルコンピューター等の外部端末から、画像情報111として、パターン画像情報112と、所定画像情報113とを取得する。また、投射画像取得部120は、取得したパターン画像情報112および所定画像情報113を、記憶部11に記憶する。パターン画像情報112は、画像GD1を表す画像データである。 In step S<b>101 , the projection image acquisition unit 120 controls the communication unit 13 to transmit the pattern image information 112 and the predetermined image as the image information 111 from an external terminal such as a personal computer communicably connected to the projector 1 . Information 113 is acquired. Further, the projected image acquisition unit 120 stores the acquired pattern image information 112 and predetermined image information 113 in the storage unit 11 . The pattern image information 112 is image data representing the image GD1.

ステップS102において、投射制御部121は、投射部15を制御することで、壁面W1の領域T1に対して、画像GD1を示す投射光を投射させる。
この時、投射部15を備えるプロジェクター1は、位置R1に設けられる。
また、画像GD1を示す投射光を投射された領域T1には、画像GS1が表示される。
In step S102, the projection control unit 121 controls the projection unit 15 to project projection light representing the image GD1 onto the region T1 of the wall surface W1.
At this time, the projector 1 having the projection unit 15 is provided at the position R1.
An image GS1 is displayed in the area T1 onto which the projection light representing the image GD1 is projected.

ステップS102における動作が実行された後に、スマートフォン2は、観察者からの操作に基づいて撮影部25を制御することで、画像GS1が表示された領域T1を含むように設定された撮影範囲Sを、位置R2から撮影する。換言すれば、スマートフォン2は、画像GD1を示す投射光が投射された領域T1を位置R2から撮影する。また、スマートフォン2は、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115を生成する。 After the operation in step S102 is performed, the smartphone 2 controls the photographing unit 25 based on the operation of the observer to set the photographing range S set so as to include the region T1 in which the image GS1 is displayed. , from the position R2. In other words, the smartphone 2 captures the area T1 onto which the projection light representing the image GD1 is projected from the position R2. In addition, the smartphone 2 generates the first photographing information 115 representing the photographing result of photographing the region T1 onto which the projection light representing the image GD1 is projected from the position R2.

ステップS103において、撮影情報取得部122は、通信部13を制御することで、プロジェクター1と通信可能に接続されたスマートフォン2から、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115を取得する。また、撮影情報取得部122は、取得した第1撮影情報115を記憶部11に記憶させる。第1撮影情報115の示す写真Img1には、画像GD1を示す投射光が投射された領域T1に表示された画像GS1を、観察者の位置R2から撮影することで記録された画像GP1が含まれる。すなわち、第1撮影情報115は、画像GP1を表す画像データを含む。 In step S103, the photographing information acquisition unit 122 controls the communication unit 13 to photograph, from the position R2, the area T1 onto which the projection light representing the image GD1 is projected from the smartphone 2 communicably connected to the projector 1. 1st photographing information 115 representing the result of photographing is acquired. Further, the imaging information acquisition unit 122 causes the storage unit 11 to store the acquired first imaging information 115 . The photograph Img1 indicated by the first photographing information 115 includes an image GP1 recorded by photographing the image GS1 displayed in the area T1 onto which the projection light representing the image GD1 is projected from the observer's position R2. . That is, the first shooting information 115 includes image data representing the image GP1.

ステップS104において、補正情報生成部123は、第1撮影情報115と、パターン画像情報112との相違の程度に基づいて、補正情報117を生成する。具体的には、補正情報生成部123は、補正情報117として、第1撮影情報115の示す画像GP1の有するパターンPS1と、パターン画像情報112の示す画像GD1の有するパターンPD1との相違の程度に基づくパターン情報118を生成する。また、補正情報生成部123は、補正情報117として、画像GP1における明るさの分布と、画像GD1における輝度の分布との相違の程度に基づく輝度分布情報119を生成する。 In step S<b>104 , the correction information generation unit 123 generates correction information 117 based on the degree of difference between the first imaging information 115 and the pattern image information 112 . Specifically, the correction information generation unit 123 generates, as the correction information 117, the degree of difference between the pattern PS1 of the image GP1 indicated by the first photographing information 115 and the pattern PD1 of the image GD1 indicated by the pattern image information 112. generates pattern information 118 based on Further, the correction information generation unit 123 generates, as the correction information 117, luminance distribution information 119 based on the degree of difference between the brightness distribution in the image GP1 and the luminance distribution in the image GD1.

ステップS105において、画像処理部124は、補正情報117に基づいて、画像GD1を補正する。換言すれば、画像処理部124は、補正情報117に基づいて、画像GD1を示すパターン画像情報112を補正することで、補正画像情報JGCを生成する。補正画像情報JGCは、画像GD2を表す画像データである。 In step S<b>105 , the image processing unit 124 corrects the image GD<b>1 based on the correction information 117 . In other words, the image processing unit 124 corrects the pattern image information 112 representing the image GD1 based on the correction information 117 to generate the corrected image information JGC. The corrected image information JGC is image data representing the image GD2.

具体的には、画像処理部124は、輝度分布情報119に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正する。輝度分布情報119に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正することは、換言すれば、輝度分布情報119に基づいて、画像GS2を表示する際に複数の発光素子の各々から投射される光の明るさを補正することである。 Specifically, based on the luminance distribution information 119, the image processing unit 124 corrects the luminance of each of the plurality of pixels included in the image GD1. Correcting the luminance of each of the plurality of pixels included in the image GD1 based on the luminance distribution information 119 is, in other words, based on the luminance distribution information 119 to correct the luminance of the plurality of light emitting elements when displaying the image GS2. It is to correct the brightness of the light projected from each.

また、画像処理部124は、パターン情報118に基づいて、画像GD1の有するパターンPD1の形状を補正する。パターン情報118に基づいて、パターンPD1の形状を補正することで、画像GD2の有するパターンPD2が得られる。 Further, the image processing unit 124 corrects the shape of the pattern PD1 included in the image GD1 based on the pattern information 118. FIG. By correcting the shape of the pattern PD1 based on the pattern information 118, the pattern PD2 of the image GD2 is obtained.

なお、ステップS105において、画像処理部124は、補正情報117に基づいて、所定画像情報113の示す画像を補正してもよい。 Note that in step S<b>105 , the image processing unit 124 may correct the image indicated by the predetermined image information 113 based on the correction information 117 .

ステップS106において、投射制御部121は、投射部15を制御することで、壁面W1の領域T1に対して、画像GD2を示す投射光を投射させる。
この時、投射部15を備えるプロジェクター1は、ステップS102と同様、位置R1に設けられる。
また、画像GD2を示す投射光を投射された領域T1には、画像GS2が表示される。
In step S106, the projection control unit 121 controls the projection unit 15 to project projection light representing the image GD2 onto the area T1 of the wall surface W1.
At this time, the projector 1 including the projection unit 15 is provided at the position R1, as in step S102.
Also, an image GS2 is displayed in the region T1 onto which the projection light representing the image GD2 is projected.

なお、ステップS105において所定画像情報113の示す画像を補正した場合、ステップS106において、投射制御部121は、壁面W1の領域T1に対して、補正情報117に基づいて、所定画像情報113の示す画像を示す投射光を投射してもよい。 Note that when the image indicated by the predetermined image information 113 is corrected in step S105, the projection control unit 121 corrects the image indicated by the predetermined image information 113 to the area T1 of the wall surface W1 based on the correction information 117 in step S106. may be projected.

ステップS106における動作が実行された後に、スマートフォン2は、観察者からの操作に基づいて撮影部25を制御することで、画像GS2が表示された領域T1を含むように設定された撮影範囲Sを、位置R2から撮影する。換言すれば、スマートフォン2は、画像GD2を示す投射光が投射された領域T1を位置R2から撮影する。また、スマートフォン2は、画像GD2を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第2撮影情報116を生成する。 After the operation in step S106 is performed, the smartphone 2 controls the photographing unit 25 based on the operation of the observer to set the photographing range S set so as to include the region T1 in which the image GS2 is displayed. , from the position R2. In other words, the smartphone 2 captures the area T1 onto which the projection light representing the image GD2 is projected from the position R2. In addition, the smartphone 2 generates second photographing information 116 representing the photographing result of photographing the area T1 onto which the projection light representing the image GD2 is projected from the position R2.

図13は、第2撮影情報116の示す写真Img2を説明するための模式図である。写真Img2には、画像GP2が含まれる。画像GP2は、画像GD2を示す投射光が投射された領域T1に表示された画像GS2を、観察者の位置R2から撮影した際に取得された写真Img2に記録される画像である。すなわち、第2撮影情報116は、画像GP2を表す画像データである。本実施形態において、画像GP2は、画像GD1と同様の、長方形の輪郭を有する画像として、写真Img2に記録される。また、写真Img2に含まれる画像GP2は、パターンPP2を有する。パターンPP2は、領域T1に表示された画像GS2の有するパターンPS2を、観察者の位置R2から撮影することで、写真Img2に記録される。なお、パターンPS2は画像GD2の有するパターンPD2が領域T1に表示されたものであることから、パターンPP2は、パターンPD2と対応する。 FIG. 13 is a schematic diagram for explaining the photograph Img2 indicated by the second photographing information 116. As shown in FIG. Photo Img2 includes image GP2. The image GP2 is an image recorded in the photograph Img2 obtained when the image GS2 displayed in the area T1 projected with the projection light representing the image GD2 is photographed from the observer's position R2. That is, the second shooting information 116 is image data representing the image GP2. In this embodiment, image GP2 is recorded in photograph Img2 as an image having a rectangular outline similar to image GD1. Also, the image GP2 included in the photograph Img2 has the pattern PP2. The pattern PP2 is recorded in the photograph Img2 by photographing the pattern PS2 of the image GS2 displayed in the area T1 from the observer's position R2. Since the pattern PS2 is the pattern PD2 of the image GD2 displayed in the region T1, the pattern PP2 corresponds to the pattern PD2.

本実施形態において、画像GP2は、画像GD1と同様の輪郭を有することから、画像GP2と、画像GD1とは、同様の形状で表示される。また、図4および図13からもわかるように、パターン情報118に基づいてパターンの形状を補正したことで、画像GP2の有するパターンPP2は、画像GD1の有するパターンPD1と同様のパターンで表示される。加えて、輝度分布情報119に基づいて画像GD1に含まれる複数の画素の各々の輝度を補正したことから、画像GP2は、画像GD1と同様の色および明るさで表示される。 In this embodiment, the image GP2 has the same outline as the image GD1, so the image GP2 and the image GD1 are displayed in the same shape. Further, as can be seen from FIGS. 4 and 13, by correcting the pattern shape based on the pattern information 118, the pattern PP2 of the image GP2 is displayed in the same pattern as the pattern PD1 of the image GD1. . In addition, since the brightness of each of the plurality of pixels included in image GD1 is corrected based on brightness distribution information 119, image GP2 is displayed with the same color and brightness as image GD1.

一方、本実施形態において、第1撮影情報115の示す画像GP1は、画像GD1とは異なる輪郭を有することから、画像GP1と、画像GD1とは、同様の形状で表示されない。また、図4および図5からもわかるように、パターンの形状を補正していないことから、画像GP1の有するパターンPP1は、画像GD1の有するパターンPD1と同様のパターンで表示されない。加えて、画像GD1に含まれる複数の画素の各々の輝度が補正されていないため、画像GP1は、画像GD1と同様の色および明るさで表示されない。 On the other hand, in the present embodiment, the image GP1 indicated by the first imaging information 115 has a different outline from the image GD1, so the image GP1 and the image GD1 are not displayed in the same shape. Further, as can be seen from FIGS. 4 and 5, since the pattern shape is not corrected, the pattern PP1 of the image GP1 is not displayed in the same pattern as the pattern PD1 of the image GD1. In addition, since the brightness of each of the plurality of pixels included in image GD1 has not been corrected, image GP1 is not displayed with the same color and brightness as image GD1.

すなわち、本実施形態において、第1撮影情報115の示す画像GP1と、画像GD1との相違の程度よりも、補正情報117に基づいて画像GD1を補正した画像GD2を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第2撮影情報116の示す画像GP2と、画像GD1との相違の程度が小さくなる。具体的には、画像GP1における輝度の分布と、画像GD1における輝度の分布との相違の程度よりも、画像GP2における明るさの分布と、画像GD1における輝度の分布との相違の程度が小さくなる。また、画像GP1の有するパターンPP1の形状と、画像GD1の有するパターンPD1の形状との相違の程度よりも、画像GP2の有するパターンPP2の形状と、画像GD1の有するパターンPD1の形状との相違の程度が小さくなる。従って、補正情報117に基づいて画像GD1を補正した画像GD2を示す投射光が投射された領域T1に表示された画像GS2は、位置R2に位置する観察者から見て好ましい態様で表示された画像であるといえる。 That is, in the present embodiment, the area where the projection light indicating the image GD2 obtained by correcting the image GD1 based on the correction information 117 is projected rather than the degree of difference between the image GP1 indicated by the first photographing information 115 and the image GD1. The degree of difference between the image GP2 indicated by the second photographing information 116 representing the photographing result of photographing T1 from the position R2 and the image GD1 is reduced. Specifically, the degree of difference between the brightness distribution in the image GP2 and the brightness distribution in the image GD1 is smaller than the degree of difference between the brightness distribution in the image GP1 and the brightness distribution in the image GD1. . Further, the degree of difference between the shape of the pattern PP2 of the image GP2 and the shape of the pattern PD1 of the image GD1 is more important than the degree of difference between the shape of the pattern PP1 of the image GP1 and the shape of the pattern PD1 of the image GD1. become smaller in extent. Therefore, the image GS2 displayed in the area T1 onto which the projection light representing the image GD2 obtained by correcting the image GD1 based on the correction information 117 is projected is an image displayed in a preferable manner as seen from the observer positioned at the position R2. You can say that.

ステップS106における動作が実行された後、制御部12は、フローチャートに示す一連の動作を終了させる。 After the operation in step S106 is performed, the control unit 12 terminates the series of operations shown in the flowchart.

以上より、第1実施形態によれば、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115に基づいて生成された補正情報117を用いて画像GD1を補正した画像GD2を壁面W1の領域T1に対して投射することで、画像GS2を表示することができる。すなわち、プロジェクター1は、観察者から見て好ましい態様で表示されるように、画像の形状や明るさ等を補正することができる。 As described above, according to the first embodiment, the correction information 117 generated based on the first imaging information 115 representing the imaging result of imaging the region T1 onto which the projection light representing the image GD1 is projected from the position R2 is used. The image GS2 can be displayed by projecting the image GD2 obtained by correcting the image GD1 onto the region T1 of the wall surface W1. In other words, the projector 1 can correct the shape, brightness, etc. of the image so that the image is displayed in a preferable manner for the observer.

また、第1実施形態によれば、プロジェクター1の備える投射部15は、投射光を形成するための複数の発光素子E1を備える。すなわち、プロジェクター1は、幅広い階調の明るさで画像を表示することが可能であり、輝度が補正された画像GD2を示す投射光が投射されることで表示される画像GS2を、観察者が位置R2から見た際に、画像GD1との相違の程度が小さくなるように、精度よく表示することができる。 Further, according to the first embodiment, the projection unit 15 provided in the projector 1 includes a plurality of light emitting elements E1 for forming projection light. That is, the projector 1 can display an image with a wide range of gradations of brightness, and the observer can view the image GS2 displayed by projecting the projection light representing the image GD2 whose luminance is corrected. When viewed from the position R2, it can be displayed with high accuracy so that the degree of difference from the image GD1 is small.

また、第1実施形態によれば、画像GD1を示す投射光を投射することで生成された補正情報117を、画像GD1とは別の、所定画像情報113の示す画像を補正する際に用いることができる。すなわち、プロジェクター1は、補正情報117を生成するのに適したパターンを有する画像を用いて、予め高精度な補正情報117を生成しておくことで、観察者から見てより好ましい態様で画像を表示できるような補正を行うことが可能となる。 Further, according to the first embodiment, the correction information 117 generated by projecting the projection light representing the image GD1 can be used when correcting the image represented by the predetermined image information 113, which is different from the image GD1. can be done. That is, the projector 1 generates the highly accurate correction information 117 in advance using an image having a pattern suitable for generating the correction information 117, thereby displaying the image in a more preferable manner from the observer's point of view. It is possible to make corrections that can be displayed.

本実施形態では、プロジェクター1は、外部端末から、画像情報111等を取得する構成であったが、あらかじめ、記憶部11が画像情報111等を記憶する構成としてもよい。また、本実施形態では、プロジェクター1が、スマートフォン2から第1撮影情報115を取得する構成であったが、プロジェクター1は、第1撮像撮影情報115を、あらかじめ記憶していてもよいし、スマートフォン2以外から記憶してもよい。例えば、プロジェクター1は、スマートフォン2から位置情報を取得し、位置情報に応じて第1撮像撮影情報115プロジェクター1の内部あるいは外部から取得する構成としてもよい。 In this embodiment, the projector 1 is configured to acquire the image information 111 and the like from the external terminal, but the storage unit 11 may be configured to store the image information 111 and the like in advance. Further, in the present embodiment, the projector 1 is configured to acquire the first shooting information 115 from the smartphone 2, but the projector 1 may store the first shooting information 115 in advance, or the smartphone may store the first shooting information 115 in advance. 2 may be stored. For example, the projector 1 may acquire the position information from the smart phone 2 and acquire the first imaging information 115 from inside or outside the projector 1 according to the position information.

以上に説明したように、第1実施形態に係る表示方法は、位置R1に設けられた投射部15から壁面W1の領域T1に対して、画像GD1を示す投射光を投射することと、画像GD1を示す投射光が投射された領域T1を位置R2から観察撮影した観察撮影結果を表す第1観察撮影情報115を取得することと、第1観察撮影情報115に基づいて、投射部15から投射される画像を補正するための補正情報117を生成することと、補正情報117に基づいて、投射部15から投射される画像を補正することと、を含み、補正情報117に基づいて画像GD1を補正する場合に、第1観察撮影情報115の示す画像GP2と、画像GD1との相違の程度よりも、補正情報117に基づいて画像GD1を補正した画像GD2を示す投射光が投射された領域T1を位置R2から観察撮影した観察撮影結果を表す第2観察撮影情報116の示す画像GP2と、画像GD1との相違の程度が小さくなる、ことを特徴とする。 As described above, in the display method according to the first embodiment, projection light representing the image GD1 is projected onto the area T1 of the wall surface W1 from the projection unit 15 provided at the position R1, and Acquisition of the first observation/photographing information 115 representing the observation/photographing result of observation/photographing of the region T1 on which the projection light indicating is projected from the position R2; and correcting the image projected from the projection unit 15 based on the correction information 117, and correcting the image GD1 based on the correction information 117. In this case, the area T1 where the projection light indicating the image GD2 obtained by correcting the image GD1 based on the correction information 117 is projected is determined rather than the degree of difference between the image GP2 indicated by the first observation/photographing information 115 and the image GD1. It is characterized in that the degree of difference between the image GP2 indicated by the second observation/photographing information 116 representing the observation/photographing result obtained from the position R2 and the image GD1 is reduced.

また、第1実施形態に係るプロジェクター1は、位置R1に設けられた投射部15から壁面W1の領域T1に対して、画像GD1を示す投射光を投射させる投射制御部121と、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115を取得する撮影情報取得部122と、第1撮影情報115に基づいて、投射部15から投射される画像を補正するための補正情報117を生成する補正情報生成部123と、補正情報117に基づいて、投射部15から投射される画像を補正する画像処理部124と、を備え、画像処理部124が、補正情報117に基づいて画像GD1を補正する場合に、第1撮影情報115の示す画像GP1と、画像GD1との相違の程度よりも、補正情報117に基づいて画像GD1を補正した画像G4を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第2撮影情報116の示す画像GP2と、画像GD1との相違の程度が小さくなる、ことを特徴とする。 Further, the projector 1 according to the first embodiment includes the projection control unit 121 that causes the projection unit 15 provided at the position R1 to project the projection light representing the image GD1 onto the region T1 of the wall surface W1, and the image GD1. A photographing information acquisition unit 122 that acquires first photographing information 115 representing a photographing result of photographing a region T1 onto which projection light is projected from a position R2, and an image projected from the projection unit 15 based on the first photographing information 115. and an image processing unit 124 for correcting the image projected from the projection unit 15 based on the correction information 117. The image processing unit 124 , when correcting the image GD1 based on the correction information 117, the image G4 obtained by correcting the image GD1 based on the correction information 117 is more important than the degree of difference between the image GP1 indicated by the first photographing information 115 and the image GD1. It is characterized in that the degree of difference between the image GP2 indicated by the second photographing information 116 representing the photographing result of photographing the area T1 projected with the projection light shown from the position R2 and the image GD1 is reduced.

また、第1実施形態に係るプログラム110は、制御部12を、位置R1に設けられた投射部15から壁面W1の領域T1に対して、画像GD1を示す投射光を投射させる投射制御部121と、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115を取得する撮影情報取得部122と、第1撮影情報115に基づいて、投射部15から投射される画像を補正するための補正情報117を生成する補正情報生成部123と、補正情報117に基づいて、投射部15から投射される画像を補正する画像処理部124と、して機能させ、画像処理部124が、補正情報117に基づいて画像GD1を補正する場合に、第1撮影情報115の示す画像GP1と、画像GD1との相違の程度よりも、補正情報117に基づいて画像GD1を補正した画像GD2を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第2撮影情報116の示す画像GP2と、画像GD1との相違の程度が小さくなる、ことを特徴とする。 Further, the program 110 according to the first embodiment includes a projection control unit 121 that causes the control unit 12 to project projection light representing the image GD1 from the projection unit 15 provided at the position R1 onto the area T1 of the wall surface W1. , a photographing information acquiring unit 122 that acquires first photographing information 115 representing the result of photographing a region T1 on which projection light representing an image GD1 is projected from a position R2; and an image processing unit 124 for correcting the image projected from the projection unit 15 based on the correction information 117. When the image processing unit 124 corrects the image GD1 based on the correction information 117, the image GP1 indicated by the first photographing information 115 and the image GD1 are corrected based on the correction information 117 rather than the degree of difference between the image GP1 and the image GD1. The degree of difference between the image GD1 and the image GP2 indicated by the second photographing information 116 representing the photographing result obtained by photographing the region T1 projected from the position R2 and the projection light indicating the image GD2 corrected for GD1 is reduced. Characterized by

また、第1実施形態に係るプロジェクションシステムSysは、位置R1に設けられた投射部15から壁面W1の領域T1に対して、画像GD1を示す投射光を投射させる投射制御部121と、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115を取得する撮影情報取得部122と、第1撮影情報115に基づいて、投射部15から投射される画像を補正するための補正情報117を生成する補正情報生成部123と、補正情報117に基づいて、投射部15から投射される画像を補正する画像処理部124と、を備え、画像処理部124が、補正情報117に基づいて画像GD1を補正する場合に、第1撮影情報115の示す画像GP1と、画像GD1との相違の程度よりも、補正情報117に基づいて画像GD1を補正した画像GD2を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第2撮影情報116の示す画像GP2と、画像GD1との相違の程度が小さくなる、ことを特徴とする。 Further, the projection system Sys according to the first embodiment includes a projection control unit 121 for projecting projection light representing the image GD1 from the projection unit 15 provided at the position R1 onto the area T1 of the wall surface W1, and the image GD1. The projection light is projected from the projection unit 15 based on the first imaging information acquisition unit 122 that acquires the first imaging information 115 representing the imaging result of imaging the region T1 projected with the projection light shown from the position R2, and the first imaging information 115. A correction information generation unit 123 that generates correction information 117 for correcting an image, and an image processing unit 124 that corrects an image projected from the projection unit 15 based on the correction information 117. The image processing unit 124 However, when correcting the image GD1 based on the correction information 117, the image GD2 obtained by correcting the image GD1 based on the correction information 117 is more important than the degree of difference between the image GP1 indicated by the first photographing information 115 and the image GD1. The image GP2 indicated by the second photographing information 116 representing the photographing result of photographing the area T1 projected with the projection light indicating from the position R2 and the image GD1 are less different.

すなわち、本実施形態に係るプロジェクター1は、画像GD1を示す投射光が投射された領域T1をプロジェクター1とは異なる位置R2から撮影した撮影結果を表す第1撮影情報115に基づいて生成された補正情報117を用いて画像GD1を補正した画像GD2を示す投射光を、壁面W1の領域T1に対して投射することで、観察者から見て好ましい態様で表示される画像GS1を表示することができる。これにより、プロジェクター1は、プロジェクター1とは異なる位置から画像を見る観察者に対して、好ましい態様で画像を表示することができる。 That is, the projector 1 according to the present embodiment performs correction generated based on the first imaging information 115 representing the imaging result of imaging the area T1 onto which the projection light representing the image GD1 is projected from a position R2 different from the projector 1. By projecting the projection light representing the image GD2 obtained by correcting the image GD1 using the information 117 onto the region T1 of the wall surface W1, it is possible to display the image GS1 that is displayed in a preferred mode for the observer. . As a result, the projector 1 can display an image in a preferred manner for an observer viewing the image from a position different from that of the projector 1 .

なお、第1実施形態において、プロジェクター1は「プロジェクター」の一例であり、位置R1は「第1位置」の一例であり、投射部15は「投射部」の一例であり、壁面W1は「投射対象」の一例であり、領域T1は「第1領域」の一例であり、画像GD1は「第1画像」の一例であり、位置R2は「第2位置」の一例であり、第1撮影情報115は「第1撮影情報」の一例であり、補正情報117は「補正情報」の一例であり、画像GP1は「第1撮影画像」の一例であり、画像GD2は「第2画像」の一例であり、第2撮影情報116は「第2観察情報」、「第2撮影情報」の一例であり、画像GP2は「第2撮影画像」の一例であり、投射制御部121は「投射制御部」の一例であり、撮影情報取得部122は「取得部」の一例であり、補正情報生成部123は「生成部」の一例であり、画像処理部124は「補正部」の一例であり、制御部12は「プロセッサー」の一例であり、プログラム110は制御部12が実行する「プログラム」の一例であり、プロジェクションシステムSysは「プロジェクションシステム」の一例である。また、画像GD1および所定画像情報113の示す画像は「投射部から投射される画像」、「画像情報111の示す画像」の一例である。 In the first embodiment, the projector 1 is an example of a "projector," the position R1 is an example of a "first position," the projection unit 15 is an example of a "projection unit," and the wall surface W1 is an example of a "projection unit." The area T1 is an example of the "first area", the image GD1 is an example of the "first image", the position R2 is an example of the "second position", and the first photographing information Reference numeral 115 is an example of "first photographing information", correction information 117 is an example of "correction information", image GP1 is an example of "first photographed image", and image GD2 is an example of "second image". , the second photographing information 116 is an example of the “second observation information” and the “second photographing information”, the image GP2 is an example of the “second photographed image”, and the projection control unit 121 is the “projection control unit , the imaging information acquisition unit 122 is an example of the “acquisition unit”, the correction information generation unit 123 is an example of the “generation unit”, the image processing unit 124 is an example of the “correction unit”, The control unit 12 is an example of a "processor", the program 110 is an example of a "program" executed by the control unit 12, and the projection system Sys is an example of a "projection system". Also, the image GD1 and the image indicated by the predetermined image information 113 are examples of the "image projected from the projection unit" and the "image indicated by the image information 111".

また、第1実施形態に係る表示方法において、投射部15は、複数の発光素子E1を備え、画像GD1を示す投射光は、複数の発光素子E1から投射される、ことを特徴とする。 Further, in the display method according to the first embodiment, the projection unit 15 is provided with a plurality of light emitting elements E1, and the projection light representing the image GD1 is projected from the plurality of light emitting elements E1.

すなわち、本実施形態に係るプロジェクター1は、バックライトを用いて発光する液晶パネルを用いて画像を投射するプロジェクターと比べて、画素毎に輝度範囲を大きく調整でき、投射された画像を幅広い階調の明るさで表現することができる。これにより、プロジェクター1は、補正された画像の明るさを精度よく表現でき高品位な画像を観察者に提示することができる。 In other words, the projector 1 according to the present embodiment can adjust the luminance range of each pixel to a large extent, and the projected image can be displayed in a wide range of tones, compared to a projector that projects an image using a liquid crystal panel that emits light using a backlight. can be represented by the brightness of As a result, the projector 1 can express the brightness of the corrected image with high precision, and can present a high-quality image to the observer.

なお、第1実施形態において、発光素子E1は「発光素子」の一例である。 In addition, in the first embodiment, the light-emitting element E1 is an example of the "light-emitting element".

また、第1実施形態に係る表示方法において、投射部15から投射される画像GDを補正することは、補正情報117に基づいて、複数の発光素子E1の各々から投射される光の明るさを補正することを含み、補正情報117に基づいて画像GD1を補正する場合、画像GP1における明るさの分布と、画像GD1における輝度の分布との相違の程度よりも、画像GP2における明るさの分布と、画像GD1における輝度の分布との相違の程度が小さくなる、ことを特徴とする。 In addition, in the display method according to the first embodiment, correcting the image GD projected from the projection unit 15 is based on the correction information 117 to adjust the brightness of the light projected from each of the plurality of light emitting elements E1. When correcting the image GD1 based on the correction information 117, the distribution of brightness in the image GP2 is more important than the degree of difference between the distribution of brightness in the image GP1 and the distribution of brightness in the image GD1. , the degree of difference from the luminance distribution in the image GD1 is small.

すなわち、本実施形態に係るプロジェクター1は、補正情報117に基づいて、投射される画像GDの輝度を補正することができる。これにより、プロジェクター1は、プロジェクター1とは異なる位置から画像GSを見る観察者に対して、好ましい明るさで画像GSを表示することができる。 That is, the projector 1 according to this embodiment can correct the brightness of the projected image GD based on the correction information 117 . As a result, the projector 1 can display the image GS with preferable brightness to an observer viewing the image GS from a position different from that of the projector 1 .

また、第1実施形態に係る表示方法において、補正情報117は、画像GP1に含まれる複数の画素の各々の明るさに関する輝度分布情報119を有し、投射部15から投射される画像GDを補正することは、輝度分布情報119に基づいて、複数の発光素子E1の各々から投射される光の明るさを補正することを含む、ことを特徴とする。 Further, in the display method according to the first embodiment, the correction information 117 has luminance distribution information 119 regarding the brightness of each of the plurality of pixels included in the image GP1, and corrects the image GD projected from the projection unit 15. The step of adjusting includes correcting the brightness of the light projected from each of the plurality of light emitting elements E1 based on the luminance distribution information 119. FIG.

すなわち、本実施形態に係るプロジェクター1は、輝度分布情報119に基づいて、投射される画像GDの輝度を正確に補正することができる。これにより、プロジェクター1は、プロジェクター1とは異なる位置から画像を見る観察者に対して、より好ましい明るさで画像を表示することができる。 That is, the projector 1 according to this embodiment can accurately correct the brightness of the projected image GD based on the brightness distribution information 119 . As a result, the projector 1 can display an image with more preferable brightness for an observer viewing the image from a position different from that of the projector 1 .

なお、第1実施形態において、輝度分布情報119は「輝度分布情報」の一例である。 Note that, in the first embodiment, the luminance distribution information 119 is an example of "luminance distribution information".

また、第1実施形態に係る表示方法において、投射部15から投射される画像GDを補正することは、補正情報117に基づいて、投射部15から投射される画像GDの有するパターンの形状を補正することを含み、補正情報117に基づいて画像GD1を補正する場合、画像GP1の有するパターンPT3の形状と、画像GD1の有するパターンPT1の形状との相違の程度よりも、画像GP2の有するパターンPP2の形状と、画像GD1の有するパターンPD1の形状との相違の程度が小さくなる、ことを特徴とする。 Further, in the display method according to the first embodiment, correcting the image GD projected from the projection unit 15 means correcting the shape of the pattern of the image GD projected from the projection unit 15 based on the correction information 117. and correcting the image GD1 based on the correction information 117, the pattern PP2 of the image GP2 is more important than the degree of difference between the shape of the pattern PT3 of the image GP1 and the shape of the pattern PT1 of the image GD1. and the shape of the pattern PD1 of the image GD1 is less different.

すなわち、本実施形態に係るプロジェクター1は、補正情報117に基づいて、投射される画像に描かれたパターンの形状を補正することができる。これにより、プロジェクター1は、プロジェクター1とは異なる位置から画像を見る観察者に対して、好ましい形状の画像を表示することができる。 That is, the projector 1 according to this embodiment can correct the shape of the pattern drawn on the projected image based on the correction information 117 . As a result, the projector 1 can display an image having a preferable shape to an observer viewing the image from a position different from that of the projector 1 .

なお、第1実施形態において、パターンPD1、パターンPP1およびパターンPP2は「パターン」の一例である。 Note that, in the first embodiment, the pattern PD1, the pattern PP1, and the pattern PP2 are examples of "patterns."

2.第2実施形態
以下において、本発明の第2実施形態を説明する。なお、以下に例示する各形態において、作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜省略する。
2. Second Embodiment A second embodiment of the present invention will be described below. Note that, in each embodiment illustrated below, the reference numerals used in the description of the first embodiment are used for elements having the same actions and functions as those of the first embodiment, and detailed description thereof will be omitted as appropriate.

第1実施形態において、プロジェクター1が投射部15から投射される画像を補正するための補正情報117を生成する場合を例示したが、本発明はこのような態様に限定されるものではない。例えば、画像GDを示す投射光が投射された領域T1を位置R2から撮影するスマートフォンが、投射部15から投射される画像GDを補正するための補正情報を生成してもよい。 In the first embodiment, the case where the projector 1 generates the correction information 117 for correcting the image projected from the projection unit 15 was exemplified, but the present invention is not limited to such an aspect. For example, a smartphone that captures an image of the region T1 onto which the projection light representing the image GD is projected from the position R2 may generate correction information for correcting the image GD projected from the projection unit 15 .

以下、図14を参照しつつ、第2実施形態に係るプロジェクター1Aおよびスマートフォン2Aの構成および機能について説明する。また、図13を参照しつつ、第2実施形態に係るスマートフォン2Aの動作について説明する。 Hereinafter, configurations and functions of the projector 1A and the smartphone 2A according to the second embodiment will be described with reference to FIG. Also, the operation of the smartphone 2A according to the second embodiment will be described with reference to FIG. 13 .

図14は、第2実施形態に係るプロジェクター1Aおよびスマートフォン2Aの構成を示すブロック図である。 FIG. 14 is a block diagram showing configurations of a projector 1A and a smartphone 2A according to the second embodiment.

プロジェクター1Aは、記憶部11の代わりに記憶部11Aを備える点と、制御部12の代わりに制御部12Aを備える点とを除き、第1実施形態に係るプロジェクター1と同様に構成される。記憶部11Aは、プログラム110の代わりにプログラム110Aを記憶する点と、補正情報117の代わりに補正情報217を記憶する点と、撮影情報114を記憶しない点とを除き、記憶部11と同様に構成される。制御部12Aは、撮影情報取得部122および補正情報生成部123の代わりに補正情報取得部126としての機能を有する点を除き、制御部12と同様に構成される。制御部12Aは、制御部12Aが有するCPU等がプログラム110Aを実行し、プログラム110Aに従って動作することで、図12に示す投射画像取得部120、投射制御部121、補正情報取得部126および画像処理部124として機能する。なお、図12において、操作部14の図示は省略する。 The projector 1A is configured in the same manner as the projector 1 according to the first embodiment, except that the storage unit 11A is provided instead of the storage unit 11 and the control unit 12A is provided instead of the control unit 12. The storage unit 11A is similar to the storage unit 11 except that the program 110A is stored instead of the program 110, the correction information 217 is stored instead of the correction information 117, and the shooting information 114 is not stored. Configured. The control unit 12A is configured in the same manner as the control unit 12 except that it functions as a correction information acquisition unit 126 instead of the imaging information acquisition unit 122 and the correction information generation unit 123 . The control unit 12A executes the program 110A by the CPU or the like of the control unit 12A, and operates according to the program 110A, so that the projection image acquisition unit 120, the projection control unit 121, the correction information acquisition unit 126, and the image processing shown in FIG. It functions as part 124 . 12, illustration of the operation unit 14 is omitted.

補正情報取得部126は、通信部13を制御することで、プロジェクター1Aと通信可能に接続されたスマートフォン2Aから、後述する補正情報217を取得する。また、補正情報取得部126は、取得した補正情報217を記憶部11Aに記憶させる。 By controlling the communication unit 13, the correction information acquisition unit 126 acquires correction information 217, which will be described later, from the smartphone 2A communicably connected to the projector 1A. Further, the correction information acquisition unit 126 stores the acquired correction information 217 in the storage unit 11A.

スマートフォン2Aは、各種情報を記憶する記憶部21と、スマートフォン2Aの動作を制御する制御部22と、プロジェクター1A、外部記憶装置または外部サーバー等との通信を実行する通信部23と、プロジェクター1Aからの投射光が投射された領域を撮影する撮影部25とを備える。 The smartphone 2A includes a storage unit 21 that stores various information, a control unit 22 that controls the operation of the smartphone 2A, a communication unit 23 that performs communication with the projector 1A, an external storage device, an external server, or the like, and a and a photographing unit 25 for photographing an area onto which the projected light is projected.

記憶部21は、プログラム110の代わりにプログラム210を記憶する点と、補正情報117の代わりに補正情報217を記憶する点とを除き、記憶部11と同様に構成される。プログラム210は、スマートフォン2Aの動作を規定する。補正情報217は、後述する補正情報生成部223によって生成される。また、補正情報217は、補正情報117と同様、投射部15から投射される画像GDを補正するための情報である。すなわち、補正情報217は、パターン情報118と同様の情報と、輝度分布情報119と同様の情報を含んでもよい。また、補正情報217に基づいて画像GD1を補正した場合、換言すれば、補正情報217に基づいて画像GD1を表すパターン画像情報112を補正した場合、補正情報217に基づいて補正されたパターン画像情報112は、画像GD2を表す画像データである。 The storage unit 21 is configured in the same manner as the storage unit 11 except that the program 210 is stored instead of the program 110 and the correction information 217 is stored instead of the correction information 117 . The program 210 prescribes the operation of the smart phone 2A. The correction information 217 is generated by a correction information generator 223, which will be described later. Further, the correction information 217 is information for correcting the image GD projected from the projection unit 15, like the correction information 117. FIG. That is, the correction information 217 may include information similar to the pattern information 118 and information similar to the luminance distribution information 119 . Further, when the image GD1 is corrected based on the correction information 217, in other words, when the pattern image information 112 representing the image GD1 is corrected based on the correction information 217, the pattern image information corrected based on the correction information 217 112 is image data representing the image GD2.

制御部22は、1または複数のCPUを含んで構成される。但し、制御部22は、CPUの代わりに、または、CPUに加えて、FPGA等のプログラマブルロジックデバイスを備えるものでもよい。制御部22は、制御部22が有するCPU等がプログラム210を実行し、プログラム210に従って動作することで、図12に示す撮影制御部221、補正情報生成部223および通信制御部225として機能する。 The control unit 22 includes one or more CPUs. However, the control unit 22 may be provided with a programmable logic device such as FPGA instead of or in addition to the CPU. The control unit 22 functions as the imaging control unit 221, the correction information generation unit 223, and the communication control unit 225 shown in FIG.

撮影制御部221は、撮影部25を制御することで、プロジェクター1Aからの投射光が投射された領域を撮影させる。そして、撮影制御部221は、撮影部25から、投射光が投射された領域を撮影した撮影結果を表す撮影情報114を取得する。また、撮影制御部221は、取得した撮影情報114を記憶部21に記憶させる。 The photographing control unit 221 controls the photographing unit 25 to photograph the area onto which the projection light from the projector 1A is projected. Then, the imaging control unit 221 acquires the imaging information 114 representing the imaging result of imaging the region on which the projection light is projected from the imaging unit 25 . Further, the imaging control unit 221 causes the storage unit 21 to store the acquired imaging information 114 .

補正情報生成部223は、補正情報生成部123と同様の機能を有する。すなわち、補正情報生成部223は、撮影情報114に基づいて、投射部15から投射される画像GDを補正するための補正情報217を生成する。 The correction information generator 223 has the same function as the correction information generator 123 . That is, the correction information generation unit 223 generates correction information 217 for correcting the image GD projected from the projection unit 15 based on the shooting information 114 .

通信制御部225は、通信部23を制御することで、スマートフォン2Aと通信可能に接続されたプロジェクター1Aから画像情報111を取得する。また、通信制御部225は、取得した画像情報111を記憶部21に記憶させる。また、通信制御部225は、通信部23を制御することで、プロジェクター1Aに補正情報217を供給する。 The communication control unit 225 acquires the image information 111 from the projector 1A communicably connected to the smartphone 2A by controlling the communication unit 23 . The communication control unit 225 also causes the storage unit 21 to store the acquired image information 111 . Also, the communication control unit 225 supplies the correction information 217 to the projector 1A by controlling the communication unit 23 .

通信部23は、例えば、コネクターおよびインターフェース回路を有するインターフェース基板を含み、プロジェクター1A、外部記憶装置または外部サーバー等から各種情報を受信する機能と、プロジェクター1A、外部記憶装置または外部サーバー等へ各種情報を送信する機能とを有する。 The communication unit 23 includes, for example, an interface board having a connector and an interface circuit, and has a function of receiving various information from the projector 1A, an external storage device, an external server, or the like, and transmitting various information to the projector 1A, an external storage device, an external server, or the like. and a function to transmit

本実施形態において、通信部23は、例えば、無線通信を利用するローカルエリアネットワーク等を介してプロジェクター1Aと通信可能に接続され、プロジェクター1Aから画像情報111を取得し、また、プロジェクター1Aに補正情報217を供給する場合を想定する。なお、通信部23は、スマートフォン2Aと通信可能に接続された不図示のパーソナルコンピューターから画像情報111を取得してもよい。また、画像情報111は、予め記憶部21に記憶されるものでもよい。 In the present embodiment, the communication unit 23 is communicably connected to the projector 1A via, for example, a local area network using wireless communication, acquires the image information 111 from the projector 1A, and sends the correction information to the projector 1A. 217 is supplied. Note that the communication unit 23 may acquire the image information 111 from a personal computer (not shown) communicably connected to the smartphone 2A. Also, the image information 111 may be stored in the storage unit 21 in advance.

撮影部25は、撮影制御部221の制御により、プロジェクター1Aからの投射光が投射された領域を撮影する。そして、撮影部25は、投射光が投射された領域を撮影した撮影結果を表す撮影情報114を取得する。 Under the control of the imaging control unit 221, the imaging unit 25 images an area onto which the projection light from the projector 1A is projected. Then, the photographing unit 25 acquires the photographing information 114 representing the result of photographing the area on which the projection light is projected.

なお、本実施形態では、第1実施形態と同様、位置R1に設けられたプロジェクター1Aから壁面W1の領域T1に対して画像GD1を示す投射光が投射され、スマートフォン2Aが画像GD1を示す投射光が投射された領域T1を位置R2から撮影する場合を想定する。 Note that, in the present embodiment, as in the first embodiment, projection light representing the image GD1 is projected from the projector 1A provided at the position R1 onto the area T1 of the wall surface W1, and the smartphone 2A projects the projection light representing the image GD1. It is assumed that a region T1 on which is projected is photographed from a position R2.

図15は、第2実施形態に係るスマートフォン2Aの動作について説明するためのフローチャートである。当該フローチャートに示す一連の動作は、例えば、スマートフォン2Aの電源がONになり、スマートフォン2Aがスマートフォン2Aの使用者から動作開始に関する入力操作を受け付けた際に開始される。ここで、スマートフォン2Aの使用者とは、すなわち、観察者である。 FIG. 15 is a flowchart for explaining the operation of the smart phone 2A according to the second embodiment. A series of operations shown in the flowchart is started, for example, when the power of the smartphone 2A is turned on and the smartphone 2A receives an input operation regarding the start of operation from the user of the smartphone 2A. Here, the user of the smart phone 2A is an observer.

なお、図13に示すフローチャートは、プロジェクター1Aが図10に示すフローチャートのステップS102における動作を実行した後に開始されることを前提とする。また、スマートフォン2Aが図13のフローチャートに示す一連の動作を実行している間、プロジェクター1Aは、図10のフローチャートに示す一連の動作を一時的に中断する。 It is assumed that the flowchart shown in FIG. 13 is started after the projector 1A executes the operation in step S102 of the flowchart shown in FIG. Further, while the smartphone 2A is executing the series of operations shown in the flowchart of FIG. 13, the projector 1A temporarily suspends the series of operations shown in the flowchart of FIG.

ステップS111において、撮影制御部221は、撮影部25を制御することで、画像GD1を示す投射光が投射された領域T1を撮影させる。換言すれば、撮影制御部221は、撮影部25を制御することで、画像GS1が表示された領域T1を含むように設定された撮影範囲Sを撮影させる。この時、スマートフォン2Aは、前述の通り、位置R2に位置する。 In step S111, the photographing control unit 221 controls the photographing unit 25 to photograph the region T1 onto which the projection light representing the image GD1 is projected. In other words, the photographing control unit 221 controls the photographing unit 25 to photograph the photographing range S set to include the region T1 in which the image GS1 is displayed. At this time, the smartphone 2A is positioned at the position R2 as described above.

ステップS112において、撮影制御部221は、撮影部25から、画像GD1を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す撮影情報114を取得する。また、撮影制御部221は、取得した撮影情報114を記憶部21に記憶させる。
より正確には、撮影制御部221は、撮影部25から、第1撮影情報115を取得する。また、撮影制御部221は、第1撮影情報115を記憶部21に記憶させる。
In step S112, the imaging control unit 221 acquires, from the imaging unit 25, the imaging information 114 representing the result of imaging the area T1 onto which the projection light representing the image GD1 is projected from the position R2. Further, the imaging control unit 221 causes the storage unit 21 to store the acquired imaging information 114 .
More precisely, the imaging control section 221 acquires the first imaging information 115 from the imaging section 25 . Also, the imaging control unit 221 causes the storage unit 21 to store the first imaging information 115 .

ステップS113において、通信制御部225は、通信部23を制御することで、スマートフォン2Aと通信可能に接続されたプロジェクター1Aから、画像情報111を取得する。また、通信制御部225は、取得した画像情報111を記憶部21に記憶させる。
より正確には、通信制御部225は、プロジェクター1Aから、パターン画像情報112を取得する。また、通信制御部225は、パターン画像情報112を記憶部21に記憶させる。
In step S<b>113 , the communication control unit 225 acquires the image information 111 from the projector 1</b>A communicably connected to the smartphone 2</b>A by controlling the communication unit 23 . The communication control unit 225 also causes the storage unit 21 to store the acquired image information 111 .
More precisely, the communication control section 225 acquires the pattern image information 112 from the projector 1A. Further, the communication control section 225 causes the storage section 21 to store the pattern image information 112 .

ステップS114において、補正情報生成部223は、撮影情報114に基づいて、投射部15から投射される画像GD1を補正するための補正情報217を生成する。
より正確には、補正情報生成部223は、第1撮影情報115と、パターン画像情報112との相違の程度に基づいて、補正情報217を生成する。
In step S<b>114 , the correction information generation unit 223 generates correction information 217 for correcting the image GD<b>1 projected from the projection unit 15 based on the shooting information 114 .
More precisely, the correction information generator 223 generates the correction information 217 based on the degree of difference between the first imaging information 115 and the pattern image information 112 .

ステップS115において、通信制御部225は、通信部23を制御することで、プロジェクター1Aに補正情報217を供給する。
その後、制御部22は、フローチャートに示す一連の動作を終了させる。
In step S<b>115 , the communication control unit 225 supplies the correction information 217 to the projector 1</b>A by controlling the communication unit 23 .
After that, the control unit 22 terminates the series of operations shown in the flowchart.

ステップS115における動作が実行された後、プロジェクター1Aの備える補正情報取得部126は、通信部13を制御することで、スマートフォン2Aから補正情報217を取得する。また、補正情報取得部126は、取得した補正情報217を記憶部11Aに記憶させる。
その後、プロジェクター1Aは、図10に示すフローチャートのステップS105から動作を再開する。
After the operation in step S115 is performed, the correction information acquisition unit 126 included in the projector 1A acquires the correction information 217 from the smartphone 2A by controlling the communication unit 13. Further, the correction information acquisition unit 126 stores the acquired correction information 217 in the storage unit 11A.
After that, the projector 1A resumes operation from step S105 of the flowchart shown in FIG.

以上より、第2実施形態によれば、スマートフォン2Aにおいて、投射部15から投射される画像GD1を補正するための補正情報217を生成することができる。すなわち、補正情報を生成する際の処理をプロジェクター以外の装置で行うことで、プロジェクターの負荷を分散することができる。 As described above, according to the second embodiment, the correction information 217 for correcting the image GD1 projected from the projection unit 15 can be generated in the smartphone 2A. In other words, the load on the projectors can be distributed by performing the process for generating the correction information in a device other than the projector.

なお、投射部15から投射される画像GD1を補正するための補正情報を生成する際の一連の動作は、スマートフォン2Aに限らず、例えば、パーソナルコンピューター等の情報処理装置を用いることで実行可能である。具体的には、パーソナルコンピューターと通信可能に接続されたデジタルカメラ等の撮影装置を用いて、ステップS111における処理を実行し、パーソナルコンピューターを用いて、ステップS112~S115における処理を実行することで、投射部15から投射される画像GD1を補正するための補正情報を生成することができる。 A series of operations for generating correction information for correcting the image GD1 projected from the projection unit 15 can be executed by using an information processing device such as a personal computer, not limited to the smartphone 2A. be. Specifically, the processing in step S111 is performed using a photographing device such as a digital camera communicably connected to a personal computer, and the processing in steps S112 to S115 is performed using the personal computer. Correction information for correcting the image GD1 projected from the projection unit 15 can be generated.

以上に説明したように、第2実施形態に係るスマートフォン2Aは、プロジェクター1Aが具備する投射部15が、位置R1から壁面W1の領域T1に対して画像GD1を示す投射光を投射する場合に、領域T1を位置R2から撮影した撮影結果を表す第1撮影情報115を取得する撮影制御部221と、第1撮影情報115に基づいて、投射部15から投射される画像GD1を補正するための補正情報217を生成する補正情報生成部223と、を備え、補正情報217は、プロジェクター1Aが、補正情報217に基づいて画像GD1を補正する場合に、第1撮影情報115の示す画像GP1と、画像GD1との相違の程度よりも、補正情報217に基づいて画像GD1を補正した画像GD2を示す投射光が投射された領域T1を位置R2から撮影した撮影結果を表す第2撮影情報116の示す画像GP2と、画像GD1との相違の程度を小さくするための情報である、ことを特徴とする。 As described above, in the smartphone 2A according to the second embodiment, when the projection unit 15 included in the projector 1A projects projection light representing the image GD1 from the position R1 onto the area T1 of the wall surface W1, A shooting control unit 221 that acquires first shooting information 115 representing the shooting result of shooting the region T1 from the position R2, and a correction for correcting the image GD1 projected from the projection unit 15 based on the first shooting information 115. a correction information generation unit 223 that generates information 217, and the correction information 217 is the image GP1 indicated by the first photographing information 115 and the image An image indicated by the second photographing information 116 representing the photographing result of photographing the area T1 projected with the projection light from the position R2, showing the image GD2 obtained by correcting the image GD1 based on the correction information 217 rather than the degree of difference from the image GD1. It is characterized in that it is information for reducing the degree of difference between GP2 and image GD1.

すなわち、本実施形態に係るスマートフォン2Aは、プロジェクターの代わりに、投射部15から投射される画像を補正するための補正情報217を生成することができる。これにより、スマートフォン2Aは、補正情報を生成する際の処理を肩代わりすることで、当該処理に係るプロジェクターの負荷を減らすことができる。 That is, the smartphone 2A according to the present embodiment can generate the correction information 217 for correcting the image projected from the projection unit 15 instead of the projector. As a result, the smartphone 2A takes over the processing when generating the correction information, thereby reducing the load on the projector involved in the processing.

なお、第2実施形態2において、スマートフォン2Aは「情報処理装置」の一例であり、プロジェクター1Aは「プロジェクター」の一例であり、投射部15は「投射部」の一例であり、位置R1は「第1位置」の一例であり、壁面W1は「投射対象」の一例であり、領域T1は「第1領域」の一例であり、画像GD1は「第1画像」の一例であり、位置R2は「第2位置」の一例であり、第1撮影情報115は「第1撮影情報」の一例であり、補正情報217は「補正情報」の一例であり、画像GP1は「第1撮影画像」の一例であり、画像GD2は「第2画像」の一例であり、第2撮影情報116は「第2撮影情報」の一例であり、画像GP2は「第2撮影画像」の一例であり、撮影制御部221は「取得部」の一例であり、補正情報生成部223は「生成部」の一例である。また、画像GD1は「投射部から投射される画像」、「画像情報111の示す画像」の一例である。 In the second embodiment 2, the smartphone 2A is an example of an "information processing device," the projector 1A is an example of a "projector," the projection unit 15 is an example of a "projection unit," and the position R1 is an example of a "projection unit." The wall surface W1 is an example of the "projection target", the area T1 is an example of the "first area", the image GD1 is an example of the "first image", and the position R2 is an example of the "first image". The first photographing information 115 is an example of the “first photographing information”, the correction information 217 is an example of the “correction information”, and the image GP1 is an example of the “first photographed image”. The image GD2 is an example of the "second image", the second photographing information 116 is an example of the "second photographing information", and the image GP2 is an example of the "second photographed image". The unit 221 is an example of the “acquisition unit”, and the correction information generation unit 223 is an example of the “generation unit”. Also, the image GD1 is an example of the "image projected from the projection unit" and the "image indicated by the image information 111".

3.変形例
以上の実施形態は多様に変形され得る。具体的な変形の態様を以下に例示する。また、以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜併合され得る。なお、以下に例示する変形例において作用や機能が前述の実施形態と同等である要素については、以上の説明で使用した符号を流用して各々の詳細な説明を適宜省略する。
3. Modifications The above embodiment can be modified in various ways. Specific modification modes are exemplified below. Also, two or more aspects arbitrarily selected from the following examples can be combined as appropriate within a mutually consistent range. In addition, in the modified examples illustrated below, the elements whose actions and functions are equivalent to those of the above-described embodiment are appropriately omitted from detailed description by using the reference numerals used in the above description.

3.1.変形例1
前述の実施形態において、プロジェクター1がパターンPD1を有する画像GD1を示す投射光を投射することで、補正情報117を生成する場合を例示したが、本発明はこのような態様に限定されるものではない。すなわち、プロジェクター1から投射される画像は、パターンPD1とは異なるパターンまたは模様を有する画像でもよい。
3.1. Modification 1
In the above-described embodiment, the projector 1 generates the correction information 117 by projecting projection light representing the image GD1 having the pattern PD1, but the present invention is not limited to this aspect. do not have. That is, the image projected from the projector 1 may be an image having a pattern or pattern different from the pattern PD1.

図16は、変形例1に係る画像GD1Xを説明するための模式図である。画像GD1Xは、画像GD1の有するパターンPD1とは異なるパターンPD1Xを有する。パターンPD1Xは、格子状に直線が配されたパターンである。位置R1に設けられたプロジェクター1は、画像GD1Xを示す投射光を領域T1に対して投射し、画像GD1Xを示す投射光が投射された領域T1を位置R2から撮影した撮影結果を示す撮影情報を取得し、当該撮影情報に基づいて、投射部15から投射される画像を補正GD1するための補正情報を生成してもよい。 FIG. 16 is a schematic diagram for explaining the image GD1X according to Modification 1. As shown in FIG. The image GD1X has a pattern PD1X different from the pattern PD1 of the image GD1. The pattern PD1X is a pattern in which straight lines are arranged in a lattice. The projector 1 provided at the position R1 projects the projection light representing the image GD1X onto the region T1, and captures the region T1 onto which the projection light representing the image GD1X is projected from the position R2. Correction information for correcting GD1 the image projected from the projection unit 15 may be generated based on the obtained photographing information.

なお、プロジェクター1から投射される画像は、パターンPD1およびパターンPD1Xとは異なるパターンを有する画像であってもよい。例えば、パターンPD1Xの示す格子状の直線が、図16の紙面において45°回転したパターンを有する画像であってもよい。また、画像の有するパターンは格子状の直線に限らず、例えば、複数のドットが規則的に配されたパターンであってもよい。また、2色からなるパターンPD1を有する画像GD1を例示したが、3以上の色からなるパターンを有する画像であってもよい。 Note that the image projected from the projector 1 may be an image having a pattern different from the pattern PD1 and the pattern PD1X. For example, the grid-like straight lines indicated by the pattern PD1X may be an image having a pattern that is rotated 45° on the page of FIG. 16 . Moreover, the pattern of the image is not limited to the grid-like straight lines, and may be, for example, a pattern in which a plurality of dots are regularly arranged. Also, although the image GD1 having the pattern PD1 made up of two colors has been exemplified, an image having a pattern made up of three or more colors may be used.

例えば、投射光の投射対象の色や形状に合わせて、異なるパターンを有する複数の画像をあわせて用いることで、撮影画像の取得精度を向上させることが可能となる。その結果、プロジェクター1は、投射部15から投射される画像を補正するための補正情報を、高精度に生成することができる。また、3以上の色からなるパターンを有する画像を用いることで、補正情報として色の情報も加わり補正精度が向上する。 For example, by using a plurality of images having different patterns according to the color and shape of the projection target of the projection light, it is possible to improve the acquisition accuracy of the captured image. As a result, the projector 1 can highly accurately generate correction information for correcting the image projected from the projection unit 15 . Further, by using an image having a pattern of three or more colors, color information is added as correction information, and the correction accuracy is improved.

3.2.変形例2
前述の実施形態および変形例において、プロジェクター1が輝度分布情報119に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正する場合を例示したが、本発明はこのような態様に限定されるものではない。具体的には、パターン情報118に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正してもよい。
3.2. Modification 2
In the above-described embodiment and modifications, the case where the projector 1 corrects the luminance of each of the plurality of pixels included in the image GD1 based on the luminance distribution information 119 was exemplified, but the present invention is limited to such an aspect. not to be Specifically, based on the pattern information 118, the brightness of each of the plurality of pixels included in the image GD1 may be corrected.

図17は、投射光の投射対象に表示された画像GSの有するパターンと、画像の明るさとの関係を説明するための模式図である。図17では、プロジェクターから、画像GD1を示す投射光Hが、壁面W3と、壁面W4との境界に跨るように投射される様子が図示される。本変形例において、投射光Hは、壁面W3に対して垂直に投射される場合を想定する。また、投射光Hは、壁面W4に対して斜めに投射される場合を想定する。 FIG. 17 is a schematic diagram for explaining the relationship between the pattern of the image GS displayed on the projection target of the projection light and the brightness of the image. FIG. 17 illustrates a state in which the projection light H representing the image GD1 is projected from the projector so as to straddle the boundary between the wall surface W3 and the wall surface W4. In this modified example, it is assumed that the projection light H is projected perpendicular to the wall surface W3. It is also assumed that the projection light H is obliquely projected onto the wall surface W4.

壁面W3において、投射光Hが投射された領域には、画像GS3Lが表示される。画像GS3Lは、パターンPS3Lを有する。また、壁面W4において、投射光Hが投射された領域には、画像GS3Rが表示される。画像GS3Rは、パターンPS3Rを有する。なお、壁面W3と、壁面W4との境界に跨って表示される画像を、画像GS3と称することがある。画像GS3は、画像GS3Lと、画像GS3Rとを含む。 An image GS3L is displayed in the region of the wall surface W3 where the projection light H is projected. Image GS3L has pattern PS3L. Further, an image GS3R is displayed on the area of the wall surface W4 where the projection light H is projected. Image GS3R has pattern PS3R. An image displayed across the boundary between the wall surface W3 and the wall surface W4 may be referred to as an image GS3. Image GS3 includes image GS3L and image GS3R.

投射光Hが一様な明るさ(一様な密度)でプロジェクターから投射される場合、壁面W4には投射光Hが斜めに入射することから、壁面W3と比較して、単位面積当たりに入射する光の量が小さくなることがわかる。すなわち、壁面W4に表示される画像GS3Rは、壁面W3に表示される画像GS3Lと比較して、暗く表示されることがわかる。また、壁面W3および壁面W4は互いに傾いて接しており、投射光Hが入射する角度が異なっているため、画像GS3Lの有するパターンPS3Lの形状と、画像GS3Rの有するパターンPS3Rの形状とは一致しないことがわかる。 When the projection light H is projected from the projector with uniform brightness (uniform density), the projection light H is obliquely incident on the wall surface W4. It can be seen that the amount of light emitted is reduced. That is, it can be seen that the image GS3R displayed on the wall surface W4 is displayed darker than the image GS3L displayed on the wall surface W3. In addition, the wall surface W3 and the wall surface W4 are in contact with each other at an angle, and the angles at which the projection light H is incident are different. Therefore, the shape of the pattern PS3L of the image GS3L and the shape of the pattern PS3R of the image GS3R do not match. I understand.

従って、投射光の投射対象に表示された画像GSにおいて、画像の有するパターンの形状と、画像の明るさとの間には対応関係があることがわかる。このため、投射光の投射対象に表示された画像GSの有するパターンの形状に基づいて、投射される光の明るさを補正することができる。つまり、プロジェクター1においても、パターン情報118に基づいて、画像GD1に含まれる複数の画素の各々の輝度を補正することができる。換言すれば、パターン情報118に基づいて、複数の発光素子E1の各々から投射される光の明るさを補正することができる。 Therefore, in the image GS displayed on the projection target of the projection light, it can be seen that there is a correspondence between the shape of the pattern of the image and the brightness of the image. Therefore, the brightness of the projected light can be corrected based on the shape of the pattern of the image GS displayed on the projection target of the projected light. That is, also in the projector 1, based on the pattern information 118, the brightness of each of the plurality of pixels included in the image GD1 can be corrected. In other words, based on the pattern information 118, the brightness of the light projected from each of the plurality of light emitting elements E1 can be corrected.

以上より、変形例2によれば、パターン情報118に基づいて、投射部15から投射される画像GDの輝度を画素毎に大きく補正することができる。すなわち、輝度分布情報119が正確に生成できない場合、例えば、表示される画像が暗い色合いであり、輝度に関する情報の精度が高くない場合であっても、パターンの形状を基に、投射される光の明るさを補正することができる。 As described above, according to Modification 2, the luminance of the image GD projected from the projection unit 15 can be greatly corrected for each pixel based on the pattern information 118 . That is, even if the luminance distribution information 119 cannot be generated accurately, for example, if the displayed image is dark in color and the accuracy of the luminance information is not high, the projected light can be calculated based on the shape of the pattern. brightness can be corrected.

以上より、変形例2に係る表示方法において、画像GD1は、パターンPD1を有し、画像GP1は、パターンPD1に対応するパターンPP1を有し、補正情報117は、パターンPP1の形状に関するパターン情報118を有し、投射部15から投射される画像GD1を補正することは、パターン情報118に基づいて、複数の発光素子E1の各々から投射される光の明るさを補正することを含む、ことを特徴とする。 As described above, in the display method according to the modification 2, the image GD1 has the pattern PD1, the image GP1 has the pattern PP1 corresponding to the pattern PD1, and the correction information 117 is the pattern information 118 regarding the shape of the pattern PP1. and correcting the image GD1 projected from the projection unit 15 includes correcting the brightness of the light projected from each of the plurality of light emitting elements E1 based on the pattern information 118. Characterized by

すなわち、変形例2に係るプロジェクターは、パターンの形状に関する情報を基に、投射される画像GDの輝度を正確に補正することができる。これにより、当該プロジェクターは、輝度分布情報119を正確に取得できない場合であっても、当該プロジェクターとは異なる位置から画像GSを見る観察者に対して、より好ましい明るさで画像GSを表示することができる。 That is, the projector according to Modification 2 can accurately correct the brightness of the projected image GD based on the information about the shape of the pattern. As a result, even when the brightness distribution information 119 cannot be obtained accurately, the projector can display the image GS with more preferable brightness for the observer viewing the image GS from a position different from that of the projector. can be done.

なお、変形例2において、画像GD1は「第1画像」の一例であり、パターンPD1は「テストパターン」の一例であり、画像GP1は「第1撮影画像」の一例であり、パターンPP1は「撮影テストパターン」の一例であり、補正情報117は「補正情報」の一例であり、パターン情報118は「パターン情報」の一例であり、投射部15は「投射部」の一例であり、発光素子E1は「発光素子」の一例である。 In Modified Example 2, image GD1 is an example of "first image", pattern PD1 is an example of "test pattern", image GP1 is an example of "first captured image", and pattern PP1 is an example of " The correction information 117 is an example of the "correction information", the pattern information 118 is an example of the "pattern information", the projection unit 15 is an example of the "projection unit", and the light emitting element E1 is an example of a "light emitting element".

3.3.変形例3
前述の実施形態においては、一つの投射光形成部151によりカラー画像を表示する例を示したが、図18に示すように、赤色の光を発する投射光形成部151R、緑色の光を発する投射光形成部151Gおよび青色の光を発する投射光形成部151Bから射出する画像光をダイクロイックプリズム159で合成する構成としてもよい。
3.3. Modification 3
In the above-described embodiment, an example in which a color image is displayed by one projection light forming section 151 is shown. However, as shown in FIG. A dichroic prism 159 may combine the image light emitted from the light forming section 151G and the projection light forming section 151B emitting blue light.

図18は、変形例3に係る投射部15Bの構成を説明するための模式図である。投射部15Bは、三個の投射光形成部151R、投射光形成部151Gおよび投射光形成部151Bと、ダイクロイックプリズム159と、投射レンズ系150とを有する。 FIG. 18 is a schematic diagram for explaining the configuration of a projection section 15B according to Modification 3. As shown in FIG. The projection section 15B has three projection light forming sections 151R, 151G and 151B, a dichroic prism 159, and a projection lens system 150. FIG.

投射光形成部151Rにより射出された赤色の波長域の光、投射光形成部151Gにより射出された緑色の波長域の光、および、投射光形成部151Bにより射出された青色の波長域の光は、互いに異なる3方向からダイクロイックプリズム159に入射する。そして、ダイクロイックプリズム159において、赤色の波長域の光及び青色の波長域の光は90度に屈折し、緑色の波長域の光は直進する。これにより、赤色の画像、緑色の画像及び青色の画像が合成され、その結果、投射光が形成される。ダイクロイックプリズム159を経て形成された投射光は、投射レンズ系150を経て壁面W1へ到達することで、壁面W1上に画像GSを表示する。投射レンズ系150は、壁面W1上に画像GSを結像させる。 The light in the red wavelength range emitted by the projection light forming section 151R, the light in the green wavelength range emitted by the projection light forming section 151G, and the light in the blue wavelength range emitted by the projection light forming section 151B are , enter the dichroic prism 159 from three different directions. In the dichroic prism 159, the light in the red wavelength range and the light in the blue wavelength range are refracted at 90 degrees, and the light in the green wavelength range travels straight. Thereby, a red image, a green image and a blue image are combined to form projection light. The projection light formed through the dichroic prism 159 reaches the wall surface W1 through the projection lens system 150, thereby displaying the image GS on the wall surface W1. The projection lens system 150 forms an image GS on the wall surface W1.

1…プロジェクター、2…スマートフォン、11…記憶部、12…制御部、13…通信部、14…操作部、15…投射部、16…表示制御回路、25…撮影部、110…プログラム、111…画像情報、112…パターン画像情報、113…所定画像情報、114…撮影情報、115…第1撮影情報、116…第2撮影情報、117…補正情報、118…パターン情報、119…輝度分布情報、120…投射画像取得部、121…投射制御部、122…撮影情報取得部、123…補正情報生成部、124…画像処理部、126…補正情報取得部、150…投射レンズ系、151…投射光形成部、152…光源、153…ミラー、158R…液晶パネル、159…ダイクロイックプリズム、221…撮影制御部、225…通信制御部、Cd1…保持容量、E1…発光素子、GS…画像、Img1…写真、KCD…データ線駆動回路、KCS…走査線駆動回路、KPX…画素回路、PD1…パターン、PX…画素、R1…位置、S…撮影範囲、SCL…制御信号、SVD…画像信号、T1…領域、Ts1…トランジスター。 DESCRIPTION OF SYMBOLS 1... Projector 2... Smartphone 11... Storage part 12... Control part 13... Communication part 14... Operation part 15... Projection part 16... Display control circuit 25... Shooting part 110... Program 111... Image information 112 Pattern image information 113 Predetermined image information 114 Shooting information 115 First shooting information 116 Second shooting information 117 Correction information 118 Pattern information 119 Luminance distribution information DESCRIPTION OF SYMBOLS 120... Projection image acquisition part 121... Projection control part 122... Shooting information acquisition part 123... Correction information generation part 124... Image processing part 126... Correction information acquisition part 150... Projection lens system 151... Projection light Forming unit 152 Light source 153 Mirror 158R Liquid crystal panel 159 Dichroic prism 221 Shooting control unit 225 Communication control unit Cd1 Storage capacitor E1 Light emitting element GS Image Img1 Photograph , KCD... data line drive circuit, KCS... scanning line drive circuit, KPX... pixel circuit, PD1... pattern, PX... pixel, R1... position, S... shooting range, SCL... control signal, SVD... image signal, T1... area , Ts1 . . . transistors.

Claims (14)

第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射することと、
前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成することと、
前記補正情報に基づいて、前記投射部から投射される画像を補正することと、
を含み、
前記補正情報に基づいて前記第1画像を補正する場合に、
前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、
前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、
ことを特徴とする表示方法。
projecting projection light representing a first image from a projection unit provided at a first position onto a first area to be projected;
Correction information for correcting the image projected from the projection unit based on first photographing information representing a photographing result of photographing the first area onto which the projection light representing the first image is projected from a second position. and
correcting an image projected from the projection unit based on the correction information;
including
When correcting the first image based on the correction information,
Rather than the degree of difference between the first photographing information and the image information for displaying the first image,
second photographing information representing a photographing result obtained by photographing, from the second position, the first area projected with projection light representing a second image obtained by correcting the first image based on the correction information; and the first image. The degree of difference from the image information for displaying is reduced,
A display method characterized by:
前記補正情報に基づいて前記第1画像を補正する場合に、
前記第1撮影情報の示す第1撮影画像と、前記第1画像との相違の程度よりも、
前記第2撮影情報の示す第2撮影画像と、前記第1画像との相違の程度が小さくなる、
ことを特徴とする請求項1に記載の表示方法。
When correcting the first image based on the correction information,
Rather than the degree of difference between the first captured image indicating the first captured information and the first image,
a degree of difference between the second captured image indicating the second captured information and the first image is reduced;
2. The display method according to claim 1, characterized by:
前記第1撮影情報および前記第2撮影情報を取得すること、を含む
ことを特徴とする請求項2に記載の表示方法。
3. The display method according to claim 2, further comprising obtaining the first photographing information and the second photographing information.
前記投射部は、複数の発光素子を備え、
前記第1画像を示す投射光は、前記複数の発光素子から投射される、
ことを特徴とする請求項1から2のいずれかに記載の表示方法。
The projection unit includes a plurality of light emitting elements,
Projection light representing the first image is projected from the plurality of light emitting elements.
3. The display method according to claim 1, wherein:
前記画像を補正することは、
前記補正情報に基づいて、前記複数の発光素子の各々から投射される光の明るさを補正することを含み、
前記補正情報に基づいて前記第1画像を補正する場合、
前記第1撮影画像における明るさの分布と、前記第1画像における輝度の分布との相違の程度よりも、
前記第2撮影画像における明るさの分布と、前記第1画像における輝度の分布との相違の程度が小さくなる、
ことを特徴とする、請求項4に記載の表示方法。
Correcting the image includes:
Correcting brightness of light projected from each of the plurality of light emitting elements based on the correction information;
When correcting the first image based on the correction information,
Rather than the degree of difference between the brightness distribution in the first captured image and the luminance distribution in the first image,
The degree of difference between the brightness distribution in the second captured image and the luminance distribution in the first image is reduced.
5. The display method according to claim 4, characterized by:
前記第1画像は、テストパターンを有し、
前記第1撮影画像は、前記テストパターンに対応する撮影テストパターンを有し、
前記補正情報は、前記撮影テストパターンの形状に関するパターン情報を有し、
前記投射部から投射される画像を補正することは、
前記パターン情報に基づいて、前記複数の発光素子の各々から射出される光の輝度を補正することを含む、
ことを特徴とする、請求項4または5に記載の表示方法。
the first image has a test pattern;
The first captured image has a captured test pattern corresponding to the test pattern,
The correction information has pattern information regarding the shape of the photographing test pattern,
Correcting the image projected from the projection unit includes:
Correcting brightness of light emitted from each of the plurality of light emitting elements based on the pattern information;
6. The display method according to claim 4 or 5, characterized by:
前記補正情報は、
前記第1撮影画像に含まれる複数の画素の各々の輝度に関する輝度分布情報を有し、
前記投射部から投射される画像を補正することは、
前記輝度分布情報に基づいて、前記複数の発光素子の各々から投射される光の明るさを補正することを含む、
ことを特徴とする、請求項4または5に記載の表示方法。
The correction information is
Having luminance distribution information about the luminance of each of a plurality of pixels included in the first captured image;
Correcting the image projected from the projection unit includes:
correcting brightness of light projected from each of the plurality of light emitting elements based on the luminance distribution information;
6. The display method according to claim 4 or 5, characterized by:
前記画像を補正することは、
前記補正情報に基づいて、前記画像の有するパターンの形状を補正することを含み、
前記補正情報に基づいて前記第1画像を補正する場合、
前記第1撮影画像の有するパターンの形状と、前記第1画像の有するパターンの形状との相違の程度よりも、
前記第2撮影画像の有するパターンの形状と、前記第1画像の有するパターンの形状との相違の程度が小さくなる、
ことを特徴とする、請求項4に記載の表示方法。
Correcting the image includes:
Correcting the shape of the pattern of the image based on the correction information;
When correcting the first image based on the correction information,
Rather than the degree of difference between the shape of the pattern of the first captured image and the shape of the pattern of the first image,
The degree of difference between the shape of the pattern of the second captured image and the shape of the pattern of the first image is reduced;
5. The display method according to claim 4, characterized by:
第1位置に位置し、画像を形成する発光素子を備えた投射部による表示方法であって、
前記投射部から第1領域に対して、第1投射画像を投射し、
前記第1投射画像が表示された前記第1領域を、前記第1位置と水平位置が異なる第2位置から撮像した撮像結果を表す撮像情報を取得し、
前記撮像情報に基づいて、前記第1投射画像を補正して第2投射画像を投射し、
前記第1投射画像は、前記発光素子により形成される画像が、矩形形状であり、
前記第2投射画像は、前記発光素子により形成される画像が、水平方向の対辺の長さが異なる台形形状で、水平方向の明るさが異なる、
ことを特徴とする表示方法。
A display method by a projection unit having a light emitting element for forming an image located at a first position, comprising:
projecting a first projection image from the projection unit onto a first area;
Acquiring imaging information representing an imaging result of imaging the first area in which the first projection image is displayed from a second position different in horizontal position from the first position;
correcting the first projection image and projecting a second projection image based on the imaging information;
wherein the first projection image has a rectangular image formed by the light emitting element;
In the second projection image, the image formed by the light emitting element has a trapezoidal shape with different lengths of opposite sides in the horizontal direction and different brightness in the horizontal direction.
A display method characterized by:
第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射させる投射制御部と、
前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、
前記補正情報に基づいて、前記投射部から投射される画像を補正する補正部と、
を備え、
前記補正部が、前記補正情報に基づいて前記第1画像を補正する場合に、
前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、
前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、
ことを特徴とするプロジェクター。
a projection control unit for projecting projection light representing a first image from a projection unit provided at a first position onto a first area to be projected;
Correction information for correcting the image projected from the projection unit based on first photographing information representing a photographing result of photographing the first area onto which the projection light representing the first image is projected from a second position. a generator that generates
a correction unit that corrects an image projected from the projection unit based on the correction information;
with
When the correction unit corrects the first image based on the correction information,
Rather than the degree of difference between the first photographing information and the image information for displaying the first image,
second photographing information representing a photographing result obtained by photographing, from the second position, the first area projected with projection light representing a second image obtained by correcting the first image based on the correction information; and the first image. The degree of difference from the image information for displaying is reduced,
A projector characterized by:
第1位置に位置し、画像を形成する発光素子を備えた投射部と、
第1領域に対して、第1投射画像または第2投射画像を投射させる投射制御部と、
前記第1投射画像が投射された前記第1領域を、前記第1位置と水平位置が異なる第2位置から撮像した撮像結果を表す撮像情報を取得する取得部と、
を備え、
前記投射制御部は、
前記撮像情報に基づいて、前記第1投射画像を補正して前記第2投射画像を投射させ、
前記第1投射画像は、前記発光素子により形成される画像が、矩形形状であり、
前記第2投射画像は、前記発光素子により形成される画像が、水平方向の対辺の長さが異なる台形形状で、水平方向の明るさが異なる、
ことを特徴とするプロジェクター。
a projection unit positioned at a first position and comprising a light emitting element for forming an image;
a projection control unit that projects the first projection image or the second projection image onto the first area;
an acquisition unit that acquires imaging information representing an imaging result of imaging the first area onto which the first projection image is projected from a second position that is different in horizontal position from the first position;
with
The projection control unit
correcting the first projection image and projecting the second projection image based on the imaging information;
wherein the first projection image has a rectangular image formed by the light emitting element;
In the second projection image, the image formed by the light emitting element has a trapezoidal shape with different lengths of opposite sides in the horizontal direction and different brightness in the horizontal direction.
A projector characterized by:
プロジェクターが具備する投射部が、第1位置から投射対象の第1領域に対して第1画像を示す投射光を投射する場合に、
前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、
を備え、
前記補正情報は、
前記プロジェクターが、前記補正情報に基づいて前記第1画像を補正する場合に、
前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、
前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度を小さくするための情報である、
ことを特徴とする情報処理装置。
When the projection unit included in the projector projects the projection light representing the first image from the first position onto the first region of the projection target,
a generation unit that generates correction information for correcting an image projected from the projection unit based on first imaging information representing an imaging result of imaging the first region from a second position;
with
The correction information is
When the projector corrects the first image based on the correction information,
Rather than the degree of difference between the first photographing information and the image information for displaying the first image,
second photographing information representing a photographing result obtained by photographing, from the second position, the first area projected with projection light representing a second image obtained by correcting the first image based on the correction information; and the first image. Information for reducing the degree of difference from image information for displaying
An information processing device characterized by:
プロセッサーを、
第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射させる投射制御部と、
前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、
前記補正情報に基づいて、前記投射部から投射される画像を補正する補正部と、
して機能させ、
前記補正部が、前記補正情報に基づいて前記第1画像を補正する場合に、
前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、
前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、
ことを特徴とするプログラム。
the processor,
a projection control unit for projecting projection light representing a first image from a projection unit provided at a first position onto a first area to be projected;
Correction information for correcting the image projected from the projection unit based on first photographing information representing a photographing result of photographing the first area onto which the projection light representing the first image is projected from a second position. a generator that generates
a correction unit that corrects an image projected from the projection unit based on the correction information;
to make it work,
When the correction unit corrects the first image based on the correction information,
Rather than the degree of difference between the first photographing information and the image information for displaying the first image,
second photographing information representing a photographing result obtained by photographing, from the second position, the first area projected with projection light representing a second image obtained by correcting the first image based on the correction information; and the first image. The degree of difference from the image information for displaying is reduced,
A program characterized by
第1位置に設けられた投射部から投射対象の第1領域に対して、第1画像を示す投射光を投射させる投射制御部と、
前記第1画像を示す投射光が投射された前記第1領域を第2位置から撮影した撮影結果を表す第1撮影情報に基づいて、前記投射部から投射される画像を補正するための補正情報を生成する生成部と、
前記補正情報に基づいて、前記投射部から投射される画像を補正する補正部と、
を備え、
前記補正部が、前記補正情報に基づいて前記第1画像を補正する場合に、
前記第1撮影情報と、前記第1画像を表示するための画像情報との相違の程度よりも、
前記補正情報に基づいて前記第1画像を補正した第2画像を示す投射光が投射された前記第1領域を前記第2位置から撮影した撮影結果を表す第2撮影情報と、前記第1画像を表示するための画像情報との相違の程度が小さくなる、
ことを特徴とするプロジェクションシステム。
a projection control unit for projecting projection light representing a first image from a projection unit provided at a first position onto a first area to be projected;
Correction information for correcting the image projected from the projection unit based on first photographing information representing a photographing result of photographing the first area onto which the projection light representing the first image is projected from a second position. a generator that generates
a correction unit that corrects an image projected from the projection unit based on the correction information;
with
When the correction unit corrects the first image based on the correction information,
Rather than the degree of difference between the first photographing information and the image information for displaying the first image,
second photographing information representing a photographing result obtained by photographing, from the second position, the first area projected with projection light representing a second image obtained by correcting the first image based on the correction information; and the first image. The degree of difference from the image information for displaying is reduced,
A projection system characterized by:
JP2022020226A 2022-02-14 2022-02-14 Display method, projector, information processor, program, and projection system Pending JP2023117583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022020226A JP2023117583A (en) 2022-02-14 2022-02-14 Display method, projector, information processor, program, and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022020226A JP2023117583A (en) 2022-02-14 2022-02-14 Display method, projector, information processor, program, and projection system

Publications (1)

Publication Number Publication Date
JP2023117583A true JP2023117583A (en) 2023-08-24

Family

ID=87654287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022020226A Pending JP2023117583A (en) 2022-02-14 2022-02-14 Display method, projector, information processor, program, and projection system

Country Status (1)

Country Link
JP (1) JP2023117583A (en)

Similar Documents

Publication Publication Date Title
US10665142B2 (en) Screen calibration method and screen calibration system capable of correcting full screen color tones automatically
JP2007018876A (en) Manufacturing method of organic el display device
EP1565902A2 (en) Method of improving the output uniformity of a display device
US8605066B2 (en) Display apparatus including display pixels and light detection units, method for controlling light detection operation
US11393430B2 (en) Light emission apparatus and electronic device
JP2010057149A (en) Image correction data generation system, image correction data generation method, image correction data generation program, and image correction circuit
TW201734999A (en) Display device, optical compensation system, and optical compensation method thereof
JP4501205B2 (en) Correction system and correction method for image display device
CN114503188B (en) Pixel positioning calibration image capture and processing
JP4786974B2 (en) Display panel image and lifetime measuring device
JP2013250420A (en) Display device, inspection method thereof, inspection apparatus and manufacturing method
US9520094B2 (en) Display device, electronic apparatus, and method for driving display device
JP5359191B2 (en) Liquid crystal display
JP2023117583A (en) Display method, projector, information processor, program, and projection system
JP6679811B1 (en) Correction image generation system, image control program, and recording medium
JP2022160498A (en) Projection controller, projector, projection control method, and program
JP6722366B1 (en) Correction image generation system, image control method, image control program, and recording medium
KR20170081032A (en) Terminal for correcting afterimage area and method and apparatus for coreecting afterimage area using the same
JP6732144B1 (en) Correction image generation system, image control method, image control program, and recording medium
KR102069449B1 (en) Display apparatus as lighting and the control method thereof
JP2020112812A (en) Correction image generation system, image control program, and recording medium
CN114690399B (en) Light source parameter initialization method and optical fiber scanning imaging system
JP2009071783A (en) Correction data generation system, and correction data generation method
JP2024024477A (en) Display, control method, and program
JP2023013738A (en) Light emitting device, display, photoelectric conversion device, electronic apparatus, and wearable device