JP2017037190A - Projection device, image processing device, image processing program and image distribution system - Google Patents

Projection device, image processing device, image processing program and image distribution system Download PDF

Info

Publication number
JP2017037190A
JP2017037190A JP2015158426A JP2015158426A JP2017037190A JP 2017037190 A JP2017037190 A JP 2017037190A JP 2015158426 A JP2015158426 A JP 2015158426A JP 2015158426 A JP2015158426 A JP 2015158426A JP 2017037190 A JP2017037190 A JP 2017037190A
Authority
JP
Japan
Prior art keywords
image
projection
correction
image data
optical path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015158426A
Other languages
Japanese (ja)
Other versions
JP6730787B2 (en
Inventor
中村 大輔
Daisuke Nakamura
大輔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naked Inc
Original Assignee
Naked Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naked Inc filed Critical Naked Inc
Priority to JP2015158426A priority Critical patent/JP6730787B2/en
Publication of JP2017037190A publication Critical patent/JP2017037190A/en
Application granted granted Critical
Publication of JP6730787B2 publication Critical patent/JP6730787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection device, an image processing device on the projection device, an image processing device and an image distribution system which achieve image projection worthy of viewing even if a projection surface is distorted.SOLUTION: A projection device 100 includes: an image correction unit 120 which generates corrected image data by correcting image data input from an image input unit 110; a projection image formation unit 150 which forms a projection image projected on a projection surface from the corrected image data; a projection unit 160 which projects the projection image to the projection surface by using the light of a light source unit 140; and an optical path length information acquisition unit 130 which acquires optical path length information indicating the distance of an optical path from a reference point to the projection surface for each of plural minute regions defined in the projection image. The image correction unit 120 generates corrected image data by performing geometric correction and color tone correction to the image data on the basis of the optical path length information of the minute region associated with a pixel by associating the minute region with the pixel included in the image data.SELECTED DRAWING: Figure 1

Description

本発明は、投影装置、画像処理装置、画像処理プログラムおよび画像配信システムに関する。   The present invention relates to a projection device, an image processing device, an image processing program, and an image distribution system.

近年、プロジェクタの技術進歩に伴って、プロジェクタを用いた映像演出がより身近なものとなりつつある。プロジェクションマッピングに代表されるプロジェクタを用いた映像演出は、種々のイベントを賑わしている。
また、プロジェクタ機器の小型化および低価格化も進んでおり、大画面で映像コンテンツを鑑賞するのみならず、インテリアの観点から家庭にプロジェクタを導入するユーザーも増えている。
In recent years, with the technical progress of projectors, video effects using projectors are becoming more familiar. Video production using projectors typified by projection mapping is crowded with various events.
In addition, projector devices are becoming smaller and cheaper, and not only viewing video content on a large screen, but also increasing the number of users who introduce projectors to the home from an interior perspective.

このような社会情勢を鑑みて、より手軽に日常生活においてプロジェクタを利用すること(プロジェクタのパーソナル化)を念頭においた技術が種々開発・提案されている。この種の技術の一例として下記の特許文献1を例示する。   In view of such a social situation, various technologies have been developed and proposed in consideration of using projectors in daily life more easily (personalization of projectors). The following patent document 1 is illustrated as an example of this type of technology.

特許文献1には、既存の照明装置取付具(電球ソケット)に装着する照明機能と画像投写機能とを兼ね備えた照明装置である。これにより一つの照明装置が、照明としてもプロジェクタとしても機能する。また、照明装置取付具が備え付けられている場所は主に天井であり、比較的広い領域を照射することができるため、画像投影の位置に適している。
さらに、特許文献1の照明装置は、スクリーンではない場所(特許文献1の図4では調理台)への画像投影、ユーザーの動作(ジェスチャー)に応じて操作可能、投影面までの距離を測距して自動的に焦点距離を調整、といったユーザーフレンドリーな機能を種々備えている。
Japanese Patent Application Laid-Open No. 2004-228561 is an illumination device that has both an illumination function to be mounted on an existing illumination device fixture (bulb socket) and an image projection function. Thereby, one illumination device functions as both illumination and a projector. Further, the place where the lighting device fixture is provided is mainly the ceiling, which can irradiate a relatively wide area, and is suitable for the position of image projection.
Furthermore, the illumination device of Patent Document 1 can project an image onto a place other than the screen (the cooking table in FIG. 4 of Patent Document 1), can be operated according to a user's action (gesture), and measures the distance to the projection surface. Various user-friendly functions such as automatically adjusting the focal length are provided.

特開2013−125166号公報JP2013-125166A

特許文献1の照明装置は、上記のような利点を有している反面、既存の照明装置取付具に装着するため投影可能な位置に必ずしも投影に適した平面があるとは限らない。従って、投影面が歪な場合、または、投影面が投影部に正対していない場合には、当該照明装置は正常な映像を投影することができない。   While the lighting device of Patent Document 1 has the above-described advantages, it is not necessarily provided with a plane suitable for projection at a position where it can be projected because it is mounted on an existing lighting device fixture. Therefore, when the projection surface is distorted or when the projection surface is not directly facing the projection unit, the illumination device cannot project a normal image.

また、特許文献1の照明装置に限らず一般的なプロジェクタであっても、投影する領域が広域であるほどその投影に適した広い平面を確保することは難しく、投影面に何らかの歪な面が含まれるケースが多くなる。   Further, even in a general projector as well as the illumination device of Patent Document 1, it is difficult to secure a wide plane suitable for the projection as the area to be projected is wider, and there is some distortion on the projection plane. More cases are included.

本発明は、上記の課題に鑑みなされたものであり、投影面が歪であっても観賞に堪えられる画像投影を実現する投影装置、または、当該投影装置に関する画像処理装置、画像処理プログラムおよび画像配信システムを提供するものである。   The present invention has been made in view of the above problems, and a projection device that realizes image projection that can be appreciated even if the projection surface is distorted, or an image processing device, an image processing program, and an image related to the projection device A distribution system is provided.

本発明によれば、発光する光源部と、複数のピクセルから構成される画像データを入力する画像入力部と、前記画像入力部に入力された前記画像データを補正して補正画像データを生成する画像補正部と、前記画像補正部によって生成された前記補正画像データから投影面に投影する投影画像を形成する投影画像形成部と、前記投影画像形成部によって形成された前記投影画像を、前記光源部が発光する光を用いて前記投影面に投影する投影部と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、を備え、前記画像補正部は、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記補正画像データを生成する投影装置が提供される。   According to the present invention, a light source unit that emits light, an image input unit that inputs image data including a plurality of pixels, and the image data input to the image input unit are corrected to generate corrected image data. An image correction unit, a projection image forming unit that forms a projection image to be projected onto a projection plane from the corrected image data generated by the image correction unit, and the projection image formed by the projection image formation unit is used as the light source. A projection unit that projects light onto the projection plane using light emitted from the unit, and an optical path that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image A length information acquisition unit, wherein the image correction unit associates the pixel and the minute region included in the image data, and the optical path of the minute region associated with the pixel Geometric correction and color tone correcting performed by projection device configured to generate the corrected image data is provided to the image data based on the information.

また、本発明によれば、発光する光源部の光を用いて投影画像を投影面に投影する際に、前記投影画像の元となる画像コンテンツを生成する画像処理装置であって、複数のピクセルから構成される画像データを入力する画像入力部と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正部と、を備える画像処理装置が提供される。   In addition, according to the present invention, when projecting a projection image onto a projection plane using light from a light source that emits light, the image processing apparatus generates an image content that is a source of the projection image. And an optical path length information acquisition unit for acquiring optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image. And the pixels included in the image data are associated with the minute regions, and geometric correction and tone correction are performed on the image data based on the optical path length information of the minute regions associated with the pixels. An image processing apparatus is provided that includes an image correction unit that generates the image content.

また、本発明によれば、発光する光源部の光を用いて投影画像を投影面に投影する際に、前記投影画像の元となる画像コンテンツを生成するための画像処理をコンピュータに実行させる画像処理プログラムであって、複数のピクセルから構成される画像データを入力する画像入力処理と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得処理と、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正処理と、をコンピュータに実行させる画像処理プログラムが提供される。   In addition, according to the present invention, when a projection image is projected onto a projection plane using light from a light source unit that emits light, an image that causes a computer to execute image processing for generating image content that is the basis of the projection image. An image input process for inputting image data composed of a plurality of pixels, and an optical path length indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image An optical path length information acquisition process for acquiring information, the pixel included in the image data and the micro area are associated with each other, and the image data based on the optical path length information of the micro area associated with the pixel There is provided an image processing program for causing a computer to execute an image correction process for generating the image content by performing geometric correction and color tone correction.

また、本発明によれば、発光する光源部の光を用いて投影画像を投影面に投影する投影装置に対して、前記投影画像の元となる画像コンテンツを配信する画像配信システムであって、複数のピクセルから構成される画像データを入力する画像入力部と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正部と、前記画像補正部によって生成された前記画像コンテンツを、通信回線を介して配信する画像配信部と、を備える画像配信システムが提供される。   In addition, according to the present invention, there is provided an image distribution system that distributes image content that is a source of a projection image to a projection device that projects the projection image onto a projection plane using light from a light source that emits light. An image input unit that inputs image data composed of a plurality of pixels, and an optical path length that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image An information acquisition unit, the pixel included in the image data and the minute region are associated with each other, and geometric correction and tone correction are performed on the image data based on the optical path length information of the minute region associated with the pixel. An image correction unit that generates the image content by performing an image processing, and an image distribution unit that distributes the image content generated by the image correction unit via a communication line. Image delivery system is provided.

上記発明によれば、投影画像に関する光路長情報を所定の微小領域ごとに取得し、補正対象の画像データに含まれるピクセルを光路長情報に対応付けて当該画像データに幾何補正および色調補正を施す。従って、繊細な画像補正が実行され、たとえ投影面が歪であってもユーザーにとって違和感のない画像投影を実現することができる。   According to the above invention, the optical path length information related to the projection image is acquired for each predetermined minute area, and the pixels included in the image data to be corrected are associated with the optical path length information, and the image data is subjected to geometric correction and color correction. . Therefore, delicate image correction is executed, and even if the projection surface is distorted, it is possible to realize an image projection that does not feel strange to the user.

本発明によれば、投影面が歪であっても観賞に堪えられる画像投影を実現する投影装置、または、当該投影装置に関する画像処理装置、画像処理プログラムおよび画像配信システムが提供される。   According to the present invention, there is provided a projection device that realizes image projection that can be enjoyed even if the projection surface is distorted, or an image processing device, an image processing program, and an image distribution system related to the projection device.

投影装置の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of a projection apparatus. 投影装置の外観図である。It is an external view of a projection apparatus. 投影装置を用いて段差に円形の投影画像を投影した状態を示しており、(a)は斜視図、(b)は正面図である。The state which projected the circular projection image on the level | step difference using the projection apparatus is shown, (a) is a perspective view, (b) is a front view. 微小領域を割り当てた投影画像を理想平面に投影した様子を示す模式図である。It is a schematic diagram which shows a mode that the projection image which allocated the micro area | region was projected on the ideal plane. 投影装置および撮像装置の設置例を示す模式図である。It is a schematic diagram which shows the example of installation of a projection apparatus and an imaging device. 投影装置の位置から図5のXYZ座標の原点を視る視点からの模式図である。It is a schematic diagram from the viewpoint which sees the origin of the XYZ coordinate of FIG. 5 from the position of a projection apparatus. 図4に示す投影画像を投影面に投影した状態を示す模式図である。(a)は投影面の正面から視た図であり、(b)は投影装置の位置から視た図である。It is a schematic diagram which shows the state which projected the projection image shown in FIG. 4 on the projection surface. (A) is the figure seen from the front of the projection surface, (b) is the figure seen from the position of the projection device. 図4に示す投影画像の元となる画像データを補正して形成される投影画像を理想平面に投影した様子を示す模式図である。FIG. 5 is a schematic diagram illustrating a state in which a projection image formed by correcting the image data that is the basis of the projection image illustrated in FIG. 4 is projected onto an ideal plane. 図8に示す投影画像を投影面に投影した状態を示す模式図である。(a)は投影面の正面から視た図であり、(b)は投影装置の位置から視た図である。It is a schematic diagram which shows the state which projected the projection image shown in FIG. 8 on the projection surface. (A) is the figure seen from the front of the projection surface, (b) is the figure seen from the position of the projection device. 投影装置が行う処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which a projection apparatus performs. 図4に示す投影画像を投影面に投影し、投影装置の位置から視た状態を示す模式図である。It is a schematic diagram which shows the state which projected the projection image shown in FIG. 4 on a projection surface, and was seen from the position of the projection apparatus. 図4に示す投影画像の元となる画像データを補正して形成される投影画像を投影面に投影し、投影装置の位置から視た状態を示す模式図である。FIG. 5 is a schematic diagram showing a state in which a projection image formed by correcting the image data that is the basis of the projection image shown in FIG. 4 is projected onto the projection plane and viewed from the position of the projection device. 画像処理装置および画像配信システムの機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of an image processing apparatus and an image delivery system. 赤の画像データをテスト投影して取得されるテスト画像データに含まれる各ピクセルの階調値(R)と、各ピクセルの位置座標との関係を示す図である。It is a figure which shows the relationship between the gradation value (R) of each pixel contained in the test image data acquired by test-projecting red image data, and the position coordinate of each pixel. 図14で示したテスト画像データを補正するための補正パラメータを示す図である。It is a figure which shows the correction parameter for correct | amending the test image data shown in FIG. 図14に示すテスト画像データを、補正パラメータを用いた補正によって得られる補正画像データを示す図である。FIG. 15 is a diagram showing corrected image data obtained by correcting the test image data shown in FIG. 14 using correction parameters.

以下、本発明の実施形態について、図面を用いて説明する。なお、すべての図面において、同様の構成要素には同一の符号を付し、適宜に説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same components are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

<第一実施形態の投影装置100の全体構成について>
第一実施形態の投影装置100の全体構成について、図1、図2および図4を用いて以下説明する。
図1は、投影装置100の機能構成を示す機能ブロック図である。図2は、投影装置100の外観図である。図4は、微小領域を割り当てた投影画像(テスト投影画像P1)を理想平面に投影した様子を示す模式図である。
<Overall Configuration of Projection Apparatus 100 of First Embodiment>
The overall configuration of the projection apparatus 100 according to the first embodiment will be described below with reference to FIGS. 1, 2, and 4.
FIG. 1 is a functional block diagram showing a functional configuration of the projection apparatus 100. FIG. 2 is an external view of the projection apparatus 100. FIG. 4 is a schematic diagram showing a state in which a projection image (test projection image P1) to which a minute region is assigned is projected onto an ideal plane.

本実施形態の投影装置100は、いわゆるプロジェクタ装置であり、画像入力部110、画像補正部120、光路長情報取得部130、光源部140、投影画像形成部150および投影部160を備える。
光源部140は、発光する機能を有している。
画像入力部110は、複数のピクセルから構成される画像データを入力する。
画像補正部120は、画像入力部110に入力された画像データを補正して補正画像データを生成する。
投影画像形成部150は、画像補正部120によって生成された補正画像データから投影面に投影する投影画像を形成する。
投影部160は、投影画像形成部150によって形成された投影画像を、光源部140が発光する光を用いて投影面に投影する。
光路長情報取得部130は、投影画像に定めた複数の微小領域ごとに基準点から投影面までの光路の距離を示す光路長情報を取得する。
なお、画像補正部120は、画像データに含まれるピクセルと微小領域とを対応付けて、ピクセルに対応付けられた微小領域の光路長情報に基づいて画像データに幾何補正および色調補正を行って補正画像データを生成することを特徴とする。
以下、投影装置100の有する各機能の説明を行う。
The projection apparatus 100 of this embodiment is a so-called projector apparatus, and includes an image input unit 110, an image correction unit 120, an optical path length information acquisition unit 130, a light source unit 140, a projection image formation unit 150, and a projection unit 160.
The light source unit 140 has a function of emitting light.
The image input unit 110 inputs image data composed of a plurality of pixels.
The image correction unit 120 corrects the image data input to the image input unit 110 to generate corrected image data.
The projection image forming unit 150 forms a projection image to be projected onto the projection plane from the corrected image data generated by the image correction unit 120.
The projection unit 160 projects the projection image formed by the projection image forming unit 150 onto the projection plane using light emitted from the light source unit 140.
The optical path length information acquisition unit 130 acquires optical path length information indicating the distance of the optical path from the reference point to the projection plane for each of a plurality of minute regions defined in the projection image.
Note that the image correction unit 120 associates pixels included in the image data with the minute area, and corrects the image data by performing geometric correction and color tone correction based on the optical path length information of the minute area associated with the pixel. Image data is generated.
Hereinafter, each function of the projection apparatus 100 will be described.

図2に図示しているように、投影装置100は、本体部180とベース部170とを備えており、外観がいわゆるスポットライトのような形状をしている。このような外観であることにより、投影装置100は、違和感なく既存の室内照明と置換可能となっている。
なお、ここで図示する投影装置100の形状は一例であり、本発明はこの例に限定されるものではない。
As shown in FIG. 2, the projection apparatus 100 includes a main body portion 180 and a base portion 170, and the appearance is a so-called spotlight shape. Due to such an appearance, the projection device 100 can be replaced with existing room lighting without a sense of incongruity.
Note that the shape of the projection apparatus 100 illustrated here is an example, and the present invention is not limited to this example.

ベース部170は、電球ソケットまたはシーリング取付具(図示せず)に装着可能な給電部172を備えており、投影装置100(本体部180に含まれる各種機能)は給電部172から取得される電力によって動作する。これにより、天井面や壁面等に投影装置100を容易に設置することができ、別途の配線工事を行なわずとも投影装置100に電力を供給することができる。
また、ベース部170は、本体部180の基端部との接合箇所に回転軸174を備えており、回転軸174を中心に本体部180を回転させることによって、投影レンズ182の正面方向を自在に変えることができる。これによって、投影装置100は、投影レンズ182によって生成される投影画像を所望の方向に投射することができる。
The base unit 170 includes a power supply unit 172 that can be attached to a light bulb socket or a ceiling fixture (not shown), and the projection device 100 (various functions included in the main body unit 180) is obtained from the power supply unit 172. Works by. Thereby, the projection apparatus 100 can be easily installed on a ceiling surface, a wall surface, or the like, and power can be supplied to the projection apparatus 100 without performing separate wiring work.
Further, the base portion 170 includes a rotation shaft 174 at a joint portion with the base end portion of the main body portion 180. By rotating the main body portion 180 around the rotation shaft 174, the front direction of the projection lens 182 can be freely set. Can be changed to Thereby, the projection apparatus 100 can project the projection image generated by the projection lens 182 in a desired direction.

本体部180は、投影装置100の主要な機能を有している構成要素であり、投影画像を所望の方向に投射するための投影レンズ182を備えている。
本体部180が有している主要な機能とは、図1に図示しているように、具体的には画像入力部110と画像補正部120と光路長情報取得部130と光源部140と投影画像形成部150と投影部160のことをいう。
なお、図1において、光源部140から投影画像形成部150への矢印、投影画像形成部150から投影部160の矢印、および、投影部160から投影装置100の外部(投影面)への経路を中抜きの矢印で示している。これは、これらの矢印が示す経路が、他の経路と異なり光学系の経路であることを意味している。
また、図1において、細線で示される矢印はデジタルデータの経路を意味しており、太線で示される矢印は電力経路を意味している。
The main body 180 is a component having the main functions of the projection apparatus 100 and includes a projection lens 182 for projecting a projection image in a desired direction.
As shown in FIG. 1, the main functions of the main unit 180 are specifically an image input unit 110, an image correction unit 120, an optical path length information acquisition unit 130, a light source unit 140, and a projection. It refers to the image forming unit 150 and the projection unit 160.
In FIG. 1, an arrow from the light source unit 140 to the projection image forming unit 150, an arrow from the projection image forming unit 150 to the projection unit 160, and a path from the projection unit 160 to the outside (projection plane) of the projection device 100 are shown. This is indicated by a hollow arrow. This means that the path indicated by these arrows is the path of the optical system unlike the other paths.
Further, in FIG. 1, arrows indicated by thin lines indicate digital data paths, and arrows indicated by thick lines indicate power paths.

光源部140は、いわゆるランプであり、投影画像の投影に用いられる光を提供する。具体的には、光源部140には高圧水銀ランプ、ハロゲンランプ、LEDランプ等が用いられる。なお、図1では光源部140は単一であるかのように図示しているが、必ずしも一つである態様に限られず、光源部140が投影装置100の内部に複数存在する態様であってもよい。   The light source unit 140 is a so-called lamp, and provides light used for projecting a projection image. Specifically, a high pressure mercury lamp, a halogen lamp, an LED lamp, or the like is used for the light source unit 140. In FIG. 1, the light source unit 140 is illustrated as if it is a single unit. However, the light source unit 140 is not necessarily limited to a single unit, and a plurality of the light source units 140 exist in the projection apparatus 100. Also good.

投影部160は、光源部140が発光する光を投影画像形成部150に形成された投影画像に投写し、その投写光の反射光(または透過光)を投影装置100の外部に投写する機能を有している。すなわち、投影部160は光源部140が発光した光を所望の経路に導く機能であり、具体的には、ミラー、プリズム、レンズ等から構成される。なお、本実施形態においては、投影部160を構成するレンズの一つとして投影レンズ182が含まれている。   The projection unit 160 has a function of projecting light emitted from the light source unit 140 onto a projection image formed on the projection image forming unit 150 and projecting reflected light (or transmitted light) of the projection light to the outside of the projection apparatus 100. Have. That is, the projection unit 160 has a function of guiding the light emitted from the light source unit 140 to a desired path, and specifically includes a mirror, a prism, a lens, and the like. In the present embodiment, the projection lens 182 is included as one of the lenses constituting the projection unit 160.

光路長情報取得部130は、光路長情報を微小領域ごとに取得する。ここで光路長情報は、基準点から投影面までの光路の距離をいう。基準点は光源部140から投影面までのいずれかの位置に定めればよい。本実施形態においては、投影部160に含まれる投影レンズの位置を基準点として説明する。   The optical path length information acquisition unit 130 acquires optical path length information for each minute region. Here, the optical path length information refers to the distance of the optical path from the reference point to the projection plane. The reference point may be determined at any position from the light source unit 140 to the projection plane. In the present embodiment, the position of the projection lens included in the projection unit 160 will be described as a reference point.

光路長情報取得部130が光路長情報を取得する態様は種々の態様を採りうる。例えば、基準点に測距センサ(図示せず)を設置し、当該測距センサから投影面上の各点までの距離を光路長情報として用いてもよい。また、任意の位置に測距センサを設置し、当該位置から投影面上の各点までの距離を測距した後に、その測距結果と基準点の位置とに基づいて光路長情報を演算する演算装置(図示せず)から取得してもよい。後者の態様は、本実施形態のように、基準点を既存の物体(投影レンズ182)の位置として取り扱うため、当該位置に測距センサが設置できない場合に好適である。
なお、ここで述べた測距センサは、赤外線センサを用いたものであってもよく、音響センサを用いたものであってもよく、これらを組み合わせたものであってもよい。
また、ここで述べた測距センサおよび演算装置は、投影装置100の内部に包含されてもよく、投影装置100の外部機器であってもよい。
The mode in which the optical path length information acquisition unit 130 acquires the optical path length information can take various modes. For example, a distance measuring sensor (not shown) may be installed at the reference point, and the distance from the distance measuring sensor to each point on the projection surface may be used as the optical path length information. In addition, a distance measuring sensor is installed at an arbitrary position, and after measuring the distance from the position to each point on the projection plane, the optical path length information is calculated based on the distance measurement result and the position of the reference point. You may acquire from an arithmetic unit (not shown). The latter aspect is suitable when the distance measuring sensor cannot be installed at the position because the reference point is handled as the position of the existing object (projection lens 182) as in the present embodiment.
Note that the distance measuring sensor described here may be one using an infrared sensor, one using an acoustic sensor, or a combination thereof.
Further, the distance measuring sensor and the calculation device described here may be included in the projection device 100 or may be an external device of the projection device 100.

画像入力部110は、デジタル方式の画像データを入力し、画像補正部120または投影画像形成部150に当該画像データを供給する機能を有している。当該画像データの入力先は、投影装置100の外部装置であってもよいし、または、投影装置100内の記憶領域(図示せず)であってもよい。
また、画像入力部110による画像データの入力は、画像入力部110が主体的に画像データを取得する(読み出す)方式であってよいし、他の装置が出力した画像データを受動的に受け付ける方式であってもよい。
画像入力部110への画像データの入力先が他の装置である場合、その経路は有線通信であってもよく、無線通信であってもよい。
The image input unit 110 has a function of inputting digital image data and supplying the image data to the image correction unit 120 or the projection image forming unit 150. The input destination of the image data may be an external device of the projection device 100, or may be a storage area (not shown) in the projection device 100.
The image data input by the image input unit 110 may be a method in which the image input unit 110 mainly acquires (reads) image data, or a method in which image data output from other devices is passively received. It may be.
When the input destination of the image data to the image input unit 110 is another device, the route may be wired communication or wireless communication.

投影画像形成部150は、画像入力部110から供給された画像データ、または、画像補正部120によって生成された補正画像データを元に投影画像を形成する機能を有している。すなわち、投影画像形成部150は、コンピュータによって処理される画像データを、光学系の画像に変換する機能である。
より具体的には、投影装置100が液晶ディスプレイ方式のプロジェクタ装置であれば、投影画像形成部150は液晶パネルを含む。また、投影装置100がDLP(登録商標)方式のプロジェクタ装置であれば、投影画像形成部150はデジタルミラーデバイスを含む。なお、DLP(登録商標)とはDigital Light Processingの略である。
The projection image forming unit 150 has a function of forming a projection image based on the image data supplied from the image input unit 110 or the corrected image data generated by the image correction unit 120. That is, the projection image forming unit 150 has a function of converting image data processed by a computer into an image of an optical system.
More specifically, if the projection apparatus 100 is a liquid crystal display type projector apparatus, the projection image forming unit 150 includes a liquid crystal panel. If the projection apparatus 100 is a DLP (registered trademark) projector apparatus, the projection image forming unit 150 includes a digital mirror device. Note that DLP (registered trademark) is an abbreviation for Digital Light Processing.

画像補正部120は、画像入力部110に入力された画像データを補正して補正画像データ(画像コンテンツ)を生成し、生成した補正画像データを投影画像形成部150に供給する機能である。画像補正部120は、ROM(図示せず)等の記憶領域に格納されている画像処理プログラムをCPU(図示せず)が実行することによって実現される。   The image correction unit 120 has a function of correcting the image data input to the image input unit 110 to generate corrected image data (image content), and supplying the generated corrected image data to the projection image forming unit 150. The image correction unit 120 is realized by a CPU (not shown) executing an image processing program stored in a storage area such as a ROM (not shown).

前段で述べた画像処理プログラムについて、詳細に説明すると以下のようになる。
当該画像処理プログラムは、発光する光源部140の光を用いて投影画像を投影面に投影する際に、投影画像の元となる画像コンテンツを生成するための画像処理をCPU(コンピュータ)に実行させるものである。
当該画像処理プログラムは、画像入力処理と、光路長情報取得処理と、画像補正処理と、が含まれる。画像入力処理では、複数のピクセルから構成される画像データを入力する。光路長情報取得処理では、投影画像に定めた複数の微小領域ごとに基準点から投影面までの光路の距離を示す光路長情報を取得する。画像補正処理では、画像データに含まれるピクセルと微小領域とを対応付けて、ピクセルに対応付けられた微小領域の光路長情報に基づいて画像データに幾何補正および色調補正を行って画像コンテンツを生成する。
The image processing program described in the previous section will be described in detail as follows.
The image processing program causes a CPU (computer) to execute image processing for generating image content that is the basis of a projection image when a projection image is projected onto a projection plane using light from the light source unit 140 that emits light. Is.
The image processing program includes an image input process, an optical path length information acquisition process, and an image correction process. In the image input process, image data composed of a plurality of pixels is input. In the optical path length information acquisition process, optical path length information indicating the distance of the optical path from the reference point to the projection plane is acquired for each of a plurality of minute regions defined in the projection image. In the image correction process, the pixel included in the image data is associated with the minute area, and image content is generated by performing geometric correction and color correction on the image data based on the optical path length information of the minute area associated with the pixel. To do.

ここで幾何補正とは、補正対象となるピクセルの位置座標を、その前後で変動させる処理をいう。具体的には、幾何補正には、ピクセルの移動、拡大、縮小、反転、せん断、回転等が含まれる。
また、ここで色調補正とは、補正対象となるピクセルの色について所定の表色系で定量的に示される値(階調値)を、その前後で変動させる処理をいう。具体的には、色調補正には、いわゆる明度補正、コントラスト補正、輝度補正、ガンマ補正等が含まれる。
Here, geometric correction refers to a process of changing the position coordinates of a pixel to be corrected before and after. Specifically, the geometric correction includes pixel movement, enlargement, reduction, inversion, shear, rotation, and the like.
Here, the color tone correction is a process of changing a value (gradation value) quantitatively shown in a predetermined color system about the color of a pixel to be corrected before and after that. Specifically, the tone correction includes so-called brightness correction, contrast correction, luminance correction, gamma correction, and the like.

なお、本実施形態では「所定の表色系」として、代表的な加法混合のカラーモデルであるRGB(R:赤、G:緑、B:青)を用いて説明する。一つのピクセルに対して24ビットの色情報が含まれ、各色相(R、G、B)に8ビットずつ割り当てられ、256段階の階調値によって表現されるものとする。
ここでRGBは表色系の一例であり、その他のカラーモデルを表色系とする態様であってもよい。
In the present embodiment, description will be made using RGB (R: red, G: green, B: blue), which is a representative additive color model, as the “predetermined color system”. It is assumed that 24-bit color information is included for one pixel, 8 bits are assigned to each hue (R, G, B), and expressed by 256 gradation values.
Here, RGB is an example of a color system, and another color model may be used as the color system.

ここでピクセルとは、コンピュータで画像データを扱うとき、色情報を持つ最小単位をいう。また、以下の説明に用いるドットとは、投影画像形成部150に形成される投影画像における描画表現の最小単位をいう。
ピクセルが情報の最小単位であるのに対して、ドットはデバイスの物理的な最小単位を示す点においてピクセルと異なる。
Here, the pixel means a minimum unit having color information when image data is handled by a computer. Further, the dot used in the following description refers to the minimum unit of drawing expression in the projection image formed in the projection image forming unit 150.
A pixel is the smallest unit of information, whereas a dot differs from a pixel in that it represents the physical smallest unit of a device.

微小領域とは、一または複数のドットから構成される投影画像上の領域をいう。図4では投影画像を8×6の正方形マスに分割しており、その矩形マスのそれぞれが微小領域である。従って、仮に投影画像が1280×960の解像度である場合、微小領域は160×160=25600個のドットから構成されている。
なお、図2は理解しやすいように少ない数の微小領域を設定したが、実際にはより多数の微小領域を投影画像に設定することが好ましい。投影画像に設定される微小領域の数は、光路長情報取得部130によって取得される光路長情報の精度に主に依存して決定される。光路長情報が十分に高水準の精度を維持できるならば、一つのドットが一つの微小領域である態様であってもよい。すなわち、仮に投影画像が1280×960の解像度である場合は1280×960=1228800個の微小領域を設定してもよい。
また、図4に示す投影画像に含まれる各微小領域の輪郭は着色されており、当該投影画像を投影面に投影した状態を撮像して生成される画像データに対して解析処理を行うことによって、微小領域の輪郭が判別できるようになっている。
A micro area refers to an area on a projected image composed of one or a plurality of dots. In FIG. 4, the projected image is divided into 8 × 6 square cells, and each of the rectangular cells is a minute region. Therefore, if the projected image has a resolution of 1280 × 960, the minute area is composed of 160 × 160 = 25600 dots.
In FIG. 2, a small number of minute regions are set for easy understanding, but actually, it is preferable to set a larger number of minute regions in the projection image. The number of minute regions set in the projection image is determined mainly depending on the accuracy of the optical path length information acquired by the optical path length information acquisition unit 130. As long as the optical path length information can maintain a sufficiently high level of accuracy, an aspect in which one dot is one minute region may be used. That is, if the projected image has a resolution of 1280 × 960, 1280 × 960 = 1228800 minute regions may be set.
Further, the outline of each minute region included in the projection image shown in FIG. 4 is colored, and by performing analysis processing on image data generated by imaging the state in which the projection image is projected onto the projection plane The contour of the minute area can be discriminated.

図4に示すように、本実施形態においては投影画像をメッシュ状に分割し、分割された複数のメッシュのそれぞれを微小領域として設定している。そして、投影画像に含まれる全てのドットがいずれかの微小領域に内包される態様としているが、必ずしもこれに限定する必要はなく、投影画像に含まれる一部のドットがいずれの微小領域にも含まれない態様を採ってもよい。
また、本実施形態において微小領域の形状は正方形として説明するが、必ずしもこの態様に限らず、長方形やひし形、矩形以外の多角形、円形等を、種々の形状を採りうる。
また、図4においては、一の投影画像に対して全ての微小領域が同一の形状・大きさであるように図示したが、それぞれの微小領域が異なる形状・大きさである態様であってもよい。
As shown in FIG. 4, in the present embodiment, the projection image is divided into meshes, and each of the divided meshes is set as a minute region. In addition, although all the dots included in the projection image are included in any one of the minute regions, it is not necessarily limited to this, and some dots included in the projection image are not included in any one of the minute regions. You may take the aspect which is not included.
In the present embodiment, the shape of the minute region is described as a square. However, the shape is not limited to this, and various shapes such as a rectangle, a rhombus, a polygon other than a rectangle, and a circle can be adopted.
Further, in FIG. 4, all the minute regions are illustrated as having the same shape and size with respect to one projection image. However, even if each minute region has a different shape and size, Good.

画像入力部110に入力された画像データのピクセルと投影画像の微小領域との対応付けについて、画像補正部120は以下のように処理する。
画像入力部110で入力された画像データのピクセル数と、投影画像形成部150で形成される投影画像のドット数と、が一致するのであれば、画像補正部120は、位置座標が一致するピクセルとドットを一対一で対応付け、対応付けたドットを包含する微小領域と当該ドットに対応付けられたピクセルとを対応付ける。
また、画像入力部110で入力された画像データのピクセル数と、投影画像形成部150で形成される投影画像のドット数と、が一致しないのであれば、当該画像データを拡大または縮小して画像データのピクセル数と投影画像のドット数とを一致させた後に、上述の処理を行う。
The image correction unit 120 processes the association between the pixel of the image data input to the image input unit 110 and the minute area of the projection image as follows.
If the number of pixels of the image data input by the image input unit 110 and the number of dots of the projection image formed by the projection image forming unit 150 match, the image correction unit 120 determines that the pixels have the same position coordinates. Are associated with each other in a one-to-one correspondence, and a minute region including the associated dot is associated with a pixel associated with the dot.
If the number of pixels of the image data input by the image input unit 110 and the number of dots of the projection image formed by the projection image forming unit 150 do not match, the image data is enlarged or reduced to generate an image. After the number of pixels in the data and the number of dots in the projected image are matched, the above-described processing is performed.

<画像補正部120による幾何補正および色調補正の原理>
画像補正部120による幾何補正および色調補正の原理について図3を用いて説明する。図3は、投影装置100を用いて段差70に円形の投影画像80を投影した状態を示す模式図しており、(a)は斜視図、(b)は正面図である。なお、ここでは便宜的に投影装置100を図示していない。
<Principle of Geometric Correction and Tone Correction by Image Correction Unit 120>
The principles of geometric correction and color correction by the image correction unit 120 will be described with reference to FIG. 3A and 3B are schematic views showing a state in which a circular projection image 80 is projected onto the step 70 using the projection apparatus 100, where FIG. 3A is a perspective view and FIG. 3B is a front view. Note that the projection apparatus 100 is not shown here for convenience.

図3(a)に示すとおり、近位面71には投影画像80の一部である左半円81が投影されている。遠位面73には投影画像80の一部である右半円83が投影されている。段差面72には投影画像80の一部である台形82が投影されている。
投影画像80は光源(投影装置100)から投影面までの距離に比例して大きくなるため、段差70に投影画像80を投影したとき、左半円81の方が右半円83より大きくなる。そして、台形82は近位面71から遠位面73に近づくにつれて広がるテーパー形状になっている。
また、光源から離れるほど色調は薄まって暗くなり、近いほど色調は濃くなって明るくなるため、右半円83の色調は左半円81より薄暗くなる。
As shown in FIG. 3A, a left semicircle 81 that is a part of the projection image 80 is projected onto the proximal surface 71. A right semicircle 83 that is a part of the projection image 80 is projected onto the distal surface 73. A trapezoid 82 that is a part of the projected image 80 is projected onto the stepped surface 72.
Since the projection image 80 increases in proportion to the distance from the light source (projection apparatus 100) to the projection plane, the left semicircle 81 is larger than the right semicircle 83 when the projection image 80 is projected onto the step 70. The trapezoid 82 has a tapered shape that widens from the proximal surface 71 toward the distal surface 73.
Further, since the color tone becomes darker and darker as the distance from the light source increases, the color tone becomes darker and brighter as the distance from the light source increases. Therefore, the color tone of the right semicircle 83 becomes darker than the left semicircle 81.

ここで光源から近位面71までの距離をL、光源から遠位面73までの距離をL+dで表すとき、左半円81の径R1と右半円83の径R2の比率は、式(1)のように表すことができる。

Figure 2017037190
Here, when the distance from the light source to the proximal surface 71 is represented by L and the distance from the light source to the distal surface 73 is represented by L + d, the ratio of the diameter R1 of the left semicircle 81 to the diameter R2 of the right semicircle 83 is expressed by the formula ( It can be expressed as 1).
Figure 2017037190

図3(b)に示すとおり、正面から視ると、左半円81と右半円83の形状および色調が不連続となっており、投影画像80が本来は一体であるとは認識しがたい。
ここで、投影画像80の元となる画像データの形状を補正し、近位面71に投影される左半円81の部分を予め拡大して色調を暗くする補正、または、遠位面73に投影される右半円83の部分を予め縮小して色調を明るくする補正、のいずれか少なくとも一方を行う。これにより、投影画像80を正面から視ると純粋な円形であるように観測者に認識させうる。
As shown in FIG. 3B, when viewed from the front, the shape and color tone of the left semicircle 81 and the right semicircle 83 are discontinuous, and it is difficult to recognize that the projected image 80 is originally integral. I want.
Here, the shape of the image data that is the basis of the projection image 80 is corrected, the left semicircle 81 projected on the proximal surface 71 is enlarged in advance to darken the color tone, or the distal surface 73 is corrected. At least one of correction for reducing the projected color of the right semicircle 83 in advance and increasing the color tone is performed. This allows the observer to recognize the projected image 80 as a pure circle when viewed from the front.

前段で述べた原理で画像補正部120は、画像入力部110に入力された画像データを補正し、投影面が歪であっても観賞に堪えられる画像投影を実現することができる。
具体的には、画像補正部120は、補正処理の基準となる基準距離を定め、補正対象となるピクセルに対応付けられた微小領域の光路長情報が基準距離より小さいとき、幾何補正として当該ピクセルによって形成される集合部分を拡大し、かつ、色調補正として当該ピクセルの階調値を小さくする。また、画像補正部120は、補正対象となるピクセルに対応付けられた微小領域の光路長情報が基準距離より大きいとき、幾何補正として当該ピクセルによって形成される集合部分を縮小し、かつ、色調補正として当該ピクセルの階調値を大きくする。
ここで基準距離として、予め定めた一定の距離であってもよいし、投影装置100から所定の位置(例えば、投影面の一部)までの距離であってもよい。
The image correction unit 120 can correct the image data input to the image input unit 110 based on the principle described in the previous stage, and can realize image projection that can be enjoyed even if the projection surface is distorted.
Specifically, the image correction unit 120 determines a reference distance that is a reference for correction processing, and when the optical path length information of a minute region associated with the pixel to be corrected is smaller than the reference distance, the pixel is corrected as geometric correction. Is expanded, and the tone value of the pixel is decreased as color correction. In addition, when the optical path length information of the minute area associated with the pixel to be corrected is larger than the reference distance, the image correction unit 120 reduces the set portion formed by the pixel as geometric correction and performs color correction. To increase the gradation value of the pixel.
Here, the reference distance may be a predetermined distance, or may be a distance from the projection device 100 to a predetermined position (for example, a part of the projection surface).

ここで、画像補正部120が幾何補正を行うとき、補正対象となるピクセルによって形成される集合部分の拡大率が、基準距離に対する当該ピクセルに対応付けられた微小領域の光路長情報が示す距離の比率と負の相関にあることが好ましい。
例えば、右半円83を縮小して左半円81に合わせる場合、右半円83の径R2を径R1に補正するので、その比率は式(1)の右辺の逆数と等しくなる。
なお、画像補正部120による幾何補正については、以下で述べる実施例に基づいて詳述する。
Here, when the image correction unit 120 performs geometric correction, the enlargement ratio of the collective portion formed by the pixels to be corrected is the distance indicated by the optical path length information of the minute region associated with the pixel with respect to the reference distance. It is preferable to have a negative correlation with the ratio.
For example, when the right semicircle 83 is reduced and matched with the left semicircle 81, the diameter R2 of the right semicircle 83 is corrected to the diameter R1, so that the ratio is equal to the reciprocal of the right side of Equation (1).
The geometric correction performed by the image correction unit 120 will be described in detail based on an embodiment described below.

また、画像補正部120が色調補正を行うとき、補正対象となるピクセルの階調値の変化率が、基準距離に対する当該ピクセルに対応付けられた微小領域の光路長情報が示す距離の比率と正の相関にあることが好ましい。
なお、画像補正部120による色調補正についても、以下で述べる実施例に基づいて詳述する。
Further, when the image correction unit 120 performs color correction, the change rate of the gradation value of the pixel to be corrected is positive with the ratio of the distance indicated by the optical path length information of the minute region associated with the pixel with respect to the reference distance. It is preferable that there is a correlation.
The tone correction by the image correction unit 120 will also be described in detail based on the embodiments described below.

<投影装置100による画像投影の第一の実施例>
続いて、投影装置100による画像投影の実施例に基づいてより具体的に説明する。この説明では、図4〜図9を用いる。
図4は、微小領域を割り当てた投影画像(テスト投影画像P1)を理想平面に投影した様子を示す模式図である。
図5は、投影装置100および撮像装置200の設置例を示す模式図である。なお、図5の視点は壁面40を正面としている。
図6は、投影装置100の位置から図5のXYZ座標の原点を視る視点からの模式図である。
図7は、図4に示す投影画像を投影面に投影した状態を示す図である。(a)は投影面の正面から視た図であり、(b)は投影装置100の位置から視た状態を示す図である。
図8は、図4に示す投影画像(テスト投影画像P1)の元となる画像データを補正して形成される投影画像P2を理想平面に投影した様子を示す模式図である。
図9は、図8に示す投影画像P2を投影面に投影した状態を示す図である。(a)は投影面の正面から視た図であり、(b)は投影装置100の位置から視た状態を示す図である。
図10は、投影装置100が行う処理の手順を示すフローチャートである。
<First Example of Image Projection by Projector 100>
Next, a more specific description will be given based on an example of image projection by the projection apparatus 100. In this description, FIGS. 4 to 9 are used.
FIG. 4 is a schematic diagram showing a state in which a projection image (test projection image P1) to which a minute region is assigned is projected onto an ideal plane.
FIG. 5 is a schematic diagram illustrating an installation example of the projection device 100 and the imaging device 200. In addition, the viewpoint of FIG. 5 makes the wall surface 40 the front.
FIG. 6 is a schematic view from the viewpoint of viewing the origin of the XYZ coordinates in FIG. 5 from the position of the projection apparatus 100.
FIG. 7 is a diagram showing a state in which the projection image shown in FIG. 4 is projected on the projection plane. (A) is the figure seen from the front of the projection surface, (b) is the figure which shows the state seen from the position of the projection apparatus 100. FIG.
FIG. 8 is a schematic diagram showing a state in which a projection image P2 formed by correcting the original image data of the projection image (test projection image P1) shown in FIG. 4 is projected onto an ideal plane.
FIG. 9 is a diagram showing a state in which the projection image P2 shown in FIG. 8 is projected onto the projection plane. (A) is the figure seen from the front of the projection surface, (b) is the figure which shows the state seen from the position of the projection apparatus 100. FIG.
FIG. 10 is a flowchart showing a procedure of processing performed by the projection apparatus 100.

ここでは、図5に示すように、投影装置100を天井面10に設置し、投影装置100から壁面30に投影画像を投影する事例について説明する。
壁面30に当接するようにソファ50が設置されており、図7や図9に示すように、投影装置100によって生成された投影画像は、壁面30とソファ50に跨がるように投影される。
また、投影装置100の直下であって、ソファ50および壁面30の正面である位置に、撮像装置200と三脚210が設置されている。撮像装置200は、投影装置100によって生成された投影画像を、ソファ50および壁面30の正面から撮像することができる。なお、三脚210は床面20から撮像装置200の高さを調整し、調整した高さで撮像装置200の撮像位置を固定するために設置している。
Here, as shown in FIG. 5, a case where the projection apparatus 100 is installed on the ceiling surface 10 and a projection image is projected from the projection apparatus 100 onto the wall surface 30 will be described.
The sofa 50 is installed so as to contact the wall surface 30, and as shown in FIGS. 7 and 9, the projection image generated by the projection device 100 is projected so as to straddle the wall surface 30 and the sofa 50. .
In addition, the imaging device 200 and the tripod 210 are installed at a position directly below the projection device 100 and in front of the sofa 50 and the wall surface 30. The imaging device 200 can capture the projection image generated by the projection device 100 from the front of the sofa 50 and the wall surface 30. The tripod 210 is installed to adjust the height of the imaging device 200 from the floor surface 20 and fix the imaging position of the imaging device 200 at the adjusted height.

図6に示している床面20と壁面30と壁面40とは互いに直交しており、その直交点をXYZ座標の原点としたとき、床面20はZX平面、壁面30はYZ平面、壁面40はXY平面、として扱うことができる。以下の説明において述べる方向については、このXYZ座標を基準として説明する。   The floor surface 20, the wall surface 30, and the wall surface 40 shown in FIG. 6 are orthogonal to each other, and when the orthogonal point is the origin of the XYZ coordinates, the floor surface 20 is the ZX plane, the wall surface 30 is the YZ plane, and the wall surface 40. Can be treated as an XY plane. The directions described in the following description will be described with reference to the XYZ coordinates.

以下、図10のフローチャートを用いて、投影装置100による処理手順を説明する。
まず、画像入力部110は、テスト投影用の画像データを入力する(ステップS102)。
投影画像形成部150は、画像入力部110に入力されたテスト投影用の画像データ(一の画像データ)からテスト投影画像P1を形成する(ステップS103)。
投影部160は、投影画像形成部150によって形成されたテスト投影画像P1を投影面(壁面30およびソファ50)に投影する(ステップS104)。
画像補正部120は、投影部160がテスト投影画像P1を投影面に投影している状態で、当該投影面を撮像して生成されるテスト画像データを取得する(ステップS105)。
光路長情報取得部130は、テスト画像データに設定されている微小領域ごとに光路長情報を取得する(ステップS106)。
投影装置100は、所望のテスト画像データが揃うまでテスト投影を継続し(ステップS107のNO)、ステップS102からステップS106の処理を繰り返す。また、投影装置100は、所望のテスト画像データが揃ったときテスト投影を終了する(ステップS107のYES)。そして、画像補正部120は、ステップS105で取得されたテスト画像データと、ステップS106で光路長情報取得部130よって取得された光路長情報と、に基づいて幾何補正および色調補正に用いる補正パラメータを生成する(ステップS108)。
ステップS108で補正パラメータを生成した後に、画像入力部110がテスト投影用の画像データとは異なる他の画像データを入力したとき(ステップS109)、画像入力部110に入力された他の画像データを補正する際に、生成された補正パラメータを用いて幾何補正(ステップS110)および色調補正(ステップS111)を行う。
ステップS110とステップS111による補正処理で生成された補正画像データを元にして、投影画像形成部150は投影面に投影する投影画像を生成し(ステップS112)、生成された投影画像を投影部160は投影面に投影する(ステップS113)。
投影装置100による画像投影が継続している間は(ステップS114のNO)、ステップS109からステップS113までの処理を繰り返して、連続的に投影面に投影画像を投影する。すなわち、投影装置100は動画投影を行うことができる。そして、投影装置100による投影が終了するとき(ステップS114のYES)、上記の一連のフローは終了する。
Hereinafter, the processing procedure by the projection apparatus 100 will be described with reference to the flowchart of FIG.
First, the image input unit 110 inputs image data for test projection (step S102).
The projection image forming unit 150 forms the test projection image P1 from the test projection image data (one image data) input to the image input unit 110 (step S103).
The projection unit 160 projects the test projection image P1 formed by the projection image forming unit 150 onto the projection plane (the wall surface 30 and the sofa 50) (Step S104).
The image correction unit 120 acquires test image data generated by imaging the projection plane while the projection unit 160 projects the test projection image P1 on the projection plane (step S105).
The optical path length information acquisition unit 130 acquires optical path length information for each minute region set in the test image data (step S106).
The projection apparatus 100 continues the test projection until the desired test image data is prepared (NO in step S107), and repeats the processing from step S102 to step S106. The projection apparatus 100 ends the test projection when desired test image data is prepared (YES in step S107). Then, the image correction unit 120 uses correction parameters used for geometric correction and color correction based on the test image data acquired in step S105 and the optical path length information acquired by the optical path length information acquisition unit 130 in step S106. Generate (step S108).
After the correction parameters are generated in step S108, when the image input unit 110 inputs other image data different from the image data for test projection (step S109), the other image data input to the image input unit 110 is input. At the time of correction, geometric correction (step S110) and tone correction (step S111) are performed using the generated correction parameters.
Based on the corrected image data generated by the correction processing in step S110 and step S111, the projection image forming unit 150 generates a projection image to be projected on the projection surface (step S112), and the generated projection image is used as the projection unit 160. Is projected onto the projection plane (step S113).
While the image projection by the projection apparatus 100 continues (NO in step S114), the processing from step S109 to step S113 is repeated to continuously project the projection image on the projection plane. That is, the projection apparatus 100 can perform moving image projection. When the projection by the projection apparatus 100 ends (YES in step S114), the above series of flows ends.

上記のように、テスト投影を事前に行って補正パラメータを生成し、補正パラメータを生成した後は、それを反復的に用いることによって、その都度補正パラメータを生成しなくとも持続的に投影画像を投影面に投影することができる。これにより、補正処理の処理負荷が軽減される。   As described above, a test projection is performed in advance to generate a correction parameter, and after the correction parameter is generated, the projection image is continuously used by repeatedly using the correction parameter without generating the correction parameter each time. It can project on a projection surface. Thereby, the processing load of the correction process is reduced.

なお、上記で説明した図10の処理手順は、その記載の順番は複数の処理を実行する順番やタイミングを限定するものではない。例えば、その複数の処理の順番は内容的に支障のない範囲で変更することができ、また複数の処理の実行タイミングの一部または全部が互いに重複していてもよい。
以下、上記の処理手順に含まれる各処理について、より詳細に説明する。
In the processing procedure of FIG. 10 described above, the order of description does not limit the order or timing of executing a plurality of processes. For example, the order of the plurality of processes can be changed as long as there is no problem in content, and some or all of the execution timings of the plurality of processes may overlap each other.
Hereinafter, each process included in the above processing procedure will be described in more detail.

ステップS102で入力し、ステップS103で処理されるテスト投影用の画像データとは、理想平面に投影すれば図4に示す投影画像となる画像データであり、所定数の矩形マス(メッシュ)に分割されている。また、上述したように、各矩形マスが微小領域として設定されている。
テスト投影用の画像データは、投影装置100が備えている記憶装置(図示せず)に予め格納されていることが好ましい。なぜならば、自前でテスト投影用の画像データを保有していることで、画一的なテスト投影を容易に実行することができ、補正処理の精度を一定の水準で保つことができるからである。
The image data for test projection input in step S102 and processed in step S103 is image data that becomes a projection image shown in FIG. 4 when projected onto an ideal plane, and is divided into a predetermined number of rectangular cells (mesh). Has been. Further, as described above, each rectangular cell is set as a minute region.
The image data for test projection is preferably stored in advance in a storage device (not shown) provided in the projection apparatus 100. This is because the image data for the test projection is held on its own, so that uniform test projection can be easily executed and the accuracy of the correction process can be maintained at a certain level. .

ステップS104で投影されるテスト投影画像P1は、各視点から視ると図7に示すようになる。図7(a)は投影面の正面から、すなわち撮像装置200から視たテスト投影画像P1である。図7(b)は投影装置100から視たテスト投影画像P1である。なお、図7における斜線部分(微小領域P11から微小領域P16)は、説明に該当する微小領域を示すために斜線を引くものであり、実際の見た目がそのようになっている必要はない。   The test projection image P1 projected in step S104 is as shown in FIG. 7 when viewed from each viewpoint. FIG. 7A shows a test projection image P1 viewed from the front of the projection plane, that is, from the imaging apparatus 200. FIG. FIG. 7B is a test projection image P <b> 1 viewed from the projection apparatus 100. Note that the hatched portion in FIG. 7 (the minute region P11 to the minute region P16) is hatched to indicate the minute region corresponding to the description, and the actual appearance does not need to be so.

図7で図示しているように、テスト投影画像P1は全体として、天井面10に近い側(Y軸の正方向側)が狭く、かつ、床面20に近い側(Y軸の負方向側)が広い台形状の画像となる。
ここで、テスト投影画像P1において、投影軸と交差する位置を交差点B1とする。ここで投影軸とは、投影レンズ182の光軸のことである。図4および図7では交差点B1をテスト投影画像P1の中央に示す。
As shown in FIG. 7, the test projection image P1 as a whole has a narrower side closer to the ceiling surface 10 (Y-axis positive direction side) and a side closer to the floor surface 20 (Y-axis negative direction side). ) Is a wide trapezoidal image.
Here, in the test projection image P1, a position that intersects the projection axis is defined as an intersection B1. Here, the projection axis is the optical axis of the projection lens 182. 4 and 7, the intersection B1 is shown at the center of the test projection image P1.

ソファ50の背もたれ部分で壁面30と略並行な面52に投影される微小領域P11(交差点B1を基準として左に1列目、下に2行目)は、壁面30に投影されている同じ行の微小領域P12(交差点B1を基準として左に4列目、下に2行目)よりも投影装置100に近接しているので、微小領域P12よりも小さくなる。
なお、微小領域P11および微小領域P12は、Y軸の正方向から負方向へと拡大する台形状となる。
The minute region P11 (the first column on the left and the second row on the bottom with respect to the intersection B1) projected on the surface 52 substantially parallel to the wall surface 30 at the back portion of the sofa 50 is the same row projected on the wall surface 30. Is closer to the projection device 100 than the small region P12 (fourth column on the left and the second row on the bottom with respect to the intersection B1), and is smaller than the small region P12.
The minute region P11 and the minute region P12 have a trapezoidal shape that expands from the positive direction of the Y axis to the negative direction.

上記の面52およびソファ50の背もたれ部分で床面20と略並行な面51に跨がって投影される微小領域P13(交差点B1を基準として左に1列目、下に1行目)は、面51と面52に跨がっているので、壁面30に投影されている同じ行の微小領域P14(交差点B1を基準として右に4列目、下に1行目)よりも正面から視ると小さくなる。
より詳細には、微小領域P13のうち面52に投影されている部分領域P132の下辺と微小領域P14の下辺とを比べると、部分領域P132の方が小さく、また、部分領域P132の方が高い位置(Y軸の正方向側)にある。
一方で、微小領域P13のうち面51に投影されている部分領域P131の上辺と微小領域P14の上辺とを比べると、その寸法は略等しい。より正確には、部分領域P131の上辺の方が、投影装置100に対してやや近いので、微小領域P14の上辺よりやや小さい。
なお、部分領域P131は、X軸の正方向から負方向へと拡大する台形状となる。また、部分領域P132は、Y軸の正方向から負方向へと拡大する台形状となる。また、微小領域P14は、Y軸の正方向から負方向へと拡大する台形状となる。
The minute region P13 (first column on the left and the first row on the lower side with respect to the intersection B1) projected on the surface 52 and the backrest portion of the sofa 50 across the surface 51 substantially parallel to the floor surface 20 is Since it straddles the surface 51 and the surface 52, it is viewed from the front rather than the minute region P14 of the same row projected on the wall surface 30 (fourth column on the right and the first row on the bottom with respect to the intersection B1). Then it becomes smaller.
More specifically, when the lower side of the partial region P132 projected on the surface 52 in the minute region P13 is compared with the lower side of the minute region P14, the partial region P132 is smaller and the partial region P132 is higher. It is in the position (positive side of the Y axis).
On the other hand, when the upper side of the partial region P131 projected on the surface 51 in the minute region P13 is compared with the upper side of the minute region P14, the dimensions are substantially equal. More precisely, since the upper side of the partial area P131 is slightly closer to the projection device 100, it is slightly smaller than the upper side of the minute area P14.
The partial region P131 has a trapezoidal shape that expands from the positive direction of the X axis to the negative direction. Further, the partial region P132 has a trapezoidal shape that expands from the positive direction of the Y axis to the negative direction. Further, the minute region P14 has a trapezoidal shape that expands from the positive direction of the Y axis to the negative direction.

ソファ50の腰掛け部分で床面20と略平行な面53に投影される微小領域P15(交差点B1を基準として右に1列目、下に3行目)は、投影装置100(投影レンズ182)から微小領域P15への入射線と面53とがなす角度が45度であることを前提とすれば、壁面30に投影されている同じ行の微小領域P16(交差点B1を基準として右に4列目、下に3行目)と略同じ大きさとなる。また、当該角度が45度より鋭角である場合には、微小領域P15は微小領域P16より大きくなる。また、当該角度が45度より鈍角である場合には、微小領域P15は微小領域P16より小さくなる。ただし、微小領域P15は面53に投影されるので、壁面30およびソファ50の正面から見えない。
なお、微小領域P15は、X軸の正方向から負方向へと拡大する台形状となる。また、微小領域P16は、Y軸の正方向から負方向へと拡大する台形状となる。
The minute region P15 (first row on the right and third row on the lower side with respect to the intersection B1) projected onto the surface 53 substantially parallel to the floor surface 20 on the seat portion of the sofa 50 is the projection device 100 (projection lens 182). Assuming that the angle formed by the incident line from 15 to the minute region P15 and the surface 53 is 45 degrees, the minute region P16 of the same row projected on the wall surface 30 (four columns to the right with respect to the intersection B1) The size is approximately the same as the third line below the eye. When the angle is more acute than 45 degrees, the micro area P15 is larger than the micro area P16. When the angle is more obtuse than 45 degrees, the micro area P15 is smaller than the micro area P16. However, since the minute region P15 is projected onto the surface 53, it cannot be seen from the front surface of the wall surface 30 and the sofa 50.
Note that the minute region P15 has a trapezoidal shape that expands from the positive direction of the X axis to the negative direction. The minute region P16 has a trapezoidal shape that expands from the positive direction of the Y axis to the negative direction.

壁面30に投影される微小領域P17(交差点B1を基準として左に1列目、上に3行目)は、テスト投影画像P1の中で最も投影装置100に近い微小領域である。微小領域P17は、他の微小領域と比べて投影装置100に近接しているため、他の領域より小さい。
なお、微小領域P17は、Y軸の正方向から負方向へと拡大する台形状となる。
A micro area P17 projected on the wall surface 30 (the first column on the left and the third line on the upper side with respect to the intersection B1) is the micro area closest to the projection apparatus 100 in the test projection image P1. Since the micro area P17 is closer to the projection apparatus 100 than other micro areas, it is smaller than the other areas.
The minute region P17 has a trapezoidal shape that expands from the positive direction of the Y axis to the negative direction.

ステップS106において、光路長情報取得部130は、光路長情報を微小領域の頂点ごとに取得することがより好ましい。すなわち、図4に示すように、微小領域が矩形である場合には、一つの微小領域に四つの光路長情報を対応付けることになる。これにより、より精密な画像補正が可能となる。   In step S106, it is more preferable that the optical path length information acquisition unit 130 acquires the optical path length information for each vertex of the minute region. That is, as shown in FIG. 4, when the minute area is rectangular, four pieces of optical path length information are associated with one minute area. Thereby, more precise image correction is possible.

ステップS107の判定について、具体的には、所望のテスト画像データが揃うか否かによって判定する。当該判定は、投影装置100が自律的に判定する手段を備えていてもよいし、投影装置100の利用者が任意に行ってもよい。
ここで所望のテスト画像データとは、具体的には、画像入力部110に入力される画像データの各色調(赤色(R)、緑色(G)、青色(B))のうち一つのみが最大値で、残りの二つが最小値に設定されたテスト用画像データを投影したときに得られる三種類のテスト画像データと、全ての色調が最大値に設定された(白色の)テスト用画像データを投影したときに得られるテスト画像データと、全ての色調が最小値に設定された(黒色の)テスト用画像データを投影したときに得られるテスト画像データと、をいう。
上記の五種類のテスト画像データのうち全てを揃えなくとも補正処理は可能であるが、特に色調補正(ステップS111)を高精度に行うためには、五種類が揃っていることが好ましい。
Specifically, the determination in step S107 is performed based on whether or not desired test image data is prepared. The determination may include a means for the projection apparatus 100 to determine autonomously, or the user of the projection apparatus 100 may arbitrarily make the determination.
Here, specifically, the desired test image data is only one of the color tones (red (R), green (G), blue (B)) of the image data input to the image input unit 110. Three types of test image data obtained by projecting test image data with the maximum value and the remaining two set to the minimum value, and (white) test image with all color tones set to the maximum value Test image data obtained when data is projected, and test image data obtained when (black) test image data in which all color tones are set to minimum values are projected.
Correction processing can be performed without arranging all of the above five types of test image data, but in order to perform color tone correction (step S111) with high accuracy, it is preferable that the five types are prepared.

ステップS108で生成される補正パラメータは、ステップS110の幾何補正およびステップS111の色調補正に用いられる。   The correction parameter generated in step S108 is used for geometric correction in step S110 and color tone correction in step S111.

以下、本実施形態の画像補正部120が幾何補正に用いる補正パラメータC1について説明する。
まず、画像補正部120は、ステップS105で取得されるテスト画像データのいずれかを選択する。ここで選択するテスト画像データの種別は特に限定されないが、各微小領域の輪郭が画像処理によって解析可能な程度に明瞭に撮像されているテスト画像データを選択することが好ましい。
画像補正部120は、交差点B1を座標の中心とし、ステップS106で取得した光路長情報とテスト画像データに撮像されている各微小領域の頂点の位置座標を決定する。この決定に関して、光路長情報も加味しているので、テスト画像データに撮像されていない微小領域(例えば、図7における微小領域P15)についても位置座標を決定することができる。
Hereinafter, the correction parameter C1 used by the image correction unit 120 of the present embodiment for geometric correction will be described.
First, the image correction unit 120 selects any of the test image data acquired in step S105. The type of test image data to be selected here is not particularly limited, but it is preferable to select test image data in which the outline of each minute region is clearly captured to such an extent that it can be analyzed by image processing.
The image correcting unit 120 determines the position coordinates of the vertices of each micro area captured in the optical path length information acquired in step S106 and the test image data with the intersection B1 as the center of coordinates. Regarding this determination, since the optical path length information is also taken into account, the position coordinates can be determined even for a minute region (for example, the minute region P15 in FIG. 7) not captured in the test image data.

画像補正部120は、以上の処理によって得られた交差点および各微小領域の頂点の位置座標に基づいて、補正後のテスト画像データを投影面に投影した場合に以下の条件を満たす微小領域が可能な限り多くなるように、各微小領域の頂点の補正後の位置座標を決定する。
(i)各微小領域が等しい大きさの正方形(本来の微小領域の形状)に近似させる
(ii)同じ行を構成している各微小領域を補正して投影面に投影したとき、それぞれの縦方向(図7においてはY軸方向)の位置座標を近似させる
(iii)同じ列を構成している各微小領域を補正して投影面に投影したとき、それぞれの横方向(図7においてはZ軸方向)の位置座標が近似する
ここで縦方向および横方向とは、補正対象の画像データを理想平面に投影画像した場合における概念であって、必ずしも現実空間の座標軸で示される方向と一致するものではない。
以上の処理で得られるテスト画像データの補正後の位置座標を、画像補正部120は補正パラメータC1として生成する。当然ながら、画像補正部120によって生成される補正パラメータC1には、交差点B2の位置座標も含まれる。
Based on the intersection and the position coordinates of the vertices of each minute area obtained by the above processing, the image correction unit 120 can create a minute area that satisfies the following conditions when the corrected test image data is projected onto the projection plane. The corrected position coordinates of the vertices of each minute area are determined so as to increase as much as possible.
(I) Each micro area is approximated to a square of the same size (original micro area shape). (Ii) When each micro area constituting the same row is corrected and projected onto the projection plane, Approximate the position coordinates in the direction (Y-axis direction in FIG. 7) (iii) When each minute region constituting the same column is corrected and projected onto the projection plane, each lateral direction (Z in FIG. Here, the vertical direction and the horizontal direction are the concepts when the image data to be corrected is projected onto the ideal plane, and do not necessarily coincide with the direction indicated by the coordinate axis in the real space. It is not a thing.
The image correction unit 120 generates the corrected position coordinates of the test image data obtained by the above processing as the correction parameter C1. Of course, the correction parameter C1 generated by the image correction unit 120 also includes the position coordinates of the intersection B2.

前段で述べた幾何補正のパラメータを用いたステップS110の幾何補正によって形成される投影画像P2を図8に示す。また、図8の投影画像P2を、投影面(壁面30およびソファ50)に投影した様子を図9に示す。   FIG. 8 shows a projection image P2 formed by the geometric correction in step S110 using the geometric correction parameters described in the previous stage. FIG. 9 shows a state in which the projection image P2 of FIG. 8 is projected onto the projection plane (the wall surface 30 and the sofa 50).

図8に示すように、投影画像P2は全体として上側が広く、下側が小さい略台形状の画像となる。すなわち、図7で図示したテスト投影画像P1とは狭い側と広い側とが逆転している。
また、交差点B2を中心としており、各微小領域は全体的に交差点B2に寄せるように縮小されているため、投影画像P2の輪郭近傍には微小領域が割り当てられていない部分が存在する。
As shown in FIG. 8, the projection image P2 is a substantially trapezoidal image having a wide upper side and a small lower side as a whole. That is, the narrow side and the wide side are reversed with respect to the test projection image P1 illustrated in FIG.
Further, since each minute area is reduced so as to approach the intersection B2 as a whole centering on the intersection B2, there is a portion to which no minute area is assigned in the vicinity of the outline of the projection image P2.

図8の投影画像P2を壁面30およびソファ50に投影すると、図9で示すように、全体としては天井面10に近い側(Y軸の正方向側)が狭く、かつ、床面20に近い側(Y軸の負方向側)が広い台形状の画像となる点では、補正前のテスト投影画像P1と同様であるが、微小領域が割り当てられている部分については概ね矩形状になっている。   When the projected image P2 of FIG. 8 is projected onto the wall surface 30 and the sofa 50, as shown in FIG. 9, the side close to the ceiling surface 10 (the positive direction side of the Y axis) is narrow and close to the floor surface 20 as a whole. This is the same as the test projection image P1 before correction in that the side (the negative direction side of the Y axis) is a trapezoidal image, but the portion to which the minute region is assigned is generally rectangular. .

壁面30と略並行な面52に投影される微小領域P21(投影画像P2の右下隅を基準として左に5列目、上に2行目)は、壁面30に投影されている同じ行の微小領域P12(交差点B1を基準として左に8列目、上に2行目)よりも投影装置100に近接しているので、微小領域P12よりも小さくなる。
なお、微小領域P11および微小領域P12は、Y軸の正方向から負方向へと拡大する台形状となる。
The minute region P21 projected on the surface 52 substantially parallel to the wall surface 30 (the fifth column on the left and the second row on the upper side with respect to the lower right corner of the projection image P2) is the minute in the same row projected on the wall surface 30. Since it is closer to the projection device 100 than the region P12 (the eighth column on the left and the second row on the upper side with respect to the intersection B1), it is smaller than the minute region P12.
The minute region P11 and the minute region P12 have a trapezoidal shape that expands from the positive direction of the Y axis to the negative direction.

面52に投影される微小領域P21(交差点B2を基準として左に1列目、下に2行目)は、壁面30に投影されている同じ行の微小領域P22(交差点B2を基準として左に4列目、下に2行目)よりも投影装置100に近接しているが、共に略等しい大きさの正方形になっている。
また、微小領域P21は、壁面30に投影されている同じ列の微小領域P27(交差点B2を基準として左に1列目、上に3行目)よりも投影装置100に遠方に位置しているが、共に略等しい大きさの正方形になっている。
The minute region P21 projected on the surface 52 (first column on the left with respect to the intersection B2 and the second row below) is projected to the left with respect to the minute region P22 on the same row projected on the wall surface 30 (based on the intersection B2). The fourth column and the second row below) are closer to the projection apparatus 100, but both are squares of approximately the same size.
The minute region P21 is located farther from the projection device 100 than the minute region P27 in the same column projected on the wall surface 30 (first row on the left and third row on the upper side with respect to the intersection B2). Are squares of approximately the same size.

面51および面52に跨がって投影される微小領域P23(交差点B2を基準として左に1列目、下に1行目)は、面51と面52に跨がっているが、壁面30に投影されている同じ行の微小領域P24(交差点B1を基準として右に4列目、下に1行目)と略等しい大きさになっている。
より詳細には、微小領域P23のうち面52に投影されている部分領域P232の下辺と微小領域P14の下辺とを比べると、その寸法は略等しく、かつ、略同じ高さになっている(Y軸方向の位置座標が近似している)。
また、微小領域P23のうち面51に投影されている部分領域P231の上辺と微小領域P14の上辺とを比べても、その寸法は略等しく、かつ、略同じ高さになっている(Y軸方向の位置座標が近似している)。
ただし、部分領域P232の上辺、すなわち部分領域P231の下辺は、上記の各辺より小さくなっているため、微小領域P23は正方形にはなっていない。
The minute region P23 projected across the surface 51 and the surface 52 (first row on the left and the first row on the lower side with respect to the intersection B2) straddles the surface 51 and the surface 52. 30 is substantially the same size as the minute region P24 in the same row projected on 30 (the fourth column on the right and the first row on the bottom with respect to the intersection B1).
More specifically, when the lower side of the partial region P232 projected on the surface 52 in the minute region P23 is compared with the lower side of the minute region P14, the dimensions thereof are substantially equal and substantially the same height ( The position coordinates in the Y-axis direction are approximated).
Further, even if the upper side of the partial region P231 projected on the surface 51 in the minute region P23 is compared with the upper side of the minute region P14, the dimensions are substantially the same and substantially the same height (Y-axis). The position coordinates of the direction are approximate).
However, since the upper side of the partial region P232, that is, the lower side of the partial region P231 is smaller than the above-described sides, the minute region P23 is not square.

面53に投影される微小領域P15(交差点B2を基準として右に1列目、下に3行目)は、投影装置100(投影レンズ182)から微小領域P25への入射線と面53とがなす角度が45度であることを前提とすれば、壁面30に投影されている同じ行の微小領域P26(交差点B2を基準として右に4列目、下に3行目)と略同じ大きさの正方形となる。   The minute region P15 projected on the surface 53 (first row on the right and third row on the lower side with respect to the intersection B2) has an incident line from the projection device 100 (projection lens 182) to the minute region P25 and the surface 53. Assuming that the angle formed is 45 degrees, the size is substantially the same as the minute region P26 in the same row projected on the wall surface 30 (fourth column on the right and third row on the bottom with respect to the intersection B2). It becomes a square.

続いて、本実施形態の画像補正部120が色調補正に用いる補正パラメータC2について説明する。本実施形態の画像補正部120は二通りの色調補正を実行することができ、それぞれについて以下で説明する。   Subsequently, the correction parameter C2 used by the image correction unit 120 of the present embodiment for color tone correction will be described. The image correction unit 120 of the present embodiment can execute two types of color correction, each of which will be described below.

ステップS102において、画像入力部110は、均一な階調値のピクセルから構成されるテスト投影用の画像データ(一の画像データ)を入力する。
ステップS103において、投影画像形成部150は、入力されたテスト投影用の画像データからテスト投影画像を形成する。
ステップS104において、投影部160は、テスト投影画像を投影面に投影し、撮像装置200を用いて当該投影面を撮像する。
ステップS105において、画像補正部120は、当該テスト投影画像が投影されている投影面を撮像して生成されるテスト画像データを取得する。
ステップS106において、光路長情報取得部130は、テスト画像データに対して予め設定されている微小領域ごとに光路長情報を取得する。
In step S102, the image input unit 110 inputs image data for test projection (one image data) composed of pixels with uniform gradation values.
In step S103, the projection image forming unit 150 forms a test projection image from the input test projection image data.
In step S <b> 104, the projection unit 160 projects the test projection image on the projection plane, and images the projection plane using the imaging device 200.
In step S105, the image correction unit 120 acquires test image data generated by imaging the projection plane on which the test projection image is projected.
In step S <b> 106, the optical path length information acquisition unit 130 acquires optical path length information for each minute region set in advance for the test image data.

ステップS107の判定は、赤、緑、青、白、黒の五種類のテスト投影用の画像データを用いてテスト投影し、それぞれについてテスト画像データを取得するまで否定される。
すなわち、ステップS104では、上記の五種類のテスト撮影用の画像データそれぞれに基づいてテスト投影画像を投影面に投影し、それぞれについて当該投影面を撮像することが好ましい。
このように処理することによって、各色相について精度の高い色調補正が可能となる。
The determination in step S107 is negative until test projection is performed using image data for five types of test projections of red, green, blue, white, and black, and test image data is acquired for each.
That is, in step S104, it is preferable to project a test projection image on the projection plane based on each of the above five types of image data for test shooting, and to capture the projection plane for each.
By performing the processing in this way, it is possible to perform color tone correction with high accuracy for each hue.

なお、赤の画像データとは、Rの階調値が最大(255)を示し、かつ、GとBの階調値が最小(0)を示す画像データである。
緑の画像データとは、Gの階調値が最大(255)を示し、かつ、RとBの階調値が最小(0)を示す画像データである。
青の画像データとは、Bの階調値が最大(255)を示し、かつ、GとRの階調値が最小(0)を示す画像データである。
白の画像データとは、RとGとBの階調値が共に最大(255)を示す画像データである。
黒の画像データとは、RとGとBの階調値が共に最小(0)を示す画像データである。
The red image data is image data in which the gradation value of R shows the maximum (255) and the gradation values of G and B show the minimum (0).
The green image data is image data in which the G gradation value indicates the maximum (255) and the R and B gradation values indicate the minimum (0).
The blue image data is image data in which the gradation value of B is maximum (255) and the gradation values of G and R are minimum (0).
White image data is image data in which the gradation values of R, G, and B are all maximum (255).
Black image data is image data in which the gradation values of R, G, and B are all minimum (0).

図14は、赤の画像データをテスト投影して取得されるテスト画像データに含まれる各ピクセルの階調値(R)と、各ピクセルの位置座標との関係を示す図である。なお、図14は、説明のために模擬的に示すものであって、各値は必ずしも正確なものではない。   FIG. 14 is a diagram illustrating the relationship between the gradation value (R) of each pixel included in the test image data obtained by test projection of red image data and the position coordinates of each pixel. Note that FIG. 14 is shown as a simulation for explanation, and each value is not necessarily accurate.

図14に示すように、テスト投影の元となった画像データにおいてはRの階調値が最大(255)であるにも関わらず、そのテスト投影の投影面を撮像して取得されるテスト画像データに含まれるRの階調値は255になるとは限らず、かつ位置座標ごとにピクセルの階調値が異なる。
これは、投影面に光の一部が吸収されるので、その投影面の位置座標ごとに反射光の強弱が異なることに起因するものである。
As shown in FIG. 14, the test image obtained by imaging the projection plane of the test projection even though the R gradation value is the maximum (255) in the image data that is the basis of the test projection. The gradation value of R included in the data is not necessarily 255, and the gradation value of the pixel differs for each position coordinate.
This is because a part of the light is absorbed by the projection surface, and thus the intensity of the reflected light differs for each position coordinate of the projection surface.

ステップS108において、画像補正部120は、取得されたテスト画像データに含まれるピクセルのいずれかを導出し、導出されたピクセルの階調値を基準として、当該テスト画像データに含まれる他のピクセルの階調値を基準に近づける補正パラメータC2(または補正パラメータC3)を生成する。
その後繰り返し実行されうるステップS111においては、ステップS108で生成された補正パラメータC2(または補正パラメータC3)を用いて色調補正を行う。
In step S108, the image correction unit 120 derives one of the pixels included in the acquired test image data, and uses the gradation value of the derived pixel as a reference for the other pixels included in the test image data. A correction parameter C2 (or correction parameter C3) that approximates the gradation value to the reference is generated.
In step S111, which can be repeatedly executed thereafter, color correction is performed using the correction parameter C2 (or correction parameter C3) generated in step S108.

図15は、図14で示したテスト画像データを補正するための補正パラメータC2または補正パラメータC3を示す図である。   FIG. 15 is a diagram showing the correction parameter C2 or the correction parameter C3 for correcting the test image data shown in FIG.

補正パラメータC2は、以下の(2)式で表される値の集合体である。ここでMは、テスト画像データに含まれる各ピクセルの階調値である。また、Iminは、テスト画像データに含まれるピクセルの階調値の中で最も低い値(最低値)である。

Figure 2017037190
The correction parameter C2 is a set of values represented by the following equation (2). Here, M is a gradation value of each pixel included in the test image data. I min is the lowest value (lowest value) among the gradation values of the pixels included in the test image data.
Figure 2017037190

式(2)は、最低値Iminを示すピクセルの階調値を基準として、そのテスト画像データに含まれる他のピクセルの階調値を最低値Iminに近づける関数の一例である。
より詳細には、式(2)は、各ピクセルの階調値Mを反転した値(255−M)と、最低値Iminと合算し、その合算値について階調値の最大値(255)を1として規格化する関数である。
Equation (2), based on the tone value of the pixels for the minimum value I min, which is an example of a function to approximate the tone values of other pixels contained in the test image data to the minimum value I min.
More specifically, the expression (2) is obtained by adding the value (255-M) obtained by inverting the gradation value M of each pixel and the minimum value Imin, and regarding the total value, the maximum value (255) of the gradation value. Is a function that normalizes as 1.

次に、補正パラメータC3は、以下の(3)式で表される値の集合体である。ここで、Imaxは、テスト画像データに含まれるピクセルの階調値の中で最も高い値(最高値)である。

Figure 2017037190
Next, the correction parameter C3 is a set of values represented by the following equation (3). Here, I max is the highest value (maximum value) among the gradation values of the pixels included in the test image data.
Figure 2017037190

式(3)は、最低値Iminを示すピクセルの階調値を下限とし、最高値Imaxおよび最低値Iminの間の値、例えば中間値(Imax+Imin/2)を上限とするように、図14に示す各階調値をならす関数の一例である。
換言すれば、式(3)は、最低値Iminを示すピクセルの階調値を基準として、そのテスト画像データに含まれる他のピクセルの階調値のばらつきを低減させる関数であり、他のピクセルの階調値を最低値Iminに近づける関数の一例といってもよい。
In the expression (3), the gradation value of the pixel indicating the minimum value I min is set as a lower limit, and a value between the maximum value I max and the minimum value I min , for example, an intermediate value (I max + I min / 2) is set as an upper limit. Thus, it is an example of a function that smoothes the gradation values shown in FIG.
In other words, the expression (3) is a function that reduces the variation in gradation values of other pixels included in the test image data with reference to the gradation value of the pixel indicating the minimum value I min . It may be an example of a function that brings the gradation value of a pixel closer to the minimum value Imin .

図15に示すように、補正パラメータC2または補正パラメータC3における各値の大小関係は、図14に示すテスト画像データにおける各階調値の大小関係の逆になる。これは、式(2)および式(3)にテスト画像データの反転処理(255−M)が含まれていることに起因する。   As shown in FIG. 15, the magnitude relationship between the values in the correction parameter C2 or the correction parameter C3 is opposite to the magnitude relationship between the gradation values in the test image data shown in FIG. This is because the test image data inversion process (255-M) is included in the expressions (2) and (3).

図16は、図14に示すテスト画像データを、補正パラメータC2または補正パラメータC3を用いた補正によって得られる補正画像データD2、D3を示す図である。補正画像データD2は、図14に示すテスト画像データを、補正パラメータC2を用いて補正して得られるものである。また、補正画像データD3は、図14に示すテスト画像データを、補正パラメータC3を用いて補正して得られるものである。   FIG. 16 is a diagram showing corrected image data D2 and D3 obtained by correcting the test image data shown in FIG. 14 using the correction parameter C2 or the correction parameter C3. The corrected image data D2 is obtained by correcting the test image data shown in FIG. 14 using the correction parameter C2. The corrected image data D3 is obtained by correcting the test image data shown in FIG. 14 using the correction parameter C3.

図16に示すとおり、補正画像データD2は概ね一定の階調値になり、これはテスト画像データに含まれる階調値の最低値Iminに略等しい。
また、図14と図16とを比較すればわかるように、補正画像データD3における各階調値のばらつきは、図14に示すテスト画像データにおける各階調値のばらつきより低減しており、概ね半分になっている。
As shown in FIG. 16, the corrected image data D2 has a substantially constant gradation value, which is substantially equal to the minimum value I min of the gradation values included in the test image data.
Further, as can be seen by comparing FIG. 14 and FIG. 16, the variation of the gradation values in the corrected image data D3 is reduced from the variation of the gradation values in the test image data shown in FIG. It has become.

なお、上記に挙げた実施例のように、本発明の色調補正に用いる補正パラメータ(例えば補正パラメータC2や補正パラメータC3)の生成の基準となるピクセルは、テスト画像データにおける階調値の中でも低いもの(最低値Iminを示すピクセル)を用いることが好ましい。
階調値が最大である画像を投影し、その反射光を撮像して得られる階調値がその位置座標において最低値Iminを示す位置座標に対する色調補正において発色可能な限度はその最低値Iminであり、それ以上の発色(階調値)は望めない。従って他の位置座標における階調値を最低値Imin合わせるのが妥当だからである。
Note that, as in the above-described embodiment, the pixel used as a reference for generating correction parameters (for example, the correction parameter C2 and the correction parameter C3) used for the color tone correction of the present invention is low among the tone values in the test image data. it is preferable to use things (pixels exhibiting the minimum value I min).
An image having the maximum gradation value is projected and the reflected light is picked up, and the gradation value obtained by imaging the reflected light has the minimum value I min. Min and color development (tone value) beyond that cannot be expected. Therefore, it is appropriate to adjust the gradation value at other position coordinates to the minimum value I min .

画像補正部120によってテスト画像データから導出されるピクセル(補正パラメータの生成における基準)は、そのテスト画像データの全部を解析して、そのうち階調値が最低値を示すピクセルを導出する方式でも構わないが、より好ましくは以下の方式を用いるとよい。
例えば、画像補正部120は、光路長情報取得部130によって取得された光路長情報のうち最大の距離を示す光路長情報を示す微小領域に対応しているピクセルを基準として導出してもよい。
上記のように、光路長が長くなるほど、その微小領域における発色は暗くなりやすい。従って、最大の距離を示す微小領域に対応しているピクセルの中に、そのテスト画像データにおける最低値Iminを示すピクセルが含まれる蓋然性が高い。従って、画像補正部120による解析範囲をその微小領域に限定すれば、より軽負荷で補正パラメータ生成の基準を定めることができる。
The pixel derived from the test image data by the image correction unit 120 (reference in generating correction parameters) may be a method of analyzing all of the test image data and deriving a pixel having the lowest gradation value. However, it is preferable to use the following method.
For example, the image correction unit 120 may derive the pixel corresponding to the minute region indicating the optical path length information indicating the maximum distance among the optical path length information acquired by the optical path length information acquisition unit 130 as a reference.
As described above, the longer the optical path length, the darker the color developed in the minute region. Therefore, there is a high probability that the pixel corresponding to the minute area indicating the maximum distance includes the pixel indicating the lowest value I min in the test image data. Therefore, if the analysis range by the image correction unit 120 is limited to the very small area, the correction parameter generation reference can be set with a lighter load.

上記のような原理に基づく色調補正を、赤(R)だけではなく、緑(G)、青(G)のそれぞれについて行うことで、投影面自体の色や投影部160からの距離に起因してばらつく投影画像の色調を、より滑らかにすることができる。
また、白や黒についても三原色と同様に補正パラメータを生成することによって、白い投影画像をより白らしく発色させ、黒い投影画像をより黒らしく発色させる補正処理が可能となる。
すなわち、上記の色調補正を実行することによって、投影画像の観測者から見て違和感の少ない投影画像を実現することができる。
By performing color tone correction based on the above principle not only on red (R) but also on each of green (G) and blue (G), it is caused by the color of the projection surface itself and the distance from the projection unit 160. The color tone of the projection image that varies can be made smoother.
In addition, by generating correction parameters for white and black as in the case of the three primary colors, it is possible to perform a correction process in which a white projected image is colored more white and a black projected image is colored more black.
In other words, by executing the above-described color tone correction, it is possible to realize a projected image that is less uncomfortable when viewed from the observer of the projected image.

なお、上記の実施例では、赤、緑、青、白、黒の五種類のテスト投影用の画像データを投影した状態で撮像した画像データをテスト画像データとして扱う例を述べたが、他の画像データ、例えば自然光で投影面を照らして撮像される画像データ等もテスト画像データとして用いてもよい。   In the above embodiment, an example has been described in which image data captured in a state in which five types of image data for test projection of red, green, blue, white, and black are projected is treated as test image data. Image data such as image data captured by illuminating the projection surface with natural light may also be used as the test image data.

また、上記の実施例では、式(2)や式(3)を用いて補正パラメータを生成するように説明したが、上記の原理に基づく一例であって、本発明の実施をこれに限定する必要はない。   In the above embodiment, the correction parameters are generated using the equations (2) and (3). However, this is an example based on the above principle, and the embodiment of the present invention is limited to this. There is no need.

<投影装置100による画像投影の第二の実施例>
続いて、これまで説明した実施例とは異なる第二の実施例に基づいて、投影装置100を具体的に説明する。この説明では、図4から図6、図10から図12を用いる。
図4は、微小領域を割り当てた投影画像(テスト投影画像P1)を理想平面に投影した様子を示す模式図である。
図5は、投影装置100および撮像装置200の設置例を示す模式図である。
図6は、投影装置100の位置から図5のXYZ座標の原点を視る視点からの模式図である。
図10は、投影装置100が行う処理の手順を示すフローチャートである。
図11は、図4に示す投影画像(テスト投影画像P1)を投影面(床面20と壁面30と壁面40)に投影し、投影装置100の位置から視た状態を示す図である。
図12は、図4に示す投影画像の元となる画像データを補正して形成される投影画像P3を投影面(床面20と壁面30と壁面40)に投影し、投影装置100の位置から視た状態を示す図である。
<Second Example of Image Projection by Projector 100>
Next, the projection apparatus 100 will be specifically described based on a second embodiment different from the embodiments described so far. In this description, FIGS. 4 to 6 and FIGS. 10 to 12 are used.
FIG. 4 is a schematic diagram showing a state in which a projection image (test projection image P1) to which a minute region is assigned is projected onto an ideal plane.
FIG. 5 is a schematic diagram illustrating an installation example of the projection device 100 and the imaging device 200.
FIG. 6 is a schematic view from the viewpoint of viewing the origin of the XYZ coordinates in FIG. 5 from the position of the projection apparatus 100.
FIG. 10 is a flowchart showing a procedure of processing performed by the projection apparatus 100.
FIG. 11 is a diagram illustrating a state in which the projection image (test projection image P1) illustrated in FIG. 4 is projected onto the projection plane (the floor surface 20, the wall surface 30, and the wall surface 40) and viewed from the position of the projection device 100.
12 projects a projection image P3 formed by correcting the image data that is the basis of the projection image shown in FIG. 4 onto the projection plane (the floor surface 20, the wall surface 30, and the wall surface 40), and from the position of the projection device 100. It is a figure which shows the state seen.

本実施例では、第一の実施例における投影装置100の配置は変えず、投影面を変更している。具体的には、投影装置100は、図4に示すテスト投影画像P1を、図5および図6に示している床面20と壁面30と壁面40との三面に跨がるように投影している。
図11に図示しているように、テスト投影画像P1は、三面に跨がって投影されているので、投影装置100の位置からは各面の境目で歪んでいるように見える。
微小領域P31のように、複数の面(図11においては壁面30と壁面40)に跨がって投影され、複数の部分領域(図11においては部分領域P311と部分領域P312)に分かれている微小領域は、本来の形状(正方形)とはかけ離れた形状に変形している。
In the present embodiment, the projection plane is changed without changing the arrangement of the projection apparatus 100 in the first embodiment. Specifically, the projection apparatus 100 projects the test projection image P1 illustrated in FIG. 4 so as to straddle the three surfaces of the floor surface 20, the wall surface 30, and the wall surface 40 illustrated in FIGS. Yes.
As illustrated in FIG. 11, the test projection image P1 is projected across three surfaces, and thus appears to be distorted at the boundary between the surfaces from the position of the projection device 100.
Like the minute region P31, the projection is performed across a plurality of surfaces (the wall surface 30 and the wall surface 40 in FIG. 11) and is divided into a plurality of partial regions (the partial region P311 and the partial region P312 in FIG. 11). The minute region is deformed into a shape far from the original shape (square).

前段のように投影されているテスト投影画像P1を、図10を用いて説明した処理手順で補正し、形成される投影画像P3を床面20と壁面30と壁面40との三面に跨がるように投影させると、図12のようになる。
図12で図示しているように、投影画像P3を三面に跨がるように投影させても各面において矩形状に見える。なお、図12の視点からは各面に対して正面を向いていないので、各微小領域が縦方向に縮小した矩形に見えるが、正面から見れば略正方形になっている。
また、図12に図示される各微小領域は、床面20と壁面30と壁面40(XYZ軸の原点)に近接側が大きく、遠方側が小さく図示されているが、これは図12を遠近法によって図示したことに起因するものであり、実際には各微小領域は略等しい大きさになっている。
The test projection image P1 projected as in the previous stage is corrected by the processing procedure described with reference to FIG. 10, and the formed projection image P3 extends over the three surfaces of the floor surface 20, the wall surface 30, and the wall surface 40. Thus, the projection is as shown in FIG.
As shown in FIG. 12, even if the projection image P3 is projected so as to straddle three surfaces, it looks rectangular in each surface. In addition, from the viewpoint of FIG. 12, since it does not face the front with respect to each surface, each minute area looks like a rectangle reduced in the vertical direction, but when viewed from the front, it is a substantially square.
In addition, each minute region illustrated in FIG. 12 is illustrated with the floor 20, the wall 30, and the wall 40 (the origin of the XYZ axes) having a large proximity side and a small distant side. This is due to the fact that it is shown in the drawings, and in fact, each minute region has substantially the same size.

補正前の投影(図11に示す投影)においては、壁面30と壁面40とに跨がっていた微小領域P31に対応する微小領域P41の配置は、画像補正部120による補正処理によって交差点B3に寄せられる。従って、微小領域P41は、補正後の投影(図12に示す投影)において床面20と壁面30とに跨がる位置に移動する。また、微小領域P41は、壁面30に投影されている部分領域P411と、床面20に投影されている部分領域P412とに分かれている。部分領域P411と部分領域P412とは単体で見れば台形状や三角形状であるが、微小領域P41は全体としては略正方形になっている。   In the projection before the correction (projection shown in FIG. 11), the arrangement of the minute region P41 corresponding to the minute region P31 straddling the wall surface 30 and the wall surface 40 is arranged at the intersection B3 by the correction processing by the image correcting unit 120. It is sent. Accordingly, the minute region P41 moves to a position straddling the floor surface 20 and the wall surface 30 in the corrected projection (projection shown in FIG. 12). The minute region P41 is divided into a partial region P411 projected onto the wall surface 30 and a partial region P412 projected onto the floor surface 20. The partial region P411 and the partial region P412 are trapezoidal or triangular when viewed as a single unit, but the microregion P41 is substantially square as a whole.

本実施例について、これまで幾何補正について説明した。当然ながら、投影装置100入力された画像データに対して色調補正も行うが、第一の実施例で説明した内容に相当するものであり、本実施例での説明は省略する。   In the present embodiment, the geometric correction has been described so far. Naturally, although tone correction is also performed on the image data input to the projection apparatus 100, this corresponds to the content described in the first embodiment, and the description in this embodiment is omitted.

以上のように、複数の面に跨がる投影面に投影画像を投影した場合であっても、また、各面に投影装置100(投影レンズ182)が正対していない場合であっても、投影装置100は観賞に堪えうる投影画像を投影することができる。   As described above, even when a projection image is projected on a projection surface extending over a plurality of surfaces, or even when the projection device 100 (projection lens 182) is not directly facing each surface, The projection apparatus 100 can project a projection image that can be enjoyed.

以上、説明したように、本実施形態の投影装置100は、投影画像の元となる画像データを投影面に合わせて適切に幾何補正および色調補正を行うことができる。従って、たとえ投影面が歪な形状であっても、投影面が複数面に跨がる場合であっても、投影装置100が投影面に正対していない場合であっても、投影装置100は観賞に堪えられる画像投影を実現することができる。
また、投影装置100の外観は、いわゆるスポットライトに類似する形状になっており、ベース部170(給電部172)が既存の電球ソケットやシーリング取付具に装着可能に形成されているので、既存設備と違和感なく置き換えることができる。
As described above, the projection apparatus 100 according to the present embodiment can appropriately perform geometric correction and color correction according to the projection plane of the image data that is the basis of the projection image. Therefore, even if the projection surface has a distorted shape, even when the projection surface extends over a plurality of surfaces, even when the projection device 100 does not face the projection surface, the projection device 100 It is possible to realize image projection that can withstand viewing.
Further, the external appearance of the projection device 100 has a shape similar to a so-called spotlight, and the base portion 170 (the power feeding portion 172) is formed so as to be attachable to an existing light bulb socket or a ceiling fixture. And can be replaced without any sense of incongruity.

上記のような二つの特徴点を有しているので、投影装置100は利用環境に合わせて画像コンテンツ(静止画・動画)を投影することができる。
例えば、室内で投影装置100を利用する場合、室内の壁面や家具の天面に、朝食時は湖畔や海岸など気分を爽やかにするような画像コンテンツを投影し、夕飯時はレストランやバーなど落ち着いた雰囲気を醸し出す画像コンテンツを投影し、入浴中は露天風呂を連想させるような画像コンテンツを投影するような利用方法もある。
また、特に画像コンテンツの投影を必要としない場合であっても、光源部140の光を直接、または、白色の投影画像を投影することによって、照明と兼用することも可能である。
Since it has the two feature points as described above, the projection apparatus 100 can project image content (still image / moving image) in accordance with the usage environment.
For example, when the projection device 100 is used indoors, image content that refreshes the mood, such as a lake shore or coast, is projected on the wall surface of a room or the top of furniture, and a restaurant or bar is calm at dinner. There is also a method of projecting image content that creates an atmosphere and projecting image content reminiscent of an open-air bath during bathing.
Even if it is not particularly necessary to project the image content, it is possible to use the light of the light source unit 140 directly or by projecting a white projection image so as to be combined with illumination.

一方、屋外で利用する場合には、壁面や地面に、看板やポスターに代わる映像広告を投影することもできる。通常の街頭広告と違って撤去作業および設置作業は、画像入力部110から入力する画像データの差し替えによって実現できるので、これらの作業にかかる経済コストおよび時間コストを削減することができる。
また、本発明の投影装置100による映像広告であれば、内容の差し替えに限らず、一時的に投影を停止することも容易である。従って、例えば、屋外収録を行っている最中に企業広告が収録画像に入り込まないように、当該企業広告の投影を停止するといった対応も容易となる。
On the other hand, when using outdoors, a video advertisement replacing a signboard or a poster can be projected on the wall or ground. Unlike ordinary street advertisements, the removal work and the installation work can be realized by replacing the image data input from the image input unit 110, so that the economic cost and time cost for these work can be reduced.
Moreover, if it is a video advertisement by the projection apparatus 100 of this invention, it is easy not only to replace the contents but also to temporarily stop the projection. Therefore, for example, it is easy to cope with stopping the projection of the corporate advertisement so that the corporate advertisement does not enter the recorded image during outdoor recording.

<投影装置100と同様の機能を備えた変形例>
これまで投影装置100について説明してきたが、以下においては投影装置100に備えられる各種機能に相当する機能を含んでいる画像処理装置500および画像配信システム1000について、図13を用いて説明する。
図13は、画像処理装置500および画像配信システム1000の機能構成を示す機能ブロック図である。
<Modification with the same function as the projection apparatus 100>
The projection apparatus 100 has been described so far. Hereinafter, an image processing apparatus 500 and an image distribution system 1000 including functions corresponding to various functions provided in the projection apparatus 100 will be described with reference to FIG.
FIG. 13 is a functional block diagram illustrating functional configurations of the image processing apparatus 500 and the image distribution system 1000.

画像配信システム1000に含まれる各構成要素について説明する。
画像配信システム1000は、発光する光源部610の光を用いて投影画像を投影面に投影する投影装置600に対して、投影画像の元となる画像コンテンツを配信するシステムである。
画像処理装置500は、発光する光源部610の光を用いて投影画像を投影面に投影する際に、投影画像の元となる画像コンテンツを生成する装置であって、画像入力部510と光路長情報取得部530と画像補正部520と画像配信部540とを有している。
画像入力部510は、複数のピクセルから構成される画像データを入力する。
光路長情報取得部530は、投影画像に定めた複数の微小領域ごとに基準点から投影面までの光路の距離を示す光路長情報を取得する。
画像補正部520は、画像データに含まれるピクセルと微小領域とを対応付けて、ピクセルに対応付けられた微小領域の光路長情報に基づいて画像データに幾何補正および色調補正を行って画像コンテンツを生成する。
画像配信部540は、画像補正部520によって生成された画像コンテンツを、通信回線700を介して配信する。
Each component included in the image distribution system 1000 will be described.
The image distribution system 1000 is a system that distributes image content that is the basis of a projection image to a projection apparatus 600 that projects the projection image onto a projection plane using light from the light source unit 610 that emits light.
The image processing apparatus 500 is an apparatus that generates image content that is the basis of a projection image when the projection image is projected onto the projection plane using light from the light source unit 610 that emits light. An information acquisition unit 530, an image correction unit 520, and an image distribution unit 540 are included.
The image input unit 510 inputs image data composed of a plurality of pixels.
The optical path length information acquisition unit 530 acquires optical path length information indicating the distance of the optical path from the reference point to the projection plane for each of a plurality of minute regions defined in the projection image.
The image correction unit 520 associates pixels and minute regions included in the image data, performs geometric correction and color correction on the image data based on the optical path length information of the minute regions associated with the pixels, and converts the image content. Generate.
The image distribution unit 540 distributes the image content generated by the image correction unit 520 via the communication line 700.

前段で説明した画像入力部510と画像補正部520と光路長情報取得部530とは、前述した実施例における画像入力部110と画像補正部120と光路長情報取得部130とに相当する機能であり、同様の処理を行うことができる。ここで同様の処理とは、図10で説明したフローチャートに含まれる各フローと同等の処理をいう。   The image input unit 510, the image correction unit 520, and the optical path length information acquisition unit 530 described in the previous stage are functions corresponding to the image input unit 110, the image correction unit 120, and the optical path length information acquisition unit 130 in the above-described embodiment. Yes, the same processing can be performed. Here, the same processing means processing equivalent to each flow included in the flowchart described in FIG.

通信回線700は、インターネット、電話通信網(携帯電話通信網を含む)、LAN(Local Area Network)等の種々のコンピュータネットワーク又はその組合せで構成することができる。また、各構成要素とネットワークとの通信接続は、有線通信であってもよいし、無線通信であってもよい。   The communication line 700 can be configured by various computer networks such as the Internet, a telephone communication network (including a mobile phone communication network), a LAN (Local Area Network), or a combination thereof. The communication connection between each component and the network may be wired communication or wireless communication.

さらに、画像配信システム1000は、統括制御部400と投影装置600と撮像装置800と測距センサ900とを備えている。
統括制御部400は、本変形例の投影装置600と撮像装置800と測距センサ900とを統括的に制御する情報処理装置である。統括制御部400は、撮像装置800と測距センサ900とから所望の環境情報(例えば、上記の実施例で説明した光路長情報、テスト画像データ等)を取得し、取得した環境情報を画像処理装置500に提供する。また、統括制御部400は、画像処理装置500による補正処理で生成された画像コンテンツの配信を受け付け、受け付けた画像コンテンツを投影装置600に提供し、当該画像コンテンツに基づいて投影画像を行わせる。
Furthermore, the image distribution system 1000 includes an overall control unit 400, a projection device 600, an imaging device 800, and a distance measuring sensor 900.
The overall control unit 400 is an information processing apparatus that comprehensively controls the projection apparatus 600, the imaging apparatus 800, and the distance measuring sensor 900 according to this modification. The overall control unit 400 acquires desired environment information (for example, the optical path length information and test image data described in the above embodiment) from the imaging device 800 and the distance measuring sensor 900, and performs image processing on the acquired environment information. The device 500 is provided. Further, the overall control unit 400 receives distribution of the image content generated by the correction processing by the image processing device 500, provides the received image content to the projection device 600, and causes a projection image to be performed based on the image content.

本変形例の統括制御部400は、画像配信システム1000に特化した専用の情報処理装置であってもよいし、汎用のコンピュータ装置にアプリケーションソフトをインストールすることによって実現される情報処理装置であってもよい。なお、汎用のコンピュータ装置とは、いわゆるパーソナルコンピュータ、スマートフォン、タブレット端末等が挙げられる。   The overall control unit 400 of this modification may be a dedicated information processing device specialized for the image distribution system 1000, or an information processing device realized by installing application software on a general-purpose computer device. May be. In addition, what is called a personal computer, a smart phone, a tablet terminal etc. are mentioned with a general purpose computer apparatus.

本変形例の撮像装置800と測距センサ900は、前述した実施例における撮像装置200および測距センサ(図示せず)に相当する構成要素であり、同様の処理を行うことができる。すなわち、撮像装置800は投影面にテスト撮影された状態で撮像される種々の画像データ(テスト画像データ)を生成することができる。また、測距センサ900は投影画像に定められた微小領域ごとに、基準点から投影面までの距離を示す光路長情報を取得することができる。   The imaging device 800 and the distance measuring sensor 900 of this modification are components corresponding to the imaging device 200 and the distance measuring sensor (not shown) in the above-described embodiment, and can perform the same processing. In other words, the imaging apparatus 800 can generate various image data (test image data) that is captured in a state where a test image is taken on the projection surface. Further, the distance measuring sensor 900 can acquire optical path length information indicating the distance from the reference point to the projection plane for each minute region defined in the projection image.

本変形例の投影装置600は、いわゆるプロジェクタ装置である。投影装置600は、光源部610と投影画像形成部620と投影部630を備えている。これらの機能は、前述した実施例における光源部140と投影画像形成部150と投影部160とに相当する機能であり、同様の処理を行うことができる。   The projection apparatus 600 of this modification is a so-called projector apparatus. The projection apparatus 600 includes a light source unit 610, a projection image forming unit 620, and a projection unit 630. These functions correspond to the light source unit 140, the projection image forming unit 150, and the projection unit 160 in the above-described embodiment, and the same processing can be performed.

なお、図13においては統括制御部400と投影装置600と撮像装置800と測距センサ900とは、別の構成要素として記載しているが、これらのうち二つ以上が一体となっていてもよい。例えば、統括制御部400が汎用的なスマートフォンであれば、当該スマートフォンに搭載されているカメラ機能を撮像装置800として利用することも可能であり、統括制御部400と撮像装置800とが一体になっているともいえる。   In FIG. 13, the overall control unit 400, the projection device 600, the imaging device 800, and the distance measuring sensor 900 are described as separate components, but two or more of these may be integrated. Good. For example, if the overall control unit 400 is a general-purpose smartphone, a camera function mounted on the smartphone can be used as the imaging device 800, and the overall control unit 400 and the imaging device 800 are integrated. It can be said that.

以上で説明したように、画像配信システム1000は、投影装置600の周囲環境を示す情報(例えば、上記の実施例で説明した光路長情報、テスト画像データ等)を、通信回線700を介して取得する。また、画像配信システム1000は、画像処理装置500(画像補正部520)で補正処理を行って画像コンテンツを生成し、生成した画像コンテンツを投影装置600に配信することができる。
通信回線700がインターネットである場合には、画像配信システム1000は利用者側から提供された種々の環境情報に基づいて画像コンテンツを生成して配信するウェブサービスということもできる。
As described above, the image distribution system 1000 acquires information indicating the surrounding environment of the projection apparatus 600 (for example, the optical path length information and test image data described in the above embodiments) via the communication line 700. To do. Further, the image distribution system 1000 can perform correction processing by the image processing device 500 (image correction unit 520) to generate image content, and distribute the generated image content to the projection device 600.
When the communication line 700 is the Internet, the image distribution system 1000 can also be referred to as a web service that generates and distributes image content based on various environment information provided from the user side.

ここまで実施例および変形例を示して本発明を説明したが、これらの例に本発明は限られない。また、本発明の各種の構成要素は、個々に独立した存在である必要はなく、複数の構成要素が単一の構成要素として構成されていること、一つの構成要素が複数の構成要素に分割されて形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。
また、上述した各種の構成要素は、必ずしも必須の構成要素ではなく、本発明の効果を阻害しない程度に省いても構わないし、同等に機能又は作用する他の構成要素に代えてもよい。
So far, the present invention has been described with reference to examples and modifications, but the present invention is not limited to these examples. In addition, the various components of the present invention do not have to be independent of each other, a plurality of components are configured as a single component, and one component is divided into a plurality of components. It is permitted that a certain component is a part of another component, a part of a certain component overlaps a part of another component, and the like.
Moreover, the various components described above are not necessarily essential components, and may be omitted to the extent that the effects of the present invention are not impaired, or may be replaced with other components that function or function in an equivalent manner.

例えば、投影装置100は、テスト画像データを撮像する位置(視点)を一箇所として説明したが、複数箇所から撮像しても構わない。
これにより、微小領域P15のように、一部の視点からは撮像されない微小領域も撮像することが可能となり、幾何補正および色調補正に加味することができる。
For example, the projection apparatus 100 has been described with the position (viewpoint) at which the test image data is captured as one place, but the image may be taken from a plurality of places.
As a result, it is possible to image a minute region that is not captured from a part of the viewpoint, such as the minute region P15, and this can be added to geometric correction and color tone correction.

また、上記の実施例の投影装置100は、投影画像の観測者の視点から投影面までの光路の距離を示す視点情報を、光路長情報に対応付けて取得する視点情報取得部を備えてもよい。この場合、画像補正部120は、画像データに含まれるピクセルに対応付けられた微小領域の光路長情報および当該光路長情報に対応付けられた視点情報に基づいて画像データに幾何補正および色調補正を行って補正画像データを生成することができる。従って、より高精度な幾何補正および色調補正を実現することができる。   Further, the projection apparatus 100 of the above-described embodiment may include a viewpoint information acquisition unit that acquires viewpoint information indicating the distance of the optical path from the viewpoint of the observer of the projection image to the projection plane in association with the optical path length information. Good. In this case, the image correction unit 120 performs geometric correction and color correction on the image data based on the optical path length information of the minute area associated with the pixels included in the image data and the viewpoint information associated with the optical path length information. The corrected image data can be generated. Therefore, more accurate geometric correction and color tone correction can be realized.

また、上記の実施例の投影装置100において、図10に示すとおり、補正パラメータの生成(ステップS108)を一度の処理で済ませる実施例で説明したが、これに限られない。例えば、幾何補正用の補正パラメータC1と、色調補正用の補正パラメータC2、C3、C4と、を分けて生成してもよい。より詳細に言えば、まず、一度目のテスト投影(ステップS102からステップS107の一連の処理)で補正パラメータC1を生成する。次に、生成された補正パラメータC1を用いて幾何補正を行ったテスト用投影画像を用いて二度目のテスト投影を行い、当該テスト投影で補正パラメータC2、C3、C4を生成する。
このように補正パラメータを生成することにより、幾何補正後の投影位置に基づいて色調補正用の補正パラメータC2、C3、C4を生成することができ、より色調補正の精度を向上させうる。
Further, in the projection apparatus 100 of the above-described embodiment, as illustrated in FIG. 10, the correction parameter generation (step S <b> 108) has been described in one embodiment, but the present invention is not limited to this. For example, the correction parameter C1 for geometric correction and the correction parameters C2, C3, and C4 for color correction may be generated separately. More specifically, first, the correction parameter C1 is generated by the first test projection (a series of processes from step S102 to step S107). Next, a second test projection is performed using the test projection image subjected to geometric correction using the generated correction parameter C1, and correction parameters C2, C3, and C4 are generated by the test projection.
By generating correction parameters in this way, correction parameters C2, C3, and C4 for color tone correction can be generated based on the projected position after geometric correction, and the accuracy of color tone correction can be further improved.

画像配信システム1000において、画像処理装置500にのみ光路長情報取得部530が備えられる態様を説明したが、光路長情報取得部530の一部処理を統括制御部400に行わせてもよい。
例えば、図10のフローチャートにおけるステップS108で生成される補正パラメータC1、C2、C3、C4に相当する補正パラメータを生成する処理を画像処理装置500で行い、当該補正パラメータを用いて画像データを補正する処理は統括制御部400で行ってもよい。
このような構成にすることにより統括制御部400に内蔵されている画像データ、または、統括制御部400に入力される画像データを用いて投影装置600は画像投影を行うことができる。利用者としては比較的自由に補正対象となる画像データを選択することができ、利用者の利便性が向上する。
In the image distribution system 1000, the mode in which the optical path length information acquisition unit 530 is provided only in the image processing apparatus 500 has been described. However, the overall control unit 400 may perform partial processing of the optical path length information acquisition unit 530.
For example, the image processing apparatus 500 performs processing for generating correction parameters corresponding to the correction parameters C1, C2, C3, and C4 generated in step S108 in the flowchart of FIG. 10, and corrects the image data using the correction parameters. Processing may be performed by the overall control unit 400.
With such a configuration, the projection apparatus 600 can perform image projection using image data incorporated in the overall control unit 400 or image data input to the overall control unit 400. As a user, image data to be corrected can be selected relatively freely, and the convenience for the user is improved.

また、画像配信システム1000において、画像処理装置500と統括制御部400とが別の装置であって、通信回線700を介して通信接続する態様で説明したが、統括制御部400と画像処理装置500とは一体の装置であってもよい。
すなわち、投影装置600に付属する装置が上記の画像コンテンツを生成し、投影装置600はその画像コンテンツを投影してもよい。
Further, in the image distribution system 1000, the image processing apparatus 500 and the overall control unit 400 are separate apparatuses and have been described as being connected via the communication line 700. However, the overall control unit 400 and the image processing apparatus 500 are described. May be an integral device.
That is, a device attached to the projection device 600 may generate the image content, and the projection device 600 may project the image content.

本実施形態は以下の技術思想を包含する。
(1)発光する光源部と、複数のピクセルから構成される画像データを入力する画像入力部と、前記画像入力部に入力された前記画像データを補正して補正画像データを生成する画像補正部と、前記画像補正部によって生成された前記補正画像データから投影面に投影する投影画像を形成する投影画像形成部と、前記投影画像形成部によって形成された前記投影画像を、前記光源部が発光する光を用いて前記投影面に投影する投影部と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、を備え、前記画像補正部は、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記補正画像データを生成する投影装置。
(2)前記画像補正部は、補正処理の基準となる基準距離を定め、補正対象となる前記ピクセルに対応付けられた前記微小領域の前記光路長情報が前記基準距離より小さいとき、前記幾何補正として当該ピクセルによって形成される集合部分を拡大し、かつ、前記色調補正として当該ピクセルの階調値を小さくし、補正対象となる前記ピクセルに対応付けられた前記微小領域の前記光路長情報が前記基準距離より大きいとき、前記幾何補正として当該ピクセルによって形成される集合部分を縮小し、かつ、前記色調補正として当該ピクセルの階調値を大きくする(1)に記載の投影装置。
(3)前記画像補正部が前記幾何補正を行うとき、補正対象となる前記ピクセルによって形成される集合部分の拡大率が、前記基準距離に対する当該ピクセルに対応付けられた前記微小領域の前記光路長情報が示す距離の比率と負の相関にある(2)に記載の投影装置。
(4)前記画像補正部が前記色調補正を行うとき、補正対象となる前記ピクセルの階調値の変化率が、前記基準距離に対する当該ピクセルに対応付けられた前記微小領域の前記光路長情報が示す距離の比率と正の相関にある(2)または(3)に記載の投影装置。
(5)前記投影画像形成部は、前記画像入力部に入力された一の前記画像データからテスト投影画像を形成し、前記投影部は、前記投影画像形成部によって形成された前記テスト投影画像を前記投影面に投影し、前記画像補正部は、前記テスト投影画像を前記投影面に投影している状態で当該投影面を撮像して生成されるテスト画像データを取得し、前記光路長情報取得部は、前記テスト投影画像に設定されている前記微小領域ごとに前記光路長情報を取得し、前記画像補正部は、取得された前記テスト画像データと、前記光路長情報取得部よって取得された前記光路長情報と、に基づいて前記幾何補正および前記色調補正に用いる補正パラメータを生成し、前記画像入力部に入力された他の前記画像データを補正する際に、生成された前記補正パラメータを用いて前記幾何補正および前記色調補正を行う(1)から(4)のいずれか一つに記載の投影装置。
(6)前記投影画像形成部は、均一な階調値の前記ピクセルから構成される前記一の画像データから前記テスト投影画像を形成し、前記画像補正部は、当該テスト投影画像が投影されている投影面を撮像して生成される前記テスト画像データを取得し、取得された前記テスト画像データに含まれる前記ピクセルのいずれかを基準として導出し、導出された前記ピクセルの階調値に、当該テスト画像データに含まれる他の前記ピクセルの階調値を近づける前記補正パラメータを生成し、前記補正パラメータを用いて前記色調補正を行う(5)に記載の投影装置。
(7)前記画像補正部は、前記光路長情報取得部によって取得された前記光路長情報のうち最大の距離を示す前記光路長情報を示す前記微小領域に対応している前記ピクセルを基準として導出する(6)に記載の投影装置。
(8)前記投影画像の観測者の視点から前記投影面までの光路の距離を示す視点情報を、前記光路長情報に対応付けて取得する視点情報取得部を備え、前記画像補正部は、前記画像データに含まれる前記ピクセルに対応付けられた前記微小領域の前記光路長情報および当該光路長情報に対応付けられた前記視点情報に基づいて前記画像データに前記幾何補正および前記色調補正を行って前記補正画像データを生成する(1)から(7)のいずれか一つに記載の投影装置。
(9)電球ソケットまたはシーリング取付具に装着可能な給電部を備え、前記給電部から取得される電力によって動作する(1)から(8)のいずれか一つに記載の投影装置。
(10)発光する光源部の光を用いて投影画像を投影面に投影する際に、前記投影画像の元となる画像コンテンツを生成する画像処理装置であって、複数のピクセルから構成される画像データを入力する画像入力部と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正部と、を備える画像処理装置。
(11)発光する光源部の光を用いて投影画像を投影面に投影する際に、前記投影画像の元となる画像コンテンツを生成するための画像処理をコンピュータに実行させる画像処理プログラムであって、複数のピクセルから構成される画像データを入力する画像入力処理と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得処理と、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正処理と、をコンピュータに実行させる画像処理プログラム。
(12)発光する光源部の光を用いて投影画像を投影面に投影する投影装置に対して、前記投影画像の元となる画像コンテンツを配信する画像配信システムであって、複数のピクセルから構成される画像データを入力する画像入力部と、前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正部と、前記画像補正部によって生成された前記画像コンテンツを、通信回線を介して配信する画像配信部と、を備える画像配信システム。
This embodiment includes the following technical ideas.
(1) A light source unit that emits light, an image input unit that inputs image data including a plurality of pixels, and an image correction unit that corrects the image data input to the image input unit to generate corrected image data. The light source unit emits the projection image forming unit that forms a projection image to be projected onto the projection plane from the corrected image data generated by the image correction unit, and the projection image formed by the projection image forming unit. A projection unit that projects light onto the projection plane using light to be obtained, and optical path length information acquisition that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image The image correction unit associates the pixel included in the image data with the minute region, and based on the optical path length information of the minute region associated with the pixel. There are a projection device for generating the corrected image data by performing geometrical correction and color correction on the image data.
(2) The image correction unit determines a reference distance serving as a reference for correction processing, and the geometric correction is performed when the optical path length information of the minute region associated with the pixel to be corrected is smaller than the reference distance. The optical path length information of the minute area associated with the pixel to be corrected is enlarged as the set portion formed by the pixel is expanded and the gradation value of the pixel is decreased as the color correction. The projection apparatus according to (1), wherein when the distance is larger than a reference distance, a set portion formed by the pixel is reduced as the geometric correction, and a gradation value of the pixel is increased as the color correction.
(3) When the image correction unit performs the geometric correction, an enlargement ratio of a set portion formed by the pixels to be corrected is an optical path length of the minute region associated with the pixel with respect to the reference distance. The projection apparatus according to (2), which has a negative correlation with a distance ratio indicated by the information.
(4) When the image correction unit performs the color tone correction, the change rate of the gradation value of the pixel to be corrected is the optical path length information of the minute region associated with the pixel with respect to the reference distance. The projection apparatus according to (2) or (3), which is positively correlated with a ratio of the distance shown.
(5) The projection image forming unit forms a test projection image from the one image data input to the image input unit, and the projection unit generates the test projection image formed by the projection image forming unit. Projecting onto the projection plane, the image correction unit acquires test image data generated by imaging the projection plane while projecting the test projection image onto the projection plane, and acquires the optical path length information The unit acquires the optical path length information for each of the micro regions set in the test projection image, and the image correction unit is acquired by the acquired test image data and the optical path length information acquisition unit. Based on the optical path length information, the correction parameters used for the geometric correction and the color tone correction are generated, and the other generated image data input to the image input unit is corrected. Projection apparatus according to any one of the positive parameter using perform the geometrical correction and the color correction from (1) (4).
(6) The projection image forming unit forms the test projection image from the one image data composed of the pixels having uniform gradation values, and the image correction unit projects the test projection image. To obtain the test image data generated by imaging the projection surface, and derive the reference of any of the pixels included in the acquired test image data, to the derived gradation value of the pixel, The projection apparatus according to (5), wherein the correction parameter that approximates the gradation values of the other pixels included in the test image data is generated, and the color tone correction is performed using the correction parameter.
(7) The image correction unit is derived with reference to the pixel corresponding to the minute region indicating the optical path length information indicating the maximum distance among the optical path length information acquired by the optical path length information acquisition unit. The projection device according to (6).
(8) A viewpoint information acquisition unit that acquires viewpoint information indicating a distance of an optical path from an observer's viewpoint of the projection image to the projection plane in association with the optical path length information, and the image correction unit includes Performing the geometric correction and the color tone correction on the image data based on the optical path length information of the minute region associated with the pixel included in the image data and the viewpoint information associated with the optical path length information. The projection apparatus according to any one of (1) to (7), which generates the corrected image data.
(9) The projection apparatus according to any one of (1) to (8), including a power supply unit that can be attached to the light bulb socket or the ceiling fixture, and operating with electric power acquired from the power supply unit.
(10) An image processing apparatus that generates an image content that is a source of a projection image when projecting the projection image onto a projection plane using light of a light source unit that emits light, and an image configured by a plurality of pixels An image input unit that inputs data; an optical path length information acquisition unit that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image; and the image data Generating the image content by associating the pixel and the minute region included in the image, and performing geometric correction and color correction on the image data based on the optical path length information of the minute region associated with the pixel. An image correction unit.
(11) An image processing program for causing a computer to execute image processing for generating image content that is a source of a projected image when projecting a projected image on a projection plane using light from a light source unit that emits light. An image input process for inputting image data composed of a plurality of pixels, and an optical path for acquiring optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image Length information acquisition processing, the pixel included in the image data and the minute area are associated with each other, and geometric correction and color tone are applied to the image data based on the optical path length information of the minute area associated with the pixel. An image processing program that causes a computer to execute an image correction process that performs correction to generate the image content.
(12) An image distribution system that distributes image content that is a source of a projection image to a projection device that projects light onto a projection plane using light from a light source that emits light, and includes a plurality of pixels An image input unit that inputs image data to be obtained, an optical path length information acquisition unit that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image, The pixel included in the image data is associated with the minute region, and the image data is subjected to geometric correction and color tone correction based on the optical path length information of the minute region associated with the pixel. An image distribution system comprising: an image correction unit that generates content; and an image distribution unit that distributes the image content generated by the image correction unit via a communication line. Beam.

100 投影装置
110 画像入力部
120 画像補正部
130 光路長情報取得部
140 光源部
150 投影画像形成部
160 投影部
170 ベース部
172 給電部
174 回転軸
180 本体部
182 投影レンズ
200 撮像装置
210 三脚
400 統括制御部
500 画像処理装置
510 画像入力部
520 画像補正部
530 光路長情報取得部
540 画像配信部
600 投影装置
610 光源部
620 投影画像形成部
630 投影部
700 通信回線
800 撮像装置
900 測距センサ
1000 画像配信システム
P1 テスト投影画像
P2、P3 投影画像
D2、D3 補正画像データ
B1、B2、B3 交差点
P11〜P17、P21〜P27、P31、P41 微小領域
P131、P132、P231、P232、P311、P312、P411、P412 部分領域
10 天井面
20 床面
30 壁面
40 壁面
50 ソファ
51、52、53 面
70 段差
71 近位面
72 段差面
73 遠位面
80 投影画像
81 左半円
82 台形
83 右半円
DESCRIPTION OF SYMBOLS 100 Projector 110 Image input part 120 Image correction part 130 Optical path length information acquisition part 140 Light source part 150 Projection image formation part 160 Projection part 170 Base part 172 Power supply part 174 Rotating shaft 180 Main part 182 Projection lens 200 Imaging device 210 Tripod 400 Generalization Control unit 500 Image processing device 510 Image input unit 520 Image correction unit 530 Optical path length information acquisition unit 540 Image distribution unit 600 Projection device 610 Light source unit 620 Projection image formation unit 630 Projection unit 700 Communication line 800 Imaging device 900 Distance sensor 1000 Image Distribution system P1 Test projection image P2, P3 Projected image D2, D3 Corrected image data B1, B2, B3 Intersections P11-P17, P21-P27, P31, P41 Small regions P131, P132, P231, P232, P311, P312, P411, P41 Partial region 10 the ceiling surface 20 floor surface 30 wall 40 wall 50 sofa 51, 52, 53 surface 70 step 71 proximal surface 72 stepped surface 73 distal surface 80 projected image 81 left semicircle 82 trapezoid 83 right semicircle

Claims (12)

発光する光源部と、
複数のピクセルから構成される画像データを入力する画像入力部と、
前記画像入力部に入力された前記画像データを補正して補正画像データを生成する画像補正部と、
前記画像補正部によって生成された前記補正画像データから投影面に投影する投影画像を形成する投影画像形成部と、
前記投影画像形成部によって形成された前記投影画像を、前記光源部が発光する光を用いて前記投影面に投影する投影部と、
前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、を備え、
前記画像補正部は、前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記補正画像データを生成する投影装置。
A light source that emits light;
An image input unit for inputting image data composed of a plurality of pixels;
An image correcting unit that corrects the image data input to the image input unit to generate corrected image data;
A projection image forming unit that forms a projection image to be projected onto a projection plane from the corrected image data generated by the image correction unit;
A projection unit configured to project the projection image formed by the projection image forming unit onto the projection plane using light emitted from the light source unit;
An optical path length information acquisition unit that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of micro regions defined in the projection image;
The image correction unit associates the pixel included in the image data with the minute region, and performs geometric correction and color tone adjustment on the image data based on the optical path length information of the minute region associated with the pixel. A projection apparatus that performs correction to generate the corrected image data.
前記画像補正部は、
補正処理の基準となる基準距離を定め、
補正対象となる前記ピクセルに対応付けられた前記微小領域の前記光路長情報が前記基準距離より小さいとき、前記幾何補正として当該ピクセルによって形成される集合部分を拡大し、かつ、前記色調補正として当該ピクセルの階調値を小さくし、
補正対象となる前記ピクセルに対応付けられた前記微小領域の前記光路長情報が前記基準距離より大きいとき、前記幾何補正として当該ピクセルによって形成される集合部分を縮小し、かつ、前記色調補正として当該ピクセルの階調値を大きくする請求項1に記載の投影装置。
The image correction unit
Set a reference distance that will be the basis for correction processing,
When the optical path length information of the minute region associated with the pixel to be corrected is smaller than the reference distance, the set portion formed by the pixel is expanded as the geometric correction, and the color correction is performed as the color correction. Decrease the pixel gradation value,
When the optical path length information of the minute region associated with the pixel to be corrected is larger than the reference distance, the set portion formed by the pixel is reduced as the geometric correction, and the color correction is performed as the color correction. The projection apparatus according to claim 1, wherein the gradation value of the pixel is increased.
前記画像補正部が前記幾何補正を行うとき、補正対象となる前記ピクセルによって形成される集合部分の拡大率が、前記基準距離に対する当該ピクセルに対応付けられた前記微小領域の前記光路長情報が示す距離の比率と負の相関にある請求項2に記載の投影装置。   When the image correction unit performs the geometric correction, an enlargement ratio of a collective portion formed by the pixels to be corrected is indicated by the optical path length information of the minute region associated with the pixel with respect to the reference distance. The projection apparatus according to claim 2, wherein the projection apparatus is negatively correlated with a distance ratio. 前記画像補正部が前記色調補正を行うとき、補正対象となる前記ピクセルの階調値の変化率が、前記基準距離に対する当該ピクセルに対応付けられた前記微小領域の前記光路長情報が示す距離の比率と正の相関にある請求項2または3に記載の投影装置。   When the image correction unit performs the color correction, the change rate of the gradation value of the pixel to be corrected is a distance indicated by the optical path length information of the minute area associated with the pixel with respect to the reference distance. The projection apparatus according to claim 2, wherein the projection apparatus has a positive correlation with the ratio. 前記投影画像形成部は、前記画像入力部に入力された一の前記画像データからテスト投影画像を形成し、
前記投影部は、前記投影画像形成部によって形成された前記テスト投影画像を前記投影面に投影し、
前記画像補正部は、前記テスト投影画像を前記投影面に投影している状態で当該投影面を撮像して生成されるテスト画像データを取得し、
前記光路長情報取得部は、前記テスト投影画像に設定されている前記微小領域ごとに前記光路長情報を取得し、
前記画像補正部は、
取得された前記テスト画像データと、前記光路長情報取得部よって取得された前記光路長情報と、に基づいて前記幾何補正および前記色調補正に用いる補正パラメータを生成し、
前記画像入力部に入力された他の前記画像データを補正する際に、生成された前記補正パラメータを用いて前記幾何補正および前記色調補正を行う請求項1から4のいずれか一項に記載の投影装置。
The projection image forming unit forms a test projection image from the one image data input to the image input unit,
The projection unit projects the test projection image formed by the projection image forming unit onto the projection plane,
The image correction unit obtains test image data generated by imaging the projection plane in a state where the test projection image is projected on the projection plane;
The optical path length information acquisition unit acquires the optical path length information for each minute region set in the test projection image,
The image correction unit
Based on the acquired test image data and the optical path length information acquired by the optical path length information acquisition unit, generate correction parameters used for the geometric correction and the color tone correction,
5. The geometric correction and the color tone correction are performed using the generated correction parameter when correcting the other image data input to the image input unit. 6. Projection device.
前記投影画像形成部は、
均一な階調値の前記ピクセルから構成される前記一の画像データから前記テスト投影画像を形成し、
前記画像補正部は、
当該テスト投影画像が投影されている投影面を撮像して生成される前記テスト画像データを取得し、
取得された前記テスト画像データに含まれる前記ピクセルのいずれかを基準として導出し、
導出された前記ピクセルの階調値に、当該テスト画像データに含まれる他の前記ピクセルの階調値を近づける前記補正パラメータを生成し、前記補正パラメータを用いて前記色調補正を行う請求項5に記載の投影装置。
The projection image forming unit includes:
Forming the test projection image from the one image data composed of the pixels having uniform gradation values;
The image correction unit
Obtaining the test image data generated by imaging the projection surface on which the test projection image is projected,
Deriving one of the pixels included in the acquired test image data as a reference,
6. The correction parameter for generating a gradation value of another pixel included in the test image data close to the derived gradation value of the pixel, and performing the color correction using the correction parameter. The projection device described.
前記画像補正部は、前記光路長情報取得部によって取得された前記光路長情報のうち最大の距離を示す前記光路長情報を示す前記微小領域に対応している前記ピクセルを基準として導出する請求項6に記載の投影装置。   The image correction unit is derived based on the pixel corresponding to the minute region indicating the optical path length information indicating the maximum distance among the optical path length information acquired by the optical path length information acquisition unit. 6. The projection device according to 6. 前記投影画像の観測者の視点から前記投影面までの光路の距離を示す視点情報を、前記光路長情報に対応付けて取得する視点情報取得部を備え、
前記画像補正部は、前記画像データに含まれる前記ピクセルに対応付けられた前記微小領域の前記光路長情報および当該光路長情報に対応付けられた前記視点情報に基づいて前記画像データに前記幾何補正および前記色調補正を行って前記補正画像データを生成する請求項1から7のいずれか一項に記載の投影装置。
A viewpoint information acquisition unit that acquires viewpoint information indicating a distance of an optical path from an observer's viewpoint of the projection image to the projection plane in association with the optical path length information;
The image correction unit corrects the geometric correction to the image data based on the optical path length information of the minute area associated with the pixel included in the image data and the viewpoint information associated with the optical path length information. The projection apparatus according to claim 1, wherein the correction image data is generated by performing the color correction.
電球ソケットまたはシーリング取付具に装着可能な給電部を備え、
前記給電部から取得される電力によって動作する請求項1から8のいずれか一項に記載の投影装置。
It has a power supply that can be attached to a light bulb socket or ceiling fixture,
The projection apparatus according to claim 1, wherein the projection apparatus is operated by electric power acquired from the power supply unit.
発光する光源部の光を用いて投影画像を投影面に投影する際に、前記投影画像の元となる画像コンテンツを生成する画像処理装置であって、
複数のピクセルから構成される画像データを入力する画像入力部と、
前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、
前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正部と、を備える画像処理装置。
An image processing apparatus that generates an image content that is a source of a projection image when projecting a projection image on a projection plane using light from a light source that emits light,
An image input unit for inputting image data composed of a plurality of pixels;
An optical path length information acquisition unit that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image;
The pixel included in the image data is associated with the minute region, and the image data is subjected to geometric correction and color tone correction based on the optical path length information of the minute region associated with the pixel. An image processing apparatus comprising: an image correction unit that generates content.
発光する光源部の光を用いて投影画像を投影面に投影する際に、前記投影画像の元となる画像コンテンツを生成するための画像処理をコンピュータに実行させる画像処理プログラムであって、
複数のピクセルから構成される画像データを入力する画像入力処理と、
前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得処理と、
前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正処理と、をコンピュータに実行させる画像処理プログラム。
An image processing program for causing a computer to execute image processing for generating image content that is a source of a projected image when projecting a projected image on a projection plane using light from a light source that emits light,
Image input processing for inputting image data composed of a plurality of pixels;
An optical path length information acquisition process for acquiring optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of micro regions defined in the projection image;
The pixel included in the image data is associated with the minute region, and the image data is subjected to geometric correction and color tone correction based on the optical path length information of the minute region associated with the pixel. An image processing program for causing a computer to execute image correction processing for generating content.
発光する光源部の光を用いて投影画像を投影面に投影する投影装置に対して、前記投影画像の元となる画像コンテンツを配信する画像配信システムであって、
複数のピクセルから構成される画像データを入力する画像入力部と、
前記投影画像に定めた複数の微小領域ごとに基準点から前記投影面までの光路の距離を示す光路長情報を取得する光路長情報取得部と、
前記画像データに含まれる前記ピクセルと前記微小領域とを対応付けて、前記ピクセルに対応付けられた前記微小領域の前記光路長情報に基づいて前記画像データに幾何補正および色調補正を行って前記画像コンテンツを生成する画像補正部と、
前記画像補正部によって生成された前記画像コンテンツを、通信回線を介して配信する画像配信部と、を備える画像配信システム。
An image distribution system that distributes image content that is a source of a projection image to a projection device that projects a projection image onto a projection plane using light from a light source that emits light,
An image input unit for inputting image data composed of a plurality of pixels;
An optical path length information acquisition unit that acquires optical path length information indicating a distance of an optical path from a reference point to the projection plane for each of a plurality of minute regions defined in the projection image;
The pixel included in the image data is associated with the minute region, and the image data is subjected to geometric correction and color tone correction based on the optical path length information of the minute region associated with the pixel. An image correction unit for generating content;
An image distribution system comprising: an image distribution unit that distributes the image content generated by the image correction unit via a communication line.
JP2015158426A 2015-08-10 2015-08-10 Projection device Active JP6730787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015158426A JP6730787B2 (en) 2015-08-10 2015-08-10 Projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015158426A JP6730787B2 (en) 2015-08-10 2015-08-10 Projection device

Publications (2)

Publication Number Publication Date
JP2017037190A true JP2017037190A (en) 2017-02-16
JP6730787B2 JP6730787B2 (en) 2020-07-29

Family

ID=58049350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015158426A Active JP6730787B2 (en) 2015-08-10 2015-08-10 Projection device

Country Status (1)

Country Link
JP (1) JP6730787B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097165A (en) * 2016-12-14 2018-06-21 カシオ計算機株式会社 Projection device, projection method, and program
JP2019047312A (en) * 2017-09-01 2019-03-22 セイコーエプソン株式会社 Image projection system and control method thereof
KR20210131084A (en) * 2020-04-23 2021-11-02 한국광기술원 Apparatus and method for corerecting color of projector

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085586A (en) * 2001-06-27 2003-03-20 Namco Ltd Image display, image displaying method, information storage medium, and image displaying program
JP2004013043A (en) * 2002-06-11 2004-01-15 Nec Viewtechnology Ltd Projector-mounting device
JP2005099588A (en) * 2003-09-26 2005-04-14 Sanyo Electric Co Ltd Projection type image display system and connector device
JP2005229415A (en) * 2004-02-13 2005-08-25 Nec Viewtechnology Ltd Projector equipped with a plurality of cameras
JP2005227640A (en) * 2004-02-16 2005-08-25 Casio Comput Co Ltd Projecting device, range finding processing method, and program therefor
JP2005277743A (en) * 2004-03-24 2005-10-06 Seiko Epson Corp Projector
JP2008294961A (en) * 2007-05-28 2008-12-04 Panasonic Electric Works Co Ltd Video display apparatus
JP2014119688A (en) * 2012-12-19 2014-06-30 Seiko Epson Corp Projector and control method thereof
US20150189248A1 (en) * 2014-01-02 2015-07-02 Electronics And Telecommunications Research Institute Apparatus and method for correcting image for image projection device with cognitive function on user and environment
JP2015139087A (en) * 2014-01-22 2015-07-30 株式会社リコー Projection device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085586A (en) * 2001-06-27 2003-03-20 Namco Ltd Image display, image displaying method, information storage medium, and image displaying program
JP2004013043A (en) * 2002-06-11 2004-01-15 Nec Viewtechnology Ltd Projector-mounting device
JP2005099588A (en) * 2003-09-26 2005-04-14 Sanyo Electric Co Ltd Projection type image display system and connector device
JP2005229415A (en) * 2004-02-13 2005-08-25 Nec Viewtechnology Ltd Projector equipped with a plurality of cameras
JP2005227640A (en) * 2004-02-16 2005-08-25 Casio Comput Co Ltd Projecting device, range finding processing method, and program therefor
JP2005277743A (en) * 2004-03-24 2005-10-06 Seiko Epson Corp Projector
JP2008294961A (en) * 2007-05-28 2008-12-04 Panasonic Electric Works Co Ltd Video display apparatus
JP2014119688A (en) * 2012-12-19 2014-06-30 Seiko Epson Corp Projector and control method thereof
US20150189248A1 (en) * 2014-01-02 2015-07-02 Electronics And Telecommunications Research Institute Apparatus and method for correcting image for image projection device with cognitive function on user and environment
JP2015139087A (en) * 2014-01-22 2015-07-30 株式会社リコー Projection device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097165A (en) * 2016-12-14 2018-06-21 カシオ計算機株式会社 Projection device, projection method, and program
JP2019047312A (en) * 2017-09-01 2019-03-22 セイコーエプソン株式会社 Image projection system and control method thereof
KR20210131084A (en) * 2020-04-23 2021-11-02 한국광기술원 Apparatus and method for corerecting color of projector
KR102355776B1 (en) * 2020-04-23 2022-01-27 한국광기술원 Apparatus and method for corerecting color of projector

Also Published As

Publication number Publication date
JP6730787B2 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
CN100335942C (en) Displaying device and its light regulation method
US20120182416A1 (en) Image projection system and semiconductor integrated circuit
KR101640090B1 (en) Image processing device, projector, and method of controlling projector
TW201602556A (en) Camera shooting method achieved through camera shooting elements
JP6459194B2 (en) Projector and projected image control method
JP2012530263A (en) Projection type display device and use thereof
JP6658520B2 (en) Image processing apparatus and method
KR20130035682A (en) Method and apparatus for controlling of image output in projector
JP2017156581A (en) Projection device and control method of the same
JP6730787B2 (en) Projection device
WO2015136658A1 (en) Light control device, display device, multi-monitor system, light control method, and program
EP1480465A3 (en) Display device and projector
JP2008187362A (en) Projector and projected image adjustment method
JP2010078854A (en) Lighting system
US11983381B2 (en) Display method, display system, and non-transitory computer-readable storage medium storing program
JP2016058987A (en) Light projection device and luminaire using the same
US20230308600A1 (en) Display method, display system, and non-transitory computer-readable storage medium storing program
JP2016161882A (en) Light projection device
KR101621201B1 (en) Wearable projection apparatus and projection method
JP6106969B2 (en) Projection device, pointer device, and projection system
CN109326242B (en) Gray scale modulation method and computer readable storage medium
JP7113302B2 (en) Spatial production system
JP2015133220A (en) Control device and lighting system
JP7219460B2 (en) Lighting device, lighting method and lighting system
JP2018163282A (en) Stereoscopic video display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200703

R150 Certificate of patent or registration of utility model

Ref document number: 6730787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250