JP2017050689A - Image projector and image projection method - Google Patents

Image projector and image projection method Download PDF

Info

Publication number
JP2017050689A
JP2017050689A JP2015172184A JP2015172184A JP2017050689A JP 2017050689 A JP2017050689 A JP 2017050689A JP 2015172184 A JP2015172184 A JP 2015172184A JP 2015172184 A JP2015172184 A JP 2015172184A JP 2017050689 A JP2017050689 A JP 2017050689A
Authority
JP
Japan
Prior art keywords
projection
image
distance
projector
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015172184A
Other languages
Japanese (ja)
Inventor
康 洲鎌
Yasushi Sukama
康 洲鎌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015172184A priority Critical patent/JP2017050689A/en
Publication of JP2017050689A publication Critical patent/JP2017050689A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image projector capable of projecting a projection image to a projection plane via a projector unit which increases the brightness.SOLUTION: The image projector compares a first angle on a projection plane with respect to a projection direction of a first projector in a plurality of projectors and a second angle on the projection plane with respect to a projection direction of a second projector in the plurality of projectors, and on the basis of the comparison result, projects images on the projection plane via any one of the first projector and the second projector.SELECTED DRAWING: Figure 2

Description

本発明は、画像投影装置および画像投影方法に関する。   The present invention relates to an image projection apparatus and an image projection method.

プロジェクタの小型化、低コスト化、高出力化が進み、様々なシーンでのプロジェクタによる画像の投影表示の利用が進んでいる。これまでは固定スクリーンに対しての2次元画像の投影が中心であったが、近年、プロジェクタを利用した応用技術が開発されている。   As projectors become smaller, lower in cost, and higher in output, the use of projection display of images by projectors in various scenes is progressing. Up to now, the focus has been on the projection of a two-dimensional image onto a fixed screen, but in recent years, application technology using a projector has been developed.

プロジェクタを利用した具体的な応用として、工場等での作業指示が考えられる。例えば、塗装箇所に対してプロジェクタにて投影を行うことで、塗り忘れ等の作業ミスを防ぐといった効果がある。投影対象が複雑な形状である場合、一台のプロジェクタでは影となる箇所が出来てしまうため、複数のプロジェクタを利用して影となる領域を消す技術がある。   As a specific application using a projector, a work instruction in a factory or the like can be considered. For example, by projecting onto a paint location with a projector, there is an effect of preventing work mistakes such as forgetting to paint. When the projection target has a complicated shape, a single projector creates a shadowed portion. Therefore, there is a technique for eliminating a shadowed region using a plurality of projectors.

複数の照射光投影部からの照射光により、被照射物体の表面をコーティングする照明装置が知られている(例えば、特許文献1参照)。また、特許文献2に記載の立体表示装置が知られている。   An illumination device that coats the surface of an object to be irradiated with irradiation light from a plurality of irradiation light projection units is known (for example, see Patent Document 1). Also, a stereoscopic display device described in Patent Document 2 is known.

特開2009−117351号公報JP 2009-117351 A 特開2006−338181号公報JP 2006-338181 A

ここで、図1に示すようなプロジェクタによる投影の例を考える。図1は、プロジェクタA,B、および投影対象21,22を上方から見た平面図である。図1において、2つのプロジェクタA,Bと投影対象21,22が設置されている。投影対象22は、投影対象21とプロジェクタAとの間に配置されており、平面1,2を有する。プロジェクタAは、投影対象21,22に対して画像を投影し、プロジェクタBは、プロジェクタAでは投影できない影となってしまう領域に画像を投影する。   Here, consider an example of projection by a projector as shown in FIG. FIG. 1 is a plan view of projectors A and B and projection objects 21 and 22 as viewed from above. In FIG. 1, two projectors A and B and projection objects 21 and 22 are installed. The projection target 22 is disposed between the projection target 21 and the projector A, and has planes 1 and 2. Projector A projects an image onto projection targets 21 and 22, and projector B projects an image onto an area that becomes a shadow that projector A cannot project.

プロジェクタAは、投影対象22の平面1,2に対して画像を投影する。このとき、プロジェクタAからの投影光に対する平面1の角度は、垂直に近いため、平面1の投影画像は十分な輝度がある。一方、プロジェクタAからの投影光に対する平面2の角度は、平行に近いため、平面2の投影画像は暗くなってしまう。   The projector A projects an image onto the planes 1 and 2 of the projection target 22. At this time, since the angle of the plane 1 with respect to the projection light from the projector A is close to vertical, the projection image of the plane 1 has sufficient luminance. On the other hand, since the angle of the plane 2 with respect to the projection light from the projector A is nearly parallel, the projection image of the plane 2 becomes dark.

このように投影面が投影光と平行に近い場合、当該投影面に対して十分な輝度で投影が行えずに暗くなってしまうという問題がある。   In this way, when the projection surface is nearly parallel to the projection light, there is a problem that the projection surface becomes dark without being projected with sufficient luminance.

一つの側面では、本発明は、投影面に対して投影画像の輝度が大きくなる投影装置から投影を行うことを目的とする。   In one aspect, an object of the present invention is to perform projection from a projection device in which the brightness of a projection image is increased with respect to a projection plane.

1つの実施の形態に係る画像投影装置は、異なる位置から投影面に画像を投影する複数の投影装置と、制御部と、を備える。   An image projection apparatus according to an embodiment includes a plurality of projection apparatuses that project an image onto a projection plane from different positions, and a control unit.

前記制御部は、前記複数の投影装置のうち第一投影装置の投影方向に対する前記投影面の第一の角度と前記複数の投影装置のうち第二投影装置の投影方向に対する前記投影面の第二の角度とを比較する。そして、前記制御部は、比較結果に基づいて、前記第一投影装置又は前記第二投影装置のうちのいずれか一方から前記投影面に前記画像を投影させる。   The control unit includes: a first angle of the projection plane with respect to a projection direction of the first projection apparatus among the plurality of projection apparatuses; and a second of the projection planes with respect to the projection direction of the second projection apparatus among the plurality of projection apparatuses. Compare the angle with. And the said control part projects the said image on the said projection surface from either one of said 1st projection apparatus or said 2nd projection apparatus based on a comparison result.

投影面に対して投影画像の輝度が大きくなる投影装置から投影を行うことができる。   Projection can be performed from a projection device in which the brightness of the projected image is increased with respect to the projection plane.

プロジェクタによる投影の例を示す図である。It is a figure which shows the example of the projection by a projector. 実施の形態に係る画像投影装置と投影対象を示す図である。It is a figure which shows the image projector and projection object which concern on embodiment. 実施の形態に係る画像投影装置の構成図である。It is a block diagram of the image projector which concerns on embodiment. 実施の形態に係る画像投影方法のフローチャートである。It is a flowchart of the image projection method which concerns on embodiment. 距離センサーによる距離の測定を示す図である。It is a figure which shows the measurement of the distance by a distance sensor. 距離センサーから見た距離画像を示す図である。It is a figure which shows the distance image seen from the distance sensor. プロジェクタAからみた奥行情報を示す図である。It is a figure which shows the depth information seen from the projector A. プロジェクタAから見た距離画像を示す図である。It is a figure which shows the distance image seen from the projector A. プロジェクタAから見た距離画像の差分を示す図である。It is a figure which shows the difference of the distance image seen from the projector A. プロジェクタBからみた奥行情報を示す図である。It is a figure which shows the depth information seen from the projector. プロジェクタBから見た距離画像を示す図である。It is a figure which shows the distance image seen from the projector. プロジェクタBから見た距離画像の差分を示す図である。It is a figure which shows the difference of the distance image seen from the projector. 奥行情報の比較の例を示す図である。It is a figure which shows the example of a comparison of depth information. 奥行差分の比較の例を示す図である。It is a figure which shows the example of a comparison of depth difference. 奥行差分の比較の例を示す図である。It is a figure which shows the example of a comparison of depth difference. プロジェクタA側のマスク画像を示す図である。It is a figure which shows the mask image by the side of the projector. プロジェクタB側のマスク画像を示す図である。It is a figure which shows the mask image by the side of the projector. 情報処理装置(コンピュータ)の構成図である。It is a block diagram of information processing apparatus (computer).

以下、図面を参照しながら実施の形態を説明する。
図2は、実施の形態に係る画像投影装置と投影対象を示す図である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 2 is a diagram illustrating an image projection apparatus and a projection target according to the embodiment.

図2は、画像投影装置101および投影対象501,502を上方から見た平面図である。   FIG. 2 is a plan view of the image projection apparatus 101 and the projection targets 501 and 502 as seen from above.

画像投影装置101は、制御部201、プロジェクタ301−i(i=1,2)、および距離センサー401を備える。   The image projection apparatus 101 includes a control unit 201, projectors 301-i (i = 1, 2), and a distance sensor 401.

制御部201は、距離センサー401の測定結果に基づいて、プロジェクタ301−iから出力する画像を生成する。   The control unit 201 generates an image output from the projector 301-i based on the measurement result of the distance sensor 401.

プロジェクタ301−iは、投影対象501,502に対して、制御部201で生成された画像に応じた投影光を照射する。これにより、投影対象501,502には画像が投影される。尚、プロジェクタ301−1、301−2は、互いに異なる位置に配置されている。プロジェクタ301−iは、投影装置の一例である。   The projector 301-i irradiates the projection targets 501 and 502 with projection light corresponding to the image generated by the control unit 201. Thereby, an image is projected on the projection targets 501 and 502. The projectors 301-1 and 301-2 are disposed at different positions. The projector 301-i is an example of a projection device.

距離センサー401は、投影対象501,502と距離センサー401間の距離を測定する。距離センサー401は、測定部の一例である。   The distance sensor 401 measures the distance between the projection targets 501 and 502 and the distance sensor 401. The distance sensor 401 is an example of a measurement unit.

投影対象501,502は、画像が投影される対象物である。尚、投影対象501,502は、それぞれ投影対象A,Bと表記する場合がある。投影対象502は、投影対象501と画像投影装置101の間に配置される。投影対象502は、平面511,512を有し、平面511,512には、プロジェクタ301−1、301−2の両方から画像を投影可能である。投影対象501は、例えば、壁またはスクリーンであり、投影対象502は、例えば、立方形状の立体物である。   Projection targets 501 and 502 are objects on which images are projected. Note that the projection objects 501 and 502 may be referred to as projection objects A and B, respectively. The projection target 502 is disposed between the projection target 501 and the image projection apparatus 101. The projection target 502 includes planes 511 and 512, and images can be projected from both the projectors 301-1 and 301-2 on the planes 511 and 512. The projection target 501 is, for example, a wall or a screen, and the projection target 502 is, for example, a cubic three-dimensional object.

プロジェクタ301−1からの投影光に対する平面511の角度は、垂直に近く、プロジェクタ301−1からの投影光に対する平面512の角度は、平行に近い。また、プロジェクタ301−2からの投影光に対する平面512の角度は、垂直に近く、プロジェクタ301−2からの投影光に対する平面511の角度は、平行に近い。   The angle of the plane 511 with respect to the projection light from the projector 301-1 is close to vertical, and the angle of the plane 512 with respect to the projection light from the projector 301-1 is close to parallel. In addition, the angle of the plane 512 with respect to the projection light from the projector 301-2 is nearly vertical, and the angle of the plane 511 with respect to the projection light from the projector 301-2 is nearly parallel.

図3は、実施の形態に係る画像投影装置の構成図である。
画像投影装置101は、制御部201、プロジェクタ301−i、および距離センサー401を備える。
FIG. 3 is a configuration diagram of the image projection apparatus according to the embodiment.
The image projection apparatus 101 includes a control unit 201, a projector 301-i, and a distance sensor 401.

制御部201は、距離センサー401から入力される三次元情報に基づいて、プロジェクタ301−iから投影する画像(投影像)を生成し、プロジェクタ301−iに出力する。制御部201は、記憶部211、投影像生成部221、奥行情報算出部231、座標変換部241、奥行情報バッファ251、距離比較部261、画像マスク生成部271、および映像重畳部281を備える。   The control unit 201 generates an image (projected image) to be projected from the projector 301-i based on the three-dimensional information input from the distance sensor 401, and outputs the image to the projector 301-i. The control unit 201 includes a storage unit 211, a projection image generation unit 221, a depth information calculation unit 231, a coordinate conversion unit 241, a depth information buffer 251, a distance comparison unit 261, an image mask generation unit 271, and a video superimposition unit 281.

記憶部211は、制御部201で使用される各種データを格納する。例えば、記憶部211は、投影対象501,502に投影される画像を格納する。   The storage unit 211 stores various data used by the control unit 201. For example, the storage unit 211 stores images projected on the projection targets 501 and 502.

投影像生成部221は、記憶部211から投影対象501,502に投影される画像を読み出し、プロジェクタ301−iと投影対象501,502の位置関係に基づいて、各プロジェクタ301−iから投影するマスク処理前の画像を生成する。後述のように、プロジェクタ301−1、301−2の両方から投影可能な領域(重複領域)に対する画像は、いずれか一方のプロジェクタ301−iからのみ投影されるように、他方のプロジェクタ301−iからの当該領域に対する画像は映像重畳部281によりマスク処理される。各プロジェクタ301−iのマスク処理前の画像は、それぞれ重複領域に対する画像を含んでいる。   The projection image generation unit 221 reads out images projected on the projection targets 501 and 502 from the storage unit 211, and masks projected from the projectors 301-i based on the positional relationship between the projectors 301-i and the projection targets 501 and 502. Generate an unprocessed image. As will be described later, an image for an area (overlapping area) that can be projected from both projectors 301-1 and 301-2 is projected from only one projector 301-i, so that the other projector 301-i is projected. The image for the region from is masked by the video superimposing unit 281. The image before the mask processing of each projector 301-i includes an image for the overlapping area.

奥行情報算出部231は、距離センサー401から測定結果を受信し、三次元情報を算出する。三次元情報は、距離センサー401を原点とした投影対象501,502の位置(座標)を示し、距離センサー401から投影対象501,502の画像が投影される領域(例えば、平面511,512)までの距離を示す情報である。すなわち、奥行情報算出部231で算出される三次元情報は、距離センサー401から見た場合の奥行を示す情報である。また、三次元情報は、プロジェクタ301−iの投影する画像の解像度と同じ解像度を持つとする。   The depth information calculation unit 231 receives the measurement result from the distance sensor 401 and calculates three-dimensional information. The three-dimensional information indicates the positions (coordinates) of the projection targets 501 and 502 with the distance sensor 401 as the origin, and from the distance sensor 401 to the region (for example, the planes 511 and 512) where the images of the projection targets 501 and 502 are projected. It is the information which shows the distance. That is, the three-dimensional information calculated by the depth information calculation unit 231 is information indicating the depth when viewed from the distance sensor 401. Further, it is assumed that the three-dimensional information has the same resolution as the resolution of the image projected by the projector 301-i.

座標変換部241は、奥行情報算出部231が算出した三次元情報を各プロジェクタ301−iから見た奥行情報(三次元情報)に変換する。   The coordinate conversion unit 241 converts the three-dimensional information calculated by the depth information calculation unit 231 into depth information (three-dimensional information) viewed from each projector 301-i.

奥行情報バッファ251は、奥行情報および奥行差分を格納する。奥行情報バッファ251は、奥行情報a,bをそれぞれ格納する領域である奥行情報バッファA,Bと奥行差分ad,bdをそれぞれ格納する領域である奥行差分バッファA,Bを含む。   The depth information buffer 251 stores depth information and depth difference. The depth information buffer 251 includes depth information buffers A and B that are areas for storing depth information a and b, and depth difference buffers A and B that are areas for storing depth differences ad and bd, respectively.

距離比較部261は、奥行情報や奥行差分を比較する。
画像マスク生成部271は、プロジェクタ301−1に対するマスク画像Aとプロジェクタ301−2に対するマスク画像Bを生成する。マスク画像A、Bは、プロジェクタ301−iの投影する画像の解像度と同じ解像度である。
The distance comparison unit 261 compares depth information and depth difference.
The image mask generation unit 271 generates a mask image A for the projector 301-1 and a mask image B for the projector 301-2. Mask images A and B have the same resolution as the image projected by projector 301-i.

映像重畳部281は、投影像生成部221から入力されたプロジェクタ301−1、301−2に対するマスク前の画像とマスク画像A、Bをそれぞれ重畳し(マスク処理)、重畳した画像をプロジェクタ301−1、301−2にそれぞれ出力する。   The video superimposing unit 281 superimposes the images before masking on the projectors 301-1 and 301-2 input from the projection image generating unit 221 and the mask images A and B (mask processing), and the superimposed image is displayed on the projector 301-. 1 and 301-2.

プロジェクタ301−iは、映像重畳部281から入力された画像を投影対象501,502に投影、すなわち当該画像に応じた投影光を照射する。   The projector 301-i projects the image input from the video superimposing unit 281 onto the projection targets 501 and 502, that is, emits projection light corresponding to the image.

距離センサー401は、距離センサー401と投影対象501,502との間の距離を測定し、測定結果を奥行情報算出部231に出力する。   The distance sensor 401 measures the distance between the distance sensor 401 and the projection targets 501 and 502, and outputs the measurement result to the depth information calculation unit 231.

図4は、実施の形態に係る画像投影方法のフローチャートである。
ステップS601において、距離センサー401は、投影対象501,502との距離を測定する。奥行情報算出部231は、距離センサー401から測定結果を取得し(図5A)、三次元情報を算出し、三次元情報を座標変換部241に出力する。実施の形態において、投影対象502の後方に存在する投影対象501の三次元情報は事前の測定により既知であるとする。実施の形態において、距離センサー401から見て投影対象502の影となる投影対象501の一部の領域は、距離の測定ができないが、投影対象501の三次元情報が既知であることで、座標変換部241において、各プロジェクタ301−iから見た三次元情報を算出できる。尚、ステップS601において投影対象502との距離を測定して三次元情報を算出したが、投影対象502の三次元情報は、既知であってもよい。その場合、ステップS601の処理は省略される。算出した三次元情報を距離画像(デプスマップ)として示すと図5Bに示すような距離画像701が得られる。距離画像701は、距離センサー401から見た投影対象501,502との距離を示す奥行情報である。距離画像は、奥行き情報を濃淡で表示した画像である。距離画像において、距離が遠いほど黒く(濃く)表示され、画素値の値は小さくなり、距離が近いほど白く(淡く)表示され、画素値の値は大きくなる。
FIG. 4 is a flowchart of the image projection method according to the embodiment.
In step S <b> 601, the distance sensor 401 measures the distance from the projection targets 501 and 502. The depth information calculation unit 231 acquires a measurement result from the distance sensor 401 (FIG. 5A), calculates three-dimensional information, and outputs the three-dimensional information to the coordinate conversion unit 241. In the embodiment, it is assumed that the three-dimensional information of the projection target 501 existing behind the projection target 502 is known by prior measurement. In the embodiment, a part of the projection target 501 that is a shadow of the projection target 502 when viewed from the distance sensor 401 cannot measure the distance, but the coordinates of the projection target 501 are known because the three-dimensional information is known. The conversion unit 241 can calculate three-dimensional information viewed from each projector 301-i. In step S601, the distance to the projection target 502 is measured to calculate the three-dimensional information. However, the three-dimensional information of the projection target 502 may be known. In that case, the process of step S601 is omitted. When the calculated three-dimensional information is shown as a distance image (depth map), a distance image 701 as shown in FIG. 5B is obtained. The distance image 701 is depth information indicating the distance from the projection targets 501 and 502 viewed from the distance sensor 401. The distance image is an image in which depth information is displayed in shades. In the distance image, the farther the distance is, the darker (darker) the pixel value is displayed, and the smaller the pixel value is, the closer the distance is, the whiter (lighter) is displayed, and the larger the pixel value is.

ステップS602において、座標変換部241は、奥行情報算出部231で算出された三次元情報をプロジェクタ301−1からみた三次元情報Aに変換を行う。すなわち、座標変換部241は、距離センサー401からの投影対象501,502までの距離を示す三次元情報を、プロジェクタ301−1から投影対象501,502までの距離を示す三次元情報Aに変換する。なお、距離センサー401とプロジェクタ301−1,301−2の位置関係は事前の測定により既知であるとする。以下、三次元情報Aは、奥行情報aと表記する場合がある。座標変換部241は、三次元情報をプロジェクタ301−1から見た場合の奥行情報aに変換する(図6A)。奥行情報aを距離画像として表すと図6Bに示すような距離画像711となる。奥行情報aは、距離が近い場合に大きい値とし、図6Bのようなプロジェクタ301−1の投影画像と同解像度のグレースケールの距離画像711となる。距離画像711の各画素の画素値は、各画素に対応する投影対象とプロジェクタ301−1との距離を示す。尚、距離画像711は距離画像Aと表記する場合がある。   In step S602, the coordinate conversion unit 241 converts the three-dimensional information calculated by the depth information calculation unit 231 into the three-dimensional information A viewed from the projector 301-1. That is, the coordinate conversion unit 241 converts the three-dimensional information indicating the distance from the distance sensor 401 to the projection targets 501 and 502 into the three-dimensional information A indicating the distance from the projector 301-1 to the projection targets 501 and 502. . It is assumed that the positional relationship between the distance sensor 401 and the projectors 301-1 and 301-2 is known by prior measurement. Hereinafter, the three-dimensional information A may be referred to as depth information a. The coordinate conversion unit 241 converts the three-dimensional information into depth information a when viewed from the projector 301-1 (FIG. 6A). When the depth information a is expressed as a distance image, a distance image 711 as shown in FIG. 6B is obtained. The depth information a is a large value when the distance is short, and becomes a grayscale distance image 711 having the same resolution as the projection image of the projector 301-1 as shown in FIG. 6B. The pixel value of each pixel of the distance image 711 indicates the distance between the projection target corresponding to each pixel and the projector 301-1. The distance image 711 may be referred to as a distance image A.

ステップS603において、座標変換部241は、奥行情報aを奥行情報バッファ251の奥行情報バッファAに保存する。   In step S <b> 603, the coordinate conversion unit 241 stores the depth information a in the depth information buffer A of the depth information buffer 251.

ステップS604において、座標変換部241は、距離画像711の各画素において隣接する画素の画素値の差分(奥行差分)adを算出し、奥行差分バッファAに保存する。各画素の差分adを画像として示すと図6Cに示されるような差分画像721となる。差分adは、画素に対応する投影対象の領域のプロジェクタ301−1の投影光(投影方向)に対する傾き(角度)を示す。差分画像は、差分を濃淡で表示した画像である。差分画像において、傾きが小さいほど黒く(濃く)表示され、画素値の値は小さくなり、傾きが大きいほど白く(淡く)表示され、画素値の値は大きくなる。   In step S <b> 604, the coordinate conversion unit 241 calculates a difference (depth difference) ad between adjacent pixels in each pixel of the distance image 711 and stores the difference in the depth difference buffer A. When the difference ad of each pixel is shown as an image, a difference image 721 as shown in FIG. 6C is obtained. The difference ad indicates the inclination (angle) of the projection target area corresponding to the pixel with respect to the projection light (projection direction) of the projector 301-1. The difference image is an image in which the difference is displayed in shades. In the difference image, the smaller the inclination is, the blacker (darker) is displayed, and the pixel value is smaller. The larger the inclination is, the white (lighter) is displayed, and the pixel value is larger.

ステップS605において、座標変換部241は、奥行情報算出部231で算出された三次元情報をプロジェクタ301−2から見た場合の三次元情報Bに変換を行う。すなわち、座標変換部241は、距離センサー401からの投影対象501,502までの距離を示す三次元情報を、プロジェクタ301−2から投影対象501,502までの距離を示す三次元情報Bに変換する。以下、三次元情報Bは、奥行情報bと表記する場合がある。座標変換部241は、三次元情報をプロジェクタ301−2から見た場合の奥行情報bに変換する(図7A)。奥行情報bを距離画像として表すと図7Bに示すような距離画像712となる。奥行情報bは、距離が近い場合に大きい値とし、図7Bのようなプロジェクタ301−2の投影画像と同解像度のグレースケールの距離画像712となる。距離画像712の各画素の画素値は、各画素に対応する投影対象とプロジェクタ301−2との距離を示す。尚、距離画像712は距離画像Bと表記する場合がある。   In step S605, the coordinate conversion unit 241 converts the three-dimensional information calculated by the depth information calculation unit 231 into the three-dimensional information B when viewed from the projector 301-2. That is, the coordinate conversion unit 241 converts the three-dimensional information indicating the distances from the distance sensor 401 to the projection targets 501 and 502 into the three-dimensional information B indicating the distances from the projector 301-2 to the projection targets 501 and 502. . Hereinafter, the three-dimensional information B may be expressed as depth information b. The coordinate conversion unit 241 converts the three-dimensional information into depth information b when viewed from the projector 301-2 (FIG. 7A). When the depth information b is expressed as a distance image, a distance image 712 as shown in FIG. 7B is obtained. The depth information b is a large value when the distance is short, and becomes a grayscale distance image 712 having the same resolution as the projection image of the projector 301-2 as shown in FIG. 7B. The pixel value of each pixel of the distance image 712 indicates the distance between the projection target corresponding to each pixel and the projector 301-2. The distance image 712 may be referred to as a distance image B.

ステップS606において、座標変換部241は、奥行情報bを奥行情報バッファ251の奥行情報バッファBに保存する。   In step S <b> 606, the coordinate conversion unit 241 stores the depth information b in the depth information buffer B of the depth information buffer 251.

ステップS607において、座標変換部241は、距離画像712の各画素において隣接する画素の画素値の差分(奥行差分)bdを算出し、奥行情報バッファ251の奥行差分バッファBに保存する。各画素の差分bdを画像として示すと図7Cに示されるような差分画像722となる。差分bdは、画素に対応する投影対象の領域のプロジェクタ301−2の投影光(投影方向)に対する傾き(角度)を示す。   In step S <b> 607, the coordinate conversion unit 241 calculates a difference (depth difference) bd between adjacent pixels in each pixel of the distance image 712, and stores it in the depth difference buffer B of the depth information buffer 251. When the difference bd of each pixel is shown as an image, a difference image 722 as shown in FIG. 7C is obtained. The difference bd indicates the inclination (angle) of the projection target area corresponding to the pixel with respect to the projection light (projection direction) of the projector 301-2.

ステップS608において、マスク画像生成部271は、マスク画像Aの各画素の画素値を初期値(=1)に設定する。実施の形態において、プロジェクタ301−1を優先的に使用するとする。そのため、マスク画像生成部271は、マスク画像Aの各画素の画素値の初期値を1に設定している。マスク画像の各画素の画素値は、マスク画像の各画素に対応する処理対象の画像(マスク処理前の画像)の各画素を表示するか否かを示す。マスク画像のうち、ある画素の画素値が1である場合、当該画素と同じ位置の処理対象の画像の画素を表示することを示す。マスク画像のうち、ある画素の画素値が0である場合、当該画素と同じ位置の処理対象の画像の画素を表示しないことを示す。   In step S608, the mask image generation unit 271 sets the pixel value of each pixel of the mask image A to an initial value (= 1). In the embodiment, it is assumed that the projector 301-1 is used preferentially. Therefore, the mask image generation unit 271 sets the initial value of the pixel value of each pixel of the mask image A to 1. The pixel value of each pixel of the mask image indicates whether to display each pixel of the image to be processed (image before mask processing) corresponding to each pixel of the mask image. If the pixel value of a certain pixel in the mask image is 1, it indicates that the pixel of the image to be processed at the same position as the pixel is displayed. If the pixel value of a certain pixel in the mask image is 0, it indicates that the pixel of the processing target image at the same position as the pixel is not displayed.

ステップS609において、マスク画像生成部271は、マスク画像Bの各画素の画素値を初期値(=0)に設定する。上述のように実施の形態において、プロジェクタ301−1を優先的に使用する。そのため、マスク画像生成部271は、マスク画像Bの各画素の画素値の初期値を0に設定している。   In step S609, the mask image generation unit 271 sets the pixel value of each pixel of the mask image B to an initial value (= 0). As described above, the projector 301-1 is preferentially used in the embodiment. Therefore, the mask image generation unit 271 sets the initial value of the pixel value of each pixel of the mask image B to 0.

ステップS610において、距離比較部261は、距離画像Bの画素のうち未選択の画素を一つ選択する。   In step S610, the distance comparison unit 261 selects one unselected pixel among the pixels of the distance image B.

ステップS611において、距離比較部261は、選択した画素の値bを、プロジェクタ301−1からみた三次元情報(奥行情報)b’に変換する。変換の方法としては、例えば、コンピュータグラフィックで用いられるシャドウマップ法を使用する。   In step S611, the distance comparison unit 261 converts the value b of the selected pixel into three-dimensional information (depth information) b ′ viewed from the projector 301-1. As a conversion method, for example, a shadow map method used in computer graphics is used.

ステップS612において、距離比較部261は、変換した奥行情報b’を選択した画素の地点に対応するプロジェクタ301−1からみた奥行情報aと比較する。奥行情報aが奥行情報b’より大きい場合、制御はステップS613に進み、奥行情報aが奥行情報b’以下の場合、制御はステップS614に進む。   In step S612, the distance comparison unit 261 compares the converted depth information b 'with the depth information a viewed from the projector 301-1 corresponding to the selected pixel point. If the depth information a is greater than the depth information b ', the control proceeds to step S613. If the depth information a is equal to or less than the depth information b', the control proceeds to step S614.

図8は、奥行情報の比較の例を示す図である。
例えば、投影対象Aの領域801とプロジェクタBとの距離(奥行情報)はbであるとする。シャドウマップ法により、プロジェクタAからみた領域801との距離b’が得られる。距離画像711において、領域801に対応する画素の画素値は、投影対象Aの前に投影対象Bがあるためb’より大きいaとなる。したがって、領域801は、プロジェクタAからは影になると判定され、プロジェクタBから画像が投影される。
FIG. 8 is a diagram illustrating an example of comparison of depth information.
For example, assume that the distance (depth information) between the area 801 of the projection target A and the projector B is b. The distance b ′ to the region 801 viewed from the projector A is obtained by the shadow map method. In the distance image 711, the pixel value of the pixel corresponding to the region 801 is a larger than b ′ because the projection target B exists before the projection target A. Therefore, the area 801 is determined to be a shadow from the projector A, and an image is projected from the projector B.

ステップS613において、画像マスク生成部271は、選択した画素に対応するマスク画像Bの画素の画素値を1に設定する。すなわち、距離画像Bの選択した画素と同じ位置のマスク画像Bの画素の画素値を1に設定する。   In step S613, the image mask generation unit 271 sets the pixel value of the pixel of the mask image B corresponding to the selected pixel to 1. That is, the pixel value of the pixel of the mask image B at the same position as the selected pixel of the distance image B is set to 1.

ステップS614において、距離比較部261は、距離画像Bの選択した画素に対応する差分画像721における画素の位置を求める。すなわち、距離比較部261は、距離画像Bの選択した画素の対応する投影対象の領域がプロジェクタAの差分画像721のどの位置の画素に対応するか求める。   In step S614, the distance comparison unit 261 obtains the position of the pixel in the difference image 721 corresponding to the selected pixel of the distance image B. That is, the distance comparison unit 261 determines which position in the difference image 721 of the projector A corresponds to the projection target area corresponding to the selected pixel of the distance image B.

ステップS615において、距離比較部261は、求めた位置の画素の画素値である奥行差分adと選択した画素に対応する差分画像722の画素値である奥行差分bdとを比較する。奥行差分adが奥行差分bdより大きい場合、制御はステップS616に進み、行差分adが奥行差分bd以下の場合、制御はステップS619に進む。   In step S615, the distance comparison unit 261 compares the depth difference ad, which is the pixel value of the pixel at the obtained position, with the depth difference bd, which is the pixel value of the difference image 722 corresponding to the selected pixel. If the depth difference ad is greater than the depth difference bd, control proceeds to step S616, and if the line difference ad is equal to or less than the depth difference bd, control proceeds to step S619.

図9A,9Bは、奥行差分の比較の例を示す図である。
例えば、投影対象501の平面512のうちのある領域811について判定する場合を考える。距離比較部261は、領域811のプロジェクタAから見た場合の差分画像721における位置を求める。距離比較部261は、差分画像721における求めた位置の画素値を奥行差分adとして取得し、差分画像722における領域811に対応する画素の画素値を奥行差分bdとして、奥行差分adと奥行差分bdを比較する。実施の形態において、プロジェクタ301−2からの投影光に対する平面512の角度は、垂直に近く、プロジェクタ301−2からの投影光に対する平面511の角度は、平行に近い。したがって、領域811に対する奥行差分adは奥行差分bdより大きい。これは、プロジェクタ301−1からみた領域811の傾きはプロジェクタ301−2からみた領域811の傾きより大きい事を意味する。したがって、プロジェクタ301−2からの投影のほうが多くの輝度が得られると判定できる。以降、マスク画像生成部271は、領域811にプロジェクタ301−2から画像が投影されるようにマスク画像A,Bを設定する。
9A and 9B are diagrams illustrating an example of comparison of depth differences.
For example, consider a case where a certain area 811 in the plane 512 of the projection target 501 is determined. The distance comparison unit 261 obtains a position in the difference image 721 when viewed from the projector A in the region 811. The distance comparison unit 261 acquires the pixel value at the obtained position in the difference image 721 as the depth difference ad, sets the pixel value of the pixel corresponding to the region 811 in the difference image 722 as the depth difference bd, and sets the depth difference ad and the depth difference bd. Compare In the embodiment, the angle of the plane 512 with respect to the projection light from the projector 301-2 is close to vertical, and the angle of the plane 511 with respect to the projection light from the projector 301-2 is close to parallel. Therefore, the depth difference ad for the region 811 is larger than the depth difference bd. This means that the slope of the area 811 viewed from the projector 301-1 is larger than the slope of the area 811 viewed from the projector 301-2. Therefore, it can be determined that the projection from the projector 301-2 can obtain more luminance. Thereafter, the mask image generation unit 271 sets the mask images A and B so that the image is projected from the projector 301-2 onto the region 811.

ステップS616において、画像マスク生成部271は、選択した画素に対応するマスク画像Bの画素の画素値を1に設定する。尚、選択した画素に対応するマスク画像Bの画素の位置は、選択した画素と同じ位置である。   In step S616, the image mask generation unit 271 sets the pixel value of the pixel of the mask image B corresponding to the selected pixel to 1. Note that the position of the pixel of the mask image B corresponding to the selected pixel is the same position as the selected pixel.

ステップS617において、画像マスク生成部271は、選択した画素に対応するマスク画像Aの画素の画素値を0に設定する。尚、選択した画素に対応するマスク画像Aの画素の位置は、上述のステップS614において求めた差分画像721における画素の位置と同じである。   In step S617, the image mask generation unit 271 sets the pixel value of the pixel of the mask image A corresponding to the selected pixel to 0. Note that the position of the pixel of the mask image A corresponding to the selected pixel is the same as the position of the pixel in the difference image 721 obtained in step S614 described above.

ステップS619において、距離画像Bの全ての画素を選択済みの場合、制御はステップS620に進み、距離画像Bの全ての画素を選択済みで無い場合、制御はステップS610に戻る。上述の処理により、マスク画像Aは、図10Aに示されるようなマスク画像751となり、マスク画像Bは、図10Bに示されるようなマスク画像752となる。図マスク画像751,752において、画素値が1の箇所は白、0の箇所は黒で表示している。マスク画像751に示すように、平面512はプロジェクタAからは非投影(影領域)となる。また、マスク画像752に示すように、プロジェクタBは、平面512とプロジェクタAからは影となる投影対象Aの一部の領域(影領域)を投影する。   In step S619, if all the pixels of the distance image B have been selected, the control proceeds to step S620, and if not all the pixels of the distance image B have been selected, the control returns to step S610. By the above-described processing, the mask image A becomes a mask image 751 as shown in FIG. 10A, and the mask image B becomes a mask image 752 as shown in FIG. 10B. In the figure mask images 751 and 752, a portion where the pixel value is 1 is displayed in white and a portion where the pixel value is 0 is displayed in black. As shown in the mask image 751, the plane 512 is unprojected (shadow area) from the projector A. Further, as shown in the mask image 752, the projector B projects a partial region (shadow region) of the projection target A that is a shadow from the plane 512 and the projector A.

ステップS620において、投影像生成部221は、プロジェクタ301−1から投影するマスク処理前の画像を生成する。   In step S620, the projection image generation unit 221 generates an image before mask processing to be projected from the projector 301-1.

ステップS621において、投影像生成部221は、プロジェクタ301−2から投影するマスク処理前の画像を生成する。   In step S621, the projection image generation unit 221 generates an image before mask processing to be projected from the projector 301-2.

ステップS622において、画像重畳部281は、投影像生成部221で生成したプロジェクタ301−1から投影する画像とマスク画像Aを重畳する。詳細には、画像重畳部281は、マスク画像Aにおいて1となっている画素に対応するプロジェクタ301−1から投影するマスク処理前の画像の画素を残した画像を生成する。すなわち、画像重畳部281は、マスク画像Aにおいて0となっている画素と同じ位置のマスク処理前の画像の画素を削除した画像を生成する。   In step S622, the image superimposing unit 281 superimposes the image projected from the projector 301-1 generated by the projection image generating unit 221 and the mask image A. Specifically, the image superimposing unit 281 generates an image in which the pixels of the image before the mask process projected from the projector 301-1 corresponding to the pixel that is 1 in the mask image A are left. That is, the image superimposing unit 281 generates an image in which the pixel of the image before the mask process at the same position as the pixel that is 0 in the mask image A is deleted.

ステップS623において、画像重畳部281は、投影像生成部221で生成したプロジェクタ301−2から投影する画像とマスク画像Bを重畳する。詳細には、画像重畳部281は、マスク画像Bにおいて1となっている画素に対応するプロジェクタ301−2から投影するマスク処理前の画像の画素を残した画像を生成する。すなわち、画像重畳部281は、マスク画像Bにおいて0となっている画素と同じ位置のマスク処理前の画像の画素を削除した画像を生成する。   In step S623, the image superimposing unit 281 superimposes the image projected from the projector 301-2 generated by the projection image generating unit 221 and the mask image B. Specifically, the image superimposing unit 281 generates an image in which the pixels of the image before the mask process projected from the projector 301-2 corresponding to the pixel that is 1 in the mask image B are left. That is, the image superimposing unit 281 generates an image in which the pixel of the image before the mask process at the same position as the pixel that is 0 in the mask image B is deleted.

ステップS624において、画像重畳部281は、生成した画像をそれぞれプロジェクタ301−1,301−2に出力し、プロジェクタ301−1,301−2は、入力された画像を投影対象501,502に投影する。   In step S624, the image superimposing unit 281 outputs the generated images to the projectors 301-1 and 301-2, respectively, and the projectors 301-1 and 301-2 project the input images onto the projection targets 501 and 502, respectively. .

実施の形態の画像投影装置によれば、投影面に対して投影像の輝度が大きくなるプロジェクタから投影を行うことができる。これにより、投影対象において、輝度が不十分な領域を減らすことができる。また、実施の形態の画像投影装置によれば、あるプロジェクタから影となる領域に対して別のプロジェクタから画像を投影することで、影のない投影を実現できる。   According to the image projection apparatus of the embodiment, it is possible to perform projection from a projector in which the brightness of the projected image is increased with respect to the projection plane. Thereby, the area | region where brightness | luminance is inadequate in a projection object can be reduced. Further, according to the image projection apparatus of the embodiment, projection without a shadow can be realized by projecting an image from another projector onto an area that becomes a shadow from one projector.

尚、上述の実施の形態における投影対象、プロジェクタ、および距離センサーの数および位置は、一例であり、これに限られるものではない。   Note that the numbers and positions of the projection objects, projectors, and distance sensors in the above-described embodiment are merely examples, and are not limited thereto.

図11は、情報処理装置(コンピュータ)の構成図である。
実施の形態の画像投影装置101は、例えば、図11に示すような情報処理装置1によって実現される。
FIG. 11 is a configuration diagram of an information processing apparatus (computer).
The image projection apparatus 101 according to the embodiment is realized by an information processing apparatus 1 as illustrated in FIG. 11, for example.

情報処理装置11は、Central Processing Unit(CPU)12、メモリ13、入力部14、出力部15、記憶部16、記録媒体駆動部17、及びネットワーク接続部18を備え、それらはバス19により互いに接続されている。   The information processing apparatus 11 includes a central processing unit (CPU) 12, a memory 13, an input unit 14, an output unit 15, a storage unit 16, a recording medium driving unit 17, and a network connection unit 18, which are connected to each other via a bus 19. Has been.

CPU12は、情報処理装置11全体を制御する中央処理装置である。CPU12は、投影像生成部221、奥行情報算出部231、座標変換部241、距離比較部261、画像マスク生成部271、および映像重畳部281として動作する。   The CPU 12 is a central processing unit that controls the entire information processing apparatus 11. The CPU 12 operates as a projection image generation unit 221, a depth information calculation unit 231, a coordinate conversion unit 241, a distance comparison unit 261, an image mask generation unit 271, and a video superimposition unit 281.

メモリ13は、プログラム実行の際に、記憶部16(あるいは可搬記録媒体10)に記憶されているプログラムあるいはデータを一時的に格納するRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリである。CPU12は、メモリ13を利用してプログラムを実行することにより、上述した各種処理を実行する。   The memory 13 is a Read Only Memory (ROM) or Random Access Memory (RAM) that temporarily stores a program or data stored in the storage unit 16 (or the portable recording medium 10) during program execution. It is memory. The CPU 12 executes the various processes described above by executing programs using the memory 13.

この場合、可搬記録媒体20等から読み出されたプログラムコード自体が実施の形態の機能を実現する。   In this case, the program code itself read from the portable recording medium 20 or the like realizes the functions of the embodiment.

入力部14は、例えば、キーボード、マウス、タッチパネル、距離センサー等である。入力部4は、距離センサー401に対応する。   The input unit 14 is, for example, a keyboard, a mouse, a touch panel, a distance sensor, or the like. The input unit 4 corresponds to the distance sensor 401.

出力部15は、例えば、ディスプレイ、プリンタ、プロジェクタ等である。出力部5は、プロジェクタ301−iに対応する。   The output unit 15 is, for example, a display, a printer, a projector, or the like. The output unit 5 corresponds to the projector 301-i.

記憶部16は、例えば、磁気ディスク装置、光ディスク装置、テープ装置等である。情報処理装置11は、記憶部16に、上述のプログラムとデータを保存しておき、必要に応じて、それらをメモリ13に読み出して使用する。   The storage unit 16 is, for example, a magnetic disk device, an optical disk device, a tape device, or the like. The information processing apparatus 11 stores the above-described program and data in the storage unit 16 and reads them into the memory 13 and uses them as necessary.

メモリ13及び記憶部16は、奥行情報バッファ251および記憶部211として動作する。   The memory 13 and the storage unit 16 operate as the depth information buffer 251 and the storage unit 211.

記録媒体駆動部17は、可搬記録媒体20を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD−ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体20に上述のプログラムとデータを格納しておき、必要に応じて、それらをメモリ3に読み出して使用する。   The recording medium drive unit 17 drives the portable recording medium 20 and accesses the recorded contents. As the portable recording medium, any computer-readable recording medium such as a memory card, a flexible disk, a compact disk read only memory (CD-ROM), an optical disk, a magneto-optical disk, or the like is used. The user stores the above-described program and data in the portable recording medium 20 and reads them into the memory 3 and uses them as necessary.

ネットワーク接続部18は、Local Area Network(LAN)やWide Area Network(WAN)等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う。   The network connection unit 18 is connected to an arbitrary communication network such as a local area network (LAN) or a wide area network (WAN), and performs data conversion accompanying communication.

以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
異なる位置から投影面に画像を投影する複数の投影装置と、
前記複数の投影装置のうち第一投影装置の投影方向に対する前記投影面の第一の角度と前記複数の投影装置のうち第二投影装置の投影方向に対する前記投影面の第二の角度とを比較し、比較結果に基づいて、前記第一投影装置又は前記第二投影装置のうちのいずれか一方から前記投影面に前記画像を投影させる制御部と、
を備える画像投影装置。
(付記2)
前記制御部は、前記第一の角度が前記第二の角度より大きい場合、前記第一投影装置から前記投影面に前記画像を投影させ、前記第一の角度が前記第二の角度以下である場合、前記第二投影装置から前記投影面に前記画像を投影させることを特徴とする付記1記載の画像投影装置。
(付記3)
前記投影面との距離を測定する測定部をさらに備え、
前記制御部は、前記距離に基づいて、前記第一の角度と前記第二の角度を算出することを特徴とする付記1または2記載の画像投影装置。
(付記4)
前記制御部は、前記距離に基づいて、前記第一投影装置からの前記投影面との距離を示す第一の距離情報および前記第二投影装置からの前記投影面との距離を示す第二の距離情報を算出し、前記第一の距離情報の隣接画素間の値の差分に基づいて前記第一の角度を算出し、前記第二の距離情報の隣接画素間の値の差分に基づいて前記第二の角度を算出することを特徴とする付記3記載の画像投影装置。
(付記5)
異なる位置から投影面に画像を投影する複数の投影装置を有する画像投影装置が実行する画像投影方法であって、
前記複数の投影装置のうち第一投影装置の投影方向に対する前記投影面の第一の角度と前記複数の投影装置のうち第二投影装置の投影方向に対する前記投影面の第二の角度とを比較し、
比較結果に基づいて、前記第一投影装置又は前記第二投影装置のうちのいずれか一方から前記投影面に前記画像を投影させる
処理を備える画像投影方法。
(付記6)
前記投影させる処理は、前記第一の角度が前記第二の角度より大きい場合、前記第一投影装置から前記投影面に前記画像を投影させ、前記第一の角度が前記第二の角度以下である場合、前記第二投影装置から前記投影面に前記画像を投影させることを特徴とする付記5記載の画像投影方法。
(付記7)
前記投影面との距離を測定し、
前記距離に基づいて、前記第一の角度と前記第二の角度を算出する
処理をさらに備えることを特徴とする付記5または6記載の画像投影方法。
(付記8)
前記算出する処理は、前記距離に基づいて、前記第一投影装置からの前記投影面との距離を示す第一の距離情報および前記第二投影装置からの前記投影面との距離を示す第二の距離情報を算出し、前記第一の距離情報の隣接画素間の値の差分に基づいて前記第一の角度を算出し、前記第二の距離情報の隣接画素間の値の差分に基づいて前記第二の角度を算出することを特徴とする付記7記載の画像投影方法。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A plurality of projection devices that project images from different positions onto a projection plane;
The first angle of the projection plane with respect to the projection direction of the first projection apparatus among the plurality of projection apparatuses is compared with the second angle of the projection plane with respect to the projection direction of the second projection apparatus among the plurality of projection apparatuses. And, based on the comparison result, a control unit that projects the image onto the projection surface from either the first projection device or the second projection device;
An image projection apparatus comprising:
(Appendix 2)
When the first angle is greater than the second angle, the control unit causes the first projection device to project the image onto the projection surface, and the first angle is equal to or less than the second angle. In this case, the image projection apparatus according to appendix 1, wherein the image is projected from the second projection apparatus onto the projection plane.
(Appendix 3)
A measuring unit for measuring a distance from the projection plane;
The image projector according to claim 1 or 2, wherein the control unit calculates the first angle and the second angle based on the distance.
(Appendix 4)
The control unit, based on the distance, first distance information indicating a distance from the first projection device to the projection surface and a second distance indicating the distance from the second projection device to the projection surface. Calculating distance information, calculating the first angle based on a difference in value between adjacent pixels of the first distance information, and calculating the distance based on a difference in value between adjacent pixels of the second distance information. The image projection apparatus according to appendix 3, wherein the second angle is calculated.
(Appendix 5)
An image projecting method executed by an image projecting device having a plurality of projecting devices that project images from different positions onto a projection plane,
The first angle of the projection plane with respect to the projection direction of the first projection apparatus among the plurality of projection apparatuses is compared with the second angle of the projection plane with respect to the projection direction of the second projection apparatus among the plurality of projection apparatuses. And
An image projection method comprising: a process of projecting the image onto the projection plane from either the first projection device or the second projection device based on a comparison result.
(Appendix 6)
In the projecting process, when the first angle is larger than the second angle, the first projection device projects the image onto the projection surface, and the first angle is equal to or less than the second angle. 6. The image projecting method according to appendix 5, wherein the image is projected from the second projecting device onto the projection surface.
(Appendix 7)
Measuring the distance to the projection plane;
The image projecting method according to claim 5 or 6, further comprising: a process of calculating the first angle and the second angle based on the distance.
(Appendix 8)
The calculation processing includes first distance information indicating a distance from the first projection device to the projection surface and a second distance indicating the distance from the second projection device based on the distance. Distance information is calculated, the first angle is calculated based on a difference in values between adjacent pixels in the first distance information, and a value difference between adjacent pixels in the second distance information is calculated. The image projection method according to appendix 7, wherein the second angle is calculated.

101 画像投影装置
201 制御部
211 記憶部
221 投影像生成部
231 奥行情報算出部
241 座標変換部
251 奥行情報バッファ
261 距離比較部
271 画像マスク生成部
281 映像重畳部
301 プロジェクタ
401 距離センサー
501,502 投影対象
DESCRIPTION OF SYMBOLS 101 Image projection apparatus 201 Control part 211 Storage part 221 Projection image generation part 231 Depth information calculation part 241 Coordinate conversion part 251 Depth information buffer 261 Distance comparison part 271 Image mask generation part 281 Image | video superimposition part 301 Projector 401 Distance sensor 501, 502 Projection Target

Claims (5)

異なる位置から投影面に画像を投影する複数の投影装置と、
前記複数の投影装置のうち第一投影装置の投影方向に対する前記投影面の第一の角度と前記複数の投影装置のうち第二投影装置の投影方向に対する前記投影面の第二の角度とを比較し、比較結果に基づいて、前記第一投影装置又は前記第二投影装置のうちのいずれか一方から前記投影面に前記画像を投影させる制御部と、
を備える画像投影装置。
A plurality of projection devices that project images from different positions onto a projection plane;
The first angle of the projection plane with respect to the projection direction of the first projection apparatus among the plurality of projection apparatuses is compared with the second angle of the projection plane with respect to the projection direction of the second projection apparatus among the plurality of projection apparatuses. And, based on the comparison result, a control unit that projects the image onto the projection surface from either the first projection device or the second projection device;
An image projection apparatus comprising:
前記制御部は、前記第一の角度が前記第二の角度より大きい場合、前記第一投影装置から前記投影面に前記画像を投影させ、前記第一の角度が前記第二の角度以下である場合、前記第二投影装置から前記投影面に前記画像を投影させることを特徴とする請求項1記載の画像投影装置。   When the first angle is greater than the second angle, the control unit causes the first projection device to project the image onto the projection surface, and the first angle is equal to or less than the second angle. The image projection apparatus according to claim 1, wherein the image is projected from the second projection apparatus onto the projection plane. 前記投影面との距離を測定する測定部をさらに備え、
前記制御部は、前記距離に基づいて、前記第一の角度と前記第二の角度を算出することを特徴とする請求項1または2記載の画像投影装置。
A measuring unit for measuring a distance from the projection plane;
The image projector according to claim 1, wherein the control unit calculates the first angle and the second angle based on the distance.
前記制御部は、前記距離に基づいて、前記第一投影装置からの前記投影面との距離を示す第一の距離情報および前記第二投影装置からの前記投影面との距離を示す第二の距離情報を算出し、前記第一の距離情報の隣接画素間の値の差分に基づいて前記第一の角度を算出し、前記第二の距離情報の隣接画素間の値の差分に基づいて前記第二の角度を算出することを特徴とする請求項3記載の画像投影装置。   The control unit, based on the distance, first distance information indicating a distance from the first projection device to the projection surface and a second distance indicating the distance from the second projection device to the projection surface. Calculating distance information, calculating the first angle based on a difference in value between adjacent pixels of the first distance information, and calculating the distance based on a difference in value between adjacent pixels of the second distance information. The image projection apparatus according to claim 3, wherein the second angle is calculated. 異なる位置から投影面に画像を投影する複数の投影装置を有する画像投影装置が実行する画像投影方法であって、
前記複数の投影装置のうち第一投影装置の投影方向に対する前記投影面の第一の角度と前記複数の投影装置のうち第二投影装置の投影方向に対する前記投影面の第二の角度とを比較し、
比較結果に基づいて、前記第一投影装置又は前記第二投影装置のうちのいずれか一方から前記投影面に前記画像を投影させる
処理を備える画像投影方法。
An image projecting method executed by an image projecting device having a plurality of projecting devices that project images from different positions onto a projection plane,
The first angle of the projection plane with respect to the projection direction of the first projection apparatus among the plurality of projection apparatuses is compared with the second angle of the projection plane with respect to the projection direction of the second projection apparatus among the plurality of projection apparatuses. And
An image projection method comprising: a process of projecting the image onto the projection plane from either the first projection device or the second projection device based on a comparison result.
JP2015172184A 2015-09-01 2015-09-01 Image projector and image projection method Pending JP2017050689A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015172184A JP2017050689A (en) 2015-09-01 2015-09-01 Image projector and image projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015172184A JP2017050689A (en) 2015-09-01 2015-09-01 Image projector and image projection method

Publications (1)

Publication Number Publication Date
JP2017050689A true JP2017050689A (en) 2017-03-09

Family

ID=58280427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015172184A Pending JP2017050689A (en) 2015-09-01 2015-09-01 Image projector and image projection method

Country Status (1)

Country Link
JP (1) JP2017050689A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113706A (en) * 2017-12-22 2019-07-11 株式会社Subaru Image projection device
WO2019171943A1 (en) * 2018-03-06 2019-09-12 ソニー株式会社 Information processing device, information processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113706A (en) * 2017-12-22 2019-07-11 株式会社Subaru Image projection device
US10663841B2 (en) 2017-12-22 2020-05-26 Subaru Corporation Image projection apparatus
WO2019171943A1 (en) * 2018-03-06 2019-09-12 ソニー株式会社 Information processing device, information processing method, and program
CN111788826A (en) * 2018-03-06 2020-10-16 索尼公司 Information processing apparatus, information processing method, and program
JPWO2019171943A1 (en) * 2018-03-06 2021-03-04 ソニー株式会社 Information processing equipment, information processing methods, and programs
EP3764638A4 (en) * 2018-03-06 2021-04-28 Sony Corporation Information processing device, information processing method, and program
US11134232B2 (en) 2018-03-06 2021-09-28 Sony Corporation Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5266954B2 (en) Projection display apparatus and display method
JP5266953B2 (en) Projection display apparatus and display method
US9759548B2 (en) Image processing apparatus, projector and projector system including image processing apparatus, image processing method
US8398246B2 (en) Real-time projection management
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
US10572971B2 (en) Projection device, projection method and program storage medium
TW201520975A (en) Method and apparatus for generating depth map of a scene
JP2010288063A (en) Projector, program, information storage medium, and trapezoidal distortion correction method
US20160062486A1 (en) Mobile device and method of projecting image by using the mobile device
JP2019215811A (en) Projection system, image processing apparatus, and projection method
KR101330531B1 (en) Method of virtual touch using 3D camera and apparatus thereof
JP2016085380A (en) Controller, control method, and program
JP7052719B2 (en) Information processing equipment, information processing methods, and programs
JP2008180797A (en) Image display device, method for controlling same, and computer program
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
WO2018167918A1 (en) Projector, method of creating data for mapping, program, and projection mapping system
JP5561503B2 (en) Projector, program, information storage medium, and trapezoidal distortion correction method
JP2017050689A (en) Image projector and image projection method
JP2004140845A (en) Projector
JP4816928B2 (en) Image generation program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP2016072691A (en) Image processing system, control method of the same, and program
JP2010066327A (en) Software mask calculation program and projection system
KR20190135147A (en) Apparatus and method for projector
US20160091987A1 (en) Projector
WO2022244296A1 (en) Information processing device, information processing method, program, and information processing system