JP2007316461A - Projector and image projection method - Google Patents

Projector and image projection method Download PDF

Info

Publication number
JP2007316461A
JP2007316461A JP2006147736A JP2006147736A JP2007316461A JP 2007316461 A JP2007316461 A JP 2007316461A JP 2006147736 A JP2006147736 A JP 2006147736A JP 2006147736 A JP2006147736 A JP 2006147736A JP 2007316461 A JP2007316461 A JP 2007316461A
Authority
JP
Japan
Prior art keywords
image
projection
focal position
image data
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006147736A
Other languages
Japanese (ja)
Other versions
JP4973009B2 (en
Inventor
Masanobu Kobayashi
雅暢 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006147736A priority Critical patent/JP4973009B2/en
Publication of JP2007316461A publication Critical patent/JP2007316461A/en
Application granted granted Critical
Publication of JP4973009B2 publication Critical patent/JP4973009B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector capable of projecting a sharp image over a wide area even in projecting an image on a solid object, and to provide an image projecting method. <P>SOLUTION: The projector sequentially projects partial images (i.e., images where defocus areas are masked) corresponding to focused small areas while altering focusing position, which is a small area where a solid object T is in focus, cyclically a1→a2→...a7→a8→a7...→a2→a1→a2→... This is repeated until a user gives an instruction to finish. This operation (i.e., the alteration of the focusing position, and the projection of each corresponding partial image) are performed in a cycle of, for example, approximately 1/60 seconds for a forward direction (a1→a8), that is, in a cycle of approximately 1/30 seconds for forward and backward directions (a1→a8→a1). Thus, a user (viewer) perceive as if images are simultaneously projected on the entire projected area of the solid object T by a residual image phenomenon. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、光源から射出された光を画像データに応じて変調し、立体物に画像を投写するプロジェクタ及び画像投写方法に関する。   The present invention relates to a projector and an image projection method for modulating light emitted from a light source according to image data and projecting an image onto a three-dimensional object.

近年、製造業において3次元CAD(Computer Aided Design)等の設計ツールが用いられるようになり、試作以前の段階で製品の形状やデザインのイメージを認識することが可能となっている。また、デザインの選定等を行う際に、実際の立体感や質感等を確認するため、プロジェクタを用いて試作品等の無地の立体物に画像を投写することが行われている(例えば、特許文献1、非特許文献1参照)。   In recent years, design tools such as three-dimensional CAD (Computer Aided Design) have been used in the manufacturing industry, and it has become possible to recognize the shape and design image of a product before the prototype. In addition, when selecting a design or the like, an image is projected onto a solid three-dimensional object such as a prototype using a projector in order to confirm an actual three-dimensional feeling or texture (for example, patents). Reference 1 and non-patent reference 1).

特開平5−247775号公報JP-A-5-247775 楠本拓矢、”テクスチャプロジェクション方式MRによる立体物の鑑賞・デザインシステム”、[online]、平成13年10月9日、[平成18年3月22日検索]、インターネット<URL:http://www-inolab.sys.es.osaka-u.ac.jp/research/2001_10_09/kusumoto.pdf>Takuya Enomoto, “Appreciation and Design System for Solid Objects by Texture Projection MR”, [online], October 9, 2001, [March 22, 2006 search], Internet <URL: http: // www -inolab.sys.es.osaka-u.ac.jp/research/2001_10_09/kusumoto.pdf>

しかしながら、立体物が大きく、立体物表面の画像が投写される領域(被投写領域)が、プロジェクタの焦点深度では補えない程度の奥行き(投写方向寸法)を有する場合には、被投写領域の全域に渡って焦点の合った画像を投写することができないという問題を有していた。   However, if the three-dimensional object is large and the area on which the image of the three-dimensional object is projected (projected area) has a depth (projection direction dimension) that cannot be compensated by the focal depth of the projector, the entire area of the projected area However, there has been a problem that it is impossible to project an image in focus over a wide range.

本発明は上記問題に鑑みてなされたものであり、その目的は、立体物に画像を投写する場合でも広範囲に渡り鮮鋭な画像を投写可能なプロジェクタ及び画像投写方法を提供することにある。   SUMMARY An advantage of some aspects of the invention is that it provides a projector and an image projection method capable of projecting a sharp image over a wide range even when an image is projected onto a three-dimensional object.

本発明のプロジェクタは、光源と、前記光源から射出された光を画像データに応じて変調し、前記画像データに基づいた画像を形成する光変調装置と、前記画像を投写する投写光学系と、前記投写光学系の焦点位置を変化させる焦点位置可変手段とを備え、前記焦点位置可変手段により前記焦点位置を周期的に変化させながら前記画像を投写することを特徴とする。   The projector of the present invention includes a light source, a light modulation device that modulates light emitted from the light source according to image data, and forms an image based on the image data, a projection optical system that projects the image, Focus position changing means for changing the focus position of the projection optical system is provided, and the image is projected while the focus position is periodically changed by the focus position changing means.

このプロジェクタによれば、投写光学系の焦点位置を周期的に変化させながら画像を投写するため、投写対象物の被投写領域が投写光学系の焦点深度では補えない程度の奥行きを有する場合でも、被投写領域の広い範囲に渡って、焦点の合った鮮鋭な画像を投写することが可能となる。   According to this projector, since the image is projected while periodically changing the focal position of the projection optical system, even when the projection area of the projection target has a depth that cannot be compensated by the focal depth of the projection optical system, A sharp and focused image can be projected over a wide area of the projection area.

このプロジェクタにおいて、前記画像データが表す画像は、投写すべき画像全体のうち、所定の焦点位置における非焦点領域をマスクした部分画像であり、複数の焦点位置にそれぞれ対応した複数の前記画像データに基づいて、前記焦点位置可変手段によって前記焦点位置を周期的に変化させながら、各焦点位置に対応する前記部分画像を順次投写することが望ましい。   In this projector, the image represented by the image data is a partial image in which a non-focal region at a predetermined focal position is masked out of the entire image to be projected, and the plurality of image data respectively corresponding to a plurality of focal positions. Based on this, it is preferable that the partial images corresponding to the respective focal positions are sequentially projected while the focal position is periodically changed by the focal position varying means.

このプロジェクタによれば、焦点が合わない領域に投写される画像がマスクされているため、ピンぼけした画像が重畳されることがなくなり、画像をより鮮鋭にすることが可能となる。   According to this projector, the image projected on the out-of-focus area is masked, so that the out-of-focus image is not superimposed and the image can be sharpened.

このプロジェクタにおいて、前記画像が投写される投写対象物の形状及び載置状態を表す投写対象物情報を取得し、当該投写対象物情報に基づいて、画像全体を表す画像データから複数の前記部分画像を表す画像データを生成する部分画像生成部を備えることが望ましい。   In this projector, the projection object information representing the shape and placement state of the projection object on which the image is projected is acquired, and a plurality of partial images are obtained from image data representing the entire image based on the projection object information. It is desirable to include a partial image generation unit that generates image data representing

このプロジェクタによれば、部分画像生成部が、取得した投写対象物情報に基づいて、画像全体を表す画像データから複数の部分画像を表す画像データを生成するため、部分画像を表す画像データを予め用意する必要がなくなり、画像の投写を容易に行うことが可能となる。   According to this projector, the partial image generation unit generates image data representing a plurality of partial images from image data representing the entire image based on the acquired projection object information. There is no need to prepare, and it is possible to easily project an image.

このプロジェクタにおいて、前記投写対象物を撮像する撮像部と、前記撮像部が撮像した画像に基づいて前記投写対象物情報を生成し、前記部分画像生成部に供給する情報生成部とを備えることが望ましい。   The projector includes: an imaging unit that images the projection target; and an information generation unit that generates the projection target information based on an image captured by the imaging unit and supplies the projection target information to the partial image generation unit. desirable.

このプロジェクタによれば、投写対象物を撮像する撮像部を備え、この撮像部が実際の投写対象物を撮像した画像から投写対象物情報を生成するため、投写対象物の実際の載置状態に適した部分画像を容易に生成することが可能となる。   According to this projector, the image pickup unit for picking up the projection target is provided, and the image pickup unit generates projection target information from an image obtained by picking up the actual projection target. It is possible to easily generate a suitable partial image.

本発明の画像投写方法は、光源と、前記光源から射出された光を画像データに応じて変調し、前記画像データに基づいた画像を形成する光変調装置と、前記光変調装置で形成された画像を投写する投写光学系と、前記投写光学系の焦点位置を変化させる焦点位置可変手段とを備えたプロジェクタの画像投写方法であって、前記焦点位置可変手段により前記焦点位置を周期的に変化させながら、立体物に前記画像を投写することを特徴とする。   An image projection method of the present invention is formed by a light source, a light modulation device that modulates light emitted from the light source according to image data, and forms an image based on the image data, and the light modulation device. An image projection method for a projector, comprising: a projection optical system that projects an image; and a focal position varying unit that changes a focal position of the projection optical system, wherein the focal position is periodically changed by the focal position varying unit. And projecting the image onto a three-dimensional object.

この画像投写方法によれば、投写光学系の焦点位置を周期的に変化させながら画像を投写するため、立体物の被投写領域が投写光学系の焦点深度では補えない程度の奥行きを有する場合でも、被投写領域の広い範囲に渡って、焦点の合った鮮鋭な画像を投写することが可能となる。   According to this image projection method, an image is projected while periodically changing the focal position of the projection optical system, so even if the projection area of the three-dimensional object has a depth that cannot be compensated for by the focal depth of the projection optical system. Thus, it is possible to project a sharp and focused image over a wide range of the projection area.

この画像投写方法において、前記立体物の位置及び載置状態を表す投写対象物情報を取得する第1の工程と、前記第1の工程で取得した前記投写対象物情報に基づいて、前記立体物の被投写領域を投写距離に応じた複数の領域に細分し、細分された前記領域毎に、他の領域をマスクした部分画像を表す画像データを生成する第2の工程と、前記焦点位置可変手段により、前記投写光学系の焦点位置を所定量変化させる第3の工程と、前記第3の工程により変化した焦点位置で焦点が合う領域の部分画像を投写する第4の工程とを備え、前記第3及び第4の工程を繰り返すことにより、前記焦点位置を周期的に変化させながら、投写する部分画像を順次切り替えることが望ましい。   In this image projection method, the three-dimensional object is based on a first step of acquiring projection target object information indicating the position and placement state of the three-dimensional object, and the projection target object information acquired in the first step. A second step of subdividing the projection area into a plurality of areas according to the projection distance, and generating image data representing partial images in which the other areas are masked for each of the subdivided areas, and the variable focus position And a third step of changing the focal position of the projection optical system by a predetermined amount by means, and a fourth step of projecting a partial image of a region in focus at the focal position changed by the third step, It is preferable that the partial images to be projected are sequentially switched while the focal position is periodically changed by repeating the third and fourth steps.

この画像投写方法によれば、焦点が合わない領域に投写される画像がマスクされているため、ピンぼけした画像が重畳されることがなくなり、画像をより鮮鋭にすることが可能となる。   According to this image projection method, an image projected on an out-of-focus area is masked, so that a blurred image is not superimposed and the image can be sharpened.

以下、本発明に係るプロジェクタについて、図面を参照して説明する。
本実施形態のプロジェクタは、入力される3次元画像データに基づいて2次元画像を形成し、当該2次元画像を立体物の表面に投写するものである。
図1は、本実施形態のプロジェクタの概略構成を示すブロック図である。
図1に示すように、プロジェクタ1は、画像の投写を行う画像投写部10と、制御部20と、入力操作部21と、撮像部22と、形状解析部23と、画像データ入力部24と、画像データ処理部25と、ライトバルブ駆動部26と、フォーカス駆動部27と、ズーム駆動部28とを有している。
Hereinafter, a projector according to the present invention will be described with reference to the drawings.
The projector according to the present embodiment forms a two-dimensional image based on input three-dimensional image data, and projects the two-dimensional image on the surface of a three-dimensional object.
FIG. 1 is a block diagram illustrating a schematic configuration of a projector according to the present embodiment.
As shown in FIG. 1, the projector 1 includes an image projection unit 10 that projects an image, a control unit 20, an input operation unit 21, an imaging unit 22, a shape analysis unit 23, and an image data input unit 24. The image data processing unit 25, the light valve driving unit 26, the focus driving unit 27, and the zoom driving unit 28 are included.

まず、画像投写部10について説明する。
画像投写部10は、光源111、光変調装置としての3つの液晶ライトバルブ140R,140G,140B、投写光学系としての投写レンズ160等によって構成されている。
First, the image projection unit 10 will be described.
The image projection unit 10 includes a light source 111, three liquid crystal light valves 140R, 140G, and 140B as light modulation devices, a projection lens 160 as a projection optical system, and the like.

図2は、画像投写部10の構成をより詳細に示す構成図であり、光源111から射出された光が投写対象物である立体物Tに至るまでの光路を示している。
図2に示すように、画像投写部10は、照明光学系110、色光分離光学系120、リレー光学系130、3つの液晶ライトバルブ140R,140G,140B、クロスダイクロイックプリズム150、投写レンズ160等を備えている。
FIG. 2 is a configuration diagram showing the configuration of the image projection unit 10 in more detail, and shows an optical path from the light emitted from the light source 111 to the three-dimensional object T that is a projection target.
As shown in FIG. 2, the image projection unit 10 includes an illumination optical system 110, a color light separation optical system 120, a relay optical system 130, three liquid crystal light valves 140R, 140G, and 140B, a cross dichroic prism 150, a projection lens 160, and the like. I have.

照明光学系110は、超高圧水銀ランプやメタルハライドランプ等の放電型光源ランプからなる光源111と、第1のレンズアレイ112と、第2のレンズアレイ113と、偏光変換素子114と、重畳レンズ115とを備えている。光源111から射出された光束は、微小なレンズ112aがマトリクス状に配置された第1のレンズアレイ112によって多数の微小な部分光束に分割される。第2のレンズアレイ113及び重畳レンズ115は、分割された部分光束のそれぞれが、照明対象である3つの液晶ライトバルブ140R,140G,140Bの全体を照射するように備えられている。このため、各部分光束が液晶ライトバルブ140R,140G,140Bで重畳され、液晶ライトバルブ140R,140G,140Bの全体がほぼ均一に照明される。   The illumination optical system 110 includes a light source 111 composed of a discharge-type light source lamp such as an ultra-high pressure mercury lamp or a metal halide lamp, a first lens array 112, a second lens array 113, a polarization conversion element 114, and a superimposing lens 115. And. The light beam emitted from the light source 111 is divided into a number of minute partial light beams by the first lens array 112 in which minute lenses 112a are arranged in a matrix. The second lens array 113 and the superimposing lens 115 are provided so that each of the divided partial light beams irradiates the entire three liquid crystal light valves 140R, 140G, and 140B that are illumination targets. Therefore, the partial light beams are superimposed by the liquid crystal light valves 140R, 140G, and 140B, and the entire liquid crystal light valves 140R, 140G, and 140B are illuminated almost uniformly.

偏光変換素子114は、光源111からの光を液晶ライトバルブ140R,140G,140Bで効率よく利用可能とするため、特定の偏光方向を有する偏光光に揃える機能を有している。照明光学系110を射出した偏光光は、色光分離光学系120に入射する。   The polarization conversion element 114 has a function of aligning polarized light having a specific polarization direction so that the light from the light source 111 can be efficiently used by the liquid crystal light valves 140R, 140G, and 140B. The polarized light emitted from the illumination optical system 110 enters the color light separation optical system 120.

色光分離光学系120は、第1のダイクロイックミラー121と、第1の反射ミラー122と、第2のダイクロイックミラー123とを備えており、照明光学系110から射出された光を、波長域の異なる3色の光に分離する。第1のダイクロイックミラー121は、略赤色の光を透過するとともに、透過する光よりも短波長の光を反射する。第1のダイクロイックミラー121を透過した赤色光Rは、第1の反射ミラー122で反射された後、第1の平行化レンズ124で平行化されて赤色光用の液晶ライトバルブ140Rを照明する。   The color light separation optical system 120 includes a first dichroic mirror 121, a first reflection mirror 122, and a second dichroic mirror 123, and the light emitted from the illumination optical system 110 has a different wavelength range. Separate into three colors of light. The first dichroic mirror 121 transmits substantially red light and reflects light having a shorter wavelength than the transmitted light. The red light R that has passed through the first dichroic mirror 121 is reflected by the first reflecting mirror 122 and then collimated by the first collimating lens 124 to illuminate the liquid crystal light valve 140R for red light.

第2のダイクロイックミラー123は、略青色の光を透過するとともに、透過する光よりも長波長の光を反射する。このため、第1のダイクロイックミラー121で反射された光のうち、緑色光Gは、第2のダイクロイックミラー123によって反射され、第2の平行化レンズ125で平行化されて緑色光用の液晶ライトバルブ140Gを照明する。また、青色光Bは、第2のダイクロイックミラー123を透過し、リレー光学系130を経由して、青色光用の液晶ライトバルブ140Bを照明する。   The second dichroic mirror 123 transmits substantially blue light and reflects light having a longer wavelength than the transmitted light. For this reason, among the lights reflected by the first dichroic mirror 121, the green light G is reflected by the second dichroic mirror 123 and is collimated by the second collimating lens 125 to be a liquid crystal light for green light. Illuminate the bulb 140G. Further, the blue light B passes through the second dichroic mirror 123 and illuminates the liquid crystal light valve 140B for blue light via the relay optical system 130.

なお、青色光Bの経路は、他の色光の経路に比べて長くなってしまうことから、光線束の発散によって液晶ライトバルブ140Bへの照明効率が低下するのを抑制するために、青色光Bの経路には、リレー光学系130が設けられている。リレー光学系130は、入射側レンズ131と、第2の反射ミラー132と、リレーレンズ133と、第3の反射ミラー134と、射出側レンズ135とを備えている。色光分離光学系120から射出した青色光Bは、入射側レンズ131によってリレーレンズ133の近傍で収束し、射出側レンズ135に向けて発散する。   Since the path of the blue light B is longer than the paths of the other color lights, the blue light B is used to prevent the illumination efficiency to the liquid crystal light valve 140B from being lowered due to the divergence of the light beam. The relay optical system 130 is provided in the path of. The relay optical system 130 includes an incident side lens 131, a second reflection mirror 132, a relay lens 133, a third reflection mirror 134, and an emission side lens 135. The blue light B emitted from the color light separation optical system 120 is converged in the vicinity of the relay lens 133 by the incident side lens 131 and diverges toward the emission side lens 135.

液晶ライトバルブ140R,140G,140Bのそれぞれは、一対の透明基板間に液晶が封入された液晶パネル141を備えており、液晶パネル141の内面には、液晶に対して微小領域(画素)毎に駆動電圧を印加可能な透明電極(画素電極)がマトリクス状に形成されている。また、液晶パネル141の入射側表面及び射出側表面には、それぞれ入射側偏光板142及び射出側偏光板143が貼り付けられている。入射側偏光板142及び射出側偏光板143は、それぞれ特定の偏光方向の偏光光のみを透過可能であり、入射側偏光板142は、偏光変換素子114によって揃えられた偏光方向の偏光光を透過可能となっている。このため、各液晶ライトバルブ140R,140G,140Bに照射された各色光の大部分は入射側偏光板142を透過して、液晶パネル141に入射する。   Each of the liquid crystal light valves 140R, 140G, and 140B includes a liquid crystal panel 141 in which liquid crystal is sealed between a pair of transparent substrates, and the inner surface of the liquid crystal panel 141 is provided for each minute region (pixel) with respect to the liquid crystal. Transparent electrodes (pixel electrodes) to which a driving voltage can be applied are formed in a matrix. Further, an incident-side polarizing plate 142 and an emitting-side polarizing plate 143 are attached to the incident-side surface and the exit-side surface of the liquid crystal panel 141, respectively. The incident-side polarizing plate 142 and the exit-side polarizing plate 143 can transmit only polarized light having a specific polarization direction, and the incident-side polarizing plate 142 transmits polarized light having the polarization direction aligned by the polarization conversion element 114. It is possible. For this reason, most of each color light irradiated to the liquid crystal light valves 140R, 140G, and 140B passes through the incident-side polarizing plate 142 and enters the liquid crystal panel 141.

ここで、液晶パネル141の各画素に、画像データに応じた駆動電圧が印加されると、液晶パネル141に入射した光は、駆動電圧に応じて変調され、画素毎に異なる偏光方向を有した偏光光となる。この偏光光のうち、射出側偏光板143を透過可能な偏光成分のみが液晶ライトバルブ140R,140G,140Bから射出される。つまり、液晶ライトバルブ140R,140G,140Bが、画像データに応じて、画素毎に異なる透過率で入射光を透過させることによって、階調を有する画像光が色光毎に形成される。液晶ライトバルブ140R,140G,140Bから射出した各色光からなる画像光は、クロスダイクロイックプリズム150に入射する。   Here, when a driving voltage corresponding to image data is applied to each pixel of the liquid crystal panel 141, the light incident on the liquid crystal panel 141 is modulated according to the driving voltage and has a different polarization direction for each pixel. It becomes polarized light. Of this polarized light, only the polarization component that can be transmitted through the exit-side polarizing plate 143 is emitted from the liquid crystal light valves 140R, 140G, and 140B. That is, the liquid crystal light valves 140R, 140G, and 140B transmit incident light with different transmittances for each pixel according to image data, so that image light having gradation is formed for each color light. Image light composed of light of each color emitted from the liquid crystal light valves 140R, 140G, and 140B is incident on the cross dichroic prism 150.

クロスダイクロイックプリズム150は、各液晶ライトバルブ140R,140G,140Bから射出された各色の画像光を、画素毎に合成してカラー画像を表す画像光を形成する。クロスダイクロイックプリズム150によって合成された画像光は、投写レンズ160によって立体物Tに拡大投写される。なお、投写レンズ160は、ズーム機構及びフォーカス機構を備えており、投写レンズ160を構成する複数のレンズ群の光軸方向の位置関係を変化させることにより、ズーム(変倍)動作やフォーカシング(焦点位置調整動作)を行うことが可能になっている。   The cross dichroic prism 150 combines the image light of each color emitted from the liquid crystal light valves 140R, 140G, and 140B for each pixel to form image light representing a color image. The image light synthesized by the cross dichroic prism 150 is enlarged and projected onto the three-dimensional object T by the projection lens 160. The projection lens 160 includes a zoom mechanism and a focus mechanism. By changing the positional relationship in the optical axis direction of a plurality of lens groups constituting the projection lens 160, a zoom (magnification) operation or focusing (focus) is performed. Position adjustment operation) can be performed.

図1に戻って、制御部20は、CPU(Central Processing Unit)、フラッシュメモリ等からなるROM(Read Only Memory)、各種データの一時記憶等に用いられるRAM(Random Access Memory)等(いずれも図示せず)を備え、コンピュータとして機能するものである。制御部20は、CPUがROMに記憶されている制御プログラムに従って動作することにより、プロジェクタ1の動作を統括制御する。   Returning to FIG. 1, the control unit 20 includes a CPU (Central Processing Unit), a ROM (Read Only Memory) including a flash memory, a RAM (Random Access Memory) used for temporary storage of various data, etc. (Not shown) and function as a computer. The control unit 20 performs overall control of the operation of the projector 1 by the CPU operating according to a control program stored in the ROM.

入力操作部21は、プロジェクタ1に対して各種指示を行うための複数のキー等を備えており、ユーザが入力操作部21を操作すると、入力操作部21は、ユーザの操作内容に応じた操作信号を制御部20に出力する。なお、入力操作部21として、遠隔操作が可能なリモコン(図示せず)を用いた構成としてもよい。この場合、リモコンは、ユーザの操作内容に応じた赤外線の操作信号を発し、図示しないリモコン信号受信部がこれを受信して制御部20に伝達する。   The input operation unit 21 includes a plurality of keys for performing various instructions to the projector 1. When the user operates the input operation unit 21, the input operation unit 21 operates according to the operation content of the user. The signal is output to the control unit 20. The input operation unit 21 may be configured using a remote control (not shown) capable of remote operation. In this case, the remote controller emits an infrared operation signal corresponding to the user's operation content, and a remote control signal receiving unit (not shown) receives this and transmits it to the control unit 20.

撮像部22は、例えば、CCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等からなり、投写レンズ160の投写範囲全体を撮像可能になっている。このため、投写レンズ160の投写範囲内に立体物Tを載置し、画像投写部10によって所定のパターン(模様)を投写した状態で、制御部20が撮像部22に撮像を指示すると、前記パターンが投写された立体物Tの撮像データが撮像部22によって取得される。撮像部22は、取得した撮像データを形状解析部23に出力する。   The imaging unit 22 includes, for example, a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, and the like, and can image the entire projection range of the projection lens 160. For this reason, when the control unit 20 instructs the imaging unit 22 to perform imaging in a state where the solid object T is placed within the projection range of the projection lens 160 and a predetermined pattern (pattern) is projected by the image projection unit 10, Imaging data of the three-dimensional object T on which the pattern is projected is acquired by the imaging unit 22. The imaging unit 22 outputs the acquired imaging data to the shape analysis unit 23.

形状解析部23は、本発明の情報生成部に相当するものであり、前記パターンが投写された立体物Tの撮像データを解析し、その解析結果から立体物Tの形状や載置状態(載置された位置や向き)等を表す投写対象物情報を生成して、画像データ処理部25に出力する。投写対象物情報の生成方法としては、例えば、前記パターンとしてストライプパターンやコード化パターン等を立体物Tに投写して、三角測量の原理で形状や載置状態を導くアクティブステレオ法等を用いることができる。   The shape analysis unit 23 corresponds to the information generation unit of the present invention. The shape analysis unit 23 analyzes imaging data of the three-dimensional object T on which the pattern is projected, and based on the analysis result, the shape and placement state (mounting state) Projection target object information representing the position and orientation of the image is generated and output to the image data processing unit 25. As a method of generating projection target object information, for example, an active stereo method that projects a stripe pattern, a coded pattern, or the like as the pattern onto the three-dimensional object T and derives a shape or a mounting state based on the principle of triangulation is used. Can do.

画像データ入力部24には、図示しない外部の画像供給装置(パーソナルコンピュータ等)から、有線又は無線通信、或いは各種記憶媒体等を介して所定の形式の3次元画像データが入力される。この3次元画像データは、立体物Tと略同一形状を有する3次元モデルの3次元座標データや、当該3次元モデル表面の模様や色、質感等を表すテクスチャデータ等を含むものであり、例えば、3次元CADデータや3次元CG(Computer Graphics)データを用いることができる。画像データ入力部24は、入力された3次元画像データを画像データ処理部25に出力する。   A predetermined format of three-dimensional image data is input to the image data input unit 24 from an external image supply device (such as a personal computer) (not shown) via wired or wireless communication or various storage media. This three-dimensional image data includes three-dimensional coordinate data of a three-dimensional model having substantially the same shape as the three-dimensional object T, texture data representing a pattern, color, texture, etc. of the surface of the three-dimensional model. Three-dimensional CAD data and three-dimensional CG (Computer Graphics) data can be used. The image data input unit 24 outputs the input 3D image data to the image data processing unit 25.

画像データ処理部25は、画像データ入力部24から入力された3次元画像データ、及び形状解析部23から入力された投写対象物情報に基づいて、2次元の画像データを生成する。具体的には、投写対象物情報に含まれる立体物Tの形状や載置状態を表す情報に基づいて、投写レンズ160から立体物Tを見た場合の2次元画像データを生成する。さらに、投写対象物情報から、立体物Tの表面でプロジェクタ1からの画像が投写される領域(以降、被投写領域と呼ぶ)の最も手前側までの投写距離と、最も奥側までの投写距離とを導くとともに、被投写領域を投写距離に応じて複数の小領域に区分する。その後、画像データ処理部25は、生成した2次元画像データから、区分した小領域毎に、それぞれの小領域に投写すべき画像(部分画像)を表す画像データ(部分画像データ)を生成し、制御部20に出力する。つまり、画像データ処理部25は、本発明の部分画像生成部に相当するものである。   The image data processing unit 25 generates two-dimensional image data based on the three-dimensional image data input from the image data input unit 24 and the projection target information input from the shape analysis unit 23. Specifically, two-dimensional image data when the three-dimensional object T is viewed from the projection lens 160 is generated based on information representing the shape and placement state of the three-dimensional object T included in the projection target information. Further, the projection distance from the projection target information to the foremost side of the area where the image from the projector 1 is projected on the surface of the three-dimensional object T (hereinafter referred to as the projection area) and the projection distance to the farthest side. And the projection area is divided into a plurality of small areas according to the projection distance. Thereafter, the image data processing unit 25 generates, from the generated two-dimensional image data, image data (partial image data) representing an image (partial image) to be projected on each small region for each divided small region, Output to the control unit 20. That is, the image data processing unit 25 corresponds to the partial image generation unit of the present invention.

制御部20は、入力された画像データを適宜ライトバルブ駆動部26に出力し、ライトバルブ駆動部26は、この画像データに基づいて液晶ライトバルブ140R,140G,140Bを駆動する。また、フォーカス駆動部27及びズーム駆動部28は、制御部20からの指示に基づいて、それぞれ投写レンズ160のフォーカス機構及びズーム機構を駆動する。なお、フォーカス駆動部27、及び投写レンズ160のフォーカス機構は、投写レンズ160の焦点位置を変化させるものであり、本発明の焦点位置可変手段に相当する。   The control unit 20 appropriately outputs the input image data to the light valve driving unit 26, and the light valve driving unit 26 drives the liquid crystal light valves 140R, 140G, and 140B based on the image data. The focus drive unit 27 and the zoom drive unit 28 drive the focus mechanism and zoom mechanism of the projection lens 160 based on instructions from the control unit 20, respectively. Note that the focus drive unit 27 and the focus mechanism of the projection lens 160 change the focus position of the projection lens 160, and correspond to the focus position variable means of the present invention.

次に、本実施形態のプロジェクタ1が画像を投写する際の動作について、立方体形状の立体物にサイコロの模様を投写する場合を例にして説明する。なお、画像データ入力部24には、サイコロを表す3次元画像データが入力されるものとする。
図3は、プロジェクタ1の動作を説明するためのフローチャートである。
ユーザが投写レンズ160の投写範囲内に、立方体形状の立体物Tを載置して、入力操作部21に備わる電源キーを操作すると、プロジェクタ1は、図3に示すフローに従って動作する。
Next, the operation when the projector 1 of the present embodiment projects an image will be described by taking as an example the case of projecting a dice pattern on a cubic solid object. Note that three-dimensional image data representing a dice is input to the image data input unit 24.
FIG. 3 is a flowchart for explaining the operation of the projector 1.
When the user places a cubic three-dimensional object T within the projection range of the projection lens 160 and operates a power key provided in the input operation unit 21, the projector 1 operates according to the flow shown in FIG.

図3に示すように、ステップS201では、制御部20は、自らのROMに記憶している所定のパターン(例えば、ストライプパターン)を表す画像データをライトバルブ駆動部26に出力し、画像投写部10により当該パターンを立体物Tに投写する。   As shown in FIG. 3, in step S201, the control unit 20 outputs image data representing a predetermined pattern (for example, a stripe pattern) stored in its own ROM to the light valve driving unit 26, and the image projection unit. 10 to project the pattern onto the three-dimensional object T.

ステップS202では、制御部20は、撮像部22に指示をして、前記パターンが投写された立体物Tを撮像し、ステップS203では、形状解析部23が、撮像部22からの撮像データに基づいて、立体物Tの投写対象物情報を生成する。この投写対象物情報により、画像データ処理部25は、立体物Tの形状や載置状態を認識することが可能となる。   In step S202, the control unit 20 instructs the imaging unit 22 to image the three-dimensional object T on which the pattern is projected. In step S203, the shape analysis unit 23 is based on the imaging data from the imaging unit 22. Thus, the projection object information of the three-dimensional object T is generated. With this projection object information, the image data processing unit 25 can recognize the shape and placement state of the three-dimensional object T.

ステップS204では、画像データ処理部25が、画像データ入力部24から入力された3次元画像データ、及び形状解析部23から入力された投写対象物情報に基づいて、複数の部分画像データを生成する。
具体的には、まず、画像データ処理部25は、形状解析部23から入力された投写対象物情報に基づいて、立体物Tの載置状態、即ち立体物Tの向き(載置方向)及びプロジェクタ1の投写範囲に対する立体物Tの位置や大きさ等を認識し、画像データ入力部24より入力された3次元画像データから、この載置状態に応じた2次元画像を表す画像データを生成する。例えば、立体物Tが、投写レンズ160から見て図4に示すように見える状態で載置されている場合には、画像データ処理部25は、図5に示すように、この載置状態に応じた2次元画像p0の画像データを生成する。なお、図4に示す状態では、立体物Tの3つの面A1〜A3が、プロジェクタ1からの画像が投写される被投写領域Aとなる。また、図中の二点鎖線は、プロジェクタ1の投写範囲L、即ち画像を投写しうる範囲を示している。
In step S204, the image data processing unit 25 generates a plurality of partial image data based on the three-dimensional image data input from the image data input unit 24 and the projection target information input from the shape analysis unit 23. .
Specifically, first, the image data processing unit 25, based on the projection target information input from the shape analysis unit 23, the mounting state of the three-dimensional object T, that is, the direction (mounting direction) of the three-dimensional object T, and The position and size of the three-dimensional object T with respect to the projection range of the projector 1 is recognized, and image data representing a two-dimensional image corresponding to the placement state is generated from the three-dimensional image data input from the image data input unit 24. To do. For example, when the three-dimensional object T is placed in a state as shown in FIG. 4 when viewed from the projection lens 160, the image data processing unit 25 enters this placement state as shown in FIG. The image data of the corresponding two-dimensional image p0 is generated. In the state shown in FIG. 4, the three surfaces A <b> 1 to A <b> 3 of the three-dimensional object T are the projection area A on which an image from the projector 1 is projected. A two-dot chain line in the figure indicates a projection range L of the projector 1, that is, a range in which an image can be projected.

次に、図6に示すように、画像データ処理部25は、形状解析部23から入力された投写対象物情報に基づいて、被投写領域Aの最も手前側に位置する角部C1までの投写距離、及び被投写領域Aの最も奥側に位置する角部C2までの投写距離を導出するとともに、これらの差である被投写領域Aの奥行きDを導く。その後、この奥行きDを、投写レンズ160の焦点深度で補える距離d刻みで分割し、被投写領域Aを、それぞれ奥行きdを有する複数の小領域a1〜a8に細分する。各小領域a1〜a8は、上記のように細分されているため、いずれか1つの小領域の中央(小領域の手前側端部からd/2だけ奥の位置)に焦点を合わせて画像を投写すれば、当該小領域内には、焦点の合った画像(フォーカス状態が許容範囲内の画像)が表示されることになる。   Next, as shown in FIG. 6, the image data processing unit 25 projects to the corner C <b> 1 positioned closest to the projection area A based on the projection target information input from the shape analysis unit 23. The distance and the projection distance to the corner C2 located on the farthest side of the projection area A are derived, and the depth D of the projection area A, which is the difference between them, is derived. Thereafter, the depth D is divided in increments of distance d that can be compensated by the depth of focus of the projection lens 160, and the projection area A is subdivided into a plurality of small areas a1 to a8 each having a depth d. Since each of the small areas a1 to a8 is subdivided as described above, an image is focused on the center of any one of the small areas (a position d / 2 deeper from the front end of the small area). When projected, a focused image (an image whose focus state is within an allowable range) is displayed in the small area.

その後、図7(a)〜(h)に示すように、画像データ処理部25は、2次元画像p0に基づいて、小領域a1〜a8毎に、それぞれに投写すべき画像のみからなる部分画像p1〜p8の画像データ、即ち、2次元画像p0中の他の小領域に投写される部位(非焦点領域)を黒色でマスクした画像データを生成し、制御部20に出力する。なお、マスクする領域は、黒色に限られず、白色やその他の色としてもよい。また、各画像データには、台形歪み(投写面に対して斜め方向から画像を投写することに伴う画像の歪み)を補正するための処理を施すことが望ましい。   Thereafter, as shown in FIGS. 7A to 7H, the image data processing unit 25 is based on the two-dimensional image p0, and is a partial image composed of only the images to be projected for each of the small areas a1 to a8. Image data of p1 to p8, that is, image data in which a portion (non-focal region) projected on another small region in the two-dimensional image p0 is masked with black is generated and output to the control unit 20. The area to be masked is not limited to black, and may be white or other colors. Further, it is desirable that each image data be subjected to processing for correcting trapezoidal distortion (image distortion caused by projecting an image from an oblique direction with respect to the projection plane).

ステップS205では、制御部20は、フォーカス駆動部27に指示をして、最も手前側の小領域a1の中央よりもさらに距離d(小領域1つ分)だけ手前側の位置が焦点位置となるように、投写レンズ160のフォーカス機構を駆動する。   In step S205, the control unit 20 instructs the focus driving unit 27, and the position on the near side by a distance d (one small region) further than the center of the most small region a1 is the focal position. Thus, the focus mechanism of the projection lens 160 is driven.

ステップS206では、制御部20は、フォーカス駆動部27に指示をして、現在の焦点位置よりも1つだけ奥側の小領域に焦点が合うように、投写レンズ160のフォーカス機構を駆動し、ステップS207では、焦点の合った小領域に対応する部分画像の画像データをライトバルブ駆動部26に出力する。つまり、ステップS205の直後には、小領域a1に焦点が合っている状態で、小領域a1に投写すべき部分画像p1が投写される。   In step S206, the control unit 20 instructs the focus driving unit 27 to drive the focus mechanism of the projection lens 160 so that only one small area behind the current focus position is in focus. In step S207, the image data of the partial image corresponding to the focused small region is output to the light valve driving unit 26. That is, immediately after step S205, the partial image p1 to be projected on the small area a1 is projected in a state where the small area a1 is in focus.

ステップS208では、制御部20は、現在の焦点位置、即ちどの小領域に焦点が合っている状態か判断する。この結果、小領域a1〜a7のいずれか(最も奥側の小領域a8以外)に焦点が合っている状態の場合には、ステップS206に戻り、さらに1つ奥側の小領域に焦点を合わせて当該小領域に対応する部分画像データをライトバルブ駆動部26に出力する。一方、最も奥側の小領域a8に焦点が合っている状態の場合には、ステップS209に移行する。このように、ステップS206〜S208を繰り返すことにより、すべての小領域a1〜a8に、それぞれに対応する部分画像p1〜p8が順次投写される。   In step S208, the control unit 20 determines the current focus position, that is, which small region is in focus. As a result, if any of the small areas a1 to a7 (other than the deepest small area a8) is in focus, the process returns to step S206, and further focuses on one deep small area. The partial image data corresponding to the small area is output to the light valve driving unit 26. On the other hand, when the focus is on the innermost small area a8, the process proceeds to step S209. Thus, by repeating steps S206 to S208, the partial images p1 to p8 corresponding to the respective small regions a1 to a8 are sequentially projected.

ステップS209では、制御部20は、フォーカス駆動部27に指示をして、現在の焦点位置よりも1つだけ手前側の小領域に投写画像の焦点が合うように、投写レンズ160のフォーカス機構を駆動し、ステップS210では、焦点の合った小領域に対応する部分画像データをライトバルブ駆動部26に出力する。   In step S209, the control unit 20 instructs the focus driving unit 27 to change the focus mechanism of the projection lens 160 so that the projected image is focused on a small area just one side before the current focus position. In step S210, partial image data corresponding to the focused small area is output to the light valve driving unit 26.

ステップS211では、制御部20は、現在の焦点位置、即ちどの小領域に焦点が合っている状態かを判断する。この結果、小領域a2〜a8のいずれか(最も手前側の小領域a1以外)に焦点が合っている状態の場合には、ステップS209に戻り、さらに1つ手前側の小領域に焦点を合わせ、当該小領域に対応する部分画像データをライトバルブ駆動部26に出力する。一方、最も手前側の小領域a1に焦点が合っている状態の場合には、ステップS212に移行する。   In step S211, the control unit 20 determines the current focus position, that is, which small region is in focus. As a result, if any of the small areas a2 to a8 (other than the closest small area a1) is in focus, the process returns to step S209, and further focuses on one small area on the near side. The partial image data corresponding to the small area is output to the light valve driving unit 26. On the other hand, when the focus is on the closest small area a1, the process proceeds to step S212.

ステップS212では、ユーザが入力操作部21を操作して画像の投写を終了させる指示を行ったか否かを制御部20が判断する。この結果、指示がなされていなければ、ステップS206に戻って、小領域a1〜a8への部分画像の投写を繰り返し、指示がなされた場合には、画像の投写処理を終了させる。   In step S212, the control unit 20 determines whether or not the user has operated the input operation unit 21 to give an instruction to end image projection. As a result, if no instruction is given, the process returns to step S206, and the projection of the partial image onto the small areas a1 to a8 is repeated. If the instruction is given, the image projection process is terminated.

このように、本実施形態のプロジェクタ1は、焦点位置、即ち被投写領域A上の焦点が合う小領域をa1→a2→…→a7→a8→a7→…→a2→a1→a2→…と周期的に変化させつつ、焦点が合っている小領域に対応する部分画像p1〜p8を順次投写し、これをユーザの終了指示がなされるまで繰り返す。この動作(焦点位置の変更、及び対応する部分画像の投写)を、例えば、片道(a1→a8)で1/60秒程度、即ち往復(a1→a8→a1)で1/30秒程度の周期で行えば、ユーザ(鑑賞者)には、残像現象によって被投写領域A全体に同時に画像が投写されているように視認される。   As described above, the projector 1 according to the present embodiment has a focal position, that is, a small area in focus on the projection area A as a1 → a2 →... → a7 → a8 → a7 →... → a2 → a1 → a2 →. While changing periodically, the partial images p1 to p8 corresponding to the small regions in focus are sequentially projected, and this is repeated until the user gives an instruction to finish. This operation (changing the focal position and projecting the corresponding partial image) is, for example, a period of about 1/60 seconds in one way (a1 → a8), that is, about 1/30 seconds in a reciprocation (a1 → a8 → a1). In this case, the user (viewer) visually recognizes that the image is simultaneously projected on the entire projection area A due to the afterimage phenomenon.

以上説明したように、本実施形態のプロジェクタ1によれば、以下の効果を得ることができる。
(1)本実施形態のプロジェクタ1によれば、投写レンズ160の焦点位置を周期的に変化させながら画像を投写するため、立体物Tの被投写領域Aが投写レンズ160の焦点深度では補えない程度の奥行きを有する場合でも、被投写領域Aの全域に渡って、焦点の合った鮮鋭な画像を投写することが可能となる。
As described above, according to the projector 1 of the present embodiment, the following effects can be obtained.
(1) According to the projector 1 of the present embodiment, since the image is projected while the focal position of the projection lens 160 is periodically changed, the projection area A of the three-dimensional object T cannot be compensated by the focal depth of the projection lens 160. Even when the image has a certain depth, a sharp and focused image can be projected over the entire projection area A.

(2)本実施形態のプロジェクタ1によれば、被投写領域A上の焦点が合わない小領域に投写される画像がマスクされているため、ピンぼけした画像が重畳されることがなくなり、画像をより鮮鋭にすることが可能となる。   (2) According to the projector 1 of the present embodiment, the image projected on the small area that is out of focus on the projection area A is masked. It becomes possible to sharpen.

(3)本実施形態のプロジェクタ1によれば、画像データ処理部25が、形状解析部23から取得した投写対象物情報に基づいて、2次元画像p0を表す画像データから、複数の部分画像p1〜p8を表す画像データを生成するため、部分画像p1〜p8を表す画像データを予め用意する必要がなくなり、画像の投写を容易に行うことが可能となる。   (3) According to the projector 1 of the present embodiment, the image data processing unit 25 uses a plurality of partial images p1 from the image data representing the two-dimensional image p0 based on the projection target information acquired from the shape analysis unit 23. Since the image data representing ~ p8 is generated, it is not necessary to prepare image data representing the partial images p1 to p8 in advance, and the image can be projected easily.

(4)本実施形態のプロジェクタ1によれば、立体物Tを撮像する撮像部22を備え、この撮像部22が実際の立体物Tを撮像した画像から投写対象物情報を生成するため、立体物Tの実際の載置状態に適した部分画像を容易に生成することが可能となる。   (4) According to the projector 1 of the present embodiment, the imaging unit 22 that captures the three-dimensional object T is provided, and the imaging unit 22 generates projection target information from an image obtained by capturing the actual three-dimensional object T. It becomes possible to easily generate a partial image suitable for the actual placement state of the object T.

(変形例)
なお、本発明の実施形態は、以下のように変更してもよい。
前記実施形態において、投写レンズ160の投写範囲に対して立体物Tが小さい場合や、被投写領域Aの一部の領域にのみ画像を表示させたい場合には、ズーム駆動部28によって投写レンズ160のズーム機構を駆動させて投写範囲Lを狭くするとともに、この投写範囲Lに合わせて部分画像p1〜p8を生成することにより、投写される画像の解像度を向上することができる。
(Modification)
In addition, you may change embodiment of this invention as follows.
In the embodiment, when the three-dimensional object T is small relative to the projection range of the projection lens 160 or when an image is to be displayed only in a part of the projection area A, the zoom driving unit 28 causes the projection lens 160 to be displayed. When the zoom mechanism is driven to narrow the projection range L and the partial images p1 to p8 are generated in accordance with the projection range L, the resolution of the projected image can be improved.

前記実施形態では、フォーカス駆動部27により周期的に焦点位置を変更しながら、焦点位置に応じた部分画像を投写しているが、周期的に焦点位置を変更しながら、常に同一の画像(例えば、2次元画像p0)を被投写領域Aの全体に投写するようにしてもよい。この場合でも、焦点の合った画像が周期的に各小領域a1〜a8に投写されることになるため、焦点位置を固定した場合に比べて画像を鮮鋭にすることができる。   In the embodiment, the partial image corresponding to the focal position is projected while the focal position is periodically changed by the focus driving unit 27. However, the same image (for example, constantly changing the focal position, for example) The two-dimensional image p0) may be projected on the entire projection area A. Even in this case, since the focused image is periodically projected on each of the small areas a1 to a8, the image can be sharpened as compared with the case where the focal position is fixed.

前記実施形態では、撮像部22による撮像結果に基づいて投写対象物情報を生成し、この投写対象物情報に基づいて、複数の部分画像データを生成しているが、撮像部22を用いない構成も可能である。例えば、予め用意した投写対象物情報を、3次元画像データとともに画像データ処理部25に供給するとともに、立体物Tを投写対象物情報に従って載置するようにすればよい。或いは、複数の部分画像データを予め準備して、焦点位置の変更に同期させてこれらを順次投写するとともに、部分画像に応じた載置状態で立体物Tを載置するようにしてもよい。   In the embodiment, the projection target information is generated based on the imaging result of the imaging unit 22, and the plurality of partial image data is generated based on the projection target information. However, the configuration without using the imaging unit 22 Is also possible. For example, projection object information prepared in advance may be supplied to the image data processing unit 25 together with the three-dimensional image data, and the three-dimensional object T may be placed according to the projection object information. Alternatively, a plurality of partial image data may be prepared in advance, and sequentially projected in synchronization with the change of the focal position, and the three-dimensional object T may be placed in a placement state corresponding to the partial image.

前記実施形態では、焦点位置の変更と、対応する部分画像の投写とを交互に行っているが、焦点位置を連続的に変化させながら、これに同期させて各部分画像p1〜p8を順次投写するようにしてもよい。   In the embodiment, the change of the focus position and the projection of the corresponding partial image are alternately performed. However, the partial images p1 to p8 are sequentially projected in synchronization with the change of the focus position. You may make it do.

前記実施形態では、被投写領域Aを等間隔(距離d)で細分して小領域a1〜a8を設定しているが、被投写領域Aの分割は等間隔に限られず、投写レンズ160の特性に応じて適宜定めればよい。また、被投写領域A内に表示すべき模様(テクスチャ)の疎密に応じて、異なる奥行きの小領域を設定するようにしてもよい。例えば、無地の画像を投写する場合には、焦点が合っていなくても画像の鮮鋭度に与える影響は小さいため、小領域の奥行きを大きくすることができる。前記実施形態で示した例においても、小領域a6〜a8には無地の部分画像が投写されるため(図7(f)〜(h)参照)、小領域a6〜a8を合わせた領域を1つの小領域とすることができる。この結果、小領域の数、即ち画像の切り替え回数を減らすことが可能となり、動作時の負荷を低減することが可能となる。   In the embodiment, the projection area A is subdivided at equal intervals (distance d) to set the small areas a1 to a8. However, the division of the projection area A is not limited to equal intervals, and the characteristics of the projection lens 160 are set. It may be determined appropriately according to the situation. In addition, small areas having different depths may be set according to the density of patterns (textures) to be displayed in the projection area A. For example, when a plain image is projected, the depth of the small area can be increased because the influence on the sharpness of the image is small even if the image is out of focus. Also in the example shown in the above embodiment, a plain partial image is projected on the small areas a6 to a8 (see FIGS. 7 (f) to (h)), so that the area including the small areas a6 to a8 is 1 There can be two small areas. As a result, it is possible to reduce the number of small areas, that is, the number of times of image switching, and to reduce the load during operation.

前記実施形態では、光変調装置として、透過型の液晶ライトバルブ140R,140G,140Bを用いているが、反射型の液晶ライトバルブ等、反射型の光変調装置を用いることも可能である。また、入射した光の出射方向を、画素としてのマイクロミラー毎に制御することにより、光源から出射した光を変調する微小ミラーアレイデバイス等を用いることもできる。   In the above-described embodiment, the transmissive liquid crystal light valves 140R, 140G, and 140B are used as the light modulator, but a reflective light modulator such as a reflective liquid crystal light valve can also be used. In addition, it is possible to use a micromirror array device that modulates the light emitted from the light source by controlling the emission direction of the incident light for each micromirror as a pixel.

前記実施形態では、光源として放電型光源ランプを用いているが、LED(Light Emitting Diode:発光ダイオード)光源等の固体光源や、その他の光源を用いることもできる。   In the embodiment, a discharge-type light source lamp is used as a light source, but a solid light source such as an LED (Light Emitting Diode) light source or other light sources may be used.

実施形態に係るプロジェクタの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a projector according to an embodiment. 画像投写部の構成をより詳細に示す構成図。The block diagram which shows the structure of an image projection part in detail. プロジェクタの動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of a projector. 投写対象物である立体物を投写レンズ側から見た図。The figure which looked at the solid object which is a projection target object from the projection lens side. 3次元画像データから生成した2次元画像を示す図。The figure which shows the two-dimensional image produced | generated from three-dimensional image data. 立体物の被投写領域を複数の小領域に区分した様子を示す説明図。Explanatory drawing which shows a mode that the projection area | region of the solid object was divided into the some small area. (a)〜(h)は、焦点位置毎に生成された部分画像を示す図。(A)-(h) is a figure which shows the partial image produced | generated for every focus position.

符号の説明Explanation of symbols

1…プロジェクタ、10…画像投写部、20…制御部、21…入力操作部、22…撮像部、23…形状解析部、24…画像データ入力部、25…画像データ処理部、26…ライトバルブ駆動部、27…フォーカス駆動部、28…ズーム駆動部、110…照明光学系、111…光源、112…第1のレンズアレイ、113…第2のレンズアレイ、114…偏光変換素子、115…重畳レンズ、120…色光分離光学系、121…第1のダイクロイックミラー、122…第1の反射ミラー、123…第2のダイクロイックミラー、124…第1の平行化レンズ、125…第2の平行化レンズ、130…リレー光学系、131…入射側レンズ、132…第2の反射ミラー、133…リレーレンズ、134…第3の反射ミラー、135…射出側レンズ、140R,140G,140B…液晶ライトバルブ、141…液晶パネル、142…入射側偏光板、143…射出側偏光板、150…クロスダイクロイックプリズム、160…投写レンズ、A…被投写領域、L…投写範囲、T…立体物、a1〜a8…小領域、p1〜p8…部分画像。
DESCRIPTION OF SYMBOLS 1 ... Projector, 10 ... Image projection part, 20 ... Control part, 21 ... Input operation part, 22 ... Imaging part, 23 ... Shape analysis part, 24 ... Image data input part, 25 ... Image data processing part, 26 ... Light valve Drive unit, 27: Focus drive unit, 28 ... Zoom drive unit, 110 ... Illumination optical system, 111 ... Light source, 112 ... First lens array, 113 ... Second lens array, 114 ... Polarization conversion element, 115 ... Superposition Lens ... 120 ... Color light separation optical system 121 ... First dichroic mirror 122 ... First reflection mirror 123 ... Second dichroic mirror 124 ... First collimating lens 125 ... Second collimating lens , 130 ... relay optical system, 131 ... incident side lens, 132 ... second reflecting mirror, 133 ... relay lens, 134 ... third reflecting mirror, 135 ... exit side lens 140R, 140G, 140B ... liquid crystal light valve, 141 ... liquid crystal panel, 142 ... incident side polarizing plate, 143 ... exit side polarizing plate, 150 ... cross dichroic prism, 160 ... projection lens, A ... projection area, L ... projection range , T ... solid object, a1-a8 ... small region, p1-p8 ... partial image.

Claims (6)

光源と、
前記光源から射出された光を画像データに応じて変調し、前記画像データに基づいた画像を形成する光変調装置と、
前記画像を投写する投写光学系と、
前記投写光学系の焦点位置を変化させる焦点位置可変手段と、
を備え、前記焦点位置可変手段により前記焦点位置を周期的に変化させながら前記画像を投写することを特徴とするプロジェクタ。
A light source;
A light modulation device that modulates light emitted from the light source according to image data and forms an image based on the image data;
A projection optical system for projecting the image;
A focal position changing means for changing a focal position of the projection optical system;
And projecting the image while periodically changing the focal position by the focal position varying means.
請求項1に記載のプロジェクタであって、
前記画像データが表す画像は、投写すべき画像全体のうち、所定の焦点位置における非焦点領域をマスクした部分画像であり、
複数の焦点位置にそれぞれ対応した複数の前記画像データに基づいて、前記焦点位置可変手段によって前記焦点位置を周期的に変化させながら、各焦点位置に対応する前記部分画像を順次投写することを特徴とするプロジェクタ。
The projector according to claim 1,
The image represented by the image data is a partial image in which a non-focal region at a predetermined focal position is masked out of the entire image to be projected,
The partial image corresponding to each focal position is projected sequentially while the focal position is periodically changed by the focal position varying means based on the plurality of image data respectively corresponding to the plurality of focal positions. Projector.
請求項2に記載のプロジェクタであって、
前記画像が投写される投写対象物の形状及び載置状態を表す投写対象物情報を取得し、当該投写対象物情報に基づいて、前記画像全体を表す画像データから複数の前記部分画像を表す画像データを生成する部分画像生成部を備えたことを特徴とするプロジェクタ。
The projector according to claim 2,
Projection object information representing the shape and placement state of a projection object on which the image is projected is acquired, and an image representing a plurality of partial images from image data representing the entire image based on the projection object information A projector comprising a partial image generation unit for generating data.
請求項3に記載のプロジェクタであって、
前記投写対象物を撮像する撮像部と、
前記撮像部が撮像した画像に基づいて前記投写対象物情報を生成し、前記部分画像生成部に供給する情報生成部と、
を備えたことを特徴とするプロジェクタ。
The projector according to claim 3, wherein
An imaging unit for imaging the projection object;
An information generation unit that generates the projection target information based on an image captured by the imaging unit and supplies the projection target information to the partial image generation unit;
A projector comprising:
光源と、
前記光源から射出された光を画像データに応じて変調し、前記画像データに基づいた画像を形成する光変調装置と、
前記光変調装置で形成された画像を投写する投写光学系と、
前記投写光学系の焦点位置を変化させる焦点位置可変手段と、
を備えたプロジェクタの画像投写方法であって、
前記焦点位置可変手段により前記焦点位置を周期的に変化させながら、立体物に前記画像を投写することを特徴とする画像投写方法。
A light source;
A light modulation device that modulates light emitted from the light source according to image data and forms an image based on the image data;
A projection optical system for projecting an image formed by the light modulation device;
A focal position changing means for changing a focal position of the projection optical system;
An image projection method for a projector equipped with
An image projection method, wherein the image is projected onto a three-dimensional object while the focal position is periodically changed by the focal position changing means.
請求項5に記載の画像投写方法であって、
前記立体物の位置及び載置状態を表す投写対象物情報を取得する第1の工程と、
前記第1の工程で取得した前記投写対象物情報に基づいて、前記立体物の被投写領域を投写距離に応じた複数の領域に細分し、細分された前記領域毎に、他の領域をマスクした部分画像を表す画像データを生成する第2の工程と、
前記焦点位置可変手段により、前記投写光学系の焦点位置を所定量変化させる第3の工程と、
前記第3の工程により変化した焦点位置で焦点が合う領域の部分画像を投写する第4の工程と、
を備え、前記第3及び第4の工程を繰り返すことにより、前記焦点位置を周期的に変化させながら、投写する部分画像を順次切り替えることを特徴とする画像投写方法。
The image projection method according to claim 5,
A first step of acquiring projection object information representing the position and mounting state of the three-dimensional object;
Based on the projection object information acquired in the first step, the projection area of the three-dimensional object is subdivided into a plurality of areas according to the projection distance, and other areas are masked for each of the subdivided areas. A second step of generating image data representing the partial image,
A third step of changing the focal position of the projection optical system by a predetermined amount by the focal position varying means;
A fourth step of projecting a partial image of the region in focus at the focal position changed by the third step;
An image projecting method comprising: sequentially switching partial images to be projected while periodically changing the focal position by repeating the third and fourth steps.
JP2006147736A 2006-05-29 2006-05-29 Projector and image projection method Expired - Fee Related JP4973009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006147736A JP4973009B2 (en) 2006-05-29 2006-05-29 Projector and image projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006147736A JP4973009B2 (en) 2006-05-29 2006-05-29 Projector and image projection method

Publications (2)

Publication Number Publication Date
JP2007316461A true JP2007316461A (en) 2007-12-06
JP4973009B2 JP4973009B2 (en) 2012-07-11

Family

ID=38850353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006147736A Expired - Fee Related JP4973009B2 (en) 2006-05-29 2006-05-29 Projector and image projection method

Country Status (1)

Country Link
JP (1) JP4973009B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078855A (en) * 2008-09-25 2010-04-08 Panasonic Electric Works Co Ltd Lighting system
WO2011039837A1 (en) * 2009-09-29 2011-04-07 Necディスプレイソリューションズ株式会社 Projector and image processing method
JP2013516827A (en) * 2010-01-05 2013-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image projection apparatus and method
WO2014148066A1 (en) * 2013-03-19 2014-09-25 日本写真印刷株式会社 3d decorative solid object and method for producing same
JP2015184383A (en) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 Projector, and projection image control method
WO2017179432A1 (en) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 Image projection method and image projection device for three-dimensional object for projection
WO2019058415A1 (en) * 2017-09-19 2019-03-28 Necディスプレイソリューションズ株式会社 Multi-projection system, image projecting method, and projector
JPWO2021049548A1 (en) * 2019-09-09 2021-03-18
US11061312B2 (en) 2017-09-29 2021-07-13 Fujifilm Corporation Projection apparatus and projection method
WO2023052495A1 (en) * 2021-09-30 2023-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adjustable projection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05249428A (en) * 1992-03-05 1993-09-28 Koudo Eizou Gijutsu Kenkyusho:Kk Projection system
JP2002139700A (en) * 2000-11-02 2002-05-17 Seiko Epson Corp Projection-type stereoscopic display device
JP2003131319A (en) * 2001-10-25 2003-05-09 Seiko Epson Corp Optical transmission and reception device
JP2004015205A (en) * 2002-06-04 2004-01-15 Olympus Corp Multi-projection system and correction data acquisition method in multi-projection system
JP2005244835A (en) * 2004-02-27 2005-09-08 Olympus Corp Multiprojection system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05249428A (en) * 1992-03-05 1993-09-28 Koudo Eizou Gijutsu Kenkyusho:Kk Projection system
JP2002139700A (en) * 2000-11-02 2002-05-17 Seiko Epson Corp Projection-type stereoscopic display device
JP2003131319A (en) * 2001-10-25 2003-05-09 Seiko Epson Corp Optical transmission and reception device
JP2004015205A (en) * 2002-06-04 2004-01-15 Olympus Corp Multi-projection system and correction data acquisition method in multi-projection system
JP2005244835A (en) * 2004-02-27 2005-09-08 Olympus Corp Multiprojection system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078855A (en) * 2008-09-25 2010-04-08 Panasonic Electric Works Co Ltd Lighting system
WO2011039837A1 (en) * 2009-09-29 2011-04-07 Necディスプレイソリューションズ株式会社 Projector and image processing method
JP5317238B2 (en) * 2009-09-29 2013-10-16 Necディスプレイソリューションズ株式会社 Projector and image processing method
JP2013516827A (en) * 2010-01-05 2013-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image projection apparatus and method
US9606450B2 (en) 2010-01-05 2017-03-28 Koninklijke Philips N.V. Image projection apparatus and method
WO2014148066A1 (en) * 2013-03-19 2014-09-25 日本写真印刷株式会社 3d decorative solid object and method for producing same
JP2015184383A (en) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 Projector, and projection image control method
JP2017192040A (en) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 Projection method and system for three-dimensional projection object
WO2017179432A1 (en) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 Image projection method and image projection device for three-dimensional object for projection
WO2019058415A1 (en) * 2017-09-19 2019-03-28 Necディスプレイソリューションズ株式会社 Multi-projection system, image projecting method, and projector
US11620732B2 (en) 2017-09-19 2023-04-04 Sharp Nec Display Solutions, Ltd. Multi-projection system, image projection method and projector
US11061312B2 (en) 2017-09-29 2021-07-13 Fujifilm Corporation Projection apparatus and projection method
JPWO2021049548A1 (en) * 2019-09-09 2021-03-18
WO2021049548A1 (en) * 2019-09-09 2021-03-18 国立大学法人 東京大学 Projector control device, projector, projection system, projection method, and program
JP7228294B2 (en) 2019-09-09 2023-02-24 国立大学法人 東京大学 Projector control device, projector, projection system, projection method and program
WO2023052495A1 (en) * 2021-09-30 2023-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adjustable projection device

Also Published As

Publication number Publication date
JP4973009B2 (en) 2012-07-11

Similar Documents

Publication Publication Date Title
JP4973009B2 (en) Projector and image projection method
US7972020B2 (en) Apparatus and method for reducing speckle in display of images
JP6386194B2 (en) Depth mapping on a head-mounted display using stereo camera and structured light
JP5431312B2 (en) projector
KR101289595B1 (en) Grid pattern projection device
JP6371377B2 (en) Multi-aperture projection display and single image generator therefor
US10359277B2 (en) Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
JP2014025935A (en) Use of color and intensity modulation of pixel display
US10679370B2 (en) Energy optimized imaging system with 360 degree field-of-view
TW202030453A (en) Vertical cavity surface emitting laser-based projector
JP4709571B2 (en) Visual information processing system and visual information processing method thereof
KR20200032204A (en) Camera assembly with programmable diffractive optical element for depth sensing
WO2018191696A1 (en) Methods and apparatus employing angular and spatial modulation of light
US20220034651A1 (en) Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US8902309B2 (en) Apparatus of acquiring 3D information, method for driving light source thereof, and system for acquiring 3D information
JP2010085472A (en) Image projection/imaging apparatus
JP2014006479A (en) Display device, photographing method, and display method
US20140111619A1 (en) Device and method for acquiring image
JP6626552B1 (en) Multi-image projector and electronic device having multi-image projector
TWI719383B (en) Multi-image projector and electronic device having multi-image projector
CN113411565B (en) Control method for three-dimensional display of interactable body based on photo-phoresis capture
CN115867765A (en) Diffuse lighting and multi-mode lighting device
JP5125561B2 (en) Projection apparatus and projection control method
JP2007248822A (en) Image projection system and method
US11557054B1 (en) Method for performing region-of-interest-based depth detection with aid of pattern-adjustable projector, and associated apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120326

R150 Certificate of patent or registration of utility model

Ref document number: 4973009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees