JP2008227883A - Projector - Google Patents

Projector Download PDF

Info

Publication number
JP2008227883A
JP2008227883A JP2007062852A JP2007062852A JP2008227883A JP 2008227883 A JP2008227883 A JP 2008227883A JP 2007062852 A JP2007062852 A JP 2007062852A JP 2007062852 A JP2007062852 A JP 2007062852A JP 2008227883 A JP2008227883 A JP 2008227883A
Authority
JP
Japan
Prior art keywords
projection
image
detection
content
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007062852A
Other languages
Japanese (ja)
Inventor
Eitetsu Yamada
英哲 山田
Yukihiko Sato
幸彦 佐藤
Toshiya Inada
俊也 稲田
Tomoko Saito
智子 斉藤
Masanori Oda
昌範 小田
Mitsuko Hanai
光子 花井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2007062852A priority Critical patent/JP2008227883A/en
Priority to PCT/JP2008/054449 priority patent/WO2008111601A1/en
Publication of JP2008227883A publication Critical patent/JP2008227883A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector which is easily handled and can present material so as to be distributed to each of persons being participated in a conference, explicitly shows the mode of distributing the material to thereby improve performance in presentation, and makes it possible to smoothly proceed with the presentation without interrupting the conference for distributing the material. <P>SOLUTION: On a projection plane formed on an installation stand with a projector installed thereon, images of predetermined contents are projected while moving the projection plane so as to circulate on the basis of operator's action. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

投影像を投影するプロジェクタに関する。   The present invention relates to a projector that projects a projection image.

近年、会議等におけるプレゼンテーションにおいては、プロジェクタを用いて資料を投影して行う場合がある。従来のプロジェクタは、操作者や被提示者から離隔した位置に垂直に設けられた1つのスクリーンに向かって資料の投影像を投影するものであった。このため、従来のプロジェクタを用いたプレゼンテーションでは、単一の資料をスクリーンの全体に投影して、出席者の全員に単一の資料を提示していた。   In recent years, presentations in meetings and the like are sometimes performed by projecting materials using a projector. A conventional projector projects a projection image of a material onto a single screen provided vertically at a position separated from an operator or a person to be presented. For this reason, in a presentation using a conventional projector, a single document is projected on the entire screen, and a single document is presented to all attendees.

また、垂直に設けられたスクリーンではなく、投影像を机に投影するプロジェクタもあった(例えば、特許文献1参照。)。
特表2002−539742号公報
In addition, there is a projector that projects a projected image on a desk instead of a vertically provided screen (see, for example, Patent Document 1).
Special Table 2002-539742

上述した垂直なスクリーンに投影する従来のプロジェクタを用いたプレゼンテーションでは、会議に出席している出席者の全員が、スクリーンの方向を向いているため、会議の進行が、発表者の一方的なものになりやすく、十分な議論ができない場合があった。また、議論ができるような場合でも、改めて資料を投影し直す必要が生じ、会議を円滑に進めることが困難であった。   In the above-mentioned presentation using a conventional projector that projects onto a vertical screen, all attendees attending the meeting are facing the screen, so the progress of the meeting is unilateral for the presenter. There was a case where sufficient discussion was not possible. Even when discussions were possible, it was necessary to reproject the materials and it was difficult to smoothly proceed with the conference.

さらに、このようなプロジェクタを用いたプレゼンテーションでは、会議に出席している複数人の各々に資料を提示するものではなかったため、会議の前後で、スクリーンに投影された資料と同じものを紙の資料として配付する場合が多く、紙の資料の過不足が生じたときには、煩雑になっていた。   Furthermore, since presentations using such projectors did not present materials to each of the multiple people attending the meeting, the same materials projected on the screen before and after the meeting were used as paper materials. In many cases, it was complicated when there was an excess or deficiency of paper materials.

また、このようなプロジェクタを用いたプレゼンテーションでは、スクリーンから離れた位置にいる人は、スクリーンを視認しにくいという問題も生じていた。   Further, in the presentation using such a projector, there is a problem that it is difficult for a person who is away from the screen to see the screen.

さらにまた、机に投影するプロジェクタは、机に対して固定された位置に設置されているため、持ち運びできるものではなく、取り扱いが不便であった。   Furthermore, since the projector that projects onto the desk is installed at a fixed position with respect to the desk, it is not portable and inconvenient to handle.

本発明は、上述の点に鑑みてなされたものであり、その目的とするところは、会議に参加している各人に資料を配付するように提示でき、資料を配付する態様を明示することによって、プレゼンテーションにおける演出を高めることができると共に、資料を配付するために会議を中断することなく、プレゼンテーションを円滑に進めることができ、取り扱いが容易なプロジェクタを提供することにある。   The present invention has been made in view of the above points, and the purpose of the present invention is to clearly show the manner in which the materials can be distributed so that the materials can be distributed to each person participating in the conference. Thus, it is possible to enhance the presentation effect, and to provide a projector that can be easily handled and can be easily handled without interrupting the conference to distribute the materials.

以上のような目的を達成するために、本発明においては、プロジェクタが設置された設置台に形成された投影面に、所定のコンテンツの画像を、操作者の動作に基づいて、周回するように投影面を移動する態様で投影する。   In order to achieve the above object, in the present invention, an image of a predetermined content is circulated on the projection surface formed on the installation base on which the projector is installed based on the operation of the operator. Projection is performed in such a manner that the projection plane moves.

具体的には、本発明に係るプロジェクタは、設置台に設置されて、光源から発せられた光によって投影画像を投影するプロジェクタであり、投影手段と投影制御手段と本体とを含む。   Specifically, a projector according to the present invention is a projector that is installed on an installation table and projects a projection image by light emitted from a light source, and includes a projection unit, a projection control unit, and a main body.

投影手段は、少なくとも1つのコンテンツの画像を投影画像として投影する。この少なくとも1つのコンテンツの画像は、投影画像が投影可能に設置台に形成された投影面に投影される。   The projection unit projects at least one content image as a projection image. The at least one content image is projected onto a projection surface formed on the installation base so that the projection image can be projected.

投影制御手段は、上述した少なくとも1つのコンテンツの画像のうちの所定のコンテンツの画像を投影面上に投影する。   The projection control unit projects an image of a predetermined content among the above-described at least one content image onto the projection plane.

本体には、投影手段と投影制御手段とが納められる。
さらに、投影制御手段は、所定のコンテンツの画像を、本体を周回するように移動させる態様で投影する。この所定のコンテンツの画像は、操作者の動作に基づいて、移動する態様で投影される。
The main body accommodates projection means and projection control means.
Furthermore, the projection control means projects an image of a predetermined content in such a manner that it moves around the main body. The image of the predetermined content is projected in a moving manner based on the operation of the operator.

上述した「周回する」とは、本体の回りを湾曲して移動する態様であればよい。投影面で本体の回りを一周以上回る必要はなく、一周未満でも湾曲して移動すればよい。また、投影面を一周以上回るように移動させてもよい。
さらに、コンテンツの画像が自転しつつ本体を周回する態様も含まれる。
The above-mentioned “turn around” may be an aspect that moves around the main body while being curved. It is not necessary to exceed the circumference of the main body on the projection surface for more than one turn, and it is sufficient to move in a curved manner even if it is less than one turn. Further, the projection surface may be moved so as to make one or more rounds.
Furthermore, a mode in which the content image rotates around the main body while rotating is also included.

このように本発明に係るプロジェクタは、設置台に設置されるので、いわゆる卓上型として用いることができ、取り扱いを容易にできる。また、所定のコンテンツの画像は、本体を周回するように移動する態様で投影されるので、所定のコンテンツを配付する態様を明示することによって、プレゼンテーションにおける演出を高めることができる。さらに、所定のコンテンツの画像を移動させるので、資料を配付するために会議を中断することなく、プレゼンテーションを円滑に進めることができる。   Thus, since the projector according to the present invention is installed on the installation stand, it can be used as a so-called desktop type and can be handled easily. In addition, since the image of the predetermined content is projected in such a manner that it moves around the main body, the presentation in the presentation can be enhanced by clearly indicating the mode of distributing the predetermined content. Furthermore, since the image of the predetermined content is moved, the presentation can be smoothly advanced without interrupting the meeting in order to distribute the material.

また、本発明に係るプロジェクタの操作者は、投影面の近傍に位置する。そして、本発明に係るプロジェクタは、投影面の近傍に位置したものを検出手段を含む。特に、この検出手段は、操作者の動作に基づいて動く被検出体の動作を検出する。上述した投影制御手段は、検出手段によって検出された被検出体の動作に基づいて、所定のコンテンツの画像を、本体を周回するように投影面上を移動する態様で投影する。   Further, the operator of the projector according to the present invention is located in the vicinity of the projection surface. The projector according to the present invention includes a detector that is located in the vicinity of the projection surface. In particular, the detection means detects the motion of the detected object that moves based on the motion of the operator. The above-described projection control means projects an image of a predetermined content on the projection surface so as to go around the main body based on the motion of the detection target detected by the detection means.

「操作者の動作に基づいて動く被検出体」とは、操作者の指等の操作者の人体の一部や、操作者が有する棒やスプーン等の道具も含まれ、操作者又は操作者と同視又は確認できるものであればよい。
さらに、「近傍」とは、投影面で投影された像に対して操作者が操作でき、投影面で投影された像を視認できる範囲にあればよい。具体的には、設置台の直前や手前の位置が好ましい。
The “detected object that moves based on the operation of the operator” includes a part of the operator's human body such as the operator's finger and tools such as a stick and a spoon that the operator has. What can be identified or confirmed.
Further, the “neighborhood” may be within a range in which the operator can operate the image projected on the projection plane and the image projected on the projection plane can be visually recognized. Specifically, a position immediately before or before the installation base is preferable.

被検出体の動作に基づいて、所定のコンテンツの画像を、本体を周回するように投影面上を移動させるので、操作者、例えば、発表者の意思に応じて、具体的には、発表者のジェスチャーに応じて、コンテンツの画像を配付するように移動させることができ、発表者が意図するように、会議を円滑に進めることができる。   Since the image of the predetermined content is moved on the projection surface so as to circulate around the main body based on the operation of the detected object, specifically, depending on the intention of the operator, for example, the presenter, the presenter In response to the gesture, the content image can be distributed and the conference can be smoothly advanced as intended by the presenter.

さらに、本発明に係るプロジェクタは、
検出手段が、投影面の近傍に位置しかつ所定のコンテンツが提示される少なくとも1人の被提示者又は被提示者を示す物体を被提示体として検出し、
投影制御手段が、被提示体が検出された位置に向かって、所定のコンテンツの画像を、本体を周回するように前記投影面上を移動する態様で投影する。
Furthermore, the projector according to the present invention is
The detection means detects at least one person to be presented or an object indicating the person to be presented, which is located in the vicinity of the projection plane and presents predetermined content, as a person to be presented,
Projection control means projects an image of a predetermined content toward the position where the object to be presented is detected in such a manner as to move on the projection plane so as to go around the main body.

ここで、「被提示者」は、所定のコンテンツが提示される者であり、「被提示体」は、被提示者自身でも、被提示者が所有するコーヒーカップ等でもよく、被提示者又は被提示者と同視できるものであればよい。
「被提示体が検出された位置に向かって」とは、被提示体に向かって移動すればよいことを意味する。すなわち、停止する位置を限定するものではない。
Here, the “presentee” is a person to whom a predetermined content is presented, and the “presentee” may be the presentee himself or a coffee cup owned by the presentee, What is necessary is just to be able to equate with the person to be presented.
“Toward the position where the object to be presented is detected” means that the object should be moved toward the object to be presented. That is, the stop position is not limited.

このようにすることで、被提示者は、自分に所定のコンテンツが提示される過程を視認でき、プレゼンテーションの演出効果を高めることができる。   By doing in this way, the person to be presented can visually recognize the process in which the predetermined content is presented to him and can enhance the presentation effect.

さらにまた、本発明に係るプロジェクタは、
投影制御手段が、所定のコンテンツの画像を、投影面上で周回するように移動する態様で投影した後、所定の停止位置で停止する態様で投影し、
所定の停止位置が、被提示体が検出された位置に対応した投影面上の位置である。
Furthermore, the projector according to the present invention is
The projection control means projects the image of the predetermined content in a mode that moves so as to circulate on the projection surface, and then projects in a mode that stops at a predetermined stop position,
The predetermined stop position is a position on the projection plane corresponding to the position where the object to be presented is detected.

「被提示体が検出された位置に対応した投影面上の位置」の例としては、被提示体が被提示者自身の場合には、投影面上の位置でありかつ被提示体の略正面の位置である。また、被提示体がコーヒーカップ等の被提示者と同視できるものの場合には、投影面上の位置でありかつコーヒーカップ等の近傍の位置である。   As an example of “a position on the projection surface corresponding to a position where the object to be presented is detected”, when the object to be presented is the person to be presented, it is a position on the projection surface and substantially in front of the object to be presented Is the position. Further, when the object to be presented can be viewed with the person to be presented, such as a coffee cup, it is a position on the projection plane and a position in the vicinity of the coffee cup or the like.

このようにすることで、被提示者にコンテンツが配付されるように提示されるので、会議に参加している各人に資料を配付するように提示でき、プレゼンテーションを円滑に進めることができる。   By doing in this way, since it is shown so that content may be distributed to a to-be-presented person, it can present so that material may be distributed to each person who participates in a meeting, and a presentation can be advanced smoothly.

また、本発明に係るプロジェクタは、
検出手段が、被検出体及び被提示体に至るまでの距離と、被検出体及び被提示体の大きさとを検出し、
検出手段が、距離と大きさとに基づいて、被検出体であるか又は被提示体であるかを判別する検出判別手段を含む。
The projector according to the present invention is
The detection means detects the distance to the detected object and the presentation object and the size of the detected object and the presentation object,
The detection means includes detection discrimination means for discriminating whether the detection means is the detection target or the presentation target based on the distance and the size.

このようにすることで、的確な位置にコンテンツを移動させることができ、操作者、例えば発表者が所望する位置にコンテンツを移動させることができると共に、被提示者は、視認しやすい位置にコンテンツの投影像が投影されるので、資料を配付するために会議を中断することなく、プレゼンテーションを円滑に進めることができる。   In this way, the content can be moved to an appropriate position, the content can be moved to a position desired by an operator, for example, a presenter, and the presentee can easily move the content to a position that can be easily viewed. Therefore, the presentation can be smoothly carried out without interrupting the meeting in order to distribute the materials.

さらに、本発明に係るプロジェクタは、
検出手段が、
所定の波長の伝播波を発する伝播波発生手段と、
伝播波が、前記被検出体又は前記被提示体によって反射された反射波、又は前記被検出体又は前記被提示体によって散乱された散乱波を検出する反射波散乱波検出手段と、を含む。
Furthermore, the projector according to the present invention is
The detection means is
Propagation wave generating means for generating a propagation wave of a predetermined wavelength;
And a reflected wave scattered wave detecting means for detecting a reflected wave reflected by the detected object or the presented object or a scattered wave scattered by the detected object or the presented object.

ここで「伝播波」は、伝播していく波であればよく、例えば、光、超音波のいずれも含む。反射波散乱波検出手段は、反射波又は散乱波のうちの少なくとも一方を検出できるものであればよい。   Here, the “propagating wave” may be any wave that propagates, and includes, for example, both light and ultrasonic waves. The reflected wave / scattered wave detection means may be any means that can detect at least one of the reflected wave and the scattered wave.

このようにすることで、検出手段が、目障りになったり、プレゼンテーションの妨げになったりしないので、検出手段に気にとられることなく、プレゼンテーションを円滑に進めることができる。また、伝播していく波を用いるので、被検出体や被提示体の位置に寄らずに、被検出体及び被提示体の検出を確実に行え、制御を容易にすることができる。   By doing in this way, since a detection means does not become obstructive or obstructs presentation, a presentation can be smoothly advanced without being noticed by the detection means. In addition, since the propagating wave is used, the detected object and the present object can be reliably detected without depending on the position of the detected object or the present object, and the control can be facilitated.

さらにまた、本発明に係るプロジェクタにおいては、前記投影面が、略水平方向に形成されている。   Furthermore, in the projector according to the present invention, the projection surface is formed in a substantially horizontal direction.

このようにすることで、プロジェクタをいわゆる卓上型にすることができ、持ち運びや取り扱いを容易にすることができる。   By doing in this way, a projector can be made into what is called a desktop type, and carrying and handling can be made easy.

また、本発明に係るプロジェクタは、
前記操作者と前記被提示体とが、前記投影面と前記本体とを挟んで位置しているものが好ましい。
The projector according to the present invention is
It is preferable that the operator and the body to be presented are positioned with the projection surface and the main body interposed therebetween.

このようにすることで、発表者とコンテンツの被提示者が対面するように位置することができ、会話や議論を円滑にできると共に、コンテンツが被提示者に配付されているので、プレゼンテーションを円滑に進めることができる。   In this way, the presenter and the content presenter can be positioned so that they face each other, and conversation and discussion can be facilitated, and the content is distributed to the presentee. Can proceed.

さらに、本発明に係るプロジェクタは、
前記投影制御手段が、前記被検出体の動作の速度に応じて、前記所定のコンテンツの画像が移動する速度を決定するものが好ましい。
Furthermore, the projector according to the present invention is
It is preferable that the projection control unit determines a moving speed of the image of the predetermined content in accordance with a moving speed of the detected object.

さらにまた、本発明に係るプロジェクタは、
前記伝播波発生手段が、前記投影面に対して略平行に、かつ、前記投影面から略一定の距離で、前記伝播波を発するものが好ましい。
Furthermore, the projector according to the present invention is
Preferably, the propagation wave generating means emits the propagation wave substantially parallel to the projection plane and at a substantially constant distance from the projection plane.

このようにすることで、所定のコンテンツの画像に対する操作者、例えば、発表者の動作を的確に検出することができ、プレゼンテーションを円滑に進めることができる。   By doing in this way, the operation | movement of the operator with respect to the image of a predetermined content, for example, a presenter, can be detected exactly and a presentation can be advanced smoothly.

また、本発明に係るプロジェクタは、
前記所定のコンテンツの画像が、前記所定の停止位置で停止する態様で投影されたときに、前記被提示者が前記所定のコンテンツの内容を認識できる向きに前記所定のコンテンツの画像が投影されることが好ましい。
The projector according to the present invention is
When the image of the predetermined content is projected in such a manner as to stop at the predetermined stop position, the image of the predetermined content is projected in a direction in which the presentee can recognize the content of the predetermined content. It is preferable.

被提示者が複数人いる場合であっても、所定のコンテンツの画像は、被提示者が視認しやすい向きで提示されるので、プレゼンテーションを円滑に進めることができる。   Even in the case where there are a plurality of presentees, the image of the predetermined content is presented in a direction that is easily visible to the presentee, so that the presentation can proceed smoothly.

会議に参加している各人に資料を配付するようにコンテンツを提示でき、コンテンツを提示する態様を明示することによって、プレゼンテーションにおける演出を高めることができると共に、資料を配付するために会議を中断することなく、プレゼンテーションを円滑に進めることができ、取り扱いが容易なプロジェクタを提供することができる。   Content can be presented to each person participating in the conference so that the material can be distributed, and the presentation of the content can be clearly specified, and the presentation can be enhanced, and the conference can be interrupted to distribute the material. Therefore, it is possible to provide a projector that can smoothly advance the presentation and can be easily handled.

以下に、本発明の実施例について図面に基づいて説明する。
<<<<第1の実施の形態>>>>
<<<プロジェクタ10の概要>>>
図1は、本発明の第1の実施の形態のプロジェクタ10の概略を示す斜視図である。なお、図1は、プロジェクタ10を机12(設置台)の略中央に載置した状態を示す。図1に示すように、プロジェクタ10は、本体100と、支持体106と、ミラー108とを含む。
Embodiments of the present invention will be described below with reference to the drawings.
<<<< first embodiment >>>>
<<< Outline of Projector 10 >>>
FIG. 1 is a perspective view schematically showing the projector 10 according to the first embodiment of the present invention. FIG. 1 shows a state where the projector 10 is placed at the approximate center of the desk 12 (installation table). As shown in FIG. 1, the projector 10 includes a main body 100, a support body 106, and a mirror 108.

<本体100>
プロジェクタ10は、本体100を有する。本体100は、図1に示すように、略円柱状の形状又は略円筒状の形状を有している。本体100には、後述する照明光学系110と、結像光学系130と、検出装置140と、制御装置160とを有する。
本体100の上部の略中央部には、略円形の開口部102が形成され、開口部102に嵌め込まれるように、後述する投影レンズ132が設けられている。なお、投影レンズ132からは、後述するように、上向きに光が出射される。
<Main body 100>
The projector 10 has a main body 100. As shown in FIG. 1, the main body 100 has a substantially columnar shape or a substantially cylindrical shape. The main body 100 includes an illumination optical system 110, an imaging optical system 130, a detection device 140, and a control device 160, which will be described later.
A substantially circular opening 102 is formed at a substantially central portion of the upper portion of the main body 100, and a projection lens 132 described later is provided so as to be fitted into the opening 102. As will be described later, light is emitted upward from the projection lens 132.

<支持体106>
本体100の上部には、開口部102を周回するように周辺部104が形成されている。周辺部104の一部には、斜め上方に向かって突出するように2つの支持体106が設けられている。2つの支持体106の各々は、略棒状の形状を有している。なお、2つの支持体106は、本体100に固定的に設けても、着脱可能に設けてもよい。
なお、図1に示した例では、2つの棒状の支持体106を周辺部104に設ける構成としたが、支持体106の形状及び数や、支持体106を設ける位置は、これには限定されず、支持体106の影が、後述する投影像に形成されないように又は形成されにくいようにすればよい。
<Support 106>
A peripheral portion 104 is formed on the upper portion of the main body 100 so as to go around the opening 102. Two supports 106 are provided on a part of the peripheral portion 104 so as to protrude obliquely upward. Each of the two supports 106 has a substantially bar shape. Note that the two supports 106 may be fixedly provided on the main body 100 or detachably provided.
In the example shown in FIG. 1, two rod-like supports 106 are provided in the peripheral portion 104, but the shape and number of the supports 106 and the positions where the supports 106 are provided are limited to this. First, the shadow of the support 106 may be prevented from being formed or difficult to be formed in a projection image described later.

<ミラー108>
上述した2つの支持体106によって、ミラー108が支持されている。ミラー108は、略円板状の形状を有し、ミラー108の反射面が投影レンズ132と向かい合うように(図1の下向きになるように)配置されている。このようにすることで、投影レンズ132から出射された光は、ミラー108に向かって進み、ミラー108によって反射される。
<Mirror 108>
The mirror 108 is supported by the two supports 106 described above. The mirror 108 has a substantially disk shape, and is arranged so that the reflecting surface of the mirror 108 faces the projection lens 132 (being downward in FIG. 1). By doing so, the light emitted from the projection lens 132 travels toward the mirror 108 and is reflected by the mirror 108.

<机12(設置台)>
上述したようにプロジェクタ10は、机12に載置される。なお、図1では、机12の天板部のみを机12として示し、机12の脚部を省略して示した。机12は、略円板状の形状を有する。後述するように、プロジェクタ10からの投影像が、机12の表面に投影される。この机12は、プロジェクタ10を載置できるものであればよく、後述するように、机12の周辺領域には、プロジェクタ10からの投影像が投影される。このため、投影像が所望する形態で投影されるように、投影像が投影される領域は、凹凸のない平坦な形状になっている机にプロジェクタ10を載置するのが好ましい。さらに、プロジェクタ10は、机12の表面に位置する指などの被検出体B(図2参照)を検出する必要があるため、この点からも、表面が平坦な形状になっている机を用いるのが好ましい。
なお、図1に示した机12は、プロジェクタ10が載置される部分と、投影像が投影される部分とが同一面になっているが、これらは、同一面である必要はない。
<Desk 12 (installation table)>
As described above, the projector 10 is placed on the desk 12. In FIG. 1, only the top plate portion of the desk 12 is shown as the desk 12, and the legs of the desk 12 are omitted. The desk 12 has a substantially disk shape. As will be described later, a projection image from the projector 10 is projected onto the surface of the desk 12. The desk 12 only needs to be able to place the projector 10. As will be described later, the projection image from the projector 10 is projected onto the peripheral area of the desk 12. For this reason, it is preferable to place the projector 10 on a desk having a flat shape with no unevenness in the region where the projection image is projected so that the projection image is projected in a desired form. Further, since the projector 10 needs to detect a detection object B (see FIG. 2) such as a finger positioned on the surface of the desk 12, a desk having a flat surface is used from this point. Is preferred.
In the desk 12 shown in FIG. 1, the portion on which the projector 10 is placed and the portion on which the projection image is projected are on the same plane, but they need not be on the same plane.

<<<プロジェクタ10の構成>>>
図2は、プロジェクタ10の構成を示す断面図である。なお、この図2では、上述した2つの支持体106は省略した。上述したように、本体100には、照明光学系110と、結像光学系130と、検出装置140と、制御装置160とが設けられている。本体100の内部の上側には、照明光学系110や結像光学系130が位置づけられ、本体100の内部の下側には、検出装置140や制御装置160が位置づけられている。このように配置することで、本体100の上部から光を発することができると共に、照明光学系110から発せられる熱を的確に上方向に向かって放熱でき、照明光学系110から発せられる熱が、検出装置140や制御装置160に与える影響を少なくできる。
<<< Configuration of Projector 10 >>>
FIG. 2 is a cross-sectional view showing the configuration of the projector 10. In FIG. 2, the two supports 106 described above are omitted. As described above, the main body 100 is provided with the illumination optical system 110, the imaging optical system 130, the detection device 140, and the control device 160. The illumination optical system 110 and the imaging optical system 130 are positioned on the upper side inside the main body 100, and the detection device 140 and the control device 160 are positioned on the lower side inside the main body 100. By arranging in this manner, light can be emitted from the upper part of the main body 100, and heat generated from the illumination optical system 110 can be accurately radiated upward, and heat generated from the illumination optical system 110 is The influence on the detection device 140 and the control device 160 can be reduced.

<<照明光学系110(投影手段)>>
照明光学系110は、ランプ112と、反射鏡114と、フィルター116と、レンズ118とを含む。これらのランプ112と、反射鏡114と、フィルター116と、レンズ118とは、本体100の内側の所定の位置に設けられている。
<< Illumination optical system 110 (projection means) >>
The illumination optical system 110 includes a lamp 112, a reflecting mirror 114, a filter 116, and a lens 118. The lamp 112, the reflecting mirror 114, the filter 116, and the lens 118 are provided at predetermined positions inside the main body 100.

<ランプ112(光源)>
ランプ112は、所定の波長で所定の強度の光を発するもの、例えば、ハロゲンランプからなる。このランプ112は、発せられた光が、本体100の上方向に向かって進むように、本体100の内側の所定の位置に配置されている。
<Lamp 112 (light source)>
The lamp 112 is a lamp that emits light of a predetermined intensity at a predetermined wavelength, for example, a halogen lamp. The lamp 112 is disposed at a predetermined position inside the main body 100 so that the emitted light travels upward in the main body 100.

<反射鏡114>
ランプ112の周囲には、反射鏡114が設けられている。反射鏡114の反射面は、所定の曲面形状、例えば、放物面形状や楕円面形状を有する。反射鏡114は、反射鏡114の反射面の焦点の位置が、ランプ112のフィラメントの位置とおおよそ一致するように配置されている。反射鏡114は、ランプ112から発せられた光を、反射面で反射させて集光し、後述する光変調素子120に向うように導く。
<Reflector 114>
A reflecting mirror 114 is provided around the lamp 112. The reflecting surface of the reflecting mirror 114 has a predetermined curved surface shape, for example, a parabolic shape or an elliptical shape. The reflecting mirror 114 is arranged so that the position of the focal point of the reflecting surface of the reflecting mirror 114 approximately matches the position of the filament of the lamp 112. The reflecting mirror 114 reflects and collects the light emitted from the lamp 112 by the reflecting surface, and guides the light toward the light modulation element 120 described later.

<フィルター116>
反射鏡114によって反射された光の進行方向には、フィルター116が配置されている。フィルター116は、ランプ112から発せられた光のうち、光変調素子120を傷める可能性のある波長の光や、人体等に影響を及ぼす可能性のある波長の光を予め遮断する。
<Filter 116>
A filter 116 is disposed in the traveling direction of the light reflected by the reflecting mirror 114. The filter 116 blocks in advance light having a wavelength that may damage the light modulation element 120 or light having a wavelength that may affect the human body or the like from the light emitted from the lamp 112.

<レンズ118>
フィルター116を通過した光の進行方向には、レンズ118が配置されている。レンズ118は、フィルター116を通過した光を、平行光に近づけると共に、その強度を均一に近づけて、後述する光変調素子120に入射させる。
図2では、1枚の凸レンズをレンズ118として示したが、光変調素子120に入射させるために好ましい光に変換するものであれば、他の形状のレンズを用いても、複数のレンズ群をレンズ118として用いてもよい。
<Lens 118>
A lens 118 is arranged in the traveling direction of the light that has passed through the filter 116. The lens 118 makes the light that has passed through the filter 116 closer to parallel light, and the intensity thereof is made close to uniform, and enters the light modulation element 120 described later.
In FIG. 2, one convex lens is shown as the lens 118, but a plurality of lens groups can be formed even if lenses having other shapes are used as long as they can be converted into preferable light for entering the light modulation element 120. It may be used as the lens 118.

<光変調素子120>
レンズ118を通過した光の進行方向には、光変調素子120、例えば、液晶素子が配置されている。この光変調素子120は、後述する制御装置160から発せられる駆動信号によって制御される。光変調素子120は、この駆動信号に応じて、光変調素子120に至った光を、通過させるか又は遮断するかの動作をする。
この光変調素子120によって制御された光が、机12の表面に至ることによって、所望する投影像が、机12の表面に形成される。
<Light modulation element 120>
In the traveling direction of the light passing through the lens 118, a light modulation element 120, for example, a liquid crystal element is disposed. The light modulation element 120 is controlled by a drive signal emitted from a control device 160 described later. The light modulation element 120 operates to pass or block the light reaching the light modulation element 120 according to the drive signal.
The light controlled by the light modulation element 120 reaches the surface of the desk 12, so that a desired projection image is formed on the surface of the desk 12.

なお、光変調素子120は、液晶素子だけでなく、DMD(デジタル・マイクロミラー・デバイス)など、本体100から光を発するか否かの制御ができるものであればよい。
上述したランプ112と、反射鏡114と、フィルター116と、レンズ118とは、光変調素子120をなるべく明るくかつ強度を均一に近づけて照明できるように配置されている。また、必要に応じて、赤、緑、青の各色を切り換えて照射するためのカラーホイールや、赤、緑、青の各色に色分離する色分離部と光変調素子で変調さらに各色の光を合成する色合成部とを備えてもよい。
The light modulation element 120 is not limited to a liquid crystal element, but may be any element that can control whether light is emitted from the main body 100, such as a DMD (digital micromirror device).
The lamp 112, the reflecting mirror 114, the filter 116, and the lens 118 described above are arranged so that the light modulation element 120 can be illuminated as brightly as possible and with an intensity close to uniform. In addition, if necessary, a color wheel for switching between red, green, and blue colors for irradiation, a color separation unit that separates colors into red, green, and blue colors and a light modulation element, and further modulating the light of each color You may provide the color composition part to synthesize | combine.

<他の光学素子>
また、ランプ112から発せられた光の強度をより均一に近づけて光変調素子120に入射させるためのロッド等の光学素子を、照明光学系110にさらに加えてもよい。
<Other optical elements>
Further, an optical element such as a rod for making the intensity of light emitted from the lamp 112 closer to the light modulation element 120 and making it incident on the light modulation element 120 may be further added to the illumination optical system 110.

<<結像光学系130(投影手段)>> << Image forming optical system 130 (projection means) >>

<投影レンズ132>
上述した光変調素子120を通過した光の進行方向には、投影レンズ132が設けられている。上述したように、本体100の上部の略中央部には、略円形の開口部102が形成されており、この開口部102に、投影レンズ132が嵌設されている。投影レンズ132は、光変調素子120を通過した光が、所定の方向に向かって拡がるように変換する。この投影レンズ132によって、投影像を所望する大きさにして机12の表面に投影することができる。
<Projection lens 132>
A projection lens 132 is provided in the traveling direction of the light that has passed through the light modulation element 120 described above. As described above, a substantially circular opening 102 is formed at a substantially central portion of the upper portion of the main body 100, and the projection lens 132 is fitted into the opening 102. The projection lens 132 converts the light that has passed through the light modulation element 120 so as to spread in a predetermined direction. The projection lens 132 can project the projected image on the surface of the desk 12 in a desired size.

図2では、1枚の凸レンズを投影レンズ132として示したが、机12の表面に投影させるために好ましい光に変換するものであれば、他の形状のレンズを用いても、複数のレンズ群を投影レンズ132として用いてもよい。   In FIG. 2, one convex lens is shown as the projection lens 132, but a plurality of lens groups can be used even if lenses having other shapes are used as long as they can be converted into preferable light for projection onto the surface of the desk 12. May be used as the projection lens 132.

<ズーム機能>
さらに、結像光学系130に、さらなる可動レンズ群を設けて、ズーム機能を有するようにしてもよい。このようにすることで、机12の大きさに応じて、投影像を所望する大きさに拡大又は縮小することができる。
<Zoom function>
Furthermore, the imaging optical system 130 may be provided with a further movable lens group so as to have a zoom function. In this way, the projection image can be enlarged or reduced to a desired size according to the size of the desk 12.

なお、ズーム機能は、可動レンズ群のように光学的に拡大又は縮小するようにしても、後述する制御装置160における画像処理によって行ってもよい。   The zoom function may be optically enlarged or reduced like the movable lens group, or may be performed by image processing in the control device 160 described later.

<投影像の補正>
また、図2に示したように、光変調素子120を通過した光は、斜め上に向かって進むため、机12に投影される投影像が歪む場合がある。この歪みの補正は、補正するための光学素子を結像光学系130に設けて光学的に行っても、後述する制御装置160における画像処理によって行ってもよい。
<Correction of projected image>
In addition, as shown in FIG. 2, since the light that has passed through the light modulation element 120 travels obliquely upward, the projected image projected on the desk 12 may be distorted. The distortion correction may be performed optically by providing an optical element for correction in the imaging optical system 130 or may be performed by image processing in the control device 160 described later.

<<投影像の投影>>
光変調素子120を通過した光は、投影レンズ132を通過して、本体100の上方に向かって進む。上述したように、本体100の上方には、ミラー108が配置されており、本体100の上方に向かって進んだ光は、ミラー108によって反射されて斜め下方向に向かって進む。斜め下方向に向かって進んだ光は、机12の表面に至り、至った光によって投影像が形成される。なお、以下では、図2に示すように、机12の表面で投影像が形成された領域を投影領域A(なお、後述する図3(b)又は(c)に示す例では、投影領域A1〜A4)と称する。
<< Projection of projected image >>
The light that has passed through the light modulation element 120 passes through the projection lens 132 and travels upward of the main body 100. As described above, the mirror 108 is disposed above the main body 100, and the light traveling upward from the main body 100 is reflected by the mirror 108 and travels obliquely downward. The light traveling obliquely downward reaches the surface of the desk 12, and a projected image is formed by the reached light. In the following, as shown in FIG. 2, the area where the projection image is formed on the surface of the desk 12 is referred to as the projection area A (in the example shown in FIG. 3B or 3C described later, the projection area A1). ~ A4).

<<光変調素子120の数と投影像>>
図2に示した例では、2つの光変調素子120を示したが、光変調素子120の数は、これに限られず、想定される投影領域Aの大きさや机12の大きさや、要求されるであろう投影像の解像度などの種々の条件に応じて適宜定めればよい。
<< Number of Light Modulating Elements 120 and Projected Images >>
In the example shown in FIG. 2, the two light modulation elements 120 are shown. However, the number of the light modulation elements 120 is not limited to this, and the expected size of the projection area A, the size of the desk 12, or the like is required. What is necessary is just to determine suitably according to various conditions, such as the resolution of the projection image which will be.

以下では、図3(a)〜(c)に基づいて、液晶の数と投影領域との関係について説明する。
図3(a)は、1つの光変調素子120を用いて、机12に1つの投影領域Aを形成する場合の例を示す。このように、光変調素子120を1つ用いた場合には、机12の表面のおおよそ全体を覆える程度の大きさの投影領域Aにする必要がある。このようにした場合には、1つの光変調素子120のための1つの表示用メモリ174を用いればよいので、構成を簡素にでき、制御処理を容易にすることができる。なお、表示用メモリ174については、後述する。
Below, based on FIG. 3 (a)-(c), the relationship between the number of liquid crystals and a projection area | region is demonstrated.
FIG. 3A shows an example in which one projection region A is formed on the desk 12 using one light modulation element 120. Thus, when one light modulation element 120 is used, it is necessary to make the projection area A large enough to cover the entire surface of the desk 12. In such a case, since one display memory 174 for one light modulation element 120 may be used, the configuration can be simplified and the control process can be facilitated. The display memory 174 will be described later.

図3(b)は、4つの光変調素子120を用いて、机12に4つの投影領域A1〜A4を形成する場合の例を示す。このように、光変調素子120を4つ用いた場合には、第1の光変調素子120を、投影領域A1に対応させ、第2の光変調素子120を、投影領域A2に対応させ、第3の光変調素子120を、投影領域A3に対応させ、第4の光変調素子120を、投影領域A4に対応させることによって、机12の表面のおおよそ全体を覆える程度の大きさの投影領域を形成することができる。このようにした場合には、投影領域ごとに、1つ光変調素子120と1つの表示用メモリ174とを用いることができるので、投影像の解像度を高めることができ、詳密な画像からなるコンテンツを投影像として投影するような場合であっても、鮮明に表示することができる。   FIG. 3B shows an example in which four projection regions A <b> 1 to A <b> 4 are formed on the desk 12 using four light modulation elements 120. As described above, when four light modulation elements 120 are used, the first light modulation element 120 corresponds to the projection area A1, the second light modulation element 120 corresponds to the projection area A2, and the first light modulation element 120 corresponds to the projection area A2. The third light modulation element 120 is made to correspond to the projection area A3, and the fourth light modulation element 120 is made to correspond to the projection area A4, so that the projection area is large enough to cover the entire surface of the desk 12. Can be formed. In such a case, since one light modulation element 120 and one display memory 174 can be used for each projection region, the resolution of the projection image can be increased and the image consists of detailed images. Even when the content is projected as a projected image, it can be clearly displayed.

図3(c)も、4つの光変調素子120を用いて、机12に4つの投影領域A1’〜A4’を形成する場合の例を示す。図3(b)に示した例では、4つの投影領域A1〜A4は、全て長方形であり、机12の表面を十分に活用できない領域が生じたが、図3(c)に示した例では、4つの投影領域A1’〜A4’は、全てが台形であり、机12の表面を十分に活用して、切れ目のないより広い投影領域を形成することができる。   3C also shows an example in which four projection regions A1 'to A4' are formed on the desk 12 using the four light modulation elements 120. FIG. In the example shown in FIG. 3B, the four projection areas A1 to A4 are all rectangular, and there is an area where the surface of the desk 12 cannot be fully utilized. In the example shown in FIG. All of the four projection areas A1 ′ to A4 ′ are trapezoidal, and the surface of the desk 12 can be fully utilized to form a wider projection area without any breaks.

なお、図3(b)又は(c)に示した例では、隣り合う投影領域に跨るように投影像が投影される場合がある。このような場合に、隣り合う投影領域の境界付近で、投影像が、離れて投影されたり、重畳して投影されたり、ずれて投影されたりしないようにするために、光変調素子120や投影レンズ132等の光学素子は、所定の位置に予め調整されている。さらに、4つの表示用メモリ174のアドレスは、隣り合う投影領域同士で対応するように予め定められている。   In the example shown in FIG. 3B or 3C, a projected image may be projected so as to straddle adjacent projection regions. In such a case, in order to prevent the projected image from being projected apart, projected in a superimposed manner, or projected out of position near the boundary between adjacent projection regions, The optical element such as the lens 132 is adjusted in advance to a predetermined position. Further, the addresses of the four display memories 174 are determined in advance so as to correspond to adjacent projection areas.

さらに、光変調素子120が複数ある場合には、上述したランプ112も光変調素子120ごとに設けるのが好ましい。このようにすることで、光変調素子120を均一に近い強度で照明しやすくなり、均一に近い明るさで投影像を投影することができる。   Further, when there are a plurality of light modulation elements 120, it is preferable to provide the lamp 112 described above for each light modulation element 120. By doing so, it becomes easy to illuminate the light modulation element 120 with nearly uniform intensity, and a projected image can be projected with nearly uniform brightness.

<<検出装置140(検出手段)>>
検出装置140は、赤外線発生装置141と被検出体検出装置150とからなる。
<< Detection device 140 (detection means) >>
The detection device 140 includes an infrared generation device 141 and a detected object detection device 150.

<赤外線発生装置141(伝播波発生手段)>
赤外線発生装置141は、赤外線発生部142と、可動ミラー144と、レンズ146とを含む。赤外線発生装置141は、図2に示すように、本体100の下部に配置されている。図4(a)は、赤外線発生装置141が位置する箇所で、本体100を水平な面で切断した断面図である。図4(a)に示すように、本体100では、1つの赤外線発生部142と、1つの可動ミラー144と、1つのレンズ146とが、一組の赤外線発生装置となり、四組の赤外線発生装置が赤外線発生装置141として設けられている。なお、以下では、一組の赤外線発生装置について説明する。
<Infrared generator 141 (propagating wave generating means)>
The infrared generator 141 includes an infrared generator 142, a movable mirror 144, and a lens 146. As shown in FIG. 2, the infrared generator 141 is disposed at the lower part of the main body 100. FIG. 4A is a cross-sectional view of the main body 100 cut along a horizontal surface at a position where the infrared ray generator 141 is located. As shown in FIG. 4A, in the main body 100, one infrared generator 142, one movable mirror 144, and one lens 146 constitute a set of infrared generators, and four sets of infrared generators. Is provided as an infrared generator 141. In the following, a set of infrared generators will be described.

赤外線発生部142からは、所定の波長の赤外線が発せられる。赤外線発生部142から発せられた赤外線の進行方向には、可動ミラー144が設けられている。可動ミラー144は、電動モータ(図示せず)に連結されて連動できるようにされている。電動モータは、略垂直な軸を中心に回転する。電動モータを所定の周期で正方向又は逆方向に交互に回転させることによって、可動ミラー144も、正方向又は逆方向に交互に、所定の角度範囲内で、略垂直な軸を中心に所定の周期で回転する(図4(a)の矢印参照)。可動ミラー144が所定の角度範囲内で回転することによって、赤外線発生部142から発せられた赤外線は、可動ミラー144によって反射されると共に、反射された後の進行方向が徐々に変わっていく。このようにすることで、一組の赤外線発生装置によって、所定の角度範囲に亘って赤外線を水平方向に走査することができる。   Infrared rays having a predetermined wavelength are emitted from the infrared ray generator 142. A movable mirror 144 is provided in the traveling direction of infrared rays emitted from the infrared ray generator 142. The movable mirror 144 is connected to an electric motor (not shown) so as to be interlocked. The electric motor rotates about a substantially vertical axis. By alternately rotating the electric motor in the forward direction or the reverse direction at a predetermined cycle, the movable mirror 144 is also alternately moved in the forward direction or the reverse direction within a predetermined angle range with a predetermined vertical axis as a center. It rotates with a period (see the arrow in FIG. 4A). As the movable mirror 144 rotates within a predetermined angle range, infrared rays emitted from the infrared ray generator 142 are reflected by the movable mirror 144 and the traveling direction after being reflected gradually changes. By doing in this way, infrared rays can be scanned in a horizontal direction over a predetermined angle range by a set of infrared ray generators.

可動ミラー144によって反射された赤外線の進行方向には、レンズ146が配置されている。レンズ146は、赤外線が所定の角度範囲内に亘って走査されたときに、略90度の範囲内に亘って走査されるように、赤外線の進行方向を変換するためのものである。図4(a)に示すように、本体100の側部には、開口148が形成されている。開口148は、レンズ146を通過した赤外線の進行方向に位置している。開口148は、水平方向に長尺な形状を有する。レンズ146を通過した赤外線は、開口148を介して、本体100の外に向かって発せられる。上述したように、赤外線は、可動ミラー144によって反射されるので、略90度の範囲内に亘って水平方向に走査されるように、本体100の外に発せられる。   A lens 146 is arranged in the traveling direction of the infrared light reflected by the movable mirror 144. The lens 146 is for changing the traveling direction of the infrared rays so that the infrared rays are scanned over a range of about 90 degrees when the infrared rays are scanned over a predetermined angular range. As shown in FIG. 4A, an opening 148 is formed in the side portion of the main body 100. The opening 148 is located in the traveling direction of infrared rays that have passed through the lens 146. The opening 148 has an elongated shape in the horizontal direction. The infrared light that has passed through the lens 146 is emitted toward the outside of the main body 100 through the opening 148. As described above, since infrared rays are reflected by the movable mirror 144, the infrared rays are emitted outside the main body 100 so as to be scanned in the horizontal direction over a range of approximately 90 degrees.

上述したように、本体100には、四組の赤外線発生装置が赤外線発生装置141として設けられている。赤外線発生装置を4つ用いることによって、360度の範囲で赤外線を走査することができるので、本体100の周囲に位置する被検出体Bに対して的確に赤外線を照射することができる。   As described above, the main body 100 is provided with four sets of infrared generators as the infrared generator 141. By using four infrared ray generators, infrared rays can be scanned in a range of 360 degrees, and therefore, the infrared rays can be accurately irradiated to the detection object B located around the main body 100.

本体100の外に発せられた赤外線は、机12の表面に対して略平行に、かつ、机12の表面から近傍、例えば、机12の表面から数ミリ程度の距離で進行する。後述するように、赤外線を発することで、被検出体Bを検出する。この被検出体Bは、机12に周りに座っている人の人体の一部、例えば指や、机12に周りに座っている人が手に持っている支持棒やスプーンや、人が座っている前の机12に置いてある支持棒やスプーンである。上述したように、机12の表面から1ないし2ミリメートル程度の距離で進行するように赤外線を発することで、被検出体Bが、机12の表面に接していない場合でも、被検出体Bが、机12の表面にある程度近づけば、被検出体Bを検出することができる。このようにすることで、操作に気を配らずに動作させることができ、円滑にプレゼンテーションを進めることができる。   Infrared rays emitted outside the main body 100 travel approximately parallel to the surface of the desk 12 and in the vicinity of the surface of the desk 12, for example, at a distance of several millimeters from the surface of the desk 12. As described later, the detection object B is detected by emitting infrared rays. This detected object B is a part of a human body sitting around the desk 12, such as a finger, a support bar or spoon held by a person sitting around the desk 12, or a person sitting on the desk B. It is a support bar and a spoon placed on the desk 12 in front of the machine. As described above, even if the detected object B is not in contact with the surface of the desk 12 by emitting infrared rays so as to travel at a distance of about 1 to 2 millimeters from the surface of the desk 12, the detected object B is If the surface of the desk 12 is brought close to a certain extent, the detection object B can be detected. By doing in this way, it can be operated without paying attention to the operation, and the presentation can proceed smoothly.

<被検出体検出装置150(反射波散乱波検出手段)>
被検出体検出装置150は、図2に示すように、本体100の下部の赤外線発生装置141の上側に配置されている。図4(b)は、被検出体検出装置150が位置する箇所で、本体100を水平面で切断した断面図である。図4(b)に示すように、1つのレンズ152と、1つの撮像素子154とが、一組の被検出体検出装置となり、四組の被検出体検出装置が被検出体検出装置150として設けられている。このようにすることで、四組の赤外線発生装置の各々は、上述した四組の被検出体検出装置のいずれかと対応するように配置されている。このように構成したことで、赤外線発生装置の各々から発せられた赤外線は、被検出体によって反射された後、対応した被検出体検出装置によって検出することができる。なお、以下では、一組の被検出体検出装置について説明する。
<Detection object detection device 150 (reflected wave scattered wave detection means)>
As illustrated in FIG. 2, the detection target detection device 150 is disposed on the upper side of the infrared generation device 141 below the main body 100. FIG. 4B is a cross-sectional view of the main body 100 cut along a horizontal plane at a position where the detection target detection device 150 is located. As shown in FIG. 4B, one lens 152 and one image sensor 154 constitute a set of detected object detection devices, and four sets of detected object detection devices serve as detected object detection devices 150. Is provided. By doing in this way, each of the four sets of infrared ray generators is arranged so as to correspond to one of the four sets of detected object detection devices described above. With this configuration, the infrared rays emitted from each of the infrared ray generators can be detected by the corresponding detected body detection device after being reflected by the detected body. In the following, a set of detected object detection devices will be described.

図4(b)に示すように、本体100の側部には、開口156が形成されている。開口156は、後述するレンズ152の大きさと形状に応じた大きさと形状とを有する。この開口156の近くには、図4(b)に示すように、レンズ152が配置されている。レンズ152の近くには、撮像素子154、例えば、CCDイメージセンサーや、CMOSイメージセンサーが配置されている。   As shown in FIG. 4B, an opening 156 is formed in the side portion of the main body 100. The opening 156 has a size and a shape corresponding to the size and shape of a lens 152 described later. A lens 152 is disposed near the opening 156 as shown in FIG. In the vicinity of the lens 152, an image sensor 154, for example, a CCD image sensor or a CMOS image sensor is arranged.

上述した開口148から発せられた赤外線は、被検出体B(図2参照)、例えば、操作者の指に至って反射又は散乱される。被検出体Bによって散乱された赤外線は、開口156に向かって進む。開口156を通過した赤外線は、レンズ152に入射し、所定の方向に向きを変えて進む。レンズ152によって進行方向を変えられた赤外線は、撮像素子154に入射する。撮像素子154に赤外線が入射することで、被検出体Bの像を得ることができる。   The infrared rays emitted from the opening 148 described above are reflected or scattered by the detection object B (see FIG. 2), for example, the operator's finger. The infrared light scattered by the detection object B travels toward the opening 156. The infrared rays that have passed through the opening 156 are incident on the lens 152 and travel in a predetermined direction. The infrared rays whose traveling direction is changed by the lens 152 are incident on the image sensor 154. When infrared rays are incident on the image sensor 154, an image of the detection object B can be obtained.

上述したように、本体100には、四組の被検出体検出装置が被検出体検出装置150として設けられている。被検出体検出装置を4つ用いることによって、360度の範囲で検出することができるので、本体100の周囲に位置する被検出体Bを的確に検出することができる。   As described above, the body 100 is provided with four sets of detected object detection devices as the detected object detection device 150. By using four to-be-detected object detection apparatuses, it is possible to detect within a range of 360 degrees, so that the to-be-detected object B located around the main body 100 can be accurately detected.

<<制御装置160(投影制御手段、検出判別手段)>>
図2に示すように、制御装置160は、本体100の下部の赤外線発生装置141の上側に配置されている。図5は、制御装置160の概略を示すブロック図である。なお、図5には、制御装置160の構成を明確にするために、電気的には接続されていないが、照明光学系110及び結像光学系130も示した。
<< Control Device 160 (Projection Control Unit, Detection Discrimination Unit) >>
As shown in FIG. 2, the control device 160 is disposed on the upper side of the infrared generation device 141 at the bottom of the main body 100. FIG. 5 is a block diagram illustrating an outline of the control device 160. FIG. 5 also shows the illumination optical system 110 and the imaging optical system 130, though not electrically connected, in order to clarify the configuration of the control device 160.

制御装置160は、演算等を行うCPU(中央処理装置)162、ROM(リードオンリーメモリー)164、及びRAM(ランダムアクセスメモリー)166を含む。これらのCPU162、ROM164、RAM166は、入出力バス168によって電気的に接続されており、データ信号やアドレス信号が入出力できるようになされている。   The control device 160 includes a CPU (Central Processing Unit) 162 that performs computations, a ROM (Read Only Memory) 164, and a RAM (Random Access Memory) 166. The CPU 162, ROM 164, and RAM 166 are electrically connected by an input / output bus 168 so that data signals and address signals can be input / output.

CPU162は、後述する図6〜図8に示す制御用プログラムを実行する。ROM164には、この制御用プログラムが予め記憶されている。また、RAM166には、制御用プログラムが使用する変数の値や各種のデータが、制御用プログラムが実行されるに従って記憶される。   The CPU 162 executes a control program shown in FIGS. The ROM 164 stores this control program in advance. The RAM 166 stores variable values and various data used by the control program as the control program is executed.

制御装置160は、ファイル記憶手段170を含む。ファイル記憶手段170も入出力バス168に電気的に接続されている。ファイル記憶手段170は、内部メモリのほか、外部記憶手段、例えば、ハードディスク、CD、DVD、USB等の何らかの記憶手段であればよい。ファイル記憶手段170には、投影像として投影される各種のコンテンツが記憶される。コンテンツは、文書作成ソフトウエアで作成されたデータ、表計算ソフトウエアで作成されたデータ、プレゼンテーションソフトウエアで作成されたデータ、画像データ、動画データ等のプレゼンテーションとして提示できる各種のデータであればよい。   The control device 160 includes file storage means 170. The file storage unit 170 is also electrically connected to the input / output bus 168. The file storage means 170 may be any storage means other than the internal memory, such as an external storage means, for example, a hard disk, CD, DVD, or USB. The file storage unit 170 stores various contents projected as a projection image. The content may be any data that can be presented as a presentation such as data created by document creation software, data created by spreadsheet software, data created by presentation software, image data, video data, etc. .

上述した検出装置140も制御装置160の入出力バス168に電気的に接続されている。具体的には、検出装置140の撮像素子154がインターフェース回路(図示せず)を介して入出力バス168に電気的に接続されている。このようにすることで、撮像素子154から発せられた出力信号が入出力バス168に供給される。CPU162は、この出力信号を得ることで、被検出体の像を取得できる。   The above-described detection device 140 is also electrically connected to the input / output bus 168 of the control device 160. Specifically, the image sensor 154 of the detection device 140 is electrically connected to the input / output bus 168 via an interface circuit (not shown). In this way, the output signal emitted from the image sensor 154 is supplied to the input / output bus 168. The CPU 162 can acquire an image of the detected object by obtaining this output signal.

制御装置160は、ランプ制御回路172を含む。ランプ制御回路172も入出力バス168に電気的に接続されている。ランプ制御回路172には、上述したランプ112が電気的に接続されている。CPU162から発せられた制御信号がランプ制御回路172に供給されることによって、ランプ制御回路172は、供給された制御信号に応じて、ランプ112の点灯や、消灯や、発光強度などを制御する。   The control device 160 includes a lamp control circuit 172. The lamp control circuit 172 is also electrically connected to the input / output bus 168. The lamp 112 described above is electrically connected to the lamp control circuit 172. When the control signal generated from the CPU 162 is supplied to the lamp control circuit 172, the lamp control circuit 172 controls lighting, extinguishing, light emission intensity, and the like of the lamp 112 according to the supplied control signal.

制御装置160は、表示用メモリ174を含む。表示用メモリ174も入出力バス168に電気的に接続されている。表示用メモリ174には、上述したファイル記憶手段170に記憶されている各種のコンテンツのデータが、CPU162から発せられた制御信号に応じて、表示用のデータに変換されて記憶される。   The control device 160 includes a display memory 174. The display memory 174 is also electrically connected to the input / output bus 168. In the display memory 174, data of various contents stored in the file storage unit 170 described above is converted into display data in accordance with a control signal issued from the CPU 162 and stored.

制御装置160は、画像処理回路176を含む。画像処理回路176も入出力バス168に電気的に接続されている。画像処理回路176には、上述した表示用メモリ174と光変調素子120とが電気的に接続されている。画像処理回路176は、CPU162から発せられた制御信号に応じて、表示用メモリ174に記憶されているデータに基づいて、光変調素子120を駆動するための駆動信号を光変調素子120に発する。上述したように、光変調素子120は、画像処理回路176から供給された駆動信号に応じて、光変調素子120に至った光を、通過させるか又は遮断するかの動作をする。このようにすることで、ファイル記憶手段170に記憶されている各種のコンテンツを投影像として、机12の表面に投影することができる。   The control device 160 includes an image processing circuit 176. The image processing circuit 176 is also electrically connected to the input / output bus 168. The above-described display memory 174 and the light modulation element 120 are electrically connected to the image processing circuit 176. The image processing circuit 176 issues a drive signal for driving the light modulation element 120 to the light modulation element 120 based on the data stored in the display memory 174 in accordance with the control signal issued from the CPU 162. As described above, the light modulation element 120 operates to pass or block the light reaching the light modulation element 120 in accordance with the drive signal supplied from the image processing circuit 176. In this way, various contents stored in the file storage unit 170 can be projected onto the surface of the desk 12 as projection images.

なお、上述した図5に示したブロック図では、ランプ112と、ランプ制御回路172と、表示用メモリ174と、画像処理回路176と、光変調素子120とを1つずつ示したが、光変調素子120を複数にした場合には、これらのランプ112とランプ制御回路172と表示用メモリ174と画像処理回路176とを、光変調素子120の数に応じて複数にするのが好ましい。このようにすることで、投影領域を大きくでき、投影像の解像度を高めることができるので、詳密な画像からなるコンテンツを投影像として投影するような場合であっても、鮮明に表示することができる。   In the block diagram shown in FIG. 5, the lamp 112, the lamp control circuit 172, the display memory 174, the image processing circuit 176, and the light modulation element 120 are shown one by one. When a plurality of elements 120 are used, it is preferable to use a plurality of these lamps 112, lamp control circuits 172, display memories 174, and image processing circuits 176 according to the number of light modulation elements 120. By doing so, the projection area can be enlarged and the resolution of the projected image can be increased, so that even when content consisting of detailed images is projected as a projected image, it can be displayed clearly. Can do.

なお、表示用メモリ174を複数にした場合には、隣り合う投影領域の境界で、整合した投影像を投影するために、複数の表示用メモリ174のアドレスは、隣り合う投影領域同士で対応するように予め定められている。
図5に示すように、ランプ制御回路172によって制御されるランプ112から発せられた光は、上述した照明光学系110に導かれる。照明光学系100に導かれた光は、所望する変換されて、画像処理回路176によって制御される光変調素子120に導かれる。光変調素子120に導かれた光は、変調されて、上述した結合光学系130に導かれる。なお、図5においては、導かれる光を破線の矢印で示した。
When a plurality of display memories 174 are provided, the addresses of the plurality of display memories 174 correspond to each other in order to project a matched projection image at the boundary between adjacent projection areas. Is determined in advance.
As shown in FIG. 5, the light emitted from the lamp 112 controlled by the lamp control circuit 172 is guided to the illumination optical system 110 described above. The light guided to the illumination optical system 100 is converted as desired and guided to the light modulation element 120 controlled by the image processing circuit 176. The light guided to the light modulation element 120 is modulated and guided to the coupling optical system 130 described above. In FIG. 5, the guided light is indicated by a dashed arrow.

<<プロジェクタ10の制御>>
以下に、制御装置160において行われるプロジェクタ10の制御について説明する。図6〜図8は、上述したROM164に予め記憶されているプログラムを示すフローチャートである。なお、図6〜図8に示すフローチャートは、制御装置160における制御処理を実行するための1つの例を示したにすぎず、この処理手順には限られない。
<< Control of Projector 10 >>
Hereinafter, control of the projector 10 performed in the control device 160 will be described. 6 to 8 are flowcharts showing programs stored in advance in the ROM 164 described above. Note that the flowcharts shown in FIGS. 6 to 8 show only one example for executing the control processing in the control device 160, and are not limited to this processing procedure.

<起動・終了処理>
図6は、プロジェクタ10の起動処理及び終了処理を制御するプログラムを示すフローチャートである。このプログラムは、プロジェクタ10の本体100に設けられている電源スイッチ(図示せず)が操作者によって操作されたときに呼び出されて実行されるプログラムである。
<Start / end processing>
FIG. 6 is a flowchart showing a program for controlling the startup process and the termination process of the projector 10. This program is called and executed when a power switch (not shown) provided in the main body 100 of the projector 10 is operated by an operator.

最初に、起動処理を行う(ステップS11)。この起動処理が行われることによって、本体100においては、制御に用いられる種々の変数の初期化等の起動処理を終えて、プロジェクタ10は定常動作をする。   First, a starting process is performed (step S11). By performing the activation process, the main body 100 finishes the activation process such as initialization of various variables used for control, and the projector 10 performs a steady operation.

次に、上述した検出装置140から発せられた信号を検出して、机12の周りに存在する人の位置を、被検出体Bの位置として取得する(ステップS12)。なお、人の位置の検出に関しては、後述する図7のステップS31の処理で説明する。   Next, the signal emitted from the detection device 140 described above is detected, and the position of a person existing around the desk 12 is acquired as the position of the detection object B (step S12). The detection of the position of a person will be described in the process of step S31 in FIG.

次いで、プロジェクタ10の本体100に設けられている操作パネル(図示せず)が操作者によって操作されたか否かを判断する(ステップS13)。操作パネルが操作者によって操作されたと判別したとき(YES)には、その操作内容を反映させた制御を行う(ステップS14)。   Next, it is determined whether or not an operation panel (not shown) provided on the main body 100 of the projector 10 has been operated by the operator (step S13). When it is determined that the operation panel has been operated by the operator (YES), control reflecting the operation content is performed (step S14).

一方、操作パネルが操作者によって操作されていない(NO)と判別したとき、又はステップS14の処理を実行したときには、プロジェクタ10の本体100に設けられている表示パネル(図示せず)に所定の表示を行う(ステップS15)。   On the other hand, when it is determined that the operation panel is not operated by the operator (NO), or when the process of step S14 is executed, a predetermined value is displayed on a display panel (not shown) provided in the main body 100 of the projector 10. Display is performed (step S15).

次に、操作者によって電源スイッチが操作されたか否かを判断する(ステップS16)。電源スイッチが操作されていないと判別したとき(NO)には、上述したステップS13に処理を戻す。一方、電源スイッチが操作されたと判別したとき(YES)には、終了処理を行い(ステップS17)、本プログラムを終了する。このステップS17の終了処理は、制御に用いるプログラムの変数の値等、次に起動されたときに必要な情報を記憶させておく処理などがある。   Next, it is determined whether or not the power switch has been operated by the operator (step S16). When it is determined that the power switch is not operated (NO), the process returns to step S13 described above. On the other hand, when it is determined that the power switch has been operated (YES), an end process is performed (step S17), and this program ends. The termination process in step S17 includes a process for storing information necessary for the next activation, such as a variable value of a program used for control.

<被検出体検出処理>
図7は、検出装置140で被検出体を検出する処理を実行するサブルーチンを示すフローチャートである。なお、この図7に示す処理は、CPU162によって、所定のタイミングごとに呼び出されて実行されるものとする。
<Detection object detection process>
FIG. 7 is a flowchart showing a subroutine for executing a process of detecting the detection object by the detection device 140. Note that the processing shown in FIG. 7 is called and executed by the CPU 162 at predetermined timings.

最初に、上述した赤外線発生装置141を駆動して、赤外線の走査を開始する(ステップS21)。   First, the infrared ray generator 141 described above is driven to start infrared scanning (step S21).

次に、撮像素子154から出力信号が発せられたか否かを判断する(ステップS22)。上述したように、被検出体Bが存在する場合には、赤外線発生装置141から発せられた赤外線は、被検出体Bによって反射されて、撮像素子154によって、被検出体Bが撮像され、被検出体Bの検出像を示す信号が、撮像素子154から出力される。したがって、撮像素子154から出力信号が発せられていれば、何らかの被検出体Bが存在し、撮像素子154から出力信号が発せられていなければ、何らかの被検出体Bが存在しないことになる。上述したステップS22の判断処理は、撮像素子154から出力信号の有無を検出することで、被検出体Bが存在するかしないかを判断する処理である。   Next, it is determined whether or not an output signal is issued from the image sensor 154 (step S22). As described above, when the detection target B exists, the infrared rays emitted from the infrared generation device 141 are reflected by the detection target B, and the detection target B is imaged by the imaging element 154. A signal indicating the detection image of the detection body B is output from the image sensor 154. Therefore, if the output signal is emitted from the image sensor 154, some detected object B exists. If no output signal is emitted from the image sensor 154, no detected object B exists. The determination process of step S22 described above is a process of determining whether or not the detection object B exists by detecting the presence or absence of an output signal from the image sensor 154.

上述したステップS22の判断処理で、撮像素子154から出力信号が発せられていないと判別したとき(NO)、すなわち、被検出体Bが存在しないと判別したときには、処理をステップS22に戻す。   When it is determined that the output signal is not emitted from the image sensor 154 in the determination process of step S22 described above (NO), that is, when it is determined that the detection object B does not exist, the process returns to step S22.

一方、ステップS22の判断処理で、撮像素子154から出力信号が発せられていると判別したとき(YES)、すなわち、被検出体Bが存在すると判別したときには、撮像素子154から出力された信号に基づいて、被検出体Bの検出像を得て、得られた被検出体Bの検出像から、被検出体Bの位置(x1、y1)及び被検出体Bの幅を算出する(ステップS23)。   On the other hand, when it is determined in the determination process in step S22 that an output signal is emitted from the image sensor 154 (YES), that is, when it is determined that the detection target B exists, the signal output from the image sensor 154 is changed. Based on this, a detection image of the detection target B is obtained, and the position (x1, y1) of the detection target B and the width of the detection target B are calculated from the detection image of the detection target B obtained (step S23). ).

次に、ステップS23で算出した被検出体Bの幅が所定の値Dより小さいか否かを判断する(ステップS24)。ステップS23で算出した被検出体Bの幅が広い場合には、被検出体Bは、人の胴体そのものであると判別し、被検出体Bの幅が狭い場合には、被検出体Bは、人の体の一部、例えば、指などであると判別する。したがって、上述した所定の値Dを、被検出体Bが人の胴体そのものであるのか、人体の一部であるのかを判別できる値にすればよい。この所定の値Dは、このような観点から定められたもので、ROM164に予め記憶されており、ステップS24の判断をするときに、ROM164から読み出される。   Next, it is determined whether or not the width of the detection object B calculated in step S23 is smaller than a predetermined value D (step S24). If the detected object B calculated in step S23 is wide, it is determined that the detected object B is a human torso itself. If the detected object B is narrow, the detected object B is It is determined that it is a part of a human body, for example, a finger. Therefore, the predetermined value D described above may be set to a value that can determine whether the detected object B is the human torso itself or a part of the human body. The predetermined value D is determined from such a viewpoint and is stored in the ROM 164 in advance, and is read from the ROM 164 when the determination in step S24 is made.

なお、上述した例では、所定の値Dによって、人の胴体そのものであるか、人の体の一部であるかを判別したが、本サブルーチンによって取得すべき情報は、机12に周りに座っている人(被提示者)のおおよその位置と、机12に周りに座っている人(操作者、発表者)の動作とであればよい。したがって、これらの情報を取得できるように、所定の値Dによって判別できればよい。   In the above-described example, whether the human torso itself or a part of the human body is determined based on the predetermined value D, but the information to be acquired by this subroutine is sitting around the desk 12. What is necessary is just the approximate position of the person (the person to be presented) and the movement of the person (operator, presenter) sitting around the desk 12. Therefore, what is necessary is just to be able to discriminate | determine by the predetermined value D so that such information can be acquired.

例えば、机12に周りに座っている人のおおよその位置は、上述したように、机12に周りに座っている人の胴体そのものの位置の他に、机12に周りに座っている人が机12に置いているコーヒーカップや携帯電話などの位置であってもよい。この場合、赤外線の照射範囲や撮像素子による検出範囲をほぼ投影範囲と一致させればよい。これにより投影範囲外の動作を検出する必要がなくなり処理量を軽減できる。同様に、机12に周りに座っている人の動作は、上述したように、人体の一部の位置に基づくものの他に、机12に周りに座っている人が手に持っている支持棒やスプーンなどの位置に基づくものであってもよい。上述した所定の値Dは、このような観点からも定めておけばよい。   For example, as described above, the approximate position of the person sitting around the desk 12 is determined by the person sitting around the desk 12 in addition to the position of the torso of the person sitting around the desk 12. It may be the position of a coffee cup or a mobile phone placed on the desk 12. In this case, the infrared irradiation range and the detection range by the imaging device may be substantially matched with the projection range. This eliminates the need to detect an operation outside the projection range, thereby reducing the amount of processing. Similarly, as described above, the movement of the person sitting around the desk 12 is based on the position of a part of the human body, as well as the support bar held by the person sitting around the desk 12. It may be based on the position of a spoon or the like. The predetermined value D described above may be determined from such a viewpoint.

また、以下では、ステップS23の処理によって算出された被検出体Bの位置(x1、y1)を、今回位置(x1、y1)と称する。また、前回、本サブルーチンが呼び出されて実行されたときに、ステップS23の処理によって、算出された被検出体Bの位置を、前回位置(x0、y0)と称する。なお、後述するように、前回位置(x0、y0)は、前回、本サブルーチンが呼び出されて実行されたときに、ステップS29の処理によって、RAM166に記憶されている。   Hereinafter, the position (x1, y1) of the detection object B calculated by the process of step S23 is referred to as a current position (x1, y1). In addition, when the present subroutine is called and executed last time, the position of the detected object B calculated by the process of step S23 is referred to as a previous position (x0, y0). As will be described later, the previous position (x0, y0) is stored in the RAM 166 by the process of step S29 when this subroutine was called and executed last time.

上述したステップS24の判断処理で、被検出体Bの像の幅が所定の値Dより小さいと判別したとき(YES)、すなわち、被検出体Bが人体の一部であると判別したときには、今回位置(x1、y1)が、前回位置(x0、y0)に近いか否かを判断する(ステップS25)。この判断は、例えば、x0−Δx≦x1≦x0+Δx、かつ、y0−Δy≦y1≦y0+Δyを満たすか否かで判断すればよい。ここで、Δx及びΔyは、予め定められた値であり、ROM164に記憶されている。   When it is determined in step S24 described above that the width of the image of the detection object B is smaller than the predetermined value D (YES), that is, when it is determined that the detection object B is a part of the human body, It is determined whether or not the current position (x1, y1) is close to the previous position (x0, y0) (step S25). This determination may be made based on, for example, whether x0−Δx ≦ x1 ≦ x0 + Δx and y0−Δy ≦ y1 ≦ y0 + Δy are satisfied. Here, Δx and Δy are predetermined values and are stored in the ROM 164.

このステップS25の判断処理を行うことで、今回位置(x1、y1)の被検出体Bと、前回位置(x0、y0)の被検出体Bとが同じものであるか否かを判別することができる。すなわち、今回位置(x1、y1)が、前回位置(x0、y0)に近ければ、今回の被検出体Bは、前回の被検出体Bと同じものであると判別でき、今回位置(x1、y1)が、前回位置(x0、y0)に近くなければ、今回の被検出体Bは、前回の被検出体Bとは異なるものであると判別できる。   By performing the determination process of step S25, it is determined whether or not the detected object B at the current position (x1, y1) and the detected object B at the previous position (x0, y0) are the same. Can do. That is, if the current position (x1, y1) is close to the previous position (x0, y0), it can be determined that the current detection object B is the same as the previous detection object B, and the current position (x1, y1) If y1) is not close to the previous position (x0, y0), it can be determined that the current detection object B is different from the previous detection object B.

上述したステップS25の判断処理で、今回位置(x1、y1)が、前回位置(x0、y0)に近いと判別したとき(YES)、すなわち、今回の被検出体Bは、前回の被検出体Bと同じものであると判別したときは、今回位置(x1、y1)と前回位置(x0、y0)と比較して、被検出体が移動しているか否かを判断する(ステップS26)。   When it is determined that the current position (x1, y1) is close to the previous position (x0, y0) in the determination process in step S25 described above (YES), that is, the current detected object B is the previous detected object. When it is determined that it is the same as B, the current position (x1, y1) is compared with the previous position (x0, y0) to determine whether or not the detected object is moving (step S26).

ステップS26の判断処理で、被検出体Bが移動していると判別したとき(YES)には、今回位置(x1、y1)が、机12の表面に投影されているコンテンツの投影像の範囲内に位置するか否かを判断する(ステップS27)。コンテンツの投影像の位置や大きさは、机12の表面に投影する際に、RAM166に記憶されているので、その値を読み出すことによって、ステップS27の判断をすることができる。このステップS27の判断処理をすることによって、被検出体Bが、机12の表面に投影されているコンテンツの投影像を指し示している状態であるか否かを判断することができる。   If it is determined in step S26 that the detection object B is moving (YES), the current position (x1, y1) is the range of the projected image of the content projected on the surface of the desk 12. It is determined whether it is located within (step S27). Since the position and size of the projected image of the content are stored in the RAM 166 when projected onto the surface of the desk 12, the determination in step S27 can be made by reading out the value. By performing the determination processing in step S27, it is possible to determine whether or not the detection object B is in a state of pointing the projected image of the content projected on the surface of the desk 12.

このステップS26の判断処理は、いわゆるグラフィカルユーザインターフェースにおいて、複数のウインドウのうちの1つを指定して、アクティブなウインドウにするときの処理と同様の処理を行えばよい。このステップS27の処理をすることによって、コンテンツの投影像が複数ある場合であっても、特定の1つのコンテンツの投影像を指定することができる。なお、このステップS27の処理において、1つのコンテンツの投影像のみならず、所望する数のコンテンツの投影像を指定するようにしてもよい。   The determination processing in step S26 may be performed in the same manner as the processing for designating one of a plurality of windows and making it an active window in a so-called graphical user interface. By performing the process of step S27, even when there are a plurality of content projection images, it is possible to designate a specific one content projection image. In the process of step S27, not only one content projection image but also a desired number of content projection images may be designated.

コンテンツの投影像の指定は、コンテンツを提示しようとする操作者によるものである。したがって、上述した今回位置(x1、y1)は、コンテンツを提示しようとする操作者の指等の座標位置である。   The designation of the projected image of the content is made by an operator who intends to present the content. Therefore, the current position (x1, y1) described above is the coordinate position of the operator's finger or the like who intends to present the content.

また、上述したステップS26の判断処理において、被検出体Bが、所定時間に、所定の距離だけ、所定の方向に移動したか否かを判断するのが好ましい。このようにすることで、操作者が意図的にコンテンツの投影像を移動させようとしているか否かを判断することができ、誤動作を防止することができる。   In the determination process in step S26 described above, it is preferable to determine whether or not the detection object B has moved in a predetermined direction by a predetermined distance at a predetermined time. By doing so, it can be determined whether or not the operator intentionally moves the projected image of the content, and malfunction can be prevented.

ステップS27の判断処理で、今回位置(x1、y1)が、机12の表面に投影されているコンテンツの投影像の範囲内に位置する、すなわち、被検出体Bが、机12の表面に投影されているコンテンツの投影像を指し示していると判別したとき(YES)には、後述する図8のコンテンツの投影像の回転移動処理のサブルーチンを呼び出して実行する(ステップS28)。   In the determination process of step S27, the current position (x1, y1) is located within the range of the projected image of the content projected on the surface of the desk 12, that is, the detected object B is projected on the surface of the desk 12. When it is determined that it points to the projected image of the content that has been displayed (YES), a subroutine for rotational movement processing of the projected image of the content shown in FIG. 8 to be described later is called and executed (step S28).

また、上述したステップS25の判断処理で、今回位置(x1、y1)が、前回位置(x0、y0)に近い位置でないと判別したとき(NO)、すなわち、今回の被検出体Bが、前回の被検出体Bと異なるものであると判別したときは、今回位置(x1、y1)を前回位置(x0、y0)として記憶させる(ステップS29)。このようにすることで、次に、本サブルーチンが呼び出されて実行されたときに、今回位置(x1、y1)を前回位置(x0、y0)として呼び出すことができる。   Further, when it is determined in the determination process of step S25 described above that the current position (x1, y1) is not close to the previous position (x0, y0) (NO), that is, the current detection object B is If it is determined that it is different from the detected object B, the current position (x1, y1) is stored as the previous position (x0, y0) (step S29). In this way, when this subroutine is called and executed next time, the current position (x1, y1) can be called as the previous position (x0, y0).

さらに、上述したステップS24の判断処理で、被検出体Bの像の幅が所定の値D以上であると判別したとき(NO)、すなわち、被検出体Bが人体の胴体そのものであると判別したときには、被検出体Bの位置(x1、y1)が、RAM166に既に記憶されているか否かを判断する(ステップS30)。   Further, when it is determined in the determination processing in step S24 described above that the width of the image of the detection object B is equal to or greater than the predetermined value D (NO), that is, it is determined that the detection object B is the human body itself. If so, it is determined whether or not the position (x1, y1) of the detection object B is already stored in the RAM 166 (step S30).

被検出体Bが人体の胴体そのものであるときには、被検出体Bの位置(x1、y1)は、人が机12の前に座っている位置を示す。また、プロジェクタ10が稼動している最中に人が新たに加わったり、途中で中座したりする場合がある。このため、机12の前に座っている人は、常に一定ではない可能性があるので、机12の前に座っている人の位置を常に検出する必要がある。ステップS30の判断処理は、机12の前に座っている人の数に変化があったか否かを判断する処理である。ステップS30の判断処理で、被検出体Bの位置(x1、y1)が、RAM166に既に記憶されていると判別したときには、被検出体Bである人は、既に机12の前に座っている人であることを示す。一方、被検出体Bの位置(x1、y1)が、RAM166に記憶されていないと判別したときには、被検出体Bである人は、新たに机12の前に座って加わった人であることを示す。   When the detected object B is the human torso itself, the position (x1, y1) of the detected object B indicates the position where the person is sitting in front of the desk 12. In addition, a new person may be added while the projector 10 is in operation, or the person may sit in the middle. For this reason, since the person sitting in front of the desk 12 may not always be constant, it is necessary to always detect the position of the person sitting in front of the desk 12. The determination process of step S30 is a process of determining whether or not the number of people sitting in front of the desk 12 has changed. If it is determined in step S30 that the position (x1, y1) of the detection object B is already stored in the RAM 166, the person who is the detection object B is already sitting in front of the desk 12. Indicates a person. On the other hand, when it is determined that the position (x1, y1) of the detected object B is not stored in the RAM 166, the person who is the detected object B is a person who newly sits in front of the desk 12 and joins it. Indicates.

ステップS30の判断処理で、被検出体Bの位置(x1、y1)が、人テーブルに記憶されていないと判別したとき(NO)には、すなわち、被検出体Bである人が、新たに机12の前に座った人であると判別したときには、被検出体Bの位置(x1、y1)の値を、新たに机12の前に座った人として、RAM166に記憶させる(ステップS31)。   When it is determined in step S30 that the position (x1, y1) of the detection object B is not stored in the person table (NO), that is, the person who is the detection object B is newly When it is determined that the person is sitting at the desk 12, the value of the position (x1, y1) of the detection object B is newly stored in the RAM 166 as a person sitting at the desk 12 (step S31). .

なお、上述したステップS30及びS31の処理は、新たに机12の前に座って加わった人について処理するものであるが、退席したり中座したりした人の位置を削除する処理を加えてもよい。   In addition, although the process of step S30 and S31 mentioned above processes about the person who newly sat down and added in front of the desk 12, it adds the process which deletes the position of the person who left or sat down. Also good.

上述したステップS26の判断処理で、被検出体Bが移動していないと判別したとき(NO)には、赤外線の走査を終了するか否かを判断する(ステップS32)。赤外線の走査を終了しないと判別したとき(NO)には、上述したステップS22に処理を戻す。一方、赤外線の走査を終了すると判別したとき(YES)には、本サブルーチンを直ちに終了する。   If it is determined in step S26 described above that the detection object B has not moved (NO), it is determined whether or not the infrared scanning is to be terminated (step S32). When it is determined that the infrared scanning is not finished (NO), the process returns to step S22 described above. On the other hand, when it is determined that the infrared scanning is to be ended (YES), this subroutine is immediately ended.

上述したステップS27の判断処理で、今回位置(x1、y1)が、机12の表面に投影されているコンテンツの投影像の範囲内に位置しない、すなわち、被検出体Bが、机12の表面に投影されているコンテンツの投影像を指し示していないと判別したとき(NO)にも、上述したステップS32に処理を移す。   In the determination processing in step S27 described above, the current position (x1, y1) is not located within the range of the projected image of the content projected on the surface of the desk 12, that is, the detected object B is on the surface of the desk 12. Also when it is determined that the projected image of the content projected on the screen is not pointed (NO), the process proceeds to step S32 described above.

さらに、ステップS30の判断処理で、被検出体Bの位置(x1、y1)が、人テーブルに既に記憶されていると判別したとき(YES)には、すなわち、被検出体Bである人が、既に机12の前に座っている人であると判別したときにも、上述したステップS32に処理を移す。   Furthermore, when it is determined in the determination process of step S30 that the position (x1, y1) of the detected object B is already stored in the person table (YES), that is, the person who is the detected object B is Even when it is determined that the person is already sitting in front of the desk 12, the process proceeds to the above-described step S32.

さらにまた、ステップS29又はS31の処理を実行したときにも、上述したステップS32に処理を移す。   Furthermore, when the process of step S29 or S31 is executed, the process is moved to the above-described step S32.

<コンテンツの投影像の回転移動処理>
図8は、上述した図7のステップS28で呼び出されて実行されるコンテンツの投影像を回転移動する処理のサブルーチンを示すフローチャートである。
<Rotation processing of projected image of content>
FIG. 8 is a flowchart showing a subroutine of processing for rotating and moving the projection image of the content called and executed in step S28 of FIG.

最初に、回転移動すべきコンテンツの投影像を所定の角度ωtだけ回転させたときのコンテンツの投影像の座標を算出する(ステップS41)。このステップS41の処理は、座標変換をするための式に基づいて行えばよい。すなわち、コンテンツの投影像を構成する画素の全ての位置について、以下の式によって、座標変換を行えればよい。   First, the coordinates of the projected image of the content when the projected image of the content to be rotated is rotated by a predetermined angle ωt are calculated (step S41). The processing in step S41 may be performed based on an equation for performing coordinate conversion. That is, it is only necessary to perform coordinate conversion for all the positions of the pixels constituting the projected image of the content by the following expression.

Figure 2008227883
Figure 2008227883

ここで、(old_x,old_y)は、元のコンテンツの投影像の1つの画素の座標であり、(new_x,new_y)は、変換後のコンテンツの投影像の1つの画素の座標である。また、ωtは、コンテンツの投影像が回転しつつ移動していくときの角速度を示す。このωtの値は、制御装置160のCPU162の演算処理速度や、画像処理回路176の描画処理速度を考慮して、コンテンツの投影像が回転移動している態様を、コンテンツの投影像を見ている人が、視認できる程度にするのが好ましい。ここで、コンテンツの投影像の回転中心は、プロジェクタの本体の中心、特に、プロジェクタの中心である。このようにすることで、コンテンツの画像を、プロジェクタの本体の中心や、プロジェクタの中心を周回するように移動させることができる。   Here, (old_x, old_y) is the coordinate of one pixel of the projection image of the original content, and (new_x, new_y) is the coordinate of one pixel of the projection image of the content after conversion. Further, ωt represents an angular velocity when the projected image of the content moves while rotating. The value of ωt is determined by considering the calculation processing speed of the CPU 162 of the control device 160 and the drawing processing speed of the image processing circuit 176, and the manner in which the projection image of the content is rotating. It is preferable to make it visible to the person who is present. Here, the rotation center of the projected image of the content is the center of the main body of the projector, in particular, the center of the projector. In this way, the content image can be moved around the center of the projector body or around the center of the projector.

また、ωtの値は、上述した図7のステップS26の判断処理をするときに、被検出体Bの移動速度も算出しておき、この被検出体Bの移動速度に応じてωtの値を定めるようにしてもよい。このようにすることで、操作者が速い動作をしたときには、コンテンツの投影像も速く回転し、操作者がゆっくりとした動作をしたときには、コンテンツの投影像も遅く回転するようにできる。   Further, the value of ωt is calculated by calculating the moving speed of the detected object B when the determination process of step S26 of FIG. 7 described above is performed, and the value of ωt is set according to the moving speed of the detected object B. It may be determined. In this way, the projected image of the content can be rotated quickly when the operator performs a fast motion, and the projected image of the content can be rotated slowly when the operator performs a slow motion.

さらに、上述した座標変換の式では、コンテンツの投影像を回転させて移動させる場合のものであるが、他の座標変換の式を用いて、コンテンツの投影像が、本体100の回りを周回するように、湾曲した経路に沿って移動できるものであればよい。   Furthermore, the above-described coordinate conversion formula is for rotating the projected image of the content, but the projected image of the content circulates around the main body 100 using another coordinate conversion formula. As long as it can move along a curved path, it is sufficient.

さらにまた、本体100の回りを複数回周回するようにしてもよい。このようにした場合には、プレゼンテーションの演出効果を高めることができる。   Further, the body 100 may be circulated a plurality of times. In this case, the presentation effect can be enhanced.

次に、ステップS41の処理で算出したコンテンツの投影像の座標が、座標が描画可能範囲内であるか否か、すなわち、投影可能な範囲内に含まれるか否かを判断する(ステップS42)。この判断は、コンテンツの投影像が回転しつつ移動していく態様を表示する過程において、ステップS41の処理で算出したコンテンツの投影像の座標が、表示用メモリ174の記憶領域に対応しない位置になる可能性を考慮した処理である。算出したコンテンツの投影像の座標が、座標が描画可能範囲内であると判別したとき(YES)には、算出したコンテンツの投影像の座標に応じたコンテンツのデータを表示用メモリ174に送る(ステップS43)。この表示用メモリ174に送られたデータに応じて光変調素子120を駆動することによって、所定の角度だけ回転したコンテンツの投影像が机12に投影される。このステップS43の処理は、いわゆるグラフィカルユーザインターフェースにおいて、指定されたアクティブウインドウをドラッグ等によって移動する態様で表示するのと同様の描画処理や再描画処理などをすることで行うことができる。   Next, it is determined whether or not the coordinates of the projected image of the content calculated in the process of step S41 are within the drawable range, that is, whether or not they are included within the projectable range (step S42). . This determination is made in the process of displaying the aspect in which the projected image of the content moves while rotating, so that the coordinates of the projected image of the content calculated in the process of step S41 are not in a position corresponding to the storage area of the display memory 174. This is a process that considers the possibility of When it is determined that the coordinates of the calculated projected image of the content are within the drawable range (YES), the content data corresponding to the calculated projected image coordinates of the content is sent to the display memory 174 ( Step S43). By driving the light modulation element 120 according to the data sent to the display memory 174, a projected image of the content rotated by a predetermined angle is projected on the desk 12. The process of step S43 can be performed by performing a drawing process, a redrawing process, and the like similar to displaying a designated active window in a manner of moving by dragging or the like in a so-called graphical user interface.

上述したステップS42の判断処理で、ステップS41の処理で算出したコンテンツの投影像の座標が、座標が描画可能範囲内でないと判別したとき(NO)、又はステップS43の処理を実行したときには、コンテンツの投影像が停止位置に達したか否かを判断する(ステップS44)。この停止位置は、上述した図6のステップS12の処理や、図7のステップS31の処理で記憶された机12の前に座っている人の位置である。この机12の前に座っている人が、コンテンツの投影像を提示される被提示者である。上述したように、図6のステップS12の処理や、図7のステップS31の処理では、被検出体Bとして、被提示者の胴体そのものの位置だけでなく、被提示者が自分の近くの机12に置いているコーヒーカップや携帯電話などの位置を取得できるので、ステップS44の停止位置も、被提示者の胴体そのものの位置だけでなく、被提示者が机12に置いているコーヒーカップや携帯電話などの位置とすることができる。   When it is determined in the determination process of step S42 described above that the coordinates of the projected image of the content calculated in the process of step S41 are not within the drawable range (NO), or when the process of step S43 is executed, the content It is determined whether or not the projected image has reached the stop position (step S44). This stop position is the position of the person sitting in front of the desk 12 stored in step S12 in FIG. 6 or step S31 in FIG. A person sitting in front of the desk 12 is a person to be presented with a projected image of the content. As described above, in the process in step S12 in FIG. 6 and the process in step S31 in FIG. 7, not only the position of the torso of the person to be presented but also the person to be presented is a desk near him. 12 can acquire the position of the coffee cup or mobile phone placed in the position 12, so that the stop position of step S44 is not only the position of the torso itself of the present person, but also the coffee cup placed on the desk 12 by the present person. It can be the position of a mobile phone or the like.

ステップS44の判断処理で、コンテンツの投影像が停止位置に達していないと判別したとき(NO)には、上述したステップS41に処理を戻す。一方、コンテンツの投影像が停止位置に達したと判別したとき(YES)には、本サブルーチンを終了する。   If it is determined in step S44 that the projected image of the content has not reached the stop position (NO), the process returns to step S41 described above. On the other hand, when it is determined that the projected image of the content has reached the stop position (YES), this subroutine is terminated.

上述したステップS41〜S44の処理を繰り返し実行することで、指定されたコンテンツの投影像を、徐々に回転しつつ移動していく態様で、机12に投影することができる。   By repeatedly executing the processes of steps S41 to S44 described above, the projected image of the designated content can be projected onto the desk 12 in a manner of moving while gradually rotating.

上述した図7及び図8の処理を実行することによって、コンテンツを提示しようとする操作者の指等の動作に応じて、被提示者に向けて、コンテンツの投影像を回転しつつ移動させることができる。   By executing the processing of FIG. 7 and FIG. 8 described above, the projected image of the content is rotated and moved toward the person to be presented according to the operation of the finger or the like of the operator who intends to present the content. Can do.

上述した例では、被検出体Bの像の位置や、コンテンツの投影像の位置を、直交座標系(x1、y1)を用いたが、回転座標系(r、θ)を用いてもよい。回転座標系(r、θ)を用いた場合には、被検出体Bの遠近を容易に判断することができ、また、コンテンツを回転させるための処理を容易にすることもできる。なお、プロジェクタ10の制御処理に都合のよい座標系ならば、他の座標系を用いてもよい。   In the example described above, the position of the image of the detection object B and the position of the projected image of the content are used in the orthogonal coordinate system (x1, y1), but a rotating coordinate system (r, θ) may be used. When the rotating coordinate system (r, θ) is used, the perspective of the detection object B can be easily determined, and the process for rotating the content can be facilitated. Other coordinate systems may be used as long as they are convenient for the control process of the projector 10.

<<<<第2の実施の形態>>>>
図9(a)及び(b)は、本発明の第2の実施の形態のプロジェクタ20の概略を示す斜視図である。図9(b)に示すように、プロジェクタ20は、本体200と、支持体106(図示せず)と、ミラー108とを含む。ここで、支持体106と、ミラー108とは、第1の実施の形態のプロジェクタ10におけるものと同様の構造及び機能を有し、同一の符号を付して示した。
<<<< Second Embodiment >>>>
FIGS. 9A and 9B are perspective views schematically showing the projector 20 according to the second embodiment of the present invention. As shown in FIG. 9B, the projector 20 includes a main body 200, a support body 106 (not shown), and a mirror 108. Here, the support 106 and the mirror 108 have the same structure and function as those in the projector 10 of the first embodiment, and are denoted by the same reference numerals.

図9(b)に示すように、プロジェクタ20の本体200の側面には、検出装置240が設けられている。   As shown in FIG. 9B, a detection device 240 is provided on the side surface of the main body 200 of the projector 20.

<<検出装置240(検出手段)>>
検出装置240は、超音波発生装置250と被検出体検出装置260とからなる。超音波発生装置250は、検出装置240の下部に設けられ、被検出体検出装置260は、検出装置240の上部に設けられている。
<< Detection device 240 (detection means) >>
The detection device 240 includes an ultrasonic generator 250 and a detected object detection device 260. The ultrasonic generator 250 is provided below the detection device 240, and the detection target detection device 260 is provided above the detection device 240.

検出装置240は、電動モータに連結されている。検出装置240は、電動モータによって水平面内で回転できるようにされている(図9(b)の矢印参照)。このようにすることで、360度の範囲で超音波を走査することができるので、本体100の周囲に位置する被検出体Bに対して的確に超音波を至らせ、反射された超音波を検出することができる。また、検出装置240の回転角度を検出するエンコーダ(図示せず)が、本体200の内部に設けられている。このエンコーダから発せられた出力信号を検出することで、検出装置240の回転角度を得ることができる。   The detection device 240 is connected to an electric motor. The detection device 240 can be rotated in a horizontal plane by an electric motor (see the arrow in FIG. 9B). In this way, since ultrasonic waves can be scanned in a range of 360 degrees, the ultrasonic waves are accurately delivered to the detection object B located around the main body 100, and the reflected ultrasonic waves are Can be detected. In addition, an encoder (not shown) for detecting the rotation angle of the detection device 240 is provided inside the main body 200. By detecting the output signal emitted from this encoder, the rotation angle of the detection device 240 can be obtained.

<超音波発生装置250(伝播波発生手段)>
図9(a)に示すように、超音波発生装置250は、所定の波長の超音波を本体200の外側に向けて略水平方向に発する。
<Ultrasonic generator 250 (propagating wave generating means)>
As shown in FIG. 9A, the ultrasonic generator 250 emits ultrasonic waves having a predetermined wavelength toward the outside of the main body 200 in a substantially horizontal direction.

<被検出体検出装置260(反射波散乱波検出手段)>
超音波発生装置250から発せられた超音波は、被検出体Bが存在している場合には、被検出体Bに至って反射される。反射された超音波は、被検出体検出装置260によって検出される。
<Detection object detection device 260 (reflected wave / scattered wave detection means)>
The ultrasonic wave emitted from the ultrasonic generator 250 reaches the detected object B and is reflected when the detected object B exists. The reflected ultrasonic waves are detected by the detected object detection device 260.

上述した超音波発生装置250と被検出体検出装置260とによって、被検出体Bが存在しているか否かを検出することができる。被検出体Bが存在していると判別したときには、エンコーダから発せられた出力信号を検出することで、被検出体Bが存在している回転角度を得ることができる。また、超音波発生装置250から超音波を発した時刻t1と、被検出体Bによって反射された超音波を被検出体検出装置260に検出した時刻t2とを計測し、時間t2−t1から、本体200から被検出体Bまでの距離を得ることができる。   Whether or not the detection object B exists can be detected by the ultrasonic generator 250 and the detection object detection device 260 described above. When it is determined that the detected object B exists, the rotation angle at which the detected object B exists can be obtained by detecting the output signal emitted from the encoder. In addition, the time t1 when the ultrasonic wave is generated from the ultrasonic generator 250 and the time t2 when the ultrasonic wave reflected by the detection object B is detected by the detection object detection device 260 are measured, and from the time t2-t1, The distance from the main body 200 to the detection object B can be obtained.

本体200から被検出体Bまでの距離が短い場合には、人の体の一部、例えば、指などや、人が手に持っている支持棒やスプーンなどと判別し、得られた回転角度をこれらの角度とする。一方、本体200から被検出体Bまでの距離が長い場合には、机12に周りに座っている人の胴体そのものや、机12に周りに座っている人が自分の前の机12に置いているコーヒーカップや携帯電話などと判別し、得られた回転角度をこれらの角度とする。   When the distance from the main body 200 to the body to be detected B is short, it is determined as a part of the human body, for example, a finger or a support rod or spoon held by the human hand, and the obtained rotation angle Are these angles. On the other hand, when the distance from the main body 200 to the detected body B is long, the torso of a person sitting around the desk 12 or a person sitting around the desk 12 is placed on the desk 12 in front of him / herself. It is discriminated from a coffee cup or a mobile phone, and the obtained rotation angles are defined as these angles.

このような処理と、上述した図7〜図8に示した処理とを合わせて行うことで、コンテンツを提示しようとする操作者の指等の動作に応じて、被提示者に向けて、コンテンツの投影像を回転しつつ移動させることができる。
なお、本体200から被検出体Bまでの距離が短いか又は長いかの判断は、机12の大きさや、投影領域の大きさを基準にして判断すればよい。すなわち、本体200から机12の端までの距離や、本体200から投影領域の端までの距離よりも遠いか又は近いかを判断すればよい。
By performing such processing together with the processing shown in FIGS. 7 to 8 described above, the content is directed toward the person to be presented in accordance with the operation of the finger or the like of the operator who intends to present the content. Can be moved while rotating.
Whether the distance from the main body 200 to the detection object B is short or long may be determined based on the size of the desk 12 or the size of the projection area. That is, it is only necessary to determine whether the distance from the main body 200 to the end of the desk 12 or the distance from the main body 200 to the end of the projection area is closer or closer.

上述した第2の実施の形態では、1つの超音波発生装置250と、1つの被検出体検出装置260とで、指などの人の体の一部や、人が手に持っている支持棒やスプーンなどと、机12に周りに座っている人の胴体そのものや、机12に周りに座っている人が机12に置いているコーヒーカップや携帯電話などとを検出したが、遠距離用のものと、短距離用ものとの双方を設けて、それぞれを検出してもよい。   In the second embodiment described above, one ultrasonic generator 250 and one detected object detection device 260 are used to support a part of a human body such as a finger or a support bar held by a person. Detects the body of the person sitting around the desk 12 and the spoon itself, and the coffee cup or mobile phone placed on the desk 12 by the person sitting around the desk 12 Both of those for short distance and those for short distance may be provided to detect each.

<<<<第3の実施の形態>>>>
図10(a)及び(b)は、本発明の第3の実施の形態のプロジェクタ30の概略を示す斜視図である。図10(b)に示すように、プロジェクタ30は、本体300と、支持体106(図示せず)と、ミラー108とを含む。ここで、支持体106と、ミラー108とは、第1の実施の形態のプロジェクタ10におけるものと同様の構造及び機能を有し、同一の符号を付して示した。
図10(b)に示すように、プロジェクタ30の本体300の側面には、検出装置340が設けられている。
<<<<< Third Embodiment >>>>
FIGS. 10A and 10B are perspective views showing an outline of the projector 30 according to the third embodiment of the invention. As shown in FIG. 10B, the projector 30 includes a main body 300, a support body 106 (not shown), and a mirror 108. Here, the support 106 and the mirror 108 have the same structure and function as those in the projector 10 of the first embodiment, and are denoted by the same reference numerals.
As shown in FIG. 10B, a detection device 340 is provided on the side surface of the main body 300 of the projector 30.

<<検出装置340(検出手段)>>
検出装置340は、赤外線発生装置350と、レンズ360と、被検出体検出センサ365とからなる。赤外線発生装置350は、検出装置340の下部に設けられ、レンズ360と、被検出体検出センサ365とは、検出装置340の上部に設けられている。
<< Detection device 340 (detection means) >>
The detection device 340 includes an infrared generator 350, a lens 360, and a detected object detection sensor 365. The infrared generator 350 is provided at the lower part of the detection device 340, and the lens 360 and the detected object detection sensor 365 are provided at the upper part of the detection device 340.

検出装置340は、電動モータに連結されている。検出装置340は、電動モータによって水平面内で回転できるようにされている(図10(b)の矢印参照)。このようにすることで、360度の範囲で赤外線を走査することができるので、本体100の周囲に位置する被検出体Bに対して的確に赤外線を照射し、反射された赤外線を検出することができる。また、検出装置340の回転角度を検出するエンコーダ(図示せず)が、本体300の内部に設けられている。このエンコーダから発せられた出力信号を検出することで、検出装置340の回転角度を得ることができる。   The detection device 340 is connected to an electric motor. The detection device 340 can be rotated in a horizontal plane by an electric motor (see the arrow in FIG. 10B). In this way, since infrared rays can be scanned within a range of 360 degrees, the infrared rays are accurately irradiated to the detection object B located around the main body 100, and the reflected infrared rays are detected. Can do. In addition, an encoder (not shown) for detecting the rotation angle of the detection device 340 is provided inside the main body 300. By detecting the output signal emitted from this encoder, the rotation angle of the detection device 340 can be obtained.

<赤外線発生装置350(伝播波発生手段)>
赤外線発生装置350は、第1の実施の形態の赤外線発生装置141と同様のものであるが、図10(a)に示すように、赤外線発生装置350は、所定の波長の赤外線を本体300の外側に向けて略水平方向に発する。
<Infrared generator 350 (propagating wave generating means)>
The infrared generator 350 is the same as the infrared generator 141 of the first embodiment. However, as shown in FIG. 10A, the infrared generator 350 transmits infrared rays having a predetermined wavelength to the main body 300. It emits in a substantially horizontal direction toward the outside.

<被検出体検出センサ365(反射波散乱波検出手段)>
赤外線発生装置350から発せられた赤外線は、被検出体Bが存在している場合には、被検出体Bに至って反射される。反射された赤外線は、レンズ360に入射する。レンズ360の近傍に被検出体検出センサ365が配置されている。この被検出体検出センサ365は、位置感応型フォトダイオードからなる。位置感応型フォトダイオードは、位置感応型フォトダイオードに赤外線が入射した位置も得ることができ、入射した位置に応じた信号が出力される。例えば、被検出体Bが、本体300から遠方に位置する場合には、被検出体Bによって反射された赤外線は、位置感応型フォトダイオードの下側(図10(a)に示すR1)に入射する。位置感応型フォトダイオードは、上述したように、この入射した位置を示す信号を出力する。また、被検出体Bが、本体300の近くに位置する場合には、被検出体Bによって反射された赤外線は、位置感応型フォトダイオードの上側(図10(a)に示すR2)に入射する。位置感応型フォトダイオードは、この入射した位置を示す信号を出力する。この位置感応型フォトダイオードを用いることによって、赤外線が反射された位置の遠近を判別することができる。この位置感応型フォトダイオードは、走査する方向に対して直交する1次元の位置を検出できる配置されている。この第3の実施の形態では、上述したように、検出装置340である位置感応型フォトダイオードは、電動モータによって水平面内で回転できるようにされている。このため、位置感応型フォトダイオードが走査する方向は、回転方向であり、走査する方向に対して直交する方向は、半径方向である。このようにすることで、位置感応型フォトダイオードは、半径方向の遠近を検出することができる。
<Detection object detection sensor 365 (reflected wave scattered wave detection means)>
Infrared rays emitted from the infrared ray generator 350 reach the detection object B and are reflected when the detection object B exists. The reflected infrared light is incident on the lens 360. A detected object detection sensor 365 is disposed in the vicinity of the lens 360. The detected object detection sensor 365 is composed of a position sensitive photodiode. The position sensitive photodiode can also obtain a position where infrared rays are incident on the position sensitive photodiode, and a signal corresponding to the incident position is output. For example, when the detection target B is located far from the main body 300, the infrared light reflected by the detection target B is incident on the lower side of the position-sensitive photodiode (R1 shown in FIG. 10A). To do. As described above, the position-sensitive photodiode outputs a signal indicating the incident position. Further, when the detection object B is located near the main body 300, the infrared rays reflected by the detection object B are incident on the upper side of the position sensitive photodiode (R2 shown in FIG. 10A). . The position sensitive photodiode outputs a signal indicating the incident position. By using this position sensitive photodiode, it is possible to determine the perspective of the position where the infrared rays are reflected. This position sensitive photodiode is arranged to detect a one-dimensional position orthogonal to the scanning direction. In the third embodiment, as described above, the position-sensitive photodiode that is the detection device 340 can be rotated in a horizontal plane by an electric motor. For this reason, the direction in which the position-sensitive photodiode scans is the rotational direction, and the direction orthogonal to the scanning direction is the radial direction. By doing so, the position sensitive photodiode can detect the distance in the radial direction.

上述した赤外線発生装置350と、レンズ360と、被検出体検出センサ365とによって、被検出体Bが存在しているか否かを検出することができる。被検出体Bが存在していると判別したときには、エンコーダから発せられた出力信号を検出することで、被検出体Bが存在している回転角度を得ることができる。さらに、上述したように、位置感応型フォトダイオードから発せられた位置を示す信号を得ることによって、被検出体Bが、本体300から離れて位置するか、近くに位置するかを得ることができる。   Whether or not the detection object B is present can be detected by the infrared ray generator 350, the lens 360, and the detection object detection sensor 365 described above. When it is determined that the detected object B exists, the rotation angle at which the detected object B exists can be obtained by detecting the output signal emitted from the encoder. Furthermore, as described above, by obtaining a signal indicating the position emitted from the position-sensitive photodiode, it is possible to obtain whether the detection object B is positioned away from or close to the main body 300. .

本体300から被検出体Bまでの距離が短い場合には、人の体の一部、例えば、指などや、人が手に持っている支持棒やスプーンなどと判別し、得られた回転角度をこれらの角度とする。一方、本体300から被検出体Bまでの距離が長い場合には、机12に周りに座っている人の胴体そのものや、机12に周りに座っている人が机12に置いているコーヒーカップや携帯電話などと判別し、得られた回転角度をこれらの角度とする。   When the distance from the main body 300 to the body B to be detected is short, it is determined as a part of the human body, for example, a finger, a support rod or spoon held by the human hand, and the rotation angle obtained. Are these angles. On the other hand, when the distance from the main body 300 to the detection object B is long, the torso of a person sitting around the desk 12 or a coffee cup placed on the desk 12 by a person sitting around the desk 12 And the obtained rotation angles are defined as these angles.

なお、本体300から被検出体Bまでの距離が短いか又は長いかの判断は、机12の大きさや、投影領域の大きさを基準にして判断すればよい。すなわち、本体300から机12の端までの距離や、本体300から投影領域の端までの距離よりも遠いか又は近いかを判断すればよい。   Whether the distance from the main body 300 to the detection object B is short or long may be determined based on the size of the desk 12 or the size of the projection area. That is, it is only necessary to determine whether the distance from the main body 300 to the end of the desk 12 or the distance from the main body 300 to the end of the projection area is longer or closer.

このような処理と、上述した図7〜図8に示した処理とを合わせて行うことで、コンテンツを提示しようとする操作者の指等の動作に応じて、被提示者に向けて、コンテンツの投影像を回転しつつ移動させることができる。   By performing such processing together with the processing shown in FIGS. 7 to 8 described above, the content is directed toward the person to be presented in accordance with the operation of the finger or the like of the operator who intends to present the content. Can be moved while rotating.

<<<<その他の実施の形態>>>>
赤外線を走査する代わりに、円筒レンズ等で上下方向に予め集光して、水平方向には扇状に広がる赤外線を本体100から発するようにしてもよい。この場合には、CCDやCMOSセンサ等の撮像素子を使うことによって、被検出体の位置を検出できる。
さらに、上述したミラー144として、ガルバノミラーのような振動できるミラーを用いてもよい。
<<<<< Other Embodiments >>>>
Instead of scanning infrared rays, the body 100 may emit infrared rays that are preliminarily condensed in a vertical direction with a cylindrical lens or the like and spread in a fan shape in the horizontal direction. In this case, the position of the detection object can be detected by using an image sensor such as a CCD or CMOS sensor.
Furthermore, as the above-described mirror 144, a mirror that can vibrate such as a galvanometer mirror may be used.

被提示者の位置を検出するものとして、上述したものの他に、以下のものがある。
被提示者が座る椅子にスイッチを設けて、被提示者が椅子に座ったことを検出して、信号をスイッチから発する。制御装置160は、スイッチから発せられた信号を受信して、被提示者が存在することを取得する。
In addition to what has been described above, there are the following in order to detect the position of the person to be presented.
A switch is provided on the chair on which the person to be presented sits, detects that the person to be presented has sat on the chair, and issues a signal from the switch. The control device 160 receives the signal emitted from the switch, and acquires that the person to be presented exists.

また、被提示者は、被提示者を識別できる無線タグを机12に置く。制御装置160にアンテナを電気的に接続して、無線タグと通信をすることによって、無線タグが存在する位置を検出して、その位置を被提示者の位置とする。   The person to be presented places a wireless tag on the desk 12 that can identify the person to be presented. By electrically connecting an antenna to the control device 160 and communicating with the wireless tag, the position where the wireless tag exists is detected, and the position is set as the position of the person to be presented.

さらに、投影像を撮像する撮像手段を制御装置160に電気的に接続し、制御装置160は、投影像を形成する光は、被提示者の手に照射されて、反射された光を撮像することによって、被提示者の手の位置を検出して、その位置を被提示者の位置とする。   Furthermore, an imaging unit that captures the projected image is electrically connected to the control device 160, and the control device 160 irradiates the hand of the person to be presented with the light that forms the projected image and captures the reflected light. Thus, the position of the hand of the person to be presented is detected, and that position is set as the position of the person to be presented.

さらにまた、プロジェクタの周囲を撮像する撮像手段を制御装置160に電気的に接続し、制御装置160は、プロジェクタの周囲を撮像し、撮像した像に対して画像処理を行って、被提示者の位置を検出する。   Furthermore, an imaging means for imaging the surroundings of the projector is electrically connected to the control device 160, and the control device 160 images the surroundings of the projector, performs image processing on the captured images, and Detect position.

また、操作者が、予め被提示者の位置を操作パネルから入力する。
操作者の動作を検出するものとして、上述したものの他に、以下のものがある。
操作者は、赤外線と超音波とを発する棒を用いて動作する。赤外線と超音波と同時に発し、赤外線を検出した時刻と、超音波を検出した時刻との差から、棒の位置を検出する。超音波の検出するための2つのセンサを、プロジェクタの本体の異なる位置に設けて、2つのセンサで超音波を検出し、三角測量の原理を用いて棒の位置を検出する。
In addition, the operator inputs the position of the person to be presented in advance from the operation panel.
In addition to those described above, there are the following as detection of the operator's action.
The operator operates using a bar that emits infrared rays and ultrasonic waves. The position of the bar is detected from the difference between the time at which the infrared rays are detected and the time at which the infrared rays are detected. Two sensors for detecting ultrasonic waves are provided at different positions on the main body of the projector, the ultrasonic waves are detected by the two sensors, and the position of the bar is detected using the principle of triangulation.

本発明の第1の実施の形態のプロジェクタ10の概略を示す斜視図である。1 is a perspective view schematically showing a projector 10 according to a first embodiment of the present invention. プロジェクタ10の構成を示す断面図である。2 is a cross-sectional view showing a configuration of a projector 10. FIG. 1つの光変調素子120を用いて、机12に1つの投影領域Aを形成する場合の例(a)と、4つの光変調素子120を用いて、机12に4つの投影領域A1〜A4を形成する場合の例(b)及び(c)とを示す図である。Example (a) of forming one projection area A on the desk 12 using one light modulation element 120 and four projection areas A1 to A4 on the desk 12 using four light modulation elements 120. It is a figure which shows the example (b) and (c) in the case of forming. 赤外線発生装置141が位置する箇所で、本体100を水平な面で切断した断面図(a)と、被検出体検出装置150が位置する箇所で、本体100を水平面で切断した断面図(b)とである。A cross-sectional view (a) in which the main body 100 is cut along a horizontal plane at a location where the infrared ray generator 141 is located, and a cross-sectional view (b) in which the main body 100 is cut along a horizontal plane at a location where the detection target detection device 150 is located. It is. 制御装置160の概略を示すブロック図である。2 is a block diagram showing an outline of a control device 160. FIG. プロジェクタ10の起動処理及び終了処理を制御するプログラムを示すフローチャートである。4 is a flowchart illustrating a program for controlling start-up processing and end processing of the projector. 検出装置140で被検出体を検出する処理を実行するサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine which performs the process which detects a to-be-detected body with the detection apparatus. 図7のステップS28で呼び出されて実行されるコンテンツの投影像を回転移動する処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the process which rotates and moves the projection image of the content called and performed by step S28 of FIG. 本発明の第2の実施の形態のプロジェクタ20の概略を示す図である。It is a figure which shows the outline of the projector 20 of the 2nd Embodiment of this invention. 本発明の第3の実施の形態のプロジェクタ30の概略を示す図である。It is a figure which shows the outline of the projector 30 of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10、20、30 プロジェクタ
12 机(設置台)
100 本体
110 照明光学系(投影手段)
130 結像光学系(投影手段)
140 検出装置(検出手段)
141 赤外線発生装置(伝播波発生手段)
150 被検出体検出装置(反射波散乱波検出手段)
160 制御装置(投影制御手段、検出判別手段)
B 被検出体(操作者、被提示体)
10, 20, 30 Projector 12 desks (installation stand)
100 Body 110 Illumination optical system (projection means)
130 Imaging optical system (projection means)
140 Detection device (detection means)
141 Infrared generator (propagating wave generator)
150 Detected object detection device (reflected wave scattered wave detection means)
160 Control device (projection control means, detection discrimination means)
B Object to be detected (operator, object to be presented)

Claims (11)

設置台に設置され、かつ、光源から発せられた光によって投影画像を投影するプロジェクタであって、
前記投影画像が投影可能に前記設置台に形成された投影面に、少なくとも1つのコンテンツの画像を前記投影画像として投影する投影手段と、
前記投影面に投影された前記少なくとも1つのコンテンツの画像のうち所定のコンテンツの画像を前記投影面上に投影する投影制御手段と、
前記投影手段と前記投影制御手段とが収められた本体と、を含み、
前記投影制御手段は、前記所定のコンテンツの画像を、操作者の動作に基づいて、前記本体を周回するように前記投影面上を移動させる態様で投影することを特徴とするプロジェクタ。
A projector that is installed on an installation table and projects a projection image by light emitted from a light source,
Projecting means for projecting an image of at least one content as the projection image on a projection surface formed on the installation base so that the projection image can be projected;
Projection control means for projecting an image of a predetermined content out of the at least one content image projected onto the projection surface onto the projection surface;
A main body in which the projection means and the projection control means are housed,
The projection control unit projects the image of the predetermined content in a manner of moving on the projection surface so as to go around the main body based on an operation of an operator.
前記操作者は、前記投影面の近傍に位置し、
前記操作者の動作に基づいて動く被検出体の動作を検出する検出手段を含み、かつ、
前記投影制御手段は、前記検出手段によって検出された前記被検出体の動作に基づいて、前記所定のコンテンツの画像を、前記本体を周回するように前記投影面上を移動する態様で投影する請求項1に記載のプロジェクタ。
The operator is located in the vicinity of the projection plane;
Detecting means for detecting the motion of the detected object that moves based on the motion of the operator; and
The projection control unit projects an image of the predetermined content in a manner of moving on the projection plane so as to go around the main body based on the operation of the detection target detected by the detection unit. Item 14. The projector according to Item 1.
前記検出手段は、前記投影面の近傍に位置しかつ前記所定のコンテンツが提示される少なくとも1人の被提示者又は前記被提示者を示す物体を被提示体として検出し、
前記投影制御手段は、前記被提示体が検出された位置に向かって、前記所定のコンテンツの画像を、前記本体を周回するように前記投影面上を移動する態様で投影する請求項2に記載のプロジェクタ。
The detection means detects at least one person to be presented or an object indicating the person to be presented, as a body to be presented, which is located in the vicinity of the projection surface and the predetermined content is presented.
The said projection control means projects the image of the said predetermined content in the aspect which moves on the said projection surface so that it may go around the said body toward the position where the said to-be-presented body was detected. Projector.
前記投影制御手段は、前記所定のコンテンツの画像を、前記投影面上で周回するように移動する態様で投影した後、所定の停止位置で停止する態様で投影し、
前記所定の停止位置は、前記被提示体が検出された位置に対応した前記投影面上の位置である請求項3に記載のプロジェクタ。
The projection control means projects the image of the predetermined content in a mode in which the image moves so as to circulate on the projection surface, and then projects in a mode to stop at a predetermined stop position,
The projector according to claim 3, wherein the predetermined stop position is a position on the projection plane corresponding to a position where the object to be presented is detected.
前記検出手段は、前記被検出体及び前記被提示体に至るまでの距離と、前記被検出体及び前記被提示体の大きさとを検出し、
前記検出手段は、前記距離と前記大きさとに基づいて、前記被検出体であるか又は前記被提示体であるかを判別する検出判別手段を含む請求項3又は4に記載のプロジェクタ。
The detection means detects the distance to the detected object and the presentation object, and the size of the detected object and the presentation object,
5. The projector according to claim 3, wherein the detection unit includes a detection determination unit that determines whether the detection target or the presentation target is based on the distance and the size.
前記検出手段は、
所定の波長の伝播波を発する伝播波発生手段と、
前記伝播波が、前記被検出体又は前記被提示体によって反射された反射波、又は前記被検出体又は前記被提示体によって散乱された散乱波を検出する反射波散乱波検出手段と、を含む請求項3ないし5に記載のプロジェクタ。
The detection means includes
Propagation wave generating means for generating a propagation wave of a predetermined wavelength;
The propagation wave includes a reflected wave reflected by the detected object or the object to be detected, or a reflected wave scattered wave detecting means for detecting a scattered wave scattered by the detected object or the object to be presented. The projector according to claim 3.
前記投影面は、略水平方向に形成された請求項1ないし6に記載のプロジェクタ。   The projector according to claim 1, wherein the projection surface is formed in a substantially horizontal direction. 前記操作者と前記被提示体とは、前記投影面と前記投影手段とを挟んで位置している請求項3ないし7に記載のプロジェクタ。   The projector according to claim 3, wherein the operator and the object to be presented are positioned with the projection plane and the projection unit interposed therebetween. 前記投影制御手段は、前記被検出体の動作の速度に応じて、前記所定のコンテンツの画像が移動する速度を決定する請求項2ないし8に記載のプロジェクタ。   The projector according to claim 2, wherein the projection control unit determines a speed at which the image of the predetermined content moves in accordance with a speed of operation of the detected object. 前記伝播波発生手段は、前記投影面に対して略平行に、かつ、前記投影面から略一定の距離で、前記伝播波を発する請求項6ないし9に記載のプロジェクタ。   10. The projector according to claim 6, wherein the propagation wave generating means emits the propagation wave substantially parallel to the projection surface and at a substantially constant distance from the projection surface. 前記所定のコンテンツの画像が、前記所定の停止位置で停止する態様で投影されたときに、前記被提示者が前記所定のコンテンツの内容を認識できる向きに前記所定のコンテンツの画像が投影される請求項4ないし10に記載のプロジェクタ。   When the image of the predetermined content is projected in such a manner as to stop at the predetermined stop position, the image of the predetermined content is projected in a direction in which the presentee can recognize the content of the predetermined content. The projector according to claim 4.
JP2007062852A 2007-03-13 2007-03-13 Projector Withdrawn JP2008227883A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007062852A JP2008227883A (en) 2007-03-13 2007-03-13 Projector
PCT/JP2008/054449 WO2008111601A1 (en) 2007-03-13 2008-03-12 Projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007062852A JP2008227883A (en) 2007-03-13 2007-03-13 Projector

Publications (1)

Publication Number Publication Date
JP2008227883A true JP2008227883A (en) 2008-09-25

Family

ID=39759535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007062852A Withdrawn JP2008227883A (en) 2007-03-13 2007-03-13 Projector

Country Status (2)

Country Link
JP (1) JP2008227883A (en)
WO (1) WO2008111601A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045125A1 (en) * 2013-09-27 2015-04-02 日立マクセル株式会社 Video projection device
JP2015087572A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Light emission device and method for manufacturing light emission device
JP2015187823A (en) * 2014-03-27 2015-10-29 セイコーエプソン株式会社 image projection device
JP2016212375A (en) * 2015-05-11 2016-12-15 大日本印刷株式会社 Device of displaying information on inside of water tank, and projection system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795644B1 (en) 2011-07-29 2017-11-08 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. Projection capture system, programming and method
ES2590214B1 (en) * 2015-05-17 2017-05-10 Carlos ZACCARO SALVADOR Dynamic projection system guided by the movement of a person

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002539742A (en) * 1999-03-17 2002-11-19 シーメンス アクチエンゲゼルシヤフト Equipment for dialogue
JP2003177469A (en) * 2001-10-05 2003-06-27 Victor Co Of Japan Ltd Image projector, image input device, image input/output device, and its method of use
JP2003280091A (en) * 2002-03-26 2003-10-02 Olympus Optical Co Ltd Projection display device
JP2006208845A (en) * 2005-01-28 2006-08-10 Fuji Photo Film Co Ltd Image display device and display position control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045125A1 (en) * 2013-09-27 2015-04-02 日立マクセル株式会社 Video projection device
CN105247414A (en) * 2013-09-27 2016-01-13 日立麦克赛尔株式会社 Video projection device
JPWO2015045125A1 (en) * 2013-09-27 2017-03-02 日立マクセル株式会社 Video projection device
CN105247414B (en) * 2013-09-27 2017-07-18 日立麦克赛尔株式会社 Image projection apparatus
US9942529B2 (en) 2013-09-27 2018-04-10 Hitachi Maxell, Ltd. Image projection device
JP2015087572A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Light emission device and method for manufacturing light emission device
JP2015187823A (en) * 2014-03-27 2015-10-29 セイコーエプソン株式会社 image projection device
JP2016212375A (en) * 2015-05-11 2016-12-15 大日本印刷株式会社 Device of displaying information on inside of water tank, and projection system

Also Published As

Publication number Publication date
WO2008111601A1 (en) 2008-09-18

Similar Documents

Publication Publication Date Title
EP2785059B1 (en) Laser projector
US11606851B2 (en) Lighting apparatus
US8519952B2 (en) Input method for surface of interactive display
JP6068392B2 (en) Projection capturing system and projection capturing method
JP6307972B2 (en) REFLECTOR, ADJUSTING METHOD, AND POSITION DETECTION DEVICE
US20110164191A1 (en) Interactive Projection Method, Apparatus and System
JPH1124839A (en) Information input device
JP2008227883A (en) Projector
JP6134804B2 (en) Video projection device
JPWO2016103543A1 (en) Projection device
JP2015111772A (en) Projection device
JP2009020564A (en) Projector
CN108463793B (en) Image recognition device, image recognition method, and image recognition unit
JP6102751B2 (en) Interface device and driving method of interface device
JP7087391B2 (en) Image display device and its control method
JP3736350B2 (en) Projection system and projector
JP6645588B2 (en) Display system
JP5414379B2 (en) Optical wireless communication apparatus, optical wireless communication method, and program
JP2012053603A (en) Information display system
JP2017010314A (en) Image projection system, image projection device, pointing device, and video supply device
JP2007017516A (en) Projector provided with function of projecting two-dimensional positional information
WO2014016994A1 (en) Interface device, program, and control method
JP2009080181A (en) Projector
CN108200418A (en) The projecting method and electronic equipment of electronic equipment
JP2000056925A (en) Device for changing data on screen in presentation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601