JP7149915B2 - Projection device, projection method and program - Google Patents
Projection device, projection method and program Download PDFInfo
- Publication number
- JP7149915B2 JP7149915B2 JP2019177672A JP2019177672A JP7149915B2 JP 7149915 B2 JP7149915 B2 JP 7149915B2 JP 2019177672 A JP2019177672 A JP 2019177672A JP 2019177672 A JP2019177672 A JP 2019177672A JP 7149915 B2 JP7149915 B2 JP 7149915B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- operator
- input operation
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、投影装置、投影方法及びプログラムに関する。 The present invention relates to a projection device, projection method and program.
近年、インタラクティブ操作を行うことができる投影装置が提案されている。ここでインタラクティブ操作とは、ユーザが投影されている画像に対して投影面上で書き込みを行えたり、ユーザの指示により投影されている画像を移動又は拡縮させることである。 In recent years, projection devices have been proposed that allow interactive operations. Here, the interactive operation means that the user can write on the projected image on the projection surface, or move, enlarge or reduce the projected image according to the user's instruction.
例えば特許文献1に記載されている技術では、インタラクティブ操作に関連する技術が記載されている。具体的には、特許文献1に記載された技術では、指示手段を移動させた移動軌跡に対応する第1の軌跡画像を画像の表示面上における設定されたオフセット量だけオフセットした位置に表示させるとともに、移動軌跡に対応する第2の軌跡画像をオフセットしない位置にも表示させる。
For example, the technique described in
本発明の技術に係る一つの実施形態は、複数の人物に対して主画像を投影する場合において、操作を行う操作者に対して副画像を適切に表示することができる投影装置、投影方法、及びプログラムを提供することである。 One embodiment of the technology of the present invention provides a projection device, a projection method, and a projection method that can appropriately display a sub-image for an operator who performs an operation when projecting a main image for a plurality of persons. and provide programs.
本発明の一の態様である投影装置は、主画像又は主画像と主画像の少なくとも一部が複製された副画像とを含む投影画像を投影面に投影する投影部と、投影部への入力操作を検出する入力操作検出部と、投影面の周囲に位置する複数の人物のうちの副画像に入力操作を行う操作者を検知する検知部と、検知部により検知された操作者に対応して配置された副画像と主画像とを含む投影画像を生成する投影画像生成部と、を備え、投影画像生成部は、入力操作検出部の検出結果に基づいて、操作者の副画像への入力操作を主画像に反映させた投影画像を生成する。 A projection device according to one aspect of the present invention includes a projection unit that projects onto a projection plane a projection image that includes a main image or a main image and a sub-image obtained by replicating at least part of the main image; An input operation detection unit that detects an operation, a detection unit that detects an operator performing an input operation on a sub-image among a plurality of people positioned around the projection plane, and an operator detected by the detection unit. a projection image generation unit that generates a projection image including the sub-image and the main image arranged in the same manner, the projection image generation unit, based on the detection result of the input operation detection unit, detects the operator's input to the sub-image. A projection image is generated in which the input operation is reflected in the main image.
好ましくは、投影装置は、検知部の検知結果に基づいて、操作者と、操作者ではない他の人物とを判定する判定部を備え、投影画像生成部は、判定部の結果に基づいて、操作者の副画像への操作を主画像に反映させる。 Preferably, the projection device includes a determination unit that determines the operator and other persons other than the operator based on the detection result of the detection unit, and the projected image generation unit determines, based on the result of the determination unit, The operator's operation on the sub-image is reflected in the main image.
好ましくは、投影装置は、投影面の周囲に位置する複数の人物の撮像画像を取得する撮像部を備え、検知部は、撮像画像に基づいて、投影面の周囲に位置する複数の人物を検知する。 Preferably, the projection device includes an imaging unit that acquires captured images of a plurality of people positioned around the projection plane, and the detection unit detects the plurality of people positioned around the projection plane based on the captured images. do.
好ましくは、投影画像生成部は、検知部で検知された複数の人物の検知結果に基づいて、副画像を配置する。 Preferably, the projection image generator arranges the sub-images based on the detection results of the plurality of persons detected by the detector.
好ましくは、検知部は、撮像画像に基づいて、人物の指示動作を検知して操作者を検知する。 Preferably, the detection unit detects an operator by detecting an instruction action of a person based on the captured image.
好ましくは、投影装置は、複数の人物のうち少なくとも1人が有し、操作指示の入力を行う指示体からの指示を受け付ける指示受付部を備え、入力操作検出部は、指示に基づいて前記入力操作を検出し、検知部は、指示に基づいて操作者を検知する。 Preferably, the projection device includes an instruction reception unit that is owned by at least one of the plurality of persons and that receives an instruction from an indicator that inputs an operation instruction, and the input operation detection unit receives the input operation instruction based on the instruction. An operation is detected, and the detection unit detects the operator based on the instruction.
好ましくは、検知部は、人物が有する特徴部を検知することにより、操作者を検知する。 Preferably, the detection unit detects the operator by detecting a characteristic part of the person.
好ましくは、検知部は、予め決められた位置の人物を操作者として検知する。 Preferably, the detector detects a person at a predetermined position as the operator.
好ましくは、入力操作検出部は、投影面の周囲に位置する複数の人物の操作画面の要求指示を検出し、投影画像生成部は、入力操作検出部により検出された要求指示に応じて、操作画面と主画像とを含む投影画像を生成する。 Preferably, the input operation detection unit detects a request instruction on the operation screen of a plurality of persons positioned around the projection plane, and the projection image generation unit performs the operation according to the request instruction detected by the input operation detection unit. A projection image is generated that includes a screen and a main image.
本発明の他の態様である投影方法は、主画像又は主画像と主画像の少なくとも一部が複製された副画像とを含む投影画像を投影面に投影する投影部を有する投影装置の投影方法であって、投影部への入力操作を検出する入力操作検出ステップと、投影面の周囲に位置する複数の人物のうちの副画像に入力操作を行う操作者を検知する検知ステップと、検知ステップにより検知された操作者に対応して配置された副画像と主画像とを含む投影画像を生成する投影画像生成ステップと、を含み、投影画像生成ステップは、入力操作検出ステップの検出結果に基づいて、操作者の副画像への入力操作を主画像に反映させた投影画像を生成する。 A projection method according to another aspect of the present invention is a projection method for a projection apparatus having a projection unit that projects onto a projection surface a projection image including a main image or a main image and a sub-image obtained by replicating at least part of the main image. an input operation detection step of detecting an input operation to the projection unit; a detection step of detecting an operator performing an input operation on a sub-image among a plurality of persons positioned around the projection plane; and a detection step. a projected image generating step of generating a projected image including a sub-image and a main image arranged corresponding to the operator detected by Then, a projection image is generated in which the operator's input operation to the sub-image is reflected in the main image.
本発明の他の態様であるプログラムは、主画像又は主画像と主画像の少なくとも一部が複製された副画像とを含む投影画像を投影面に投影する投影部を有する投影装置の投影方法をコンピュータに実行させるプログラムであって、投影部への入力操作を検出する入力操作検出ステップと、投影面の周囲に位置する複数の人物のうちの副画像に入力操作を行う操作者を検知する検知ステップと、検知ステップにより検知された操作者に対応して配置された副画像と主画像とを含む投影画像を生成する投影画像生成ステップと、を含み、投影画像生成ステップは、入力操作検出ステップの検出結果に基づいて、操作者の副画像への入力操作を主画像に反映させた投影画像を生成する投影方法をコンピュータに実行させる。 A program according to another aspect of the present invention provides a projection method for a projection device having a projection unit that projects onto a projection plane a projection image that includes a main image or a main image and a sub-image obtained by replicating at least part of the main image. A program to be executed by a computer, comprising: an input operation detection step for detecting an input operation to a projection unit; and a projection image generation step of generating a projection image including a main image and a sub-image arranged corresponding to the operator detected by the detection step, wherein the projection image generation step is an input operation detection step. Based on the detection result, the computer executes a projection method for generating a projected image in which the operator's input operation to the sub-image is reflected in the main image.
以下、添付図面に従って本発明に係る投影装置、投影方法及びプログラムの好ましい実施の形態について説明する。 Preferred embodiments of the projection apparatus, projection method, and program according to the present invention will be described below with reference to the accompanying drawings.
<第1の実施形態>
先ず、本発明の第1の実施形態に関して説明する。
<First embodiment>
First, the first embodiment of the present invention will be described.
図1は、本実施形態の投影装置20が使用される一形態に関して説明する図である。
FIG. 1 is a diagram for explaining one mode in which the
投影装置20は会議室の天井Xに設置されている。投影装置20のプロジェクタ部(投影部)20Aは、投影装置20で生成される投影画像をテーブルTの表面(以後、単にテーブルTという)を投影面として投影する。テーブルTの回りに着席した会議の出席者である人物A及び人物Jは、テーブルTに投影される投影画像を参照する。なお、図1で示されている人物Aと人物Jとの配置は、図4をX軸方向に向かって見た場合の配置である。
The
投影装置20はカメラ部(撮像部)20Bを備え、テーブルTを含む人物が写っている撮像画像を取得する。図1及び図4に示す場合では、テーブルTを囲む人物A~人物Lの撮像画像が取得される。なお、図1は投影装置20が使用される一例を示す図であり、これに限定されるものではない。例えば投影装置20は、天井Xに設置されることには限定されず、テーブルTの表面に投影画像を投影することが可能な位置に設置することができる。また、投影面は、テーブルTに限定されるものではなく、投影画像を投影することができる表面であればよい。例えば、スクリーンやホワイトボードを投影面とすることもできる。
The
図2は、投影装置20の機能構成の例を示すブロック図である。
FIG. 2 is a block diagram showing an example of the functional configuration of the
投影装置20は、投影面であるテーブルTに投影画像を投影するプロジェクタ部20Aと、テーブルTの回りに位置する複数の人物を捉えるカメラ部20Bと、制御部26と、メモリ27と、投影画像生成部28と、入力操作検出部30、検知部31と、判定部33と、入力I/F(interface)29と、を備えている。なお制御部26、メモリ27、及び入力I/F29は、プロジェクタ部20A及びカメラ部20Bにおいて共通に機能する。
The
プロジェクタ部20Aは、所謂単板式の液晶プロジェクタであり、表示用光学素子(光変調素子ともいう)42と、素子ドライバ43と、LED光源44と、光源ドライバ45と、投影レンズ46と、レンズドライバ47と、を含む。
The
表示用光学素子42は、複数色のカラーフィルタを備えた透過型の液晶パネル、或いはダイクロイックミラーとマイクロレンズアレイとモノクロの透過型の液晶パネルとを組み合わせたカラーフィルレス構造の素子等が用いられる。カラーフィルレス構造の素子は、例えば、R(Red)光、G(Green)光、B(Blue)光をそれぞれ反射する3種類のダイクロイックミラーにより白色光をRGBの3色の光に分光し、3色の光を互いに異なった角度で液晶パネル上のマイクロレンズアレイに入射させる。そして、3色の光をマイクロレンズアレイにより液晶パネルのR用画素、G用画素、B用画素にそれぞれ入射させることによりカラー画像の表示が可能となる。
The display
なお、プロジェクタ部20Aは、単板式の液晶プロジェクタに限定されるものでなく、色分離光学系及び複数の液晶パネルを備える公知の3板式の液晶プロジェクタであってもよい。また、プロジェクタ部20Aは、透過型液晶方式に限定されるものではなく、反射型液晶表示方式やDMD(Digital Mirror Device)等を用いた反射型表示方式等の他の各種方式を採用してもよい。
The
素子ドライバ43は、制御部26の制御の下、表示用光学素子42を制御して、投影画像生成部28が生成した投影画像を表示させる。
Under the control of the
LED光源44は、投影光源であり、表示用光学素子42の背面側(投影レンズ46に対向する面とは反対面側)から表示用光学素子42に対して白色光を入射させる。これにより、表示用光学素子42から投影画像の像光が出射される。光源ドライバ45は、制御部26の制御の下、LED光源44の駆動を制御する。なお、投影光源としてLED以外の光源を使用可能である。また、DMD等、R光、B光、G光を時分割で順次投影する表示用光学素子42を用いる場合は、投影光源として、R光、B光、G光を時分割で表示用光学素子42に順次照射させる光源を使用する。すなわち、投影光としては、R光、B光、G光などの白色光以外の光を用いることができる。
The
投影レンズ46は、表示用光学素子42から出射される投影画像の像光を投影面に投影する。レンズドライバ47は、図示しないレンズ駆動部を介して、投影レンズ46のフォーカス制御等を行う。なお、本例では投影装置20及びテーブルTの位置がほぼ固定であるので、テーブルTの位置に合わせて予めフォーカス調整等が予め行われていてもよい。
The
制御部26は、データバス49を介して、レンズドライバ37、撮像素子38、インターフェース回路40、素子ドライバ43、光源ドライバ45、及びレンズドライバ47等に接続している。この制御部26は、例えばCPU(Central Processing Unit)を含む各種の演算部及び処理部及び記憶部により構成されたものであり、メモリ27から読み出した制御用のプログラムやデータを実行することで、投影装置20の全体の動作や処理を統括制御する。
The
メモリ27は、制御部26が処理を実行するための制御用のプログラムを格納している。
The
投影画像生成部28は、プロジェクタ部20Aで投影される投影画像を生成する。具体的には投影画像生成部28は、主画像で構成される投影画像、又は主画像及び副画像で構成される投影画像を生成する。ここで、主画像とは投影面に投影される比較的大きな画像である。例えば主画像は、会議に出席した出席者全員が見ることを想定した画像である。また、副画像とは、主画像に対してインタラクティブ操作(入力操作)を行う操作者に補助的に投影される画像である。すなわち、主画像に対してインタラクティブ操作を行う場合に、出席者の位置によっては、直接主画像の所定の領域に手が届かない場合がある。このような場合には、副画像を操作者の手元に表示して、操作者は、敢えて移動しなくても主画像に対してインタラクティブ操作を行うことが可能になる。
The projection
投影画像生成部28は、検知部31により検知された操作者に対応して配置された副画像と主画像とを含む投影画像を生成する。副画像は、予め投影面上の所定の位置に配置することが決められていてもよい。例えば、テーブルTにおいて予め出席者が座る位置が決まっている場合には、副画像はテーブルTにおいて予め決められた位置に表示される。また、副画像は、操作者の場所に応じて表示されてもよい。例えば、検知部31で検知された操作者の手元や周辺に副画像を表示される。
The projection
投影画像生成部28は、入力操作検出部30の検出結果に基づいて、操作者の副画像へのインタラクティブ操作(入力操作)を主画像に反映させた投影画像を生成する。なお、投影画像生成部28は、副画像においてもインタラクティブ操作を反映させた投影画像を生成してもよい。
Based on the detection result of the input
入力操作検出部30は、プロジェクタ部20Aへのインタラクティブ操作を検出する。具体的には、プロジェクタ部20Aが投影する投影画像へのインタラクティブ操作を検出する。入力操作検出部30は、様々の手法により、インタラクティブ操作を検出することができる。例えば入力操作検出部30は、カメラ部20Bにより撮像された撮像画像に基づいて、インタラクティブ操作を検出する。入力操作検出部30は、撮像画像を画像処理することにより、操作者の書き込みや投影された画像の移動又は拡縮操作を検出して、投影画像生成部28はその検出結果を投影画像(主画像、又は主画像及び副画像)に反映させる。また、入力操作検出部30は、図2では図示は省略しているが、電子ペン等の指示体に送信される信号により、インタラクティブ操作を検出してもよい。入力操作検出部30は、電子ペンから送信されてくる信号により、操作者が書き込んだ文字又は投影された画像への操作を検出し、投影画像生成部28はその検出結果を投影画像に反映させる。
The input
検知部31は、投影面の周囲に位置する複数の人物のうちの副画像にインタラクティブ操作を行う操作者を検知する。検知部31は、投影装置20が取得する様々の情報に基づいて、会議の参加者から、インタラクティブ操作を行う操作者を検知する。例えば検知部31は、カメラ部20Bで取得された撮像画像に基づいて、操作者を検知する。
The
判定部33は、インタラクティブ操作が操作者の操作であるか、操作者でない者の操作であるかを判定する。例えば判定部33は、撮像画像に基づいて、操作者と、操作者ではない他の人物とを判定する。
The
カメラ部20Bは、会議の出席者を捉えた撮像画像の取得を行う。カメラ部20Bは出席者の撮像画像を静止画又は動画で取得する。カメラ部20Bは、撮影レンズ36と、レンズドライバ37と、撮像素子38と、図中「A/D」と表示しているAD(Analog-to-Digital)変換器39と、図中「I/F」と表示しているインターフェース(interface)回路40と、を含む。カメラ部20Bは、常時又は一定の間隔で撮像画像を取得する。
The
撮影レンズ36を介して、出席者の像は撮像素子38に結像する。レンズドライバ37は、図示しないレンズ駆動部を介して、撮影レンズ36のフォーカス制御等を行う。
An image of the attendee is formed on the
撮像素子38は、垂直ドライバ及び水平ドライバ等を有するCMOS(Complementary Metal-Oxide Semiconductor)ドライバにより駆動されるCMOS型のイメージセンサにより構成されている。なお、撮像素子38は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。
The
撮像素子38には、RGBの各フィルタが2次元状に配列されたカラーフィルタが備えられており、撮像素子38によりカラー画像が得られる。なお、得られる撮像画像は、カラー画像に限定されるものではなく、モノクロ画像であってもよい。
The
AD変換器39は、撮像素子38から読み出された受光信号をデジタル信号に変換してインターフェース回路40へ出力する。インターフェース回路40は、画像入力コントローラとして機能するものであり、AD変換器39から入力された撮像画像を制御部26へ出力する。
The
図3は、投影装置20を使用した投影方法を示すフローチャートである。なお、図3に示す一連のステップを説明した後に、各ステップの詳細について説明を行う。
FIG. 3 is a flow chart showing a projection method using the
先ず、会議の出席者が会議室に入室した後に、投影装置20の電源が入れられる(ステップS10)。その後、カメラ部20Bにより出席者の撮像が行われ撮像画像が取得される(ステップS11)。その後、検知部31により、取得された撮像画像に基づいて人物の数及び各人物の位置が検知される(ステップS12)。次に、プロジェクタ部20Aにより投影面に主画像が投影される(ステップS13)。次に、検知部31は、会議の出席者のうちで操作者を検知する(検知ステップ:ステップS14)。そして、検知部31で操作者が検知された場合には、操作者に対応する位置に副画像を表示する(ステップS15)。その後、入力操作検出部30はインタラクティブ操作を検知する(入力操作検出ステップ:ステップS16)。次に、判定部33により、入力操作検出部30で検知された操作が操作者の操作であるか否かが判定される(ステップS17)。検知したインタラクティブ操作が操作者のものである場合には、副画像に検知したインタラクティブ操作を反映させ(投影画像生成ステップ:ステップS18)、投影画像生成部28により、主画像に検知したインタラクティブ操作を反映させた投影画像が生成され投影面に投影される(投影画像生成ステップ:ステップS19)。一方、検知したインタラクティブ操作が操作者のものでない場合には、副画像に検知したインタラクティブ操作を反映させず(ステップS20)、主画像に検知したインタラクティブ操作を反映させない(ステップS21)。
First, after the conference attendees enter the conference room, the
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, it is possible to apply the present invention.
次に、上述したステップの各ステップに関して詳細に説明をする。 Next, each step of the steps described above will be described in detail.
<<ステップS10~ステップS12>>
先ず、ステップS10~ステップS12に関して説明する。ステップS10では投影装置20の電源が入れられる。投影装置20の電源は、手動で入れられてもよいし、会議の出席者が会議室に入室したことを検知して自動的に電源が入れられてもよい。
<<Step S10 to Step S12>>
First, steps S10 to S12 will be described. In step S10, the power of the
図4は、複数の人物が出席する会議において、投影装置20により会議の資料を投影する例を説明する図である。
FIG. 4 is a diagram illustrating an example of projecting conference materials by the
会議室にはテーブルTが設置されており、テーブルTの回りに、会議の参加者である人物A~人物Lが位置している。投影装置20は、図1で説明したように天井Xに設置されており、テーブルTを投影面として投影画像を投影する。人物A~人物Lは、テーブルTに投影される会議の資料を見ながら会議に参加する。
A table T is installed in the conference room, and persons A to L who are participants in the conference are positioned around the table T. FIG. The
ステップS11及びステップS12では、カメラ部20Bにより会議の出席者の撮像が行われ、検知部31により人物の数及び位置が検知される。
In steps S11 and S12, the
図5は、カメラ部20Bにより撮像された撮像画像を概念的に示す図である。
FIG. 5 is a diagram conceptually showing a captured image captured by the
図5に示された撮像画像Pは、カメラ部20Bにより撮像される。撮像画像Pには全ての会議の出席者(人物A~人物L)が写っている。カメラ部20Bにより取得された撮像画像Pに基づいて、検知部31は人物A~人物Lを検知する。例えば、検知部31は、カメラ部20Bで撮像された撮像画像に画像処理を行うことにより、人物A~人物Lを検知する。撮像画像Pにおける点線は、検知部31で人物A~人物Lの各々が検知されたことを示す。検知部31は、人物A~人物Lの各々の位置を検知する。
A captured image P shown in FIG. 5 is captured by the
ここで、インタラクティブ操作を行う場合に、操作者が副画像を必要とする場合に関して説明する。 Here, a case where the operator needs a sub-image when performing an interactive operation will be described.
図6は、人物Aが操作者であり、副画像を必要とする場合を説明する図である。 FIG. 6 is a diagram illustrating a case where person A is the operator and needs a sub-image.
人物Aは領域MIに表示されている主画像に対してインタラクティブ操作を行いたいと思っている。インタラクティブ操作を行う場合には、領域MIに表示されている主画像に直接触れなければならない場合には、人物Aの位置からは手が届かず人物Aはそのままの位置では領域MIに表示された主画像に対してインタラクティブ操作を行うことができない。このような場合に、人物Aの目の前(手元)に、領域MIに表示されている主画像と同じ内容の副画像を表示し、人物Aの副画像へのインタラクティブ操作を領域MIに反映させることにより、人物Aはそのままの位置から、領域MIに表示された主画像を操作することができる。 Person A wishes to perform an interactive operation on the main image displayed in area MI. When performing an interactive operation, if it is necessary to directly touch the main image displayed in the area MI, the person A cannot be reached from the position of the person A, and the person A is displayed in the area MI at the same position. You cannot perform interactive operations on the main image. In such a case, a sub-image having the same content as the main image displayed in the area MI is displayed in front of the person A (at hand), and the interactive operation on the sub-image of the person A is reflected in the area MI. By allowing the person A to operate the main image displayed in the area MI from the same position.
<<ステップS13~ステップS15>>
次に、ステップS13~ステップS15に関して説明する。
<<Step S13 to Step S15>>
Next, steps S13 to S15 will be described.
ステップS13では、プロジェクタ部20Aにより主画像で構成された投影画像が投影される。主画像は、投影面であるテーブルTの全域に表示されてもよいし、テーブルTの一部分に表示されてもよい。
In step S13, the projection image composed of the main image is projected by the
ステップS14では、検知部31により操作者が検知される。具体的には、検知部31は、カメラ部20Bで取得された撮像画像に基づいて、所定の指示動作(ジェスチャ)を検知することにより操作者を検知する。
In step S14, the
図7は、副画像の表示要求の一例を示す図である。 FIG. 7 is a diagram showing an example of a display request for a sub-image.
図7に示した場合では、人物Aは、指で領域MIを指し示すことにより、領域MIに表示されている主画像に対応する副画像の表示の要求を行う。カメラ部20Bにより、人物Aの動きが常時撮像されており、人物Aの副画像の表示要求を検知することにより、人物Aが操作者であることを検知する。具体的には、検知部31は、撮像画像を画像処理することにより、人物Aが指を指したことを検知し、人物Aが操作者であることを検知する。また、検知部31は、撮像画像を画像処理することにより、人物Aが指している方向において領域MIが存在することを検知して、人物Aが領域MIの操作者であることを検知する。
In the case shown in FIG. 7, the person A requests display of the sub-image corresponding to the main image displayed in the area MI by pointing the area MI with his finger. The
ステップS15では、検知部31の検知結果に基づいて、画像生成部により主画像と副画像とで構成される投影画像が生成され、その投影画像がテーブルTに投影される。
In step S<b>15 , the projection image composed of the main image and the sub-image is generated by the image generation unit based on the detection result of the
図8は、人物Aに対応する位置に表示された副画像の表示例を示す図である。 FIG. 8 is a diagram showing a display example of a sub-image displayed at a position corresponding to person A. As shown in FIG.
検知部31により人物Aが領域MIに関しての副画像の表示要求をしたと検知され、投影画像生成部28により人物Aの手元に副画像MSを有する投影画像が表示される。副画像MSは、領域MIに表示されている主画像と同様の内容を表示する。具体的には、領域MIに表示されている「あいう」が副画像MSにおいても表示されている。なお、副画像が表示される位置は、人物Aがインタラクティブ操作を行う観点より、人物Aの位置に対応して様々な位置が採用される。
The
<<ステップS16~ステップS22>>
次に、ステップS16~ステップS22に関して説明する。
<<Step S16 to Step S22>>
Next, steps S16 to S22 will be described.
ステップS16では、入力操作検出部30により、人物Aのインタラクティブ操作が検知される。インタラクティブ操作は、人物Aの指により行われても良いし、電子ペン等の指示体により行われてもよい。人物Aの指でインタラクティブ操作を行う場合には、カメラ部20Bで人物Aを撮像することにより、インタラクティブ操作を検知する。例えば、人物Aが文字を記載する場合には、カメラ部20Bで人物Aの指の軌跡を検知する。また例えば、人物Aが電子ペン51でインタラクティブ操作を行う場合には、電子ペン51から人物Aが記載した文字を認識し、その情報が投影装置20に送られる。
In step S<b>16 , the input
ステップS17では、判定部33により、検知したインタラクティブ操作が操作者(人物A)の操作であるか、又は操作者ではない他の人物(人物Bや人物Lなど)の操作であるかを検知する。例えば判定部33は、カメラ部20Bで撮像された撮像画像により、人物Aのインタラクティブ操作であるか、他の人物の操作であるかを判定する。
In step S17, the
図9は、判定部33が操作者でない他の人物の操作と判定した場合について説明する図である。
FIG. 9 is a diagram illustrating a case where the
判定部33は、カメラ部20Bで撮像された撮像画像によって、人物Aのインタラクティブ操作であるか否かを判定する。具体的には判定部33は、撮像画像において、人物Aを検知しており、人物Aの身体での操作か又は他の人物(例えば人物B)の身体での操作かを判定する。判定部33が、人物Aのインタラクティブ操作ではないと判定した場合には、その操作は副画像及び主画像に反映されない(ステップS20及びステップS21)。
The
図10は、判定部33により、操作者のインタラクティブ操作と判定された場合について説明する図である。
FIG. 10 is a diagram illustrating a case where the
判定部33により、検知されたインタラクティブ操作が人物Aの操作であることが判定された場合には、そのインタラクティブ操作は副画像及び主画像に反映される(ステップS18及びステップS19)。図10に示した場合では、入力操作検出部30により人物Aの電子ペン51によるインタラクティブ操作(文字「え」を入力)を検出し、投影画像生成部28により、この入力された文字が副画像MS及び領域MIの主画像にも反映された投影画像が生成され投影される。
When the
以上で説明したように、本実施形態では、検知部31により、複数の人物から操作者が検知され、その操作者の手元に副画像が表示される。これにより、操作者は副画像にインタラクティブ操作を行うことによって、主画像にもその内容を反映させることができる。また本実施形態では、カメラ部20Bが投影装置20に備えられているので、会議の出席者を捉えた撮像画像から得られる情報を、検知部31、入力操作検出部30及び判定部33は使用することができる。
As described above, in this embodiment, the
<第2の実施形態>
次に、第2の実施形態に関して説明する。
<Second embodiment>
Next, a second embodiment will be described.
図11は、第2の実施形態の投影装置20の機能構成例を示すブロック図である。なお、図2で既に説明を行った箇所は、同じ符号を付し説明を省略する。
FIG. 11 is a block diagram showing a functional configuration example of the
投影装置20は、プロジェクタ部20Aと、制御部26と、メモリ27と、投影画像生成部28と、入力操作検出部30と、検知部31と、判定部33と、入力I/F(interface)29と、指示受付部35と、を備えている。
The
本実施形態の投影装置20は、第1の実施形態の投影装置20とは異なりカメラ部20Bを有していない。すなわち、本実施形態の投影装置20は、カメラ部20Bを構成する、撮像素子38、AD(Analog-to-Digital)変換器39、及びインターフェース回路40を有していない。
Unlike the
投影装置20は、電子ペン(指示体)51からの指示受付部35を備える。指示受付部35は、複数の人物のうち少なくとも1人が有し、操作指示の入力を行う電子ペン51からの指示を受け付ける。
The
入力操作検出部30は、指示受付部35が受け付けた指示に基づいて、プロジェクタ部20Aへのインタラクティブ操作を検出する。すなわち、電子ペン51を介してのインタラクティブ操作は、入力操作検出部30により検出される。
The input
検知部31は、指示受付部35が受け付けた指示に基づいて、インタラクティブ操作を行う操作者を検知する。具体的には、電子ペン51は予め所持する人物が決められており、電子ペン51から送信されてきた信号により、操作者を検知することができる。
The
判定部33は、指示受付部35が受け付けた指示に基づいて、操作者と操作者ではない他の人物を判定する。具体的には、電子ペン51は予め所持する人物が決められており、電子ペン51から送信されてきた信号により、操作者と操作者ではない他の人物を判定する。
Based on the instruction received by the
図12は、人物A及び人物Bの各々が電子ペン51によりインタラクティブ操作を行うことを示す図である。
FIG. 12 is a diagram showing that each of person A and person B performs an interactive operation with the
人物Aは電子ペン51Aを有しており、人物Bは電子ペン51Bを有している。電子ペン51Aは、予め人物A(又は図12中の人物Aが位置する場所に居る人物)が所持することが設定されており、電子ペン51Bは、予め人物Bが所持することが設定されている。従って、入力操作検出部30は、電子ペン51Aからの指示は人物Aのインタラクティブ操作として検出し、電子ペン51Bからの指示は人物Bのインタラクティブ操作として検出する。また、電子ペン51A及び電子ペン51Bの位置は予め決められており、副画像の配置は、電子ペン51A及び電子ペン51Bを基準にして配置される。すなわち、人物Aは、電子ペン51Aを介して副画像の表示要求を行い、電子ペン51Aの予め設定された位置に対応して副画像も配置される。
A person A has an
また、各副画像と各電子ペンとは一対一に対応している。すなわち、人物Aの電子ペン51Aは人物Aの副画像MS-Aに対してのみ操作を行うことが可能であり、人物Bの電子ペン51Bは人物Bの副画像MS-Bに対してのみ操作を行うことが可能である。すなわち、判定部33は、電子ペン51Aの副画像MS-Aには電子ペン51Aを介しての指示を操作者のインタラクティブ操作であると判定し、電子ペン51Bの副画像MS-Bには電子ペン51Bを介しての指示を操作者のインタラクティブ操作であると判定する。なお、電子ペン51A及び51Bは、投影装置20に無線又は有線により接続されている。
Also, each sub-image and each electronic pen are in one-to-one correspondence. That is, the
図13は、本実施形態における投影方法を示したフローチャートである。 FIG. 13 is a flow chart showing a projection method according to this embodiment.
先ず、会議の出席者が会議室に入室した後に、投影装置20の電源が入れられる(ステップS30)。その後、プロジェクタ部20Aにより、投影面に主画像が投影される(ステップS31)。次に、検知部31は、会議の出席者のうちで操作者を検知する(ステップS32)。そして、検知部31で操作者が検知された場合には、操作者に対応する位置に副画像を表示する(ステップS33)。その後、入力操作検出部30はインタラクティブ操作を検出する(ステップS34)。次に、判定部33により、入力操作検出部30で検出された操作が操作者の操作であるか否かが判定される(ステップS35)。検出したインタラクティブ操作が操作者のものである場合には、投影画像生成部28により、副画像に検出したインタラクティブ操作を反映させ(ステップS36)、主画像に検出したインタラクティブ操作を反映(ステップS37)させた投影画像が生成される。一方、検知したインタラクティブ操作が操作者のものでない場合には、副画像に検知したインタラクティブ操作を反映させず(ステップS38)、主画像に検知したインタラクティブ操作を反映させない(ステップS39)。
First, after the attendees of the conference enter the conference room, the
以上で説明したように、本実施形態では、検知部31により複数の人物から操作者が検知され、その操作者の手元に副画像が表示される。これにより、操作者は副画像にインタラクティブ操作を行うことによって、主画像にもその内容を反映させることができる。また本実施形態では、電子ペン51を使用してインタラクティブ操作が行われ、各電子ペン51は各副画像に対応しているので、操作者ではない他の人物の電子ペン51による誤ったインタラクティブ操作の検出を防ぐことができる。
As described above, in this embodiment, the
<第1の変形例>
次に、第1の変形例に関して説明する。本例においては、操作画面を使用して副画像を表示させる。
<First modification>
Next, a first modified example will be described. In this example, the operation screen is used to display the sub-image.
検知部31は、投影面の周囲に位置する複数の人物の操作画面の要求指示を検知する。そして、投影画像生成部28は、入力操作検出部30により検知された要求指示に応じて、操作画面と主画像とを含む投影画像を生成する。
The
図14は、操作画面の要求指示の例を示す図である。 FIG. 14 is a diagram showing an example of a request instruction on the operation screen.
人物Aは、指示動作(指を移動させる)ことにより、操作画面の要求指示を出す。入力操作検出部30は、カメラ部20Bを有する投影装置20(図2を参照)である場合には、人物Aの撮像画像に基づいて、人物Aが操作画面の投影領域の端辺61を指先で1往復移動させることを検出する。これにより、入力操作検出部30は、操作画面の要求指示を検出する。投影画像生成部28は、要求指示に基づいて、端辺61から出現する操作画面を有する投影画像を生成する。
Person A issues an instruction to request an operation screen by performing an instruction action (moving a finger). If the input
図15は、人物Aが有する電子ペン51Aにより、操作画面の要求指示を行う場合について説明する図である。
FIG. 15 is a diagram for explaining a case where the
人物Aは、指示体(電子ペン51A)により、操作画面の要求指示を出す。入力操作検出部30は、電子ペン51Aが接続される指示受付部35を有する投影装置20(図11を参照)である場合には、電子ペン51Aから操作画面の要求指示を検出する。具体的には、電子ペン51Aには、操作画面の表示ボタンが設けられており、表示ボタンが押下されることにより、操作画面が表示される。電子ペン51Aの位置は予め決められており、電子ペン51Aの位置を基準にして操作画面が表示される。
The person A issues an operation screen request instruction using an indicator (
図16は、表示された操作画面の例を示す図である。入力操作検出部30が操作画面の要求を検知した場合には、投影画像生成部28は主画像と操作画面MOとを含む投影画像を生成する。操作画面MOは、投影面に投影される主画像への操作を行えるアイコンを有している。具体的には操作画面MOは、「色変更」「太さ変更」「副画像表示」「一つ戻す」等のアイコンを有している。操作画面MOのこれらのアイコンを指又は電子ペン51Aによりタッチすることにより、アイコンに応じたインタラクティブ操作を行うことができる。なお、図16に示した場合では、操作画面MOは矢印55に示すようにテーブルTの縁から出現する。
FIG. 16 is a diagram showing an example of the displayed operation screen. When the input
以上で説明したように、本実施形態では、入力操作検出部30が操作画面の要求指示を検出し、操作画面が表示される。そして、操作画面が有するアイコンを介してインタラクティブ操作を行うことができるので、ユーザに簡便なインタラクティブ操作を提供することができる。
As described above, in the present embodiment, the input
<第2の変形例>
次に、第2の変形例に関して説明する。本例では、検知部31が操作者を検知する態様の他の例に関して説明する。
<Second modification>
Next, a second modified example will be described. In this example, another example of a mode in which the
図17は、検知部31が、人物が有する特徴部により操作者を検知する場合の例を示す図である。
FIG. 17 is a diagram showing an example in which the
図17に示す場合には、人物Aは特徴部として色がついた指輪Rをしている。そして、投影装置20がカメラ部20Bを有する場合(図2を参照)には、人物Aの指輪Rが写っている撮像画像が取得され、その撮像画像に基づいて人物Aを操作者として検知する。なお、特徴部としては、色のついた指輪Rに限定されず、様々なものを特徴部として採用することができる。また、判定部33は、指輪Rをしている人物を操作者と判定し、指輪Rしていない人物を操作者でないと判定することができる。
In the case shown in FIG. 17, person A has a colored ring R as a characteristic part. Then, when the
このように、人物が身につけている特徴部(指輪)により、操作者を検知及び判定することにより、正確に操作者のインタラクティブ操作を反映させることができる。 In this way, by detecting and determining the operator from the characteristic portion (ring) worn by the person, it is possible to accurately reflect the interactive operation of the operator.
<第3の変形例>
次に、第3の変形例に関して説明する。本例では、検知部31が操作者を検知する態様の他の例に関して説明する。
<Third Modification>
Next, a third modification will be described. In this example, another example of a mode in which the
図18は、特定の位置に居る人物を、操作者として検知する場合の例を示す図である。 FIG. 18 is a diagram showing an example of detecting a person at a specific position as the operator.
図18に示す場合には、人物Zは、全ての人物との距離が最も短い場所Sに位置している。検知部31は、場所Sに位置した人物を操作者として検知することが決められおり、人物Zが場所Sに位置したことを検知すると、検知部31は人物Zを操作者として検知する。投影装置20がカメラ部20Bを有する場合(図2を参照)には、人物Zが写っている撮像画像が取得され、検知部31はその撮像画像に基づいて人物Zを操作者として検知し、判定部33はその撮像画像に基づいて操作者を判定する。また、電子ペン51と接続される指示受付部35を有する投影装置20である場合(図11を参照)には、検知部31は場所Sに設置される電子ペン51からの指示に基づいて人物Zを操作者として検知し、判定部33は場所Sに設置される電子ペン51からの指示に基づいて操作者を判定する。
In the case shown in FIG. 18, person Z is located at location S where the distance to all persons is the shortest. The
このように、予め決められた場所に位置する人物を操作者として検知及び判定することにより、操作者が代表してインタラクティブ操作を行って投影画像を操作し、スムーズ会議の進行を行うことができる。 In this way, by detecting and judging a person positioned at a predetermined place as an operator, the operator can perform an interactive operation on behalf of the operator to operate the projected image, and the conference can proceed smoothly. .
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the spirit of the present invention.
20 :投影装置
20A :プロジェクタ部
20B :カメラ部
26 :制御部
27 :メモリ
28 :投影画像生成部
29 :入力I/F
30 :入力操作検出部
31 :検知部
33 :判定部
35 :指示受付部
36 :撮影レンズ
37 :レンズドライバ
38 :撮像素子
39 :AD変換器
40 :インターフェース回路
42 :表示用光学素子
43 :素子ドライバ
44 :LED光源
45 :光源ドライバ
46 :投影レンズ
47 :レンズドライバ
49 :データバス
20:
30: input operation detection unit 31: detection unit 33: determination unit 35: instruction reception unit 36: photographing lens 37: lens driver 38: image sensor 39: AD converter 40: interface circuit 42: display optical element 43: element driver 44: LED light source 45: Light source driver 46: Projection lens 47: Lens driver 49: Data bus
Claims (14)
前記投影部への入力操作を検出する入力操作検出部と、
前記投影面の周囲に位置する複数の人物のうちの前記副画像に前記入力操作を行う操作者を検知する検知部と、
前記検知部により検知された前記操作者に対応する位置に配置された前記副画像と前記主画像とを含む前記投影画像を生成する投影画像生成部と、
前記検知部の検知結果に基づいて、前記操作者と、前記操作者ではない他の前記人物とを判定する判定部と、
を備え、
前記投影画像生成部は、前記判定部の結果及び前記入力操作検出部の検出結果に基づいて、前記操作者の前記副画像への前記入力操作を前記主画像に反映させた前記投影画像を生成する投影装置。 a projection unit that projects onto a projection plane a projection image that includes a main image or the main image and a sub-image obtained by replicating at least part of the main image;
an input operation detection unit that detects an input operation to the projection unit;
a detection unit that detects an operator performing the input operation on the sub-image among a plurality of persons positioned around the projection plane;
a projection image generation unit that generates the projection image including the sub-image and the main image arranged at a position corresponding to the operator detected by the detection unit;
a determination unit that determines the operator and the person other than the operator based on the detection result of the detection unit;
with
The projection image generation unit generates the projection image in which the input operation of the operator to the sub-image is reflected in the main image, based on the result of the determination unit and the detection result of the input operation detection unit. projection device.
前記投影部への入力操作を検出する入力操作検出部と、
前記投影面の周囲に位置する複数の人物のうちの前記副画像に前記入力操作を行う操作者を検知する検知部と、
前記検知部により検知された前記操作者に対応する位置に配置された前記副画像と前記主画像とを含む前記投影画像を生成する投影画像生成部と、
を備え、
前記投影画像生成部は、前記入力操作検出部の検出結果に基づいて、前記操作者の前記副画像への前記入力操作を前記主画像に反映させた前記投影画像を生成し、
前記検知部は、予め決められた位置の前記人物を前記操作者として検知する投影装置。 a projection unit that projects onto a projection plane a projection image that includes a main image or the main image and a sub-image obtained by replicating at least part of the main image;
an input operation detection unit that detects an input operation to the projection unit;
a detection unit that detects an operator performing the input operation on the sub-image among a plurality of persons positioned around the projection plane;
a projection image generation unit that generates the projection image including the sub-image and the main image arranged at a position corresponding to the operator detected by the detection unit;
with
The projection image generation unit generates the projection image in which the input operation of the operator to the sub image is reflected in the main image based on the detection result of the input operation detection unit ,
The detection unit detects the person at a predetermined position as the operator .
前記投影画像生成部は、前記判定部の結果に基づいて、前記操作者の前記副画像への操作を前記主画像に反映させる請求項2に記載の投影装置。 A determination unit that determines the operator and the person other than the operator based on the detection result of the detection unit,
3. The projection device according to claim 2, wherein the projection image generation unit reflects the operator's operation on the sub-image in the main image based on the result of the determination unit.
前記検知部は、前記撮像画像に基づいて、前記投影面の周囲に位置する前記複数の人物を検知する請求項1から4のいずれか1項に記載の投影装置。 An imaging unit that acquires captured images of the plurality of people positioned around the projection plane,
The projection device according to any one of claims 1 to 4 , wherein the detection unit detects the plurality of persons positioned around the projection plane based on the captured image.
前記入力操作検出部は、前記指示に基づいて前記入力操作を検出し、
前記検知部は、前記指示に基づいて前記操作者を検知する請求項1から7のいずれか1項に記載の投影装置。 an instruction reception unit that is owned by at least one of the plurality of persons and receives an instruction from an indicator that inputs an operation instruction;
The input operation detection unit detects the input operation based on the instruction,
The projection device according to any one of claims 1 to 7 , wherein the detection unit detects the operator based on the instruction.
前記投影画像生成部は、前記入力操作検出部により検出された前記要求指示に応じて、前記操作画面と前記主画像とを含む投影画像を生成する請求項1から9のいずれか1項に記載の投影装置。 The input operation detection unit detects a request instruction for an operation screen of a plurality of persons positioned around the projection plane,
10. The projection image generation unit according to any one of claims 1 to 9 , wherein the projection image generation unit generates a projection image including the operation screen and the main image in accordance with the request instruction detected by the input operation detection unit. projection device.
前記投影部への入力操作を検出する入力操作検出ステップと、
前記投影面の周囲に位置する複数の人物のうちの前記副画像に前記入力操作を行う操作者を検知する検知ステップと、
前記検知ステップにより検知された前記操作者に対応する位置に配置された前記副画像と前記主画像とを含む前記投影画像を生成する投影画像生成ステップと、
前記検知ステップの検知結果に基づいて、前記操作者と、前記操作者ではない他の前記人物とを判定する判定ステップと、
を含み、
前記投影画像生成ステップは、前記判定ステップの結果及び前記入力操作検出ステップの検出結果に基づいて、前記操作者の前記副画像への前記入力操作を前記主画像に反映させた前記投影画像を生成する投影方法。 A projection method for a projection device having a projection unit that projects onto a projection surface a projection image that includes a main image or a main image and a sub-image obtained by replicating at least part of the main image, comprising:
an input operation detection step of detecting an input operation to the projection unit;
a detection step of detecting an operator performing the input operation on the sub-image among a plurality of persons positioned around the projection plane;
a projected image generating step of generating the projected image including the sub-image and the main image arranged at a position corresponding to the operator detected by the detecting step;
a determination step of determining the operator and the person other than the operator based on the detection result of the detection step;
including
The projection image generation step generates the projection image in which the operator's input operation to the sub-image is reflected in the main image, based on the result of the determination step and the detection result of the input operation detection step. projection method.
前記投影部への入力操作を検出する入力操作検出ステップと、
前記投影面の周囲に位置する複数の人物のうちの前記副画像に前記入力操作を行う操作者を検知する検知ステップと、
前記検知ステップにより検知された前記操作者に対応する位置に配置された前記副画像と前記主画像とを含む前記投影画像を生成する投影画像生成ステップと、
を含み、
前記投影画像生成ステップは、前記入力操作検出ステップの検出結果に基づいて、前記操作者の前記副画像への前記入力操作を前記主画像に反映させた前記投影画像を生成し、
前記検知ステップは、予め決められた位置の前記人物を前記操作者として検知する投影方法。 A projection method for a projection device having a projection unit that projects onto a projection plane a projection image that includes a main image or the main image and a sub-image obtained by replicating at least a part of the main image, comprising:
an input operation detection step of detecting an input operation to the projection unit;
a detection step of detecting an operator performing the input operation on the sub-image among a plurality of persons positioned around the projection plane;
a projected image generating step of generating the projected image including the sub-image and the main image arranged at a position corresponding to the operator detected by the detecting step;
including
The projected image generating step generates the projected image in which the operator's input operation to the sub-image is reflected in the main image based on the detection result of the input operation detecting step ,
In the projection method, the detection step detects the person at a predetermined position as the operator .
前記投影部への入力操作を検出する入力操作検出ステップと、
前記投影面の周囲に位置する複数の人物のうちの前記副画像に前記入力操作を行う操作者を検知する検知ステップと、
前記検知ステップにより検知された前記操作者に対応する位置に配置された前記副画像と前記主画像とを含む前記投影画像を生成する投影画像生成ステップと、
前記検知ステップの検知結果に基づいて、前記操作者と、前記操作者ではない他の前記人物とを判定する判定ステップと、
を含み、
前記投影画像生成ステップは、前記判定ステップの結果及び前記入力操作検出ステップの検出結果に基づいて、前記操作者の前記副画像への前記入力操作を前記主画像に反映させた前記投影画像を生成する投影方法をコンピュータに実行させるプログラム。 A program for causing a computer to execute a projection method of a projection device having a projection unit that projects onto a projection plane a projection image that includes a main image or a projection image that includes the main image and a sub-image obtained by replicating at least part of the main image, the program comprising:
an input operation detection step of detecting an input operation to the projection unit;
a detection step of detecting an operator performing the input operation on the sub-image among a plurality of persons positioned around the projection plane;
a projected image generating step of generating the projected image including the sub-image and the main image arranged at a position corresponding to the operator detected by the detecting step;
a determination step of determining the operator and the person other than the operator based on the detection result of the detection step;
including
The projection image generation step generates the projection image in which the operator's input operation to the sub-image is reflected in the main image based on the result of the determination step and the detection result of the input operation detection step. A program that causes a computer to execute a projection method.
前記投影部への入力操作を検出する入力操作検出ステップと、
前記投影面の周囲に位置する複数の人物のうちの前記副画像に前記入力操作を行う操作者を検知する検知ステップと、
前記検知ステップにより検知された前記操作者に対応する位置に配置された前記副画像と前記主画像とを含む前記投影画像を生成する投影画像生成ステップと、
を含み、
前記投影画像生成ステップは、前記入力操作検出ステップの検出結果に基づいて、前記操作者の前記副画像への前記入力操作を前記主画像に反映させた前記投影画像を生成し、
前記検知ステップは、予め決められた位置の前記人物を前記操作者として検知する投影方法をコンピュータに実行させるプログラム。 A program for causing a computer to execute a projection method of a projection device having a projection unit that projects onto a projection plane a projection image that includes a main image or a projection image that includes the main image and a sub-image obtained by replicating at least part of the main image, the program comprising:
an input operation detection step of detecting an input operation to the projection unit;
a detection step of detecting an operator performing the input operation on the sub-image among a plurality of persons positioned around the projection plane;
a projected image generating step of generating the projected image including the sub-image and the main image arranged at a position corresponding to the operator detected by the detecting step;
including
The projected image generating step generates the projected image in which the operator's input operation to the sub-image is reflected in the main image based on the detection result of the input operation detecting step ,
The detecting step includes a program for causing a computer to execute a projection method for detecting the person at a predetermined position as the operator .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019177672A JP7149915B2 (en) | 2019-09-27 | 2019-09-27 | Projection device, projection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019177672A JP7149915B2 (en) | 2019-09-27 | 2019-09-27 | Projection device, projection method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021056652A JP2021056652A (en) | 2021-04-08 |
JP7149915B2 true JP7149915B2 (en) | 2022-10-07 |
Family
ID=75272556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019177672A Active JP7149915B2 (en) | 2019-09-27 | 2019-09-27 | Projection device, projection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7149915B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015159602A1 (en) | 2014-04-18 | 2015-10-22 | Necソリューションイノベータ株式会社 | Information providing device |
JP2016170613A (en) | 2015-03-12 | 2016-09-23 | コニカミノルタ株式会社 | Conference support device, conference support system, conference support program and conference support method |
-
2019
- 2019-09-27 JP JP2019177672A patent/JP7149915B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015159602A1 (en) | 2014-04-18 | 2015-10-22 | Necソリューションイノベータ株式会社 | Information providing device |
JP2016170613A (en) | 2015-03-12 | 2016-09-23 | コニカミノルタ株式会社 | Conference support device, conference support system, conference support program and conference support method |
Also Published As
Publication number | Publication date |
---|---|
JP2021056652A (en) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6297804B1 (en) | Pointing apparatus | |
KR101795644B1 (en) | Projection capture system, programming and method | |
JP2012108479A (en) | Projection type display device and control method thereof | |
TWI639049B (en) | Information processing device, projector, and information processing method | |
US10416813B2 (en) | Display system, display device, information processing device, and information processing method | |
JP2011013396A (en) | Projector, image projection system and image projection method | |
CN107239178A (en) | Display system, information processor, projecting apparatus and information processing method | |
JPH11161415A (en) | Method and device for input | |
TW578031B (en) | Projection system with an image capturing device | |
JP5517705B2 (en) | Projection device | |
JP7149915B2 (en) | Projection device, projection method and program | |
JP2013130915A (en) | Display device, projector, image display method, and display system | |
JP5564922B2 (en) | projector | |
JP6349886B2 (en) | Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus | |
JPS60138628A (en) | Screen indication input device | |
JP5550111B2 (en) | Imaging apparatus, imaging method, and program | |
JP2012181721A (en) | Position input device, projector, control method for projector, and display system | |
JP2018132769A (en) | Image display device, and control method of image display device | |
JP2018054912A (en) | Projection-type display device and method for controlling the same | |
KR20040088159A (en) | Input system based upon movement in space | |
JP2010197784A (en) | Projector, its control method and program | |
JP6115090B2 (en) | Display control apparatus and program | |
JP2021005168A (en) | Image processing apparatus, imaging apparatus, control method of image processing apparatus, and program | |
JP2007310789A (en) | Interface device | |
JP6531770B2 (en) | Display control apparatus, display control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7149915 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |