JP2016180942A - 表示装置、表示システム、表示装置の制御方法、及び、プログラム - Google Patents

表示装置、表示システム、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP2016180942A
JP2016180942A JP2015062213A JP2015062213A JP2016180942A JP 2016180942 A JP2016180942 A JP 2016180942A JP 2015062213 A JP2015062213 A JP 2015062213A JP 2015062213 A JP2015062213 A JP 2015062213A JP 2016180942 A JP2016180942 A JP 2016180942A
Authority
JP
Japan
Prior art keywords
image
display
unit
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015062213A
Other languages
English (en)
Other versions
JP2016180942A5 (ja
Inventor
直也 西村
Naoya Nishimura
直也 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015062213A priority Critical patent/JP2016180942A/ja
Priority to US15/077,281 priority patent/US20160283087A1/en
Publication of JP2016180942A publication Critical patent/JP2016180942A/ja
Publication of JP2016180942A5 publication Critical patent/JP2016180942A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)

Abstract

【課題】複数の画像を表示し、これらの画像に対する処理を可能とする。
【解決手段】プロジェクター100は、表示領域に画像を表示する投射部20と、外部機器に接続されるインターフェース部11と、操作を検出する操作検出部50と、表示領域の複数の領域のそれぞれに画像を表示させる制御部30と、を備える。複数の領域は、外部機器に対応付けられて外部機器に関する画像を表示する機器対応領域と、領域に表示される画像に対する処理が可能な処理領域とを含む。制御部30は、操作検出部50が検出する操作に対応して、いずれかの領域に表示される画像を他の領域に表示させる。
【選択図】図3

Description

本発明は、表示装置、表示システム、表示装置の制御方法、及び、プログラムに関する。
従来、画像を表示する表示装置において、複数の画面を同時に表示する例があった(例えば、特許文献1、2参照)。特許文献1記載の装置は、撮影画像から2つの画像を切り出し、切り出した画像を表示する。また、特許文献2記載のシステムは、プロジェクターによりスクリーンにスライド画像を投影する。このシステムでは、スクリーンの入力エリアにおいて電子ペンを用いた操作が可能であり、電子ペンの操作をもとにストロークを描画して、スライド画像に上書きして表示する。
特開2011−158844号公報 特開2012−63974号公報
特許文献1、2には、同時に表示される複数の画像そのものを処理する例の開示はない。これらの文献に開示された構成では、表示される画像は撮影画像から抽出された画像や表示順が決められたスライド画像であり、画像を取得し表示する動作と、画像に対する処理とを整合させることが容易でないためである。従って、複数の画像を表示し、これらの画像に対する処理を可能とする提案は無かった。
本発明は上記課題に鑑みてなされたものであり、複数の画像を表示し、これらの画像に対する処理を可能とすることを目的とする。
上記目的を達成するために、本発明の表示装置は、表示領域に画像を表示する表示部と、外部機器に接続される接続部と、操作を検出する操作検出部と、前記表示領域に複数の領域を設け、複数の前記領域のそれぞれに画像を表示させる制御部と、を備え、複数の前記領域は、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含み、前記制御部は、前記操作検出部が検出する操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示させること、を特徴とする。
本発明によれば、外部機器に対応付けられる領域に表示される画像に対し、処理を行うことが可能である。また、外部機器に対応付けられる領域の画像を、処理領域に表示させて処理を行うことにより、外部機器と表示画像との対応に影響を与えることなく、複数の画像を表示し、表示される画像に対する処理を行うことができる。
また、本発明は、上記表示装置において、前記制御部は、前記機器対応領域に対し、前記表示部により前記外部機器に対応付けられた態様で画像を表示させ、前記操作検出部が前記機器対応領域に表示される画像を前記処理領域に移す操作を検出した場合に、操作された画像の表示態様を変更可能であること、を特徴とする。
本発明によれば、外部機器に対応付けられた領域における画像について、外部機器と画像との対応に影響を与えることなく、表示態様を変更できる。
また、本発明は、上記表示装置において、前記制御部は、前記操作検出部が前記処理領域に表示される画像を前記機器対応領域に移動する操作を検出した場合に、操作された画像に対して、移動先の前記機器対応領域に対応する前記外部機器に関連する処理を行うこと、を特徴とする。
本発明によれば、画像を移動する操作により外部機器に関連する処理を実行させることができ、利便性の向上を図ることができる。
また、本発明は、上記表示装置において、前記操作検出部は、前記表示領域に対する操作を検出し、前記制御部は、前記処理領域と前記機器対応領域とに跨がる操作を前記操作検出部が検出した場合に、前記処理領域に表示される画像を前記機器対応領域に移動する操作、或いは、前記機器対応領域に表示される画像を前記処理領域に移す操作として検出すること、を特徴とする。
本発明によれば、ユーザーが複数の領域に跨がる操作を行うことにより、領域に表示される画像を他の領域に移動させる処理を指示できる。
また、本発明は、上記表示装置において、前記制御部は、少なくとも1つの前記機器対応領域に複数の前記外部機器を対応付けて複数機器対応領域とすることが可能であり、前記操作検出部が、前記複数機器対応領域に対し画像を移動する操作を検出した場合に、移動先の前記複数機器対応領域に対応付けられた複数の前記外部機器のそれぞれに関連する処理を行うこと、を特徴とする。
本発明によれば、ユーザーが簡単な操作を行うことにより、複数の外部機器に関連する処理を実行できる。
また、本発明は、上記表示装置において、前記制御部は、前記表示部により、前記複数機器対応領域に対応付けられた複数の前記外部機器から入力される画像を前記複数機器対応領域に表示させる場合に、それぞれの前記外部機器に対応する表示位置に表示させること、を特徴とする。
本発明によれば、複数の外部機器が画像を入力した場合に、これら複数の画像を見やすく表示できる。
また、本発明は、上記表示装置において、前記表示部は、前記接続部に接続される前記外部機器から入力される画像を、前記機器対応領域または前記処理領域に表示し、前記制御部は、前記表示部が前記処理領域に表示する画像の表示位置及び表示サイズの少なくともいずれかを、表示する画像を入力した前記外部機器に制限されず変更可能であること、を特徴とする。
本発明によれば、外部機器に関連する処理の制約を受けることなく、画像の表示位置や表示サイズを変更できる。
また、本発明は、上記表示装置において、前記外部機器は、画像を前記接続部に入力する画像入力機器を含み、前記表示部は、前記画像入力機器が入力する画像を、前記画像入力機器が対応付けられた前記機器対応領域に表示すること、を特徴とする。
本発明によれば、画像を入力する外部機器に対応して、画像を処理できる。
また、本発明は、上記表示装置において、前記外部機器は、前記接続部を介して画像を入出力可能な画像入出力機器を含み、前記表示部は、前記画像入出力機器が入力する画像を、前記画像入出力機器が対応付けられた前記機器対応領域に表示し、前記制御部は、前記操作検出部が、前記機器対応領域に対し画像を移動する操作を検出した場合に、移動先の前記機器対応領域に対応付けられた前記画像入出力機器に対して前記画像を出力すること、を特徴とする。
本発明によれば、外部機器が入力する画像を処理し、さらに、外部機器に対する画像の出力を行うことができる。
また、本発明は、上記表示装置において、前記制御部は、第1の前記機器対応領域から前記処理領域に画像を移動する操作に対応して処理を行い、処理された画像について第2の前記機器対応領域に移動する操作を前記操作検出部が検出した場合に、前記処理された画像を、第1の前記機器対応領域に対応付けられた前記外部機器に関する制約を受けずに処理可能であること、を特徴とする。
本発明によれば、外部機器に対応する画像を、表示される領域から他の領域に移動させることで、外部機器に関する制約を受けずに処理できる。
また、本発明の表示システムは、表示装置と、表示装置に接続される外部機器とを備え、前記外部機器は前記表示装置に画像を出力し、前記表示装置は、表示領域に画像を表示する表示部と、前記外部機器に接続される接続部と、操作を検出する操作検出部と、前記表示領域に複数の領域を設け、複数の前記領域のそれぞれに画像を表示させる制御部と、を備え、複数の前記領域は、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含み、前記制御部は、前記表示部により前記外部機器が入力する画像を前記機器対応領域に表示させ、前記操作検出部が検出する操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示させること、を特徴とする。
本発明によれば、外部機器に対応付けられる領域に表示される画像に対し、処理を行うことが可能である。また、外部機器に対応付けられる領域の画像を、処理領域に表示させて処理を行うことにより、外部機器と表示画像との対応に影響を与えることなく、複数の画像を表示し、表示される画像に対する処理を行うことができる。
また、本発明は、表示領域に画像を表示する表示部を有し、外部機器に接続される表示装置を制御する表示装置の制御方法であって、前記表示領域に、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含む複数の領域を設け、複数の前記領域のそれぞれに画像を表示し、操作を検出し、検出した操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示すること、を特徴とする。
本発明によれば、表示装置が、外部機器に対応付けられる領域に表示される画像に対し、処理を行うことが可能である。また、外部機器に対応付けられる領域の画像を、処理領域に表示させて処理を行うことにより、外部機器と表示画像との対応に影響を与えることなく、複数の画像を表示し、表示される画像に対する処理を行うことができる。
また、本発明は、表示領域に画像を表示する表示部を有し、外部機器に接続される表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示領域に、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含む複数の領域を設け、複数の前記領域のそれぞれに画像を表示させ、操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示させること、を特徴とする。
本発明のプログラムを実行することにより、表示装置が外部機器に対応付けられる領域に表示する画像に対し、処理を行うことが可能である。また、外部機器に対応付けられる領域の画像を、処理領域に表示させて処理を行うことにより、外部機器と表示画像との対応に影響を与えることなく、複数の画像を表示し、表示される画像に対する処理を行うことができる。
表示システムの構成及び設置状態を示す図。 プロジェクターに接続される各機器の構成を示す機能ブロック図。 プロジェクター及び指示体の機能ブロック図。 表示システムの表示例とスクリーンに対する操作の例を示す図。 表示システムの表示例とスクリーンに対する操作の例を示す図。 表示システムの表示例とスクリーンに対する操作の例を示す図。 表示システムの表示例とスクリーンに対する操作の例を示す図。 プロジェクターの動作を示すフローチャート。 プロジェクターの動作を示すフローチャート。 プロジェクターの動作を示すフローチャート。 プロジェクターの動作を示すフローチャート。
図1は、表示システム1の構成及び設置状態を示す図である。
表示システム1は、プロジェクター100(表示装置)に、タブレット2及びタブレット3を無線通信回線によりデータ通信可能に接続し、書画カメラ4を有線接続した構成を有する。表示システム1を構成するタブレット2、3の数について制限はなく、本実施形態では、1台のタブレット2と、複数台のタブレット3とを接続する例を示す。
表示システム1は、タブレット2を操作するユーザーと、タブレット3を操作する複数のユーザーとが使用する。例えば教育の場において、教育を行う側のユーザー(例えば、先生)がタブレット2を使用し、教育を受ける側のユーザー(例えば、生徒)がタブレット3を使用する。タブレット2のユーザーは、指示体70を用いた操作、及び、書画カメラ4の操作も行う。
図1にはプロジェクター100の設置状態を示す。
プロジェクター100は、スクリーンSC(操作面)の上方又は斜め上方に設置され、スクリーンSCに向けて画像を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
プロジェクター100は、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置、Blu−ray(登録商標) Disc(ブルーレイディスク)再生装置等の画像供給装置に接続してもよい。この場合、プロジェクター100は、画像供給装置から供給されるアナログ画像信号又はデジタル画像データに基づいて、スクリーンSCに画像を投射する。また、プロジェクター100は、内蔵する記憶部60(図3)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示してもよい。
スクリーンSCにおいて、プロジェクター100が画像を投射する最大範囲を、投射可能領域(表示領域)110とする。図1の例ではスクリーンSCの全体が投射可能領域110である。投射可能領域110の大きさは、プロジェクター100のズーム機能等により調整でき、投射可能領域110はスクリーンSCより小さくてもよい。
プロジェクター100は、投射可能領域を複数の領域に分割して、各領域に、それぞれ独立して画像を投射できる。図1の例では投射可能領域110が4つの領域111、112、113、114に分割される。各領域を区分する領域境界115は、図1の状態では投射可能領域110の縦(鉛直)方向中央及び横(水平)方向中央に位置するが、領域境界115の位置は後述するように移動できる。
本実施形態のプロジェクター100は、タブレット2、3が送信する画像データに基づく画像、書画カメラ4が送信する画像データに基づく画像、及び、指示体70の操作に応じてプロジェクター100が描画する画像等を、領域111、112、113、114に表示する。
プロジェクター100は、スクリーンSCに対するユーザーの操作を検出する機能を有する。ユーザーは、ペン型の指示体70の軸部72を手に持ち、指示体70の先端部71でスクリーンSCに対する操作を行う。この操作には、先端部71によりスクリーンSC上の位置を指定(指示)する操作、スクリーンSC上の異なる位置を連続して指示する操作等が含まれる。スクリーンSC上の位置を指示する操作は、指示体70の先端部71をスクリーンSCに一定時間接触させる操作であり、スクリーンSC上の異なる位置を連続して指示する操作とは、先端部71をスクリーンSCに接触させながら動かす操作である。
プロジェクター100は、ユーザーが指示体70で行う操作を検出して、検出した操作をスクリーンSCの表示画像に反映させる。例えば、プロジェクター100は、先端部71が指示する操作位置の座標に基づき、プロジェクター100の機能を実行するGUI(Graphical User Interface)操作を実現する。また、プロジェクター100は、先端部71の操作位置の軌跡に沿って文字や図形を生成し、生成した文字や図形を投射可能領域110に投射する、描画機能を有する。
タブレット2は、平板状の本体に、タッチ操作が可能なタッチパネル201を有する。タブレット3も同様に、平板状の本体に、タッチ操作が可能なタッチパネル301を有する。タッチパネル201、301は表示画面としての液晶表示パネルや有機ELパネル等の表示パネルに、接触操作を検出するタッチパネルを重畳した構成である。
書画カメラ4は、カメラヘッド402、及び、カメラヘッド402を支持する支柱403を有する。カメラヘッド402は下方を撮影する撮影部410(図2)を備え、カメラヘッド402の下方に設置される載置面401に載せられる被写体を撮影し、撮影画像データをプロジェクター100に送信する。
図2は、タブレット2、3及び書画カメラ4の機能ブロック図である。
タブレット2は、プロジェクター100に接続されるインターフェース部211を備える。インターフェース部211は、外部の機器に有線接続する有線接続用のコネクターを備え、このコネクターに対応するインターフェース回路を備えていてもよい。また、インターフェース部211は、無線通信インターフェースを備えていてもよい。有線接続用のコネクター及びインターフェース回路としては有線LAN、IEEE1394、USB、MHL(Mobile High-definition Link)(登録商標)、HDMI(登録商標)(High-Definition Multimedia Interface)等に準拠したものが挙げられる。また、無線通信インターフェースとしては無線LAN(WiFi(登録商標))、Bluetooth(登録商標)、Miracast(登録商標)等に準拠したものが挙げられる。本実施形態では、無線LAN通信可能な無線通信インターフェースを備える構成である。
タブレット2は、制御部212、表示部213、入力部214、及び記憶部220を備え、これらの各部及びインターフェース部211はバス230によりデータ通信可能に接続する。制御部212は、図示しないCPU、RAM、ROM等を備え、ROMが記憶する制御プログラム、及び記憶部220が記憶する制御プログラムを実行して、タブレット2の各部を制御する。
表示部213及び入力部214はタッチパネル201に接続する。表示部213は、制御部212の制御に従い、タッチパネル201に各種画面を表示する。入力部214は、タッチパネル201における接触操作を検出して、検出した操作の位置を示す座標データを制御部212に出力する。
記憶部220は、制御部212が実行するプログラムや、各種データを不揮発的に記憶する。記憶部220は、画像データ221及び接続情報222を記憶する。画像データ221は、タッチパネル201に表示する画像や文字等を含む表示用の画像データであり、制御部212は、画像データ221に基づく画像を表示部213に表示させることができる。また、制御部212は、画像データ221をインターフェース部211によりプロジェクター100に送信できる。
接続情報222は、インターフェース部211が無線通信によりプロジェクター100に接続するための情報を含む。例えば、タブレット2のMAC(Media Access Control)アドレス、IP(Internet Protocol)アドレス、ネットワーク名、SSID(Service Set Identifier)等を含む。また、接続情報222は、インターフェース部211が接続する機器のSSID、セキュリティ設定の種別、パスワードやパスキー、端末名称等を含んでもよい。セキュリティ設定は、例えば、WEP(Wired Equivalent Privacy)、WPA(Wi-Fi Protected Access)等から選択できる。
接続情報222は、タブレット2に接続するプロジェクター100等の外部機器に関する上記項目の情報と、インターフェース部211に関する上記項目の情報とを含んでもよい。
制御部212は、接続情報222を参照して、プロジェクター100との間で無線通信を確立して、プロジェクター100と無線によるデータ通信を実行する。制御部212が画像データ221をプロジェクター100に送信すると、プロジェクター100が、画像データ221を受信して画像データ221に基づく画像を投射する。制御部212は、プロジェクター100に送信する画像データ221に基づく画像を、表示部213により表示することもできる。
タブレット3は、タブレット2と同様に構成される。即ち、タブレット3は、プロジェクター100等の外部機器に接続するインターフェース部311を備える。インターフェース部311の構成は、インターフェース部211と同様である。
また、タブレット3は、制御部312、表示部313、入力部314、及び記憶部320を備え、これらの各部及びインターフェース部311はバス330によりデータ通信可能に接続する。制御部312は、図示しないCPU、RAM、ROM等を備え、ROMが記憶する制御プログラム、及び記憶部320が記憶する制御プログラムを実行して、タブレット3の各部を制御する。
表示部313及び入力部314はタッチパネル301に接続する。表示部313は、制御部312の制御に従い、タッチパネル301に各種画面を表示する。入力部314は、タッチパネル301における接触操作を検出して、検出した操作の位置を示す座標データを制御部312に出力する。
記憶部320は、制御部312が実行するプログラムや、各種データを不揮発的に記憶する。記憶部320は、画像データ321及び接続情報322を記憶する。画像データ321は、タッチパネル301に表示する画像や文字等を含む表示用の画像データであり、制御部312は、画像データ321に基づく画像を表示部313に表示させることができる。また、制御部312は、画像データ321をインターフェース部311によりプロジェクター100に送信できる。
接続情報322は、インターフェース部311が無線通信によりプロジェクター100に接続するための情報を含む。例えば、タブレット3のMACアドレス、IPアドレス、ネットワーク名、SSID等を含む。また、接続情報322は、インターフェース部311が接続する機器のセキュリティ設定の種別、SSID、パスワードやパスキー、端末名称等を含んでもよい。接続情報322は、タブレット3に接続するプロジェクター100等の外部機器に関する上記項目の情報と、インターフェース部311に関する上記項目の情報とを含んでもよい。
制御部312は、接続情報322を参照して、プロジェクター100との間で無線通信を確立して、プロジェクター100と無線によるデータ通信を実行する。制御部312が画像データ321をプロジェクター100に送信すると、プロジェクター100が、画像データ321を受信して画像データ321に基づく画像を投射する。制御部312は、プロジェクター100に送信する画像データ321に基づく画像を、表示部313により表示することもできる。
書画カメラ4は、撮影部410と、撮影部410を制御する制御部411と、プロジェクター100に接続するインターフェース部412とを備える。本実施形態では、インターフェース部412は、プロジェクター100に対しUSB接続するUSBコネクター、及び、USBデバイスコントローラーを含む回路を有する。インターフェース部412は、表示用のアナログ画像信号を出力するインターフェース(例えば、D−Sub)であってもよいし、デジタルビデオデータを出力するインターフェース(例えば、DVI)であってもよい。インターフェース部412は、プロジェクター100に接続してデータを送信できればよく、例えば無線通信によりプロジェクター100に接続可能な構成であってもよい。
撮影部410はデジタルスチルカメラまたはデジタルビデオカメラであり、載置面401(図1)を撮影範囲に含むよう設置される。制御部411は撮影部410に撮影を実行させて撮影画像データを生成し、インターフェース部412から撮影画像データをプロジェクター100に送信する。制御部411は、撮影部410の撮影画像データをアナログ画像信号に変換してもよいし、デジタルビデオデータに変換してもよい。また、撮影部410はズーム及びフォーカス調整が可能な構成であってもよく、この場合、制御部411がズーム及びフォーカスの調整を制御する。
また、書画カメラ4は、撮影部410の撮影範囲すなわち載置面401を照明する照明装置を備えてもよく、この場合、制御部411は照明装置の点灯、消灯を制御する。
図3は、プロジェクター100及び指示体70の機能ブロック図である。
プロジェクター100は、外部機器に接続されるインターフェースとして、インターフェース(I/F)部11及び画像インターフェース(I/F)部12を備える。インターフェース部11及び画像インターフェース部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェース回路を備えてもよい。また、インターフェース部11及び画像インターフェース部12は、無線通信インターフェースを備えていてもよい。有線接続用のコネクター及びインターフェース回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェースとしては無線LANやBluetooth等に準拠したものが挙げられる。画像インターフェース部12には、HDMI等の画像データ用のインターフェースを用いることができ、D−Sub等のアナログ画像信号が入力されるインターフェースを用いてもよい。画像インターフェース部12は、音声データが入力されるインターフェースを備えてもよい。
インターフェース部11は、PC等の外部の装置との間で各種データを送受信するインターフェースである。インターフェース部11は、画像の投射に関するデータ、プロジェクター100の動作を設定するデータ等を入出力する。後述する制御部30は、インターフェース部11を介して外部の装置とデータを送受信する機能を有する。
画像インターフェース部12は、デジタル画像データが入力されるインターフェースである。本実施形態のプロジェクター100は、画像インターフェース部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像インターフェース部12は、アナログ画像用のインターフェースと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
インターフェース部11には、例えばタブレット2、3を接続でき、書画カメラ4は画像インターフェース部12及び画像インターフェース部12のいずれに接続してもよいが、本実施形態では、インターフェース部11にタブレット2、3及び書画カメラ4が接続する。
タブレット2、3はインターフェース部11の無線LANインターフェースに接続し、書画カメラ4はUSBインターフェースに接続する。
プロジェクター100は、インターフェース部11及び画像インターフェース部12に接続する機器のうち、画像データ又はアナログ画像信号を入力する機器を、画像ソースとして認識する。
プロジェクター100は、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22及び投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部21は、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、又は光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射される。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの表示画像の拡大・縮小を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター100が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。
投射部20は、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46に接続される。光源駆動部45は、光源部21の点灯、消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。
プロジェクター100は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター100を制御する制御部30、記憶部60、入力受付部17、画像処理部40、光源駆動部45及び光変調装置駆動部46を含む。また、画像処理部40にはフレームメモリー41が接続され、制御部30には操作検出部50が接続される。これらの各部を画像処理系に含めてもよい。
制御部30は、所定の制御プログラム61を実行することによりプロジェクター100の各部を制御する。記憶部60は、制御部30が実行する制御プログラム61を記憶する。また、記憶部60は、外部機器情報62、及び表示位置情報63を不揮発的に記憶する。外部機器情報62は、インターフェース部11及び画像インターフェース部12に接続する外部機器に関する情報を含み、外部機器を特定する情報を含んでもよい。例えば、インターフェース部11にタブレット2、3が接続される場合、外部機器情報62は、タブレット2との通信を実行するための各種情報、及び、タブレット2を特定する情報を含む。具体的には、タブレット2のMACアドレス、IPアドレス、ネットワーク名、SSID、タブレット2との無線通信のセキュリティ設定の種別、SSID、パスワードやパスキー、端末名称等を含んでもよい。外部機器情報62は、タブレット3についても同様の情報を含み、記憶部60は、タブレット2に関する外部機器情報62とタブレット3に関する外部機器情報62とが別の情報として記憶してもよい。また、外部機器情報62は、タブレット2とタブレット3とを識別可能な情報を含む。本実施形態では複数のタブレット3がプロジェクター100に接続するので、外部機器情報62は、それぞれのタブレット3を識別する情報を含んでもよい。また、それぞれのタブレット3に対応する外部機器情報62が、独立した情報として記憶部60に記憶されてもよい。また、外部機器情報62は、インターフェース部11に接続される書画カメラ4(図1)に関する情報を含む。
表示位置情報63は、投射可能領域110に設けられる領域111、112、113、114の各領域と、インターフェース部11及び画像インターフェース部12に接続する機器との対応を定める情報である。プロジェクター100は、領域111、112、113、114のそれぞれに、プロジェクター100に接続される機器を対応付けることが可能である。詳細は後述するが、本実施形態では、領域111にタブレット2が対応付けられ、領域112に書画カメラ4が、領域114にタブレット3が対応付けられる。表示位置情報63は、例えば上記の対応関係を示す情報を含む。
画像処理部40は、制御部30の制御に従って、インターフェース部11または画像インターフェース部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40は、フレームメモリー41に接続される。画像処理部40は、インターフェース部11または画像インターフェース部12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
入力受付部17は、入力デバイスとして機能するリモコン受光部18及び操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター100のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。入力受付部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが入力受付部17から制御部30に出力される。
操作検出部50は、指示体70による操作位置を検出する。操作検出部50は、撮影部51、送信部52、撮影制御部53、対象検出部54及び座標算出部55の各部を備える。
撮影部51は、少なくとも投射可能領域110を含む撮影範囲を撮影し、撮影画像を形成する。撮影部51は、赤外光を撮影する赤外用撮像素子、及び、インターフェース回路を備え、赤外光による撮影を行う。撮像素子には、CCD、CMOSのいずれを用いることも可能であり、また、他の素子を用いることもできる。撮影部51の撮影方向および撮影範囲(画角)は、投射光学系23と同じ方向、又は略同じ方向を向き、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする。撮影部51は撮影画像データを出力する。
撮影制御部53は、制御部30の制御に従って撮影部51を制御し、撮影部51に撮影を実行させる。撮影制御部53は、撮影部51の撮影画像データを取得して、対象検出部54に出力する。撮影部51が赤外光を撮影した撮影画像データには、指示体70が発する赤外光の像が写る。
送信部52は、撮影制御部53の制御に従って、指示体70に対して同期用の赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を撮影制御部53の制御に従って点灯及び消灯させる。
対象検出部54は、撮影部51の撮影画像データに写った赤外光の像を検出して、撮影画像データにおける、指示体70の操作位置の座標を検出する。また、対象検出部54は、指示体70の先端部71がスクリーンSCに接触しているか否かを判定して、先端部71がスクリーンSCに接触しているか否かを示すタッチ情報を生成する。指示体70の先端部71がスクリーンSCに接触しているか否かの判定方法は後述する。
対象検出部54が検出する指示体70の操作位置の座標は、撮影部51の撮影画像データにおける座標である。
座標算出部55は、操作位置の座標を、スクリーンSCにおける操作位置の座標に変換する。本実施形態では、投射部20が投射する投射画像における座標に変換される。投射画像における座標は、プロジェクター100とスクリーンSCとの距離、投射光学系23におけるズーム率、プロジェクター100の設置角度、撮影部51とスクリーンSCとの距離等の様々な要素の影響を受ける。座標算出部55は、事前に実施されるキャリブレーションの結果に基づき、撮影画像データにおける操作位置の座標から、スクリーンSCの表示画像における操作位置の座標を算出する。キャリブレーションでは、所定のパターン画像を投射部20からスクリーンSCに投射して、表示されたパターン画像を撮影部51で撮影する。撮影部51の撮影したパターン画像に基づいて、撮影画像データにおける座標と、スクリーンSCの表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。投射画像における操作位置の座標に基づき、制御部30は、フレームメモリー41に描画される投射画像に対する操作位置を特定できる。
指示体70は、制御部73、送受信部74、操作スイッチ75及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75のオン/オフ状態を検出する。操作スイッチ75は、指示体70の先端部71に配置されており、先端部71がスクリーンSCに押し付けられた場合にオンとなる。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
操作検出部50と指示体70との相互の通信により、撮影部51の撮影画像データから指示体70の操作位置を特定する方法について説明する。
プロジェクター100の制御部30は、指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、操作検出部50と指示体70とを同期させる同期信号として機能する。
一方、指示体70の制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、順次撮影される複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
撮影制御部53は、撮影部51による撮影タイミングを、指示体70が点灯するタイミングに合わせる制御を行う。撮影タイミングは、撮影制御部53が送信部52を点灯させるタイミングに基づいて決定される。対象検出部54は、順次撮影される複数の撮影画像データのそれぞれに指示体70の光の像が写っているか否かにより、指示体70が点灯するパターンを特定できる。対象検出部54は、複数の撮影画像データに基づいて、指示体70の先端部71がスクリーンSCに押しつけられているか否かを判定して、タッチ情報を生成する。
また、指示体70の点灯パターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
制御部30は、記憶部60が記憶する制御プログラム61を読み出して実行することにより投射制御部31、操作取得部32、通信制御部33、描画部34、及び画像取得部35の機能を実現し、プロジェクター100の各部を制御する。
投射制御部31は、入力受付部17から入力される操作データに基づいて、ユーザーがリモコンを操作して行った操作内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御し、スクリーンSCに画像を投射させる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
操作取得部32は、操作検出部50が検出する指示体70の操作位置を取得する。また、操作取得部32は、投射可能領域110にメニューバー等のGUI操作用の画像が表示された状態で、操作検出部50が指示体70の操作位置を検出した場合、操作位置に対応する画像を特定し、指示内容を検出する。例えば、メニューバーが表示された状態で、指示体70の操作位置に対応するメニューバー中のアイコンを特定し、特定したアイコンの機能を検出する。
通信制御部33は、インターフェース部11を介したタブレット2及びタブレット3との通信を制御する。通信制御部33は、複数のタブレット3から1または複数のタブレット3を選択し、選択したタブレット3に対し画像データを送信する等の制御を行う。
描画部34は、操作検出部50が検出する指示体70の操作位置に従って、文字や図形を描画する。描画部34は、操作取得部32が描画を指示する操作を検出した場合に、指示体70の操作位置の軌跡を取得し、この軌跡に基づいて直線、曲線、多角形等の図形(画像)を生成する。描画部34が生成する画像の種類は、操作取得部32が検出する操作により指定される。描画部34が生成する画像は画像処理部40に転送され、投射制御部31の制御に従って、画像処理部40がフレームメモリー41上の画像に描画画像を合成する。これにより、描画部34が描画する画像が投射部20により投射される。
画像取得部35は、インターフェース部11及び画像インターフェース部12に接続する外部機器から入力される画像データを取得する。インターフェース部11または画像インターフェース部12からアナログ画像信号が入力された場合、画像取得部35は、このアナログ画像信号を変換したデジタル画像データを取得する。画像取得部35は、取得した画像データを、入力元の外部機器に対応付けて取得する。
投射制御部31は、画像取得部35が取得する画像データを、表示位置情報63に基づいて領域111、112、113、114のいずれかに対応付ける。投射制御部31は、画像取得部35が取得した画像データに基づく画像を画像処理部40に出力し、フレームメモリー41に描画させる。画像処理部40は、投射制御部31が入力する画像データに基づく画像を、フレームメモリー41内の対応する領域に描画する。フレームメモリー41には、領域111、112、113、114を含む投射可能領域110全体に対応する画像が形成される。
図4〜図7の各図は、表示システム1の表示例およびスクリーンSCに対する操作の例を示す図である。
以下の説明では、投射可能領域110の領域111がタブレット2に対応付けられ、領域112は書画カメラ4に対応付けられ、領域114がタブレット3に対応付けられる例を説明する。従って、領域111、112、114は、機器対応領域に相当する。この例で、領域113は画像を処理する処理領域である。また、領域114には複数のタブレット3が対応付けられ、領域114は複数機器対応領域に相当する。プロジェクター100では、いずれか1つのタブレット3を領域111、112、113、114のいずれかに対応付けることも可能であるが、以下の例では、複数のタブレット3の全てが領域114に対応付けられる。
図4(A)は初期状態における表示例と操作の例を示し、図4(B)は(A)の操作に対応して表示が変化した例を示し、図4(C)は描画操作に対応して表示が変化した例を示す。図4(A)にはタブレット2、3をスクリーンSCとともに図示する。
図4(A)の表示例は、タブレット2及び複数のタブレット3と、プロジェクター100とが動作する場合の例である。タブレット2はタッチパネル201に表示画像P21を表示し、それぞれのタブレット3はタッチパネル301に描画画像P31を表示する。
タブレット2は、表示画像P21の画像データをプロジェクター100に送信し、各々のタブレット3は描画画像P31の画像データをプロジェクター100に送信する。プロジェクター100は、スクリーンSCの領域111に、表示画像P21と同じ表示画像P1を表示する。また、プロジェクター100は、領域114に、描画画像P31と同じ表示画像P2を、それぞれのタブレット3に対応する形態で表示する。領域114では、3台のタブレット3に対応する3つの表示画像P2が表示される。領域114は複数機器対応領域であるため、一つのタブレット3の画像を表示するサイズが制約される。このため、制御部30は、タブレット3から受信した画像データに基づき、サムネイル画像(縮小画像)の画像データを生成し、領域114にサムネイル画像を表示してもよい。
図4(A)の表示状態で、指示体70により、縦方向の領域境界115を矢印A1方向に移動する操作と、横方向に延びる領域境界115を矢印A2方向に移動する操作とが順に行われると、領域境界115の位置は矢印A1、A2に従って移動する。移動後の状態を図4(B)に示す。フレームメモリー41には領域111、112、113、114を含む表示画像全体が描画されるので、領域境界115の位置、及び各領域111、112、113、114のサイズは、投射制御部31が画像処理部40を制御することで容易に変更できる。
図4(B)の例では領域111が拡大され、領域111に表示中の表示画像P1の表示サイズが拡大される。また、領域114は縮小され、表示画像P2は、アスペクト比を維持して縮小されたサイズで表示される。このため、領域114には余白部116が発生する。また、領域境界115の移動により縮小される領域112、113は、画像が表示されていない領域であるため、領域112、113の表示画像の変化はない。
図4(B)の例では、領域112と領域113の間の領域境界115が移動していない。すなわち、図4の例では、横方向に延びる領域境界115と縦方向に延びる領域境界115とが、互いの交点で分断され、個別に移動可能である。このため、図4(B)に示すように、領域境界115の半分は縦方向に移動していない。この構成は一例であって、横方向に延びる領域境界115及び縦方向に延びる領域境界115がいずれも分断されない構成とすることも勿論可能である。
領域111、112、113、114では、指示体70の操作により描画を行うことが可能である。本実施形態では機器対応領域である領域111、113、114及び処理領域である領域112のいずれにおいても描画を行える。
描画をする場合、ユーザーが指示体70を使い、メニューバーMを呼び出す操作を行う。この操作は、例えば、描画をする領域の任意の一点で先端部71をスクリーンSCに接触させ、指示体70を所定時間静止させる操作である。この操作を操作取得部32が検出すると、投射制御部31が、操作された領域にメニューバーMを表示する。
メニューバーMには、直線の描画、曲線の描画、円や四角形などの多角形の描画を指示するアイコンが配置される。また、メニューバーMには、描画する線や図形の描画色、線の太さ、塗りつぶし色を選択するアイコン、描画した線や図形の消去を指示するアイコン等が配置される。指示体70の操作によりアイコンを選択し、指示体70を、図形を描くように動かすと、先端部71の軌跡に基づき操作取得部32が図形を描画する。図4(C)には領域111にメニューバーMが表示され、描画画像P3が描画された例を示す。このように描画を行った場合、描画された画像オブジェクトである描画画像P3は、既に領域111に表示された表示画像P1に含まれる他の画像オブジェクトとともに、処理できる。
図5(A)、(C)、(D)は指示体70の操作に対応して表示が変化する例を示し、図5(B)はタブレット3における表示例を示す。
図4(C)に示した状態で、領域111に表示された画像のキャプチャーが指示体70により指示されると、制御部30は、図5(A)に示すように、表示画像P1と描画画像P3とを含む領域111の全体のキャプチャー画像P11を生成する。キャプチャー画像P11は、フレームメモリー41から領域111に対応する画像を切り出すことで生成される。領域111はタブレット2に対応付けられ、プロジェクター100がタブレット2から受信する画像データに基づく表示画像P1が表示される。換言すれば、領域111に表示される表示画像P1は、画像ソースがタブレット2に設定され、プロジェクター100が表示画像P1に対して行う処理は描画画像P3を重畳する処理、及び領域111の拡大及び縮小に伴う表示サイズの変更に限られる。
一方、キャプチャー画像P11は、制御部30がフレームメモリー41の画像データから生成する静止画像であり、タブレット2に対応付けられていないため、制御部30の制御により送信し、保存し、或いは各種の画像処理を行うことが可能である。
キャプチャー画像P11に対し、矢印A3に示すように指示体70を動かす操作が行われると、制御部30は、キャプチャー画像P11を領域114に移動する。この操作は、キャプチャー画像P11の上で先端部71をスクリーンSCに接触させ、そのまま矢印A3の方向に領域114まで先端部71を移動させる操作である。
領域114は、複数のタブレット3に対応付けられた機器対応領域(複数機器対応領域)である。制御部30は、図5(A)における操作に応じて、キャプチャー画像P11の画像データを、領域114に対応付けられたタブレット3に送信する。タブレット3は、プロジェクター100が送信した画像データを受信して、受信した画像データに基づく画像をタッチパネル301に表示する。これにより、タブレット3のタッチパネル301には、図5(B)に示すように、キャプチャー画像P11と同じ描画画像P31が表示される。
ここで、複数のタブレット3のそれぞれは、表示中の描画画像P31の画像データをプロジェクター100に送信する。タブレット2及びタブレット3は、画像の表示中、所定時間毎に、表示中の画像に対応する画像データをプロジェクター100に送信してもよい。この画像データの送信は、タッチパネル301に表示する画像を更新したとき、或いは、プロジェクター100から画像データを受信したときに行ってもよい。
制御部30は、タブレット3から送信される画像データに基づき、領域114に表示する画像を更新する。
図5(C)にはスクリーンSCの投射画像が更新された状態を示す。この図5(C)の状態では、指示体70の操作により、領域114が拡大されている。
図5(C)では、それぞれのタブレット3でタッチパネル301の表示画像が更新されたことに対応して、表示画像P2が更新されている。
さらに、図5(B)に示すように、タブレット3では、タッチパネル301の操作により画像を描画することも可能である。この場合、タブレット3の制御部312が、タッチパネル301に対する操作を入力部314で検出し、描画の指示、及び描画内容の指示に基づき画像を生成して、生成した画像を既に表示中の描画画像P31に重ねて表示する。これにより、タッチパネル301において、プロジェクター100から受信した画像と描画された画像とが合成され、描画画像P32が生成され表示される。
タブレット3は、描画画像P32の画像データをプロジェクター100に送信し、図5(C)に示すように、このタブレット3に対応する表示画像P2が更新される。図5(C)の例では1台のタブレット3で描画が行われたため、このタブレット3に対応する表示画像P2が更新されている。
領域114では、複数のタブレット3に対応する表示画像P2のうち、いずれかの表示画像P2を選択してキャプチャー画像を生成できる。図5(D)には、一つの表示画像P2が選択され、キャプチャー画像P12が生成された例を示す。キャプチャー画像P12は、制御部30がフレームメモリー41から切り出した画像である。領域114はタブレット3に対応付けられているが、キャプチャー画像P12は機器への対応付けによる制限のない、静止画像であり、制御部30が送信し、保存し、その他の画像処理を行うことができる。
図6(A)、(B)、(C)は指示体70の操作に対応して表示が変化する例を示す。
図6(A)では、領域114から領域113に対し、矢印A4に示すように指示体70を動かす操作が行われる例を示す。事前の指示体70の操作により、処理の対象である表示画像P2が選択され、この例では3つの表示画像P2の全てが対象である。
この操作に応じて、制御部30は、処理の対象の表示画像P2を、領域113に移動する処理を行う。制御部30は、領域113の表示画像P2の画像をフレームメモリー41から切り出して、それぞれの表示画像P2に対応するキャプチャー画像を生成し、領域113に表示する。
領域113は、上述のように処理領域であり、領域113に表示される画像等は表示オブジェクトとして独立して操作できる。このため、表示画像P2から生成されたキャプチャー画像は、図6(B)に示すように、領域113にオブジェクトO1〜O3として表示される。オブジェクトO1〜O3は、例えば図6(C)に示すように、表示位置を変更できる。また、領域113では、指示体70の操作によりメニューバーMを表示して描画を行うことが可能である。この場合、図6(C)に示すように、領域113で描画された画像は、オブジェクトO4として表示される。オブジェクトO4は、オブジェクトO1〜O3と同様に、表示位置、表示サイズ等を変更でき、個別に消去し、コピーし、保存することができる。なお、この後で、これらオブジェクトO1〜O4を、領域111または領域114に移動させる操作が行われると、制御部30は、オブジェクトO1〜O4の画像データを、タブレット2またはタブレット3に送信する。
図7(A)、(C)は指示体70の操作に対応して表示が変化する例を示し、図7(B)はタブレット3における表示例を示す。
図7(A)は、書画カメラ4が撮影した撮影画像が領域112に表示された例を示す。領域112の表示画像P4は、書画カメラ4の撮影画像である。図7(A)では、領域112に、表示画像P4とともにメニューバーM´が表示されている。メニューバーM´は、指示体70で操作可能なアイコンを含み、各アイコンは書画カメラ4の操作に対応する。メニューバーM´のアイコンが操作されると、制御部30は、操作に対応する制御データを書画カメラ4に送信し、書画カメラ4のズーム調整、表示の停止等を実行させる。
図7(A)に示す矢印A5で示すように、領域112から領域114にかけて指示体70の操作が行われると、制御部30は、領域112の表示画像P4を、領域114に移動する処理を行う。領域114はタブレット3に対応付けられた機器対応領域であるため、制御部30は、表示画像P4をタブレット3に送信する処理を行う。この処理では、制御部30が、フレームメモリー41から表示画像P4に相当する領域の画像を切り出してキャプチャー画像を生成し、このキャプチャー画像の画像データをタブレット3に送信する。領域112が書画カメラ4に対応付けられ、表示画像P4が書画カメラ4の動作により更新されるのに対し、制御部30が生成するキャプチャー画像は、独立した画像データとして処理可能である。
制御部30は、キャプチャー画像を、領域114に対応付けられた全てのタブレット3に送信する。図7(A)で、領域114の一部の表示画像P2を選択する操作が行われた場合、制御部30は、選択された表示画像P2に対応するタブレット3にのみ、キャプチャー画像の画像データを送信してもよい。
キャプチャー画像が送信されたタブレット3は、図7(B)に示すように、タッチパネル301の表示画像を更新し、書画カメラ4の撮影画像である描画画像P33が、タッチパネル301に表示される。
また、図5(B)にも示したように、タブレット3において表示が更新されると、領域114における表示も更新される。更新後の状態を図7(C)に示す。図7(C)の例では、領域111、112、113、114のサイズが初期状態に戻されている。
図7(C)の例では、領域114において各々のタブレット3に対応する表示画像P2が、領域112からコピーされた画像で更新されている。また、領域114では3つのタブレット3に対応する3つの表示画像P2が配置されるため、表示画像P2はサムネイル画像として表示される。これに対し、領域111ではタブレット2に対応する1つの表示画像P1を表示すればよい。従って、領域112から領域111へ表示画像P4を移動した場合には、領域112の表示画像P4が、領域111の全体に表示される。つまり、領域111、112、114はいずれも機器対応領域であるが、単独の機器に対応付けられる領域111、112では一つの表示画像が全面表示され、複数の機器に対応する領域114では機器の数に応じた数の画像が表示される。領域114では一つの表示画像の表示サイズが小さくなるので、サムネイル画像を表示するよう設定できる。
このように、プロジェクター100の制御部30は、投射可能領域110を分割した領域111、112、113、114に画像を表示し、表示された画像を異なる領域に移動し、コピーできる。
図8〜図11の各図は、プロジェクター100の動作を示すフローチャートである。図8は、プロジェクター100にタブレット2、3、書画カメラ4などの外部機器が接続された場合に実行される接続処理を示す。
接続処理は、制御部30が、インターフェース部11または画像インターフェース部12への接続を検出したときに実行される。
制御部30は、インターフェース部11または画像インターフェース部12への外部機器の接続を検出し(ステップS11)、接続した機器に対応する機器対応領域を判定する(ステップS12)。本実施形態の領域111はタブレット2に対応し、領域112は書画カメラ4に対応する。また、領域113は複数のタブレット3に対応付けられる複数機器対応領域である。制御部30は、ステップS11で検出した外部機器の種類に基づき、プロジェクター100が投射可能な機器対応領域のうち、対応付ける領域を判定する。また、各機器対応領域が対応付け可能な外部機器の種類が制限されない場合、接続順に機器対応領域への対応付けを行ってもよい。また、接続される外部機器が複数ある場合に、複数機器対応領域に対応付けるよう判定してもよい。
制御部30は、接続した外部機器から当該機器に関する情報を取得して、外部機器情報62として記憶部60に記憶し(ステップS13)、接続した外部機器から画像データを取得する(ステップS14)。制御部30は、接続した外部機器と、ステップS12で判定した機器対応領域の位置とを対応付けて、表示位置情報63として記憶部60に記憶する(ステップS15)。
制御部30は、サムネイル画像を生成するか否かを判定する(ステップS16)。例えば、ステップS12で判定した領域が複数機器対応領域である場合、図4(A)に示した領域114のように表示サイズが小さいためサムネイル画像を使用してもよい。サムネイル画像を使用する場合(ステップS16;Yes)、制御部30は、ステップS14で受信した画像データからサムネイル画像の画像データを生成して、ステップS12で判定した領域にサムネイル画像を表示する(ステップS17)。
また、サムネイル画像を使用しない場合(ステップS16;No)、制御部30は、ステップS14で受信した画像データに基づく画像を、ステップS12で判定した領域に表示する(ステップS18)。
図9は、画像の表示に係る動作を示すフローチャートである。
制御部30は、指示体70による操作を操作検出部50が検出した場合、検出した操作位置を取得し(ステップS21)、この操作位置を一時的にRAMや記憶部60に記憶する(ステップS22)。
続いて、制御部30は、操作の内容を判定する(ステップS23)。操作の内容は、例えば、メニューバーの表示を指示する操作、領域境界115の移動を指示する操作、投射可能領域110に表示される画像やオブジェクトを移動させる操作等である。
制御部30は、操作内容がメニューバーの呼び出しであるか否かを判定し(ステップS24)、メニューバーの呼び出しの操作であると判定した場合(ステップS24;Yes)、メニュー処理を実行し(ステップS25)、後述するステップS35に移行する。
図10は、図9のステップS25で実行するメニュー処理を詳細に示すフローチャートである。
制御部30は、ステップS21(図9)で検出した操作位置を含む領域にメニューバーMの画像を表示し(ステップS51)、メニューバーMに対する操作を待機する(ステップS52)。
制御部30は、メニューバーMのアイコンの位置における操作を検出した場合(ステップS53)、検出した操作が画像のキャプチャーを指示する操作であるか否かを判定する(ステップS53)。ステップS53の判定は、指示体70の操作位置が、メニューバーMに含まれるキャプチャー指示のアイコン上の座標であるか否かに基づき、行われる。
画像のキャプチャーの指示であると判定した場合(ステップS53;Yes)、制御部30は、メニューバーMを表示している領域のキャプチャー画像を生成し(ステップS54)、キャプチャー画像の処理に係る操作を待機する(ステップS55)。
指示体70による操作を検出すると(ステップS55;Yes)、制御部30は、検出した操作の内容が、他の領域への画像の移動を指示する操作であるか否かを判定する(ステップS56)。他の領域への移動を指示する操作であると判定した場合(ステップS56;Yes)、制御部30は、画像を他の領域に移動させる領域移動処理を実行し(ステップS57)、ステップS59に移動する。領域移動処理については後述する。
また、他の領域への画像の移動を指示する操作でないと判定した場合(ステップS56;No)、制御部30は、キャプチャー画像のデータを、記憶部60に記憶し(ステップS58)、ステップS59に移行する。
ステップS59で、制御部30は、メニューバーMの操作が終了したか否かを判定する。メニューバーMの表示の終了を指示する操作を検出した場合や、メニューバーMが表示されていない領域に対する操作を検出した場合に、制御部30は、メニューバーMの操作が終了したと判定する(ステップS59;Yes)。この場合、制御部30は、メニューバーMの表示を終えて(ステップS60)、本処理を終了する。
また、制御部30は、メニューバーMの操作が終了していないと判定した場合(ステップS59;No)、ステップS52に戻り、操作を待機する。
一方、メニューバーMの表示中に検出した操作が、画像のキャプチャーの指示でない場合(ステップS53;No)、制御部30は、描画の指示であるか否かを判定する(ステップS61)。描画の指示であると判定した場合(ステップS61;Yes)、制御部30は、その後の指示体70の操作を検出して、操作位置の軌跡に従って描画を実行し(ステップS62)、描画したオブジェクトまたは描画した領域全体の画像データを生成して、記憶部60に記憶する(ステップS63)。図10のメニュー処理の対象の領域が、機器対応領域である場合、制御部30は、ステップS63で、描画した領域全体の画像データを生成して記憶する。この場合、生成される画像データには、外部機器から入力され表示された画像が含まれる。また、メニュー処理の対象の領域が処理領域である場合、制御部30は、ステップS63で、描画したオブジェクトの画像データを生成して記憶する。ステップS63の処理を実行した後、制御部30はステップS59に移行する。
また、指示体70により描画以外の操作が行われた場合(ステップS61;No)、制御部30は、操作の内容に対応する処理を実行し(ステップS64)、ステップS59に移行する。ステップS64で実行する処理は、例えば、描画したオブジェクトを消去する処理、描画する図形の形状、色、線の太さ等の描画に係る設定処理、オブジェクトを領域内で移動する処理などである。
図9に戻り、ステップS23において操作内容がメニューバーの呼び出しの操作でないと判定した場合(ステップS24;No)、制御部30は、操作位置が領域境界115の上であるか否かを判定する(ステップS26)。指示体70による操作が連続的であり、ステップS22において一時記憶した操作位置が一つの軌跡を形成する場合、制御部30は、この軌跡の始点が、領域境界115の上または領域境界115に近接した位置であるか否かを判定する。操作位置が領域境界115の上であった場合(ステップS26;Yes)、制御部30は、指示体70の操作の軌跡に追従して領域境界115を移動させる処理を行う(ステップS27)。ステップS27では、領域境界115を移動する処理に合わせて、移動後の領域境界115の位置に基づき各領域111、112、113、114を拡大及び縮小する処理を行う。その後、制御部30は、後述するステップS35に移行する。
制御部30は、操作位置が領域境界115の上でないと判定した場合(ステップS26;No)、操作位置が、処理領域である領域113のオブジェクトの上であるか否かを判定する(ステップS28)。制御部30は、操作位置が、処理領域である領域113のオブジェクトの上であると判定した場合(ステップS28;Yes)、オブジェクトを他の領域に移動する指示であるか否かを判定する(ステップS29)。例えば、指示体70による操作が連続的であり、ステップS22において一時記憶した操作位置が一つの軌跡を形成する場合、制御部30は、この軌跡の終点が、他の領域であるか否かを判定する。他の領域への移動を指示する操作であると判定した場合(ステップS29;Yes)、制御部30は、領域移動処理を実行し(ステップS30)、ステップS35に移行する。領域移動処理の詳細は後述する。
また、他の領域へのオブジェクトの移動を指示する操作でないと判定した場合(ステップS29;No)、制御部30は、操作に従ってオブジェクトを処理領域内で移動させる(ステップS31)。すなわちオブジェクトの表示位置を変更する処理を行い、ステップS35に移行する。
一方、指示体70の操作位置が、処理領域のオブジェクト上でないと判定した場合(ステップS28;No)、制御部30は、操作位置が機器対応領域にあるか否かを判定する(ステップS32)。操作位置が機器対応領域である領域111、112、114のいずれかである場合(ステップS32;Yes)、制御部30は、機器対応領域の画像を他の領域に移動する指示であるか否かを判定する(ステップS33)。他の領域への移動を指示する操作であると判定した場合(ステップS33;Yes)、制御部30は、ステップS30に移行して領域移動処理を実行する。
また、他の領域への画像の移動を指示する操作でないと判定した場合(ステップS33;No)、制御部30は、操作位置を含む領域の画像をキャプチャーしてキャプチャー画像を生成し、記憶部60に記憶し(ステップS34)、ステップS35に移行する。
また、操作位置が機器対応領域でないと判定した場合(ステップS32;No)、制御部30はステップS35に移行する。
ステップS35で、制御部30は、指示体70による操作が終了したか否かを判定する。制御部30は、例えば、指示体70やリモコン(図示略)により操作終了の指示がされた場合に、操作を終了すると判定する(ステップS35;Yes)。また、操作を終了しない場合は(ステップS35;No)、ステップS21に戻る。
図11は、領域移動処理を詳細に示すフローチャートである。領域移動処理は、投射可能領域110内の領域111、112、113、114のうち、いずれかの領域に表示される表示画像またはオブジェクトを、他の領域に移動させる操作に対応して実行される。
制御部30は、領域移動処理において、移動元の領域が処理領域であるか否かを判定する(ステップS71)。移動元が処理領域である場合(ステップS71;Yes)、制御部30は、移動するオブジェクトの画像データを取得する(ステップS72)。また、移動元が処理領域でないと判定した場合(ステップS71;No)、移動元の領域は機器対応領域であるから、制御部30は、移動元の領域の表示画像をキャプチャーし、キャプチャー画像を生成する(ステップS73)。なお、図11の領域移動処理を開始する際に既にキャプチャー画像が生成されている場合は、ステップS71〜S73の処理は省略される。
続いて、制御部30は、移動先が処理領域であるか否かを判定する(ステップS74)。移動先が処理領域である場合(ステップS75)、制御部30は、移動するオブジェクトまたは移動元の領域のキャプチャー画像を、移動先の処理領域にオブジェクトとして表示し(ステップS75)、本処理を終了する。
一方、移動先が処理領域でない場合(ステップS74;No)、移動先は機器対応領域であるから、制御部30は、表示位置情報63を参照して、移動先の領域に対応付けられる機器を特定する(ステップS76)。制御部30は、ステップS76で特定した機器に対し、移動するオブジェクトまたは移動元の領域のキャプチャー画像の画像データを送信する(ステップS77)。さらに、制御部30は、移動するオブジェクトまたは移動元の領域のキャプチャー画像を用いて移動先の領域の表示を更新し(ステップS78)、本処理を終了する。
ステップS78で、制御部30は、ステップS77で送信した画像データを用いて表示を更新してもよい。また、ステップS77の送信先の外部機器が、画像データを受信した後にプロジェクター100に表示画像の画像データを送信した場合、この画像データを受信してスクリーンSCの投射画像を更新してもよい。
以上説明したように、本発明を適用した実施形態に係る表示システム1は、プロジェクター100と、プロジェクター100に接続される外部機器としてのタブレット2、3、及び書画カメラ4を備える。これらの外部機器はプロジェクター100に画像を出力する。プロジェクター100は、投射可能領域110に画像を表示する投射部20、外部機器に接続されるインターフェース部11及び画像インターフェース部12、及び、指示体70による操作を検出する操作検出部50を備える。また、プロジェクター100は、投射可能領域110に複数の領域111、112、113、114を設け、それぞれの領域に画像を表示させる制御部30を備える。複数の領域は、外部機器に対応付けられて外部機器に関する画像を表示する機器対応領域と、領域に表示される画像に対する処理が可能な処理領域とを含む。制御部30は、投射部20により外部機器が入力する画像を機器対応領域に表示させ、操作検出部50が検出する操作に対応して、いずれかの領域に表示される画像を他の領域に表示させる。
このため、指示体70を用いて、外部機器に対応付けられる領域に表示される画像に対し、処理を行うことが可能である。また、外部機器に対応付けられる領域の画像を、処理領域に表示させて処理を行うことにより、外部機器と表示画像との対応に影響を与えることなく、複数の画像を表示し、表示される画像に対する処理を行うことができる。
プロジェクター100の制御部30は、機器対応領域に対し、投射部20によって、外部機器に対応付けられた態様で画像を表示させる。操作検出部50が、機器対応領域に表示される画像を処理領域に移す操作を検出した場合、操作された画像の表示態様を変更可能である。これにより、外部機器に対応付けられた領域における画像について、外部機器と画像との対応に影響を与えることなく、表示態様を変更できる。
制御部30は、操作検出部50が処理領域に表示される画像を機器対応領域に移動する操作を検出した場合に、操作された画像に対して、移動先の機器対応領域に対応する外部機器に関連する処理(例えば、この外部機器に画像データを送信する処理)を行う。このため、画像を移動する操作により外部機器に関連する処理を実行させることができ、利便性の向上を図ることができる。
操作検出部50は、スクリーンSCの投射可能領域110に対する操作を検出する。制御部30は、処理領域と機器対応領域とに跨がる操作を操作検出部50が検出した場合に、処理領域に表示される画像を機器対応領域に移動する操作、或いは、機器対応領域に表示される画像を処理領域に移す操作として検出する。このため、ユーザーが複数の領域に跨がる操作を行うことにより、領域に表示される画像を他の領域に移動させる処理を指示できる。
また、制御部30は、少なくとも1つの機器対応領域に複数の外部機器を対応付けて複数機器対応領域とすることが可能である。操作検出部50が、複数機器対応領域に対し画像を移動する操作を検出した場合に、移動先の複数機器対応領域に対応付けられた複数の外部機器のそれぞれに関連する処理(例えば、複数の外部機器のそれぞれに画像データを送信する処理)を行う。このため、ユーザーが簡単な操作を行うことにより、複数の外部機器に関連する処理を実行できる。
また、制御部30は、投射部20により、複数機器対応領域に対応付けられた複数の外部機器から入力される画像を、それぞれの外部機器に対応する表示位置に表示させる。例えば、制御部30は、複数のタブレット3から送信される画像データに基づく画像を、領域114において各タブレット3に対応する位置に表示する。このため、複数の外部機器が画像を入力した場合に、これら複数の画像を見やすく表示できる。
また、プロジェクター100は、投射部20により、インターフェース部11に接続される外部機器から入力される画像を、機器対応領域または処理領域に表示する。制御部30は、投射部20が処理領域に表示する画像の表示位置及び表示サイズの少なくともいずれかを、表示する画像を入力した外部機器に制限されず変更可能である。例えば、処理領域である領域113に移動された画像は、オブジェクトとして表示され、制御部30は、このオブジェクトの表示位置や表示サイズを変更できる。このように、プロジェクター100では、処理領域の表示画像に対し、機器対応領域に対応付けられる外部機器に関する制約を受けることなく、表示位置や表示サイズを変更できる。
また、プロジェクター100に接続される外部機器は、画像をインターフェース部11に入力する画像入力機器を含む。投射部20は、画像入力機器が入力する画像を、画像入力機器が対応付けられた機器対応領域に表示する。本実施形態では、タブレット2が送信する画像を領域111に表示し、書画カメラ4が送信する画像を領域112に表示し、タブレット3が送信する画像を領域114に表示する。このように、プロジェクター100は、画像を入力する外部機器に対応して、画像を処理できる。
また、プロジェクター100において、外部機器は、インターフェース部11を介して画像を入出力可能な画像入出力機器を含み、投射部20は、画像入出力機器が入力する画像を、画像入出力機器が対応付けられた機器対応領域に表示し、制御部30は、操作検出部50が、機器対応領域に対し画像を移動する操作を検出した場合に、移動先の機器対応領域に対応付けられた画像入出力機器に対して画像を出力すること、を特徴とする。
本発明によれば、外部機器が入力する画像を処理し、さらに、外部機器に対する画像の出力を行うことができる。
また、制御部30は、第1の機器対応領域から処理領域に画像を移動する操作に対応して処理を行い、処理された画像について第2の機器対応領域に移動する操作を操作検出部50が検出した場合に、処理された画像を、さらに処理できる。この処理で、制御部30は、第1の機器対応領域に対応付けられた外部機器に関する制約を受けずに処理可能である。例えば、図6(A)で領域114から領域113に表示画像P2を移動した場合、表示画像P2のキャプチャー画像が、領域113にオブジェクトO1〜O3として表示される。これらオブジェクトO1〜O3を、領域111または領域114に移動させる操作が行われると、制御部30は、オブジェクトO1〜O3の画像データを、タブレット2またはタブレット3に送信する。オブジェクトO1〜O3が、タブレット3の表示画像の画像データに基づくオブジェクトであることは、オブジェクトO1〜O3の画像データを送信する処理に影響しない。従って、処理領域である領域113に移動されオブジェクトO1〜O3として表示された画像は、外部機器の属性等に影響されず、高い自由度で処理できる。このため、異なる種類の外部機器をプロジェクター100に接続する構成において、各外部機器から入力される画像を活用できる。
なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。例えば、投射可能領域110に対する操作に用いる指示体は、ペン型の指示体70に限らず、ユーザーの手指、レーザーポインター、指示棒等を用いてもよく、その形状やサイズは限定されない。
また、上記実施形態では、操作検出部50は、撮影部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮影部51は、プロジェクター100の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮影部51をプロジェクター100本体とは別体として配置してもよいし、撮影部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮影部51を配置し、これら複数の撮影部51の撮影画像データに基づいて、対象検出部54が操作位置を検出してもよい。
また、上記実施形態では、プロジェクター100から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。
また、上述した実施形態では、指示体70の先端部71がスクリーンSCに接触しているか否かを、送受信部74の点灯パターンに基づいて判定する例を説明したが、本発明はこれに限定されない。例えば、指示体70の先端部71がスクリーンSCに押しつけられているか否かを、撮影画像データに写る指示体70及び先端部71の画像をもとに、判定してもよい。この構成は、例えば、異なる方向から撮影された複数の撮影画像データに基づいて先端部71の位置を検出したり、撮影画像データから先端部71の像と指示体70の影の像とを検出したりすることで、実現できる。
また、上述した実施形態では、プロジェクター100が内蔵する操作検出部50の機能により、指示体70の操作を検出する例を説明したが、本発明はこれに限定されない。例えば、操作検出部50の機能を、プロジェクター100とは独立した装置として実現することもできる。また、プロジェクター100以外の表示装置に、操作検出部50の機能を持たせて、位置検出装置として動作させる態様も実現可能である。
また、本発明の表示装置は、上述したようにスクリーンSCに画像を投射するプロジェクター100に限定されず、液晶表示パネルに画像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の表示システムに含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが表示部及び表示面に相当する。また、この表示面は、表示領域、指示体70で操作される操作面、及び操作領域に相当する。
また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。また、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置22として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
また、図2、3の機能ブロック図に示した機能ブロックは、タブレット2、3、書画カメラ4及びプロジェクター100の機能的構成を示すものであって、具体的な実装形態を制限しない。つまり、図中の機能ブロックに対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。
さらに、プロジェクター100に接続可能な外部機器は、タブレット2、3及び書画カメラ4に限定されない。例えば、デスクトップ型のコンピューター、スマートフォンを含む携帯型電話機、映像/音楽プレーヤー、テレビ放送のチューナー装置等、画像や音声を出力可能な装置であればよい。また、外部機器とプロジェクター100とを接続するインターフェースの具体的構成は制限されず、アナログ画像信号、音声信号あるいはデジタルデータを伝送可能なインターフェースであれば制限なく適用可能である。その他、表示システム1を構成する機器の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1…表示システム、2…タブレット(外部機器)、3…タブレット(外部機器)、4…書画カメラ(外部機器)、11…インターフェース部(接続部)、12…画像インターフェース部(接続部)、20…投射部(表示部)、30…制御部、31…投射制御部、32…操作取得部、33…通信制御部、34…描画部、35…画像取得部、40…画像処理部、41…フレームメモリー、50…操作検出部、60…記憶部、61…制御プログラム、62…外部機器情報、63…表示位置情報、70…指示体、100…プロジェクター(表示装置)、110…投射可能領域(表示領域)、111…領域(機器対応領域)、112…領域(機器対応領域)、113…領域(処理領域)、114…領域(機器対応領域、複数機器対応領域)、115…領域境界、116…余白部、201…タッチパネル、212…制御部、301…タッチパネル、312…制御部、M、M´…メニューバー、O1〜O4…オブジェクト、SC…スクリーン。

Claims (13)

  1. 表示領域に画像を表示する表示部と、
    外部機器に接続される接続部と、
    操作を検出する操作検出部と、
    前記表示領域に複数の領域を設け、複数の前記領域のそれぞれに画像を表示させる制御部と、を備え、
    複数の前記領域は、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含み、
    前記制御部は、前記操作検出部が検出する操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示させること、
    を特徴とする表示装置。
  2. 前記制御部は、前記機器対応領域に対し、前記表示部により前記外部機器に対応付けられた態様で画像を表示させ、
    前記操作検出部が前記機器対応領域に表示される画像を前記処理領域に移す操作を検出した場合に、操作された画像の表示態様を変更可能であること、
    を特徴とする請求項1記載の表示装置。
  3. 前記制御部は、前記操作検出部が前記処理領域に表示される画像を前記機器対応領域に移動する操作を検出した場合に、操作された画像に対して、移動先の前記機器対応領域に対応する前記外部機器に関連する処理を行うこと、
    を特徴とする請求項1または2記載の表示装置。
  4. 前記操作検出部は、前記表示領域に対する操作を検出し、
    前記制御部は、前記処理領域と前記機器対応領域とに跨がる操作を前記操作検出部が検出した場合に、前記処理領域に表示される画像を前記機器対応領域に移動する操作、或いは、前記機器対応領域に表示される画像を前記処理領域に移す操作として検出すること、
    を特徴とする請求項1から3のいずれかに記載の表示装置。
  5. 前記制御部は、少なくとも1つの前記機器対応領域に複数の前記外部機器を対応付けて複数機器対応領域とすることが可能であり、
    前記操作検出部が、前記複数機器対応領域に対し画像を移動する操作を検出した場合に、移動先の前記複数機器対応領域に対応付けられた複数の前記外部機器のそれぞれに関連する処理を行うこと、
    を特徴とする請求項1から4のいずれかに記載の表示装置。
  6. 前記制御部は、前記表示部により、前記複数機器対応領域に対応付けられた複数の前記外部機器から入力される画像を前記複数機器対応領域に表示させる場合に、それぞれの前記外部機器に対応する表示位置に表示させること、
    を特徴とする請求項5記載の表示装置。
  7. 前記表示部は、前記接続部に接続される前記外部機器から入力される画像を、前記機器対応領域または前記処理領域に表示し、
    前記制御部は、前記表示部が前記処理領域に表示する画像の表示位置及び表示サイズの少なくともいずれかを、表示する画像を入力した前記外部機器に制限されず変更可能であること、
    を特徴とする請求項1から6のいずれかに記載の表示装置。
  8. 前記外部機器は、画像を前記接続部に入力する画像入力機器を含み、
    前記表示部は、前記画像入力機器が入力する画像を、前記画像入力機器が対応付けられた前記機器対応領域に表示すること、
    を特徴とする請求項1から7のいずれかに記載の表示装置。
  9. 前記外部機器は、前記接続部を介して画像を入出力可能な画像入出力機器を含み、
    前記表示部は、前記画像入出力機器が入力する画像を、前記画像入出力機器が対応付けられた前記機器対応領域に表示し、
    前記制御部は、前記操作検出部が、前記機器対応領域に対し画像を移動する操作を検出した場合に、移動先の前記機器対応領域に対応付けられた前記画像入出力機器に対して前記画像を出力すること、
    を特徴とする請求項1から8のいずれかに記載の表示装置。
  10. 前記制御部は、第1の前記機器対応領域から前記処理領域に画像を移動する操作に対応して処理を行い、処理された画像について第2の前記機器対応領域に移動する操作を前記操作検出部が検出した場合に、前記処理された画像を、第1の前記機器対応領域に対応付けられた前記外部機器に関する制約を受けずに処理可能であること、
    を特徴とする請求項1から9のいずれかに記載の表示装置。
  11. 表示装置と、表示装置に接続される外部機器とを備え、
    前記外部機器は前記表示装置に画像を出力し、
    前記表示装置は、
    表示領域に画像を表示する表示部と、
    前記外部機器に接続される接続部と、
    操作を検出する操作検出部と、
    前記表示領域に複数の領域を設け、複数の前記領域のそれぞれに画像を表示させる制御部と、を備え、
    複数の前記領域は、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含み、
    前記制御部は、前記表示部により前記外部機器が入力する画像を前記機器対応領域に表示させ、前記操作検出部が検出する操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示させること、
    を特徴とする表示システム。
  12. 表示領域に画像を表示する表示部を有し、外部機器に接続される表示装置を制御する表示装置の制御方法であって、
    前記表示領域に、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含む複数の領域を設け、
    複数の前記領域のそれぞれに画像を表示し、
    操作を検出し、
    検出した操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示すること、
    を特徴とする表示装置の制御方法。
  13. 表示領域に画像を表示する表示部を有し、外部機器に接続される表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記表示領域に、前記外部機器に対応付けられて前記外部機器に関する画像を表示する機器対応領域と、前記領域に表示される画像に対する処理が可能な処理領域とを含む複数の領域を設け、
    複数の前記領域のそれぞれに画像を表示させ、
    操作に対応して、いずれかの前記領域に表示される画像を他の前記領域に表示させること、
    を特徴とするプログラム。
JP2015062213A 2015-03-25 2015-03-25 表示装置、表示システム、表示装置の制御方法、及び、プログラム Withdrawn JP2016180942A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015062213A JP2016180942A (ja) 2015-03-25 2015-03-25 表示装置、表示システム、表示装置の制御方法、及び、プログラム
US15/077,281 US20160283087A1 (en) 2015-03-25 2016-03-22 Display apparatus, display system, control method for display apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015062213A JP2016180942A (ja) 2015-03-25 2015-03-25 表示装置、表示システム、表示装置の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2016180942A true JP2016180942A (ja) 2016-10-13
JP2016180942A5 JP2016180942A5 (ja) 2018-04-19

Family

ID=56976535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062213A Withdrawn JP2016180942A (ja) 2015-03-25 2015-03-25 表示装置、表示システム、表示装置の制御方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20160283087A1 (ja)
JP (1) JP2016180942A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021027415A (ja) * 2019-07-31 2021-02-22 株式会社リコー 表示装置、表示方法、プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180479B1 (ko) * 2015-07-22 2020-11-18 삼성전자주식회사 전자기기 및 전자기기의 동작 방법
JP6631181B2 (ja) * 2015-11-13 2020-01-15 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
JP6747025B2 (ja) * 2016-04-13 2020-08-26 セイコーエプソン株式会社 表示システム、表示装置、及び、表示システムの制御方法
CN213513406U (zh) * 2020-10-28 2021-06-22 魏俊 双投影功能的投影灯

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341678A (ja) * 2003-05-14 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> ウィンドウ制御装置、方法、プログラム、およびこのプログラムを記録した記録媒体
US20110060992A1 (en) * 2009-09-07 2011-03-10 Jevons Oliver Matthew Video-collaboration apparatus and method
JP2011197348A (ja) * 2010-03-19 2011-10-06 Seiko Epson Corp 画像表示システム、画像表示方法、画像表示装置
JP2014146097A (ja) * 2013-01-28 2014-08-14 Sharp Corp 情報共有システム、情報表示装置、端末装置、及び情報共有システムの制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5712995A (en) * 1995-09-20 1998-01-27 Galileo Frames, Inc. Non-overlapping tiling apparatus and method for multiple window displays
US7383308B1 (en) * 2004-02-11 2008-06-03 Aol Llc, A Delaware Limited Liability Company Buddy list-based sharing of electronic content
US9165281B2 (en) * 2005-06-07 2015-10-20 Hewlett-Packard Development Company, L.P. System and method for enabling electronic presentations
US8473851B2 (en) * 2008-02-27 2013-06-25 Cisco Technology, Inc. Multi-party virtual desktop
US9129258B2 (en) * 2010-12-23 2015-09-08 Citrix Systems, Inc. Systems, methods, and devices for communicating during an ongoing online meeting
US10523804B2 (en) * 2011-09-16 2019-12-31 Samsung Electronics Co., Ltd. Method and system for searching for object in network
US9489114B2 (en) * 2013-06-24 2016-11-08 Microsoft Technology Licensing, Llc Showing interactions as they occur on a whiteboard

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341678A (ja) * 2003-05-14 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> ウィンドウ制御装置、方法、プログラム、およびこのプログラムを記録した記録媒体
US20110060992A1 (en) * 2009-09-07 2011-03-10 Jevons Oliver Matthew Video-collaboration apparatus and method
JP2011197348A (ja) * 2010-03-19 2011-10-06 Seiko Epson Corp 画像表示システム、画像表示方法、画像表示装置
JP2014146097A (ja) * 2013-01-28 2014-08-14 Sharp Corp 情報共有システム、情報表示装置、端末装置、及び情報共有システムの制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021027415A (ja) * 2019-07-31 2021-02-22 株式会社リコー 表示装置、表示方法、プログラム
JP7342501B2 (ja) 2019-07-31 2023-09-12 株式会社リコー 表示装置、表示方法、プログラム

Also Published As

Publication number Publication date
US20160283087A1 (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6064319B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US20170142379A1 (en) Image projection system, projector, and control method for image projection system
US10989993B2 (en) Control device for correcting projection image, projection system, method of controlling same, and storage medium
JP5585505B2 (ja) 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
JP5849560B2 (ja) 表示装置、プロジェクター、及び、表示方法
JP6953692B2 (ja) 表示装置、及び、表示装置の制御方法
JP6307852B2 (ja) 画像表示装置、及び、画像表示装置の制御方法
JP6326895B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
US20170024031A1 (en) Display system, display device, and display control method
JP6349838B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
US10536627B2 (en) Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera
JP2016180942A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2018087950A (ja) プロジェクションシステム、及び、プロジェクションシステムの制御方法
JP2018088663A (ja) プロジェクター、及び、プロジェクターの制御方法
JP6766716B2 (ja) 情報処理装置、画像表示プログラム、画像表示方法および表示システム
JP6269801B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2016163228A (ja) 表示装置
JP6409312B2 (ja) 表示システム、表示装置、及び、表示制御方法
JP2018132769A (ja) 画像表示装置、及び、画像表示装置の制御方法
JP2019041250A (ja) 表示装置および表示装置の制御方法
JP6545034B2 (ja) 表示装置、表示方法及び表示システム
JP6596935B2 (ja) 表示装置、表示システム、及び、表示装置の制御方法
JP2020079895A (ja) プロジェクタ、投影システム、プロジェクタの制御方法、投影方法、及び、プログラム
JP2012242927A (ja) 移動端末装置、移動端末装置の制御方法、及び、プログラム
JP6531770B2 (ja) 表示制御装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181210