JP2013140533A - 表示装置、プロジェクター、表示システム及びデバイスの切替方法 - Google Patents

表示装置、プロジェクター、表示システム及びデバイスの切替方法 Download PDF

Info

Publication number
JP2013140533A
JP2013140533A JP2012001018A JP2012001018A JP2013140533A JP 2013140533 A JP2013140533 A JP 2013140533A JP 2012001018 A JP2012001018 A JP 2012001018A JP 2012001018 A JP2012001018 A JP 2012001018A JP 2013140533 A JP2013140533 A JP 2013140533A
Authority
JP
Japan
Prior art keywords
interface
unit
configuration information
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012001018A
Other languages
English (en)
Other versions
JP5874401B2 (ja
JP2013140533A5 (ja
Inventor
Hiroyuki Ichieda
博行 市枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012001018A priority Critical patent/JP5874401B2/ja
Priority to US13/710,854 priority patent/US8806074B2/en
Priority to CN201210558787.4A priority patent/CN103197778B/zh
Priority to CN201710259727.5A priority patent/CN107272923B/zh
Publication of JP2013140533A publication Critical patent/JP2013140533A/ja
Priority to US14/321,645 priority patent/US8943231B2/en
Publication of JP2013140533A5 publication Critical patent/JP2013140533A5/ja
Application granted granted Critical
Publication of JP5874401B2 publication Critical patent/JP5874401B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4411Configuring for operating with peripheral devices; Loading of device drivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • G06F13/102Program control for peripheral devices where the programme performs an interfacing function, e.g. device driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】指示体をポインティングデバイスとして機能させる場合に、その機能をユーザーの必要に応じて切り替えられるようにする。
【解決手段】表示装置1は、第1インターフェース11aと第2インターフェース11bとを有するファンクションデバイス11を備える。記憶手段12には、第1インターフェース11aと第2インターフェース11bの構成情報が記憶されており、供給手段15によってファンクションデバイス11を介してホスト装置30に供給される。変更手段17は、受付手段16により受け付けられたユーザーの操作に応じて、構成情報を変更することができる。
【選択図】図1

Description

本発明は、表示面に対する操作を認識するための技術に関する。
従来、プロジェクター等の表示装置が表示する画像の特定の位置が指示体により指示された場合に、指示位置を検出し、検出した位置に対応するようにポインター等を表示する装置が知られている(例えば、特許文献1参照)。特許文献1に記載の装置を用いて、検出した位置の軌跡を描画すると、手書きの文字や図形などを表示することが可能である。
特許第4272904号公報
ところで、ユーザーが表示面に対して手書きの画像を描画する場合、手書きに用いる指示体の指示位置等を示す情報は、ポインティングデバイス(マウス、デジタイザーなど)の指示位置等を示す情報として取り扱われる場合がある。このとき、指示体の指示位置等を示す情報を、あるポインティングデバイスの指示位置等を示す情報として取り扱う状態から、別のポインティングデバイスの指示位置等を表す情報として取り扱う状態に切り替えたい場合があり得る。また、ホスト装置としてPC(Personal Computer)が用いられる場合、PCのOS(Operating System)やそのバージョンが異なったりすると、使用可能なポインティングデバイスも異なる可能性がある。
そこで、本発明は、指示体をポインティングデバイスとして機能させる場合に、その機能をユーザーの必要に応じて切り替えられるようにすることにある。
本発明の一態様に係る表示装置は、ホスト装置とUSB(Universal Serial Bus)規格に準拠して接続し、第1インターフェースを有するファンクションデバイスと、インターフェースに第1ポインティングデバイスを対応付ける第1構成情報を含む複数の構成情報を記憶する記憶手段と、表示面に画像を表示する表示手段と、前記表示面に対して第1指示体により指示された第1位置を検出する検出手段と、前記記憶手段に記憶された第1構成情報と前記検出手段により検出された第1位置を表す第1座標データとを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する供給手段と、ユーザーの操作を受け付ける受付手段と、前記第1座標データに対応する前記構成情報を前記受付手段により受け付けられた操作に応じて変更する変更手段とを備える構成を有する。
この表示装置によれば、第1座標データに割り当てられる構成情報をユーザーの操作に応じて変更することが可能である。
好ましい態様において、前記ファンクションデバイスは、前記第1インターフェースと、第2インターフェースとを有し、前記記憶手段は、前記第1構成情報と、前記第1ポインティングデバイスとは異なる第2ポインティングデバイスをインターフェースに割り当てる第2構成情報とをそれぞれ記憶し、前記変更手段は、前記操作に応じて、前記供給手段が前記第1座標データを供給するインターフェースを前記第1インターフェースから前記第2インターフェースに変更し、前記供給手段は、前記第2構成情報と前記第1座標データとを前記第2インターフェースに割り当てて供給する。
この態様によれば、第1座標データに割り当てられる構成情報をインターフェースを切り替えることによって変更することが可能であり、構成情報自体を変更する必要がない。
別の好ましい態様において、前記ファンクションデバイスは、前記第1インターフェースと、第2インターフェースとを有し、前記記憶手段は、前記第1構成情報と、前記第1ポインティングデバイスとは異なる第2ポインティングデバイスをインターフェースに割り当てる第2構成情報とをそれぞれ記憶し、前記検出手段は、前記第1位置と、前記表示面に対して第2指示体により指示された第2位置とを検出し、前記供給手段は、前記記憶手段に記憶された第1構成情報と前記検出手段により検出された第1位置を表す第1座標データとを前記第1インターフェースに割り当てるとともに、前記記憶手段に記憶された第2構成情報と前記検出手段により検出された第2位置を表す第2座標データとを前記第2インターフェースに割り当てて、前記ファンクションデバイスを介して前記ホスト装置に供給し、前記変更手段は、前記供給手段により供給される第1構成情報と前記第2構成情報の少なくともいずれかを前記受付手段により受け付けられた操作に応じて変更する。
この態様によれば、第1構成情報と第2構成情報のそれぞれをユーザーの操作に応じて変更することが可能である。
さらに別の好ましい態様において、前記変更手段は、前記第1インターフェースに割り当てられるデバイスの種別をマウス及びデジタイザーの一方から他方に切り替えるように前記構成情報を変更する。
この態様によれば、指示体をマウス又はデジタイザーとして用いることが可能である。
さらに好ましい態様において、前記記憶手段は、前記第1インターフェース及び前記第2インターフェースに対してHID(Human Interface Device)クラスを割り当てた前記構成情報を記憶する。
この態様によれば、ホスト装置に専用のデバイスドライバーをインストールしなくても、複数の指示体を認識することが可能である。
この場合において、前記記憶手段は、前記第1インターフェースに対してマウスに対応するサブクラスを割り当て、前記第2インターフェースに対してデジタイザーに対応するサブクラスを割り当てた前記構成情報を記憶してもよい。
この態様によれば、複数の指示体を異なるポインティングデバイスとして認識することが可能である。
あるいは、前記記憶手段は、前記第1インターフェース及び前記第2インターフェースに対してマウスに対応するサブクラスを割り当てた前記構成情報を記憶してもよいし、前記第1インターフェース及び前記第2インターフェースに対してデジタイザーに対応するサブクラスを割り当てた前記構成情報を記憶してもよい。
本発明の他の態様に係るプロジェクターは、ホスト装置とUSB規格に準拠して接続し、第1インターフェースを有するファンクションデバイスと、インターフェースに第1ポインティングデバイスを対応付ける第1構成情報を含む複数の構成情報を記憶する記憶手段と、光を投射することによって表示面に画像を表示する表示手段と、前記表示面に対して第1指示体により指示された第1位置を検出する検出手段と、前記記憶手段に記憶された第1構成情報と前記検出手段により検出された第1位置を表す第1座標データとを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する供給手段と、ユーザーの操作を受け付ける受付手段と、前記第1座標データに対応する前記構成情報を前記受付手段により受け付けられた操作に応じて変更する変更手段とを備える構成を有する。
このプロジェクターによれば、第1座標データに割り当てられる構成情報をユーザーの操作に応じて変更することが可能である。
本発明の他の態様に係る表示システムは、上述した表示装置及び第1指示体と、前記ファンクションデバイスを介して供給された前記構成情報及び前記第1座標データに基づき、前記第1位置に応じた処理を実行する実行手段を備えるホスト装置とを備える構成を有する。
この表示システムによれば、第1座標データに割り当てられる構成情報をユーザーの操作に応じて変更することが可能である。
好ましい態様において、前記実行手段は、前記第1位置に応じた画像を前記表示手段に描画させる処理を実行する。
この態様によれば、指示体による指示を表示装置による表示に反映させることが可能である。
本発明の他の態様に係るデバイスの切替方法は、ホスト装置とUSB規格に準拠して接続し、第1インターフェースを有するファンクションデバイスと、インターフェースに第1ポインティングデバイスを対応付ける第1構成情報を含む複数の構成情報を記憶する記憶手段と、表示面に画像を表示する表示手段とを備える表示装置において、前記表示面に対して指示体により指示された位置を検出する第1ステップと、前記第1ステップにおいて検出された位置を表す座標データと前記記憶手段に記憶された構成情報とを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する第2ステップと、前記第1インターフェースに割り当てられる前記構成情報を変更する操作をユーザーから受け付ける第3ステップと、前記第3ステップにより受け付けられた操作に応じて、前記第1座標データに対応する前記構成情報を前記第2ステップにおいて供給したものから変更する第4ステップと、前記第4ステップによる変更後に、前記表示面に対して指示体により指示された位置を検出する第5ステップと、前記第5ステップにおいて検出された位置を表す座標データと前記第4ステップにおいて変更された構成情報とを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する第6ステップとを実行するものである。
この切替方法によれば、第1座標データに割り当てられる構成情報をユーザーの操作に応じて変更することが可能である。
表示システムの機能構成を示すブロック図。 表示システムの構成を示す図。 プロジェクターの構成を示すブロック図。 PCの構成を示すブロック図。 ペンの外観の一例を示す図。 ペンの構成を示すブロック図。 プロジェクターにより表示される画像を例示する図。 座標を検出及び変換する処理の様子を示す説明図。 プロジェクターの動作を示すフローチャート。 プロジェクターの動作を示すフローチャート。 OSD画像を例示する図。 OSD画像を例示する図。 OSD画像を例示する図。
[発明の要旨]
本発明は、ユーザーが表示面を指示体により指示し、その指示に応じた処理を実行することが可能な表示システムにおいて、指示体の機能をユーザーが切り替えられるようにすることを特徴の一つとするものである。ここにおいて、指示体の機能とは、ホスト装置において認識される機能のことである。本発明の表示システムによれば、ユーザーは、同じ指示体を使いながら、必要に応じて、これをマウスとして機能させたり、あるいはデジタイザーとして機能させたりすることが可能である。本発明の表示システムは、1又は複数の指示体と、画像を表示し、かつ指示体により指示された位置を検出する表示装置と、指示体による指示に応じた処理を実行するホスト装置とを備える構成において、ホスト装置と表示装置との接続をUSB規格に準拠して行うものとする。
なお、本発明において、指示体は、1名のユーザーによって複数用いられることを妨げるものではない。しかし、以下においては、説明の便宜上、1名のユーザーが1本の指示体を用いることとし、さらに、表示面に対して指示を行うユーザーの人数は2名であるとする。つまり、以下においては、2名のユーザーが1本ずつ、計2本の指示体を用いる表示システムについて説明される。
図1は、本発明に係る表示システム1の機能構成を示すブロック図である。表示システム1は、表示装置10と、指示体20a、20bと、ホスト装置30とを少なくとも備える。表示装置10は、図1に示す手段を一体に(すなわち単一の装置内に)備えたものであってもよいし、これらの手段を複数の装置の協働によって実現するものであってもよい。
表示装置10は、ファンクションデバイス11と、記憶手段12と、表示手段13と、検出手段14と、供給手段15と、受付手段16と、変更手段17とを備える。また、ホスト装置30は、ホストコントローラー31と、実行手段32とを備える。ホストコントローラー31とファンクションデバイス11とは、例えばUSBケーブルにより接続されているが、ワイヤレスUSBなどによって無線で接続されてもよい。
ファンクションデバイス11は、表示装置10をホスト装置30と接続する手段である。ファンクションデバイス11は、USB規格に準拠して構成されており、第1インターフェース11aと第2インターフェース11bとを有している。第1インターフェース11a及び第2インターフェース11bは、それぞれ1以上のエンドポイントを含んで構成される。すなわち、ファンクションデバイス11は、いわゆる複合デバイス(composite device)である。
記憶手段12は、構成情報を記憶する手段である。ここにおいて、構成情報とは、ファンクションデバイス11の構成を定義するためのデータ(ディスクリプター)であり、ファンクションデバイス11がどのような種別のデバイスとしてホスト装置30に認識されるかを表すものである。構成情報は、インターフェースに所定のポインティングデバイスを対応付ける情報である。第1インターフェース11a及び第2インターフェース11bに割り当てられるクラスは、望ましくは汎用のHID(Human Interface Device)クラスであるが、ベンダー等によって定義された独自のクラスであってもよい。本発明の構成情報は、クラスを表す情報のほかにサブクラス(マウス、デジタイザーなど)を表す情報を含んでいる。HIDクラスの場合には、レポートディスクリプターによって構成情報が記述される。例えば、マウスの構成情報は、Usage Pageが「Generic Desktop Page(0x01)」であり、デジタイザーの構成情報は、Usage Pageが「Digitizers(0x0D)」である。
表示手段13は、表示面に画像を表示する手段である。表示手段13は、液晶ディスプレイや有機EL(electroluminescence)ディスプレイのように、表示面そのものを備えるものであってもよいし、プロジェクターのように、スクリーンや壁面などを表示面として用い、この表示面に光を投射することによって画像を表示するものであってもよい。
検出手段14は、表示面に対してユーザーが指示体20a、20bにより指示した位置を検出する手段である。検出手段14は、指示体20a、20bによる指示を光学的に検出したり、あるいは磁気的に検出したりするが、検出の方式自体は特に限定されない。検出手段14は、検出した位置を表す座標データを出力する。なお、指示体20a、20bは、ユーザーが表示面を指し示すための器具であり、例えば、筆記具を模したような棒状の器具である。ただし、指示体20a、20bは、表示面を指し示すことが可能であれば、その具体的形状を問わない。指示体20a、20bは、一方が本発明の第1指示体に相当し、他方が本発明の第2指示体に相当する。
検出手段14は、指示体20a、20bにより指示された位置を検出するだけでなく、位置を指示した指示体20a、20bのそれぞれを判別する機能をさらに有してもよい。例えば、指示体20a、20bが光を射出し、検出手段14がその光を検出する構成の場合であれば、指示体20a、20bが射出した光の色(すなわち波長)や照射パターン(明滅のタイミングなど)によって互いを判別することが可能である。
検出手段14は、指示体20a、20bによって指示された複数の位置をそれぞれ検出し、別々の座標データとして出力することができる。ここでは、指示体20a、20bにより指示された位置を表す座標データを、それぞれ「第1座標データ」、「第2座標データ」という。第1座標データ及び第2座標データは、検出手段14が指示体20a、20bを判別可能である場合、指示体20aにより指示された位置に対応するものを第1座標データ、指示体20bにより指示された位置に対応するものを第2座標データ、というように、特定の指示体と対応付けることが可能である。
供給手段15は、ファンクションデバイス11を介してホスト装置30にデータを供給する手段である。供給手段15は、エニュメレーションの過程において構成情報を供給し、その後、座標データを供給する。具体的には、供給手段15は、第1座標データを第1インターフェース11aに割り当てるとともに、第2座標データを第2インターフェース11bに割り当てて供給する。
受付手段16は、ユーザーの操作を受け付ける手段である。受付手段16は、表示装置10に設けられたボタンを介してユーザーの操作を受け付ける構成であってもよいし、無線信号(赤外線信号など)を受信する受信部を備え、無線信号を発するリモコン(リモートコントローラー)を介してユーザーの操作を受け付ける構成であってもよい。さらに、受付手段16は、後述するOSD(On-Screen Display)画像の一部に対する指示体20a、20bによる指示をユーザーの操作として受け付ける構成とすることも可能である。
変更手段17は、供給手段15により供給される構成情報を変更する手段である。変更手段17は、受付手段16がユーザーの操作を受け付けると、その操作に応じて構成情報を変更する。供給手段15によりホスト装置30に供給される構成情報は、あらかじめ決められている。変更手段17は、第1インターフェース11a及び第2インターフェース11bに割り当てられる構成情報の少なくとも一方を変更するが、双方を同時に変更してもよい。
ホストコントローラー31は、ホスト装置30を表示装置10と接続する手段である。ホストコントローラー31は、USB規格に準拠して構成されている。
実行手段32は、検出手段14によって検出された位置に応じた処理を実行する手段である。実行手段32は、第1インターフェース11aに割り当てられた第1座標データと、第2インターフェース11bに割り当てられた第2座標データとを識別し、それぞれの座標データに応じた処理を実行することが可能である。実行手段32が実行する処理は、検出手段14によって検出された位置や、当該位置に表示装置10によって表示されている画像に応じて異なるが、例えば、表示面に表示されている画像を変更したり、後述するメニューバーに対する指示に応じて表示装置10の動作を制御したりするものである。実行手段32が実行する処理には、後述するポインターや手書き画像を描画させる処理や、構成情報の変更を受け付けるための処理が含まれる。
[実施形態の構成]
図2は、上述した表示システム1の具体的な実施形態の一例の構成を示す図である。
プロジェクター100は、情報処理装置としてのPC(Personal Computer)300に画像信号ケーブル等により有線接続されている。プロジェクター100にはPC300から画像データが入力され、プロジェクター100は入力された画像データに基づいて、投射面(表示面)としてのスクリーンSCに画像を投射する。また、プロジェクター100はUSBケーブル等によりPC300に接続され、PC300との間で制御データ等を送受信する。プロジェクター100は、PC300から入力された画像データが静止画像であっても動画像であっても投射できる。プロジェクター100は、壁面に固定された平板に限らず、壁面自体をスクリーンSCとして使用することも可能である。ここで、スクリーンSC上で画像が投射される範囲を実投射領域A12(表示可能領域)とする。
ここにおいて、プロジェクター100は、図1に示した表示装置10の一例に相当する。また、PC300は、図1に示したホスト装置30の一例に相当し、ペン200は、図1に示した指示体20a、20bの一例に相当する。なお、ペン200は、図2には1本のみ示されているが、実際には、複数のユーザーのそれぞれに対応して複数本存在するものとする。本実施形態においては、ユーザーは最多で2名であるとする。
表示システム1では、プロジェクター100による画像の投射中、ユーザーがペン200を手に持って、スクリーンSCの実投射領域A12の任意の位置を指示する操作(位置指示操作)を手書きの操作によって実行できる。ペン200は、ペン型や棒形状の操作デバイスであって、スクリーンSCの任意の位置を指し示すために用いられる。プロジェクター100は、後述するようにペン200により指示された位置を検出する機能を有し、検出した位置の座標を示す座標データ(座標情報)をPC300に出力する。
なお、ここにおいて、「手書き」とは、指示体による指示に応じて、ユーザーがあたかも筆記具で実際に筆記しているかのように文字や図形を描画させることができることを意味し、ユーザーが表示面にインク等の色材で実際に着色して文字や図形を描くことを意味するものではない。なお、以下においては、ユーザーが表示面に描く文字や図形を総称して「記号」ともいう。ここでいう記号は、さまざまな言語の文字のほか、数字、符号、学術記号などを含み得る。また、図形には、円や多角形だけでなく、点や線も含まれる。
図3は、プロジェクター100の構成を示すブロック図である。
プロジェクター100は、大別して、スクリーンSC上のペン200の指示位置を検出する位置検出ユニット110と、位置検出ユニット110が検出した指示位置の座標を、画像データにおける座標に変換する座標変換部120と、PC300から入力される画像データに基づいて表示用の画像処理を実行する画像処理ユニット130と、画像処理ユニット130の制御に従ってスクリーンSCに画像を投射する投射ユニット140と、座標変換部120が変換した変換後の座標をPC300に出力する出力部150と、入力部160と、これらの各部を制御する制御部170と、記憶部180と、ユーザーの操作を受け付ける操作部190とを備えている。
制御部170は、図示しないCPU(Central Processing Unit)、不揮発性メモリー、RAM(Random Access Memory)等により構成され、制御部170に接続された記憶部180に記憶されている制御プログラムを読み出して実行し、プロジェクター100の各部を制御する。また、記憶部180に記憶された制御プログラムを実行することで、制御部170は後述するキャリブレーションを実行する。制御部170は、キャリブレーションを実行することにより、撮影画像データにおける座標と、キャリブレーションの対象となるスクリーンSC上の領域(例えば、実投射領域A12)における座標との対応関係を表すパラメーター(座標変換パラメーター)を求める。記憶部180は、磁気的、光学的記録装置または半導体記憶素子により構成され、制御プログラムを含む各種プログラム、及び、各種設定値等のデータを記憶する。
操作部190は制御部170に接続されている。操作部190は、各種スイッチ及びインジケーターランプを備え、プロジェクター100の外装筐体(図示略)に配置されている操作パネルを備えてもよいし、いわゆるリモコン(リモートコントローラー)から赤外線信号を受光する受光部を備えてもよい。制御部170は、プロジェクター100の動作状態や設定状態に応じてインジケーターランプを適宜点灯あるいは点滅させる。また、操作部190のスイッチが操作されると、操作されたスイッチに対応する操作信号が制御部170に出力される。なお、操作部190は、赤外線信号に限らず、他の無線信号を受信する構成であってもよい。操作部190は、図1に示した受付手段16に相当する。
また、表示システム1にリモコンが含まれる場合、プロジェクター100は、プロジェクター100のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。操作部190は、上記リモコンから受光した赤外線信号を受光素子により受光し、この信号に対応する操作信号を制御部170に出力する。なお、プロジェクター100に対する操作を表す操作信号をPC300からプロジェクター100に送信し、この操作信号に基づいてプロジェクター100を制御することもできる。この場合は、PC300も、プロジェクター100に対する操作をユーザーが入力するための操作部として機能する。
制御部170は、操作部190から入力される操作信号に基づいて、ユーザーの操作を検出し、この操作に従ってプロジェクター100を制御する。例えば、制御部170は、操作部190から入力される操作信号に基づいて、第1インターフェース11a及び第2インターフェース11bに割り当てられる構成情報を変更する。すなわち、制御部170は、図1に示した変更手段17に相当する。
入力部160は、PC300と接続するためのインターフェースである。入力部160は、画像データを入力するインターフェースであり、例えば、デジタル映像信号が入力されるDVI(Digital Visual Interface)インターフェース、USB(Universal Serial Bus)インターフェース及びLAN(Local Area Network)インターフェースや、NTSC(National Television System Committee)、PAL(Phase Alternating Line)及びSECAM(Sequentiel couleur a memoire)等の映像信号が入力されるS映像端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端子、HDMI(High-Definition Multimedia Interface:登録商標)規格に準拠したHDMIコネクター等の汎用インターフェースを用いることができる。また、入力部160が、アナログ映像信号をデジタル画像データに変換するA/D変換回路を有し、VGA(Video Graphics Array)端子等のアナログ映像端子によりPC300に接続される構成としてもよい。なお、入力部160は有線通信によって画像信号の送受信を行ってもよく、無線通信によって画像信号の送受信を行ってもよい。
また、入力部160は、VESA(Video Electronics Standards Association)が策定したDisplayPortを備えた構成としてもよく、具体的にはDisplayPortコネクターあるいはMini DisplayPortコネクターと、DisplayPort規格に準拠したインターフェース回路とを備えた構成としてもよい。この場合、プロジェクター100は、PC300や、PC300と同等の機能を有する携帯型デバイスが備えるDisplayPortに接続することができる。
プロジェクター100の構成は、光学的な画像の形成を行う光学系と、画像信号を電気的に処理する画像処理系とに分類される。光学系は、照明光学系144、光変調装置145及び投射光学系146から構成される。照明光学系144は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、レーザー等からなる光源を備えている。また、照明光学系144は、光源が発した光を光変調装置145に導くリフレクター及び補助リフレクターを備えていてもよく、投射光の光学特性を高めるためのレンズ群、偏光板、あるいは光源が発した光の光量を光変調装置145に至る経路上で低減させる調光素子等を備えたものであってもよい。
光変調装置145は、後述する画像処理系からの信号を受けて、照明光学系144からの光を変調する。本実施形態では、透過型液晶パネルを用いて光変調装置145を構成した場合を例に挙げて説明する。この構成では、光変調装置145は、カラーの投影を行うため、R(Red)G(Green)B(Blue)の三原色に対応した3枚の液晶パネルからなる。液晶パネルは、例えば縦横にマトリクス状に並ぶ所定数の画素を有する。照明光学系144からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系146に射出される。
投射光学系146は、投射する画像の拡大・縮小及び焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えている。
投射ユニット140は、表示制御部132の制御に従って投射光学系146が備える各モーターを駆動する投射光学系駆動部143と、表示制御部132から出力される画像信号に基づいて光変調装置145を駆動する光変調装置駆動部142と、制御部170の制御に従って照明光学系144が備える光源を駆動する光源駆動部141とを備えている。投射ユニット140は、図1に示した表示手段13に相当する。
一方、画像処理系は、プロジェクター100全体を統合的に制御する制御部170の制御に従って画像データを処理する画像処理ユニット130により構成される。画像処理ユニット130は、入力部160からの画像データを入力する画像入力部131と、画像入力部131を介して入力された画像データを処理する表示制御部132と、表示制御部132の制御に従って画像をフレームメモリー134に展開し、投射部30が投射する画像を生成する画像処理部133とを備えている。
表示制御部132は、画像入力部131を介して入力される画像データのフォーマット(フレームレート、解像度、圧縮状態)の判別等を行い、光変調装置145に表示画像を表示するために必要な処理を決定し、画像処理部133を制御して当該処理を実行する。画像処理部133は、表示制御部132の制御に従って、画像入力部131を介して入力された画像データをフレームメモリー134に展開し、インターレース/プログレッシブ変換、解像度変換等の各種変換処理を適宜実行し、フレームメモリー134に描画した表示画像を表示するための所定フォーマットの画像信号を生成して、表示制御部132に出力する。なお、プロジェクター100は、入力された画像データの解像度やアスペクト比を変更して表示することもでき、入力された画像データの解像度やアスペクト比を維持したままドットバイドットで表示することも可能である。また、画像処理部133は、表示制御部132の制御に従って、キーストーン補正、カラーモードに対応した色調補正、画像の拡大・縮小処理等の各種の画像処理を実行可能である。表示制御部132は、画像処理部133により処理された画像信号を光変調装置駆動部142に出力し、光変調装置145に表示させる。また、画像処理部133は、表示中の画像データの解像度、アスペクト比、光変調装置145の液晶表示パネルにおける表示サイズ等の情報から、画像位置情報を導出し、求めた画像位置情報を座標変換部120に出力する。画像位置情報は、実投射領域A12内のどの位置に表示画像が投射される(表示される)のかを示す情報である。換言すれば、画像位置情報は、実投射領域A12における表示画像の配置に関する情報であって、実投射領域A12における表示画像の位置(配置)を示している。この画像位置情報は、PC300の表示解像度が変化することによってPC300がプロジェクター11に出力する画像データの解像度が変化した場合(例えば、PC300において解像度に関する設定が変更された場合)等に変化する。
制御部170は、制御プログラムを実行して表示制御部132を制御し、スクリーンSC上に結像した表示画像のキーストーン補正を実行させる。また、制御部170は、操作部190から入力された操作信号に基づいて、表示制御部132を制御して表示画像の拡大・縮小処理を実行させる。
プロジェクター100は、スクリーンSC上でペン200により指示された指示位置を検出する位置検出ユニット110を有する。位置検出ユニット110は、スクリーンSCを撮影する撮像部111と、撮像部111を制御する撮影制御部112と、撮像部111の撮影画像に基づいてペン200の指示位置を検出する位置検出処理部113と、この指示位置の座標を算出する座標算出部114とを備えている。位置検出ユニット110は、図1に示した検出手段14に相当する。
撮像部111は、スクリーンSC上で投射部30が画像を投射可能な最大範囲(後述する投射可能領域A11に相当)を含む画角を撮影するデジタルカメラであり、撮影制御部112の制御に従って撮影を実行し、撮影画像データを出力する。換言すれば、撮像部111は投射可能領域A11全体を含む範囲を撮影可能に設定されている。撮像部111は、表示面を常時撮影していてもよいが、制御部170による制御に従い、必要なタイミングでのみ撮影を行ってもよい。撮影制御部112は、制御部170の制御に従って、撮像部111を制御して撮影を実行させる。撮像部111が撮影時のズーム倍率、フォーカス、絞りの調整を行う機構を有する場合、撮影制御部112は、これらの機構を制御して予め設定された条件で撮影を実行させる。撮影後、撮影制御部112は撮像部111が出力する撮影画像データを取得して、位置検出処理部113に出力する。撮像部111から出力される撮影画像データは、RGBやYUV等の形式で表されるものであってもよく、輝度成分のみを表すものであってもよい。また、撮影制御部112は、撮像部111から出力される撮影画像データをそのまま位置検出処理部113へ出力してもよく、解像度の調整や所定のファイルフォーマット(JPEG、BMPなど)への変換等を行った上で位置検出処理部113へ出力してもよい。
なお、撮像部111は、可視光を撮像可能な構成であってもよく、非可視光(赤外光など)を撮像可能な構成であってもよい。撮像部111が非可視光を撮像可能な場合には、ペン200が非可視光を射出し、撮像部111がペン200から射出された非可視光を撮像する構成や、ペン200が非可視光を反射可能な反射部を備えており、制御部170の制御によってプロジェクター100からスクリーンSCに対して非可視光を投射し、ペン200の反射部によって反射された非可視光を撮像部111によって撮像する構成等を採用することができる。
位置検出処理部113は、撮影制御部112から入力される撮影画像データを解析して、この撮影画像データから、実投射領域A12の外部と実投射領域A12との境界、及び、ペン200の画像を抽出し、ペン200による指示位置を特定する。ペン200の指示位置は、例えば、ペン200の先端の位置である。位置検出処理部113は、検出した指示位置の実投射領域A12における座標を求める。
座標算出部114は、位置検出処理部113によって検出された指示体200の指示位置、及び座標変換パラメーターに基づいて座標の算出を行う。具体的に、座標算出部114は、位置検処理部113が検出した指示位置の、実投射領域A12における座標を求め、算出した座標を示す制御データを座標変換部120に出力する。なお以下の説明では、指示体200の指示位置の座標を示すデータ(座標情報)を、「座標データ」、又は単に「座標」と称する場合がある。
座標変換部120は、位置検出ユニット110が出力した座標データを、PC300がプロジェクター100へ入力する画像データにおける座標を示す座標データに変換する。位置検出処理部113が出力する座標は、撮像部111の撮影画像データに基づいて検出された座標を表しており、この座標はスクリーンSC上に仮想的に設けられた座標軸における座標で表すことができる。しかし、スクリーンSC上の座標と撮影画像データ上の座標との対応関係は、プロジェクター100とスクリーンSCとの距離、投射光学系146におけるズーム率、プロジェクター100の設置角度、撮像装置5とスクリーンSCとの距離等の様々な要素の影響を受ける。そこで、プロジェクター100においては、最初にキャリブレーションを実行して、撮影画像データにおける座標と、キャリブレーションの対象となるスクリーンSC上の領域における座標との対応関係を表す座標変換パラメーターを求める。
制御部170によって座標変換パラメーターが求められると、この座標変換パラメーターに基づいて、座標算出部114が座標の変換を行う。この変換処理については後述する。さらに、座標変換部120は、座標算出部114から出力された座標を後述する画像位置情報に基づいて変換し、変換後の座標を出力部150に出力する。
出力部150は、PC300に接続され、座標変換部120の変換処理後の座標データをPC300に出力する。出力部150は、図1に示したファンクションデバイス11、記憶手段12及び供給手段15に相当する。すなわち、出力部150は、USB規格に準拠してPC300に接続され、2つのインターフェースを有する。なお、記憶手段12は、出力部150に含まれる構成ではなく、例えば記憶部180の一部によって構成されてもよい。また、供給手段15も、制御部170の一機能であってもよい。
ここで、入力部160と出力部150とは別の機能ブロックとして説明するが、物理的に一つのインターフェースに統合することももちろん可能である。例えば一つのUSBインターフェースで出力部150と入力部160との両方の機能を実現してもよい。また、出力部150は、画像処理ユニット130が備える画像処理部133に接続され、座標変換部120の変換処理後の座標を画像処理ユニット130に出力することも可能である。出力部150の出力先は、制御部170により制御される。この出力部150が出力する座標データ(第1座標データ及び第2座標データ)は、マウス、トラックボール、デジタイザー、あるいはペンタブレット等のポインティングデバイスが出力する座標データと同様のデータとして、PC300に出力される。例えば、第1スイッチ211、第2スイッチ212の押下は、それぞれ、マウスにおけるいわゆる右クリック、左クリックのいずれか一方と他方の操作に割り当てることができる。
また、PC300において、出力部150から出力される座標データを、汎用的なポインティングデバイスが出力する座標データと同等に扱う場合は、これらの汎用的なポインティングデバイスに対応した、汎用のデバイスドライバープログラムを利用することができる。一般的に、これらの汎用のデバイスドライバープログラムは、PC300のOSの一部としてあらかじめインストールされているため、汎用のデバイスドライバープログラムを利用する場合はデバイスドライバープログラムのインストールを行う必要がない。また、汎用のデバイスドライバープログラムを利用することから、専用のデバイスドライバープログラムを用意する必要がない一方で、プロジェクター100とPC300との間でやり取りできる情報は、汎用のデバイスドライバープログラムの仕様によって定められた範囲に限定される。
また、プロジェクター100に対応した専用のデバイスドライバープログラムを用意して、このデバイスドライバープログラムをPC300にインストールして使用してもよい。この場合は専用のデバイスドライバープログラムが必要になる一方で、プロジェクター100とPC300との間でやり取りできる情報は、専用のデバイスドライバープログラムの仕様に応じて任意に設定することができる。
図4は、PC300の構成を示すブロック図である。この図4に示すように、PC300は、制御プログラムを実行してPC300の各部を中枢的に制御するCPU310と、CPU310により実行される基本制御プログラムや当該プログラムに係るデータを記憶したROM320と、CPU310が実行するプログラムやデータを一時的に記憶するRAM330と、プログラムやデータを不揮発的に記憶する記憶部340と、入力操作を検出して入力内容を示すデータや操作信号をCPU310に出力する入力部350と、CPU310による処理結果等を表示するための表示データを出力する表示部360と、外部の装置との間でデータ等を送受信する外部I/F370とを備えており、これらの各部はバスにより相互に接続されている。
入力部350は、コネクターや電源供給回路を有する入力I/F380を有し、この入力I/F380に入力デバイス381が接続される。入力I/F380は、図1に示したホストコントローラー31に相当し、入力デバイス381は、例えば、キーボード、あるいは、マウスやデジタイザー等のポインティングデバイスである。
入力I/F380には、プロジェクター100に繋がるUSBケーブルが接続され、プロジェクター100から、ペン200による指示位置の座標が入力される。ここで、入力I/F380には、プロジェクター100の出力部150が出力する座標データが、マウス、トラックボール、デジタイザー、あるいはペンタブレット等のポインティングデバイスが出力する座標データと同様のデータとして入力される。したがって、PC300は、プロジェクター100から入力される座標データを入力デバイスからの入力信号として処理することができ、例えば、この座標データに基づいてマウスカーソルやポインターの移動を行う等の動作を行える。
表示部360は、画像信号出力用のコネクター等を備えた画像出力I/F390を有し、画像出力I/F390には、モニター391と、プロジェクター100に繋がる画像信号ケーブル(図示略)とが接続される。画像出力I/F390は、例えば、アナログ映像信号が入力されるVGA(Video Graphics Array)端子、デジタル映像信号が入力されるDVIインターフェース、USBインターフェース及びLANインターフェース、NTSC、PAL及び、SECAM等の映像信号が入力されるS映像端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端子、HDMI規格に準拠したHDMIコネクター等を複数備え、これら複数のコネクターにモニター391及びプロジェクター100がそれぞれ接続される。また、画像出力I/F390は、VESAが策定したDisplayPortを備えた構成としてもよく、具体的にはDisplayPortコネクターあるいはMini DisplayPortコネクターと、DisplayPort規格に準拠したインターフェース回路とを備えた構成としてもよい。この場合、PC300は、プロジェクター100やモニター391あるいは他の機器に対し、DisplayPortを介してデジタル映像信号を出力できる。なお、画像出力I/F390は有線通信によって画像信号の送受信を行ってもよく、無線通信によって画像信号の送受信を行ってもよい。
記憶部340は、CPU310により実行される表示制御プログラムと、表示制御プログラムの実行時に出力される画像データとを記憶している。CPU310は、表示制御プログラムを実行すると、プロジェクター100に対して画像データを送信する処理を実行する。この処理において、CPU310は画像データを再生するとともに、表示部360によって所定の表示解像度の画像信号を生成させ、画像出力I/F390に出力させる。ここで、表示部360は、アナログ信号を出力するコネクターに対してはアナログ画像信号を出力し、デジタルデータを出力するコネクターに対してはデジタル画像データを出力する。
また、CPU310は、表示制御プログラムの実行中、入力部350から、ペン200の操作に対応する座標が入力された場合に、この座標に対応する位置に、ポインターP1(図2)を表示するための画像を生成する。そして、CPU310は、再生中の画像データにポインターP1を重ねた画像データを生成し、この画像データを入力I/F380からプロジェクター100に出力する。さらに、CPU310は、後述するように、手書き領域の表示に関する設定や制御を実行する。すなわち、CPU310は、本実施形態においては、図1に示した実行手段32に相当する機能を実現する。
このように、表示システム1においては、PC300によりプロジェクター100に出力される画像データにポインターP1を重畳して描画する機能を、PC300が実行する。
図5は、ペン200の外観の一例を示す図である。ペン200は、第1スイッチ211と、第2スイッチ212とを備える。第1スイッチ211は、ペン200の先端に設けられており、ユーザーがこれをスクリーンSCに押し付けることによって押下可能に構成されたスイッチである。一方、第2スイッチ212は、ペン200の軸部に押下可能に設けられている。第1スイッチ211及び第2スイッチ212は、それぞれ、マウスのボタンのように機能することができる。また、第1スイッチ211の先端は開口しており、この開口部から光(可視光又は非可視光)が射出されるように構成されている。
図6は、ペン200の構成を示すブロック図である。ペン200は、第1スイッチ211及び第2スイッチ212を有し、ユーザーの操作に応じた操作信号を出力する操作部210と、操作部210からの操作信号に応じて光の照射態様を制御する照射制御部220と、照射制御部220による制御に従って光を照射する照射部230とを備える。照射制御部220は、ユーザーの操作に応じて光の照射パターン(点灯又は消灯する時間、間隔、強度、波長など)を変化させる。照射部230は、LEDやレーザーダイオードなどの光源を有する。照射部230が射出する光は、可視光及び非可視光(赤外光など)のいずれであってもよい。
本実施形態において、ペン200は、ユーザー数分、すなわち複数本存在する。本実施形態において、それぞれのペン200は、光学的に判別できるように構成されている。ペン200は、光の照射パターンを異ならせることによって、互いを判別可能に構成することができる。また、ペン200は、照射する光の波長(すなわち色)を異ならせることで判別されてもよいし、ペン200の筐体にバーコードやIDなどの画像を印刷やシールによって形成し、これを撮影して得られた撮影画像データを解析することによって判別されてもよい。このような画像解析は位置検出処理部113で実行されてもよい。
[キャリブレーション等の動作例]
図7は、プロジェクター100によりスクリーンSCに画像を投射した例を示す図であり、(A)はペン200の指示位置に従ってポインターP1を投射した状態を示し、(B)は指示位置に従って手書き画像H1を描画した状態を示す。
この例において、光変調装置145が有する液晶表示パネル全体を使用して表示画像を投射した場合には、図7(A)に二点鎖線で示す投射可能領域A11に画像が結像する。プロジェクター100がスクリーンSCの真正面に位置している場合を除き、投射可能領域A11には図7(A)に示すように台形歪みが発生するので、プロジェクター100は、表示制御部132の機能によりキーストーン補正を行う。このキーストーン補正の実行後には、投射可能領域A11の一部である実投射領域A12に表示画像が投射される。実投射領域A12は、通常、スクリーンSC上で長方形となり、かつ投射可能領域A11内で最大のサイズとなるよう設定される。具体的には、光変調装置145の液晶表示パネルの解像度と台形歪みの程度により決定されるが、最大サイズでなくてもよい。なお、プロジェクター11から投射した画像に台形歪みが発生していなければ、このキーストーン補正は実行しなくてもよい。この場合は、実投射領域A12は投射可能領域A11と一致する。
プロジェクター100の制御部170は、キーストーン補正を行った後の実投射領域A12に対してキャリブレーションを実行する。このキャリブレーションでは、制御部170が画像処理部133を制御して所定のキャリブレーション用の画像を描画させる。このキャリブレーション用の画像がスクリーンSCに投射された状態で、制御部170の制御により位置検出ユニット110がスクリーンSCを撮影する。キャリブレーション用の画像は、例えば白色の背景にいくつかのドットが配置された画像であり、あらかじめ記憶部180等に記憶されている。なお、キャリブレーション用の画像は必ずしも記憶部180等に記憶されている必要はなく、キャリブレーションの実行が必要になり、キャリブレーションを実行する毎に、制御部170がキャリブレーション用の画像をその都度生成する構成であってもよい。
キャリブレーションの対象となるスクリーンSCの領域は、実投射領域A12全体であってもよく、実投射領域A12の一部であってもよい。実投射領域A12の一部をキャリブレーションの対象とする場合としては、プロジェクター100の表示画像のアスペクト比とスクリーンSCのアスペクト比とが異なる場合(例えば、プロジェクター100の表示解像度がWXGA(アスペクト比は15:9)で、スクリーンSCのアスペクト比が4:3である場合)に、プロジェクター100の表示画像の垂直方向の幅が、スクリーンSCの垂直方向の幅と一致するように表示する場合が考えられる。この場合は、プロジェクター100の実投射領域A12のうち、スクリーンSCに含まれる領域をキャリブレーションの対象とし、それ以外の領域をキャリブレーションの対象外とすることが考えられる。
制御部170は、撮影画像データ中の表示画像の輪郭、すなわち実投射領域A12の外部と実投射領域A12との境界と、撮影画像データ中のドットを検出し、位置検出ユニット110の撮影範囲(画角)すなわち撮影画像における位置と、実投射領域A12上の位置との対応関係を特定する。制御部170は、キャリブレーションにより特定された撮影画像上の位置と実投射領域A12上の位置との対応関係に基づいて、後述するように座標算出部114が用いる座標変換パラメーターを求める。座標変換パラメーターには、画像処理部133が描画した画像上の座標と、撮影画像データ上で求められた座標とを対応付けるデータ等が含まれる。座標算出部114は、この座標変換パラメーターに基づいて、撮影画像データ上で求められた座標を画像処理部133が描画した画像上の座標に変換することができる。座標算出処理は、この座標変換パラメーターに基づいて行われる。
このキャリブレーションは、制御部170が記憶部180に記憶されたキャリブレーション用プログラム(図示略)を実行することで行われるので、PC300においてキャリブレーション用のプログラムをインストールして実行する必要がない。また、キャリブレーションは、撮影画像データに基づいて制御部170が自動で行う処理であってもよく、投射されたキャリブレーション用の画像に対してユーザーの操作が必要とする処理であってもよい。さらに、キャリブレーションは、これらの処理を併用して行われてもよい。キャリブレーション用の画像に対するユーザーの操作は、投射されたキャリブレーション用の画像に含まれるドットをユーザーがペン200で指示する操作等が考えられる。
プロジェクター100が備える位置検出ユニット110は、実投射領域A12に画像が投射された状態で撮影を実行し、図中に破線の矢印で示すように、撮影画像において実投射領域A12の頂点のいずれかを原点とする直交座標を仮想的に設定して、この座標系におけるペン200の先端位置の座標を求める。この直交座標は、上記のキャリブレーションにより得られた座標変換パラメーターに基づいて設定される。その後、座標変換部120により、実投射領域A12に表示された画像データにおけるペン200の先端の座標が求められると、この座標に従って、例えば図7(A)に示すポインターP1や、メニューバーM1が表示される。ポインターP1はペン200の先端位置を示す記号として描画される。ポインターP1は、単なる点の画像であってもよいし、十字や矢印の画像であってもよい。また、メニューバーM1は、ペン200により操作可能なGUI(Graphical User Interface)ウィジェットであり、メニューバーM1に配置されたボタンをペン200により指示することで、ユーザーがプロジェクター100の動作に関する操作を行うことができるようになる。ここにおいて、メニューバーM1によって可能な操作は、例えば、線等の記号の描画、描画した手書き画像のデータの保存、消去、コピー、描画した手書き画像の移動、直前の操作を取り消す操作(アンドゥ)、アンドゥによって取り消した操作を再び実行する操作(リドゥ)などである。
具体的な例としては、ペン200を図7(A)に示す位置から図7(B)の位置まで移動させることで、ペン200の先端の軌跡に沿って手書き画像H1が描画される。この手書き画像H1は、例えば、ポインターP1やメニューバーM1と同様に、ペン200の指示位置を示す座標データに従ってPC300がプロジェクター100に描画させるものである。また、ユーザーは、手書き画像H1を描画する前にメニューバーM1を指示することによって、手書き画像H1の線の色や太さを設定することが可能である。
また、メニューバーM1には、外部から供給可能な複数の画像(例えば、外部部160に接続されたUSBフラッシュメモリーなどの外部記憶装置が記憶している画像データ等)を順次表示させるスライドショー表示の制御用のボタンや、プロジェクター100の機能自体に関する設定(アスペクト比の変更、カラーモードの変更等)を行うためのボタン等を配置することも可能である。すなわち、メニューバーM1によって行われる操作には、手書き画像の描画とは直接的には関係しないものも含まれ得る。制御部170は、ペン200の指示位置が座標変換部120から出力された場合に、この座標を取得して、メニューバーM1において指示されたボタンを特定し、指示操作に対応した動作を実行する。
図8(A)、(B)は、プロジェクター100が指示位置の座標を検出し、画像データにおける座標に変換する処理の様子を示す説明図であり、図8(A)は一連の動作の初期状態を示し、図8(B)及び図9(A)、(B)は、図8(A)の状態から表示画像の解像度を変更した状態を示す。なお、以下の説明では、プロジェクター100が投射した画像に台形歪みが発生しておらず、かつ光変調装置145の変調領域全体に表示された画像が実投射領域A12に表示される場合について説明する。このとき、実投射領域A12は投射可能領域A11と一致しており、実投射領域A12に表示される画像の解像度は、光変調装置145の液晶表示パネルの解像度と等しい。
図8(A)に示す例では、光変調装置145の液晶表示パネルの解像度、及び実投射領域A12に表示された画像の解像度は、いずれも1280×800ドットである。また、PC300から入力される画像データの解像度も1280×800ドットである。したがって、実投射領域A12には、1280×800ドットの表示画像Im11が表示されている。位置検出ユニット110は、実投射領域A12の左上隅を原点とし、右方向をX軸の正方向、下方向をY軸の正方向とするX−Y直交座標系を設定し、実投射領域A12におけるペン200の指示位置の座標(X1n,Y1n)を検出する。座標算出部114が出力する座標データは、指示位置の座標(X1n,Y1n)を表している。
指示位置の座標(X1n,Y1n)は、実投射領域A12内で正規化された座標(正規化座標)である。具体的に、指示位置のX軸方向の座標X1nは、実投射領域A12の横幅W1に対する、実投射領域A12の左辺から指示位置までの長さWP1の比率を表している。また、指示位置のY軸方向の座標Y1nは、実投射領域A12の縦幅H1に対する、実投射領域A12の上辺から指示位置までの長さHP1の比率を表している。なお、ここでは、W1、WP1、 H1 及びHP1を画素数で表すものとする。
この場合、座標(X1n,Y1n)は、下記式(1)、(2)により算出される。
X1n=WP1÷W1 …(1)
Y1n=HP1÷H1 …(2)
例えば図8(A)に示す例で、WP1=400、 HP1=300と仮定する。表示画像Im11の解像度は1280×800ドットなので、W1=1280、H1=800である。したがって、X1n=400÷1280≒0.313、Y1n=300÷800=0.375と表すことができる。またこのとき、実投射領域A12の左上の頂点、実投射領域A12の右上の頂点、左下の頂点、及び右下の頂点の座標は、それぞれ(0, 0)、(1, 0)、(0, 1)、(1, 1)と表される。図8(A)の状態では実投射領域A12と、表示画像Im11が表示された領域とは一致しているので、座標(X1n,Y1n)は表示画像Im11内で正規化された座標と考えることもできる。
ここで、PC300から入力される画像データが1024×768ドットの解像度を有する表示画像Im12に切り替えられると、プロジェクター100は、画像データの縦方向の解像度(768ドット)が、液晶表示パネルの縦方向の解像度(800ドット)まで拡大されるように、画像データをスケーリングする。このスケーリングは縦方向及び横方向のいずれについても同様に行われるので、画像データの横方向の解像度(1024ドット)は、1024×(800÷768)≒1066ドットにスケーリングされる。この結果、スクリーンSCには、図8(B)に示すように1066×800ドットの表示画像Im12が投射される。この表示画像Im12のアスペクト比及び解像度は、表示画像Im11のアスペクト比及び解像度とは異なっているため、表示画像Im12が投射される領域は実投射領域A12とは一致しない。図8(B)に示す例では、表示画像Im12が投射される領域は実投射領域A12よりも小さい。また、プロジェクター100はスケーリング後の画像ができるだけ中央に表示されるようにその位置を変更している。そのため、実投射領域A12において、表示画像Im11の左上の頂点の位置と、表示画像Im12の左上の頂点の位置は一致していない。
ここで、図8(A)及び(B)に示すように、スクリーンSC上のペン200を固定した状態で、表示画像Im11を表示画像Im12に変更すると、指示位置そのものは動いていないが、指示位置と表示されている画像との相対位置は変化する。そのため、表示画像Im11の左上の頂点を原点として正規化された指示位置の座標(X1n, Y1n)と、表示画像Im12の左上の頂点を原点として正規化された指示位置の座標(X2n, Y2n)は異なる。このため、位置検出ユニット110が撮像部111の撮影画像データに基づいて算出した実投射領域A12における指示位置の座標(X1n,Y1n)をもとにポインターP1を表示すると、ポインターP1が実際の指示位置からずれてしまう。
例えば図8(B)の例では、表示画像Im12の左上の頂点は、表示画像Im11の左上の頂点よりも107画素だけ右側にある(107=(1280-1066)÷2)。従って、表示画像Im12の左辺から指示位置までの長さをWP2、表示画像Im12の上辺から指示位置までの長さをHP2とすると、WP2=WP1-107=400-107=293、HP2=HP1=300である。また、表示画像Im12の解像度は1066×800ドットなので、表示画像Im12の横幅W2及び縦幅H2は、W2=1066、H2=800である。従って、表示画像Im12の左上の頂点を原点として正規化された指示位置の座標(X2n, Y2n)は、X2n=(400-107)÷1066≒0.275、Y2n=300÷800=0.375と表される。このようにX1n≠X2nとなり、表示画像の解像度が変化すると、指示位置の正規化座標も変化する。
そのため、変更後の表示画像Im12の左上隅を原点とする座標系において、座標(X1n,Y1n)=(0.313, 0.375)にポインターP1を表示すると、ペン200の先端から離れた位置にポインターP1aが表示されてしまう。これは、PC300がポインターP1を描画する際に、位置検出ユニット110から出力された正規化座標に基づいて、画像の左上を原点として描画を行うためである。このように、実投射領域A12を基準として求めた座標は表示画像の解像度の影響を受けてしまうので、PC300は、位置検出ユニット110が算出した座標をそのままポインターP1の表示に利用することはできない。
そこで、プロジェクター100は、表示画像の解像度が変わった場合にも対応できるように、位置検出ユニット110の座標算出部114が算出した指示位置の座標(X1n,Y1n)を、座標変換部120によって、表示中の表示画像における指示位置の座標(X2n,Y2n)に変換する処理を行う。
座標変換部120は、画像処理部133から入力された画像位置情報に基づいて、座標(X1n,Y1n)を座標(X2n,Y2n)に変換する。この画像位置情報は、光変調装置145の変調領域における画像の配置に関する情報である。また光変調装置145の変調領域は、スクリーンSC上の実投射領域A12と対応している。従って画像位置情報は、実投射領域A12に対する表示画像の位置(配置)を示している。本実施形態では、画像位置情報は、実投射領域A12に対する表示画像の位置(配置)及びサイズを示している。この画像位置情報に基づいて、座標変換部120は、表示画像における指示位置の座標を得る。例えば図8に示した例では、W1、H1、W2及びH2は画像位置情報に相当する。また、表示画像Im11の左上端の座標(XO1,YO1)=(0、0)、及び表示画像Im12の左上端の座標(XO2,YO2)=(107, 0)も画像位置情報に相当する。なお、XO1,YO1,XO2,及びYO2は正規化された座標ではなく、実投射領域A12(又は、光変調装置145の変調領域)において、実投射領域A12の左上の頂点(又は、光変調領域145の変調領域の左上の頂点)を原点として、表示画像の左上の頂点の位置を画素数で表したものである。図8に示す例では、表示画像Im11の画像位置情報(XO1, YO1, W1, H1)=(0, 0, 1280, 800)であり、表示画像Im12の画像位置情報(XO2, YO2, W2, H2)=(107, 0, 1166, 800)である。
座標算出部120が算出した座標(X2n, Y2n)は、PC300が、処理対象の画像データにおいてポインターP1、メニューバーM1あるいは手書き画像H1を描画する場合に、画像データ中の位置を特定する情報として利用できる。このため、表示画像の解像度やズーム率等に影響されることなく、ポインターP1、メニューバーM1及び手書き画像H1を、正確に、ペン200による指示位置に合わせて描画できる。
ところで、実投射領域A12に表示される表示画像の位置及びサイズは、表示画像の解像度や表示位置の影響を受ける。例えば、操作部190による操作や、PC300から送信される制御信号に応じて、プロジェクター100が、表示解像度の変更、アスペクト比の変更、ズーム、画像の表示位置の変更(移動)、多画面表示処理等、投射状態が変化するような処理を実行した場合には、画像位置情報も変化する。上述の通り、画像位置情報は、実投射領域A12に対する画像配置領域(表示画像Im11、Im12が投射される(表示される)領域)の配置に関する情報である。換言すれば、画像位置情報は、実投射領域A12(表示可能領域)に対する表示画像の位置(配置)を示す情報である。また、PC300の表示解像度が変化し、PC300がプロジェクター100に出力する画像データの解像度が変化した場合(例えば、PC300において解像度に関する設定が変更された場合)にも、画像位置情報は変化する。なお「多画面表示処理」とは、プロジェクター100の実投射領域A12を複数の領域に区分して、複数の画像供給装置から入力された異なる画像をこれらの領域に表示させる処理である。
座標変換部120は、投射部30による表示画像の投射状態(表示状態)が変化する毎に、制御部170及び表示制御部132から情報を取得して画像位置情報を更新し、更新後の画像位置情報に基づいて座標を変換する。画像位置情報は、例えば、次に挙げるタイミングで更新される。
・制御部170がPC300からの画像データの入力を検出したとき。
・制御部170が、PC300から入力される画像データに関する情報(画像の解像度など)の変化を検出したとき。
・プロジェクター100において、画像データの解像度を変更したとき。
・プロジェクター100において、画像データのアスペクト比を変更したとき。
・光変調装置145により描画する画像を、投射する画像データの画像処理によって拡大/縮小するデジタルズーム機能を実行または解除したとき。
・実投射領域A12に対する表示画像の表示位置を変更したとき。
・上記のデジタルズーム機能により画像を拡大し、さらに画像処理によって画像の表示位置を変更する機能を実行または解除したとき。
・光変調装置145により描画する画像と背景を含む全体すなわち実投射領域A12全体の投射サイズを、画像データの画像処理を行うことにより拡大/縮小するテレワイド機能を実行または解除したとき。
・上記のデジタルズーム機能により画像を縮小し、さらに画像処理によって画像の表示位置を変更するピクチャーシフト機能を実行または解除したとき。
・複数の画像の同時表示を実行または解除したとき。
・座標変換部120から座標を出力する出力先が、画像処理ユニット130からPC300(出力部150)へ、あるいはその逆へ変更されたとき。
解像度の変更、アスペクト比の変更、各種機能の実行および解除は、いずれも制御部170の制御により、画像処理ユニット130によって実行される。なお、上記に列挙したタイミングはあくまで一例であり、その他のタイミングで画像位置情報を更新することももちろん可能である。
図9は、プロジェクター100の動作を示すフローチャートであり、特に、ペン200による指示位置を検出して指示位置の座標を出力する動作を示す。
この図9に示す動作は、プロジェクター100の起動後、あるいは、操作部190の操作によってポインターP1やメニューバーM1の表示が指示された場合に、投射を終了するまで一定時間毎に繰り返し実行される。
まず、キャリブレーションが必要か否かが判別される(ステップS11)。この判別は、キャリブレーションが必要か否かを示すユーザーの指示に基づいて行ってもよく、キャリブレーションを行う必要があるかどうかを制御部170が自動的に判別し、この判別結果に基づいて自動的に行ってもよい。キャリブレーションが必要な場合には(ステップS11;Yes)、図7(A)を参照して説明したようにキャリブレーションを実行する(ステップS12)。すなわち、画像処理部133によりキャリブレーション用の画像を描画させ、このキャリブレーション用の画像が投射された状態で位置検出ユニット110により撮影を実行させ、得られた撮影画像データにおける実投射領域A12の輪郭やキャリブレーション用の画像に含まれる特徴点(ドット等)を検出することで、画像処理部133が描画した画像と撮影画像データとの対応関係を求める。なお、キャリブレーションはプロジェクター100の使用を開始してから1度だけ行えばよく、特定の事象が発生しない限りは再度行う必要がない。例えば、次の(1)〜(3)のような場合には、新たにキャリブレーションを行う必要がある。
(1)キーストーン補正を行った場合。
(2)プロジェクター100の設置条件が変わった場合。例えば、スクリーンSCに対するプロジェクター100の相対的な位置(向きを含む)が変わった場合。
(3)光学条件が変わった場合。例えば、投射光学系146のフォーカスまたはズームの状態が変わった場合。投射光学系146あるいは撮像部111の光軸が経時変化等によりずれた場合。
これらの事象が発生した場合、座標変換部120が座標を算出する基準となる、初期状態における撮影画像データ上の位置と画像処理部133が描画する画像上の位置との対応関係が変化する(つまり、座標変換パラメーターが変化する)ので、改めてキャリブレーションを行う必要がある。逆にこれらの事象が発生しなければキャリブレーションを再度行う必要はないので、プロジェクター100を前回使用してから今回使用するまでの間に上記の事象が発生していなければ、キャリブレーションを行うことなく、前回のキャリブレーションで求めた座標変換パラメーターを再利用することもできる。キャリブレーションを行う必要があるかどうかを制御部170が判別する方法としては、例えば、操作部190においてキーストーン補正の実行を指示するスイッチの操作の有無に基づいて判別する方法や、プロジェクター100に傾きや動きを検出するセンサーを設け、このセンサーの検出値の変化に基づいて判別する方法がある。また、投射光学系146におけるフォーカス、ズームの調整を行った場合に、制御部170がキャリブレーションを自動で実行してもよい。また、ユーザーが、プロジェクター100の設置位置や光学条件の変化を知って、キャリブレーション実行を指示する操作を行えるように、対応するスイッチを操作部190やリモコンに設けてもよい。
撮影制御部112が、制御部170の制御により撮像部111に実投射領域A12を含む範囲を撮影させると、位置検出処理部113は撮影画像データを取得し(ステップS13)、この撮影画像データに基づいてペン200の指示位置を検出する(ステップS14)。続いて、座標算出部114が、位置検出処理部113により検出された指示位置の座標を算出する(ステップS15)。このステップS15で算出される座標は実投射領域A12における座標であり、図8(A)で説明した座標(X1n,Y1n)である。
座標変換部120は、画像位置情報の更新が必要か否かを判別し(ステップS16)、更新が必要な場合は制御部170及び表示制御部132から情報を取得して画像位置情報を更新する(ステップS17)。このステップS17の処理は、ステップS15の後に限定されず、上記に例示したタイミングで随時実行してもよい。
その後、座標変換部120は、座標算出部114が算出した座標を表示画像の画像データにおける座標に変換する処理を行う(ステップS18)。変換後の座標は、図5(B)で説明した座標(X2n,Y2n)である。
座標変換部120は、変換後の座標をPC300に出力し(ステップS19)、本処理を終了する。
以上のように、表示システム1は、プロジェクター100が、画像データに基づき、スクリーンSCに表示画像を表示する投射ユニット140と、スクリーンSCにおける、表示画像に対する指示位置を検出する位置検出処理部113と、スクリーンSC内の表示可能領域(例えば、実投射領域A12)における指示位置の座標である第1の座標情報を算出する座標算出部114と、座標算出部114により算出された第1の座標情報を、画像データにおける座標である第2の座標情報に変換する座標変換部120と、座標変換部120により得られた第2の座標情報を出力する出力部150とを備え、ペン200による指示位置の座標を、画像データにおける座標として出力するので、出力された座標を利用するPC300等においては、表示解像度や表示領域の広さ等の表示態様に影響されずに、指示位置と画像データとの相対位置を特定できる。画像データにおける指示位置の座標を得る過程で、画像データ自体と指示位置とを直接対応づける必要がないため、画像データのサイズ等が変化してもキャリブレーションを行う必要がない。したがって、キャリブレーションの実行頻度を減らすことができる。これにより、プロジェクター100の利便性の向上を図ることができる。また、PC300側においてキャリブレーション用のプログラムを実行する必要がないため、PC300の操作に不慣れなユーザーの負担を軽減できる。
また、座標変換部120は、座標算出部114により算出された第1の座標情報を、表示可能領域に対する表示画像の位置を示す情報である画像位置情報に基づいて、第2の座標情報に変換するので、表示可能領域に対する表示画像の位置を示す情報である画像位置情報が変化しても、ペン200による指示位置の座標を正確に変換して出力できる。
また、座標変換部120は、座標算出部114により算出された第1の座標情報を、画像データの解像度に基づいて第2の座標情報に変換する。例えば、座標変換部120は、投射部30の表示解像度と画像データの解像度を反映した画像位置情報を用いて座標の変換を行う。これにより、画像データの解像度が変化しても指示位置の座標を正確に変換して出力できる。
また、位置検出ユニット110は、撮像部111が撮影した撮影画像に基づいて、スクリーンSC上のペン200の位置を検出することにより、実投射領域A12における指示位置を検出するので、指示位置を速やかに検出できる。
[構成情報の変更に関する動作例]
図10は、プロジェクター100が手書き画像を表示する場合に実行する処理を示すフローチャートである。なお、ここでは、1名のユーザーが1本のペン200を使用しているものとする。図10に示すように、プロジェクター100の制御部170は、まず、指示位置が検出されているか否かを判断する(ステップS21)。制御部170は、指示位置が検出されなければ、ステップS22、S23の処理をスキップ(省略)する一方、指示位置が検出されれば、座標データを生成して出力部150に供給することによって座標データをPC300に送信する(ステップS22)。
このとき、制御部170は、あらかじめ決められたいずれかのインターフェース(第1インターフェース11a又は第2インターフェース11b)に割り当てて座標データを供給する。この割り当ては、構成情報として記述されており、エニュメレーションの実行時に決められている。ここでは、制御部170は、座標データを第1インターフェース11aに割り当て、このときの構成情報としてマウスの構成情報が用いられているものとする。
一方、PC300においては、CPU310が、座標データに基づいて指示位置を特定し、特定した指示位置に応じた手書き画像を表示させる画像データを生成する。このとき、CPU310は、プロジェクター100から受信した構成情報に基づき、この座標データがマウスによって指示されたものであると認識する。なお、座標データには、指示位置の座標に加え、第1スイッチ211及び第2スイッチ212の押下状態を表す情報が含まれている。PC300は、画像データが生成されると、これをプロジェクター100に供給する。制御部170は、この画像データに応じた手書き画像を投射ユニット140に表示させ、表示面の画像を更新する(ステップS23)。
次に、制御部170は、ユーザーによってインターフェースを変更する操作が行われたか否かを判断する(ステップS24)。具体的には、制御部170は、インターフェースを変更するためのOSD画像を表示する操作が行われ、表示したOSD画像を介してインターフェースを変更する操作が行われたか否かを判断する。制御部170は、このような操作が行われればインターフェースを変更する一方(ステップS25)、そうでなければステップS25の処理をスキップし、再びステップS21以降の処理を繰り返す。
図11は、OSD画像を例示する図である。OSD画像O1は、ペン200が1本(すなわちユーザーが1名)である場合に表示されるOSD画像である。チェックボックスC11、C12は、それぞれ、ペン200をマウスとして機能させるかデジタイザーとして機能させるかを示す画像であり、ユーザーによって選択された(あるいは初期状態において設定された)方にチェックマークが表示されている。すなわち、この例においては、ペン200にはマウスの機能が割り当てられている。
ユーザーは、操作部190やリモコンを操作したり、あるいはペン200によってチェックボックスC11、C12のいずれかを指示したりすることによって、ペン200に対する機能の割り当てを変更することが可能である。例えば、図11に示すOSD画像O1が表示された状態において、ユーザーがチェックボックスC12を選択すると、ペン200に割り当てられる機能がマウスの機能からデジタイザーの機能に切り替わる。同時にチェックボックスC12内にチェックマークが表示され、チェックボックスC11内のチェックマークは消える。
このようにしてデバイスの種別が切り替わると、プロジェクター100からPC300に供給される情報も変化する。例えば、ユーザーがペン200をデジタイザーとして用いる場合には、ユーザーがペン200をマウスとして用いる場合には供給されない情報が供給される。一例を挙げると、ユーザーがペン200をデジタイザーとして用いる場合には、ペン200が検出可能な領域にあるか否かを示す値(In Range)が座標データとともに供給されるが、ユーザーがペン200をマウスとして用いる場合には、このような値を供給する必要はない(なお、本実施形態において、ペン200が検出可能な領域にある状態とは、位置検出ユニット110が指示位置を検出している状態である。)。また、第1スイッチ211、第2スイッチ212の押下状態も、ペン200がマウスとして機能する場合とデジタイザーとして機能する場合とで異なる情報として認識可能である。
なお、ペン200に割り当てられる機能の選択方法は、図11の例に限定されず、例えば、プルダウンメニューなどによって選択する方法であってもよい。また、上述した例と同様の要領で、ペン200に対する機能の割り当てをデジタイザーの機能からマウスの機能に切り替えることも、もちろん可能である。
この場合において、インターフェースの変更方法には、以下の2通りがある。第1の方法は、インターフェースに割り当てられる構成情報をマウスの構成情報からデジタイザーの構成情報に(あるいはその逆に)変更するものである。一方、第2の方法は、インターフェースに割り当てられる構成情報を変更するのではなく、座標データの供給に係るインターフェースそのものを変更するものである。第2の方法の場合には、例えば、第1インターフェース11aをマウスに割り当て、第2インターフェース11bをデジタイザーに割り当てる、といったように、インターフェースとデバイスの対応関係をあらかじめ決めておき、制御部170は、ユーザーによって選択された種別のデバイスに割り当てられたインターフェースを介して座標データを供給するよう制御する。
なお、第1の方法の場合、PC300とプロジェクター100とのUSB接続をいったん切断し、接続し直す必要がある。ここでいう切断及び接続は、USB規格における信号線のうちのD+ラインのプルアップ・プルダウンかによって実現される。また、Vbusラインの接続・切断によっても、同様のことを実現できる。制御部170は、切断後の再接続時に、変更後の構成情報を送信する。
一方、第2の方法の場合には、USB接続の切断は不要である。
また、インターフェースの変更は、ペン200を2本用いる場合であっても可能である。ペン200を1本用いる場合と2本用いる場合とがある場合には、制御部170は、ペン200の本数(又はユーザーの人数)を特定し、特定した人数に応じたOSD画像を表示すればよい。
図12、13は、OSD画像の他の例を示す図である。図12に示すOSD画像O2は、ユーザーの人数を選択するためのOSD画像であり、チェックボックスC21、C22を含む。また、図13に示すOSD画像O3は、2名分(すなわちペン200で2本分)の構成情報をそれぞれ選択するためのOSD画像であり、チェックボックスC31、C32によって一方のユーザー(ユーザー1)の構成情報を選択し、チェックボックスC33、C34によって他方のユーザー(ユーザー2)の構成情報を選択する。
以上のように、表示システム1は、ペン200をマウスとして機能させたり、デジタイザーとして機能させたり、といったように、デバイスの種別をユーザーの操作に応じて切り替えることが可能である。これにより、ユーザーは、同じ1本のペン200を用いながら、これをその用途に応じて使い分けることが可能になる。
また、表示システム1によれば、プロジェクター100からPC300に供給されるデータのフォーマットをユーザー自身が選択することが可能である。そのため、表示システム1によれば、例えばPC300のOSがデジタイザーをサポートしている場合とそうでない場合とでペン200の機能をユーザー自身が切り替えるようにすることも可能である。
[変形例]
本発明は、上述した実施形態に限らず、以下に例示するさまざまな態様でも実施可能である。また、本発明は、必要に応じて、以下に示す変形例を複数組み合わせた態様でも実施することができる。
(1)本発明は、指示体の数が限定されるものではない。すなわち、本発明は、3以上の指示体を同時に利用することも可能なものである。この場合、表示装置は、指示体の数と同数のインターフェースを有するようにしてファンクションデバイスを構成すればよい。なお、指示体の数は、1つであってもよい。この場合、ファンクションデバイスは、インターフェースを1つ有していれば十分である。インターフェースが1つのみである場合、表示装置は、上述した第1の方法、すなわち構成情報を変更する方法によってデバイスの切り替えを行えばよい。
(2)本発明に係るプロジェクターは、位置検出ユニット110に相当する構成の全部又は一部を他の装置によって実現するものであってもよい。例えば、本発明に係るプロジェクターは、撮像部111や撮影制御部112に相当する機能を有する撮像装置(デジタルカメラ等)を接続可能に構成されており、この撮像装置から撮影画像データを取得するものであってもよい。また、位置検出ユニット110は、プロジェクターやPC以外の装置であってもよい。この場合、位置検出ユニット110を、プロジェクターから独立した装置とすることができる。さらにこのとき、位置検出ユニット110が座標変換部120に相当する機能を有していてもよい。
(3)上述した実施形態では、表示装置10とホスト装置30とが別の装置である構成を例に挙げて説明したが、表示装置10が、ホスト装置30をその内部に有する構成であってもよい。この場合は実行手段32の機能も表示装置10が備えている。
(4)上述した実施形態では、指示体としてペン200を用いる構成を例に挙げて説明したが、ペン200以外の指示体を用いてもよい。例えば、ユーザーの指を指示体として用いることも可能である。
(5)指示体200は、第1スイッチ211又は第2スイッチ212が押下されていないときは照射部230によって光を照射せず、第1スイッチ211又は第2スイッチが押下されたときに照射部230によって光を照射する構成とすることができる。また、指示体200は、照射部230によって常に光を照射し、第1スイッチ211又は第2スイッチ212が押下されているときと押下されていないときで光の照射パターンを変化させてもよい。いずれの場合も、撮像部111によって撮影された画像を解析することで、第1スイッチ211又は第2スイッチ212が押下されたか否か(第1スイッチ211又は第2スイッチ212が操作されたか否か)を検出することができる。またプロジェクター100は、第1スイッチ211又は第2スイッチが押下された(操作された)ことを示す操作情報(第1の操作情報)、及び第1スイッチ211又は第2スイッチの押下が解除された(操作が解除された)ことを示す操作情報(第2の操作情報)を、PC300へ出力してもよい。例えばプロジェクターは、第1の操作情報を、マウスが左クリックされたことを示す情報としてPC300へ出力し、第2の操作情報を、マウスの左クリックが解除されたことを示す情報としてPC300へ出力してもよい。またプロジェクター100は、指示体200を識別するための識別情報、及び各指示体200の座標情報とともにこれらの情報をPC300に出力してもよい。さらに、プロジェクター100は、操作情報を、マウス以外のポインティングデバイス(例えば、デジタイザーなど)の操作を表す情報としてPC300に出力してもよい。
(6)座標情報や識別情報等の制御データはUSB通信によってプロジェクター100からPC300に出力することが可能である。またプロジェクター100は、Bluetooth(登録商標)や有線LAN、無線LAN等によって制御データをPC300に出力してもよい。
(7)OSD画像O1、O2及びO3は適宜組み合わせて用いることが可能である。例えばプロジェクター100は、インターフェースを変更するためのOSD画像の表示が指示されると、ユーザーの人数を選択するためのOSD画像O2を最初に表示し、チェックボックスC21が選択されるとOSD画像O1を、チェックボックスC22が選択されるとOSD画像O3を次に表示してもよい。
(8)使用可能なペン200が複数あり、ユーザー人数が1人である場合、ユーザーが使用するペン200a以外のペン(つまり、使用されないペン)200bは、ペン200aが割り当てられているインターフェース(例えば、第1インターフェース11a)に自動的に割り当てられてもよく、ペン200aが割り当てられていないインターフェース(例えば、第2インターフェース11b)に自動的に割り当てられてもよい。またユーザー人数が1人である場合、ペン200bはいずれのインターフェースに割り当てられなくてもよい。
(9)上述した実施形態では、制御部170が座標変換パラメーターを算出していたが、制御部170以外の構成要素が座標変換パラメーターを算出してもよい。例えば、位置検出ユニット110内の何れかの構成要素(例えば、座標算出部114)が座標変換パラメーターを算出してもよい。
(10)座標変換部120は、座標算出部114により算出された指示位置の座標が、画像データが表示された領域に含まれない場合、言い換えれば、指示位置が表示画像に含まれない場合に、表示画像が表示された領域内で指示位置に近い位置の座標を、変換後の座標としてもよい。このような構成であれば、画像が表示されていない位置が指示された場合であっても、指示位置の座標を出力できる。また、出力される座標は指示位置に近い位置の座標であるため、指示位置の座標と同様に、PC300等によって処理できる。
また、座標変換部120は、座標算出部114により算出された指示位置の座標が、画像データが表示された領域に含まれない場合、言い換えれば、指示位置が表示画像に含まれない場合に、変換後の座標を出力しない構成であってもよい。この場合、PC300は、画像に重なる位置への指示のみに対応した動作を行うことができる。
(11)上述した実施形態では、0以上1以下の範囲で座標(X1n, Y1n)、及び座標(X2n, Y2n)の正規化を行っているが、正規化の方法はこれに限られない。これらの座標の正規化には、論理的に定義された任意の値(例えば、0以上32767以下の範囲など)を用いることができる。
(12)本発明に係る表示装置は、プロジェクターである必要はない。例えば、本発明に係る表示装置は、液晶ディスプレイなどであってもよい。この場合、検出手段14に相当する構成は、デジタルカメラなどであってもよいが、表示面に重ねて設けられたタッチスクリーン(タッチパネル)によって実現されてもよい。また、検出手段14としては、タッチスクリーンに限らず、周知のさまざまな構成を利用することが可能である。なお、本発明に係る表示装置が表示面そのものを有する場合には、上述したキャリブレーション等の動作が不要になる。
(13)上述した実施形態では、光源が発した光を変調する手段として、光変調装置145がRGBの各色に対応した3枚の透過型または反射型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。ここで、表示部として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。
(14)上述した実施形態において記憶部180が記憶していた制御プログラムを、プロジェクター100が通信ネットワークを介して接続された他の装置からダウンロードして実行してもよいし、可搬型の記録媒体に制御プログラムを記録して、この記録媒体から上記各プログラムを読み取って実行する構成としてもよい。PC300が記憶していた表示制御プログラムについても同様に、PC300が他の装置から表示制御プログラムをダウンロードして実行してもよいし、可搬型の記録媒体に記録された表示制御プログラムをPC300が読み取って実行する構成としてもよい。
1…表示システム、10…表示装置、11…ファンクションデバイス、11a…第1インターフェース、11b…第2インターフェース、12…記憶手段、13…表示手段、14…検出手段、15…供給手段、16…受付手段、17…変更手段、20a、20b…指示体、30…ホスト装置、31…ホストコントローラー、32…実行手段、100…プロジェクター、110…位置検出ユニット、111…撮像部、112…撮影制御部、113…位置検出処理部、114…座標算出部、120…座標変換部、130…画像処理ユニット、131…画像入力部、132…表示制御部、133…画像処理部、134…フレームメモリー、140…投射ユニット、141…光源駆動部、142…光変調装置駆動部、143…投射光学系駆動部、144…照明光学系、145…光変調装置、146…投射光学系、150…出力部、160…入力部、170…制御部、180…記憶部、190…操作部、200…ペン、210…操作部、211…第1スイッチ、212…第2スイッチ、220…照射制御部、230…照射部、300…PC、310…CPU、320…ROM、330…RAM、340…記憶部、350…入力部、360…表示部、370…外部I/F、380…入力I/F、381…入力デバイス、390…画像出力I/F、391…モニター、SC…スクリーン

Claims (12)

  1. ホスト装置とUSB(Universal Serial Bus)規格に準拠して接続し、第1インターフェースを有するファンクションデバイスと、
    インターフェースに第1ポインティングデバイスを対応付ける第1構成情報を含む複数の構成情報を記憶する記憶手段と、
    表示面に画像を表示する表示手段と、
    前記表示面に対して第1指示体により指示された第1位置を検出する検出手段と、
    前記記憶手段に記憶された第1構成情報と前記検出手段により検出された第1位置を表す第1座標データとを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する供給手段と、
    ユーザーの操作を受け付ける受付手段と、
    前記第1座標データに対応する前記構成情報を前記受付手段により受け付けられた操作に応じて変更する変更手段と
    を備える表示装置。
  2. 前記ファンクションデバイスは、前記第1インターフェースと、第2インターフェースとを有し、
    前記記憶手段は、前記第1構成情報と、前記第1ポインティングデバイスとは異なる第2ポインティングデバイスをインターフェースに割り当てる第2構成情報とをそれぞれ記憶し、
    前記変更手段は、前記操作に応じて、前記供給手段が前記第1座標データを供給するインターフェースを前記第1インターフェースから前記第2インターフェースに変更し、
    前記供給手段は、前記第2構成情報と前記第1座標データとを前記第2インターフェースに割り当てて供給する
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記ファンクションデバイスは、前記第1インターフェースと、第2インターフェースとを有し、
    前記記憶手段は、前記第1構成情報と、前記第1ポインティングデバイスとは異なる第2ポインティングデバイスをインターフェースに割り当てる第2構成情報とをそれぞれ記憶し、
    前記検出手段は、前記第1位置と、前記表示面に対して第2指示体により指示された第2位置とを検出し、
    前記供給手段は、前記記憶手段に記憶された第1構成情報と前記検出手段により検出された第1位置を表す第1座標データとを前記第1インターフェースに割り当てるとともに、前記記憶手段に記憶された第2構成情報と前記検出手段により検出された第2位置を表す第2座標データとを前記第2インターフェースに割り当てて、前記ファンクションデバイスを介して前記ホスト装置に供給し、
    前記変更手段は、前記供給手段により供給される第1構成情報と前記第2構成情報の少なくともいずれかを前記受付手段により受け付けられた操作に応じて変更する
    ことを特徴とする請求項1に記載の表示装置。
  4. 前記変更手段は、前記第1インターフェースに割り当てられるデバイスの種別をマウス及びデジタイザーの一方から他方に切り替えるように前記構成情報を変更する
    ことを特徴とする請求項1ないし3のいずれか1項に記載の表示装置。
  5. 前記記憶手段が、前記第1インターフェース及び前記第2インターフェースに対してHID(Human Interface Device)クラスを割り当てた前記構成情報を記憶する
    ことを特徴とする請求項1ないし4のいずれか1項に記載の表示装置。
  6. 前記記憶手段が、前記第1インターフェースに対してマウスに対応するサブクラスを割り当て、前記第2インターフェースに対してデジタイザーに対応するサブクラスを割り当てた前記構成情報を記憶する
    ことを特徴とする請求項5に記載の表示装置。
  7. 前記記憶手段が、前記第1インターフェース及び前記第2インターフェースに対してマウスに対応するサブクラスを割り当てた前記構成情報を記憶する
    ことを特徴とする請求項5に記載の表示装置。
  8. 前記記憶手段が、前記第1インターフェース及び前記第2インターフェースに対してデジタイザーに対応するサブクラスを割り当てた前記構成情報を記憶する
    ことを特徴とする請求項5に記載の表示装置。
  9. ホスト装置とUSB(Universal Serial Bus)規格に準拠して接続し、第1インターフェースを有するファンクションデバイスと、
    インターフェースに第1ポインティングデバイスを対応付ける第1構成情報を含む複数の構成情報を記憶する記憶手段と、
    光を投射することによって表示面に画像を表示する表示手段と、
    前記表示面に対して第1指示体により指示された第1位置を検出する検出手段と、
    前記記憶手段に記憶された第1構成情報と前記検出手段により検出された第1位置を表す第1座標データとを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する供給手段と、
    ユーザーの操作を受け付ける受付手段と、
    前記第1座標データに対応する前記構成情報を前記受付手段により受け付けられた操作に応じて変更する変更手段と
    を備えるプロジェクター。
  10. 請求項1ないし8のいずれか1項に記載の表示装置及び第1指示体と、
    前記ファンクションデバイスを介して供給された前記構成情報及び前記第1座標データに基づき、前記第1位置に応じた処理を実行する実行手段を備えるホスト装置と
    を備える表示システム。
  11. 前記実行手段は、前記第1位置に応じた画像を前記表示手段に描画させる処理を実行する
    ことを特徴とする請求項10に記載の表示システム。
  12. ホスト装置とUSB(Universal Serial Bus)規格に準拠して接続し、第1インターフェースを有するファンクションデバイスと、
    インターフェースに第1ポインティングデバイスを対応付ける第1構成情報を含む複数の構成情報を記憶する記憶手段と、
    表示面に画像を表示する表示手段と
    を備える表示装置において、
    前記表示面に対して指示体により指示された位置を検出する第1ステップと、
    前記第1ステップにおいて検出された位置を表す座標データと前記記憶手段に記憶された構成情報とを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する第2ステップと、
    前記第1インターフェースに割り当てられる前記構成情報を変更する操作をユーザーから受け付ける第3ステップと、
    前記第3ステップにより受け付けられた操作に応じて、前記第1座標データに対応する前記構成情報を前記第2ステップにおいて供給したものから変更する第4ステップと、
    前記第4ステップによる変更後に、前記表示面に対して指示体により指示された位置を検出する第5ステップと、
    前記第5ステップにおいて検出された位置を表す座標データと前記第4ステップにおいて変更された構成情報とを前記第1インターフェースに割り当て、前記ファンクションデバイスを介して前記ホスト装置に供給する第6ステップと
    を実行するデバイスの切替方法。
JP2012001018A 2012-01-06 2012-01-06 表示装置、プロジェクター、表示システム及びデバイスの切替方法 Expired - Fee Related JP5874401B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012001018A JP5874401B2 (ja) 2012-01-06 2012-01-06 表示装置、プロジェクター、表示システム及びデバイスの切替方法
US13/710,854 US8806074B2 (en) 2012-01-06 2012-12-11 Display device, projector, display system, and method of switching device
CN201210558787.4A CN103197778B (zh) 2012-01-06 2012-12-20 显示装置、投影仪、显示***以及设备的切换方法
CN201710259727.5A CN107272923B (zh) 2012-01-06 2012-12-20 显示装置、投影仪、显示***以及设备的切换方法
US14/321,645 US8943231B2 (en) 2012-01-06 2014-07-01 Display device, projector, display system, and method of switching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012001018A JP5874401B2 (ja) 2012-01-06 2012-01-06 表示装置、プロジェクター、表示システム及びデバイスの切替方法

Publications (3)

Publication Number Publication Date
JP2013140533A true JP2013140533A (ja) 2013-07-18
JP2013140533A5 JP2013140533A5 (ja) 2015-02-19
JP5874401B2 JP5874401B2 (ja) 2016-03-02

Family

ID=48720434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012001018A Expired - Fee Related JP5874401B2 (ja) 2012-01-06 2012-01-06 表示装置、プロジェクター、表示システム及びデバイスの切替方法

Country Status (3)

Country Link
US (2) US8806074B2 (ja)
JP (1) JP5874401B2 (ja)
CN (2) CN103197778B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167198A (ja) * 2015-03-10 2016-09-15 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP2018097880A (ja) * 2017-12-20 2018-06-21 カシオ計算機株式会社 検出装置、検出方法及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8102845B2 (en) 2009-05-28 2012-01-24 Synexxus, Inc. Reconfigurable data distribution system
US9323367B2 (en) * 2012-06-22 2016-04-26 Smart Technologies Ulc Automatic annotation de-emphasis
TWI468843B (zh) * 2013-05-30 2015-01-11 Delta Electronics Inc 互動式投影系統及互動式影像偵測方法
US9767046B2 (en) 2013-10-04 2017-09-19 Synexxus, Inc. Modular device, system, and method for reconfigurable data distribution
CN104915024B (zh) * 2014-03-10 2018-01-23 联想(北京)有限公司 控制操作的方法、智能输入笔及电子设备
JP6269227B2 (ja) * 2014-03-25 2018-01-31 セイコーエプソン株式会社 表示装置、プロジェクター、および表示制御方法
US20160173840A1 (en) * 2014-12-10 2016-06-16 Casio Computer Co., Ltd. Information output control device
CN104679469B (zh) * 2014-12-29 2019-02-26 合肥杰发科技有限公司 车载终端及其获取手持终端的屏幕分辨率的方法
JP6569449B2 (ja) * 2015-10-08 2019-09-04 セイコーエプソン株式会社 表示システム、プロジェクター及び表示システムの制御方法
CN105868656A (zh) * 2016-03-28 2016-08-17 努比亚技术有限公司 显示界面的调整方法和装置
CN107783669B (zh) * 2016-08-23 2021-04-16 群光电子股份有限公司 光标产生***、方法及计算机程序产品
US10582636B2 (en) * 2017-08-07 2020-03-03 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Server having a dual-mode serial bus port enabling selective access to a baseboard management controller
CN107577351A (zh) * 2017-09-26 2018-01-12 歌尔科技有限公司 投影区域的坐标映射方法、装置、投影仪及投影***
JP7081107B2 (ja) * 2017-09-28 2022-06-07 セイコーエプソン株式会社 電子機器、表示システム、表示装置、及び電子機器の制御方法
JP7069922B2 (ja) * 2018-03-26 2022-05-18 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
CN108874274B (zh) * 2018-06-13 2021-10-22 合肥联宝信息技术有限公司 一种投影控制方法及装置
JP2022099487A (ja) * 2020-12-23 2022-07-05 セイコーエプソン株式会社 画像表示システム、画像表示システムの制御方法、及び、表示装置の制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080180412A1 (en) * 2007-01-31 2008-07-31 Microsoft Corporation Dual mode digitizer
JP2009015728A (ja) * 2007-07-06 2009-01-22 Sharp Corp 画像表示パネル装置
JP2010152531A (ja) * 2008-12-24 2010-07-08 Seiko Epson Corp 所定のインタフェースに対応し複数の動作モードを有する装置の制御
JP2011013396A (ja) * 2009-07-01 2011-01-20 Seiko Epson Corp プロジェクター、画像投写システムおよび画像投写方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6448977B1 (en) * 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
JP2002091898A (ja) 2000-09-12 2002-03-29 Canon Inc 座標情報入力装置,座標情報入力方法、および、座標情報入力のためのプログラムを記憶した記憶媒体
JP4272904B2 (ja) 2003-03-06 2009-06-03 キヤノン株式会社 表示装置及び表示装置の制御方法
US20100115145A1 (en) * 2006-05-26 2010-05-06 Smart Technologies Ulc Plug-and-play device and method of using the same
US8190785B2 (en) * 2006-05-26 2012-05-29 Smart Technologies Ulc Plug-and-play device and method for enhancing features and settings in an interactive display system
JP5309667B2 (ja) 2008-04-08 2013-10-09 セイコーエプソン株式会社 画像表示システムおよび画像表示装置
CN101593018A (zh) * 2008-05-27 2009-12-02 盛大计算机(上海)有限公司 人机接口装置及操纵方法
CN101615080B (zh) * 2008-06-23 2011-05-18 宏正自动科技股份有限公司 具有线控器的键盘-视频-鼠标切换器
US8078768B2 (en) * 2008-08-21 2011-12-13 Qualcomm Incorporated Universal Serial Bus (USB) remote wakeup
TWM412404U (en) * 2011-02-17 2011-09-21 Dexin Corp Externally-connected display system capable of displaying input operation interface information and picture
CN102184053A (zh) * 2011-04-15 2011-09-14 深圳市华测检测技术股份有限公司 一种新型投影仪装置
JP5849560B2 (ja) * 2011-09-20 2016-01-27 セイコーエプソン株式会社 表示装置、プロジェクター、及び、表示方法
JP6088127B2 (ja) * 2011-10-13 2017-03-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP5927845B2 (ja) * 2011-11-01 2016-06-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP6141596B2 (ja) * 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法
JP6064319B2 (ja) * 2011-12-27 2017-01-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9600091B2 (en) * 2012-01-05 2017-03-21 Seiko Epson Corporation Display device and display control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080180412A1 (en) * 2007-01-31 2008-07-31 Microsoft Corporation Dual mode digitizer
JP2009015728A (ja) * 2007-07-06 2009-01-22 Sharp Corp 画像表示パネル装置
JP2010152531A (ja) * 2008-12-24 2010-07-08 Seiko Epson Corp 所定のインタフェースに対応し複数の動作モードを有する装置の制御
JP2011013396A (ja) * 2009-07-01 2011-01-20 Seiko Epson Corp プロジェクター、画像投写システムおよび画像投写方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167198A (ja) * 2015-03-10 2016-09-15 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP2018097880A (ja) * 2017-12-20 2018-06-21 カシオ計算機株式会社 検出装置、検出方法及びプログラム

Also Published As

Publication number Publication date
CN103197778B (zh) 2017-05-24
US8806074B2 (en) 2014-08-12
CN103197778A (zh) 2013-07-10
US8943231B2 (en) 2015-01-27
JP5874401B2 (ja) 2016-03-02
US20140317319A1 (en) 2014-10-23
CN107272923A (zh) 2017-10-20
US20130179599A1 (en) 2013-07-11
CN107272923B (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
JP5874401B2 (ja) 表示装置、プロジェクター、表示システム及びデバイスの切替方法
JP6141596B2 (ja) 表示装置、表示システム及び表示装置のデータ供給方法
JP6064319B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP5849560B2 (ja) 表示装置、プロジェクター、及び、表示方法
US9519379B2 (en) Display device, control method of display device, and non-transitory computer-readable medium
US9324295B2 (en) Display device and method of controlling display device
JP6088127B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP5488082B2 (ja) 情報認識システム及びその制御方法
JP2013140533A5 (ja)
JP2011203830A (ja) 投写システム及びその制御方法
JP2017182110A (ja) 表示システム、表示装置、情報処理装置及び情報処理方法
JP6117470B2 (ja) 表示装置、プロジェクター、画像表示方法及び表示システム
JP6064321B2 (ja) 表示装置、及び、表示制御方法
JP2011013396A (ja) プロジェクター、画像投写システムおよび画像投写方法
JP6269801B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP6296144B2 (ja) 表示装置、及び、表示制御方法
JP6255810B2 (ja) 表示装置、及び、表示装置の制御方法
JP2020201330A (ja) 表示装置の動作方法および表示装置
JP6056447B2 (ja) 表示装置、及び、表示装置の制御方法
JP2017092849A (ja) 画像表示システム
JP2013195659A (ja) 表示装置、及び、表示制御方法
JP2022017323A (ja) 表示装置の動作方法および表示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R150 Certificate of patent or registration of utility model

Ref document number: 5874401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees