JP6326895B2 - 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 - Google Patents

位置検出装置、位置検出システム、及び、位置検出装置の制御方法 Download PDF

Info

Publication number
JP6326895B2
JP6326895B2 JP2014062263A JP2014062263A JP6326895B2 JP 6326895 B2 JP6326895 B2 JP 6326895B2 JP 2014062263 A JP2014062263 A JP 2014062263A JP 2014062263 A JP2014062263 A JP 2014062263A JP 6326895 B2 JP6326895 B2 JP 6326895B2
Authority
JP
Japan
Prior art keywords
detection
light
calibration
unit
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014062263A
Other languages
English (en)
Other versions
JP2015158888A (ja
JP2015158888A5 (ja
Inventor
明彦 田村
明彦 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014062263A priority Critical patent/JP6326895B2/ja
Priority to CN201510020488.9A priority patent/CN104793810B/zh
Priority to US14/598,535 priority patent/US10088919B2/en
Publication of JP2015158888A publication Critical patent/JP2015158888A/ja
Publication of JP2015158888A5 publication Critical patent/JP2015158888A5/ja
Application granted granted Critical
Publication of JP6326895B2 publication Critical patent/JP6326895B2/ja
Priority to US16/034,500 priority patent/US11016582B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、位置検出装置、位置検出システム、及び、位置検出装置の制御方法に関する。
従来、入力操作がされた場合に操作位置を検出する装置において、操作された位置を正確に検出するため、キャリブレーションを行うものが知られている(例えば、特許文献1参照)。特許文献1記載の装置は、操作面に表示した画像を撮影することにより、オートキャリブレーションを行う。また、ユーザーに、操作面の所定のポイントを指示する操作を行わせて、この操作位置を検出してキャリブレーションを行うこともできる。
特開2011−227600号公報
ところで、操作位置を検出する方式が異なる複数のデバイスを組み合わせて使用する場合、検出方式の相違が要因となって、キャリブレーションの実行に影響を及ぼす可能性が否定できない。
本発明は、上述した事情に鑑みてなされたものであり、操作位置を検出する方式が異なるデバイスを組み合わせて、操作位置を検出する場合に、適切にキャリブレーションを行えるようにすることを目的とする。
上記目的を達成するために、本発明の位置検出装置は、操作面に沿って検出光を出射する光出射部と、前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う検出部と、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、前記キャリブレーション制御部は、前記キャリブレーションの実行中に前記検出光の出射を制限すること、を特徴とする。
本発明によれば、検出光以外の光を用いて指示位置を検出する第2の検出動作に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
また、本発明は、上記位置検出装置において、前記キャリブレーション制御部は、前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、を特徴とする。
本発明によれば、キャリブレーションの実行中に検出光の出射を制限することで、キャリブレーション中に指示位置を検出する場合に検出光の影響を防止できる。このため、キャリブレーションにおいて、より正確に、かつ効率よく指示位置を検出できる。
また、本発明は、上記位置検出装置において、前記検出部は、前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、を特徴とする。
本発明によれば、発光しない第1の指示体の指示位置と発光機能を有する第2の指示体の指示位置との両方を、光により検出できる。従って、検出方式が異なる複数の指示体を組み合わせて使用し、キャリブレーションを適切に実行できる。
また、本発明は、上記位置検出装置において、前記検出部が前記第1の検出動作で検出される指示位置および前記第2の検出動作で検出される指示位置に対応して動作する通常動作モードを実行可能であり、前記通常動作モードで、前記光出射部を、前記第2の指示体の発光と異なる発光パターンで発光させる出射制御部を備えること、を特徴とする。
本発明によれば、第1の指示体で反射した反射光と第2の指示体が発する光とを、検出部が区別することが可能になる。このため、検出方式が異なる複数の指示体を区別して、同時に使用し、指示位置を検出できる。
また、本発明は、上記位置検出装置において、前記光出射部は、可視領域外の光を発し、前記検出部は、前記光出射部が発する可視領域外の光及び前記第2の指示体が発する可視領域外の光に基づき指示位置を検出すること、を特徴とする。
本発明によれば、可視領域外の光を利用して、複数の指示体による操作の指示位置を検出できる。
また、本発明は、上記位置検出装置において、前記操作面に画像を投射する投射部を備えたプロジェクターであること、を特徴とする。
本発明によれば、操作面に画像を投射し、この操作面に対する操作の指示位置を検出できる。また、可視領域外の光を利用することにより、投射画像の視認性に影響を与えることなく、指示位置を検出できる。
また、本発明は、上記位置検出装置において、前記投射部が投射する画像を撮影する撮像部を備え、前記キャリブレーション制御部は、前記投射部によりキャリブレーション用の画像を投射した状態で前記撮像部が撮影した撮影画像に基づき、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるオートキャリブレーションを実行し、前記オートキャリブレーションの実行中は前記検出光の出射を制限しないこと、を特徴とする。
本発明によれば、操作面に投射されたキャリブレーション用の画像を撮影することにより、可視領域外の光を利用せずに、キャリブレーションを実行できる。この場合、検出光がキャリブレーションに影響を与えないため、検出光の出射を制限せず、制御を簡易化できる。
また、本発明は、上記位置検出装置において、前記検出部は、前記第1の指示体で反射した反射光および前記第2の指示体が発する光を共通の手段により検出すること、を特徴とすること、を特徴とする。
本発明によれば、指示位置の検出方式が異なる複数の指示体を組み合わせて使用可能な位置検出装置の構成を簡略化できるので、低コスト化や耐久性の向上を図ることができる。
また、上記目的を達成するために、本発明の位置検出システムは、操作面を操作する第1及び第2の指示体の操作位置を検出する位置検出装置と、前記操作面に沿って検出光を出射する光出射装置と、を備え、前記位置検出装置は、前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う検出部と、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、前記キャリブレーション制御部は、前記キャリブレーションの実行中に前記検出光の出射を制限すること、を特徴とする。
本発明によれば、検出光以外の光を用いて指示位置を検出する第2の検出動作に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
また、上記目的を達成するために、本発明の位置検出装置の制御方法は、操作面に沿って検出光を出射し、前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行い、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行し、前記キャリブレーションの実行中に前記検出光の出射を制限すること、を特徴とする。
本発明によれば、検出光以外の光を用いて指示位置を検出する第2の検出動作に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
本発明によれば、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
実施形態に係るプロジェクションシステムの概略構成図である。 プロジェクションシステムの機能ブロック図である。 プロジェクターの動作を示すフローチャートである。 指示体の指示位置を検出する様子を示す説明図である。 オートキャリブレーション画像の一例を示す図である。 スクリーンに投射されたオートキャリブレーション画像を撮影した撮影画像データの一例を示す図である。 マニュアルキャリブレーション画像の一例を示す図である。 各部の発光タイミングを示すシーケンス図である。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面、操作面)の上方に設置されたプロジェクター10と、スクリーンSCの上部に設置された光出射装置60(光出射部)とを備える。
プロジェクター10はスクリーンSCの直上または斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。また、本実施形態で例示するスクリーンSCは、壁面に固定され、或いは床面に立設された、平板または幕である。本発明はこの例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター10及び光出射装置60を取り付けるとよい。
プロジェクター10は、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置等の外部の画像供給装置に接続され、この画像供給装置から供給されるアナログ画像信号またはデジタル画像データに基づき、スクリーンSCに画像を投射する。また、プロジェクター10は、内蔵する記憶部110(図2)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示する構成としてもよい。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。
光出射装置60が出射する光は可視領域外の光であり、本実施形態では赤外光とする。
プロジェクションシステム1は、スクリーンSCに対する指示操作が行われた場合に、指示位置をプロジェクター10によって検出する。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する光に基づき、先端部71の位置を、指示位置として検出する。指示体70が発する光は可視領域外の光であり、本実施形態では赤外光とする。
また、ユーザーの手指である指示体80で位置指示操作を行う場合、ユーザーは指をスクリーンSCに接触させる。この場合、指示体80がスクリーンSCに接触した位置が検出される。
すなわち、指示体80の先端(例えば、指先)がスクリーンSCに接触するときに、光出射装置60が形成する光の層を遮る。このとき、光出射装置60が出射した光が指示体80に当たって反射し、反射光の一部は指示体80からプロジェクター10に向かって進む。プロジェクター10は、スクリーンSC側からの光、すなわち下方からの光を後述する位置検出部50により検出する機能を有するので、指示体80の反射光を検出できる。プロジェクター10は、指示体80で反射した反射光を検出することにより、指示体80によるスクリーンSCへの指示操作を検出する。また、プロジェクター10は指示体80により指示された指示位置を検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
プロジェクションシステム1は、インタラクティブホワイトボードシステムとして機能し、ユーザーが指示体70、80により行った指示操作を検出して、指示位置を投射画像に反映させる。
具体的には、プロジェクションシステム1は、指示位置に図形を描画したり文字や記号を配置したりする処理、指示位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字または記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字または記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における指示位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
図2は、プロジェクションシステム1を構成する各部の機能ブロック図である。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
I/F部11は、PC等の外部の装置との間で各種データを送受信するインターフェイスである。I/F部11は、画像の投射に関する制御データ、プロジェクター10の動作を設定する設定データ、プロジェクター10が検出した指示位置の座標データ等を入出力する。後述する制御部30は、I/F部11を介して外部の装置とデータを送受信する機能を有する。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
プロジェクター10は、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22、および投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、或いはレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクターおよび補助リフレクターを備えていてもよい。さらに、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの投射画像の拡大・縮小および焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター10が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。
投射部20には、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び、制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46が接続される。光源駆動部45は、光源部21の点灯/消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。
プロジェクター10は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター10を制御する制御部30、記憶部110、操作検出部17、画像処理部40、光源駆動部45、及び光変調装置駆動部46を含む。また、画像処理部40にはフレームメモリー44が接続され、制御部30には姿勢センサー47、出射装置駆動部48、及び位置検出部50が接続される。これらの各部を画像処理系に含めてもよい。
制御部30は、所定の制御プログラム111を実行することにより、プロジェクター10の各部を制御する。記憶部110は、制御部30が実行する制御プログラム111、および、制御部30が処理するデータを不揮発的に記憶する。記憶部110は、プロジェクター10の動作を設定するための画面の設定画面データ112、及び、設定画面データ112を利用して設定された内容を示す設定データ113を記憶する。
画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
操作検出部17は、入力デバイスとして機能するリモコン受光部18および操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチおよびインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
出射装置駆動部48は、接続部49を介して光出射装置60に接続される。接続部49は、例えば複数のピンを有するコネクターであり、接続部49には光出射装置60がケーブル60aを介して接続される。出射装置駆動部48は、制御部30の制御に従ってパルス信号を生成し、接続部49を介して光出射装置60に出力する。また、出射装置駆動部48は接続部49を介して光出射装置60に電源を供給する。
光出射装置60は、図1に示すように略箱形のケースに、光源部61、及び光学部品を収容して構成される。本実施形態の光出射装置60は、光源部61に、赤外光を発する固体光源62を備える。固体光源62が発する赤外光は、平行化レンズ及びパウエルレンズによって拡散され、スクリーンSCに沿った面を形成する。また、光源部61が複数の固体光源を備え、これら複数の固体光源が発する光をそれぞれ拡散させることによって、スクリーンSCの画像投射範囲を覆うように光の層を形成してもよい。また、光出射装置60は、光源部61が発する光の層とスクリーンSCとの間の距離や角度を調整する調整機構を備えていてもよい。
光出射装置60は、出射装置駆動部48から供給されるパルス信号および電源により、光源部61を点灯させる。光源部61が点灯及び消灯するタイミングは、出射装置駆動部48が制御する。制御部30は、出射装置駆動部48を制御して、後述する撮像部51が撮影を行うタイミングに同期して光源部61を点灯させる。
位置検出部50(検出部)は、指示体70、80によるスクリーンSCへの操作を検出する。位置検出部50は、撮像部51、送信部52、撮影制御部53、指示体検出部54、および座標算出部55の各部を備えて構成される。
撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。
撮影制御部53は、撮像部51により撮影を実行させて撮影画像データを生成する。撮像素子が可視光による撮影を行うと、スクリーンSC上に投射された画像が撮影される。例えば、後述するオートキャリブレーションの画像は、可視光で撮影される。また、撮影制御部53は、撮像部51により赤外光を撮影させることができ、この場合の撮影画像には指示体70が発する赤外光(赤外線信号)や、指示体80に反射した反射光が写る。
指示体検出部54は、撮影制御部53が撮影した撮影画像データに基づいて指示体70、80の指示位置を検出する。指示体検出部54は、撮影制御部53が撮像部51によって赤外光の撮影を実行させた場合の撮影画像データから、指示体70が発した赤外光の像、及び/又は、指示体80に反射した反射光の像を検出する。さらに、指示体検出部54は、検出した像を、指示体70が発した光の像であるか、指示体80の反射光の像であるか判別してもよい。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70、80の指示位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を、算出してもよい。
送信部52は、指示体検出部54の制御に従って、指示体70に対して赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を指示体検出部54の制御に従って点灯及び消灯させる。
また、指示体70は、制御部73、送受信部74、操作スイッチ75、及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75のオン/オフ状態を検出する。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池または二次電池を有し、制御部73、送受信部74、及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
ここで、位置検出部50と指示体70との相互の通信により、撮像部51の撮影画像データから指示体70を特定する方法について説明する。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させて、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
位置検出部50の撮影制御部53は、撮像部51による撮影タイミングを、指示体70が点灯するタイミングに合わせる制御を行う。この撮影タイミングは、指示体検出部54が送信部52を点灯させるタイミングに基づいて決定される。指示体検出部54は、撮像部51の撮影画像データに指示体70の光の像が写っているか否かにより、指示体70が点灯するパターンを特定できる。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、または、複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
また、制御部30は、出射装置駆動部48を制御して、光源部61の点灯のタイミングを撮像部51の撮影のタイミングに同期させる。光源部61が、撮像部51の撮影タイミングに合わせてパルス点灯すると、指示体80がスクリーンSC上を指し示す場合には、撮像部51の撮影画像に指示体80の反射光が写る。光源部61を、指示体70の点灯のタイミングと区別できるパターンで点灯させれば、指示体検出部54は、撮影画像データに写る像が指示体70であるか指示体80であるかを判定できる。光源部61の点灯のタイミングについては図8を参照して後述する。
さらに、指示体70が備える制御部73は、操作スイッチ75の操作状態に応じて、送受信部74を点灯させるパターンを切り替える。このため、指示体検出部54は、複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
姿勢センサー47は、加速度センサーやジャイロセンサー等により構成され、制御部30に対して検出値を出力する。姿勢センサー47はプロジェクター10の本体に対して、プロジェクター10の設置方向を識別可能なように固定される。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
制御部30は、記憶部110に記憶された制御プログラム111を読み出して実行することにより、投射制御部31、検出制御部32、出射制御部33、及びキャリブレーション制御部39の機能を実現し、プロジェクター10の各部を制御する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
検出制御部32は、位置検出部50を制御して、指示体70、80の操作位置の検出を実行させ、操作位置の座標を取得する。また、検出制御部32は、操作位置の座標とともに、指示体70の操作位置であるか指示体80の操作位置であるかを識別するデータ、及び、操作スイッチ75の操作状態を示すデータを取得する。検出制御部32は、取得した座標及びデータに基づいて、予め設定された処理を実行する。例えば、画像処理部40によって、取得した座標に基づいて図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部32は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部32は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部32は、座標のデータとともに、指示体70の操作位置であるか指示体80の操作位置であるかを識別するデータ、及び、操作スイッチ75の操作状態を示すデータを出力してもよい。
また、検出制御部32は、指示体80を使用した位置検出を制御する。具体的には、検出制御部32は、光出射装置60の接続の有無に基づき、光出射装置60を使用できるか否かを判定する。検出制御部32は、光出射装置60を使用できない場合に、光出射装置60の使用を不可とする設定を行う。ここで、検出制御部32は、光出射装置60を使用できないことを報知してもよい。
出射制御部33は、出射装置駆動部48を制御して、接続部49に接続された光出射装置60に対する電源及びパルス信号の出力を実行または停止させる。出射制御部33は、検出制御部32の制御により、光出射装置60を使用できない又は使用しない場合に、出射装置駆動部48の電源及びパルス信号の出力を停止させる。また、光出射装置60を使用する場合、出射制御部33は出射装置駆動部48の電源及びパルス信号を出力させる。
キャリブレーション制御部39は、指示体70および指示体80の指示位置を検出して、画像I/F部12の入力画像における座標に変換するためのキャリブレーションを実行する。
図3に示すフローチャート及び各図を参照しながら、制御部30の処理手順、特にキャリブレーション制御部39の処理手順を説明する。
キャリブレーションは、プロジェクター10を最初に使用する際に初期設定の1つとして実行される。キャリブレーションは、フレームメモリー44に描画され投射部20が投射する画像における位置と、撮像部51が撮影する撮影画像データ上の位置とを対応付ける処理である。位置検出部50が撮影画像データから検出する指示体70、80の指示位置は、撮影画像データにおける位置であり、例えば撮影画像に設定される座標系における座標で示される。ユーザーはスクリーンSCに投射された投射画像を意識して指示体70、80で指示を行う。従って、プロジェクター10は、スクリーンSC上の投射画像に対する指示位置を特定する必要がある。キャリブレーションによって、撮影画像データで検出された位置の座標を投射画像データ上の座標に変換できる。この対応づけを行うデータをキャリブレーションデータとする。キャリブレーションデータは、撮影制御部53が出力する撮影画像データ上の座標と投射画像上の座標とを対応付けるデータである。具体的には、撮影画像データ上の座標と投射画像上の座標とを1対1で対応付けるテーブルであってもよいし、撮影画像データ上の座標を投射画像上の座標に変換する関数であってもよい。
キャリブレーション制御部39は、指示体の種類に応じてキャリブレーションを実行する。すなわち、指示体70の指示位置の検出に関するキャリブレーションと、指示体80の指示位置の検出に関するキャリブレーションとの2つを実行する。
図4は、指示体70、80の指示位置を検出する様子を示す説明図であり、(A)は指示体70の指示位置を検出する様子を示し、(B)は指示体80の指示位置を検出する様子を示す。
図4(A)には撮像部51がスクリーンSCを撮影する撮影方向を符号PAで示す。指示体70の位置検出を行う場合、送受信部74は、指示体70の先端の発光位置70aから赤外光を出射する。発光位置70aは、指示体70がスクリーンSCに接する接触点70bに非常に近い。このため、撮影方向PAから撮影した撮影画像データから指示体70が発する光の像を検出する場合、この像の位置を、接触点70bの位置とみなすことができる。
これに対し、図4(B)に示すように指示体80の指示位置を検出する場合には、検出光Lが指示体80で反射した反射光を検出する。すなわち、撮影方向PAから撮影される撮影画像データから、検出光Lの反射光の像が検出される。検出光Lの出射方向はスクリーンSCとほぼ平行であり、検出光LはスクリーンSCから所定の距離(以下、距離G1とする)だけ離れている。距離G1はスクリーンSCに対する光出射装置60の取付位置により変化するが、構造上、距離G1をゼロにすることは困難である。このため、撮影方向PAから撮影した撮影画像データには、指示体80の先端において、スクリーンSCから距離G1だけ離れた反射位置80aで反射した反射光の像が写る。
図4(B)に示すように、反射位置80aは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
距離G2のずれは、撮像部51が、スクリーンSCから離れた位置から斜めに撮影を行うことに起因する。例えば、図4(A)、(B)に示す撮影方向PAと指示体70、80との位置関係は、上下方向に限らず、水平方向においても同様に発生する。本実施形態では、図1に示したようにスクリーンSCの上方に位置するプロジェクター10の本体に設けられた1つの撮像部51が、スクリーンSCを俯瞰して撮影するため、上下及び水平の両方向において距離G2のずれが発生する。
そこで、プロジェクター10は、指示体80の指示位置を検出する場合に、指示体70の指示位置を検出する場合と同様に指示位置を検出した後に、検出した位置を補正する。
具体的には、キャリブレーション制御部39が、指示体70の指示位置の検出に関するキャリブレーションを行って、キャリブレーションデータを生成する。このキャリブレーションデータを使用すれば、例えば図4(A)に示すように、発光位置70aがスクリーンSCとの接触点70bに近い場合に、高精度で指示位置を検出できる。
さらに、プロジェクター10は、指示体80の指示位置を検出する場合に、キャリブレーションデータにより求めた座標を補正する補正データを使用する。補正データは、具体的には、初期補正データ125及びマニュアル補正データ126である。
補正データは、図4(B)の距離G1を定めるデータとすることができる。この場合、撮影画像データ上の座標または投射画像上の座標ごとに、距離G1の大きさを示すデータを対応付けるテーブル形式、或いはマップデータとすることができる。また、撮影画像データ上の座標または投射画像上の座標において予め設定された代表点について、距離G1の大きさを示すデータを対応付けるテーブル形式とすることができる。代表点から外れた座標の距離G1の大きさを求める必要がある場合は、補正対象の座標に近い代表点の距離G1を適用する方法や、補間演算により代表点の距離G1から補正対象の座標の距離G1を求める方法を利用できる。
また、例えば、補正データは、撮影画像データ上で検出された座標、または、キャリブレーションデータに基づき得られた投射画像座標をシフトさせるデータであってもよい。具体的には、座標のシフト量を定めるデータであってもよいし、座標を補正する関数であってもよい。また、補正データを、撮影画像データ上の座標または投射画像上の座標ごとに異なるシフト量を実現するデータとすることもできる。この場合、補正対象の座標に、座標のシフト量を対応付けたテーブルとしてもよい。このテーブルは、撮影画像データ上の座標または投射画像上の座標から選択される代表点にシフト量を対応付けてもよい。代表点以外の座標を補正する場合には、補正対象の座標に近い代表点のシフト量を適用する方法や、補間演算により代表点のシフト量から補正対象の座標のシフト量を求める方法を利用できる。
キャリブレーション制御部39は、指示体70の指示位置に関するキャリブレーションとして、オートキャリブレーションとマニュアルキャリブレーションとを実行できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能な処理であり、ユーザーによる指示体70、80の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
図5は、オートキャリブレーション画像121の一例を示す。オートキャリブレーション画像121には、複数のマークが所定の間隔で配置されている。
図6は、スクリーンSCに投射されたオートキャリブレーション画像121を撮影した撮影画像データの一例を示す。撮像部51の撮影画像データは、プロジェクター10を図1に示すように吊り下げ設置した場合に、スクリーンSCの斜め上方から撮影されるので、歪んだ画像となる。図5には、等間隔でマークが並ぶ矩形のオートキャリブレーション画像121を例示したが、図6の撮影画像データでは歪んだ形状の画像が写っており、この画像の内部に並ぶマークの間隔は、マークの位置によって違いを生じている。
キャリブレーション制御部39は、投射制御部31の機能により、記憶部110に記憶されたオートキャリブレーション画像121に基づいて、画像処理部40及び投射部20を動作させて、オートキャリブレーション画像121をスクリーンSCに投射させる。キャリブレーション制御部39は、位置検出部50を制御して撮像部51に撮影を実行させ、撮影画像データを取得する。この撮影画像データは、撮影制御部53から、図示しないメモリーに一時的に記憶され、制御部30に出力される。キャリブレーション制御部39は、撮影画像データからマークを検出し、各マークの重心位置をマークの座標値として取得する。キャリブレーション制御部39は、撮影画像データから検出されたマークと、フレームメモリー44に描画された投射画像、すなわちオートキャリブレーション画像121のマークとを対応付ける。
キャリブレーション制御部39は、撮影画像におけるマークの座標値と、投射画像におけるマークの座標値とを対応付けることにより、テーブル形式または関数形式のオートキャリブレーションデータ123を作成する。オートキャリブレーション画像121のマークの投射画像における座標値は、予めオートキャリブレーション画像121とともに、或いはオートキャリブレーション画像121に含まれて記憶部110に記憶されている。キャリブレーション制御部39は、既にオートキャリブレーションデータ123が記憶されている場合、このオートキャリブレーションデータ123を更新する。
キャリブレーション制御部39は1回のキャリブレーションを実行して、1つのオートキャリブレーションデータ123の作成または更新を行う。キャリブレーション制御部39は、1回のオートキャリブレーションで、複数のオートキャリブレーション画像121を用いてもよい。例えば、マークの数、マークのサイズ、マークの形状、マークの位置などマークの配置状態が異なる複数のオートキャリブレーションデータ123を、適宜選択して用いてもよい。この場合、キャリブレーション制御部39は、複数のオートキャリブレーションデータ123を用いて複数回の撮影と座標の対応づけを行い、得られた対応づけの結果を統合して、より高精度のオートキャリブレーションデータ123を作成してもよい。
マニュアルキャリブレーションは、スクリーンSCに、マニュアルキャリブレーション用の画像を投射し、投射した画像に対する指示体70の操作を検出して、マニュアルキャリブレーションデータを生成する処理である。
図7は、マニュアルキャリブレーション画像122の一例を示す。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、指示位置を示すマークを含む。図7のマニュアルキャリブレーション画像122は複数の指示用のマーク(○印)が配置され、ユーザーは、マークの位置を指示体70で指示する。
マニュアルキャリブレーション画像122には複数のマークが含まれるが、これらのマークは、1つずつスクリーンSCに投射される。このため、マニュアルキャリブレーション画像122は、具体的にはマークの数が異なる複数の画像の組合せで構成される。
ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、指示位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した指示位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した指示位置の座標値と、投写画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能であるが、オートキャリブレーションデータ123を補正する補正データとすることができる。オートキャリブレーションデータ123は、撮影画像上の座標を投射画像上の座標に変換するデータである。これに対し、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123を用いて変換された後の座標を、さらに補正するデータである。
キャリブレーション制御部39は、指示体70の指示位置の検出に関するキャリブレーションを行う場合に、オートキャリブレーションまたはマニュアルキャリブレーションを実行できる。記憶部110が、過去に生成されたオートキャリブレーションデータ123を記憶している場合には、オートキャリブレーションとマニュアルキャリブレーションを選択して実行できる。ここで、オートキャリブレーションが実行された場合、キャリブレーション制御部39は記憶部110のオートキャリブレーションデータ123を更新する。また、マニュアルキャリブレーションが実行された場合、マニュアルキャリブレーションデータ124が生成又は更新される。また、記憶部110にオートキャリブレーションデータ123が記憶されていない場合は、オートキャリブレーションを実行する必要がある。オートキャリブレーションデータ123が記憶されていない状態では、マニュアルキャリブレーションデータ124を使用できないためである。
キャリブレーション制御部39は、指示体80の指示位置の検出に関するキャリブレーションを、指示体70のマニュアルキャリブレーションと同様に実行できる。この場合、キャリブレーション制御部39は、マニュアル補正データ126を生成する。マニュアル補正データ126は、指示体80の指示位置を検出する場合に利用される。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反映した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123を用いて指示位置の座標を求める。ここで、マニュアルキャリブレーションデータ124が記憶部110に記憶されている場合、オートキャリブレーションデータ123で求めた座標をマニュアルキャリブレーションデータ124により補正して指示位置の座標を求める。
指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123またはマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125またはマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
図3は、キャリブレーションに関するプロジェクター10の動作を示すフローチャートである。図3のフローチャートにおいて、キャリブレーション制御部39は、オートキャリブレーションを実行するか、マニュアルキャリブレーションを実行するかを選択するメニュー画面を、投射部20により投射させる(ステップS1)。キャリブレーション制御部39は、リモコンまたは操作パネル19の操作を検出し(ステップS2)、オートキャリブレーションが選択された場合はステップS3に移行し、マニュアルキャリブレーションが選択された場合にはステップS7に移行する。なお、上述したように、記憶部110にオートキャリブレーションデータ123が記憶されていない場合、ステップS1で、オートキャリブレーションのみを選択可能なメニュー画面を投射してもよい。
ステップS3で、キャリブレーション制御部39は、オートキャリブレーション画像121を選択する。記憶部110には、複数のオートキャリブレーション画像121が記憶されている。キャリブレーション制御部39は、記憶部110に記憶されたオートキャリブレーション画像121の中から1のオートキャリブレーション画像121を選択する。
続いて、キャリブレーション制御部39は、選択したオートキャリブレーション画像121を投射部20によりスクリーンSCに投射する(ステップS4)。オートキャリブレーション画像121がスクリーンSCに投射された状態で、ユーザーは、リモコンまたは操作パネル19の操作により、オートキャリブレーション画像121がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。
キャリブレーション制御部39は、位置検出部50を制御して、撮像部51により撮影を実行させ(ステップS5)、撮像部51の撮影画像データを取得して、取得した撮影画像データに基づきオートキャリブレーションデータ123を作成する(ステップS6)。
一方、マニュアルキャリブレーションが選択された場合、キャリブレーション制御部39はステップS7に移行する。
ステップS7で、キャリブレーション制御部39は、光出射装置60の動作制限をオンにする。光出射装置60の動作制限は、光源部61の発光を停止させる処理である。具体的には、出射制御部33が出射装置駆動部48を制御して、光源部61への電源及び/又はパルス信号の出力を停止させる。この動作制限がオンになることで、光出射装置60は検出光の出射を停止し、指示体80の操作は検出されなくなる。
続いて、キャリブレーション制御部39は、マニュアルキャリブレーション画像122を選択し(ステップS8)、選択したマニュアルキャリブレーション画像122を投射部20によりスクリーンSCに投射する(ステップS9)。マニュアルキャリブレーション画像122がスクリーンSCに投射された状態で、ユーザーは、リモコンまたは操作パネル19の操作により、マニュアルキャリブレーション画像122がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。
ここで、ユーザーにより、指示体70を用いた操作が行われる(ステップS10)。図7に示したように、マニュアルキャリブレーション画像122には所定のマークが配置されている。マニュアルキャリブレーション画像122がスクリーンSCに表示されると、ユーザーは、指示体70を使用して、スクリーンSCに投射されたマークを1つずつ指し示す。プロジェクター10の送信部52は、同期用の赤外線信号を周期的に送信する。指示体70は、この赤外線信号に同期して、赤外光を点灯させる。キャリブレーション制御部39は、撮像部51に、指示体70の発光タイミングに同期して撮影範囲を撮影させる。これにより、指示体70がマークを指し示している撮影画像データ(以下、第1位置検出画像データという)が撮影される。キャリブレーション制御部39は、撮影画像データを取得して指示体70の指示位置を検出する(ステップS11)。
キャリブレーション制御部39は、位置検出部50が検出した撮影画像データ上での指示座標と、対応するマークのオートキャリブレーション画像121上の座標とを対応付けて記憶部110に記憶させる(ステップS12)。
キャリブレーション制御部39は、マニュアルキャリブレーション画像122の全てのマークについて指示位置を検出したか否かを判定し(ステップS13)、未処理のマークがある場合はステップS9に戻る。
また、全てのマークの指示位置の検出が済んだ場合、キャリブレーション制御部39は、ステップS12で一時的に記憶した指示位置の座標とマークの位置とに基づき、マニュアルキャリブレーションデータ124を作成する(ステップS14)。ここで作成されたマニュアルキャリブレーションデータ124は記憶部110に記憶される。
その後、キャリブレーション制御部39は、光出射装置60の動作制限をオフにする(ステップS15)。すなわち、出射制御部33によって、出射装置駆動部48から光出射装置60への電源及びパルス信号の出力が開始され、光出射装置60が検出光の出射を開始する。
ステップS6またはステップS15の後、キャリブレーション制御部39は、指示体80の指示位置の検出に関するマニュアルキャリブレーションを実行するか否かを選択するユーザーインターフェイスを投射部20により投射させ(ステップS16)、ユーザーの選択入力が行われる。
キャリブレーション制御部39は、リモコンまたは操作パネル19の操作を検出し、マニュアルキャリブレーションを実行するか否かを判定する(ステップS17)。
マニュアルキャリブレーションを実行しない場合(ステップS17;No)、キャリブレーション制御部39は、初期補正データ125を選択して(ステップS18)、通常動作に移行する(ステップS19)。
通常動作とは、画像I/F部12に入力される入力画像に基づき、スクリーンSCに画像を投射し、指示体70、80により指示された指示位置を特定して、指示内容に応じた処理を行う動作である。
指示体80の操作に関するマニュアルキャリブレーションを行う場合(ステップS17;Yes)、キャリブレーション制御部39は、マニュアルキャリブレーション画像122を選択する(ステップS20)。
続いて、キャリブレーション制御部39は、選択したマニュアルキャリブレーション画像122をスクリーンSCに投射する(ステップS21)。ここで、ユーザーにより、指示体80を用いた操作が行われ(ステップS22)、キャリブレーション制御部39は、指示体70の指示位置を検出する指示位置検出処理を実行する(ステップS23)。このステップS22の指示位置検出処理は、上述したステップS11の指示位置検出処理と同様の処理である。
キャリブレーション制御部39は、位置検出部50から指示位置の座標を取得し、撮影画像データ上の指示座標と判定する。そして、キャリブレーション制御部39は、撮影画像データ上の指示座標と、対応するマークのマニュアルキャリブレーション画像122上でのマークの座標値とを対応付けて記憶部110に記憶させる(ステップS24)。
キャリブレーション制御部39は、マニュアルキャリブレーション画像122の全てのマークについて指示位置を検出したか否かを判定し(ステップS25)、未処理のマークがある場合はステップS20に戻る。また、全てのマークの指示位置の検出が済んだ場合、キャリブレーション制御部39は、ステップS23で記憶した指示位置の座標とマークの位置とに基づき、マニュアル補正データ126を作成する(ステップS26)。ここで作成されたマニュアル補正データ126は記憶部110に記憶される。その後、キャリブレーション制御部39はステップS18に移行して、通常動作を開始する。
なお、キャリブレーション制御部39が、指示体70のマニュアルキャリブレーションにより、オートキャリブレーションデータ123と同様のデータを含むマニュアルキャリブレーションデータ124を生成してもよい。この場合、キャリブレーション制御部39は、図3のステップS7〜S14の処理により、オートキャリブレーションデータ123と同様のマニュアルキャリブレーションデータ124を生成する。また、オートキャリブレーションデータ123とマニュアルキャリブレーションデータ124と同一のデータとしてもよく、この場合、ステップS14で生成されるデータにより、過去に生成されたオートキャリブレーションデータ123が上書きされる。
この構成では、キャリブレーション制御部39がオートキャリブレーションまたはマニュアルキャリブレーションのいずれかを実行すれば、指示体70の指示位置の座標を求めることが可能となる。従って、図3のステップS2では、オートキャリブレーションデータ123が記憶されていない状態であっても、マニュアルキャリブレーションを選択することが可能となる。
次に、図8に示すシーケンス図を参照して、通常動作中におけるプロジェクター10の送信部52、指示体70、及び光出射装置60の発光タイミングについて説明する。図8のシーケンス図において(A)は送信部52の発光状態を示し、(B)は指示体70の発光状態を示し、(C)は光出射装置60の発光状態を示す。また、図8の横軸は時間軸である。
上述のように、プロジェクター10は、出射制御部33の制御により、送信部52から同期用の赤外線信号を指示体70に送信し、マスター装置として機能する。また、出射制御部33は、出射装置駆動部48を制御して、光出射装置60の発光タイミングを調整する。指示体70は送信部52から送信される同期用の赤外線信号を基準として、所定のタイミングで送受信部74を発光させる。
本実施形態のプロジェクションシステム1の発光シーケンスは、第1フェーズから第4フェーズまでの4つのフェーズで構成され、これら第1フェーズから第4フェーズを順に繰り返す。本実施形態では、第1〜第4フェーズの長さは同一の時間に設定されている。また、送信部52の1回の発光時間は1フェーズの1/4、指示体70の1回の発光時間は1フェーズの1/8、光出射装置60の1回の発光時間は1フェーズ分に設定されているが、これはあくまで一例である。
第1フェーズは、同期フェーズである。第1フェーズでは、プロジェクター10の送信部52が発光して、同期用の赤外線信号を送信する。指示体70の制御部73は、同期用の赤外線信号を送受信部74で検出し、第1フェーズの開始タイミングを認識する。
第2フェーズは、位置検出のフェーズであり、光出射装置60の光源部61と、指示体70の送受信部74とが点灯する。プロジェクター10は、光出射装置60と指示体70の発光タイミングに合わせて、撮像部51により撮影範囲を撮影する。例えば、第2フェーズで指示体70が発光するタイミングで撮像部51が撮影を行うと、指示体70の発光と、指示体80で反射した検出光とが撮影画像に写る。また、撮像部51が、指示体70が発光しないタイミングで撮影すれば、撮影画像には指示体80の反射光が写る。
撮像部51の撮影タイミング及び撮影間隔は予め設定されていて、1フェーズあたりの撮影回数は1回でもよいし複数回であってもよい。図8のように指示体70が1フェーズあたり1回発光する場合は、少なくとも、各フェーズで指示体70が発光するタイミングで撮影することが望ましい。また、撮像部51の撮影タイミングと各部の発光タイミングの調整方法は任意である。一般に、撮像部51の撮影タイミング及び撮影間隔を可変とすることは容易でないことが多いので、出射制御部33が、送信部52の発光のタイミングを撮像部51の撮影タイミングを考慮して調整するとよい。
第3フェーズは、指示体判定のフェーズである。第3フェーズでは指示体70が発光する一方、光出射装置60は発光しない。このため第3フェーズで撮像部51が撮影する撮影画像には、指示体70が発する光の像が写り、指示体80の反射光は写らない。
第4フェーズは、第2フェーズと同様の位置検出のフェーズであり、光出射装置60の光源部61と、指示体70の送受信部74とが点灯する。
従って、第3フェーズの撮影画像と、第2フェーズ及び第4フェーズの撮影画像とを比較することで、検出制御部32は、第2フェーズ及び第4フェーズの撮影画像に写る光の像が、指示体70の光の像か指示体80の反射光の像かを識別できる。各フェーズの時間が十分に短い場合には、連続する第2、第3及び第4フェーズの撮影画像に写る像の位置が近くなる。このため、指示体70の光と指示体80の反射光の識別は容易である。
さらに、プロジェクションシステム1で複数の指示体70を使用する場合に、各々の指示体70の発光を、撮像部51の撮影画像において識別することも可能である。すなわち、予め各々の指示体70に対し異なる発光タイミングを設定すればよい。具体的には、第3フェーズで発光するか否かを指示体70毎に設定すればよい。例えば、1番の指示体70には、第1〜第4フェーズを4回実行する間に、第3フェーズの発光/非発光を「1000」(1は発光を示し、0は非発光を示す)と設定する。2番の指示体70には、第1〜第4フェーズを4回実行する間の第3フェーズの発光/非発光を「1010」と設定する。この場合、第1〜第4フェーズを4回実行する間に撮影される、4枚の第3フェーズの撮影画像を比較することで、1番の指示体70と2番の指示体70とを識別できる。
以上説明したように、本発明を適用した実施形態に係るプロジェクター10は、スクリーンSCに沿って検出光を出射する光出射装置60と、指示位置を検出する位置検出部50と、キャリブレーション制御部39とを備える。位置検出部50は、検出光を用いて指示位置を検出する第1の検出動作と、検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う。キャリブレーション制御部39は、第2の検出動作で検出する指示体70の位置とスクリーンSC上の位置とを対応付けるキャリブレーションを実行し、キャリブレーションの実行中に検出光の出射を制限する。これにより、検出光以外の光を用いて指示位置を検出する第2の検出動作、すなわち指示体70の位置検出に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
また、キャリブレーション制御部39は、検出光以外の光、例えば指示体70の発光を用いて実際の指示位置を検出することにより、第2の検出動作で検出する位置とスクリーンSC上の位置とを対応付けるマニュアルキャリブレーションを実行する。そして、このマニュアルキャリブレーションの実行中に検出光の出射を制限する。このため、指示体70の操作に関するキャリブレーション中に指示位置を検出する場合に検出光の影響を防止できる。
位置検出部50は、第1の検出動作で、検出光を反射する指示体80(第1の指示体)で反射する反射光に基づき、第1の指示体の指示位置を検出する。また、第2の検出動作で、発光機能を有する指示体70(第2の指示体)が発する光に基づき第2の指示体の指示位置を検出する。このため、発光しない指示体80の指示位置と発光機能を有する指示体70の指示位置との両方を、光により検出できる。従って、検出方式が異なる複数の指示体を組み合わせて使用し、キャリブレーションを適切に実行できる。
また、位置検出部50が指示体70及び指示体80の指示位置に対応して動作する通常動作モードでは、出射制御部33が、光出射装置60を、指示体70の発光と異なる発光パターンで間欠的に発光させる。例えば図8の例では、第1〜第4の各フェーズのうち指示体70が発光するフェーズと光出射装置60が発光するフェーズは一致しない。これにより、指示体80で反射した反射光と指示体70が発する光とを、位置検出部50が区別でき、検出方式が異なる複数の指示体を区別して、同時に使用し、指示位置を検出できる。また、光出射装置60及び指示体70は、可視領域外の光を発し、位置検出部50は、可視領域外の光に基づき指示位置を検出する。操作面であるスクリーンSCに画像を投射する投射部20を備えたプロジェクター10に、本発明を適用することで、投射画像の視認性に影響を与えることなく、指示体70及び指示体80の指示位置を検出できる。
また、プロジェクター10は、撮像部51により投射部20が投射する画像を撮影し、キャリブレーション制御部39は、オートキャリブレーション画像121を投射した状態で撮像部51が撮影した撮影画像に基づき、オートキャリブレーションを実行する。このオートキャリブレーションの実行中には、光出射装置60の出射の制限を行わない。オートキャリブレーションは可視光を利用するので、光出射装置60の検出光がキャリブレーションに影響を与えない。このため、光出射装置60の出射を制限する制御が不要である。
なお、上述した実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。上記実施形態では、第1の指示体として指示体80を用い、第2の指示体として赤外光を発する指示体70を用いる場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、第1の指示体として、発光させないよう設定した指示体70を用いてもよい。また、指示体は、ペン型の指示体70やユーザーの手指である指示体80に限定されず、レーザーポインターや指示棒等を用いてもよく、その形状やサイズは限定されない。また、オートキャリブレーション画像、マニュアルキャリブレーション画像中のマーク(シンボル)は、図5〜図7に示す模様や記号に限定されない。マークは、撮影画像データから抽出可能な、複数の画素で構成される図形であればよい。
また、上記実施形態では、光出射装置60はプロジェクター10の本体とは別体で構成され、ケーブル60aで接続される構成を例示したが、本発明はこれに限定されない。例えば、光出射装置60をプロジェクター10の本体に一体に取り付けることも、プロジェクター10の本体に内蔵する構成としてもよい。また、光出射装置60が外部から電源の供給を受け、出射装置駆動部48との間で無線通信回線により接続されてもよい。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
また、上記実施形態では、位置検出部50は、撮像部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮像部51は、プロジェクター10の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮像部51をプロジェクター10本体とは別体として配置してもよいし、撮像部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮像部51を配置し、これら複数の撮像部51の撮影画像データに基づいて、検出制御部32が指示体70、80の位置を検出してもよい。
また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。或いは、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
上記実施形態では、ユーザーが、フロントプロジェクション型のプロジェクター10が画像を投射(表示)するスクリーンSC(投射面、表示面)に対して、指示体70、80による指示操作を行う態様について説明したが、ユーザーが、プロジェクター10以外の表示装置(表示部)が画像を表示する表示画面(表示面)に対して指示操作を行う態様であってもよい。この場合にも、光出射装置60や撮像部51は、表示装置と一体的に構成されてもよいし、表示装置とは別体で構成されてもよい。プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1…プロジェクションシステム(位置検出システム)、10…プロジェクター(位置検出装置)、20…投射部、21…光源部、22…光変調装置、23…投射光学系、30…制御部、31…投射制御部、32…検出制御部、33…出射制御部、39…キャリブレーション制御部、40…画像処理部、50…位置検出部(検出部)、60…光出射装置(光出射部)、70…指示体(第2の指示体)、80…指示体(第1の指示体)、110…記憶部、121…オートキャリブレーション画像、SC…スクリーン(操作面)。

Claims (11)

  1. 検出光を出射する光出射部と、
    操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行う検出部と、
    前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
    前記キャリブレーション制御部は、前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、を特徴とする位置検出装置。
  2. 検出光を出射する光出射部と、
    操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行う検出部と、
    前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
    前記キャリブレーション制御部は、前記キャリブレーションの実行中に前記検出光の出射を制限し、
    前記検出部は、前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、を特徴とする位置検出装置。
  3. 前記検出部が前記第1の検出動作で検出される指示位置および前記第2の検出動作で検出される指示位置に対応して動作する通常動作モードを実行可能であり、
    前記通常動作モードで、前記光出射部を、前記第2の指示体の発光と異なる発光パターンで発光させる出射制御部を備えること、を特徴とする請求項記載の位置検出装置。
  4. 前記光出射部は、可視領域外の光を発し、
    前記検出部は、前記光出射部が発する可視領域外の光及び前記第2の指示体が発する可視領域外の光に基づき指示位置を検出すること、を特徴とする請求項またはに記載の位置検出装置。
  5. 前記操作面に画像を投射する投射部を備えたプロジェクターであること、を特徴とする請求項記載の位置検出装置。
  6. 前記投射部が投射する画像を撮影する撮像部を備え、
    前記キャリブレーション制御部は、前記投射部によりキャリブレーション用の画像を投射した状態で前記撮像部が撮影した撮影画像に基づき、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるオートキャリブレーションを実行し、
    前記オートキャリブレーションの実行中は前記検出光の出射を制限しないこと、を特徴とする請求項記載の位置検出装置。
  7. 前記検出部は、前記第1の指示体で反射した反射光および前記第2の指示体が発する光を共通の手段により検出すること、を特徴とする請求項からのいずれかに記載の位置検出装置。
  8. 操作面を操作する第1及び第2の指示体の操作位置を検出する位置検出装置と、検出光を出射する光出射装置と、を備え、
    前記位置検出装置は、
    前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う検出部と、
    前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
    前記キャリブレーション制御部は、前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、
    を特徴とする位置検出システム。
  9. 操作面を操作する第1及び第2の指示体の操作位置を検出する位置検出装置と、検出光を出射する光出射装置と、を備え、
    前記位置検出装置は、
    前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う検出部と、
    前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
    前記キャリブレーション制御部は、前記キャリブレーションの実行中に前記検出光の出射を制限し、
    前記検出部は、前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、
    を特徴とする位置検出システム。
  10. 検出光を出射し、
    操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行い、
    前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行し、
    前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、
    を特徴とする位置検出装置の制御方法。
  11. 検出光を出射し、
    操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行い、
    前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行し、前記キャリブレーションの実行中に前記検出光の出射を制限し、
    前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、
    を特徴とする位置検出装置の制御方法。
JP2014062263A 2014-01-21 2014-03-25 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 Expired - Fee Related JP6326895B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014062263A JP6326895B2 (ja) 2014-01-21 2014-03-25 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
CN201510020488.9A CN104793810B (zh) 2014-01-21 2015-01-15 位置检测装置、位置检测***和位置检测装置的控制方法
US14/598,535 US10088919B2 (en) 2014-01-21 2015-01-16 Position detecting device, position detecting system, and controlling method of position detecting device
US16/034,500 US11016582B2 (en) 2014-01-21 2018-07-13 Position detecting device, position detecting system, and controlling method of position detecting device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014008632 2014-01-21
JP2014008632 2014-01-21
JP2014062263A JP6326895B2 (ja) 2014-01-21 2014-03-25 位置検出装置、位置検出システム、及び、位置検出装置の制御方法

Publications (3)

Publication Number Publication Date
JP2015158888A JP2015158888A (ja) 2015-09-03
JP2015158888A5 JP2015158888A5 (ja) 2017-04-27
JP6326895B2 true JP6326895B2 (ja) 2018-05-23

Family

ID=53544501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014062263A Expired - Fee Related JP6326895B2 (ja) 2014-01-21 2014-03-25 位置検出装置、位置検出システム、及び、位置検出装置の制御方法

Country Status (3)

Country Link
US (2) US10088919B2 (ja)
JP (1) JP6326895B2 (ja)
CN (1) CN104793810B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6413236B2 (ja) * 2013-12-20 2018-10-31 セイコーエプソン株式会社 プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法
JP6349838B2 (ja) * 2014-01-21 2018-07-04 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6510969B2 (ja) * 2015-12-22 2019-05-08 本田技研工業株式会社 サーバおよびサーバクライアントシステム
JP6690272B2 (ja) * 2016-02-05 2020-04-28 セイコーエプソン株式会社 位置検出システム、自発光指示体、および固有情報取得方法
JP6634904B2 (ja) * 2016-03-16 2020-01-22 セイコーエプソン株式会社 電子デバイス、及び電子デバイスの制御方法
KR102495467B1 (ko) * 2016-12-07 2023-02-06 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
US10694648B2 (en) * 2017-01-06 2020-06-23 Korvis LLC System for inserting pins into an article
JP7124375B2 (ja) * 2018-03-26 2022-08-24 セイコーエプソン株式会社 電子ペン、表示システムおよび電子ペンの制御方法
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
JP7338659B2 (ja) 2021-03-30 2023-09-05 セイコーエプソン株式会社 指示体の検出方法及びプロジェクションシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3670896B2 (ja) * 1999-08-06 2005-07-13 日立ソフトウエアエンジニアリング株式会社 電子ボードシステム
JP2002132448A (ja) * 2000-10-24 2002-05-10 Canon Inc 入力装置及びプロジェクタ
US20060001654A1 (en) * 2004-06-30 2006-01-05 National Semiconductor Corporation Apparatus and method for performing data entry with light based touch screen displays
US8319832B2 (en) 2008-01-31 2012-11-27 Denso Corporation Input apparatus and imaging apparatus
JP2009181423A (ja) * 2008-01-31 2009-08-13 Denso Corp 操作入力装置
JP5593802B2 (ja) 2010-04-16 2014-09-24 セイコーエプソン株式会社 位置検出システム及びその制御方法、並びにプログラム
US8872763B2 (en) * 2011-01-19 2014-10-28 Seiko Epson Corporation Position detecting system and position detecting method
JP5673191B2 (ja) 2011-02-21 2015-02-18 セイコーエプソン株式会社 インタラクティブシステム、位置情報変換方法、およびプロジェクター
JP2012208926A (ja) * 2011-03-15 2012-10-25 Nikon Corp 検出装置、入力装置、プロジェクタ、及び電子機器
US9134814B2 (en) 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
JP2014206634A (ja) * 2013-04-12 2014-10-30 船井電機株式会社 電子機器

Also Published As

Publication number Publication date
JP2015158888A (ja) 2015-09-03
CN104793810A (zh) 2015-07-22
US10088919B2 (en) 2018-10-02
US20150204658A1 (en) 2015-07-23
US11016582B2 (en) 2021-05-25
CN104793810B (zh) 2019-05-31
US20180321761A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6398248B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
JP6326895B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6349838B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6387644B2 (ja) 位置検出装置、位置検出システム、及び、位置検出方法
JP6417690B2 (ja) プロジェクター、表示装置、及び、プロジェクターの制御方法
JP6375660B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6562124B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
CN104898894B (zh) 位置检测装置以及位置检测方法
JP6569259B2 (ja) 位置検出装置、表示装置、位置検出方法、及び、表示方法
JP6287432B2 (ja) 操作デバイス、位置検出システム、及び、操作デバイスの制御方法
JP6340860B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6291912B2 (ja) 位置検出装置、及び、位置検出方法
JP6291911B2 (ja) 位置検出装置、及び、位置検出方法
JP6337558B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R150 Certificate of patent or registration of utility model

Ref document number: 6326895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees