JP6278494B2 - 赤外光の調整方法及び位置検出システム - Google Patents

赤外光の調整方法及び位置検出システム Download PDF

Info

Publication number
JP6278494B2
JP6278494B2 JP2016554954A JP2016554954A JP6278494B2 JP 6278494 B2 JP6278494 B2 JP 6278494B2 JP 2016554954 A JP2016554954 A JP 2016554954A JP 2016554954 A JP2016554954 A JP 2016554954A JP 6278494 B2 JP6278494 B2 JP 6278494B2
Authority
JP
Japan
Prior art keywords
infrared light
target
display screen
axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016554954A
Other languages
English (en)
Other versions
JPWO2016063323A1 (ja
Inventor
和也 井上
和也 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp NEC Display Solutions Ltd
Original Assignee
NEC Display Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Display Solutions Ltd filed Critical NEC Display Solutions Ltd
Publication of JPWO2016063323A1 publication Critical patent/JPWO2016063323A1/ja
Application granted granted Critical
Publication of JP6278494B2 publication Critical patent/JP6278494B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、赤外光の調整方法及び位置検出システムに関し、例えば、表示画像の一部を指し示す指示体の位置を検出するために使用する赤外光の向きを調整する調整方法及び位置検出システムに関する。
教育現場のIT(Information Technology)化や企業での会議の効率化のために、電子黒板システムが導入される事例が多くある。
特許文献1には、電子黒板システムとして使用可能なプロジェクタシステムが記載されている。
特許文献1に記載のプロジェクタシステムは、プロジェクタと、電子ペンと、ペン操作検出手段と、を有する。電子ペンは、プロジェクタが壁等の被投射面に表示した画像(以下「表示画像」と称する)の一部分を指し示すために、および、表示画像の一部分に文字や絵を追加するために使用される。電子ペンは、筆記操作に応じて赤外線等の信号を出力する。ペン先操作検出手段は、電子ペンにて指し示された表示画像の一部分に対して電子ペンから出力された信号を検出する。プロジェクタは、ペン先操作検出手段の検出結果に応じて、文字や絵を、電子ペンにて指し示された表示画像の一部分に追加する。
特開2014−167498号公報
特許文献1に記載のプロジェクタシステムでは、表示画像の一部分を指し示し文字や絵を追加するために電子ペンが使用される。よって、電子ペンが故障すると、プロジェクタシステムは、電子ペンが指示した表示画像の一部分を認識できなくなる。
このため、電子ペンではなく、例えば、人間の手や指または指し棒のような指示体が用いられても、表示画像の一部分を指し示したことをシステム側が認識可能となる手法が望まれる。
この手法を実現するための技術として、投射部から赤外光を表示画像の上を通り過ぎるように投射し、表示画像上で該画像の一部分を指し示す指示体が該赤外光に照射された状態を撮影し、撮影画像に基づき表示画像上の指示体の位置を認識する技術が考えられる。
図1は、上述した技術を実現するために使用される投射部の一例を示した図である。
投射部1は、赤外光L1が表示画像4の上を通り過ぎるように赤外光L1を投射する。
図2は、投射部1の一例を示した図である。投射部1は、例えば、赤外光を出射する複数のレーザ光源1aと、レーザ光源1aと1対1で対応する複数のシリンドリカルレンズ(以下「プリズム」とも称する)1bと、を含む。
複数のレーザ光源1aは、円弧上に配列されている。各レーザ光源1aは、円弧の外側に向けて赤外光(レーザ光)を出力する。各シリンドリカルレンズ1bは、対応するレーザ光源1aから出力された赤外光を矢印B方向に広げる。
上述した技術を用いて表示画像4上の指示体の位置を認識するためには、赤外光L1が表示画像4(表示面)と触れず、赤外光L1の進行領域L2の含まれる平面が表示画像4(表示面)と平行に設置されることが望ましい。
図3は、赤外光L1が、表示画像4が投射された被投射面6と触れている状態を示した図である。この場合、表示画像4のうち赤外光L1で覆われていない部分41を指し示す指示体5には、赤外光L1が届かない。このため、指示体5を検出できない。なお、説明の都合上、図面では表示画像4に厚みを持たせている。また、指示体5は、例えば、人間の手や指または指し棒である。指示体5は、人間の手や指または指し棒に限らず適宜変更可能である。
図4は、進行領域L2の含まれる平面が被投射面6と平行でない状態の一例を示した図である。図4に示した例では、照射箇所5aは、表示画像4を指し示す指示部5の部分5bの近傍ではなく部分5bから離れた箇所となる。このため、指示部5にて指し示された表示画像4の部分と照射箇所5aが、撮影部2が生成した撮影画像上で対応しなくなり、位置検出の精度が低くなる。なお、撮像部2は、赤外光と可視光とを含む波長帯域の光を用いて表示画像4を撮影して撮影画像を生成する。
このように上述した技術を用いて表示画像上の指示体の位置を認識するためには、赤外光L1の進行領域L2の含まれる平面が表示画像4と平行に設置されることが望ましい。
しかしながら、赤外光は人間には見えない。このため、人間が単独で、赤外光L1の進行領域L2の含まれる平面を表示画像4(表示面)と平行に設置することは難しい。よって、赤外光L1の進行領域L2の含まれる平面を表示画像4(表示面)と平行に設置する調整を容易に行える手法が望まれるという課題があった。
本発明の目的は、上記課題を解決可能な赤外光の調整方法および位置検出システムを提供することである。
本発明の赤外光の調整方法は、第1軸と当該第1軸と直交する第2軸との各々を回転軸として回転可能な投射装置から表示画像の上を通り過ぎるように投射される赤外光の向きを調整する赤外光の調整方法であって、前記第1軸と前記表示画像の上辺又は下辺に垂直な線とを含む面が前記表示画像を表す面と直交するように前記投射装置を配置し、前記線上に第1ターゲットを表す第1画像を前記表示画像として表示し、前記第1ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記表示画像上での前記指示体への前記赤外光の照射位置が、前記表示画像上の前記第1ターゲットの位置と一致するように、前記第2軸を回転軸として前記投射装置を回転し、前記線上とは異なる箇所に第2ターゲットを表す第2画像を、前記第1画像の代わりに前記表示画像として表示し、前記第2ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記表示画像上での前記指示体への前記赤外光の照射位置が、前記表示画像上の前記第2ターゲットの位置と一致するように、前記第1軸を回転軸として前記投射装置を回転する。
本発明の位置検出システムは、第1軸と当該第1軸と直交する第2軸との各々を回転軸として回転可能であり、かつ、前記第1軸と表示画像の上辺又は下辺に垂直な線とを含む面が前記表示画像を表す面と直交するように配置され、かつ、赤外光を前記表示画像の上を通り過ぎるように投射する投射部と、前記表示画像の一部分を指し示す指示体に前記赤外光が照射された状態を撮影して撮影画像を生成する撮影部と、前記撮影画像に基づいて前記表示画像上の前記指示体の位置を決定する決定部と、を含む。
本発明によれば、赤外光の進行領域の含まれる平面を表示画像と平行に設置する調整を容易に行うことが可能になる。
赤外光L1の進行領域L2を示した図である。 投射部1の一例を示した図である。 赤外光L1が被投射面6と触れている状態を示した図である。 進行領域L2の含まれる平面が被投射面6と平行でない状態の一例を示した図である。 本発明の一実施形態のプロジェクタシステム200を示した図である。 プロジェクタシステム100の側面模式図である。 赤外光投射装置8の一例を示した図である。 操作部10xおよび調整部10yの一例を示した図である。 操作部10xおよび調整部10yの一例を示した図である。 ダイヤル10bが回されたときの動作を説明するための図である。 ダイヤル10bが回されたときの動作を説明するための図である。 ダイヤル10bが回されたときの動作を説明するための図である。 ダイヤル10bが回されたときの動作を説明するための図である。 制御装置9の一例と撮影部2とプロジェクタ7と赤外光投射装置8とを示した図である。 キャリブレーション用画像11の一例を示した図である。 撮影画像2a1の一例を示した図である。 ダイヤル10bおよびダイヤル10iを用いた調整の一例を説明するための図である。 ピッチング調整画像12の一例を示した図である。 ターゲット12aが指等の指示体5で触れられた状態の一例を示した図である。 検出座標と第1目標座標との関係を表す画像の一例を示した図である。 ダイヤル10bの回転に応じたローリング軸Rの移動を説明するための図である。 ローリング調整画像13の一例を示した図である。 ターゲット13aが指等の指示体5で触れられた状態の一例を示した図である。 ダイヤル10iの回転に応じたピッチング軸Pの移動を説明するための図である。
以下、本発明の実施形態について図面を参照して説明する。
図5は、本発明の一実施形態の調整方法が適用されるプロジェクタシステム100を示した図である。図6は、図5に示したプロジェクタシステム100の側面模式図である。図5および図6において、図1〜4に示したものと同一構成のものには同一符号を付してある。
まず、本発明の一実施形態の調整方法が適用されるプロジェクタシステム100について説明する。
プロジェクタシステム100は、撮影部2と、プロジェクタ7と、赤外光投射装置8と、制御装置9と、を含む。プロジェクタ7は、制御装置9から受け付けた映像信号に応じた表示画像4を被投射面6に表示する。赤外光投射装置8は、投射装置および位置検出補助装置の一例である。赤外光投射装置8は、赤外光L1を投射する。
図7は、赤外光投射装置8の一例を示した図である。
赤外光投射装置8は、投射部1と、操作部10xと、調整部10yと、を含む。操作部10xは、ユーザにて操作される。調整部10yは、操作部10xへの操作に応じて投射部1の向きを変更する。
本実施形態では、操作部10xが操作されることによって、投射部1から投射される赤外光L1の向きが調整される。
図8は、投射部1と操作部10xおよび調整部10yの一例を示した図である。図9は、図8に示された構成の概略図である。図9では、説明の簡略化を図るため、図8に示した支持部10fおよび10nが省略されている。
図8、図9に示した構成要素のうち、ダイヤル10bおよび10iが操作部の一例となる。図8、図9に示した構成要素のうち、投射部10gおよび10hとダイヤル10bおよび10iとは異なる構成要素にて構成される部分が調整部10yの一例となる。なお、操作部10xおよび調整部10yは、図8に示した構成に限らず適宜変更可能である。
基板10aは、支点10a1(図9参照)を中心に移動可能である。
投射部10gおよび10hは、それぞれ、投射部1の一例である。投射部10gおよび10hは、それぞれ、レーザ光源から出力される光をプリズムで拡散し、赤外光を扇状に投射する。投射部10gおよび10hの各々から投射された赤外光は、いずれも、表示画像全体をカバーする。投射部10gおよび10hのように投射部を2つ設ける理由は、赤外光の強度を確保するためである。
以下、支点10a1と調整点10a2を通る軸Rを「ローリング軸R」と称する(図9参照)。また、支点10a1を通りローリング軸Rと直交する軸Pを「ピッチング軸P」と称する(図9参照)。
投射部10gおよび10hは、赤外光L1の進行領域L2とローリング軸Rとピッチング軸Pとが同一平面に存在するように、支点10a1に対して調整点10a2側とは反対側となる基板10aの端部に固定されている。投射部10gおよび10hは、基板10aとは反対の方向に赤外光L1を投射する。
図10Aおよび10Bは、ダイヤル10bが回されたときの動作を説明するための模式図である。図10Aおよび10Bでは、説明の簡略化を図るため、例えば支持部10fおよび10nが省略されている。
ダイヤル10bが回されると、ダイヤル10bに固定されている歯車10cが回転する。歯車10cが回転すると、歯車10dと、歯車10dに固定されたシャフト10eが回転する。シャフト10eには、雄ネジが設けられている。シャフト10eの雄ネジは、位置が固定された支持部(例えばナット)10f(図8参照)の雌ネジと嵌り合う。このため、シャフト10eの回転方向に応じて、シャフト10eおよび歯車10dの位置が変動する。シャフト10eの一端10e1の移動に伴い、ローリング軸Rは、支点10a1を含むピッチング軸Pを中心に回転する(図9、10A、10B参照)。したがって、ダイヤル10bの回転方向に応じて、ローリング軸Rは、ピッチング軸Pを中心に回転する。このため、基板10aに固定された投射部1の向きが変更される。
図11Aおよび11Bは、ダイヤル10iが回されたときの動作を説明するための模式図である。図11Aおよび11Bでは、説明の簡略化を図るため、例えば支持部10fおよび10nが省略されている。
ダイヤル10iが回されると、ダイヤル10iに固定されている歯車10jが回転する。歯車10jが回転すると、歯車10kと、歯車10kに固定されたシャフト10mが回転する。シャフト10mには、雄ネジが設けられている。シャフト10mの雄ネジは、位置が固定された支持部10n(図8参照)の雌ネジと嵌り合う。このため、シャフト10mの回転方向に応じて、シャフト10mおよび歯車10kの位置が変動する。シャフト10mの一端10m1の移動に伴い、基板10aを支持する支持部10p(図9参照)がガイド部10qのガイド溝10q1に沿って移動する。したがって、ダイヤル10iの回転方向に応じて、ピッチング軸Pは、支点10a1を含むローリング軸Rを中心に回転する。このため、基板10aに固定された投射部1の向きが変更される。
図5に示した制御装置9は、プロジェクタシステム100を制御する。制御装置9は、例えばPC(Personal Computer)である。なお、制御装置9は、PCに限らず適宜変更可能である。
図12は、制御装置9の一例と撮影部2とプロジェクタ7と赤外光投射装置8とを示した図である。
制御装置9は、制御部91と、表示部92と、映像信号出力部93と、を含む。制御部91は、制御装置9の動作を制御する。例えば、制御部91は、赤外光L1の進行領域L2が含まれる平面と表示画像4とのズレ角に応じた動作を行う。表示部92は、種々の情報を表示する。映像信号出力部93は、プロジェクタ7に映像信号を出力する。
次に、赤外光L1の進行領域L2が含まれる平面を表示画像4(被投射面6)と平行または略平行にする調整動作について説明する。
まず、制御装置9の映像信号出力部93は、映像信号をプロジェクタ7に出力する。プロジェクタ7は、映像信号を受け付けると、映像信号に応じた表示画像4を被投射面(例えばスクリーン)6に表示する。
続いて、赤外線投射装置8を、被投射面6に対して垂直な方向から見たとき、調整部10yのローリング軸R(第1軸)が表示画像4のセンターライン4a(図5参照)と重なるように設置する。なお、センターライン4aは、表示画像4の上辺又は下辺に垂直な線の一例である。本実施形態では、センターライン4aは、表示画像4の中心を通る。このため、ローリング軸Rと表示画像4のセンターライン4aとを含む面が、表示画像4を表す面と直交するように、赤外線投射装置8が配置される。
ユーザは、制御装置9にインストールされているキャリブレーション用ソフトウェアを起動するために、制御装置9を操作する。
制御部91は、この操作に応じてキャリブレーション用ソフトウェアを起動する。制御部91は、キャリブレーション用ソフトウェアに従って、以下の処理を実行する。
制御部91は、キャリブレーション用映像信号を、映像信号出力部93からプロジェクタ7に出力する。キャリブレーション用映像信号は、制御部91が認識する、映像信号に応じた画像に設定された座標と、撮影画像2aに示された表示画像4での座標と、を対応させるための画像(以下「キャリブレーション用画像」と称する)を示す。
図13は、キャリブレーション用画像11の一例を示した図である。
キャリブレーション用画像11は、表示画像4の左上を示す基準点11aと、表示画像4の右下を示す基準点11bと、表示画像4の右上を示す基準点11cと、表示画像4の左下を示す基準点11dと、を有する。
続いて、撮影部2は、キャリブレーション用画像11を撮影して、キャリブレーション用画像11に応じた撮影画像2a1を生成する。
図14は、撮影画像2a1の一例を示した図である。
撮影部2は、撮影画像2a1を制御装置9に出力する。
制御装置9の制御部91は、撮影画像2a1に示された基準点11aの位置の座標を、表示画像4の左上の位置の座標に対応させる。また、制御部91は、撮影画像2a1に示された基準点11bの位置の座標を、表示画像4の右下の位置の座標に対応させる。また、制御部91は、撮影画像2a1に示された基準点11cの位置の座標を、表示画像4の右上の位置の座標に対応させる。また、制御部91は、撮影画像2a1に示された基準点11dの位置の座標を、表示画像4の左下の位置の座標に対応させる。これにより、撮影画像2aが表す表示画像4での座標が、制御部91が認識する画像(映像信号に応じた画像)での座標と対応する。
赤外光投射装置8は、赤外光L1が表示画像4の上を通り過ぎるように、表示画像4の上部の外側から赤外光L1を扇状に投射する。このとき、赤外光L1の進行領域L2を形成する面が表示画像4と平行または略平行であることが望ましい。
しかしながら、赤外光L1は人間には見えないため、人間が、目視で、赤外光L1の進行領域L2を形成する面を表示画像4と平行または略平行にすることは困難となる。
そこで、本実施形態は、赤外光L1の進行領域L2を形成する面を表示画像4と平行または略平行にする調整を支援する。
本実施形態では、赤外線投射装置8のピッチング軸Pを回転軸とする進行領域L2の傾き調整を「ピッチング方向調整」と称する。また、赤外線投射装置8のローリング軸Rを回転軸とする進行領域L2の傾き調整を「ローリング方向調整」と称する。
進行領域L2を形成する面の向き(被投射面6に対する角度)は、進行領域L2を形成する面上の3点の位置で決まる。
本実施形態では、その3点のうちの1点として、支点10a1が用いられる(図9参照)。残りの2点として、調整点10a2および調整点10a3が用いられる(図9参照)。
調整点10a2の位置は、ダイヤル10bを回転することによって調整可能である。調整点10a3の位置は、ダイヤル10iを回転することによって調整可能である。
支点10a1とローリング軸Rは、赤外光投射装置8のセンターライン上に位置する。ピッチング軸Pは、支点10a1を通り、ローリング軸Rと直交するように配置されている。
本実施形態では、ユーザがダイヤル10bとダイヤル10iをダイヤル10b、ダイヤル10iの順に操作(調整)することで、赤外光L1の進行領域L2を形成する面の角度が調整される。
ダイヤル10bは、ピッチング方向調整に対応する。ダイヤル10bの回転に応じて、ローリング軸Rがピッチング軸Pを回転軸として回転する。このため、ダイヤル10bの回転に応じて、ローリング軸Rの角度が調整される。
ダイヤル10iは、ローリング方向調整に対応する。ダイヤル10iの回転に応じて、ピッチング軸Pがローリング軸Rを回転軸として回転する。このため、ダイヤル10iの回転に応じて、ピッチング軸Pの角度が調整される。
本実施形態では、ダイヤル10bを用いた調整とダイヤル10iを用いた調整のうち、ダイヤル10bを用いた調整が、ダイヤル10iを用いた調整よりも先に行われる。
ダイヤル10bを用いた調整がダイヤル10iを用いた調整よりも先に行われる理由は、進行領域L2を形成する面の角度の調整が容易になるからである。以下、この点について説明する。
最初に、ピッチング方向調整を完了させれば、被投射面6(スクリーン)とローリング軸Rが平行になる。
次に、ローリング方向調整が実施される。この場合、被投射面6と平行なローリング軸Rを回転軸として、ピッチング軸Pが回転される。
その結果、赤外光L1の進行領域L2が形成する面を被投射面6(表示画像4)に対して平行にすることができる。
進行領域L2が形成する面の調整を2ステップで完了させるためには、上述した通りダイヤル10b、ダイヤル10iの順番で、ダイヤル10bおよびダイヤル10iが操作される。
以下、ダイヤル10bおよびダイヤル10iを用いた調整動作を説明する。
図15は、ダイヤル10bおよびダイヤル10iを用いた調整動作を説明するための図である。
制御部91が、不図示の入力部から、ダイヤル10bおよびダイヤル10iを用いた調整処理を開始する旨の指示を受け付けると、ピッチング方向調整が開始する(ステップS201)。
ステップS201では、制御部91は、ピッチング方向調整用映像信号を、映像信号出力部93からプロジェクタ7に出力する。ピッチング方向調整用映像信号は、ピッチング方向調整を行うためのピッチング調整画像を表す。
図16は、ピッチング調整画像12の一例を示した図である。
ピッチング調整画像12は、第1ターゲットの一例であるターゲット12aと、指示12bと、を有する。
ターゲット12aは、ピッチング調整画像12のセンターライン12cの下部に位置する。このため、ターゲット12aは、センターライン12c上のうち赤外光投射装置8側とは反対側の近傍に位置する。なお、センターライン12cは、表示画像4の一例であるピッチング調整画像12の上辺又は下辺に垂直な線の一例である。本実施形態では、センターライン12cは、ピッチング調整画像12の中心を通る。
指示12bは、「画面センター下部のターゲット12aを指(障害物)等の指示体で触る」旨を表す。
プロジェクタ7は、ピッチング方向調整用映像信号を受け付けると、ピッチング調整画像12を表示画像4として被投射面6に表示する。
ユーザは、ピッチング調整画像12に示された指示12bに従ってターゲット12aを指等の指示体5で触れる。
図17Aは、ターゲット12aが指等の指示体5で触れられた状態の一例を示した図である。
ターゲット12aが指等の指示体5で触れられると、指示体5に赤外光L1が照射され、拡散する。
撮影部2は、ターゲット12aが指等の指示体5で触れられた状態を撮影して撮影画像2aを生成する。つまり、撮影部2によって、拡散された赤外光が撮影される。撮影部2は、撮影画像2aを制御部91に出力する。
制御部91は、撮影画像2aに表された表示画像4上での照射箇所5aを、表示画像4上の指示体5の位置として決定する。
続いて、制御部91は、表示画像4上の指示体5の位置と、ピッチング方向調整用映像信号から特定されるピッチング調整画像12(表示画像4)上のターゲット12aの位置と、の関係を、表示部92に表示する。
例えば、制御部91は、表示画像4上の指示体5の位置の座標(以下「検出座標」と称する)と、ピッチング調整画像12上のターゲット12aの位置の座標(以下「第1目標座標」と称する)と、を表示部92に表示する。
図17Bは、検出座標と第1目標座標との関係を表す画像の一例を示した図である。
なお、制御部91は、検出座標が第1目標座標と一致した場合、座標の一致を表す第1情報(例えば「検出座標がターゲット12aと一致しました」という情報)を表示部92に表示する。第1情報の表示は、ピッチング方向調整が完了したことを意味する。
ユーザは、第1情報が表示されるまで、指でターゲット12aを触れつつ、表示部92に表示された検出座標と第1目標座標とを見ながらダイヤル10bを操作して、赤外光L1の向きを動かして調整することで、検出座標を第1目標座標に一致させる。検出座標が第1目標座標に一致すると、制御部91は、第1情報(例えば「検出座標がターゲット12aと一致しました」という情報)を表示部92に表示し、ピッチング方向調整が完了する。
図18は、ダイヤル10bの回転に応じたローリング軸Rの移動を説明するための図である。ピッチング方向調整が完了した段階では、ローリング軸Rは、被投射面6に対して平行な状態となる(図18参照)。
ピッチング方向調整が完了すると(ステップS202)、ローリング方向調整を開始する(ステップS203)。
ピッチング方向調整が完了しているため、ローリング軸Rは被投射面6に対して平行な状態となっている。ステップS203では、ローリング軸Rを回転軸としてピッチング軸Pを回転することで、ピッチング軸Pも被投射面6に対して平行な状態にする。
ステップS203では、制御部91は、ローリング方向調整用映像信号を、映像信号出力部93からプロジェクタ7に出力する。ローリング方向調整用映像信号は、ローリング方向調整を行うためのローリング調整画像を表す。
図19は、ローリング調整画像13の一例を示した図である。
ローリング調整画像13は、第2ターゲットの一例であるターゲット13aと、指示13bと、を有する。
ターゲット13aは、ローリング調整画像13の右下角(左下角でも可)に位置する。このため、ターゲット13aは、表示画像の一例であるローリング調整画像13を画定する辺のうち、ローリング調整画像13のセンターライン12cと平行な辺の近傍若しくは当該平行な辺の端部の近傍に位置することになる。また、ターゲット13aは、ローリング調整画像13を画定する辺のうち、センターライン12cと平行な辺の端部の近傍に位置することになる。また、ターゲット13aは、ローリング調整画像13を画定する辺のうち、センターライン12cと平行な辺の赤外光投射装置8側とは反対側の端部の近傍に位置することになる。なお、ローリング調整画像13のセンターライン12cは、表示画像4の一例であるローリング調整画像13の上辺又は下辺に垂直な線の一例である。本実施形態では、ローリング調整画像13のセンターライン12cは、ローリング調整画像13の中心を通る。
指示13bは、「ターゲット13aを指等の指示体で触る」旨を表す。
プロジェクタ7は、ローリング向調整用映像信号を受け付けると、ローリング調整画像13を表示画像4として被投射面6に表示する。
ユーザは、ローリング調整画像13に示された指示13bに従ってターゲット13aを指等の指示体5で触れる。
図20は、ターゲット13aが指等の指示体5で触れられた状態の一例を示した図である。
ターゲット13aが指等の指示体5で触れられると、指示体5に赤外光L1が照射され、拡散する。
撮影部2は、ターゲット13aが指等の指示体5で触れられた状態を撮影して撮影画像2aを生成する。つまり、撮影部2によって、拡散された赤外光が撮影される。撮影部2は、撮影画像2aを制御部91に出力する。
制御部91は、撮影画像2aに表された表示画像4上での照射箇所5aを、表示画像4上の指示体5の位置として決定する。
続いて、制御部91は、表示画像4上の指示体5の位置と、ローリング方向調整用映像信号から特定されるローリング調整画像13(表示画像4)上のターゲット13aの位置と、の関係を、表示部92に表示する。
例えば、制御部91は、表示画像4上の指示体5の位置の座標(検出座標)と、ローリング調整画像13上のターゲット13aの位置の座標(以下「第2目標座標」と称する)と、を表示部92に表示する。
なお、制御部91は、検出座標が第2目標座標と一致した場合、座標の一致を表す第2情報(例えば「検出座標がターゲット13aと一致しました」という情報)を表示部92に表示する。第2情報の表示は、ローリング方向調整が完了したことを意味する。
ユーザは、第2情報が表示されるまで、指でターゲット13aを触りつつ、表示部92に表示された検出座標と第2目標座標とを見ながらダイヤル10iを操作して、赤外光L1の向きを調整することで、検出座標を第2目標座標に一致させる。検出座標が第2目標座標に一致すると、制御部91は、第2情報(例えば「検出座標がターゲット13aと一致しました」という情報)を表示部92に表示し、ローリング方向調整が完了する。
図21は、ダイヤル10iの回転に応じたピッチング軸Pの移動を説明するための図である。
ローリング方向調整が完了した段階で、ピッチング軸Pも、ローリング軸Rと同様に、被投射面6に対して平行な状態となる(図21参照)。このため、進行領域L2が形成する面は、被投射面6と平行になる。
ローリング方向調整が完了すると(ステップS204)、制御部92は、投射部1の向きの調整(進行領域L2が形成する面の向きの調整)を終了する。
本実施形態に示したように、ローリング軸Rが表示画面4のセンターライン4a上にある場合、表示画面4の上端から赤外光投射装置8までの距離(h)について制限がない状態で、赤外光投射装置8を設置することが可能となる。このため、赤外光投射装置8は、表示画像4の上端ぎりぎりまで近づけた位置に設置されてもよい。また、赤外光投射装置8が、表示画像4の上端から離して設置されてもよい。これによって、使用可能なスクリーンに自由度が広がる。
なお、ピッチング方向調整用のターゲット13aはセンターライン12c上であればどの位置にあっても問題ない。しかしながら、赤外光投射装置8の赤外発射点からより遠いところにあるターゲット12aを用いて調整を実施したほうが、より精度を高めることができる。このため、本実施形態では、表示画像4の下端近傍にターゲット13aが設定される。
ローリング方向調整においても同様に、センターライン12cに近いところにターゲット13aがあるよりも、表示画像4の角に近いところにターゲット13aが存在する方が、より精度よく面の角度を調整することができる。このため、本実施形態では、表示画像4の下の角の近傍にターゲット13aが設定される。
次に、本実施形態の作用効果を説明する。
本実施形態では、調整支点10a1および調整軸(ローリング軸)Rは、表示画像4および赤外線投射装置8のセンターライン上にあり、もう一方の調整軸(ピッチング軸)Pは同じ調整支点10a1を通り、ローリング軸Rと直交するように配置されている。
この状態で、ダイヤル10b、ダイヤル10iの順に操作(調整)して赤外光L1にて形成される面の角度を調整する。ダイヤル10bはピッチング方向調整に対応しており、ダイヤル10bの操作に応じて、ピッチング軸Pを回転軸として、ローリング軸Rの角度が調整される。ダイヤル10iはローリング方向調整に対応しており、ダイヤル10iの操作に応じて、ローリング軸Rを回転軸として、ピッチング軸Pの角度が調整される。
このため、赤外光の進行領域の含まれる平面を表示画像と平行に設置する調整を容易に行うことが可能になる。
次に、ダイヤル10iよりも先にダイヤル10bを操作する理由について説明する。
まずピッチング方向の調整を完了させれば、壁(スクリーン面)とローリング軸Rが平行に設置される。次にローリング方向の調整を実施するが、壁(スクリーン面)と平行に設置されたローリング軸を中心に左右回転方向の調整を実施する。結果、壁(スクリーン面)に対して平行な赤外光L1の面を、2ステップというステップ数の少ない操作で設定することができる。
2ステップで調整を完了させるためには、ここに記載の通りダイヤル10b、ダイヤル10iの手順で操作する必要がある。
本実施形態では、表示部92は、表示画像4上のターゲットの位置と、制御部91が決定した表示画像4上の指示体5の位置と、の関係を表示する。
このため、ユーザは、表示部92での表示を見ることによって、実際は同一の位置となる2つの位置(表示画像4上のターゲットの位置と、制御部91が決定した表示画像4上の指示体5の位置)の差を確認することが可能になる。この差は、進行領域L2が形成する面の被投射面6に対する傾きに起因する。このため、ユーザは、表示部92での表示を見ることによって、投射部1の向きが適切な向きになるように、投射部1の向きを調整することが可能になる。
赤外光投射装置8は、操作部10xと、操作部10xへの操作に応じて投射部1の向きを変更する調整部10yと、を含む。
このため、ユーザは、表示部92での表示を見ながら操作部10xを操作することによって、投射部1の向きが適切な向きになるように、投射部1の向きを調整することが可能になる。
本実施形態では、ダイヤル10bおよび10iが調整されることによって、ピッチング方向調整とローリング方向調整とが行われる。このため、投射部1の向きを、互いに異なる向きの2軸の各々を中心軸とした投射部1の回転によって容易に調整可能となる。
次に、変更例について説明する。
上記実施形態では、投射部1として、複数のレーザ光源1aと複数のシリンドリカルレンズ1bを有する投射部が用いられたが、投射部1は複数のシリンドリカルレンズ1bを有さなくてもよい。この場合、隣り合うレーザ光源1aが接触するように、複数のレーザ光源1aが配置されてもよい。また、複数のレーザ光源を用いなくても、1つのレーザ光源から出力される光をプリズムで拡散することにより、赤外光を扇状に投射してもよい。
表示画像4は、プロジェクタにて投射された画像に限らず、LCD(liquid crystal display)等の表示装置が表示する画像でもよい。この場合、例えばタッチパネルを有さない表示装置が使用されても、表示画像を指し示す指示体5の位置を検出可能になる。
以上説明した実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
100 位置検出システム
1 投射部
1a レーザ光源
1b シリンドリカルレンズ
2 撮影部
4 表示画像
5 指示体
6 被投射面
7 プロジェクタ
8 赤外線投射装置
9 制御装置
10x 操作部
10y 調整部
10a 基板
10a1 支点
10a2、10a3 調整点
10b、10i ダイヤル
10c、10d、10j、10k 歯車
10e、10m シャフト
10f、10n、10p 支持部
10g、10h 投射部
10q ガイド部
10q1 ガイド溝
L1 赤外光
L2 進行領域
P ピッチング軸
R ローリング軸

Claims (9)

  1. 第1軸と当該第1軸と直交する第2軸との各々を回転軸として回転可能な投射装置から表示画の上を通り過ぎるように投射される赤外光の向きを調整する赤外光の調整方法であって、
    前記第1軸と前記表示画の上辺又は下辺に垂直な線とを含む面が前記表示画と直交するように前記投射装置を配置し、
    前記表示画面において、前記面との交線上に第1ターゲットを表す第1画像を表示し、
    前記第1ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記指示体への前記赤外光の照射位置が、前記第1ターゲットの位置と一致するように、前記第2軸を回転軸として前記投射装置を回転し、
    その後、前記表示画面において、前記線上とは異なる箇所に第2ターゲットを表す第2画像を、前記第1画像の代わりに表示し、
    前記第2ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記指示体への前記赤外光の照射位置が、前記第2ターゲットの位置と一致するように、前記第1軸を回転軸として前記投射装置を回転する、赤外光の調整方法。
  2. 請求項1に記載の赤外光の調整方法において、
    前記面と前記表示画面の交線は、前記表示画の中心を通る、赤外光の調整方法。
  3. 請求項1または2に記載の赤外光の調整方法において、
    前記第1ターゲットは、前記線上のうち前記投射装置側とは反対側の近傍に位置する、赤外光の調整方法。
  4. 請求項1から3のいずれか1項に記載の赤外光の調整方法において、
    前記第2ターゲットは、前記表示画を画定する辺のうち、前記面と前記表示画面の交線と平行な辺の近傍に位置する、赤外光の調整方法。
  5. 請求項4に記載の赤外光の調整方法において、
    前記第2ターゲットは、前記表示画面を規定する辺のうち、前記面と前記表示画面の交線と平行な辺の端部の近傍に位置する、赤外光の調整方法。
  6. 請求項5に記載の赤外光の調整方法において、
    前記第2ターゲットは、前記表示画面を規定する辺のうち、前記面と前記表示画面の交線と平行な辺の前記投射装置側の端部とは反対側の端部の近傍に位置する、赤外光の調整方法。
  7. 請求項1から6のいずれか1項に記載の赤外光の調整方法において、
    前記第1ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記照射位置と、前記第1ターゲットの位置と、の関係を表示する、赤外光の調整方法。
  8. 請求項1から7のいずれか1項に記載の赤外光の調整方法において、
    前記第2ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記照射位置と、前記第2ターゲットの位置と、の関係を表示する、赤外光の調整方法。
  9. 表示画面に画像を表示する表示装置と、
    第1軸と当該第1軸と直交する第2軸との各々を回転軸として回転可能であり、かつ、前記第1軸と前記表示画の上辺又は下辺に垂直な線とを含む面が前記表示画と直交するように配置され、かつ、赤外光を前記表示画の上を通り過ぎるように投射する投射装置と、
    前記表示画の一部分を指し示す指示体に前記赤外光が照射された状態を撮影して撮影画像を生成する撮影部と、
    前記表示装置の表示動作を制御し、前記撮影画像に基づいて前記表示画上の前記指示体の位置を決定する制御部と、を有し、
    前記制御部は、前記面との交線上に第1ターゲットを表す第1画像を前記表示画面に表示させて、前記第1ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記指示体への前記赤外光の照射位置が、前記第1ターゲットの位置と一致するか否かを判定し、一致した場合に、前記交線上とは異なる箇所に第2ターゲットを表す第2画像を、前記第1画像の代わりに前記表示画面に表示させて、前記第2ターゲットを指し示す指示体に前記赤外光が照射された状態を撮影した撮影画像にて表される前記指示体への前記赤外光の照射位置が、前記第2ターゲットの位置と一致するか否かを判定する、位置検出システム。
JP2016554954A 2014-10-20 2014-10-20 赤外光の調整方法及び位置検出システム Active JP6278494B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/077795 WO2016063323A1 (ja) 2014-10-20 2014-10-20 赤外光の調整方法及び位置検出システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018003606A Division JP2018106724A (ja) 2018-01-12 2018-01-12 プログラム及びキャリブレーション方法

Publications (2)

Publication Number Publication Date
JPWO2016063323A1 JPWO2016063323A1 (ja) 2017-07-13
JP6278494B2 true JP6278494B2 (ja) 2018-02-14

Family

ID=55760398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016554954A Active JP6278494B2 (ja) 2014-10-20 2014-10-20 赤外光の調整方法及び位置検出システム

Country Status (3)

Country Link
US (1) US10168837B2 (ja)
JP (1) JP6278494B2 (ja)
WO (1) WO2016063323A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
JP2018106724A (ja) * 2018-01-12 2018-07-05 Necディスプレイソリューションズ株式会社 プログラム及びキャリブレーション方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149328A (ja) 2000-08-31 2002-05-24 Ricoh Co Ltd 座標入力装置
JP4759189B2 (ja) 2001-09-19 2011-08-31 株式会社リコー 座標入力装置
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
CN101957693B (zh) * 2009-07-20 2013-04-24 鸿富锦精密工业(深圳)有限公司 触控***
TWI423096B (zh) * 2010-04-01 2014-01-11 Compal Communication Inc 具可觸控投影畫面之投影系統
JP5445321B2 (ja) 2010-05-13 2014-03-19 セイコーエプソン株式会社 光学式検出装置、表示装置及び電子機器
JP2013024579A (ja) 2011-07-15 2013-02-04 Seiko Epson Corp 光学式位置検出装置および入力機能付き表示システム
EP2802976A4 (en) 2012-01-11 2015-08-19 Smart Technologies Ulc CALIBRATION OF AN INTERACTIVE LIGHT GRID
JP6241198B2 (ja) 2012-12-07 2017-12-06 株式会社リコー 座標検知装置及び電子情報ボードシステム
JP6111706B2 (ja) 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム
JP2014167498A (ja) 2013-02-28 2014-09-11 Seiko Epson Corp プロジェクターシステム、およびプロジェクターシステムの制御方法
US20160349918A1 (en) * 2015-05-29 2016-12-01 Intel Corporation Calibration for touch detection on projected display surfaces

Also Published As

Publication number Publication date
WO2016063323A1 (ja) 2016-04-28
US10168837B2 (en) 2019-01-01
JPWO2016063323A1 (ja) 2017-07-13
US20170235432A1 (en) 2017-08-17

Similar Documents

Publication Publication Date Title
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
US9507411B2 (en) Hand tracker for device with display
CN105323520B (zh) 投影仪设备、交互***和交互控制方法
WO2015159822A1 (ja) 表示装置及び電子機器
US20130044054A1 (en) Method and apparatus for providing bare-hand interaction
JP2011017894A (ja) プロジェクター、画像投写システムおよび画像投写方法
JP2013045310A (ja) 表示装置、表示装置の制御方法およびプログラム
JP2017182109A (ja) 表示システム、情報処理装置、プロジェクター及び情報処理方法
EP2373040A2 (en) Image distortion correction apparatus and method
JP6278494B2 (ja) 赤外光の調整方法及び位置検出システム
KR102523091B1 (ko) 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법
JP2015176451A (ja) ポインティング制御装置およびポインティング制御プログラム
JP5773003B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP2006350452A (ja) 撮影表示装置およびそのキャリブレーションデータ算出方法
JP2009238004A (ja) ポインティングデバイス
JP2018106724A (ja) プログラム及びキャリブレーション方法
JP5550111B2 (ja) 撮像装置、撮像方法、及びプログラム
CN108196676A (zh) 跟踪识别方法及***
JP5664725B2 (ja) プロジェクター、画像投写システムおよび画像投写方法
TWI476678B (zh) 互動式模擬球體顯示系統
JP2015053734A (ja) プロジェクター、画像投写システムおよび画像投写方法
TWI419017B (zh) 一種具有片狀光層之指標輸入系統
US20160320897A1 (en) Interactive display system, image capturing apparatus, interactive display method, and image capturing method
JP6938308B2 (ja) プロジェクタシステム及びプロジェクタシステム用プログラム
JP2018170645A (ja) 画像入出力装置及び画像入出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180111

R150 Certificate of patent or registration of utility model

Ref document number: 6278494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350