JP6340958B2 - プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 - Google Patents

プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 Download PDF

Info

Publication number
JP6340958B2
JP6340958B2 JP2014137201A JP2014137201A JP6340958B2 JP 6340958 B2 JP6340958 B2 JP 6340958B2 JP 2014137201 A JP2014137201 A JP 2014137201A JP 2014137201 A JP2014137201 A JP 2014137201A JP 6340958 B2 JP6340958 B2 JP 6340958B2
Authority
JP
Japan
Prior art keywords
unit
information
pen
operation direction
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014137201A
Other languages
English (en)
Other versions
JP2016015649A (ja
Inventor
壮史 長尾
壮史 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014137201A priority Critical patent/JP6340958B2/ja
Priority to US14/744,530 priority patent/US20160004337A1/en
Priority to EP15174353.1A priority patent/EP2963528B1/en
Priority to CN201510386121.9A priority patent/CN105323520B/zh
Publication of JP2016015649A publication Critical patent/JP2016015649A/ja
Application granted granted Critical
Publication of JP6340958B2 publication Critical patent/JP6340958B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法に関する。
近年、プロジェクタ装置(画像投影装置)によって投影された画面上の操作を検出して、プロジェクタ装置、パーソナルコンピュータ装置等の機器の操作を可能とするインタラクティブシステムが知られている。このインタラクティブシステムの場合、ユーザが電子ペン、ペンまたは指などで投影面を操作すると、投影面上のカーソルまたはポインタ等が操作に応じて移動表示される。また、このインタラクティブシステムの場合、ユーザが投影面上の所望の位置をタッチ操作すると、例えば操作メニューの表示、または、表示画像の切り替え等のタッチ操作された位置に対応する動作を行うように、機器の制御が行われる。
特許文献1(特開2012−185798号公報)には、投影面に対する指示体の接触タイミングを正確に判断可能な情報処理装置が開示されている。この情報処理装置は、投影面上の座標を検出する座標検出装置、検出した座標を処理する情報処理装置、および投影面に対する指示体の接触を検知する接触検知装置を有している。
座標検出装置は、投影面に対する指示体の接近通知および近接位置座標の検出を行う。接触検知装置は、指示体の接近通知により、情報処理装置を介して、投影面に対する指示体の接近を検出すると、所定時間内に指示体の接触の有無を検出する。そして、接触検知装置は、投影面に対する指示体の接触を検出した際に、指示体の接触を示すイベントを発行する。これにより、投影面に対する指示体の接触タイミングを正確に判断できる。
しかし、特許文献1に開示されている技術を含め、従来のインタラクティブシステムは、一度に複数の指示体を識別することは困難であった。このため、投影面上を複数の指示体で操作された場合に、より正確なインタラクティブ動作に支障を来す問題があった。
本発明は、上述の課題に鑑みてなされたものであり、複数の指示体の操作に対応して、より正確なインタラクティブ動作を可能としたプロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法の提供を目的とする。
本発明は、上述した課題を解決し、目的を達成するために、投影面に投影画像を投影する投影部と、投影面を操作する指示体から送信される、指示体の固有識別情報および操作方向を示す第1の操作方向情報を受信する受信部と、投影面を撮影する撮影部と、撮影部で撮影された複数の撮影画像から、投影面を操作する指示体の操作方向を示す第2の操作方向情報を生成する生成部と、第1の操作方向情報に合致する第2の操作方向情報と、固有識別情報とを関連付ける関連付け部と、関連付けられた固有識別情報および第2の操作方向情報を含む操作情報を生成する操作情報生成部と、生成された操作情報を被制御機器に送信する送信部とを有する。
本発明によれば、複数の指示体の操作に対応して、より正確なインタラクティブ制御を行うことができるという効果を奏する。
図1は、第1の実施の形態のインタラクティブシステムのシステム構成図である。 図2は、第1の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置のハードウェア構成図である。 図3は、第1の実施の形態のインタラクティブシステムで用いられているペンのハードウェア構成図である。 図4は、プロジェクタ装置およびペンの機能ブロック図である。 図5は、第1の実施の形態のインタラクティブシステムの各装置の動作を示すシーケンス図である。 図6は、第1の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置の動作を示すフローチャートである。 図7は、第2の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置の動作を示すフローチャートである。 図8は、第3の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置の動作を示すフローチャートである。
以下、添付図面を参照して、本発明を適用した実施の形態のインタラクティブシステムを詳細に説明する。
(概要)
まず、インタラクティブシステムとしては、例えば「光反射方式」のインタラクティブシステムとしてもよいし、または「光遮断方式」のインタラクティブシステムとしてもよい。「光反射方式」のインタラクティブシステムの場合、プロジェクタ装置などで映像が投影される投影面上部に赤外線装置を設け、投影面全体を撮影部(カメラ部)で撮影する。赤外線装置は、投影面全体に赤外線光を投射する。ユーザがペンまたは指などの指示体で投影面を操作すると、操作した箇所で赤外線光が反射する。操作検出部は、撮影部で撮影された投影面上で反射する赤外線光の画像を用いて、指示体によりポイントされた位置、または、ユーザの操作形態等を検出する。
これに対して、「光遮断方式」のインタラクティブシステムの場合、投影面外枠に再帰性反射シートを設ける。また、投影面の角端部等に投影面全体に光を照明する照明部を設けると共に、投影面に投射された光を受光部で受光する構成とする。そして、投影面内で操作を行うことで光を遮蔽するペンまたは指等の指示体(遮蔽物)と受光部間の角度から、指示体によりポイントされた位置、または、ユーザの操作形態等を検出する。
「光反射方式」および「光遮断方式」のインタラクティブシステムは、いずれもペン等の指示体に光が照射されたタイミングを、投影面に指示体が接触したタイミングとして検出している。しかし、指示体に光が照射されたタイミングと、投影面に指示体が接触したタイミングとが、異なるタイミングとなることは多々ある。このため、ユーザが指示体を投影面から十分に離していないことで、指示体に対して継続して光が照射され、指示体が認識し続けられ、インタラクティブ動作が不正確になることがある。
このような不都合を防止するために、指示体となっているペンの先にスイッチ部を設け、ペンの先端が投影面に接触したときにスイッチを導通させ、投影面とペンの先端が接触している状態であることを無線で通知する構成とする。これにより、操作位置を検出し、かつ、投影面とペンの先端との接触を示す通知を受信している間を、投影面に接触したペンで操作が行われている間として検出して、より正確なインタラクティブ制御を可能とすることができる。なお、この構成によればペンと指を識別することが可能となる。すなわち、位置を検出した際に、投影面と接触している状態であることが通知されていればペン、通知されていなければ指(等のペン以外の指示体)と識別できる。
ここで、いずれのインタラクティブシステムにおいても、複数の指示体で投影面が操作された場合には、各指示体の識別が困難であることから、正確なインタラクティブ制御が困難となる。例えば「光反射方式」のインタラクティブシステムにおいて、第1のペンを投影面に接触させて操作を行った場合、撮影部によって第1のペンの操作位置が検出されると共に、第1のペンが接触状態になったことが通知される。このとき、第1のペンは、自身の固有識別情報も合わせて通知していれば、システム側においては、検出した操作位置は、第1のペンで操作されていることを認識できる。同一の投影面を複数のペンで操作した場合でも、各ペンを交互に投影面に接触させて操作すれば、検出位置と通知情報の関連付けから、各ペンを識別して、より正確なインタラクティブ制御を可能とすることができる。
しかし、第1のペンと第2のペンを同時に投影面に接触させて操作した場合、撮影部によって第1のペンの操作位置と第2のペンの操作位置がそれぞれ検出されると共に、第1のペンと第2のペンからそれぞれ接触状態になったことが通知される。この場合、検出した各操作位置がどちらのペンの操作位置か特定できず、正確なインタラクティブ制御に支障を来すおそれがある。
実施の形態のインタラクティブシステムは、指示体の一例であるペンが、固有の識別子とペン側で検知した方向(角度)をシステム側に通知する。そして、システム側では、ペンから通知された方向と、システム側で検出した位置座標から算出した方向とを比較して、各ペンの固有の識別子と操作位置を関連付けして、インタラクティブ制御を行う。これにより、複数のペンが略々同時に投影面に接触した場合でも、各ペンを識別して、より正確なインタラクティブ制御を行うことができる。
[第1の実施の形態]
(システム構成)
図1に、第1の実施の形態のインタラクティブシステムのシステム構成図を示す。一例として、第1の実施の形態のインタラクティブシステムは、プロジェクタ装置1、ペン2、パーソナルコンピュータ装置3、撮影部5、およびレーザーモジュール6を有している。プロジェクタ装置1とパーソナルコンピュータ装置3は、映像を入力するための、例えばHDMI(登録商標)ケーブル等の映像ケーブル7で接続されている。HDMI(登録商標)は、「High Definition Multimedia Interface」の略記である。さらに、プロジェクタ装置1とパーソナルコンピュータ装置3は、操作情報を送受信するための、例えばUSBケーブル等の有線ケーブル8で接続されている。USBは、「Universal Serial Bus」の略記である。なお、ブルートゥース(登録商標)等の近距離無線通信で操作情報を送受信してもよい。
レーザーモジュール6は、投影面4から少し離れたところに並行に赤外線光を投射する。撮影部(カメラ部)5は、投影面4に投射されている赤外線光を撮影する。このため、指示体であるペン2(または指)で反射された赤外線光は、撮影部5で撮影される(光反射方式)。ペン2はペン先のスイッチが押下されると、固有識別情報(ペン識別子)および角度情報をプロジェクタ装置1へ無線送信する。プロジェクタ装置1は、撮影部5の撮影画像、ペン2からのペン識別子および角度情報を用いて、投影面4上におけるペン2の操作位置を検出し、操作情報に変換してパーソナルコンピュータ装置3へ送信する。なお、第1の実施の形態のインタラクティブシステムは、光反射方式が適用されている例であるが、光遮断方式等の他の方式を用いてもよい。
(プロジェクタ装置のハードウェア構成)
図2は、プロジェクタ装置1のハードウェア構成図である。プロジェクタ装置1は、CPU11、RAM12、ROM13、USBI/Fポート14、光学部15、電源部16、電源制御部17、ファン部18、ランプ部19、およびランプ制御部20を有している。また、プロジェクタ装置1は、映像信号処理部21、映像信号受付部22、操作受付部23、無線ユニット24、および撮影部5を有している。撮影部5、およびCPU11〜無線ユニット24は、バスライン25を介して相互に接続されている。なお、図2では、撮影部5は、プロジェクタ装置1と一体的に構成されているように図示しているが、撮影部5は、プロジェクタ装置1に対して外付けの構成としてもよい。
CPU11は、プロジェクタ装置1の動作を制御する、「プロジェクタ装置1用のインタラクティブプログラム」を実行する。RAM12は、CPU11のワークエリア等を構成する。ROM13は、CPU11が実行するインタラクティブプログラム、およびインタラクティブプログラムの実行に必要なデータを記憶する。USBI/Fポート14は、USBケーブルの接続口である。光学部15は、映像を作り出す部分であり、DLP(登録商標)プロジェクタならDMD(登録商標)またはカラーホイールとなる。DLPは、「デジタル・ライト・プロッセシング」の略記である。DMDは、「Digital Micro mirror Device」の略記である。
電源部16は、プロジェクタ装置1へ電源を供給する。電源制御部17は、電源部16の電源供給制御を行う。ファン部18は、プロジェクタ装置1の本体を冷却する。ランプ部19は、光源となる光を生成する。ランプ制御部20は、ランプ部19を制御するバラストである。映像信号受付部22は、例えばD-subminiature(D-Sub)、HDMI(登録商標)、ビデオ等の映像入力種別毎の映像信号ポートである。映像信号処理部21は、映像信号ポートからの映像信号入力を受信して処理する。操作受付部23は、例えば操作キーであり、ユーザの操作を受け付ける。無線ユニット24は、例えば赤外線無線通信、または、ブルートゥース(登録商標)の通信規格の無線通信を行うことで、ペン2からの情報を受信する。撮影部5は、カメラ装置であって、上述のように投影面4を撮影する。
(ペンのハードウェア構成)
図3は、ペン2のハードウェア構成図である。この図3に示すように、ペン2は、CPU31、RAM32、ROM33、接触検知部34、加速度検知部35、無線ユニット36を有している。CPU31〜無線ユニット36は、バスライン37を介して相互に接続されている。CPU31は、ペン2の動作制御を行う「ペン2用のインタラクティブプログラム」を実行する。RAM32は、CPU31のワークエリア等を構成する。ROM33は、CPU31が実行するインタラクティブプログラム、および、インタラクティブプログラムの実行に必要なデータを記憶する。接触検知部34は、投影面4に接触したペン先の押下を検知するセンサである。加速度検知部35は、ペン2の加速度、加速方向、およびペン2の傾き角を検知するセンサである。無線ユニット36は、例えば赤外線無線通信、または、ブルートゥース(登録商標)通信規格の無線通信を用いて、ペン2のペン識別子、加速度情報、加速方向情報、および傾き角情報等の各種情報をプロジェクタ装置1に送信する。
(プロジェクタ装置およびペンの機能ブロック)
図4は、プロジェクタ装置1のCPU11が、プロジェクタ装置1用のインタラクティブプログラムを実行することで実現される各機能の機能ブロック図である。また、図4は、ペン2のCPU31が、ペン2用のインタラクティブプログラムを実行することで実現される各機能の機能ブロック図である。プロジェクタ装置1の機能ブロックは、映像入力受付部41〜撮影制御部50である。また、ペン2の機能ブロックは、ペン接触検知部51〜ペン情報通信部53である。
なお、この例では、プロジェクタ装置1の映像入力受付部41〜撮影制御部50、および、ペン2のペン接触検知部51〜ペン情報通信部53は、それぞれソフトウェアで実現されることとして説明を進めるが、全てまたは一部の機能をハードウェアで実現してもよい。
また、プロジェクタ装置1用およびペン2用の各インタラクティブプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、各インタラクティブプログラムは、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disk」の略記である。また、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、各インタラクティブプログラムを、機器内のROM等に予め組み込んで提供してもよい。
図4において、プロジェクタ装置1は、映像入力受付部41、映像編集部42、投影部43、位置座標算出部44、ペン情報通信部45、およびPC操作座標情報変換部46を有している。また、プロジェクタ装置1は、ペン方向算出部47、ペン識別部48、操作情報通信部49、および撮影制御部50を有している。位置座標算出部44は、生成部の一例である。ペン情報通信部45は、受信部の一例である。PC操作座標情報変換部46は、操作情報生成部の一例である。操作情報通信部49は、送信部の一例である。撮影制御部50は、撮影部の一例である。
映像入力受付部41は、HDMI(登録商標)、VGAまたはネットワークを経由して入力された映像入力を受け付ける。VGAは、「Video Graphics Array」の略記である。映像編集部42は、変倍など投影する画像の編集処理を実行する。投影部43は、映像信号を外部へ投影する。位置座標算出部44は、投影面4の撮影画像から投影画像上のペンの位置座標を算出する。ペン情報通信部45は、ペン2と通信を行い、情報の送受信を行う。PC操作座標情報変換部46は、算出した位置座標およびペン識別子をパーソナルコンピュータ装置3の操作座標情報へと変換し、操作情報通信部49を介してパーソナルコンピュータ装置3に送信する。
ペン方向算出部47は、検出した位置座標の連続性からペン2の操作方向(角度)を算出する。ペン識別部48は、ペン2から受信した、ペン2の加速度情報と、プロジェクタ装置1側で算出したペン2の操作方向とを比較して、ペン2を識別する。操作情報通信部49は、パーソナルコンピュータ装置3と操作情報の通信を行う。撮影制御部50は、投影面4を撮影している撮影部5を撮影制御する。
ペン2のペン接触検知部51は、投影面4に対するペン先の接触の有無を検知する。ペン方向検知部52は、ペン2の操作方向を検知する。ペン情報通信部53は、プロジェクタ装置1と通信により情報の送受信を行う。
(各装置間の動作)
次に、図5は、投影面4の接触操作時における各装置の動作を示すシーケンス図である。図5に示すステップS1〜ステップS5は、並列処理(par)を示している。また、ステップS1〜ステップS5の各処理は、ペン2で投影面4が接触操作されている間、定期的に繰り返し実行されるループ処理(loop)である。
すなわち、ペン2で投影面4が接触されると、プロジェクタ装置1側において、撮影部5からの撮影画像により反射光が検出される。プロジェクタ装置1は、ステップS1において、撮影部5からの撮影画像を用いて、ペン2の操作位置を検出する。また、プロジェクタ装置1は、ステップS2において、ペン2の操作位置に対応する位置座標を算出する。
次に、ステップS3において、ペン2は、投影面4に対するペン先の接触の有無を検知し、接触検知情報を生成する。また、ペン2は、ステップS4において、移動操作されているペン2の加速度を検出し、加速度情報を生成する。そして、ペン2は、ステップS5において、接触検知情報、加速度情報、およびペン2に対して固有に割り当てられているペン識別子を含む通知情報を、プロジェクタ装置1に送信する。プロジェクタ装置1およびペン2は、ペン2が投影面4に接触している間、上述のステップS1〜ステップS5の各処理を、定期的に繰り返し実行する。
次に、プロジェクタ装置1は、ステップS6において、ステップS2で算出した位置座標を用いて、ペン2の操作方向を算出する。一例として、投影面4を二次元に見たときの傾斜角度等を、ペン2の操作方向として用いることができる。また、ステップS6において、プロジェクタ装置1は、ステップS5でペン2から通知された加速度情報を用いて、ペン2の操作方向を算出する。そして、ステップS6において、プロジェクタ装置1は、それぞれ算出したペン2の操作方向を比較する。
ペン2から通知された加速度情報から算出した操作方向と、ペン2の位置座標から算出した操作方向とが一致すれば、各操作方向は、同じペン2の操作方向であることを意味する。このため、投影面4上が複数のペン2で同時に操作された場合でも、ステップS2で検出する各ペン2の位置座標と、各ペン2から通知された通知情報(接触検知情報、加速度情報およびペン識別子)を関連付けができる。
次に、ステップS7において、プロジェクタ装置1は、検出した位置座標とペン2の識別子からパーソナルコンピュータ装置3用の操作情報を生成する。そして、プロジェクタ装置1は、ステップS8において、生成した操作情報をパーソナルコンピュータ装置3に送信する。ステップS9において、パーソナルコンピュータ装置3は、プロジェクタ装置1から受信した操作情報に対応して、例えばプロジェクタ装置1を介して投影しているカーソル、スクロールバー、または、所定のオブジェクト等の移動表示制御を行う。また、パーソナルコンピュータ装置3は、受信した操作情報に対応して、例えば表示画面の切り替え制御、指定されたアプリケーションの起動制御等を行う。これにより、複数のペン2で同時に投影面4上を操作した場合でも、各ペン2の操作を識別して、より正確なインタラクティブ制御を行うことができる。
次に、図6のフローチャートに、プロジェクタ装置1のインタラクティブ動作の流れを示す。図6のフローチャートのステップS11において、ペン2または指等の指示体で投影面4が操作されると、図4に示す位置座標算出部44が、撮影制御部50の制御で撮影部5により撮影された撮影画像から、投影面4に対する指示体の接触を検知する。そして、位置座標算出部44は、ステップS12において、撮影画像から指示体の位置座標(ペン2または指等で指し示されている座標)を算出する。
現在、投影面4上を操作している指示体がペン2であれば、無線通信で上述の通知情報が通知される。すなわち、図4に示したペン2のペン接触検知部51で、投影面4に対するペン先の接触が検知されると、ペン2が移動操作されることで発生する加速度をペン方向検知部52が検出する。そして、ペン情報通信部53が、接触検知情報、加速度情報およびペン2に固有に付されている固有識別情報(ペン識別子)を含む通知情報を、プロジェクタ装置1に送信する。ペン2から通知情報を受信するタイミングと、プロジェクタ装置1側で指示体の位置座標を検出するタイミングとの間には、タイムラグがある。このため、ペン識別部48は、ステップS13で、例えば100msec等の一定時間、待機する。そして、ペン識別部48は、ステップS14において、一定時間、待機している間に、ペン2から通知情報を受信したか否かを判別する。ペン2からの通知情報を受信した場合(ステップS14:Yes)、処理はステップS15に進む。また、ペン2からの通知情報を受信しなかった場合(ステップS14:No)、処理はステップS19に進む。
ステップS19では、ペン識別部48が、上述の待機時間内にペン2からの通知情報を受信しなかったため、指示体はペン2ではなく、通知情報の送信機能を持たない指等の指示体であると判断する。そして、ステップS18に処理が進み、PC操作座標情報変換部46が、「指」という指示体の識別子、および、算出した指の位置座標からパーソナルコンピュータ装置3用の操作情報を生成し、パーソナルコンピュータ装置3に送信して、図6のフローチャートの処理を終了する。
これに対して、一定時間、待機している間に、ペン2からの通知情報を受信することで、ステップS15に処理が進むと、ペン識別部48は、現在、指示体としてペン2が使用されているものと判断する。ステップS16では、ペン方向算出部47が、過去および現在において、撮影画像を用いて算出した複数の位置座標から、ペン2が移動操作されている方向(例えば、角度)を算出する。
次に、ステップS17において、ペン識別部48は、撮影画像から算出したペン2の操作方向と、ペン2から通知されたペン2の操作方向とを比較する。ペン識別部48は、両者が一致した場合、通知情報に含まれるペン2のペン識別子を、撮影画像から算出した位置座標に関連付ける。PC操作座標情報変換部46は、ステップS18において、撮影画像から算出した位置情報に関連付けられたペン識別子からパーソナルコンピュータ装置3用の操作情報を生成する。そして、操作情報通信部49は、生成した操作情報をパーソナルコンピュータ装置3に送信する。これにより、図6のフローチャートの処理が終了する。
以上の説明から明らかなように、第1の実施の形態のインタラクティブシステムは、パーソナルコンピュータ装置3からの映像が、プロジェクタ装置1の投影部43を介して投影されている投影面4を撮影部5で撮影する。そして、位置座標算出部44が、撮影画像を解析することで、投影面4上を操作する指示体の座標位置を算出する。
また、ペン2は、ペン接触検知部51が投影面4に対するペン先の接触の有無を検出して接触検知情報を生成する。また、ペン2は、操作状況に応じた加速度情報を生成する。そして、ペン2は、接触検知情報、加速度情報、および、固有に付されている固有識別情報を含む通知情報をプロジェクタ装置1に送信する。
プロジェクタ装置1のペン識別部48は、撮影画像から算出したペン2の操作方向と、ペン2から通知されたペン2の操作方向(加速度情報)とを比較する。ペン識別部48は、両者が一致した場合、通知情報に含まれるペン2の固有識別情報(ペン識別子)を、撮影画像から算出した位置座標に関連付ける。
PC操作座標情報変換部46は、撮影画像から算出した位置情報に関連付けられたペン識別子からパーソナルコンピュータ装置3用の操作情報を生成する。操作情報通信部49は、生成した操作情報をパーソナルコンピュータ装置3に送信する。パーソナルコンピュータ装置3は、例えばプロジェクタ装置1を介して投影しているカーソル、スクロールバー、または、所定のオブジェクト等の移動表示制御を行う。また、パーソナルコンピュータ装置3は、受信した操作情報に対応して、例えば表示画面の切り替え制御、指定されたアプリケーションの起動制御等を行う。これにより、複数のペン2で同時に投影面4上を操作した場合でも、各ペン2の操作を識別して、より正確なインタラクティブ制御を行うことができる。
[第2の実施の形態]
次に、第2の実施の形態のインタラクティブシステムを説明する。一つのペン2で投影面4が操作されている場合、撮影画像で算出される操作方向は、ペン2の操作方向である。このため、一つのペン2で投影面4が操作されている場合、プロジェクタ装置1側で撮影画像から算出した操作方向と、ペン2の固有識別情報の関連付けを行う処理は、不要となる。
このようなことから、第2の実施の形態では、投影面4が複数のペン2で操作されている場合に、上述の関連付けの処理を行うものである。なお、上述の第1の実施の形態と以下に説明する第2の実施の形態は、この点のみが異なる。このため、以下、差異の部分のみ説明し、重複説明は省略する。
図7のフローチャートに、第2の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置1の動作の流れを示す。第2の実施の形態の場合、図7のフローチャートのステップS15およびステップS16の間に、ペン識別部48が、投影面4で操作されているペン2は、複数であるか否かを判別するステップS20の処理を有している。ステップS20において、ペン識別部48が、投影面4で操作されているペン2が複数であると判別した場合(ステップS20:Yes)、処理はステップS16に進み、上述のように各ペン2の固有識別情報と、投影画像から算出された各ペン2の操作方向との関連付けを行う。そして、各ペン2の操作に応じて、インタラクティブ制御を行う。
これに対して、ステップS20において、ペン識別部48が、投影面4で操作されているペン2が単数(一つ)であると判別した場合(ステップS20:No)、処理はステップS18に進む。すなわち、投影面4で操作されているペン2が単数である場合、撮影画像で算出される操作方向は、ペン2の操作方向である。このため、一つのペン2で投影面4が操作されている場合は、プロジェクタ装置1側で撮影画像から算出した操作方向と、ペン2の固有識別情報の関連付けを行う処理は、不要となる。このため、ペン識別部48が、投影面4で操作されているペン2が単数(一つ)であると判別した場合(ステップS20:No)、上述の関連付けの処理であるステップS16およびステップS17の各処理をスキップしてステップS18に処理を進める。そして、撮影画像から算出したペン2の位置座標等が操作情報としてパーソナルコンピュータ装置3に送信され、一つのペン2の操作に対応したインタラクティブ制御が行われる。
このような第2の実施の形態のインタラクティブシステムの場合、投影面4で操作されているペン2が一つの場合は、操作方向とペンとの関連付けの処理を省略できる。このため、プロジェクタ装置1の演算動作を軽減できる他、上述の第1の実施の形態と同じ効果を得ることができる。
[第3の実施の形態]
次に、第3の実施の形態のインタラクティブシステムを説明する。第3の実施の形態のインタラクティブシステムでは、プロジェクタ装置1が、投影面4を操作している指示体を識別して、インタラクティブ制御を可能としたものである。すなわち、第3の実施の形態の場合、プロジェクタ装置1は、ペン2、および例えば指等のペン2以外の指示体を識別して、インタラクティブ制御を可能とする。なお、上述の各実施の形態と以下に説明する第3の実施の形態は、この点のみが異なる。このため、以下、差異の部分のみ説明し、重複説明は省略する。
図8のフローチャートに、第3の実施の形態のインタラクティブシステムに設けられているプロジェクタ装置1の動作の流れを示す。第3の実施の形態の場合、図7のフローチャートのステップS14とステップS15との間に、ステップS21の処理を有する。また、ステップS21で「No」と判別された場合に実行されるステップS22〜ステップS26の処理を有する。
この図8のフローチャートのステップS14において、ペン2から通知情報が通知されることで処理がステップS21に進むと、ペン認識部48は、通知情報に含まれる固有識別情報に基づいて、通知情報を送信しているペン2の数(通知情報の通知数)を検出する。また、ステップS21において、ペン認識部48は、検出したペン2の数と、撮影画像から検出した指示体の数とを比較する。
ペン認識部48により、通知情報の通知数から検出したペン2の数と、撮影画像から検出した指示体の数とが等しいと判別された場合(ステップS21:Yes)、処理がステップS15に進み、第1の実施の形態および第2の実施の形態で説明したように、複数または単数のペン2の操作に対応するインタラクティブ制御が行われる。
一方、ペン認識部48により、通知情報の通知数から検出したペン2の数と、撮影画像から検出した指示体の数とが異なる数であると判別された場合(ステップS21:No)、処理がステップS22に進む。ペン認識部48は、ステップS22およびステップS23において、撮影画像から検出した指示体の中に、通知情報を通知するペン2と、通知情報の通知機能を持たない、例えば指等の指示体が混在しているものと認識する。
ステップS24では、ペン方向算出部47が、撮影部5により撮影された複数の撮影画像上の各指示体の位置座標から、各指示体の操作方向を算出する。ステップS25では、ペン識別部48が、ペン方向算出部47で算出された操作方向(算出操作方向)のうち、ペン2から受信した通知情報に含まれる操作方向(通知操作方向)に合致する算出操作方向を検出する。そして、ペン識別部48が、通知操作方向に合致する算出操作方向に対して、通知情報に含まれるペン2の固有識別情報を関連付けする。また、ステップS26では、ペン識別部48は、ペン方向算出部47で算出された算出操作方向のうち、ペン2から通知された通知操作方向と一致しない算出操作方向は、通知情報の通知機能を持たない、例えば指等の指示体の操作方向であるものと認識する。換言すれば、ペン識別部48は、関連付けする固有識別情報の無い算出操作方向は、例えば指等の指示体の操作方向であるものと認識する。
ペン2の固有識別情報が関連付けされた算出操作方向、および通知情報の通知機能を持たない指等の指示体の操作方向と認識された算出操作方向(=関連付けする固有識別情報が存在しない算出操作方向)は、ステップS18において、PC操作座標情報変換部46により、パーソナルコンピュータ装置3用の操作情報に変換される。そして、操作情報通信部49により、パーソナルコンピュータ装置3に送信され、インタラクティブ制御に用いられる。
このような第3の実施の形態のインタラクティブシステムは、通知情報の送信機能を有するペン2と、通知情報の送信機能を有さない指等の指示体とが混在している場合でも、各指示体の操作を分別して正確に検出し、インタラクティブ制御を行うことができる他、上述の各実施の形態と同じ効果を得ることができる。
上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施の形態および実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 プロジェクタ装置
2 ペン
3 パーソナルコンピュータ装置
4 投影面
5 撮影部
6 レーザーモジュール
7 映像ケーブル
8 有線ケーブル
34 接触検知部
35 加速度検知部
36 無線ユニット
41 映像入力受付部
42 映像編集部
43 投影部
44 位置座標算出部
45 ペン情報通信部
46 PC操作座標情報変換部
47 ペン方向算出部
48 ペン識別部
49 操作情報通信部
50 撮影制御部
51 ペン接触検知部
52 ペン方向検知部
53 ペン情報通信部
特開2012−185798号公報

Claims (5)

  1. 投影面に投影画像を投影する投影部と、
    前記投影面を操作する指示体から送信される、前記指示体の固有識別情報および操作方向を示す第1の操作方向情報を受信する受信部と、
    前記投影面を撮影する撮影部と、
    前記撮影部で撮影された複数の撮影画像から、前記投影面を操作する前記指示体の操作方向を示す第2の操作方向情報を生成する生成部と、
    前記第1の操作方向情報に合致する前記第2の操作方向情報と、前記固有識別情報とを関連付ける関連付け部と、
    関連付けられた前記固有識別情報および前記第2の操作方向情報を含む操作情報を生成する操作情報生成部と、
    生成された前記操作情報を被制御機器に送信する送信部と
    を有するプロジェクタ装置。
  2. 前記撮影部で撮影された前記撮影画像から、前記投影面を操作する前記指示体の数を検出する指示体数検出部を、さらに備え、
    前記関連付け部は、検出された前記指示体の数が単数である場合、前記関連付けの処理を停止し、
    前記操作情報生成部は、検出された前記指示体の数が単数である場合、前記受信部で受信された前記指示体の前記固有識別情報、および、前記生成部で生成された前記第2の操作方向情報を含む操作情報を生成すること
    を特徴とする請求項1に記載のプロジェクタ装置。
  3. 受信された前記固有識別情報のうち、異なる前記固有識別情報の数を、前記投影面を操作する前記指示体の数として検出する第1の数検出部と、
    前記撮影部で撮影された前記撮影画像から、前記指示体の数を検出する第2の数検出部と、をさらに備え、
    前記関連付け部は、前記第1の数検出部で検出された前記指示体の数と、前記第2の数検出部で検出された前記指示体の数とが異なる場合、前記生成部で検出された前記第2の操作方向情報のうち、前記第1の操作方向情報に合致する前記第2の操作方向情報と、当該第1の操作方向情報と共に受信された前記固有識別情報とを関連付けし、
    前記操作情報生成部は、関連付けされた前記固有識別情報および前記第2の操作方向情報を含む操作情報を生成すると共に、関連付けする前記固有識別情報が存在しない前記第2の操作方向情報を含む操作情報を生成すること
    を特徴とする請求項1または請求項2に記載のプロジェクタ装置。
  4. 操作情報に対応する投影画像を生成する投影画像生成部と、
    生成された投影画像を投影面に投影する投影部と、
    前記投影面を操作する指示体から送信される、前記指示体の固有識別情報および操作方向を示す第1の操作方向情報を受信する受信部と、
    前記投影面を撮影する撮影部と、
    前記撮影部で撮影された複数の撮影画像から、前記投影面を操作する前記指示体の操作方向を示す第2の操作方向情報を生成する生成部と、
    前記第1の操作方向情報に合致する前記第2の操作方向情報と、前記固有識別情報とを関連付ける関連付け部と、
    関連付けられた前記固有識別情報および前記第2の操作方向情報を含む操作情報を生成する操作情報生成部と、
    生成された前記操作情報を前記投影画像生成部に送信する送信部と
    を有するインタラクティブシステム。
  5. 投影画像生成部が、操作情報に対応する投影画像を生成する投影画像生成ステップと、
    投影部が、生成された前記投影画像を投影面に投影する投影ステップと、
    受信部が、前記投影画像の前記投影面を操作する指示体から送信される、前記指示体の固有識別情報および操作方向を示す第1の操作方向情報を受信する受信ステップと、
    撮影部が、前記投影面を撮影する撮影ステップと、
    生成部が、撮影された複数の撮影画像から、前記投影面を操作する前記指示体の操作方向を示す第2の操作方向情報を生成する生成ステップと、
    関連付け部が、前記第1の操作方向情報に合致する前記第2の操作方向情報と、前記固有識別情報とを関連付けする関連付けステップと、
    操作情報生成部が、関連付けされた前記固有識別情報および前記第2の操作方向情報を含む操作情報を生成する操作情報生成ステップと、
    送信部が、生成された前記操作情報を投影画像生成部に送信する送信ステップと
    を有するインタラクティブ制御方法。
JP2014137201A 2014-07-02 2014-07-02 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 Expired - Fee Related JP6340958B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014137201A JP6340958B2 (ja) 2014-07-02 2014-07-02 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
US14/744,530 US20160004337A1 (en) 2014-07-02 2015-06-19 Projector device, interactive system, and interactive control method
EP15174353.1A EP2963528B1 (en) 2014-07-02 2015-06-29 Projector device, interactive system, and interactive control method
CN201510386121.9A CN105323520B (zh) 2014-07-02 2015-06-30 投影仪设备、交互***和交互控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137201A JP6340958B2 (ja) 2014-07-02 2014-07-02 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法

Publications (2)

Publication Number Publication Date
JP2016015649A JP2016015649A (ja) 2016-01-28
JP6340958B2 true JP6340958B2 (ja) 2018-06-13

Family

ID=53510678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137201A Expired - Fee Related JP6340958B2 (ja) 2014-07-02 2014-07-02 プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法

Country Status (4)

Country Link
US (1) US20160004337A1 (ja)
EP (1) EP2963528B1 (ja)
JP (1) JP6340958B2 (ja)
CN (1) CN105323520B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105072430B (zh) * 2015-08-19 2017-10-03 海信集团有限公司 一种调整投影图像的方法和设备
US20180373392A1 (en) * 2015-12-21 2018-12-27 Sony Corporation Information processing device and information processing method
CN112416149A (zh) * 2016-03-08 2021-02-26 禾瑞亚科技股份有限公司 侦测触控笔的倾斜角的触控控制装置与其控制方法
CN106528016A (zh) * 2016-10-31 2017-03-22 努比亚技术有限公司 一种信息处理方法及终端
JP6763554B2 (ja) * 2016-12-22 2020-09-30 Necディスプレイソリューションズ株式会社 カメラ装置、電子黒板システム及び描画信号生成方法
TWI700003B (zh) * 2017-06-12 2020-07-21 李霈恩 客製化動態影音場景生成系統
JP2019159748A (ja) 2018-03-13 2019-09-19 セイコーエプソン株式会社 画像投写システム、指示体及び画像投写システムの制御方法
CN113391709B (zh) * 2021-08-17 2021-11-19 深圳雷柏科技股份有限公司 基于蓝牙连接的红外定位笔教学***及应用方法
JP7162813B1 (ja) 2022-03-04 2022-10-31 チームラボ株式会社 お絵描き用の表示制御システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3579096B2 (ja) * 1994-09-27 2004-10-20 株式会社日立製作所 表示装置
JP2009043139A (ja) * 2007-08-10 2009-02-26 Mitsubishi Electric Corp 位置検出装置
US9350923B2 (en) * 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
JP5733941B2 (ja) * 2010-10-07 2015-06-10 株式会社タイトー ゲーム装置およびゲームシステム
JP2012185798A (ja) 2011-02-16 2012-09-27 Ricoh Co Ltd 座標検出システム、情報処理装置、方法、プログラムおよび記録媒体
JP6141596B2 (ja) * 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法
US20130342704A1 (en) * 2012-06-23 2013-12-26 VillageTech Solutions Interactive audiovisual device
GB2508840B (en) * 2012-12-12 2015-10-21 Modular Software Ltd T A Reflective Thinking Method and apparatus for tracking the movement of a plurality of pointer devices within a scene

Also Published As

Publication number Publication date
EP2963528A1 (en) 2016-01-06
US20160004337A1 (en) 2016-01-07
EP2963528B1 (en) 2017-04-26
CN105323520B (zh) 2018-08-24
CN105323520A (zh) 2016-02-10
JP2016015649A (ja) 2016-01-28

Similar Documents

Publication Publication Date Title
JP6340958B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
JP6442893B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
JP2001236179A (ja) 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US20170085848A1 (en) Information processing device, projector and information processing method
JP2017009829A (ja) 画像投影装置、画像投影システムおよび映像供給装置
US20120218294A1 (en) Projection-type image display apparatus
US20150138512A1 (en) Information processing apparatus, image projecting apparatus, and method for providing distortion correction instruction
CN107203287B (zh) 电子设备以及电子设备的控制方法
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP6349886B2 (ja) 画像投射装置、画像投射装置の制御方法、および画像投射装置の制御プログラム
JP2017010314A (ja) 画像投影システム、画像投影装置、ポインティングデバイス、および映像供給装置
JP6137247B2 (ja) プロジェクタ装置及びプロジェクタシステム
JP2004265235A (ja) プロジェクタシステム、プロジェクタ装置、画像投射方法
US11868544B2 (en) Information processing device, information processing method, program, display system, display method, and electronic writing tool
JP2015156167A (ja) 画像投影装置、画像投影装置の制御方法、および画像投影装置の制御プログラム
JP2016103060A (ja) 画像投影装置、画像投影システムおよび映像供給装置
JP6524741B2 (ja) 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法
JP6300053B2 (ja) プロジェクタ装置及びプロジェクタシステム
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2017182246A (ja) 表示装置および情報処理方法
JP6183084B2 (ja) 画像投影装置及び画像投影方法
JP2017090957A (ja) 画像投影装置および画像投影システム
JP2016103061A (ja) 画像投影システム
JP2018077605A (ja) 表示装置および表示装置の制御方法
JP2017162334A (ja) 情報処理装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180430

R151 Written notification of patent or utility model registration

Ref document number: 6340958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees