JP2018077605A - 表示装置および表示装置の制御方法 - Google Patents
表示装置および表示装置の制御方法 Download PDFInfo
- Publication number
- JP2018077605A JP2018077605A JP2016217818A JP2016217818A JP2018077605A JP 2018077605 A JP2018077605 A JP 2018077605A JP 2016217818 A JP2016217818 A JP 2016217818A JP 2016217818 A JP2016217818 A JP 2016217818A JP 2018077605 A JP2018077605 A JP 2018077605A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- indicator
- display
- information
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】指示体についての機能設定に関する情報を表示可能な表示装置において処理負荷を低減する。【解決手段】表示装置は、画像情報に基づく画像を表示面に表示する表示部と、指示体の表示面に対する姿勢に関する姿勢情報を取得する姿勢情報取得部と、姿勢情報に基づいて、指示体についての機能設定に関する設定情報を、表示部に表示させるか否かを制御する制御部と、を有する。【選択図】図2
Description
本発明は、表示装置および表示装置の制御方法に関する。
画像を表示しているスクリーンに対して指示体(例えば、指または電子ペン)を用いて位置を指示することにより、画像に描画することができるプロジェクターが知られている。このようなプロジェクターでは、指示体に設定される機能(例えば、描画に関する機能)が、スクリーン上のツールバーで示される。ユーザーは、ツールバーを指示体で指示することによって、指示体に対して描画に関する機能を設定する。
特許文献1には、ユーザーが指示体についての機能設定に関する情報を容易に確認できるように、指示体に設定されている機能に応じたアイコンをユーザーの手に常に投射するプロジェクターが記載されている。
特許文献2には、指示体である電子ペンからの信号に応じて、描画に関する電子ペンの機能を設定するペン入力装置が記載されている。特許文献2に記載のペン入力装置では、電子ペン自体に、描画に関する機能を設定するためのスイッチが設けられている。このスイッチの操作に応じて所定の信号が電子ペンから描画部に伝わり、描画部が、その信号に応じて、描画に関する機能を電子ペンに設定する。
特許文献1に記載のプロジェクターのユーザーは、描画を始める前の段階では、指示体に設定されている機能に応じたアイコンを視認することによって、指示体の設定を確認する可能性が高い。一方、描画を始めてしまうと、ユーザーは、実際の描画の結果から指示体に設定されている機能を認識するため、アイコンを視認する可能性が低い。
このように特許文献1に記載のプロジェクターは、アイコンを表示する必要性が低い状況であっても、該アイコン、つまり指示体についての機能設定に関する情報を、表示し続ける。このため、特許文献1に記載のプロジェクターでは、この必要性の低い情報の表示のために処理負荷が大きくなってしまう。
また、特許文献2に記載のペン入力装置では、電子ペンと描画部との間で、電子ペンについての機能設定のための信号をやり取りする必要があり、この信号のやり取りのために処理負荷が大きくなってしまう。
このように特許文献1に記載のプロジェクターは、アイコンを表示する必要性が低い状況であっても、該アイコン、つまり指示体についての機能設定に関する情報を、表示し続ける。このため、特許文献1に記載のプロジェクターでは、この必要性の低い情報の表示のために処理負荷が大きくなってしまう。
また、特許文献2に記載のペン入力装置では、電子ペンと描画部との間で、電子ペンについての機能設定のための信号をやり取りする必要があり、この信号のやり取りのために処理負荷が大きくなってしまう。
本発明は上述した事情に鑑みてなされたものであり、指示体についての機能設定に関する情報を表示可能な表示装置において処理負荷を低減することを解決課題とする。
本発明に係る表示装置の一態様は、画像情報に基づく画像を表示面に表示する表示部と、指示体の前記表示面に対する姿勢に関する姿勢情報を取得する姿勢情報取得部と、前記姿勢情報に基づいて、前記指示体についての機能設定に関する設定情報を、前記表示部に表示させるか否かを制御する制御部と、を有することを特徴とする。
指示体の表示面に対する姿勢が、ユーザーが指示体を使用していないときの指示体の姿勢(例えば、ユーザーがこれから指示体を用いるときの指示体の姿勢)である場合、ユーザーは、設定情報を視認する可能性は高い。
一方、指示体の表示面に対する姿勢が、ユーザーが指示体を使用しているときの指示体の姿勢である場合、ユーザーは、実際の指示体の使用結果から指示体に設定されている機能を認識する。このため、この場合、設定情報を表示する必要性は低い。
つまり、設定情報の必要性の程度は、指示体の表示面に対する姿勢に応じて変化する。
この態様によれば、指示体の表示面に対する姿勢に関する姿勢情報に基づいて、設定情報を表示するか否かが制御される。このため、設定情報の表示を必要に応じて行うことが可能になる。よって、設定情報を常に表示する場合に比べて、表示装置の処理負荷を低減することが可能になる。
また、指示体と表示装置との間で、指示体についての機能設定のための信号をやり取りする必要がないので、この信号のやり取りのために処理負荷が大きくなってしまうことを抑制できる。
指示体の表示面に対する姿勢が、ユーザーが指示体を使用していないときの指示体の姿勢(例えば、ユーザーがこれから指示体を用いるときの指示体の姿勢)である場合、ユーザーは、設定情報を視認する可能性は高い。
一方、指示体の表示面に対する姿勢が、ユーザーが指示体を使用しているときの指示体の姿勢である場合、ユーザーは、実際の指示体の使用結果から指示体に設定されている機能を認識する。このため、この場合、設定情報を表示する必要性は低い。
つまり、設定情報の必要性の程度は、指示体の表示面に対する姿勢に応じて変化する。
この態様によれば、指示体の表示面に対する姿勢に関する姿勢情報に基づいて、設定情報を表示するか否かが制御される。このため、設定情報の表示を必要に応じて行うことが可能になる。よって、設定情報を常に表示する場合に比べて、表示装置の処理負荷を低減することが可能になる。
また、指示体と表示装置との間で、指示体についての機能設定のための信号をやり取りする必要がないので、この信号のやり取りのために処理負荷が大きくなってしまうことを抑制できる。
上述した表示装置の一態様において、前記指示体は、所定部分を有し、前記制御部は、前記所定部分が前記表示面に向いている場合には、前記設定情報を前記表示部に表示させず、前記所定部分が前記表示面に向いていない場合には、前記設定情報を前記表示部に表示させることが望ましい。
例えば、指示体の所定部分が、指示体に設定された機能を実行するために用いられる場合、指示体の所定部分が表示面に向いていない状況は、ユーザーが指示体を使用していない可能性が低い。この状況では、ユーザーは、これから指示体を使用する可能性があり、ユーザーが設定情報を視認する可能性は高い。
一方、指示体の所定部分が表示面に向いている状況は、ユーザーが指示体を使用している可能性が高い。この状況では、ユーザーは、実際の指示体の使用結果から指示体に設定されている機能を認識するため、設定情報を表示する必要性は低い。
この態様によれば、指示体の所定部分が表示面に向いている場合には、設定情報が表示されず、指示体の所定部分が表示面に向いていない場合には、設定情報が表示される。このため、設定情報の表示を必要に応じて行うことが可能になる。
例えば、指示体の所定部分が、指示体に設定された機能を実行するために用いられる場合、指示体の所定部分が表示面に向いていない状況は、ユーザーが指示体を使用していない可能性が低い。この状況では、ユーザーは、これから指示体を使用する可能性があり、ユーザーが設定情報を視認する可能性は高い。
一方、指示体の所定部分が表示面に向いている状況は、ユーザーが指示体を使用している可能性が高い。この状況では、ユーザーは、実際の指示体の使用結果から指示体に設定されている機能を認識するため、設定情報を表示する必要性は低い。
この態様によれば、指示体の所定部分が表示面に向いている場合には、設定情報が表示されず、指示体の所定部分が表示面に向いていない場合には、設定情報が表示される。このため、設定情報の表示を必要に応じて行うことが可能になる。
上述した表示装置の一態様として、前記制御部は、所定時間の間、前記所定部分が前記表示面に向いていない場合に、前記設定情報を前記表示部に表示させることが望ましい。
ユーザーが所定部分を使用していても、所定部分が表示面に向いていない状態が一時的に生じる可能性がある。この一時的に生じた状態に応じて設定情報が表示されても、その設定情報が視認される可能性は低い。
この態様によれば、所定部分が表示面に向いていない状況が所定時間の間継続した場合に、設定情報が表示される。このため、所定部分が表示面に向いていない状態が一時的に生じた際に設定情報が表示されることを抑制可能になる。
ユーザーが所定部分を使用していても、所定部分が表示面に向いていない状態が一時的に生じる可能性がある。この一時的に生じた状態に応じて設定情報が表示されても、その設定情報が視認される可能性は低い。
この態様によれば、所定部分が表示面に向いていない状況が所定時間の間継続した場合に、設定情報が表示される。このため、所定部分が表示面に向いていない状態が一時的に生じた際に設定情報が表示されることを抑制可能になる。
上述した表示装置の一態様として、前記表示面に対する前記指示体の位置を検出する位置検出部をさらに有し、前記表示部は、前記設定情報を、前記指示体の位置に応じて設定された位置に表示することが望ましい。
この態様によれば、設定情報の表示位置を指示体の位置に応じて変更することが可能になる。
この態様によれば、設定情報の表示位置を指示体の位置に応じて変更することが可能になる。
上述した表示装置の一態様として、前記制御部は、さらに、前記指示体が前記表示面から所定距離以上離れており、かつ、前記所定部分が前記表示面に向いていない場合に、前記設定情報を前記表示部に表示させることが望ましい。
指示体が表示面から所定距離以上離れており、かつ、所定部分が表示面に向いていない状況は、ユーザーが指示体を使用していない状況である可能性が高い。
この態様によれば、指示体が表示面から所定距離以上離れており、かつ、所定部分が表示面に向いていない場合に、設定情報が表示される。このため、設定情報を必要なときに表示させることが可能になる。
指示体が表示面から所定距離以上離れており、かつ、所定部分が表示面に向いていない状況は、ユーザーが指示体を使用していない状況である可能性が高い。
この態様によれば、指示体が表示面から所定距離以上離れており、かつ、所定部分が表示面に向いていない場合に、設定情報が表示される。このため、設定情報を必要なときに表示させることが可能になる。
本発明に係る表示装置の制御方法は、画像情報に基づく画像を表示面に表示する表示部を含む表示装置の制御方法であって、指示体の前記表示面に対する姿勢に関する姿勢情報を取得し、前記姿勢情報に基づいて、前記指示体についての機能設定に関する設定情報を、前記表示部に表示させるか否かを制御する、ことを特徴とする。
この態様によれば、指示体の表示面に対する姿勢に関する姿勢情報に基づいて、指示体についての機能設定に関する設定情報を表示するか否かが制御される。このため、設定情報の表示を必要に応じて行うことが可能になる。よって、設定情報を常に表示する場合に比べて、表示装置の処理負荷を低減することが可能になる。
また、指示体と表示装置との間で、指示体についての機能設定のための信号をやり取りする必要がないので、この信号のやり取りのために処理負荷が大きくなってしまうことを抑制できる。
この態様によれば、指示体の表示面に対する姿勢に関する姿勢情報に基づいて、指示体についての機能設定に関する設定情報を表示するか否かが制御される。このため、設定情報の表示を必要に応じて行うことが可能になる。よって、設定情報を常に表示する場合に比べて、表示装置の処理負荷を低減することが可能になる。
また、指示体と表示装置との間で、指示体についての機能設定のための信号をやり取りする必要がないので、この信号のやり取りのために処理負荷が大きくなってしまうことを抑制できる。
以下、図面を参照しながら本発明に係る実施の形態を説明する。なお、図面において各部の寸法および縮尺は実際のものと適宜異なる。また、以下に記載する実施の形態は、本発明の好適な具体例である。このため、本実施形態には、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
<第1実施形態>
図1は、本発明の第1実施形態に係るプロジェクター100を含むプロジェクションシステム1を示した図である。以下、プロジェクションシステム1の概要について説明する。
プロジェクションシステム1は、スクリーンSCの上方に設置されたプロジェクター100と、PC(パーソナルコンピューター)200と、を含んで構成されている。プロジェクター100は表示装置の一例である。スクリーンSCは表示面の一例である。表示面はスクリーンSCに限らず適宜変更可能である。表示面は例えば壁でもよい。プロジェクター100は、PC200から画像情報を受信する。プロジェクター100は、PC200から受信した画像情報に基づく画像をスクリーンSCに投射して表示する。以下、スクリーンSCに表示された画像を「表示画像」とも称する。
図1は、本発明の第1実施形態に係るプロジェクター100を含むプロジェクションシステム1を示した図である。以下、プロジェクションシステム1の概要について説明する。
プロジェクションシステム1は、スクリーンSCの上方に設置されたプロジェクター100と、PC(パーソナルコンピューター)200と、を含んで構成されている。プロジェクター100は表示装置の一例である。スクリーンSCは表示面の一例である。表示面はスクリーンSCに限らず適宜変更可能である。表示面は例えば壁でもよい。プロジェクター100は、PC200から画像情報を受信する。プロジェクター100は、PC200から受信した画像情報に基づく画像をスクリーンSCに投射して表示する。以下、スクリーンSCに表示された画像を「表示画像」とも称する。
指示体300は、例えばペン型のデバイス(以下「電子ペン」と称する)またはユーザーの指である。図1では、指示体300として、先端301が赤外光(IR)を発する電子ペンが示されている。先端301は、指示体300の所定部分の一例である。指示体300の所定部分は、先端301に限らず適宜変更可能である。また、指示体300として人の指が用いられる場合、指の先端が所定部分の一例となる。
指示体300には、1以上の機能が設定される。指示体300の所定部分は、指示体300に設定された機能を実行するために使用される。
指示体300に対して「描画機能」と「操作機能」を択一的に設定することができる。以下、指示体300に「描画機能」を設定するモードを「描画モード」と称し、指示体300に「操作機能」を設定するモードを「マウスモード」と称する。
指示体300に対して「描画機能」と「操作機能」を択一的に設定することができる。以下、指示体300に「描画機能」を設定するモードを「描画モード」と称し、指示体300に「操作機能」を設定するモードを「マウスモード」と称する。
「描画モード」は、指示体300を、表示画像に対してアノテーション(例えば、線または図形)を描画するためのデバイスとして機能させるモードである。
「描画モード」では、ユーザーは、指示体300をスクリーンSC上で動かすことで描画を行うことができる。
また、「描画モード」では、指示体300を用いて描かれる画像の属性(例えば、色、太さおよび線種)を指定する属性指定機能を設定することができる。
さらに、「描画モード」では、指示体300を用いて描かれた画像を指定する画像指定機能と、該画像を消去する消去機能とを個別に設定することができる。
「マウスモード」は、指示体300を、PC200で処理させる指示を入力するためのデバイスとして機能させるモードである。
ここで、描画モード(描画機能)の設定状態、マウスモード(操作機能)の設定状態、属性指定機能の設定状態、画像指定機能の設定状態、および消去機能の設定状態は、それぞれ、指示体300についての機能設定に関する設定情報の一例である。
「描画モード」では、ユーザーは、指示体300をスクリーンSC上で動かすことで描画を行うことができる。
また、「描画モード」では、指示体300を用いて描かれる画像の属性(例えば、色、太さおよび線種)を指定する属性指定機能を設定することができる。
さらに、「描画モード」では、指示体300を用いて描かれた画像を指定する画像指定機能と、該画像を消去する消去機能とを個別に設定することができる。
「マウスモード」は、指示体300を、PC200で処理させる指示を入力するためのデバイスとして機能させるモードである。
ここで、描画モード(描画機能)の設定状態、マウスモード(操作機能)の設定状態、属性指定機能の設定状態、画像指定機能の設定状態、および消去機能の設定状態は、それぞれ、指示体300についての機能設定に関する設定情報の一例である。
プロジェクター100は、設定情報をスクリーンSCに表示することができる。以下、設定情報としてツールバーが用いられる例を説明する。なお、設定情報は、ツールバーに限らず適宜変更可能である。
図1に示されたツールバー400には、複数の機能ボタン401等が配置されている。複数の機能ボタン401は、属性指定機能が割り当てられた機能ボタンと、画像指定機能が割り当てられた機能ボタンと、消去機能が割り当てられた機能ボタンとを含む。
指示体300の操作により、いずれかの機能ボタン401の位置が指示されると、プロジェクター100は、該当する機能ボタン401に割り当てられた機能を、指示体300に設定する。
指示体300の操作により、いずれかの機能ボタン401の位置が指示されると、プロジェクター100は、該当する機能ボタン401に割り当てられた機能を、指示体300に設定する。
ツールバー400には、さらに、描画モードボタン402と、マウスモードボタン403とが配置されている。
指示体300の操作により、描画モードボタン402の位置が指定されると、プロジェクター100は、描画モードを指示体300に設定する。描画モードが設定されると、描画モードボタン402がマウスモードボタン403よりも大きく表示される。
指示体300の操作により、マウスモードボタン403の位置が指定されると、プロジェクター100は、マウスモードを指示体300に設定する。マウスモードが設定されると、マウスモードボタン403が描画モードボタン402よりも大きく表示される。
このため、ユーザーは、描画モードボタン402の大きさとマウスモードボタン403の大きさとを比べることによって、描画モードとマウスモードとのいずれが設定されているかを直感的に認識することができる。
指示体300の操作により、描画モードボタン402の位置が指定されると、プロジェクター100は、描画モードを指示体300に設定する。描画モードが設定されると、描画モードボタン402がマウスモードボタン403よりも大きく表示される。
指示体300の操作により、マウスモードボタン403の位置が指定されると、プロジェクター100は、マウスモードを指示体300に設定する。マウスモードが設定されると、マウスモードボタン403が描画モードボタン402よりも大きく表示される。
このため、ユーザーは、描画モードボタン402の大きさとマウスモードボタン403の大きさとを比べることによって、描画モードとマウスモードとのいずれが設定されているかを直感的に認識することができる。
プロジェクター100は、指示体300のスクリーンSCに対する姿勢に基づいて、ツールバー400をスクリーンSCに表示するか否かを制御する。
指示体300の先端301がスクリーンSCに向いていない場合、ユーザーが指示体300を使用していない可能性が低い。この状況では、ユーザーは、これから指示体300を使用する可能性があり、ユーザーが指示体300についての機能設定を確認するためにツールバー400を視認する可能性は高い。このため、指示体300の先端301がスクリーンSCに向いていない場合、プロジェクター100は、ツールバー400をスクリーンSCに表示する。
一方、指示体300の先端301がスクリーンSCに向いている場合、ユーザーが指示体300を使用している可能性が高い。この状況では、ユーザーは、実際の指示体300の使用結果から指示体300の機能設定を認識するため、ユーザーがツールバー400を視認する可能性は低い。このため、指示体300の先端301がスクリーンSCに向いている場合、プロジェクター100は、ツールバー400をスクリーンSCに表示しない。
次に、本実施形態の詳細について説明する。
図2は、プロジェクター100を示した図である。
プロジェクター100は、設定管理部101と、IRフィルター付きカメラ102と、ペン位置検出部103と、位置通知部104と、画像情報入力部105と、カメラ106aおよび106bと、オブジェクト識別部107と、判定部108と、描画部109と、画像処理部110と、投射部111と、を含んで構成されている。設定管理部101と判定部108と描画部109と画像処理部110とは、制御部112に含まれる。
図2は、プロジェクター100を示した図である。
プロジェクター100は、設定管理部101と、IRフィルター付きカメラ102と、ペン位置検出部103と、位置通知部104と、画像情報入力部105と、カメラ106aおよび106bと、オブジェクト識別部107と、判定部108と、描画部109と、画像処理部110と、投射部111と、を含んで構成されている。設定管理部101と判定部108と描画部109と画像処理部110とは、制御部112に含まれる。
設定管理部101は、指示体300についてのモード(描画モードとマウスモード)の設定状態を管理する。さらに、設定管理部101は、ツールバー400の機能ボタン401に割り当てられた機能が指示体300に設定されているか否かを管理する。
指示体300へのモードの設定と、機能ボタン401に割り当てられた機能についての指示体300への設定は、ツールバー400に対する指示体300の操作によって実行される。
指示体300へのモードの設定と、機能ボタン401に割り当てられた機能についての指示体300への設定は、ツールバー400に対する指示体300の操作によって実行される。
IRフィルター付きカメラ102は、IRフィルター(不図示)を介してスクリーンSCを撮像して第1撮影画像を生成する。このため、指示体300として、上述した先端301が発光する電子ペンが用いられた場合、第1撮影画像には、電子ペンの先端301で発光した赤外光が示される。
ペン位置検出部103は、第1撮影画像に基づいて、スクリーンSCに対する先端301の位置を検出する。具体的には、ペン位置検出部103は、第1撮影画像に示されたスクリーンSC上の赤外光の位置を、スクリーンSCに対する先端301の位置として検出する。ペン位置検出部103は、位置検出部の一例である。ペン位置検出部103は、スクリーンSCに対する先端301の位置を示す先端位置情報を、設定管理部101と描画部109とに出力する。
設定管理部101では、先端位置情報が示す位置に応じて、指示体300へのモードの設定と、機能ボタン401に割り当てられた機能についての指示体300への設定とがそれぞれ変更される。
描画部109での先端位置情報の使われ方については後述する。
また、ペン位置検出部103は、マウスモードでは、先端位置情報を位置通知部104にも出力する。位置通知部104は、先端位置情報をPC200に送信する。
設定管理部101では、先端位置情報が示す位置に応じて、指示体300へのモードの設定と、機能ボタン401に割り当てられた機能についての指示体300への設定とがそれぞれ変更される。
描画部109での先端位置情報の使われ方については後述する。
また、ペン位置検出部103は、マウスモードでは、先端位置情報を位置通知部104にも出力する。位置通知部104は、先端位置情報をPC200に送信する。
画像情報入力部105は、PC200から画像情報を受信する。
カメラ106aは、スクリーンSCを繰り返し撮像し、撮像を行うごとに第2撮影画像を生成する。カメラ106aは、第2撮影画像を生成するごとに、第2撮影画像をオブジェクト識別部107に出力する。
カメラ106bは、カメラ106aとは異なる位置からカメラ106aの撮像タイミングに同期してスクリーンSCを撮像し、撮像を行うごとに第3撮影画像を生成する。カメラ106bは、第3撮影画像を生成するごとに、第3撮影画像をオブジェクト識別部107に出力する。
カメラ106aは、スクリーンSCを繰り返し撮像し、撮像を行うごとに第2撮影画像を生成する。カメラ106aは、第2撮影画像を生成するごとに、第2撮影画像をオブジェクト識別部107に出力する。
カメラ106bは、カメラ106aとは異なる位置からカメラ106aの撮像タイミングに同期してスクリーンSCを撮像し、撮像を行うごとに第3撮影画像を生成する。カメラ106bは、第3撮影画像を生成するごとに、第3撮影画像をオブジェクト識別部107に出力する。
オブジェクト識別部107は、第2撮影画像および第3撮影画像に基づいて、ユーザーの手および電子ペン等のオブジェクトを識別する。また、オブジェクト識別部107は、スクリーンSCに対する指示体300の姿勢に関する姿勢情報を取得する。オブジェクト識別部107は、姿勢情報取得部の一例である。
以下、オブジェクト識別部107について説明する。
以下、オブジェクト識別部107について説明する。
まず、オブジェクト識別部107は、カメラ106aの画角に指示体300が存在しない状態でカメラ106aがスクリーンSCを撮像して生成した基準画像と、第2撮影画像とを比較する。続いて、オブジェクト識別部107は、その比較結果を解析して、ユーザーの手が存在するか否か、および、電子ペンが存在するか否かを識別する。
オブジェクト識別部107は、ユーザーの手と電子ペンとの両方を識別した場合、つまり、電子ペンが指示体300として用いられている可能性が高い場合、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、ユーザーの手の3次元座標位置と、電子ペンの3次元座標位置とを検出する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCの法線方向におけるユーザーの手とスクリーンSCとの距離Lを検出する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCに対する電子ペンの姿勢を表す姿勢情報を生成する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCの法線方向におけるユーザーの手とスクリーンSCとの距離Lを検出する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCに対する電子ペンの姿勢を表す姿勢情報を生成する。
例えば、オブジェクト識別部107は、以下のように、電子ペンの姿勢を表す姿勢情報を生成する。
オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCの法線に対する電子ペンの長手方向の傾き角度を検出する。
そして、オブジェクト識別部107は、電子ペンの長手方向の傾き角度が所定角度(例えば、45度)以内であり、かつ、電子ペンの先端がスクリーンSCに向いている場合、電子ペンがスクリーンSCに向いている旨を示す姿勢情報を生成する。なお、所定角度は、適宜変更可能である。
一方、オブジェクト識別部107は、電子ペンの長手方向の傾き角度が所定角度よりも大きい場合、および、電子ペンの先端がスクリーンSCに向いていない場合、電子ペンがスクリーンSCに向いていない旨を示す姿勢情報を生成する。
オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCの法線に対する電子ペンの長手方向の傾き角度を検出する。
そして、オブジェクト識別部107は、電子ペンの長手方向の傾き角度が所定角度(例えば、45度)以内であり、かつ、電子ペンの先端がスクリーンSCに向いている場合、電子ペンがスクリーンSCに向いている旨を示す姿勢情報を生成する。なお、所定角度は、適宜変更可能である。
一方、オブジェクト識別部107は、電子ペンの長手方向の傾き角度が所定角度よりも大きい場合、および、電子ペンの先端がスクリーンSCに向いていない場合、電子ペンがスクリーンSCに向いていない旨を示す姿勢情報を生成する。
オブジェクト識別部107は、距離Lと、電子ペンの3次元座標位置と、ユーザーの手の3次元座標位置とを検出し、姿勢情報を生成すると、距離Lと、姿勢情報と、電子ペンの3次元座標位置と、ユーザーの手の3次元座標位置とを、判定部108に出力する。
一方、オブジェクト識別部107は、電子ペンを識別できずにユーザーの手を識別した場合、つまり、ユーザーの指が指示体300として用いられている可能性が高い場合、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、ユーザーの指の先端の位置を検出する。この場合、オブジェクト識別部107は、位置検出部としても機能する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、距離Lを検出する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCに対するユーザーの指の姿勢を表す姿勢情報を生成する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、距離Lを検出する。
さらに、オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、スクリーンSCに対するユーザーの指の姿勢を表す姿勢情報を生成する。
例えば、オブジェクト識別部107は、以下のように、ユーザーの指の姿勢を表す姿勢情報を生成する。
オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、1本の指の先端でスクリーンSCが指示されているか否かを判断する。
一本の指の先端でスクリーンSCが指示されている場合、オブジェクト識別部107は、スクリーンSCの法線に対する指の長さ方向の傾き角度を検出する。
そして、オブジェクト識別部107は、指の長さ方向の傾き角度が所定角度以内である場合、指がスクリーンSCに向いている旨を示す姿勢情報を生成する。
一方、オブジェクト識別部107は、指の長さ方向の傾き角度が所定角度よりも大きい場合、および、1本の指の指先でスクリーンSCが指示されていない場合、指がスクリーンSCに向いていない旨を示す姿勢情報を生成する。
オブジェクト識別部107は、撮像タイミングが互いに同期した第2撮影画像と第3撮影画像とを用いて、1本の指の先端でスクリーンSCが指示されているか否かを判断する。
一本の指の先端でスクリーンSCが指示されている場合、オブジェクト識別部107は、スクリーンSCの法線に対する指の長さ方向の傾き角度を検出する。
そして、オブジェクト識別部107は、指の長さ方向の傾き角度が所定角度以内である場合、指がスクリーンSCに向いている旨を示す姿勢情報を生成する。
一方、オブジェクト識別部107は、指の長さ方向の傾き角度が所定角度よりも大きい場合、および、1本の指の指先でスクリーンSCが指示されていない場合、指がスクリーンSCに向いていない旨を示す姿勢情報を生成する。
オブジェクト識別部107は、距離Lとユーザーの指の先端の位置とを検出し、姿勢情報を生成すると、距離Lと、姿勢情報と、ユーザーの指の先端の位置とを、判定部108に出力する。
判定部108は、距離Lと、姿勢情報と、ユーザーの指の先端の位置とを受け取った場合には、距離Lと、姿勢情報とに基づいて、ツールバー400を表示するか否かを判定する。
例えば、判定部108は、スクリーンSCの法線方向においてユーザーの手がスクリーンSCから第1距離L1(例えば、20cm)以上離れており(距離L≧第1距離L1)、かつ、所定時間(例えば1秒)の間、指示体300の先端(この場合、指の先端)がスクリーンSCに向いている場合、ツールバー400を表示すると判定する。第1距離L1は、20cmに限らず適宜変更可能である。所定時間は1秒に限らず適宜変更可能である。
例えば、判定部108は、スクリーンSCの法線方向においてユーザーの手がスクリーンSCから第1距離L1(例えば、20cm)以上離れており(距離L≧第1距離L1)、かつ、所定時間(例えば1秒)の間、指示体300の先端(この場合、指の先端)がスクリーンSCに向いている場合、ツールバー400を表示すると判定する。第1距離L1は、20cmに限らず適宜変更可能である。所定時間は1秒に限らず適宜変更可能である。
一方、判定部108は、距離Lと、姿勢情報と、電子ペンの3次元座標位置と、ユーザーの手の3次元座標位置とを受け取った場合には、距離Lと、姿勢情報と、電子ペンの3次元座標位置と、ユーザーの手の3次元座標位置とに基づいて、ツールバー400を表示するか否かを判定する。
例えば、判定部108は、スクリーンSCの法線方向においてユーザーの手がスクリーンSCから第1距離L1以上離れており(距離L≧第1距離L1)、ユーザーの手と電子ペンとの距離が第2距離L2(例えば10cm)以内であり、かつ、所定時間の間、指示体300の先端(この場合、電子ペンの先端301)がスクリーンSCに向いている場合、ツールバー400を表示すると判定する。なお、第2距離L2は、10cmに限らず適宜変更可能である。
判定部108は、判定結果を描画部109に出力する。
なお、判定部108は、ユーザーの指の先端の位置をオブジェクト識別部107から受け取った場合には、判定結果に加えて、ユーザーの指の先端の位置も描画部109に出力する。
例えば、判定部108は、スクリーンSCの法線方向においてユーザーの手がスクリーンSCから第1距離L1以上離れており(距離L≧第1距離L1)、ユーザーの手と電子ペンとの距離が第2距離L2(例えば10cm)以内であり、かつ、所定時間の間、指示体300の先端(この場合、電子ペンの先端301)がスクリーンSCに向いている場合、ツールバー400を表示すると判定する。なお、第2距離L2は、10cmに限らず適宜変更可能である。
判定部108は、判定結果を描画部109に出力する。
なお、判定部108は、ユーザーの指の先端の位置をオブジェクト識別部107から受け取った場合には、判定結果に加えて、ユーザーの指の先端の位置も描画部109に出力する。
描画部109は、判定部108の判定結果に加えてユーザーの指の先端の位置を受け取ると、判定結果がツールバー400を表示する旨を示すか否かを判断する。
判定結果がツールバー400を表示する旨を示す場合、描画部109は、ユーザーの指の先端の位置に応じて設定された位置に、設定管理部101が管理している設定状態をツールバー400で示したツールバー画像情報を生成する。
ユーザーの指の先端の位置に応じて設定された位置は、例えば、画面上で、ユーザーの指の先端の位置よりも上側の位置である。なお、ユーザーの指の先端の位置に応じて設定された位置は適宜変更可能である。
判定結果がツールバー400を表示する旨を示す場合、描画部109は、ユーザーの指の先端の位置に応じて設定された位置に、設定管理部101が管理している設定状態をツールバー400で示したツールバー画像情報を生成する。
ユーザーの指の先端の位置に応じて設定された位置は、例えば、画面上で、ユーザーの指の先端の位置よりも上側の位置である。なお、ユーザーの指の先端の位置に応じて設定された位置は適宜変更可能である。
また、描画部109は、ユーザーの指の先端の位置を受け取らずに判定部108の判定結果を受け取ると、判定結果がツールバー400を表示する旨を示すか否かを判断する。
判定結果がツールバー400を表示する旨を示す場合、描画部109は、ペン位置検出部103から受け取った先頭位置情報が示す位置に応じて設定された位置に、設定管理部101が管理している設定状態をツールバー400で示したツールバー画像情報を生成する。
先頭位置情報が示す位置に応じて設定された位置は、例えば、画面上で、先頭位置情報が示す位置よりも上側の位置である。なお、先頭位置情報が示す位置に応じて設定された位置は適宜変更可能である。
判定結果がツールバー400を表示する旨を示す場合、描画部109は、ペン位置検出部103から受け取った先頭位置情報が示す位置に応じて設定された位置に、設定管理部101が管理している設定状態をツールバー400で示したツールバー画像情報を生成する。
先頭位置情報が示す位置に応じて設定された位置は、例えば、画面上で、先頭位置情報が示す位置よりも上側の位置である。なお、先頭位置情報が示す位置に応じて設定された位置は適宜変更可能である。
描画部109は、ツールバー画像情報を生成すると、ツールバー画像情報を画像処理部110に出力する。
なお、描画部109は、描画モードでは、先端位置情報が示す位置に、線等の画像を表す描画情報を生成する。描画部109は、描画情報を生成すると、描画情報を画像処理部110に出力する。
画像処理部110は、描画情報を受け取った場合、画像情報入力部105から受け取った画像情報の表す画像上に描画情報の表す画像を合成した合成画像を示す合成画像情報を生成する。
画像処理部110は、ツールバー情報画像を受け取った場合、画像情報入力部105から受け取った画像情報の表す画像上にツールバー画像情報の表すツールバーを合成した合成画像を示す合成画像情報を生成する。
画像処理部110は、描画情報とツールバー画像情報とを受け取った場合、画像情報入力部105から受け取った画像情報の表す画像上に、描画情報の表す画像とツールバー画像情報の表すツールバーとを合成した合成画像を示す合成画像情報を生成する。
画像処理部110は、合成画像情報を投射部111に出力する。
なお、画像処理部110は、描画情報とツールバー画像情報とのいずれも受け取っていない場合、画像情報入力部105から受信した画像情報を投射部111に出力する。
なお、画像処理部110は、描画情報とツールバー画像情報とのいずれも受け取っていない場合、画像情報入力部105から受信した画像情報を投射部111に出力する。
投射部111は、表示部の一例である。表示部はスクリーンSC(表示面)を含まない。
投射部111は、合成画像情報を受け取った場合、合成画像情報に応じた合成画像をスクリーンSCに投射して表示する。また、投射部111は、画像情報を受け取った場合、画像情報に応じた画像をスクリーンSCに投射して表示する。
投射部111は、合成画像情報を受け取った場合、合成画像情報に応じた合成画像をスクリーンSCに投射して表示する。また、投射部111は、画像情報を受け取った場合、画像情報に応じた画像をスクリーンSCに投射して表示する。
制御部112は、ツールバー400を投射部111に投射させて表示させるか否かを制御する。例えば、制御部112は、指示体300のスクリーンSCに対する姿勢を示す姿勢情報に基づいて、ツールバー400を投射部111に投射させて表示させるか否かを制御する。
次に、動作を説明する。
図3は、プロジェクター100の動作を説明するためのフローチャートである。
オブジェクト識別部107は、カメラ106aが生成した第2撮影画像を用いて、ユーザーの手が存在するか否か、および、電子ペンが存在するか否かを識別する。
図3は、プロジェクター100の動作を説明するためのフローチャートである。
オブジェクト識別部107は、カメラ106aが生成した第2撮影画像を用いて、ユーザーの手が存在するか否か、および、電子ペンが存在するか否かを識別する。
まず、オブジェクト識別部107は、基準画像(カメラ106aの画角に指示体300が存在しない状態でカメラ106aがスクリーンSCを撮像して生成した画像)と、第2撮影画像とを比較する。続いて、オブジェクト識別部107は、その比較結果を解析して、ユーザーの手が存在するか否か、および、電子ペンが存在するか否かを識別する。
オブジェクト識別部107は、ユーザーの手と電子ペンとの両方を識別した場合、つまり、電子ペンが指示体300として用いられている可能性が高い場合、ユーザーの手の3次元座標位置と、電子ペンの3次元座標位置と、距離Lとを検出し、さらに、スクリーンSCに対する電子ペンの姿勢を表す姿勢情報を生成する。
続いて、オブジェクト識別部107は、距離Lと、姿勢情報と、電子ペンの3次元座標位置と、ユーザーの手および指の3次元座標位置とを、判定部108に出力する。
続いて、オブジェクト識別部107は、距離Lと、姿勢情報と、電子ペンの3次元座標位置と、ユーザーの手および指の3次元座標位置とを、判定部108に出力する。
一方、オブジェクト識別部107は、電子ペンを識別できずにユーザーの手を識別した場合、つまり、ユーザーの指が指示体300として用いられている可能性が高い場合、ユーザーの指の先端の位置と、距離Lとを検出し、スクリーンSCに対するユーザーの指の姿勢を表す姿勢情報を生成する。
続いて、オブジェクト識別部107は、距離Lと、姿勢情報と、ユーザーの指の先端の位置とを、判定部108に出力する。
続いて、オブジェクト識別部107は、距離Lと、姿勢情報と、ユーザーの指の先端の位置とを、判定部108に出力する。
判定部108は、オブジェクト識別部107から種々の情報を受け取ると、ユーザーの手がスクリーンSCから第1距離L1以上離れているか否か、具体的には、距離L≧第1距離L1が満たされるか否かを判断する(ステップS301)。
距離L≧第1距離L1が満たされる場合(ステップS301:YES)、判定部108は、ユーザーの手と電子ペンとの間の距離が第2距離L2以下であるか否かを判断する(ステップS302)。ユーザーの手と電子ペンとの間の距離が第2距離L2以下である場合、電子ペンが使用されている可能性が高い。一方、ユーザーの手と電子ペンとの間の距離が第2距離L2よりも長い場合、電子ペンが使用されている可能性が低い。
ステップS302では、判定部108は、ユーザーの手の3次元座標位置と電子ペンの3次元座標位置とを用いてユーザーの手と電子ペンとの間の距離を決定する。なお、判定部108は、電子ペンの3次元座標位置を受信していない場合には、ユーザーの手と電子ペンとの間の距離は第2距離L2以下ではないと判定する。
ステップS302では、判定部108は、ユーザーの手の3次元座標位置と電子ペンの3次元座標位置とを用いてユーザーの手と電子ペンとの間の距離を決定する。なお、判定部108は、電子ペンの3次元座標位置を受信していない場合には、ユーザーの手と電子ペンとの間の距離は第2距離L2以下ではないと判定する。
ユーザーの手と電子ペンとの間の距離が第2距離L2以下であると(ステップS302:YES)、判定部108は、姿勢情報を用いて、電子ペンがスクリーンSCに向いているか否かを判断する(ステップS303)。
電子ペンがスクリーンSCに向いていない場合(ステップS303:NO)、判定部108は、所定時間、電子ペンが静止しているか否かを判定する(ステップS304)。
ステップS304では、判定部108は、オブジェクト識別部107から継続的に送られてくる電子ペンの3次元座標位置の間のずれ量が、所定時間の間、第1閾値以下に維持されている場合に、所定時間、電子ペンが静止していると判定する。一方、判定部108は、該ずれ量が、所定時間の間に第1閾値を超えた場合に、所定時間、電子ペンが静止していないと判定する。
ステップS304では、判定部108は、オブジェクト識別部107から継続的に送られてくる電子ペンの3次元座標位置の間のずれ量が、所定時間の間、第1閾値以下に維持されている場合に、所定時間、電子ペンが静止していると判定する。一方、判定部108は、該ずれ量が、所定時間の間に第1閾値を超えた場合に、所定時間、電子ペンが静止していないと判定する。
所定時間、電子ペンが静止している場合(ステップS304:YES)、判定部108は、ツールバー400を表示すると判定し、その判定結果を描画部109に出力する。
描画部109は、ツールバー400を表示する旨の判定結果を受け取ると、ペン位置検出部103からの先頭位置情報が示す位置に応じて設定された位置に、設定管理部101が管理している設定状態を示したツールバー400を表すツールバー画像情報を生成する。描画部109は、ツールバー画像情報を生成すると、ツールバー画像情報を画像処理部110に出力する。
画像処理部110は、ツールバー画像情報を受け取ると、画像情報入力部105から受け取った画像情報の表す画像上にツールバー画像情報の表すツールバー400を合成した合成画像を示す合成画像情報を生成し、その合成画像情報を投射部111に出力する。
投射部111は、合成画像情報を受け取ると、合成画像情報に応じた合成画像をスクリーンSCに投射してツールバー400を表示する(ステップS305)。
画像処理部110は、ツールバー画像情報を受け取ると、画像情報入力部105から受け取った画像情報の表す画像上にツールバー画像情報の表すツールバー400を合成した合成画像を示す合成画像情報を生成し、その合成画像情報を投射部111に出力する。
投射部111は、合成画像情報を受け取ると、合成画像情報に応じた合成画像をスクリーンSCに投射してツールバー400を表示する(ステップS305)。
一方、ステップS302でユーザーの手と電子ペンとの間の距離が第2距離L2よりも長いと(ステップS302:NO)、判定部108は、姿勢情報を用いて、指がスクリーンSCに向いているか否かを判断する(ステップS306)。
指がスクリーンSCに向いていない場合(ステップS306:NO)、判定部108は、所定時間、指が静止しているか否かを判定する(ステップS307)。
ステップS307では、判定部108は、オブジェクト識別部107から継続的に送られてくるユーザーの指の先端の位置の間のずれ量が、所定時間の間、第2閾値以下になっている場合に、所定時間、指が静止していると判断する。一方、判定部108は、該ずれ量が、所定時間の間、第2閾値を超えた場合に、所定時間、指が静止していないと判断する。なお、第2閾値は、第1閾値と共通の値でもよいし、第1閾値とは異なる値でもよい。
ステップS307では、判定部108は、オブジェクト識別部107から継続的に送られてくるユーザーの指の先端の位置の間のずれ量が、所定時間の間、第2閾値以下になっている場合に、所定時間、指が静止していると判断する。一方、判定部108は、該ずれ量が、所定時間の間、第2閾値を超えた場合に、所定時間、指が静止していないと判断する。なお、第2閾値は、第1閾値と共通の値でもよいし、第1閾値とは異なる値でもよい。
所定時間、指が静止している場合(ステップS307:YES)、判定部108は、ツールバー400を表示すると判断し、その判断結果を描画部109に出力する。以下、ステップS305が実行される。
ステップS301で距離Lが第1距離L1よりも短いと(ステップS301:NO)、判定部108は、ツールバー400を表示しないと判定する。この判定は、ユーザーの指がスクリーンSCに近いため、ユーザーが指示体300(ユーザーの指または電子ペン)を使用している可能性が高く、ユーザーがツールバー400を視認する可能性が低いことに起因する。判定部108は、その判定結果を描画部109に出力する。
描画部109は、ツールバー400を表示しない旨の判定結果を受け取ると、ツールバー画像情報を画像処理部110に出力している場合にはツールバー画像情報の出力を停止する。このため、ツールバー400の表示が終了する。
描画部109は、ツールバー400を表示しない旨の判定結果を受け取ると、ツールバー画像情報を画像処理部110に出力している場合にはツールバー画像情報の出力を停止する。このため、ツールバー400の表示が終了する。
ステップS303で電子ペンがスクリーンSCに向いている場合(ステップS303:YES)、判定部108は、ツールバー400を表示しないと判定する。この判定は、電子ペンがスクリーンSCに向いている場合、ユーザーが指示体300(電子ペン)を使用している可能性が高く、ユーザーがツールバー400を視認する可能性が低いことに起因する。判定部108は、その判定結果を描画部109に出力する。描画部109が、ツールバー400を表示しない旨の判定結果を受け取ったときの動作は上述した通りである。
ステップS306で指がスクリーンSCに向いている場合(ステップS306:YES)、判定部108は、ツールバー400を表示しないと判定する。この判定は、指がスクリーンSCに向いているため、ユーザーが指示体300(指)を使用している可能性が高く、ユーザーがツールバー400を視認する可能性が低いことに起因する。判定部108は、その判定結果を描画部109に出力する。描画部109が、ツールバー400を表示しない旨の判定結果を受け取ったときの動作は上述した通りである。
ステップS304で、所定時間、電子ペンが静止していない場合(ステップS304:NO)、判定部108は、ツールバー400を表示しないと判定する。この判定は、電子ペンが静止していないため、電子ペンが使用されている可能性が高く、ユーザーがツールバー400を視認する可能性が低いことに起因する。判定部108は、その判定結果を描画部109に出力する。描画部109が、ツールバー400を表示しない旨の判定結果を受け取ったときに動作は上述した通りである。
ステップS307で、所定時間、指が静止していない場合(ステップS307:NO)、判定部108は、ツールバー400を表示しないと判定する。この判定は、指が静止しておらず、指が使用されている可能性が高く、ユーザーがツールバー400を視認する可能性が低いことに起因する。判定部108は、その判定結果を描画部109に出力する。描画部109が、ツールバー400を表示しない旨の判定結果を受け取ったときの動作は上述した通りである。
図4は、ツールバー400が表示される状況Aとツールバー400表示されない状況Bの一例を示した図である。
図4に示した状況Aでは、ユーザーの手Hは、スクリーンSCの法線方向においてスクリーンSCから第1距離L1以上離れており、電子ペンP(指示体300)の向きはスクリーンSCに向いておらず、所定時間の間、電子ペンPが静止している。このため、例えば図5に示したように、ツールバー400がスクリーンSCに表示される。
一方、図4に示した状況Bでは、電子ペンP(指示体300)がスクリーンSCに向いている。このため、ツールバー400はスクリーンSCに表示されない。
図4に示した状況Aでは、ユーザーの手Hは、スクリーンSCの法線方向においてスクリーンSCから第1距離L1以上離れており、電子ペンP(指示体300)の向きはスクリーンSCに向いておらず、所定時間の間、電子ペンPが静止している。このため、例えば図5に示したように、ツールバー400がスクリーンSCに表示される。
一方、図4に示した状況Bでは、電子ペンP(指示体300)がスクリーンSCに向いている。このため、ツールバー400はスクリーンSCに表示されない。
本実施形態によれば、ツールバー400は、ユーザーがツールバー400を視認する可能性が高い場合に表示され、ユーザーがツールバー400を視認する可能性が低い場合に表示されない。このため、指示体300についての機能設定に関する設定情報であるツールバー400の表示を必要に応じて行うことが可能になる。よって、ツールバー400を常に表示する場合に比べて、プロジェクター100の処理負荷を低減することが可能になる。
<変形例>
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
<変形例1>
電子ペンが、スクリーンSCに対する電子ペンの姿勢を検出する姿勢検出部と、姿勢検出部の検出結果(姿勢情報)を送信する送信部とを有する場合、オブジェクト識別部107は、電子ペンから該検出結果を受信することで、姿勢情報を取得してもよい。
電子ペンが、スクリーンSCに対する電子ペンの姿勢を検出する姿勢検出部と、姿勢検出部の検出結果(姿勢情報)を送信する送信部とを有する場合、オブジェクト識別部107は、電子ペンから該検出結果を受信することで、姿勢情報を取得してもよい。
<変形例2>
判定部108は、ペン位置検出部103が出力する先端位置情報を受け取り、この先端位置情報を、電子ペンの3次元位置座標の代わりに用いてもよい。
判定部108は、ペン位置検出部103が出力する先端位置情報を受け取り、この先端位置情報を、電子ペンの3次元位置座標の代わりに用いてもよい。
<変形例3>
プロジェクター100は、指示体300として、人の指と電子ペンのいずれか一方のみが用いられる構成でもよい。
指示体300として人の指が用いられ電子ペンが用いられない場合、図3において、処理は、ステップS301でYESの場合、ステップS306に進み、ステップS302〜ステップS304が省略される。
また、指示体300として電子ペンが用いられ人の指が用いられない場合、図3において、処理は、ステップS301でYESの場合、ステップS303に進み、ステップS302、ステップS306およびステップS307が省略される。
プロジェクター100は、指示体300として、人の指と電子ペンのいずれか一方のみが用いられる構成でもよい。
指示体300として人の指が用いられ電子ペンが用いられない場合、図3において、処理は、ステップS301でYESの場合、ステップS306に進み、ステップS302〜ステップS304が省略される。
また、指示体300として電子ペンが用いられ人の指が用いられない場合、図3において、処理は、ステップS301でYESの場合、ステップS303に進み、ステップS302、ステップS306およびステップS307が省略される。
<変形例4>
図3において、ステップS301、ステップ304およびステップS307の少なくとも1つは省略されてもよい。
図3において、ステップS301、ステップ304およびステップS307の少なくとも1つは省略されてもよい。
<変形例5>
図3において、ステップS303とステップS304の実行順序が入れ替わってもよい。また、図3において、ステップS306とステップS307の実行順序が入れ替わってもよい。
図3において、ステップS303とステップS304の実行順序が入れ替わってもよい。また、図3において、ステップS306とステップS307の実行順序が入れ替わってもよい。
<変形例6>
ツールバー400の表示態様は、図1に示した表示態様に限らず適宜変更可能である。
ツールバー400の表示態様は、図1に示した表示態様に限らず適宜変更可能である。
<変形例7>
表示装置としてプロジェクターが用いられたが、表示装置はプロジェクターに限らず適宜変更可能である。例えば、表示装置は、直視型のディスプレイあってもよい。
表示装置としてプロジェクターが用いられたが、表示装置はプロジェクターに限らず適宜変更可能である。例えば、表示装置は、直視型のディスプレイあってもよい。
<変形例8>
上述した実施形態において、設定管理部101とペン位置検出部103とオブジェクト識別部107と判定部108と描画部109と画像処理部110の全部または一部は、専用の電子回路によって実現されてもよいし、CPU等のコンピューターが、記憶装置に記憶されたプログラムを読み取って実行することによって実現されてもよい。
上述した実施形態において、設定管理部101とペン位置検出部103とオブジェクト識別部107と判定部108と描画部109と画像処理部110の全部または一部は、専用の電子回路によって実現されてもよいし、CPU等のコンピューターが、記憶装置に記憶されたプログラムを読み取って実行することによって実現されてもよい。
100…プロジェクター、101…設定管理部、102…IRフィルター付きカメラ、103…ペン位置検出部、104…位置通知部、105…画像情報入力部、106a,106b…カメラ、107…オブジェクト識別部、108…判定部、109…描画部、110…画像処理部、111…投射部、112…制御部、300…指示体、SC…スクリーン。
Claims (6)
- 画像情報に基づく画像を表示面に表示する表示部と、
指示体の前記表示面に対する姿勢に関する姿勢情報を取得する姿勢情報取得部と、
前記姿勢情報に基づいて、前記指示体についての機能設定に関する設定情報を、前記表示部に表示させるか否かを制御する制御部と、
を有することを特徴とする表示装置。 - 前記指示体は、所定部分を有し、
前記制御部は、前記所定部分が前記表示面に向いている場合には、前記設定情報を前記表示部に表示させず、前記所定部分が前記表示面に向いていない場合には、前記設定情報を前記表示部に表示させる、
ことを特徴とする請求項1の記載の表示装置。 - 前記制御部は、所定時間の間、前記所定部分が前記表示面に向いていない場合に、前記設定情報を前記表示部に表示させる、
ことを特徴とする請求項2の記載の表示装置。 - 前記表示面に対する前記指示体の位置を検出する位置検出部をさらに有し、
前記表示部は、前記設定情報を、前記指示体の位置に応じて設定された位置に表示する、
ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。 - 前記制御部は、さらに、前記指示体が前記表示面から所定距離以上離れており、かつ、前記所定部分が前記表示面に向いていない場合に、前記設定情報を前記表示部に表示させる、
ことを特徴とする請求項1から4のいずれか1項に記載の表示装置。 - 画像情報に基づく画像を表示面に表示する表示部を含む表示装置の制御方法であって、
指示体の前記表示面に対する姿勢に関する姿勢情報を取得し、
前記姿勢情報に基づいて、前記指示体についての機能設定に関する設定情報を、前記表示部に表示させるか否かを制御する、
ことを特徴とする表示装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217818A JP2018077605A (ja) | 2016-11-08 | 2016-11-08 | 表示装置および表示装置の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217818A JP2018077605A (ja) | 2016-11-08 | 2016-11-08 | 表示装置および表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018077605A true JP2018077605A (ja) | 2018-05-17 |
Family
ID=62150353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016217818A Pending JP2018077605A (ja) | 2016-11-08 | 2016-11-08 | 表示装置および表示装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018077605A (ja) |
-
2016
- 2016-11-08 JP JP2016217818A patent/JP2018077605A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
JP6372487B2 (ja) | 情報処理装置、制御方法、プログラム、および記憶媒体 | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
JP2016194799A (ja) | 画像解析装置及び画像解析方法 | |
US10277544B2 (en) | Information processing apparatus which cooperate with other apparatus, and method for controlling the same | |
US10276133B2 (en) | Projector and display control method for displaying split images | |
US8441480B2 (en) | Information processing apparatus, information processing system, and computer readable medium | |
JP4733600B2 (ja) | 操作検出装置とそのプログラム | |
KR101631011B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
JP2011028366A (ja) | 操作制御装置および操作制御方法 | |
JP2012185630A (ja) | 投影装置 | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP5817149B2 (ja) | 投影装置 | |
JP2010205223A (ja) | 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置 | |
JP2012238293A (ja) | 入力装置 | |
JP2009251702A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US9406136B2 (en) | Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person | |
JP2010117917A (ja) | 動作検出装置および操作システム | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6801947B2 (ja) | 表示装置、表示制御方法および表示システム | |
JP6452658B2 (ja) | 情報処理装置、およびその制御方法ならびにプログラム | |
JP2018077605A (ja) | 表示装置および表示装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |