JP6485160B2 - インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 - Google Patents
インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 Download PDFInfo
- Publication number
- JP6485160B2 JP6485160B2 JP2015065627A JP2015065627A JP6485160B2 JP 6485160 B2 JP6485160 B2 JP 6485160B2 JP 2015065627 A JP2015065627 A JP 2015065627A JP 2015065627 A JP2015065627 A JP 2015065627A JP 6485160 B2 JP6485160 B2 JP 6485160B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- projection screen
- coordinate position
- light
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Position Input By Displaying (AREA)
- Projection Apparatus (AREA)
Description
このインタラクティブプロジェクターでは、第1カメラおよび第2カメラによって撮像された2種類の撮像画像を用いて、投写画面上における指示体の第1座標位置および第2座標位置を検出する。指示体の投写画面への接触の検出は、第1座標位置と第2座標位置とがほぼ一致しているか否かによって実行されるので、指示体がスクリーンに接触しているか否かの検出処理を従来とは異なる方法で容易に実行することができる。
この構成によれば、第1対応データと第2対応データとを用いて、撮像画像から容易に指示体の投写画面上の第1座標位置と第2座標位置を検出することができる。
この構成によれば、指示体が投写画面に接触すると、投写画面上において、指示体の第1座標位置と第2座標位置とがほぼ一致するので、指示体がスクリーンに接触しているか否かを容易に検出することができる。
図1は、本発明の一実施形態におけるインタラクティブプロジェクションシステム900の斜視図である。このシステム900は、インタラクティブプロジェクター100と、スクリーン板920と、自発光指示体70とを有している。スクリーン板920の前面は、投写スクリーン面SS(projection Screen Surface)として利用される。プロジェクター100は、支持部材910によってスクリーン板920の前方かつ上方に固定されている。なお、図1では投写スクリーン面SSを鉛直に配置しているが、投写スクリーン面SSを水平に配置してこのシステム900を使用することも可能である。
N×Q≦2M …(1)
ここで、Qは自発光指示体70のスイッチ73,76で区別される状態の数であり、本実施形態の例ではQ=2又はQ=4である。例えば、Q=4の場合には、N=2のときにはMを3以上の整数に設定し、N=3〜4のときにはMを4以上の整数に設定することが好ましい。このとき、位置検出部600(又は制御部700)がN個の自発光指示体70、及び、各自発光指示体70のスイッチ73,76の状態を識別する際には、1組の発光パターンのM個の単位発光期間において各カメラ310,320でそれぞれ撮像されたM枚の画像を用いてその識別を実行する。なお、このMビットの発光パターンは、照射検出光IDLをオフの状態に維持した状態で指示体信号光PSLをオン又はオフに設定したパターンであり、カメラ310,320で撮像される画像には非発光指示体80が写らない。そこで、非発光指示体80の位置を検出するために用いる画像を撮像するために、照射検出光IDLをオン状態とした1ビットの単位発光期間を更に追加することが好ましい。但し、位置検出用の単位発光期間では、指示体信号光PSLはオン/オフのいずれでも良い。この位置検出用の単位発光期間で得られた画像は、自発光指示体70の位置検出にも利用することが可能である。
(1)投写画像光IML:スクリーン面SSに投写画面PSを投写するために、投写レンズ210によってスクリーン面SS上に投写される画像光(可視光)である。
(2)照射検出光IDL: 指示体780(自発光指示体70及び非発光指示体80)の先端部を検出するために、検出光照射部410によってスクリーン面SSとその前方の空間にわたって照射される近赤外光である。
(3)反射検出光RDL:照射検出光IDLとして照射された近赤外光のうち、指示体780(自発光指示体70及び非発光指示体80)によって反射され、2台のカメラ310,320によって受光される近赤外光である。
(4)装置信号光ASL:プロジェクター100と自発光指示体70との同期をとるために、プロジェクター100の信号光送信部430から定期的に発せられる近赤外光である。
(5)指示体信号光PSL:装置信号光ASLに同期したタイミングで、自発光指示体70の先端発光部77から発せられる近赤外光である。指示体信号光PSLの発光パターンは、自発光指示体70のスイッチ73,76のオン/オフ状態に応じて変更される。また、複数の自発光指示体70を識別する固有の発光パターンを有する。
図5および図6は、撮像画像FI、SIの座標位置と投写画面PSの座標位置との対応関係を例示した図である。図5(A)および図6(A)は第1撮像画像FIであり、図5(B)および図6(B)は投写画面PSであり、図5(C)および図6(C)は第2撮像画像SIである。図5は、非発光指示体80の先端部81がスクリーン面SSから離れている状態が示されており、図6は、先端部81がスクリーン面SSと接触している状態が示されている。図5(A)、図5(B)、図6(A)および図6(B)に示すように、位置検出部600は、非発光指示体80の先端部81の投写画面PSにおける第1座標位置(Xf81,Yf81)を、第1撮像画像FIにおける先端部81の二次元座標位置(U81,V81)と第1座標変換係数CFとを用いて算出する。この「第1座標変換係数CF」は、第1撮像画像FIの座標系である「第1カメラ座標(U,V)」を投写画面PSの座標系である「投写画面座標(X,Y)」に変換するための係数であり、後述の方法で算出される。なお、「投写画面座標(X,Y)」は、液晶パネル220の座標系である「パネル座標(x,y)」と対応しているため、第1座標変換係数CFは「第1カメラ座標(U,V)」を「パネル座標(x,y)」に変換するための係数であってもよい。位置検出部600は、第1撮像画像FIに含まれる指示体780が非発光指示体80であるか否かについて、所定の複数のタイミングで撮像された第1撮像画像FIに自発光指示体70の発光パターンが現れているか否かを判断することによって認識可能である。なお、第1撮像画像FIにおける非発光指示体80の先端部81の検出は、テンプレートマッチングや特徴抽出等の周知の技術を利用して特定することができる。例えば、テンプレートマッチングによって指である非発光指示体80の先端部81を認識する場合には、指に関する複数のテンプレートを予め準備しておき、第1撮像画像FIにおいて、これらのテンプレートに適合する部分を検索することによって指の先端部81を認識することが可能である。図5(B)、図5(C)、図6(B)および図6(C)に示すように、位置検出部600は、非発光指示体80の先端部81の投写画面PSにおける第2座標位置(Xs81,Ys81)について、第2撮像画像SIにおける先端部81の二次元座標位置(ξ81,η81)と第2座標変換係数CSとを用いて算出する。この「第2座標変換係数CS」は、第2撮像画像SIの座標系である「第2カメラ座標(ξ,η)」を上述の「投写画面座標(X,Y)」に変換するための係数であり、後述の方法で算出される。なお、第2座標変換係数CSは「第2カメラ座標(ξ,η)」を「パネル座標(x,y)」に変換するための係数であってもよい。図5および図6に示すように、非発光指示体80の先端部81がスクリーン面SSから離れている(図5)と、先端部81の投写画面PSにおける第1座標位置(Xf81,Yf81)と第2座標位置(Xs81,Ys81)とが異なる位置となり、先端部81がスクリーン面SSと接触している(図6)と、先端部81の第1座標位置(Xf81,Yf81)と第2座標位置(Xs81,Ys81)とがほぼ同じ位置となる。このことから、接触検出部800は、先端部81の第1座標位置(Xf81,Yf81)と第2座標位置(Xs81,Ys81)とがほぼ一致したときに、先端部81が投写スクリーン面SSに接触していることを検出する。
位置検出部600は、自発光指示体70の先端部71の投写画面PSにおける第1座標位置(Xf71,Yf71)を、第1撮像画像FIにおける先端部71の二次元座標位置(U71,V71)と第1座標変換係数CFとを用いて算出する。位置検出部600は、第1撮像画像FIに含まれる指示体780が自発光指示体70であるか否かについて、所定の複数のタイミングで撮像された第1撮像画像FIに自発光指示体70の発光パターンが現れているか否かを判断することによって認識可能である。接触検出部800は、自発光指示体70の先端部71がスクリーン面SSに接触しているか否か(すなわち先端スイッチ76がオンか否か)について、上記複数のタイミングで撮像された第1撮像画像FIにおける先端発光部77の発光パターンを用いて判別可能である。位置検出部600および接触検出部800によって、自発光指示体70の先端部71の投写画面PS上の第1座標位置(Xf71,Yf71)と、先端部71のスクリーン面SSへの接触とを検出することができる。
図8は、第1座標変換係数CFおよび第2座標変換係数CSの算出に使用される測定用パターン画像CPMが表示された投写画面PSと、投写画面PSを含んだ撮像画像FI、SIとを例示した図である。図8(A)は第1撮像画像FIであり、図8(B)は投写画面PSであり、図8(C)は第2撮像画像SIである。まず、投写部200は、プロジェクター100の起動時に測定用パターン画像CPM(キャリブレーションパターン画像)が表された投写画面PSを投写スクリーン面SSに投射する。測定用パターン画像CPMは、複数の基準点Pcを含んだ画像であり、測定用パターン画像データとして図示しない記憶部に予め記憶されている。本実施例では、測定用パターン画像CPMには、25個の基準点Pcが縦方向に5個、横方向に5個となるように並んで配置されている。測定用パターン画像CPMに含まれる基準点Pcの数Pは、P≧3であれば、上記の数に限定されない。但し、基準点Pcは、測定用パターン画像CPM内で行列状に規則正しく配列されていることが好ましい。また、基準点Pcは、投写画面PS上の特定の位置を識別可能な構成であれば、点(ドット)に限定されず、例えば、2つの直線の交点や矩形の角部であってもよい。
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
上記実施形態では、撮像部300が2台のカメラ310,320を有しているものとしたが、撮像部300は3台以上のカメラを有していてもよい。後者の場合には、m台(mは3以上の整数)のカメラで撮像されたm個の撮像画像に基づいて、非発光指示体80の先端部81がスクリーン面SSに接触しているか否かの判定を行うことができる。例えば、m個の画像から2個の画像を任意に選択して得られるmC2個の組み合わせを用いてそれぞれ投写画面PSにおける先端部81の二次元位置座標(X81,Y81)を求め、それらの互いの距離の平均値を用いて非発光指示体80の先端部81がスクリーン面SSに接触しているか否かを判定しても良い。こうすれば、接触の検出精度を更に高めることが可能である。
上記実施形態では、インタラクティブプロジェクションシステム900がホワイトボードモードとPCインタラクティブモードとで動作可能であるものとしたが、これらのうちの一方のモードのみで動作するようにシステムが構成されていても良い。また、インタラクティブプロジェクションシステム900は、これら2つのモード以外の他のモードのみで動作するように構成されていても良く、更に、これら2つのモードを含む複数のモードで動作可能に構成されていてもよい。
上記実施形態では、図3に示した照射検出光IDLと、反射検出光RDLと、装置信号光ASLと、指示体信号光PSLとがすべて近赤外光であるものとしたが、これらのうちの一部又は全部を近赤外光以外の光としてもよい。
上記実施形態では、自発光指示体70の接触検出を、自発光指示体70が発する指示体信号光PSLの発光パターンに基づいて行っている。しかし、非発光指示体80と同様に、自発光指示体70の先端部71の投写画面PSにおける第1座標位置(Xf71,Yf71)と第2座標位置(Xs71,Ys71)とを算出し、これらの座標位置が許容誤差内で一致しているか否かによって自発光指示体70の先端部71の投写画面PSへの接触検出を実行することも可能である。
71…先端部
72…軸部
73…ボタンスイッチ
74…信号光受信部
75…制御部
76…先端スイッチ
77…先端発光部
80…非発光指示体
81…先端部
100…インタラクティブプロジェクター
200…投写部
210…投写レンズ
220…液晶パネル
230…光源
300…撮像部
310…第1カメラ
320…第2カメラ
410…検出光照射部
430…信号光送信部
500…投写画像生成部
510…投写画像メモリー
600…位置検出部
700…制御部
780…指示体
800…接触検出部
900…インタラクティブプロジェクションシステム
910…支持部材
920…スクリーン板
Claims (4)
- 投写画面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターであって、
スクリーン面上に前記投写画面を投写する投写部と、
前記指示体に近赤外光の照射検出光を照明する検出光照射部と、
前記投写画面の領域を、近赤外光の波長を含む波長領域の光を受光して撮像する第1カメラ及び第2カメラを含む複数台のカメラと、
前記第1カメラによって撮像された前記指示体を含む第1撮像画像に基づいて、前記投写画面上における前記指示体の第1座標位置を検出するとともに、前記第2カメラによって撮像された前記指示体を含む第2撮像画像に基づいて、前記投写画面上における前記指示体の第2座標位置を検出する位置検出部と、
前記第1座標位置と、前記第2座標位置とに基づいて、前記指示体の前記投写画面への接触を検出する接触検出部と、を備え、
前記位置検出部は、
前記指示体が前記投写画面に接触しているときの前記第1撮像画像における前記指示体の2次元座標位置と前記投写画面上における前記指示体の2次元座標位置とが対応付けられた第1対応データと、前記指示体が前記投写画面に接触しているときの前記第2撮像画像における前記指示体の2次元座標位置と前記投写画面上における前記指示体の2次元座標位置とが対応付けられた第2対応データと、を備えており、
前記第1対応データを用いて、前記第1撮像画像から前記第1座標位置を検出するとともに、前記第2対応データを用いて、前記第2撮像画像から前記第2座標位置を検出し、
前記接触検出部は、2次元座標位置として求められた前記第1座標位置と前記第2座標位置とが許容誤差内で一致したときに、前記指示体の前記投写画面への接触を検出する、インタラクティブプロジェクター。 - 請求項1記載のインタラクティブプロジェクターであって、
前記指示体は、近赤外光である指示体信号光を発する自発光指示体と、非発光の非発光指示体と、を含み、
前記インタラクティブプロジェクターは、さらに、前記指示体信号光を発光させるタイミングを前記第1カメラ及び前記第2カメラの撮像タイミングに同期させる装置信号光を前記自発光指示体に送信する信号送信部を備え、
前記自発光指示体は、前記投写画面に接触しているときとしていないときとで前記指示体信号光の発光パターンを変更し、
前記第1カメラ及び前記第2カメラは、前記検出光照射部が前記照射検出光を発する発光状態である第1の期間と、前記検出光照射部が前記照射検出光を発していない非発光状態である第2の期間と、の両方で撮像を実行し、
前記接触検出部は、
前記第1の期間に撮像した画像と、前記第2の期間に撮像した画像と、を比較して、前記指示体が、前記自発光指示体と前記非発光指示体のいずれであるかを判定し、
前記指示体が前記非発光指示体であるときに、前記第1の期間に、前記照射検出光が前記非発光指示体で反射された反射検出光によって撮像された前記第1撮像画像と前記第2撮像画像とを用いて、前記投写画面への前記非発光指示体の接触を検出し、
前記指示体が前記自発光指示体であるときに、前記第2の期間に、前記自発光指示体が前記発光パターンで発する前記指示体信号光を撮像した画像に基づいて、前記投写画面への前記自発光指示体の接触を検出する、インタラクティブプロジェクター。 - 請求項1または請求項2記載のインタラクティブプロジェクターであって、
前記第1カメラ及び前記第2カメラは、近赤外光の波長を含む波長領域の光を受光して撮像する第1の撮影機能と、可視光を含む光を受光して撮像する第2の撮影機能と、を有し、
前記位置検出部は、前記指示体の接触の検出を開始する前に、
前記第1カメラが、前記第2の撮影機能により、前記投写画面に投写された測定用画像を撮像した撮像画像に基づいて、前記指示体が前記投写画面に接触しているときの前記第1カメラの座標系における2次元座標位置と、前記投写画面の2次元座標位置と、を対応付ける第1座標変換係数を、前記第1対応データとして算出し、
前記第2カメラが、前記第2の撮影機能により、前記投写画面に投写された測定用画像を撮像した撮像画像に基づいて、前記指示体が前記投写画面に接触しているときの前記第2カメラの座標系における2次元座標位置と、前記投写画面の2次元座標位置と、を対応付ける第2座標変換係数を、前記第2対応データとして算出する、インタラクティブプロジェクター。 - 投写画面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターの制御方法であって、
スクリーン面上に前記投写画面を投写し、
近赤外光の波長を含む波長領域の光を受光して撮像する第1カメラ及び第2カメラを含む複数台のカメラで、近赤外光の照明検出光で照射された前記投写画面の領域を撮像し、
前記第1カメラによって撮像された前記指示体を含む第1撮像画像から、前記指示体が前記投写画面に接触しているときの前記第1撮像画像における前記指示体の2次元座標位置と前記投写画面上における前記指示体の2次元座標位置とが対応付けられた第1対応データを用いて、前記投写画面上における前記指示体の第1座標位置を検出するとともに、前記第2カメラによって撮像された前記指示体を含む第2撮像画像から、前記指示体が前記投写画面に接触しているときの前記第2撮像画像における前記指示体の2次元座標位置と前記投写画面上における前記指示体の2次元座標位置とが対応付けられた第2対応データを用いて前記投写画面上における前記指示体の第2座標位置を検出し、
2次元座標位置として求められた前記第1座標位置と、前記第2座標位置とが許容誤差内で一致したときに、前記指示体の前記投写画面への接触を検出する、インタラクティブプロジェクターの制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015065627A JP6485160B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 |
US15/079,035 US10551972B2 (en) | 2015-03-27 | 2016-03-23 | Interactive projector and method of controlling interactive projector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015065627A JP6485160B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016186669A JP2016186669A (ja) | 2016-10-27 |
JP6485160B2 true JP6485160B2 (ja) | 2019-03-20 |
Family
ID=56975297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015065627A Expired - Fee Related JP6485160B2 (ja) | 2015-03-27 | 2015-03-27 | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10551972B2 (ja) |
JP (1) | JP6485160B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5924020B2 (ja) * | 2012-02-16 | 2016-05-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
US10025430B2 (en) * | 2013-10-08 | 2018-07-17 | Maxell, Ltd. | Projection type image display device, manipulation detection device and projection type image display method |
NL2030234B1 (en) * | 2021-12-22 | 2023-06-29 | Active Cues B V | Projector system and method for projecting images |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NO323926B1 (no) | 2004-11-12 | 2007-07-23 | New Index As | Visuelt system samt styringsobjekt og apparat til bruk i systemet. |
US8243994B2 (en) * | 2006-05-09 | 2012-08-14 | Nissan Motor Co., Ltd. | Vehicle circumferential image providing device and vehicle circumferential image providing method |
JP4605715B2 (ja) * | 2006-06-14 | 2011-01-05 | Kddi株式会社 | 多視点画像圧縮符号化方法、装置及びプログラム |
EP2507682A2 (en) * | 2009-12-04 | 2012-10-10 | Next Holdings Limited | Sensor methods and systems for position detection |
JP2012150636A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 投写型表示装置及び情報処理システム |
TWI479390B (zh) * | 2011-08-19 | 2015-04-01 | Tpk Touch Solutions Inc | 一種光學式觸控系統及其定位方法 |
JP2014067349A (ja) * | 2012-09-27 | 2014-04-17 | Seiko Epson Corp | ヒューマンインターフェース装置及び方法 |
JP6417702B2 (ja) * | 2014-05-01 | 2018-11-07 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6709022B2 (ja) * | 2015-03-13 | 2020-06-10 | シャープ株式会社 | タッチ検出装置 |
-
2015
- 2015-03-27 JP JP2015065627A patent/JP6485160B2/ja not_active Expired - Fee Related
-
2016
- 2016-03-23 US US15/079,035 patent/US10551972B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016186669A (ja) | 2016-10-27 |
US10551972B2 (en) | 2020-02-04 |
US20160282961A1 (en) | 2016-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6477131B2 (ja) | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 | |
JP6477130B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
US10133366B2 (en) | Interactive projector and interactive projection system | |
JP2017146753A (ja) | 位置検出装置、及び、そのコントラスト調整方法 | |
CN107407995B (zh) | 交互式投影仪、交互式投影***以及交互式投影仪的控制方法 | |
JP6485160B2 (ja) | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 | |
JP6459706B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
JP6503828B2 (ja) | インタラクティブプロジェクションシステム,指示体,およびインタラクティブプロジェクションシステムの制御方法 | |
JP6451446B2 (ja) | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム | |
JP6631280B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6690271B2 (ja) | 位置検出システム、位置検出装置、および位置検出方法 | |
JP6569361B2 (ja) | インタラクティブプロジェクター及びそのz座標の補正方法 | |
JP6690272B2 (ja) | 位置検出システム、自発光指示体、および固有情報取得方法 | |
JP2016186678A (ja) | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 | |
JP2016186679A (ja) | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 | |
JP2017027424A (ja) | インタラクティブプロジェクター及びその設置状態検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6485160 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |