JP2004326188A - Large screen touch panel system and search/display system - Google Patents
Large screen touch panel system and search/display system Download PDFInfo
- Publication number
- JP2004326188A JP2004326188A JP2003116122A JP2003116122A JP2004326188A JP 2004326188 A JP2004326188 A JP 2004326188A JP 2003116122 A JP2003116122 A JP 2003116122A JP 2003116122 A JP2003116122 A JP 2003116122A JP 2004326188 A JP2004326188 A JP 2004326188A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- light
- infrared light
- size
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Overhead Projectors And Projection Screens (AREA)
Abstract
Description
【0001】
【産業上の利用分野】
この発明は大画面タッチパネルシステムおよび検索・表示システムに関し、特にたとえば、人間が大画面スクリーンの前に立ち人間の手でタッチすることによって大画面上の座標を獲得できる、新規な大画面タッチパネルシステムとそれを利用する検索・表示システムに関する。
【0002】
【従来の技術】
従来、たとえばCRTの画面上の任意の点をたとえばスタイラスペンや人間の指でタッチすることにより、その点の画面上での位置(座標)を得ることができる、いわゆるタッチパネルが実用に供されている。
【0003】
このようなタッチパネルとしては、CRT画面へのタッチを検出する方式で分類すると、抵抗膜方式、光電方式などがある。
【0004】
抵抗膜方式では、X方向電極が形成された透明シートとY方向電極が形成された透明シートとを積層し、指やペンで押すと2枚のシート上の1対の電極が導通し、それによって座標を検知することができる。また、光電方式では、画面上のLEDアレイと受光素子アレイから構成される赤外線ビーム格子内にタッチすると2本の直交ビームが遮断され、その位置から座標を検出する。
【0005】
【発明が解決しようとする課題】
この種の従来のタッチパネルはいずれも、たとえばCRTやLCD程度のサイズを前提とするものであり、それを大画面化するためには、電極数を多くしたり、LEDや受光素子数を多くするなどが必要であり、したがって、非常に高価になってしまう。
【0006】
それゆえに、この発明の主たる目的は、大画面スクリーンでタッチ入力が可能な、新規な大画面タッチパネルを提供することである。
【0007】
【課題を解決するための手段】
この発明に従った大画面タッチパネルシステムは、次のものを備える:赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、赤外カメラからの映像信号に基づいて赤外光が遮られた遮光領域を検出する遮光領域検出手段、検出手段によって検出された遮光領域のサイズを計測するサイズ計測手段、およびサイズ計測手段によって計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力手段。
【0008】
請求項2は請求項1に従属し、スクリーンの後方にミラーをさらに設け、赤外カメラはミラーを通してスクリーンの背面全面を撮影する、大画面タッチパネルシステムである。
【0009】
請求項3は請求項1または2に従属し、座標データは遮光領域の中心座標データである、大画面タッチパネルシステムである。
【0010】
請求項4は請求項3に従属し、座標データを正規化するための正規化手段をさらに備え、中心座標は正規化された中心座標である、大画面タッチパネルシステムである。
【0011】
この発明は、赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、および赤外カメラからの映像信号を受けるコンピュータを備え、コンピュータは赤外カメラからの映像信号に基づいて赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、検出された遮光領域のサイズを計測するサイズ計測ステップ、および計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力ステップを実行する、大画面タッチパネルシステム。
【0012】
なお、たとえば人間の手から出力される赤外光を直接検出する場合には、この発明は、赤外光を透過できる材料からなるスクリーン、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、赤外カメラからの映像信号に基づいて赤外光の存在する領域赤外光領域を検出する赤外光領域検出手段、検出手段によって検出された赤外光領域のサイズを計測するサイズ計測手段、およびサイズ計測手段によって計測されたサイズが一定範囲内の赤外光領域の座標データを出力する座標データ出力手段を備える、大画面タッチパネルシステムである。
【0013】
この発明に従った検索・表示システムは、赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、記スクリーンの後方に設けられてスクリーンの背面に映像を投影するプロジェクタ、およびコンピュータを備え、コンピュータは関連するメモリを有し、メモリには第1情報と第1情報に関連する第2情報とを蓄積しておき、コンピュータは第2情報をプロジェクタによってスクリーン上に映写させる第2情報映写ステップ、第2情報がスクリーン上に映写されている状態で赤外カメラからの映像信号に基づいて赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、検出された遮光領域のサイズを計測するサイズ計測ステップ、および計測されたサイズが一定範囲内の遮光領域の座標データが第2情報の表示位置に相関するとき、第2情報に関連する第1情報をプロジェクタによってスクリーン上に映写させるステップを実行する、検索・表示システムである。
【0014】
【作用】
スクリーンの前方に人間が立って、人間が手によってスクリーンに直接タッチすると、その手や人間の体によって遮光領域が形成されるが、サイズが適正な遮光領域、この場合であれば、手によって形成された遮光領域(黒領域)が検出され、当該領域のたとえば中心座標データが、タッチ位置データとして出力される。
【0015】
このような大画面タッチパネルシステムは、検索・表示システムとして利用できるが、この検索・表示システムでは、コンピュータのメモリに第1情報(たとえば、静止画像)とその第1情報に関連する第2情報(たとえば、サムネイル画像)とを蓄積しておく。そして、コンピュータはプロジェクタによって、第2情報をスクリーン上に映写させる。その第2情報をポインティングしようとして人間が手でスクリーンをタッチすると、上述のようにしてタッチ位置が検出される。このタッチ位置とサムネイム画像の表示位置とが一定の関係あるとき、そのサムネイル画像(第2情報)に関連する静止画像(第1情報)をスクリーン上に映写させる。
【0016】
【発明の効果】
この発明によれば、非常に大きいサイズのスクリーンでも、それぞれをタッチスクリーン(タッチパネル)にすることができ、複数の人間が手でスクリーンを直接タッチすることによって、スクリーン上の位置をポインティングすることができる。したがって、従来の小画面のタッチパネルに比べて、たとえば多人数参加のイベント会場における検索・表示システムなどの非常に広範な用途に利用可能である。
【0017】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0018】
【実施例】
図1に示すこの実施例の大画面タッチパネルシステム10は、たとえば250×180cm程度のサイズのプラスチックスクリーン12を含む。ただし、このサイズは単なる一例であり、用途に応じて任意に変更可能である。プラスチックスクリーン12は、赤外光透過可能材料、たとえばポリカーボネイトなどのプラスチックからなり、全体としてたとえば乳白色である。ただし、このプラスチックスクリーン12は完全な透明ではない。なぜなら、このプラスチックスクリーン12は、後述のプロジェクタ30から映像を映写するための投影スクリーンとして機能する必要があるからである。また、このプラスチックスクリーン12は、比較的大きい剛性を有する。なぜなら、この大画面タッチパネルシステム10では、図1に示すように、プラスチックスクリーン12の前方の人間14が、自分の手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の位置(点または領域)を指示するからである。つまり、プラスチックスクリーン12には人間の手が触っても容易には変形しない程度の剛性が必要である。
【0019】
ただし、実施例ではプラスチックでスクリーン12を形成した。しかしながら、ガラスや他の赤外光透過材料が用いられてもよい。
【0020】
このプラスチックスクリーン12の前方上方には、スクリーン12の前面12aの全面に赤外光を投射するための赤外光源18が設けられる。この赤外光源18としては、ハロゲンランプまたはブラックライトなどが利用可能である。この赤外光源18を設ける位置は基本的にはプラスチックスクリーン12のサイズに依存して決定されるが、実施例のプラスチックスクリーン12が上記サイズであれば、たとえば、赤外光源18は、プラスチックスクリーン12の前面12aから200−400cm離れた高さ200−300cmの位置に配置される。赤外光源18から投射された赤外光はプラスチックスクリーン12の前面12aから入射し、このスクリーン12を透過して背面12bに至る。これらの数値は単なる例示である。
【0021】
プラスチックスクリーン12の後方には、ミラー20が設けられる。このミラー20はプラスチックスクリーン12の背面12bの全面を映出できる大きさにされかつその位置に配置される。実施例ではプラスチックスクリーン12がたとえば250×180cmであれば、ミラー20はたとえば150×110cm程度の大きさにされ、プラスチックスクリーン12の背面からたとえば200cm後方に配置される。これらの数値も単なる例示である。
【0022】
プラスチックスクリーン12の後方には、このミラー20の表面に合焦されたモノクロカメラ22が設けられる。このモノクロカメラ22には赤外フィルタ24が装着される。したがって、このカメラ22は全体としては、赤外カメラとして機能する。そのため、モノクロカメラ22および赤外フィルタ24は赤外カメラに代えられてもよい。このカメラ22はミラー20を通してプラスチックスクリーン12の背面全面を撮影する。
【0023】
カメラ22からの映像信号は、図2からよくわかるように、A/D変換器28によって映像信号データに変換されて、コンピュータ26に入力される。
【0024】
この図1に示す実施例では、プラスチックスクリーン12の後方に、プロジェクタ30が設けられる。このプロジェクタ30は、前述のようにプラスチックスクリーン12の背面12bの全面に映像を投射するためのものである。実施例では、プロジェクタ30は、ミラー20を通して、背面12bの全面に投影できるようにされる。プロジェクタ30から投射された映像(光学像)は、ミラー20で反射されて、プラスチックスクリーン12の背面12bに投影される。したがって、このプラスチックスクリーン12の前面12aから、その投影された映像を見ることができる。
【0025】
なお、ミラー20を用いる理由は、プラスチックスクリーン12の後方のスペースを可及的小さくするためである。したがって、当然のことではあるが、ミラー20を省略することができる。この場合には、上述のカメラ22がプラスチックスクリーン12の背面12bの全域を直接撮影し、プロジェクタ30からプロジェクタスクリーン12の背面12bに映像が直接投射される。
【0026】
図2に示すように、コンピュータ26にはたとえば半導体メモリやハードディスクなどの内部メモリ32が内蔵されるとともに、必要に応じて、メモリインタフェース34を介して、半導体メモリである外部メモリ36が接続される。内部メモリ32は、後述のフロー図に示すようなプログラムを予め記憶するプログラムメモリとして、さらには画像処理のためのワーキングメモリやレジスタなどとして利用される。プロジェクタ30を用いる場合には、内部メモリ32はさらに、プロジェクタ30のためのメモリのビデオメモリ(VRAM)としても用いられる。
【0027】
なお、外部メモリ36としては、半導体メモリ以外に、磁気記録媒体、光学式記録媒体、光磁気記録媒体などが用いられ得るが、ここでは便宜上すべて「メモリ」の用語を使用する。したがって、「メモリ」というときは、あらゆる形式の記憶媒体または記録媒体を指すものと理解されたい。
【0028】
なお、コンピュータ26は、さらに、ランプドライバ38を制御し、赤外光源18のオン/オフを制御するとともに、必要な場合には、その赤外光源18の輝度を調節する。
【0029】
図1実施例の大画面タッチパネルシステム10では、先に概説したように、プラスチックスクリーン12の前方の人間14が、手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の座標位置を指示するが、そのための動作を、図3のフロー図を参照して説明する。
【0030】
図3の最初のステップS1では、初期設定が実行される。この初期設定では、まず、コンピュータ26は、ランプドライバ38を制御して、赤外光源18をオンする。そして、さらに内部メモリ32内の各変数がそれらの初期値として設定される。たとえば、カメラ22からの映像信号を閾値処理するための閾値(T:後述)の初期値を、内部メモリ32の適宜のレジスタ(閾値レジスタ)に設定する。さらに、モノクロカメラ22のホワイトバランスが調整される。つまり、このカメラ22で撮影したプラスチックスクリーン12を通った赤外光で作る像が白またはそれに近い色(実質的に白)になるようにチューニングされる。
【0031】
続くステップS3では、コンピュータ26は、プラスチックスクリーン12の前方に人間が存在しない状態、すなわち無人状態で、カメラ22からの映像信号データを取り込んで、背景データ(BG)を作成する。このステップS3で作成した背景データ(BG)は、システム10を設置している会場での赤外光などに対する障害物の影響を除去するために利用される。
【0032】
続いて、ステップS5では、プラスチックスクリーン12の前に人間が立って、その手16で、図1に示すようにプラスチックスクリーン12の前面12aの任意の場所を押さえ(タッチし)、その状態で、コンピュータ26は、カメラ22からの映像信号データすなわちピクセルデータ(V)を取り込む。実施例では、プラスチックスクリーン12の全面はたとえば640×480ピクセルの解像度で表され、ピクセルデータは256階調(8ビット/1ピクセル)で与えられる。このステップS5では、たとえば図5に示すようなピクセルデータが得られる。この図5に示す例では、スクリーン12上にその前方の人間が手を押し付けたときの映像のピクセルデータが得られる。
【0033】
次のステップS7では、マスク処理を実行する。具体的には、マスクデータ(M)とピクセルデータ(V)とを論理積(AND)処理する。なお、マスクデータ(V)とは、図4に示すフロー図に従って作られたノイズ除去用のデータである。
【0034】
すなわち、図4のステップS31で、赤外光源18をオンし、続くステップS33で、コンピュータ26は、ステップS3と同様に、無人状態でピクセルデータを取り込む。そして、次のステップS35で適宜の閾値で閾値処理し、ステップS37でさらに反転することによって、図6に示すようなマスクが生成される。そして、このマスクデータ(V)は、コンピュータ26の内部メモリ32(図2)に登録される。
【0035】
詳しくいうと、無人状態で撮影したとき、そのピクセルデータ(映像)は、図5の映像から人間による影(赤外光を遮光している遮光領域)を取った映像となる。図5の映像から人間の影を除去すると、赤外光源18の赤外光の丸い広がりに対してスクリーン12が矩形であることに起因して、スクリーン12の4隅にそれぞれ3角形状の薄い影ができている。この4隅の影は、それぞれが薄いときには殆ど影響しないが、濃くなると人間がスクリーン12上でポインティングすることによってできた遮光領域と区別できなくなる。そこで、実施例では、このスクリーン12の4隅を判別の対象領域としないように、図6に示すようなマスクを作成する。
【0036】
そして、このマスクのマスクデータ(V)とピクセルデータ(V)とをAND処理することによって、4隅にできた影の影響を完全になくすことができる。
【0037】
なお、このようなマスクデータ(V)は、図3のような処理の実行に先立って予め図4の処理を実行することによって、内部メモリ32に予め登録しておくようにすればよい。その都度マスクを作る面倒がなくなる。
【0038】
図3に戻って、次のステップS9では、ステップS3で取得した背景データ(BG)を、ステップS7を実行した後のデータ(V・M)から減算する。このステップS9は赤外光の障害物の影響を除去するために実行する。したがって、上述のように無人状態での影の影響を除去できるマスクを作成すれば、ステップS9を実行する必要はない。その意味では、ステップS9はオプションである。ただし、このステップS9を実行するのであれば、ステップS7におけるマスク処理がオプションとなる。換言すれば、ステップS7およびステップS9は択一的に実行されてもよい。
【0039】
次にステップS11では、これもオプションであるが、ガウス分布に従ったぼかし処理を実行する{BG(V・M−BG)}。これは、フレーム毎のノイズを除去するためである。
【0040】
そして、ステップS13において、ステップS1の初期設定で決めた閾値を用いて、閾値処理を実行する[T{BG(V・M−BG)}]。このステップS13を実行することによって、各ピクセルデータが2値化(「1」または「0」)される。たとえば、輝度レベルが「101」以上のピクセルを「1」(白)とし、「100」以下のピクセルを「0」(黒)とする。
【0041】
その後、ステップS15で黒領域を抽出する。この黒領域を抽出する手法は任意の方法が考えられるが、実施例では、たとえば、Paul S. Heckbertによって提案された「A SEED FILL ALGORITHM」(PP275−277, GRAPHICS GEMS I ’90)を利用する。この手法は、黒ピクセルが検出されなくなるまで隣接する黒ピクセルを順次たどって黒領域を検出する方法である。
【0042】
そして、ステップS15で、全ての黒領域を抽出する。このとき、各黒領域は、スクリーン12の右上隅を座標0,0として、(xmin,xmax),(ymin,ymax)で示す矩形領域として抽出される。ただし、xminは横軸(X軸)の最小値、xmaxはX軸の最大値、yminは縦軸(Y軸)の最小値、ymaxはY軸の最大値を示している。
【0043】
次のステップS17で、コンピュータ26は、各黒領域の中心座標と面積とを計算する。具体的には、各黒領域の中心座標は数1で、面積は数2でそれぞれ計算できる。
【0044】
【数1】
cx,cy=((xmin+xmax)/2,(ymin+ymax)/2)
【0045】
【数2】
面積=(xmax−xmin)×(ymax−ymin)
そして、続くステップS19で、各中心座標および面積を正規化する。中心座標や面積をスクリーンサイズや各方向のピクセル数に依存させないためである。実施例では、スクリーンサイズは横(X)640ピクセル、縦(Y)480ピクセルであるので、正規化中心座標ncx,ncyは数3で与えられる。
【0046】
【数3】
ncx=cx/640 ε[0,1]
ncy=cy/480 ε[0,1]
ただし、ε[0,1]は「0」と「1」との間で正規化することを意味する。
【0047】
また、面積の正規化は次の数4の手法による。
【0048】
【数4】
正規化面積=面積/640×480 ε[0,1]
そして、ステップS21において、ノイズを除去したり、スクリーン12の前方の人間が近づきすぎた場合などを無効にするために、過大過小の黒領域を無効にする(捨てる)。具体的には、可能最小面積をMINとし、可能最大面積をMAXとし、MIN≦面積≦MAX以外の黒領域は捨てて、たとえば図7に示す適正なサイズの黒領域のデータのみを残す。この図7は、図5に示す人間の手の部分だけが適正黒領域として検出されたことを示している。
【0049】
なお、ステップS21は、手作業で実行してもよい。
【0050】
そして、最後に、ステップS23で残った適正黒領域(図7)の中心座標および面積をタッチ点(または領域)のデータとして、出力する。
【0051】
なお、図1では1人の人間だけがプラスチックスクリーンの前方に存在するように図示したが、2人以上の人間が同時にタッチしても全てのタッチ位置を個別に同定することができる。
【0052】
この図1実施例の大画面タッチパネルシステム10は、様々な用途に用いることができるが、一例としては、情報検索のための入力装置として利用可能である。
【0053】
たとえば、コンピュータ26の外部メモリ36(または内部メモリ32)に大量の画像(静止画/動画:第1情報)を、カテゴリ毎に蓄積しておき、各カテゴリを代表するサムネイル画像(第2情報)を内部メモリ32(または外部メモリ36)内に登録しておく。そして、コンピュータ26によって、それらのサムネイル画像を図1の参照番号S1およびS2で示すように、プロジェクタ30によって、プラスチックスクリーン12上に投映する。このとき、サムネイル画像S1やS2は、スクリーン12上のランダムな位置に映写される。そして、図1のシステム10によって、上述のようにして、スクリーン12の前方の人間14が自分の手16で、どれかのサムネイル画像にタッチする。この手によるスクリーン12へのタッチが、上述の図3に示す動作に従って検出され、そのタッチ位置がサムネイル画像S1またはS2の表示位置と比較され、タッチ位置が表示位置に対して一定の関係(同一または同一ではないが一定範囲内の近い位置)であったとすると、コンピュータ26は、当該サムネイル画像が代表するカテゴリの静止画像(および/または動画像)を外部メモリ36(または内部メモリ32)から順次読み出し、任意の演出に従って、プロジェクタ30によってプラスチックスクリーン12上に映写させる。
【0054】
なお、上述の実施例では、第1情報(蓄積画像)と第2情報(サムネイル画像)とは同じメモリに蓄積されてもよく、違うメモリに記憶されてもよい。
【0055】
この実施例によれば、プラスチックスクリーン12のサイズが大きいので、多人数が参加した任意の会場での検索・表示システムとして利用することができる。
【0056】
一例として、たとえば結婚披露宴会場にこのシステム10を設置した場合、新郎新婦の各時代(小学校以前、小学校、中学校、高校、大学、社会人、など)をカテゴリとして、画像を蓄積すればよい。そして、披露宴でのイベントとして、上述のような検索・表示を行えば、披露宴を盛大に演出することができる。
【0057】
これとはやや趣きを異にするが、同様の検索・表示システムとして、たとえば葬儀会場などでも利用できる。
【0058】
さらに、上述の実施例の検索・表示システムではスクリーン12に表示する情報(映像)をいずれも画像とした。しかしながら、表示する情報の種類は、第1情報、第2情報に拘わらず、画像以外の文字等であってもよい。
【0059】
なお、上述の実施例ではプラスチックスクリーン12の前方から赤外光源18によって赤外光をスクリーン上に照射し、他方コンピュータ26はカメラ22の映像信号スクリーン12の後方で赤外光が遮光される領域を検出した。しかしながら、人間の手はそれ自体が赤外光を発するものであるから、スクリーン12を透過した赤外光を検出するようにしてもよい。この場合には、コンピュータ26はカメラ22からの映像信号を分析して赤外光が存在する領域(赤外光領域)を検出するようにすればよい。
【図面の簡単な説明】
【図1】図1はこの発明の一実施例の大画面タッチパネルシステムを示す図解図である。
【図2】図2は図1実施例のブロック図である。
【図3】図3は図1実施例においてタッチを検出する動作の一例を示すフロー図である。
【図4】図4は図1実施例においてマスクを作成する動作の一例を示すフロー図である。
【図5】図5は図1実施例においてプラスチックスクリーンの前方の人間が手でスクリーンにタッチしたときの実際の映像を示す。
【図6】図6は図1実施例において用いられるマスク画像の一例を示す図解図である。
【図7】図7はスクリーンにタッチした手によって作られた黒領域の一例を示す図解図である。
【符号の説明】
10 …大画面タッチパネルシステム
12 …プラスチックスクリーン
14 …人間
16 …手
18 …赤外光源
20 …ミラー
22 …モノクロカメラ
24 …赤外フィルタ
26 …コンピュータ
30 …プロジェクタ
32 …内部メモリ
36 …外部メモリ[0001]
[Industrial applications]
The present invention relates to a large-screen touch panel system and a search / display system, and more particularly to, for example, a novel large-screen touch panel system capable of acquiring coordinates on a large screen by standing in front of the large-screen screen and touching with a human hand. It relates to a search and display system that uses it.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a so-called touch panel, which can obtain a position (coordinate) of a point on a screen of a CRT by touching an arbitrary point on the screen with a stylus pen or a human finger, for example, has been put to practical use. I have.
[0003]
Such a touch panel can be classified into a method of detecting a touch on a CRT screen, a resistive film type, a photoelectric type, and the like.
[0004]
In the resistive film method, a transparent sheet on which an X-direction electrode is formed and a transparent sheet on which a Y-direction electrode is formed are laminated, and when pressed with a finger or a pen, a pair of electrodes on the two sheets conducts, thereby Can detect the coordinates. In the photoelectric system, when the user touches an infrared beam grid composed of an LED array and a light receiving element array on a screen, two orthogonal beams are cut off, and coordinates are detected from the positions.
[0005]
[Problems to be solved by the invention]
All of the conventional touch panels of this type are assumed to have a size of, for example, a CRT or LCD. To increase the size of the touch panel, the number of electrodes or the number of LEDs or light receiving elements must be increased. And so on, which is very expensive.
[0006]
Therefore, a main object of the present invention is to provide a novel large-screen touch panel capable of performing touch input on a large-screen screen.
[0007]
[Means for Solving the Problems]
The large-screen touch panel system according to the present invention includes: a screen made of a material capable of transmitting infrared light, an infrared light source for irradiating infrared light to the front of the screen from the front of the screen, and behind the screen. An infrared camera provided for photographing the back of the screen, a light-shielding area detecting means for detecting a light-shielding area in which infrared light is blocked based on a video signal from the infrared camera, and a size of the light-shielding area detected by the detecting means And a coordinate data output unit that outputs coordinate data of a light-shielded area whose size measured by the size measurement unit is within a certain range.
[0008]
Claim 2 is a large-screen touch panel system according to
[0009]
A third aspect is the large-screen touch panel system according to the first or second aspect, wherein the coordinate data is center coordinate data of the light-shielded area.
[0010]
A fourth aspect of the present invention is the large-screen touch panel system according to the third aspect, further comprising a normalizing unit for normalizing the coordinate data, wherein the center coordinates are the normalized center coordinates.
[0011]
This invention is a screen made of a material that can transmit infrared light, an infrared light source that irradiates infrared light from the front of the screen to the front of the screen, an infrared camera that is provided behind the screen and shoots the back of the screen, And a computer that receives a video signal from the infrared camera. The computer detects a light-shielded area in which infrared light is blocked based on the video signal from the infrared camera. And a coordinate data output step of outputting coordinate data of a light-shielded region whose measured size is within a certain range.
[0012]
In the case of directly detecting infrared light output from a human hand, for example, the present invention provides a screen made of a material that can transmit infrared light, a red screen provided behind the screen and photographing the back of the screen. Infrared light area detecting means for detecting an infrared light area based on a video signal from an outside camera or an infrared camera, and a size for measuring the size of the infrared light area detected by the detecting means. A large-screen touch panel system includes a measurement unit and a coordinate data output unit that outputs coordinate data of an infrared light region whose size measured by the size measurement unit is within a certain range.
[0013]
A search / display system according to the present invention includes a screen made of a material capable of transmitting infrared light, an infrared light source for irradiating infrared light from the front of the screen to the front of the screen, and a rear surface of the screen provided behind the screen. Camera, a projector provided behind the screen to project an image on the back of the screen, and a computer, wherein the computer has an associated memory, and the memory has the first information and the first information. A second information projecting step in which the second information is stored on the screen by the projector, and the image from the infrared camera is projected while the second information is projected on the screen. A light-shielding region detecting step of detecting a light-shielding region in which infrared light is blocked based on the signal, and measuring a size of the detected light-shielding region; Measuring the size of the light-shielded area within the predetermined range, and projecting the first information related to the second information on the screen by the projector when the coordinate data of the light-shielded area within the fixed range correlates with the display position of the second information. , A search and display system.
[0014]
[Action]
When a person stands in front of the screen and touches the screen directly with his / her hand, the shading area is formed by the hand or the human body. The detected light-shielded area (black area) is detected, and, for example, center coordinate data of the area is output as touch position data.
[0015]
Such a large screen touch panel system can be used as a search / display system. In this search / display system, first information (for example, a still image) and second information (for example, a still image) related to the first information are stored in a memory of a computer. For example, a thumbnail image) is stored. Then, the computer causes the projector to project the second information on the screen. When a human touches the screen with his / her hand to point to the second information, the touch position is detected as described above. When the touch position and the display position of the thumbnail image have a fixed relationship, a still image (first information) related to the thumbnail image (second information) is projected on the screen.
[0016]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, even if it is a very large size screen, each can be made into a touch screen (touch panel), and a several person can touch a screen directly with a hand, and can point a position on a screen. it can. Therefore, compared to a conventional small-screen touch panel, it can be used for a very wide range of uses, such as a search / display system in an event venue where many people participate.
[0017]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0018]
【Example】
The large screen
[0019]
However, in the example, the
[0020]
Above the front of the
[0021]
Behind the
[0022]
Behind the
[0023]
The video signal from the
[0024]
In the embodiment shown in FIG. 1, a
[0025]
The reason for using the
[0026]
As shown in FIG. 2, the
[0027]
As the
[0028]
The
[0029]
In the large-screen
[0030]
In the first step S1 in FIG. 3, an initial setting is performed. In this initial setting, first, the
[0031]
In the following step S3, the
[0032]
Subsequently, in step S5, a person stands in front of the
[0033]
In the next step S7, a mask process is executed. Specifically, a logical product (AND) process is performed on the mask data (M) and the pixel data (V). Note that the mask data (V) is noise removal data created according to the flowchart shown in FIG.
[0034]
That is, in step S31 of FIG. 4, the infrared
[0035]
More specifically, when photographed in an unmanned state, the pixel data (image) is an image obtained by taking a shadow of a human (a light-shielded region that blocks infrared light) from the image of FIG. When the shadow of a human is removed from the image shown in FIG. 5, the
[0036]
Then, by performing an AND process on the mask data (V) and the pixel data (V) of this mask, the influence of the shadows formed at the four corners can be completely eliminated.
[0037]
Note that such mask data (V) may be registered in the
[0038]
Returning to FIG. 3, in the next step S9, the background data (BG) acquired in step S3 is subtracted from the data (VM) after executing step S7. This step S9 is executed in order to remove the influence of the obstacle of the infrared light. Therefore, if a mask capable of removing the influence of the shadow in the unmanned state is created as described above, there is no need to execute step S9. In that sense, step S9 is optional. However, if this step S9 is executed, the mask processing in step S7 is optional. In other words, step S7 and step S9 may be executed alternatively.
[0039]
Next, in step S11, which is also optional, a blur process according to a Gaussian distribution is executed {BG (VMM-BG)}. This is to remove noise for each frame.
[0040]
Then, in step S13, threshold processing is performed using the threshold determined in the initial setting in step S1 [T {BG (VM-BG)}]. By executing step S13, each pixel data is binarized ("1" or "0"). For example, a pixel having a luminance level of “101” or more is “1” (white), and a pixel of “100” or less is “0” (black).
[0041]
Then, a black area is extracted in step S15. Although any method can be considered as a method for extracting the black region, in the embodiment, for example, Paul S.M. Utilize “A SEED FILL ALGORITHM” (PP275-277, GRAPHICS GEMS I '90) proposed by Heckbert. In this method, a black area is detected by sequentially following adjacent black pixels until no black pixel is detected.
[0042]
Then, in step S15, all black areas are extracted. At this time, each black area is extracted as a rectangular area represented by (xmin, xmax), (ymin, ymax), with the upper right corner of the
[0043]
In the next step S17, the
[0044]
(Equation 1)
cx, cy = ((xmin + xmax) / 2, (ymin + ymax) / 2)
[0045]
(Equation 2)
Area = (xmax−xmin) × (ymax−ymin)
Then, in a succeeding step S19, each center coordinate and area are normalized. This is because the center coordinates and the area do not depend on the screen size or the number of pixels in each direction. In the embodiment, since the screen size is 640 pixels in the horizontal (X) and 480 pixels in the vertical (Y), the normalized center coordinates ncx and ncy are given by Expression 3.
[0046]
[Equation 3]
ncx = cx / 640 ε [0,1]
ncy = cy / 480 ε [0,1]
Here, ε [0, 1] means normalizing between “0” and “1”.
[0047]
The normalization of the area is based on the following equation (4).
[0048]
(Equation 4)
Normalized area = area / 640 × 480 ε [0,1]
Then, in step S21, in order to remove noise or invalidate a case where a person in front of the
[0049]
Step S21 may be performed manually.
[0050]
Finally, the center coordinates and the area of the appropriate black area (FIG. 7) remaining in step S23 are output as data of the touch point (or area).
[0051]
Although FIG. 1 shows that only one person exists in front of the plastic screen, all touch positions can be individually identified even when two or more people touch simultaneously.
[0052]
The large-screen
[0053]
For example, a large amount of images (still images / moving images: first information) are stored in the external memory 36 (or the internal memory 32) of the
[0054]
In the above-described embodiment, the first information (accumulated image) and the second information (thumbnail image) may be stored in the same memory or may be stored in different memories.
[0055]
According to this embodiment, since the size of the
[0056]
As an example, when the
[0057]
Although slightly different from this, a similar search / display system can be used, for example, in a funeral hall.
[0058]
Furthermore, in the search / display system of the above-described embodiment, all information (video) displayed on the
[0059]
In the embodiment described above, infrared light is irradiated onto the screen from the front of the
[Brief description of the drawings]
FIG. 1 is an illustrative view showing a large-screen touch panel system according to an embodiment of the present invention;
FIG. 2 is a block diagram of the embodiment of FIG. 1;
FIG. 3 is a flowchart showing an example of an operation of detecting a touch in the embodiment of FIG. 1;
FIG. 4 is a flowchart showing an example of an operation for creating a mask in the embodiment of FIG. 1;
FIG. 5 shows an actual image when a person in front of the plastic screen touches the screen with a hand in the embodiment of FIG. 1;
FIG. 6 is an illustrative view showing one example of a mask image used in the embodiment in FIG. 1;
FIG. 7 is an illustrative view showing one example of a black area created by a hand touching a screen;
[Explanation of symbols]
DESCRIPTION OF
Claims (7)
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、
前記赤外カメラからの映像信号に基づいて前記赤外光が遮られた遮光領域を検出する遮光領域検出手段、
前記検出手段によって検出された遮光領域のサイズを計測するサイズ計測手段、および
前記サイズ計測手段によって計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力手段を備える、大画面タッチパネルシステム。A screen made of a material that can transmit infrared light,
An infrared light source that irradiates infrared light to the front of the screen from the front of the screen,
An infrared camera provided behind the screen and photographing the back of the screen,
A light-shielding region detecting unit that detects a light-shielding region in which the infrared light is blocked based on a video signal from the infrared camera,
A large screen, comprising: a size measuring unit that measures the size of the light-blocking region detected by the detecting unit; and a coordinate data output unit that outputs coordinate data of the light-blocking region whose size measured by the size measuring unit is within a certain range. Touch panel system.
前記中心座標は正規化された中心座標である、請求項3記載の大画面タッチパネルシステム。Further comprising a normalizing means for normalizing the coordinate data,
The large screen touch panel system according to claim 3, wherein the center coordinates are normalized center coordinates.
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、および
前記赤外カメラからの映像信号を受けるコンピュータを備え、
前記コンピュータは
前記赤外カメラからの映像信号に基づいて前記赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、
検出された遮光領域のサイズを計測するサイズ計測ステップ、および
計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力ステップを実行する、大画面タッチパネルシステム。A screen made of a material that can transmit infrared light,
An infrared light source that irradiates infrared light to the front of the screen from the front of the screen,
An infrared camera that is provided behind the screen and shoots the back of the screen, and a computer that receives a video signal from the infrared camera,
The computer is a light-blocking area detecting step of detecting a light-blocking area where the infrared light is blocked based on a video signal from the infrared camera,
A large-screen touch panel system for executing a size measuring step of measuring a size of a detected light-shielded area and a coordinate data output step of outputting coordinate data of a light-shielded area whose measured size is within a predetermined range.
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、
前記赤外カメラからの映像信号に基づいて前記赤外光の存在する領域赤外光領域を検出する赤外光領域検出手段、
前記検出手段によって検出された赤外光領域のサイズを計測するサイズ計測手段、および
前記サイズ計測手段によって計測されたサイズが一定範囲内の赤外光領域の座標データを出力する座標データ出力手段を備える、大画面タッチパネルシステム。A screen made of a material that can transmit infrared light,
An infrared camera provided behind the screen and photographing the back of the screen,
Infrared light region detection means for detecting an infrared light region where the infrared light is present based on a video signal from the infrared camera,
Size measuring means for measuring the size of the infrared light area detected by the detecting means, and coordinate data output means for outputting the coordinate data of the infrared light area whose size measured by the size measuring means is within a certain range. Equipped with a large screen touch panel system.
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、
前記スクリーンの後方に設けられて前記スクリーンの前記背面に映像を投影するプロジェクタ、および
コンピュータを備え、前記コンピュータは関連するメモリを有し、前記メモリには第1情報と前記第1情報に関連する第2情報とを蓄積しておき、
前記コンピュータは
前記第2情報を前記プロジェクタによって前記スクリーン上に映写させる第2情報映写ステップ、
前記第2情報が前記スクリーン上に映写されている状態で前記赤外カメラからの映像信号に基づいて前記赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、
検出された遮光領域のサイズを計測するサイズ計測ステップ、および
計測されたサイズが一定範囲内の遮光領域の座標データが前記第2情報の表示位置に相関するとき、前記第2情報に関連する前記第1情報を前記プロジェクタによって前記スクリーン上に映写させるステップを実行する、検索・表示システム。A screen made of a material that can transmit infrared light,
An infrared light source that irradiates infrared light to the front of the screen from the front of the screen,
An infrared camera provided behind the screen and photographing the back of the screen,
A projector provided behind the screen and projecting an image on the back of the screen; and a computer, wherein the computer has an associated memory, wherein the memory has first information and an associated first information. Accumulate the second information and
A second information projection step of projecting the second information on the screen by the projector;
A light-shielding region detecting step of detecting a light-shielding region in which the infrared light is shielded based on a video signal from the infrared camera in a state where the second information is projected on the screen;
A size measuring step of measuring the size of the detected light-shielding region; and, when the coordinate data of the light-shielding region whose measured size is within a predetermined range correlates with the display position of the second information, the size related to the second information. A search and display system that performs a step of projecting first information on the screen by the projector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003116122A JP4033802B2 (en) | 2003-04-21 | 2003-04-21 | Large screen touch panel system and search / display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003116122A JP4033802B2 (en) | 2003-04-21 | 2003-04-21 | Large screen touch panel system and search / display system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007216577A Division JP2007299434A (en) | 2007-08-23 | 2007-08-23 | Large-screen touch panel system, and retrieval/display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004326188A true JP2004326188A (en) | 2004-11-18 |
JP4033802B2 JP4033802B2 (en) | 2008-01-16 |
Family
ID=33496467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003116122A Expired - Fee Related JP4033802B2 (en) | 2003-04-21 | 2003-04-21 | Large screen touch panel system and search / display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4033802B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241737A (en) * | 2006-03-09 | 2007-09-20 | Hitachi Ltd | Table type information display terminal |
JP2007299434A (en) * | 2007-08-23 | 2007-11-15 | Advanced Telecommunication Research Institute International | Large-screen touch panel system, and retrieval/display system |
DE102008034283A1 (en) | 2008-07-22 | 2010-01-28 | Evoluce Ag | Multitouch-screen for identifying blobs, has liquid crystal-screen plane, on which user of multitouch-screen generates blobs by touching liquid crystal-screen plane, which are identified and evaluated by evaluation unit |
EP2348390A1 (en) | 2010-01-20 | 2011-07-27 | Evoluce Ag | Input device with a camera |
JP2012113736A (en) * | 2007-02-15 | 2012-06-14 | Qualcomm Inc | Input using flashing electromagnetic radiation |
GB2486445A (en) * | 2010-12-14 | 2012-06-20 | New Index As | Determining touch or hover behaviour of an object interacting with a touch screen, using off-axis parabolic mirror |
JP2015158884A (en) * | 2014-01-21 | 2015-09-03 | セイコーエプソン株式会社 | Position detection apparatus, projector, position detection system, and method of controlling position detection apparatus |
JP2019120885A (en) * | 2018-01-10 | 2019-07-22 | パナソニックIpマネジメント株式会社 | Projection control system and projection control method |
US10831288B2 (en) | 2016-10-27 | 2020-11-10 | Seiko Epson Corporation | Projector, projection system, and detection light radiator |
-
2003
- 2003-04-21 JP JP2003116122A patent/JP4033802B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241737A (en) * | 2006-03-09 | 2007-09-20 | Hitachi Ltd | Table type information display terminal |
US8818040B2 (en) | 2007-02-15 | 2014-08-26 | Qualcomm Incorporated | Enhanced input using flashing electromagnetic radiation |
CN104932690A (en) * | 2007-02-15 | 2015-09-23 | 高通股份有限公司 | Enhanced Input Using Flashing Electromagnetic Radiation |
JP2012113736A (en) * | 2007-02-15 | 2012-06-14 | Qualcomm Inc | Input using flashing electromagnetic radiation |
CN104932690B (en) * | 2007-02-15 | 2018-07-13 | 高通股份有限公司 | It is inputted using the enhancing of flashing electromagnetic radiation |
JP2007299434A (en) * | 2007-08-23 | 2007-11-15 | Advanced Telecommunication Research Institute International | Large-screen touch panel system, and retrieval/display system |
DE102008034283A1 (en) | 2008-07-22 | 2010-01-28 | Evoluce Ag | Multitouch-screen for identifying blobs, has liquid crystal-screen plane, on which user of multitouch-screen generates blobs by touching liquid crystal-screen plane, which are identified and evaluated by evaluation unit |
EP2348390A1 (en) | 2010-01-20 | 2011-07-27 | Evoluce Ag | Input device with a camera |
CN103477311B (en) * | 2010-11-22 | 2016-08-10 | 爱普生挪威研究和发展公司 | Multiple point touching interactive device based on camera, system and method |
CN103477311A (en) * | 2010-11-22 | 2013-12-25 | 爱普生挪威研究和发展公司 | Camera-based multi-touch interaction apparatus, system and method |
GB2486445A (en) * | 2010-12-14 | 2012-06-20 | New Index As | Determining touch or hover behaviour of an object interacting with a touch screen, using off-axis parabolic mirror |
GB2486445B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction apparatus system and method |
JP2015158884A (en) * | 2014-01-21 | 2015-09-03 | セイコーエプソン株式会社 | Position detection apparatus, projector, position detection system, and method of controlling position detection apparatus |
US10831288B2 (en) | 2016-10-27 | 2020-11-10 | Seiko Epson Corporation | Projector, projection system, and detection light radiator |
JP2019120885A (en) * | 2018-01-10 | 2019-07-22 | パナソニックIpマネジメント株式会社 | Projection control system and projection control method |
JP7054774B2 (en) | 2018-01-10 | 2022-04-15 | パナソニックIpマネジメント株式会社 | Projection control system and projection control method |
Also Published As
Publication number | Publication date |
---|---|
JP4033802B2 (en) | 2008-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2321697B1 (en) | Spatially adaptive photographic flash unit | |
US7984995B2 (en) | Method and apparatus for inhibiting a subject's eyes from being exposed to projected light | |
US7872637B2 (en) | System and method for tracking a laser spot on a projected computer screen image | |
JP4883970B2 (en) | Method and system for canceling ambient light using optical frequency | |
JP3885458B2 (en) | Projected image calibration method and apparatus, and machine-readable medium | |
US20110199335A1 (en) | Determining a Position of an Object Using a Single Camera | |
Abileah et al. | 59.3: Integrated Optical Touch Panel in a 14.1 ″AMLCD | |
KR20100072207A (en) | Detecting finger orientation on a touch-sensitive device | |
US20120200535A1 (en) | System and method for improving machine vision in the presence of ambient light | |
EP2128693A1 (en) | Spatially Adaptive Photographic Flash Unit | |
CN107222591A (en) | Image sensor, camera module and electronic installation | |
JP4033802B2 (en) | Large screen touch panel system and search / display system | |
JP2007299434A (en) | Large-screen touch panel system, and retrieval/display system | |
TW201305856A (en) | Projection system and image processing method thereof | |
US8654103B2 (en) | Interactive display | |
US9075482B2 (en) | Optical touch display | |
JP6898150B2 (en) | Pore detection method and pore detection device | |
JP2021092439A (en) | Illumination optimization method, control device, and program | |
JP2020160808A (en) | Position detection method, position detection device, and interactive projector | |
JP5550111B2 (en) | Imaging apparatus, imaging method, and program | |
JPWO2019159759A1 (en) | Operation detection device and operation detection method | |
WO2010023348A1 (en) | Interactive displays | |
WO2018207490A1 (en) | Contactless three-dimensional touch panel, contactless three-dimensional touch panel system, contactless three-dimensional touch panel control method, program and recording medium | |
CN212781988U (en) | High-precision touch interaction system for multi-surface splicing projection | |
US9298319B2 (en) | Multi-touch recognition apparatus using filtering and a difference image and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060925 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070921 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071023 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |