JP2004326188A - Large screen touch panel system and search/display system - Google Patents

Large screen touch panel system and search/display system Download PDF

Info

Publication number
JP2004326188A
JP2004326188A JP2003116122A JP2003116122A JP2004326188A JP 2004326188 A JP2004326188 A JP 2004326188A JP 2003116122 A JP2003116122 A JP 2003116122A JP 2003116122 A JP2003116122 A JP 2003116122A JP 2004326188 A JP2004326188 A JP 2004326188A
Authority
JP
Japan
Prior art keywords
screen
light
infrared light
size
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003116122A
Other languages
Japanese (ja)
Other versions
JP4033802B2 (en
Inventor
Lopez Roberto
ロベルト ロペス
Mignonneau Laurent
ローラン ミニョーノ
Sommerer Christa
クリスタ ソムラー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003116122A priority Critical patent/JP4033802B2/en
Publication of JP2004326188A publication Critical patent/JP2004326188A/en
Application granted granted Critical
Publication of JP4033802B2 publication Critical patent/JP4033802B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Overhead Projectors And Projection Screens (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a large screen touch panel allowing touch input via a large screen. <P>SOLUTION: In this large screen touch panel system 10 including a plastic screen 12, the screen is irradiated with an infrared light source 18 from the front side of the screen 12, and in this condition, a person touches the screen manually. A camera 22 photographs the back face of the screen 12 via a mirror 20 and gives its image signal to a computer 26. On the basis of this image signal, a shaded area, in which the infrared ray is cut off by a hand, is detected by the computer 26. When the shaded area has a proper size (a size of the hand, for example), the coordinates of the shade area center are detected as a touched position on the screen 12. In this way, the large screen can be used as a touch panel. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【産業上の利用分野】
この発明は大画面タッチパネルシステムおよび検索・表示システムに関し、特にたとえば、人間が大画面スクリーンの前に立ち人間の手でタッチすることによって大画面上の座標を獲得できる、新規な大画面タッチパネルシステムとそれを利用する検索・表示システムに関する。
【0002】
【従来の技術】
従来、たとえばCRTの画面上の任意の点をたとえばスタイラスペンや人間の指でタッチすることにより、その点の画面上での位置(座標)を得ることができる、いわゆるタッチパネルが実用に供されている。
【0003】
このようなタッチパネルとしては、CRT画面へのタッチを検出する方式で分類すると、抵抗膜方式、光電方式などがある。
【0004】
抵抗膜方式では、X方向電極が形成された透明シートとY方向電極が形成された透明シートとを積層し、指やペンで押すと2枚のシート上の1対の電極が導通し、それによって座標を検知することができる。また、光電方式では、画面上のLEDアレイと受光素子アレイから構成される赤外線ビーム格子内にタッチすると2本の直交ビームが遮断され、その位置から座標を検出する。
【0005】
【発明が解決しようとする課題】
この種の従来のタッチパネルはいずれも、たとえばCRTやLCD程度のサイズを前提とするものであり、それを大画面化するためには、電極数を多くしたり、LEDや受光素子数を多くするなどが必要であり、したがって、非常に高価になってしまう。
【0006】
それゆえに、この発明の主たる目的は、大画面スクリーンでタッチ入力が可能な、新規な大画面タッチパネルを提供することである。
【0007】
【課題を解決するための手段】
この発明に従った大画面タッチパネルシステムは、次のものを備える:赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、赤外カメラからの映像信号に基づいて赤外光が遮られた遮光領域を検出する遮光領域検出手段、検出手段によって検出された遮光領域のサイズを計測するサイズ計測手段、およびサイズ計測手段によって計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力手段。
【0008】
請求項2は請求項1に従属し、スクリーンの後方にミラーをさらに設け、赤外カメラはミラーを通してスクリーンの背面全面を撮影する、大画面タッチパネルシステムである。
【0009】
請求項3は請求項1または2に従属し、座標データは遮光領域の中心座標データである、大画面タッチパネルシステムである。
【0010】
請求項4は請求項3に従属し、座標データを正規化するための正規化手段をさらに備え、中心座標は正規化された中心座標である、大画面タッチパネルシステムである。
【0011】
この発明は、赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、および赤外カメラからの映像信号を受けるコンピュータを備え、コンピュータは赤外カメラからの映像信号に基づいて赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、検出された遮光領域のサイズを計測するサイズ計測ステップ、および計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力ステップを実行する、大画面タッチパネルシステム。
【0012】
なお、たとえば人間の手から出力される赤外光を直接検出する場合には、この発明は、赤外光を透過できる材料からなるスクリーン、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、赤外カメラからの映像信号に基づいて赤外光の存在する領域赤外光領域を検出する赤外光領域検出手段、検出手段によって検出された赤外光領域のサイズを計測するサイズ計測手段、およびサイズ計測手段によって計測されたサイズが一定範囲内の赤外光領域の座標データを出力する座標データ出力手段を備える、大画面タッチパネルシステムである。
【0013】
この発明に従った検索・表示システムは、赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、記スクリーンの後方に設けられてスクリーンの背面に映像を投影するプロジェクタ、およびコンピュータを備え、コンピュータは関連するメモリを有し、メモリには第1情報と第1情報に関連する第2情報とを蓄積しておき、コンピュータは第2情報をプロジェクタによってスクリーン上に映写させる第2情報映写ステップ、第2情報がスクリーン上に映写されている状態で赤外カメラからの映像信号に基づいて赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、検出された遮光領域のサイズを計測するサイズ計測ステップ、および計測されたサイズが一定範囲内の遮光領域の座標データが第2情報の表示位置に相関するとき、第2情報に関連する第1情報をプロジェクタによってスクリーン上に映写させるステップを実行する、検索・表示システムである。
【0014】
【作用】
スクリーンの前方に人間が立って、人間が手によってスクリーンに直接タッチすると、その手や人間の体によって遮光領域が形成されるが、サイズが適正な遮光領域、この場合であれば、手によって形成された遮光領域(黒領域)が検出され、当該領域のたとえば中心座標データが、タッチ位置データとして出力される。
【0015】
このような大画面タッチパネルシステムは、検索・表示システムとして利用できるが、この検索・表示システムでは、コンピュータのメモリに第1情報(たとえば、静止画像)とその第1情報に関連する第2情報(たとえば、サムネイル画像)とを蓄積しておく。そして、コンピュータはプロジェクタによって、第2情報をスクリーン上に映写させる。その第2情報をポインティングしようとして人間が手でスクリーンをタッチすると、上述のようにしてタッチ位置が検出される。このタッチ位置とサムネイム画像の表示位置とが一定の関係あるとき、そのサムネイル画像(第2情報)に関連する静止画像(第1情報)をスクリーン上に映写させる。
【0016】
【発明の効果】
この発明によれば、非常に大きいサイズのスクリーンでも、それぞれをタッチスクリーン(タッチパネル)にすることができ、複数の人間が手でスクリーンを直接タッチすることによって、スクリーン上の位置をポインティングすることができる。したがって、従来の小画面のタッチパネルに比べて、たとえば多人数参加のイベント会場における検索・表示システムなどの非常に広範な用途に利用可能である。
【0017】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0018】
【実施例】
図1に示すこの実施例の大画面タッチパネルシステム10は、たとえば250×180cm程度のサイズのプラスチックスクリーン12を含む。ただし、このサイズは単なる一例であり、用途に応じて任意に変更可能である。プラスチックスクリーン12は、赤外光透過可能材料、たとえばポリカーボネイトなどのプラスチックからなり、全体としてたとえば乳白色である。ただし、このプラスチックスクリーン12は完全な透明ではない。なぜなら、このプラスチックスクリーン12は、後述のプロジェクタ30から映像を映写するための投影スクリーンとして機能する必要があるからである。また、このプラスチックスクリーン12は、比較的大きい剛性を有する。なぜなら、この大画面タッチパネルシステム10では、図1に示すように、プラスチックスクリーン12の前方の人間14が、自分の手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の位置(点または領域)を指示するからである。つまり、プラスチックスクリーン12には人間の手が触っても容易には変形しない程度の剛性が必要である。
【0019】
ただし、実施例ではプラスチックでスクリーン12を形成した。しかしながら、ガラスや他の赤外光透過材料が用いられてもよい。
【0020】
このプラスチックスクリーン12の前方上方には、スクリーン12の前面12aの全面に赤外光を投射するための赤外光源18が設けられる。この赤外光源18としては、ハロゲンランプまたはブラックライトなどが利用可能である。この赤外光源18を設ける位置は基本的にはプラスチックスクリーン12のサイズに依存して決定されるが、実施例のプラスチックスクリーン12が上記サイズであれば、たとえば、赤外光源18は、プラスチックスクリーン12の前面12aから200−400cm離れた高さ200−300cmの位置に配置される。赤外光源18から投射された赤外光はプラスチックスクリーン12の前面12aから入射し、このスクリーン12を透過して背面12bに至る。これらの数値は単なる例示である。
【0021】
プラスチックスクリーン12の後方には、ミラー20が設けられる。このミラー20はプラスチックスクリーン12の背面12bの全面を映出できる大きさにされかつその位置に配置される。実施例ではプラスチックスクリーン12がたとえば250×180cmであれば、ミラー20はたとえば150×110cm程度の大きさにされ、プラスチックスクリーン12の背面からたとえば200cm後方に配置される。これらの数値も単なる例示である。
【0022】
プラスチックスクリーン12の後方には、このミラー20の表面に合焦されたモノクロカメラ22が設けられる。このモノクロカメラ22には赤外フィルタ24が装着される。したがって、このカメラ22は全体としては、赤外カメラとして機能する。そのため、モノクロカメラ22および赤外フィルタ24は赤外カメラに代えられてもよい。このカメラ22はミラー20を通してプラスチックスクリーン12の背面全面を撮影する。
【0023】
カメラ22からの映像信号は、図2からよくわかるように、A/D変換器28によって映像信号データに変換されて、コンピュータ26に入力される。
【0024】
この図1に示す実施例では、プラスチックスクリーン12の後方に、プロジェクタ30が設けられる。このプロジェクタ30は、前述のようにプラスチックスクリーン12の背面12bの全面に映像を投射するためのものである。実施例では、プロジェクタ30は、ミラー20を通して、背面12bの全面に投影できるようにされる。プロジェクタ30から投射された映像(光学像)は、ミラー20で反射されて、プラスチックスクリーン12の背面12bに投影される。したがって、このプラスチックスクリーン12の前面12aから、その投影された映像を見ることができる。
【0025】
なお、ミラー20を用いる理由は、プラスチックスクリーン12の後方のスペースを可及的小さくするためである。したがって、当然のことではあるが、ミラー20を省略することができる。この場合には、上述のカメラ22がプラスチックスクリーン12の背面12bの全域を直接撮影し、プロジェクタ30からプロジェクタスクリーン12の背面12bに映像が直接投射される。
【0026】
図2に示すように、コンピュータ26にはたとえば半導体メモリやハードディスクなどの内部メモリ32が内蔵されるとともに、必要に応じて、メモリインタフェース34を介して、半導体メモリである外部メモリ36が接続される。内部メモリ32は、後述のフロー図に示すようなプログラムを予め記憶するプログラムメモリとして、さらには画像処理のためのワーキングメモリやレジスタなどとして利用される。プロジェクタ30を用いる場合には、内部メモリ32はさらに、プロジェクタ30のためのメモリのビデオメモリ(VRAM)としても用いられる。
【0027】
なお、外部メモリ36としては、半導体メモリ以外に、磁気記録媒体、光学式記録媒体、光磁気記録媒体などが用いられ得るが、ここでは便宜上すべて「メモリ」の用語を使用する。したがって、「メモリ」というときは、あらゆる形式の記憶媒体または記録媒体を指すものと理解されたい。
【0028】
なお、コンピュータ26は、さらに、ランプドライバ38を制御し、赤外光源18のオン/オフを制御するとともに、必要な場合には、その赤外光源18の輝度を調節する。
【0029】
図1実施例の大画面タッチパネルシステム10では、先に概説したように、プラスチックスクリーン12の前方の人間14が、手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の座標位置を指示するが、そのための動作を、図3のフロー図を参照して説明する。
【0030】
図3の最初のステップS1では、初期設定が実行される。この初期設定では、まず、コンピュータ26は、ランプドライバ38を制御して、赤外光源18をオンする。そして、さらに内部メモリ32内の各変数がそれらの初期値として設定される。たとえば、カメラ22からの映像信号を閾値処理するための閾値(T:後述)の初期値を、内部メモリ32の適宜のレジスタ(閾値レジスタ)に設定する。さらに、モノクロカメラ22のホワイトバランスが調整される。つまり、このカメラ22で撮影したプラスチックスクリーン12を通った赤外光で作る像が白またはそれに近い色(実質的に白)になるようにチューニングされる。
【0031】
続くステップS3では、コンピュータ26は、プラスチックスクリーン12の前方に人間が存在しない状態、すなわち無人状態で、カメラ22からの映像信号データを取り込んで、背景データ(BG)を作成する。このステップS3で作成した背景データ(BG)は、システム10を設置している会場での赤外光などに対する障害物の影響を除去するために利用される。
【0032】
続いて、ステップS5では、プラスチックスクリーン12の前に人間が立って、その手16で、図1に示すようにプラスチックスクリーン12の前面12aの任意の場所を押さえ(タッチし)、その状態で、コンピュータ26は、カメラ22からの映像信号データすなわちピクセルデータ(V)を取り込む。実施例では、プラスチックスクリーン12の全面はたとえば640×480ピクセルの解像度で表され、ピクセルデータは256階調(8ビット/1ピクセル)で与えられる。このステップS5では、たとえば図5に示すようなピクセルデータが得られる。この図5に示す例では、スクリーン12上にその前方の人間が手を押し付けたときの映像のピクセルデータが得られる。
【0033】
次のステップS7では、マスク処理を実行する。具体的には、マスクデータ(M)とピクセルデータ(V)とを論理積(AND)処理する。なお、マスクデータ(V)とは、図4に示すフロー図に従って作られたノイズ除去用のデータである。
【0034】
すなわち、図4のステップS31で、赤外光源18をオンし、続くステップS33で、コンピュータ26は、ステップS3と同様に、無人状態でピクセルデータを取り込む。そして、次のステップS35で適宜の閾値で閾値処理し、ステップS37でさらに反転することによって、図6に示すようなマスクが生成される。そして、このマスクデータ(V)は、コンピュータ26の内部メモリ32(図2)に登録される。
【0035】
詳しくいうと、無人状態で撮影したとき、そのピクセルデータ(映像)は、図5の映像から人間による影(赤外光を遮光している遮光領域)を取った映像となる。図5の映像から人間の影を除去すると、赤外光源18の赤外光の丸い広がりに対してスクリーン12が矩形であることに起因して、スクリーン12の4隅にそれぞれ3角形状の薄い影ができている。この4隅の影は、それぞれが薄いときには殆ど影響しないが、濃くなると人間がスクリーン12上でポインティングすることによってできた遮光領域と区別できなくなる。そこで、実施例では、このスクリーン12の4隅を判別の対象領域としないように、図6に示すようなマスクを作成する。
【0036】
そして、このマスクのマスクデータ(V)とピクセルデータ(V)とをAND処理することによって、4隅にできた影の影響を完全になくすことができる。
【0037】
なお、このようなマスクデータ(V)は、図3のような処理の実行に先立って予め図4の処理を実行することによって、内部メモリ32に予め登録しておくようにすればよい。その都度マスクを作る面倒がなくなる。
【0038】
図3に戻って、次のステップS9では、ステップS3で取得した背景データ(BG)を、ステップS7を実行した後のデータ(V・M)から減算する。このステップS9は赤外光の障害物の影響を除去するために実行する。したがって、上述のように無人状態での影の影響を除去できるマスクを作成すれば、ステップS9を実行する必要はない。その意味では、ステップS9はオプションである。ただし、このステップS9を実行するのであれば、ステップS7におけるマスク処理がオプションとなる。換言すれば、ステップS7およびステップS9は択一的に実行されてもよい。
【0039】
次にステップS11では、これもオプションであるが、ガウス分布に従ったぼかし処理を実行する{BG(V・M−BG)}。これは、フレーム毎のノイズを除去するためである。
【0040】
そして、ステップS13において、ステップS1の初期設定で決めた閾値を用いて、閾値処理を実行する[T{BG(V・M−BG)}]。このステップS13を実行することによって、各ピクセルデータが2値化(「1」または「0」)される。たとえば、輝度レベルが「101」以上のピクセルを「1」(白)とし、「100」以下のピクセルを「0」(黒)とする。
【0041】
その後、ステップS15で黒領域を抽出する。この黒領域を抽出する手法は任意の方法が考えられるが、実施例では、たとえば、Paul S. Heckbertによって提案された「A SEED FILL ALGORITHM」(PP275−277, GRAPHICS GEMS I ’90)を利用する。この手法は、黒ピクセルが検出されなくなるまで隣接する黒ピクセルを順次たどって黒領域を検出する方法である。
【0042】
そして、ステップS15で、全ての黒領域を抽出する。このとき、各黒領域は、スクリーン12の右上隅を座標0,0として、(xmin,xmax),(ymin,ymax)で示す矩形領域として抽出される。ただし、xminは横軸(X軸)の最小値、xmaxはX軸の最大値、yminは縦軸(Y軸)の最小値、ymaxはY軸の最大値を示している。
【0043】
次のステップS17で、コンピュータ26は、各黒領域の中心座標と面積とを計算する。具体的には、各黒領域の中心座標は数1で、面積は数2でそれぞれ計算できる。
【0044】
【数1】
cx,cy=((xmin+xmax)/2,(ymin+ymax)/2)
【0045】
【数2】
面積=(xmax−xmin)×(ymax−ymin)
そして、続くステップS19で、各中心座標および面積を正規化する。中心座標や面積をスクリーンサイズや各方向のピクセル数に依存させないためである。実施例では、スクリーンサイズは横(X)640ピクセル、縦(Y)480ピクセルであるので、正規化中心座標ncx,ncyは数3で与えられる。
【0046】
【数3】
ncx=cx/640 ε[0,1]
ncy=cy/480 ε[0,1]
ただし、ε[0,1]は「0」と「1」との間で正規化することを意味する。
【0047】
また、面積の正規化は次の数4の手法による。
【0048】
【数4】
正規化面積=面積/640×480 ε[0,1]
そして、ステップS21において、ノイズを除去したり、スクリーン12の前方の人間が近づきすぎた場合などを無効にするために、過大過小の黒領域を無効にする(捨てる)。具体的には、可能最小面積をMINとし、可能最大面積をMAXとし、MIN≦面積≦MAX以外の黒領域は捨てて、たとえば図7に示す適正なサイズの黒領域のデータのみを残す。この図7は、図5に示す人間の手の部分だけが適正黒領域として検出されたことを示している。
【0049】
なお、ステップS21は、手作業で実行してもよい。
【0050】
そして、最後に、ステップS23で残った適正黒領域(図7)の中心座標および面積をタッチ点(または領域)のデータとして、出力する。
【0051】
なお、図1では1人の人間だけがプラスチックスクリーンの前方に存在するように図示したが、2人以上の人間が同時にタッチしても全てのタッチ位置を個別に同定することができる。
【0052】
この図1実施例の大画面タッチパネルシステム10は、様々な用途に用いることができるが、一例としては、情報検索のための入力装置として利用可能である。
【0053】
たとえば、コンピュータ26の外部メモリ36(または内部メモリ32)に大量の画像(静止画/動画:第1情報)を、カテゴリ毎に蓄積しておき、各カテゴリを代表するサムネイル画像(第2情報)を内部メモリ32(または外部メモリ36)内に登録しておく。そして、コンピュータ26によって、それらのサムネイル画像を図1の参照番号S1およびS2で示すように、プロジェクタ30によって、プラスチックスクリーン12上に投映する。このとき、サムネイル画像S1やS2は、スクリーン12上のランダムな位置に映写される。そして、図1のシステム10によって、上述のようにして、スクリーン12の前方の人間14が自分の手16で、どれかのサムネイル画像にタッチする。この手によるスクリーン12へのタッチが、上述の図3に示す動作に従って検出され、そのタッチ位置がサムネイル画像S1またはS2の表示位置と比較され、タッチ位置が表示位置に対して一定の関係(同一または同一ではないが一定範囲内の近い位置)であったとすると、コンピュータ26は、当該サムネイル画像が代表するカテゴリの静止画像(および/または動画像)を外部メモリ36(または内部メモリ32)から順次読み出し、任意の演出に従って、プロジェクタ30によってプラスチックスクリーン12上に映写させる。
【0054】
なお、上述の実施例では、第1情報(蓄積画像)と第2情報(サムネイル画像)とは同じメモリに蓄積されてもよく、違うメモリに記憶されてもよい。
【0055】
この実施例によれば、プラスチックスクリーン12のサイズが大きいので、多人数が参加した任意の会場での検索・表示システムとして利用することができる。
【0056】
一例として、たとえば結婚披露宴会場にこのシステム10を設置した場合、新郎新婦の各時代(小学校以前、小学校、中学校、高校、大学、社会人、など)をカテゴリとして、画像を蓄積すればよい。そして、披露宴でのイベントとして、上述のような検索・表示を行えば、披露宴を盛大に演出することができる。
【0057】
これとはやや趣きを異にするが、同様の検索・表示システムとして、たとえば葬儀会場などでも利用できる。
【0058】
さらに、上述の実施例の検索・表示システムではスクリーン12に表示する情報(映像)をいずれも画像とした。しかしながら、表示する情報の種類は、第1情報、第2情報に拘わらず、画像以外の文字等であってもよい。
【0059】
なお、上述の実施例ではプラスチックスクリーン12の前方から赤外光源18によって赤外光をスクリーン上に照射し、他方コンピュータ26はカメラ22の映像信号スクリーン12の後方で赤外光が遮光される領域を検出した。しかしながら、人間の手はそれ自体が赤外光を発するものであるから、スクリーン12を透過した赤外光を検出するようにしてもよい。この場合には、コンピュータ26はカメラ22からの映像信号を分析して赤外光が存在する領域(赤外光領域)を検出するようにすればよい。
【図面の簡単な説明】
【図1】図1はこの発明の一実施例の大画面タッチパネルシステムを示す図解図である。
【図2】図2は図1実施例のブロック図である。
【図3】図3は図1実施例においてタッチを検出する動作の一例を示すフロー図である。
【図4】図4は図1実施例においてマスクを作成する動作の一例を示すフロー図である。
【図5】図5は図1実施例においてプラスチックスクリーンの前方の人間が手でスクリーンにタッチしたときの実際の映像を示す。
【図6】図6は図1実施例において用いられるマスク画像の一例を示す図解図である。
【図7】図7はスクリーンにタッチした手によって作られた黒領域の一例を示す図解図である。
【符号の説明】
10 …大画面タッチパネルシステム
12 …プラスチックスクリーン
14 …人間
16 …手
18 …赤外光源
20 …ミラー
22 …モノクロカメラ
24 …赤外フィルタ
26 …コンピュータ
30 …プロジェクタ
32 …内部メモリ
36 …外部メモリ
[0001]
[Industrial applications]
The present invention relates to a large-screen touch panel system and a search / display system, and more particularly to, for example, a novel large-screen touch panel system capable of acquiring coordinates on a large screen by standing in front of the large-screen screen and touching with a human hand. It relates to a search and display system that uses it.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a so-called touch panel, which can obtain a position (coordinate) of a point on a screen of a CRT by touching an arbitrary point on the screen with a stylus pen or a human finger, for example, has been put to practical use. I have.
[0003]
Such a touch panel can be classified into a method of detecting a touch on a CRT screen, a resistive film type, a photoelectric type, and the like.
[0004]
In the resistive film method, a transparent sheet on which an X-direction electrode is formed and a transparent sheet on which a Y-direction electrode is formed are laminated, and when pressed with a finger or a pen, a pair of electrodes on the two sheets conducts, thereby Can detect the coordinates. In the photoelectric system, when the user touches an infrared beam grid composed of an LED array and a light receiving element array on a screen, two orthogonal beams are cut off, and coordinates are detected from the positions.
[0005]
[Problems to be solved by the invention]
All of the conventional touch panels of this type are assumed to have a size of, for example, a CRT or LCD. To increase the size of the touch panel, the number of electrodes or the number of LEDs or light receiving elements must be increased. And so on, which is very expensive.
[0006]
Therefore, a main object of the present invention is to provide a novel large-screen touch panel capable of performing touch input on a large-screen screen.
[0007]
[Means for Solving the Problems]
The large-screen touch panel system according to the present invention includes: a screen made of a material capable of transmitting infrared light, an infrared light source for irradiating infrared light to the front of the screen from the front of the screen, and behind the screen. An infrared camera provided for photographing the back of the screen, a light-shielding area detecting means for detecting a light-shielding area in which infrared light is blocked based on a video signal from the infrared camera, and a size of the light-shielding area detected by the detecting means And a coordinate data output unit that outputs coordinate data of a light-shielded area whose size measured by the size measurement unit is within a certain range.
[0008]
Claim 2 is a large-screen touch panel system according to claim 1, further comprising a mirror provided behind the screen, and the infrared camera taking an image of the entire rear surface of the screen through the mirror.
[0009]
A third aspect is the large-screen touch panel system according to the first or second aspect, wherein the coordinate data is center coordinate data of the light-shielded area.
[0010]
A fourth aspect of the present invention is the large-screen touch panel system according to the third aspect, further comprising a normalizing unit for normalizing the coordinate data, wherein the center coordinates are the normalized center coordinates.
[0011]
This invention is a screen made of a material that can transmit infrared light, an infrared light source that irradiates infrared light from the front of the screen to the front of the screen, an infrared camera that is provided behind the screen and shoots the back of the screen, And a computer that receives a video signal from the infrared camera. The computer detects a light-shielded area in which infrared light is blocked based on the video signal from the infrared camera. And a coordinate data output step of outputting coordinate data of a light-shielded region whose measured size is within a certain range.
[0012]
In the case of directly detecting infrared light output from a human hand, for example, the present invention provides a screen made of a material that can transmit infrared light, a red screen provided behind the screen and photographing the back of the screen. Infrared light area detecting means for detecting an infrared light area based on a video signal from an outside camera or an infrared camera, and a size for measuring the size of the infrared light area detected by the detecting means. A large-screen touch panel system includes a measurement unit and a coordinate data output unit that outputs coordinate data of an infrared light region whose size measured by the size measurement unit is within a certain range.
[0013]
A search / display system according to the present invention includes a screen made of a material capable of transmitting infrared light, an infrared light source for irradiating infrared light from the front of the screen to the front of the screen, and a rear surface of the screen provided behind the screen. Camera, a projector provided behind the screen to project an image on the back of the screen, and a computer, wherein the computer has an associated memory, and the memory has the first information and the first information. A second information projecting step in which the second information is stored on the screen by the projector, and the image from the infrared camera is projected while the second information is projected on the screen. A light-shielding region detecting step of detecting a light-shielding region in which infrared light is blocked based on the signal, and measuring a size of the detected light-shielding region; Measuring the size of the light-shielded area within the predetermined range, and projecting the first information related to the second information on the screen by the projector when the coordinate data of the light-shielded area within the fixed range correlates with the display position of the second information. , A search and display system.
[0014]
[Action]
When a person stands in front of the screen and touches the screen directly with his / her hand, the shading area is formed by the hand or the human body. The detected light-shielded area (black area) is detected, and, for example, center coordinate data of the area is output as touch position data.
[0015]
Such a large screen touch panel system can be used as a search / display system. In this search / display system, first information (for example, a still image) and second information (for example, a still image) related to the first information are stored in a memory of a computer. For example, a thumbnail image) is stored. Then, the computer causes the projector to project the second information on the screen. When a human touches the screen with his / her hand to point to the second information, the touch position is detected as described above. When the touch position and the display position of the thumbnail image have a fixed relationship, a still image (first information) related to the thumbnail image (second information) is projected on the screen.
[0016]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, even if it is a very large size screen, each can be made into a touch screen (touch panel), and a several person can touch a screen directly with a hand, and can point a position on a screen. it can. Therefore, compared to a conventional small-screen touch panel, it can be used for a very wide range of uses, such as a search / display system in an event venue where many people participate.
[0017]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0018]
【Example】
The large screen touch panel system 10 of this embodiment shown in FIG. 1 includes a plastic screen 12 having a size of, for example, about 250 × 180 cm. However, this size is merely an example, and can be arbitrarily changed according to the application. The plastic screen 12 is made of a material capable of transmitting infrared light, for example, plastic such as polycarbonate, and is entirely milky, for example. However, this plastic screen 12 is not completely transparent. This is because the plastic screen 12 needs to function as a projection screen for projecting an image from a projector 30 described later. The plastic screen 12 has relatively high rigidity. This is because, in the large-screen touch panel system 10, as shown in FIG. 1, a person 14 in front of the plastic screen 12 directly touches the plastic screen 12 with his / her hand 16 so that the position above the plastic screen 12 ( This is because a point or an area is indicated. That is, the plastic screen 12 needs to have such a rigidity that it is not easily deformed even when touched by a human hand.
[0019]
However, in the example, the screen 12 was formed of plastic. However, glass or other infrared transmitting materials may be used.
[0020]
Above the front of the plastic screen 12, an infrared light source 18 for projecting infrared light onto the entire front surface 12a of the screen 12 is provided. As the infrared light source 18, a halogen lamp or a black light can be used. The position at which the infrared light source 18 is provided is basically determined depending on the size of the plastic screen 12, but if the plastic screen 12 of the embodiment has the above size, for example, the infrared light source 18 12 is located at a height of 200 to 300 cm away from the front surface 12 a of the device 12. The infrared light projected from the infrared light source 18 enters from the front surface 12a of the plastic screen 12, passes through the screen 12, and reaches the rear surface 12b. These numbers are merely examples.
[0021]
Behind the plastic screen 12, a mirror 20 is provided. The mirror 20 is sized to project the entire rear surface 12b of the plastic screen 12 and is arranged at that position. In the embodiment, if the plastic screen 12 is, for example, 250 × 180 cm, the mirror 20 has a size of, for example, about 150 × 110 cm, and is disposed, for example, 200 cm behind the back of the plastic screen 12. These numerical values are also merely examples.
[0022]
Behind the plastic screen 12, a monochrome camera 22 focused on the surface of the mirror 20 is provided. The monochrome camera 22 is provided with an infrared filter 24. Therefore, the camera 22 functions as an infrared camera as a whole. Therefore, the monochrome camera 22 and the infrared filter 24 may be replaced with an infrared camera. The camera 22 photographs the entire rear surface of the plastic screen 12 through the mirror 20.
[0023]
The video signal from the camera 22 is converted into video signal data by an A / D converter 28 and input to a computer 26, as can be clearly understood from FIG.
[0024]
In the embodiment shown in FIG. 1, a projector 30 is provided behind the plastic screen 12. The projector 30 is for projecting an image on the entire back surface 12b of the plastic screen 12 as described above. In the embodiment, the projector 30 is configured to be able to project the entire rear surface 12b through the mirror 20. The image (optical image) projected from the projector 30 is reflected by the mirror 20 and projected on the back surface 12 b of the plastic screen 12. Therefore, the projected image can be viewed from the front surface 12a of the plastic screen 12.
[0025]
The reason for using the mirror 20 is to make the space behind the plastic screen 12 as small as possible. Accordingly, the mirror 20 can be omitted as a matter of course. In this case, the above-described camera 22 directly captures the entire area of the rear surface 12 b of the plastic screen 12, and the projector 30 directly projects an image on the rear surface 12 b of the projector screen 12.
[0026]
As shown in FIG. 2, the computer 26 has an internal memory 32 such as a semiconductor memory or a hard disk, and is connected to an external memory 36 as a semiconductor memory via a memory interface 34 as necessary. . The internal memory 32 is used as a program memory for previously storing a program as shown in a flow chart to be described later, and as a working memory and a register for image processing. When the projector 30 is used, the internal memory 32 is further used as a video memory (VRAM) of a memory for the projector 30.
[0027]
As the external memory 36, besides the semiconductor memory, a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or the like may be used. Here, the term “memory” is used for convenience. Thus, reference to “memory” should be understood to refer to any type of storage media or recording media.
[0028]
The computer 26 further controls a lamp driver 38 to control on / off of the infrared light source 18 and, when necessary, adjusts the brightness of the infrared light source 18.
[0029]
In the large-screen touch panel system 10 of the embodiment of FIG. 1, as outlined above, a person 14 in front of the plastic screen 12 directly touches the plastic screen 12 with the hand 16 to set the coordinate position on the plastic screen 12. The operation for this will be described with reference to the flowchart of FIG.
[0030]
In the first step S1 in FIG. 3, an initial setting is performed. In this initial setting, first, the computer 26 controls the lamp driver 38 to turn on the infrared light source 18. Then, each variable in the internal memory 32 is set as their initial value. For example, an initial value of a threshold value (T: described later) for performing threshold processing on the video signal from the camera 22 is set in an appropriate register (threshold value register) of the internal memory 32. Further, the white balance of the monochrome camera 22 is adjusted. In other words, the tuning is performed so that the image formed by the infrared light passing through the plastic screen 12 and captured by the camera 22 is white or a color close to it (substantially white).
[0031]
In the following step S3, the computer 26 takes in the video signal data from the camera 22 in a state where no person exists in front of the plastic screen 12, that is, in an unmanned state, and creates background data (BG). The background data (BG) created in step S3 is used to remove the influence of an obstacle on infrared light or the like at the venue where the system 10 is installed.
[0032]
Subsequently, in step S5, a person stands in front of the plastic screen 12, and his hand 16 presses (touches) an arbitrary place on the front surface 12a of the plastic screen 12 as shown in FIG. The computer 26 captures video signal data from the camera 22, that is, pixel data (V). In the embodiment, the entire surface of the plastic screen 12 is represented by a resolution of, for example, 640 × 480 pixels, and pixel data is given in 256 gradations (8 bits / 1 pixel). In this step S5, for example, pixel data as shown in FIG. 5 is obtained. In the example shown in FIG. 5, pixel data of an image when a person in front of the hand presses the screen 12 on the screen 12 is obtained.
[0033]
In the next step S7, a mask process is executed. Specifically, a logical product (AND) process is performed on the mask data (M) and the pixel data (V). Note that the mask data (V) is noise removal data created according to the flowchart shown in FIG.
[0034]
That is, in step S31 of FIG. 4, the infrared light source 18 is turned on, and in subsequent step S33, the computer 26 fetches pixel data in an unmanned state as in step S3. Then, in the next step S35, threshold processing is performed with an appropriate threshold value, and further inversion is performed in step S37, whereby a mask as shown in FIG. 6 is generated. Then, the mask data (V) is registered in the internal memory 32 (FIG. 2) of the computer 26.
[0035]
More specifically, when photographed in an unmanned state, the pixel data (image) is an image obtained by taking a shadow of a human (a light-shielded region that blocks infrared light) from the image of FIG. When the shadow of a human is removed from the image shown in FIG. 5, the screen 12 is rectangular with respect to the round spread of the infrared light from the infrared light source 18, and the triangular thin shape is formed at each of the four corners of the screen 12. There is a shadow. The shadows at the four corners have little effect when each is light, but when the shadows become dark, they cannot be distinguished from the light-shielded area formed by pointing on the screen 12 by a human. Therefore, in the embodiment, a mask as shown in FIG. 6 is created so that the four corners of the screen 12 are not set as the determination target areas.
[0036]
Then, by performing an AND process on the mask data (V) and the pixel data (V) of this mask, the influence of the shadows formed at the four corners can be completely eliminated.
[0037]
Note that such mask data (V) may be registered in the internal memory 32 in advance by executing the processing of FIG. 4 before executing the processing as shown in FIG. The trouble of making a mask each time is eliminated.
[0038]
Returning to FIG. 3, in the next step S9, the background data (BG) acquired in step S3 is subtracted from the data (VM) after executing step S7. This step S9 is executed in order to remove the influence of the obstacle of the infrared light. Therefore, if a mask capable of removing the influence of the shadow in the unmanned state is created as described above, there is no need to execute step S9. In that sense, step S9 is optional. However, if this step S9 is executed, the mask processing in step S7 is optional. In other words, step S7 and step S9 may be executed alternatively.
[0039]
Next, in step S11, which is also optional, a blur process according to a Gaussian distribution is executed {BG (VMM-BG)}. This is to remove noise for each frame.
[0040]
Then, in step S13, threshold processing is performed using the threshold determined in the initial setting in step S1 [T {BG (VM-BG)}]. By executing step S13, each pixel data is binarized ("1" or "0"). For example, a pixel having a luminance level of “101” or more is “1” (white), and a pixel of “100” or less is “0” (black).
[0041]
Then, a black area is extracted in step S15. Although any method can be considered as a method for extracting the black region, in the embodiment, for example, Paul S.M. Utilize “A SEED FILL ALGORITHM” (PP275-277, GRAPHICS GEMS I '90) proposed by Heckbert. In this method, a black area is detected by sequentially following adjacent black pixels until no black pixel is detected.
[0042]
Then, in step S15, all black areas are extracted. At this time, each black area is extracted as a rectangular area represented by (xmin, xmax), (ymin, ymax), with the upper right corner of the screen 12 at coordinates 0,0. Here, xmin indicates the minimum value on the horizontal axis (X axis), xmax indicates the maximum value on the X axis, ymin indicates the minimum value on the vertical axis (Y axis), and ymax indicates the maximum value on the Y axis.
[0043]
In the next step S17, the computer 26 calculates the center coordinates and the area of each black region. Specifically, the center coordinates of each black region can be calculated by Equation 1 and the area can be calculated by Equation 2.
[0044]
(Equation 1)
cx, cy = ((xmin + xmax) / 2, (ymin + ymax) / 2)
[0045]
(Equation 2)
Area = (xmax−xmin) × (ymax−ymin)
Then, in a succeeding step S19, each center coordinate and area are normalized. This is because the center coordinates and the area do not depend on the screen size or the number of pixels in each direction. In the embodiment, since the screen size is 640 pixels in the horizontal (X) and 480 pixels in the vertical (Y), the normalized center coordinates ncx and ncy are given by Expression 3.
[0046]
[Equation 3]
ncx = cx / 640 ε [0,1]
ncy = cy / 480 ε [0,1]
Here, ε [0, 1] means normalizing between “0” and “1”.
[0047]
The normalization of the area is based on the following equation (4).
[0048]
(Equation 4)
Normalized area = area / 640 × 480 ε [0,1]
Then, in step S21, in order to remove noise or invalidate a case where a person in front of the screen 12 is too close, the excessively small black region is invalidated (discarded). Specifically, the minimum possible area is defined as MIN, the maximum possible area is defined as MAX, and black areas other than MIN ≦ area ≦ MAX are discarded, and, for example, only data of a black area having an appropriate size shown in FIG. 7 is left. FIG. 7 shows that only the part of the human hand shown in FIG. 5 has been detected as a proper black area.
[0049]
Step S21 may be performed manually.
[0050]
Finally, the center coordinates and the area of the appropriate black area (FIG. 7) remaining in step S23 are output as data of the touch point (or area).
[0051]
Although FIG. 1 shows that only one person exists in front of the plastic screen, all touch positions can be individually identified even when two or more people touch simultaneously.
[0052]
The large-screen touch panel system 10 of the embodiment in FIG. 1 can be used for various purposes, but as an example, can be used as an input device for information search.
[0053]
For example, a large amount of images (still images / moving images: first information) are stored in the external memory 36 (or the internal memory 32) of the computer 26 for each category, and thumbnail images (second information) representing each category are stored. Is registered in the internal memory 32 (or the external memory 36). Then, the computer 26 projects the thumbnail images on the plastic screen 12 by the projector 30 as shown by reference numerals S1 and S2 in FIG. At this time, the thumbnail images S1 and S2 are projected at random positions on the screen 12. Then, by the system 10 of FIG. 1, the person 14 in front of the screen 12 touches any thumbnail image with his / her hand 16 as described above. The touch on the screen 12 by this hand is detected in accordance with the operation shown in FIG. 3 described above, the touch position is compared with the display position of the thumbnail image S1 or S2, and the touch position has a certain relationship (the same Or, if they are not the same but close to each other within a certain range), the computer 26 sequentially stores the still images (and / or moving images) of the category represented by the thumbnail image from the external memory 36 (or the internal memory 32). The image is read out and projected on the plastic screen 12 by the projector 30 according to an arbitrary effect.
[0054]
In the above-described embodiment, the first information (accumulated image) and the second information (thumbnail image) may be stored in the same memory or may be stored in different memories.
[0055]
According to this embodiment, since the size of the plastic screen 12 is large, it can be used as a search / display system at an arbitrary venue where a large number of people participate.
[0056]
As an example, when the system 10 is installed in a wedding reception hall, images may be stored with categories of each age of the bride and groom (before elementary school, elementary school, junior high school, high school, university, member of society, etc.). Then, if the above-described search and display are performed as an event at the reception, the reception can be produced grandly.
[0057]
Although slightly different from this, a similar search / display system can be used, for example, in a funeral hall.
[0058]
Furthermore, in the search / display system of the above-described embodiment, all information (video) displayed on the screen 12 is an image. However, the type of information to be displayed may be characters or the like other than images irrespective of the first information and the second information.
[0059]
In the embodiment described above, infrared light is irradiated onto the screen from the front of the plastic screen 12 by the infrared light source 18, while the computer 26 is located behind the video signal screen 12 of the camera 22 in a region where the infrared light is blocked. Was detected. However, since the human hand emits infrared light itself, the infrared light transmitted through the screen 12 may be detected. In this case, the computer 26 may analyze the video signal from the camera 22 and detect a region where infrared light exists (infrared light region).
[Brief description of the drawings]
FIG. 1 is an illustrative view showing a large-screen touch panel system according to an embodiment of the present invention;
FIG. 2 is a block diagram of the embodiment of FIG. 1;
FIG. 3 is a flowchart showing an example of an operation of detecting a touch in the embodiment of FIG. 1;
FIG. 4 is a flowchart showing an example of an operation for creating a mask in the embodiment of FIG. 1;
FIG. 5 shows an actual image when a person in front of the plastic screen touches the screen with a hand in the embodiment of FIG. 1;
FIG. 6 is an illustrative view showing one example of a mask image used in the embodiment in FIG. 1;
FIG. 7 is an illustrative view showing one example of a black area created by a hand touching a screen;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Large screen touch panel system 12 ... Plastic screen 14 ... Human 16 ... Hand 18 ... Infrared light source 20 ... Mirror 22 ... Monochrome camera 24 ... Infrared filter 26 ... Computer 30 ... Projector 32 ... Internal memory 36 ... External memory

Claims (7)

赤外光を透過できる材料からなるスクリーン、
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、
前記赤外カメラからの映像信号に基づいて前記赤外光が遮られた遮光領域を検出する遮光領域検出手段、
前記検出手段によって検出された遮光領域のサイズを計測するサイズ計測手段、および
前記サイズ計測手段によって計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力手段を備える、大画面タッチパネルシステム。
A screen made of a material that can transmit infrared light,
An infrared light source that irradiates infrared light to the front of the screen from the front of the screen,
An infrared camera provided behind the screen and photographing the back of the screen,
A light-shielding region detecting unit that detects a light-shielding region in which the infrared light is blocked based on a video signal from the infrared camera,
A large screen, comprising: a size measuring unit that measures the size of the light-blocking region detected by the detecting unit; and a coordinate data output unit that outputs coordinate data of the light-blocking region whose size measured by the size measuring unit is within a certain range. Touch panel system.
前記スクリーンの後方にミラーをさらに設け、前記赤外カメラは前記ミラーを通して前記スクリーンの背面全面を撮影する、請求項1記載の大画面タッチパネルシステム。The large-screen touch panel system according to claim 1, wherein a mirror is further provided behind the screen, and the infrared camera takes an image of the entire rear surface of the screen through the mirror. 前記座標データは前記遮光領域の中心座標データである、請求項1または2記載の大画面タッチパネルシステム。3. The large-screen touch panel system according to claim 1, wherein the coordinate data is center coordinate data of the light-shielded area. 前記座標データを正規化するための正規化手段をさらに備え、
前記中心座標は正規化された中心座標である、請求項3記載の大画面タッチパネルシステム。
Further comprising a normalizing means for normalizing the coordinate data,
The large screen touch panel system according to claim 3, wherein the center coordinates are normalized center coordinates.
赤外光を透過できる材料からなるスクリーン、
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、および
前記赤外カメラからの映像信号を受けるコンピュータを備え、
前記コンピュータは
前記赤外カメラからの映像信号に基づいて前記赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、
検出された遮光領域のサイズを計測するサイズ計測ステップ、および
計測されたサイズが一定範囲内の遮光領域の座標データを出力する座標データ出力ステップを実行する、大画面タッチパネルシステム。
A screen made of a material that can transmit infrared light,
An infrared light source that irradiates infrared light to the front of the screen from the front of the screen,
An infrared camera that is provided behind the screen and shoots the back of the screen, and a computer that receives a video signal from the infrared camera,
The computer is a light-blocking area detecting step of detecting a light-blocking area where the infrared light is blocked based on a video signal from the infrared camera,
A large-screen touch panel system for executing a size measuring step of measuring a size of a detected light-shielded area and a coordinate data output step of outputting coordinate data of a light-shielded area whose measured size is within a predetermined range.
赤外光を透過できる材料からなるスクリーン、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、
前記赤外カメラからの映像信号に基づいて前記赤外光の存在する領域赤外光領域を検出する赤外光領域検出手段、
前記検出手段によって検出された赤外光領域のサイズを計測するサイズ計測手段、および
前記サイズ計測手段によって計測されたサイズが一定範囲内の赤外光領域の座標データを出力する座標データ出力手段を備える、大画面タッチパネルシステム。
A screen made of a material that can transmit infrared light,
An infrared camera provided behind the screen and photographing the back of the screen,
Infrared light region detection means for detecting an infrared light region where the infrared light is present based on a video signal from the infrared camera,
Size measuring means for measuring the size of the infrared light area detected by the detecting means, and coordinate data output means for outputting the coordinate data of the infrared light area whose size measured by the size measuring means is within a certain range. Equipped with a large screen touch panel system.
赤外光を透過できる材料からなるスクリーン、
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、
前記スクリーンの後方に設けられて前記スクリーンの前記背面に映像を投影するプロジェクタ、および
コンピュータを備え、前記コンピュータは関連するメモリを有し、前記メモリには第1情報と前記第1情報に関連する第2情報とを蓄積しておき、
前記コンピュータは
前記第2情報を前記プロジェクタによって前記スクリーン上に映写させる第2情報映写ステップ、
前記第2情報が前記スクリーン上に映写されている状態で前記赤外カメラからの映像信号に基づいて前記赤外光が遮られた遮光領域を検出する遮光領域検出ステップ、
検出された遮光領域のサイズを計測するサイズ計測ステップ、および
計測されたサイズが一定範囲内の遮光領域の座標データが前記第2情報の表示位置に相関するとき、前記第2情報に関連する前記第1情報を前記プロジェクタによって前記スクリーン上に映写させるステップを実行する、検索・表示システム。
A screen made of a material that can transmit infrared light,
An infrared light source that irradiates infrared light to the front of the screen from the front of the screen,
An infrared camera provided behind the screen and photographing the back of the screen,
A projector provided behind the screen and projecting an image on the back of the screen; and a computer, wherein the computer has an associated memory, wherein the memory has first information and an associated first information. Accumulate the second information and
A second information projection step of projecting the second information on the screen by the projector;
A light-shielding region detecting step of detecting a light-shielding region in which the infrared light is shielded based on a video signal from the infrared camera in a state where the second information is projected on the screen;
A size measuring step of measuring the size of the detected light-shielding region; and, when the coordinate data of the light-shielding region whose measured size is within a predetermined range correlates with the display position of the second information, the size related to the second information. A search and display system that performs a step of projecting first information on the screen by the projector.
JP2003116122A 2003-04-21 2003-04-21 Large screen touch panel system and search / display system Expired - Fee Related JP4033802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003116122A JP4033802B2 (en) 2003-04-21 2003-04-21 Large screen touch panel system and search / display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003116122A JP4033802B2 (en) 2003-04-21 2003-04-21 Large screen touch panel system and search / display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007216577A Division JP2007299434A (en) 2007-08-23 2007-08-23 Large-screen touch panel system, and retrieval/display system

Publications (2)

Publication Number Publication Date
JP2004326188A true JP2004326188A (en) 2004-11-18
JP4033802B2 JP4033802B2 (en) 2008-01-16

Family

ID=33496467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003116122A Expired - Fee Related JP4033802B2 (en) 2003-04-21 2003-04-21 Large screen touch panel system and search / display system

Country Status (1)

Country Link
JP (1) JP4033802B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241737A (en) * 2006-03-09 2007-09-20 Hitachi Ltd Table type information display terminal
JP2007299434A (en) * 2007-08-23 2007-11-15 Advanced Telecommunication Research Institute International Large-screen touch panel system, and retrieval/display system
DE102008034283A1 (en) 2008-07-22 2010-01-28 Evoluce Ag Multitouch-screen for identifying blobs, has liquid crystal-screen plane, on which user of multitouch-screen generates blobs by touching liquid crystal-screen plane, which are identified and evaluated by evaluation unit
EP2348390A1 (en) 2010-01-20 2011-07-27 Evoluce Ag Input device with a camera
JP2012113736A (en) * 2007-02-15 2012-06-14 Qualcomm Inc Input using flashing electromagnetic radiation
GB2486445A (en) * 2010-12-14 2012-06-20 New Index As Determining touch or hover behaviour of an object interacting with a touch screen, using off-axis parabolic mirror
JP2015158884A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Position detection apparatus, projector, position detection system, and method of controlling position detection apparatus
JP2019120885A (en) * 2018-01-10 2019-07-22 パナソニックIpマネジメント株式会社 Projection control system and projection control method
US10831288B2 (en) 2016-10-27 2020-11-10 Seiko Epson Corporation Projector, projection system, and detection light radiator

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241737A (en) * 2006-03-09 2007-09-20 Hitachi Ltd Table type information display terminal
US8818040B2 (en) 2007-02-15 2014-08-26 Qualcomm Incorporated Enhanced input using flashing electromagnetic radiation
CN104932690A (en) * 2007-02-15 2015-09-23 高通股份有限公司 Enhanced Input Using Flashing Electromagnetic Radiation
JP2012113736A (en) * 2007-02-15 2012-06-14 Qualcomm Inc Input using flashing electromagnetic radiation
CN104932690B (en) * 2007-02-15 2018-07-13 高通股份有限公司 It is inputted using the enhancing of flashing electromagnetic radiation
JP2007299434A (en) * 2007-08-23 2007-11-15 Advanced Telecommunication Research Institute International Large-screen touch panel system, and retrieval/display system
DE102008034283A1 (en) 2008-07-22 2010-01-28 Evoluce Ag Multitouch-screen for identifying blobs, has liquid crystal-screen plane, on which user of multitouch-screen generates blobs by touching liquid crystal-screen plane, which are identified and evaluated by evaluation unit
EP2348390A1 (en) 2010-01-20 2011-07-27 Evoluce Ag Input device with a camera
CN103477311B (en) * 2010-11-22 2016-08-10 爱普生挪威研究和发展公司 Multiple point touching interactive device based on camera, system and method
CN103477311A (en) * 2010-11-22 2013-12-25 爱普生挪威研究和发展公司 Camera-based multi-touch interaction apparatus, system and method
GB2486445A (en) * 2010-12-14 2012-06-20 New Index As Determining touch or hover behaviour of an object interacting with a touch screen, using off-axis parabolic mirror
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
JP2015158884A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Position detection apparatus, projector, position detection system, and method of controlling position detection apparatus
US10831288B2 (en) 2016-10-27 2020-11-10 Seiko Epson Corporation Projector, projection system, and detection light radiator
JP2019120885A (en) * 2018-01-10 2019-07-22 パナソニックIpマネジメント株式会社 Projection control system and projection control method
JP7054774B2 (en) 2018-01-10 2022-04-15 パナソニックIpマネジメント株式会社 Projection control system and projection control method

Also Published As

Publication number Publication date
JP4033802B2 (en) 2008-01-16

Similar Documents

Publication Publication Date Title
EP2321697B1 (en) Spatially adaptive photographic flash unit
US7984995B2 (en) Method and apparatus for inhibiting a subject&#39;s eyes from being exposed to projected light
US7872637B2 (en) System and method for tracking a laser spot on a projected computer screen image
JP4883970B2 (en) Method and system for canceling ambient light using optical frequency
JP3885458B2 (en) Projected image calibration method and apparatus, and machine-readable medium
US20110199335A1 (en) Determining a Position of an Object Using a Single Camera
Abileah et al. 59.3: Integrated Optical Touch Panel in a 14.1 ″AMLCD
KR20100072207A (en) Detecting finger orientation on a touch-sensitive device
US20120200535A1 (en) System and method for improving machine vision in the presence of ambient light
EP2128693A1 (en) Spatially Adaptive Photographic Flash Unit
CN107222591A (en) Image sensor, camera module and electronic installation
JP4033802B2 (en) Large screen touch panel system and search / display system
JP2007299434A (en) Large-screen touch panel system, and retrieval/display system
TW201305856A (en) Projection system and image processing method thereof
US8654103B2 (en) Interactive display
US9075482B2 (en) Optical touch display
JP6898150B2 (en) Pore detection method and pore detection device
JP2021092439A (en) Illumination optimization method, control device, and program
JP2020160808A (en) Position detection method, position detection device, and interactive projector
JP5550111B2 (en) Imaging apparatus, imaging method, and program
JPWO2019159759A1 (en) Operation detection device and operation detection method
WO2010023348A1 (en) Interactive displays
WO2018207490A1 (en) Contactless three-dimensional touch panel, contactless three-dimensional touch panel system, contactless three-dimensional touch panel control method, program and recording medium
CN212781988U (en) High-precision touch interaction system for multi-surface splicing projection
US9298319B2 (en) Multi-touch recognition apparatus using filtering and a difference image and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees