JP5657293B2 - ジェスチャ認識方法及び同方法を用いたタッチシステム - Google Patents

ジェスチャ認識方法及び同方法を用いたタッチシステム Download PDF

Info

Publication number
JP5657293B2
JP5657293B2 JP2010157980A JP2010157980A JP5657293B2 JP 5657293 B2 JP5657293 B2 JP 5657293B2 JP 2010157980 A JP2010157980 A JP 2010157980A JP 2010157980 A JP2010157980 A JP 2010157980A JP 5657293 B2 JP5657293 B2 JP 5657293B2
Authority
JP
Japan
Prior art keywords
image
change
plate surface
touch system
single pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010157980A
Other languages
English (en)
Other versions
JP2011028746A (ja
Inventor
リン,チョーイ
スー,ヤオチン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixart Imaging Inc
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Publication of JP2011028746A publication Critical patent/JP2011028746A/ja
Application granted granted Critical
Publication of JP5657293B2 publication Critical patent/JP5657293B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
この出願は、2009年7月21日に出願された***特許出願第098124545号による優先権を主張するものであり、その開示内容のすべてが、この引用により、本明細書に組み込まれる。
本発明は、概ね、タッチシステムに関し、より詳しくは、ジェスチャ認識方法及び同方法を用いたタッチシステムに関する。
図1aと図1bは、タッチプレート90と少なくとも2つのカメラ91、92を備えた従来のタッチシステム9の動作を概略的に示す。カメラ91、92の視野は、タッチプレート90の表面を見渡す画像を取り込むことができるようタッチプレート90全体を網羅する。使用者8が1本の指81でタッチプレート90に触れると、カメラ91、92はそれぞれ指81の指先のイメージI81を有する画像ウインドウW91、W92を取り込む。処理ユニットは指81の指先のイメージI81の1次元位置からタッチプレート90に触れている指81の2次元座標を算定する。これにより、タッチプレート90に対する指81の位置や動きが取得され、処理ユニットは指81の2次元座標の変化に応じて対応する動作を実行し、相応にディスプレイを制御する。
使用者8が2本の指81、82で同時にタッチプレート90に触れた場合、カメラ91、92がそれぞれ取り込んだ画像ウインドウW91’、W92’には、2本の指81、82のイメージI81、I82が入る。処理ユニットは、画像ウインドウW91’、W92’内にあるイメージI81、I82の1次元座標からタッチプレート90に対する2本の指81、82の2次元座標をそれぞれ算定し、2本の指81、82の座標の変化に応じてジェスチャを認識する。
しかし、タッチシステム9の操作方法では、それぞれの画像ウインドウ内の指先のイメージの1次元位置からタッチプレート90に触れている指の2次元座標を算定するが、使用者が例えば指81、82など複数の指でタッチプレート90に触れた場合に、図1bが示すように、カメラ92から見たとき指82が指81を遮ってしまい、カメラ92が取り込む画像ウインドウW92’にすべての指のイメージが入っていない可能性がある。したがって、状況によってはすべての指の2次元座標が正確に算定できない。設置カメラを追加することでこの問題は解決できるかもしれないが、システムコストも増える。
したがって、本発明は、さらに上記の従来のタッチシステムにおける問題点を解決するためにジェスチャ認識方法及び同方法を用いたタッチシステムを提供する。
本発明は、プレート上の1本の指の接触状態の変化によってモードを切り換えることができるジェスチャ認識方法及び同方法を用いたタッチシステムを提供する。
本発明は、少なくとも1つのイメージセンサでプレート表面を見渡す画像を取り込むステップと、プレート表面上の単独ポインタの接触状態の変化を特定するために画像を処理するステップと、接触状態の変化が閾値より大きいとき単独ポインタとプレート面の関係の変化が所定のジェスチャに合致するかどうか認識するステップとを含むタッチシステムのジェスチャ認識方法を提供する。
さらに本発明は、少なくとも1つのイメージセンサでプレート表面を見渡す画像を取り込むステップと、プレート表面上の単独ポインタの接触点を検出するために画像を処理するステップと、接触点の状態や位置の変化に応じてプレート表面上の単独ポインタの接触が所定のジェスチャに合致するかどうか認識するステップとを含むタッチシステムのジェスチャ認識方法を提供する。
さらに本発明は、プレートと、少なくとも1つの光源と、少なくとも1つのイメージセンサと、処理ユニットとを備えたタッチシステムを提供する。プレートにはプレート表面がある。光源はそのプレート表面に設ける。イメージセンサはプレートを見渡し、光源を遮断する単独ポインタのイメージを有する画像ウインドウを取り込む。処理ユニットは、画像ウインドウ内のイメージの幅または面積の変化が閾値より大きいかどうか認識し、幅または面積の変化が閾値より大きい場合は、プレート表面上のポインタの位置の変化が所定のジェスチャに合致するかどうか認識する。
本発明のジェスチャ認識方法及び同方法を用いたタッチシステムによれば、第1モードではタッチシステムはポインタの座標の変化(すなわち位置の変化)に応じてカーソルの動きを制御することができる。第2モードでは、タッチシステムはポインタの座標の変化(すなわち位置の変化)に応じて、例えば、対象の選択、画面のスクロール、対象のドラッグ、対象の拡大/縮小、対象の回転など、画像ディスプレイに表示される画像を更新することができる。ここでの対象とは、アイコンやウインドウでもよい。
本発明のジェスチャ認識方法及び同方法を用いたタッチシステムは、単独ポインタによってジェスチャ認識を行うことができるので、複数のポインタが互いに邪魔をすることによる座標の誤算定を防ぐことができる。
本発明の他の目的、利点及び新規の特長は、以下の説明を添付図面に照らして読むことで、より明らかになる。
従来のタッチシステムの動作概略図である。 図1aのタッチシステムの別の動作概略図である。 本発明の1つの実施形態によるタッチシステムのブロック図である。 図2aのイメージセンサの視野の一部とイメージセンサが取り込んだ画像ウインドウの概略図である。 本発明の第1実施形態によるタッチシステムを上から見た図である。 本発明の第1実施形態によるタッチシステムの動作概略図である。 図4aのイメージセンサが取り込んだ画像ウインドウの概略図である。 本発明の第2実施形態によるタッチシステムのブロック図である。 図5aの2つのイメージセンサがそれぞれに取り込んだ画像ウインドウの概略図である。 本発明の実施形態によるタッチシステムの第1モードの動作概略図である。 本発明の実施形態によるタッチシステムの第1モードの動作概略図である。 本発明の実施形態によるタッチシステムの第1モードの動作概略図である。 本発明の実施形態によるタッチシステムの第2モードの動作概略図である。 本発明の実施形態によるタッチシステムの第2モードの動作概略図である。 本発明の実施形態によるタッチシステムの第2モードの動作概略図である。 本発明の実施形態によるタッチシステムに対応する各ジェスチャの概略図である。 本発明の実施形態によるタッチシステムに対応する各ジェスチャの概略図である。 本発明の実施形態によるタッチシステムに対応する各ジェスチャの概略図である。
各図面に亘って、可能な限り、同じもしくは同様の部材を示す場合には、同じ符号を用いるものとする。
図2aおよび図2bを参照されたい。図2aは本発明の1つの実施形態によるタッチシステム10のブロック図を示し、図2bはイメージセンサ13の視野の一部と図2aのイメージセンサ13が取り込んだ画像ウインドウ20の概略図を示す。タッチシステム10には、プレート100、照明ユニット11、第1光源121、第2光源122、イメージセンサ13、処理ユニット14、画像ディスプレイ15が含まれる。
プレート100には、第1側縁100a、第2側縁100b、第3側縁100c、第4側縁100d、プレート表面100sがある。プレート100の実施形態としてはホワイトボードやタッチスクリーンが挙げられる。プレート表面100sはタッチシステム10の入力領域として用いられる。
この実施形態では、照明ユニット11はプレート表面100s上の第1側縁100aに設ける。照明ユニット11は、能動的光源でもよいし、受動的光源でもよい。照明ユニット11が能動的光源である場合は、線形の光源が好ましい。照明ユニット11が受動的光源である場合は、例えば第1光源121や第2光源122など他の光源の光が反射するよう構成され、さらに照明ユニット11は、プレート100の第3側縁100c側に向いた反射面11aを備える。その際、反射面11aは適当な素材で作ればよい。第1光源121はプレート表面100s上の第2側縁100bに設け、プレート100の第4側縁100dに向かって光を放つのが好ましい。第2光源122は、プレート表面100s上の第3側縁100cに設け、プレート100の第1側縁100aに向かって光を放つのが好ましい。その際、第1光源121と第2光源122は能動的な光源が好ましいが、例えば、形状は線形に限らない。
イメージセンサ13は、例えば、この実施形態では第2光源122とプレート100の第4側縁100dが交わる角に設けられているように、プレート100の1つの角に設けるのが好ましく、照明ユニット11は、プレート表面100s上でイメージセンサ13に隣接しない側縁に設ける。イメージセンサ13は、プレート表面100sを見渡し、照明ユニット11、第1光源121、第2光源122、プレート100の第4側縁100dに囲まれた範囲の画像を取り込む。例えば、指81のようなポインタがプレート表面100sに触れると、イメージセンサ13の視野には、図2bの上の図が示すように、指81の指先が入る。図内の「BA」というのは高輝度エリアを示し、輝度の高さは一般的に照明ユニット11と光源121,122の大きさによって決まる。したがって、イメージセンサ13は、図2bの下の図が示すように、照明ユニット11または光源121を遮る指81の指先の作るイメージI81を含む画像ウインドウ20を次々と取り込むといえる。イメージセンサ13の実施形態には、CCDイメージセンサやCMOSイメージセンサが含まれるが、これらに限定されない。ポインタは他の適当な物で代用が利き、それは指に限らないことは容易に推量できる。
処理ユニット14は、イメージセンサ13と接続され、イメージセンサ13が取り込んだ画像を処理し、指のイメージの幅または面積の変化を認識し、それに応じてタッチシステム10を第1モードかまたは第2モードで動作するよう制御するよう構成される。処理ユニット14は、ポインタがプレート表面100sに触れていることを認識すると、第1モードで動作するようタッチシステム10を作動する。この場合、処理ユニット14は、画像ウインドウ20内のポインタのイメージの位置からプレート表面100sに触れているポインタの2次元座標を算定し、引き続き画像ウインドウから得られる2次元座標の変化に応じて、画像ディスプレイ15に表示されるカーソルの動きを制御する。その際、プレート表面100sの2次元座標は、画像ディスプレイ15のディスプレイ画面150の位置座標に対応させることができる。
ポインタのイメージの幅または面積は、大きく変化したり小さく変化したりし得るが、その変化がある閾値を超えたことを処理ユニット14が認識すると、処理ユニット14は、タッチシステム10が第2モードで動くよう制御する。この場合、処理ユニット14は、画像ウインドウ20内のポインタのイメージの位置からプレート表面100sに触れているポインタの2次元座標を算定し、引き続き取り込む画像ウインドウとの間のポインタの2次元座標の変化に応じてジェスチャ認識を行い、認識したジェスチャに応じて画像ディスプレイ15に表示される画像の更新を制御する。例えば、対象の選択、画面のスクロール、対象のドラッグ、対象の拡大/縮小、または対象の回転などを行うよう制御する。その詳細は後述する。さらに、本発明では、第1モードと第2モードの切り替え感度を、閾値を動的に調整することで調整することができる。つまり、閾値を大きくすれば、感度は低くなり、閾値を低くすれば、感度は高まる。
図2aでは、本発明のタッチシステム10を明確に示すために、プレート100は画像ディスプレイ15から分離されているが、これは本発明の限定要件ではない。別の実施形態において、プレート100を画像ディスプレイ15の画面150と一体化させてもよい。しかも、プレート100がタッチスクリーンの場合、画像ディスプレイ15の画面150はプレート100としても用いることができ、照明ユニット11、第1光源121、第2光源122、イメージセンサ13は、画面150の表面に設ける。
図2aではプレート100が長方形のプレートとして示され、照明ユニット11、第1光源121、第2光源122は、プレート100の3つの側縁に直交的に設置されているが、それはほんの一例に過ぎず、本発明の限定要件ではないことは自明といえる。別の実施形態において、プレート100は別の形状でもよい。また、照明ユニット11、第1光源121、第2光源122、イメージセンサ13は、プレート表面100sに別の配置関係で設置してもよい。
(第1実施形態)
図3は本発明の第1実施形態によるタッチシステム10を上から見た図を示す。この実施形態において、照明ユニット11は、(例えば反射部材のように)受動的光源で、プレート100の第3側縁100c側に向いた反射面11aを備えている。したがって、第1光源121は、反射面11aに対して第2鏡像121’を作ることになる。第2光源122は、反射面11aに対して第3鏡像122’を作ることになる。プレート100の第4側縁100dは、反射面11aに対して第4鏡像100d’を作ることになる。ここで照明ユニット11、第1光源121、第2光源122、プレート100の第4側縁100dは、実空間RSを示す。そして照明ユニット11、第2鏡像121’、第3鏡像122’、第4鏡像100d’は仮想空間ISを示す。
イメージセンサ13は第2光源122とプレート100の第4側縁100dが交わる角に設ける。イメージセンサ13の視野VAはプレート表面100sを見渡す、実空間RSと仮想空間ISが視野に入る。またイメージセンサ13は、実空間RS内の、例えば指81のようなポインタのイメージを含む画像ウインドウを取り込むよう構成される。その際、ポインタによってできるイメージは、光源121と照明ユニット11を遮る。1つの実施形態において、さらにイメージセンサ13は、イメージセンサ13が実空間RSと仮想空間ISに及ぶ画像全体を取り込めるように、イメージセンサ13の視野VAを調整するためのレンズ(またはレンズのセット)を備える。
図4a及び図4bを参照されたい。図4aは本発明の第1実施形態によるタッチシステム10を操作中の概略図を、図4bは、図4aにあるイメージセンサ13が取り込んだ画像ウインドウ20の概略図を示す。図4aに示すように、例えば指81のようなポインタが実空間RS内のプレート表面100sに接触点T81で示すように触れると、ポインタは、(いわゆるこの実施形態における反射部材である)照明ユニット11の反射面11aに対して、仮想空間ISに接触点T81’で示す第1鏡像を作る。イメージセンサ13が、第1感知ルートR81を通してポインタの先端画像を取り込むことで、画像ウインドウ20にイメージI81を取り込む。また第2感知ルートR81’を通して第1鏡像の画像を取り込むことで、図4bに示すように、イメージI81’を画像ウインドウ20に取り込む。この実施形態において、画像ウインドウ20内のイメージの1次元位置と、感知ルートとプレート100の第3側縁100cの間の角度との相対関係は、処理ユニット14に予め記録されている。このように、イメージセンサ13は、ポインタの画像とそれによる第1鏡像を取り込んで画像ウインドウ20を生成するとき、処理ユニット14は画像ウインドウ20内のイメージI81、I81’の1次元位置によって、それぞれ第1角度A81と第2角度A81’を取得することができる。次に、三角形分割を用いて、処理ユニット14はポインタがプレート表面100sに触れている接触点T81の2次元座標を取得することができる。
例えば一態様において、プレート表面100sはデカルト座標系(直交座標系)を形成する。つまり、第3側縁100cはX軸となり、第4側縁はY軸となり、イメージセンサ13の位置は、デカルト座標系の原点となる。したがって、デカルト座標系における接触点T81の座標は、(第4側縁100dまでの距離,第3側縁100cまでの距離)で示すことができる。さらに、プレート100の第1側縁100aと第3側縁100c間の距離D1は、処理ユニット14に予め記録させておいてもよい。これにより、処理ユニット14は以下のステップを踏むことで、ポインタ81の接触点T81の2次元座標を取得することができる。
(a)処理ユニット14は、第1感知ルートR81とプレート100の第3側縁100cとの角度A81と、第2感知ルートR82とプレート100の第3側縁100cとの角度A81’を算定する。
(b)処理ユニット14は、ポインタ81の接触点T81とプレート100の第4側縁100d間の距離D2を方程式D2=2D1/(tanA81+tanA81’)によって算定する。
(c)処理ユニット14は、方程式D2×tanA81により、接触点T81のY座標を算定する。したがって、接触点T81の2次元座標は、(D2,D2×tanA81)となる。
(第2実施形態)
図5a及び図5bを参照されたい。図5aは本発明の第2実施形態によるタッチシステム10’のブロック図を示し、図5bは、図5aにある2つのイメージセンサ13、13’が取り込んだ画像ウインドウの概略図を示す。この実施形態と第1実施形態との違いは、第2実施形態の照明ユニット11’が能動的光源であり、タッチシステム10’は2つのイメージセンサ13、13’を備えることである。
第2実施形態では、タッチシステム10’には、プレート100、照明ユニット11’、第1光源121、第2光源122、2つのイメージセンサ13、13’、処理ユニット14が含まれる。照明ユニット11’は、プレート表面100s上の第1側縁100aに設け、プレート100の第3側縁100cに向かって光を放つのが好ましい。第1光源121は、プレート表面100s上の第2側縁100bに設け、プレート100の第4側縁100dに向かって光を放つのが好ましい。第2光源122は、プレート表面100s上の第4側縁100dに設け、プレート100の第2側縁100bに向かって光を放つのが好ましい。イメージセンサ13は、プレート100の第3側縁100cと第4側縁100dの接点に設けられ、その視野はプレート表面100sを見渡す。イメージセンサ13’は、プレート100の第2側縁100bと第3側縁100cの接点に設けられ、その視野は、プレート表面100sを見渡す。例えば指81のようなポインタがプレート表面100sに触れると、イメージセンサ13は指81の指先のイメージI81を有する画像ウインドウW13を取り込み、イメージセンサ13’は、指81の指先のイメージI81’を有する画像ウインドウW13’を取り込む。タッチシステム10’も、図示はされていないが処理ユニット14に接続される画像ディスプレイを備えているのは言うまでもない。
処理ユニット14は、ポインタのイメージI81、I81’の幅または面積の変化を認識し、それによってタッチシステム10’を、第1モードで動作させるか第2モードで動作させるかを制御するために、イメージセンサ13、13’が取り込んだ画像を処理するよう、イメージセンサ13、13’と接続されている。処理ユニット14は、ポインタがプレート表面100sに触れていることを認識すると、第1モードで動作するようタッチシステム10’を作動する。その際、処理ユニット14は、画像ウインドウW13、W13’内のポインタのイメージI81、I81’の位置からプレート表面100sに触れているポインタの2次元座標を算定し、画像ウインドウW13、W13’から引き続き得られる2次元座標の変化に応じて、画像ディスプレイに表示されているカーソルの動きを制御する。処理ユニット14は、ポインタのイメージI81、I81’の幅または面積の変化が閾値を超えたと認識すると、第2モードで動作するようタッチシステム10’を制御する。この場合、処理ユニット14は、画像ウインドウW13、W13’内のポインタのイメージI81、I81’の位置からプレート表面100sに触れているポインタの2次元座標を算定し、画像ウインドウW13、W13’から引き続き得られる2次元座標の変化に応じて、ジェスチャ認識を行う。そして認識されたジェスチャに応じて、例えば対象の選択、画面のスクロール、対象の拡大/縮小、対象のドラッグ、対象の回転など、画像ディスプレイに表示される画像の更新を制御する。2次元座標の算定は、三角形分割によって行ってもよい。算定方法は、第1実施形態で示す例と同様なので、詳細な説明の繰り返しは省略する。
本発明の実施形態によるタッチシステムの操作方法の詳細を説明する。以下に紹介するジェスチャ認識方法は、第1実施形態と第2実施形態のタッチシステム10、10’に適用してもよいことに留意されたい。
図2a及び図6a〜図6cを参照されたい。使用者が例えば指81のようなポインタでプレート表面100sに触れると、イメージセンサ13は指81の指先のイメージI81を取り込み、画像ウインドウ20を生成する。この際、画像ウインドウ20内のイメージI81の幅をLとする。処理ユニット14は接触を認識すると、タッチシステム10を作動して、第1モードに入るようタッチシステム10を制御する。第1モードでは、処理ユニット14は画像ウインドウ20内のイメージI81の位置からプレート表面100sに触れている指81の2次元座標を算定し、図6bにある2次元座標の変化に応じて、画像ディスプレイ15に表示されるカーソルの動きを制御する。
プレート100がタッチスクリーンの場合、使用者は図6cにあるタッチシステム10を作動するために、自分の指で対象Oの上に直接触れてもよい。この場合も、処理ユニット14は画像ウインドウ20内のイメージI81の位置からプレート表面100sに対する指81の2次元座標を算定する。
図2及び図7a〜図7cを参照されたい。使用者が、例えばプレート表面100s上の指81の接触面積など、接触状態を変えると、画像ウインドウ20内のイメージI81の幅と面積も変わる。例えば、図7aにあるように、イメージセンサ13が取り込んだ画像ウインドウ20内のイメージI81の幅はL’に変わる。処理ユニット14は、例えばL/L’や|L’−L|が予め決めていた閾値を超えるなど、イメージの幅の変化が閾値を超えたと認識すると、タッチシステム10を第2モードに入れるよう制御する。同様に、イメージの面積の変化は、2つの接触状態の接触面積の差の絶対値か割合によって取得してもよい。すなわち、閾値は、ポインタのイメージの幅または面積の変動率または変動値とすることができる。
第2モードでも、処理ユニット14は画像ウインドウ20内のイメージI81の位置からプレート表面100sに対する指81の2次元座標を算定し、さらに2次元座標の変化を、ジェスチャ認識を行うために処理ユニット14に予め記録されているジェスチャデータと比較する。すなわち、第2モードでは、処理ユニット14が取得する2次元座標の変化は、カーソル151の動きを制御するのには使われず、使用者のジェスチャを認識して、例えば対象の選択、画面のスクロール、対象のドラッグ、対象の拡大/縮小、対象の回転など所定の操作を行うために使われる。なお、本発明はこれらの操作に限定されない。本発明において、ここで述べる対象とは、アイコンやウインドウであってもよい。
本発明において、タッチシステム10を第1モードと第2モードの間で切り換えたいのであれば、使用者はイメージI81の幅または面積を予め決めた時間、例えば1秒間変えればよいが、時間はこれに限定されない。モード切り換えの間、指81はプレート表面100s上で動かさないままでもよいし、動かしてもよい。
図6a〜図8cを参照して、使用者のジェスチャと操作機能の関係を説明する。以下で紹介するジェスチャと操作機能の関係は、ほんの一例にすぎず、本発明の限定要件ではないことをご理解いただきたい。
(対象の選択)
プレート100がホワイトボードの場合、使用者はまずポインタでプレート表面100sに触れ、タッチシステム10を作動させて第1モードに入るようタッチシステム10を制御する。それから使用者は図6bが示すようにプレート表面100s上の指の相対的位置を変えることで、これから選択する対象Oの上にカーソル151が来るよう制御する。次に、図7aが示すように、タッチシステム10を第2モードに入るよう制御するため、使用者はプレート表面100s上の指81の接触状態を変える。この場合図7bが示すように、例えば色が変わるとか、線幅が変わるなど、対象の表示状態に独特な変化を付けて、対象が選ばれていることを示してもよい。
プレート100がタッチスクリーンの場合、使用者はタッチシステム10を作動するために、図6cが示すように、プレート表面100s上の対象Oに触れる。それから、タッチシステム10を図7cが示すように対象O’を選択する第2モードに入るように、使用者はプレート表面100s上の指81の接触状態を変える。
(画面のスクロール)
図6a、7aが示すように、使用者はまず自分の指でプレート表面100sに触れ、タッチシステム10を作動させて第1モードに入るようタッチシステム10を制御する。続いて使用者は、タッチシステム10が第2モードに入るのに予め決められた時間、例えば図6aの状態から図7aの状態に、あるいは図7aの状態から図6aの状態に、プレート表面100s上の指81の接触状態を変える。次に処理ユニット14は、図8aが示すように、指81がプレート表面100s上で上下左右に動くのを感知すると、使用者がスクロールのジェスチャをしていると認識する。すると処理ユニット14は、画像ディスプレイ15を制御し、相応する画像を表示するよう画面150を更新する。
(対象のドラッグ)
使用者はまず自分の指81でプレート表面100sに触れ、タッチシステム10を作動させて第1モードに入るようタッチシステム10を制御する。続いて、使用者は指81とプレート表面100sの相対的位置を変えることで、これから選択する対象Oの上にカーソルが来るようカーソル151を制御する。次に第2モードに入れるため、使用者はプレート表面100s上の指81の接触状態を変える。この場合、対象O’が選択されたことを表示してもよい。次に、処理ユニット14は、図8aが示すように指81がプレート表面100s上で上下左右に動くのを感知すると、使用者がドラッグのジェスチャをしていると認識する。すると処理ユニット14は、画像ディスプレイ15を制御し、相応する画像を表示するよう画面150を更新する。
(対象の表示倍率変更)
使用者はまず自分の指81でプレート表面100sに触れ、タッチシステム10を作動させて第1モードに入るようタッチシステム10を制御する。続いて、使用者は指81とプレート表面100sの相対的位置を変えることで、これから選択される対象Oの上にカーソルが来るようカーソル151を制御する。次に第2モードに入れるため、使用者はプレート表面100s上の指81の接触状態を変える。この場合、対象O’が選択されたことを表示してもよい。次に、処理ユニット14は、図8bが示すように指81がプレート表面100s上で斜めに動くのを感知すると、使用者がズームのジェスチャ(拡大か縮小)をしていると認識する。さらに処理ユニット14は、画像ディスプレイ15を制御し、相応する画像を表示するよう画面150を更新する。
(対象の回転)
使用者はまず自分の指81でプレート表面100sに触れ、タッチシステム10を作動させて第1モードに入るようタッチシステム10を制御する。続いて、使用者は指81とプレート表面100sの相対的位置を変えることで、これから選択される対象Oの上にカーソルが来るようカーソル151を制御する。次に第2モードに入れるため、使用者はプレート表面100s上の指81の接触状態を変える。この場合、対象O’が選択されたことを表示してもよい。次に、処理ユニット14は、図8cが示すように、指81がプレート表面100s上で回転するのを感知すると、使用者が回転のジェスチャをしていると認識する。すると処理ユニット14は、画像ディスプレイ15を制御し、相応する画像を表示するよう画面150を更新する。
先に述べたように、従来のタッチシステムでは複数のポインタが互いの邪魔になって接触点の座標を正確に算定できないことがある。これに対して本発明は、単独ポインタを使って、2つの操作モードで動くタッチシステムを提供する(図2a、図3、図5a参照)。本発明はポインタのプレート面への接触状態を変えるだけで2つの操作モード間の切り替えを行うことができるので、本発明のタッチシステムはシステムコストが安くなる。
以上本発明を好ましい実施形態に関して説明してきたが、それは本発明を限定するためのものではない。以下の特許請求項に記載の本発明の主旨及び範囲を逸脱することなく、当業者が、その他の多様な変更及び変形を行いうることは理解できよう。

Claims (17)

  1. タッチシステムのジェスチャ認識方法であって、
    少なくとも1つのイメージセンサでプレート表面を見渡す画像を取り込むステップと、
    前記プレート表面上の単独ポインタのイメージの幅の変化または面積の変化を特定するために前記画像を処理するステップと、
    前記イメージの幅の変化または面積の変化が閾値より大きいとき、前記単独ポインタと前記プレート表面との間の関係の変化が所定のジェスチャに合致するかどうか認識するステップと
    前記イメージの幅の変化または面積の変化が前記閾値より小さいとき、前記単独ポインタと前記プレート表面との間の関係の変化によって画像ディスプレイに表示されたカーソルの動きを制御するステップと
    を含むタッチシステムのジェスチャ認識方法。
  2. 前記閾値より大きい前記イメージの幅の変化または面積の変化が所定の時間続いた場合、前記単独ポインタと前記プレート表面との間の関係の変化が所定のジェスチャに合致するかどうか認識する処理を行う、請求項1に記載のジェスチャ認識方法。
  3. 前記所定のジェスチャが、スクロール操作、ドラッグ操作、ズーム操作、または回転操作である、請求項1に記載のジェスチャ認識方法。
  4. 前記単独ポインタと前記プレート表面との接触が、前記取り込まれた画像によって特定されたとき、前記タッチシステムを作動するステップをさらに含む、請求項1に記載のジェスチャ認識方法。
  5. 前記イメージの幅の変化または面積の変化が前記閾値より大きいとき、前記タッチシステムは第1モードとなり、前記イメージの幅の変化または面積の変化が前記閾値より小さいとき、前記タッチシステムは第2モードとなり、前記ジェスチャ認識方法は、前記閾値を動的に調整することでモード切り替えの感度を調整するステップをさらに含む、請求項に記載のジェスチャ認識方法。
  6. タッチシステムのジェスチャ認識方法であって、
    少なくとも1つのイメージセンサでプレート表面を見渡す画像を取り込むステップと、
    前記プレート表面上の単独ポインタの接触点を感知するために前記画像を処理するステップと、
    前記画像内の前記単独ポインタのイメージの幅の変化または面積の変化及び前記接触点の位置の変化によって、前記単独ポインタの前記プレート表面への接触が所定のジェスチャに合致するかどうか認識するまたは画像ディスプレイに表示されたカーソルの動きを制御するステップと
    を含むタッチシステムのジェスチャ認識方法。
  7. 前記画像内の前記単独ポインタのイメージの位置によって前記接触点の位置の変化を算定するステップをさらに含む、請求項に記載のジェスチャ認識方法。
  8. 前記イメージの幅の変化または面積の変化が閾値より大きいとき、前記接触点の位置の変化によって前記単独ポインタの前記プレート表面への接触が所定のジェスチャに合致するかどうか認識する処理を行う、請求項に記載のジェスチャ認識方法。
  9. 前記所定のジェスチャが、スクロール操作、ドラッグ操作、ズーム操作、または回転操作である、請求項に記載のジェスチャ認識方法。
  10. 認識された前記ジェスチャに応じて、画像ディスプレイに表示された画像を更新するステップをさらに含む、請求項に記載のジェスチャ認識方法。
  11. タッチシステムであって、
    プレート表面を有するプレートと、
    前記プレート表面に設けた少なくとも1つの光源と、
    前記プレート表面を見渡し、前記光源を遮断する単独ポインタのイメージを有する画像ウインドウを取り込む、少なくとも1つのイメージセンサと、
    前記画像ウインドウ内の前記イメージの幅の変化または面積の変化が閾値より大きいかどうか特定し、前記幅の変化または面積の変化が前記閾値より大きいときは、前記プレート表面上の前記単独ポインタの位置の変化が所定のジェスチャに合致するかどうか認識し、前記幅の変化または面積の変化が前記閾値より小さいときは、前記プレート表面上の前記単独ポインタの位置の変化が画像ディスプレイに表示されたカーソルの動きを制御する処理ユニットと
    を備えるタッチシステム。
  12. 前記プレートが、ホワイトボードまたはタッチスクリーンである、請求項11に記載のタッチシステム。
  13. 前記プレート表面の2つの側縁が交差する角に前記イメージセンサが設けられ、前記プレート表面上の前記イメージセンサに隣接しない側縁に設けられた反射部材をさらに備える、請求項11に記載のタッチシステム。
  14. 前記イメージセンサが前記光源と前記反射材を遮断する前記単独ポインタの2つのイメージを有する画像ウインドウを取り込み、前記処理ユニットが前記画像ウインドウ内の前記2つのイメージの位置からに応じて前記プレート表面上の前記単独ポインタの位置の変化を算定する、請求項13に記載のタッチシステム。
  15. 前記光源を遮断する前記単独ポインタの1つのイメージを有する画像ウインドウをそれぞれ取り込む2つのイメージセンサを備え、前記処理ユニットが前記画像ウインドウ内の前記イメージの位置に応じて前記プレート表面上の前記単独ポインタの前記位置の変化を算定する、請求項11に記載のタッチシステム。
  16. 前記処理ユニットと接続された画像ディスプレイをさらに備え、前記処理ユニットは、前記プレート表面上の前記単独ポインタの前記位置の変化が所定のジェスチャに合致することを認識しながら、前記画像ディスプレイを制御してディスプレイ上の画像を更新する、請求項11に記載のタッチシステム。
  17. 前記所定のジェスチャが、スクロール操作、ドラッグ操作、ズーム操作、または回転操作である、請求項11に記載のタッチシステム。
JP2010157980A 2009-07-21 2010-07-12 ジェスチャ認識方法及び同方法を用いたタッチシステム Expired - Fee Related JP5657293B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098124545A TWI501121B (zh) 2009-07-21 2009-07-21 手勢辨識方法及使用該方法之觸控系統
TW098124545 2009-07-21

Publications (2)

Publication Number Publication Date
JP2011028746A JP2011028746A (ja) 2011-02-10
JP5657293B2 true JP5657293B2 (ja) 2015-01-21

Family

ID=43496864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010157980A Expired - Fee Related JP5657293B2 (ja) 2009-07-21 2010-07-12 ジェスチャ認識方法及び同方法を用いたタッチシステム

Country Status (3)

Country Link
US (1) US20110018822A1 (ja)
JP (1) JP5657293B2 (ja)
TW (1) TWI501121B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102835125B (zh) * 2010-04-21 2016-11-23 Lg电子株式会社 图像显示设备和用于操作图像显示设备的方法
TWI494824B (zh) * 2010-08-24 2015-08-01 Quanta Comp Inc 光學觸控系統及方法
US20120133579A1 (en) * 2010-11-30 2012-05-31 Microsoft Corporation Gesture recognition management
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US8725443B2 (en) 2011-01-24 2014-05-13 Microsoft Corporation Latency measurement
US8982061B2 (en) * 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
US8773374B2 (en) * 2011-05-13 2014-07-08 Blackberry Limited Identification of touch point on touch screen device
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
CN103064548A (zh) * 2011-10-24 2013-04-24 联咏科技股份有限公司 可滤除误触面板的手势判断方法
TW201319921A (zh) * 2011-11-07 2013-05-16 Benq Corp 觸控螢幕畫面控制方法及觸控螢幕畫面顯示方法
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
US9652132B2 (en) 2012-01-27 2017-05-16 Google Inc. Handling touch inputs based on user intention inference
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
TWI479393B (zh) * 2012-11-21 2015-04-01 Wistron Corp 切換方法、使用其之光學觸控裝置、以及其電腦程式產品
US9213448B2 (en) 2012-11-29 2015-12-15 Pixart Imaging Inc. Positioning module, optical touch system and method of calculating a coordinate of a touch medium
TWI475448B (zh) * 2012-11-29 2015-03-01 Pixart Imaging Inc 座標定位模組、光學式觸控系統及其計算觸控媒介之座標的方法
WO2014140827A2 (en) * 2013-03-14 2014-09-18 Eyesight Mobile Technologies Ltd. Systems and methods for proximity sensor and image sensor based gesture detection
US10649555B2 (en) * 2017-09-28 2020-05-12 Htc Corporation Input interface device, control method and non-transitory computer-readable medium

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4553842A (en) * 1983-05-09 1985-11-19 Illinois Tool Works Inc. Two dimensional optical position indicating apparatus
US4746770A (en) * 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4918262A (en) * 1989-03-14 1990-04-17 Ibm Corporation Touch sensing display screen signal processing apparatus and method
EP2256605B1 (en) * 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
US6610917B2 (en) * 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
JP2002351615A (ja) * 2001-05-24 2002-12-06 Ricoh Co Ltd ディスプレイ装置
JP4429083B2 (ja) * 2004-06-03 2010-03-10 キヤノン株式会社 遮光型座標入力装置及びその座標入力方法
JP2006099468A (ja) * 2004-09-29 2006-04-13 Toshiba Corp ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム
JP4455391B2 (ja) * 2005-04-15 2010-04-21 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
JP2008140182A (ja) * 2006-12-01 2008-06-19 Sharp Corp 入力装置、送受信システム、入力処理方法、および制御プログラム
JP2008191791A (ja) * 2007-02-01 2008-08-21 Sharp Corp 座標入力装置、座標入力方法、制御プログラム、およびコンピュータ読み取り可能な記録媒体
JP2008257454A (ja) * 2007-04-04 2008-10-23 Toshiba Matsushita Display Technology Co Ltd 表示装置、画像データ処理方法及び画像データ処理プログラム
US8144126B2 (en) * 2007-05-07 2012-03-27 Cypress Semiconductor Corporation Reducing sleep current in a capacitance sensing system
JP4897596B2 (ja) * 2007-07-12 2012-03-14 ソニー株式会社 入力装置、記憶媒体、情報入力方法及び電子機器
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP2011028746A (ja) 2011-02-10
TW201104519A (en) 2011-02-01
US20110018822A1 (en) 2011-01-27
TWI501121B (zh) 2015-09-21

Similar Documents

Publication Publication Date Title
JP5657293B2 (ja) ジェスチャ認識方法及び同方法を用いたタッチシステム
JP5241786B2 (ja) 対話システムのためのジェスチャ認識方法および対話システム
US8854320B2 (en) Mobile type image display device, method for controlling the same and information memory medium
EP2377075B1 (en) Gesture recognition method and interactive input system employing same
US8730169B2 (en) Hybrid pointing device
KR101365776B1 (ko) 멀티 터치 시스템 및 그 구동 방법
US7271795B2 (en) Intuitive mobile device interface to virtual spaces
RU2541852C2 (ru) Устройство и способ для управления пользовательским интерфейсом на основе движений
US9417733B2 (en) Touch method and touch system
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
US20140267029A1 (en) Method and system of enabling interaction between a user and an electronic device
JP5384449B2 (ja) タッチシステムのためのポインタ高さ検出方法およびポインタ座標検出方法ならびにタッチシステム
JP2006209563A (ja) インターフェース装置
JP2015138360A (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
US20140313153A1 (en) Electronic device, operation control method and recording medium
CN102999158B (zh) 互动***的手势辨识方法及互动***
KR20120136719A (ko) 손과 눈의 3차원 위치정보를 이용한 원거리 스크린 상의 물체지목 및 제어방법
CN101989150A (zh) 手势辨识方法以及使用该方法的触控***
US9489077B2 (en) Optical touch panel system, optical sensing module, and operation method thereof
KR20160015146A (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
JP2015060295A (ja) 入力装置
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
JP5118663B2 (ja) 情報端末装置
US8648836B2 (en) Hybrid pointing device
US20120013532A1 (en) Hybrid pointing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141126

R150 Certificate of patent or registration of utility model

Ref document number: 5657293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees