JP5274507B2 - タッチ動作認識方法及び装置 - Google Patents
タッチ動作認識方法及び装置 Download PDFInfo
- Publication number
- JP5274507B2 JP5274507B2 JP2010097873A JP2010097873A JP5274507B2 JP 5274507 B2 JP5274507 B2 JP 5274507B2 JP 2010097873 A JP2010097873 A JP 2010097873A JP 2010097873 A JP2010097873 A JP 2010097873A JP 5274507 B2 JP5274507 B2 JP 5274507B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- touched
- motion recognition
- point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10K—ORGANIC ELECTRIC SOLID-STATE DEVICES
- H10K50/00—Organic light-emitting devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Position Input By Displaying (AREA)
Description
また、光センサー方式のタッチパネルディスプレイ装置におけるタッチ動作、例えば、クリック、ダブルクリック、ドラッグにおける短所としては、実際に指を接触する前の影に対しても接触と誤認することによって、タッチ動作を正確に表せないという問題点があった。
望ましくは、検出ステップは、前記物体のイメージを解析して、前記物体がタッチしたポイントの座標を計算することによって、タッチポイントを検出することを特徴とする。
望ましくは、前記タッチ動作は、ダブルクリックであることを特徴とする。
望ましくは、前記検出ステップは、前記物体のイメージを解析して、前記物体がタッチした2個のタッチポイントの座標を計算することによって、2個のタッチポイントを検出し、前記認識ステップは、前記2個のタッチポイントの時間間隔及び空間間隔を計算することによって、ダブルクリックを認識することを特徴とする。
望ましくは、前記認識ステップは、前記時間間隔が第2臨界値以下であり、前記空間間隔が第3臨界値以下である場合、ダブルクリックで認識することを特徴とする。
望ましくは、前記タッチ動作は、ダブルクリックであることを特徴とする。
望ましくは、前記検出ステップは、前記物体のイメージを解析して、前記物体がタッチしたタッチポイントの座標を計算することによって、少なくとも2個以上のタッチポイントを検出し、前記前処理ステップは、前記少なくとも2個以上のタッチポイントを前記物体がタッチした時点を基準に除外させる前処理を行うことによって、2個のタッチポイントを検出することを特徴とする。
望ましくは、前記認識ステップは、前記検出した2個のタッチポイントの時間間隔及び空間間隔を計算することによって、ダブルクリックを認識することを特徴とする。
望ましくは、前記タッチ動作がダブルクリックである場合、前記タッチポイント検出部は、前記物体のイメージを解析して、前記物体がタッチした2個のタッチポイントの座標を計算することによって、2個のタッチポイントを検出し、前記動作認識部は、前記タッチポイント検出部で検出した2個のタッチポイントの時間間隔及び空間間隔を計算することによって、ダブルクリックを認識することを特徴とする。
望ましくは、前記動作認識部は、前記2個のタッチポイントの時間間隔が第2臨界値以下であるか否かを判断する時間判断部と、前記2個のタッチポイントの空間間隔が第3臨界値以下であるか否かを判断する位置判断部と、前記時間判断部及び位置判断部の判断結果を基にして、タッチ動作がダブルクリックであるか否かを判断するダブルクリック判断部と、を備えることを特徴とする。
また、光センサー方式のタッチパネルディスプレイ装置におけるダブルクリックを含むタッチ動作において、実際に指を接触する前の影に対しては、タッチポイントとして検出しないことによって、タッチ動作を正確に表せる。
図1には、多数の光センサー110を備えた表示装置100が示されている。
表示装置100は、光センサー110だけでなく、多数の薄膜トランジスタ(TFT:Thin Film Transistor)及び多様なディスプレイ素子を備えうる。例えば、多数のTFTを構成する電極、層(半導体層及び絶縁層)及び有機発光素子を備えうる。有機発光素子は、画素電極と、これに対向した対向電極と、画素電極(アノード電極)と対向電極(カソード電極)との間に介在された発光層を備える中間層と、を備える。本発明の望ましい実施形態において、外光によって指Fの影を感知するだけでなく、有機発光素子の発光によって指Fによって反射された光の信号も感知する構成である。また、本発明の望ましい実施形態では、有機発光素子を特定したが、有機発光素子だけでなく、他の平板ディスプレイ素子、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)を含む光センサー方式のタッチスクリーンディスプレイにも同様に適用できる。
光センサー110は、特定の物体、例えば、指Fを接触した場合、外部光源または内部光源による指Fによる光信号を検出する。例えば、光センサー110が所定値より明るい光を検出した場合には、信号処理部(図示せず)がハイレベル信号を出力し、所定値より暗い光を検出した場合には、ローレベル信号を出力する。望ましくは、光センサー110は、PIN型光ダイオードで構成できる。
図2には、光センサー210を備える表示装置200、センサー信号読取部220及びタッチポイント検出装置230が示されている。
表示装置200は、光センサー210と共に、複数の信号線と複数の走査線とが交差する地点に配列された赤(R)、緑(G)、青(B)で構成されたピクセルを含む。表示装置は、外部のホスト(図示せず)から伝送された画像信号に基づいて、画像を表示する表示機能を行う。
センサー信号読取部220は、表示装置の光センサー210が感知した信号を読み出してタッチポイント検出部230に出力する。
タッチポイント検出部230は、光センサー210が感知した信号を解析してタッチポイントを検出する。本発明の望ましい実施形態において、タッチポイント検出部230は、光センサー210が感知した信号から指影(finger shadow)イメージを作るが、指影イメージを生成するための信号処理部(図示せず)、例えば、ラインメモリ、階調化回路、2値化回路を備える。また、タッチポイント検出部230は、差分画像、エッジ画像及び多階調画像を利用して、指の接触座標の位置を計算する。例えば、差分画像またはエッジ画像を利用する場合、イメージの領域の面積が所定の臨界値以上である領域に対して、その領域の重心を指の位置座標と算出できる。本発明の望ましい実施形態では、指イメージ領域の重心を利用してポイントの座標を計算したが、これに限定されず、多様なイメージ解析方法を使用して座標を計算できる。
図3には、多数の光センサー110を備える光センサーアレイ層111、第1及び第2基板101,102、接触検出層104及び誘電体層105が示されている。
第2基板102上に光センサーアレイ層111が配される。第1基板と第2基板102との間には、多数の光センサー110だけでなく、多数のTFTと多様なディスプレイ素子とが備えられうる。第1及び第2基板101,102は、ガラス材、金属材及びプラスチック材で形成されうる。また、本実施形態では、光センサーアレイ層100に示されていないが、多数のTFTを構成する電極、層(半導体層及び絶縁層)及び有機発光素子を備えうる。有機発光素子は、画素電極と、これに対向した対向電極と、画素電極(アノード電極)と対向電極(カソード電極)との間に介在された発光層を備える中間層と、を備える。
接触検出層104は、第1基板101と誘電体層105との間に配される。接触検出層104は、透明薄膜で構成して透光率を高めることによって、ディスプレイ素子の効率を落とさない。また、接触検出層104は、パネル製造過程でパネル基板に内蔵するか、または追加的にディスプレイパネル基板上に生成することもある。接触検出層104は、指がタッチまたは接触する場合、指によるキャパシタンス変化を検出する。この場合、接触検出層104とパネルとは、キャパシタンスを形成するが、本実施形態では、接触検出層104と第1基板101との下に配されたカソード電極がキャパシタンスを形成するように構成される。ここで、カソード電極は、光センサーアレイ層100に含まれた有機発光素子のカソード電極である。したがって、接触検出層104とキャパシタンスを形成するために追加の電極または層形成が不要である。
従来の光によって画面に情報を入力する機能を備えた表示装置は、撮影された画像からエッジを検出し、検出されたエッジを利用して、物体が画面に接触したか否かを判定するが、エッジ毎に移動方向を調べて、相互逆方向に移動するエッジがある場合には、物体が画面に接触したと判断する。そして、物体が画面に接触したと判断した場合には、検出されたエッジの重心を求めて座標位置を計算する。しかし、本発明の実施形態では、物体、特に、指の接触如何を、前述した従来の画像処理方法より簡単な接触検出層を利用して検出するので、CPU(Central Processing Unit)の計算量とメモリ負担とを減らせる。また、従来のイメージ分析方法で発生する実際の指接触ではない影による誤認識を防止することも可能である。
本発明の望ましい実施形態では、接触検出層104が、第1基板101と誘電体層105との間に配され、キャパシタンス方式でタッチ如何を判断すると説明したが、接触検出層104の数及び配置は、多様に構成でき、圧力による誘電率の変化を検出することによって、タッチ如何を判断してもよい。
図4には、多数の光センサー210を備える表示パネル200、表示パネル200に内蔵されるか、または付着された接触検出層230、光センサー210にスキャン信号を提供するセンサースキャン部240、光センサー210が獲得したデータを読み取るセンサー信号読取部220及びタッチ動作認識装置250を備える。ここで、タッチ動作認識装置250は、タッチ感知部251、タッチ判断部252、タッチポイント検出部254及び動作認識部253を備える。
光センサー210は、特定物体、例えば、指が接触した場合、自然光源による指影イメージを解析することによって、タッチした地点の座標を計算するか、または光量を解析して2値画像を作り、これからタッチした地点の位置座標を解析するか、または内部光源によって反射された光量を解析して2値画像を作り、これからタッチした地点の位置座標を計算する。表示パネル200は、光センサー210と共に複数の信号線と複数の走査線とが交差する地点に配列された赤(R)、緑(G)、青(B)で構成されたピクセルを含む。表示パネル200は、外部のホスト(図示せず)から伝送された画像信号に基づいて、画像を表示する表示機能を行う。
接触検出層230は、表示画面に特定物体、特に、指の接触如何を検出し、検出した接触情報をタッチ動作認識装置250に出力する。本発明の前述した実施形態によって、このような接触情報は、キャパシタンスの変化率を含む。
センサー信号読取部220は、表示パネル200の光センサー210が感知した信号を読み取ってタッチポイント検出部254に出力する。
タッチポイント検出部254は、光センサー210がセンシングした信号をセンサー情報読取部220を通じて入力され、接触した地点の位置座標を計算して、動作認識部252に出力する。
タッチ感知部251は、接触検出層220から接触情報を入力され、接触情報の変化量を測定する。タッチ感知部251は、このような指タッチまたは接触による接触情報の変化量、すなわち、キャパシタンスの変化量を測定する。
タッチ判断部252は、タッチ判断部251から接触情報の変化量を入力され、既設定の基準値と比較して、タッチまたは接触されたか否かを判断する。このような基準値は、ホスト(図示せず)から提供された既保存の値である。具体的に、タッチ判断部252は、タッチ感知部251で測定したキャパシタンス値が既保存の基準キャパシタンス値と比較して、特定割合で増加する場合、タッチされたと判断する。特に、タッチ判断部252は、タッチされたと判断した場合には、センサースキャン部240に光センサー210を選択するセンサースキャン信号を出力するように制御する。ここで、センサースキャン信号は、ローレベルやハイレベル信号でありうる。
図5には、多数の光センサー210を備える表示パネル200、表示パネル200に内蔵されるか、または付着された接触検出層230、光センサー210が獲得したデータを読み取るセンサー信号読取部220及びタッチ動作認識装置250を備える。ここで、タッチ動作認識装置250は、タッチ感知部251、タッチ判断部252、タッチポイント検出部254、前処理部255及び動作認識部253を備える。
ここで、前処理部255は、物体、特に、指がタッチした時点を基準に、タッチポイント検出部254で検出したタッチポイントを除外させる。ここで、指がタッチした時点は、タッチ判断部252で指がタッチしたと判断した時点についての時間情報を意味する。したがって、前処理部255は、タッチ判断部252から提供された時間情報を利用して、タッチポイント検出部254で検出した多数のタッチポイントのうち、時間情報の前後に検出されたタッチポイントを除外させる。したがって、実際にタッチした時点のタッチポイントのみで動作認識部253でタッチ動作を認識する。
光センサーで指影に対してポイントを検出する場合、手がパネルに着く前にポイントを抽出できる。図6には、パネルをタッチをする間の時間についての指動き600と、検出したタッチポイントの動き610,620とが示されている。符号600は、指とパネルとの距離を表したものであり、符号610及び符号620は、光センサーによって抽出されたタッチポイントの位置を表したものであり、符号620は、パネルを実際にタッチしたポイントである。
図6を参照すれば、指動き600のうち、3番目から5番目までが実際にパネルをタッチした場合であり、1〜2番目、6〜7番目は、実際にタッチしていない場合である。この場合には、検出したタッチポイントの動き610,620のうち、符号620のみをタッチポイントと検出せねばならない。しかし、符号610もタッチポイントと検出することによって、タッチ動作を誤認してしまう問題点がある。
図7には、2回の指動き700と、2回検出したタッチポイントの動き710とが示されている。本発明の望ましい実施形態によって、接触検出層で指のタッチ如何を感知して実際にタッチされたと判断した場合に、光センサーを駆動させるセンサースキャン信号を出力するように制御するため、図7に示されたように、実際に指が接触した場合にのみ、タッチポイントを2個検出する。したがって、それぞれのタッチポイント710の時間間隔と空間間隔とによって、ダブルクリックであるか否かを正確に判断できる。
光センサーを備えた表示装置で、指がパネルに着く前にポイントが抽出される問題点を解決するために、本発明の望ましい実施形態において、接触検出層を利用して、実際のタッチ如何を判断することによって、タッチ前の指影によるポイントを抽出しない。
ダブルクリックを具現するための2回の指動き800によって検出されたタッチポイント810,820のうち、実際にタッチしたポイントではないポイント810を除去せねばならない。したがって、本発明の望ましい実施形態では、接触検出層で実際のタッチ如何を判断し、判断した時間情報によってタッチポイント810を除外させる前処理を行う。ここで、除外させるタッチポイント810の数は、前処理過程によって異なって設定できる。このような過程によってタッチを認識し、各タッチでタッチ位置と時間とを求め、位置及び時間間隔が一定値以内である場合、ダブルクリックと認識する。
図9を参照すれば、動作認識部253は、時間判断部256、位置判断部257及びダブルクリック判断部258を備える。
時間判断部256は、2個のタッチポイントの時間間隔が所定の臨界値以下であるか否かを判断する。ここで、臨界値は、任意に設定できる。時間間隔は、図7及び図8に示されている。
位置判断部257は、2個のタッチポイントの空間間隔が所定の臨界値以下であるか否かを判断する。ここで、臨界値は、任意に設定できる。空間間隔は、図7及び図8に示されている。
ダブルクリック判断部258は、時間判断部256及び位置判断部257の判断結果を基にしてタッチ動作がダブルクリックであるか否かを判断する。すなわち、時間間隔と空間間隔とがいずれも所定の臨界値以下である場合に、ダブルクリックと判断する。
図10を参照すれば、ステップ1000で、接触検出層で指タッチを感知する。ステップ1002で、指がタッチされたか否かを判断する。ここで、指のタッチ如何に対する判断は、タッチ感知信号、例えば、キャパシタンス変化量が所定の臨界値以上であるか否かを判断することによってなされる。ステップ1002の判断結果、実際にタッチされた場合、ステップ1004で、センサースキャン信号を出力するように制御する。センサースキャン信号によって、ステップ1006で、光センサーが指のタッチを感知する。ステップ1008で、光センサーから読み取られたセンサー信号によって、指イメージを生成する。ステップ1010で、指イメージからイメージ解析を通じてタッチポイントを検出する。ステップ1012で、タッチポイントを利用して、タッチ動作を認識する。
図11を参照すれば、ステップ1100で、接触検出層で指タッチを感知する。ステップ1102で、光センサーで指タッチを感知する。ここで、ステップ1102は、ステップ1100と共に行うこともある。ステップ1104で、光センサーが感知したセンサー信号を読み取って指イメージを生成する。ステップ1106で、指イメージからタッチポイントを検出する。ステップ1108で、ステップ1100で感知した指タッチ時点を基準に、ステップ1106で検出したタッチポイントを前処理する。ここで、前処理は、ステップ1106で検出したタッチポイントのうち、タッチ時点以前または以後に検出したタッチポイントを除外させることを意味する。ステップ1110で、前処理されたタッチポイントを基にしてタッチ動作を認識する。
コンピュータで読取可能な記録媒体の例としては、ROM(Read Only Memory)、RAM(Random Access Memory)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置があり、また、キャリアウェーブ(例えば、インターネットを通じた伝送)形態に具現されるものを含む。また、コンピュータで読取可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータ可読コードが保存され、かつ実行されうる。そして、本発明を具現するための機能的なプログラム、コード及びコードセグメントは、当業者によって容易に推論されうる。
110,210 光センサー
220 センサー信号読取部
230 タッチポイント検出部
250 タッチ動作認識装置
251 タッチ感知部
252 タッチ判断部
253 動作認識部
254 タッチポイント検出部
255 前処理部
Claims (16)
- 光センサーを利用した情報入力機能を備えた表示装置における、タッチした物体のタッチ動作を認識する方法であって、
(a)前記表示装置に備えられた接触検出層での物体のタッチ如何を感知するステップと、
(b)前記物体のタッチが行われた場合、前記光センサーを駆動させるセンサースキャン信号を出力するように制御するステップと、
(c)前記光センサーが感知したセンサー信号から前記物体のイメージを生成し、前記物体イメージからタッチポイントを検出するステップと、
(d)前記検出したタッチポイントを基にして、前記物体のタッチ動作を認識するステップと、を含み、前記接触検出層の下部にある発光素子の一電極と前記接触検出層とでキャパシタンスを形成し、前記キャパシタンスの変化によって前記物体のタッチを検知し、タッチポイント位置を演算する、タッチ動作認識方法。 - 前記(b)ステップは、
前記感知した結果による物体タッチ信号が、第1臨界値以上であるか否かを判断するステップをさらに含み、
前記物体タッチ信号が前記第1臨界値以上である場合、前記センサースキャン信号を出力することを特徴とする請求項1に記載のタッチ動作認識方法。 - 前記(c)ステップは、
前記物体のイメージを解析して、前記物体がタッチしたポイントの座標を計算することによって、タッチポイントを検出することを特徴とする請求項1に記載のタッチ動作認識方法。 - 前記タッチ動作は、
ダブルクリックであることを特徴とする請求項1に記載のタッチ動作認識方法。 - 前記(c)ステップは、
前記物体のイメージを解析して、前記物体がタッチした2個のタッチポイントの座標を計算することによって、2個のタッチポイントを検出し、
前記(d)ステップは、
前記2個のタッチポイントの時間間隔及び空間間隔を計算することによって、ダブルクリックを認識することを特徴とする請求項4に記載のタッチ動作認識方法。 - 前記(d)ステップは、
前記時間間隔が第2臨界値以下であり、前記空間間隔が第3臨界値以下である場合、ダブルクリックと認識することを特徴とする請求項5に記載のタッチ動作認識方法。 - 光センサーを利用した情報入力機能を備えた表示装置における、タッチした物体のタッチ動作を認識する方法として、
(a)前記表示装置に備えられた接触検出層での物体のタッチ如何を感知するステップと、
(b)前記物体のタッチ如何を感知した後に、前記光センサーが感知したセンサー信号から前記物体のイメージを生成し、前記生成した物体イメージからタッチポイントを検出するステップと、
(c)前記物体のタッチ如何を感知した結果から前記検出したタッチポイントに対して、前記物体がタッチした時点を基準に、基準時点の前後に検出された前記タッチポイントを除外させる前処理を行うステップと、
(d)前記前処理の結果、残ったタッチポイントを基にして、前記物体のタッチ動作を認識するステップと、を含み、前記接触検出層の下部にある発光素子の一電極と前記接触検出層とでキャパシタンスを形成し、前記キャパシタンスの変化によって前記物体のタッチを検知し、タッチポイント位置を演算する、タッチ動作認識方法。 - 前記タッチ動作は、
ダブルクリックであることを特徴とする請求項7に記載のタッチ動作認識方法。 - 前記(b)ステップは、
前記物体のイメージを解析して、前記物体がタッチしたタッチポイントの座標を計算することによって少なくとも2以上のタッチポイントを検出し、
前記(c)ステップは、
前記少なくとも2以上のタッチポイントを、前記物体がタッチした時点を基準に除外させる前処理を行うことによって、2個のタッチポイントを検出することを特徴とする請求項8に記載のタッチ動作認識方法。 - 前記(d)ステップは、
前記検出した2個のタッチポイントの時間間隔及び空間間隔を計算することによって、ダブルクリックを認識することを特徴とする請求項9に記載のタッチ動作認識方法。 - 請求項1ないし10のうちいずれか1項による方法をコンピュータで実行させるためのプログラムを記録した記録媒体。
- 光センサーを利用した情報入力機能を備えた表示装置における、タッチした物体のタッチ動作を認識する装置において、
前記表示装置に備えられた接触検出層での物体のタッチ如何を感知するタッチ感知部と、
前記物体がタッチされた場合、前記光センサーを駆動させるセンサースキャン信号を出力するように制御するタッチ判断部と、
前記光センサーが感知したセンサー信号から前記物体のイメージを生成し、前記物体イメージからタッチポイントを検出するタッチポイント検出部と、
前記検出したタッチポイントを基にして、前記物体のタッチ動作を認識する動作認識部と、を備え、前記接触検出層の下部にある発光素子の一電極と前記接触検出層とでキャパシタンスを形成し、前記キャパシタンスの変化によって前記物体のタッチを検知し、タッチポイント位置を演算するタッチ動作認識装置。 - 前記タッチ判断部は、
前記タッチ感知部から出力された物体タッチ信号が第1臨界値以上であるか否かを判断し、前記物体タッチ信号が前記第1臨界値以上である場合、センサースキャン信号を出力するように制御することを特徴とする請求項12に記載のタッチ動作認識装置。 - 前記タッチ動作がダブルクリックである場合、
前記タッチポイント検出部は、
前記物体のイメージを解析して、前記物体がタッチした2個のタッチポイントの座標を計算することによって、2個のタッチポイントを検出し、
前記動作認識部は、
前記タッチポイント検出部で検出した2個のタッチポイントの時間間隔及び空間間隔を計算することによって、ダブルクリックを認識することを特徴とする請求項13に記載のタッチ動作認識装置。 - 前記動作認識部は、
前記2個のタッチポイントの時間間隔が第2臨界値以下であるか否かを判断する時間判断部と、
前記2個のタッチポイントの空間間隔が第3臨界値以下であるか否かを判断する位置判断部と、
前記時間判断部及び位置判断部の判断結果を基にして、タッチ動作がダブルクリックであるか否かを判断するダブルクリック判断部と、を備えることを特徴とする請求項14に記載のタッチ動作認識装置。 - 光センサーを利用した情報入力機能を備えた表示装置における、タッチした物体のタッチ動作を認識する装置において、
前記表示装置に備えられた接触検出層での物体のタッチ如何を感知するタッチ感知部と、
前記物体がタッチされた場合、前記光センサーが感知したセンサー信号から前記物体のイメージを生成し、前記生成した物体イメージからタッチポイントを検出するタッチポイント検出部と、
前記物体のタッチ如何を感知した結果から前記検出したタッチポイントに対する前処理を行う前処理部と、
前記前処理したタッチポイントを基にして、前記物体のタッチ動作を認識する動作認識部と、を備え、
前記前処理部は、
前記物体がタッチした時点を基準に、基準時点の前後に検出された前記タッチポイントを除外させ、前記接触検出層の下部にある発光素子の一電極と前記接触検出層とでキャパシタンスを形成し、前記キャパシタンスの変化によって前記物体のタッチを検知し、タッチポイント位置を演算することを特徴とするタッチ動作認識装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090039274A KR101097309B1 (ko) | 2009-05-06 | 2009-05-06 | 터치 동작 인식 방법 및 장치 |
KR10-2009-0039274 | 2009-05-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010262641A JP2010262641A (ja) | 2010-11-18 |
JP5274507B2 true JP5274507B2 (ja) | 2013-08-28 |
Family
ID=42421932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010097873A Expired - Fee Related JP5274507B2 (ja) | 2009-05-06 | 2010-04-21 | タッチ動作認識方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20100283756A1 (ja) |
EP (1) | EP2249233A3 (ja) |
JP (1) | JP5274507B2 (ja) |
KR (1) | KR101097309B1 (ja) |
CN (1) | CN101882031B (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2034287A1 (en) * | 2007-09-10 | 2009-03-11 | Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO | Optical sensor for measuring a force distribution |
TW201732525A (zh) * | 2010-03-08 | 2017-09-16 | 半導體能源研究所股份有限公司 | 電子裝置及電子系統 |
KR101678390B1 (ko) * | 2010-06-04 | 2016-11-23 | 삼성전자 주식회사 | 통신 단말기의 동작 방법 및 장치 |
TWI419030B (zh) * | 2010-08-06 | 2013-12-11 | Quanta Comp Inc | 光學觸控系統 |
EP2628069B1 (en) * | 2010-10-12 | 2020-12-02 | New York University | Apparatus for sensing utilizing tiles, sensor having a set of plates, object identification for multi-touch surfaces, and method |
CN102215296A (zh) * | 2011-06-07 | 2011-10-12 | 深圳桑菲消费通信有限公司 | 一种模拟“双击”操作实现手机按键功能的方法 |
WO2013071312A1 (en) * | 2011-11-12 | 2013-05-16 | Cross Match Technologies, Inc. | Ambient light illumination for non-imaging contact sensors |
KR20130057700A (ko) * | 2011-11-24 | 2013-06-03 | 삼성디스플레이 주식회사 | 유기 발광 표시 장치 |
KR101909676B1 (ko) | 2012-05-25 | 2018-10-19 | 삼성디스플레이 주식회사 | 디스플레이 장치 및 광 입력 장치 |
CN102902421B (zh) * | 2012-08-29 | 2015-10-07 | 广东威创视讯科技股份有限公司 | 触摸屏笔画粗细识别方法及装置 |
CN102880390A (zh) * | 2012-09-20 | 2013-01-16 | 广东欧珀移动通信有限公司 | 一种移动终端进入睡眠状态的方法及*** |
KR101580736B1 (ko) * | 2014-05-09 | 2016-01-11 | 신용수 | 터치태그 인식 시스템 및 그 방법 |
US9836165B2 (en) * | 2014-05-16 | 2017-12-05 | Apple Inc. | Integrated silicon-OLED display and touch sensor panel |
CN104537365B (zh) * | 2015-01-07 | 2019-03-29 | 小米科技有限责任公司 | 触摸按键和指纹识别实现方法、装置及终端设备 |
US10147757B2 (en) | 2015-02-02 | 2018-12-04 | Synaptics Incorporated | Image sensor structures for fingerprint sensing |
US10181070B2 (en) | 2015-02-02 | 2019-01-15 | Synaptics Incorporated | Low profile illumination in an optical fingerprint sensor |
US9829614B2 (en) | 2015-02-02 | 2017-11-28 | Synaptics Incorporated | Optical sensor using collimator |
CN104731502B (zh) * | 2015-03-27 | 2018-03-30 | 努比亚技术有限公司 | 基于虚拟分区触摸屏的双击识别方法、装置及移动终端 |
US10437974B2 (en) | 2015-06-18 | 2019-10-08 | Shenzhen GOODIX Technology Co., Ltd. | Optical sensing performance of under-screen optical sensor module for on-screen fingerprint sensing |
US10176355B2 (en) | 2015-12-03 | 2019-01-08 | Synaptics Incorporated | Optical sensor for integration in a display |
US10169630B2 (en) | 2015-12-03 | 2019-01-01 | Synaptics Incorporated | Optical sensor for integration over a display backplane |
US9934418B2 (en) | 2015-12-03 | 2018-04-03 | Synaptics Incorporated | Display integrated optical fingerprint sensor with angle limiting reflector |
EP3254235B1 (en) * | 2016-01-31 | 2023-07-12 | Shenzhen Goodix Technology Co., Ltd. | Under-screen optical sensor module for on-screen fingerprint sensing |
US10108841B2 (en) | 2016-03-31 | 2018-10-23 | Synaptics Incorporated | Biometric sensor with diverging optical element |
CN106101453A (zh) * | 2016-08-19 | 2016-11-09 | 青岛海信移动通信技术股份有限公司 | 一种控制屏幕的方法和终端 |
US10541280B1 (en) | 2016-09-16 | 2020-01-21 | Apple Inc. | OLED based touch sensing and user identification |
US10380395B2 (en) | 2016-09-30 | 2019-08-13 | Synaptics Incorporated | Optical sensor with angled reflectors |
US10055637B2 (en) | 2016-12-07 | 2018-08-21 | Synaptics Incorporated | Optical sensor with substrate light filter |
US10311276B2 (en) | 2017-02-22 | 2019-06-04 | Synaptics Incorporated | Under display optical fingerprint sensor arrangement for mitigating moiré effects |
KR20230025603A (ko) * | 2021-08-13 | 2023-02-22 | 삼성디스플레이 주식회사 | 표시 장치 및 이를 포함하는 센싱 시스템 |
KR20230156194A (ko) | 2022-05-04 | 2023-11-14 | 삼성디스플레이 주식회사 | 터치 감지 모듈 및 이를 포함하는 표시 장치 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6501846B1 (en) * | 1997-11-25 | 2002-12-31 | Ethentica, Inc. | Method and system for computer access and cursor control using a relief object image generator |
US6333735B1 (en) * | 1999-03-16 | 2001-12-25 | International Business Machines Corporation | Method and apparatus for mouse positioning device based on infrared light sources and detectors |
JP2001325071A (ja) * | 2000-05-17 | 2001-11-22 | Tokai Rika Co Ltd | タッチ操作入力装置 |
US6925422B1 (en) * | 2001-07-05 | 2005-08-02 | Airqual | System and method for monitoring the performance of an indoor air environment product installation |
US20030093472A1 (en) * | 2001-10-31 | 2003-05-15 | Warren R. Paul | Project management system and method |
US7348946B2 (en) * | 2001-12-31 | 2008-03-25 | Intel Corporation | Energy sensing light emitting diode display |
US7042444B2 (en) * | 2003-01-17 | 2006-05-09 | Eastman Kodak Company | OLED display and touch screen |
US8078571B2 (en) * | 2004-04-05 | 2011-12-13 | George Eagan | Knowledge archival and recollection systems and methods |
JP2006209205A (ja) * | 2005-01-25 | 2006-08-10 | Toshiba Matsushita Display Technology Co Ltd | 表示装置 |
US7577925B2 (en) * | 2005-04-08 | 2009-08-18 | Microsoft Corporation | Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems |
KR101171185B1 (ko) * | 2005-09-21 | 2012-08-06 | 삼성전자주식회사 | 접촉 감지 기능이 있는 표시 장치, 그 구동 장치 및 방법 |
JP2007183706A (ja) * | 2006-01-04 | 2007-07-19 | Epson Imaging Devices Corp | タッチセンサシステム |
TWI317086B (en) * | 2006-04-14 | 2009-11-11 | Ritdisplay Corp | Top-emitting organic led display having transparent touch panel |
JP4834482B2 (ja) * | 2006-07-24 | 2011-12-14 | 東芝モバイルディスプレイ株式会社 | 表示装置 |
US20080059411A1 (en) * | 2006-08-31 | 2008-03-06 | Caterpillar Inc. | Performance-based job site management system |
US20080103871A1 (en) * | 2006-10-26 | 2008-05-01 | Raytheon Company | Company project management system |
CN101763822B (zh) * | 2006-12-26 | 2012-10-03 | 乐金显示有限公司 | 有机发光二极管板 |
US7956847B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
JP4980105B2 (ja) * | 2007-03-19 | 2012-07-18 | シャープ株式会社 | 座標入力装置、および座標入力装置の制御方法 |
JP2009048335A (ja) * | 2007-08-16 | 2009-03-05 | Lg Display Co Ltd | 液晶表示装置 |
JP2009064074A (ja) * | 2007-09-04 | 2009-03-26 | Mitsubishi Electric Corp | 入力装置 |
US8446373B2 (en) * | 2008-02-08 | 2013-05-21 | Synaptics Incorporated | Method and apparatus for extended adjustment based on relative positioning of multiple objects contemporaneously in a sensing region |
US20090244026A1 (en) * | 2008-03-27 | 2009-10-01 | Research In Motion Limited | Touch screen display for electronic device and method of determining touch interaction therewith |
EP2105824B1 (en) * | 2008-03-27 | 2013-03-20 | Research In Motion Limited | Touch screen display for electronic device and method of determining touch interaction therewith |
US8760431B2 (en) * | 2008-07-17 | 2014-06-24 | Samsung Display Co., Ltd. | Display apparatus |
US8624849B2 (en) * | 2009-04-20 | 2014-01-07 | Apple Inc. | Touch actuated sensor configuration integrated with an OLED structure |
-
2009
- 2009-05-06 KR KR1020090039274A patent/KR101097309B1/ko active IP Right Grant
-
2010
- 2010-01-26 US US12/694,240 patent/US20100283756A1/en not_active Abandoned
- 2010-03-25 CN CN201010141402.5A patent/CN101882031B/zh not_active Expired - Fee Related
- 2010-04-21 JP JP2010097873A patent/JP5274507B2/ja not_active Expired - Fee Related
- 2010-05-06 EP EP20100250887 patent/EP2249233A3/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
CN101882031A (zh) | 2010-11-10 |
JP2010262641A (ja) | 2010-11-18 |
EP2249233A3 (en) | 2013-03-20 |
KR20100120456A (ko) | 2010-11-16 |
KR101097309B1 (ko) | 2011-12-23 |
US20100283756A1 (en) | 2010-11-11 |
CN101882031B (zh) | 2015-01-21 |
EP2249233A2 (en) | 2010-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5274507B2 (ja) | タッチ動作認識方法及び装置 | |
JP5213831B2 (ja) | タッチポイント検出方法及び装置 | |
US20180349669A1 (en) | Operating method of optical fingerprint sensor, operating method of electronic device including the optical fingerprint sensor, and display device including the optical fingerprint sensor | |
JP4630744B2 (ja) | 表示装置 | |
US8760431B2 (en) | Display apparatus | |
EP2336857B1 (en) | Method of driving touch screen display apparatus, touch screen display apparatus adapted to execute the method and computer program product for executing the method | |
CA2749607C (en) | Touch-sensitive display | |
US8610670B2 (en) | Imaging and display apparatus, information input apparatus, object detection medium, and object detection method | |
US11256367B2 (en) | Techniques for handling unintentional touch inputs on a touch-sensitive surface | |
KR20180132496A (ko) | 광학식 지문 센서의 동작 방법, 이를 포함하는 전자 장치의 동작 방법 및 디스플레이 장치 | |
KR101137383B1 (ko) | 디스플레이 장치 | |
KR101116769B1 (ko) | 광센서가 내장된 디스플레이 패널에 대한 입력 검출 시스템 및 그 방법 | |
US20170177117A1 (en) | Capacitance sensor device and detecting method for a conductive matter thereon | |
JP5399799B2 (ja) | ディスプレイ装置 | |
US10521052B2 (en) | 3D interactive system | |
TWI430148B (zh) | 顯示裝置及判斷在其上之接觸位置的方法 | |
KR20100049395A (ko) | 터치 인식 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120724 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20121003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121023 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130321 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130514 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5274507 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |