JP5213831B2 - タッチポイント検出方法及び装置 - Google Patents

タッチポイント検出方法及び装置 Download PDF

Info

Publication number
JP5213831B2
JP5213831B2 JP2009239518A JP2009239518A JP5213831B2 JP 5213831 B2 JP5213831 B2 JP 5213831B2 JP 2009239518 A JP2009239518 A JP 2009239518A JP 2009239518 A JP2009239518 A JP 2009239518A JP 5213831 B2 JP5213831 B2 JP 5213831B2
Authority
JP
Japan
Prior art keywords
touch point
image
touch
coordinates
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009239518A
Other languages
English (en)
Other versions
JP2010097616A (ja
Inventor
載信 金
▲ジャ▼昇 具
▲ミン▼▲ジュン▼ 李
▲ヒ▼▲チュル▼ 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Publication of JP2010097616A publication Critical patent/JP2010097616A/ja
Application granted granted Critical
Publication of JP5213831B2 publication Critical patent/JP5213831B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチポイント検出方法及び装置に係り、さらに詳細には、光センサを利用した情報入力機能を具備した表示装置で、客体、特に指のタッチポイントを検出できる方法及び装置に関する。
一般的に、情報を認識させるディスプレイの機能は、単に画面の鮮明化に限られていた。しかし、最近には、情報媒体を人の手で直接触れつつ、情報を伝達したり、または習得したりする方式を多様に適用している。このような技術の一種として、タッチパネル・ディスプレイ(touch panel display)は、有用な技術として、多様な方式を介して具現されている。そのうち、タッチスクリーンパネルの一体型液晶表示装置の製作技術が開発され、このようなタッチスクリーンパネルの一体型液晶表示装置技術の応用範囲は、液晶表示パネル分野だけではなく、ディスプレイ全領域で適用されうる。特に、次世代ディスプレイ市場で脚光を浴びている有機発光ダイオード領域にも適用が可能である。
光センサ方式のタッチパネル・ディスプレイ装置は、画素内に光センサを配し、光によって、画面で情報入力を可能にしたものである。この種類の表示装置では、光センサとして、例えば、フォトダイオードが利用され、各画素のフォトダイオードに、キャパシタが接続される。そして、フォトダイオードでの受光量の変化によって、キャパシタの電荷量を変化させるとともに、キャパシタの両端の電圧を検出することによって、撮像画像のデータを生成する。このような表示装置の応用として、タッチパネル機能や、デジタイザ機能を具備したものが提案されている。タッチパネル機能は、画面上に投影された指などの物体が作る影を検出することによって、情報入力を行うのである。この場合、多様な画像認識アルゴリズムを介して入力情報を認識しているが、画像認識アルゴリズムが複雑であり、かつ計算量が多く、ハードウェアに負担になるという問題点がある。
特開1999−143621号公報 特開2007−042093号公報
本発明は、光によって画面に情報を入力する機能を具備した表示装置で、光センサによって獲得したイメージ解析を介して、タッチポイントを検出できる方法及び装置を提供することを目的とする。
また、マルチタッチポイントを検出できる方法及び装置を提供することを目的とする。
また、タッチポイント検出方法及び装置を利用した表示装置を提供することを目的とする。
前記技術的課題を達成するための、本発明の一実施形態によるタッチポイント検出方法は、入力映像から指イメージのエッジ映像を検出する段階と、前記検出したエッジ映像を利用して、タッチポイント映像を生成する段階と、前記タッチポイント映像からタッチ座標を計算する段階とを具備する。
望ましくは、前記生成段階は、前記エッジ映像のグラジエント方向とグラジエント・サイズとを利用して、タッチポイント映像を生成することを特徴とする。
望ましくは、前記生成段階は、前記エッジ映像のグラジエント方向に所定の距離ほど離れている位置を中心に、グラジエント・サイズ値を累積して合算したタッチポイント映像を生成することを特徴とする。
望ましくは、前記生成段階は、前記エッジ映像が検出された位置を中心に、前記グラジエント方向に所定の距離ほど離れた位置に中心を設定する段階と、前記設定した中心を基準に、所定の領域に対して前記グラジエント・サイズ値を合算するとともに、前記タッチポイント映像を生成する段階とを具備することを特徴とする。
望ましくは、前記計算段階は、前記タッチポイント映像で、前記合算したグラジエント・サイズ値が最大になるピクセルの座標をタッチポイントとして決定することを特徴とする。
望ましくは、前記所定の距離は、指の半径であることを特徴とする。
望ましくは、前記所定の領域は、指先部分の大きさによって、任意に決定されることを特徴とする。
望ましくは、前記計算段階は、少なくとも2以上のタッチポイントの座標を計算することを特徴とする。
望ましくは、前記計算段階は、前記それぞれのタッチポイントに累積して合算したグラジエント・サイズ値と、前記それぞれのタッチポイントの座標と所定の距離とを比較した結果とによって、それぞれのタッチポイントの座標を更新しつつ、前記それぞれのタッチポイントの座標を計算することを特徴とする。
望ましくは、前記計算段階は、それぞれの初期タッチポイントの座標と、前記座標に合算したグラジエント・サイズ値とを初期化する段階と、現在ピクセルの座標と前記それぞれのタッチポイントの座標との間の距離をそれぞれ計算する段階と、前記計算した距離と所定の距離とを比較するとともに、前記比較結果によって、前記それぞれのタッチポイントの座標を更新する段階と、前記更新されたそれぞれのタッチポイントの座標を前記少なくとも2以上のタッチポイントの座標として決定する段階とを具備することを特徴とする。
望ましくは、前記更新段階は、前記計算した距離が所定の距離以上、または以下であるかを比較することを特徴とする。
望ましくは、前記所定の距離は、指の半径であることを特徴とする。
望ましくは、前記方法は、あらゆるピクセルに対して、前記計算段階と更新段階とを遂行することを特徴とする。
望ましくは、前記検出段階は、Sobelフィルタを利用して、前記入力映像から指イメージのエッジ映像を検出することを特徴とする。
前記技術的課題を達成するための、本発明の他の実施形態によるタッチポイント検出方法は、タッチパネルに接触した指イメージのエッジ映像を検出する段階と、前記エッジ映像が検出された位置を中心に、前記エッジ映像のグラジエント方向に所定の距離ほど離れた位置に中心を設定する段階と、前記設定した中心を基準に、所定の領域に対して、前記エッジ映像のグラジエント値を累積して合算することによって、タッチポイント映像を生成する段階と、前記タッチポイント映像からタッチ座標を計算する段階とを具備する。
望ましくは、前記計算段階は、前記タッチポイント映像で、前記累積して合算したグラジエント・サイズ値が最大になるピクセルの座標をタッチポイントとして決定することを特徴とする。
望ましくは、前記計算段階は、少なくとも2以上のタッチポイントの座標を計算することを特徴とする。
望ましくは、前記計算段階は、前記それぞれのタッチポイントに累積して合算したグラジエント・サイズ値と、前記それぞれのタッチポイントの座標と所定の距離とを比較した結果とによって、それぞれのタッチポイントの座標を更新しつつ、前記それぞれのタッチポイントの座標を計算することを特徴とする。
前記技術的課題を達成するための、本発明のさらに他の実施形態による前記方法を、コンピュータで実行させるためのプログラムを記録した記録媒体を具備する。
前記技術的課題を達成するための、本発明のさらに他の実施形態によるタッチポイント検出装置は、入力映像から指イメージのエッジ映像を検出するエッジ検出部と、前記検出したエッジ映像を利用して、タッチポイント映像を生成するタッチポイント映像生成部と、前記タッチポイント映像からタッチ座標を計算する座標計算部とを具備する。
望ましくは、前記タッチポイント映像生成部は、前記エッジ映像のグラジエント方向とグラジエント・サイズとを利用して、タッチポイント映像を生成することを特徴とする。
望ましくは、前記タッチポイント映像生成部は、前記エッジ映像のグラジエント方向に所定の距離ほど離れている位置を中心に、グラジエント・サイズ値を累積して合算したタッチポイント映像を生成することを特徴とする。
望ましくは、前記タッチポイント映像生成部は、前記エッジ映像が検出された位置を中心に、前記グラジエント方向に所定の距離ほど離れた位置に中心を設定する中心設定部と、前記設定した中心を基準に、所定の領域に対して、前記グラジエント・サイズ値を合算するとともに、前記タッチポイント映像を生成するグラジエント合算部とを具備することを特徴とする。
望ましくは、前記座標計算部は、前記タッチポイント映像で、前記合算したグラジエント・サイズ値が最大になるピクセルの座標をタッチポイントとして決定することを特徴とする。
望ましくは、前記座標計算部は、少なくとも2以上のタッチポイントの座標を計算することを特徴とする。
望ましくは、前記座標計算部は、それぞれの初期タッチポイントの座標と、前記座標に合算したグラジエント・サイズ値とを初期化する初期化部と、現在ピクセルの座標と前記それぞれのタッチポイントの座標との間の距離をそれぞれ計算する距離計算部と、前記計算した距離と所定の距離とを比較するとともに、前記比較結果によって、前記それぞれのタッチポイントの座標を更新する更新判断部と、前記更新されたそれぞれのタッチポイントの座標を前記少なくとも2以上のタッチポイントの座標として決定する座標決定部とを具備することを特徴とする。
望ましくは、前記更新判断部は、前記計算した距離が所定の距離以上、または以下であるかを比較することを特徴とする。
望ましくは、前記距離計算部と前記更新判断部は、あらゆるピクセルに対して距離計算と座標更新とを遂行することを特徴とする。
前記技術的課題を達成するための、本発明のさらに他の実施形態による指のタッチを感知する少なくとも一つ以上の光センサを具備する表示装置は、前記光センサが感知した信号を読取るセンシング信号読出し部と、前記光センサが感知した信号から指の影映像を生成するとともに、前記生成した映像からエッジ映像を検出し、かつ検出したエッジ映像を利用して、タッチポイント映像を生成するとともに、前記タッチポイント映像からタッチポイントの座標を計算するタッチポイント検出装置とを具備する。
望ましくは、前記タッチポイント検出装置は、マルチタッチポイントを検出することを特徴とする。
本発明の一実施形態によるタッチポイント検出方法は、入力映像から指イメージのエッジ映像を検出し、それからタッチポイント映像を生成するとともに、タッチポイント映像からタッチ座標を計算することによって、指形態の特性を利用して簡単なタッチ認識アルゴリズムを具現でき、マルチタッチポイントに対する検出も正確に遂行することができる。
本発明の一実施形態による、光によって画面に情報を入力する機能を具備した表示装置を図示した図面である。 本発明の他の実施形態によるタッチポイント検出装置を備えた表示装置の概略的な図面である。 図2に図示されたタッチポイント検出装置の概略的な図面である。 図2に図示されたエッジ検出部の機能を説明するためのイメージである。 図2に図示されたエッジ検出部の機能を説明するためのイメージである。 図2に図示されたタッチポイント・イメージ生成部の機能を説明するためのイメージである。 図2に図示されたタッチポイント・イメージ生成部の機能を説明するためのイメージである。 図2に図示されたタッチポイント・イメージ生成部の概略的な図面である。 本発明のさらに他の実施形態による座標計算部の概略的な図面である。 本発明のさらに他の実施形態によるマルチタッチポイントを検出するための座標計算方法を説明するためのフローチャートである。 本発明のさらに他の実施形態によるマルチタッチポイントを検出するための座標計算方法を説明するためのフローチャートである。 本発明のさらに他の実施形態によるマルチタッチポイントを検出するための座標計算方法を説明するためのフローチャートである。
以下、添付された図面を参照しつつ、本発明の望ましい実施形態に係る表示装置について詳細に説明する。本明細書に添付された図面を介して、事実上同じ機能を行う部材については、同じ図面符号を使用する。
図1は、本発明の一実施形態による、光によって画面に情報を入力する機能を具備した表示装置を図示した図面である。
図1には、多数の光センサ110を備えた表示装置100が図示されている。表示装置100は、光センサ110だけではなく、多数の薄膜トランジスタ(TFT)と多様なディスプレイ素子とが具備されうる。例えば、多数のTFTを構成する電極、層(半導体層及び絶縁層)及び有機発光素子を具備できる。有機発光素子は、画素電極と、これに対向した対向電極と、画素電極(アノード電極)と対向電極(カソード電極)との間に介在した発光層を含む中間層とを具備する。本発明の望ましい実施形態で、外光によって、指fの影を感知するだけではなく、有機発光素子の発光によって、指fによって反射された光信号も感知する構成である。また、有機発光素子だけではなく、有機発光素子を特定したものの、他の平板ディスプレイ素子、例えば、液晶表示装置(LCD)、プラズマディスプレイパネル(PDP)などを含む。
前記光センサ110は、特定物体、例えば指fを触れた場合、外部光源(図示せず)または内部光源(図示せず)による指fによる光信号を検出する。例えば、光センサ110が所定値より明るい光を検出した場合には、信号処理部(図示せず)がハイレベル信号を出力し、所定値より暗い光を検出した場合には、ローレベル信号を出力する。望ましくは、光センサ110は、PIN(p-intrinsic-n)型光ダイオードから構成されうる。
図2は、本発明の他の実施形態によるタッチポイント検出装置230を備えた表示装置の概略的な図面である。
図2には、光センサ210を具備する表示装置200、センシング信号読出し部220及びタッチポイント検出装置230が図示されている。
前記表示装置200は、光センサ210と共に、複数の信号線と複数の走査線との交差点に配列された赤(R)、緑(G)、青(B)によって構成されたピクセルを具備する。表示装置200は、外部のホストから伝送された映像信号に基づいて、画像を表示する表示機能を遂行する。
前記センシング信号読出し部220は、表示装置200の光センサ210が感知した信号を読取り、タッチポイント検出装置230に出力する。
前記タッチポイント検出装置230は、光センサ210が感知した信号を解析し、タッチポイントを検出する。本発明の望ましい実施形態で、タッチポイント検出装置230は、光センサ210が感知した信号から指の影イメージを作り、指の影イメージ(入力映像)からエッジ映像を検出し、検出したエッジ映像をタッチポイント・イメージ(以下、「TPイメージ」とする)を生成し、生成したTPイメージからタッチポイントの座標を計算する。タッチポイント検出装置230についての具体的な構成及び機能は後述する。
図3は、図2に図示されたタッチポイント検出装置230の概略的な図面である。
図3に示すように、タッチポイント検出装置230は、エッジ検出部231、TPイメージ生成部232、座標計算部233を具備する。図示されていないが、光センサが感知した信号から指の影イメージを生成するための信号処理部、例えばラインメモリ、階調化回路、二値化回路などをさらに具備することができる。
前記エッジ検出部231は、入力映像からエッジ成分だけを検出し、エッジ映像を出力する。エッジ検出は、従来の一般的な方法、例えば、ラプラス・フィルタ、Robertsフィルタ、Sobelフィルタ、Prewittフィルタなどを使用できる。本発明の望ましい実施形態では、Sobelフィルタを使用してエッジ成分を検出し、Sobelフィルタを適用してエッジを検出する過程について説明する。
まず、次の数式1のようなSobel演算子を適用し、入力映像Aに係るコンボリューションを行う。
ここで、GとGは、それぞれx方向及びy方向のエッジ成分を意味する。
前記数式1を介して計算したG及びGについて、次の数式2及び数式3を介して、エッジ成分の大きさと方向とを計算する。
また、前記数式2を介して計算したG値が、所定の臨界値より小さければ、「0」と処理する。このような演算を行い、エッジ映像を得る。図4Aは、入力映像が図示されており、図4Bには、Sobelフィルタを適用して計算したエッジ映像が図示されている。
前記TPイメージ生成部232は、出力されたエッジ映像のグラジエント方向(Θ)に、所定の距離ほど離れている位置を中心に、一定の領域でグラジエント・サイズ値を合算し、TPイメージを生成する。
図5A及び図5Bには、TPイメージを生成する過程と、その結果のTPイメージとが図示されている。図5Aに示すように、エッジが検出された位置で、グラジエント方向(Θ)に一定の距離、例えば、指の半径距離にある中心位置を定める。それにより、指先は、普通円状となるために、一点に集まるようになる。この点で一定の領域、例えば、5×5ブロックにグラジエント・サイズ値を累積させて加える。それにより、指先付近の位置に値が多く累積することになる。ここでは、5×5ブロックについて合算したが、その大きさに限定されるものではない。ここで、合算する領域の大きさは、指の手の平部分、すなわち、実際に指がタッチする面積の程度によって、大きさを異ならせることができる。図5Bには、最終TPイメージが図示されている。
図6は、図2に図示されたタッチポイント・イメージ生成部232の概略的な図面である。
図6に示すように、タッチポイント・イメージ生成部232は、中心設定部234及びグラジエント合算部235を具備する。
前記中心設定部234は、エッジが検出された位置を中心に、一定の方向に一定の距離ほど離れた地点に中心を設定する。中心設定部234は、前記数式3を介して計算した方向、すなわち、グラジエント方向(Θ)に所定の距離ほど離れた地点に中心を設定する。ここで、所定の距離は、指の半径距離でありうる。指先の部分は、円状になるために、一点に集まることになる。
前記グラジエント合算部235は、中心設定部234で設定した中心を基準に、所定の領域に対して、グラジエント値を累積して合算する。ここで、所定の領域の指先部分の大きさによって、任意に設定できる。それにより、指先部分の値が多く累積され、その部分のグラジエント値が大きくなる。
座標計算部233は、タッチポイント・イメージ生成部232から生成されたTPイメージを利用し、タッチポイントの座標を計算する。座標計算部233は、TPイメージで最大値を有するピクセルの位置をタッチポイントとして決定する。そして、この結果値をホスト(図示せず)に出力する。再び図5Bを参照すれば、座標計算は、TPイメージで最も明るいピクセルの位置をタッチポイントとして決定するのである。
図7は、本発明のさらに他の実施形態による座標計算部233の概略的な図面である。
本発明の移転実施形態では、1つのタッチポイントを決定する場合に、TPイメージで最も明るいピクセルの位置をタッチポイントとして決定できる。しかし、マルチタッチ、例えば、3個のタッチポイントを決定せねばならない場合に、最も明るいピクセルの位置をタッチポイントとして決定する方法を使用できない。なぜならば、3個のタッチポイントを求めねばならないが、最も明るい順序で3個を探すならば、1つのTPイメージに3個の明るいピクセルが集まっている可能性があり、その場合には、正確に3個のタッチポイントを検出できない。従って、本発明のさらに他の実施形態では、マルチタッチ機能を具現するために、TPイメージでローカル最大値を有するタッチポイントを検出できる方法を提案する。
本発明のさらに他の実施形態では、TPイメージのあらゆるピクセル値Pに対して、3個のタッチポイントt1,t2,t3を探すことである。ここで、TP(t1)>TP(t2)>TP(t3)と仮定し、TP(p)は、ピクセルPに累積されたグラジエント値である。従って、TP(t1)は、タッチポイントt1に累積されたグラジエント値である。そして、t1,t2,t3値は、一定の距離d以上を維持すると仮定する。ここで、一定の距離dは、指の半径の大きさ、例えば、0.5cmほどであってもよい。
図7に示すように、初期化部236、距離計算部237、更新判断部238及び座標決定部239を具備する。
前記初期化部236は、初期t1,t2,t3の値とTP()値とを初期化させる。例えば、初期t1,t2,t3は、存在しないピクセル位置である(−1,−1)に決め、このときのTP()は、「0」に初期化させる。
前記距離計算部237は、現在ピクセルの座標とt1,t2,t3との距離を計算する。
前記更新判断部238は、現在ピクセルの座標とt1,t2,t3との距離が所定の距離d以上、または以下であるかによって、t1,t2,t3の値を更新する。
座標決定部238は、最終的に更新されたt1,t2,t3の座標値をマルチタッチに係る結果値として決定する。
図8ないし図10は、本発明のさらに他の実施形態によるマルチタッチポイントを検出するための座標計算方法について説明するためのフローチャートである。
図8に示すように、段階S800で、t1,t2,t3値とTP()値とを初期化させる。例えば、t1,t2,t3の座標値は(−1,−1)と定義し、TP()値は、「0」に初期化させる。
段階S802で、現在ピクセルPnのTPPn値がTP(t1)以上であるか否かを判断する。TP(Pn)値がTP(t1)以上である場合には、段階S804に進み、Pnとt1との距離がd以下であるか否かを判断する。段階S804の判断結果、Pnとt1との距離がd以下である場合にはt1をPnに更新する。そして、次のピクセルに対して、段階S802を遂行する。
段階S804で、Pnとt1との距離がd以上である場合には、段階S808に進み、Pnとt1との距離がd以下であるか判断する。段階S808の判断結果、Pnとt2との距離がd以下である場合、段階S810に進んでt2をt1に更新し、t1をPnに更新する。そして、次のピクセルに対して、段階S802を遂行する。
段階S808の判断結果、Pnとt2との距離がd以上である場合には、段階S812に進み、t3をt2に更新し、t2をt1に更新し、t1をPnに更新する。そして、次のピクセルに対して、段階S802を遂行する。
図8及び図9に示すように、段階S802の判断結果、TP(Pn)値がTP(t1)以下である場合、段階S900に進み、TP(Pn)値がTP(t2)値以上であるか否かを判断する。段階S900の判断結果、TP(Pn)値がTP(t2)値以上である場合には、段階S902に進み、Pnとt1との距離がd以上であり、Pnとt2との距離がd以下であるか否かを判断する。Pnとt1との距離がd以上であり、Pnとt2との距離がd以下である場合には、段階S904に進み、t2=Pnに更新する。そして、次のピクセルに対して、段階S802を遂行する。
段階S902の判断結果、Pnとt1との距離がd以上であり、Pnとt2との距離がd以上である場合には、段階S904に進み、t3をt2値に更新し、t2をPn値に更新する。そして、次のピクセルに対して、段階S802を遂行する。
図8ないし図10に示すように、段階S900の判断結果、TP(Pn)値がTP(t2)値以下である場合には、段階S1000に進み、TP(Pn)値がTP(t3)値以上であるか否かを判断する。段階S1000の判断結果、TP(Pn)値がTP(t3)値以上である場合には、段階S1002に進み、Pnとt1との距離と、Pnとt2との距離とがいずれもd以上であるならば、t3をPn値に更新し、次のピクセルに対して、段階S802を遂行する。
以上、あらゆるピクセルについて、図8ないし図10による段階を遂行することによって、t1,t2,t3に対して更新するか否かを決定する。そして、最終的に、t1,t2,t3の座標を決定する。従って、3つの部分、すなわちt1,t2,t3に対して座標を決定できる。
図8ないし図10を参照して、マルチタッチ、すなわち、3つの部分に対するタッチポイントの座標を決定することについて説明したが、その数に限定されるものではなく、それ以上に係るタッチポイントを決定することも、前述の過程を介して、同じ方式で計算できることはいうまでもない。
一方、本発明は、コンピュータで読取り可能な記録媒体にコンピュータで読取り可能なコードで具現することが可能である。コンピュータで読取り可能な記録媒体は、コンピュータシステムによって読取り可能なデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読取り可能な記録媒体の例としては、ROM(read-only memory)、RAM(random-access memory)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあって、またキャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現するものを含む。また、コンピュータで読取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータによって読取り可能なコードが保存されて実行されうる。そして、本発明を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマによって容易に推論されうる。
以上、本発明について望ましい実施形態を中心に述べた。本発明が属する技術分野で当業者は、本発明の本質的な特性から外れない範囲で変形された形態において、本発明を具現できるということを理解することが可能であろう。従って、前記開示された実施形態は、限定的な観点ではなくして、説明的な観点から考慮されねばならない。本発明の範囲は、前述の説明ではなくして特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は、本発明に含まれるものと解釈されねばならない。
100,200・・・表示装置
110,210・・・光センサ
220・・・センシング信号読出し部
230・・・タッチポイント検出装置
231・・・エッジ検出部
232・・・タッチポイント・イメージ生成部
233・・・座標計算部
234・・・中心設定部
235・・・グラジエント合算部
236・・・初期化部
237・・・距離計算部
238・・・更新判断部
239・・・座標決定部
f・・・指

Claims (26)

  1. 入力映像から指イメージのエッジ映像を検出する段階と、
    前記検出したエッジ映像を利用して、タッチポイント映像を生成する段階と、
    前記タッチポイント映像からタッチ座標を計算する段階とを具備し、
    前記生成段階は、前記エッジ映像のグラジエント方向とグラジエント・サイズとを利用して、タッチポイント映像を生成する段階であって、前記エッジ映像のグラジエント方向に所定の距離ほど離れている位置を中心に、グラジエント・サイズ値を累積して合算したタッチポイント映像を生成する、タッチポイント検出方法。
  2. 前記生成段階は、
    前記エッジ映像が検出された位置を中心に、前記グラジエント方向に所定の距離ほど離れた位置に中心を設定する段階と、
    前記設定した中心を基準に、所定の領域に対して、前記グラジエント・サイズ値を合算するとともに、前記タッチポイント映像を生成する段階とを具備することを特徴とする請求項に記載のタッチポイント検出方法。
  3. 前記計算段階は、
    前記タッチポイント映像で、前記合算したグラジエント・サイズ値が最大になるピクセルの座標をタッチポイントとして決定することを特徴とする請求項に記載のタッチポイント検出方法。
  4. 前記所定の距離は、
    指の半径であることを特徴とする請求項に記載のタッチポイント検出方法。
  5. 前記所定の領域は、
    指先部分の大きさによって、任意に決定されることを特徴とする請求項に記載のタッチポイント検出方法。
  6. 前記計算段階は、
    少なくとも2以上のタッチポイントの座標を計算することを特徴とする請求項に記載のタッチポイント検出方法。
  7. 前記計算段階は、
    前記それぞれのタッチポイントに累積して合算したグラジエント・サイズ値と、前記それぞれのタッチポイントの座標と所定の距離とを比較した結果とによって、それぞれのタッチポイントの座標を更新しつつ、前記それぞれのタッチポイントの座標を計算することを特徴とする請求項に記載のタッチポイント検出方法。
  8. 前記計算段階は、
    それぞれの初期タッチポイントの座標と、前記座標に合算したグラジエント・サイズ値とを初期化する段階と、
    現在ピクセルの座標と前記それぞれのタッチポイントの座標との間の距離をそれぞれ計算する段階と、
    前記計算した距離と所定の距離とを比較するとともに、前記比較結果によって、前記それぞれのタッチポイントの座標を更新する段階と、
    前記更新されたそれぞれのタッチポイントの座標を前記少なくとも2以上のタッチポイントの座標として決定する段階とを具備することを特徴とする請求項に記載のタッチポイント検出方法。
  9. 前記更新段階は、
    前記計算した距離が、所定の距離以上であるか、または以下であるかを比較することを特徴とする請求項に記載のタッチポイント検出方法。
  10. 前記所定の距離は、
    指の半径であることを特徴とする請求項に記載のタッチポイント検出方法。
  11. あらゆるピクセルに対して、前記計算段階と更新段階とを遂行することを特徴とする請求項に記載のタッチポイント検出方法。
  12. 前記検出段階は、
    Sobelフィルタを利用して、前記入力映像から指イメージのエッジ映像を検出することを特徴とする請求項1に記載のタッチポイント検出方法。
  13. タッチパネルに接触した指イメージのエッジ映像を検出する段階と、
    前記エッジ映像が検出された位置を中心に、前記エッジ映像のグラジエント方向に所定の距離ほど離れた位置に中心を設定する段階と、
    前記設定した中心を基準に、所定の領域に対して、前記エッジ映像のグラジエント値を累積して合算することによって、タッチポイント映像を生成する段階と、
    前記タッチポイント映像からタッチ座標を計算する段階とを具備するタッチポイント検出方法。
  14. 前記計算段階は、
    前記タッチポイント映像で、前記累積して合算したグラジエント・サイズ値が最大になるピクセルの座標をタッチポイントとして決定することを特徴とする請求項13に記載のタッチポイント検出方法。
  15. 前記計算段階は、
    少なくとも2以上のタッチポイントの座標を計算することを特徴とする請求項13に記載のタッチポイント検出方法。
  16. 前記計算段階は、
    前記それぞれのタッチポイントに累積して合算したグラジエント・サイズ値と、前記それぞれのタッチポイントの座標と所定の距離とを比較した結果とによって、それぞれのタッチポイントの座標を更新しつつ、前記それぞれのタッチポイントの座標を計算することを特徴とする請求項15に記載のタッチポイント検出方法。
  17. 請求項1ないし請求項16のうち、いずれか1項に記載の方法をコンピュータで実行させるためのプログラムを記録した記録媒体。
  18. 入力映像から指イメージのエッジ映像を検出するエッジ検出部と、
    前記検出したエッジ映像を利用して、タッチポイント映像を生成するタッチポイント映像生成部と、
    前記タッチポイント映像からタッチ座標を計算する座標計算部とを具備し、
    前記タッチポイント映像生成部は、前記エッジ映像のグラジエント方向とグラジエント・サイズとを利用して、タッチポイント映像を生成するものであって、前記エッジ映像のグラジエント方向に所定の距離ほど離れている位置を中心に、グラジエント・サイズ値を累積して合算したタッチポイント映像を生成する、タッチポイント検出装置。
  19. 前記タッチポイント映像生成部は、
    前記エッジ映像が検出された位置を中心に、前記グラジエント方向に所定の距離ほど離れた位置に中心を設定する中心設定部と、
    前記設定した中心を基準に、所定の領域に対して、前記グラジエント・サイズ値を合算するとともに、前記タッチポイント映像を生成するグラジエント合算部とを具備することを特徴とする請求項18に記載のタッチポイント検出装置。
  20. 前記座標計算部は、
    前記タッチポイント映像で、前記合算したグラジエント・サイズ値が最大になるピクセルの座標をタッチポイントとして決定することを特徴とする請求項19に記載のタッチポイント検出装置。
  21. 前記座標計算部は、
    少なくとも2以上のタッチポイントの座標を計算することを特徴とする請求項19に記載のタッチポイント検出装置。
  22. 前記座標計算部は、
    それぞれの初期タッチポイントの座標と、前記座標に合算したグラジエント・サイズ値とを初期化する初期化部と、
    現在ピクセルの座標と前記それぞれのタッチポイントの座標との間の距離をそれぞれ計算する距離計算部と、
    前記計算した距離と所定の距離とを比較するとともに、前記比較結果によって、前記それぞれのタッチポイントの座標を更新する更新判断部と、
    前記更新されたそれぞれのタッチポイントの座標を前記少なくとも2以上のタッチポイントの座標として決定する座標決定部とを具備することを特徴とする請求項21に記載のタッチポイント検出装置。
  23. 前記更新判断部は、
    前記計算した距離が、所定の距離以上であるか、または以下であるかを比較することを特徴とする請求項22に記載のタッチポイント検出装置。
  24. 前記距離計算部と前記更新判断部は、
    あらゆるピクセルに対して距離計算と座標更新とを遂行することを特徴とする請求項22に記載のタッチポイント検出装置。
  25. 指のタッチを感知する少なくとも一つ以上の光センサを具備する表示装置において、
    前記光センサが感知した信号を読取るセンシング信号読出し部と、
    前記光センサが感知した信号から指の影映像を生成するとともに、前記生成した映像からエッジ映像を検出し、かつ検出したエッジ映像を利用して、タッチポイント映像を生成するとともに、前記タッチポイント映像からタッチポイントの座標を計算するタッチポイント検出装置とを具備し、
    前記タッチポイント検出装置は、前記エッジ映像のグラジエント方向とグラジエント・サイズとを利用して、前記エッジ映像のグラジエント方向に所定の距離ほど離れている位置を中心に、グラジエント・サイズ値を累積して合算したタッチポイント映像を生成する、表示装置。
  26. 前記タッチポイント検出装置は、
    マルチタッチポイントを検出することを特徴とする請求項25に記載の表示装置。
JP2009239518A 2008-10-17 2009-10-16 タッチポイント検出方法及び装置 Active JP5213831B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2008-0102107 2008-10-17
KR1020080102107A KR100975869B1 (ko) 2008-10-17 2008-10-17 터치 포인트 검출 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2010097616A JP2010097616A (ja) 2010-04-30
JP5213831B2 true JP5213831B2 (ja) 2013-06-19

Family

ID=41863704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009239518A Active JP5213831B2 (ja) 2008-10-17 2009-10-16 タッチポイント検出方法及び装置

Country Status (6)

Country Link
US (1) US8421775B2 (ja)
EP (1) EP2182427A3 (ja)
JP (1) JP5213831B2 (ja)
KR (1) KR100975869B1 (ja)
CN (1) CN101727239B (ja)
TW (1) TWI417769B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090174674A1 (en) * 2008-01-09 2009-07-09 Qualcomm Incorporated Apparatus and methods for a touch user interface using an image sensor
KR101843561B1 (ko) * 2009-10-26 2018-03-30 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치 및 반도체 장치
KR101666580B1 (ko) * 2009-12-23 2016-10-14 엘지디스플레이 주식회사 터치 검출방법
CN103098012B (zh) * 2010-09-15 2016-06-08 先进矽有限公司 用于检测多点触控设备上任意数量触摸的方法
KR101706237B1 (ko) * 2010-11-26 2017-02-14 엘지디스플레이 주식회사 터치스크린 표시장치 및 이의 터치 판단방법
TWI423093B (zh) * 2010-12-03 2014-01-11 Au Optronics Corp 觸控面板判斷多點觸控之方法
WO2012087308A1 (en) * 2010-12-22 2012-06-28 Intel Corporation Touch sensor gesture recognition for operation of mobile devices
CN102541356A (zh) * 2010-12-24 2012-07-04 敦南科技股份有限公司 用于光学式触控面板的触碰点定位方法及光学式触控面板装置
CN102129332A (zh) * 2011-03-07 2011-07-20 广东威创视讯科技股份有限公司 一种图像识别的触摸点的检测方法及装置
CN102622137B (zh) * 2012-02-29 2014-12-03 广东威创视讯科技股份有限公司 一种摄像头前定位触摸屏多点触控方法及装置
JP6049334B2 (ja) * 2012-07-12 2016-12-21 キヤノン株式会社 検出装置、検出方法及びプログラム
KR101960381B1 (ko) * 2012-09-06 2019-03-20 엘지디스플레이 주식회사 사용자 선호도를 반영한 터치 센싱 방법 및 장치
CN103279234B (zh) * 2013-05-28 2016-12-28 广州视睿电子科技有限公司 触摸点定位的方法和***
CN103279235B (zh) * 2013-05-28 2016-08-10 广州视睿电子科技有限公司 触摸点定位的方法和***
KR102112675B1 (ko) * 2013-09-23 2020-05-19 엘지디스플레이 주식회사 터치 센싱 시스템과 그 구동 방법
TWI799316B (zh) * 2013-11-29 2023-04-11 日商半導體能源研究所股份有限公司 可攜資料處理裝置
KR102205906B1 (ko) * 2013-12-09 2021-01-22 삼성전자주식회사 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템
CN106557202A (zh) * 2016-10-28 2017-04-05 深圳埃蒙克斯科技有限公司 触摸点的检测方法及***
CN107299321B (zh) * 2017-07-28 2019-07-26 武汉华星光电半导体显示技术有限公司 蒸发源装置及蒸镀机
CN108109581B (zh) * 2018-01-16 2018-12-25 深圳鑫亿光科技有限公司 交互式led显示装置及其显示方法
CN108762557A (zh) * 2018-05-22 2018-11-06 北京集创北方科技股份有限公司 一种触摸检测方法和计算机可读存储介质
KR20220169059A (ko) 2021-06-17 2022-12-27 삼성디스플레이 주식회사 표시 장치 및 그것의 동작 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
JPH0969037A (ja) * 1995-08-31 1997-03-11 Sharp Corp データ処理装置
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
TWI253584B (en) * 2004-11-23 2006-04-21 Ind Tech Res Inst Coordinate positioning system of touch panel
CN101241411B (zh) * 2005-02-03 2010-06-02 东芝松下显示技术有限公司 包括通过光线从屏幕输入信息的功能的显示器
US7800594B2 (en) 2005-02-03 2010-09-21 Toshiba Matsushita Display Technology Co., Ltd. Display device including function to input information from screen by light
JP2007001233A (ja) * 2005-06-27 2007-01-11 Konica Minolta Business Technologies Inc 電気機器、及びプログラム
JP2007011233A (ja) * 2005-07-04 2007-01-18 Toshiba Matsushita Display Technology Co Ltd 平面表示装置及びそれを用いた撮像方法
JP2007094158A (ja) 2005-09-29 2007-04-12 Toshiba Matsushita Display Technology Co Ltd 液晶表示装置
JP2007183706A (ja) * 2006-01-04 2007-07-19 Epson Imaging Devices Corp タッチセンサシステム
KR101281830B1 (ko) 2006-09-26 2013-07-03 엘지디스플레이 주식회사 멀티 터치 감지기능을 갖는 액정표시장치와 그 구동방법
US7924316B2 (en) 2007-03-14 2011-04-12 Aptina Imaging Corporation Image feature identification and motion compensation apparatus, systems, and methods
JP4727615B2 (ja) 2007-03-30 2011-07-20 シャープ株式会社 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
JP2008250774A (ja) * 2007-03-30 2008-10-16 Denso Corp 情報機器操作装置
WO2008128096A2 (en) * 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
US8472665B2 (en) * 2007-05-04 2013-06-25 Qualcomm Incorporated Camera-based user input for compact devices

Also Published As

Publication number Publication date
KR100975869B1 (ko) 2010-08-13
CN101727239B (zh) 2016-04-13
TW201019188A (en) 2010-05-16
EP2182427A2 (en) 2010-05-05
TWI417769B (zh) 2013-12-01
EP2182427A3 (en) 2011-06-08
US8421775B2 (en) 2013-04-16
US20100097349A1 (en) 2010-04-22
CN101727239A (zh) 2010-06-09
JP2010097616A (ja) 2010-04-30
KR20100042900A (ko) 2010-04-27

Similar Documents

Publication Publication Date Title
JP5213831B2 (ja) タッチポイント検出方法及び装置
JP5274507B2 (ja) タッチ動作認識方法及び装置
US10168843B2 (en) System and method for determining user input from occluded objects
US9542045B2 (en) Detecting and tracking touch on an illuminated surface using a mean-subtracted image
US10572072B2 (en) Depth-based touch detection
EP2336857B1 (en) Method of driving touch screen display apparatus, touch screen display apparatus adapted to execute the method and computer program product for executing the method
KR20100072207A (ko) 터치-감응 장치상의 손가락 방향의 검출
US10884526B2 (en) Touch sensitive information transmission method, processor and system
US20180130241A1 (en) Image Modification Using Detected Symmetry
US10203806B2 (en) Low ground mass artifact management
JP6244886B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2018082498A1 (en) Mid-air finger pointing detection for device interaction
US9430095B2 (en) Global and local light detection in optical sensor systems
US20210373739A1 (en) Method for touch sensing enhancement implemented in single chip, single chip capable of achieving touch sensing enhancement, and computing apparatus
US20150153904A1 (en) Processing method of object image for optical touch system
CN115268695A (zh) 触控屏检测装置、方法、芯片、显示设备、电子设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20121003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130226

R150 Certificate of patent or registration of utility model

Ref document number: 5213831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250