JP2013114638A - Touch panel device - Google Patents

Touch panel device Download PDF

Info

Publication number
JP2013114638A
JP2013114638A JP2011263187A JP2011263187A JP2013114638A JP 2013114638 A JP2013114638 A JP 2013114638A JP 2011263187 A JP2011263187 A JP 2011263187A JP 2011263187 A JP2011263187 A JP 2011263187A JP 2013114638 A JP2013114638 A JP 2013114638A
Authority
JP
Japan
Prior art keywords
touch panel
unit
sensor
weight
calculation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011263187A
Other languages
Japanese (ja)
Other versions
JP5888951B2 (en
Inventor
Hiroyasu Miyahara
景泰 宮原
Yuichi Sasaki
雄一 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011263187A priority Critical patent/JP5888951B2/en
Publication of JP2013114638A publication Critical patent/JP2013114638A/en
Application granted granted Critical
Publication of JP5888951B2 publication Critical patent/JP5888951B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that a troublesome setting operation is required to change a formula due to structural variation in material or thickness of a protection member such as a glass and a resin and difference in a contact object (stylus pen or finger) to a touch panel because positional coordinates of an object on the touch panel is calculated by a single calculus.SOLUTION: When an object exists on a touch panel part in which multiple sensors are arranged, a sensing part of a touch panel device scans the touch panel part to acquire an output value of each sensor, a peak sensor detection part detects a peak sensor having a maximum output value, a coordinate calculation method determination part having a formula selection part for selecting and outputting a formula from a formula information part storing various calculation methods corresponding to the structure of the touch panel part and the type of an object determines a formula, and a coordinate calculation part calculates positional coordinates of the object on the touch panel part from the output values of the peak sensor and periphery sensors around it.

Description

この発明は、タッチパネル部の各センサ出力を用いてタッチパネル部上のスタイラスペンや指等の物体の位置座標を高精度に求めるタッチパネル装置に関する。   The present invention relates to a touch panel device that obtains the position coordinates of an object such as a stylus pen or a finger on a touch panel portion with high accuracy using each sensor output of the touch panel portion.

タッチパネル装置において、タッチパネル部上の物体(タッチしている指など)の位置を高精度に算出することを目的としたものとしては、例えば、特開2010−191778号公報に示されるものがある。この技術では、タッチパネル部に配置された複数のセンサとタッチパネル部上の指との間の静電容量の出力値を得て、最も大きな出力値のセンサをピークセンサとして検出し、ピークセンサの出力値の情報およびピークセンサ周辺のセンサの出力値の情報を基に、所定の算出式でタッチパネル部上の指の位置座標を計算する。   In the touch panel device, for example, Japanese Patent Application Laid-Open No. 2010-191778 discloses an object of calculating the position of an object (such as a finger touching the touch panel) with high accuracy. In this technology, the output value of the capacitance between a plurality of sensors arranged on the touch panel unit and the finger on the touch panel unit is obtained, the sensor with the largest output value is detected as the peak sensor, and the output of the peak sensor Based on the information on the values and the information on the output values of the sensors around the peak sensor, the position coordinates of the finger on the touch panel unit are calculated with a predetermined calculation formula.

特開2010−191778号公報JP 2010-191778 A

従来のタッチパネル装置では、単一の計算方法で指の位置座標を計算するため、タッチパネル部上に設置される保護部材の材質(ガラスや樹脂)や厚みが変わった場合など、タッチパネル装置の構造が変わり、座標計算の算式も変更する必要が生じた場合に、煩雑な設定作業が必要になるという課題があった。
また、タッチパネル部の利用方法として、細いスタイラスペンでタッチされる場合と、太い指でタッチされる場合も、望ましい座標計算方法が異なるが、このような違いにも簡単に対応できないという課題があった。
In the conventional touch panel device, since the position coordinates of the finger are calculated by a single calculation method, the structure of the touch panel device, such as when the material (glass or resin) or thickness of the protective member installed on the touch panel unit is changed, is used. However, there is a problem that complicated setting work is required when the calculation formula of the coordinate calculation needs to be changed.
In addition, as a method of using the touch panel unit, the preferred coordinate calculation method differs when touched with a thin stylus pen and when touched with a thick finger, but there is a problem that it is not possible to easily cope with such a difference. It was.

この発明は、前記のような課題を解決するためになされたものであり、タッチパネル装置の構造や利用方法が変わっても、少ない手間で、または自動的に、望ましい座標計算方法に調整でき、高精度な座標が得られるタッチパネル装置を得ることを目的としている。   The present invention has been made to solve the above-described problems, and even if the structure and usage of the touch panel device is changed, it can be adjusted to a desired coordinate calculation method with little effort or automatically. The object is to obtain a touch panel device capable of obtaining accurate coordinates.

この発明に係るタッチパネル装置は、
複数のセンサを配置したタッチパネル部と、前記タッチパネル部を走査して各センサの出力値を取得するセンシング部と、最大の出力値に対応したセンサをピークセンサとして検出するピークセンサ検出部と、タッチパネル部の構造またはタッチパネル部上に存在する物体の種類に応じた複数の異なる計算方式を記憶する算式情報部と、タッチパネル部上に存在する物体の位置座標の計算をする計算方式を決定し、算式情報部から選択し出力する算式選択部を有する座標計算方法決定部と、ピークセンサとその周辺のセンサの出力値と前記座標計算方法決定部が決定した計算方式からタッチパネル部上に存在する物体の位置座標を計算する座標算出部とを備える。
The touch panel device according to the present invention includes:
A touch panel unit in which a plurality of sensors are arranged, a sensing unit that scans the touch panel unit to acquire an output value of each sensor, a peak sensor detection unit that detects a sensor corresponding to the maximum output value as a peak sensor, and a touch panel A formula information unit that stores a plurality of different calculation methods according to the structure of the part or the type of object existing on the touch panel unit, and a calculation method for calculating the position coordinates of the object existing on the touch panel unit are determined. A coordinate calculation method determination unit having a formula selection unit for selecting and outputting from the information unit; output values of the peak sensor and its surrounding sensors; and a calculation method determined by the coordinate calculation method determination unit for objects existing on the touch panel unit A coordinate calculation unit that calculates position coordinates.

この発明に係るタッチパネル装置によれば、タッチパネル部の構造またはタッチパネル部上に存在した物体の種類に応じた複数の異なる計算方式を記憶する算式情報部と、タッチパネル部上に存在する物体の種類またはタッチパネル部の構造に応じてタッチパネル部上に存在する物体の位置座標の計算をする計算方式を決定し、算式情報部から選択し出力する算式選択部を有する座標計算方法決定部と、ピークセンサとその周辺のセンサの出力値と前記座標計算方法決定部が決定した計算方式からタッチパネル部上に存在する物体の位置座標を計算する座標算出部とを備えるので、算式情報部が記憶するタッチパネル部の構造またはタッチパネル部上に存在した物体の種類に応じた複数の異なる計算方式はタッチパネル装置外部から取得・格納可能であり、簡単な構成で、タッチパネル上に設置される保護部材の材質や厚みの変更など、タッチパネル装置の構造の変化、また、タッチパネル部上に存在する物体が指やスタイラスペン等にかかわらず対応することが可能となる。   According to the touch panel device according to the present invention, the formula information unit for storing a plurality of different calculation methods according to the structure of the touch panel unit or the type of the object present on the touch panel unit, and the type of the object present on the touch panel unit or A calculation method for calculating the position coordinates of an object existing on the touch panel unit according to the structure of the touch panel unit, a coordinate calculation method determination unit having a formula selection unit for selecting and outputting from the formula information unit, a peak sensor, Since there is a coordinate calculation unit that calculates the position coordinates of the object existing on the touch panel unit from the output value of the surrounding sensors and the calculation method determined by the coordinate calculation method determination unit, the formula information unit stores the touch panel unit Multiple different calculation methods depending on the structure or the type of object that existed on the touch panel unit can be obtained and stored from outside the touch panel device. It is possible to change the structure of the touch panel device, such as changing the material and thickness of the protective member installed on the touch panel with a simple configuration, and whether the object present on the touch panel unit is a finger or stylus pen, etc. It becomes possible to respond.

この発明の実施の形態1を示す概略構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a schematic block diagram which shows Embodiment 1 of this invention. この発明の実施の形態1に係る処理フロー図である。It is a processing flow figure concerning Embodiment 1 of this invention. タッチパネル部の構成例を示す概略平面図である。It is a schematic plan view which shows the structural example of a touchscreen part. 図3のように指がタッチパネル部センサ上の位置にある場合の各Xセンサの出力値を示す特性図である。It is a characteristic view which shows the output value of each X sensor in case a finger exists in the position on a touch-panel part sensor like FIG. 実施の形態1に係る座標計算方法決定部の構成例を示す構成図である。3 is a configuration diagram illustrating a configuration example of a coordinate calculation method determination unit according to Embodiment 1. FIG. 実施の形態2に係る処理フロー図である。FIG. 10 is a process flow diagram according to the second embodiment. 実施の形態2に係る座標計算方法決定部の構成例を示す構成図である。10 is a configuration diagram illustrating a configuration example of a coordinate calculation method determination unit according to Embodiment 2. FIG. 実施の形態3に係る処理フロー図である。FIG. 10 is a process flow diagram according to the third embodiment. 実施の形態3に係る座標計算方法決定部の構成例を示す構成図である。FIG. 10 is a configuration diagram illustrating a configuration example of a coordinate calculation method determination unit according to a third embodiment. 実施の形態4に係る処理フロー図である。FIG. 10 is a process flow diagram according to the fourth embodiment. 実施の形態4に係る座標計算方法決定部の構成例を示す構成図である。FIG. 10 is a configuration diagram illustrating a configuration example of a coordinate calculation method determination unit according to a fourth embodiment. センサ出力値の広がり度合が小さい場合のセンサの出力値を示す特性図である。It is a characteristic view which shows the output value of a sensor when the spread degree of a sensor output value is small. センサ出力値の広がり度合が大きい場合のセンサの出力値を示す特性図である。It is a characteristic view which shows the output value of a sensor in case the spreading degree of a sensor output value is large. 実施の形態5に係る処理フロー図である。。FIG. 10 is a process flow diagram according to the fifth embodiment. . 実施の形態5に係る座標計算方法決定部の構成例を示す構成図である。FIG. 10 is a configuration diagram illustrating a configuration example of a coordinate calculation method determination unit according to a fifth embodiment. シグモイド関数の特性図である。It is a characteristic view of a sigmoid function.

実施の形態1.
以下、この発明の実施の形態1を図について説明する。図1はこの発明の実施の形態1を示す概略構成図である。図において、1は複数のセンサを配置したタッチパネル部、2はタッチパネル部1を走査して各センサの出力値を取得するセンシング部、3は最大の出力値に対応したセンサをピークセンサとして検出するピークセンサ検出部、4はタッチパネル部1上に存在する物体の位置座標の計算方法を決定する座標計算方法決定部、5はピークセンサ及びその周辺のセンサの出力値と座標計算方法決定部4が決定した座標計算方法からタッチパネル部1上に存在する物体の位置座標を計算する座標算出部である。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic configuration diagram showing Embodiment 1 of the present invention. In the figure, 1 is a touch panel unit in which a plurality of sensors are arranged, 2 is a sensing unit that scans the touch panel unit 1 to acquire the output value of each sensor, and 3 is a sensor that detects the maximum output value as a peak sensor. A peak sensor detection unit 4 is a coordinate calculation method determination unit that determines a calculation method of position coordinates of an object existing on the touch panel unit 1, and 5 is an output value and coordinate calculation method determination unit 4 of the peak sensor and its surrounding sensors. It is a coordinate calculation unit that calculates the position coordinates of an object existing on the touch panel unit 1 from the determined coordinate calculation method.

次に動作を図により説明する。図2はこの発明の実施の形態1に係る処理フロー図である。ここでは、図3〜5を用いて動作を説明する。図3は、タッチパネル部1の構成例を示す概略平面図であり、6はタッチパネル部1を構成するセンサで、X座標を検出するためのXセンサが9個、Y座標を検出するためのYセンサが8個ある。また、7はタッチパネル部1上に存在する指である。図4は、図3に示すようなセンサ6上の位置に指7がある場合の各Xセンサ(Xセンサ番号1〜9)の出力値を示す特性図であり、8はピーク-センサの出力値である。図4に示すように、Xセンサの中では、指7の接触位置に最も近いXセンサ6の出力値が最も大きく、それに隣接する右隣のXセンサ7の出力値が次に大きく、さらに、Xセンサ6の左隣のXセンサ5も指7による影響を受けて、その他のセンサに比べて出力値が大きくなっている。図5は、座標計算方法決定部4の構成を示す例であり、9は座標計算の算式を決定する算式選択部であり、10が具体的な算式を表わす算式情報である。   Next, the operation will be described with reference to the drawings. FIG. 2 is a process flow diagram according to Embodiment 1 of the present invention. Here, the operation will be described with reference to FIGS. FIG. 3 is a schematic plan view illustrating a configuration example of the touch panel unit 1, and 6 is a sensor that configures the touch panel unit 1, including nine X sensors for detecting the X coordinate and Y for detecting the Y coordinate. There are 8 sensors. Reference numeral 7 denotes a finger existing on the touch panel unit 1. FIG. 4 is a characteristic diagram showing output values of the respective X sensors (X sensor numbers 1 to 9) when the finger 7 is located on the sensor 6 as shown in FIG. 3, and 8 is an output of the peak-sensor. Value. As shown in FIG. 4, among the X sensors, the output value of the X sensor 6 closest to the contact position of the finger 7 is the largest, the output value of the adjacent X sensor 7 adjacent to the right is the next largest, The X sensor 5 adjacent to the left of the X sensor 6 is also affected by the finger 7 and has an output value larger than that of the other sensors. FIG. 5 shows an example of the configuration of the coordinate calculation method determination unit 4, 9 is a formula selection unit that determines a formula for coordinate calculation, and 10 is formula information that represents a specific formula.

まず、センシング部2がタッチパネル部1の各センサを走査して出力値を得る(図2のステップSA1)。ここでは、例えば、指7とタッチパネル部1の各センサとの間の静電容量を検出する方法を用いるものとする。この場合、指が近くあるセンサほど、出力値が大きくなる。   First, the sensing unit 2 scans each sensor of the touch panel unit 1 to obtain an output value (step SA1 in FIG. 2). Here, for example, a method of detecting the capacitance between the finger 7 and each sensor of the touch panel unit 1 is used. In this case, the output value increases as the sensor is closer to the finger.

次に、ピークセンサ検出部3は、XセンサとYセンサそれぞれから、最大の出力値に対応したセンサをピークセンサとして検出する(図2ステップSA2)。図4のXセンサの例では、Xセンサ6の出力値8が最も大きく、Xセンサ6がピークセンサとなる。この実施の形態では、本ステップで、座標計算に必要となるピークセンサ周辺のセンサ情報も検出するものとし、例えば、特許文献1と同じように、ピークセンサに隣接するセンサのうち、出力値が大きい方を2ndピークセンサ、小さい方を3rdピークセンサとする。図4の例では、Xセンサ7が2ndピークセンサ、さらに、Xセンサ5が3rdピークセンサとなる。   Next, the peak sensor detection unit 3 detects the sensor corresponding to the maximum output value from each of the X sensor and the Y sensor as a peak sensor (step SA2 in FIG. 2). In the example of the X sensor of FIG. 4, the output value 8 of the X sensor 6 is the largest, and the X sensor 6 is a peak sensor. In this embodiment, in this step, sensor information around the peak sensor necessary for coordinate calculation is also detected. For example, as in Patent Document 1, the output value of the sensors adjacent to the peak sensor is The larger one is the 2nd peak sensor and the smaller one is the 3rd peak sensor. In the example of FIG. 4, the X sensor 7 is a 2nd peak sensor, and the X sensor 5 is a 3rd peak sensor.

その後、座標計算方法決定部4が、センサ出力値から指7の位置座標を計算するための計算方法を決定する(図2ステップSA3)。この実施の形態では、座標計算方法決定部4は、図5に示すように、算式選択部9と算式情報10で構成されているものとする。例えば、算式選択部9はハードウエア的なスイッチで、設定される情報、あるいは、タッチパネル装置外部から通信によって設定される情報などを参照し、算式情報10に格納されている下記に示す二つの式(式1と式2)のうち、どちらかを選択するものとする。算式情報10に格納されているX軸座標Xを求める算式の例を以下に示す。   Thereafter, the coordinate calculation method determination unit 4 determines a calculation method for calculating the position coordinates of the finger 7 from the sensor output value (step SA3 in FIG. 2). In this embodiment, it is assumed that the coordinate calculation method determination unit 4 includes an equation selection unit 9 and equation information 10 as shown in FIG. For example, the formula selection unit 9 is a hardware switch and refers to information to be set or information set by communication from outside the touch panel device, and the following two formulas stored in the formula information 10 are shown below. One of (Expression 1 and Expression 2) is selected. An example of a formula for obtaining the X-axis coordinate X stored in the formula information 10 is shown below.

X=Xp+k×(S2÷(S1+S2))×L ・・・ 式1
X=Xp+k×((S2−S3)÷(S1+S2−2×S3))×L・・・ 式2
ただし、XpはピークセンサのX座標、
kはピークセンサと2ndピークセンサの位置関係に応じて定まる定数、
Lは個々のセンサの幅、
S1はピークセンサの出力値、
S2は2ndピークセンサの出力値、
S3は3rdピークセンサの出力値である。
X = Xp + k × (S2 ÷ (S1 + S2)) × L Expression 1
X = Xp + k × ((S2−S3) ÷ (S1 + S2-2 × S3)) × L Expression 2
Where Xp is the X coordinate of the peak sensor,
k is a constant determined according to the positional relationship between the peak sensor and the 2nd peak sensor,
L is the width of each sensor,
S1 is the output value of the peak sensor,
S2 is the output value of the 2nd peak sensor,
S3 is the output value of the 3rd peak sensor.

式1はピークセンサと2ndピークセンサの二つのセンサの出力値を、式2はピークセンサと2ndピークセンサおよび3rdピークセンサの三つのセンサの出力値を用いているが、一般に、タッチパネル部上の保護部材(ガラスなど)の厚みが大きいほど、静電容量は広がるため、多くのセンサの出力値を参照した方が高精度に計算できる。しかし、必要以上に参照範囲を広げることは、誤差の成分を取り込むことになり、好ましくない。この実施の形態では、保護部材が厚めのガラスであるとし、算式選択部9は、事前に設定された情報によって、式2を選択するものとし、これが座標計算方法決定部4の出力となる。   Equation 1 uses the output values of the two sensors, the peak sensor and the 2nd peak sensor, and Equation 2 uses the output values of the three sensors, the peak sensor, the 2nd peak sensor, and the 3rd peak sensor. Since the capacitance increases as the thickness of the protective member (such as glass) increases, more accurate calculation is possible by referring to the output values of many sensors. However, unnecessarily widening the reference range is not preferable because it introduces an error component. In this embodiment, it is assumed that the protective member is a thick glass, and the formula selection unit 9 selects Formula 2 based on information set in advance. This is the output of the coordinate calculation method determination unit 4.

最後に、座標算出部5は、座標計算方法決定部4が出力した式2に対して、ピークセンサ、2ndピークセンサ、3rdピークセンサの出力値を適用し、指7の位置座標を計算する(図2ステップSA4)。なお、ここまでのステップSA2〜SA4の説明では、XセンサからX座標を求める場合で説明したが、同様の処理をYセンサに対しても実施し、Y座標も求めるものとする。   Finally, the coordinate calculation unit 5 applies the output values of the peak sensor, 2nd peak sensor, and 3rd peak sensor to Equation 2 output by the coordinate calculation method determination unit 4 to calculate the position coordinate of the finger 7 ( FIG. 2 step SA4). In the description of steps SA2 to SA4 so far, the case where the X coordinate is obtained from the X sensor has been described. However, the same processing is performed for the Y sensor, and the Y coordinate is also obtained.

この実施の形態では、以上の工程を経ることで、ハードウエア的なスイッチと、通信によってタッチパネル装置外部から取得・格納される算式情報を参照し、タッチパネル部上の物体の位置座標を高精度に計算することができるので、簡単な構成で、タッチパネル部上に設置される保護部材の材質や厚みの変更など、タッチパネル装置の構造の変化にかかわらず対応することが可能となる。   In this embodiment, through the above steps, the hardware coordinates and the calculation information acquired / stored from the outside of the touch panel device by communication are referred to, and the position coordinates of the object on the touch panel unit are highly accurate. Since the calculation can be performed, it is possible to cope with a change in the structure of the touch panel device, such as a change in the material and thickness of the protective member installed on the touch panel unit, with a simple configuration.

実施の形態2.
以下、この発明の実施の形態2を図について説明する。概略構成図は実施の形態1と同じ図1である。この実施の形態の処理フローは図6である。ここでは、図7を用いて動作を説明する。図7は座標計算方法決定部4の構成を示す例であり、11はタッチパネル部の構造情報を格納した重み情報格納部としての構造情報格納部であり、12は構造情報に対応した重みデータを格納した重みテーブルである。この実施の形態では、構造情報は、タッチパネル部上の保護部材の材質と厚みとし、重みテーブル12には、保護部材の材質と厚みに応じた重みデータが格納されているものとする。
Embodiment 2. FIG.
A second embodiment of the present invention will be described below with reference to the drawings. The schematic configuration diagram is the same as FIG. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIG. FIG. 7 shows an example of the configuration of the coordinate calculation method determination unit 4. Reference numeral 11 denotes a structure information storage unit as a weight information storage unit that stores the structure information of the touch panel unit. Reference numeral 12 denotes weight data corresponding to the structure information. It is a stored weight table. In this embodiment, the structure information is the material and thickness of the protective member on the touch panel unit, and the weight table 12 stores weight data corresponding to the material and thickness of the protective member.

この実施の形態の処理における図6のステップSB1〜SB2は、図2に示す実施の形態1のステップSA1〜SA2と同じであり、実施の形態1と同様の手順で、センシング部2がタッチパネル部1の各センサを走査して出力値を得て(図6ステップSB1)、ピークセンサ検出部3が、最大の出力値に対応したセンサをピークセンサとして検出する(図6ステップSB2)。   Steps SB1 and SB2 in FIG. 6 in the process of this embodiment are the same as steps SA1 and SA2 in the first embodiment shown in FIG. 2, and the sensing unit 2 is the touch panel unit in the same procedure as in the first embodiment. 1 is scanned to obtain an output value (step SB1 in FIG. 6), and the peak sensor detector 3 detects a sensor corresponding to the maximum output value as a peak sensor (step SB2 in FIG. 6).

その後、座標計算方法決定部4が、構造情報格納部11から構造情報を読み出し(図6ステップSB3)、その情報で、重みテーブル12の中から使用する重みデータを選択する(図6ステップSB4)。この実施の形態では、構造情報格納部11の構造情報が“ガラス・2mm”に対応したものであったとし、この情報から図7における重みデータBが選択されるものとする。   Thereafter, the coordinate calculation method determination unit 4 reads the structure information from the structure information storage unit 11 (step SB3 in FIG. 6), and selects weight data to be used from the weight table 12 based on the information (step SB4 in FIG. 6). . In this embodiment, it is assumed that the structure information in the structure information storage unit 11 corresponds to “glass 2 mm”, and weight data B in FIG. 7 is selected from this information.

その後、座標計算方法決定部4が、図6のステップSB2で求めたセンサ出力値と、図6ステップSB4で求めた重みデータから、下記の式3で位置座標を計算する(図6ステップSB5)。   Thereafter, the coordinate calculation method determination unit 4 calculates the position coordinates by the following expression 3 from the sensor output value obtained in step SB2 of FIG. 6 and the weight data obtained in step SB4 of FIG. 6 (step SB5 in FIG. 6). .

X=Xp+k×((W2×S2−W3×S3)÷(W1×S1+W2×S2−2×W3×S3))×L
・・・ 式3
ただし、W1はピークセンサの出力値に対する重み、
W2は2ndピークセンサの出力値に対する重み、
W3は3rdピークセンサの出力値に対する重みであり、重みデータBに含まれ る値とする。
その他の記号は前記式2と同じである。
X = Xp + k * ((W2 * S2-W3 * S3) / (W1 * S1 + W2 * S2-2 * W3 * S3)) * L
... Equation 3
Where W1 is the weight for the output value of the peak sensor,
W2 is a weight for the output value of the 2nd peak sensor,
W3 is a weight for the output value of the 3rd peak sensor, and is a value included in the weight data B.
Other symbols are the same as those in Formula 2.

ここで、式3は、W1とW2を1とし、W3を0にすると、式1に一致する。また、W1とW2とW3を1とすると、式2に一致する。両者の中間となる設定も可能であり、式3は、式1と式2を包含して拡張したものととらえることができる。すなわち、W1〜W3の値を変えるだけで細かな調整が可能である。   Here, Formula 3 is identical to Formula 1 when W1 and W2 are set to 1 and W3 is set to 0. Further, when W1, W2, and W3 are set to 1, the equation 2 is satisfied. An intermediate setting is also possible, and Equation 3 can be regarded as an extension including Equation 1 and Equation 2. That is, fine adjustment is possible only by changing the values of W1 to W3.

この実施の形態では、以上の工程を経ることで、タッチパネルの構造情報に依存した調整を、簡単に行うことができる。また、算式そのものではなく、算式に適用する重みを選択するようにしたため、格納情報がシンプルになり、記憶容量を削減できる。なお、この実施の形態では、ピークセンサの位置などにかかわらず重みデータを選択する例で説明したが、例えば、重みテーブル12に、ピークセンサがタッチパネル部1の端にある場合と中央にある場合に応じて、別々の重みデータを格納しておき、ピークセンサの位置でどちらかを選択するようにしても良い。この場合、タッチパネル部1の位置に依存した特性の違いも反映できる。   In this embodiment, the adjustment depending on the structure information of the touch panel can be easily performed through the above steps. In addition, since the weight applied to the formula is selected instead of the formula itself, the storage information is simplified and the storage capacity can be reduced. In this embodiment, the example in which the weight data is selected regardless of the position of the peak sensor has been described. For example, in the weight table 12, the peak sensor is located at the end of the touch panel unit 1 or at the center. Accordingly, different weight data may be stored, and either one may be selected based on the position of the peak sensor. In this case, the difference in characteristics depending on the position of the touch panel unit 1 can also be reflected.

実施の形態3.
以下、この発明の実施の形態3を図について説明する。概略構成図は実施の形態1と同じ図1である。この実施の形態の処理フローは図8である。ここでは、図9を用いて動作を説明する。図9は座標計算方法決定部4の構成を示す例であり、13はタッチパネルの利用情報を格納した重み情報格納部としての利用情報格納部、14は利用情報に対応した重みデータを格納した重みテーブルである。この実施の形態では、利用情報は、タッチパネル部にタッチする形態(指でタッチするか、あるいはスタイラスペンでタッチするか)を示す情報とし、ユーザが事前に設定しておくものとする。また、重みテーブル14には、タッチ形態に応じた重みデータが格納されているものとする。
Embodiment 3 FIG.
A third embodiment of the present invention will be described below with reference to the drawings. The schematic configuration diagram is the same as FIG. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIG. FIG. 9 shows an example of the configuration of the coordinate calculation method determination unit 4, 13 is a usage information storage unit as a weight information storage unit storing usage information of the touch panel, and 14 is a weight storing weight data corresponding to the usage information. It is a table. In this embodiment, the usage information is information indicating a mode of touching the touch panel unit (touching with a finger or touching with a stylus pen), and the user sets in advance. Further, it is assumed that weight data corresponding to the touch form is stored in the weight table 14.

この実施の形態の処理における図8のステップSC1〜SC2は、図2に示す実施の形態1のステップSA1〜SA2と同じであり、実施の形態1と同様の手順で、センシング部2がタッチパネル部1の各センサを走査して出力値を得て(図8ステップSC1)、ピークセンサ検出部3が、最大の出力値に対応したセンサをピークセンサとして検出する(図8ステップSC2)。   Steps SC1 to SC2 of FIG. 8 in the process of this embodiment are the same as steps SA1 to SA2 of the first embodiment shown in FIG. 2, and the sensing unit 2 is the touch panel unit in the same procedure as the first embodiment. Each sensor 1 is scanned to obtain an output value (step SC1 in FIG. 8), and the peak sensor detector 3 detects a sensor corresponding to the maximum output value as a peak sensor (step SC2 in FIG. 8).

その後、座標計算方法決定部4が、利用情報格納部13から利用情報を読み出し(図8ステップSC3)、その情報で、重みテーブル14の中から使用する重みデータを選択する(図8ステップSC4)。例えば、利用情報格納部13の構造情報が“指”に対応したものであったとすると、その情報から図9における重みデータAが選択される。一般に、スタイラスペンよりも指の方が静電容量が広く分布するため、指ではスタイラスペンよりも多くのセンサの出力値を参照した方がよい。あるいは、3rdピークセンサといった下位のセンサに対する重みを大きくした方がよい。このため、例えば図9の重みテーブル14において、3rdピークセンサの重みデータの値は重みデータAが最もが大きく、続いて、重みデータC,重みデータBとなるのが望ましい。   Thereafter, the coordinate calculation method determination unit 4 reads the usage information from the usage information storage unit 13 (step SC3 in FIG. 8), and selects the weight data to be used from the weight table 14 based on the information (step SC4 in FIG. 8). . For example, if the structure information in the usage information storage unit 13 corresponds to “finger”, the weight data A in FIG. 9 is selected from that information. In general, since the capacitance of the finger is more widely distributed than the stylus pen, it is better to refer to more sensor output values than the stylus pen. Alternatively, it is better to increase the weight for lower sensors such as the 3rd peak sensor. Therefore, for example, in the weight table 14 of FIG. 9, it is desirable that the weight data value of the 3rd peak sensor is the largest in the weight data A, followed by the weight data C and the weight data B.

その後、座標計算方法決定部4が、図8のステップSC2で求めたセンサ出力値と、ステップSC4で求めた重みデータから、前記の式3で位置座標を計算する(図8ステップSC5)。   Thereafter, the coordinate calculation method determination unit 4 calculates the position coordinates by the above-described equation 3 from the sensor output value obtained at step SC2 in FIG. 8 and the weight data obtained at step SC4 (step SC5 in FIG. 8).

この実施の形態では、以上の工程を経ることで、タッチパネルの利用形態に応じた調整を、簡単に行うことができる。   In this embodiment, the adjustment according to the usage pattern of the touch panel can be easily performed through the above steps.

実施の形態4.
以下、この発明の実施の形態4を図について説明する。概略構成図は実施の形態1と同じ図1である。この実施の形態の処理フローは図10である。ここでは、図11〜13を用いて動作を説明する。図11は座標計算方法決定部4の構成を示す例であり、15はセンサ出力値の広がり度合いを抽出するセンサ値広がり度合い抽出部、15bはセンサ値広がり度合い抽出部15が抽出したセンサ出力値の広がり度合いの情報を格納する重み情報格納部としてのセンサ値広がり度合い情報格納部、16はセンサ値の広がり度合い情報に対応した重みデータを格納した重みテーブルである。また、重みテーブル16において、V1とV2は、センサ値の広がり度合いを示す閾値(定数)である。
Embodiment 4 FIG.
Embodiment 4 of the present invention will be described below with reference to the drawings. The schematic configuration diagram is the same as FIG. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 11 shows an example of the configuration of the coordinate calculation method determination unit 4, 15 is a sensor value spread degree extraction unit that extracts the spread degree of the sensor output value, and 15 b is a sensor output value extracted by the sensor value spread degree extraction unit 15. A sensor value spread degree information storage unit 16 serving as a weight information storage unit that stores information on the spread degree of information, and a weight table 16 stores weight data corresponding to the spread degree information of sensor values. In the weight table 16, V1 and V2 are threshold values (constants) indicating the degree of spread of sensor values.

この実施の形態の処理における図10のステップSD1は、図2に示す実施の形態1のステップSA1と同じであり、実施の形態1と同様の手順で、センシング部2がタッチパネル部1の各センサを走査して出力値を得る(図10ステップSD1)。その後、ピークセンサ検出部3が、最大の出力値に対応したセンサをピークセンサとして検出するが(図10ステップSD2)、この実施の形態では、実施の形態1で説明したピークセンサ、2ndピークセンサ、3rdピークセンサに加え、4thピークセンサも検出するものとする。この4thピークセンサは、例えば、2ndピークセンサと3rdピークセンサに隣接するセンサ(ただしピークセンサは除く)のうち、出力値の大きい方とする。   Step SD1 of FIG. 10 in the process of this embodiment is the same as step SA1 of the first embodiment shown in FIG. 2, and the sensing unit 2 uses each sensor of the touch panel unit 1 in the same procedure as in the first embodiment. To obtain an output value (step SD1 in FIG. 10). Thereafter, the peak sensor detection unit 3 detects a sensor corresponding to the maximum output value as a peak sensor (step SD2 in FIG. 10). In this embodiment, the peak sensor and the 2nd peak sensor described in the first embodiment are used. In addition to the 3rd peak sensor, the 4th peak sensor is also detected. This 4th peak sensor is, for example, the sensor having the larger output value among the sensors adjacent to the 2nd peak sensor and the 3rd peak sensor (excluding the peak sensor).

その後、座標計算方法決定部4が、センサ値広がり度合い抽出部15に、センサ値の広がり度合いを抽出させる(図10ステップSD3)。例えば、広がり度合いPは、下記の式4で計算されるものとする。   Thereafter, the coordinate calculation method determination unit 4 causes the sensor value spread degree extraction unit 15 to extract the spread degree of the sensor value (step SD3 in FIG. 10). For example, it is assumed that the spread degree P is calculated by the following equation 4.

P=(S1+S2+S3+S4)÷(S1+S2) ・・・ 式4
ただし、S4は4thピークセンサの出力値を意味し、
S1〜S3は式2と同じ意味である。
P = (S1 + S2 + S3 + S4) ÷ (S1 + S2) Equation 4
However, S4 means the output value of the 4th peak sensor,
S1 to S3 have the same meaning as in Formula 2.

センサ出力値が、図12の場合と図13の場合を比較すると、センサ番号6がピークセンサ、センサ番号7が2ndピークセンサ、センサ番号5が3rdピークセンサ、センサ番号8が4thピークセンサ、であるところは同じであるが、図12ではピークセンサと他のセンサの出力値の差が図13よりも大きいため、式4の広がり度合いは、図12の方が図13よりも小さい値となる。   When the sensor output value is compared between the case of FIG. 12 and the case of FIG. 13, the sensor number 6 is a peak sensor, the sensor number 7 is a 2nd peak sensor, the sensor number 5 is a 3rd peak sensor, and the sensor number 8 is a 4th peak sensor. 12 is the same, but the difference between the output values of the peak sensor and the other sensors in FIG. 12 is larger than that in FIG. 13, and therefore the degree of spread of Equation 4 is smaller in FIG. 12 than in FIG. 13. .

そして、座標計算方法決定部4は、重みテーブル16の中から、図10のステップSD3で抽出したセンサ値広がり度合いに対応する重みデータを読み出す(図10ステップSD4)。図11の重みテーブル16では、センサ値広がり度合いが大きいほど、下位のセンサの影響が大きい状態であると言えるため、3rdピークセンサなどの下位センサの重みを大きくすることが望ましい。このため、例えば3rdピークセンサの重みは、重みデータCが最も大きく、続いて、重みデータB,重みデータAとなる。   Then, the coordinate calculation method determination unit 4 reads weight data corresponding to the sensor value spread degree extracted in step SD3 in FIG. 10 from the weight table 16 (step SD4 in FIG. 10). In the weight table 16 of FIG. 11, it can be said that the greater the sensor value spread degree is, the greater the influence of the lower sensors is. Therefore, it is desirable to increase the weight of the lower sensors such as the 3rd peak sensor. For this reason, for example, the weight of the 3rd peak sensor is the largest in the weight data C, followed by the weight data B and the weight data A.

その後、座標計算方法決定部4が、図10のステップSD2で求めたセンサ出力値と、図10のステップSD4で求めた重みデータから、前記の式3で位置座標を計算する(図10ステップSD5)。   Thereafter, the coordinate calculation method determination unit 4 calculates the position coordinates by the above-described equation 3 from the sensor output value obtained in step SD2 in FIG. 10 and the weight data obtained in step SD4 in FIG. 10 (step SD5 in FIG. 10). ).

この実施の形態では、以上の工程を経ることで、タッチパネル装置の構造や利用形態によらず、自動的に最適な座標計算を行うことができ、高精度な位置座標を取得できる。なお、この実施の形態では、センサ値の広がり度合いを式4で求めたが、これは、別の計算式で求めても良い。   In this embodiment, through the above steps, optimum coordinate calculation can be automatically performed regardless of the structure and usage of the touch panel device, and highly accurate position coordinates can be acquired. In this embodiment, the degree of spread of the sensor value is obtained by Expression 4. However, this may be obtained by another calculation expression.

実施の形態5.
以下、この発明の実施の形態5を図について説明する。概略構成図は実施の形態1と同じ図1である。この実施の形態の処理フローは図14である。ここでは、図14〜図16を用いて動作を説明する。図15は座標計算方法決定部4の構成を示す例であり、15はセンサ値広がり度合い抽出部、15bは重み情報格納部としてのセンサ値広がり度合い情報格納部、17はセンサ値広がり度合い情報格納部15bからのセンサ値の広がり度合い情報から重みデータを計算する重みテーブルとしての重みデータ算出部である。図16はシグモイド関数を示す特性図である。
Embodiment 5 FIG.
Embodiment 5 of the present invention will be described below with reference to the drawings. The schematic configuration diagram is the same as FIG. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 15 shows an example of the configuration of the coordinate calculation method determination unit 4, 15 is a sensor value spread degree extraction unit, 15 b is a sensor value spread degree information storage unit as a weight information storage unit, and 17 is sensor value spread degree information storage. It is a weight data calculation part as a weight table which calculates weight data from the sensor value spread degree information from the part 15b. FIG. 16 is a characteristic diagram showing a sigmoid function.

この実施の形態の処理における図14のステップSE1〜SE3は、実施の形態4のステップSD1〜SD3と同じであり、実施の形態4と同様の手順で、センシング部2がタッチパネル部1の各センサを走査して出力値を得て(図14ステップSE1)、ピークセンサ検出部3が、最大の出力値に対応したセンサをピークセンサとして検出し(図14ステップSE2)、座標計算方法決定部4が、センサ値広がり度合い抽出部15に、センサ値の広がり度合いを抽出させる(図14ステップSE3)。その後、座標計算方法決定部4は、センサ値広がり度合い抽出部15が抽出した広がり度合いの値から、重みデータ算出部17に重みデータを計算させる(図14ステップSE4)。この計算では、重みデータは例えば、下記の式5に示すシグモイド関数を用いる。広がり度合いPに対するシグモイド関数値W(P)は、図16のグラフに示す通り、定数θの位置で大きく変化し、これら定数θの値を適正に定めることで、連続性を保ちつつ、望ましい重みデータを計算できる。   Steps SE1 to SE3 in FIG. 14 in the processing of this embodiment are the same as steps SD1 to SD3 of the fourth embodiment, and the sensing unit 2 uses each sensor of the touch panel unit 1 in the same procedure as in the fourth embodiment. Are obtained (step SE1 in FIG. 14), the peak sensor detection unit 3 detects the sensor corresponding to the maximum output value as a peak sensor (step SE2 in FIG. 14), and the coordinate calculation method determination unit 4 However, the sensor value spread degree extraction unit 15 is caused to extract the spread degree of the sensor value (step SE3 in FIG. 14). Thereafter, the coordinate calculation method determination unit 4 causes the weight data calculation unit 17 to calculate weight data from the spread degree value extracted by the sensor value spread degree extraction unit 15 (step SE4 in FIG. 14). In this calculation, the weight data uses, for example, a sigmoid function shown in Equation 5 below. As shown in the graph of FIG. 16, the sigmoid function value W (P) with respect to the spread degree P changes greatly at the position of the constant θ, and by appropriately determining the value of the constant θ, a desirable weight is maintained while maintaining continuity. Data can be calculated.

Figure 2013114638
Figure 2013114638

その後、座標計算方法決定部4が、ステップSE2で求めたセンサ出力値と、ステップSE4で求めた重みの値から、前記の式3で位置座標を計算する(ステップSE5)。   Thereafter, the coordinate calculation method determination unit 4 calculates the position coordinates by the above-described expression 3 from the sensor output value obtained in step SE2 and the weight value obtained in step SE4 (step SE5).

この実施の形態では、以上の工程を経ることで、タッチパネル装置の構造や利用形態によらず、自動的に最適な座標計算を行うことができる。また、テーブルから離散的な重みの値を読み出すのではなく、関数で計算することで、連続性を持った安定な座標計算を行うことができる。なお、この実施の形態では、重みの計算にシグモイド関数を用いたが、これは、別の関数を用いても良い。   In this embodiment, the optimal coordinate calculation can be automatically performed through the above steps regardless of the structure and usage of the touch panel device. Moreover, stable coordinate calculation with continuity can be performed by calculating with a function instead of reading out the discrete weight values from the table. In this embodiment, the sigmoid function is used for the weight calculation, but another function may be used.

なお、実施の形態1〜5では、ピークセンサ及びその周辺のセンサについて、最大3個のセンサ値を参照して位置座標を計算する例で説明したが、2ndピークセンサや3rdピークセンサに隣接するセンサから、4番目以降のセンサも選んで、座標計算に適用するようにしてもよい。また、重みデータは、センサ値と1対1対応する値を、センサ値と乗算する例で説明したが、算式の定数値を重みデータに含んでも良く、また、同一のセンサ値が算式に複数回出てくる場合は、それぞれに対して異なる重みを設定できるようにしても良い。   In the first to fifth embodiments, the peak sensor and its surrounding sensors have been described with reference to the example of calculating position coordinates with reference to a maximum of three sensor values, but adjacent to the 2nd peak sensor and the 3rd peak sensor. The fourth and subsequent sensors may be selected from the sensors and applied to coordinate calculation. Further, the weight data has been described with an example in which the sensor value is multiplied by a value corresponding to the sensor value on a one-to-one basis. However, a constant value of an arithmetic expression may be included in the weight data, and a plurality of identical sensor values may be included in the arithmetic expression. When coming out repeatedly, different weights may be set for each.

この発明によるタッチパネル装置は、パーソナルコンピュータや携帯端末等に装備するタッチパネル装置として利用可能である。   The touch panel device according to the present invention can be used as a touch panel device equipped in a personal computer, a portable terminal, or the like.

1;タッチパネル部、2;センシング部、3;ピークセンサ検出部、4;座標計算方法決定部、5;座標算出部、7;指、9;算式選択部、10;算式情報、11;構造情報格納部、12、14、16;重みテーブル、13;利用情報格納部、15;センサ値広がり度合い抽出部、15b;センサ値広がり度合い情報格納部、17;重みデータ算出部。   DESCRIPTION OF SYMBOLS 1; Touch panel part, 2; Sensing part, 3; Peak sensor detection part, 4; Coordinate calculation method determination part, 5; Coordinate calculation part, 7: Finger, 9; Formula selection part, 10: Formula information, 11; Storage unit 12, 14, 16; weight table, 13; usage information storage unit, 15; sensor value spread degree extraction unit, 15b; sensor value spread degree information storage unit, 17; weight data calculation unit.

Claims (7)

複数のセンサを配置したタッチパネル部と、前記タッチパネル部を走査して各センサの出力値を取得するセンシング部と、最大の出力値に対応したセンサをピークセンサとして検出するピークセンサ検出部と、前記タッチパネル部の構造または前記タッチパネル部上に存在する物体の種類に応じた複数の異なる計算方式を記憶する算式情報部と、前記タッチパネル部上に存在する物体の位置座標の計算をする計算方式を決定し、前記算式情報部から選択し出力する算式選択部を有する座標計算方法決定部と、前記ピークセンサとその周辺のセンサの出力値と前記座標計算方法決定部が決定した計算方式から前記タッチパネル部上に存在する物体の位置座標を計算する座標算出部とを備えたことを特徴とするタッチパネル装置。   A touch panel unit in which a plurality of sensors are arranged; a sensing unit that scans the touch panel unit to obtain an output value of each sensor; a peak sensor detection unit that detects a sensor corresponding to the maximum output value as a peak sensor; A formula information unit for storing a plurality of different calculation methods according to the structure of the touch panel unit or the type of the object existing on the touch panel unit, and a calculation method for calculating the position coordinates of the object existing on the touch panel unit are determined. The touch panel unit from the coordinate calculation method determination unit having a formula selection unit for selecting and outputting from the formula information unit, the output value of the peak sensor and its surrounding sensors, and the calculation method determined by the coordinate calculation method determination unit A touch panel device, comprising: a coordinate calculation unit that calculates a position coordinate of an object existing above. 複数のセンサを配置したタッチパネル部と、前記タッチパネル部を走査して各センサの出力値を取得するセンシング部と、最大の出力値に対応したセンサをピークセンサとして検出するピークセンサ検出部と、前記タッチパネル部の構造または前記タッチパネル部上に存在する物体の種類に応じた複数の異なる重みデータを格納した重みテーブルと、前記タッチパネル部の構造関連情報または前記タッチパネル部上存在物体の種類に関連する情報を格納した重み情報格納部と、所定の計算方式を有し、前記重み情報格納部の情報に対応する重みデータを前記重みテーブルから選択して、前記所定の計算方式と前記重みデータを出力する座標計算方法決定部と、前記座標計算方法決定部が出力した前記計算方式と前記重みデータおよび前記ピークセンサとその周辺のセンサの出力値とから前記タッチパネル部上に存在する物体の位置座標を計算する座標算出部とを備えたタッチパネル装置。   A touch panel unit in which a plurality of sensors are arranged; a sensing unit that scans the touch panel unit to obtain an output value of each sensor; a peak sensor detection unit that detects a sensor corresponding to the maximum output value as a peak sensor; A weight table storing a plurality of different weight data according to the structure of the touch panel unit or the type of the object existing on the touch panel unit, and the structure related information of the touch panel unit or the information related to the type of the object existing on the touch panel unit A weight information storage unit that stores the weight information, a predetermined calculation method, weight data corresponding to the information in the weight information storage unit is selected from the weight table, and the predetermined calculation method and the weight data are output A coordinate calculation method determination unit; and the calculation method, the weight data, and the peak output by the coordinate calculation method determination unit. Sensor and a touch panel device and a coordinate calculation unit for calculating the position coordinates of the object present on the touch panel section and an output value of the sensor in its periphery. 前記座標計算方法決定部は、前記重み情報格納部が前記タッチパネル部の構造情報を格納する構造情報格納部であり、前記重みテーブルに格納される前記重みデータは前記タッチパネル部の構造に応じた複数の異なる重みデータであることを特徴とする請求項2記載のタッチパネル装置。   The coordinate calculation method determination unit is a structure information storage unit in which the weight information storage unit stores structure information of the touch panel unit, and the weight data stored in the weight table includes a plurality of weight data corresponding to the structure of the touch panel unit. The touch panel device according to claim 2, wherein the weight data are different from each other. 前記座標計算方法決定部は、前記重み情報格納部が、前記タッチパネル部上に存在する物体の種類情報を格納する利用情報格納部であり、前記重みテーブルに格納される前記重みデータはタッチパネル部上存在物体の種類に応じた複数の異なる重みデータであることを特徴とする請求項2記載のタッチパネル装置。   The coordinate calculation method determination unit is a usage information storage unit in which the weight information storage unit stores type information of an object existing on the touch panel unit, and the weight data stored in the weight table is stored on the touch panel unit. The touch panel device according to claim 2, wherein the touch panel device is a plurality of different weight data according to the type of the existing object. 前記座標計算方法決定部は、前記ピークセンサ周辺のセンサについて出力値の広がり度合いを求めるセンサ値広がり度合い抽出部を有し、前記重み情報格納部はセンサ値広がり度合い抽出部から求めた広がり度合い情報を格納するセンサ値広がり度合い情報格納部であり、前記重みテーブルに格納される前記重みデータは広がり度合い情報に対応した複数の異なる重みデータであることを特徴とする請求項2記載のタッチパネル装置。   The coordinate calculation method determining unit includes a sensor value spread degree extracting unit that obtains a spread degree of an output value for sensors around the peak sensor, and the weight information storage unit is spread degree information obtained from the sensor value spread degree extracting unit. The touch panel device according to claim 2, wherein the weight data stored in the weight table is a plurality of different weight data corresponding to the spread degree information. 前記タッチパネル部は、複数の領域に分割され、
前記座標計算方法決定部は、前記重み情報格納部に格納される情報が、複数の領域に分割された前記タッチパネル部の分割領域の位置情報であり、前記重みテーブルに格納される前記重みデータは前記タッチパネル部を複数に分割した領域毎に設定された複数の異なる重みデータであることを特徴とする請求項2記載のタッチパネル装置。
The touch panel unit is divided into a plurality of regions,
In the coordinate calculation method determination unit, the information stored in the weight information storage unit is position information of a divided region of the touch panel unit divided into a plurality of regions, and the weight data stored in the weight table is The touch panel device according to claim 2, wherein the touch panel device is a plurality of different weight data set for each region obtained by dividing the touch panel unit into a plurality of regions.
前記座標計算方法決定部は、前記重みテーブルが、前記センサ値広がり度合い情報格納部からの広がり度合い情報から重みデータを計算する重みデータ算出部であることを特徴とする請求項5記載のタッチパネル装置。   6. The touch panel device according to claim 5, wherein the coordinate calculation method determination unit is a weight data calculation unit in which the weight table calculates weight data from spread degree information from the sensor value spread degree information storage unit. .
JP2011263187A 2011-12-01 2011-12-01 Touch panel device Expired - Fee Related JP5888951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011263187A JP5888951B2 (en) 2011-12-01 2011-12-01 Touch panel device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263187A JP5888951B2 (en) 2011-12-01 2011-12-01 Touch panel device

Publications (2)

Publication Number Publication Date
JP2013114638A true JP2013114638A (en) 2013-06-10
JP5888951B2 JP5888951B2 (en) 2016-03-22

Family

ID=48710091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263187A Expired - Fee Related JP5888951B2 (en) 2011-12-01 2011-12-01 Touch panel device

Country Status (1)

Country Link
JP (1) JP5888951B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085302A (en) 2021-12-07 2023-06-14 주식회사 엘엑스세미콘 Touch sensing apparatus, and touch sensing method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309088A (en) * 1993-04-20 1994-11-04 Seiko Epson Corp Position detecting device
JPH0736568A (en) * 1993-07-23 1995-02-07 Sharp Corp Information processor
JPH07129321A (en) * 1993-10-28 1995-05-19 Pentel Kk Information input device
JPH08137607A (en) * 1994-11-15 1996-05-31 Alps Electric Co Ltd Coordinate input device
JPH1020992A (en) * 1996-07-05 1998-01-23 Alps Electric Co Ltd Coordinate input device
JPH10105333A (en) * 1996-08-28 1998-04-24 Lg Ind Syst Co Ltd Touch recognition device and its control method for matrix type touch panel
JPH11249813A (en) * 1998-03-03 1999-09-17 Sharp Corp Display integrated type coordinate input device
JP2008152640A (en) * 2006-12-19 2008-07-03 Sony Corp Coordinate input device and coordinate input system
JP2010198290A (en) * 2009-02-25 2010-09-09 Nec Corp Input device, display position adjustment method for pointer, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309088A (en) * 1993-04-20 1994-11-04 Seiko Epson Corp Position detecting device
JPH0736568A (en) * 1993-07-23 1995-02-07 Sharp Corp Information processor
JPH07129321A (en) * 1993-10-28 1995-05-19 Pentel Kk Information input device
JPH08137607A (en) * 1994-11-15 1996-05-31 Alps Electric Co Ltd Coordinate input device
JPH1020992A (en) * 1996-07-05 1998-01-23 Alps Electric Co Ltd Coordinate input device
JPH10105333A (en) * 1996-08-28 1998-04-24 Lg Ind Syst Co Ltd Touch recognition device and its control method for matrix type touch panel
JPH11249813A (en) * 1998-03-03 1999-09-17 Sharp Corp Display integrated type coordinate input device
JP2008152640A (en) * 2006-12-19 2008-07-03 Sony Corp Coordinate input device and coordinate input system
JP2010198290A (en) * 2009-02-25 2010-09-09 Nec Corp Input device, display position adjustment method for pointer, and program

Also Published As

Publication number Publication date
JP5888951B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
US8994697B2 (en) Method for determining touch point displacement and associated apparatus
US8482536B1 (en) Compensation of signal values for a touch sensor
TW201044234A (en) Method of scanning touch panel
US9753578B2 (en) Touch sensing method capable of dynamically adjusting tough threshold value
EP2691838A1 (en) Method of identifying multi-touch rotation gesture and device using the same
CN101727242B (en) Method for sensing multiclutch on touch panel
US20160054831A1 (en) Capacitive touch device and method identifying touch object on the same
US8514193B2 (en) Touch sensing method and touch sensing system
JP2012164060A (en) Fingertip touch determination device and fingertip touch determination method
JP2020170311A (en) Input device
US9235293B2 (en) Optical touch device and touch sensing method
US10228798B2 (en) Detecting method of touch system for avoiding inadvertent touch
CN105930070B (en) Wearable electronic device and gesture detection method
JP5888951B2 (en) Touch panel device
CN103186234A (en) Control method and electronic equipment
KR20140077000A (en) Touch panel and dizitizer pen position sensing method for dizitizer pen the same
CN110192170A (en) Touch controller, device, terminal and touch control method
US20150153945A1 (en) Optical touch device and method for detecting touch point
JP5887181B2 (en) Electronic device input device
TWI452509B (en) 3D sensing method and system of touch panel
TW201310298A (en) Touch system with track detecting function and method thereof
JP6370153B2 (en) Touch panel device
JP5997842B2 (en) Touch panel system and electronic information device
JP2007033308A (en) Keyboard inspection device and keyboard inspection method
JP5610216B2 (en) INPUT DEVICE AND INPUT METHOD FOR ELECTRONIC DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160216

R150 Certificate of patent or registration of utility model

Ref document number: 5888951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees