JP2010128566A - Image detection device, recognition method for input region, and program - Google Patents

Image detection device, recognition method for input region, and program Download PDF

Info

Publication number
JP2010128566A
JP2010128566A JP2008299624A JP2008299624A JP2010128566A JP 2010128566 A JP2010128566 A JP 2010128566A JP 2008299624 A JP2008299624 A JP 2008299624A JP 2008299624 A JP2008299624 A JP 2008299624A JP 2010128566 A JP2010128566 A JP 2010128566A
Authority
JP
Japan
Prior art keywords
region
sensor
data
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008299624A
Other languages
Japanese (ja)
Inventor
Yusuke Ogura
佑介 小倉
Yutaka Abe
豊 阿部
Masato Hiramoto
正人 平元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008299624A priority Critical patent/JP2010128566A/en
Publication of JP2010128566A publication Critical patent/JP2010128566A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To smooth the dialog between information apparatus and a user. <P>SOLUTION: The image detection device detects the direction of an object from the image of an object (finger 64, or the like) detected by a planar member (sensor incorporated liquid crystal panel 301, or the like), detects a selected region (a selection region 360) on the planar member, detects a tip-end side point (region end point 360a) following the direction of the region, and detects the width of the region, thereby recognizing a circular region whose diameter is the width of the region or less with the tip-end side point as a center, and the region selected from the object to be combined with each other as an input region. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、像検知装置、及び該装置における入力領域の認識方法に関するものである。また、当該像検知装置を動作させるためのプログラムに関する。   The present invention relates to an image detection apparatus and an input region recognition method in the apparatus. The present invention also relates to a program for operating the image detection apparatus.

情報化社会の発展に伴い、様々な場面において情報機器が利用される。そのため、情報機器とそのユーザとの対話を円滑化する技術は非常に重要である。特に、近年、低コストでかつデザイン性に優れるという観点から、タッチパネル式の入力キーを備えた情報機器が増加しているが、誤入力の問題も生じやすい。そのため、とりわけ、情報機器に対する、ユーザによる情報入力を円滑化する技術の開発がもとめられている。   With the development of the information society, information equipment is used in various situations. Therefore, a technique for facilitating a dialogue between an information device and its user is very important. In particular, in recent years, from the viewpoint of low cost and excellent design, information devices equipped with touch panel type input keys are increasing, but the problem of erroneous input is likely to occur. For this reason, in particular, development of a technology for facilitating information input by a user for information equipment has been sought.

例えば、特許文献1には、情報機器の表示/入力画面に指でタッチした場合に、当該タッチ位置を中心として環状に複数のメニュー項目を表示してユーザを補助する技術が開示されている。   For example, Patent Document 1 discloses a technique for assisting a user by displaying a plurality of menu items in a ring shape around the touch position when a finger touches a display / input screen of an information device.

また、特許文献2には、片手で操作がなされる情報機器において、ユーザが左右どちらの手で当該機器を持っているかを検知して、検知結果に応じて表示/入力画面上の入力キーの配列を変更してユーザを補助する技術が開示されている。
特開2006−139615号公報(公開日:2006年6月1日) 特開2008−027183号公報(公開日:2008年2月7日)
Further, in Patent Document 2, in an information device operated with one hand, it is detected whether the user is holding the device with the left or right hand, and an input key on the display / input screen is determined according to the detection result. A technique for assisting the user by changing the arrangement is disclosed.
JP 2006-139615 A (Publication date: June 1, 2006) JP 2008-027183 A (publication date: February 7, 2008)

しかしながら、特許文献1及び2に記載の技術では、ユーザによる情報入力は十分には円滑とはならず、さらなる改良がもとめられている。   However, in the techniques described in Patent Documents 1 and 2, information input by the user is not sufficiently smooth, and further improvements are sought.

とりわけ、情報機器の小型化に伴い、入力キー自身もより小さくなり、かつ片手で操作を行うユーザが増加したため、誤入力の問題がより生じ易くなっている現状がある。   In particular, with the downsizing of information equipment, the number of input keys themselves has become smaller and the number of users who operate with one hand has increased.

本発明は、上記課題に鑑みてなされたものであり、特に情報機器に対するユーザの入力を円滑化する技術を提供することを主たる目的とする。   The present invention has been made in view of the above problems, and it is a main object of the present invention to provide a technique for facilitating user input to an information device.

本発明に係る像検知装置は、上記の課題を解決するために、像を検知する面状部材と、面状部材が検知した対象物の像から対象物の向きを検出する向き検出手段と、面状部材が検知した対象物の像に基づいて、選択された当該面状部材上の領域Aを検出する選択領域検出手段と、当該領域Aの、上記向きに沿った先端側の点と後端側の点とを検出する領域端検出手段と、先端側の点と後端側の点との間の距離を領域Aの幅として検出する領域幅検出手段と、先端側の点を中心又は重心とし、かつ最大幅が上記領域Aの幅以下となる領域Bと、対象物により選択された上記領域Aとを合わせて、面状部材に対する入力領域として認識する入力領域認識手段と、を備えることを特徴としている。   In order to solve the above-described problems, an image detection device according to the present invention includes a planar member that detects an image, and a direction detection unit that detects the orientation of the object from the image of the object detected by the planar member; Based on the image of the object detected by the planar member, the selected region detecting means for detecting the region A on the selected planar member, the point on the tip side of the region A along the direction, and the rear A region end detecting means for detecting the end point, a region width detecting means for detecting the distance between the tip end point and the rear end point as the width of the region A, and the tip point or An input area recognition means for recognizing the input area for the planar member by combining the area B having the center of gravity and the maximum width equal to or less than the width of the area A and the area A selected by the object; It is characterized by that.

上記の構成によれば、対象物による現実の選択領域(領域A)と、当該対象物の向きの先端側に位置する所定の最大幅を持つ領域Bとを合わせて面状部材に対する入力領域として認識する。これにより、対象物の向きに応じた、より正確な入力操作を実現することができる。   According to the above configuration, the actual selection area (area A) by the object and the area B having the predetermined maximum width located on the leading end side of the direction of the object are combined as an input area for the planar member. recognize. Thereby, more accurate input operation according to the direction of the object can be realized.

また、通常、上記先端側の点と後端側の点との間の距離が短いほど、対象物の先端部による正確な入力である可能性がより高い。したがって、上記の構成によれば、対象物の向きに沿った選択領域の幅、すなわち入力の確からしさを考慮して、上記領域Bの最大幅の上限を決定することができる。   In general, the shorter the distance between the tip end point and the rear end point, the higher the possibility that the input is accurate by the tip of the object. Therefore, according to said structure, the upper limit of the maximum width of the said area | region B can be determined in consideration of the width | variety of the selection area | region along the direction of a target object, ie, the probability of input.

なお、本発明において「領域Bの最大幅」とは、領域B内に位置する任意の二点間の距離のうち最大になる長さを指す。例えば、領域Bが円形の場合はその直径が、楕円形の場合はその長軸の長さが最大幅に相当する。また、領域BがN角形(ここでNは3以上の整数)の場合は任意の二つの頂点を結んだ線分のうち最長のものの長さが、最大幅に相当する。また、領域Bが角丸N角形(ここでNは3以上の整数)の場合は任意の二つの丸い頂点を結んだ線分のうち最長のものの長さが、最大幅に相当する。   In the present invention, the “maximum width of the region B” refers to the maximum length of the distance between any two points located in the region B. For example, when the region B is circular, the diameter corresponds to the maximum width, and when the region B is elliptical, the length of the major axis corresponds to the maximum width. When the region B is an N-gon (where N is an integer of 3 or more), the length of the longest line segment connecting two arbitrary vertices corresponds to the maximum width. In the case where the region B is rounded N (where N is an integer of 3 or more), the length of the longest line segment connecting two arbitrary round vertices corresponds to the maximum width.

本発明に係る像検知装置では、領域Bの最大幅が、上記領域Aの幅に正比例して変動する構成であってもよい。   The image detection apparatus according to the present invention may be configured such that the maximum width of the region B varies in direct proportion to the width of the region A.

通常、上記領域Aの幅が長いほど不正確な入力である可能性が高く、当該幅が短いほど正確な入力である可能性がより高い。   In general, the longer the width of the region A, the higher the possibility of an incorrect input, and the shorter the width, the higher the possibility of an accurate input.

上記の構成によれば、上記領域Aの幅が長いほど入力領域として認識される領域Bの最大幅が長くなり、領域Aの幅が短いほど当該領域Bの最大幅が短くなるので、入力の確からしさを踏まえたより正確な入力操作を実現することができる。   According to the above configuration, the longer the width of the area A, the longer the maximum width of the area B recognized as the input area, and the shorter the width of the area A, the shorter the maximum width of the area B. A more accurate input operation based on the certainty can be realized.

本発明に係る像検知装置では、面状部材に複数の入力キーが設けられており、上記領域Bの最大幅が、隣接する入力キーのキーピッチ以下である構成であってもよい。   In the image detection apparatus according to the present invention, the planar member may be provided with a plurality of input keys, and the maximum width of the region B may be equal to or smaller than the key pitch of the adjacent input keys.

上記の構成によれば、キーピッチに応じて上記領域Bの最大幅の上限を決定し、より正確な入力操作を実現することができる。   According to said structure, the upper limit of the maximum width of the said area | region B is determined according to a key pitch, and more exact input operation can be implement | achieved.

なお、上記キーピッチとは、隣接する入力キーの重心間距離である。   The key pitch is a distance between the centers of gravity of adjacent input keys.

本発明に係る像検知装置では、さらに、面状部材が画像を表示する機能を有し、領域Bを示すポインタを面状部材に表示する構成であってもよい。   In the image detection apparatus according to the present invention, the planar member may further have a function of displaying an image, and the pointer indicating the region B may be displayed on the planar member.

上記の構成によれば、入力領域と認識される上記領域Bの範囲がポインタで示されるため、ユーザの入力操作を補助することができる。   According to said structure, since the range of the said area | region B recognized as an input area is shown with a pointer, a user's input operation can be assisted.

本発明に係る像検知装置では、上記領域Bが、上記先端側の点を中心とし、かつ直径が上記領域Aの幅以下の円形領域であってもよい。   In the image detection apparatus according to the present invention, the region B may be a circular region having a point on the tip side as a center and a diameter equal to or smaller than the width of the region A.

本発明に係る像検知装置では、面状部材がフォトダイオード群を備え、当該フォトダイオード群が検出した受光量の変化に基づいて上記像を検知する構成であってもよい。   In the image detection apparatus according to the present invention, the planar member may include a photodiode group, and the image may be detected based on a change in the amount of received light detected by the photodiode group.

本発明に係る入力領域の認識方法は、上記の課題を解決するために、像を検知する面状部材を備えてなる像検知装置における入力領域の認識方法であって、当該像から面状部材に対する対象物の向きを検出する向き検出工程と、当該像に基づいて対象物により選択された面状部材上の領域Aを検出する選択領域検出工程と、当該領域Aの、上記向きに沿った先端側の点と後端側の点とを検出する領域端検出工程と、先端側の点と後端側の点との間の距離を領域Aの幅として検出する領域幅検出工程と、先端側の点を中心又は重心とし、かつ最大幅が上記領域Aの幅以下となる領域Bと、対象物により選択された上記領域Aとを合わせて、上記面状部材に対する入力領域として認識する入力領域認識工程と、を含むことを特徴としている。   An input area recognition method according to the present invention is a method for recognizing an input area in an image detection apparatus including a planar member that detects an image, in order to solve the above-described problem. A direction detecting step for detecting the orientation of the object relative to the object, a selection region detecting step for detecting the region A on the planar member selected by the object based on the image, and the region A along the direction. A region end detecting step for detecting a point on the front end side and a point on the rear end side, a region width detecting step for detecting a distance between the point on the front end side and the point on the rear end side as the width of the region A, An input that is recognized as an input area for the planar member by combining the area B having the center point or the center of gravity and the maximum width equal to or less than the width of the area A together with the area A selected by the object And a region recognition step.

上記の構成によれば、本発明に係る像検知装置と同様の作用効果を奏する。   According to said structure, there exists an effect similar to the image detection apparatus which concerns on this invention.

また、本発明に係る像検知装置を動作させるためのプログラムであって、コンピュータを上記の各手段として駆動させることを特徴とするプログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。   Further, a program for operating the image detection apparatus according to the present invention, which is characterized in that the computer is driven as each of the above-described means, and a computer-readable recording medium storing the program are also included in the present invention. Included in the category.

本発明によれば、像を検知する面状部材における、対象物による現実の選択領域(領域A)と、当該対象物の向きの先端側に位置する所定の最大幅の領域Bとを合わせて面状部材に対する入力領域として認識する。これにより、対象物の向きに応じた、より正確な入力操作を実現することができる。   According to the present invention, the actual selection region (region A) by the object in the planar member for detecting an image is combined with the region B having a predetermined maximum width located on the leading end side in the direction of the object. Recognized as an input area for a planar member. Thereby, more accurate input operation according to the direction of the object can be realized.

(データ表示/センサ装置の動作の概要)
図1は、本発明の一実施形態に係るデータ表示/センサ装置100の外観を模式的に示す図である。図1に示すように、データ表示/センサ装置100は筐体の一面にセンサ内蔵液晶パネル(面状部材)301が配設されており、その長方形状のパネル面(表示面)にて画像の表示及び情報の入力を受付けるタッチパネル式の入力/表示装置である。データ表示/センサ装置100は、センサ内蔵液晶パネル301が配されないグリップ部100aを有し、ユーザが当該グリップ部100aを片手で握り持ちながら、片手の親指(対象物)64により情報の入力などの操作がなされる。
(Outline of data display / sensor device operation)
FIG. 1 is a diagram schematically showing an appearance of a data display / sensor device 100 according to an embodiment of the present invention. As shown in FIG. 1, the data display / sensor device 100 is provided with a sensor built-in liquid crystal panel (planar member) 301 on one surface of a housing, and an image is displayed on the rectangular panel surface (display surface). This is a touch panel type input / display device that accepts display and information input. The data display / sensor device 100 includes a grip portion 100a on which the sensor built-in liquid crystal panel 301 is not disposed, and the user holds information on the grip portion 100a with one hand while inputting information with the thumb (object) 64 of one hand. An operation is made.

図2は、図1に記載のデータ表示/センサ装置100の動作の一例を模式的に示す図である。一例において、センサ内蔵液晶パネル301の表示面には、複数の入力キー350から構成されるスクリーンキーボード351が表示されている。   FIG. 2 is a diagram schematically illustrating an example of the operation of the data display / sensor device 100 illustrated in FIG. In one example, a screen keyboard 351 including a plurality of input keys 350 is displayed on the display surface of the sensor built-in liquid crystal panel 301.

ここで、指64が上記表示面上の特定の領域(選択領域360(領域Aに相当))を選択したとき、データ表示/センサ装置100は、センサ内蔵液晶パネル301に対する指64の向きに基づいて、当該選択領域360の先端側の領域端点360aと後端側の領域端点360bとを検出する。より具体的には、図2では、センサ内蔵液晶パネル301の下端部側から上端部側に指64が向いており、データ表示/センサ装置100は、指64の向きに沿った選択領域360の領域端点360a・360bのうち、センサ内蔵液晶パネル301のより上部側に位置する領域端点360aを先端側の領域端点と認識する。   Here, when the finger 64 selects a specific area (selection area 360 (corresponding to the area A)) on the display surface, the data display / sensor device 100 is based on the orientation of the finger 64 with respect to the sensor built-in liquid crystal panel 301. Thus, a region end point 360a on the front end side of the selection region 360 and a region end point 360b on the rear end side are detected. More specifically, in FIG. 2, the finger 64 is directed from the lower end side to the upper end side of the sensor built-in liquid crystal panel 301, and the data display / sensor device 100 displays the selection region 360 along the direction of the finger 64. Of the region end points 360a and 360b, the region end point 360a located on the upper side of the sensor built-in liquid crystal panel 301 is recognized as the region end point on the front end side.

そして、データ表示/センサ装置100は、先端側の領域端点360aを中心とし、かつその直径が二つの領域端点360a・360b間距離以下の所定の長さの円形領域(領域Bに相当)と、上記選択領域360とを合わせて、センサ内蔵液晶パネル301に対する入力領域として認識する。また、上記円形領域には、必要に応じてその位置を示す目印であるポインタ361が表示される。   The data display / sensor device 100 includes a circular region (corresponding to the region B) having a predetermined length centered on the region end point 360a on the front end side and having a diameter equal to or less than the distance between the two region end points 360a and 360b. Together with the selection area 360, it is recognized as an input area for the sensor built-in liquid crystal panel 301. In addition, a pointer 361 which is a mark indicating the position is displayed in the circular area as necessary.

なお、本明細書において「選択領域」とは、「指64により実際に選択された表示面上の領域」を指し、当該「選択領域」と上記「円形領域」とを合わせた領域として定義付けられる上記「入力領域」とは区別される。   In this specification, the “selected area” refers to an “area on the display surface that is actually selected by the finger 64”, and is defined as a combined area of the “selected area” and the “circular area”. It is distinguished from the above-mentioned “input area”.

一般にスクリーンキーボードに対する入力では、ユーザの指が入力キーの中心を正確に触れることは少ない。また、光センサを用いて入力の有無を検知する方式では、ユーザの指がスクリーンキーボードに所定距離まで近接した状態をもって入力有りと検知する場合がある。そのため、入力キーを押し込むタイプの通常のキーボード入力と比較して誤入力の問題が生じ易い。しかしながら、本発明に係るデータ表示/センサ装置100では、指64による現実の選択領域360と、指64の向きの先端側に位置する所定の直径の円形領域とを合わせてセンサ内蔵液晶パネル301に対する入力領域として認識する。これにより、指64の向きに応じた、より正確な入力操作を実現することができ、誤入力の発生が低減する。   In general, when inputting to a screen keyboard, the user's finger rarely touches the center of the input key accurately. Further, in the method of detecting the presence or absence of input using an optical sensor, it may be detected that there is an input when the user's finger is close to a screen keyboard up to a predetermined distance. Therefore, a problem of erroneous input is likely to occur as compared with a normal keyboard input type in which an input key is pressed. However, in the data display / sensor device 100 according to the present invention, the actual selection area 360 by the finger 64 and the circular area having a predetermined diameter located on the distal end side in the direction of the finger 64 are combined with the sensor built-in liquid crystal panel 301. Recognize as an input area. Thereby, more accurate input operation according to the direction of the finger | toe 64 can be implement | achieved, and generation | occurrence | production of an incorrect input reduces.

さらに、必要に応じて、上記円形領域に対応してポインタ361が表示されるので、ユーザは入力領域として認識されている領域を容易に知ることができ、スクリーンキーボード351を介した入力を円滑に行なうことができる。   Furthermore, since the pointer 361 is displayed corresponding to the circular area as necessary, the user can easily know the area recognized as the input area, and can smoothly input via the screen keyboard 351. Can be done.

なお、入力の実行は、センサ内蔵液晶パネル301の表示面に指64が接触又は近接したと同時に行われてもよく、或いは、指64を当該表示面に一旦接触又は近接させた後、離す動作(アップ動作)がなされる際に行われてもよい。アップ動作時に入力が実行される構成では、ポインタ361の位置を指標にしたより正確な入力が実現可能である。   The input may be performed simultaneously with the finger 64 contacting or approaching the display surface of the sensor built-in liquid crystal panel 301, or the operation of releasing the finger 64 once contacting or approaching the display surface. It may be performed when (up operation) is performed. In the configuration in which the input is executed at the time of the up operation, more accurate input using the position of the pointer 361 as an index can be realized.

なお、ユーザは、指64の他にも、タッチペンなどの遮光物を用いてセンサ内蔵液晶パネル301上を指示してもよい。   In addition to the finger 64, the user may instruct on the sensor built-in liquid crystal panel 301 using a light shielding object such as a touch pen.

以下、上述した機能を実現する各部材の構成について詳細に説明する。まず、上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   Hereinafter, the structure of each member which implement | achieves the function mentioned above is demonstrated in detail. First, an outline of the sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 will be described.

(センサ内蔵液晶パネルの概要)
上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置(すなわち選択領域)の検出や、印刷物などの画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position (that is, a selected area) where the user points (touches) with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図3を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図3は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 3 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図4(a)および図4(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置(選択領域)を検出する2種類の方法について説明する。   Next, with reference to FIG. 4A and FIG. 4B, two types of methods for detecting a position (selection region) where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described. To do.

図4(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指64などの対象物により反射された光63を検知する。これにより、指64などの対象物の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 4A is a schematic diagram showing how the position touched by the user is detected by detecting the reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by an object such as a finger 64. Thereby, a reflected image of an object such as the finger 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図4(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図4(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 4B is a schematic diagram showing a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 4B, the optical sensor circuit 32 including the photodiode 6 detects the external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図5を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図5は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、単一の表示/光センサ部300を備えているものとして説明するが、複数備えていてもかまわない。
(Data display / sensor configuration)
Next, the configuration of the main part of the data display / sensor device 100 will be described with reference to FIG. FIG. 5 is a block diagram showing a main configuration of the data display / sensor device 100. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, although the data display / sensor device 100 is described as including a single display / light sensor unit 300, a plurality of data display / sensor devices 100 may be included.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)などで構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリなどで構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can each be configured with a CPU (Central Processing Unit), a memory, and the like. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカなどの音声出力部908、音声信号を入力するためのマイクなどの音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 or the like may be provided as appropriate.

(コマンドの詳細)
次に、図6および図7を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図6は、コマンドのフレーム構造の一例を模式的に示す図である。また、図7は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram schematically illustrating an example of a command frame structure. FIG. 7 is a diagram for explaining an example of values that can be specified in each field included in the command and an outline thereof.

図6に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図7に示す値が指定可能である。   As shown in FIG. 6, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 7 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” designates that the latest data is transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

加えて、センサデータ処理部703は、上記部分画像データに含まれる代表座標以外の座標も検出し、当該座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。代表座標以外の座標の例としては、部分画像データの輪郭部分を構成する画素に対応した座標(「端点座標」と称する)も含まれる。   In addition, the sensor data processing unit 703 also detects coordinates other than the representative coordinates included in the partial image data, and transmits coordinate data indicating the position of the coordinates in the partial image data to the main control unit 800. Examples of coordinates other than the representative coordinates include coordinates corresponding to the pixels constituting the contour portion of the partial image data (referred to as “end point coordinates”).

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標及び端点座標等の、全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標及び端点座標等を検出し、当該代表座標及び端点座標等を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “coordinate”, the main control unit displays coordinate data indicating the position in the entire image data such as the representative coordinate and the end point coordinate. To 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates and end point coordinates of the extracted partial image data in the entire image data, and the representative coordinates and Each piece of coordinate data indicating end point coordinates or the like is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” designates that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置などが分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to specify “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、データ表示/センサ装置100が、複数の表示/光センサ部300を備えているときに、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(一番目の表示/光センサ部300)、“010”(二番目の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、一番目と二番目の両方の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, in the “scan panel” field, when the data display / sensor device 100 includes a plurality of display / light sensor units 300, which display / light sensor unit 300 performs scanning of an object. This field is specified. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when both the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、受信したコマンドの「スキャンパネル」フィールドの値に従って、指定された表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   Here, the sensor data processing unit 703 controls the photo sensor driving circuit 305 and the backlight driving circuit 308 of the designated display / light sensor unit 300 according to the value of the “scan panel” field of the received command. An instruction is given to the sensor control unit 602 and the backlight control unit 603.

次に、「表示パネル」フィールドは、データ表示/センサ装置100が、複数の表示/光センサ部300を備えているときに、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「表示パネル」フィールドには、例えば、“001”(一番目の表示/光センサ部300)、“010” (二番目の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、一番目と二番目の両方の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field specifies which display / light sensor unit 300 displays the display data when the data display / sensor device 100 includes a plurality of display / light sensor units 300. It is a field to be. In the “display panel” field, for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when both the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が表示/光センサ部300であるコマンドを受信すると、表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is the display / light sensor unit 300, the display / light sensor unit 300 displays the display / light sensor unit 300 to display the display data. An instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the optical sensor unit 300.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図8を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図8(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図8(b)に示す画像データは、ユーザが指64でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 8A is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the object is not placed on the sensor-equipped liquid crystal panel 301. 8B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with the finger 64. The image data shown in FIG.

ユーザが指64でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor-equipped liquid crystal panel 301 with the finger 64, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図8(b)に示す画像データでは、図8(a)に示す画像データと比べると、ユーザの指64に該当する部分の画素値の明度が高くなっている。そして、図8(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 8B, the brightness of the pixel value of the portion corresponding to the user's finger 64 is higher than the image data shown in FIG. In the image data shown in FIG. 8B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold value is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

なお、本発明において、上記の部分画像データに含まれる、明度が所定の閾値より大きく変化している画素からなる領域は選択領域360(図2参照)に相当する。   In the present invention, an area composed of pixels whose lightness changes more than a predetermined threshold included in the partial image data corresponds to the selection area 360 (see FIG. 2).

また、上記選択領域360において、指64の向き(図8(b)中に矢印で示す)とのなす2つの交点のうち、当該向きに沿って先端側に位置する点が領域端点360aに相当し、後端側に位置する点が領域端点360bに相当する(図2も参照のこと)。   In the selection area 360, a point located on the tip side along the direction of two intersections formed with the direction of the finger 64 (indicated by an arrow in FIG. 8B) corresponds to the area end point 360a. The point located on the rear end side corresponds to the region end point 360b (see also FIG. 2).

また、データ表示/センサ装置100では、ユーザの使用時におけるセンサ内蔵液晶パネル301(図1、図2、図5参照)の左右方向をX軸、上下方向(すなわち縦方向)をY軸として座標軸が設定されており、当該XY座標軸にかかる情報は記憶部901(図5参照)に格納されている。すなわち、データ表示/センサ装置100では、その長手方向とY軸方向とが一致しており、幅方向とX軸方向とが一致している。また、データ表示/センサ装置100では、ユーザの使用時において、X軸は複数の入力キー350(図2参照)の横並び方向に一致し、Y軸は複数の入力キー350の縦並び方向に一致している。   Further, in the data display / sensor device 100, when the user uses the sensor-equipped liquid crystal panel 301 (see FIGS. 1, 2, and 5), the horizontal axis is the X axis and the vertical direction (that is, the vertical direction) is the Y axis. Is set, and information related to the XY coordinate axes is stored in the storage unit 901 (see FIG. 5). That is, in the data display / sensor device 100, the longitudinal direction and the Y-axis direction match, and the width direction and the X-axis direction match. In the data display / sensor device 100, when the user uses the X-axis, the X-axis coincides with the horizontal arrangement direction of the plurality of input keys 350 (see FIG. 2), and the Y-axis coincides with the vertical arrangement direction of the plurality of input keys 350. I'm doing it.

なお、X軸とY軸との交点、すなわち座標軸の原点は、センサ内蔵液晶パネル301のパネル面の重心に固定してもよいが、例えば、上記選択位置の位置座標が原点となるように設定することもできる。   The intersection of the X axis and the Y axis, that is, the origin of the coordinate axis may be fixed at the center of gravity of the panel surface of the sensor-equipped liquid crystal panel 301. For example, the position coordinate of the selected position is set to be the origin. You can also

(センサ内蔵液晶パネルの構成)
次に、図9を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図9は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 9 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称として用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. The pixel circuit 31 is used as a general term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

(データ表示/センサ装置のより詳細な構成)
次に、図10を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600(図5参照)の動作については説明を省略する。ただし、正確には、データの表示および対象物のスキャンを行うにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Data display / more detailed configuration of sensor device)
Next, a more detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, for easy understanding, the operations of the data processing unit 700 and the circuit control unit 600 (see FIG. 5) located between the main control unit 800 and the display / light sensor unit 300 are described. Omitted. However, to be precise, when displaying data and scanning an object, each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 sets the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図10は、本実施形態に係るデータ表示/センサ装置100の構成を主制御部800および記憶部901を中心に示すブロック図である。図10に示すように、主制御部800は、被指示画面表示制御部11、選択領域検出部(選択領域検出手段)12、補助画像表示制御部13、向き検出部(向き検出手段)14、入力領域認識部(入力領域認識手段)15、および選択領域端・領域幅検出部(領域端検出手段/領域幅検出手段)16を備えている。また、記憶部901は、被指示画面データ記憶部21、補助画像データ記憶部23を備えている。   FIG. 10 is a block diagram showing the configuration of the data display / sensor device 100 according to the present embodiment, centering on the main control unit 800 and the storage unit 901. As shown in FIG. 10, the main control unit 800 includes an instruction screen display control unit 11, a selection region detection unit (selection region detection unit) 12, an auxiliary image display control unit 13, a direction detection unit (direction detection unit) 14, An input area recognition section (input area recognition means) 15 and a selection area edge / area width detection section (area edge detection means / area width detection means) 16 are provided. In addition, the storage unit 901 includes an instruction screen data storage unit 21 and an auxiliary image data storage unit 23.

次に、図10及び図11を参照しながら、データ表示/センサ装置100の動作の一例について説明する。図11は、本実施形態に係るデータ表示/センサ装置100の動作を説明するフローチャートである。   Next, an example of the operation of the data display / sensor device 100 will be described with reference to FIGS. 10 and 11. FIG. 11 is a flowchart for explaining the operation of the data display / sensor device 100 according to the present embodiment.

ステップS1では、データ表示/センサ装置100は、センサ内蔵液晶パネル301上に被指示画面、すなわち指64による入力を受付けるための入力キーを含んだ画面を表示する。一実施形態において、被指示画面表示制御部11が、センサ内蔵液晶パネル301に、複数の入力キー350によって構成されるスクリーンキーボード351を表示させる(図2も参照)。   In step S <b> 1, the data display / sensor device 100 displays an instruction screen, that is, a screen including an input key for accepting an input with the finger 64 on the sensor built-in liquid crystal panel 301. In one embodiment, the instructed screen display control unit 11 causes the sensor built-in liquid crystal panel 301 to display a screen keyboard 351 including a plurality of input keys 350 (see also FIG. 2).

詳しく述べれば、まず、被指示画面表示制御部11は、被指示画面データ記憶部21からデータを呼び出して、表示すべき画像データを取得する。被指示画面データ記憶部21から呼び出すデータは、例えば、各入力キー350の座標、寸法、ならびに画像データであり、すべての入力キー350の画像データをそれぞれの座標および寸法に基づいて合成することにより、表示すべき全体画像のデータを生成することができる。また、表示すべき全体画像(スクリーンキーボード351の全体画像)のデータをそのまま被指示画面データ記憶部21から呼び出してもよい。   More specifically, first, the instructed screen display control unit 11 retrieves data from the instructed screen data storage unit 21 and acquires image data to be displayed. The data to be called from the instructed screen data storage unit 21 is, for example, the coordinates, dimensions, and image data of each input key 350, and by combining the image data of all the input keys 350 based on the respective coordinates and dimensions. The data of the entire image to be displayed can be generated. Further, the data of the entire image to be displayed (the entire image of the screen keyboard 351) may be directly called from the instructed screen data storage unit 21.

次に、被指示画面表示制御部11は、上記のように得た表示すべき全体画面のデータを表示データ処理部701に送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送る。データ処理部700は、上述したように、表示制御部601およびバックライト制御部603を制御してセンサ内蔵液晶パネル301上にスクリーンキーボード351を表示させる(図2、図5も参照)。   Next, the instructed screen display control unit 11 sends the data of the entire screen to be displayed obtained as described above to the display data processing unit 701 and uses the “display panel” as the display / light sensor unit 300. Is sent to the data processing unit 700. As described above, the data processing unit 700 controls the display control unit 601 and the backlight control unit 603 to display the screen keyboard 351 on the sensor-equipped liquid crystal panel 301 (see also FIGS. 2 and 5).

なお、ステップS1は、必要に応じて開始されればよく、例えば、アプリケーションの開始とともに開始される。   Note that step S <b> 1 may be started as necessary, for example, when the application is started.

次に、ステップS2において、データ表示/センサ装置100は、センサ内蔵液晶パネル301上の、指64により選択された領域(選択領域360に相当(図2、図8(b)参照)を検出する。一実施形態において、選択領域検出部12が、センサデータ処理部703から選択領域360に含まれる代表座標Z及びその他の座標(前記端点座標を含む)の座標データを取得するとともに、これら座標データを選択領域端・領域幅検出部16での検出処理及び入力領域認識部15での認識処理に供する。   Next, in step S2, the data display / sensor device 100 detects a region (corresponding to the selection region 360 (see FIGS. 2 and 8B)) selected by the finger 64 on the sensor built-in liquid crystal panel 301. In one embodiment, the selection area detection unit 12 acquires coordinate data of the representative coordinates Z and other coordinates (including the end point coordinates) included in the selection area 360 from the sensor data processing unit 703, and the coordinate data Are subjected to detection processing in the selection region edge / region width detection unit 16 and recognition processing in the input region recognition unit 15.

詳しく述べれば、選択領域検出部12は、データ処理部700に対して、「データ種別」を”座標”、「データ取得タイミング」を、”イベント”とした上記コマンドを送る。選択領域検出部12は、上記コマンドの応答としてセンサデータ処理部703から得られた上記座標データにより、センサ内蔵液晶パネル301の表示面内における選択領域360の位置を認識する。次いで、この座標データを、選択領域端・領域幅検出部16での検出処理及び入力領域認識部15での認識処理に供する。なお、選択領域検出部12が、データ取得のタイミングおよび取得データの変化の判定を行なう場合には、上記コマンドの「データ取得タイミング」は、”オール”または”センス”としてもよい。   More specifically, the selection area detection unit 12 sends the above-mentioned command with “data type” as “coordinate” and “data acquisition timing” as “event” to the data processing unit 700. The selection area detection unit 12 recognizes the position of the selection area 360 in the display surface of the sensor built-in liquid crystal panel 301 based on the coordinate data obtained from the sensor data processing unit 703 as a response to the command. Next, the coordinate data is subjected to detection processing in the selection region edge / region width detection unit 16 and recognition processing in the input region recognition unit 15. When the selection area detection unit 12 determines the data acquisition timing and the change in the acquired data, the “data acquisition timing” of the command may be “all” or “sense”.

なお、ステップS2は、ステップS1と同様、例えば、アプリケーションの開始とともに開始される。   Note that step S2 is started together with the start of the application, for example, similarly to step S1.

次に、ステップS3において、データ表示/センサ装置100は、センサ内蔵液晶パネル301に対する指64の向きを検出する。一実施形態において、向き検出部14が、センサデータ処理部703から全体画像データを取得し、当該全体画像データに基づいて指64の向きを検出する。   Next, in step S <b> 3, the data display / sensor device 100 detects the orientation of the finger 64 with respect to the sensor built-in liquid crystal panel 301. In one embodiment, the orientation detection unit 14 acquires the entire image data from the sensor data processing unit 703 and detects the orientation of the finger 64 based on the entire image data.

詳しく述べれば、向き検出部14は、データ処理部700に対して、「データ種別」を”全体画像”、「データ取得タイミング」を、”イベント”とした上記コマンドを送る。次いで、向き検出部14は、取得した全体画像データに基づき、センサ内蔵液晶パネル301の表示面内(パネル面内)における指64の向きにかかる情報を検出し、この情報を選択領域端・領域幅検出部16での領域端点の検出処理に供する。   More specifically, the orientation detection unit 14 sends the above-mentioned command with “data type” as “whole image” and “data acquisition timing” as “event” to the data processing unit 700. Next, the orientation detection unit 14 detects information related to the orientation of the finger 64 in the display surface (inside the panel surface) of the sensor built-in liquid crystal panel 301 based on the acquired entire image data, and uses this information as the selected region edge / region. The width detection unit 16 uses the region end point detection process.

ここで、指64の向きは、上記全体画像に含まれる指64の画像の形状及び明度の相違から検知することができる。例えば、図8(b)の例においては、明度が所定の閾値より大きく変化している部分(選択領域360)に含まれる代表座標Zを終点側とし、指64の画像の長手中心方向に沿う方向が、指64の向きとなる(図8(b)中に矢印で示す)。   Here, the orientation of the finger 64 can be detected from the difference in the shape and brightness of the image of the finger 64 included in the entire image. For example, in the example of FIG. 8B, the representative coordinate Z included in the portion (selection region 360) where the lightness changes more than a predetermined threshold is set as the end point side, and is along the longitudinal center direction of the image of the finger 64. The direction is the direction of the finger 64 (indicated by an arrow in FIG. 8B).

なお、向き検出部14が、データ取得のタイミングおよび取得データの変化の判定を行なう場合には、上記コマンドの「データ取得タイミング」は、”オール”または”センス”としてもよい。   When the direction detection unit 14 determines the data acquisition timing and the change in the acquired data, the “data acquisition timing” of the command may be “all” or “sense”.

なお、ステップS3は、ステップS1と同様、例えば、アプリケーションの開始とともに開始される。また、ステップS2とステップS3とは実行順序を入れ替えることもできる。   Note that step S3 is started together with the start of the application, for example, similarly to step S1. Further, the order of execution of step S2 and step S3 can be switched.

次に、ステップS4において、データ表示/センサ装置100は、選択領域360の輪郭部分を構成する端点のうち、指64の向きに沿ったものを検出する。一実施形態において、選択領域端・領域幅検出部16が、選択領域検出部12から供された選択領域360の端点座標のデータと、向き検出部14から供された指64の向きに係る情報とを比較して、当該指64の向きに沿って位置する二つの端点(領域端点360a・360bに相当(図2、図8(b)参照))の座標データを検出する。次いで、この座標データを、後述するステップS5の検出処理、及び入力領域認識部15での認識処理に供する。   Next, in step S <b> 4, the data display / sensor device 100 detects a point along the direction of the finger 64 among the end points constituting the contour portion of the selection region 360. In one embodiment, the selection area edge / area width detection unit 16 includes data on the end point coordinate data of the selection area 360 provided from the selection area detection unit 12 and information on the orientation of the finger 64 provided from the orientation detection unit 14. And coordinate data of two end points (corresponding to the region end points 360a and 360b (see FIGS. 2 and 8B)) positioned along the direction of the finger 64 are detected. Next, the coordinate data is subjected to a detection process in step S5 described later and a recognition process in the input area recognition unit 15.

次に、ステップS5において、データ表示/センサ装置100は、選択領域360の幅を検出する。ここで検出する選択領域360の幅とは、選択領域360の、指64の向きに沿った先端側の点(領域端点360a)と後端側の点(領域端点360b)との間の距離である。一実施形態において、選択領域端・領域幅検出部16が、上記ステップS4にて取得した領域端点360a・360bの座標データから両領域端点間の距離をもとめる。   Next, in step S <b> 5, the data display / sensor device 100 detects the width of the selection region 360. The width of the selection region 360 detected here is the distance between the point on the front end side (region end point 360a) and the point on the rear end side (region end point 360b) along the direction of the finger 64 of the selection region 360. is there. In one embodiment, the selection area edge / area width detection unit 16 obtains the distance between the area end points from the coordinate data of the area end points 360a and 360b acquired in step S4.

ステップS6において、データ表示/センサ装置100は、ステップS5で検出した選択領域360の幅が2センチメートル(cm)以下であるか否かを判定する。そして、当該幅が2cm以下の場合には、領域端点360aを中心とした円形領域と、選択領域360とを合わせて、センサ内蔵液晶パネル301に対する入力領域と認識する。   In step S6, the data display / sensor device 100 determines whether or not the width of the selection region 360 detected in step S5 is 2 centimeters (cm) or less. When the width is 2 cm or less, the circular area centering on the area end point 360a and the selection area 360 are combined and recognized as an input area for the sensor built-in liquid crystal panel 301.

一実施形態において、選択領域360の幅が2cm以下の場合、入力領域認識部15は、二つの領域端点360a・360bのうち、指64の向きに沿ってより先端側に位置する領域端点360aを中心とした所定の直径を有する円形領域と、選択領域360とを合わせて、センサ内蔵液晶パネル301に対する入力領域と認識する。そして、この認識結果を、データ処理部700での処理、及び補助画像表示制御部13での処理に供する。   In one embodiment, when the width of the selection region 360 is 2 cm or less, the input region recognition unit 15 selects the region end point 360a located on the more distal side along the direction of the finger 64 out of the two region end points 360a and 360b. The circular area having a predetermined diameter at the center and the selection area 360 are combined and recognized as an input area for the sensor built-in liquid crystal panel 301. Then, the recognition result is used for processing in the data processing unit 700 and processing in the auxiliary image display control unit 13.

一方、選択領域360の幅が2cmを超える場合、入力領域認識部15は、指64による選択領域360のみを入力領域として認識するか、或いは指64による入力がエラーであると認識する。そして、入力領域認識部15は、この認識結果を、データ処理部700での処理、及び補助画像表示制御部13での処理に供する。以降は、ステップS2に戻り、ユーザの新たな指示を待つ。   On the other hand, when the width of the selection region 360 exceeds 2 cm, the input region recognition unit 15 recognizes only the selection region 360 with the finger 64 as an input region, or recognizes that the input with the finger 64 is an error. Then, the input area recognition unit 15 provides the recognition result to processing in the data processing unit 700 and processing in the auxiliary image display control unit 13. Thereafter, the process returns to step S2 and waits for a new instruction from the user.

次に、ステップS7において、データ表示/センサ装置100は、センサ内蔵液晶パネル301上における上記円形領域にポインタ361を表示する。一実施形態において、補助画像表示制御部(ポインタ表示手段)13が、補助画像データ記憶部23から表示すべき補助画像(ポインタ361)の画像データを呼び出し、当該画像データをデータ処理部700に供する。   Next, in step S <b> 7, the data display / sensor device 100 displays the pointer 361 in the circular area on the sensor built-in liquid crystal panel 301. In one embodiment, the auxiliary image display control unit (pointer display means) 13 calls the image data of the auxiliary image (pointer 361) to be displayed from the auxiliary image data storage unit 23, and supplies the image data to the data processing unit 700. .

データ処理部700では、ポインタ361の画像データと、スクリーンキーボード351の画像データとを周知の画像合成技術により合成し、センサ内蔵液晶パネル301上に、領域端点360aを中心点としたポインタ361を表示する。   The data processing unit 700 combines the image data of the pointer 361 and the image data of the screen keyboard 351 by a known image composition technique, and displays the pointer 361 centered on the region end point 360a on the sensor built-in liquid crystal panel 301. To do.

以降は、ステップS2に戻り、ユーザの新たな指示を待つ。   Thereafter, the process returns to step S2 and waits for a new instruction from the user.

なお、上記ステップS1において表示する被指示画面は、スクリーンキーボード351である必要はなく、種々の入力キーとすることができる。例えば、それぞれ特定の機能(例えば、OKボタン、キャンセルボタンなど)に対応する入力キーを表示させてもよい。   The instructed screen displayed in step S1 does not need to be the screen keyboard 351, and can be various input keys. For example, input keys corresponding to specific functions (for example, an OK button, a cancel button, etc.) may be displayed.

また、ここでは、センサ内蔵液晶パネル301上にスクリーンキーボード351が液晶表示される形態を例示したが、センサ内蔵液晶パネルの面内に、少なくとも一部の入力キーを予めプリントした構成であってもよい。特に、文字、又は一桁の数字のような汎用される入力キーのみを予めプリントした構成であってもよい。なお、予めプリントした入力キーを用いる場合にはステップS1は省略される。   In addition, here, the screen keyboard 351 is displayed on the sensor built-in liquid crystal panel 301 as a liquid crystal display, but at least some of the input keys may be printed in advance on the surface of the sensor built-in liquid crystal panel. Good. In particular, only a general-purpose input key such as a letter or a single digit may be printed in advance. Note that step S1 is omitted when an input key printed in advance is used.

また、ここでは、ステップS6において、選択領域の幅が所定値以下の場合のみ、上記円形領域を含めて指64による入力領域と認識する構成を例示したが、選択領域の幅によらず、常時、円形領域を含めて入力領域と認識する構成としてもよい。   In addition, here, in step S6, only the case where the width of the selection area is equal to or smaller than the predetermined value is exemplified as the input area including the circular area as an input area by the finger 64. A configuration may be adopted in which a circular area is included and recognized as an input area.

また、ここでは、ステップS7において、ユーザを補助するための補助画像(円形のポインタ361)を表示する形態を例示したが、場合によっては、S7を省略してもよい。   In addition, here, an example is shown in which an auxiliary image (circular pointer 361) for assisting the user is displayed in step S7. However, in some cases, S7 may be omitted.

(入力領域の認識の詳細)
以下、上記ステップS6にて説明した、データ表示/センサ装置100による入力領域の認識の詳細例について、図12及び図13に基づき具体的に説明する。なお、図12及び図13に示す例では、X軸方向及びY軸方向に隣接する入力キー間のキーピッチ(隣接する入力キーの重心間距離)はいずれも30mmである。また、対象物により選択された領域(図中、選択領域360)の幅として、指64の向きに沿った先端側の点と後端側の点との間の距離を採用する。
(Details of input area recognition)
Hereinafter, a detailed example of the recognition of the input area by the data display / sensor device 100 described in step S6 will be specifically described with reference to FIGS. In the example shown in FIGS. 12 and 13, the key pitch between the input keys adjacent in the X-axis direction and the Y-axis direction (the distance between the centers of gravity of the adjacent input keys) is 30 mm. Further, the distance between the point on the front end side and the point on the rear end side along the direction of the finger 64 is adopted as the width of the region selected by the object (selected region 360 in the figure).

図12は、図1に記載のデータ表示/センサ装置100の動作の他の一例を模式的に示す図面であり、ここでは、ユーザが右手にてデータ表示/センサ装置100のグリップ部100a(図1参照)を持ち、右手の親指64にて複数の入力キー350に対する操作を行っている。   FIG. 12 is a diagram schematically illustrating another example of the operation of the data display / sensor device 100 illustrated in FIG. 1. Here, the grip portion 100 a (see FIG. 1) and the user operates the plurality of input keys 350 with the thumb 64 of the right hand.

指64は、ユーザから見てセンサ内蔵液晶パネル301の右側から進入しており、当該センサ内蔵液晶パネル301上の選択領域360を選択している。センサ内蔵液晶パネル301の表示面内における、指64の向きは、図12中の二点QPを結び、点Pを終点側とする方向である。なお、二点PQは、順に、選択領域360における、指64の向きに沿った先端側の点(領域端点360a)と後端側の点(領域端点360b)とに相当する。   The finger 64 enters from the right side of the sensor built-in liquid crystal panel 301 as viewed from the user, and selects the selection region 360 on the sensor built-in liquid crystal panel 301. The direction of the finger 64 in the display surface of the sensor-equipped liquid crystal panel 301 is a direction in which two points QP in FIG. The two points PQ correspond to a point on the front end side (region end point 360a) and a point on the rear end side (region end point 360b) along the direction of the finger 64 in the selection region 360 in order.

ここで、選択領域360の幅、すなわち二点PQ間の距離は1cmであり、当該幅が2cm以下というステップS6の実行条件を満たす(図11も参照)。したがって、入力領域認識部15(図10参照)は、点Pを中心とする円形領域と選択領域360とを合わせて、センサ内蔵液晶パネル301に対する指64の入力領域として認識する。また、当該円形領域には、ポインタ361が表示される。   Here, the width of the selection region 360, that is, the distance between the two points PQ is 1 cm, and the execution condition of step S6 that the width is 2 cm or less is satisfied (see also FIG. 11). Therefore, the input area recognition unit 15 (see FIG. 10) combines the circular area centered on the point P and the selection area 360 and recognizes it as the input area of the finger 64 with respect to the sensor built-in liquid crystal panel 301. A pointer 361 is displayed in the circular area.

入力領域認識部15が決定する上記円形領域の直径は、固定値であってもよく、又は選択領域360の幅に応じて変動する値であってもよい。なお、何れの場合でも、直径の上限は、意図しない入力を防止するという理由から、選択領域360の幅以下でなければならない。一方、当該直径の下限は、特に限定されないが、スタイラスの先端直径が1mm程度であるという理由から1mm以上であることが好ましい。   The diameter of the circular area determined by the input area recognition unit 15 may be a fixed value or a value that varies according to the width of the selection area 360. In any case, the upper limit of the diameter must be equal to or smaller than the width of the selection region 360 for the purpose of preventing unintended input. On the other hand, the lower limit of the diameter is not particularly limited, but is preferably 1 mm or more because the tip diameter of the stylus is about 1 mm.

また、上記円形領域の直径は、選択領域360の幅以下で、かつ隣接する入力キー350・350のキーピッチ以下であることが好ましい。当該直径がこの範囲内にあれば、原則として、当該円形領域が二以上の入力キー350の重心を同時に含むことを防止できる。   The diameter of the circular area is preferably equal to or smaller than the width of the selection area 360 and equal to or smaller than the key pitch of the adjacent input keys 350 and 350. If the diameter is within this range, in principle, the circular area can be prevented from including the centers of gravity of two or more input keys 350 simultaneously.

さらに、上記円形領域の直径を、選択領域360の幅に応じて変動させる場合には、当該幅に正比例して変動させる構成が好ましい。   Further, when the diameter of the circular region is changed according to the width of the selection region 360, it is preferable to change the diameter in direct proportion to the width.

通常、選択領域360の幅が短いほど、指64の先端部のみにて正確な入力が行われている可能性がより高い。一方、選択領域360の幅が長いほど、指64の先端部と指64の腹とによる不正確な入力が行われている可能性がより高い。   In general, the shorter the width of the selection area 360, the higher the possibility that an accurate input is performed only at the tip of the finger 64. On the other hand, as the width of the selection region 360 is longer, there is a higher possibility that an incorrect input is made by the tip of the finger 64 and the belly of the finger 64.

したがって、円形領域の直径を、選択領域360の幅に正比例して変動させれば、当該幅が長いほど入力領域として認識される円形領域の直径が大きくなり、当該幅が短いほど円形領域の直径が小さくなるので、入力の確からしさを踏まえたより正確な入力操作を実現することができる。   Therefore, if the diameter of the circular region is changed in direct proportion to the width of the selection region 360, the longer the width, the larger the diameter of the circular region recognized as the input region, and the shorter the width, the larger the diameter of the circular region. Therefore, a more accurate input operation based on the certainty of input can be realized.

図12に示す例では、選択領域360の幅を(W:単位cm)、上記円形領域の直径を(2R:単位cm)、比例定数を(α:αは1以下の正の数)とした場合、(2R)=(W)×αの関係式を満たすように設定されている。ここで、特に限定されないが、比例定数αは、正確な入力がなされている際にユーザの邪魔をしないという理由により0.3〜1.0の範囲内の数であることが好ましく、0.4〜0.6の範囲内であることがより好ましく、0.5であることが特に好ましい。   In the example shown in FIG. 12, the width of the selection region 360 is (W: unit cm), the diameter of the circular region is (2R: unit cm), and the proportionality constant is (α: α is a positive number of 1 or less). In this case, the relational expression (2R) = (W) × α is set. Here, although not particularly limited, the proportionality constant α is preferably a number in the range of 0.3 to 1.0 because it does not disturb the user when an accurate input is made. More preferably within the range of 4 to 0.6, particularly preferably 0.5.

上記関係式において比例定数αが0.5のとき、図12に示す場合では、0.5cm(すなわち、選択領域360の幅1cm×0.5)が、円形領域の直径となる。   When the proportionality constant α is 0.5 in the above relational expression, in the case shown in FIG. 12, 0.5 cm (that is, the width of the selection region 360 of 1 cm × 0.5) is the diameter of the circular region.

一方、図13は、図1に記載のデータ表示/センサ装置100の動作のさらに他の一例を模式的に示す図面であり、ユーザが、センサ内蔵液晶パネル301の表示面上を指64でドラッグした場合を表す。なお、この例でも、円形領域の直径は、上記関係式を満たしかつ当該関係式において比例定数αが0.5となるように設定されている。また、表示の便宜上、センサ内蔵液晶パネル301の表示面内にある選択領域360とポインタ361・361’とを、当該表示面外に表記している。   On the other hand, FIG. 13 is a diagram schematically showing still another example of the operation of the data display / sensor device 100 shown in FIG. 1, and the user drags the display surface of the sensor built-in liquid crystal panel 301 with the finger 64. Represents the case. Also in this example, the diameter of the circular region is set so that the above relational expression is satisfied and the proportionality constant α is 0.5 in the relational expression. Further, for the convenience of display, the selection area 360 and the pointers 361 and 361 'within the display surface of the sensor built-in liquid crystal panel 301 are shown outside the display surface.

図13において、指64を手前にドラッグする前は、ユーザは、指64の先端部と腹とでセンサ内蔵液晶パネル301の表示面を選択しており、選択領域360の幅は2cmある。この場合、当該選択領域360の先端部に、直径1cmの円形領域に相当するポインタ361が表示される。   In FIG. 13, before the finger 64 is dragged forward, the user selects the display surface of the sensor built-in liquid crystal panel 301 with the tip and the belly of the finger 64, and the width of the selection region 360 is 2 cm. In this case, a pointer 361 corresponding to a circular area having a diameter of 1 cm is displayed at the tip of the selection area 360.

一方、指64を手前にドラッグした後は、ユーザは指64の先端部のみでセンサ内蔵液晶パネル301の表示面を選択しており、選択領域360’(領域Aに相当)の幅は1cmとなる。この場合、当該選択領域360’の先端部に、直径0.5cmの円形領域(領域Bに相当)に相当するポインタ361’が表示される。   On the other hand, after dragging the finger 64 forward, the user selects the display surface of the sensor built-in liquid crystal panel 301 only with the tip of the finger 64, and the width of the selection area 360 ′ (corresponding to the area A) is 1 cm. Become. In this case, a pointer 361 'corresponding to a circular area (corresponding to the area B) having a diameter of 0.5 cm is displayed at the tip of the selection area 360'.

したがって、図13に示す構成では、選択領域360の幅が長いほど(すなわち、不正確な入力の可能性が高いほど)、入力領域の一部を構成する円形領域が大きくなり、その結果、入力の確からしさを踏まえたより正確な入力操作を実現することができる。   Therefore, in the configuration shown in FIG. 13, the longer the width of the selection region 360 (that is, the higher the possibility of incorrect input), the larger the circular region that constitutes a part of the input region. It is possible to realize a more accurate input operation based on the certainty.

加えて、センサ内蔵液晶パネル301は、円形領域の大きさに対応したポインタ361・361’を表示するので、入力の確からしさをユーザに認識させることができる。すなわち、ユーザは、ポインタ361・361’の大きさが相対的に小さいほど、入力が確からしいと把握することができる。   In addition, the sensor built-in liquid crystal panel 301 displays pointers 361 and 361 'corresponding to the size of the circular area, so that the user can recognize the likelihood of input. That is, the user can grasp that the input is more likely as the pointers 361 and 361 'are relatively smaller.

なお、上記の例示では、領域Bが円形領域である場合のみを説明をしたが、特にこれに限定されない。すなわち、当該領域Bは、対象物により選択された上記領域A(選択領域360・360’に相当)における上記先端側の点(点Pに相当)を中心又は重心とし、かつ最大幅が上記領域Aの幅以下となる領域であればその形状は限定されず、円形以外にも、例えば、楕円形領域;三角形領域;正方形領域、長方形領域などのN角形領域(Nは4以上の整数);角丸N角形(頂点が丸いN角形を指し、Nは3以上の整数である);等であってよい。   In the above example, only the case where the region B is a circular region has been described, but the present invention is not particularly limited thereto. That is, the region B is centered or centered on a point on the tip side (corresponding to the point P) in the region A (corresponding to the selection region 360/360 ′) selected by the object, and the maximum width is the region. The shape is not limited as long as it is an area that is equal to or smaller than the width of A. Besides circular, for example, an elliptical area; a triangular area; an N-gonal area such as a square area or a rectangular area (N is an integer of 4 or more); Rounded N-gon (pointing to N-round with rounded vertices, where N is an integer of 3 or more);

また、本発明において「領域Bの最大幅」とは、領域B内に位置する任意の二点間の距離のうち最大になる長さを指す。例えば、領域Bが円形の場合はその直径が、楕円形の場合はその長軸の長さが最大幅に相当する。また、領域BがN角形(ここでNは3以上の整数)の場合は任意の二つの頂点を結んだ線分のうち最長のものの長さが、最大幅に相当する。また、領域Bが角丸N角形(Nは3以上の整数)の場合は任意の二つの丸い頂点を結んだ線分のうち最長のものの長さが、最大幅に相当する。なお、特に限定されないが、領域Bは、その最大幅が、上記向き検出手段により検出された上記対象物の向きに沿った方向にて測定されるように配されることが好ましい。例えば、領域Bが楕円形状の場合には、その長軸が上記対象物の向きに沿っていることが好ましい。   In the present invention, the “maximum width of the region B” refers to the maximum length of the distance between any two points located in the region B. For example, when the region B is circular, the diameter corresponds to the maximum width, and when the region B is elliptical, the length of the major axis corresponds to the maximum width. When the region B is an N-gon (where N is an integer of 3 or more), the length of the longest line segment connecting two arbitrary vertices corresponds to the maximum width. Further, when the region B is a rounded N-square (N is an integer of 3 or more), the length of the longest line segment connecting two arbitrary round vertices corresponds to the maximum width. In addition, although it does not specifically limit, It is preferable to distribute | arrange the area | region B so that the maximum width may be measured in the direction along the direction of the said target object detected by the said direction detection means. For example, when the region B has an elliptical shape, it is preferable that the major axis thereof is along the direction of the object.

また、以上のように、本発明に係る像検知装置は、近傍に位置する対象物の像を検知する面状部材と、面状部材が検知した対象物の像から当該面状部材に対する対象物の向きを検出する向き検出手段と、面状部材が検知した対象物の像に基づいて、当該対象物により選択された当該面状部材上の領域を検出する選択領域検出手段と、選択領域検出手段が検出した上記領域の、対象物の向きに沿った先端側の点を検出する領域端検出手段と、選択領域検出手段が検出した上記領域の幅を検出する領域幅検出手段と、上記先端側の点を中心とし、かつ直径が上記領域の幅に正比例した円形のポインタを面状部材に表示するポインタ表示手段とを備える構成であってもよい。   In addition, as described above, the image detection device according to the present invention includes a planar member that detects an image of an object located in the vicinity, and an object for the planar member from the image of the object detected by the planar member. Direction detection means for detecting the orientation of the object, selection area detection means for detecting an area on the planar member selected by the object based on the image of the object detected by the planar member, and selection area detection A region end detection unit that detects a point on the tip side of the region detected by the unit along the direction of the object, a region width detection unit that detects a width of the region detected by the selection region detection unit, and the tip A pointer display means for displaying a circular pointer centered on the side point and having a diameter directly proportional to the width of the region on the planar member may be used.

本発明に係る像検知装置は、上記の構成において、円形のポインタの直径が、選択領域検出手段が検出した上記領域の、対象物の向きに沿った先端側の点と後端側の点との間の距離に正比例するものであってもよい。   In the image detection device according to the present invention, in the configuration described above, the diameter of the circular pointer has a point on the front end side and a point on the rear end side along the direction of the object in the region detected by the selection region detection unit. May be directly proportional to the distance between.

(プログラムおよび記録媒体)
最後に、データ表示/センサ装置100に含まれている回路制御部600、データ処理部700、および主制御部800は、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Program and recording medium)
Finally, the circuit control unit 600, the data processing unit 700, and the main control unit 800 included in the data display / sensor device 100 may be configured by hardware logic. Alternatively, it may be realized by software using a CPU (Central Processing Unit) as follows.

すなわち、回路制御部600、データ処理部700および主制御部800は、各機能を実現するプログラムの命令を実行するMPUなどのCPU、このプログラムを格納したROM(Read Only Memory)、上記プログラムを実行可能な形式に展開するRAM(Random Access Memory)、および、上記プログラムおよび各種データを格納するメモリなどの記憶装置(記録媒体)を備えている。   That is, the circuit control unit 600, the data processing unit 700, and the main control unit 800 are a CPU such as an MPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, and executes the program. A RAM (Random Access Memory) that expands into a possible format and a storage device (recording medium) such as a memory that stores the program and various data are provided.

そして、本発明の目的は、回路制御部600、データ処理部700および主制御部800のプログラムメモリに固定的に担持されている場合に限らず、上記プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、または、ソースプログラム)を記録した記録媒体をデータ表示/センサ装置100に供給し、データ表示/センサ装置100が上記記録媒体に記録されている上記プログラムコードを読み出して実行することによっても、達成可能である。   The object of the present invention is not limited to the case where the program memory of the circuit control unit 600, the data processing unit 700, and the main control unit 800 is fixedly supported, but the program code of the above program (execution format program, intermediate code) Also, a recording medium in which a program or a source program is recorded is supplied to the data display / sensor device 100, and the data display / sensor device 100 reads and executes the program code recorded in the recording medium. Achievable.

上記記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープなどのテープ系、フロッピー(登録商標)ディスク/ハードディスクなどの磁気ディスクやCD−ROM/MO/MD/DVD/CD−Rなどの光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カードなどのカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROMなどの半導体メモリ系などとすることができる。   The recording medium is not limited to a specific structure or type. That is, the recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. System, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM.

また、回路制御部600、データ処理部700および主制御部800(またはデータ表示/センサ装置100)を通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して回路制御部600、データ処理部700および主制御部800に供給する。この通信ネットワークは回路制御部600、データ処理部700および主制御部800にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえばインターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網などであればよい。   The object of the present invention can be achieved even if the circuit control unit 600, the data processing unit 700, and the main control unit 800 (or the data display / sensor device 100) are configured to be connectable to a communication network. In this case, the program code is supplied to the circuit control unit 600, the data processing unit 700, and the main control unit 800 via the communication network. The communication network only needs to be able to supply program codes to the circuit control unit 600, the data processing unit 700, and the main control unit 800, and is not limited to a specific type or form. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, etc. may be used.

この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえばIEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線などの有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網などの無線でも利用可能である。なお本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), 802.11 wireless, HDR, mobile phone It can also be used by radio such as a telephone network, a satellite line, and a terrestrial digital network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

以上、本発明を実施形態に基づいて具体的に説明したが、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲において種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention has been specifically described above based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and different implementations are possible. Embodiments obtained by appropriately combining the technical means disclosed in each form are also included in the technical scope of the present invention.

本発明は、各種情報機器において利用することができる。   The present invention can be used in various information devices.

本発明の一実施形態に係るデータ表示/センサ装置の外観を模式的に示す図である。It is a figure which shows typically the external appearance of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置の動作の一例を模式的に示す図である。It is a figure which shows typically an example of operation | movement of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 図4(a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図4(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 4A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image on the sensor-equipped liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. is there. FIG. 4B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image on the sensor-embedded liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. . 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows typically an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図6に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in the command shown in FIG. 6, and its outline. 図8(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図8(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。FIG. 8A is obtained as a result of scanning the entire liquid crystal panel with built-in sensor when the object is not placed on the liquid crystal panel with built-in sensor in the data display / sensor device according to one embodiment of the present invention. Image data. FIG. 8B shows image data obtained as a result of scanning when the user touches the sensor built-in liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. 本発明の一実施形態に係るデータ表示/センサ装置の構成を主制御部および記憶部を中心に示すブロック図である。It is a block diagram which shows the structure of the data display / sensor apparatus which concerns on one Embodiment of this invention centering on a main-control part and a memory | storage part. 本発明の一実施形態に係るデータ表示/センサ装置の動作の一例を説明するフローチャートである。It is a flowchart explaining an example of operation | movement of the data display / sensor apparatus which concerns on one Embodiment of this invention. 図12は、指が右側から進入した場合における本発明に係るデータ表示/センサ装置の動作の例を模式的に説明する図である。FIG. 12 is a diagram schematically illustrating an example of the operation of the data display / sensor device according to the present invention when a finger enters from the right side. 図13は、指をドラッグした場合における当該データ表示/センサ装置の動作の例を模式的に説明する図である。FIG. 13 is a diagram schematically illustrating an example of the operation of the data display / sensor device when a finger is dragged.

符号の説明Explanation of symbols

6 フォトダイオード
12 選択領域検出部(選択領域検出手段)
14 向き検出部(向き検出手段)
15 入力領域認識部(入力領域認識手段)
16 選択領域端・領域幅検出部(領域端検出手段、領域幅検出手段)
64 指(対象物)
100 データ表示/センサ装置(像検知装置)
301 センサ内蔵液晶パネル(面状部材)
350 入力キー
360 選択領域(対象物により選択された面状部材上の領域)
360a 領域端点(先端側の点)
360b 領域端点(後端側の点)
361 ポインタ
6 Photodiode 12 Selection area detector (selection area detection means)
14 Direction detection unit (direction detection means)
15 Input area recognition unit (input area recognition means)
16 Selection area edge / area width detection unit (area edge detection means, area width detection means)
64 fingers (object)
100 Data display / sensor device (image detection device)
301 Liquid crystal panel with built-in sensor (planar member)
350 Input key 360 Selection area (area on the planar member selected by the object)
360a Area end point (point on the tip side)
360b Area end point (point on the rear end side)
361 pointer

Claims (8)

近傍に位置する対象物の像を検知する面状部材と、
上記面状部材が検知した対象物の像から当該面状部材に対する対象物の向きを検出する向き検出手段と、
上記面状部材が検知した対象物の像に基づいて、当該対象物により選択された当該面状部材上の領域Aを検出する選択領域検出手段と、
上記選択領域検出手段が検出した上記領域Aの、上記対象物の向きに沿った先端側の点と後端側の点とを検出する領域端検出手段と、
上記先端側の点と後端側の点との間の距離を、上記領域Aの幅として検出する領域幅検出手段と、
上記先端側の点を中心又は重心とし、かつ最大幅が上記領域Aの幅以下となる領域Bと、対象物により選択された上記領域Aとを合わせて、上記面状部材に対する入力領域として認識する入力領域認識手段と、
を備えることを特徴とする像検知装置。
A planar member for detecting an image of an object located in the vicinity;
Orientation detecting means for detecting the orientation of the object relative to the planar member from the image of the object detected by the planar member;
Selection area detecting means for detecting an area A on the planar member selected by the object based on the image of the object detected by the planar member;
Area edge detection means for detecting a point on the front end side and a point on the rear end side along the direction of the object in the area A detected by the selection area detection means;
Area width detecting means for detecting the distance between the front end point and the rear end point as the width of the area A;
The region B having the point on the tip side as the center or the center of gravity and the maximum width equal to or less than the width of the region A and the region A selected by the object are recognized as an input region for the planar member. Input area recognition means for
An image detection apparatus comprising:
前記領域Bの最大幅が、前記領域Aの幅に正比例して変動することを特徴とする請求項1に記載の像検知装置。   The image detection apparatus according to claim 1, wherein the maximum width of the region B varies in direct proportion to the width of the region A. 前記面状部材に複数の入力キーが設けられており、
前記領域Bの最大幅が、隣接する入力キーのキーピッチ以下であることを特徴とする請求項1又は2に記載の像検知装置。
A plurality of input keys are provided on the planar member,
The image detection apparatus according to claim 1, wherein a maximum width of the region B is equal to or less than a key pitch of adjacent input keys.
前記面状部材が画像を表示する機能をさらに有し、前記領域Bを示すポインタを当該面状部材に表示することを特徴とする請求項1から3の何れか一項に記載の像検知装置。   4. The image detection apparatus according to claim 1, wherein the planar member further has a function of displaying an image, and a pointer indicating the region B is displayed on the planar member. 5. . 前記領域Bが、上記先端側の点を中心とし、かつ直径が上記領域Aの幅以下の円形領域であることを特徴とする請求項1から4の何れか一項に記載の像検知装置。   5. The image detection apparatus according to claim 1, wherein the region B is a circular region whose center is the point on the tip side and whose diameter is equal to or smaller than the width of the region A. 6. 前記面状部材が、当該面状部材上の各位置における受光量を検出するフォトダイオード群を備え、当該フォトダイオード群が検出した受光量の変化に基づいて上記近傍の像を検知することを特徴とする請求項1から5の何れか一項に記載の像検知装置。   The planar member includes a photodiode group that detects the amount of light received at each position on the planar member, and detects the image in the vicinity based on a change in the amount of received light detected by the photodiode group. An image detection apparatus according to any one of claims 1 to 5. 請求項1から6のいずれか一項に記載の像検知装置を動作させるプログラムであって、コンピュータを上記の各手段として機能させるための、プログラム。   A program for operating the image detection apparatus according to any one of claims 1 to 6, wherein the program causes a computer to function as each of the above means. 近傍に位置する対象物の像を検知する面状部材を備えてなる像検知装置における入力領域の認識方法であって、
上記面状部材が検知した対象物の像から当該面状部材に対する対象物の向きを検出する向き検出工程と、
上記面状部材が検知した対象物の像に基づいて、当該対象物により選択された当該面状部材上の領域Aを検出する選択領域検出工程と、
上記選択領域検出工程にて検出した上記領域Aの、上記対象物の向きに沿った先端側の点と後端側の点とを検出する領域端検出工程と、
上記先端側の点と後端側の点との間の距離を、上記領域Aの幅として検出する領域幅検出工程と、
上記先端側の点を中心又は重心とし、かつ最大幅が上記領域Aの幅以下となる領域Bと、対象物により選択された上記領域Aとを合わせて、上記面状部材に対する入力領域として認識する入力領域認識工程と、
を含むことを特徴とする入力領域の認識方法。
A method for recognizing an input area in an image detection apparatus comprising a planar member for detecting an image of an object located in the vicinity,
An orientation detection step of detecting the orientation of the object relative to the planar member from the image of the object detected by the planar member;
A selection area detecting step of detecting an area A on the planar member selected by the object based on an image of the object detected by the planar member;
A region end detection step of detecting a point on the front end side and a point on the rear end side along the direction of the object in the region A detected in the selection region detection step;
A region width detection step of detecting the distance between the tip end point and the rear end point as the width of the region A;
The region B having the point on the tip side as the center or the center of gravity and the maximum width equal to or less than the width of the region A and the region A selected by the object are recognized as an input region for the planar member. An input area recognition process to perform,
An input region recognition method comprising:
JP2008299624A 2008-11-25 2008-11-25 Image detection device, recognition method for input region, and program Pending JP2010128566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008299624A JP2010128566A (en) 2008-11-25 2008-11-25 Image detection device, recognition method for input region, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008299624A JP2010128566A (en) 2008-11-25 2008-11-25 Image detection device, recognition method for input region, and program

Publications (1)

Publication Number Publication Date
JP2010128566A true JP2010128566A (en) 2010-06-10

Family

ID=42328942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008299624A Pending JP2010128566A (en) 2008-11-25 2008-11-25 Image detection device, recognition method for input region, and program

Country Status (1)

Country Link
JP (1) JP2010128566A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015527662A (en) * 2012-07-30 2015-09-17 フェイスブック,インク. Methods, storage media and systems, particularly with respect to touch gesture offsets
JP2019211859A (en) * 2018-05-31 2019-12-12 株式会社東海理化電機製作所 Display input device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015527662A (en) * 2012-07-30 2015-09-17 フェイスブック,インク. Methods, storage media and systems, particularly with respect to touch gesture offsets
JP2016186808A (en) * 2012-07-30 2016-10-27 フェイスブック,インク. Method, storage medium, and system on touch gesture offset, especially
US9753574B2 (en) 2012-07-30 2017-09-05 Facebook, Inc. Touch gesture offset
JP2019211859A (en) * 2018-05-31 2019-12-12 株式会社東海理化電機製作所 Display input device
JP7005429B2 (en) 2018-05-31 2022-02-04 株式会社東海理化電機製作所 Display input device

Similar Documents

Publication Publication Date Title
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
JP2010140300A (en) Display, control method, control program and recording medium
WO2011102038A1 (en) Display device with touch panel, control method therefor, control program, and recording medium
WO2011052261A1 (en) Pointing device
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
WO2010100798A1 (en) Display device, television receiver, and pointing system
JP2010122972A (en) Image display/detection device, selection method, and program
JP5306780B2 (en) Input device
JP2010109467A (en) Image display/image detection apparatus
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010204945A (en) Input device and input method
JP2010123082A (en) Display device, control method of the same, display device control program, and computer readable recording medium recording the program
JP2010117841A (en) Image detection device, recognition method of input position and program
JP2010128566A (en) Image detection device, recognition method for input region, and program
JP2010122383A (en) Display apparatus
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
WO2011121842A1 (en) Display device with input unit, control method for same, control program and recording medium
JP2010160689A (en) Input device and method of controlling the same
JP2010109947A (en) Processing execution command device, electronic equipment, and method of controlling processing execution command device
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
WO2010050567A1 (en) Data transmission support device, electronic equipment and data transmission support device control method
JP2010119064A (en) Color detection device, color detection program, computer readable recording medium, and color detection method
JP2010108446A (en) Information processor, control method of information processor, and information processing program