JP2010146506A - Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device - Google Patents

Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device Download PDF

Info

Publication number
JP2010146506A
JP2010146506A JP2008326274A JP2008326274A JP2010146506A JP 2010146506 A JP2010146506 A JP 2010146506A JP 2008326274 A JP2008326274 A JP 2008326274A JP 2008326274 A JP2008326274 A JP 2008326274A JP 2010146506 A JP2010146506 A JP 2010146506A
Authority
JP
Japan
Prior art keywords
image
display
finger
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008326274A
Other languages
Japanese (ja)
Other versions
JP2010146506A5 (en
Inventor
Kazuhiro Ishida
一宏 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008326274A priority Critical patent/JP2010146506A/en
Publication of JP2010146506A publication Critical patent/JP2010146506A/en
Publication of JP2010146506A5 publication Critical patent/JP2010146506A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device with high convenience and operability for users. <P>SOLUTION: The device is provided with: a detection determination part 810 which determines whether both of a first displaying/photosensing part 300A and a second displaying/photosensing part 300B have detected the images of fingers; and an input detection part 830 which when the detection determination part 810 has determined that both of the first displaying/photosensing part 300A and the second displaying/photosensing part 300B have detected the images of the fingers, detects the movement of the images of the fingers detected respectively by the first displaying/photosensing part 300A and the second displaying/photosensing part 300B and generates input signals associated with the movement of the images of the fingers. By causing the first displaying/photosensing part 300A and the second displaying/photosensing part 300B to detect the movement of the images of the fingers, the user experiences various and three-dimensional operations which cannot be realized by a conventional input device. Moreover, such operations provide excellent availability and operation ability. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、二つの入力面から入力する入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置に関する。   The present invention relates to an input device that inputs from two input surfaces, an input device control method, an input device control program, a computer-readable recording medium, and an information terminal device.

近年、タッチパネル式の入力装置が、携帯電話機、PDAなどに代表されるモバイル機器(携帯端末)において広く普及している。その一例として、入力面に対して、指が接触していない状態から、接触している状態に変化したときに、接触した指の位置に応じた入力が行われる入力装置が知られている(例えば、特許文献1)。   2. Description of the Related Art In recent years, touch panel type input devices are widely used in mobile devices (portable terminals) represented by mobile phones, PDAs and the like. As an example, there is known an input device that performs input according to the position of the touched finger when the input surface changes from a state where the finger is not in contact to a state where the finger is in contact ( For example, Patent Document 1).

また、単にタッチパネル式で入力を受け付けるのみならず、用途に応じて、より便利な入力が可能な入力装置が提案されている。例えば、携帯用端末機器において、ユーザは、表示画面上のアイコンに指を接触させて、次にアイコンを移動させたい方向にその指を動かすことにより、そのアイコンを表示画面中の好みの位置に移動させることができる。さらに、表示画面上のフォルダを指でダブルクリックすることにより、そのフォルダを開けることもできる(例えば、特許文献2)。
特開2008−141519号公報(平成20年6月19日公開) 特開平11−39093号公報(平成11年2月12日公開)
In addition, input devices that allow more convenient input depending on applications as well as accepting input simply by a touch panel type have been proposed. For example, in a portable terminal device, a user touches an icon on the display screen and then moves the finger in the direction in which the icon is to be moved, so that the icon is moved to a desired position on the display screen. Can be moved. Further, the folder can be opened by double-clicking the folder on the display screen with a finger (for example, Patent Document 2).
JP 2008-141519 A (published June 19, 2008) JP 11-39093 A (published on February 12, 1999)

しかしながら、上記従来の入力装置は、何れも一つの入力面から入力する方式(以下、一面入力式とする)であって、裏表両面に配設された二つの入力面から入力する方式(以下、両面入力式とする)の入力装置は、そもそも存在しなかった。   However, each of the conventional input devices is a method of inputting from one input surface (hereinafter referred to as a single-sided input method), and a method of inputting from two input surfaces arranged on the front and back surfaces (hereinafter referred to as a single-sided input method). In the first place, there was no input device of a double-sided input type.

従って、ユーザは、両面入力式の入力装置によって実現される多彩で立体的な操作と、その優れた利便性及び操作性を、従来の一面入力式の入力装置では経験することができなかった。   Therefore, the user cannot experience the various three-dimensional operations realized by the double-sided input type input device and the excellent convenience and operability of the conventional single-sided input type input device.

さらに、従来の入力装置には次のような問題があった。つまり、一面入力式の入力装置では、ユーザが気付かないうちに意図しない操作が行われる可能性を排除できない。具体的には、ユーザの指がタッチパネル上のアイコンに無意識のうちに接触し、アイコンを表示画面上のどこか別の場所にドラッグしてしまうことがある。そのドラッグした先がゴミ箱フォルダであった場合には、そのアイコンは、ユーザの知らない間に消去されてしまうという事態に陥る。このように、従来の入力装置には、一つの入力面から入力を行うことによって生じる固有の問題もあった。   Further, the conventional input device has the following problems. That is, in the one-side input type input device, the possibility that an unintended operation is performed without the user's knowledge cannot be excluded. Specifically, the user's finger may unintentionally touch the icon on the touch panel and drag the icon to somewhere else on the display screen. If the dragged destination is a trash folder, the icon is deleted without the user's knowledge. As described above, the conventional input device also has an inherent problem caused by inputting from one input surface.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザにとって利便性及び操作性の高い入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an input device that is convenient and easy to operate for a user, an input device control method, an input device control program, and a computer-readable recording. It is to provide a medium and an information terminal device.

本発明の入力装置は、前記課題を解決するために、近傍の像を検知する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、前記表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定手段と、前記検知判定手段が、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出手段と、を備えることを特徴としている。   In order to solve the above problems, the input device according to the present invention is a plate-like input device in which surface members for detecting nearby images are arranged on both the front and back surfaces, and the surface members on both the front and back surfaces. Detecting and determining means for determining whether or not both of the finger images have been detected, and when the detection determining means determines that both of the surface members on both the front and back surfaces have detected finger images, And an input detection means for generating an input signal associated with the movement of the finger image detected by each of the planar members.

また、本発明の入力装置の制御方法は、近傍の像を検知する面状部材が、表裏両面にそれぞれ配設された板状の入力装置の制御方法であって、前記表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定ステップと、前記検知判定ステップによって、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出ステップと、を含むことを特徴としている。   The input device control method of the present invention is a plate-like input device control method in which the planar members for detecting a nearby image are arranged on both the front and back surfaces, and the planar members on both the front and back surfaces. And both of the front and back sides when it is determined by the detection and judgment step that both the front and back surface members have detected finger images. And an input detection step of generating an input signal associated with the movement of the finger image by detecting the movement of the finger image detected by each of the planar members.

これにより、本発明に係る入力装置および入力装置の制御方法では、表裏両面にそれぞれ配設された近傍の像を検知する面状部材が共に指の像を検知した場合に、指の像の動きに対応付けられた入力信号が入力検出手段によって生成される。そして、その入力信号は、表裏両面の面状部材が検知した指の像の動きに対応付けられた信号である。   Thereby, in the input device and the control method of the input device according to the present invention, the movement of the finger image is detected when both of the planar members that detect the adjacent images respectively disposed on the front and back surfaces detect the finger image. An input signal associated with is generated by the input detection means. The input signal is a signal associated with the movement of the finger image detected by the planar members on both the front and back surfaces.

従って、表裏両面の面状部材が様々な指の像の動きを検出することによって、従来の入力装置では実現できなかった多彩で立体的な操作が行われ、また、そのような操作によって、優れた利便性及び操作性がユーザに提供される。しかも板状の入力装置の裏表両面から画面を指で挟持するように操作するため、ユーザは、極めて容易に当該装置を使用することができる。   Therefore, the surface members on both the front and back sides detect various finger image movements, and thus various and three-dimensional operations that cannot be realized with conventional input devices are performed. Convenience and operability are provided to the user. In addition, since the operation is performed so that the screen is sandwiched between the front and back surfaces of the plate-like input device with a finger, the user can use the device very easily.

加えて、表裏両面の面状部材のうち何れか一方の面状部材が指の像を検知しただけでは、その指の像の動きに対応付けられた入力信号が生成されることはない。そのため、例えばユーザの指がタッチパネル上のアイコンに無意識のうちに接触しても、その指の像が検知されて入力信号が生成され、何らかの処理が実行されてしまうという事態を回避することができる。それゆえ、入力面に誤って触って、意図せず操作してしまうリスクが軽減される。   In addition, if only one of the planar members on both the front and back sides detects the finger image, an input signal associated with the movement of the finger image is not generated. Therefore, for example, even when a user's finger unintentionally touches an icon on the touch panel, a situation in which an image of the finger is detected and an input signal is generated and some processing is executed can be avoided. . Therefore, the risk of accidentally touching the input surface and operating it unintentionally is reduced.

このように、本発明に係る入力装置および入力装置の制御方法は、優れた操作性及び利便性をユーザに提供することができる。   Thus, the input device and the control method for the input device according to the present invention can provide the user with excellent operability and convenience.

さらに、本発明に係る入力装置では、前記の構成において、前記入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、前記入力信号に対応する命令を、前記動作実行装置に送信する動作制御手段を備える構成としてもよい。   Furthermore, in the input device according to the present invention, in the above-described configuration, the input signal is based on finger-command correspondence information in which the input signal is associated with a command for causing the operation execution device to execute a predetermined operation. It is good also as a structure provided with the operation control means which transmits the instruction | command corresponding to to the said operation execution apparatus.

前記の構成によれば、本発明に係る入力装置では、入力検出手段が、表裏両面の面状部材が共に指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する。そして、前記入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、入力信号に対応付けられた命令が動作実行装置に送信され、動作実行装置がその命令に従って所定の動作を実行する。   According to the above configuration, in the input device according to the present invention, the input detection unit detects the movement of the finger image on both the front and back surface members, and inputs corresponding to the movement of the finger image. Generate a signal. Then, based on the finger-command correspondence information in which the input signal is associated with a command for causing the motion execution device to execute a predetermined motion, the command associated with the input signal is transmitted to the motion execution device, The operation execution device executes a predetermined operation in accordance with the instruction.

従って、表裏両面の面状部材が様々な指の像の動きを検出することによって、動作実行装置は、ユーザが所望する動作を実行することができる。   Therefore, when the planar members on both the front and back surfaces detect the movements of various finger images, the operation executing device can execute the operation desired by the user.

なお、動作実行装置は、1つであっても複数であってもよく、また入力装置と一体に構成されていてもよく、さらに入力装置から物理的に離れた位置に存在していてもよい。   Note that there may be one or a plurality of operation execution devices, the operation execution devices may be integrated with the input device, or may be present at a position physically separated from the input device. .

さらに、本発明に係る入力装置では、前記の構成において、前記入力検出手段は、前記表裏両面の面状部材が、該表裏両面の面状部材上の所定の領域において指の像を検知した場合に、前記入力信号を生成する構成としてもよい。   Furthermore, in the input device according to the present invention, in the configuration described above, the input detection unit may detect the image of the finger in a predetermined region on the front and back surface members on the front and back surfaces. In addition, the input signal may be generated.

前記の構成によれば、本発明に係る入力装置では、入力検出手段が、表裏両面の面状部材上の所定の領域において指の像を検知した場合に入力信号を生成し、表裏両面の面状部材上の前記所定の領域とは異なる他の領域に指がタッチした場合には入力信号を生成しない。このようにして、入力検出手段は、表裏両面の面状部材上の操作領域を制限することができる。   According to the above configuration, in the input device according to the present invention, the input detection unit generates an input signal when detecting an image of a finger in a predetermined area on the surface member on both the front and back surfaces, and the surfaces on both the front and back surfaces. When the finger touches another area different from the predetermined area on the member, no input signal is generated. In this way, the input detection means can limit the operation area on the front and back surface members.

従って、ユーザは、表裏両面の面状部材上の前記所定の領域とは異なる他の領域に指をタッチしても、入力信号が生成されて入力面に誤って操作してしまう事態を回避することができる。また、ユーザにとって操作しやすい領域に前記所定の領域が設定されることにより、本発明に係る入力装置は、さらに優れた操作性及び利便性をユーザに提供することができる。   Therefore, even if the user touches another area different from the predetermined area on the surface member on both the front and back surfaces, the situation where the input signal is generated and the input surface is erroneously operated is avoided. be able to. In addition, by setting the predetermined area as an area that is easy for the user to operate, the input device according to the present invention can provide the user with better operability and convenience.

さらに、本発明に係る入力装置では、前記表裏両面の面状部材において、前記所定の領域に画像を表示させる画像表示制御手段を備え、前記入力検出手段は、前記画像に対応付けられた前記入力信号を生成する構成としてもよい。   Furthermore, the input device according to the present invention further comprises image display control means for displaying an image in the predetermined area on the surface members on both the front and back surfaces, and the input detection means includes the input associated with the image. It is good also as a structure which produces | generates a signal.

前記の構成によれば、本発明に係る入力装置では、画像表示制御手段が所定の領域に画像を表示する。また、入力検出手段は、所定の領域において指の像が検知された場合に、当該画像に対応付けられた入力信号を生成する。   According to the above configuration, in the input device according to the present invention, the image display control means displays an image in a predetermined area. Further, when a finger image is detected in a predetermined area, the input detection unit generates an input signal associated with the image.

つまり、画像表示制御手段が画像を表示することによって操作可能な範囲(操作対象)がユーザに明示され、ユーザは、当該画像を裏表両面から指で挟持することにより、前記動作実行装置に所定の動作を実行させることができる。   In other words, the range (operation target) that can be operated by displaying an image by the image display control means is clearly indicated to the user, and the user holds the image with the finger from both the front and back sides, thereby allowing the operation execution apparatus to have a predetermined range. The action can be executed.

それとは逆に、入力検出手段は、表裏両面の面状部材上の画像が表示された領域とは異なる他の領域に指がタッチした場合であっても、入力信号を生成することはない。それゆえ、当該画像が表示されている所定の領域とは異なる領域を誤って触って、意図せず操作してしまうという事態を回避できる。   On the other hand, the input detection means does not generate an input signal even when the finger touches another area different from the area where the images on the front and back planar members are displayed. Therefore, it is possible to avoid a situation in which a region different from the predetermined region where the image is displayed is accidentally touched and the operation is performed unintentionally.

さらに、本発明に係る入力装置では、前記の構成において、前記画像表示制御手段は、前記動作実行装置が実行した前記所定の動作の結果に基づく画像を、前記面状部材に表示させる構成としてもよい。   Furthermore, in the input device according to the present invention, in the configuration described above, the image display control unit may display an image based on a result of the predetermined operation executed by the operation execution device on the planar member. Good.

前記の構成によれば、本発明に係る入力装置では、画像表示制御手段は、前記動作実行装置が実行した前記所定の動作の結果に基づく画像を前記面状部材に表示させる。   According to the above configuration, in the input device according to the present invention, the image display control means causes the planar member to display an image based on the result of the predetermined operation executed by the operation execution device.

従って、画像表示制御手段は、ユーザの指の動きに対応付けられて実行された動作の結果を画面上に表示して、その結果をユーザに確認させることができる。   Therefore, the image display control means can display the result of the operation executed in association with the movement of the user's finger on the screen and allow the user to confirm the result.

なお、その動作後の画像に対してさらに何らかの動作を与えたいときは、前記表裏両面の面状部材に対して所望の指の像の動きを検出させればよい。つまり、ユーザは、動作の結果を画面上で確認することにより、次の動作を連続的に行うことができる。   In addition, when it is desired to give some operation to the image after the operation, a desired movement of the finger image may be detected by the planar members on both the front and back surfaces. That is, the user can continuously perform the next operation by checking the operation result on the screen.

なお、前記入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記各手段として動作させることにより前記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。また、前記の入力装置を備えた情報端末装置も、本発明の範疇に入る。   The input device may be realized by a computer. In this case, an input device control program for causing the input device to be realized by a computer by causing the computer to operate as the respective means, and the program recorded therein. Computer-readable recording media are also within the scope of the present invention. An information terminal device provided with the input device also falls within the scope of the present invention.

本発明に係る入力装置は、以上のように、表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定手段と、前記検知判定手段が、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出手段と、を備える構成である。   In the input device according to the present invention, as described above, the detection determination means for determining whether or not the surface members on both the front and back surfaces have both detected the image of the finger, and the detection determination means include the surfaces on both the front and back surfaces. When it is determined that the finger-like member has detected the finger image, the movement of the finger image detected by the front and back surface members is detected, and an input signal associated with the finger image movement is detected. And an input detection means for generating.

また、本発明に係る入力装置の制御方法は、以上のように、前記表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定ステップと、前記検知判定ステップによって、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出ステップと、を含む構成である。   In addition, as described above, the control method of the input device according to the present invention includes the detection determination step for determining whether or not the surface members on both the front and back surfaces have both detected a finger image, and the detection determination step. When it is determined that both the front and back planar members have detected a finger image, the movement of the finger image detected by each of the front and rear planar members is detected, and the movement of the finger image is detected. And an input detection step for generating an associated input signal.

それゆえ、二つの入力面から入力する、操作性及び利便性に優れた入力装置および入力装置の制御方法をユーザに提供することができる。   Therefore, it is possible to provide the user with an input device that is input from two input surfaces and has excellent operability and convenience, and an input device control method.

本実施の形態について図1〜図27に基づいて説明すると以下の通りである。   This embodiment will be described below with reference to FIGS.

本実施の形態に係るデータ表示/センサ装置100(入力装置)は、概略的に言えば、近傍の像を検知する第1表示/光センサ部300A、及び第2表示/光センサ部300B(表裏両面の面状部材)が表裏両面にそれぞれ配設されており、第1表示/光センサ部300A、及び第2表示/光センサ部300Bが、共に指の像を検知したか否かを判定する検知判定部810(検知判定手段)と、検知判定部810が、第1表示/光センサ部300A、及び第2表示/光センサ部300Bが共に指の像を検知したと判定した場合に、第1表示/光センサ部300A、及び第2表示/光センサ部300Bがそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出部830(入力検出手段)と、を備える装置である。   Generally speaking, the data display / sensor device 100 (input device) according to the present embodiment roughly includes a first display / light sensor unit 300A and a second display / light sensor unit 300B (front and back) that detect nearby images. The first display / light sensor unit 300A and the second display / light sensor unit 300B both determine whether or not a finger image has been detected. When the detection determination unit 810 (detection determination unit) and the detection determination unit 810 determine that the first display / light sensor unit 300A and the second display / light sensor unit 300B both detect the image of the finger, An input detection unit that detects the movement of the finger image detected by each of the first display / light sensor unit 300A and the second display / light sensor unit 300B and generates an input signal associated with the movement of the finger image. 830 (input detection means) It is obtain equipment.

そこで、まず、データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   First, an outline of the sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 will be described.

(センサ内蔵液晶パネルの概要)
前記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、前記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図4を参照しながら、前記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、表示/光センサ部300を2つ(第1表示/光センサ部300Aおよび第2表示/光センサ部300B)備えているものとして説明する。なお、第1表示/光センサ部300Aおよび第2表示/光センサ部300Bを区別しないときは、表示/光センサ部300と表記する。
(Data display / sensor configuration)
Next, the configuration of the main part of the data display / sensor device 100 will be described with reference to FIG. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, the data display / sensor device 100 will be described as including two display / light sensor units 300 (first display / light sensor unit 300A and second display / light sensor unit 300B). When the first display / light sensor unit 300A and the second display / light sensor unit 300B are not distinguished, they are referred to as the display / light sensor unit 300.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置でdfある。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called light sensor built-in liquid crystal display device and has a df. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、前記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、前記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行わせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、前記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” designates that the latest data is transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、前記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、前記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits the extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、前記代表座標とは、例えば、前記部分画像データの中心の座標、前記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、前記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、前記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” designates that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、「スキャンパネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aの光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   When the sensor data processing unit 703 receives a command whose “scan panel” field value is “first display / photosensor unit 300A”, the sensor data processing unit 703 and the photosensor drive circuit 305 of the first display / photosensor unit 300A and An instruction is given to the sensor control unit 602 and the backlight control unit 603 so as to control the backlight drive circuit 308.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「表示パネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “display panel” field, for example, values of “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aに表示データを表示させるために、第1表示/光センサ部300Aの液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is “first display / light sensor unit 300A”, the display data processing unit 701 displays the display data on the first display / light sensor unit 300A. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the first display / light sensor unit 300A.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、前記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。
〔実施の形態1〕
本発明の主な特徴は、データ表示/センサ装置100では、近傍の像を検知する第1表示/光センサ部300A、及び第2表示/光センサ部300Bが表裏両面にそれぞれ配設されており、第1表示/光センサ部300A、及び第2表示/光センサ部300Bが、共に指の像を検知したか否かを判定する検知判定部810と、検知判定部810が第1表示/光センサ部300A、及び第2表示/光センサ部300Bが共に指の像を検知したと判定した場合に、第1表示/光センサ部300A、及び第2表示/光センサ部300Bがそれぞれ検知した指の像の動きを検出して入力信号を生成する入力検出部830と、を備える点にある。
The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).
[Embodiment 1]
The main feature of the present invention is that in the data display / sensor device 100, the first display / light sensor unit 300A and the second display / light sensor unit 300B for detecting a nearby image are arranged on both the front and back surfaces. The first display / light sensor unit 300A and the second display / light sensor unit 300B both detect whether or not a finger image is detected, and the detection determination unit 810 detects the first display / light. Fingers detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B when it is determined that both the sensor unit 300A and the second display / light sensor unit 300B have detected a finger image. And an input detection unit 830 for generating an input signal by detecting the movement of the image.

これにより、データ表示/センサ装置100では、表裏両面に配設された第1表示/光センサ部300A、及び第2表示/光センサ部300Bが共に指の像を検知した場合に、入力検出部830が入力信号を生成する。   Thereby, in the data display / sensor device 100, when both the first display / light sensor unit 300A and the second display / light sensor unit 300B arranged on both the front and back surfaces detect the finger image, the input detection unit 830 generates an input signal.

従って、第1表示/光センサ部300A、あるいは第2表示/光センサ部300Bの一方のみが指の像を検出しても、それにより入力信号が生成されることはない。それゆえ、データ表示/センサ装置100は、第1表示/光センサ部300A、及び第2表示/光センサ部300Bが様々な指の像の動きを検出することにより、従来の入力装置では実現できなかった多彩で立体的な操作を可能とする。また、データ表示/センサ装置100は、そのような操作によって優れた利便性及び操作性をユーザに提供する。   Therefore, even if only one of the first display / light sensor unit 300A or the second display / light sensor unit 300B detects the image of the finger, no input signal is generated thereby. Therefore, the data display / sensor device 100 can be realized by a conventional input device by the first display / light sensor unit 300A and the second display / light sensor unit 300B detecting movements of various finger images. Various and three-dimensional operations that were not possible are possible. Further, the data display / sensor device 100 provides the user with excellent convenience and operability by such an operation.

さらに、データ表示/センサ装置100では、ユーザの指がタッチパネル上のアイコンに無意識のうちに接触して、アイコンを表示画面上のどこか別の場所にドラッグしてしまうといった事態を避けることができる。従って、第1表示/光センサ部300A、及び第2表示/光センサ部300Bという二つの入力面からの入力により入力信号が生成されるため、第1表示/光センサ部300A、及び第2表示/光センサ部300Bに対して誤って操作してしまうリスクが軽減される。
(データ表示/センサ装置の動作説明)
実施の形態1に係るデータ表示/センサ装置100について、図1、図9〜図18、図28〜図30を参照して説明する。
Furthermore, in the data display / sensor device 100, it is possible to avoid a situation in which the user's finger unintentionally touches the icon on the touch panel and drags the icon to somewhere else on the display screen. . Accordingly, an input signal is generated by input from the two input surfaces of the first display / light sensor unit 300A and the second display / light sensor unit 300B, and thus the first display / light sensor unit 300A and the second display. / The risk of operating the optical sensor unit 300B by mistake is reduced.
(Description of data display / sensor device operation)
The data display / sensor device 100 according to the first embodiment will be described with reference to FIGS. 1, 9 to 18, and 28 to 30.

なお、まず最初に、データ表示/センサ装置100が実行する種々の動作の具体例を図9〜図18を参照して説明する。次に、データ表示/センサ装置100の構成を図1を参照して説明する。そして、種々の動作を実現する処理の流れを図20を参照して説明する。   First, specific examples of various operations performed by the data display / sensor device 100 will be described with reference to FIGS. Next, the configuration of the data display / sensor device 100 will be described with reference to FIG. Then, the flow of processing for realizing various operations will be described with reference to FIG.

ここで、データ表示/センサ装置100は、第1表示/光センサ部300A、あるいは第2表示/光センサ部300Bの何れに画像を表示させてもよいが、本実施の形態では、第1表示/光センサ部300Aに画像を表示するものとして説明する。なお、第1表示/光センサ部300Aは、図9〜図18において図面手前側に位置する。   Here, the data display / sensor device 100 may display an image on either the first display / light sensor unit 300A or the second display / light sensor unit 300B, but in the present embodiment, the first display / light sensor unit 300B displays the image. In the following description, it is assumed that an image is displayed on the optical sensor unit 300A. The first display / light sensor unit 300A is located on the front side of the drawings in FIGS.

また、ユーザは、右手あるいは左手の何れでもデータ表示/センサ装置100を操作することができるが、本実施の形態では、右手で操作するものとして説明する。
(表示画像に対して実行される動作)
以下、図9〜図18の概要を説明する。
In addition, although the user can operate the data display / sensor device 100 with either the right hand or the left hand, in the present embodiment, it will be described as being operated with the right hand.
(Operations performed on the display image)
The outline of FIGS. 9 to 18 will be described below.

図9(a)は、第1表示/光センサ部300Aに矩形の画像25aが表示され、かつ、ユーザが、矩形の画像25aを上面から親指20でタッチすると共に、第2表示/光センサ部300Bに矩形の画像25aの裏面が表示されているとしたならば、その矩形の画像25aの裏面が表示されているであろう領域を人差し指21でタッチしている。   FIG. 9A shows that the rectangular image 25a is displayed on the first display / light sensor unit 300A, and the user touches the rectangular image 25a with the thumb 20 from above, and the second display / light sensor unit. If the reverse side of the rectangular image 25a is displayed on 300B, the index finger 21 touches the area where the reverse side of the rectangular image 25a will be displayed.

なお、第1表示/光センサ部300Aに表示された矩形の画像25aが、実際に下面から人差し指21でタッチされることはないものの、説明の便宜上、本実施の形態に係る以降の説明では、この状態を「上面から親指20で、下面から人差し指21で、それぞれタッチする」と表現する。このことは、図10〜図19を参照して説明する記載においても同様である。   In addition, although the rectangular image 25a displayed on the first display / light sensor unit 300A is not actually touched with the index finger 21 from the lower surface, in the following description according to the present embodiment, for convenience of explanation, This state is expressed as “touch with the thumb 20 from the upper surface and the index finger 21 from the lower surface”. The same applies to the description described with reference to FIGS.

図9(b)は、親指20と人差し指21をそれぞれ反対方向(図面横方向において、親指20を右方向、人差し指21を左方向)へ移動させて、複数の矩形の画像25aが扇状に拡がった状態で第1表示/光センサ部300Aに表示された様子を示す図である。つまり、図9(a)では、複数の矩形の画像25aはあたかも短冊が束になって閉じた状態にあり、図9(b)では、それら複数の矩形の画像25aが扇状に拡がった状態にある。   In FIG. 9B, the thumb 20 and the index finger 21 are moved in opposite directions (in the horizontal direction in the drawing, the thumb 20 is moved to the right and the index finger 21 is moved to the left), and a plurality of rectangular images 25a are fanned out. It is a figure which shows a mode that it displayed on 300 A of 1st display / light sensor parts in the state. That is, in FIG. 9A, the plurality of rectangular images 25a are in a state where the strips are bundled and closed, and in FIG. 9B, the plurality of rectangular images 25a are expanded in a fan shape. is there.

図10(a)は、第1表示/光センサ部300Aに円形の画像26aを表示し、かつ、円形の画像26aを、上面から親指20で、下面から人差し指21で、それぞれタッチしている様子を示す図である。図10(b)は、親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させて、第1表示/光センサ部300Aに、より大きな寸法の円形の画像26bを表示させた図である。   FIG. 10A shows a state in which a circular image 26a is displayed on the first display / light sensor unit 300A, and the circular image 26a is touched with the thumb 20 from the top and the index finger 21 from the bottom. FIG. In FIG. 10B, the thumb 20 and the index finger 21 are moved in opposite directions (in the longitudinal direction of the drawing, the thumb 20 is moved upward and the index finger 21 is moved downward), and the first display / light sensor unit 300A It is the figure which displayed the circular image 26b of a big dimension.

図11(a)は、第1表示/光センサ部300Aに略正方形の画像27aを表示し、かつ、略正方形の画像27aを、上面から親指20で、下面から人差し指21で、それぞれタッチしている様子を示す図である。図11(b)は、親指20と人差し指21をそれぞれ同じ方向(図面横方向において、右方向)へ移動させて、略正方形の画像27aを第1表示/光センサ部300Aの画面の外側へ移動させつつある状態を示す図である。   FIG. 11A shows a substantially square image 27a displayed on the first display / light sensor unit 300A, and the substantially square image 27a is touched with the thumb 20 from the top and the index finger 21 from the bottom. FIG. In FIG. 11B, the thumb 20 and the index finger 21 are moved in the same direction (rightward in the horizontal direction in the drawing) to move the substantially square image 27a to the outside of the screen of the first display / light sensor unit 300A. FIG.

図12(a)は、図面横方向をパイプ軸(管長)方向とするパイプ形状の画像28aを第1表示/光センサ部300Aに表示し、かつ、パイプ形状の画像28aを、上面から親指20で、下面から人差し指21で、それぞれタッチしている様子を示す図である。図12(b)は、親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させて、パイプ軸に直交する方向にパイプ形状の画像28aを回転させている様子を示す図である。   12A shows a pipe-shaped image 28a with the horizontal direction in the drawing as the pipe axis (pipe length) direction on the first display / light sensor unit 300A, and the pipe-shaped image 28a is displayed on the thumb 20 from the top. FIG. 8 is a diagram showing a state where the index finger 21 is touched from the lower surface. FIG. 12B shows a pipe-shaped image in which the thumb 20 and the index finger 21 are moved in opposite directions (in the vertical direction of the drawing, the thumb 20 is moved upward and the index finger 21 is moved downward), respectively. It is a figure which shows a mode that 28a is rotated.

図13(a)は、第1表示/光センサ部300Aの画面上端付近に矩形の画像29a〜29dを図面横方向に一列に並べて表示し、かつ、そのうちの一つの矩形の画像29cを、上面から親指20で、下面から人差し指21で、それぞれタッチしている様子を示す図である。図13(b)は、親指20と人差し指21をそれぞれ同じ方向(図面下方向)へ移動させて、矩形の画像29cを下側に引き出す動作により、矩形の画像29cが図面縦方向に引き伸ばされて、帯状の画像29c’となった様子を示す図である。   FIG. 13A shows rectangular images 29a to 29d arranged in a row in the horizontal direction in the drawing near the upper end of the screen of the first display / light sensor unit 300A, and one rectangular image 29c is displayed on the top surface. It is a figure which shows a mode that it is each touching with the thumb 20 from the bottom, and the index finger 21 from the lower surface. In FIG. 13B, by moving the thumb 20 and the index finger 21 in the same direction (downward in the drawing) and pulling out the rectangular image 29c downward, the rectangular image 29c is stretched in the vertical direction of the drawing. It is a figure which shows a mode that it became the strip | belt-shaped image 29c '.

図14(a)は、第1表示/光センサ部300Aに矩形の画像30aを表示し、かつ、第1表示/光センサ部300Aの表示画面を、上面から親指20で、下面から人差し指21で、それぞれタッチしている様子を示す図である。図14(b)は、矩形の画像30aを分断するように親指20と人差し指21をそれぞれ同じ方向(図面下方向)へ移動させて、矩形の画像30aを左右2つの矩形の画像30bに分割した様子を示す図である。   FIG. 14A shows a rectangular image 30a on the first display / light sensor unit 300A, and the display screen of the first display / light sensor unit 300A is displayed with the thumb 20 from the top and the index finger 21 from the bottom. It is a figure which shows a mode that each is touched. In FIG. 14 (b), the rectangular image 30a is divided into two rectangular images 30b by moving the thumb 20 and the index finger 21 in the same direction (downward in the drawing) so as to divide the rectangular image 30a. It is a figure which shows a mode.

図15(a)は、第1表示/光センサ部300Aに複数の矩形の画像31aを円周状に配置して表示し、かつ、円の中心点付近を上面から親指20で、画像31aを下面から人差し指21で、それぞれタッチしている様子を示す図である。図15(b)は、親指20を動かさずに、人差し指21を図面下側へ移動させて、複数の矩形の画像31aを前記円の円周に沿って反時計回りに回転させている様子を示す図である。   FIG. 15A shows a plurality of rectangular images 31a arranged circumferentially on the first display / light sensor unit 300A, and the image 31a is displayed near the center point of the circle with the thumb 20 from above. It is a figure which shows a mode that it is each touching with the index finger 21 from the lower surface. FIG. 15B shows a state in which a plurality of rectangular images 31a are rotated counterclockwise along the circumference of the circle by moving the index finger 21 downward in the drawing without moving the thumb 20. FIG.

図16(a)は、第1表示/光センサ部300Aに、円形の画像32aと矩形の画像32bとが結合してなる画像32cを表示し、かつ、円形の画像32aの中心点付近を上面から親指20で、矩形の画像32bを下面から人差し指21で、それぞれタッチしている様子を示す図である。図16(b)は、親指20を動かさずに、人差し指21を図面左側へ移動させて、あたかも円形の画像32aの中心点付近を支点とした振り子のように、矩形の画像32bを左側へ移動させた様子を示す図である。   FIG. 16A shows an image 32c formed by combining a circular image 32a and a rectangular image 32b on the first display / light sensor unit 300A, and the vicinity of the center point of the circular image 32a is a top surface. It is a figure which shows a mode that the rectangular image 32b is touched with the index finger 21 from the lower surface with the thumb 20 from the bottom. In FIG. 16 (b), the index finger 21 is moved to the left side of the drawing without moving the thumb 20, and the rectangular image 32b is moved to the left as if it were a pendulum around the center point of the circular image 32a. It is a figure which shows a state made to do.

図17(a)は、第1表示/光センサ部300Aのほぼ画面全体に亘って矩形の画像33aを表示し、かつ、矩形の画像33aを、上面から親指20で、下面から人差し指21で、それぞれタッチしている様子を示す図である。図17(b)は、親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させて、図面下側から矩形の画像33bを出現させ、画像33aと画像33bとを図面縦方向に並べて表示した様子を示す。図17(c)は、さらに親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させて、画面に表示される画像が、画像33aから画像33bに切り替えられた様子を示す図である。   FIG. 17A shows a rectangular image 33a over almost the entire screen of the first display / light sensor unit 300A, and the rectangular image 33a is displayed with the thumb 20 from the upper surface and with the index finger 21 from the lower surface. It is a figure which shows a mode that each is touching. FIG. 17B shows that a rectangular image 33b appears from the lower side of the drawing by moving the thumb 20 and the index finger 21 in opposite directions (in the vertical direction of the drawing, the thumb 20 is moved upward and the index finger 21 is moved downward). The image 33a and the image 33b are displayed side by side in the drawing vertical direction. FIG. 17C further shows that an image displayed on the screen by moving the thumb 20 and the index finger 21 in opposite directions (the thumb 20 is upward and the index finger 21 is downward in the vertical direction of the drawing) is an image 33a. It is a figure which shows a mode that it switched to image 33b from.

図18(a)は、第1表示/光センサ部300Aに略正方形の画像34aを表示した様子を示す。図18(b)は、略正方形の画像34aを、上面から人差し指21で、下面から中指22で、それぞれタッチして、略正方形の画像34aが「選択」状態となった様子を示す図である。
(表示画像に対して実行される動作の具体的説明)
次に、図9〜図18を参照して説明した上記各動作をより具体的に説明する。
FIG. 18A shows a state in which a substantially square image 34a is displayed on the first display / light sensor unit 300A. FIG. 18B is a diagram illustrating a state in which the substantially square image 34a is “selected” by touching the approximately square image 34a with the index finger 21 from the top and the middle finger 22 from the bottom. .
(Specific description of operation performed on display image)
Next, the operations described above with reference to FIGS. 9 to 18 will be described more specifically.

図9(a)に示すように、第1表示/光センサ部300Aには矩形の画像25aが表示されている。そして、ユーザは、その矩形の画像25aを、上面側(第1表示/光センサ部300Aが配設された側)から親指20で、下面側(第2表示/光センサ部300Bが配設された側)から人差し指21で、それぞれタッチする。   As shown in FIG. 9A, a rectangular image 25a is displayed on the first display / light sensor unit 300A. Then, the user displays the rectangular image 25a with the thumb 20 from the upper surface side (side where the first display / light sensor unit 300A is disposed) and the lower surface side (second display / light sensor unit 300B). Touch with the index finger 21 from the other side.

なお、上記説明したとおり、第1表示/光センサ部300Aに表示された矩形の画像25aは、上面から親指20でタッチされることはあっても、下面から人差し指21で実際にタッチされることはない。しかしながら、本実施の形態に係る以降の説明では、説明の便宜上、このような状態のことを、「上面から親指20で、下面から人差し指21で、それぞれタッチする」と表現している。このことは、図10〜図18を参照して説明する記載においても同様である。   As described above, the rectangular image 25a displayed on the first display / light sensor unit 300A is actually touched with the index finger 21 from the bottom even though the thumb 20 is touched from the top. There is no. However, in the following description according to the present embodiment, for convenience of explanation, such a state is expressed as “touch with the thumb 20 from the upper surface and the index finger 21 from the lower surface, respectively”. The same applies to the description described with reference to FIGS.

また、親指20及び人差し指21が表裏両面から矩形の画像25aをタッチするものとして説明しているが、どの指を使用してもよい。つまり、何れかの指を使って、表裏両面から矩形の画像25aを挟持すればよく、そのことが、矩形の画像25aに対して所定の動作を実行する前提となる。それゆえ、上面あるいは下面の何れか一方のみから矩形の画像25aをタッチしても、それだけでは矩形の画像25aに対して所定の動作を実行することはできない。また、画像(あるいは画面)を指でタッチするものとして説明しているが、実際に画像をタッチしている必要はなく、表示/光センサ部300がその指の像を検知すればよい。   In addition, although it has been described that the thumb 20 and the index finger 21 touch the rectangular image 25a from both the front and back surfaces, any finger may be used. That is, the rectangular image 25a may be sandwiched from both the front and back surfaces using any finger, and this is a precondition for executing a predetermined operation on the rectangular image 25a. Therefore, even if the rectangular image 25a is touched only from either the upper surface or the lower surface, the predetermined operation cannot be performed on the rectangular image 25a alone. Further, although it is described that the image (or screen) is touched with a finger, it is not necessary to actually touch the image, and the display / light sensor unit 300 may detect the image of the finger.

また、図中の星印は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが、指の像を検知しているおおよその場所を示す。なお、以降の説明では、説明の便宜のため、上面側から親指20で、下面側から人差し指21で、画像25aをタッチするものとして説明する。このことは、図10〜図18についても同様である。   In addition, the asterisk in the figure indicates an approximate location where the first display / light sensor unit 300A and the second display / light sensor unit 300B are detecting the image of the finger. In the following description, for convenience of explanation, it is assumed that the image 25a is touched with the thumb 20 from the upper surface side and the index finger 21 from the lower surface side. The same applies to FIGS. 10 to 18.

さらに、画像25aは矩形であるとして説明しているが、画像25aは正方形であってもよく、任意の形状とすることができる。但し、本実施の形態では、画像25aは矩形であるとして説明する。同様に、図10〜図18において、各画像の形状を円形、正方形、あるいはパイプ形状等として説明しているが、それらの形状はあくまで例示であり、記載した形状に限られない。   Furthermore, although the image 25a is described as being rectangular, the image 25a may be square and can have any shape. However, in this embodiment, the image 25a is described as being rectangular. Similarly, in FIGS. 10 to 18, the shape of each image is described as a circular shape, a square shape, a pipe shape, or the like, but these shapes are merely examples and are not limited to the described shapes.

また、親指20と人差し指21の指の動きの速度については特に言及しないが、その指の像の動きに対応付けられた動作は、指の動きの速度に応じて実行される。   Further, although the speed of movement of the finger of the thumb 20 and the index finger 21 is not particularly mentioned, the movement associated with the movement of the image of the finger is executed according to the speed of movement of the finger.

次に、図9(b)に示すように、ユーザは、親指20と人差し指21を反対方向(図面横方向において、親指20を右方向、人差し指21を左方向)へ移動させる。この指の動きによって、複数の矩形の画像25aが扇状に拡がった状態で第1表示/光センサ部300Aに表示される。つまり、図9(a)では、複数の矩形の画像25aはあたかも短冊が束になって閉じた状態にあり、図9(b)では、それら複数の矩形の画像25aが扇状に拡がった状態にある。   Next, as shown in FIG. 9B, the user moves the thumb 20 and the index finger 21 in opposite directions (in the horizontal direction in the drawing, the thumb 20 moves to the right and the index finger 21 moves to the left). Due to the movement of the finger, a plurality of rectangular images 25a are displayed on the first display / light sensor unit 300A in a fan-shaped state. That is, in FIG. 9A, the plurality of rectangular images 25a are in a state where the strips are bundled and closed, and in FIG. 9B, the plurality of rectangular images 25a are expanded in a fan shape. is there.

なお、上述した扇状の拡がり具合は、親指20及び人差し指21の移動距離に応じて決まる。従って、図9(b)では、親指20及び人差し指21が表示画面の端部付近まで移動しているため、扇状の拡がりは表示画面の全体に及んでいる。   The fan-shaped spreading condition described above is determined according to the movement distance of the thumb 20 and the index finger 21. Accordingly, in FIG. 9B, since the thumb 20 and the index finger 21 have moved to the vicinity of the end of the display screen, the fan-like expansion extends to the entire display screen.

また、次のような方法によって、上述したのとは逆の動き、つまり、扇状に拡がった複数の矩形の画像25aを、短冊が束になって閉じたように表示することができる。   In addition, by the following method, the movement opposite to that described above, that is, a plurality of rectangular images 25a spread in a fan shape can be displayed as a bundle of strips closed.

まず、ユーザは、扇状に広がった複数の矩形の画像25aを、上面側から親指20で、下面側から人差し指21で、それぞれタッチする。このとき、親指20及び人差し指21がタッチする位置は、図9(b)に示すように、それぞれ異なる位置である。つまり、親指20は最外部付近(図面左側)に位置する画像25aをタッチし、人差し指21は他方の最外部付近(図面右側)に位置する画像25aをタッチする。次に、親指20と人差し指21を反対方向(図面横方向において、親指20を左方向、人差し指21を右方向)へ移動させる。つまり、図9(a)から図9(b)へ至る指の動きと逆の動きをする。これにより、扇状に拡がった複数の矩形の画像25aが短冊が束になって閉じたように表示される。このようにして、データ表示/センサ装置100は、図9(a)及び図9(b)によって示される多彩で立体的な動作を、容易かつ迅速に実現することができる。   First, the user touches a plurality of rectangular images 25a spread in a fan shape with the thumb 20 from the upper surface side and the index finger 21 from the lower surface side. At this time, the positions where the thumb 20 and the index finger 21 touch are different positions as shown in FIG. 9B. That is, the thumb 20 touches the image 25a located near the outermost part (left side of the drawing), and the index finger 21 touches the image 25a located near the other outermost part (right side of the drawing). Next, the thumb 20 and the index finger 21 are moved in opposite directions (in the horizontal direction of the drawing, the thumb 20 is moved to the left and the index finger 21 is moved to the right). That is, it moves in the opposite direction to the finger movement from FIG. 9A to FIG. 9B. As a result, a plurality of rectangular images 25a expanded in a fan shape are displayed as if the strips were bundled and closed. In this way, the data display / sensor device 100 can easily and quickly realize various three-dimensional operations shown in FIGS. 9A and 9B.

ここで、矩形の画像25aは、図9(a)の図面縦方向にその長手方向が配置され、扇状の拡がりは、図9(b)の図面横方向に向かって記載されている。しかしながら、矩形の画像25aが、図9(a)の図面横方向にその長手方向が配置され、扇状の画像25aが、図9(b)の図面縦方向に拡がるように表示されることも可能である。また、矩形の画像25aの配置方向は、図9(a)の縦・横方向に限らず、任意の方向で配置してよく、図9(a)はあくまで一例である。   Here, the rectangular image 25a has its longitudinal direction arranged in the vertical direction of the drawing in FIG. 9A, and the fan-shaped expansion is described in the horizontal direction of the drawing in FIG. 9B. However, the rectangular image 25a may be displayed so that its longitudinal direction is arranged in the horizontal direction of the drawing in FIG. 9A and the fan-shaped image 25a is expanded in the vertical direction of the drawing in FIG. 9B. It is. Further, the arrangement direction of the rectangular image 25a is not limited to the vertical and horizontal directions in FIG. 9A, and may be arranged in an arbitrary direction. FIG. 9A is merely an example.

図9(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば、複数の矩形の画像25aがそれぞれ「ニュース」、「ブログ」、「ショッピング」等のアドレスを示す画像(オブジェクト)として割り当てられているとする。そして、上述した親指20、及び人差し指21の動作により、短冊が束になって閉じたように表示されていた複数の矩形の画像25aが扇状に拡がって表示される。これにより、ユーザは、扇状に拡がったオブジェクトの中から、所望のアドレスを容易に、かつ迅速に画面上から探し出すことができる。しかも、アドレス先を示すオブジェクトが扇状に拡がることで、デザイン性に優れた動作を実現でき、データ表示/センサ装置100は、高い満足度をユーザに提供することができる。なお、扇状に拡がった幾つかのオブジェクトの中から、所望のオブジェクトを選択する方法は、例えば図18を参照して説明する方法によって実現される。   As examples of use of the operations described in FIGS. 9A and 9B, the following embodiments can be considered. For example, it is assumed that a plurality of rectangular images 25a are assigned as images (objects) indicating addresses such as “news”, “blog”, and “shopping”. Then, by the operations of the thumb 20 and the index finger 21 described above, a plurality of rectangular images 25a displayed as if the strips were bundled and closed are displayed in a fan shape. As a result, the user can easily and quickly find a desired address on the screen from the fan-shaped objects. In addition, since the object indicating the address destination expands in a fan shape, an operation with excellent design can be realized, and the data display / sensor device 100 can provide the user with high satisfaction. Note that a method for selecting a desired object from among several objects that expand in a fan shape is realized by a method described with reference to FIG. 18, for example.

次に、図10について説明する。図10(a)に示すように、第1表示/光センサ部300Aには円形の画像26aが表示されている。そして、ユーザは、その円形の画像26aを、上面側から親指20で、下面側から人差し指21で、それぞれタッチする。   Next, FIG. 10 will be described. As shown in FIG. 10A, a circular image 26a is displayed on the first display / light sensor unit 300A. Then, the user touches the circular image 26a with the thumb 20 from the upper surface side and the index finger 21 from the lower surface side.

次に、図10(b)に示すように、ユーザは、親指20と人差し指21を反対方向(図面縦方向において、親指20を略上方向、人差し指21を略下方向)へ移動させる。この指の動作によって、円形の画像26aは、より大きな寸法の円形の画像26bとなって第1表示/光センサ部300Aに表示される。   Next, as shown in FIG. 10B, the user moves the thumb 20 and the index finger 21 in opposite directions (in the vertical direction of the drawing, the thumb 20 is substantially upward and the index finger 21 is generally downward). By the operation of the finger, the circular image 26a is displayed on the first display / light sensor unit 300A as a circular image 26b having a larger size.

なお、寸法が拡大される程度は、親指20及び人差し指21の移動距離に応じて決まる。従って、図10(b)では、ユーザは、親指20及び人差し指21を大きく移動させたため、画像26bは、一部が画面からはみ出して表示されている。   Note that the extent to which the dimensions are enlarged is determined according to the movement distance of the thumb 20 and the index finger 21. Accordingly, in FIG. 10B, the user has moved the thumb 20 and the index finger 21 greatly, so that a part of the image 26b is displayed on the screen.

また、次のような方法によって、第1表示/光センサ部300Aに、円形の画像26bよりもサイズが小さくなった円形の画像26aを表示させることができる。   Further, the circular image 26a having a smaller size than the circular image 26b can be displayed on the first display / light sensor unit 300A by the following method.

まず、ユーザは、円形の画像26bを、上面側から親指20で、下面側から人差し指21で、それぞれタッチする。このとき、親指20及び人差し指21が画像26bをタッチする位置は、図10(b)に示すように、それぞれ異なる位置である。なお、図10(b)で示す例では、親指20は画像26bの上端部付近を、人差し指21は画像26bの下端部付近を、それぞれタッチしている。   First, the user touches the circular image 26b with the thumb 20 from the upper surface side and the index finger 21 from the lower surface side. At this time, the positions where the thumb 20 and the index finger 21 touch the image 26b are different positions as shown in FIG. 10B. In the example shown in FIG. 10B, the thumb 20 touches the vicinity of the upper end of the image 26b, and the index finger 21 touches the vicinity of the lower end of the image 26b.

次に、親指20と人差し指21を反対方向(図面縦方向において、親指20を略下方向、人差し指21を略下上方向)へ移動させる。この指の動作によって、円形の画像26bは、より小さな寸法の円形の画像26aとなって第1表示/光センサ部300Aに表示される。つまり、図10(a)から図10(b)へ至る指の動きと逆の動きをすることにより、円形の画像26bは、より小さな寸法の円形の画像26aとなって第1表示/光センサ部300Aに表示される。このようにして、ユーザは、画像の拡大・縮小を容易に、かつ迅速に実行できる。   Next, the thumb 20 and the index finger 21 are moved in opposite directions (in the longitudinal direction of the drawing, the thumb 20 is substantially downward and the index finger 21 is substantially downward). By the operation of this finger, the circular image 26b is displayed on the first display / light sensor unit 300A as a circular image 26a having a smaller size. That is, by performing a movement opposite to the movement of the finger from FIG. 10A to FIG. 10B, the circular image 26b becomes a circular image 26a having a smaller size, and the first display / light sensor. Displayed on the part 300A. In this way, the user can easily and quickly execute enlargement / reduction of an image.

なお、親指20と人差し指21を互いに反対方向に動かす場合に、その方向は、前記説明した図面垂直方向に限らず、どの方向であってもよい。ここで挙げた例はあくまで一例である。   When the thumb 20 and the index finger 21 are moved in directions opposite to each other, the direction is not limited to the above-described vertical direction in the drawing and may be any direction. The example given here is only an example.

図10(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば円形の画像26aが写真画像である場合、ユーザは、拡大した状態でその画像を鑑賞したい場合がある。そのような場合に、上述した親指20、及び人差し指21の動作により、その写真画像を拡大して表示することができ、データ表示/センサ装置100は、拡大した画像を鑑賞したいというユーザの要求に応えることができる。   As examples of use of the operations described in FIGS. 10A and 10B, the following embodiments can be considered. For example, when the circular image 26a is a photographic image, the user may want to view the image in an enlarged state. In such a case, the above-described operation of the thumb 20 and the index finger 21 allows the photograph image to be enlarged and displayed, and the data display / sensor device 100 responds to the user's request to view the enlarged image. I can respond.

次に、図11について説明する。図11(a)では、第1表示/光センサ部300Aに正方形の画像27aが表示され、その正方形の画像27aが、上面から親指20で、下面から人差し指21で、それぞれタッチされている。そして、図11(b)に示すように、ユーザは、親指20と人差し指21を同一方向(図面横方向において、右方向)へ移動させて、画面の外部へ正方形の画像27aを移動させている。つまり、ユーザは、この指の動きにより、その指の動く距離に応じて正方形の画像27aを移動させることができる。そして、表示画面の外部まで正方形の画像27aを移動させた場合に正方形の画像27aのファイルが削除される、という動作を予め割り当てておけば、正方形の画像27aのファイルは容易に削除される。このようにして、ユーザは、画像の移動、削除をより簡単に、かつ迅速に実行することができる。   Next, FIG. 11 will be described. In FIG. 11A, a square image 27a is displayed on the first display / light sensor unit 300A, and the square image 27a is touched with the thumb 20 from the top and the index finger 21 from the bottom. Then, as shown in FIG. 11 (b), the user moves the thumb 20 and the index finger 21 in the same direction (rightward in the horizontal direction of the drawing) to move the square image 27a to the outside of the screen. . That is, the user can move the square image 27a according to the distance that the finger moves by the movement of the finger. If the operation of deleting the square image 27a when the square image 27a is moved to the outside of the display screen is assigned in advance, the square image 27a file is easily deleted. In this way, the user can more easily and quickly move and delete images.

なお、図11(a)・(b)では、図面横方向において、親指20及び人差し指21を共に右側に移動させるものとして説明した。しかしながら、親指20及び人差し指21を移動させる方向はこれに限らず、いかなる方向であってもよい。従って、ユーザは、任意の場所に画像を移動させることができる。   11A and 11B, it has been described that both the thumb 20 and the index finger 21 are moved to the right side in the horizontal direction of the drawing. However, the direction in which the thumb 20 and the index finger 21 are moved is not limited to this, and may be any direction. Therefore, the user can move the image to an arbitrary place.

図11(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば、ユーザが、画面に表示された任意のファイル(あるいはフォルダ)を移動したい場合に、そのファイルを表裏両面から挟持して、所望の移動先まで親指及び人差し指を移動することにより、その位置にファイルを移動させることができる。また、画面に表示されたファイルを削除したい場合には、そのファイルを表裏両面から挟持して、画面の外側へ移動させればよい。このようにして、データ表示/センサ装置100は、ファイルを削除・移動したいというユーザの要求に応えることができる。   As examples of use of the operations described in FIGS. 11A and 11B, the following embodiments can be considered. For example, when the user wants to move an arbitrary file (or folder) displayed on the screen, the user holds the file from both the front and back sides and moves the thumb and index finger to the desired destination to move to that position. You can move files. In addition, when deleting a file displayed on the screen, the file may be sandwiched from both the front and back sides and moved to the outside of the screen. In this way, the data display / sensor device 100 can respond to a user's request to delete / move a file.

次に、図12について説明する。図12(a)に示すように、図面横方向をパイプ軸(管長)方向とするパイプ形状の画像28aが第1表示/光センサ部300Aに表示されている。そして、ユーザは、そのパイプ形状の画像28aを、上面から親指20で、下面から人差し指21で、それぞれタッチしている。そして、図10(b)に示すように、親指20と人差し指21を反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させることにより、第1表示/光センサ部300Aには、パイプ軸に直交する方向(図面下から上方向)にパイプ形状の画像28aが回転する様子が表示される。   Next, FIG. 12 will be described. As shown in FIG. 12A, a pipe-shaped image 28a with the horizontal direction in the drawing as the pipe axis (pipe length) direction is displayed on the first display / light sensor unit 300A. Then, the user touches the pipe-shaped image 28a with the thumb 20 from the upper surface and the index finger 21 from the lower surface. Then, as shown in FIG. 10B, the first display / light sensor is obtained by moving the thumb 20 and the index finger 21 in opposite directions (in the vertical direction of the drawing, the thumb 20 is upward and the index finger 21 is downward). The part 300A displays a state in which the pipe-shaped image 28a rotates in a direction perpendicular to the pipe axis (from the bottom to the top of the drawing).

なお、親指20と人差し指21を前記とはそれぞれ逆の方向(図面縦方向において、親指20を下方向、人差し指21を上方向)に移動させことにより、パイプ形状の画像28aは、前記とは逆の方向、つまり、図面上から下方向に回転する。このように、親指20と人差し指21の移動方向によって、パイプ形状の画像28aの回転方向が任意に選択され、データ表示/センサ装置100は、図12(a)及び図12(b)によって示される多彩で立体的な動作を、容易かつ迅速に実現することができる。   By moving the thumb 20 and the index finger 21 in opposite directions (in the longitudinal direction of the drawing, the thumb 20 is downward and the index finger 21 is upward), the pipe-shaped image 28a is opposite to the above. , That is, from the top to the bottom of the drawing. As described above, the rotation direction of the pipe-shaped image 28a is arbitrarily selected depending on the moving direction of the thumb 20 and the index finger 21, and the data display / sensor device 100 is shown in FIGS. 12 (a) and 12 (b). Various and three-dimensional operations can be realized easily and quickly.

図12(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。図12(a)では、パイプ形状の画像28aは、図面横方向に延びる複数の矩形の画像28bによって形成されている。そこで、各矩形の画像28bが、例えば「ニュース」、「ブログ」、「ショッピング」等のアドレスを示す画像(オブジェクト)であり、パイプ形状の画像28aを回転させて、ユーザから見て正面に位置するオブジェクト(画面に対して正面に表示されるオブジェクト)が「選択されるオブジェクト」と設定しておく。そして、ユーザが、上述した親指20、及び人差し指21の動作によってパイプ形状の画像28aを回転させ、さらに、選択したいオブジェクトを画面に対して正面(選択位置P)に移動させることで、所望のオブジェクトが容易に、かつ迅速に選択される。しかも、アドレス先を示すオブジェクトが回転することにより、データ表示/センサ装置100は、デザイン性に優れた動作を実現でき、高い満足度をユーザに提供することができる。   As examples of use of the operations described in FIGS. 12A and 12B, the following embodiments can be considered. In FIG. 12A, the pipe-shaped image 28a is formed by a plurality of rectangular images 28b extending in the horizontal direction of the drawing. Therefore, each rectangular image 28b is an image (object) indicating an address such as “news”, “blog”, “shopping”, and the like, and the pipe-shaped image 28a is rotated and positioned in front of the user. The object to be selected (object displayed in front of the screen) is set as “selected object”. Then, the user rotates the pipe-shaped image 28a by the operation of the thumb 20 and the index finger 21 described above, and further moves the object to be selected to the front (selection position P) with respect to the screen, thereby obtaining a desired object. Is easily and quickly selected. In addition, when the object indicating the address is rotated, the data display / sensor device 100 can realize an operation with excellent design and can provide the user with high satisfaction.

次に、図13について説明する。図13(a)では、第1表示/光センサ部300Aの画面上端付近に、矩形の画像29a〜29dが図面横方向に一列に並べて表示されている。そして、矩形の画像29cは、上面から親指20で、下面から人差し指21で、それぞれ挟持されている。そして、図13(b)では、親指20と人差し指21がそれぞれ同じ方向(図面下方向)に移動して、それにより矩形の画像29cは、図面縦方向に引き伸ばされて、帯状の画像29c’となって表示されている。   Next, FIG. 13 will be described. In FIG. 13A, rectangular images 29a to 29d are displayed in a line in the horizontal direction of the drawing near the upper end of the screen of the first display / light sensor unit 300A. The rectangular image 29c is pinched by the thumb 20 from the top and the index finger 21 from the bottom. In FIG. 13B, the thumb 20 and the index finger 21 move in the same direction (downward in the drawing), whereby the rectangular image 29c is stretched in the vertical direction of the drawing to form a strip-like image 29c ′. Is displayed.

なお、帯状となった画像29c’の図面縦方向の長さは、親指20及び人差し指21の移動距離に応じて決まる。つまり、帯状となった画像29c’の図面縦方向の長さは、親指20及び人差し指21の移動距離に応じて異なる。   Note that the length of the striped image 29 c ′ in the vertical direction of the drawing is determined according to the movement distance of the thumb 20 and the index finger 21. That is, the length in the drawing vertical direction of the striped image 29 c ′ varies depending on the movement distance of the thumb 20 and the index finger 21.

また、帯状の画像29c’が表示された状態において、ユーザが、上面から親指20で、下面から人差し指21で、それぞれ帯状の画像29c’の図面下側の位置を挟持して、親指20と人差し指21をそれぞれ同じ方向(図面上方向)へ移動させる。この動作により、帯状の画像29c’は、引き延ばされる前の画像である矩形の画像29cに戻る。その結果、第1表示/光センサ部300Aの画面上端付近に矩形の画像29cが表示される。このように、親指20及び人差し指21が図面縦方向に上下することにより、第1表示/光センサ部300Aには、矩形の画像29cと帯状の画像29c’とが切り替わって表示される。   In the state where the band-shaped image 29c ′ is displayed, the user holds the position of the band-shaped image 29c ′ on the lower side of the drawing with the thumb 20 from the upper surface and the index finger 21 from the lower surface, and the thumb 20 and the index finger. 21 is moved in the same direction (upward in the drawing). By this operation, the strip-shaped image 29c ′ returns to the rectangular image 29c that is the image before being stretched. As a result, a rectangular image 29c is displayed near the upper end of the screen of the first display / light sensor unit 300A. In this manner, when the thumb 20 and the index finger 21 move up and down in the vertical direction of the drawing, the rectangular image 29c and the strip-shaped image 29c 'are displayed on the first display / light sensor unit 300A.

なお、図13(a)では、第1表示/光センサ部300Aの画面上端付近に画像29a〜29dを表示しているが、この位置に限らず、第1表示/光センサ部300Aの画面下端、右端、左端付近に画像29a〜29dを表示してもよい。   In FIG. 13A, images 29a to 29d are displayed near the upper end of the screen of the first display / light sensor unit 300A. However, the present invention is not limited to this position, and the lower end of the screen of the first display / light sensor unit 300A. The images 29a to 29d may be displayed near the right end and the left end.

図13(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。ユーザによっては、画面に表示されるオブジェクトをできるだけ少なくしておきたいという要望を持つことがある。そのような場合に、画面の上端、下端、右端、あるいは左端付近にオブジェクトを寄せておき、必要な時にのみ、上述した親指20、及び人差し指21の動作により帯状の画像29c’を引き出すことができれば、画面内のスペースを有効に活用することができ、また、画面に表示されるオブジェクトをできるだけ少なくしておきたいというユーザの要望にも応えることができる。   As examples of use of the operations described in FIGS. 13A and 13B, the following embodiments can be considered. Some users have a desire to keep the number of objects displayed on the screen as small as possible. In such a case, if an object is brought close to the upper end, lower end, right end, or near the left end of the screen, and the band-like image 29c ′ can be pulled out by the above-described operation of the thumb 20 and the index finger 21 only when necessary. The space in the screen can be used effectively, and the user's desire to keep the number of objects displayed on the screen as small as possible can be met.

次に、図14について説明する。図14(a)では、第1表示/光センサ部300Aに矩形の画像30aが表示され、かつ、ユーザは、上面から親指20で、下面から人差し指21で、それぞれ表示/光センサ部300をタッチしている。そして、図14(b)に示すように、矩形の画像30aを分断するように親指20と人差し指21をそれぞれ同じ方向(図面下方向)へ移動させることにより、矩形の画像30aは、左右2つの画像30bに分割される。なお、後述する指−命令対応情報テーブルに予め設定しておくことにより、親指20と人差し指21の移動方向に応じて、矩形の画像30aは上下、あるいは斜め方向に分割される。   Next, FIG. 14 will be described. In FIG. 14A, a rectangular image 30a is displayed on the first display / light sensor unit 300A, and the user touches the display / light sensor unit 300 with the thumb 20 from the top and the index finger 21 from the bottom. is doing. Then, as shown in FIG. 14B, by moving the thumb 20 and the index finger 21 in the same direction (downward in the drawing) so as to divide the rectangular image 30a, the rectangular image 30a has two left and right sides. The image is divided into images 30b. Note that, by setting in advance in a finger-command correspondence information table, which will be described later, the rectangular image 30a is divided vertically or obliquely according to the movement direction of the thumb 20 and the index finger 21.

図14(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば、矩形の画像30aを2つに分割した場合に当該画像30aのファイルが削除される、という動作を予め割り当てておけば、上述した指の動きにより、矩形の画像30aのファイルを容易に削除することができる。   As examples of use of the operations described in FIGS. 14A and 14B, the following embodiments can be considered. For example, if the operation that the file of the image 30a is deleted when the rectangular image 30a is divided into two is assigned in advance, the file of the rectangular image 30a can be easily deleted by the above-described movement of the finger. can do.

次に、図15について説明する。図15(a)では、第1表示/光センサ部300Aに複数の画像31aが円周状に配置して表示され、かつ、ユーザは、その円の中心点付近を上面から親指20で、画像31aを下面から人差し指21で、それぞれタッチしている。そして、図15(b)に示すように、親指20を動かさずに、人差し指21を図面下側へ移動させることにより、複数の画像31aが、前記円の円周に沿って反時計回りに回転している。なお、図示していないが、人差し指21を図面上側へ移動することにより、複数の画像31aは、円の円周に沿って時計回りに回転する。   Next, FIG. 15 will be described. In FIG. 15A, a plurality of images 31a are circumferentially arranged and displayed on the first display / light sensor unit 300A, and the user can image the vicinity of the center point of the circle with the thumb 20 from above. 31 a is touched with the index finger 21 from the bottom. Then, as shown in FIG. 15 (b), by moving the index finger 21 downward without moving the thumb 20, the plurality of images 31a are rotated counterclockwise along the circumference of the circle. is doing. Although not shown, the plurality of images 31a rotate clockwise along the circumference of the circle by moving the index finger 21 upward in the drawing.

このようにして、複数の画像31aは、第1表示/光センサ部300Aに回転した状態で表示される。また、ユーザは、指の動きを停止して、その回転を停止させることができる。従って、回転を止めたときに、画面上の所定の場所に位置する画像(オブジェクト)を「選択されるオブジェクト」と設定しておくことにより、従来にはない斬新な方法によってオブジェクトが選択される。しかも人差し指の動きの速度に応じて複数の画像が回転するように設定することにより、所望のオブジェクトは、容易に、かつ迅速に第1表示/光センサ部300Aに表示され、さらに選択される。そして、データ表示/センサ装置100は、デザイン性にも優れた動作を実現できるため、高い満足度をユーザに提供することができる。   In this manner, the plurality of images 31a are displayed in a rotated state on the first display / light sensor unit 300A. Moreover, the user can stop the rotation of the finger by stopping the movement of the finger. Therefore, when rotation is stopped, an image (object) positioned at a predetermined location on the screen is set as a “selected object”, so that an object is selected by a novel method that has not been conventionally used. . In addition, by setting the plurality of images to rotate according to the movement speed of the index finger, a desired object is easily and quickly displayed on the first display / light sensor unit 300A and further selected. Since the data display / sensor device 100 can realize an operation with excellent design, it is possible to provide the user with high satisfaction.

次に、図16について説明する。図16(a)では、第1表示/光センサ部300Aに、円形の画像32aと矩形の画像32bとが結合してなる画像32cが表示され、かつ、ユーザが、画像32aの中心付近を上面から親指20で、画像32bを下面から人差し指21で、それぞれタッチしている。   Next, FIG. 16 will be described. In FIG. 16 (a), an image 32c formed by combining a circular image 32a and a rectangular image 32b is displayed on the first display / light sensor unit 300A, and the user has an upper surface near the center of the image 32a. The thumb 20 and the image 32b are touched from the lower surface with the index finger 21, respectively.

次に、図16(b)に示すように、親指20を動かさずに、人差し指21が図面左側へ移動することにより、あたかも画像32aの中心点付近を支点とした振り子のように、画像32bが左側に移動する。   Next, as shown in FIG. 16 (b), the index finger 21 moves to the left side of the drawing without moving the thumb 20, so that the image 32b looks like a pendulum with the vicinity of the center point of the image 32a as a fulcrum. Move to the left.

なお、上述した画像32bの移動は、人差し指21の移動距離に応じて決まる。また、人差し指21の移動方向を逆方向(図面右方向)へ移動させることにより、画像32bは、人差し指21の移動距離に応じて、画像32aの中心点付近を支点として移動する。   The movement of the image 32b described above is determined according to the movement distance of the index finger 21. Further, by moving the index finger 21 in the reverse direction (rightward in the drawing), the image 32b moves around the center point of the image 32a as a fulcrum according to the distance of the index finger 21 moved.

このようにして、データ表示/センサ装置100は、図16(a)及び図16(b)によって示される多彩で立体的な動作を、容易かつ迅速に実現することができる。   In this way, the data display / sensor device 100 can easily and quickly realize the various three-dimensional operations shown in FIGS. 16 (a) and 16 (b).

なお、図16では、画像32bは画像32aの図面上側に表示されているが、その位置は任意に選択される。また、図16では、画像32a、32bは1つのみ表示されているが、これらが複数表示されてよい。   In FIG. 16, the image 32b is displayed on the upper side of the image 32a, but the position is arbitrarily selected. In FIG. 16, only one image 32a, 32b is displayed, but a plurality of images may be displayed.

図16(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば、ユーザが、データ表示/センサ装置100から出力される音量を画面上の簡単な操作によって調節したいという要望を持つ場合がある。このような場合に、例えば人差し指21が図面左右方向に動き、画像32bがそれに伴い左右に移動し、その移動量に伴って音量がリニアに調節される、という動作を予め割り当てておけば、例えば画像32bを左側に移動させて、これによりデータ表示/センサ装置100から出力される音量を下がることが可能となる。あるいは、画像32bを右側に移動させて、これによりデータ表示/センサ装置100から出力される音量を上げることができる。   As examples of use of the operations described in FIGS. 16A and 16B, the following embodiments can be considered. For example, the user may have a desire to adjust the volume output from the data display / sensor device 100 by a simple operation on the screen. In such a case, for example, if an operation in which the index finger 21 moves in the left-right direction in the drawing, the image 32b moves to the right and left accordingly, and the volume is linearly adjusted according to the amount of movement is assigned in advance, for example, By moving the image 32b to the left side, the volume output from the data display / sensor device 100 can be lowered. Alternatively, the image 32b can be moved to the right, thereby increasing the volume output from the data display / sensor device 100.

次に、図17について説明する。図17(a)では、第1表示/光センサ部300Aのほぼ画面全体に亘って矩形の画像33aが表示され、かつ、ユーザが、上面から親指20で、下面から人差し指21でその画像33aをタッチしている。   Next, FIG. 17 will be described. In FIG. 17A, a rectangular image 33a is displayed over almost the entire screen of the first display / light sensor unit 300A, and the user displays the image 33a with the thumb 20 from the top and the index finger 21 from the bottom. Touching.

そして、図17(b)に示すように、親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させることにより、図面下側から矩形の画像33bが出現し、矩形の画像33aと矩形の画像33bとが図面縦方向に並んで表示される。そして、図17(c)に示すように、さらに親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させることにより、画面に表示される画像が、画像33aから画像33bに切り替わる。   Then, as shown in FIG. 17 (b), the thumb 20 and the index finger 21 are moved in opposite directions (in the vertical direction of the drawing, the thumb 20 is upward and the index finger 21 is downward). Image 33b appears, and a rectangular image 33a and a rectangular image 33b are displayed side by side in the vertical direction of the drawing. Then, as shown in FIG. 17 (c), the thumb 20 and the index finger 21 are further moved in opposite directions (in the vertical direction of the drawing, the thumb 20 is upward and the index finger 21 is downward). The image to be switched from the image 33a to the image 33b.

つまり、上述した親指20及び人差し指21の動きにより、画面に表示される画像が、画像33aから画像33bに切り替わる。しかも、その切り替えが完全に行われる前に指の動きを停止することにより、矩形の画像33a及び画像33bが図面縦方向に並んで表示される。また、指の動きの速度に応じて、矩形の画像33aから画像33bへの切り替えが所望の速度で行われる。さらに、親指20及び人差し指21の動きを前記とは逆の方向にすることにより、画像33bから矩形の画像33aの方向に画像の切り替えが行われる。   That is, the image displayed on the screen is switched from the image 33a to the image 33b by the movement of the thumb 20 and the index finger 21 described above. In addition, by stopping the movement of the finger before the switching is completely performed, the rectangular image 33a and the image 33b are displayed side by side in the vertical direction of the drawing. Further, switching from the rectangular image 33a to the image 33b is performed at a desired speed in accordance with the speed of finger movement. Further, the images are switched from the image 33b to the rectangular image 33a by moving the thumb 20 and the index finger 21 in the opposite directions.

図17(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば、ユーザが、電子アルバム化された複数の写真を順次鑑賞したい場合を考える。そのような場合に、画面に表示された写真(画像33a)から、次の写真(画像33b)に移りたいときに、上述した親指20、及び人差し指21の動作により、ユーザは、画像33aから画像33bへの切り替えを容易に、かつ迅速に行うことができる。このように、データ表示/センサ装置100は、画像を切り替えて次の画像を見たいというユーザの要求に確実に応えることができる。   As examples of use of the operations described in FIGS. 17A and 17B, the following embodiments can be considered. For example, let us consider a case where the user wants to sequentially view a plurality of photographs in an electronic album. In such a case, when the user wants to move from the photograph (image 33a) displayed on the screen to the next photograph (image 33b), the user operates the image from the image 33a by the operation of the thumb 20 and the index finger 21 described above. Switching to 33b can be performed easily and quickly. In this way, the data display / sensor device 100 can reliably meet the user's request to switch the image and view the next image.

なお、図17では、画像の切り替えを図面縦方向に行っているが、図面横方向に行うことも可能である。   In FIG. 17, the image switching is performed in the vertical direction of the drawing, but can be performed in the horizontal direction of the drawing.

次に、図18について説明する。図18(a)では、第1表示/光センサ部300Aに略正方形の画像34が表示されている。そして、図18(b)に示すように、親指20と人差し指21が表裏両面からほぼ同時に略正方形の画像34にタッチして、略正方形の画像34が選択された状態となる。   Next, FIG. 18 will be described. In FIG. 18A, a substantially square image 34 is displayed on the first display / light sensor unit 300A. Then, as shown in FIG. 18B, the thumb 20 and the index finger 21 touch the substantially square image 34 from both the front and back sides almost simultaneously, and the substantially square image 34 is selected.

つまり、ユーザは、親指20と人差し指21を表裏両面からほぼ同時に略正方形の画像34をタッチすることにより、略正方形の画像34を選択することができる。従って、親指20あるいは人差し指21の動きのみでは略正方形の画像34は選択されず、また、第1表示/光センサ部300Aが親指20の像を検知して暫く時間が経ってから第2表示/光センサ部300Bが人差し指21の像を検知したとしても、略正方形の画像34は選択されない。   That is, the user can select the substantially square image 34 by touching the substantially square image 34 with the thumb 20 and the index finger 21 from both the front and back sides almost simultaneously. Accordingly, the substantially square image 34 is not selected only by the movement of the thumb 20 or the index finger 21, and the second display / light sensor unit 300 </ b> A detects the image of the thumb 20 for a while after the time has elapsed. Even if the optical sensor unit 300B detects the image of the index finger 21, the substantially square image 34 is not selected.

従って、ユーザは、親指20及び人差し指21を表裏両面からほぼ同時に略正方形の画像34にタッチしない限り、所望のオブジェクトを選択することができず、その分だけ、誤入力のリスクは軽減される。   Therefore, the user cannot select a desired object unless the thumb 20 and the index finger 21 touch the substantially square image 34 from both the front and back sides at the same time, and the risk of erroneous input is reduced accordingly.

なお、第1表示/光センサ部300Aが親指20の像を検知してから第2表示/光センサ部300Bが人差し指21の像を検知する(あるいは、第2表示/光センサ部300Bが人差し指21の像を検知してから第1表示/光センサ部300Aが親指20の像を検知する)までの経過時間は適宜設定してよい。但し、経過時間を「0」としたのでは、容易にオブジェクトの選択をすることができず、ユーザは不便を感じることが多い。また、経過時間が長すぎたのでは、誤入力となってしまう可能性もある。そこで、経過時間を適宜設定しうる構成とすることにより、ユーザは、不便を感じることなく、かつ、誤入力のリスクを軽減することができる。   The second display / light sensor unit 300B detects the image of the index finger 21 after the first display / light sensor unit 300A detects the image of the thumb 20 (or the second display / light sensor unit 300B detects the index finger 21). The first display / light sensor unit 300A detects the image of the thumb 20) until the first display / light sensor unit 300A detects the image of the thumb 20 may be set as appropriate. However, if the elapsed time is set to “0”, the object cannot be easily selected, and the user often feels inconvenience. In addition, if the elapsed time is too long, there is a possibility of erroneous input. Therefore, by adopting a configuration in which the elapsed time can be set as appropriate, the user can feel the inconvenience and reduce the risk of erroneous input.

一方、経過時間を設定せず、親指20及び人差し指21が表裏両面から略正方形の画像34にタッチすることで、略正方形の画像34が選択された状態とすることも可能である。これにより、ユーザは、経過時間を気にしながら表裏両面から略正方形の画像34をタッチする必要がなくなる。   On the other hand, the substantially square image 34 can be selected by touching the substantially square image 34 from both the front and back surfaces with the thumb 20 and the index finger 21 without setting the elapsed time. This eliminates the need for the user to touch the substantially square image 34 from both the front and back sides while paying attention to the elapsed time.

なお、経過時間の設定は、ユーザが外部から入力し、その入力値を記憶部901に記憶させておけばよい。そして、入力検出部830がその入力値を記憶部901から読み出して、自身が測定した実測値と比較することにより、経過時間が経過したかどうかの判定が行われる。なお、経過時間の実測値が入力値を超える場合は、入力検出部830が入力信号を生成しない構成とすることも可能である。なお、入力検出部830、及び記憶部901の詳細は後ほど説明する。   The elapsed time may be set by the user inputting from the outside and the input value stored in the storage unit 901. And the input detection part 830 reads the input value from the memory | storage part 901, and it is determined whether elapsed time passed by comparing with the measured value which self measured. In addition, when the measured value of elapsed time exceeds an input value, the input detection unit 830 may be configured not to generate an input signal. Details of the input detection unit 830 and the storage unit 901 will be described later.

また、後述する指−命令対応情報テーブルに予め登録しておくことにより、親指20と人差し指21が略正方形の画像34を表裏両面からダブルクリックした場合に、その画像34が選択される構成とすることも可能である。この場合、上記の経過時間は、最初のクリックから2回目のクリックまでの時間とすることもできる。   Further, by registering in advance in a finger-command correspondence information table, which will be described later, when the thumb 20 and the index finger 21 double-click the substantially square image 34 from both front and back surfaces, the image 34 is selected. It is also possible. In this case, the elapsed time may be a time from the first click to the second click.

以上、図9〜図18を参照して、指の像の動きに対応して実行される種々の動作の具体例を説明した。なお、前記説明では、親指20と人差し指21の移動方向と実行される動作とを対応付けて説明したが、実行される動作は、前記の各動作に限定されない。つまり、指の像の動きと実行される動作とを対応付けて後述する指−命令対応情報テーブルに予め登録しておけば、同じ指の動きであっても、異なる動作を実行することが可能となる。   The specific examples of various operations executed in response to the movement of the finger image have been described above with reference to FIGS. In the above description, the movement direction of the thumb 20 and the index finger 21 and the action to be executed are described in association with each other. However, the action to be executed is not limited to the above-described actions. In other words, if the movement of the finger image and the action to be executed are associated with each other and registered in the finger-command correspondence information table described later, different actions can be executed even with the same finger movement. It becomes.

例えば、図11を参照して説明した正方形の画像27aを移動する動作は、親指20と人差し指21をそれぞれ同じ方向へ移動させることにより実行される。しかしながら、親指20と人差し指21をそれぞれ同じ方向へ移動する動きを、画像を拡大(縮小)する動作に対応付けておくことにより、同じ指の動きであっても、異なる動作を実行することができる。あるいは、親指20と人差し指21をそれぞれ同じ方向へ移動させることにより、円形の画像の場合には画像の拡大という動作を割り当て、矩形の画像の場合には移動という動作を割り当てておくことにより、同じ指の動きであっても、画像の形状に応じて、異なる動作を実行することができる。   For example, the operation of moving the square image 27a described with reference to FIG. 11 is executed by moving the thumb 20 and the index finger 21 in the same direction. However, by associating the movement of the thumb 20 and the index finger 21 in the same direction with the movement of enlarging (reducing) the image, different movements can be executed even with the same finger movement. . Alternatively, by moving the thumb 20 and the index finger 21 in the same direction, the operation of enlarging the image is assigned in the case of a circular image, and the operation of moving is assigned in the case of a rectangular image. Even with finger movement, different actions can be executed depending on the shape of the image.

ここで、数え切れないほど多く存在する指の像の動きの変化の中から、ある特定の指の像の動きを認識し、その指の像の動きに対応付けられた所定の動作を実行するためには、次のような方法が考えられる。   Here, in order to recognize the movement of a specific finger image from among the numerous changes in the movement of the finger image that can be counted, and to execute a predetermined operation associated with the movement of the finger image The following methods are conceivable.

第1の方法は、第1表示/光センサ部300Aが検知した指の像の動きと、第2表示/光センサ部300Bが検知した指の像の動きとの関係から、特定の指の動きを認識する方法である。この方法は、例えば、表裏両面における指の像が、同一方向に移動すればオブジェクトが移動、反対方向に移動すればオブジェクトが拡大、近づく方向に移動すればオブジェクトが縮小、といった動きを予め対応付けておくことにより、数多く存在する指の像の動きの変化の中から、ある特定の指の像の動きを認識するというものである。   The first method is based on the relationship between the movement of the finger image detected by the first display / light sensor unit 300A and the movement of the finger image detected by the second display / light sensor unit 300B. It is a method to recognize. In this method, for example, when the finger images on both the front and back surfaces move in the same direction, the object moves, when the object moves in the opposite direction, the object expands, and when it moves in the approaching direction, the object contracts in advance. By doing so, the movement of a specific finger image is recognized from among many changes in the movement of the finger image.

第2の方法は、上述した第1の方法に加えて、データ表示/センサ装置100との位置関係を考慮するものであり、データ表示/センサ装置100に対する指の像の動きの角度から、特定の指の動きを認識する方法である。この方法は、データ表示/センサ装置100の基準座標(X・Y軸)を定めておき、表裏両面の像が、X軸の反対方向に移動すればオブジェクトが拡大、Y軸の反対方向に移動すればオブジェクトが回転、といった動きを予め対応付けておくことにより、数多く存在する指の像の動きの変化の中から、ある特定の指の像の動きを認識するというものである。   The second method considers the positional relationship with the data display / sensor device 100 in addition to the first method described above, and is specified from the angle of movement of the finger image with respect to the data display / sensor device 100. This is a method for recognizing the movement of a finger. In this method, the reference coordinates (X / Y axes) of the data display / sensor device 100 are determined, and if the images on both sides are moved in the opposite direction of the X axis, the object is enlarged and moved in the opposite direction of the Y axis. Then, by associating movements such as rotation of the object in advance, the movement of a specific finger image is recognized from among many changes in the movement of the finger image.

第3の方法は、アプリケーション、モード等の動作する状態(場面)に応じて、特定の指の動きを認識する方法である。この方法は、あるアプリケーションの場合は、表裏両面の指の像を反対方向に移動させればオブジェクトが扇状に展開、他のアプリケーションの場合は、表裏面の指の像を反対方向に移動させればオブジェクトが拡大、さらに他のアプリケーションの場合は、表裏面の指の像を同一方向に移動させればオブジェクトが拡大、といった動きを予め対応付けておくことにより、数多く存在する指の像の動きの変化の中から、ある特定の指の像の動きを認識するというものである。   The third method is a method for recognizing the movement of a specific finger in accordance with the operating state (scene) of the application, mode, or the like. In some applications, moving the finger images on the front and back sides in the opposite direction will cause the object to fan out, and in other applications the finger images on the front and back sides can be moved in the opposite direction. For example, in the case of another application, the movement of the finger image that exists in large numbers can be obtained by associating in advance the movement that the object is enlarged if the finger images on the front and back surfaces are moved in the same direction. It recognizes the movement of a specific finger image from among the changes.

そして、どの方法を採用するかを予め設定しておけば、数え切れないほど多く存在する指の像の動きの変化の中から、ある特定の指の像の動きが認識されて、その指の像の動きに対応付けられた所定の動作が実行される。   And if you decide which method to use in advance, the movement of a specific finger image is recognized from among the many changes in finger image movements that can be counted, and the image of that finger is recognized. A predetermined action associated with the movement is performed.

また、前記3つの方法に限らず、それらを組み合わせてもよく、あるいは、前記以外の方法により、数え切れないほど多く存在する指の像の動きの変化の中から、ある特定の指の像の動きを認識し、その指の像の動きに対応付けられた所定の動作を実行してもよい。   In addition to the above three methods, they may be combined, or by a method other than the above, the movement of a specific finger image from among the many changes in the number of finger images that can be counted. May be recognized and a predetermined action associated with the movement of the image of the finger may be executed.

このようにして、特定の指の像の動きに対応付けられた所定の動作が実行される。そして、その所定の動作とは、図9〜図18を参照して説明した、画像(オブジェクト)の選択、拡大、縮小、回転、扇状への展開、他の画像への切り替え、移動、削除、引き伸ばし、あるいは分割などが挙げられる。そして、第1表示/光センサ部300Aには、上記動作結果が表示される。   In this manner, a predetermined operation associated with the movement of the specific finger image is executed. The predetermined operation is the selection, enlargement, reduction, rotation, fanning, switching to another image, movement, deletion, image (object) described with reference to FIGS. For example, enlargement or division. The operation result is displayed on the first display / light sensor unit 300A.

なお、実行される所定の動作は、上述した各動作に限らず、種々の動作が可能である。また、図9〜図18を参照して説明した各動作を適宜組み合わせて得られる動作も実行可能である。   The predetermined operation to be executed is not limited to the above-described operations, and various operations are possible. Moreover, the operation | movement obtained by combining suitably each operation | movement demonstrated with reference to FIGS. 9-18 is also executable.

ここで、他の動作の一例を図11(a)・(b)を参照して説明する。図11(a)・(b)では、上面から親指20で、下面から人差し指21で、それぞれ略正方形の画像27aをタッチして、さらに親指20と人差し指21をそれぞれ同じ方向(図面横方向において、右方向)へ移動させている。この指の動きにより、略正方形の画像27aが第1表示/光センサ部300Aの画面の外側へと移動する。   Here, an example of another operation will be described with reference to FIGS. 11 (a) and 11 (b), touch the substantially square image 27a with the thumb 20 from the top and the index finger 21 from the bottom, respectively, and then the thumb 20 and the index finger 21 in the same direction (in the horizontal direction of the drawing, (To the right). By the movement of the finger, the substantially square image 27a moves to the outside of the screen of the first display / light sensor unit 300A.

このとき、第1表示/光センサ部300Aの画面の外側へ略正方形の画像27aが移動し終わる前に親指20及び/又は人差し指21が略正方形の画像27aから離れた場合、画像が最初の位置(状態)に戻るようデータ表示/センサ装置が構成されていたとする。この場合、ユーザは、当該装置を使用することにより、親指20及び/又は人差し指21を略正方形の画像27aから離すことで略正方形の画像27aを最初の位置(状態)に戻すことができる。つまり、ユーザは、指を離す動作によって所定の動作(画像の移動)をキャンセルすることができる。   At this time, if the thumb 20 and / or forefinger 21 moves away from the substantially square image 27a before the substantially square image 27a finishes moving to the outside of the screen of the first display / light sensor unit 300A, the image is the first position. Assume that the data display / sensor device is configured to return to (state). In this case, the user can return the substantially square image 27a to the initial position (state) by separating the thumb 20 and / or forefinger 21 from the substantially square image 27a by using the device. That is, the user can cancel a predetermined operation (image movement) by releasing the finger.

つまり、データ表示/センサ装置が上記のように構成されていれば、画像を最初の状態に戻すための他の動作を必要とせず、ユーザの負担が軽減される。そして、所定の動作をキャンセルする操作は、図9等を参照して説明した他の実施例にも適用することが可能である。   That is, if the data display / sensor device is configured as described above, another operation for returning the image to the initial state is not required, and the burden on the user is reduced. The operation of canceling the predetermined operation can be applied to the other embodiments described with reference to FIG.

このように、指の動きと所定の動作とを種々のパターンで関連付けることができる。そして、実行される所定の動作は、上述した各動作に限らず、種々の動作が可能である。   In this way, the movement of the finger and the predetermined action can be associated with various patterns. And the predetermined | prescribed operation | movement performed is not restricted to each operation | movement mentioned above, A various operation | movement is possible.

(データ表示/センサ装置の要部説明)
次に、図1を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、画像の表示および画像の検知を行うにあたり、主制御部800の入力インターフェース制御部805が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Explanation of main parts of data display / sensor device)
Next, a more detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when performing image display and image detection, the input interface control unit 805 of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 performs circuit control based on the command. The circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、データ表示/センサ装置100の要部構成を表すブロック図である。図示のように、主制御部800は、入力インターフェース制御部805と、アプリケーション実行部850(動作実行装置)と、を備える。また、入力インターフェース制御部805は、検知判定部810と、重畳判定部820と、入力検出部830と、動作制御部840(動作制御手段)と、画像表示制御部860(画像表示制御手段)と、を備える。   FIG. 1 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in the figure, the main control unit 800 includes an input interface control unit 805 and an application execution unit 850 (operation execution device). The input interface control unit 805 includes a detection determination unit 810, a superimposition determination unit 820, an input detection unit 830, an operation control unit 840 (operation control unit), and an image display control unit 860 (image display control unit). .

検知判定部810は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが、共に指の像を検知したかどうかを判定する。より具体的に説明すると、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したとき、座標データ、全体画像データ、部分画像データがデータ制御部700から検知判定部810に送信される。従って、検知判定部810は、第1表示/光センサ部300A及び第2表示/光センサ部300Bの両方から座標データ、全体画像データ、部分画像データを受信した場合に、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定することができる。なお、検知判定部810は、座標データ、全体画像データ、部分画像データのうち少なくとも何れか1つを受信することで、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定することもできる。   The detection determination unit 810 determines whether the first display / light sensor unit 300A and the second display / light sensor unit 300B have both detected a finger image. More specifically, when the first display / light sensor unit 300A and the second display / light sensor unit 300B both detect a finger image, coordinate data, whole image data, and partial image data are received from the data control unit 700. It is transmitted to the detection determination unit 810. Accordingly, the detection determination unit 810 receives the coordinate data, the entire image data, and the partial image data from both the first display / light sensor unit 300A and the second display / light sensor unit 300B. It can be determined that both the unit 300A and the second display / light sensor unit 300B have detected a finger image. The detection determination unit 810 receives at least one of the coordinate data, the entire image data, and the partial image data, so that the first display / light sensor unit 300A and the second display / light sensor unit 300B are both connected. It can also be determined that a finger image has been detected.

ここで、図1では、データ処理部700から検知判定部810(及び、重畳判定部820、入力検出部830)へ送信される座標データ、全体画像データ、部分画像データが実線及び破線で記載されている。これは、検知判定部810が、第1表示/光センサ部300A及び第2表示/光センサ部300Bの両方から座標データ、全体画像データ、部分画像データを取得するためであり、第1表示/光センサ部300Aから検知判定部810(及び、重畳判定部820、入力検出部830)へ送信される座標データ、全体画像データ、部分画像データを実線で、第2表示/光センサ部300Bから検知判定部810(及び、重畳判定部820、入力検出部830)へ送信される座標データ、全体画像データ、部分画像データを破線で、それぞれ記載している。   Here, in FIG. 1, the coordinate data, the entire image data, and the partial image data transmitted from the data processing unit 700 to the detection determination unit 810 (and the superimposition determination unit 820 and the input detection unit 830) are indicated by solid lines and broken lines. ing. This is because the detection determination unit 810 acquires coordinate data, whole image data, and partial image data from both the first display / light sensor unit 300A and the second display / light sensor unit 300B. Coordinate data, whole image data, and partial image data transmitted from the optical sensor unit 300A to the detection determination unit 810 (and the superimposition determination unit 820 and the input detection unit 830) are detected from the second display / light sensor unit 300B by solid lines. Coordinate data, whole image data, and partial image data transmitted to the determination unit 810 (and the superimposition determination unit 820 and the input detection unit 830) are indicated by broken lines, respectively.

次に、検知判定部810は、「第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知した」ことを示す判定結果を入力検出部830に出力する。従って、第1表示/光センサ部300Aのみ、あるいは第2表示/光センサ部300Bのみが指の像を検知した場合、若しくは第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知しなかった場合には、検知判定部810は、「第1表示/光センサ部300A及び第2表示/光センサ部300Bは、共に指の像を検知しなかった」ことを示す判定結果を入力検出部830に出力する。若しくは、検知判定部810は、入力検出部830に対して何も出力しない。   Next, the detection determination unit 810 outputs a determination result indicating that “the first display / light sensor unit 300 </ b> A and the second display / light sensor unit 300 </ b> B both detected the finger image” to the input detection unit 830. Accordingly, when only the first display / light sensor unit 300A or only the second display / light sensor unit 300B detects an image of a finger, or the first display / light sensor unit 300A and the second display / light sensor unit 300B When neither finger image is detected, the detection determination unit 810 indicates that “the first display / light sensor unit 300A and the second display / light sensor unit 300B have not detected the finger image”. Is output to the input detection unit 830. Alternatively, the detection determination unit 810 outputs nothing to the input detection unit 830.

重畳判定部820は、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域と、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の領域である像領域とが重畳するか否かを判定する。なお、表示/光センサ部300のうち、第1表示/光センサ部300Aに画像が表示され、第2表示/光センサ部300Bには画像が表示されていないものとして説明する。   The superimposition determination unit 820 includes a display image region that is a region of an image displayed on the first display / light sensor unit 300A, and a finger detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B. It is determined whether or not an image region that is an image region overlaps. In the display / light sensor unit 300, an image is displayed on the first display / light sensor unit 300A and no image is displayed on the second display / light sensor unit 300B.

より具体的に説明すると、重畳判定部820は、データ制御部700から座標データ、全体画像データ、部分画像データを取得し、それら座標データ、全体画像データ、部分画像データから像領域を特定する。また、重畳判定部820は、第1表示/光センサ部300Aに表示された画像に係る画像情報を記憶部901から読み出す。その画像情報には、当該画像に係る表示画像領域が座標により特定されているため、重畳判定部820は、記憶部901から画像情報を読み出すことにより表示画像領域を特定することができる。   More specifically, the superimposition determination unit 820 acquires coordinate data, whole image data, and partial image data from the data control unit 700, and specifies an image region from these coordinate data, whole image data, and partial image data. In addition, the superimposition determination unit 820 reads image information related to the image displayed on the first display / light sensor unit 300 </ b> A from the storage unit 901. In the image information, since the display image area related to the image is specified by coordinates, the superimposition determination unit 820 can specify the display image area by reading the image information from the storage unit 901.

一例として、図28、及び図29を参照して画像情報について説明する。図28は、図10に係る円形の画像26a、26bについての画像情報を説明するための図である。また、図29は、図11に係る矩形の画像27aについての画像情報を説明するための図である。   As an example, image information will be described with reference to FIGS. 28 and 29. FIG. 28 is a diagram for explaining the image information about the circular images 26a and 26b according to FIG. FIG. 29 is a diagram for explaining image information about the rectangular image 27a according to FIG.

図28(a)に示すように、円形の画像26aは、座標(A、B)を中心点として、直径φT1で示される円である。また、図10を参照して説明した方法によって得られた、図28(b)におけるより大きな寸法に拡大した円形の画像26bは、座標(A、B)を中心点として、直径φT2で示される円である。なお、ここでは円形の画像26a・26bに係る表示画像領域は、座標(A、B)、及び直径φT1、φT2によって特定されているが、円形の画像26a・26bの各円周の座標によって特定する態様であっても構わない。何れの態様であれ、円形の画像26a・26bに係る表示画像領域が特定されるためである。   As shown in FIG. 28A, the circular image 26a is a circle having a diameter φT1 with the coordinates (A, B) as the center point. Further, a circular image 26b obtained by the method described with reference to FIG. 10 and enlarged to a larger size in FIG. 28B is indicated by a diameter φT2 with the coordinates (A, B) as a center point. It is a circle. Here, the display image areas related to the circular images 26a and 26b are specified by the coordinates (A, B) and the diameters φT1 and φT2, but are specified by the coordinates of the respective circumferences of the circular images 26a and 26b. You may be the aspect to do. This is because the display image area relating to the circular images 26a and 26b is specified in any manner.

また、図29(a)に示すように、矩形の画像27aは、(A、B1)という位置を画像の中心として、一辺が長さCで表される正方形の画像である。また、図11を参照して説明した方法によって得られた、図29(b)における図面右側に移動した画像27aは、(A、B2)を画像の中心として、一辺が長さCで表される正方形の画像である。なお、ここでは正方形の画像27aは、座標(A、B1)、(A、B2)、及び長さCで特定されるが、正方形の画像27aの4辺を示す座標によって特定する態様であっても構わない。何れの態様であれ、正方形の画像27aに係る表示画像領域が特定されるためである。   As shown in FIG. 29A, the rectangular image 27a is a square image whose one side is represented by a length C with the position (A, B1) as the center of the image. Also, the image 27a moved to the right side of the drawing in FIG. 29B obtained by the method described with reference to FIG. 11 has one side represented by a length C with (A, B2) as the center of the image. This is a square image. Here, the square image 27a is specified by the coordinates (A, B1), (A, B2) and the length C, but is specified by coordinates indicating four sides of the square image 27a. It doesn't matter. This is because the display image area related to the square image 27a is specified in any manner.

このように、図28で言えば座標(A、B)及びφT1、φT2という情報を、また図29で言えば座標(A、B1)、(A、B2)、及びCという情報を、それぞれ画像情報として扱うことにより、重畳判定部820は、記憶部901からその画像情報を読み出すことによって表示画像領域を特定することができる。   As described above, the coordinates (A, B) and information of φT1 and φT2 in FIG. 28 and the information of coordinates (A, B1), (A, B2), and C in FIG. By treating the information as information, the superimposition determination unit 820 can specify the display image region by reading out the image information from the storage unit 901.

上記の方法により、重畳判定部820は、像領域および表示画像領域を特定することができ、従って、像領域と表示画像領域との間に重畳する重畳領域が存在するか否かを判定することができる。そして、重畳判定部820は、その判定結果を入力検出部830に出力する。なお、前記の重畳領域が存在しないと判定した場合に、重畳判定部820がその判定結果を入力検出部830に出力せず、そのことにより重畳領域が存在しないことの判定結果とすることもできる。   By the above method, the superimposition determination unit 820 can specify the image region and the display image region, and therefore determines whether or not there is a superimposition region that overlaps between the image region and the display image region. Can do. Then, the superimposition determination unit 820 outputs the determination result to the input detection unit 830. In addition, when it determines with the said superimposition area | region not existing, the superimposition determination part 820 does not output the determination result to the input detection part 830, and it can also be set as the determination result that a superimposition area | region does not exist by it. .

また、前記の説明では、重畳判定部820はデータ制御部700から座標データ、全体画像データ、部分画像データを取得するものとして説明した。しかしながら、重畳判定部820は、検知判定部810を介して、データ制御部700から座標データ、全体画像データ、部分画像データを取得してもよい。   In the above description, the superimposition determination unit 820 is described as acquiring coordinate data, whole image data, and partial image data from the data control unit 700. However, the superimposition determination unit 820 may acquire coordinate data, whole image data, and partial image data from the data control unit 700 via the detection determination unit 810.

なお、重畳領域が存在するか否かの判定では、重畳判定部820は、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域と、第1表示/光センサ部300Aあるいは第2表示/光センサ部300Bのうち、何れか一方が検知した指の像の領域である像領域とが重畳するか否かを判定してもよい。これにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bの両方の像領域と表示画像領域とが重畳するか否かを判定する場合よりも、「重畳領域が存在する」と判定される条件を緩和することができる。   In determining whether or not there is a superimposition region, the superimposition determination unit 820 includes a display image region that is a region of an image displayed on the first display / light sensor unit 300A and the first display / light sensor unit 300A. Or you may determine whether the image area | region which is the area | region of the image of the finger | toe which any one detected among the 2nd display / light sensor part 300B overlaps. Thus, “there is a superimposed region”, compared to the case where it is determined whether or not the image region of both the first display / light sensor unit 300A and the second display / light sensor unit 300B overlap the display image region. Can be relaxed.

ここで、具体例を用いて、重畳判定の条件を緩和することが好ましい理由を説明する。図9(a)では、ユーザは、第1表示/光センサ部300Aに表示された矩形の画像25aに対応する第2表示/光センサ部300B上の領域を人差し指21でタッチしている。つまり、第2表示/光センサ部300Bに矩形の画像25aが表示されているとしたならば、その矩形の画像25aが表示されているであろう領域を、人差し指21がタッチする。   Here, the reason why it is preferable to relax the condition for superimposition determination will be described using a specific example. In FIG. 9A, the user touches the area on the second display / light sensor unit 300 </ b> B corresponding to the rectangular image 25 a displayed on the first display / light sensor unit 300 </ b> A with the index finger 21. That is, if the rectangular image 25a is displayed on the second display / light sensor unit 300B, the index finger 21 touches the area where the rectangular image 25a will be displayed.

このとき、第2表示/光センサ部300Bは矩形の画像25aを画面上に表示していないため、ユーザは、第1表示/光センサ部300Aに表示された矩形の画像25aに対応する第2表示/光センサ部300B上の領域を感覚的に認識して、その上で、その領域をタッチしている。つまり、人差し指21による当該領域へのタッチは、感覚的に行われるものであり、常に正確に行われるものではない。   At this time, since the second display / light sensor unit 300B does not display the rectangular image 25a on the screen, the user performs the second display corresponding to the rectangular image 25a displayed on the first display / light sensor unit 300A. A region on the display / light sensor unit 300B is sensibly recognized, and then the region is touched. That is, the touch of the area with the index finger 21 is performed sensibly and is not always performed accurately.

従って、少なくとも第1表示/光センサ部300Aあるいは第2表示/光センサ部300Bのうち、何れか一方が検知した指の像の領域である像領域が表示画像領域と重畳することにより「重畳領域が存在する」と判定されるのであれば、データ表示/センサ装置100は、より優れた操作性及び利便性をユーザに提供することができる。   Accordingly, an image region, which is a region of a finger image detected by at least one of the first display / light sensor unit 300A or the second display / light sensor unit 300B, is superimposed on the display image region. If it is determined that “exists”, the data display / sensor device 100 can provide the user with better operability and convenience.

入力検出部830は、検知判定部810が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、かつ、重畳判定部820が重畳領域が存在すると判定した場合には、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きを検出して、その指の像の動きに対応付けられた入力信号を生成し、その入力信号を動作制御部840に出力する。   The input detection unit 830 determines that the detection determination unit 810 has detected the finger image by both the first display / light sensor unit 300A and the second display / light sensor unit 300B, and the superimposition determination unit 820 determines the superimposition region. Is detected, the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the movement of the finger image, and associate the detected movement with the finger image movement. An input signal is generated, and the input signal is output to the operation control unit 840.

このとき、入力検出部830は、さらにアプリケーション、モード等の動作する状態(場面)、あるいは画像の属性にも対応付けて入力信号を生成する。これにより、後述するアプリケーション実行部850は、第1表示/光センサ部300Aに表示された画像に対して所定の動作を実行することができる。なお、入力検出部830は、記憶部901から直接、もしくは重畳判定部820を介して当該画像等に係る画像情報を取得することができる。これにより、入力検出部830は、第1表示/光センサ部300Aに表示された画像に対応付けされた入力信号を生成することができる。   At this time, the input detection unit 830 further generates an input signal in association with an operating state (scene) such as an application and a mode, or an image attribute. Thereby, the application execution part 850 mentioned later can perform predetermined | prescribed operation | movement with respect to the image displayed on the 1st display / light sensor part 300A. Note that the input detection unit 830 can acquire image information related to the image or the like directly from the storage unit 901 or via the superimposition determination unit 820. Thereby, the input detection unit 830 can generate an input signal associated with the image displayed on the first display / light sensor unit 300A.

ここで、入力検出部830が生成する入力信号について、図9の動作を例に具体的に説明する。   Here, the input signal generated by the input detection unit 830 will be specifically described by taking the operation of FIG. 9 as an example.

第1表示/光センサ部300A及び第2表示/光センサ部300Bは、反対方向へ移動する親指20の像と人差し指21の像を検知する。このとき、入力検出部830は、データ制御部700から親指20の像と人差し指21の像の移動前後における全体画像データ、部分画像データ、及び座標データを取得する。そして、入力検出部830は、それらのデータから、それぞれの指の像の移動量、及び移動方向を算出する。   The first display / light sensor unit 300A and the second display / light sensor unit 300B detect the image of the thumb 20 and the image of the index finger 21 moving in opposite directions. At this time, the input detection unit 830 acquires the entire image data, the partial image data, and the coordinate data before and after the movement of the image of the thumb 20 and the index finger 21 from the data control unit 700. Then, the input detection unit 830 calculates the moving amount and moving direction of each finger image from the data.

より具体的に説明すると、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)で表され、部分画像データ(領域PP)における座標データは(Xp,Yp)として表される。従って、入力検出部830は、親指20の像及び人差し指21の像の移動前後における上記座標データをそれぞれ取得して、その座標データの差分を計算することにより、それぞれの指の像の移動量、及び移動方向を算出することができる。   More specifically, the coordinate data in the entire image data (region AP) of the representative coordinates Z of the partial image data (region PP) is represented by (Xa, Ya), and the coordinate data in the partial image data (region PP). Is represented as (Xp, Yp). Accordingly, the input detection unit 830 acquires the coordinate data before and after the movement of the image of the thumb 20 and the image of the index finger 21 and calculates the difference between the coordinate data, thereby moving the movement amount of each finger image, And the moving direction can be calculated.

このようにして、入力検出部830は、第1表示/光センサ部300A及び第2表示/光センサ部300Bがそれぞれ検知した指の像の動きを検出して、各指の座標移動量、座標移動方向(単独ベクトル)を算出する。そして、入力検出部830は、各指の単独ベクトルから、各指が互いにどの方向に、どの程度移動したかを示す相対ベクトルを算出する。これにより、入力検出部830は、単独ベクトル、及び相対ベクトルを算出し、かつ、単独ベクトル、及び相対ベクトルに対応付けられた入力信号を生成する。   In this way, the input detection unit 830 detects the movements of the finger images detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B, and moves the coordinate movement amount and coordinates of each finger. The moving direction (single vector) is calculated. Then, the input detection unit 830 calculates a relative vector indicating how much each finger has moved in which direction and how much each finger has moved from the single vector of each finger. Thereby, the input detection unit 830 calculates a single vector and a relative vector, and generates an input signal associated with the single vector and the relative vector.

さらに、入力検出部830は、以下の種々の項目に対応付けられた入力信号、つまり、記憶部901から読み出した画像情報に基づいて、アプリケーション、モード等の動作する状態(場面)ごとに対応付けされた入力信号、図19を参照して後述する「経過時間」に対応付けられた入力信号、あるいは指の動きの速度に対応付けられた入力信号、を生成する。なお、入力信号は、ここで挙げた項目すべてに対応付けて生成される必要はなく、これらのうち一部に対応付けられて生成されてもよい。   Further, the input detection unit 830 associates each operation state (scene) such as an application and a mode based on input signals associated with the following various items, that is, image information read from the storage unit 901. The generated input signal, an input signal associated with “elapsed time” described later with reference to FIG. 19, or an input signal associated with the speed of finger movement are generated. The input signal does not have to be generated in association with all the items listed here, and may be generated in association with some of these items.

このように、入力検出部830は、上記種々の項目に対応付けられた入力信号を生成し、その入力信号を動作制御部840に出力する。   As described above, the input detection unit 830 generates an input signal associated with the various items and outputs the input signal to the operation control unit 840.

動作制御部840は、入力検出部830が生成した入力信号を受信して、その入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とに対応付けられた指−命令対応情報に基づいて、アプリケーション実行部850に動作実行命令を送信する。   The operation control unit 840 receives the input signal generated by the input detection unit 830, and based on the finger-command correspondence information associated with the input signal and a command for causing the application execution unit 850 to perform a predetermined operation. The operation execution command is transmitted to the application execution unit 850.

より具体的に説明すると、動作制御部840は、入力検出部830が生成した入力信号を受信する。そして、動作制御部840は、その入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とに対応付けられた指−命令対応情報を記憶部901から読み出し、その指−命令対応情報に基づいて、当該入力信号に対応する動作実行命令をアプリケーション実行部850に送信する。   More specifically, the operation control unit 840 receives the input signal generated by the input detection unit 830. Then, the operation control unit 840 reads the finger-command correspondence information associated with the input signal and a command for causing the application execution unit 850 to execute a predetermined operation from the storage unit 901, and uses the finger-command correspondence information as the finger-command correspondence information. Based on this, an operation execution command corresponding to the input signal is transmitted to the application execution unit 850.

ここで、指−命令対応情報についてより具体的に説明する。指−命令対応情報とは、入力検出部830が生成する入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とに対応付けられた情報である。例えば、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像が同じ方向に移動すると、選択した画像を同じ方向に移動させる、あるいは、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像が互いに反対方向に移動すると、選択した画像を拡大する(縮小する)、というように、指−命令対応情報は、入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とに対応付けられている(図30参照)。さらに、これに加え、入力検出部830は、単独ベクトル、相対ベクトル、アプリケーション・モード等の動作する状態(場面)、経過時間、あるいは指の動きの速度といった種々の項目に対応付けられた入力信号を生成する。従って、指−命令対応情報は、上記種々の項目、及び実行すべき所定の動作とが関連付けてなるものである。   Here, the finger-command correspondence information will be described more specifically. The finger-command correspondence information is information associated with an input signal generated by the input detection unit 830 and a command for causing the application execution unit 850 to execute a predetermined operation. For example, when the image of the finger detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B moves in the same direction, the selected image is moved in the same direction, or the first display / light sensor When the finger images detected by the unit 300A and the second display / light sensor unit 300B move in opposite directions, the selected image is enlarged (reduced). The command is associated with an instruction that causes the application execution unit 850 to execute a predetermined operation (see FIG. 30). Further, in addition to this, the input detection unit 830 receives an input signal associated with various items such as a single vector, a relative vector, an operating state (scene) such as an application mode, an elapsed time, or a finger movement speed. Is generated. Therefore, the finger-command correspondence information is formed by associating the various items with predetermined actions to be executed.

なお、図30は、図9〜図19を参照して説明する、画像の形状、指の動き、及び得られる動作を関連付けた指−命令対応情報の一例を示すテーブルである。従って、ここで示す各項目はあくまで一例であって、これに限られるものではない。   FIG. 30 is a table illustrating an example of finger-command correspondence information that associates the shape of an image, the movement of a finger, and the obtained action, which will be described with reference to FIGS. 9 to 19. Accordingly, each item shown here is merely an example, and the present invention is not limited to this.

アプリケーション実行部850は、動作制御部840から動作実行命令を受信して、その命令によって示される動作を実行する。そして、アプリケーション実行部850は、その動作が行われたことを示す動作結果情報を画像表示制御部860に送信する。   The application execution unit 850 receives the operation execution command from the operation control unit 840 and executes the operation indicated by the command. Then, the application execution unit 850 transmits operation result information indicating that the operation has been performed to the image display control unit 860.

例えば、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像が同じ方向に移動した場合(仮にA点からB点へ移動したとする)であって、その指の像の動きに対応付けられた動作が、「表示画像をA点からB点へ移動させる」という動作である場合、アプリケーション実行部850は、当該表示画像の表示位置をA点からB点に移動する処理を行う。そして、アプリケーション実行部850は、「表示画像をA点からB点へ移動する処理を行った」ことを示す動作結果情報を画像表示制御部860に送信する。   For example, when the image of the finger detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B moves in the same direction (assuming that the finger image moves from point A to point B), When the movement associated with the movement of the finger image is an action of “moving the display image from point A to point B”, the application execution unit 850 changes the display position of the display image from point A to point B. Process to move to. Then, the application execution unit 850 transmits operation result information indicating that “the process of moving the display image from point A to point B has been performed” to the image display control unit 860.

このように、アプリケーション実行部850は、動作制御部840から動作実行命令を受信して、その命令によって示される動作を実行し、さらに、その動作が行われたことを示す動作結果情報を画像表示制御部860に送信する。   In this way, the application execution unit 850 receives the operation execution command from the operation control unit 840, executes the operation indicated by the command, and further displays the operation result information indicating that the operation has been performed as an image display. It transmits to the control unit 860.

なお、図1において、アプリケーション実行部850は主制御部800に含まれる構成である。しかしながら、主制御部800の外部にアプリケーション実行部850を設けて、外部通信部907を介して、所定の動作を実行する構成としてもよい。また、アプリケーション実行部850は、1または複数のアプリケーションを有してよい。   In FIG. 1, the application execution unit 850 is included in the main control unit 800. However, the application execution unit 850 may be provided outside the main control unit 800, and a predetermined operation may be executed via the external communication unit 907. Further, the application execution unit 850 may have one or a plurality of applications.

画像表示制御部860は、アプリケーション実行部850から動作結果情報を受信すると、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。   Upon receiving the operation result information from the application execution unit 850, the image display control unit 860 transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A.

従って、「表示画像をA点からB点へ移動させる」という動作がアプリケーション実行部850によって実行された場合、画像表示制御部860は、データ処理部700にそのことを示す表示データを送信して、その結果、第1表示/光センサ部300Aに動作結果が表示される。つまり、表示画像がA点からB点へ移動する様子が第1表示/光センサ部300Aに表示される。   Therefore, when the operation of “moving the display image from point A to point B” is executed by the application execution unit 850, the image display control unit 860 transmits display data indicating that to the data processing unit 700. As a result, the operation result is displayed on the first display / light sensor unit 300A. That is, a state in which the display image moves from the point A to the point B is displayed on the first display / light sensor unit 300A.

また、図1では、記憶部901は、主制御部800の外部に設けられているが、主制御部800の内部に設けられる構成であってもよい。   In FIG. 1, the storage unit 901 is provided outside the main control unit 800, but may be configured inside the main control unit 800.

また、検知判定部810、重畳判定部820、及び入力検出部830は、第1表示/光センサ部300A及び第2表示/光センサ部300Bごとに、指の像の全体画像データ、部分画像データ、及び座標データを送信するようデータ処理部700に要求している。これは、主制御部800で実行されるアプリケーションプログラムが、指の像の全体画像データ、部分画像データ、及び座標データを第1表示/光センサ部300A及び第2表示/光センサ部300Bごとに送信するようデータ処理部700を制御することにより行われる。   In addition, the detection determination unit 810, the superimposition determination unit 820, and the input detection unit 830 include the entire image data and partial image data of the finger image for each of the first display / light sensor unit 300A and the second display / light sensor unit 300B. And the data processing unit 700 is requested to transmit coordinate data. This is because the application program executed by the main control unit 800 displays the entire image data, partial image data, and coordinate data of the finger image for each of the first display / light sensor unit 300A and the second display / light sensor unit 300B. This is done by controlling the data processing unit 700 to transmit.

(フローチャート説明)
次に、図9〜図18、及び図20を参照しながら、データ表示/センサ装置100の処理の流れ、及び、入力インターフェース制御部805からデータ処理部700に送信されるコマンドの詳細について説明する。
(Flowchart explanation)
Next, the processing flow of the data display / sensor device 100 and the details of the command transmitted from the input interface control unit 805 to the data processing unit 700 will be described with reference to FIGS. 9 to 18 and FIG. .

図20は、データ表示/センサ装置100の処理の流れを表すフローチャートである。   FIG. 20 is a flowchart showing the flow of processing of the data display / sensor device 100.

まず、データ表示/センサ装置100の電源がオフの状態にあるとき、ユーザが電源スイッチ905を押下することにより、データ表示/センサ装置100は電源オンとなる(S11)。   First, when the data display / sensor device 100 is powered off, the data display / sensor device 100 is turned on when the user presses the power switch 905 (S11).

そして、ステップS13では、ユーザが電源スイッチ905を押下することにより、表示/光センサ部300に画像が表示される。なお、ここでは、第1表示/光センサ部300Aに画像が表示されるものとする。この状態で、データ表示/センサ装置100は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが指の像を検出するまで待機する。   In step S <b> 13, when the user presses the power switch 905, an image is displayed on the display / light sensor unit 300. Here, it is assumed that an image is displayed on the first display / light sensor unit 300A. In this state, the data display / sensor device 100 waits until the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the image of the finger.

ここで、第1表示/光センサ部300Aに画像を表示させる場合は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。なお、第2表示/光センサ部300Bに画像を表示させる場合は、「表示パネル」フィールドの値として下画面(“010”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。ここでは、第1表示/光センサ部300Aに画像を表示させるため、「表示パネル」フィールドの値として両画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   Here, when displaying an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. When displaying an image on the second display / light sensor unit 300B, a command specifying the lower screen (“010”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. Here, in order to display an image on the first display / light sensor unit 300A, a command specifying both screens (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output.

また、この段階では、表示/光センサ部300は近傍の像を検知可能な状態にあるものとする。前記検知を行うために、「データ取得タイミング」フィールドに、“イベント”を指定し、「データ種別」フィールドに“座標”および“全体画像”の両方を指定(“101”を指定)したコマンドが入力インターフェース制御部805からデータ処理部700に出力される。なお、“座標”または“全体画像”のみを指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力されてもよい。   Further, at this stage, it is assumed that the display / light sensor unit 300 is in a state in which a nearby image can be detected. To perform the detection, a command in which “event” is specified in the “data acquisition timing” field and both “coordinate” and “whole image” are specified (“101” is specified) in the “data type” field is specified. The data is output from the input interface control unit 805 to the data processing unit 700. Note that a command specifying only “coordinates” or “entire image” may be output from the input interface control unit 805 to the data processing unit 700.

さらに、第1表示/光センサ部300A及び第2表示/光センサ部300Bにおいて前記検知を行うために、「スキャンパネル」フィールドに両方の表示/光センサ部300を指定(“011”)したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   Further, in order to perform the detection in the first display / light sensor unit 300A and the second display / light sensor unit 300B, a command in which both the display / light sensor units 300 are specified (“011”) in the “scan panel” field. Is output from the input interface control unit 805 to the data processing unit 700.

これにより、センサ内蔵液晶パネル301が近傍の像を検知した場合に、検知判定部810、重畳判定部820、及び入力検出部830は、データ処理部700から座標データ、全体画像データ、部分画像データを取得することができる。   Thus, when the sensor built-in liquid crystal panel 301 detects a nearby image, the detection determination unit 810, the superimposition determination unit 820, and the input detection unit 830 receive coordinate data, whole image data, and partial image data from the data processing unit 700. Can be obtained.

つまり、第1表示/光センサ部300A及び第2表示/光センサ部300Bにユーザの指がタッチしたとき、光センサ回路32が、タッチした指の影像および反射像の少なくとも何れかを検知する。その結果、データ処理部700がセンサ制御部602から取得する画像データに変化が生じる。   That is, when the user's finger touches the first display / light sensor unit 300A and the second display / light sensor unit 300B, the light sensor circuit 32 detects at least one of a shadow image and a reflection image of the touched finger. As a result, the image data acquired by the data processing unit 700 from the sensor control unit 602 changes.

このようにして、検知判定部810は、前記画像データに変化が生じた際にデータ処理部700から出力されてくる、座標データ、全体画像データ、部分画像データを取得することにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したことを認識できる。   In this manner, the detection determination unit 810 acquires the coordinate data, the entire image data, and the partial image data that are output from the data processing unit 700 when a change occurs in the image data, thereby performing the first display. It is possible to recognize that both the optical sensor unit 300A and the second display / optical sensor unit 300B have detected the finger image.

そして、ステップS15では、検知判定部810が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したかどうかを判定する。つまり、表示/光センサ部300ごとの座標データ、全体画像データ、部分画像データがデータ処理部700から検知判定部810に入力されることにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定される。なお、図20では、便宜のため、第1表示/光センサ部300Aを「A」と称し、第2表示/光センサ部300Bを「B」と称している。   In step S15, the detection determination unit 810 determines whether the first display / light sensor unit 300A and the second display / light sensor unit 300B have both detected a finger image. That is, the coordinate data, the entire image data, and the partial image data for each display / light sensor unit 300 are input from the data processing unit 700 to the detection determination unit 810, so that the first display / light sensor unit 300A and the second display / light sensor unit 300A. It is determined that both of the optical sensor units 300B detect the finger image. In FIG. 20, for the sake of convenience, the first display / light sensor unit 300A is referred to as “A”, and the second display / light sensor unit 300B is referred to as “B”.

第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知した場合(ステップS15でYes)、ステップS17に進む。ステップS17では、重畳判定部820が、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域と、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の領域である像領域とが重畳するか否かを判定する。つまり、データ処理部700から表示/光センサ部300ごとの座標データ、全体画像データ、部分画像データを取得することにより、重畳判定部820は、座標データ、全体画像データ、及び部分画像データと、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域とを比較して、重畳する領域(重畳領域)が存在するかどうかを判定する。なお、重畳判定部820は、第1表示/光センサ部300Aに表示された画像に係る画像情報を記憶部901から読み出している。   When both the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the finger image (Yes in step S15), the process proceeds to step S17. In step S17, the superimposition determination unit 820 includes a display image region that is a region of an image displayed on the first display / light sensor unit 300A, and the first display / light sensor unit 300A and the second display / light sensor unit 300B. It is determined whether or not the detected image area that is the image area of the finger is superimposed. That is, by acquiring the coordinate data, the entire image data, and the partial image data for each display / light sensor unit 300 from the data processing unit 700, the superimposition determining unit 820 can obtain the coordinate data, the entire image data, and the partial image data, A display image area which is an area of an image displayed on the first display / light sensor unit 300A is compared, and it is determined whether or not an overlapping area (superimposition area) exists. Note that the superimposition determination unit 820 reads image information related to the image displayed on the first display / light sensor unit 300 </ b> A from the storage unit 901.

重畳領域が存在すると判定された場合(ステップS17でYes)、ステップS19に進む。ステップS19では、入力検出部830が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きを検出して、その指の像の動きに対応付けられた入力信号を生成し、その入力信号を動作制御部840に出力する。   If it is determined that the overlapping area exists (Yes in step S17), the process proceeds to step S19. In step S19, the input detection unit 830 detects the movement of the finger image detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B, and associates it with the movement of the finger image. The input signal is generated and the input signal is output to the operation control unit 840.

続いて、ステップS21では、動作制御部840が、その入力信号を入力検出部830から受信して、その入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とが対応付けられた指−命令対応情報を記憶部901から読み出す。   Subsequently, in step S21, the operation control unit 840 receives the input signal from the input detection unit 830, and specifies an instruction associated with the input signal and a command for causing the application execution unit 850 to execute a predetermined operation. Read instruction correspondence information from the storage unit 901.

動作制御部840は、記憶部901から指−命令対応情報を読み出して、その指−命令対応情報に基づいて、アプリケーション実行部850に動作実行命令を送信する。   The operation control unit 840 reads the finger-command correspondence information from the storage unit 901, and transmits the operation execution command to the application execution unit 850 based on the finger-command correspondence information.

続いて、ステップS23では、アプリケーション実行部850が、動作制御部840から動作実行命令を受信して、その命令によって示される動作を実行する。そして、アプリケーション実行部850は、その動作が行われたことを示す動作結果情報を画像表示制御部860に送信する。   Subsequently, in step S23, the application execution unit 850 receives the operation execution command from the operation control unit 840, and executes the operation indicated by the command. Then, the application execution unit 850 transmits operation result information indicating that the operation has been performed to the image display control unit 860.

そして、ステップS25では、画像表示制御部860が、アプリケーション実行部850から動作結果情報を受信して、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。その結果、第1表示/光センサ部300Aには、アプリケーション実行部850が動作制御部840から受信した動作実行命令に基づいて実行した動作結果が表示される。   In step S <b> 25, the image display control unit 860 receives operation result information from the application execution unit 850 and transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A. As a result, the first display / light sensor unit 300A displays the operation result executed by the application execution unit 850 based on the operation execution command received from the operation control unit 840.

このとき、第1表示/光センサ部300Aに画像を表示させる場合は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。なお、第2表示/光センサ部300Bに画像を表示させる場合は、「表示パネル」フィールドの値として下画面(“010”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。ここでは、第1表示/光センサ部300Aに画像を表示させるため、「表示パネル」フィールドの値として両画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   At this time, when displaying an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. When displaying an image on the second display / light sensor unit 300B, a command specifying the lower screen (“010”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. Here, in order to display an image on the first display / light sensor unit 300A, a command specifying both screens (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output.

一方、ステップS15、及びステップS17で「No」に進む場合は、再びステップS15に戻る。なお、ステップS15の次にステップS17の処理を行う順序で説明したが、同時に行っても、あるいは逆の順序で行ってもよい。   On the other hand, when it progresses to "No" by step S15 and step S17, it returns to step S15 again. In addition, although demonstrated in the order which performs the process of step S17 after step S15, you may carry out simultaneously or in reverse order.

なお、後述の図23を参照して説明する例では、第1表示/光センサ部300Aに画像が表示されていない場合であっても、所望の動作を実行することができる。従って、この場合には、重畳領域が存在するか否か(ステップS17)の判定を経ることなく、入力検出部830が入力信号を生成するステップ(ステップS19)に進む。   In the example described with reference to FIG. 23 described later, a desired operation can be executed even when an image is not displayed on the first display / light sensor unit 300A. Therefore, in this case, the process proceeds to the step (step S19) in which the input detection unit 830 generates an input signal without determining whether or not the overlapping region exists (step S17).

ここで、前記各ステップ(ステップS11〜ステップS25)の処理の流れを図9を参照して説明する。   Here, the processing flow of each of the steps (steps S11 to S25) will be described with reference to FIG.

図9(a)では、第1表示/光センサ部300Aに矩形の画像25aが表示されている。これは、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力された結果、第1表示/光センサ部300Aに画像25aが表示されたものである。   In FIG. 9A, a rectangular image 25a is displayed on the first display / light sensor unit 300A. This is because the command specifying the upper screen (“001”) as the value of the “display panel” field is output from the input interface control unit 805 to the data processing unit 700, and as a result, the image 25a is displayed on the first display / light sensor unit 300A. Is displayed.

なお、既にこの段階で、「データ取得タイミング」フィールドに、“イベント”を指定し、「データ種別」フィールドに“座標”および“全体画像”の両方を指定(“101”を指定)したコマンドが入力インターフェース制御部805からデータ処理部700に出力され、表示/光センサ部300は近傍の像を検知可能な状態にあるものとする。なお、“座標”または“全体画像”のみを指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力されてもよい。   At this stage, a command that has already specified “event” in the “data acquisition timing” field and both “coordinate” and “whole image” (specified “101”) in the “data type” field. It is output from the input interface control unit 805 to the data processing unit 700, and the display / light sensor unit 300 is in a state where a nearby image can be detected. Note that a command specifying only “coordinates” or “entire image” may be output from the input interface control unit 805 to the data processing unit 700.

また、第1表示/光センサ部300A及び第2表示/光センサ部300Bにおいて前記検知を行うために、「スキャンパネル」フィールドに両方の表示/光センサ部300を指定(“011”)したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   In addition, in order to perform the detection in the first display / light sensor unit 300A and the second display / light sensor unit 300B, a command in which both display / light sensor units 300 are specified (“011”) in the “scan panel” field. Is output from the input interface control unit 805 to the data processing unit 700.

このような状態において、ユーザが、上面(第1表示/光センサ部300Aが配設された側)から親指20で、下面(第2表示/光センサ部300Bが配設された側)から人差し指21で、それぞれその矩形の画像25aをタッチする。そして、第1表示/光センサ部300A及び第2表示/光センサ部300Bは共に指の像を検知することができる状態にあるため、検知判定部810は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが、共に指の像を検知していると判定し、その判定結果を入力検出部830に出力する。   In such a state, the user uses the thumb 20 from the top surface (side on which the first display / light sensor unit 300A is disposed) and the index finger from the bottom surface (side on which the second display / light sensor unit 300B is disposed). At 21, the rectangular image 25 a is touched. Since both the first display / light sensor unit 300A and the second display / light sensor unit 300B can detect the image of the finger, the detection determination unit 810 includes the first display / light sensor unit 300A and the first display / light sensor unit 300A. The second display / light sensor unit 300 </ b> B determines that both of them detect a finger image, and outputs the determination result to the input detection unit 830.

また、図9(a)に示すように、第1表示/光センサ部300Aに表示された画像25aの領域を示す表示画像領域と、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した親指20、人差し指21の指の像の領域である像領域とは重畳している。従って、重畳判定部820は、表示画像領域と像領域とが重畳する重畳領域が存在すると判定し、その判定結果を入力検出部830に出力する。   Further, as shown in FIG. 9A, a display image area showing an area of an image 25a displayed on the first display / light sensor unit 300A, and the first display / light sensor unit 300A and the second display / light sensor. The image area which is the image area of the thumb 20 and the index finger 21 detected by the unit 300B is superimposed. Therefore, the superimposition determination unit 820 determines that there is a superimposition region where the display image region and the image region overlap, and outputs the determination result to the input detection unit 830.

なお、重畳判定部820は、データ制御部700から指の像の座標データ、全体画像データ、部分画像データを取得し、それらのデータから前記の像領域を特定する。また、重畳判定部820は、第1表示/光センサ部300Aに表示された画像に係る画像情報を記憶部901から読み出すことにより、画像25aの表示画像領域を特定している。このようにして、重畳判定部820は、像領域および表示画像領域を特定することができるため、像領域と表示画像領域との間に重畳する重畳領域が存在するか否かを判定することができる。   The superimposition determination unit 820 acquires coordinate data, whole image data, and partial image data of the finger image from the data control unit 700, and specifies the image region from these data. In addition, the superimposition determination unit 820 identifies the display image area of the image 25a by reading out image information related to the image displayed on the first display / light sensor unit 300A from the storage unit 901. In this way, the superimposition determination unit 820 can specify the image region and the display image region, and therefore determines whether or not there is a superimposition region that overlaps between the image region and the display image region. it can.

入力検出部830は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと検知判定部810が判定し、かつ、重畳判定部820が重畳領域が存在すると判定したことにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きを検出する。   In the input detection unit 830, the detection determination unit 810 determines that both the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the image of the finger, and the superimposition determination unit 820 determines that the superimposition region is present. By determining that it exists, the movement of the finger image detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B is detected.

ここで、図9(b)では、親指20と人差し指21をそれぞれ反対方向(図面横方向において、親指20を右方向、人差し指21を左方向)へ移動しているため、入力検出部830は、その指の像の動きを検出し、その指の像の動きに対応付けられた入力信号を生成する。また、入力検出部830は、記憶部901から直接、もしくは重畳判定部820を介して矩形の画像25aに係る画像情報を取得しており、入力信号は、矩形の画像25aに対応付けて生成されている。そして、入力検出部830はその入力信号を動作制御部840に出力する。   Here, in FIG. 9B, the thumb 20 and the index finger 21 are moved in opposite directions (in the horizontal direction of the drawing, the thumb 20 is moved in the right direction and the index finger 21 is moved in the left direction). The movement of the finger image is detected, and an input signal associated with the movement of the finger image is generated. The input detection unit 830 acquires image information related to the rectangular image 25a directly from the storage unit 901 or via the superimposition determination unit 820, and the input signal is generated in association with the rectangular image 25a. ing. Then, the input detection unit 830 outputs the input signal to the operation control unit 840.

動作制御部840は、入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とが対応付けられた指−命令対応情報を記憶部901から読み出し、次に、動作実行命令をアプリケーション実行部850に送信する。ここで、第1表示/光センサ部300Aに表示された画像が矩形の画像25aであって、データ表示/センサ装置100の表裏両面で検出された指の像の動きがそれぞれ反対方向へ移動する場合には、指−命令対応情報は、矩形の画像25aを扇状の画像25aに変化させる動作に対応付けられている。   The operation control unit 840 reads from the storage unit 901 finger-command correspondence information in which an input signal and a command for causing the application execution unit 850 to execute a predetermined operation are associated with each other. Next, the operation control unit 840 reads the operation execution command. To 850. Here, the image displayed on the first display / light sensor unit 300A is a rectangular image 25a, and the movements of the finger images detected on both the front and back surfaces of the data display / sensor device 100 move in opposite directions. In this case, the finger-command correspondence information is associated with an operation of changing the rectangular image 25a to the fan-shaped image 25a.

従って、アプリケーション実行部850は、矩形の画像25aを扇状の画像25aに拡げる処理を行い、その上で、「矩形の画像25aを扇状の画像25aに拡げる処理を行った」ことを示す動作結果情報を画像表示制御部860に送信する。   Therefore, the application execution unit 850 performs a process of expanding the rectangular image 25a into the fan-shaped image 25a, and then, operation result information indicating that “the process of expanding the rectangular image 25a into the fan-shaped image 25a has been performed”. Is transmitted to the image display control unit 860.

画像表示制御部860は、アプリケーション実行部850から前記の動作結果情報を受信すると、データ処理部700に表示データを送信する。その表示データとは、矩形の画像25aを扇状の画像25aに拡げて表示することを指示するデータである。そして、データ処理部700は、画像表示制御部860から送信された表示データに基づいて、第1表示/光センサ部300Aに表示された矩形の画像25aを扇状の画像25aへ展開した画像を表示させる。   Upon receiving the operation result information from the application execution unit 850, the image display control unit 860 transmits display data to the data processing unit 700. The display data is data instructing to expand the rectangular image 25a into the fan-shaped image 25a for display. Then, based on the display data transmitted from the image display control unit 860, the data processing unit 700 displays an image obtained by expanding the rectangular image 25a displayed on the first display / light sensor unit 300A into a fan-shaped image 25a. Let

なお、扇状の画像25aの表示は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力された結果、第1表示/光センサ部300Aに扇状の画像25aが表示されたものである。   The fan-shaped image 25a is displayed as a result of a command specifying the upper screen (“001”) as the value of the “display panel” field being output from the input interface control unit 805 to the data processing unit 700. A fan-shaped image 25a is displayed on the optical sensor unit 300A.

このようにして、図9(a)・(b)を参照して説明した動作が実行され、その実行結果が第1表示/光センサ部300Aに表示される。   In this manner, the operation described with reference to FIGS. 9A and 9B is executed, and the execution result is displayed on the first display / light sensor unit 300A.

これと同様の処理の流れによって、図10〜図18を参照して説明した種々の動作が実行され、その実行結果が第1表示/光センサ部300Aに表示される。   Various operations described with reference to FIGS. 10 to 18 are executed by the same processing flow, and the execution results are displayed on the first display / light sensor unit 300A.

なお、ここでは、右手について説明しているが、左手についても、入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とが対応付けられた指−命令対応情報を記憶部901に記憶させておけば、第1表示/光センサ部300Aに表示された表示画像に対して、所望の動作を実行させることができる。   Here, the right hand is described, but for the left hand, the finger-command correspondence information in which the input signal and the command for causing the application execution unit 850 to execute a predetermined operation are stored in the storage unit 901. By doing so, it is possible to execute a desired operation on the display image displayed on the first display / light sensor unit 300A.

また、ここでは第1表示/光センサ部300Aに表示画像を表示するものとして説明したが、第2表示/光センサ部300Bに画像を表示させてもよい。   Further, here, the display image is displayed on the first display / light sensor unit 300A, but the image may be displayed on the second display / light sensor unit 300B.

さらに、第1表示/光センサ部300A及び第2表示/光センサ部300Bによる検知の対象として親指20及び人差し指21を用いることとして説明したが、検知の対象とする指の種類は、これらの指に限定されず、中指、薬指、小指であってもよい。指の種類ではなく、検知した指の像の動きに基づいて、第1表示/光センサ部300Aに表示された画像に対して所定の動作を実行させるためである。   Furthermore, although it has been described that the thumb 20 and the index finger 21 are used as detection targets by the first display / light sensor unit 300A and the second display / light sensor unit 300B, the types of fingers to be detected are those fingers. The middle finger, the ring finger, and the little finger may be used. This is because a predetermined operation is performed on the image displayed on the first display / light sensor unit 300A based on the detected movement of the finger image instead of the type of the finger.

データ表示/センサ装置100の前記処理によって得られる効果を説明すると以下の通りである。   The effects obtained by the processing of the data display / sensor device 100 will be described as follows.

データ表示/センサ装置100は、前記構成を備えることにより、表裏両面にそれぞれ配設された近傍の像を検知する第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知した場合に、指の像の動きに対応付けられた入力信号が入力検出部830によって生成される。つまり、第1表示/光センサ部300A、第2表示/光センサ部300Bのうち何れか一方の表示/光センサ部300が指の像を検知しただけでは、その指の像の動きに対応付けられた入力信号が生成されることはない。   Since the data display / sensor device 100 has the above-described configuration, both the first display / light sensor unit 300A and the second display / light sensor unit 300B that detect the adjacent images respectively disposed on the front and back surfaces are finger-shaped. When an image is detected, an input signal associated with the movement of the finger image is generated by the input detection unit 830. That is, if only one of the first display / light sensor unit 300A and the second display / light sensor unit 300B detects a finger image, it corresponds to the movement of the finger image. The generated input signal is never generated.

このように、データ表示/センサ装置100では、表裏両面の表示/光センサ部300という二つの入力面からの入力によって入力信号が生成される。そして、その入力信号は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きに対応付けられた信号である。従って、ユーザは、様々な指の像の動きを第1表示/光センサ部300A及び第2表示/光センサ部300Bに検出させることによって、従来の入力装置では実現できなかった多彩で立体的な操作を行うことができ、また、そのような操作によって、優れた利便性及び操作性がもたらされる。しかも板状のデータ表示/センサ装置100の裏表両面から画面を指で挟持するように操作するため、ユーザは、極めて容易に当該装置を使用することができる。   As described above, in the data display / sensor device 100, the input signal is generated by the input from the two input surfaces of the display / light sensor unit 300 on both the front and back surfaces. The input signal is a signal associated with the movement of the finger image detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B. Therefore, the user can detect various finger image movements in the first display / light sensor unit 300A and the second display / light sensor unit 300B, thereby realizing a variety of three-dimensional images that could not be realized by the conventional input device. Operations can be performed, and such operations provide excellent convenience and operability. In addition, since the operation is performed so that the screen is sandwiched between the front and back surfaces of the plate-like data display / sensor device 100, the user can use the device very easily.

そして、二つの入力面からの入力によって入力信号が生成されるため、例えばユーザの指がタッチパネル上のアイコンに無意識のうちに接触しても、その指の像が検知されて入力信号が生成され、何らかの処理が実行されてしまうという事態を回避することができる。その結果、入力面に誤って操作してしまうリスクが軽減される。   And since an input signal is generated by input from two input surfaces, even if a user's finger unintentionally touches an icon on the touch panel, the image of the finger is detected and an input signal is generated. It is possible to avoid a situation in which some processing is executed. As a result, the risk of erroneous operation on the input surface is reduced.

このように、データ表示/センサ装置100では、優れた操作性及び利便性をユーザに提供することができる。   Thus, the data display / sensor device 100 can provide the user with excellent operability and convenience.

さらに、データ表示/センサ装置100では、前記の構成において、入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、入力信号に対応する命令を、アプリケーション実行部850に送信する動作制御部840を備える構成である。   Further, in the data display / sensor device 100, in the above configuration, the input signal is converted into the input signal based on the finger-command correspondence information in which the input signal and the command for causing the application execution unit 850 to execute a predetermined operation are associated with each other. The operation control unit 840 transmits a corresponding command to the application execution unit 850.

従って、表裏両面の表示/光センサ部300が指の像の動きを検出して、該指の像の動きに対応付けられた入力信号が入力検出部830によって生成される。そして、その入力信号と、アプリケーション実行部850に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、入力信号に対応付けられた命令がアプリケーション実行部850に送信され、アプリケーション実行部850は、入力信号に対応する命令を実行する。   Accordingly, the display / light sensor unit 300 on both the front and back surfaces detects the movement of the finger image, and the input signal associated with the movement of the finger image is generated by the input detection unit 830. Then, the command associated with the input signal is transmitted to the application execution unit 850 based on the finger-command correspondence information in which the input signal is associated with the command for causing the application execution unit 850 to execute a predetermined operation. Then, the application execution unit 850 executes a command corresponding to the input signal.

従って、データ表示/センサ装置100のユーザは、様々な指の像の動きを表裏両面の表示/光センサ部300に検出させることによって、アプリケーション実行部850に所望の動作を実行させることができる。   Therefore, the user of the data display / sensor device 100 can cause the application execution unit 850 to execute a desired operation by causing the display / light sensor unit 300 on the front and back sides to detect various finger image movements.

さらに、データ表示/センサ装置100では、前記の構成において、入力検出部830は、表裏両面の表示/光センサ部300が、表裏両面の表示/光センサ部300上の所定の領域において指の像を検知した場合に、前記入力信号を生成する構成とすることができる。そして、表裏両面の表示/光センサ部300において、所定の領域に画像を表示させる画像表示制御部860を備え、入力検出部830は、当該画像に対応付けられた前記入力信号を生成する構成とすることができる。   Further, in the data display / sensor device 100, in the above-described configuration, the input detection unit 830 is configured such that the display / light sensor unit 300 on both the front and back surfaces is a finger image in a predetermined area on the display / light sensor unit 300 on both surfaces. When the signal is detected, the input signal can be generated. The display / light sensor unit 300 on both the front and back sides includes an image display control unit 860 that displays an image in a predetermined area, and the input detection unit 830 generates the input signal associated with the image. can do.

前記の構成によれば、データ表示/センサ装置100では、表裏両面の表示/光センサ部300上の所定の領域において指の像が検知された場合に入力信号が生成される。   According to the above configuration, the data display / sensor device 100 generates an input signal when a finger image is detected in a predetermined area on the front / back display / light sensor unit 300.

従って、入力検出部830は、表裏両面の表示/光センサ部300上の所定の領域とは異なる他の領域に指がタッチした場合には入力信号を生成しない。   Therefore, the input detection unit 830 does not generate an input signal when the finger touches another area different from the predetermined area on the display / light sensor unit 300 on both the front and back surfaces.

それゆえ、ユーザは、表裏両面の表示/光センサ部300上の所定の領域とは異なる他の領域に指をタッチした場合であっても、入力信号が生成されるという事態を回避することができる。   Therefore, even when the user touches his / her finger on another area different from the predetermined area on the display / light sensor unit 300 on both the front and back sides, the situation where an input signal is generated can be avoided. it can.

さらに、データ表示/センサ装置100では、画像表示制御部860が所定の領域に画像を表示させる。また、入力検出部830は、所定の領域において指の像が検知された場合に、当該画像に対応付けられた入力信号を生成する。   Further, in the data display / sensor device 100, the image display control unit 860 displays an image in a predetermined area. Further, when a finger image is detected in a predetermined region, the input detection unit 830 generates an input signal associated with the image.

従って、ユーザは、当該画像を裏表両面から指で挟持することにより、アプリケーション実行部850に所定の動作を実行させることができる。逆に、当該画像が表示されている所定の領域とは異なる領域では、入力検出部830は入力信号を生成しないため、ユーザは、当該画像が表示されている所定の領域とは異なる領域をタッチしても、入力面に誤って操作してしまうという事態を回避できる。   Therefore, the user can cause the application execution unit 850 to execute a predetermined operation by holding the image from both sides with fingers. On the contrary, since the input detection unit 830 does not generate an input signal in a region different from the predetermined region where the image is displayed, the user touches a region different from the predetermined region where the image is displayed. Even so, it is possible to avoid a situation where the input surface is erroneously operated.

それゆえ、所定の領域に表示された画像のみを対象として、ユーザは所望の動作を実現することができ、その結果、データ表示/センサ装置100は、優れた操作性及び利便性をユーザに提供することができる。   Therefore, the user can realize a desired operation only for an image displayed in a predetermined area, and as a result, the data display / sensor device 100 provides the user with excellent operability and convenience. can do.

さらに、データ表示/センサ装置100では、画像表示制御部860は、アプリケーション実行部850が実行した所定の動作の結果に基づく画像を、第1表示/光センサ部300Aに表示させる構成とすることができる。   Further, in the data display / sensor device 100, the image display control unit 860 is configured to cause the first display / light sensor unit 300A to display an image based on the result of a predetermined operation executed by the application execution unit 850. it can.

つまり、画像表示制御部860は、アプリケーション実行部850が実行した所定の動作の結果に基づく画像を第1表示/光センサ部300Aに表示させることができる。   That is, the image display control unit 860 can cause the first display / light sensor unit 300A to display an image based on a result of a predetermined operation executed by the application execution unit 850.

従って、画像表示制御部860は、ユーザの指の動きに対応付けられて実行された動作の結果を画面上に表示して、その結果をユーザに確認させることができる。   Therefore, the image display control unit 860 can display the result of the operation executed in association with the movement of the user's finger on the screen and allow the user to confirm the result.

なお、ユーザは、自身の指の動きに基づいて実行された動作の結果を画面上で確認することができる。そして、その動作後の画像に対してさらに何らかの動作を与えたいときは、表裏両面の表示/光センサ部300に対して所望の指の像の動きを検出させればよい。つまり、ユーザは、動作の結果を画面上で確認することにより、次の動作を連続的に行うことができる。   In addition, the user can confirm the result of the operation performed based on the movement of his / her finger on the screen. Then, when it is desired to give some operation to the image after the operation, it is only necessary to cause the display / light sensor unit 300 on both the front and back surfaces to detect the desired movement of the finger image. That is, the user can continuously perform the next operation by checking the operation result on the screen.

このように、データ表示/センサ装置100は、より優れた操作性および利便性をユーザにも提供することができる。   Thus, the data display / sensor device 100 can provide the user with more excellent operability and convenience.

(変形例1)
次に、図19、図21、図22を参照してデータ表示/センサ装置100の一変形例であるデータ表示/センサ装置110を説明する。なお、図1、図9〜図18、図20を参照して説明した内容と同様の内容は説明を省略する。
(Modification 1)
Next, a data display / sensor device 110, which is a modification of the data display / sensor device 100, will be described with reference to FIG. 19, FIG. 21, and FIG. In addition, the description similar to the content demonstrated with reference to FIG.1, FIG.9 ~ FIG.18, FIG.20 is abbreviate | omitted.

図19(a)は、第1表示/光センサ部300Aに矩形の画像34aが表示されている様子を示す図である。図19(b)は、人差し指21と中指22をそれぞれ同じ方向(図面横方向において、右方向)へ移動させて、画像34aから画像34bへの切り替えを徐々に行う様子を示し、図19(c)は、さらに人差し指21と中指22をそれぞれ同じ方向(図面横方向において、右方向)へ移動させて、画面に表示される画像を、画像34aから画像34bへ切り替えた様子を示す図である。   FIG. 19A is a diagram illustrating a state in which a rectangular image 34a is displayed on the first display / light sensor unit 300A. FIG. 19B shows a state where the index finger 21 and the middle finger 22 are respectively moved in the same direction (rightward in the horizontal direction in the drawing) to gradually switch from the image 34a to the image 34b. ) Is a diagram illustrating a state in which the index finger 21 and the middle finger 22 are further moved in the same direction (rightward in the horizontal direction in the drawing), and the image displayed on the screen is switched from the image 34a to the image 34b.

図19(a)では、第1表示/光センサ部300Aに矩形の画像34aが表示され、かつ、ユーザは、上面から人差し指21で、下面から中指22で画像34aをタッチしている。このとき、人差し指21及び中指22は、指先に加えて、指の腹や側面によりデータ表示/センサ装置110を表裏両面から挟持している。従って、人差し指21及び中指22と表示/光センサ部300との接触面積は、指先のみで表示/光センサ部300を挟持する場合に比べて大きくなる。   In FIG. 19A, a rectangular image 34a is displayed on the first display / light sensor unit 300A, and the user touches the image 34a with the index finger 21 from the upper surface and the middle finger 22 from the lower surface. At this time, the index finger 21 and the middle finger 22 hold the data display / sensor device 110 from both the front and back surfaces by the belly and side surfaces of the finger in addition to the fingertip. Therefore, the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 is larger than when the display / light sensor unit 300 is held only by the fingertip.

次に、図19(b)に示すように、ユーザは、データ表示/センサ装置110に対して人差し指21と中指22をそれぞれ同じ方向(図面横方向において、右方向)へ移動させて、図面左側から画像34bを出現させ、画像34aと画像34bとを並べて表示させている。つまり、画像34aから画像34bへの切り替えが、人差し指21及び中指22の移動に伴って行われる。なお、画像34aから画像34bへの切り替えは、人差し指21及び中指22と表示/光センサ部300との接触面積が所定の接触面積よりも大きいことをトリガにして行われる。従って、人差し指21及び中指22と表示/光センサ部300との接触面積が所定の接触面積よりも小さい場合は、画像34aから画像34bへの切り替えは実行されない。この点が、図17を参照して説明した画像33aから画像33bへの切り替えと異なる点である。なお、所定の接触面積は、特に決まった数値である必要はなく、任意に設定することができ、その値は記憶部901に記憶される。   Next, as shown in FIG. 19B, the user moves the index finger 21 and the middle finger 22 in the same direction (rightward in the horizontal direction of the drawing) with respect to the data display / sensor device 110 to the left side of the drawing. The image 34b is made to appear, and the image 34a and the image 34b are displayed side by side. That is, switching from the image 34 a to the image 34 b is performed as the index finger 21 and the middle finger 22 move. Note that switching from the image 34a to the image 34b is performed with a trigger that the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 is larger than a predetermined contact area. Therefore, when the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 is smaller than the predetermined contact area, switching from the image 34a to the image 34b is not executed. This point is different from the switching from the image 33a to the image 33b described with reference to FIG. The predetermined contact area does not need to be a specific numerical value and can be arbitrarily set, and the value is stored in the storage unit 901.

続いて、図19(c)に示すように、さらに人差し指21と中指22を同じ方向(図面横方向において、右方向)へ移動させて、画像34aから画像34bへの切り替えを完了させている。   Subsequently, as shown in FIG. 19C, the index finger 21 and the middle finger 22 are further moved in the same direction (rightward in the horizontal direction in the drawing) to complete the switching from the image 34a to the image 34b.

このように、データ表示/センサ装置110及びその制御方法では、人差し指21及び中指22と表示/光センサ部300との接触面積が設定面積よりも大きいことをトリガにして、前記の人差し指21及び中指22の動きに応じて、画像34aから画像34bへの切り替えが行われる。それゆえ、単に指先で裏表両面から画像34aを挟持するだけでは画像34aから画像34bへの切り替えは実行されず、ユーザは、意識的に指の腹や側面を使う操作を求められる。つまり、データ表示/センサ装置110は、敢えてこのような操作をユーザに求めることにより誤操作のリスクを軽減している。   Thus, in the data display / sensor device 110 and its control method, the index finger 21 and the middle finger are triggered by the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 being larger than the set area. The image 34a is switched to the image 34b in accordance with the movement 22. Therefore, simply switching the image 34a from the front and back sides with the fingertip does not execute switching from the image 34a to the image 34b, and the user is consciously required to perform an operation using the belly or side of the finger. That is, the data display / sensor device 110 dares to ask the user for such an operation to reduce the risk of an erroneous operation.

なお、画像34aから画像34bへの切り替えが完全に行われる前に指の動きを停止することにより、画像34aと画像34bとが並んで表示された状態を維持しうる。また、指の動きの速度に応じて、画像34aから画像34bへの切り替えを所望の速度で実行することができる。さらに、人差し指21及び中指22の動きを前記とは逆の方向にすることにより、画像34bから画像34aの方向に画像を切り替えることも可能である。そして、画像34aと画像34bとの境目の移動方向は、図面横方向でも、図面縦方向でも、あるいはその他の方向であってもよく、適宜変更しうる。なお、ここで説明した様々な動作は、予め指−命令対応情報を設定しておき、その指−命令対応情報を参照することにより実現される。   Note that by stopping the movement of the finger before the switching from the image 34a to the image 34b is completely performed, the state where the images 34a and 34b are displayed side by side can be maintained. In addition, switching from the image 34a to the image 34b can be executed at a desired speed according to the speed of finger movement. Furthermore, the image can be switched from the image 34b to the image 34a by moving the index finger 21 and the middle finger 22 in the opposite directions. The moving direction of the boundary between the image 34a and the image 34b may be the horizontal direction in the drawing, the vertical direction in the drawing, or another direction, and can be changed as appropriate. Various operations described here are realized by setting finger-command correspondence information in advance and referring to the finger-command correspondence information.

図19(a)・(b)で説明した動作の使用例として、次のような実施例が考えられる。例えば、ユーザが、電子アルバム化された複数の写真を順次鑑賞したい場合を考える。そのような場合に、画面に表示された写真(画像34a)から、次の写真(画像34b)に移りたいときに、上述した人差し指21、及び中指22の動作により、ユーザは、画像34aから画像34bへの切り替えを容易に、かつ迅速に行うことができる。このように、データ表示/センサ装置110は、画像を切り替えて次の画像を見たいというユーザの要求に確実に応えることができる。   As examples of use of the operations described in FIGS. 19A and 19B, the following embodiments can be considered. For example, let us consider a case where the user wants to sequentially view a plurality of photographs in an electronic album. In such a case, when the user wants to move from the photograph (image 34a) displayed on the screen to the next photograph (image 34b), the user moves the image from the image 34a by the operation of the index finger 21 and the middle finger 22 described above. Switching to 34b can be performed easily and quickly. In this way, the data display / sensor device 110 can reliably respond to a user's request to switch images and view the next image.

上述したように、画像34aから画像34bへの切り替えは、人差し指21及び中指22と表示/光センサ部300との接触面積が所定の面積よりも大きいことをトリガにして行われる。従って、図19(b)に記載される画面の切り替えを実現するデータ表示/センサ装置110は、人差し指21及び中指22と表示/光センサ部300との接触面積を算出することが可能な構成を備える必要がある。そこで、データ表示/センサ装置110の構成を図21を参照して説明する。なお、図1を参照して前述した構成要素と同一の構成要素には同一の参照符号を付している。従って、これらの構成要素の詳細な説明は省略する。   As described above, the switching from the image 34a to the image 34b is performed with a trigger that the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 is larger than a predetermined area. Accordingly, the data display / sensor device 110 that realizes the screen switching illustrated in FIG. 19B has a configuration capable of calculating the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300. It is necessary to prepare. Therefore, the configuration of the data display / sensor device 110 will be described with reference to FIG. The same reference numerals are given to the same components as those described above with reference to FIG. Therefore, detailed description of these components is omitted.

図21は、データ表示/センサ装置110の要部構成を表すブロック図である。図示のように、入力インターフェース制御部805は、さらに面積算出判定部870を備える。   FIG. 21 is a block diagram illustrating a main configuration of the data display / sensor device 110. As illustrated, the input interface control unit 805 further includes an area calculation determination unit 870.

面積算出判定部870は、データ処理部700から部分画像データを取得し、取得した指の像の面積(以降、接触面積と称する)を算出する。そして、予め設定された所定の面積(以降、設定面積と称する)を記憶部901から読み出して、接触面積と設定面積とを比較する。その後、面積算出判定部870は、その判定結果を入力検出部830に出力する。なお、面積の算出方法は、従来の画像処理ソフトで行われる一般的な方法でよい。   The area calculation determination unit 870 acquires partial image data from the data processing unit 700 and calculates the area of the acquired finger image (hereinafter referred to as a contact area). Then, a predetermined area set in advance (hereinafter referred to as a set area) is read from the storage unit 901, and the contact area and the set area are compared. Thereafter, the area calculation determination unit 870 outputs the determination result to the input detection unit 830. The area calculation method may be a general method performed by conventional image processing software.

入力検出部830は、検知判定部810が第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、重畳判定部820が重畳領域が存在すると判定した場合、かつ、面積算出判定部870が、接触面積が設定面積よりも大きいと判定した場合に、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きを検出して、その指の動きに対応付けられた入力信号を生成し、その入力信号を動作制御部840に出力する。   The input detection unit 830 determines that the detection determination unit 810 has detected a finger image by both the first display / light sensor unit 300A and the second display / light sensor unit 300B, and the overlap determination unit 820 has an overlap region. When it is determined, and when the area calculation determination unit 870 determines that the contact area is larger than the set area, the image of the finger detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B , The input signal associated with the movement of the finger is generated, and the input signal is output to the motion control unit 840.

従って、面積算出判定部870が、接触面積は設定面積よりも小さいと判定した場合には、入力検出部830は入力信号を生成しない。そして、その結果、ユーザがいかに指を動かしたとしても、画像34aから画像34bへの切り替えを実行することはできない。   Therefore, when the area calculation determination unit 870 determines that the contact area is smaller than the set area, the input detection unit 830 does not generate an input signal. As a result, no matter how the user moves his / her finger, switching from the image 34a to the image 34b cannot be executed.

このように、データ表示/センサ装置110は、画像34aから画像34bへの切り替えを、人差し指21及び中指22と表示/光センサ部300との接触面積が設定面積よりも大きいことをトリガにして行っている。   As described above, the data display / sensor device 110 performs the switching from the image 34a to the image 34b with the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 being larger than the set area as a trigger. ing.

次に、図19、及び図22を参照しながら、データ表示/センサ装置110の処理の流れについて説明する。図22は、データ表示/センサ装置110の処理の流れを表すフローチャートである。なお、図20を参照して説明したデータ表示/センサ装置100の処理の流れと同一のステップには同一のステップ番号を付している。従って、これらのステップの詳細な説明は省略する。   Next, a processing flow of the data display / sensor device 110 will be described with reference to FIGS. 19 and 22. FIG. 22 is a flowchart showing a process flow of the data display / sensor device 110. Note that the same step numbers are assigned to the same steps as the processing flow of the data display / sensor device 100 described with reference to FIG. Therefore, detailed description of these steps is omitted.

重畳判定部820が、重畳領域が存在すると判定した場合(ステップS17でYes)、ステップS18に進む。ステップS18では、面積算出判定部870が、データ処理部700から部分画像データを取得し、取得した指の像の面積(接触面積)を算出する。そして、面積算出判定部870は、予め設定された所定の面積(設定面積)を記憶部901から読み出して、接触面積が設定面積よりも大きいか否かを判定する。   If the superimposition determination unit 820 determines that a superimposition region exists (Yes in step S17), the process proceeds to step S18. In step S18, the area calculation determination unit 870 acquires partial image data from the data processing unit 700, and calculates the area (contact area) of the acquired finger image. Then, the area calculation determination unit 870 reads a predetermined area (set area) set in advance from the storage unit 901 and determines whether or not the contact area is larger than the set area.

なお、重畳判定部820による接触面積と設定面積との比較は、第1表示/光センサ部300Aが検知した指の像の接触面積と設定面積との比較、あるいは第2表示/光センサ部300Bが検知した指の像の接触面積と設定面積との比較のどちらでもよい。若しくは、2つの表示/光センサ部300が検知した指の像の接触面積の大きい方(若しくは、小さい方)と設定面積とを比較する構成であってもよい。   The comparison between the contact area and the set area by the superimposition determination unit 820 is made by comparing the contact area of the finger image detected by the first display / light sensor unit 300A and the set area, or the second display / light sensor unit 300B. Either the contact area of the image of the finger detected by can be compared with the set area. Alternatively, the configuration may be such that the larger (or smaller) contact area of the finger images detected by the two display / light sensor units 300 is compared with the set area.

一方、ステップS18で「No」に進む場合は、再びステップS15に戻る。なお、ステップS15、ステップS17、ステップS18の順に処理を行うこととして説明したが、ここで説明した処理の順序に限定されず、適宜変更してよい。   On the other hand, when it progresses to "No" at step S18, it returns to step S15 again. In addition, although demonstrated as performing a process in order of step S15, step S17, and step S18, it is not limited to the order of the process demonstrated here, You may change suitably.

このように、データ表示/センサ装置110及びその制御方法では、人差し指21及び中指22と表示/光センサ部300との接触面積が設定面積よりも大きいことをトリガにして、前記の人差し指21及び中指22の動きに応じて、画像34aから画像34bへの切り替えが行われる。それゆえ、単に指先で裏表両面から画像34aを挟持するだけでは画像34aから画像34bへの切り替えは実行されず、ユーザは、意識的に指の腹や側面を使う操作を求められる。つまり、データ表示/センサ装置110は、敢えてこのような操作をユーザに求めることにより誤操作のリスクを軽減している。   Thus, in the data display / sensor device 110 and its control method, the index finger 21 and the middle finger are triggered by the contact area between the index finger 21 and the middle finger 22 and the display / light sensor unit 300 being larger than the set area. The image 34a is switched to the image 34b in accordance with the movement 22. Therefore, simply switching the image 34a from the front and back sides with the fingertip does not execute switching from the image 34a to the image 34b, and the user is consciously required to perform an operation using the belly or side of the finger. That is, the data display / sensor device 110 dares to ask the user for such an operation to reduce the risk of an erroneous operation.

(変形例2)
次に、図23、図24を参照して、他の変形例について説明する。
(Modification 2)
Next, another modification will be described with reference to FIGS.

図23(a)〜(c)は、表示/光センサ部300に画像が表示されていない状態で、画面の背景の色彩が段階的に変化していく様子を示す図である。また、図24は、本発明の一実施形態に係るデータ表示/センサ装置120の要部構成を表すブロック図である。   FIGS. 23A to 23C are diagrams showing how the background color of the screen changes stepwise in a state where no image is displayed on the display / light sensor unit 300. FIG. FIG. 24 is a block diagram showing a main configuration of the data display / sensor device 120 according to an embodiment of the present invention.

以下、図23、図24を参照して、データ表示/センサ装置120について説明する。なお、図面に記載されている側を第1表示/光センサ部300Aとして説明する。また、図1等を参照して前述した構成要素と同一の構成要素には同一の参照符号を付している。従って、これらの構成要素の詳細な説明は省略する。   Hereinafter, the data display / sensor device 120 will be described with reference to FIGS. 23 and 24. The side described in the drawings will be described as the first display / light sensor unit 300A. In addition, the same components as those described above with reference to FIG. Therefore, detailed description of these components is omitted.

図23に図示するように、第1表示/光センサ部300Aは、画面の下端部付近に信号生成領域170を有する。そして、重畳判定部820は、信号生成領域170を示す座標を記憶部901から読み取る(図24参照)。なお、信号生成領域170は、第1表示/光センサ部300Aに表示されていても、表示されていなくても、何れでもよい。   As shown in FIG. 23, the first display / light sensor unit 300A has a signal generation region 170 near the lower end of the screen. Then, the superimposition determination unit 820 reads the coordinates indicating the signal generation region 170 from the storage unit 901 (see FIG. 24). Note that the signal generation region 170 may be displayed on the first display / light sensor unit 300A or may not be displayed.

ここで、重畳判定部820は、信号生成領域170と、第1表示/光センサ部300A及び/あるいは第2表示/光センサ部300Bが検知した指の像の領域である像領域とが重畳するか否かを判定する。   Here, the superimposition determination unit 820 superimposes the signal generation region 170 and the image region that is the region of the finger image detected by the first display / light sensor unit 300A and / or the second display / light sensor unit 300B. It is determined whether or not.

より具体的に説明すると、重畳判定部820は、データ制御部700から2つの表示/光センサ部300で検知された指の像の座標データ、全体画像データ、部分画像データを取得し、それらのデータから像領域を特定する。さらに、重畳判定部820は、座標によって示される信号生成領域170を記憶部901から読み取る。そして、重畳判定部820は、像領域と信号生成領域170との間に重畳する重畳領域が存在するか否かを判定し、その判定結果を入力検出部830に出力する。   More specifically, the superimposition determination unit 820 acquires coordinate data, whole image data, and partial image data of a finger image detected by the two display / light sensor units 300 from the data control unit 700, Identify the image area from the data. Furthermore, the superimposition determination unit 820 reads the signal generation area 170 indicated by the coordinates from the storage unit 901. Then, the superimposition determination unit 820 determines whether or not there is an overlapping region between the image region and the signal generation region 170, and outputs the determination result to the input detection unit 830.

入力検出部830は、検知判定部810が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、かつ、重畳判定部820が、像領域と信号生成領域170との間に重畳する重畳領域が存在すると判定した場合に、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きを検出して、その指の像の動きに対応付けられた入力信号を生成し、その入力信号を動作制御部840に出力する。   The input detection unit 830 determines that the detection determination unit 810 has detected both finger images of the first display / light sensor unit 300A and the second display / light sensor unit 300B, and the superimposition determination unit 820 determines the image. When it is determined that there is a superimposed region between the region and the signal generation region 170, the movement of the finger image detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B is detected. Then, an input signal associated with the movement of the finger image is generated, and the input signal is output to the motion control unit 840.

従って、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の領域が信号生成領域170に重畳していない場合、入力検出部830は入力信号を生成しない。つまり、ユーザが信号生成領域170とは異なる領域に指でタッチしても、所望の動作を実現することはできない。   Accordingly, when the finger image areas detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B are not superimposed on the signal generation area 170, the input detection unit 830 does not generate an input signal. That is, even if the user touches an area different from the signal generation area 170 with a finger, a desired operation cannot be realized.

なお、図23では、信号生成領域170は図面下側に設けられている。しかしながら、信号生成領域170を設ける位置、大きさ、範囲は、任意に設定してよい。図23は、あくまでその一例である。   In FIG. 23, the signal generation region 170 is provided on the lower side of the drawing. However, the position, size, and range where the signal generation region 170 is provided may be arbitrarily set. FIG. 23 is only an example.

図23で説明した動作の使用例として、次のような実施例が考えられる。   The following embodiment can be considered as an example of using the operation described in FIG.

ユーザは、上面(第1表示/光センサ部300Aが配設された側)から親指20で、下面(第2表示/光センサ部300Bが配設された側)から人差し指21で、それぞれ信号生成領域170をタッチする。これにより、検知判定部810は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、かつ、重畳判定部820が、像領域と信号生成領域170との間に重畳する重畳領域が存在すると判定する。   The user generates a signal with the thumb 20 from the upper surface (the side on which the first display / light sensor unit 300A is disposed) and with the index finger 21 from the lower surface (the side on which the second display / light sensor unit 300B is disposed). The area 170 is touched. Accordingly, the detection determination unit 810 determines that both the first display / light sensor unit 300A and the second display / light sensor unit 300B have detected the finger image, and the superimposition determination unit 820 determines the image region and the signal. It is determined that there is an overlapping region that overlaps with the generation region 170.

そして、親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させる。これにより、入力検出部830は、その指の像の動きに対応付けられた入力信号を動作制御部840に出力する。ここで、親指20と人差し指21をそれぞれ反対方向へ移動させるという指の動き(正確には、その指の動きによる指の像の動き)と、第1表示/光センサ部300Aの画面の背景の色彩が段階的に変化するという動作が対応付けられているとする。すると、動作制御部840は、その入力信号と、アプリケーション950に所定の動作を実行させる命令とが対応付けられた指−命令対応情報を記憶部901から読み出し、当該入力信号に対応する動作実行命令をアプリケーション実行部850に送信する。ここで、その動作実行命令は、第1表示/光センサ部300Aの画面の背景の色彩が段階的に変化するという動作をアプリケーション実行部850に実行させる命令である。それゆえ、最終的に、図1を参照して説明した処理の流れに従って、第1表示/光センサ部300Aの画面の背景の色彩が段階的に変化していく。   Then, the thumb 20 and the index finger 21 are moved in opposite directions (in the longitudinal direction of the drawing, the thumb 20 is upward and the index finger 21 is downward). Thereby, the input detection unit 830 outputs an input signal associated with the movement of the image of the finger to the operation control unit 840. Here, the movement of the finger that moves the thumb 20 and the index finger 21 in opposite directions (more precisely, the movement of the finger image due to the movement of the finger) and the background of the screen of the first display / light sensor unit 300A. Assume that an operation in which the color changes step by step is associated. Then, the operation control unit 840 reads out finger-command correspondence information in which the input signal and a command for causing the application 950 to execute a predetermined operation are read from the storage unit 901, and the operation execution command corresponding to the input signal Is transmitted to the application execution unit 850. Here, the operation execution command is a command for causing the application execution unit 850 to execute an operation in which the background color of the screen of the first display / light sensor unit 300A changes stepwise. Therefore, finally, the background color of the screen of the first display / light sensor unit 300A changes stepwise in accordance with the processing flow described with reference to FIG.

このように、データ表示/センサ装置120では、たとえ第1表示/光センサ部300Aに画像が表示されていない状態であっても、ユーザは、所望の動作をデータ表示/センサ装置120に実行させることができる。   As described above, in the data display / sensor device 120, even when the image is not displayed on the first display / light sensor unit 300A, the user causes the data display / sensor device 120 to execute a desired operation. be able to.

また、データ表示/センサ装置120は、表裏両面の表示/光センサ部300上の信号生成領域170において指の像が検知された場合に入力信号が生成される構成である。従って、ユーザは、表裏両面の表示/光センサ部300上の信号生成領域170とは異なる他の領域に指をタッチしても、入力信号が生成されるという事態を回避することができる。   The data display / sensor device 120 is configured to generate an input signal when a finger image is detected in the signal generation area 170 on the front / back display / light sensor unit 300. Therefore, even if the user touches another area different from the signal generation area 170 on the display / light sensor unit 300 on both the front and back surfaces, it is possible to avoid a situation in which an input signal is generated.

それゆえ、信号生成領域170をユーザにとって操作しやすい領域に設定することにより、データ表示/センサ装置120は、優れた操作性及び利便性をユーザに提供することができる。なお、ユーザがデータ表示/センサ装置120を保持する際に、親指と人差し指が位置する近辺に信号生成領域170を設けておくことにより、ユーザが信号生成領域170をタッチする操作がさらに容易になり、ユーザにとって利便性及び操作性がより一層向上する。   Therefore, the data display / sensor device 120 can provide the user with excellent operability and convenience by setting the signal generation area 170 as an area that is easy for the user to operate. When the user holds the data display / sensor device 120, the signal generation area 170 is provided in the vicinity where the thumb and the index finger are positioned, thereby further facilitating the operation of the user touching the signal generation area 170. Convenience and operability for the user are further improved.

また、データ表示/センサ装置120では、ユーザは、信号生成領域170の位置、大きさ、範囲を適宜設定することができるが、他のユーザの使用を制限するために、意図的に信号生成領域170を特定の領域に設定することもできる。これにより、他のユーザが勝手にデータ表示/センサ装置120を使用するといった事態を回避しうる。このように、データ表示/センサ装置120は、利便性及び操作性に優れた装置をユーザに提供することができる。   Further, in the data display / sensor device 120, the user can appropriately set the position, size, and range of the signal generation area 170. However, in order to limit the use of other users, the signal generation area 170 can also be set to a specific area. Thereby, the situation where another user uses the data display / sensor device 120 without permission can be avoided. As described above, the data display / sensor device 120 can provide a user with a device that is excellent in convenience and operability.

ここで、本変形例から派生する実施例として、さらに次のような実施例も考えられる。以下、その使用例を説明する。   Here, as an example derived from this modification, the following example is also conceivable. An example of its use will be described below.

第1表示/光センサ部300Aは、画面の下端部付近に信号生成領域170を有する。ここで、第1表示/光センサ部300Aの信号生成領域170とは異なる領域に、図9を参照して説明した、矩形の画像25aが表示されていると仮定する。なお、矩形の画像25aの表示領域は、座標によって記憶部901に記録されている。   The first display / light sensor unit 300A has a signal generation region 170 near the lower end of the screen. Here, it is assumed that the rectangular image 25a described with reference to FIG. 9 is displayed in a region different from the signal generation region 170 of the first display / light sensor unit 300A. Note that the display area of the rectangular image 25a is recorded in the storage unit 901 by coordinates.

そして、入力検出部830は、検知判定部810が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、かつ、重畳判定部820が、像領域と信号生成領域170との間に重畳する重畳領域が存在すると判定した場合に、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の動きを検出して、その指の像の動きに対応付けられた入力信号を生成する。   Then, the input detection unit 830 determines that the detection determination unit 810 has detected both finger images of the first display / light sensor unit 300A and the second display / light sensor unit 300B, and the superimposition determination unit 820 The movement of the finger image detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B when it is determined that there is a superimposed region between the image region and the signal generation region 170. An input signal associated with the movement of the finger image is detected.

このとき、入力検出部830は、記憶部901から矩形の画像25aの表示領域を読み出しており、矩形の画像25aの表示領域に対して所定の動作を実行するように対応付けられた入力信号を動作制御部840に出力する。   At this time, the input detection unit 830 reads the display area of the rectangular image 25a from the storage unit 901, and inputs an input signal associated with the display area of the rectangular image 25a so as to execute a predetermined operation. Output to the operation control unit 840.

このようにして、ユーザは、信号生成領域170において第1表示/光センサ部300Aに指の像の動きを検出させることにより、信号生成領域170とは異なる領域に表示された矩形の画像25aに所定の動作を実行することができる。つまり、ユーザは、矩形の画像25aが表示された領域を指でタッチすることなく、矩形の画像25aに対して所定の動作を実行することもできる。   In this way, the user causes the first display / light sensor unit 300 </ b> A to detect the movement of the finger image in the signal generation area 170, thereby generating a rectangular image 25 a displayed in an area different from the signal generation area 170. A predetermined operation can be executed. That is, the user can execute a predetermined operation on the rectangular image 25a without touching the area where the rectangular image 25a is displayed with a finger.

それゆえ、ユーザは、たとえ矩形の画像25aが指から遠い位置に表示されていて、表裏両面から矩形の画像25aを挟持することが困難な場合であっても、信号生成領域170において指を動かすことにより、矩形の画像25aに対して所定の動作を実行することができる。これにより、データ表示/センサ装置120は、利便性及び操作性に優れた装置をユーザに提供することができる。
〔実施の形態2〕
次に、図25〜図27を参照して、本実施の形態に係るデータ表示/センサ装置130の実施例を説明する。なお、ここで説明する内容は、図9〜図24を参照して説明した種々の動作を組み合わせることにより、ユーザが、所望の動作を実現するというものである。従って、図9〜図24を参照して説明した動作の詳細、その動作を実現する処理の詳細、本実施の形態に係るデータ表示/センサ装置130によって得られる効果については、詳細説明を省略する。
Therefore, the user moves his / her finger in the signal generation area 170 even when the rectangular image 25a is displayed at a position far from the finger and it is difficult to sandwich the rectangular image 25a from both the front and back sides. Thus, a predetermined operation can be performed on the rectangular image 25a. Thereby, the data display / sensor device 120 can provide a user with a device that is excellent in convenience and operability.
[Embodiment 2]
Next, an example of the data display / sensor device 130 according to the present embodiment will be described with reference to FIGS. The content described here is that the user realizes a desired operation by combining various operations described with reference to FIGS. 9 to 24. Therefore, the detailed description of the details of the operation described with reference to FIGS. 9 to 24, the details of the processing for realizing the operation, and the effects obtained by the data display / sensor device 130 according to the present embodiment will be omitted. .

図25、図26は、データ表示/センサ装置130の実施例を示す図である。図25(a)は、表示/光センサ部300に「メニュー画面(TEL/TV/WEB)」が表示された様子を示す。図25(b)は、メニュー画面から「TV」を示す画像が挟持されて、図面右側に引き出された様子を示す図である。図25(c)は、TVメニューから「民放」が選択された様子を示す図である。図25(d)は、民放「CH01」が視聴されている時の様子を示す図である。   25 and 26 are diagrams showing an embodiment of the data display / sensor device 130. FIG. FIG. 25A shows a state where the “menu screen (TEL / TV / WEB)” is displayed on the display / light sensor unit 300. FIG. 25B is a diagram showing a state in which an image indicating “TV” is sandwiched from the menu screen and pulled out to the right side of the drawing. FIG. 25C is a diagram showing a state in which “Private release” is selected from the TV menu. FIG. 25 (d) is a diagram showing a state when the commercial broadcast “CH01” is being viewed.

続いて、図26(a)は、民放のチャンネルを「CH01」から「CH02」に切り替えている様子を示す図である。図26(b)は、「CH02」が視聴されている時の様子を示す図である。図26(c)は、「民放」から「CS CH02」に切り替えている様子を示す図である。図26(d)は、「CS CH02」が視聴されている時の様子を示す図である。   Next, FIG. 26A is a diagram showing a state in which the channel for private broadcasting is switched from “CH01” to “CH02”. FIG. 26B is a diagram illustrating a state when “CH02” is being viewed. FIG. 26 (c) is a diagram illustrating a state where “private broadcasting” is switched to “CS CH02”. FIG. 26D is a diagram showing a state when “CS CH02” is being viewed.

また、図27は、TVメニューにおける、CS、民放、及びBS放送、及びそれら各放送電波におけるチャンネル選択の概念図である。   FIG. 27 is a conceptual diagram of CS, commercial broadcasting, BS broadcasting, and channel selection in each broadcast radio wave in the TV menu.

まずは、図25、図26を参照して、データ表示/センサ装置130の実施例を具体的に説明する。   First, an embodiment of the data display / sensor device 130 will be specifically described with reference to FIGS. 25 and 26.

図25(a)には、第1表示/光センサ部300Aに「メニュー画面(TEL/TV/WEB)」が示されている。なお、本図ではメニュー画面としてTEL/TV/WEBを用いて説明しているが、選択する項目はここに記載した項目に限らず、写真、動画などのメニューであってよい。   FIG. 25A shows the “menu screen (TEL / TV / WEB)” on the first display / light sensor unit 300A. In this figure, the menu screen is described using TEL / TV / WEB, but the item to be selected is not limited to the item described here, and may be a menu such as a photo or a moving image.

この状態は、ユーザが、メニュー画面からTEL、TV、あるいはWEBのうちの何れかの項目を選択しうる状態であり、図13(a)を参照して説明した、第1表示/光センサ部300Aの画面上端付近に画像29a〜29dが表示されているのと同様の状態である。   This state is a state in which the user can select any one of TEL, TV, and WEB from the menu screen. The first display / light sensor unit described with reference to FIG. This is the same state as when the images 29a to 29d are displayed near the upper end of the 300A screen.

そして、図25(b)は、メニュー画面から「TV」を示す画像部分を挟持して引き出した様子を示す図である。つまり、図25(b)では、第1表示/光センサ部300Aの画面左端付近に表示された「メニュー画面(TEL/TV/WEB)」から、ユーザが、上面から親指20で、下面から人差し指21で所望のメニューを挟持して、親指20と人差し指21をそれぞれ同じ方向(図面横方向において、右方向)へ移動させる。これにより、例えば「TV」を選択した場合に、図25(b)に示すように、TVを示す画像が右方向へ引き伸ばされる。   FIG. 25B is a diagram illustrating a state in which an image portion indicating “TV” is sandwiched and pulled out from the menu screen. That is, in FIG. 25B, from the “menu screen (TEL / TV / WEB)” displayed near the left end of the screen of the first display / light sensor unit 300A, the user uses the thumb 20 from the top and the index finger from the bottom. The desired menu is pinched at 21 and the thumb 20 and the index finger 21 are moved in the same direction (rightward in the horizontal direction in the drawing). Thus, for example, when “TV” is selected, as shown in FIG. 25B, an image showing TV is stretched in the right direction.

なお、図示のように、TVにはさらに「CS/民放/BS」という項目(放送電波の種類)が含まれる。従って、ユーザは、この項目の中から所望の放送電波を選択することができる。なお、ここでは「CS/民放/BS」という項目により説明を行うが、他の項目を含んでもよい。   As shown in the figure, the TV further includes an item “CS / commercial broadcasting / BS” (type of broadcast wave). Therefore, the user can select a desired broadcast radio wave from this item. Here, the description will be made with the item “CS / private / BS”, but other items may be included.

図25(c)は、TVメニューから「民放」が選択された様子を示す図である。この状態は、ユーザが、「CS/民放/BS」から「民放」を選択した状態であり、図18を参照して説明した、親指20と人差し指21が表裏両面から同時に画像34をタッチして、画像34を選択する動作に該当する。つまり、図26(c)の段階では、第1表示/光センサ部300Aに「CS/民放/BS」を表示しておき、ユーザは、上面から親指20で、下面から人差し指21で所望のメニューをタッチする。これにより、例えば「民放」を選択した場合に、図25(c)に示すように民放が選択されて、図25(d)の状態に移る。   FIG. 25C is a diagram showing a state in which “Private release” is selected from the TV menu. This state is a state in which the user selects “CS / Private Release / BS” from “CS / PB”, and the thumb 20 and the index finger 21 described with reference to FIG. This corresponds to the operation of selecting the image 34. That is, at the stage of FIG. 26 (c), “CS / Private Release / BS” is displayed on the first display / light sensor unit 300A, and the user selects the desired menu with the thumb 20 from the top and the index finger 21 from the bottom. Touch. Thus, for example, when “private release” is selected, the private release is selected as shown in FIG. 25C, and the state shifts to the state shown in FIG.

図25(d)は、民放「CH01」が視聴されている時の様子を示す図であり、「民放」を選択した結果、民放「CH01」を視聴することができるようになったものである。   FIG. 25 (d) is a diagram showing a state in which the private broadcast “CH01” is being viewed. As a result of selecting “public broadcast”, the private broadcast “CH01” can be viewed. .

続いて、図26(a)は、民放のチャンネルを「CH01」から「CH02」に切り替えている様子を示す図である。ユーザは、「CH01」から「CH02」にチャンネルを切り替えたくなった場合には、図示のように、親指20と人差し指21をそれぞれ反対方向(図面縦方向において、親指20を上方向、人差し指21を下方向)へ移動させて、「CH01」から「CH02」への切り替えを行う。これは、図17を参照して説明した、親指20と人差し指21をそれぞれ反対方向へ移動させて、画像33aから画像33bへの切り替えを行う動作に該当する。   Next, FIG. 26A is a diagram showing a state in which the channel for private broadcasting is switched from “CH01” to “CH02”. When the user wants to switch the channel from “CH01” to “CH02”, as shown in the figure, the thumb 20 and the index finger 21 are respectively in opposite directions (in the vertical direction of the drawing, the thumb 20 is upward and the index finger 21 is (Downward) to switch from “CH01” to “CH02”. This corresponds to the operation described with reference to FIG. 17 for switching the image 33a to the image 33b by moving the thumb 20 and the index finger 21 in opposite directions.

図26(b)は、「CH02」が視聴されている時の様子を示す図であり、「CH01」から「CH02」への切り替えを行った結果、民放の「CH02」を視聴することができるようになったものである。   FIG. 26B is a diagram illustrating a state in which “CH02” is being viewed. As a result of switching from “CH01” to “CH02”, it is possible to view “CH02” which is a commercial broadcast. It is like that.

図26(c)は、「民放 CH02」から「CS CH02」に切り替えている様子を示す図である。ユーザは、「民放」から「CS」に放送電波を切り替えたくなった場合には、図示のように、親指20と人差し指21をそれぞれ同じ方向(図面横方向において、右方向)へ移動させて、「民放」から「CS CH02」に切り替えを図っている。これは、図11を参照して説明した、親指20と人差し指21をそれぞれ同じ方向へ移動させて、画像を移動させる動作に該当する。あるいは、この動作は、図13を参照して説明した画像を引き伸ばしする動作に類似する。   FIG. 26 (c) is a diagram showing a state where “private channel CH02” is switched to “CS CH02”. When the user wants to switch the broadcast radio wave from “private broadcasting” to “CS”, the user moves the thumb 20 and the index finger 21 in the same direction (rightward in the horizontal direction in the drawing) as shown in the figure, The company is switching from “private broadcast” to “CS CH02”. This corresponds to the operation of moving the image by moving the thumb 20 and the index finger 21 in the same direction as described with reference to FIG. Alternatively, this operation is similar to the operation of enlarging the image described with reference to FIG.

図26(d)は、「CS CH02」が視聴されている時の様子を示す図であり、「CH01」から「CH02」への切り替えを行った結果、「CH02」を視聴することができるようになったものである。   FIG. 26 (d) is a diagram showing a state when “CS CH02” is being viewed. As a result of switching from “CH01” to “CH02”, “CH02” can be viewed. It has become.

ここで、図25、図26を参照して説明した処理の流れを、図27を用いて概略的に説明する。図27は、TVメニューにおける、CS、民放、及びBS放送、及びそれら各放送電波におけるチャンネル選択の概念図である。なお、図示した状態は、すでに「メニュー画面(TEL/TV/WEB)」から「TV」が選択された状態にある。   Here, the flow of processing described with reference to FIGS. 25 and 26 will be schematically described with reference to FIG. FIG. 27 is a conceptual diagram of CS, commercial broadcasting, and BS broadcasting in the TV menu, and channel selection for each of these broadcasting radio waves. In the illustrated state, “TV” has already been selected from the “menu screen (TEL / TV / WEB)”.

ここで、図25、図26を参照して説明した処理の流れを理解するために、図27に示すように、「CS/民放/BS」という項目(放送電波の種類)が図面横方向に並び、かつ、各項目ごとに「チャンネル」がリング状に並んでいる状態を考える。   Here, in order to understand the flow of processing described with reference to FIGS. 25 and 26, as shown in FIG. 27, the item “CS / private broadcasting / BS” (type of broadcast radio wave) is shown in the horizontal direction of the drawing. Consider a state where “channels” are arranged in a ring shape for each item.

ユーザは、視聴したい放送電波を選択する際には、横方向の指の動きを求められる。例えば、ユーザは、「民放」から「CS」に切り替えたい場合に、第1表示/光センサ部300Aに表示された画像を上面から親指20で、下面から人差し指21で挟持し、親指20と人差し指21をそれぞれ同じ方向(図面横方向において、右方向)へ移動させる。これにより、第1表示/光センサ部300Aに「CS」の放送が表示される。また、「民放」から「BS」に切り替えたい場合には、「民放」から「CS」に切り替えた時とは逆の指の動きを行う。これにより、第1表示/光センサ部300Aに「BS」の放送が表示される。つまり、図27に図示する、横方向に並んだ「CS/民放/BS」という項目を切り替える場合には、指を横方向に移動させることにより、所望の放送電波を選択することが可能となる。   The user is required to move the finger in the horizontal direction when selecting a broadcast wave to be viewed. For example, when the user wants to switch from “commercial service” to “CS”, the image displayed on the first display / light sensor unit 300A is pinched with the thumb 20 from the top and the index finger 21 from the bottom, and the thumb 20 and the index finger 21 is moved in the same direction (rightward in the horizontal direction of the drawing). Thereby, the broadcast of “CS” is displayed on the first display / light sensor unit 300A. In addition, when it is desired to switch from “private broadcasting” to “BS”, the finger moves in the opposite direction from when switching from “private broadcasting” to “CS”. Thereby, the broadcast of “BS” is displayed on the first display / light sensor unit 300A. That is, when the item “CS / Private Broadcasting / BS” arranged in the horizontal direction shown in FIG. 27 is switched, it is possible to select a desired broadcast wave by moving the finger in the horizontal direction. .

そして、ユーザは、視聴したいチャンネルを切り替える際には、縦方向の指の動きを求められる。例えば、ユーザは、「CH01」から「CH02」に切り替えたい場合に、第1表示/光センサ部300Aに表示された画像を上面から親指20で、下面から人差し指21で挟持し、親指20と人差し指21をそれぞれ反対方向(図面横方向において、親指20を上方向、人差し指21を下方向)へ移動させる。これにより、第1表示/光センサ部300Aに「CH02」の放送が表示される。また、「CH02」から「CH01」に切り替えたい場合には、「CH01」から「CH02」に切り替えた時とは逆の指の動きを行う。これにより、第1表示/光センサ部300Aに「CH01」の放送が表示される。つまり、図27に図示する、縦方向に並んだ「チャンネル」を切り替える場合には、指を縦方向に指を移動することにより、所望のチャンネルに切り替えることができる。   The user is required to move the finger in the vertical direction when switching the channel to be viewed. For example, when the user wants to switch from “CH01” to “CH02”, the user holds the image displayed on the first display / light sensor unit 300A with the thumb 20 from the top and the index finger 21 from the bottom, and the thumb 20 and the index finger 21 are moved in opposite directions (in the horizontal direction in the drawing, the thumb 20 is moved upward and the index finger 21 is moved downward). Thereby, the broadcast of “CH02” is displayed on the first display / light sensor unit 300A. Also, when switching from “CH02” to “CH01”, the finger moves in the opposite direction from when switching from “CH01” to “CH02”. Thereby, the broadcast of “CH01” is displayed on the first display / light sensor unit 300A. That is, when switching the “channels” arranged in the vertical direction shown in FIG. 27, the finger can be switched to a desired channel by moving the finger in the vertical direction.

このように、各機能(TEL/TV/WEB)ごとに、あるいは、所望の機能を選択した状態での表示画面ごとに、予め設定された指−命令対応情報を参照することにより、指の動き(より正確には、表示/光センサ部300が検知する指の像の動き)と、それに対応付けられた動作が実行される。これにより、ユーザは、所望の画面を第1表示/光センサ部300Aに表示させることができる。そして図25、図26を参照して説明したように、図9〜図19で説明した種々の動作を適宜組み合わせることにより、ユーザは、所望の動作を実現することができる。   Thus, by referring to the finger-command correspondence information set in advance for each function (TEL / TV / WEB) or for each display screen in a state where a desired function is selected, the movement of the finger (To be more precise, the movement of the finger image detected by the display / light sensor unit 300) and the operation associated therewith are executed. Thereby, the user can display a desired screen on the first display / light sensor unit 300A. As described with reference to FIGS. 25 and 26, the user can realize a desired operation by appropriately combining the various operations described with reference to FIGS.

なお、発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims, and the embodiments can be obtained by appropriately combining technical means disclosed in different embodiments. The form is also included in the technical scope of the present invention.

また、本発明に係る入力装置を備えた携帯電話等の情報端末装置も、本発明の技術的範囲に含まれる。   An information terminal device such as a mobile phone provided with the input device according to the present invention is also included in the technical scope of the present invention.

(プログラム、コンピュータ読み取り可能な記録媒体)
最後に、本実施形態に係るデータ表示/センサ装置100、110、120、130の各ブロック、特に入力インターフェース制御部805の検知判定部810、重畳判定部820、入力検出部830、動作制御部840、アプリケーション実行部850、及び画像表示制御部860、並びにデータ表示/センサ装置110の面積算出判定部870は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
(Program, computer-readable recording medium)
Finally, each block of the data display / sensor devices 100, 110, 120, and 130 according to the present embodiment, in particular, the detection determination unit 810, the superimposition determination unit 820, the input detection unit 830, and the operation control unit 840 of the input interface control unit 805. The application execution unit 850, the image display control unit 860, and the area calculation determination unit 870 of the data display / sensor device 110 may be configured by hardware logic, or realized by software using a CPU as follows. May be.

すなわち、本実施形態に係るデータ表示/センサ装置100、110、120、130は、各機能を実現する制御プログラムの命令を実行するCPU(Central Processing Unit)、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデータ表示/センサ装置100、110、120、130の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記データ表示/センサ装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the data display / sensor devices 100, 110, 120, and 130 according to the present embodiment include a CPU (Central Processing Unit) that executes instructions of a control program that realizes each function, and a ROM (Read Only Memory) that stores the program. ), A RAM (Random Access Memory) for expanding the program, and a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to provide a computer with program codes (execution format program, intermediate code program, source program) of a control program for the data display / sensor devices 100, 110, 120, and 130 which are software for realizing the functions described above. This can also be achieved by supplying a readable recording medium to the data display / sensor device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU). .

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、本実施形態に係るデータ表示/センサ装置100、110、120、130を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The data display / sensor devices 100, 110, 120, and 130 according to the present embodiment may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明は、二つの入力面から入力する携帯電話機、PDAなどのモバイル機器(携帯端末)に適用できる。特に、像検知装置を備えた携帯端末に好適である。   The present invention can be applied to mobile devices (portable terminals) such as mobile phones and PDAs that input from two input surfaces. In particular, it is suitable for a portable terminal equipped with an image detection device.

本発明の一実施形態に係るデータ表示/センサ装置の要部構成を表すブロック図である。It is a block diagram showing the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. (a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。(A) is a schematic diagram which shows a mode that the position which the user touched is detected by detecting a reflected image with the sensor built-in liquid crystal panel with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. (B) is a schematic diagram which shows a mode that the position which the user touched is detected by detecting a shadow image with the sensor built-in liquid crystal panel with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows typically an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in the command shown in FIG. 5, and its outline. (a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。(A) is an image obtained as a result of scanning the entire liquid crystal panel with built-in sensor when the object is not placed on the liquid crystal panel with built-in sensor in the data display / sensor device according to one embodiment of the present invention. It is data. (B) is image data obtained as a result of scanning when the user touches the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. (a)は、表示/光センサ部に矩形の画像を表示し、かつ、その画像を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ反対方向へ移動させて、矩形の画像が扇状に拡がった状態を表示させた図である。(A) is a figure which shows a mode that a rectangular image is displayed on a display / light sensor part, and the image is touched with the thumb from the upper surface, and the index finger from the lower surface, respectively. FIG. 5 is a diagram showing a state in which a rectangular image is expanded in a fan shape by moving the thumb and index finger in opposite directions. (a)は、表示/光センサ部に円形の画像を表示し、かつ、その画像を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ反対方向へ移動させて、より大きな寸法の円形に拡大した画像を表示させた図である。(A) is a figure which shows a mode that a circular image is displayed on a display / light sensor part, and the image is touched with the thumb from the upper surface, and the index finger from the lower surface, respectively, (b) FIG. 6 is a diagram in which an image enlarged in a circular shape with a larger size is displayed by moving the thumb and index finger in opposite directions. (a)は、表示/光センサ部に略正方形の画像を表示し、かつ、その画像を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ同じ方向へ移動させて、その画像を画面の外側へ移動させつつある状態を示す図である。(A) is a figure which shows a mode that the substantially square image is displayed on a display / light sensor part, and the image is touched with the thumb from the upper surface, and the index finger from the lower surface, respectively. These are figures which show the state which is moving the image to the outer side of a screen, moving a thumb and an index finger to the same direction, respectively. (a)は、図面横方向をパイプ軸(管長)方向とするパイプ形状の画像を表示/光センサ部に表示し、かつ、その画像を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ反対方向へ移動させて、パイプ軸に直交する方向にその画像を回転させている様子を示す図である。(A) A pipe-shaped image with the horizontal direction of the drawing as the pipe axis (tube length) direction is displayed / displayed on the optical sensor unit, and the image is touched with the thumb from the top and the index finger from the bottom. (B) is a figure which shows a mode that the image is rotated in the direction orthogonal to a pipe axis by moving a thumb and an index finger to the opposite direction, respectively. (a)は、表示/光センサ部の画面上端付近にいくつかの画像を図面横方向に一列に並べて表示し、かつ、そのうちの一つの画像を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ同じ方向(図面下方向)へ移動させて、その画像を下側に引き出して帯状の画像を表示した図である。(A) displays several images arranged in a row in the horizontal direction of the drawing near the top edge of the display / light sensor unit, and one of the images is displayed with the thumb from the top and the index finger from the bottom. (B) is a diagram showing a band-like image by moving the thumb and index finger in the same direction (downward in the drawing) and pulling out the image downward. . (a)は、表示/光センサ部に矩形の画像を表示し、かつ、表示/光センサ部の表示画面を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ同じ方向へ移動させて、その画像を2つの画像に分割した様子を示す図である。(A) is a figure which shows a mode that a rectangular image is displayed on a display / light sensor part, and the display screen of a display / light sensor part is each touched with the thumb from the upper surface, and the index finger from the lower surface. FIG. 6B is a diagram illustrating a state in which the thumb and the index finger are moved in the same direction, and the image is divided into two images. (a)は、表示/光センサ部に複数の画像を円形に配置して表示し、かつ、円の中心付近に上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指を動かさずに、人差し指を図面下側へ移動させて、複数の画像を円周に沿って回転させている様子を示す図である。(A) is a figure showing a state where a plurality of images are arranged and displayed in a circle on the display / light sensor unit and are touched with the thumb from the upper surface and the index finger from the lower surface near the center of the circle. FIG. 8B is a diagram illustrating a state in which a plurality of images are rotated along the circumference by moving the index finger downward in the drawing without moving the thumb. (a)は、表示/光センサ部に、円形の画像と矩形の画像とが結合してなる画像を表示し、かつ、円形の画像の中心付近を上面から親指で、矩形の画像を下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指を動かさずに、人差し指を図面左側へ移動させて、あたかも円形の画像の中心点付近を支点とした振り子のように、矩形の画像を左側へ移動させた様子を示す図である。(A) displays an image formed by combining a circular image and a rectangular image on the display / light sensor unit, and the vicinity of the center of the circular image is displayed with the thumb from the upper surface, and the rectangular image is displayed from the lower surface. (B) is like a pendulum with the index finger moved to the left side of the drawing without moving the thumb as if it were a fulcrum around the center point of the circular image. FIG. 6 is a diagram illustrating a state in which a rectangular image is moved to the left side. (a)は、表示/光センサ部において、ある画像を表示し、かつ、その画像を、上面から親指で、下面から人差し指で、それぞれタッチしている様子を示す図であり、(b)は、親指と人差し指をそれぞれ反対方向へ移動させて、図面下側から別の画像を出現させ、二つの画像を並べて表示した様子を示し、(c)は、さらに親指と人差し指をそれぞれ反対方向へ移動させて、画面に表示される画像を切り替えた様子を示す図である。(A) is a figure which shows a mode that the display / light sensor part displays an image, and the image is touched with the thumb from the upper surface and the index finger from the lower surface, respectively. The thumb and index finger are moved in opposite directions, and another image appears from the lower side of the drawing, and the two images are displayed side by side. (C) further moves the thumb and index finger in the opposite directions. It is a figure which shows a mode that it was made to change and the image displayed on a screen was switched. (a)は、表示/光センサ部に画像が表示された様子を示す図であり、(b)は、表裏両面からほぼ同時に親指と人差し指とで当該画像をタッチして、当該画像が「選択」された状態となった様子を示す図である。(A) is a figure which shows a mode that the image was displayed on the display / light sensor part, (b) touches the said image with the thumb and forefinger from the front and back both sides almost simultaneously, and the said image is "selection". FIG. (a)は、表示/光センサ部において、ある画像を表示し、かつ、その画像を、上面から人差し指で、下面から中指で、それぞれタッチしている様子を示す図であり、(b)は、人差し指と中指をそれぞれ同じ方向(図面横方向において、右方向)へ移動させて、別の画像への切り替えを徐々に行う様子を示し、(c)は、さらに人差し指と中指をそれぞれ同じ方向へ移動させて、画面に表示される画像を切り替えた様子を示す図である。(A) is a figure which shows a mode that the display / light sensor part displays an image, and the image is touched with the index finger from the upper surface and the middle finger from the lower surface, respectively. FIG. 4C shows a state where the index finger and the middle finger are moved in the same direction (rightward in the horizontal direction in the drawing) to gradually switch to another image, and (c) further shows the index finger and the middle finger in the same direction. It is a figure which shows a mode that it moved and the image displayed on a screen was switched. 本発明の一実施形態に係るデータ表示/センサ装置の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の他の実施形態に係るデータ表示/センサ装置の要部構成を表すブロック図である。It is a block diagram showing the principal part structure of the data display / sensor apparatus which concerns on other embodiment of this invention. 本発明の他の実施形態に係るデータ表示/センサ装置の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the data display / sensor apparatus which concerns on other embodiment of this invention. (a)〜(c)は、表示/光センサ部に画像が表示されていない状態で、背景の色彩が段階的に変化していく様子を示す図である。(A)-(c) is a figure which shows a mode that the color of a background changes in steps in the state in which the image is not displayed on a display / light sensor part. 本発明のさらに他の実施形態に係るデータ表示/センサ装置の要部構成を表すブロック図である。It is a block diagram showing the principal part structure of the data display / sensor apparatus which concerns on further another embodiment of this invention. 本実施の形態に係るデータ表示/センサ装置の実施例を示す図であり、(a)は、表示/光センサ部に「メニュー画面(TEL/TV/WEB)」が表示された様子を示す。(b)は、メニュー画面から「TV」を示す画像が挟持されて、引き出された様子を示す図である。(c)は、TVメニューから「民放」が選択された様子を示す図である。(d)は、民放「CH01」が視聴されている時の様子を示す図である。It is a figure which shows the Example of the data display / sensor apparatus which concerns on this Embodiment, (a) shows a mode that the "menu screen (TEL / TV / WEB)" was displayed on the display / light sensor part. (B) is a figure which shows a mode that the image which shows "TV" was pinched and pulled out from the menu screen. (C) is a figure which shows a mode that "private broadcasting" was selected from the TV menu. (D) is a figure which shows a mode when private broadcasting "CH01" is watched. 本実施の形態に係るデータ表示/センサ装置の実施例を示す図であり、(a)は、民放のチャンネルを「CH01」から「CH02」に切り替えている様子を示す図である。(b)は、「CH02」が視聴されている時の様子を示す図である。(c)は、「民放 CH02」から「CS CH02」に切り替えている様子を示す図である。(d)は、「CS CH02」が視聴されている時の様子を示す図である。It is a figure which shows the Example of the data display / sensor apparatus which concerns on this Embodiment, (a) is a figure which shows a mode that the channel of private broadcasting is switched from "CH01" to "CH02". (B) is a figure which shows a mode when "CH02" is watched. (C) is a figure which shows a mode that it switches from "private channel CH02" to "CS CH02". (D) is a figure which shows a mode when "CS CH02" is watched. TVメニューにおける、CS、民放、及びBS放送、及びそれら各放送電波におけるチャンネル選択の概念図である。It is a conceptual diagram of channel selection in the TV menu, CS, commercial broadcasting, and BS broadcasting, and their respective broadcast radio waves. 図10に係る円形の画像26a、26bについての画像情報を説明するための図である。It is a figure for demonstrating the image information about the circular images 26a and 26b which concern on FIG. 図11に係る矩形の画像27aについての画像情報を説明するための図である。It is a figure for demonstrating the image information about the rectangular image 27a which concerns on FIG. 指−命令対応情報の一例を示すための図である。It is a figure for showing an example of finger-command corresponding information.

符号の説明Explanation of symbols

100、110、120、130 データ表示/センサ装置(入力装置)
170 信号生成領域(所定の領域)
800 主制御部
805 入力インターフェース制御部
810 検知判定部(検知判定手段)
820 重畳判定部(重畳判定手段)
830 入力検出部(入力検出手段)
840 動作制御部(動作制御手段)
850 アプリケーション実行部(動作実行装置)
860 画像表示制御部(画像表示制御手段)
870 面積算出判定部
901 記憶部
100, 110, 120, 130 Data display / sensor device (input device)
170 Signal generation area (predetermined area)
800 Main control unit 805 Input interface control unit 810 Detection determination unit (detection determination unit)
820 Superimposition determination unit (superimposition determination means)
830 Input detection unit (input detection means)
840 Operation control unit (operation control means)
850 application execution unit (operation execution device)
860 Image display control unit (image display control means)
870 Area calculation determination unit 901 storage unit

Claims (9)

近傍の像を検知する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、
前記表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定手段と、
前記検知判定手段が、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出手段と、を備えることを特徴とする入力装置。
The planar member that detects the image in the vicinity is a plate-like input device disposed on both the front and back surfaces,
Detection determination means for determining whether or not both of the surface members on both the front and back surfaces have detected a finger image;
When the detection determination unit determines that both the front and back surface members have detected finger images, the detection unit detects movements of the finger images detected by the front and back surface members, respectively. And an input detection means for generating an input signal associated with the movement of the image.
前記入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、前記入力信号に対応する命令を、前記動作実行装置に送信する動作制御手段を備えることを特徴とする請求項1に記載の入力装置。   Operation control for transmitting an instruction corresponding to the input signal to the operation execution device based on finger-command association information in which the input signal is associated with an instruction for causing the operation execution device to execute a predetermined operation The input device according to claim 1, further comprising means. 前記入力検出手段は、前記表裏両面の面状部材が、該表裏両面の面状部材上の所定の領域において指の像を検知した場合に、前記入力信号を生成することを特徴とする請求項1又は2に記載の入力装置。   The input detection means generates the input signal when the planar members on both front and back surfaces detect a finger image in a predetermined region on the front and back surface members. The input device according to 1 or 2. 前記表裏両面の面状部材において、前記所定の領域に画像を表示させる画像表示制御手段を備え、
前記入力検出手段は、前記画像に対応付けられた前記入力信号を生成することを特徴とする請求項3に記載の入力装置。
In the planar members on both the front and back surfaces, image display control means for displaying an image in the predetermined area,
The input device according to claim 3, wherein the input detection unit generates the input signal associated with the image.
前記画像表示制御手段は、前記動作実行装置が実行した前記所定の動作の結果に基づく画像を、前記面状部材に表示させることを特徴とする請求項4に記載の入力装置。   The input device according to claim 4, wherein the image display control unit displays an image based on a result of the predetermined operation executed by the operation execution device on the planar member. 近傍の像を検知する面状部材が、表裏両面にそれぞれ配設された板状の入力装置の制御方法であって、
前記表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定ステップと、
前記検知判定ステップによって、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出ステップと、を含むことを特徴とする入力装置の制御方法。
A planar member for detecting a nearby image is a method for controlling a plate-like input device arranged on both the front and back surfaces,
A detection determination step for determining whether or not the planar members on both the front and back surfaces have both detected a finger image;
When it is determined in the detection determination step that both the front and back surface members have detected finger images, the movements of the finger images respectively detected by the front and back surface members are detected, and the finger images are detected. And an input detection step of generating an input signal associated with the movement of the image.
近傍の像を検知する面状部材が、表裏両面にそれぞれ配設された板状の入力装置の制御プログラムであって、
前記表裏両面の面状部材が、共に指の像を検知したか否かを判定する検知判定ステップと、
前記検知判定ステップによって、前記表裏両面の面状部材が共に指の像を検知したと判定した場合に、前記表裏両面の面状部材がそれぞれ検知した指の像の動きを検出して、該指の像の動きに対応付けられた入力信号を生成する入力検出ステップと、をコンピュータに実行させるための入力装置の制御プログラム。
The planar member for detecting a nearby image is a control program for a plate-shaped input device disposed on both the front and back surfaces,
A detection determination step for determining whether or not the planar members on both the front and back surfaces have both detected a finger image;
When it is determined in the detection determination step that both the front and back surface members have detected finger images, the movements of the finger images respectively detected by the front and back surface members are detected, and the finger images are detected. An input device control program for causing a computer to execute an input detection step of generating an input signal associated with the motion of the image.
請求項7に記載の入力装置の制御プログラムを記録したコンピュータ読取可能な記録媒体。   A computer-readable recording medium on which the control program for the input device according to claim 7 is recorded. 請求項1から5のいずれか1項に記載の入力装置を備えた情報端末装置。   An information terminal device comprising the input device according to claim 1.
JP2008326274A 2008-12-22 2008-12-22 Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device Pending JP2010146506A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008326274A JP2010146506A (en) 2008-12-22 2008-12-22 Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008326274A JP2010146506A (en) 2008-12-22 2008-12-22 Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device

Publications (2)

Publication Number Publication Date
JP2010146506A true JP2010146506A (en) 2010-07-01
JP2010146506A5 JP2010146506A5 (en) 2012-02-16

Family

ID=42566839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008326274A Pending JP2010146506A (en) 2008-12-22 2008-12-22 Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device

Country Status (1)

Country Link
JP (1) JP2010146506A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076233A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Image displaying device, image displaying method, and program
JP2012037979A (en) * 2010-08-04 2012-02-23 Sony Corp Information processor, information processing method, and computer program
WO2012026395A1 (en) * 2010-08-24 2012-03-01 京セラ株式会社 Mobile terminal and unlocking method
JP2012084137A (en) * 2010-09-15 2012-04-26 Kyocera Corp Portable electronic device, screen control method and screen control program
JP2012095069A (en) * 2010-10-27 2012-05-17 Kyocera Corp Portable terminal, lock state control program and lock state control method
JP2012141869A (en) * 2011-01-05 2012-07-26 Sony Corp Information processing apparatus, information processing method, and computer program
JP2012174252A (en) * 2011-02-24 2012-09-10 Kyocera Corp Electronic device, contact operation control program, and contact operation control method
JP2012208758A (en) * 2011-03-30 2012-10-25 Brother Ind Ltd Input apparatus and image display apparatus
JP2013008340A (en) * 2011-06-27 2013-01-10 Kyocera Corp Portable terminal device, program, and display control method
WO2013065214A1 (en) * 2011-10-31 2013-05-10 株式会社ソニー・コンピュータエンタテインメント Input control device, input control method, and input control program
JP2013089202A (en) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc Input control unit, input control method and input control program
JP2013117885A (en) * 2011-12-02 2013-06-13 Nintendo Co Ltd Information processing program, information processing equipment, information processing system and information processing method
JP2013140416A (en) * 2011-12-28 2013-07-18 Alpine Electronics Inc Scroll controller and scroll control method
JP2014029673A (en) * 2012-07-04 2014-02-13 Canon Inc Display device and method for controlling the same
JP2014063319A (en) * 2012-09-20 2014-04-10 Sharp Corp Information processing apparatus, control method, control program, and recording medium
WO2014054424A1 (en) * 2012-10-01 2014-04-10 Canon Kabushiki Kaisha Operation reception device and method for receiving operation
JP2014531688A (en) * 2011-09-30 2014-11-27 マイクロソフト コーポレーション Omni-directional gesture input
JP2015133124A (en) * 2015-02-05 2015-07-23 京セラ株式会社 Portable terminal and locked-state releasing method
JP2016054005A (en) * 2010-09-15 2016-04-14 京セラ株式会社 Portable electronic device, screen control method, and screen control program
JPWO2014003012A1 (en) * 2012-06-29 2016-06-02 日本電気株式会社 Terminal device, display control method, and program
JP2017215814A (en) * 2016-05-31 2017-12-07 日本電信電話株式会社 Data display device, data display method, and program
US9983700B2 (en) 2011-07-14 2018-05-29 Nec Corporation Input device, image display method, and program for reliable designation of icons
US11334222B2 (en) 2014-02-10 2022-05-17 Samsung Electronics Co., Ltd. User terminal device and displaying method Thereof
US11347372B2 (en) 2014-02-10 2022-05-31 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US11543940B2 (en) 2014-02-10 2023-01-03 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
WO2024027158A1 (en) * 2022-08-02 2024-02-08 摩星半导体(广东)有限公司 Photosensitive recognition circuit, photosensitive positioning method, and display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163031A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
JP2000293280A (en) * 1999-04-07 2000-10-20 Sharp Corp Information input device
JP2003330611A (en) * 2002-05-16 2003-11-21 Sony Corp Input method and input device
JP2003345511A (en) * 2002-05-24 2003-12-05 Canon Inc Image recorder/reproducer with touch panel
JP2006244446A (en) * 2005-02-03 2006-09-14 Toshiba Matsushita Display Technology Co Ltd Display device
JP2007141029A (en) * 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd Portable information device
JP2009223426A (en) * 2008-03-13 2009-10-01 Sharp Corp Information display device and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163031A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
JP2000293280A (en) * 1999-04-07 2000-10-20 Sharp Corp Information input device
JP2003330611A (en) * 2002-05-16 2003-11-21 Sony Corp Input method and input device
JP2003345511A (en) * 2002-05-24 2003-12-05 Canon Inc Image recorder/reproducer with touch panel
JP2006244446A (en) * 2005-02-03 2006-09-14 Toshiba Matsushita Display Technology Co Ltd Display device
JP2007141029A (en) * 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd Portable information device
JP2009223426A (en) * 2008-03-13 2009-10-01 Sharp Corp Information display device and method

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8830184B2 (en) 2009-09-29 2014-09-09 Fujifilm Corporation Image displaying device, image displaying method, and program for displaying images
JP2011076233A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Image displaying device, image displaying method, and program
CN102375597A (en) * 2010-08-04 2012-03-14 索尼公司 Information processing apparatus, information processing method, and computer program
JP2012037979A (en) * 2010-08-04 2012-02-23 Sony Corp Information processor, information processing method, and computer program
WO2012026395A1 (en) * 2010-08-24 2012-03-01 京セラ株式会社 Mobile terminal and unlocking method
US9398463B2 (en) 2010-08-24 2016-07-19 Kyocera Corporation Portable terminal and lock state canceling method
US9154954B2 (en) 2010-08-24 2015-10-06 Kyocera Corporation Portable terminal and lock state canceling method
JP2012084137A (en) * 2010-09-15 2012-04-26 Kyocera Corp Portable electronic device, screen control method and screen control program
JP2016054005A (en) * 2010-09-15 2016-04-14 京セラ株式会社 Portable electronic device, screen control method, and screen control program
JP2012095069A (en) * 2010-10-27 2012-05-17 Kyocera Corp Portable terminal, lock state control program and lock state control method
JP2012141869A (en) * 2011-01-05 2012-07-26 Sony Corp Information processing apparatus, information processing method, and computer program
JP2012174252A (en) * 2011-02-24 2012-09-10 Kyocera Corp Electronic device, contact operation control program, and contact operation control method
JP2012208758A (en) * 2011-03-30 2012-10-25 Brother Ind Ltd Input apparatus and image display apparatus
US8866737B2 (en) 2011-03-30 2014-10-21 Brother Kogyo Kabushiki Kaisha Input device and image display apparatus
JP2013008340A (en) * 2011-06-27 2013-01-10 Kyocera Corp Portable terminal device, program, and display control method
US9983700B2 (en) 2011-07-14 2018-05-29 Nec Corporation Input device, image display method, and program for reliable designation of icons
JP2014531688A (en) * 2011-09-30 2014-11-27 マイクロソフト コーポレーション Omni-directional gesture input
JP2013089202A (en) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc Input control unit, input control method and input control program
WO2013065214A1 (en) * 2011-10-31 2013-05-10 株式会社ソニー・コンピュータエンタテインメント Input control device, input control method, and input control program
CN103890703A (en) * 2011-10-31 2014-06-25 索尼电脑娱乐公司 Input control device, input control method, and input control program
EP2752745A4 (en) * 2011-10-31 2015-06-03 Sony Computer Entertainment Inc Input control device, input control method, and input control program
JP2013097563A (en) * 2011-10-31 2013-05-20 Sony Computer Entertainment Inc Input control device, input control method, and input control program
US9433857B2 (en) 2011-10-31 2016-09-06 Sony Corporation Input control device, input control method, and input control program
JP2013117885A (en) * 2011-12-02 2013-06-13 Nintendo Co Ltd Information processing program, information processing equipment, information processing system and information processing method
JP2013140416A (en) * 2011-12-28 2013-07-18 Alpine Electronics Inc Scroll controller and scroll control method
US10394366B2 (en) 2012-06-29 2019-08-27 Nec Corporation Terminal device, display control method, and program
JPWO2014003012A1 (en) * 2012-06-29 2016-06-02 日本電気株式会社 Terminal device, display control method, and program
JP2014029673A (en) * 2012-07-04 2014-02-13 Canon Inc Display device and method for controlling the same
JP2014063319A (en) * 2012-09-20 2014-04-10 Sharp Corp Information processing apparatus, control method, control program, and recording medium
US9594445B2 (en) 2012-10-01 2017-03-14 Canon Kabushiki Kaisha Operation reception device and method for receiving operation on page image, storage medium, and image forming apparatus for use with operation reception device
WO2014054424A1 (en) * 2012-10-01 2014-04-10 Canon Kabushiki Kaisha Operation reception device and method for receiving operation
US11334222B2 (en) 2014-02-10 2022-05-17 Samsung Electronics Co., Ltd. User terminal device and displaying method Thereof
US11347372B2 (en) 2014-02-10 2022-05-31 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US11543940B2 (en) 2014-02-10 2023-01-03 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US11789591B2 (en) 2014-02-10 2023-10-17 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US11960705B2 (en) 2014-02-10 2024-04-16 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
JP2015133124A (en) * 2015-02-05 2015-07-23 京セラ株式会社 Portable terminal and locked-state releasing method
JP2017215814A (en) * 2016-05-31 2017-12-07 日本電信電話株式会社 Data display device, data display method, and program
WO2024027158A1 (en) * 2022-08-02 2024-02-08 摩星半导体(广东)有限公司 Photosensitive recognition circuit, photosensitive positioning method, and display device

Similar Documents

Publication Publication Date Title
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
CN103729157B (en) Multi-display equipment and its control method
RU2604990C2 (en) Method of operating terminal based on multiple inputs and portable terminal supporting same
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
WO2011102038A1 (en) Display device with touch panel, control method therefor, control program, and recording medium
JP2010140300A (en) Display, control method, control program and recording medium
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP5322163B2 (en) Display device, display method, and display program
JP2010122972A (en) Image display/detection device, selection method, and program
JP5306780B2 (en) Input device
JP2010108088A (en) Content display device, content display method and content display program
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP2010204945A (en) Input device and input method
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010122383A (en) Display apparatus
JP2010256969A (en) User interface device and method for controlling the same
WO2010050567A1 (en) Data transmission support device, electronic equipment and data transmission support device control method
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010160689A (en) Input device and method of controlling the same
JP2010109947A (en) Processing execution command device, electronic equipment, and method of controlling processing execution command device
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP2010117841A (en) Image detection device, recognition method of input position and program
JP5171572B2 (en) Image display device, control method for image display device, program, and recording medium
WO2010050562A1 (en) Processing control unit, processing execution unit, information processing device, control method, control program, and computer-readable recording medium containing the control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022