JP6451671B2 - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP6451671B2
JP6451671B2 JP2016043353A JP2016043353A JP6451671B2 JP 6451671 B2 JP6451671 B2 JP 6451671B2 JP 2016043353 A JP2016043353 A JP 2016043353A JP 2016043353 A JP2016043353 A JP 2016043353A JP 6451671 B2 JP6451671 B2 JP 6451671B2
Authority
JP
Japan
Prior art keywords
operation state
hand
determined
cabinet
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016043353A
Other languages
Japanese (ja)
Other versions
JP2017161985A (en
Inventor
健 西尾
健 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016043353A priority Critical patent/JP6451671B2/en
Publication of JP2017161985A publication Critical patent/JP2017161985A/en
Application granted granted Critical
Publication of JP6451671B2 publication Critical patent/JP6451671B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルを有する入力装置および入力方法に関する。   The present invention relates to an input device having a touch panel and an input method.

従来、タッチパネルを備えた携帯端末等の入力装置において、ユーザーが押したと認識している部分と、実際に指が触れている部分にはずれがあるため、操作デバイス内でマージンを設けたり、検出領域の調整を行ったりすることで、誤操作の防止対策を行っている(例えば、特許文献1参照)。   Conventionally, in an input device such as a portable terminal equipped with a touch panel, there is a difference between a part that is recognized as being pressed by a user and a part that is actually touched by a finger. In order to prevent erroneous operations, for example, refer to Patent Document 1.

特開2012−37963号公報JP 2012-37963 A

従来技術では、タッチパネルの傾きに基づいて検出領域の位置を上下方向に移動させるように構成している。しかしながら、入力装置を把持する手や操作する指に応じて、ユーザーの視線や操作感覚も変化するため、ユーザーが押したと認識している部分と、実際に指が触れている部分とが左右方向にずれてしまい、誤操作が発生してしまうというという問題点があった。   In the related art, the position of the detection region is moved in the vertical direction based on the tilt of the touch panel. However, because the user's line of sight and operation sensation change according to the hand holding the input device and the finger operated, the part recognized by the user and the part actually touched by the finger are Therefore, there is a problem that an erroneous operation occurs.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、キャビネットを把持する手やタッチパネルを操作する指に応じて検出領域の位置を左右方向に移動させ、正確なタッチ操作を実現することができる入力装置および入力方法を提供することにある。   The present invention has been made in view of the above points, and an object of the present invention is to move the position of the detection region in the left-right direction in accordance with a hand holding the cabinet or a finger operating the touch panel, thereby performing an accurate touch. An object of the present invention is to provide an input device and an input method capable of realizing an operation.

このような課題を解決するために、本発明の入力装置は、操作キーがレイアウトされた入力画面を表示する表示部と、当該表示部の上面に配置された正面タッチセンサーとからなるタッチパネルがキャビネットの正面に設けられた入力装置であって、前記操作キーへの操作を検出する検出領域が設定された検出領域設定情報を記憶する検出領域設定情報記憶手段と、前記正面タッチセンサーによる検出結果に基づいて前記検出領域への指の接触を検出し、対応する前記操作キーの操作を受け付ける入力受付部と前記キャビネットの右側面に設けられた右面センサーと、前記キャビネットの左側面に設けられた左面センサーと、前記右面センサーおよび前記左面センサーの検出結果に基づいて、前記キャビネットを把持する持ち手と前記タッチパネルを操作する指とを操作状態として判定する操作状態判定部と、前記操作状態判定部によって判定された前記操作状態に基づいて、前記検出領域を左右方向に移動させる検出領域変更部とを具備し、前記操作状態判定部は、前記操作状態を左手が持ち手である「左手持ち」且つ右手の指で操作する「右手操作」と判定すると、前記検出領域を第1移動量右方向に、前記操作状態を右手が持ち手である「右手持ち」且つ左手の指で操作する「左手操作」と判定すると、前記検出領域を第2移動量左方向に、前記操作状態を前記「左手持ち」且つ左手の親指のみで操作する「左手親指操作」と判定すると、前記検出領域を第2移動量よりも大きい第3移動量左方向に、前記操作状態を前記「右手持ち」且つ右手の親指のみで操作する「右手親指操作」と判定すると、前記検出領域を第1移動量よりも大きい第4移動量右方向に、それぞれ移動させることを特徴とする
らに、本発明の入力装置において、前記右面センサー及び前記左面センサーは、前記キャビネットの右側面および左側面へのユーザーの接触をそれぞれ検出する右面タッチセンサーおよび左面タッチセンサーであり、前記操作状態判定部は、前記右面タッチセンサーによる検出結果に基づいて前記キャビネットの右側面に3本以上の指が接触していると判断すると、前記操作状態を前記「左手持ち」と判定すると共に、前記左面タッチセンサーの検出結果に基づいて、前記タッチパネルを操作する指を判定し、前記左面タッチセンサーによる検出結果に基づいて前記キャビネットの左側面に3本以上の指が接触していると判断すると、前記操作状態を前記「右手持ち」と判定すると共に、前記右面タッチセンサーの検出結果に基づいて、前記タッチパネルを操作する指を判定しても良い。
さらに、本発明の入力装置において、前記操作状態判定部は、前記操作状態を前記「左手持ち」と判定すると、前記キャビネットの左側面を所定の非検出領域を挟んで上下に分割した左側下領域と左側上領域との両方にユーザーの接触がある場合に前記「右手操作」と判定すると共に、前記左側下領域のみにユーザーの接触がある場合に前記「左手親指操作」と判定し、前記操作状態を前記「右手持ち」と判定すると、前記キャビネットの右側面を所定の非検出領域を挟んで上下に分割した右側下領域と右側上領域との両方にユーザーの接触がある場合に前記「左手操作」と判定すると共に、前記右側下領域のみにユーザーの接触がある場合に前記「右手親指操作」と判定しても良い。
さらに、本発明の入力装置において、前記キャビネットの右側面に設けられた指紋センサーと、ユーザーの右手人差し指および左手人差し指の指紋データをユーザー指紋データとして記憶する指紋データ記憶手段とを具備し、前記操作状態判定部は、前記指紋センサーによって読み取られた指紋データと前記ユーザー指紋データとを照合することで、前記キャビネットを把持する持ち手を判定しても良い。
また、本発明の入力方法は、操作キーがレイアウトされた入力画面を表示する表示部と、当該表示部の上面に配置された正面タッチセンサーとからなるタッチパネルがキャビネットの正面に設けられた端末装置への入力方法であって、検出領域設定情報記憶手段に前記操作キーへの操作を検出する検出領域が設定された検出領域設定情報を記憶しておき、入力受付部は、前記正面タッチセンサーによる検出結果に基づいて前記検出領域への指の接触を検出し、対応する前記操作キーの操作を受け付け、操作状態判定部は、前記キャビネットの右側面に設けられた右面センサーと前記キャビネットの左側面に設けられた左面センサーとの検出結果に基づいて、前記キャビネットを把持する持ち手と前記タッチパネルを操作する指とを操作状態として判定し、検出領域変更部は、前記操作状態判定部によって判定された前記操作状態に基づいて、前記検出領域を左右方向に移動させ、前記操作状態判定部は、前記操作状態を左手が持ち手である「左手持ち」且つ右手の指で操作する「右手操作」と判定すると、前記検出領域を第1移動量右方向に、前記操作状態を右手が持ち手である「右手持ち」且つ左手の指で操作する「左手操作」と判定すると、前記検出領域を第2移動量左方向に、前記操作状態を前記「左手持ち」且つ左手の親指のみで操作する「左手親指操作」と判定すると、前記検出領域を第2移動量よりも大きい第3移動量左方向に、前記操作状態を前記「右手持ち」且つ右手の親指のみで操作する「右手親指操作」と判定すると、前記検出領域を第1移動量よりも大きい第4移動量右方向に、それぞれ移動させることを特徴とする。
In order to solve such a problem, the input device of the present invention has a touch panel including a display unit that displays an input screen on which operation keys are laid out and a front touch sensor arranged on the upper surface of the display unit as a cabinet. A detection area setting information storage means for storing detection area setting information in which a detection area for detecting an operation on the operation key is set, and a detection result by the front touch sensor. An input receiving unit that detects the touch of the finger to the detection area based on the operation area and receives the operation of the corresponding operation key; a right side sensor provided on the right side of the cabinet; and a left side provided on the left side of the cabinet A sensor, a handle for gripping the cabinet, and the touch based on detection results of the right surface sensor and the left surface sensor. Comprising: a determining operation state determining section and a finger to operate the panel as the operation state, based on the operation state determined by the operation state determination unit and a detection region changing unit that moves the detection area in the horizontal direction When the operation state determination unit determines that the operation state is “left hand holding” in which the left hand is a handle and “right hand operation” in which the operation is performed with a right hand finger, the detection region is moved to the right by the first movement amount, If it is determined that the operation state is “right hand holding” in which the right hand is the handle and “left hand operation” in which the left hand is operated with the finger of the left hand, the detection area is the second movement amount leftward, and the operation state is the “left hand holding”. When it is determined that the operation is performed with only the thumb of the left hand, the detection area is moved to the left by a third movement amount larger than the second movement amount, and the operation state is only the thumb of the right hand and the right hand. Operate with `` right hand parent If judged that the operation ", the detection region to the fourth moving amount rightward larger than the first moving amount, and wherein the moving respectively.
Et al is, in the input device of the present invention, the right level sensor and the left level sensor is a right surface touch sensor and the left side touch sensor for detecting contact of the user's to the right side and left side of the cabinet, respectively, the operation state When the determination unit determines that three or more fingers are in contact with the right side surface of the cabinet based on the detection result by the right side touch sensor, the determination unit determines that the operation state is the “left hand holding” and the left side When a finger operating the touch panel is determined based on the detection result of the touch sensor, and when it is determined that three or more fingers are in contact with the left side surface of the cabinet based on the detection result of the left surface touch sensor, The operation state is determined to be “right-handed” and based on the detection result of the right touch sensor, It may be determined a finger to operate the touch panel.
Furthermore, in the input device according to the present invention, when the operation state determination unit determines that the operation state is “left-handed”, the lower left region obtained by dividing the left side surface of the cabinet vertically with a predetermined non-detection region interposed therebetween. When the user touches both the left and upper left areas, the “right hand operation” is determined. When the user touches only the lower left area, the “left thumb operation” is determined. When the state is determined to be “right-handed”, when the user touches both the lower right region and the upper right region obtained by dividing the right side of the cabinet vertically with a predetermined non-detection region in between, the “left hand” The operation may be determined as well as the “right thumb operation” when the user touches only the lower right region.
Furthermore, the input device of the present invention comprises a fingerprint sensor provided on the right side surface of the cabinet, and fingerprint data storage means for storing fingerprint data of the user's right and left index fingers as user fingerprint data, and the operation The state determination unit may determine the handle holding the cabinet by comparing the fingerprint data read by the fingerprint sensor with the user fingerprint data.
Also, the input method of the present invention is a terminal device in which a touch panel including a display unit that displays an input screen on which operation keys are laid out and a front touch sensor arranged on the upper surface of the display unit is provided in front of the cabinet. The detection area setting information is stored in the detection area setting information storage means, and the detection area setting information in which the detection area for detecting the operation on the operation key is set is stored. Based on the detection result, the contact of the finger to the detection area is detected, the operation of the corresponding operation key is accepted, and the operation state determination unit includes a right side sensor provided on the right side of the cabinet and a left side of the cabinet. On the basis of the detection result of the left surface sensor provided in the operation state of the handle that holds the cabinet and the finger that operates the touch panel Determination Te, and the detection region changing part, based on the operation state determined by the operation state judgment unit, wherein by moving the detection region in the lateral direction, the operation state determining section has the operation status left hand When it is determined that the hand is “left-handed” and “right-handed” that is operated with a right-hand finger, the detection area is moved to the right by the first movement amount, and the operation state is “right-handed” and left-handed. If it is determined that the detection area is “left-hand operation”, the detection region is determined to be the second movement amount leftward, and the operation state is determined to be “left-handed operation” that is operated only by the left-hand thumb and the left-hand thumb. If the detection area is determined to be left by a third movement amount that is larger than the second movement amount, and the operation state is “right-handed operation” in which the operation state is operated only by the right-hand thumb and the right-hand thumb, the detection area is Greater than the first travel 4 amount of movement the right direction, and wherein the moving respectively.

本発明によれば、キャビネットを把持する手やタッチパネルを操作する指を操作状態として判定し、判定した操作状態に応じて検出領域の位置を左右方向に移動させることができるため、キャビネットを把持する手やタッチパネルを操作する指によってユーザーの視線や操作感覚が変化しても、正確なタッチ操作を実現することができるという効果を奏する。   According to the present invention, a hand holding a cabinet or a finger operating a touch panel can be determined as an operation state, and the position of the detection area can be moved in the left-right direction according to the determined operation state. Even if the user's line of sight or operation feeling is changed by a finger operating the hand or the touch panel, there is an effect that an accurate touch operation can be realized.

本発明に係る入力装置の第1の実施の形態の外観を示す外観図である。1 is an external view illustrating an external appearance of a first embodiment of an input device according to the present invention. 図1に示す入力装置の概略内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic internal configuration of the input device illustrated in FIG. 1. 図2に示す操作状態判定部による操作状態判定動作を説明するフローチャートである。It is a flowchart explaining the operation state determination operation | movement by the operation state determination part shown in FIG. 図2に示す操作状態判定部によって判定される操作状態を示す説明図である。It is explanatory drawing which shows the operation state determined by the operation state determination part shown in FIG. 図2に示す検出領域変更部による検出領域変更動作を説明する説明図である。It is explanatory drawing explaining the detection area change operation | movement by the detection area change part shown in FIG. 本発明に係る入力装置の第2の実施の形態の外観を示す外観図である。It is an external view which shows the external appearance of 2nd Embodiment of the input device which concerns on this invention. 図6に示す入力装置の概略内部構成を示すブロック図である。FIG. 7 is a block diagram illustrating a schematic internal configuration of the input device illustrated in FIG. 6. 図7に示す操作状態判定部による操作状態判定動作を説明するフローチャートである。It is a flowchart explaining the operation state determination operation | movement by the operation state determination part shown in FIG. 図7に示す操作状態判定部によって判定される操作状態を示す説明図である。It is explanatory drawing which shows the operation state determined by the operation state determination part shown in FIG.

次に、本発明の実施の形態を、図面を参照して具体的に説明する。なお、各図において、同一の構成には、同一の符号を付して一部説明を省略している。   Next, embodiments of the present invention will be specifically described with reference to the drawings. In the drawings, the same components are denoted by the same reference numerals, and a part of the description is omitted.

(第1の実施の形態)
第1の実施の形態の入力装置1は、スマートフォン等の携帯端末装置であり、図1に示すように、キャビネット2と、キャビネット2の正面2aに設けられたタッチパネル3と、キャビネット2の右側面2bに設けられた右面タッチセンサー4と、キャビネット2の左側面2cに設けられた左面タッチセンサー5とを備えている。なお、図1(a)、(b)、(c)は、それぞれ、入力装置1の正面図、右側面図および左側面図である。また、本実施の形態では、キャビネット2の長手方向を上下方向とし、キャビネット2の短手方向を左右方向とする。
(First embodiment)
The input device 1 according to the first embodiment is a mobile terminal device such as a smartphone. As illustrated in FIG. 1, the cabinet 2, the touch panel 3 provided on the front surface 2 a of the cabinet 2, and the right side surface of the cabinet 2. A right touch sensor 4 provided on 2b, and a left touch sensor 5 provided on the left side 2c of the cabinet 2. 1A, 1B, and 1C are a front view, a right side view, and a left side view of the input device 1, respectively. Moreover, in this Embodiment, let the longitudinal direction of the cabinet 2 be an up-down direction, and let the transversal direction of the cabinet 2 be the left-right direction.

図2には、入力装置1の概略構成を示すブロック図が示されている。入力装置1のキャビネット2内には、タッチパネル3、右面タッチセンサー4および左面タッチセンサー5に接続された制御部6と、記憶部7とが備えられている。   FIG. 2 is a block diagram showing a schematic configuration of the input device 1. In the cabinet 2 of the input device 1, a control unit 6 connected to the touch panel 3, the right surface touch sensor 4, and the left surface touch sensor 5, and a storage unit 7 are provided.

タッチパネル3は、表示部31と、正面タッチセンサー32とからなる。表示部31は、ユーザーからの各種入力を受け付ける入力画面を表示する。表示部31としては、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、電子ペーパー等を用いることができる。正面タッチセンサー32は、透明なシート状に形成され、表示部31の上面に配置されている。正面タッチセンサー32は、ユーザーが指で触れた表示部31上の位置を検出して、位置に応じた座標を制御部6に出力する位置入力装置である。正面タッチセンサー32としては、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等のタッチセンサーを用いることができる。   The touch panel 3 includes a display unit 31 and a front touch sensor 32. The display unit 31 displays an input screen that accepts various inputs from the user. As the display unit 31, a liquid crystal display, an organic EL display, a plasma display, electronic paper, or the like can be used. The front touch sensor 32 is formed in a transparent sheet shape and is disposed on the upper surface of the display unit 31. The front touch sensor 32 is a position input device that detects a position on the display unit 31 touched by a user with a finger and outputs coordinates corresponding to the position to the control unit 6. As the front touch sensor 32, a touch sensor such as a capacitance type, an ultrasonic type, a pressure-sensitive type, a resistance film type, and a light detection type can be used.

右面タッチセンサー4および左面タッチセンサー5は、右側面2bおよび左側面2cへのユーザーの手(指)の接触をそれぞれ検出する。右面タッチセンサー4および左面タッチセンサー5は、ユーザーが手で触れたキャビネット2の右側面2bおよび左側面2cの位置をそれぞれ検出して、位置に応じた座標を制御部6に出力する位置入力装置である。右面タッチセンサー4および左面タッチセンサー5としては、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等のタッチセンサーを用いることができる。   The right surface touch sensor 4 and the left surface touch sensor 5 detect contact of the user's hand (finger) with the right side surface 2b and the left side surface 2c, respectively. The right side touch sensor 4 and the left side touch sensor 5 respectively detect the positions of the right side surface 2b and the left side surface 2c of the cabinet 2 touched by the user, and output coordinates corresponding to the position to the control unit 6. It is. As the right side touch sensor 4 and the left side touch sensor 5, touch sensors such as a capacitance type, an ultrasonic type, a pressure sensitive type, a resistance film type, and a light detection type can be used.

記憶部7は、フラッシュメモリー等の不揮発性メモリーである。記憶部7には、表示部31に表示させる入力画面10と、入力画面10にレイアウトされた操作キー11の操作(操作キー11への指の接触)を検出する検出領域が設定された検出領域設定情報12とが記憶されている。なお、図1には、アルファベットを入力する入力画面が示されており、アルファベットをそれぞれ入力する複数の操作キー11がレイアウトされている。また。検出領域設定情報12に設定されている検出領域13は、図1に点線で示すように、操作キー11と同形状であり、操作キー11に対して下方向に移動した位置に設定されている。   The storage unit 7 is a nonvolatile memory such as a flash memory. In the storage unit 7, a detection region in which a detection region for detecting an input screen 10 to be displayed on the display unit 31 and an operation of the operation key 11 laid out on the input screen 10 (contact of the finger with the operation key 11) is set. Setting information 12 is stored. FIG. 1 shows an input screen for inputting alphabets, and a plurality of operation keys 11 for inputting alphabets are laid out. Also. The detection area 13 set in the detection area setting information 12 has the same shape as the operation key 11 as shown by a dotted line in FIG. .

制御部6は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピューター等の情報処理部である。ROMには入力装置1の動作制御を行うための制御プログラムが記憶されている。制御部6は、ROMに記憶されている制御プログラムを読み出し、制御プログラムをRAMに展開させて実行することで、表示制御部61、入力受付部62、操作状態判定部63および検出領域変更部64として機能する。   The control unit 6 is an information processing unit such as a microcomputer provided with a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and the like. The ROM stores a control program for controlling the operation of the input device 1. The control unit 6 reads the control program stored in the ROM, develops the control program in the RAM, and executes it, thereby displaying the display control unit 61, the input receiving unit 62, the operation state determining unit 63, and the detection area changing unit 64. Function as.

表示制御部61は、記憶部7に記憶されている入力画面10の表示部31への表示を制御する。   The display control unit 61 controls the display on the display unit 31 of the input screen 10 stored in the storage unit 7.

入力受付部62は、記憶部7に記憶されている検出領域設定情報12によって設定されている検出領域13への指の接触を、正面タッチセンサー32によって検出し、対応する操作キー11の操作を受け付ける。   The input receiving unit 62 detects the contact of the finger with the detection area 13 set by the detection area setting information 12 stored in the storage unit 7 by the front touch sensor 32 and operates the corresponding operation key 11. Accept.

操作状態判定部63は、右面タッチセンサー4および左面タッチセンサー5によって、ユーザーが手で触れたキャビネット2の右側面2aおよび左側面2cの位置をそれぞれ検出し、ユーザーによるキャビネット2の操作状態を判定する。   The operation state determination unit 63 detects the positions of the right side surface 2a and the left side surface 2c of the cabinet 2 touched by the user with the right side touch sensor 4 and the left side touch sensor 5, respectively, and determines the operation state of the cabinet 2 by the user. To do.

検出領域変更部64は、操作状態判定部63に判定された操作状態に応じて、検出領域設定情報12によって設定されている検出領域13の位置を移動させる。   The detection area changing unit 64 moves the position of the detection area 13 set by the detection area setting information 12 according to the operation state determined by the operation state determination unit 63.

次に、操作状態判定部63による操作状態判定動作について図3および図4を参照して詳細に説明する。
表示制御部61によって表示部31に入力画面10が表示されると(ステップA1)、操作状態判定部63は、右面タッチセンサー4による検出結果に基づいてキャビネット2の右側面2bに3本以上の指が接触しているか否かを判断すると共に(ステップA2)、左面タッチセンサー5による検出結果に基づいてキャビネット2の左側面2cに3本以上の指が接触しているか否かを判断する(ステップA3)。操作状態判定部63には、指として検出する最大接触面積が予め設定されており、最大接触面積以下の接触箇所が3箇所以上ある場合に、3本以上の指が接触していると判定される。
Next, the operation state determination operation by the operation state determination unit 63 will be described in detail with reference to FIGS. 3 and 4.
When the input screen 10 is displayed on the display unit 31 by the display control unit 61 (step A1), the operation state determination unit 63 sets three or more pieces on the right side surface 2b of the cabinet 2 based on the detection result by the right side touch sensor 4. It is determined whether or not the finger is in contact (step A2), and it is determined whether or not three or more fingers are in contact with the left side surface 2c of the cabinet 2 based on the detection result by the left surface touch sensor 5 (step A2). Step A3). In the operation state determination unit 63, the maximum contact area to be detected as a finger is set in advance, and when there are three or more contact points below the maximum contact area, it is determined that three or more fingers are in contact. The

図4(a)、(b)に示すように、キャビネット2の右側面2bに3本以上の指が接触している場合、操作状態判定部63は、ステップA2でYesと判断し、キャビネット2の把持状態が「左手持ち」であると判定する(ステップA4)。   As shown in FIGS. 4A and 4B, when three or more fingers are in contact with the right side surface 2b of the cabinet 2, the operation state determination unit 63 determines Yes in step A2, and the cabinet 2 Is determined to be “left-handed” (step A4).

次に、操作状態判定部63は、図4(a)、(b)に示すように、左側面2cを左側下領域51と左側上領域52とに所定の非検出領域53を挟んで分割し、左面タッチセンサー5による検出結果に基づいて左側下領域51への接触があるか否かを判断する(ステップA5)。「左手持ち」の場合、左側面2cの左側下領域51に左手親指の根元が接触することを想定し、ステップA5の判断を行う。   Next, as shown in FIGS. 4A and 4B, the operation state determination unit 63 divides the left side surface 2c into a left lower region 51 and a left upper region 52 with a predetermined non-detection region 53 interposed therebetween. Based on the detection result of the left touch sensor 5, it is determined whether or not there is a contact with the lower left region 51 (step A5). In the case of “left-handed”, assuming that the base of the left thumb is in contact with the lower left region 51 of the left side surface 2c, the determination in step A5 is performed.

図4(a)、(b)に示すように、左手親指の根元が左側面2cの左側下領域51に接触している場合、操作状態判定部63は、ステップA5でYesと判断し、左面タッチセンサー5による検出結果に基づいて左側上領域52への接触があるか否かを判定する(ステップA6)。   As shown in FIGS. 4A and 4B, when the base of the left thumb is in contact with the lower left region 51 of the left side surface 2c, the operation state determination unit 63 determines Yes in step A5, Based on the detection result by the touch sensor 5, it is determined whether or not there is a contact with the upper left region 52 (step A6).

図4(a)に示すように、左側面2cの左側上領域52への接触がない場合、操作状態判定部63は、ステップA6でNoと判断し、左手親指でタッチパネル3を操作する「左手親指操作」であると判定する(ステップA7)。   As shown in FIG. 4A, when there is no contact with the left upper area 52 of the left side surface 2c, the operation state determination unit 63 determines No in step A6 and operates the touch panel 3 with the left thumb. It is determined that the operation is “thumb operation” (step A7).

次に、操作状態判定部63は、予め設定された所定時間の経過を待機し(ステップA8)、所定時間が経過すると、ステップA2に戻り、再度、操作状態の判定を行う。これにより、所定時間毎に操作状態の判定が行われる。なお、入力受付部62によって入力を受け付ける毎に、操作状態の判定を行うようにしても良い。また、キャビネット2の姿勢を検出する加速度センサー等の姿勢検出手段を設け、キャビネット2の姿勢が予め設定された角度以上変更された場合に、操作状態の判定を行うようにしても良い。   Next, the operation state determination unit 63 waits for the elapse of a predetermined time set in advance (step A8). When the predetermined time elapses, the operation state determination unit 63 returns to step A2 and determines the operation state again. Thereby, the operation state is determined every predetermined time. The operation state may be determined each time an input is received by the input receiving unit 62. Further, posture detection means such as an acceleration sensor for detecting the posture of the cabinet 2 may be provided, and the operation state may be determined when the posture of the cabinet 2 is changed by a predetermined angle or more.

図4(b)に示すように、左手親指が左側面2cの左側上領域52に接触している場合、操作状態判定部63は、ステップA6でYesと判断し、右手のいずれかの指でタッチパネル3を操作する「右手操作」であると判定し(ステップA9)、ステップA8に至る。   As shown in FIG. 4 (b), when the left thumb is in contact with the upper left area 52 of the left side surface 2c, the operation state determination unit 63 determines Yes in step A6, and uses any finger of the right hand. It determines with it being "right hand operation" which operates the touch panel 3 (step A9), and it will reach step A8.

図4(c)、(d)に示すように、キャビネット2の左側面2cに3本以上の指が接触している場合、操作状態判定部63は、ステップA3でYesと判断し、キャビネット2の把持状態が「右手持ち」であると判定する(ステップA10)。   As shown in FIGS. 4C and 4D, when three or more fingers are in contact with the left side surface 2c of the cabinet 2, the operation state determination unit 63 determines Yes in step A3, and the cabinet 2 Is determined to be “right hand held” (step A10).

次に、操作状態判定部63は、図4(c)、(d)に示すように、右側面2bを右側下領域41と右側上領域42とに所定の非検出領域43を挟んで分割し、右面タッチセンサー4による検出結果に基づいて右側下領域41への接触があるか否かを判断する(ステップA11)。「右手持ち」の場合、右側面2bの右側下領域41に右手親指の根元が接触することを想定し、ステップA11の判断を行う。   Next, as shown in FIGS. 4C and 4D, the operation state determination unit 63 divides the right side surface 2b into a lower right region 41 and an upper right region 42 with a predetermined non-detection region 43 interposed therebetween. Based on the detection result of the right touch sensor 4, it is determined whether or not there is a contact with the lower right region 41 (step A11). In the case of “right hand holding”, it is assumed that the root of the right thumb is in contact with the lower right region 41 of the right side surface 2b, and the determination in step A11 is performed.

図4(c)、(d)に示すように、右手親指の根元が右側面2bの右側下領域41に接触している場合、操作状態判定部63は、ステップA11でYesと判断し、右面タッチセンサー4による検出結果に基づいて右側上領域42への接触があるか否かを判定する(ステップA12)。   As shown in FIGS. 4C and 4D, when the base of the right thumb is in contact with the lower right region 41 of the right side surface 2b, the operation state determination unit 63 determines Yes in step A11, It is determined whether or not there is contact with the upper right region 42 based on the detection result by the touch sensor 4 (step A12).

図4(c)に示すように、右側面2bの右側上領域42への接触がない場合、操作状態判定部63は、ステップA12でNoと判断し、右手親指でタッチパネル3を操作する「右手親指操作」であると判定し(ステップA13)、ステップA8に至る。   As shown in FIG. 4C, when there is no contact with the upper right region 42 of the right side surface 2b, the operation state determination unit 63 determines No in step A12 and operates the touch panel 3 with the right thumb. It is determined that the operation is a “thumb operation” (step A13), and step A8 is reached.

図4(d)に示すように、右手親指が右側面2bの右側上領域42に接触している場合、操作状態判定部63は、ステップA12でYesと判断し、左手のいずれかの指でタッチパネル3を操作する「左手操作」であると判定し(ステップA14)、ステップA8に至る。   As shown in FIG. 4D, when the right thumb is in contact with the upper right region 42 of the right side surface 2b, the operation state determination unit 63 determines Yes in step A12, and uses any finger of the left hand. It determines with it being "left hand operation" which operates the touch panel 3 (step A14), and it will reach step A8.

キャビネット2の右側面2bおよび左側面2cのいずれにも3本以上の指が接触していない場合、操作状態判定部63は、ステップA2およびステップA3でNoと判断し、操作状態を判定不能とし(ステップA15)、ステップA8に至る。キャビネット2の右側面2bおよび左側面2cのいずれにも3本以上の指が接触していない場合には、想定した持ち方ではなく、操作状態を特定できないため、判定不能とされる。また、ステップA5で左側面2cの左側下領域51への接触がない場合、操作状態判定部63は、ステップA5でNoと判断し、操作状態を判定不能とし(ステップA15)、ステップA8に至る。さらに、ステップA11で右側面2bの右側下領域41への接触がない場合、操作状態判定部63は、ステップA11でNoと判断し、操作状態を判定不能とし(ステップA15)、ステップA8に至る。   When three or more fingers are not in contact with either the right side surface 2b or the left side surface 2c of the cabinet 2, the operation state determination unit 63 determines No in step A2 and step A3, and determines that the operation state cannot be determined. (Step A15), it reaches Step A8. When three or more fingers are not in contact with either the right side surface 2b or the left side surface 2c of the cabinet 2, it is not possible to determine because the operation state cannot be specified instead of the assumed holding method. When there is no contact with the lower left region 51 of the left side surface 2c in step A5, the operation state determination unit 63 determines No in step A5, makes the operation state undecidable (step A15), and reaches step A8. . Furthermore, when there is no contact with the lower right region 41 of the right side surface 2b in Step A11, the operation state determination unit 63 determines No in Step A11, makes the operation state undecidable (Step A15), and reaches Step A8. .

次に、検出領域変更部64による検出領域変更動作について図5を参照して詳細に説明する。
操作状態判定部63では、上述のように、操作状態が、「判定不能」と、「左手持ち」+「右手操作」と、「右手持ち」+「左手操作」と、「左手持ち」+「左手親指操作」と、「右手持ち」+「右手親指操作」とのいずれかに判定される。そして、検出領域変更部64は、操作状態判定部63によって操作状態が判定される毎に、判定結果に基づいて検出領域13の位置を移動させる。
Next, the detection area changing operation by the detection area changing unit 64 will be described in detail with reference to FIG.
In the operation state determination unit 63, as described above, the operation states are “determination not possible”, “left hand holding” + “right hand operation”, “right hand holding” + “left hand operation”, “left hand holding” + “ It is determined as either “left thumb operation” or “right hand holding” + “right thumb operation”. The detection area changing unit 64 moves the position of the detection area 13 based on the determination result every time the operation state is determined by the operation state determination unit 63.

検出領域変更部64は、操作状態判定部63によって操作状態が「判定不能」とされると、図5(a)に示すように、検出領域設定情報12に初期値として設定されている検出領域13の位置を移動することなく、入力受付部62は、検出領域設定情報12に初期値として設定されている検出領域13に基づいて入力を受け付ける。   When the operation state is determined as “undecidable” by the operation state determination unit 63, the detection region change unit 64 detects the detection region set as the initial value in the detection region setting information 12 as shown in FIG. The input receiving unit 62 receives an input based on the detection area 13 set as an initial value in the detection area setting information 12 without moving the position of 13.

検出領域変更部64は、操作状態判定部63によって操作状態が「左手持ち」+「右手操作」と判定されると、図5(b)に示すように、検出領域設定情報12に初期値として設定されている検出領域13の位置を右方向に移動させる。操作状態が「左手持ち」+「右手操作」と判定された場合の右方向への第1移動量は、予め設定された固定値しても良く、ユーザーがカスタマイズ可能に構成しても良い。これにより、入力受付部62は、右方向に移動された検出領域13に基づいて入力を受け付ける。   When the operation state determination unit 63 determines that the operation state is “left hand holding” + “right hand operation”, the detection region changing unit 64 sets the detection region setting information 12 as an initial value as shown in FIG. 5B. The position of the set detection area 13 is moved to the right. The first movement amount in the right direction when the operation state is determined as “left-handed” + “right-handed operation” may be a fixed value set in advance or may be configured to be customizable by the user. Thereby, the input reception part 62 receives an input based on the detection area | region 13 moved to the right direction.

検出領域変更部64は、操作状態判定部63によって操作状態が「右手持ち」+「左手操作」と判定されると、図5(c)に示すように、検出領域設定情報12に初期値として設定されている検出領域13の位置を左方向に移動させる。操作状態が「右手持ち」+「左手操作」と判定された場合の左方向への第2移動量は、予め設定された固定値しても良く、ユーザーがカスタマイズ可能に構成しても良い。これにより、入力受付部62は、左方向に移動された検出領域13に基づいて入力を受け付ける。   When the operation state determination unit 63 determines that the operation state is “right hand holding” + “left hand operation”, the detection region changing unit 64 sets the detection region setting information 12 as an initial value as shown in FIG. The position of the set detection area 13 is moved leftward. The second movement amount in the left direction when the operation state is determined to be “right hand holding” + “left hand operation” may be a fixed value set in advance or may be configured to be customizable by the user. Thereby, the input reception part 62 receives an input based on the detection area | region 13 moved to the left direction.

検出領域変更部64は、操作状態判定部63によって操作状態が「左手持ち」+「左手親指操作」と判定されると、図5(d)に示すように、検出領域設定情報12に初期値として設定されている検出領域13の位置を左方向および下方向、すなわち左下方向にそれぞれ移動させる。操作状態が「左手持ち」+「左手親指操作」と判定された場合の左方向への第3移動量は、操作状態が「右手持ち」+「左手操作」と判定された場合の左方向への第2移動量よりも大きく設定されている。なお、操作状態が「左手持ち」+「左手親指操作」と判定された場合の下方向への移動量と、左方向への第3移動量とは、予め設定された固定値しても良く、ユーザーがカスタマイズ可能に構成しても良い。これにより、入力受付部62は、左下方向に移動された検出領域13に基づいて入力を受け付ける。   When the operation state determining unit 63 determines that the operation state is “left hand holding” + “left thumb operation”, the detection region changing unit 64 sets the initial value in the detection region setting information 12 as shown in FIG. The position of the detection area 13 set as is moved in the left direction and the lower direction, that is, the lower left direction. The third movement amount in the left direction when the operation state is determined as “left hand holding” + “left thumb operation” is the left direction when the operation state is determined as “right hand holding” + “left hand operation”. Is set larger than the second movement amount. Note that the downward movement amount and the third leftward movement amount when the operation state is determined to be “left hand holding” + “left thumb operation” may be a fixed value set in advance. The user may be able to customize. Thereby, the input reception part 62 receives an input based on the detection area | region 13 moved to the lower left direction.

検出領域変更部64は、操作状態判定部63によって操作状態が「右手持ち」+「右手親指操作」と判定されると、図5(e)に示すように、検出領域設定情報12に初期値として設定されている検出領域13の位置を右方向および下方向、すなわち右下方向にそれぞれ移動させる。操作状態が「右手持ち」+「右手親指操作」と判定された場合の右方向への第4移動量は、操作状態が「左手持ち」+「右手操作」と判定された場合の右方向への第1移動量よりも大きく設定されている。なお、操作状態が「右手持ち」+「右手親指操作」と判定された場合の下方向への移動量と、右方向への第4移動量とは、予め設定された固定値しても良く、ユーザーがカスタマイズ可能に構成しても良い。これにより、入力受付部62は、右下方向に移動された検出領域13に基づいて入力を受け付ける。   When the operation state determining unit 63 determines that the operation state is “right hand holding” + “right thumb operation”, the detection region changing unit 64 sets an initial value in the detection region setting information 12 as shown in FIG. The position of the detection area 13 set as is moved in the right direction and downward direction, that is, in the lower right direction. The fourth movement amount in the right direction when the operation state is determined as “right hand holding” + “right thumb operation” is the right direction when the operation state is determined as “left hand holding” + “right hand operation”. Is set larger than the first movement amount. Note that the downward movement amount and the fourth movement amount in the right direction when the operation state is determined to be “right hand holding” + “right thumb operation” may be a preset fixed value. The user may be able to customize. Thereby, the input reception part 62 receives an input based on the detection area | region 13 moved to the lower right direction.

以上説明したように、第1の実施の形態によれば、操作キー11がレイアウトされた入力画面10を表示する表示部31と、表示部31の上面に配置された正面タッチセンサー32とからなるタッチパネル3がキャビネット2の正面2aに設けられた入力装置1であって、操作キー11への操作を検出する検出領域13が設定された検出領域設定情報12を記憶する記憶部7と、正面タッチセンサー32による検出結果に基づいて検出領域13への指の接触を検出し、対応する操作キー11の操作を受け付ける入力受付部62と、キャビネット2の右側面2bに設けられた右面センサー(右面タッチセンサー4)と、キャビネット2の左側面2cに設けられた左面センサー(左面タッチセンサー5)と、右面タッチセンサー4および左面タッチセンサー5の検出結果に基づいて、キャビネット2を把持する持ち手とタッチパネル3を操作する指とを操作状態として判定する操作状態判定部63と、操作状態判定部63によって判定された操作状態に基づいて、検出領域13を左右方向に移動させる検出領域変更部64とを備えている。
この構成により、キャビネット2を把持する手やタッチパネル3を操作する指を操作状態として判定し、判定した操作状態に応じて検出領域13の位置を左右方向に移動させることができるため、キャビネット2を把持する手やタッチパネル3を操作する指によってユーザーの視線や操作感覚が変化しても、正確なタッチ操作を実現することができる。
As described above, according to the first embodiment, the display unit 31 displays the input screen 10 on which the operation keys 11 are laid out, and the front touch sensor 32 is disposed on the upper surface of the display unit 31. The touch panel 3 is the input device 1 provided on the front surface 2a of the cabinet 2, and includes a storage unit 7 for storing detection area setting information 12 in which a detection area 13 for detecting an operation on the operation key 11 is set, and a front touch. Based on the detection result by the sensor 32, the contact of the finger to the detection area 13 is detected, the input receiving unit 62 that receives the operation of the corresponding operation key 11, and the right side sensor (right side touch) provided on the right side 2b of the cabinet 2. Sensor 4), a left side sensor (left side touch sensor 5) provided on the left side 2c of the cabinet 2, a right side touch sensor 4 and a left side touch. Based on the detection result of the sensor 5, based on the operation state determined by the operation state determination unit 63 and the operation state determination unit 63 that determines the handle that holds the cabinet 2 and the finger that operates the touch panel 3 as the operation state. And a detection area changing unit 64 that moves the detection area 13 in the left-right direction.
With this configuration, a hand that holds the cabinet 2 or a finger that operates the touch panel 3 can be determined as an operation state, and the position of the detection region 13 can be moved in the left-right direction according to the determined operation state. Even if the user's line of sight or operation sensation changes due to a gripping hand or a finger operating the touch panel 3, an accurate touch operation can be realized.

さらに、本実施の形態によれば、操作状態判定部63は、操作状態を「左手持ち」+「右手操作」と判定すると、検出領域13を第1移動量右方向に、操作状態を「右手持ち」+「左手操作」と判定すると、検出領域13を第2移動量左方向に、操作状態を「左手持ち」+「左手親指操作」と判定すると、検出領域13を第2移動量よりも大きい第3移動量左方向に、操作状態を「右手持ち」+「右手親指操作」と判定すると、検出領域13を第1移動量よりも大きい第4移動量右方向に、それぞれ移動させる。
この構成により、それぞれの操作状態に応じて、より適した位置に検出領域13を移動させることができ、正確なタッチ操作を実現することができる。
Furthermore, according to the present embodiment, when the operation state determination unit 63 determines that the operation state is “left-handed” + “right-hand operation”, the detection region 13 is set to the right by the first movement amount, and the operation state is set to “right”. If it is determined as “hand-held” + “left-hand operation”, the detection region 13 is determined to be left by the second movement amount. If the operation state is determined as “left-hand operation” + “left-hand thumb operation”, the detection region 13 is determined to be greater than the second movement amount. If it is determined that the operation state is “right hand holding” + “right thumb operation” in the left direction of the large third movement amount, the detection area 13 is moved in the right direction of the fourth movement amount that is larger than the first movement amount.
With this configuration, the detection region 13 can be moved to a more suitable position according to each operation state, and an accurate touch operation can be realized.

さらに、本実施の形態によれば、右面センサー及び左面センサーは、キャビネット2の右側面2bおよび左側面2cへのユーザーの接触をそれぞれ検出する右面タッチセンサー4および左面タッチセンサー5であり、操作状態判定部63は、右面タッチセンサー4による検出結果に基づいてキャビネット2の右側面2bに3本以上の指が接触していると判断すると、操作状態を「左手持ち」と判定すると共に、左面タッチセンサー5の検出結果に基づいて、タッチパネル3を操作する指を判定し、左面タッチセンサー5による検出結果に基づいてキャビネット2の左側面2cに3本以上の指が接触していると判断すると、操作状態を「右手持ち」と判定すると共に、右面タッチセンサー4の検出結果に基づいて、タッチパネル3を操作する指を判定する。
この構成により、側面に設けたタッチセンサー(右面タッチセンサー4、左面タッチセンサー5)による検出結果に基づいて、簡単にキャビネット2を把持する持ち手を判定することができる。
Further, according to the present embodiment, the right surface sensor and the left surface sensor are the right surface touch sensor 4 and the left surface touch sensor 5 that detect the user's contact with the right side surface 2b and the left side surface 2c of the cabinet 2, respectively, and the operation state When the determination unit 63 determines that three or more fingers are in contact with the right side surface 2b of the cabinet 2 based on the detection result by the right side touch sensor 4, the determination unit 63 determines that the operation state is “left hand held” and the left side touch. When a finger operating the touch panel 3 is determined based on the detection result of the sensor 5, and when it is determined that three or more fingers are in contact with the left side surface 2c of the cabinet 2 based on the detection result by the left surface touch sensor 5, A finger that operates the touch panel 3 based on the detection result of the right touch sensor 4 while determining that the operation state is “right-handed”. Judges.
With this configuration, it is possible to easily determine the handle that holds the cabinet 2 based on the detection result of the touch sensors (the right touch sensor 4 and the left touch sensor 5) provided on the side surface.

さらに、本実施の形態によれば、操作状態判定部63は、操作状態を「左手持ち」と判定すると、キャビネット2の左側面2cを所定の非検出領域53を挟んで上下に分割した左側下領域51と左側上領域52との両方にユーザーの接触がある場合に「右手操作」と判定すると共に、左側下領域51のみにユーザーの接触がある場合に「左手親指操作」と判定し、操作状態を「右手持ち」と判定すると、キャビネット2の右側面2bを所定の非検出領域43を挟んで上下に分割した右側下領域41と右側上領域42との両方にユーザーの接触がある場合に「左手操作」と判定すると共に、右側下領域41のみにユーザーの接触がある場合に「右手親指操作」と判定する。
この構成により、側面に設けたタッチセンサー(右面タッチセンサー4、左面タッチセンサー5)による検出結果に基づいて、簡単にタッチパネル3を操作する指を判定することができる。
Further, according to the present embodiment, when the operation state determination unit 63 determines that the operation state is “left-handed”, the left side surface 2c of the cabinet 2 is divided into upper and lower sides with a predetermined non-detection region 53 interposed therebetween. When the user touches both the area 51 and the left upper area 52, it is determined as “right hand operation”, and when only the left lower area 51 is touched by the user, it is determined as “left hand thumb operation”. If the state is determined to be “right-handed”, when the user touches both the lower right region 41 and the upper right region 42 obtained by dividing the right side surface 2b of the cabinet 2 vertically with the predetermined non-detection region 43 in between. In addition to determining “left hand operation”, it is determined that “right thumb operation” when the user touches only the lower right region 41.
With this configuration, it is possible to easily determine the finger that operates the touch panel 3 based on the detection result by the touch sensors (the right touch sensor 4 and the left touch sensor 5) provided on the side surface.

(第2の実施の形態)
第2の実施の形態の入力装置1aは、図6に示すように、キャビネット2と、キャビネット2の正面2aに設けられたタッチパネル3と、キャビネット2の右側面2bに設けられた右面下側光センサー8aおよび右面上側光センサー8bと、キャビネット2の左側面2cに設けられた左面下側光センサー9aおよび左面上側光センサー9bと、キャビネット2の背面2dに設けられた指紋センサー14とを備えている。なお、図6(a)、(b)、(c)、(d)は、それぞれ、入力装置1aの正面図、右側面図、左側面図および背面図である。また、本実施の形態では、キャビネット2の長手方向を上下方向とし、キャビネット2の短手方向を左右方向とする。
(Second Embodiment)
As shown in FIG. 6, the input device 1 a according to the second embodiment includes a cabinet 2, a touch panel 3 provided on the front surface 2 a of the cabinet 2, and a right side lower light provided on the right side surface 2 b of the cabinet 2. A sensor 8a and a right upper photosensor 8b; a left lower photosensor 9a and left upper photosensor 9b provided on the left side 2c of the cabinet 2; and a fingerprint sensor 14 provided on the rear 2d of the cabinet 2. Yes. 6A, 6B, 6C, and 6D are a front view, a right side view, a left side view, and a rear view of the input device 1a, respectively. Moreover, in this Embodiment, let the longitudinal direction of the cabinet 2 be an up-down direction, and let the transversal direction of the cabinet 2 be the left-right direction.

図7には、入力装置1aの概略構成を示すブロック図が示されている。入力装置1aのキャビネット2内には、タッチパネル3、右面下側光センサー8a、右面上側光センサー8b、左面下側光センサー9a、左面上側光センサー9bおよび指紋センサー14に接続された制御部6aと、記憶部7とが備えられている。   FIG. 7 is a block diagram showing a schematic configuration of the input device 1a. In the cabinet 2 of the input device 1a, there is a control unit 6a connected to the touch panel 3, the right lower photosensor 8a, the right upper photosensor 8b, the left lower photosensor 9a, the left upper photosensor 9b, and the fingerprint sensor 14. And a storage unit 7.

右面下側光センサー8a、右面上側光センサー8b、左面下側光センサー9aおよび左面上側光センサー9bは、光の強度を検出する光検出手段である。右面下側光センサー8aは、「右手持ち」の際に親指の根元が接触する位置に、右面上側光センサー8bは、「右手持ち」の際に親指が接触する位置にそれぞれ配置されている。また、左面下側光センサー9aは、「左手持ち」の際に親指の根元が接触する位置に、左面上側光センサー9bは、「左手持ち」の際に親指が接触する位置にそれぞれ配置されている。   The right lower surface light sensor 8a, the right upper surface light sensor 8b, the left lower surface light sensor 9a, and the left upper surface light sensor 9b are light detecting means for detecting the intensity of light. The right side lower light sensor 8a is disposed at a position where the base of the thumb is in contact with "right hand holding", and the right side upper light sensor 8b is disposed at a position at which the thumb is in contact with "right hand holding". Further, the left lower surface optical sensor 9a is disposed at a position where the base of the thumb contacts when “left hand holding”, and the left upper optical sensor 9b is disposed at a position where the thumb contacts when “left hand holding”. Yes.

指紋センサー14は、指紋の凹凸を読み取る指紋読み取り手段である。指紋センサー14は、キャビネット2を片手で把持した際に、右手もしくは左手の人差し指が接触可能な位置に配置されている。   The fingerprint sensor 14 is a fingerprint reading unit that reads the irregularities of the fingerprint. The fingerprint sensor 14 is arranged at a position where the index finger of the right hand or the left hand can contact when the cabinet 2 is held with one hand.

第2の実施の形態の記憶部7には、入力画面10及び検出領域設定情報12と共に、ユーザーの右手人差し指および左手人差し指の指紋データがユーザー指紋データ15に記憶されている。ユーザー指紋データ15は、入力装置1aの使用開始時等に指紋センサー14によって読み取ることで登録できる。   In the storage unit 7 of the second embodiment, the fingerprint data of the user's right and left index fingers is stored in the user fingerprint data 15 together with the input screen 10 and the detection area setting information 12. The user fingerprint data 15 can be registered by being read by the fingerprint sensor 14 at the start of use of the input device 1a.

制御部6aは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピューター等の情報処理部である。ROMには入力装置1の動作制御を行うための制御プログラムが記憶されている。制御部6aは、ROMに記憶されている制御プログラムを読み出し、制御プログラムをRAMに展開させて実行することで、表示制御部61、入力受付部62、操作状態判定部63aおよび検出領域変更部64として機能する。   The control unit 6a is an information processing unit such as a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM stores a control program for controlling the operation of the input device 1. The control unit 6a reads out the control program stored in the ROM, expands the control program in the RAM, and executes it, thereby displaying the display control unit 61, the input receiving unit 62, the operation state determining unit 63a, and the detection area changing unit 64. Function as.

操作状態判定部63aは、指紋センサー14によって読み取った指紋によって把持している手を判定すると共に、右面下側光センサー8a、右面上側光センサー8b、左面下側光センサー9aおよび左面上側光センサー9bによって、ユーザーが手で触れたキャビネット2の右側面2aおよび左側面2cの位置をそれぞれ検出し、ユーザーによるキャビネット2の操作状態を判定する。   The operation state determination unit 63a determines the hand gripped by the fingerprint read by the fingerprint sensor 14, and the right lower surface photosensor 8a, the right upper photosensor 8b, the left lower photosensor 9a, and the left upper photosensor 9b. Thus, the positions of the right side surface 2a and the left side surface 2c of the cabinet 2 touched by the user are detected, respectively, and the operation state of the cabinet 2 by the user is determined.

次に、操作状態判定部63aによる操作状態判定動作について図8および図9を参照して詳細に説明する。
表示制御部61によって表示部31に入力画面10が表示されると(ステップB1)、指紋センサー14は、指紋を読み取る(ステップB2)。次に、操作状態判定部63aは、指紋センサー14によって読み取られた指紋データと、記憶部7に記憶されているユーザー指紋データ15とを照合することで、指紋センサー14によって読み取られた指紋データが、ユーザーの左手人差し指であるか否かを判断すると共に(ステップB3)、ユーザーの右手人差し指であるか否かを判断する(ステップB4)。
Next, the operation state determination operation by the operation state determination unit 63a will be described in detail with reference to FIGS.
When the input screen 10 is displayed on the display unit 31 by the display control unit 61 (step B1), the fingerprint sensor 14 reads the fingerprint (step B2). Next, the operation state determination unit 63a collates the fingerprint data read by the fingerprint sensor 14 with the user fingerprint data 15 stored in the storage unit 7, so that the fingerprint data read by the fingerprint sensor 14 is obtained. Then, it is determined whether or not it is the user's left hand index finger (step B3), and whether or not it is the user's right hand index finger (step B4).

図9(a)、(b)に示すように、ユーザーの左手人差し指が指紋センサー14に接触している場合、操作状態判定部63aは、ステップB3でYesと判断し、キャビネット2の把持状態が「左手持ち」であると判定する(ステップB5)。   As shown in FIGS. 9A and 9B, when the user's left index finger is in contact with the fingerprint sensor 14, the operation state determination unit 63a determines Yes in step B3, and the gripping state of the cabinet 2 is It is determined that it is “left-handed” (step B5).

次に、操作状態判定部63aは、左面下側光センサー9aの出力が「暗」であるか否か、すなわち左面下側光センサー9aの出力に基づいて、左側面2cの左面下側光センサー9aが配置されている箇所に左手親指の根元が接触しているか否かを判断する(ステップB6)。   Next, the operation state determination unit 63a determines whether or not the output of the left lower surface photosensor 9a is “dark”, that is, based on the output of the left lower surface photosensor 9a. It is determined whether or not the base of the left thumb is in contact with the place where 9a is disposed (step B6).

図9(a)、(b)に示すように、左手親指の根元が左側面2cの左面下側光センサー9aが配置されている箇所に接触している場合、操作状態判定部63aは、ステップB6でYesと判断し、左面上側光センサー9bの出力が「暗」であるか否か、すなわち左面上側光センサー9bの出力に基づいて、左側面2cの左面上側光センサー9bが配置されている箇所に左手親指が接触しているか否かを判断する(ステップB7)。   As shown in FIGS. 9A and 9B, when the base of the left thumb is in contact with the position where the left lower surface optical sensor 9a of the left side surface 2c is disposed, the operation state determination unit 63a In B6, it is determined as Yes, and the left side upper photosensor 9b on the left side 2c is arranged based on whether the output of the left side upper photosensor 9b is “dark”, that is, based on the output of the left side upper photosensor 9b. It is determined whether or not the left thumb is in contact with the location (step B7).

図9(a)に示すように、左面上側光センサー9bの出力が「明」であり、左側面2cの左面上側光センサー9bが配置されている箇所への接触がない場合、操作状態判定部63aは、ステップB7でNoと判断し、左手親指でタッチパネル3を操作する「左手親指操作」であると判定する(ステップB8)。   As shown in FIG. 9A, when the output of the left upper photosensor 9b is “bright” and there is no contact with the left side upper photosensor 9b on the left side 2c, the operation state determination unit 63a is determined No in step B7, and is determined to be a “left hand thumb operation” in which the touch panel 3 is operated with the left thumb (step B8).

次に、操作状態判定部63aは、予め設定された所定時間の経過を待機し(ステップB9)、所定時間が経過すると、ステップB2に戻り、再度、操作状態の判定を行う。これにより、所定時間毎に操作状態の判定が行われる。なお、入力受付部62によって入力を受け付ける毎に、操作状態の判定を行うようにしても良い。また、キャビネット2の姿勢を検出する加速度センサー等の姿勢検出手段を設け、キャビネット2の姿勢が予め設定された角度以上変更された場合に、操作状態の判定を行うようにしても良い。   Next, the operation state determination unit 63a waits for the elapse of a predetermined time set in advance (step B9). When the predetermined time elapses, the operation state determination unit 63a returns to step B2 and again determines the operation state. Thereby, the operation state is determined every predetermined time. The operation state may be determined each time an input is received by the input receiving unit 62. Further, posture detection means such as an acceleration sensor for detecting the posture of the cabinet 2 may be provided, and the operation state may be determined when the posture of the cabinet 2 is changed by a predetermined angle or more.

図9(b)に示すように、左面上側光センサー9bの出力が「暗」であり、左手親指が左側面2cの左面上側光センサー9bが配置されている箇所に接触している場合、操作状態判定部63aは、ステップB7でYesと判断し、右手のいずれかの指でタッチパネル3を操作する「右手操作」であると判定し(ステップB10)、ステップB9に至る。   As shown in FIG. 9B, when the output of the left upper photosensor 9b is “dark” and the left thumb is in contact with the left upper photosensor 9b on the left side 2c, The state determination unit 63a determines Yes in step B7, determines that the operation is the “right hand operation” in which the touch panel 3 is operated with any finger of the right hand (step B10), and the process proceeds to step B9.

図9(c)、(d)に示すように、ユーザーの右手人差し指が指紋センサー14に接触している場合、操作状態判定部63aは、ステップB4でYesと判断し、キャビネット2の把持状態が「右手持ち」であると判定する(ステップB11)。   As shown in FIGS. 9C and 9D, when the user's right index finger is in contact with the fingerprint sensor 14, the operation state determination unit 63a determines Yes in step B4, and the gripping state of the cabinet 2 is It is determined that it is “right hand held” (step B11).

次に、操作状態判定部63aは、右面下側光センサー8aの出力が「暗」であるか否か、すなわち右面下側光センサー8aの出力に基づいて、右側面2bの右面下側光センサー8aが配置されている箇所に右手親指の根元が接触しているか否かを判断する(ステップB12)。   Next, the operation state determination unit 63a determines whether or not the output of the right side lower photosensor 8a is “dark”, that is, based on the output of the right side lower photosensor 8a, the right side lower photosensor of the right side 2b. It is determined whether or not the root of the right thumb is in contact with the place where 8a is disposed (step B12).

図9(c)、(d)に示すように、右手親指の根元が右側面2bの右面下側光センサー8aが配置されている箇所に接触している場合、操作状態判定部63aは、ステップB12でYesと判断し、右面上側光センサー8bの出力が「暗」であるか否か、すなわち右面上側光センサー8bの出力に基づいて、右側面2bの右面上側光センサー8bが配置されている箇所に右手親指が接触しているか否かを判断する(ステップB13)。   As shown in FIGS. 9C and 9D, when the base of the right thumb is in contact with the position where the right lower surface optical sensor 8a of the right side surface 2b is disposed, the operation state determination unit 63a If the result of B12 is Yes, the right upper photosensor 8b on the right side 2b is arranged based on whether or not the output of the right upper photosensor 8b is “dark”, that is, based on the output of the right upper photosensor 8b. It is determined whether or not the right thumb is in contact with the location (step B13).

図9(c)に示すように、右面上側光センサー8bの出力が「明」であり、右側面2bの右面上側光センサー8bが配置されている箇所への接触がない場合、操作状態判定部63aは、ステップB13でNoと判断し、右手親指でタッチパネル3を操作する「右手親指操作」であると判定し(ステップB14)、ステップB9に至る。   As shown in FIG. 9C, when the output of the right upper photosensor 8b is “bright” and there is no contact with the right side upper photosensor 8b on the right side 2b, the operation state determination unit 63a is determined as No in step B13, is determined to be a “right thumb operation” in which the touch panel 3 is operated with the right thumb (step B14), and the process proceeds to step B9.

図9(d)に示すように、右面上側光センサー8bの出力が「暗」であり、右手親指が右側面2bの右面上側光センサー8bが配置されている箇所に接触している場合、操作状態判定部63aは、ステップB13でYesと判断し、左手のいずれかの指でタッチパネル3を操作する「左手操作」であると判定し(ステップB15)、ステップB9に至る。   As shown in FIG. 9D, when the output of the right upper photosensor 8b is “dark” and the right thumb is in contact with the position where the right upper photosensor 8b of the right side 2b is disposed, The state determination unit 63a determines Yes in step B13, determines that the operation is the “left hand operation” in which the touch panel 3 is operated with any finger of the left hand (step B15), and the process proceeds to step B9.

指紋センサー14によって読み取られた指紋データと、記憶部7に記憶されているユーザー指紋データ15とが一致しない場合、操作状態判定部63aは、ステップB3およびステップB4でNoと判断し、操作状態を判定不能とし(ステップB16)、ステップB9に至る。また、ステップB6で左面下側光センサー9aの出力が「明」であり、左側面2cの左面下側光センサー9aが配置されている箇所に左手親指の根元が接触していない場合、操作状態判定部63aは、ステップB6でNoと判断し、操作状態を判定不能とし(ステップB16)、ステップB9に至る。さらに、ステップB12で右面下側光センサー8aの出力が「明」であり、右側面2bの右面下側光センサー8aが配置されている箇所に右手親指の根元が接触していない場合、操作状態判定部63aは、ステップB12でNoと判断し、操作状態を判定不能とし(ステップB16)、ステップB9に至る。   When the fingerprint data read by the fingerprint sensor 14 and the user fingerprint data 15 stored in the storage unit 7 do not match, the operation state determination unit 63a determines No in step B3 and step B4, and determines the operation state. Determination is impossible (step B16), and step B9 is reached. Further, when the output of the left lower photosensor 9a is “bright” in step B6 and the left thumb base is not in contact with the left lower photosensor 9a of the left side 2c, the operation state The determination unit 63a determines No in step B6, determines that the operation state cannot be determined (step B16), and reaches step B9. Further, if the output of the right lower photosensor 8a is “bright” in step B12 and the root of the right thumb is not in contact with the right lower photosensor 8a on the right side 2b, the operation state The determination unit 63a determines No in step B12, determines that the operation state cannot be determined (step B16), and reaches step B9.

以上説明したように、第2の実施の形態によれば、操作キー11がレイアウトされた入力画面10を表示する表示部31と、表示部31の上面に配置された正面タッチセンサー32とからなるタッチパネル3がキャビネット2の正面2aに設けられた入力装置1aであって、操作キー11への操作を検出する検出領域13が設定された検出領域設定情報12を記憶する記憶部7と、正面タッチセンサー32による検出結果に基づいて検出領域13への指の接触を検出し、対応する操作キー11の操作を受け付ける入力受付部62と、キャビネット2の右側面2bに設けられた右面センサー(右面下側光センサー8a、右面上側光センサー8b)と、キャビネット2の左側面2cに設けられた左面センサー(左面下側光センサー9a、左面上側光センサー9b)と、キャビネット2の右側面に設けられた指紋センサー14と、ユーザーの右手人差し指および左手人差し指の指紋データをユーザー指紋データ15として記憶する記憶部7と、操作状態として、指紋センサー14によって読み取られた指紋データとユーザー指紋データ15とを照合することで、キャビネット2を把持する持ち手を判定すると共に、右面下側光センサー8a、右面上側光センサー8b、左面下側光センサー9a及び左面上側光センサー9bの検出結果に基づいて、タッチパネル3を操作する指を判定する操作状態判定部63aと、操作状態判定部63aによって判定された操作状態に基づいて、検出領域13を左右方向に移動させる検出領域変更部64とを備えている。
この構成により、操作状態として、指紋センサー14の検出結果に基づいて入力装置1aを把持する手を判定すると共に、右面下側光センサー8a、右面上側光センサー8b、左面下側光センサー9a及び左面上側光センサー9bに基づいてタッチパネル3を操作する指を判定し、判定した操作状態に応じて検出領域13の位置を左右方向に移動させることができるため、入力装置1を把持する手や操作する指によってユーザーの視線や操作感覚が変化しても、正確なタッチ操作を実現することができる。
As described above, according to the second embodiment, the display unit 31 displays the input screen 10 on which the operation keys 11 are laid out, and the front touch sensor 32 is disposed on the upper surface of the display unit 31. The touch panel 3 is an input device 1a provided on the front surface 2a of the cabinet 2, and includes a storage unit 7 for storing detection area setting information 12 in which a detection area 13 for detecting an operation on the operation key 11 is set, and a front touch Based on the detection result by the sensor 32, the contact of the finger to the detection region 13 is detected, and the input receiving unit 62 that receives the operation of the corresponding operation key 11, and the right side sensor (lower right side) provided on the right side 2b of the cabinet 2 Side light sensor 8a, right upper light sensor 8b), and left sensor (left lower light sensor 9a, left upper) provided on the left side 2c of the cabinet 2. Sensor 9b), fingerprint sensor 14 provided on the right side of cabinet 2, storage unit 7 for storing fingerprint data of the user's right and left index fingers as user fingerprint data 15, and the fingerprint sensor 14 as the operating state. By comparing the read fingerprint data with the user fingerprint data 15, a handle holding the cabinet 2 is determined, and the right lower photosensor 8 a, right upper photosensor 8 b, left lower photosensor 9 a, and left Based on the detection result of the upper light sensor 9b, the operation state determination unit 63a that determines a finger that operates the touch panel 3, and the detection region 13 is moved in the left-right direction based on the operation state determined by the operation state determination unit 63a. And a detection area changing unit 64 to be operated.
With this configuration, as an operation state, the hand holding the input device 1a is determined based on the detection result of the fingerprint sensor 14, and the right lower surface light sensor 8a, the right upper surface light sensor 8b, the left lower surface light sensor 9a, and the left surface A finger operating the touch panel 3 can be determined based on the upper light sensor 9b, and the position of the detection region 13 can be moved in the left-right direction according to the determined operation state. Even if the user's line of sight or operation feeling changes with a finger, an accurate touch operation can be realized.

なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。   Note that the present invention is not limited to the above-described embodiments, and it is obvious that the embodiments can be appropriately changed within the scope of the technical idea of the present invention.

1、1a 入力装置
2 キャビネット
3 タッチパネル
4 右面タッチセンサー
5 左面タッチセンサー
6、6a 制御部
7 記憶部
8a 右面下側光センサー
8b 右面上側光センサー
9a 左面下側光センサー
9b 左面上側光センサー
10 入力画面
11 操作キー
12 検出領域設定情報
13 検出領域
14 指紋センサー
15 ユーザー指紋データ
31 表示部
32 正面タッチセンサー
41 右側下領域
42 右側上領域
43 非検出領域
51 左側下領域
52 左側上領域
53 非検出領域
61 表示制御部
62 入力受付部
63、63a 操作状態判定部
64 検出領域変更部
DESCRIPTION OF SYMBOLS 1, 1a Input device 2 Cabinet 3 Touch panel 4 Right side touch sensor 5 Left side touch sensor 6, 6a Control part 7 Memory | storage part 8a Right side lower side optical sensor 8b Right side upper side optical sensor 9a Left side lower side optical sensor 9b Left side upper side optical sensor 10 Input screen 11 Operation Key 12 Detection Area Setting Information 13 Detection Area 14 Fingerprint Sensor 15 User Fingerprint Data 31 Display 32 Front Touch Sensor 41 Lower Right Area 42 Right Upper Area 43 Non-Detection Area 51 Left Lower Area 52 Left Upper Area 53 Non-Detection Area 61 Display control unit 62 Input reception unit 63, 63a Operation state determination unit 64 Detection area change unit

Claims (5)

操作キーがレイアウトされた入力画面を表示する表示部と、当該表示部の上面に配置された正面タッチセンサーとからなるタッチパネルがキャビネットの正面に設けられた入力装置であって、
前記操作キーへの操作を検出する検出領域が設定された検出領域設定情報を記憶する検出領域設定情報記憶手段と、
前記正面タッチセンサーによる検出結果に基づいて前記検出領域への指の接触を検出し、対応する前記操作キーの操作を受け付ける入力受付部と
前記キャビネットの右側面に設けられた右面センサーと、
前記キャビネットの左側面に設けられた左面センサーと、
前記右面センサーおよび前記左面センサーの検出結果に基づいて、前記キャビネットを把持する持ち手と前記タッチパネルを操作する指とを操作状態として判定する操作状態判定部と、
前記操作状態判定部によって判定された前記操作状態に基づいて、前記検出領域を左右方向に移動させる検出領域変更部とを具備し、
前記操作状態判定部は、前記操作状態を左手が持ち手である「左手持ち」且つ右手の指で操作する「右手操作」と判定すると、前記検出領域を第1移動量右方向に、前記操作状態を右手が持ち手である「右手持ち」且つ左手の指で操作する「左手操作」と判定すると、前記検出領域を第2移動量左方向に、前記操作状態を前記「左手持ち」且つ左手の親指のみで操作する「左手親指操作」と判定すると、前記検出領域を第2移動量よりも大きい第3移動量左方向に、前記操作状態を前記「右手持ち」且つ右手の親指のみで操作する「右手親指操作」と判定すると、前記検出領域を第1移動量よりも大きい第4移動量右方向に、それぞれ移動させることを特徴とする入力装置。
An input device in which a touch panel including a display unit displaying an input screen in which operation keys are laid out and a front touch sensor arranged on the upper surface of the display unit is provided on the front of the cabinet,
Detection area setting information storage means for storing detection area setting information in which a detection area for detecting an operation on the operation key is set;
An input receiving unit that detects a finger contact with the detection area based on a detection result by the front touch sensor and receives an operation of the corresponding operation key; a right surface sensor provided on a right side of the cabinet;
A left side sensor provided on the left side of the cabinet;
Based on the detection results of the right surface sensor and the left surface sensor, an operation state determination unit that determines a handle that holds the cabinet and a finger that operates the touch panel as an operation state;
A detection region changing unit that moves the detection region in the left-right direction based on the operation state determined by the operation state determination unit ;
When the operation state determination unit determines that the operation state is “left-handed” in which the left hand is the handle and “right-hand operation” in which the left-hand is operated with the finger of the right hand, the detection region is moved to the right by the first movement amount If it is determined that the state is “right hand holding” in which the right hand is the handle and “left hand operation” in which the left hand is operated with the finger of the left hand, the detection area is moved leftward by the second movement amount, and the operation state is the “left hand held” and left hand. If it is determined that the operation is performed with only the thumb of the left hand, the detection area is operated in the left direction of the third movement amount larger than the second movement amount, and the operation state is operated only with the thumb of the right hand and the right hand. When the determination is “right thumb operation” , the input region is moved to the right by a fourth movement amount that is larger than the first movement amount .
前記右面センサー及び前記左面センサーは、前記キャビネットの右側面および左側面へのユーザーの接触をそれぞれ検出する右面タッチセンサーおよび左面タッチセンサーであり、
前記操作状態判定部は、
前記右面タッチセンサーによる検出結果に基づいて前記キャビネットの右側面に3本以上の指が接触していると判断すると、前記操作状態を前記「左手持ち」と判定すると共に、前記左面タッチセンサーの検出結果に基づいて、前記タッチパネルを操作する指を判定し、
前記左面タッチセンサーによる検出結果に基づいて前記キャビネットの左側面に3本以上の指が接触していると判断すると、前記操作状態を前記「右手持ち」と判定すると共に、前記右面タッチセンサーの検出結果に基づいて、前記タッチパネルを操作する指を判定することを特徴とする請求項記載の入力装置。
The right side sensor and the left side sensor are a right side touch sensor and a left side touch sensor that detect a user's contact with the right side and left side of the cabinet, respectively.
The operation state determination unit
If it is determined that three or more fingers are in contact with the right side surface of the cabinet based on the detection result by the right side touch sensor, the operation state is determined as the “left hand holding” and the left side touch sensor is detected. Based on the result, determine a finger to operate the touch panel,
When it is determined that three or more fingers are in contact with the left side surface of the cabinet based on the detection result by the left side touch sensor, the operation state is determined as the “right hand holding” and the right side touch sensor is detected. based on the results, the input device according to claim 1, wherein determining the finger for operating the touch panel.
前記操作状態判定部は、
前記操作状態を前記「左手持ち」と判定すると、前記キャビネットの左側面を所定の非検出領域を挟んで上下に分割した左側下領域と左側上領域との両方にユーザーの接触がある場合に前記「右手操作」と判定すると共に、前記左側下領域のみにユーザーの接触がある場合に前記「左手親指操作」と判定し、
前記操作状態を前記「右手持ち」と判定すると、前記キャビネットの右側面を所定の非検出領域を挟んで上下に分割した右側下領域と右側上領域との両方にユーザーの接触がある場合に前記「左手操作」と判定すると共に、前記右側下領域のみにユーザーの接触がある場合に前記「右手親指操作」と判定することを特徴とする請求記載の入力装置。
The operation state determination unit
When the operation state is determined to be “left-handed”, when the left side surface of the cabinet is divided into upper and lower sides across a predetermined non-detection region, the user has contact with both the lower left region and the upper left region. It is determined as “right hand operation”, and when there is a user contact only in the lower left area, it is determined as “left thumb operation”,
When the operation state is determined to be “right-handed”, when there is a user's contact with both the lower right region and the upper right region obtained by dividing the right side surface of the cabinet vertically with a predetermined non-detection region in between. The input device according to claim 2 , wherein the input device is determined to be “left hand operation” and is determined to be the “right hand thumb operation” when the user touches only the lower right region.
前記キャビネットの右側面に設けられた指紋センサーと、
ユーザーの右手人差し指および左手人差し指の指紋データをユーザー指紋データとして記憶する指紋データ記憶手段とを具備し、
前記操作状態判定部は、前記指紋センサーによって読み取られた指紋データと前記ユーザー指紋データとを照合することで、前記キャビネットを把持する持ち手を判定することを特徴とする請求項記載の入力装置。
A fingerprint sensor provided on the right side of the cabinet;
Fingerprint data storage means for storing the fingerprint data of the user's right and left index fingers as user fingerprint data,
The input device according to claim 1, wherein the operation state determination unit determines a handle holding the cabinet by comparing fingerprint data read by the fingerprint sensor with the user fingerprint data. .
操作キーがレイアウトされた入力画面を表示する表示部と、当該表示部の上面に配置された正面タッチセンサーとからなるタッチパネルがキャビネットの正面に設けられた端末装置への入力方法であって、
検出領域設定情報記憶手段に前記操作キーへの操作を検出する検出領域が設定された検出領域設定情報を記憶しておき、
入力受付部は、前記正面タッチセンサーによる検出結果に基づいて前記検出領域への指の接触を検出し、対応する前記操作キーの操作を受け付け、
操作状態判定部は、前記キャビネットの右側面に設けられた右面センサーと前記キャビネットの左側面に設けられた左面センサーとの検出結果に基づいて、前記キャビネットを把持する持ち手と前記タッチパネルを操作する指とを操作状態として判定し、
検出領域変更部は、前記操作状態判定部によって判定された前記操作状態に基づいて、前記検出領域を左右方向に移動させ
前記操作状態判定部は、前記操作状態を左手が持ち手である「左手持ち」且つ右手の指で操作する「右手操作」と判定すると、前記検出領域を第1移動量右方向に、前記操作状態を右手が持ち手である「右手持ち」且つ左手の指で操作する「左手操作」と判定すると、前記検出領域を第2移動量左方向に、前記操作状態を前記「左手持ち」且つ左手の親指のみで操作する「左手親指操作」と判定すると、前記検出領域を第2移動量よりも大きい第3移動量左方向に、前記操作状態を前記「右手持ち」且つ右手の親指のみで操作する「右手親指操作」と判定すると、前記検出領域を第1移動量よりも大きい第4移動量右方向に、それぞれ移動させることを特徴とする入力方法。
A touch panel comprising a display unit displaying an input screen in which operation keys are laid out and a front touch sensor disposed on the upper surface of the display unit is an input method to a terminal device provided on the front of the cabinet,
In the detection area setting information storage means, detection area setting information in which a detection area for detecting an operation on the operation key is set is stored,
The input receiving unit detects a finger contact with the detection area based on a detection result by the front touch sensor, receives an operation of the corresponding operation key,
The operation state determination unit operates the touch panel and the handle that holds the cabinet based on the detection result of the right side sensor provided on the right side of the cabinet and the left side sensor provided on the left side of the cabinet. The finger is determined as the operation state,
The detection area changing unit moves the detection area in the left-right direction based on the operation state determined by the operation state determination unit ,
When the operation state determination unit determines that the operation state is “left-handed” in which the left hand is the handle and “right-hand operation” in which the left-hand is operated with the finger of the right hand, the detection region is moved to the right by the first movement amount. If it is determined that the state is “right hand holding” in which the right hand is the handle and “left hand operation” in which the left hand is operated with the finger of the left hand, the detection area is moved leftward by the second movement amount, and the operation state is the “left hand held” and left hand. If it is determined that the operation is performed with only the thumb of the left hand, the detection area is operated in the left direction of the third movement amount larger than the second movement amount, and the operation state is operated only with the thumb of the right hand and the right hand. If the determination is “right thumb operation” , the input region is moved in the right direction by a fourth movement amount that is larger than the first movement amount .
JP2016043353A 2016-03-07 2016-03-07 Input device and input method Expired - Fee Related JP6451671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016043353A JP6451671B2 (en) 2016-03-07 2016-03-07 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016043353A JP6451671B2 (en) 2016-03-07 2016-03-07 Input device and input method

Publications (2)

Publication Number Publication Date
JP2017161985A JP2017161985A (en) 2017-09-14
JP6451671B2 true JP6451671B2 (en) 2019-01-16

Family

ID=59857906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016043353A Expired - Fee Related JP6451671B2 (en) 2016-03-07 2016-03-07 Input device and input method

Country Status (1)

Country Link
JP (1) JP6451671B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212116A (en) * 2018-06-06 2019-12-12 株式会社ケアコム Mobile terminal screen display control device
CN112603272A (en) * 2020-12-24 2021-04-06 中科彭州智慧产业创新中心有限公司 Pulse condition fast distinguishing detector

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4699955B2 (en) * 2006-07-21 2011-06-15 シャープ株式会社 Information processing device
JP2010072968A (en) * 2008-09-18 2010-04-02 Fujitsu Ltd Slide tuning device, electronic device, slide tuning program and slide tuning method
EP2175344B1 (en) * 2008-10-06 2020-02-12 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP2011138185A (en) * 2009-12-25 2011-07-14 Nikon Corp Display device and electronic equipment
KR101701932B1 (en) * 2010-07-22 2017-02-13 삼성전자 주식회사 Input device and control method of thereof
JP2012037963A (en) * 2010-08-04 2012-02-23 Nec Casio Mobile Communications Ltd Portable terminal device, detection area adjustment method and program
JP2013235523A (en) * 2012-05-11 2013-11-21 Sharp Corp Information processing terminal, and method and program of controlling the same
WO2015025550A1 (en) * 2013-08-22 2015-02-26 シャープ株式会社 Display device and touch-operation processing method
JP2015099460A (en) * 2013-11-19 2015-05-28 パナソニックIpマネジメント株式会社 On-vehicle apparatus and vehicle mounted therewith

Also Published As

Publication number Publication date
JP2017161985A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP4876982B2 (en) Display device and portable information device
US9916046B2 (en) Controlling movement of displayed objects based on user operation
KR20170086538A (en) Electronic device with pressure-sensitive side(s)
US20110187647A1 (en) Method and apparatus for virtual keyboard interactions from secondary surfaces
WO2012049942A1 (en) Mobile terminal device and display method for touch panel in mobile terminal device
JPWO2007007682A1 (en) Touch panel display device and portable device
KR20070116065A (en) Hand held electronic device with multiple touch sensing devices
KR20100000514A (en) Image display device with touch screen and method of controlling the same
US9201508B2 (en) Alternative glove-based key entry for mobile devices
JP5008707B2 (en) Input display board and table
JP6451671B2 (en) Input device and input method
JP6236640B2 (en) Detection method using capacitance type sensor and electronic device
KR101518786B1 (en) Feedback method of touch pressure level and device including touch screen performing the same
US10485056B2 (en) Sensor based interface adjustment
JP2014153956A (en) Electronic apparatus
JP7069887B2 (en) Display control method for mobile terminal devices and mobile terminal devices
JP5841023B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP7035662B2 (en) Display control method for mobile terminal devices and mobile terminal devices
JP6119291B2 (en) Display device, electronic device, display method, and program
KR20120130971A (en) password managing method of portable information or communication terminal using force sensor
JP6011114B2 (en) Character input device, character input method, and character input program
JP6380331B2 (en) Operation input device and operation input method
JP6078148B1 (en) Information processing apparatus, information processing method, and program
KR20110024743A (en) A device and method for inputting touch panel interface, and a mobile device and method for inputting the mobile device using the same
KR101155805B1 (en) A device and method for inputting korean character, and mobile device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181126

R150 Certificate of patent or registration of utility model

Ref document number: 6451671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees