JP6079337B2 - Input device, input control method, and input control program - Google Patents

Input device, input control method, and input control program Download PDF

Info

Publication number
JP6079337B2
JP6079337B2 JP2013054847A JP2013054847A JP6079337B2 JP 6079337 B2 JP6079337 B2 JP 6079337B2 JP 2013054847 A JP2013054847 A JP 2013054847A JP 2013054847 A JP2013054847 A JP 2013054847A JP 6079337 B2 JP6079337 B2 JP 6079337B2
Authority
JP
Japan
Prior art keywords
touch panel
holding
display screen
tracing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013054847A
Other languages
Japanese (ja)
Other versions
JP2014182435A (en
Inventor
哲典 田口
哲典 田口
哲 中島
哲 中島
清水 雅芳
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013054847A priority Critical patent/JP6079337B2/en
Publication of JP2014182435A publication Critical patent/JP2014182435A/en
Application granted granted Critical
Publication of JP6079337B2 publication Critical patent/JP6079337B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、入力装置および入力制御方法並びに入力制御プログラムに関する。   The present invention relates to an input device, an input control method, and an input control program.

スマートフォンやタブレット型のパーソナルコンピュータなどのように、タッチパネルの表示部に対するタッチを伴う操作(以下、タッチ操作とも称する)により、アプリケーションの起動や動作中のアプリケーションへの情報の入力を行う端末装置がある。   There is a terminal device that activates an application or inputs information to an operating application by an operation that involves a touch on a display unit of a touch panel (hereinafter also referred to as a touch operation), such as a smartphone or a tablet personal computer. .

この種の端末装置では、例えば、端末装置の持ち方により、利用者がタッチ操作できる範囲が制限される場合がある。例えば、電車内などで、一方の手でつり革につかまりながら他方の手で端末装置を把持している場合などに、利用者がタッチ操作を行うことが可能な範囲は、端末装置を把持している方の手の指が届く範囲に制限される。   In this type of terminal device, for example, the range in which the user can perform a touch operation may be limited depending on how the terminal device is held. For example, in a train, etc., when the terminal device is gripped by the other hand while holding the strap with one hand, the range in which the user can perform the touch operation is to grip the terminal device. Is limited to the reach of the finger of the other hand.

一方、端末装置のオペレーティングシステムやアプリケーションプログラムがタッチパネルに表示させるメニューやアイコンなどの操作対象は、予め設定された位置に表示される。このため、利用者が端末装置を把持している方の手でタッチパネルによる入力操作をしようとしても、アプリケーションプログラムなどによって用意されたメニューやアイコンの表示位置に指が届かない場合がある。   On the other hand, operation targets such as menus and icons displayed on the touch panel by the operating system and application program of the terminal device are displayed at preset positions. For this reason, even if the user tries to perform an input operation on the touch panel with the hand holding the terminal device, the finger may not reach the display position of the menu or icon prepared by the application program or the like.

利用者によるタッチ操作が可能な範囲が制限される場合について、タッチパネルによる入力操作を支援する技術として、利用者によるタッチ操作でなぞられた軌跡に沿って選択可能な項目を示すメニューを表示する技術が提案されている(例えば、特許文献1参照)。   A technology that displays a menu showing items that can be selected along the trajectory traced by the touch operation by the user as a technology to support the input operation by the touch panel when the range in which the user can perform the touch operation is limited. Has been proposed (see, for example, Patent Document 1).

また、端末装置の画面に表示された操作対象の中から、利用者が注視している操作対象を識別し、識別した操作対象に対応する情報の入力を受け付ける技術が提案されている(例えば、非特許文献1参照)。   Further, a technique has been proposed in which an operation target that is being watched by a user is identified from among the operation targets displayed on the screen of the terminal device, and input of information corresponding to the identified operation target is accepted (for example, Non-patent document 1).

特開2010−108080号公報JP 2010-108080 A

“MobiGaze,Development of a Gaze Interface for Handheld Mobile Devices”,April 12-13 2010“MobiGaze, Development of a Gaze Interface for Handheld Mobile Devices”, April 12-13 2010

ところで、タブレット型のパーソナルコンピュータのように比較的大きなタッチパネルを搭載した端末装置を利用する際などに、利用者は、片方の腕の下膊部に端末装置を載せ、端末装置を載せた方の手で端末装置を抱えるように持つ場合がある。   By the way, when using a terminal device equipped with a relatively large touch panel such as a tablet-type personal computer, the user places the terminal device on the armpit of one arm, There are cases where the terminal device is held by hand.

タッチパネルでなぞった軌跡に沿ってメニューを表示する従来技術では、上述のように端末装置を片手で抱えるように持つ場合に、表示可能な選択肢が制限されてしまう場合がある。なぜなら、端末装置を抱えるように持っている状態で動かせる指は、人差し指のように動きの自由度が少ない指に限られるため、高い自由度を持つ親指による操作が可能な持ち方に比べて、タッチ操作でなぞることができる軌跡の長さが短くなるからである。   In the conventional technique for displaying a menu along a trace traced by a touch panel, there are cases where displayable options are limited when the terminal device is held with one hand as described above. Because the fingers that can be moved while holding the terminal device are limited to fingers with a low degree of freedom of movement, such as the index finger, compared to a holding method that can be operated with a thumb with a high degree of freedom, This is because the length of the trajectory that can be traced by the touch operation is shortened.

このため、タッチ操作でなぞられた軌跡に沿ってメニューを表示する従来技術では、タッチパネルを搭載した端末装置が利用される多様なシーンの少なくとも一部において、使いやすい操作環境を提供することが困難である。   For this reason, it is difficult to provide an easy-to-use operating environment in at least a part of various scenes in which a terminal device equipped with a touch panel is used in the conventional technology that displays a menu along a trace traced by a touch operation. It is.

一方、利用者の視線を操作対象の選択に利用する技術では、操作対象を確定させるために、例えば1秒程度の時間にわたって操作対象のアイコン等を注視することを利用者に対して求めるため、利用者に目が疲れるなどの不快感を抱かせてしまう場合がある。   On the other hand, in the technology that uses the user's line of sight for selection of the operation target, in order to determine the operation target, for example, to ask the user to watch the icon of the operation target over a time of about 1 second, The user may feel discomfort such as eyestrain.

本件開示の入力装置および入力制御方法並びに入力制御プログラムは、タッチパネルを搭載した端末装置について想定される様々な持ち方において、タッチパネルによる入力操作をしやすくするための技術を提供することを目的とする。   An input device, an input control method, and an input control program of the present disclosure are intended to provide a technique for facilitating an input operation using a touch panel in various ways assumed for a terminal device equipped with a touch panel. .

一つの観点による入力装置は、表示画面を含み、表示画面への接触を感知するタッチパネルと、表示画面をなぞる操作がタッチパネルによって感知された場合に、なぞる操作によって描かれた軌跡の特徴に基づいて、表示画面をなぞる操作方向が制限される持ち方である第1の持ち方と、表示画面をなぞる操作方向の自由度が第1の持ち方の操作方向よりも高い第2の持ち方とのいずれであるかを判別する判別部と、判別部で判別された複数種類の持ち方のそれぞれに対応して表示画面において操作可能な領域を設定し、設定した領域に少なくとも一つの操作対象を示す画像を表示させる制御部と、タッチパネルによって接触が感知された箇所に制御部によって表示された操作対象で示される情報の入力を受け付ける受け付け部とを備える。 An input device according to one aspect includes a display screen, a touch panel that senses contact with the display screen, and a trajectory drawn by the tracing operation when an operation that traces the display screen is sensed by the touch panel. The first holding method, which is a holding method in which the operation direction of tracing the display screen is restricted, and the second holding method, wherein the degree of freedom of the operation direction of tracing the display screen is higher than the operation direction of the first holding method. indicating a determination unit that determines which one, set the operable area in the display screen corresponding to each of the plurality of types of holding manners discriminated by the discrimination unit, at least one of the operation target in the configured area A control unit that displays an image, and a reception unit that receives input of information indicated by an operation target displayed by the control unit at a location where contact is detected by the touch panel.

また、別の観点による入力制御方法は、表示画面を有するタッチパネルにより、表示画面をなぞる操作が感知された場合に、なぞる操作によって描かれた軌跡の特徴に基づいて、表示画面をなぞる操作方向が制限される持ち方である第1の持ち方と、表示画面をなぞる操作方向の自由度が第1の持ち方の操作方向よりも高い第2の持ち方とのいずれであるかを判別し、判別された複数種類の持ち方のそれぞれに対応して操作可能な領域をタッチパネルの表示画面において設定し、設定した領域に少なくとも一つの操作対象を示す画像を表示させ、タッチパネルによって接触が感知された箇所に表示された操作対象で示される情報の入力を受け付ける。 In addition, according to another aspect of the input control method, when an operation of tracing the display screen is detected by a touch panel having a display screen, the operation direction of tracing the display screen is based on the characteristics of the locus drawn by the tracing operation. Determining whether the holding method is a first holding method or a second holding method in which the degree of freedom of the operation direction tracing the display screen is higher than the operation direction of the first holding method ; An area that can be operated corresponding to each of the determined types of holding is set on the display screen of the touch panel, an image showing at least one operation target is displayed in the set area, and a touch is detected by the touch panel. The input of information indicated by the operation target displayed at the location is accepted.

また、別の観点による入力制御プログラムは、表示画面を有するタッチパネルにより、表示画面をなぞる操作が感知された場合に、なぞる操作によって描かれた軌跡の特徴に基づいて、表示画面をなぞる操作方向が制限される持ち方である第1の持ち方と、表示画面をなぞる操作方向の自由度が第1の持ち方の操作方向よりも高い第2の持ち方とのいずれであるかを判別し、判別された複数種類の持ち方のそれぞれに対応して操作可能な領域をタッチパネルの表示画面において設定し、設定した領域に少なくとも一つの操作対象を示す画像を表示させ、タッチパネルによって接触が感知された箇所に表示された操作対象で示される情報の入力を受け付ける処理をコンピュータに実行させる。 Further, an input control program according to another aspect is configured such that, when an operation of tracing the display screen is sensed by a touch panel having a display screen, the operation direction of tracing the display screen is based on the characteristics of the locus drawn by the tracing operation. Determining whether the holding method is a first holding method or a second holding method in which the degree of freedom of the operation direction tracing the display screen is higher than the operation direction of the first holding method ; An area that can be operated corresponding to each of the determined types of holding is set on the display screen of the touch panel, an image showing at least one operation target is displayed in the set area, and a touch is detected by the touch panel. Causes the computer to execute a process of accepting input of information indicated by the operation target displayed at the location.

本件開示の入力装置および入力制御方法並びに入力制御プログラムは、タッチパネルを搭載した端末装置について想定される様々な持ち方において、タッチパネルによる入力操作をしやすくすることができる。   The input device, the input control method, and the input control program of the present disclosure can facilitate an input operation using the touch panel in various ways assumed for a terminal device equipped with a touch panel.

入力装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an input device. 操作対象の並べ方の例を示す図である。It is a figure which shows the example of how to arrange the operation target. 入力装置の動作を示す図である。It is a figure which shows operation | movement of an input device. 持ち方の別例を示す図である。It is a figure which shows another example of how to hold. 操作対象の並べ方の別例を示す図である。It is a figure which shows another example of how to arrange the operation target. 入力装置の別実施形態を示す図である。It is a figure which shows another embodiment of an input device. 表示画面に設定された範囲の例を示す図である。It is a figure which shows the example of the range set to the display screen. 階層的な選択肢を提示するための操作対象の並べ方の例を示す図である。It is a figure which shows the example of how to arrange the operation target for showing a hierarchical choice. 入力装置の動作を示す図である。It is a figure which shows operation | movement of an input device. 入力装置を搭載した端末装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the terminal device carrying an input device. 端末装置の動作を示す図である。It is a figure which shows operation | movement of a terminal device. 操作対象の並べ方の別例を示す図である。It is a figure which shows another example of how to arrange the operation target.

以下、図面に基づいて、実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、入力装置の一実施形態を示す。   FIG. 1 shows an embodiment of an input device.

図1に示した入力装置10は、タッチパネル11と、判別部12と、制御部13と、受け付け部14とを含んでいる。   The input device 10 illustrated in FIG. 1 includes a touch panel 11, a determination unit 12, a control unit 13, and a reception unit 14.

また、図1に示した処理装置1は、入力装置10の上位装置である。例えば、入力装置10がスマートフォンやタブレット型のパーソナルコンピュータなどの端末装置に搭載されている場合に、処理装置1は、スマートフォンやタブレット型のパーソナルコンピュータなどに含まれるプロセッサに相当する。   In addition, the processing device 1 illustrated in FIG. 1 is a host device of the input device 10. For example, when the input device 10 is mounted on a terminal device such as a smart phone or a tablet personal computer, the processing device 1 corresponds to a processor included in the smart phone or tablet personal computer.

タッチパネル11は、メニューやアイコンなど選択可能な選択肢を示す操作対象を含む画像情報を表示する表示画面111を含み、表示画面111への接触を感知する。   The touch panel 11 includes a display screen 111 that displays image information including an operation target indicating a selectable option such as a menu or an icon, and senses contact with the display screen 111.

判別部12は、表示画面111をなぞる操作がタッチパネル11によって感知された場合に、なぞる操作によって描かれた軌跡の特徴に基づいて、タッチパネル11がどのような持ち方で把持されているかを判別する。判別部12は、例えば、表示画面111をなぞる操作を示す情報をタッチパネル11から受け取り、受け取った情報から、軌跡の特徴を示す情報として、軌跡の形状を示す情報および軌跡とタッチパネル11の外周との相対位置を示す情報を抽出してもよい。また、判別部12は、利用者がタッチパネル11を操作する際に描かれることが想定される様々な軌跡の特徴を示す情報と、タッチパネル11の持ち方との対応関係を示す情報に基づいて、抽出した軌跡の特徴に対応する持ち方を判別してもよい。   When the operation of tracing the display screen 111 is sensed by the touch panel 11, the determination unit 12 determines how the touch panel 11 is held based on the characteristics of the locus drawn by the tracing operation. . For example, the determination unit 12 receives information indicating an operation of tracing the display screen 111 from the touch panel 11, and receives information indicating the shape of the trajectory and information about the trajectory and the outer periphery of the touch panel 11 from the received information as information indicating the trajectory characteristics. Information indicating the relative position may be extracted. In addition, the determination unit 12 is based on information indicating the characteristics of various trajectories that are assumed to be drawn when the user operates the touch panel 11 and information indicating the correspondence relationship between the way of holding the touch panel 11. The holding method corresponding to the extracted trajectory feature may be determined.

判別部12は、タッチパネル11を利用者が片手で把持する際の持ち方として、次に述べる第1の持ち方と第2の持ち方とを含む複数種類の持ち方を判別することが望ましい。   The determination unit 12 preferably determines a plurality of types of holding methods including a first holding method and a second holding method described below as a method of holding the touch panel 11 with one hand.

ここで、第1の持ち方とは、表示画面111をなぞる操作が可能な方向が、タッチパネル11の外周に含まれる四辺のいずれかと概ね直交する方向に制限される持ち方である。第1の持ち方の一例は、タッチパネル11を下膊部と掌および親指とで支え、親指以外の少なくとも1本の指をタッチパネル11の外周に掛けた状態で抱えるような持ち方である。   Here, the first holding method is a holding method in which the direction in which the user can trace the display screen 111 is limited to a direction substantially orthogonal to any of the four sides included in the outer periphery of the touch panel 11. An example of the first way of holding is a way of holding the touch panel 11 with the lower buttocks, the palm, and the thumb and holding the touch panel 11 with at least one finger other than the thumb hung on the outer periphery of the touch panel 11.

図1に実線で示した手形h1は、第1の持ち方のうち、タッチパネル11の外周の上辺に人差し指から小指までの4本の指を掛けて持つ場合の例を示している。また、図1に実線で示した手形h1’は、第1の持ち方のうち、タッチパネル11の外周の右辺に人差し指から小指までの4本の指を掛けて持つ場合の例を示している。なお、手形h1、h1’に示す持ち方は、同時に発生するものではない。また、図1においては、第1の持ち方のうち、タッチパネル11の外周の左辺に人差し指から小指までの4本の指を掛けて持つ場合の例の図示は省略している。   A handprint h1 indicated by a solid line in FIG. 1 shows an example of a case of holding the four fingers from the index finger to the little finger on the upper side of the outer periphery of the touch panel 11 in the first way of holding. A handprint h1 'indicated by a solid line in FIG. 1 shows an example in which, among the first ways of holding, four fingers from the index finger to the little finger are hung on the right side of the outer periphery of the touch panel 11. Note that the way of holding the bills h1, h1 'does not occur at the same time. Further, in FIG. 1, in the first holding method, an example in which four fingers from the index finger to the little finger are hung on the left side of the outer periphery of the touch panel 11 is omitted.

また、第2の持ち方とは、表示画面111をなぞる操作が可能な範囲が表示画面111において領域R2で示すように2次元的な広がりを有する持ち方である。第2の持ち方の一例は、人差し指から小指までの4本の指と掌とでタッチパネル11を支え、掌と親指とでタッチパネル11を挟み込むような持ち方である。   In addition, the second way of holding is a way of holding the display screen 111 so that the range in which the user can trace the display screen 111 is two-dimensionally spread as indicated by a region R2 on the display screen 111. As an example of the second way of holding, the touch panel 11 is supported by four fingers from the index finger to the little finger and the palm, and the touch panel 11 is sandwiched between the palm and the thumb.

なお、図1に破線で示した手形h2は、タッチパネル11の外周の左辺が上述の第2の持ち方で把持されている場合に、タッチパネル11の表面を親指でなぞる操作を行っている左手の形の例を示している。なお、図1においては、タッチパネル11の外周の右辺を第2の持ち方で把持している状態で、タッチパネル11の表面を親指でなぞる操作を行っている右手の形の図示は省略している。   Note that the handprint h2 indicated by a broken line in FIG. 1 is a left hand that performs an operation of tracing the surface of the touch panel 11 with the thumb when the left side of the outer periphery of the touch panel 11 is gripped in the second holding manner. Examples of shapes are shown. In FIG. 1, the shape of the right hand that performs the operation of tracing the surface of the touch panel 11 with the thumb while the right side of the outer periphery of the touch panel 11 is gripped in the second way is omitted. .

利用者がタッチパネル11を第1の持ち方で把持している方の手でなぞる操作を行う場合に、なぞる操作に用いることができる指は、人差し指のように、動きの自由度が一方向である指に限られる。このため、第1の持ち方で把持している状態でのなぞる操作で描かれる軌跡は、タッチパネル11の四辺のうち把持している縁に対応する辺に概ね直交する方向の直線状の軌跡に限られる。例えば、図1において符号Tr1で示した直線状の矢印は、第1の持ち方の一例である、タッチパネル11の上辺に対応する縁に親指以外の4本の指を掛ける持ち方で把持した状態で、表示画面111上になぞる操作を行った際に描かれる軌跡の例を示している。   When the user performs an operation of tracing with the hand holding the touch panel 11 in the first way, the finger that can be used for the tracing operation has a one-way freedom of movement like an index finger. Limited to certain fingers. For this reason, the locus drawn by the tracing operation while gripping in the first holding manner is a linear locus in a direction substantially orthogonal to the side corresponding to the gripping edge among the four sides of the touch panel 11. Limited. For example, the straight arrow indicated by reference numeral Tr1 in FIG. 1 is a state of holding with a holding method in which four fingers other than the thumb are hung on the edge corresponding to the upper side of the touch panel 11, which is an example of a first holding method. The example of the locus drawn when an operation of tracing on the display screen 111 is performed is shown.

したがって、判別部12は、タッチパネル11の外周に含まれる四辺のいずれかと概ね直交する方向を持つ軌跡を示す情報を受け取った場合に、タッチパネル11は第1の持ち方で把持されていると判別してもよい。   Therefore, when the determination unit 12 receives information indicating a trajectory having a direction substantially orthogonal to any of the four sides included in the outer periphery of the touch panel 11, the determination unit 12 determines that the touch panel 11 is gripped in the first way of holding. May be.

一方、利用者がタッチパネル11を第2の持ち方で把持している方の手でなぞる操作を行う場合には、動きの自由度が大きい親指を使ってなぞる操作を行うことができる。このため、第2の持ち方で把持している状態では、2次元方向の自由度を持つ形状を有する軌跡を描くようになぞる操作が可能である。例えば、図1において符号Tr2で示した弧状の矢印は、第2の持ち方の一例である、タッチパネル11の左辺に対応する縁を親指と親指以外の指とで挟み込む持ち方で把持した状態で、表示画面111上になぞる操作を行った際に描かれる軌跡の例を示している。   On the other hand, when the user performs an operation of tracing with the hand holding the touch panel 11 in the second way of holding, the user can perform an operation of tracing using a thumb having a high degree of freedom of movement. For this reason, in the state of gripping in the second way of holding, it is possible to perform an operation of tracing so as to draw a locus having a shape having a degree of freedom in a two-dimensional direction. For example, the arc-shaped arrow indicated by reference numeral Tr2 in FIG. 1 is an example of the second holding method, in a state where the edge corresponding to the left side of the touch panel 11 is gripped by a holding method sandwiched between a thumb and a finger other than the thumb. The example of the locus | trajectory drawn when the operation traced on the display screen 111 is performed is shown.

したがって、判別部12は、表示画面111において2次元方向の自由度を有する形状を持つ軌跡を示す情報を受け取った場合に、タッチパネル11は第2の持ち方で把持されていると判別してもよい。   Therefore, when the determination unit 12 receives information indicating a locus having a shape having a two-dimensional degree of freedom on the display screen 111, the determination unit 12 determines that the touch panel 11 is held in the second way. Good.

制御部13は、判別部12で判別された持ち方に対応して、タッチパネル11の表示画面111に操作可能な領域を設定するとともに、設定した領域に少なくとも一つの操作対象を示す画像を、判別された持ち方に合わせた並べ方で表示させる制御を行う。   The control unit 13 sets an operable region on the display screen 111 of the touch panel 11 corresponding to the holding method determined by the determination unit 12, and determines an image indicating at least one operation target in the set region. The display is arranged in a way that matches the way it is held.

制御部13は、判別部12から、判別された持ち方を示す情報とともに、表示画面111をなぞる操作により描かれた軌跡の特徴を示す情報を受け取ってもよい。   The control unit 13 may receive information indicating the characteristics of the trajectory drawn by the operation of tracing the display screen 111 together with information indicating the determined holding method from the determination unit 12.

また、制御部13は、判別部12から受け取った情報に基づいて、タッチ操作が可能と推定される領域をタッチパネル11の表示画面111において特定し、特定した領域を、判別された持ち方に対応する操作可能な領域として設定してもよい。   Further, the control unit 13 identifies an area estimated to be capable of a touch operation on the display screen 111 of the touch panel 11 based on the information received from the determination unit 12, and corresponds the identified area to the determined holding method. It may be set as an operable area.

ここで、第1の持ち方でタッチパネル11が把持されている場合に、図1に示した軌跡Tr1を描いた指の他に、タッチパネル11の外周に掛けられた指が、軌跡Tr1と概ね直交する方向に並んでいると推定できる。例えば、図1に示した手形h1は、人差し指で上述した軌跡Tr1を描くタッチ操作を行っている様子を示すとともに、中指と薬指および小指がタッチパネル11の外周に掛けられている様子を示している。また、図1に示した手形h1に含まれる中指と薬指および小指が動く範囲は、上述した軌跡Tr1に概ね平行な方向に限られるものの、人差し指を含めて4本の指のそれぞれにより、タッチパネル11へのタッチ操作は可能である。   Here, when the touch panel 11 is gripped in the first way of holding, in addition to the finger depicting the locus Tr1 shown in FIG. 1, the finger hung on the outer periphery of the touch panel 11 is substantially orthogonal to the locus Tr1. It can be estimated that they are lined up in the direction of For example, the bill h1 shown in FIG. 1 shows a state in which a touch operation for drawing the trajectory Tr1 described above is performed with the index finger, and a state in which the middle finger, the ring finger, and the little finger are put on the outer periphery of the touch panel 11. . In addition, the range of movement of the middle finger, the ring finger, and the little finger included in the bill h1 illustrated in FIG. 1 is limited to a direction substantially parallel to the above-described trajectory Tr1, but the touch panel 11 includes four fingers including the index finger. Touch operation to is possible.

そこで、制御部13は、図1に示した軌跡Tr1を描く操作に応じて、第1の持ち方で把持されていると判別された場合に、タッチ操作が可能と推定される領域、すなわち、操作可能な領域として、例えば、図1において破線で示した領域R1を設定してもよい。ここで、領域R1は、軌跡Tr1の長さに対応する幅を持ち、タッチパネル11の外周のうち上辺に沿う方向に長手方向を持つ帯状の領域であり、第1の持ち方の場合になぞる操作が可能な一方向を一辺とする矩形領域の一例である。   Therefore, the control unit 13 determines that the touch operation can be performed when it is determined that the robot is gripped in the first way in accordance with the operation of drawing the trajectory Tr1 illustrated in FIG. For example, a region R1 indicated by a broken line in FIG. 1 may be set as the operable region. Here, the region R1 is a band-like region having a width corresponding to the length of the trajectory Tr1 and having a longitudinal direction in the direction along the upper side of the outer periphery of the touch panel 11, and an operation to be traced in the case of the first holding method. It is an example of the rectangular area | region which makes one side the possible one direction.

なお、図1に示した領域R1は、タッチパネル11の上辺に対応する縁が第1の持ち方で把持されていると判別された際に、制御部13が、軌跡Tr1に基づいて、図1に示した手形h1で示した指が届くと推定される範囲として特定する領域の一例である。同様にして、制御部13は、タッチパネル11の左辺または右辺に対応する縁が第1の持ち方で把持されている旨の判別結果に応じて、把持されている側の縁に対応する辺に沿う方向に長手方向を持つ帯状の領域を操作可能な領域として設定してもよい。   In the region R1 shown in FIG. 1, when it is determined that the edge corresponding to the upper side of the touch panel 11 is gripped by the first holding method, the control unit 13 determines that the edge R1 shown in FIG. It is an example of the area | region specified as a range estimated that the finger | toe shown by the handprint h1 shown in FIG. Similarly, the control unit 13 sets the edge corresponding to the edge on the gripped side according to the determination result that the edge corresponding to the left side or the right side of the touch panel 11 is gripped in the first holding manner. A band-like region having a longitudinal direction in the direction along the direction may be set as an operable region.

一方、第2の持ち方でタッチパネル11が把持されている場合に、図1に示した軌跡Tr2を描いた指、即ち、タッチパネル11に対するタッチ操作が可能な指は、動きの自由度が高い親指であると推定できる。人間の親指は、指の付け根を中心とする扇型の範囲で動かすことが可能であるので、第2の持ち方でタッチパネル11を把持した状態で、親指の指先によって操作可能な範囲は2次元的な広がりを持っている。   On the other hand, when the touch panel 11 is gripped in the second way, a finger depicting the locus Tr2 shown in FIG. 1, that is, a finger capable of touching the touch panel 11, is a thumb having a high degree of freedom of movement. It can be estimated that. Since the human thumb can be moved in a fan-shaped range centered on the base of the finger, the range that can be operated by the fingertip of the thumb while holding the touch panel 11 in the second way is two-dimensional. Have a broad spread.

そこで、制御部13は、図1に示した軌跡Tr2を描く操作に応じて、第2の持ち方で把持されていると判別された場合に、タッチ操作が可能と推定される領域、すなわち、操作可能な領域として、例えば、図1において破線で示した領域R2を設定してもよい。ここで、領域R2は、タッチパネル11の左辺に対応する縁の一点を中心とする扇形の領域であり、第2の持ち方でタッチパネル11を把持した状態でなぞる操作が可能な範囲の一例である。   Therefore, the control unit 13 determines that the touch operation can be performed when it is determined that the hand is held in the second way in accordance with the operation of drawing the locus Tr2 illustrated in FIG. For example, a region R2 indicated by a broken line in FIG. 1 may be set as the operable region. Here, the region R2 is a fan-shaped region centered on one point of the edge corresponding to the left side of the touch panel 11, and is an example of a range in which a tracing operation can be performed while the touch panel 11 is held in the second way. .

なお、図1に示した領域R2は、タッチパネル11の左辺に対応する縁が第2の持ち方で把持されていると判別された際に、制御部13が、軌跡Tr2に基づいて、操作可能な指である親指が届くことが推定される範囲として特定する領域の一例である。同様にして、制御部13は、タッチパネル11の右辺に対応する縁が第2の持ち方で把持されている旨の判別結果に応じて、右辺に対応する縁の一点を中心とする扇形の領域を操作範囲として特定してもよい。   Note that the region R2 illustrated in FIG. 1 can be operated by the control unit 13 based on the locus Tr2 when it is determined that the edge corresponding to the left side of the touch panel 11 is gripped in the second way. It is an example of the area | region specified as a range estimated that the thumb which is a big finger | toe reaches | attains. Similarly, the control unit 13 determines that the edge corresponding to the right side of the touch panel 11 is gripped in the second way, and forms a sector area centered on one point corresponding to the right side. May be specified as the operation range.

また、制御部13は、例えば、処理装置1がタッチパネル11にメニューなどを表示させる際に、メニューに含まれる選択肢を示すオブジェクトを表示するための情報を、処理装置1から受け取る。なお、メニューに含まれる選択肢を示すオブジェクトを表示するための情報は、タッチパネル11を介して利用者に選択可能な選択肢を提示するための情報の一例である。   For example, when the processing device 1 displays a menu or the like on the touch panel 11, the control unit 13 receives information for displaying an object indicating an option included in the menu from the processing device 1. The information for displaying an object indicating options included in the menu is an example of information for presenting options that can be selected to the user via the touch panel 11.

制御部13は、上述した第1の持ち方と第2の持ち方を含む持ち方のそれぞれと、持ち方に対応する操作範囲における操作対象の並べ方との対応関係を示す情報に基づいて、処理装置1から受け取った情報で示される操作対象を表示させてもよい。   The control unit 13 performs processing based on information indicating a correspondence relationship between each of the holding methods including the first holding method and the second holding method described above and how to arrange the operation targets in the operation range corresponding to the holding method. The operation target indicated by the information received from the device 1 may be displayed.

図2は、操作対象の並べ方の例を示す。なお、図2に示した要素のうち、図1に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 2 shows an example of how operation objects are arranged. 2 that are the same as those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

図2(A)は、利用者がタッチパネル11を第1の持ち方で把持している場合に好適な操作対象の並べ方の例を示している。また、図2(B)は、利用者がタッチパネル11を第2の持ち方で把持している場合に好適な操作対象の並べ方の例を示している。   FIG. 2A shows an example of how to arrange the operation objects suitable when the user is holding the touch panel 11 in the first way of holding. FIG. 2B shows an example of how to arrange the operation objects suitable when the user is holding the touch panel 11 in the second way of holding.

図2(A)において、符号M1,M2,M3,M4で示した矩形のそれぞれは、メニューなどに含まれる選択肢を示す操作対象を示している。図2(A)の例は、第1の持ち方に対応する操作範囲として設定された帯状の領域R1の内部に、手形h1に含まれる4本の指のそれぞれに対応するように、操作対象M1,M2,M3,M4を並べた例である。   In FIG. 2A, each of the rectangles indicated by reference numerals M1, M2, M3, and M4 indicates an operation target indicating options included in a menu or the like. In the example of FIG. 2A, the operation target is set so as to correspond to each of the four fingers included in the bill h1 inside the band-shaped region R1 set as the operation range corresponding to the first holding method. In this example, M1, M2, M3, and M4 are arranged.

一方、図2(B)において、符号M1,M2,M3,M4で示した矩形のそれぞれは、メニューなどに含まれる選択肢を示す操作対象を示している。図2(B)の例は、図1に示した設定部13によって操作範囲として設定された扇型の領域R2の内部に、操作対象M1,M2,M3,M4を2行2列のマトリックス状に並べた例である。なお、第2の持ち方における操作対象M1,M2,M3,M4の並べ方は、図2(B)の例に限られず、例えば、操作対象M1〜M3を縦に並べ、操作対象M4を操作対象M2の横に並べるなど、様々な変形が可能である。   On the other hand, in FIG. 2B, each of the rectangles indicated by reference numerals M1, M2, M3, and M4 indicates an operation target indicating options included in a menu or the like. In the example of FIG. 2B, the operation objects M1, M2, M3, and M4 are arranged in a matrix of 2 rows and 2 columns inside the fan-shaped region R2 set as the operation range by the setting unit 13 shown in FIG. Is an example. The arrangement of the operation objects M1, M2, M3, and M4 in the second way of holding is not limited to the example of FIG. 2B. For example, the operation objects M1 to M3 are arranged vertically and the operation object M4 is the operation object. Various modifications, such as arranging them next to M2, are possible.

図1に示した制御部13は、例えば、第1の持ち方と、図2(A)に示した並べ方との対応関係を示す情報とともに、第2の持ち方と、図2(B)に示した並べ方との対応関係を示す情報を保持しておくことができる。   The control unit 13 shown in FIG. 1 includes, for example, information indicating the correspondence between the first way of holding and the way of arrangement shown in FIG. Information indicating a correspondence relationship with the shown arrangement can be held.

例えば、制御部13は、第1の持ち方に対応して、判別部12から受け取った情報で示される軌跡Tr1に最も近いタッチパネル11の縁に沿う方向に操作対象を並べる旨の情報を保持しておいてもよい。また、制御部13は、第2の持ち方に対応して、複数行複数列のマトリックス状に操作対象を並べる旨の情報を保持しておいてもよい。なお、第2の持ち方の場合に、制御部13は、処理装置1から受け取った情報で示される操作対象の数や、図1に示した軌跡Tr2で示されるこの大きさなどに基づいて、操作対象を並べるマトリックスの行数および列数を決定してもよい。   For example, the control unit 13 holds information indicating that the operation targets are arranged in a direction along the edge of the touch panel 11 closest to the trajectory Tr1 indicated by the information received from the determination unit 12 corresponding to the first holding method. You may keep it. Further, the control unit 13 may hold information indicating that the operation objects are arranged in a matrix of a plurality of rows and a plurality of columns corresponding to the second way of holding. In the case of the second holding method, the control unit 13 determines the number of operation targets indicated by the information received from the processing device 1, the size indicated by the trajectory Tr2 illustrated in FIG. The number of rows and columns of the matrix in which the operation objects are arranged may be determined.

制御部13は、判別部12で第1の持ち方と判別された際に、第1の持ち方に対応付けて保持した情報に基づき、図2(A)の例のように、タッチパネル11の上側に設定された帯状の領域R1に、操作対象M1〜M4を横に並べて表示させることができる。   When the determination unit 12 determines that the first holding method is used, the control unit 13 uses the information stored in association with the first holding method as illustrated in FIG. The operation objects M1 to M4 can be displayed side by side in the band-shaped region R1 set on the upper side.

このような制御を行うことにより、第1の持ち方でタッチパネル11が把持されている状態での操作によって描かれた軌跡Tr1が短くても、軌跡Tr1の長さで示される範囲に表示可能な操作対象よりも多くの操作対象を選択肢として提示することができる。   By performing such control, even if the trajectory Tr1 drawn by the operation in the state where the touch panel 11 is held in the first way of holding is short, it can be displayed in the range indicated by the length of the trajectory Tr1. More operation objects than the operation objects can be presented as options.

また、制御部13は、第2の持ち方と判別された際に、第2の持ち方に対応付けて保持した情報に基づき、図2(B)の例のように、タッチパネル11の左下側の扇型の領域R2に、操作対象M1〜M4をマトリックス状に並べて表示させることができる。   Further, when the control unit 13 determines that it is the second way of holding, based on the information held in association with the second way of holding, as shown in the example of FIG. The operation objects M1 to M4 can be displayed in a matrix in the fan-shaped region R2.

このような制御を行うことにより、第2の持ち方の場合に操作可能な指である親指の可動範囲が2次元的な広がりを持つことを利用し、自由度の高い並べ方で操作対象を表示させることができる。   By performing such control, it is possible to display the operation target with a high degree of freedom by utilizing the fact that the movable range of the thumb, which is a finger that can be operated in the second way of holding, has a two-dimensional spread. Can be made.

また、図2(B)に示した扇形の領域R2のように、2次元的な広がりを持つ操作範囲を設定した場合に、制御部13は、軌跡Tr2およびその延長に沿って操作対象を並べる場合に比べて、より多くの操作対象を表示させることができる。例えば、制御部13は、文字入力用の仮想的なキーボードに含まれる各キーを示す情報を処理装置1から受け取った場合に、これらのキーに対応する操作対象を4行3列などのマトリックス状に並べることで、全ての操作対象を表示することができる。なお、仮想的なキーボードに含まれる各キーに相当する操作対象をタッチパネル11に表示させる例については、図5を用いて後述する。   Further, when an operation range having a two-dimensional expansion is set as in the sector-shaped region R2 illustrated in FIG. 2B, the control unit 13 arranges the operation targets along the trajectory Tr2 and its extension. Compared to the case, more operation objects can be displayed. For example, when the control unit 13 receives information indicating each key included in the virtual keyboard for character input from the processing device 1, the control unit 13 displays the operation target corresponding to these keys in a matrix form such as 4 rows and 3 columns. All the operation objects can be displayed by arranging them in the order. Note that an example in which an operation target corresponding to each key included in the virtual keyboard is displayed on the touch panel 11 will be described later with reference to FIG.

図1に示した受け付け部14は、タッチパネル11によって接触が感知された箇所に表示された操作対象で示される情報の入力を受け付ける。例えば、タッチパネル11の表示画面111に複数の選択肢を含むメニューが表示されている場合に、受け付け部14は、メニューに含まれる選択肢のうち、接触が感知された箇所に表示されている操作対象で示される選択肢を選択する旨を示す情報の入力を受け付ける。また、受け付け部14は、受け付けた情報、例えば、選択する旨が示された選択肢を示す情報を、入力装置10の上位装置である処理装置1に渡してもよい。   The receiving unit 14 illustrated in FIG. 1 receives input of information indicated by an operation target displayed at a location where contact is detected by the touch panel 11. For example, when a menu including a plurality of options is displayed on the display screen 111 of the touch panel 11, the reception unit 14 is an operation target displayed at a location where contact is detected among the options included in the menu. An input of information indicating that the displayed option is selected is accepted. In addition, the reception unit 14 may pass received information, for example, information indicating an option indicating selection to the processing device 1 that is a host device of the input device 10.

図3は、図1に示した入力装置10の動作を示す。図3に示したステップS301〜ステップS307の処理は、図1に示したタッチパネル11の表示画面111をなぞる操作が行われた際に、図1に示した判別部12、制御部13および受け付け部14によって実行される。   FIG. 3 shows the operation of the input device 10 shown in FIG. The processing in steps S301 to S307 illustrated in FIG. 3 is performed when the operation of tracing the display screen 111 of the touch panel 11 illustrated in FIG. 1 is performed, the determination unit 12, the control unit 13, and the reception unit illustrated in FIG. 14 is executed.

ステップS301において、図1に示した判別部12は、タッチパネル11から表示画面111をなぞる操作で描かれた軌跡を示す情報を受け取り、受け取った情報で示される軌跡の特徴からタッチパネル11がどのような持ち方で把持されているかを判別する。   In step S <b> 301, the determination unit 12 illustrated in FIG. 1 receives information indicating the locus drawn by the operation of tracing the display screen 111 from the touch panel 11, and determines what kind of touch panel 11 is based on the feature of the locus indicated by the received information. Determine if it is being held.

ステップS302において、図1に示した制御部13は、ステップS301の処理で判別部12が判別した持ち方が、第1の持ち方であるか否かを判定する。   In step S302, the control unit 13 illustrated in FIG. 1 determines whether the holding method determined by the determination unit 12 in the process of step S301 is the first holding method.

判別された持ち方が第1の持ち方である場合に(ステップS302の肯定判定(YES))、制御部13は、ステップS303の処理を実行し、第2の持ち方である場合に(ステップS302の否定判定))、ステップS304の処理を実行する。   When the determined holding method is the first holding method (Yes determination in step S302 (YES)), the control unit 13 executes the process of step S303 and when the determined holding method is the second holding method (step S302). The negative determination of S302)), the process of step S304 is executed.

ステップS303において、制御部13は、図2(A)に示したような第1の持ち方に対応する並べ方で、処理装置1から受け取った情報で示される少なくとも一つの操作対象をタッチパネル11に表示させる。   In step S <b> 303, the control unit 13 displays on the touch panel 11 at least one operation target indicated by the information received from the processing device 1 in an arrangement corresponding to the first holding method as illustrated in FIG. Let

一方、ステップS304において、制御部13は、図2(B)に示したような第2の持ち方に対応する並べ方で、処理装置1から受け取った情報で示される少なくとも一つの操作対象をタッチパネル11に表示させる。   On the other hand, in step S304, the control unit 13 selects at least one operation target indicated by the information received from the processing device 1 in the arrangement corresponding to the second holding method as illustrated in FIG. To display.

上述したステップS302〜ステップS304の処理によれば、ステップS301の処理で判別された持ち方に応じた並べ方で、処理装置1から受け取った情報で示される操作対象をタッチパネル11の表示画面111に表示させることができる。   According to the processing of step S302 to step S304 described above, the operation target indicated by the information received from the processing device 1 is displayed on the display screen 111 of the touch panel 11 in an arrangement according to the holding method determined in the processing of step S301. Can be made.

例えば、ステップS302の肯定判定に応じてステップS303の処理を実行することで、図2(A)に示した並べ方で操作対象M1〜M4を表示させ、タッチパネル11を第1の持ち方で把持した状態で操作可能な範囲に操作対象M1〜M4を提示することができる。   For example, by performing the process of step S303 in response to the affirmative determination of step S302, the operation objects M1 to M4 are displayed in the arrangement shown in FIG. 2A, and the touch panel 11 is gripped by the first holding method. The operation objects M1 to M4 can be presented in a range that can be operated in the state.

同様に、ステップS302の否定判定に応じてステップS304の処理を実行することで、図2(B)に示した並べ方で操作対象M1〜M4を表示させ、タッチパネル11を第2の持ち方で把持した状態で操作可能な範囲に操作対象M1〜M4を提示することができる。   Similarly, by performing the process of step S304 in response to the negative determination of step S302, the operation objects M1 to M4 are displayed in the arrangement shown in FIG. 2B, and the touch panel 11 is gripped by the second holding method. The operation targets M1 to M4 can be presented in a range that can be operated in the state that has been performed.

その後、ステップS305において、受け付け部14は、タッチパネル11から渡される接触を感知した箇所の位置を示す情報に基づいて、表示画面111に表示された操作対象のいずれかへの接触がタッチパネル11によって感知されたか否かを判定する。   Thereafter, in step S <b> 305, the accepting unit 14 senses a touch on any of the operation targets displayed on the display screen 111 based on the information indicating the position of the touch sensed touch from the touch panel 11. It is determined whether or not it has been done.

受け付け部14は、制御部13によって表示画面111に操作対象M1〜M4を表示する処理が実行された際などに、表示画面111における操作対象M1〜M4の表示位置を示す情報を制御部13から取得し、取得した情報を保持していてもよい。   The receiving unit 14 receives information indicating the display positions of the operation objects M1 to M4 on the display screen 111 from the control unit 13 when the control unit 13 executes processing for displaying the operation objects M1 to M4 on the display screen 111. The acquired information may be retained.

受け付け部14は、タッチパネル11から受け取った情報が、操作対象のいずれかが表示された箇所を示す情報と一致した場合に、操作対象が選択されたと判断し(図3のステップS305の肯定判定(YES))、ステップS306の処理を実行する。   The receiving unit 14 determines that the operation target has been selected when the information received from the touch panel 11 matches the information indicating the location where one of the operation targets is displayed (positive determination in step S305 in FIG. 3). YES)), the process of step S306 is executed.

例えば、図2(A)に示したように、操作対象M1が表示された箇所に利用者の指が接触した場合に、タッチパネル11から操作対象M1の表示位置を示す情報が渡されるので、受け付け部14は、操作対象M1への接触操作がなされたと判断する。   For example, as shown in FIG. 2A, when the finger of the user touches the location where the operation target M1 is displayed, information indicating the display position of the operation target M1 is passed from the touch panel 11, and therefore, The unit 14 determines that a contact operation has been performed on the operation target M1.

ステップS306において、受け付け部14は、タッチパネル11によって接触が感知された箇所に表示された操作対象が選択された旨の情報を処理装置1に通知する。   In step S <b> 306, the reception unit 14 notifies the processing device 1 of information indicating that an operation target displayed at a location where contact is detected by the touch panel 11 is selected.

上述したステップS306の処理の終了後に、受け付け部14は、ステップS307の処理を実行する。また、ステップS305の処理で、例えば、所定の時間内に、操作対象のいずれかへの接触がタッチパネル11で感知されなかった場合に(ステップS305の否定判定(NO))、受け付け部14は、ステップS307の処理を実行する。   After the process of step S306 described above is completed, the accepting unit 14 executes the process of step S307. Further, in the process of step S305, for example, when the touch panel 11 does not detect contact with any of the operation objects within a predetermined time (No determination in step S305 (NO)), the receiving unit 14 The process of step S307 is executed.

ステップS307において、受け付け部14は、例えば、処理装置1から入力操作の受付を終了する旨の指示を受けたか否かに基づいて、入力操作の受け付けを終了するか否かを判定する。   In step S307, the receiving unit 14 determines whether or not to end the input operation based on, for example, whether or not an instruction to end the input operation is received from the processing device 1.

入力操作の受け付けを終了しないと判定された場合に(ステップS307の否定判定(NO))、受け付け部14は、ステップS305の処理に戻り、タッチパネル11への新たな操作を待ち受ける。   When it is determined not to end the input operation (No determination in step S307 (NO)), the reception unit 14 returns to the process of step S305 and waits for a new operation on the touch panel 11.

図1〜図3を用いて説明したように、図1に示した本件開示の入力装置10によれば、表示画面111をなぞる操作で描かれた軌跡に基づいてタッチパネル11の持ち方を判別し、判別した持ち方に応じて、異なる並べ方で操作対象を利用者に提示することができる。そして、タッチパネル11の持ち方に応じて表示画面111に表示させる操作対象の並べ方を変更する入力装置10によれば、持ち方によって操作可能な範囲が制限される状態においても、タッチパネル11へのタッチ操作をしやすくすることができる。   As described with reference to FIGS. 1 to 3, according to the input device 10 of the present disclosure shown in FIG. 1, it is determined how to hold the touch panel 11 based on the locus drawn by the operation of tracing the display screen 111. Depending on the determined way of holding, the operation target can be presented to the user in a different way. Then, according to the input device 10 that changes the arrangement of the operation objects to be displayed on the display screen 111 according to how the touch panel 11 is held, the touch panel 11 can be touched even in a state where the operable range is limited depending on how the touch panel 11 is held. The operation can be facilitated.

例えば、本件開示の入力装置10をスマートフォンやタブレット型のパーソナルコンピュータなどの端末装置に搭載すれば、端末装置の利用者が、片手で端末装置を把持しながら操作する場合にも使いやすい入力環境を提供することができる。つまり、本件開示の入力装置10を端末装置に搭載すれば、一方の手でつり革につかまり、他方の手で端末装置を操作する場合などにも、利用者は、タッチパネル11を介して快適な入力操作を行うことが可能になり、端末装置の使い勝手を向上することができる。即ち、本件開示の入力装置は、スマートフォンやタブレット型のパーソナルコンピュータを含む、タッチパネル11に対するタッチ操作を受け付ける端末装置の操作性を向上させる上で有用である。   For example, if the input device 10 of the present disclosure is mounted on a terminal device such as a smartphone or a tablet personal computer, an input environment that is easy to use even when a user of the terminal device operates while holding the terminal device with one hand. Can be provided. That is, if the input device 10 of the present disclosure is mounted on the terminal device, the user can comfortably use the touch panel 11 when holding the strap with one hand and operating the terminal device with the other hand. An input operation can be performed, and the usability of the terminal device can be improved. That is, the input device of the present disclosure is useful for improving the operability of a terminal device that accepts a touch operation on the touch panel 11 including a smartphone and a tablet personal computer.

なお、本件開示の入力装置10は、タッチパネル11を搭載した端末装置を片手で把持する場合に限らず、端末装置を両手で把持した状態での入力操作を支援する用途にも適用することができる。   Note that the input device 10 of the present disclosure is not limited to the case where the terminal device on which the touch panel 11 is mounted is held with one hand, but can also be applied to applications that support an input operation in a state where the terminal device is held with both hands. .

図4は、図1に示したタッチパネル11の持ち方の別例を示す。なお、図4に示した要素のうち、図1に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 4 shows another example of how to hold the touch panel 11 shown in FIG. Note that among the elements shown in FIG. 4, elements equivalent to those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

図4に示した符号h1_Lは、タッチパネル11の上辺に対応する縁のうち左端に近い部分を第1の持ち方で把持している利用者の左手の例を示し、符号Tr1_Lは、符号h1_Lで示した利用者の左手による操作で描かれる軌跡の例を示している。また、図4に示した符号h1_Rは、タッチパネル11の上辺に対応する縁の右端に近い部分を第1の持ち方で把持している利用者の右手の例を示し、符号Tr1_Rは、符号h1_Rで示した利用者の右手による操作で描かれる軌跡の例を示している。   The symbol h1_L shown in FIG. 4 shows an example of the left hand of the user holding the portion close to the left end among the edges corresponding to the upper side of the touch panel 11 in the first way, and the symbol Tr1_L is the symbol h1_L The example of the locus | trajectory drawn by operation with the left hand of the shown user is shown. 4 indicates an example of the right hand of the user holding the portion near the right end of the edge corresponding to the upper side of the touch panel 11 in the first way of holding, and the reference symbol Tr1_R is the reference symbol h1_R. The example of the locus | trajectory drawn by operation with the user's right hand shown by is shown.

一方、図4に示した符号h2_Lは、タッチパネル11の左辺に対応する縁の中央部分を第2の持ち方で把持している利用者の左手の例を示し、符号Tr2_Lは、符号h2_Lで示した利用者の左手による操作で描かれる軌跡の例を示している。また、図4に示した符号h2_Rは、タッチパネル11の右辺に対応する縁の中央部分を第2の持ち方で把持している利用者の右手の例を示し、符号Tr2_Rは、符号h2_Lで示した利用者の右手による操作で描かれる軌跡の例を示している。   On the other hand, the symbol h2_L shown in FIG. 4 shows an example of the left hand of the user holding the center part of the edge corresponding to the left side of the touch panel 11 in the second way, and the symbol Tr2_L is shown by the symbol h2_L The example of the locus | trajectory drawn by operation with a left user's left hand is shown. 4 indicates an example of the right hand of the user holding the center part of the edge corresponding to the right side of the touch panel 11 in the second way, and reference numeral Tr2_R is indicated by reference numeral h2_L. The example of the locus | trajectory drawn by operation with the user's right hand is shown.

図1に示した判別部12は、図4に示した軌跡Tr1_Lあるいは軌跡Tr2_Lを描く操作と、軌跡Tr1_Rあるいは軌跡Tr2_Rを描く操作が所定の時間内に行われた際に、それぞれの操作で描かれた軌跡から左右の手それぞれの持ち方を判別してもよい。   The discriminating unit 12 shown in FIG. 1 draws by the respective operations when the operation for drawing the locus Tr1_L or the locus Tr2_L and the operation for drawing the locus Tr1_R or the locus Tr2_R shown in FIG. 4 are performed within a predetermined time. You may determine how to hold the left and right hands from the trajectory.

例えば、軌跡Tr1_Lを描く操作と軌跡Tr2_Rを描く操作が所定の時間内に行われた場合に、判別部12は、タッチパネル11は、利用者の左手により第1の持ち方で把持され、利用者の右手により第2の持ち方で把持されていると判別する。   For example, when the operation of drawing the trajectory Tr1_L and the operation of drawing the trajectory Tr2_R are performed within a predetermined time, the determination unit 12 holds the touch panel 11 in the first way by the user's left hand, and the user It is determined that the hand is gripped in the second way by the right hand.

また、図1に示した制御部13は、判別部12により、左右の手のそれぞれについて判別された持ち方に応じて、左右の手のそれぞれについて操作可能な領域を設定し、設定した領域の内側に、それぞれの持ち方に合わせた並べ方で操作対象を表示させてもよい。   Further, the control unit 13 illustrated in FIG. 1 sets an area that can be operated for each of the left and right hands in accordance with the holding method determined by the determination unit 12 for each of the left and right hands. The operation target may be displayed on the inner side in an arrangement according to each holding method.

例えば、図4に示した符号R1_Lは、利用者が左手の人差し指で軌跡Tr1_Lを描く操作を行った際に、図1に示した制御部13によって設定される操作可能な領域の例を示している。同様に、図4に示した符号R1_Rは、利用者が右手の人差し指で軌跡Tr1_Rを描く操作を行った際に、図1に示した制御部13によって設定される操作可能な領域の例を示している。   For example, the symbol R1_L illustrated in FIG. 4 illustrates an example of an operable region set by the control unit 13 illustrated in FIG. 1 when the user performs an operation of drawing the locus Tr1_L with the index finger of the left hand. Yes. Similarly, reference symbol R1_R illustrated in FIG. 4 indicates an example of an operable region set by the control unit 13 illustrated in FIG. 1 when the user performs an operation of drawing the trajectory Tr1_R with the index finger of the right hand. ing.

また、図4に示した符号R2_Lは、利用者が左手の親指で軌跡Tr2_Lを描く操作を行った際に、図1に示した制御部13によって設定される操作可能な領域の例を示している。同様に、図4に示した符号R2_Rは、利用者が右手の人差し指で軌跡Tr2_Rを描く操作を行った際に、図1に示した制御部13によって設定される操作可能な領域の例を示している。   4 indicates an example of an operable region set by the control unit 13 illustrated in FIG. 1 when the user performs an operation of drawing the locus Tr2_L with the thumb of the left hand. Yes. Similarly, reference symbol R2_R illustrated in FIG. 4 indicates an example of an operable region set by the control unit 13 illustrated in FIG. 1 when the user performs an operation of drawing the locus Tr2_R with the index finger of the right hand. ing.

図5は、図1に示したタッチパネル11に表示させる操作対象の並べ方の別例を示す。なお、図5に示した要素のうち、図1および図4に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 5 shows another example of how to arrange the operation objects displayed on the touch panel 11 shown in FIG. Note that among the elements shown in FIG. 5, elements equivalent to those shown in FIGS. 1 and 4 are denoted by the same reference numerals and description thereof is omitted.

図5の例は、タッチパネル11が左右ともに第2の持ち方で把持されていると判別された場合に、仮想的なキーボートに含まれる各キーに対応する操作対象を表示する際の並べ方の例を示している。   The example of FIG. 5 is an example of how to arrange the operation targets corresponding to the keys included in the virtual keyboard when it is determined that the touch panel 11 is gripped in the second way. Is shown.

図5の例では、符号h2_Lで示した利用者の左手に対応して設定された領域R2_Lに、編集処理のために設けられた機能キーに対応する操作対象を並べる場合を示している。また、図5の例では、符号h2_Rで示した利用者の右手に対応して設定された領域R2_Lに、五十音の各列を示す文字入力キーに対応する操作対象を並べる場合を示している。   In the example of FIG. 5, an operation target corresponding to a function key provided for editing processing is arranged in an area R <b> 2 </ b> _L set corresponding to the left hand of the user indicated by a symbol h <b> 2 </ b> _L. Further, the example of FIG. 5 shows a case where the operation objects corresponding to the character input keys indicating each column of the Japanese syllabary are arranged in the region R2_L set corresponding to the right hand of the user indicated by the symbol h2_R. Yes.

図5の領域R2_Lにおいて、符号「消去」、「挿入」、「変換」、「改行」、「選択」、「複写」で示した矩形は、編集処理用の機能キーの例を示し、上向きの矢印、右向きの矢印および左向きの矢印で示した矩形は、カーソル移動用の機能キーの例を示している。また、図5の領域R2_Rにおいて、符号「あ」、「か」、「さ」、「た」、「は」、「ま」、「わ」で示した矩形は、五十音の各列を示す文字入力キーの例を示している。なお、図5の例では、右手の親指の図示によって隠されているが、領域R2_Rの内部に表示させる文字入力キーは、五十音の「な」、「や」および「ら」の列に対応するキーを含んでいることが望ましい。   In the region R2_L in FIG. 5, the rectangles indicated by the symbols “erase”, “insert”, “conversion”, “line feed”, “select”, and “copy” indicate examples of function keys for editing processing. The rectangles indicated by arrows, right-pointing arrows, and left-pointing arrows indicate examples of function keys for moving the cursor. Further, in the region R2_R in FIG. 5, the rectangles indicated by the symbols “a”, “ka”, “sa”, “ta”, “ha”, “ma”, “wa” represent each column of the Japanese alphabet. The example of the character input key shown is shown. In the example of FIG. 5, although hidden by the right thumb, the character input keys to be displayed inside the region R2_R are arranged in columns of “na”, “ya”, and “ra” in the Japanese syllabary. It is desirable to include a corresponding key.

また、図5の例では、符号h2_Rで示した利用者の右手の親指により、五十音の「な」列を示す文字入力キーに対応する操作対象が操作され、文字入力領域Rinに文字「な」が入力されている様子を示している。   In the example of FIG. 5, the operation target corresponding to the character input key indicating the “na” column of the Japanese syllabary is operated by the thumb of the right hand of the user indicated by the symbol h2_R, and the character “ It shows a state where “NA” is input.

図4および図5を用いて説明したように、図1に示した入力装置10によれば、様々な持ち方でタッチパネル11が把持されている場合に対応し、それぞれの場合に適した並べ方で仮想的なキーボードを含む多種多様な操作対象を表示させることができる。   As described with reference to FIGS. 4 and 5, the input device 10 shown in FIG. 1 corresponds to the case where the touch panel 11 is held in various ways, and is arranged in an appropriate manner for each case. A wide variety of operation objects including a virtual keyboard can be displayed.

つまり、本件開示の入力装置10によれば、例えば、タブレット型のパーソナルコンピュータを両手で把持した状態のままで操作可能な位置に、図5に示したような仮想的なキーボードなどの操作対象を表示させ、文字入力を含む多彩な入力操作を実現できる。   In other words, according to the input device 10 of the present disclosure, for example, an operation target such as a virtual keyboard as shown in FIG. 5 is placed at a position where the tablet-type personal computer can be operated with both hands held. Various input operations including character input can be realized.

また、上述のような多彩な入力操作を実現することで、例えば、ソファなどに仰向けに横になった利用者が、頭上に両手で把持したタブレット型のパーソナルコンピュータの画面に表示された動画を見ながら文字入力操作を行うなどの自由度の高い操作が可能となる。   In addition, by realizing various input operations as described above, for example, a user lying on his back on a sofa or the like can view a video displayed on the screen of a tablet personal computer held with both hands above the head. Operations with a high degree of freedom such as performing character input operations while watching are possible.

図6は、入力装置10の別実施形態を示す。なお、図6に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 6 shows another embodiment of the input device 10. 6 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図6に示した判別部12は、抽出部121と、照合部122と、条件テーブル123とを含んでいる。
抽出部121は、タッチパネル11の表示画面111に予め設定された所定の範囲内においてタッチ操作が感知された際に、感知されたタッチ操作で描かれた軌跡を示す情報をタッチパネル11から受け取る。また、抽出部121は、タッチパネル11から受け取った情報から、上述の範囲において感知されたタッチ操作で描かれた軌跡の特徴を抽出する。
The determination unit 12 illustrated in FIG. 6 includes an extraction unit 121, a matching unit 122, and a condition table 123.
When the touch operation is detected within a predetermined range set in advance on the display screen 111 of the touch panel 11, the extraction unit 121 receives information indicating the locus drawn by the detected touch operation from the touch panel 11. Further, the extraction unit 121 extracts, from the information received from the touch panel 11, the features of the trajectory drawn by the touch operation detected in the above-described range.

図7は、タッチパネル11の表示画面111に予め設定された所定の範囲の例を示す。なお、図7に示した要素のうち、図1に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。また、以下の説明では、上述の所定の範囲を検出範囲と称する。   FIG. 7 shows an example of a predetermined range preset on the display screen 111 of the touch panel 11. Among the elements shown in FIG. 7, elements equivalent to those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted. In the following description, the predetermined range is referred to as a detection range.

図7において、点線で囲んで示した領域Rdは、検出範囲の一例である。図7に示した領域Rdは、開口部をタッチパネル11の下側に向けた「コ」の字型の領域であり、図7に示した符号Whは、領域Rdのうち、「コ」の字の開口部に対向する部分、即ち、タッチパネル11の上辺に対応する部分の幅を示している。また、図7に示した符号WL,WRのそれぞれは、上述の領域Rdのうち、タッチパネル11の左辺と右辺とのそれぞれに対応する部分の幅を示している。   In FIG. 7, a region Rd surrounded by a dotted line is an example of a detection range. A region Rd illustrated in FIG. 7 is a “U” -shaped region with an opening facing the lower side of the touch panel 11, and a symbol Wh illustrated in FIG. , The width of the portion facing the opening, that is, the portion corresponding to the upper side of the touch panel 11 is shown. In addition, each of the symbols WL and WR illustrated in FIG. 7 indicates the width of a portion corresponding to each of the left side and the right side of the touch panel 11 in the above-described region Rd.

図7に示した幅Whは、例えば、タッチパネル11の上辺に対応する縁を利用者の手が把持している状態で、符号h1で示した利用者の手の人差し指が届く範囲を考慮して決定することが望ましい。また、図7に示した幅WLは、例えば、タッチパネル11の左辺に対応する縁を利用者の手が把持している状態で、符号h2で示した利用者の手の親指が届く範囲を考慮して決定することが望ましい。同様に、図7に示した幅WLは、例えば、タッチパネル11の右辺に対応する縁を利用者の手が把持している状態で、利用者の手の親指が届く範囲を考慮して決定することが望ましい。   The width Wh shown in FIG. 7 takes into account, for example, a range in which the index finger reaches the user's hand indicated by reference numeral h1 in a state where the user's hand is holding the edge corresponding to the upper side of the touch panel 11. It is desirable to decide. In addition, the width WL illustrated in FIG. 7 takes into consideration, for example, a range in which the thumb of the user's hand indicated by the symbol h2 can reach when the edge corresponding to the left side of the touch panel 11 is gripped by the user's hand. It is desirable to decide as follows. Similarly, for example, the width WL illustrated in FIG. 7 is determined in consideration of a range in which the thumb of the user's hand can reach in the state where the user's hand is holding the edge corresponding to the right side of the touch panel 11. It is desirable.

ここで、図7に示した領域Rdの内部をなぞる操作は、利用者が第1の持ち方あるいは第2の持ち方でタッチパネル11を把持した状態で行った操作である可能性が高い。したがって、図7に示した領域Rdの内部をなぞる操作が感知された際に、図6に示した抽出部121は、当該操作で描かれた軌跡を示す情報を受け取ることにより、利用者がどのような持ち方で把持しているかを示す情報を取得することができる。   Here, the operation of tracing the inside of the region Rd shown in FIG. 7 is likely to be an operation performed while the user is holding the touch panel 11 with the first holding method or the second holding method. Therefore, when an operation that traces the inside of the region Rd illustrated in FIG. 7 is detected, the extraction unit 121 illustrated in FIG. 6 receives information indicating the locus drawn by the operation, so that the user can It is possible to acquire information indicating whether the user is gripping in such a way.

また、例えば、図7に符号h1で示した利用者の手の人差し指により、軌跡Tr1を描く操作がなされる際には、タッチパネル11により、中指から小指までの3本の指による接触が感知されている可能性が高い。   Further, for example, when an operation of drawing the trajectory Tr1 is performed with the index finger of the user's hand indicated by reference numeral h1 in FIG. 7, the touch with the three fingers from the middle finger to the little finger is detected by the touch panel 11. There is a high possibility.

そこで、抽出部121は、図7に示した領域Rdの内部をなぞる操作が行われた際に、当該なぞる操作で描かれた軌跡から所定の範囲内において別の接触が感知された場合に、当該接触に関する情報を、上述の軌跡を示す情報の一部として取得してもよい。   Therefore, when the operation of tracing the inside of the region Rd shown in FIG. 7 is performed, the extraction unit 121 detects that another contact is detected within a predetermined range from the locus drawn by the tracing operation. You may acquire the information regarding the said contact as a part of information which shows the above-mentioned locus | trajectory.

なお、軌跡を描く操作とは別の接触に関する情報を、軌跡を示す情報の一部として含めるか否かを決定するための所定の範囲としては、例えば、軌跡の始点あるいは終点を中心とし、利用者の手の幅と同程度の長さの半径を持つ円形の範囲を設定してもよい。上述の円形の範囲は、図7に符号h1で示したように、利用者が第1の持ち方でタッチパネル11を把持している状態で軌跡Tr1を人差し指で描く操作を行った際に、中指から小指までの3本の指がタッチパネル11の表面に接触する箇所を含んでいる。   The predetermined range for determining whether or not to include information relating to contact different from the operation for drawing the locus as part of the information indicating the locus is, for example, centered on the start point or end point of the locus. A circular range having a radius approximately the same as the width of the person's hand may be set. As shown by the symbol h1 in FIG. 7, the circular range described above is obtained when the user performs an operation of drawing the trajectory Tr1 with the index finger while holding the touch panel 11 in the first way. 3 includes a portion where the three fingers from to the little finger come into contact with the surface of the touch panel 11.

つまり、抽出部121は、例えば、図7に符号h1で示した利用者の手の人差し指による軌跡Tr1を示す情報とともに、タッチパネル11の縁に掛けられた中指から小指までの3本の指が接触した箇所示す情報を、タッチパネル11から取得してもよい。   That is, for example, the extraction unit 121 makes contact with three fingers from the middle finger to the little finger on the edge of the touch panel 11 together with information indicating the trajectory Tr1 by the index finger of the user's hand indicated by reference numeral h1 in FIG. You may acquire the information which shows the done part from the touch panel 11.

なお、タッチパネル11の表示画面111上に設定される検出範囲は、図7に示した「コ」の字型の領域Rdに限られず、利用者がタッチパネル11を把持する際に指先が接触する可能性のある範囲を設定すればよい。例えば、検出範囲は、タッチパネル11の外周の四辺に対応して同一の幅を持つ額縁状の領域として設定されてもよい。   Note that the detection range set on the display screen 111 of the touch panel 11 is not limited to the “U” -shaped region Rd shown in FIG. 7, and the fingertip can touch when the user grips the touch panel 11. A certain range may be set. For example, the detection range may be set as a frame-shaped region having the same width corresponding to the four sides on the outer periphery of the touch panel 11.

また、抽出部121は、タッチパネル11から取得した情報から、上述した検出範囲の内側へのタッチ操作で描かれた軌跡の特徴を示す情報として、軌跡の形状を示す情報と、タッチパネル11の外周と当該軌跡との相対位置を示す情報とを抽出してもよい。   Further, the extraction unit 121 uses information acquired from the touch panel 11 as information indicating the characteristics of the trajectory drawn by the touch operation inside the detection range described above, information indicating the shape of the trajectory, and the outer periphery of the touch panel 11. You may extract the information which shows a relative position with the said locus | trajectory.

また、抽出部121は、タッチ操作で描かれた軌跡から所定の範囲内において別の接触が感知されている場合に、別の接触が感知された箇所と軌跡に最も近い縁との位置関係を示す情報を、軌跡の特徴を示す情報の一部として抽出してもよい。   Further, when another contact is sensed within a predetermined range from the locus drawn by the touch operation, the extraction unit 121 determines the positional relationship between the location where the other contact is sensed and the edge closest to the locus. The information shown may be extracted as part of the information showing the trajectory characteristics.

図6に示した照合部122は、抽出部121で抽出された情報と、図6に示した条件テーブル123に保持された情報とを照合し、照合結果に基づいて、タッチパネル11が第1の持ち方で把持されているか第2の持ち方で把持されているかを判定する。   The collation unit 122 illustrated in FIG. 6 collates the information extracted by the extraction unit 121 and the information stored in the condition table 123 illustrated in FIG. 6, and the touch panel 11 performs the first operation based on the collation result. It is determined whether the hand is held by the holding method or the second holding method.

条件テーブル123は、想定可能な操作で描かれる軌跡の形状と当該軌跡とタッチパネル11の外周との相対位置との組み合わせで示される条件のそれぞれに対応して、第1の持ち方あるいは第2の持ち方を示す情報を保持している。つまり、条件テーブル123は、複数種類の持ち方のそれぞれに対応付けされた、なぞる操作によって描かれる可能性のある軌跡の特徴を示す情報の一例である。   The condition table 123 corresponds to each of the conditions indicated by the combination of the shape of the trajectory drawn by an assumed operation and the relative position of the trajectory and the outer periphery of the touch panel 11. It holds information indicating how to hold it. In other words, the condition table 123 is an example of information indicating trajectory characteristics that can be drawn by a tracing operation associated with each of a plurality of types of holding methods.

例えば、条件テーブル123は、第1の持ち方に対応付けられる条件の一つとして、軌跡の形状が所定の長さ以下の直線状であることと、軌跡の方向と当該軌跡に最も近いタッチパネル11の縁の方向とが概ね直交する位置関係であることとを保持していてもよい。また、条件テーブル123は、上述した形状と相対位置を持つ軌跡から所定の範囲内に、別の指がタッチパネル11に接触している箇所があることを、第1の持ち方に対応付けられる条件の一つとして保持していてもよい。更に、条件テーブル123は、ほぼ同時に描かれた軌跡の形状が、概ね平行な所定の長さ以下の直線状であることを含む条件を、第1の持ち方に対応付けられる条件の一つとして保持していてもよい。   For example, the condition table 123 includes, as one of the conditions associated with the first holding method, that the shape of the locus is a straight line having a predetermined length or less, the direction of the locus, and the touch panel 11 closest to the locus. It may be held that the direction of the edge is substantially perpendicular to each other. Further, the condition table 123 is a condition associated with the first way of holding that there is a place where another finger is in contact with the touch panel 11 within a predetermined range from the locus having the shape and the relative position described above. You may hold as one of these. Furthermore, the condition table 123 includes a condition that the shape of the trajectories drawn at substantially the same time is a straight line that is substantially parallel and not longer than a predetermined length as one of the conditions associated with the first holding method. You may hold.

また、条件テーブル123は、第2の持ち方に対応付けられる条件の一つとして、軌跡の形状がタッチパネル11の外周上の点を中心とする円弧に近似していることを保持していてもよい。   Further, the condition table 123 holds that, as one of the conditions associated with the second holding method, the shape of the locus approximates an arc centered on a point on the outer periphery of the touch panel 11. Good.

また、条件テーブル123に、入力装置10の利用者の好みを反映させることも可能である。例えば、利用者が、それぞれの持ち方でタッチパネル11を把持している状態で可能な操作のうち、好みの操作で描かれる軌跡の特徴と、第1の持ち方および第2の持ち方を含む持ち方との対応関係を条件テーブル123に設定してもよい。このように、条件テーブル123の設定を行うことで、照合部122により、利用者に合わせてカスタマイズされた条件に基づいて、持ち方の判別を行うことができる。   In addition, it is possible to reflect the preference of the user of the input device 10 in the condition table 123. For example, among the operations that can be performed while the user is holding the touch panel 11 with each holding method, the trajectory features drawn by a favorite operation, the first holding method, and the second holding method are included. The correspondence relationship with the holding method may be set in the condition table 123. In this way, by setting the condition table 123, the collation unit 122 can determine how to hold it based on conditions customized for the user.

照合部122は、抽出部121で抽出された情報と条件テーブル123に保持された条件のそれぞれとを照合することで、タッチパネル11の表示画面111において描かれた軌跡の特徴に一致する条件を条件テーブル123において探索する。そして、一致する条件が条件テーブル123に含まれている場合に、照合部122は、条件テーブル123において当該条件に対応付けられた持ち方を、判別部12による判別結果として制御部13に渡す。   The collation unit 122 collates the information extracted by the extraction unit 121 with each of the conditions held in the condition table 123, thereby matching the conditions that match the characteristics of the trajectory drawn on the display screen 111 of the touch panel 11. Search in the table 123. When the matching condition is included in the condition table 123, the collation unit 122 passes the holding method associated with the condition in the condition table 123 to the control unit 13 as a determination result by the determination unit 12.

上述したように、条件テーブル123には、例えば、タッチパネル11の外周の様々な箇所を第1の持ち方および第2の持ち方で把持した際に実行することが可能な操作で描かれる軌跡の特徴を示す情報を予め保持させておくことができる。   As described above, in the condition table 123, for example, trajectories drawn by operations that can be executed when various positions on the outer periphery of the touch panel 11 are gripped by the first holding method and the second holding method. Information indicating the characteristics can be held in advance.

したがって、図6に示した判別部12によれば、条件テーブル123に保持された情報と抽出部121で抽出された情報とを照合部122で照合することにより、タッチパネル11をなぞる操作が感知された箇所にかかわらず、持ち方を判別することができる。   Therefore, according to the determination unit 12 illustrated in FIG. 6, an operation of tracing the touch panel 11 is detected by comparing the information held in the condition table 123 with the information extracted by the extraction unit 121 by the verification unit 122. Regardless of the location, it can be determined how to hold it.

図6に示した制御部13は、選択部131と、第1提示部132と、第2提示部133とを含んでいる。   The control unit 13 illustrated in FIG. 6 includes a selection unit 131, a first presentation unit 132, and a second presentation unit 133.

選択部131は、上述した判別部12で得られた判別結果を受ける。また、選択部131は、階層構造を持つ選択肢の集合のうち、上位の階層に属する選択肢のいずれかを選択する旨の指示がタッチパネル11によって受け付けられた際に、選択された選択肢から派生する下位の選択肢を示す操作対象を処理装置1から受ける。判別部12から第1の持ち方で把持されている旨の判別結果を受けた場合に、選択部131は、処理装置1から受けた下位の選択肢を示す操作対象を第1提示部132に渡す。一方、第2の持ち方で把持されている旨の判別結果を受けた場合に、選択部131は、処理装置1から受けた下位の選択肢を示す操作対象を第2提示部142に渡す。   The selection unit 131 receives the discrimination result obtained by the discrimination unit 12 described above. In addition, when the touch panel 11 receives an instruction to select one of the options belonging to the higher hierarchy from the set of options having a hierarchical structure, the selection unit 131 is derived from the selected option. From the processing device 1 is received. When the determination unit 131 receives the determination result indicating that it is gripped in the first way from the determination unit 12, the selection unit 131 passes the operation target indicating the lower option received from the processing device 1 to the first presentation unit 132. . On the other hand, when receiving the determination result indicating that the hand is held in the second way, the selection unit 131 passes the operation target indicating the lower option received from the processing device 1 to the second presentation unit 142.

第1提示部132は、タッチパネル11に対する操作によって選択されたことが示された上位階層の選択肢を示す操作対象に代えて、選択部131を介して受けた下位の選択肢を示す操作対象を表示させることで、階層的な選択肢の提示を実現する。   The first presentation unit 132 displays the operation target indicating the lower option received via the selection unit 131 instead of the operation target indicating the option of the upper hierarchy indicated to be selected by the operation on the touch panel 11. By doing so, it presents hierarchical options.

一方、第2提示部133は、タッチパネル11に対する操作によって選択されたことが示された上位階層の選択肢を示す操作対象に並べて、選択部131を介して受けた下位の選択肢を示す操作対象を表示させることで、階層的な選択肢の提示を実現する。   On the other hand, the second presenting unit 133 displays the operation target indicating the lower option received via the selection unit 131 in the operation target indicating the higher-level option that has been selected by the operation on the touch panel 11. By doing so, it presents hierarchical choices.

図8は、階層的な選択肢を提示するための操作対象の並べ方の例を示す。なお、図8に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 8 shows an example of how to arrange operation targets for presenting hierarchical options. Of the elements shown in FIG. 8, the same elements as those shown in FIG. 2 are designated by the same reference numerals, and the description thereof is omitted.

図8(A)は、図6に示した第1提示部132がタッチパネル11に操作対象を表示させる際の並べ方の例を示す。また、図8(B)は、図6に示した第2提示部133がタッチパネル11に操作対象を表示させる際の並べ方の例を示す。なお、図8(A)において、符号S1_1,S1_2,S1_3,S1_4は、図2(A)に示した操作対象M1に対応する選択肢から派生した下位の選択肢に対応する操作対象を示している。また、図8(B)において、符号S3_1,S3_2,S3_3,S3_4は、図2(B)に示した操作対象M3に対応する選択肢から派生した下位の選択肢に対応する操作対象を示している。   FIG. 8A shows an example of how the first presentation unit 132 shown in FIG. 6 arranges the operation target on the touch panel 11. FIG. 8B illustrates an example of how the second presentation unit 133 illustrated in FIG. 6 displays the operation target on the touch panel 11. In FIG. 8A, reference numerals S1_1, S1_2, S1_3, and S1_4 indicate operation objects corresponding to lower-level options derived from the options corresponding to the operation object M1 illustrated in FIG. In FIG. 8B, reference numerals S3_1, S3_2, S3_3, and S3_4 indicate operation objects corresponding to lower-level options derived from the options corresponding to the operation object M3 illustrated in FIG.

図8(A)の例は、図2(A)に示した操作対象M1を選択する操作がなされた際に、図6に示した第1提示部132が、操作対象M1で示される選択肢から派生した下位の選択肢を示す操作対象S1_1〜S1_4をタッチパネル11に表示させた様子を示している。   In the example of FIG. 8A, when the operation for selecting the operation target M1 shown in FIG. 2A is performed, the first presentation unit 132 shown in FIG. 6 selects from the options shown by the operation target M1. A state is shown in which the operation objects S1_1 to S1_4 indicating the derived lower choices are displayed on the touch panel 11.

図8(A)に示したように、第1提示部132は、上位の選択肢についての選択操作に応じて、上位の選択肢を示す操作対象M1〜M4に代えて、下位の選択肢を示す操作対象S1_1〜S1_4をタッチパネル11に表示させる。   As shown in FIG. 8 (A), the first presentation unit 132 performs an operation target indicating a lower option instead of the operation targets M1 to M4 indicating the higher option in response to a selection operation for the upper option. S1_1 to S1_4 are displayed on the touch panel 11.

第1提示部132が上述の表示制御を行うことにより、第1の持ち方でタッチパネル11が把持されている状態で操作可能な限られた範囲に、選択操作の対象となっている階層の選択肢を示す操作対象を表示することができる。   When the first presentation unit 132 performs the above-described display control, the options of the hierarchy that is the target of the selection operation within a limited range that can be operated while the touch panel 11 is held in the first way of holding. The operation target indicating can be displayed.

したがって、図6に示した第1提示部132によれば、選択操作が既に完了した階層の選択肢を示す操作対象の表示を維持した場合に比べて、限られた操作可能な範囲を有効に利用することができる。   Therefore, according to the first presentation unit 132 illustrated in FIG. 6, the limited operable range is effectively used as compared with the case where the display of the operation target indicating the option of the hierarchy for which the selection operation has already been completed is maintained. can do.

図8(B)の例は、図2(B)に示した操作対象M3を選択する操作がなされた際に、図6に示した第2提示部133が、操作対象M3で示される選択肢から派生した下位の選択肢を示す操作対象S3_1〜S3_4をタッチパネル11に表示させた様子を示している。   In the example of FIG. 8B, when the operation for selecting the operation target M3 shown in FIG. 2B is performed, the second presentation unit 133 shown in FIG. 6 selects from the options shown by the operation target M3. A state is shown in which the operation objects S3_1 to S3_4 indicating the derived lower options are displayed on the touch panel 11.

図8(B)に示したように、第2提示部133は、上位の選択肢についての選択操作に応じて、上位の選択肢を示す操作対象M3の表示を維持しつつ、当該操作対象M3に並べて、下位の選択肢を示す操作対象S1_1〜S1_4をタッチパネル11に表示させる。   As shown in FIG. 8B, the second presentation unit 133 arranges the second presentation unit 133 on the operation target M3 while maintaining the display of the operation target M3 indicating the upper option in accordance with the selection operation on the upper option. The operation objects S1_1 to S1_4 indicating lower options are displayed on the touch panel 11.

第2提示部133が上述の表示制御を行うことにより、第2の持ち方でタッチパネル11が把持されている状態で操作可能な2次元的に広がる範囲に、選択操作の対象となっている階層の選択肢を示す操作対象を階層構造とともに表示することができる。   When the second presentation unit 133 performs the above-described display control, the hierarchy that is the target of the selection operation in a two-dimensionally expanding range that can be operated while the touch panel 11 is held in the second way of holding. It is possible to display the operation target indicating the choice of the item together with the hierarchical structure.

したがって、図6に示した第1提示部132によれば、2次元的な広がりを持つ操作可能な範囲を有効に利用し、利用者が市販のオペレーティングシステムなどの操作において慣れ親しんだ形式に沿って、階層的な構造を持つ選択肢を提示することができる。   Therefore, according to the first presentation unit 132 shown in FIG. 6, the user can effectively use the operable range having a two-dimensional spread, and follow the format familiar to the user in the operation of a commercially available operating system or the like. Can present options with a hierarchical structure.

以上に説明した第1提示部141および第2提示部142を有する制御部13によれば、第1の持ち方と第2の持ち方とのそれぞれに適した並べ方で操作対象を表示させることで、階層構造を持つ選択肢の集合を提示することができる。   According to the control unit 13 having the first presentation unit 141 and the second presentation unit 142 described above, the operation target is displayed in an arrangement manner suitable for each of the first holding method and the second holding method. A set of options having a hierarchical structure can be presented.

したがって、図6に示した制御部13を有する入力装置10によれば、タッチパネル11がいずれの持ち方で把持されている場合においても、階層構造を持つ選択肢の集合から所望の選択肢を選ぶ操作を容易にすることができる。   Therefore, according to the input device 10 having the control unit 13 illustrated in FIG. 6, an operation of selecting a desired option from a set of options having a hierarchical structure, regardless of how the touch panel 11 is held. Can be easily.

図9は、図6に示した入力装置10の動作を示す。なお、図9に示したステップのうち、図3に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。図9に示したステップS311〜ステップS316の処理およびステップS305〜ステップS307の処理は、図1に示したタッチパネル11の表示画面111をなぞる操作が行われた際に、入力装置10によって実行される。   FIG. 9 shows the operation of the input device 10 shown in FIG. Of the steps shown in FIG. 9, the same steps as those shown in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted. The processes in steps S311 to S316 and the processes in steps S305 to S307 illustrated in FIG. 9 are performed by the input device 10 when an operation of tracing the display screen 111 of the touch panel 11 illustrated in FIG. 1 is performed. .

ステップS311において、図6に示した抽出部121は、タッチパネル11から渡された情報に基づいて、表示画面111をなぞる操作で描かれた軌跡の特徴を示す情報を抽出する。   In step S <b> 311, the extraction unit 121 illustrated in FIG. 6 extracts information indicating the characteristics of the trajectory drawn by the operation of tracing the display screen 111 based on the information passed from the touch panel 11.

ステップ312において、照合部122は、ステップS311の処理で抽出された情報と図6に示した条件テーブル123に条件として保持された軌跡の形状および軌跡とタッチパネル11の外周との位置関係とを示す情報とを照合する。   In step 312, the collation unit 122 indicates the information extracted in the process of step S 311, the shape of the trajectory held as a condition in the condition table 123 shown in FIG. 6 and the positional relationship between the trajectory and the outer periphery of the touch panel 11. Match information.

また、ステップS313において、入力装置10は、ステップS312において照合部122により、条件テーブル123に保持された条件のいずれかとステップS311の処理で抽出された情報が一致する旨の照合結果が得られたか否かを判定する。   In step S313, the input device 10 has obtained a collation result indicating that any of the conditions held in the condition table 123 matches the information extracted in step S311 by the collation unit 122 in step S312. Determine whether or not.

ステップS311の処理で抽出された情報に一致する条件があるとされた場合に(ステップS313の肯定判定(YES))、照合部122は、ステップS314の処理を実行する。   When it is determined that there is a condition that matches the information extracted in the process of step S311 (Yes determination in step S313), the collation unit 122 executes the process of step S314.

ステップS314において、照合部122は、ステップS312の照合処理で、抽出部121で抽出された情報と一致するとされた条件に対応付けられて条件テーブル123に保持された持ち方を示す情報を、判別部12による判別結果として制御部14に渡す。   In step S <b> 314, the matching unit 122 determines information indicating the holding method that is held in the condition table 123 in association with the condition that is matched with the information extracted by the extraction unit 121 in the matching process in step S <b> 312. The determination result by the unit 12 is passed to the control unit 14.

ステップS315において、制御部13は、ステップS314の処理で判別結果として受けた情報で示される持ち方に応じて設定された並べ方で、操作対象をタッチパネル11に表示させる処理を行う。例えば、判別結果として第1の持ち方を示す情報を受けた場合に、制御部13は、図3に示したステップS307と同様にして、第1の持ち方に対応する並べ方で操作対象を表示させる処理を実行する。一方、判別結果として第2の持ち方を示す情報を受けた場合に、制御部13は、図3に示したステップS308と同様にして、第2の持ち方に対応する並べ方で操作対象を表示させる処理を実行する。   In step S <b> 315, the control unit 13 performs a process of displaying the operation target on the touch panel 11 in the arrangement method set according to the holding method indicated by the information received as the determination result in the process of step S <b> 314. For example, when the information indicating the first holding method is received as the determination result, the control unit 13 displays the operation target in the arrangement method corresponding to the first holding method in the same manner as in step S307 illustrated in FIG. Execute the process. On the other hand, when receiving the information indicating the second holding method as the determination result, the control unit 13 displays the operation target in the arrangement method corresponding to the second holding method in the same manner as in step S308 shown in FIG. Execute the process.

なお、ステップS311の処理で抽出された情報に一致する条件がないとされた場合に(ステップS313の否定判定(NO))、判別部12は、タッチパネル11の持ち方を判別できないと判断し、処理を終了してもよい。   If it is determined that there is no condition that matches the information extracted in the process of step S311 (No determination in step S313 (NO)), the determination unit 12 determines that the way to hold the touch panel 11 cannot be determined, Processing may be terminated.

図9に示した流れ図では、図6に示した制御部13は、ステップS306の処理に続いて、ステップS316およびステップS317の処理を実行する。   In the flowchart shown in FIG. 9, the control unit 13 shown in FIG. 6 executes the processes of step S316 and step S317 following the process of step S306.

ステップS316において、制御部13は、図6に示した処理装置1から下位の操作対象を示す情報が渡されるか否かに基づき、ステップS306の処理で選択された旨を通知した選択肢の下位の選択肢として表示する選択肢があるか否かを判定する。   In step S316, the control unit 13 subordinates the option that has been notified of the selection in step S306 based on whether or not information indicating a lower operation target is passed from the processing device 1 illustrated in FIG. It is determined whether there are options to be displayed as options.

下位の選択肢がある場合に(ステップS316の肯定判定(YES))、制御部13は、ステップS317の処理を実行する。   When there is a lower option (Yes determination in step S316 (YES)), the control unit 13 executes the process in step S317.

ステップS317において、制御部13に含まれる選択部131は、ステップS315の処理で得られた判別結果に応じて、判別された持ち方に対応する並べ方で、下位の選択肢を示す操作対象をタッチパネル11に表示させる処理を実行する。例えば、判別結果として第1の持ち方を示す情報を受けていた場合に、選択部131は、処理装置1から受け取った情報を図6に示した第1提示部132に渡すことで、下位の選択肢を示す操作対象を第1の持ち方に対応する並べ方で表示させる。一方、判別結果として第1の持ち方を示す情報を受けていた場合に、選択部131は、図6に示した第2提示部133に処理装置1から受け取った情報を渡すことで、下位の選択肢を示す操作対象を第2の持ち方に対応する並べ方で表示させる。   In step S317, the selection unit 131 included in the control unit 13 selects the operation target indicating the lower option in the arrangement method corresponding to the determined holding method according to the determination result obtained in the process of step S315. Execute the process to be displayed. For example, when the information indicating the first holding method is received as the determination result, the selection unit 131 passes the information received from the processing device 1 to the first presentation unit 132 illustrated in FIG. The operation target indicating the option is displayed in an arrangement corresponding to the first way of holding. On the other hand, when the information indicating the first holding method is received as the determination result, the selection unit 131 passes the information received from the processing device 1 to the second presentation unit 133 illustrated in FIG. The operation target indicating the option is displayed in an arrangement corresponding to the second way of holding.

一方、ステップS306の処理で選択された旨を通知した選択肢に対応して表示する下位の選択肢がない場合に(ステップS316の否定判定(NO))、入力装置10は、ステップS317の処理を実行せずに、ステップS307の処理に進む。   On the other hand, when there is no lower-level option to be displayed corresponding to the option that has been selected in the process of step S306 (No determination in step S316 (NO)), the input device 10 executes the process of step S317. Without proceeding, the process proceeds to step S307.

図6、図7および図9を用いて説明したように、図6に示した判別部12によれば、タッチパネル11を把持した状態で可能な設定操作で描かれる軌跡の特徴と持ち方との対応関係を網羅的に示す情報に基づいて、タッチパネル11の持ち方を判別できる。したがって、図6に示した判別部12を有する入力装置によれば、利用者が把持している箇所がタッチパネル11の外周のどこであっても、タッチパネル11の持ち方を判別し、判別した持ち方に応じて操作対象を表示させることができる。   As described with reference to FIGS. 6, 7, and 9, according to the determination unit 12 illustrated in FIG. 6, the characteristics of the trajectory drawn by the setting operation that can be performed while holding the touch panel 11 and the way of holding are determined. Based on the information that comprehensively shows the correspondence, it is possible to determine how to hold the touch panel 11. Therefore, according to the input device having the determination unit 12 illustrated in FIG. 6, it is determined how to hold the touch panel 11 regardless of where the user is gripping the outer periphery of the touch panel 11. The operation target can be displayed according to the above.

更に、図6、図8および図9を用いて説明したように、図6に示した制御部13によれば、階層構造を持つ選択肢の集合を示す情報が処理装置1から渡された場合に、タッチパネル11の持ち方に応じた並べ方で下位の選択肢を表示することができる。   Furthermore, as described with reference to FIGS. 6, 8, and 9, according to the control unit 13 illustrated in FIG. 6, when information indicating a set of options having a hierarchical structure is passed from the processing device 1. The lower choices can be displayed in an arrangement according to how the touch panel 11 is held.

したがって、図6に示した本件開示の入力装置10の利用者は、好みにあった持ち方でタッチパネル11を把持した状態で設定操作を行うことで、タッチパネル11の表面上に所望の操作範囲を設定し、階層構造を有する複雑な選択肢の提示を受けることができる。   Therefore, the user of the input device 10 of the present disclosure shown in FIG. 6 performs a setting operation while holding the touch panel 11 with a preferred way of holding, thereby setting a desired operation range on the surface of the touch panel 11. It is possible to set and receive presentation of complicated options having a hierarchical structure.

以上に説明した本件開示の入力装置10は、例えば、スマートフォンやタブレット型のパーソナルコンピュータのようなタッチパネル11を搭載した端末装置に含まれるプロセッサとソフトウェアとの協働によって実現することも可能である。   The input device 10 according to the present disclosure described above can also be realized by cooperation of a processor and software included in a terminal device equipped with a touch panel 11 such as a smartphone or a tablet personal computer.

また、タッチパネル11を搭載した端末装置のプロセッサとソフトウェアとの協働によって入力装置10を実現する場合に、図3に示したフローチャートおよび図9に示したフローチャートは、本件開示の入力制御方法および入力制御プログラムの一実施形態である。   Further, when the input device 10 is realized by cooperation of the processor and software of the terminal device on which the touch panel 11 is mounted, the flowchart shown in FIG. 3 and the flowchart shown in FIG. 9 are the input control method and input of the present disclosure. It is one Embodiment of a control program.

図10は、図6に示した入力装置10を搭載した端末装置のハードウェア構成例を示す。なお、図10に示した構成要素のうち、図6に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 10 shows a hardware configuration example of a terminal device on which the input device 10 shown in FIG. 6 is mounted. 10 that are the same as those shown in FIG. 6 are given the same reference numerals, and descriptions thereof are omitted.

図10に示した端末装置20は、タッチパネル11と、プロセッサ21と、メモリ22と、ハードディスク装置23と、入出力インタフェース24と、ネットワークインタフェース25とを含んでいる。更に、端末装置20は、センサインタフェース26と、視線検出センサ27と、光学ドライブ装置28とを含んでいる。図10に示したプロセッサ21と、メモリ22と、ハードディスク装置23と、入出力インタフェース24と、ネットワークインタフェース25と、センサインタフェース26と、光学ドライブ装置28とは、バスを介して互いに接続されている。また、プロセッサ21は、入出力インタフェース24を介してタッチパネル11に接続されており、また、センサインタフェース26を介して視線検出センサ27に接続されている。更に、プロセッサ21は、ネットワークインタフェース25を介して、インターネットなどのネットワークNWに接続されており、ネットワークNW上に設けられたサーバ装置2との間で情報の授受が可能である。   10 includes a touch panel 11, a processor 21, a memory 22, a hard disk device 23, an input / output interface 24, and a network interface 25. Further, the terminal device 20 includes a sensor interface 26, a line-of-sight detection sensor 27, and an optical drive device 28. The processor 21, the memory 22, the hard disk device 23, the input / output interface 24, the network interface 25, the sensor interface 26, and the optical drive device 28 shown in FIG. 10 are connected to each other via a bus. . The processor 21 is connected to the touch panel 11 via the input / output interface 24, and is connected to the line-of-sight detection sensor 27 via the sensor interface 26. Furthermore, the processor 21 is connected to a network NW such as the Internet via the network interface 25, and can exchange information with the server device 2 provided on the network NW.

図10に示したプロセッサ21と、メモリ22と、ハードディスク装置23と、入出力インタフェース24と、タッチパネル11とは、入力装置10に含まれている。   The processor 21, the memory 22, the hard disk device 23, the input / output interface 24, and the touch panel 11 illustrated in FIG. 10 are included in the input device 10.

また、図10に示した光学ドライブ装置28は、光ディスクなどのリムーバブルディスク29を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。   Further, the optical drive device 28 shown in FIG. 10 can be loaded with a removable disk 29 such as an optical disk, and reads and records information recorded on the mounted removable disk 27.

図10に示したメモリ22またはハードディスク装置23は、端末装置20のオペレーティングシステムとともに、プロセッサ21が図3または図9に示した入力制御処理を実行するためのアプリケーションプログラムを格納している。なお、上述した入力制御処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク29に記録して頒布することができる。そして、このリムーバブルディスク29を光学ドライブ装置28に装着して読み込み処理を行うことにより、入力制御処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、ネットワークインタフェース25を介してネットワークNWに接続し、入力制御処理を実行するためのアプリケーションプログラムをダウンロードすることで、メモリ22およびハードディスク装置23に読み込ませることもできる。   The memory 22 or the hard disk device 23 illustrated in FIG. 10 stores an application program for the processor 21 to execute the input control processing illustrated in FIG. 3 or FIG. 9 together with the operating system of the terminal device 20. The application program for executing the input control process described above can be recorded and distributed on a removable disk 29 such as an optical disk, for example. An application program for executing the input control process may be stored in the memory 22 and the hard disk device 23 by mounting the removable disk 29 in the optical drive device 28 and performing a read process. It is also possible to connect to the network NW via the network interface 25 and download the application program for executing the input control process to the memory 22 and the hard disk device 23.

そして、プロセッサ21は、メモリ22に格納された入力制御処理のためのアプリケーションプログラムを実行することにより、図6に示した判別部12、制御部13および受け付け部14の機能を果たしてもよい。なお、プロセッサ21は、メモリ22などに格納されたオペレーティングシステムなどを実行することにより、図6に示した処理装置1の機能を果たす。   Then, the processor 21 may fulfill the functions of the determination unit 12, the control unit 13, and the reception unit 14 illustrated in FIG. 6 by executing an application program for input control processing stored in the memory 22. The processor 21 performs the functions of the processing device 1 shown in FIG. 6 by executing an operating system or the like stored in the memory 22 or the like.

また、メモリ22またはハードディスク装置23は、更に、視線検出センサ27で得られる検出結果に基づき、端末装置20の利用者が注視している箇所に表示された操作対象を特定する処理のためのアプリケーションプログラムを格納していてもよい。   Further, the memory 22 or the hard disk device 23 is an application for processing for specifying an operation target displayed at a location where the user of the terminal device 20 is gazing based on the detection result obtained by the line-of-sight detection sensor 27. A program may be stored.

図11は、図10に示した端末装置20の動作を示す。図11に示したステップS321〜ステップS323の各処理は、利用者が注視している箇所に表示された操作対象を特定する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、図11に示したステップS324〜ステップS331の各処理は、上述した入力制御処理のためのアプリケーションプログラムに含まれる処理の一例である。なお、ステップS324〜ステップS331の各処理は、本件開示の入力制御プログラムの位置実施形態でもある。また、図11に示したステップS321〜ステップS331の各処理は、図10に示したプロセッサ21によって実行される。   FIG. 11 shows the operation of the terminal device 20 shown in FIG. Each process of step S321 to step S323 illustrated in FIG. 11 is an example of a process included in an application program for a process of specifying an operation target displayed at a place where the user is gazing. Moreover, each process of step S324-step S331 shown in FIG. 11 is an example of the process contained in the application program for the input control process mentioned above. In addition, each process of step S324-step S331 is also the position embodiment of the input control program of this indication. Further, each processing of step S321 to step S331 shown in FIG. 11 is executed by the processor 21 shown in FIG.

ステップS321において、プロセッサ21は、図10に示したセンサインタフェース26を介して視線検出センサ27で得られた検出結果を受け取り、受け取った検出結果に基づいて、利用者の視線が注視しているタッチパネル11上の箇所を特定する。ここで、プロセッサ21は、例えば、利用者が注視している箇所として、利用者の視線とタッチパネル11の表面とが交差する位置に表示されているウィンドウなどを特定する情報を取得してもよい。   In step S321, the processor 21 receives the detection result obtained by the line-of-sight detection sensor 27 via the sensor interface 26 illustrated in FIG. 10, and based on the received detection result, the touch panel on which the user's line of sight is gazing. 11 Specify the location on the top. Here, the processor 21 may acquire, for example, information specifying a window or the like displayed at a position where the user's line of sight and the surface of the touch panel 11 intersect as a place where the user is gazing. .

ステップS322において、プロセッサ21は、ステップS321の処理で特定された箇所に表示されているウィンドウなどを表示するための情報を解析する。例えば、プロセッサ21は、ウェブサイトなどを表示するための画面のデザインをHTML(Hyper Text Mark-up Language)を用いて記述した情報として、図10に示したサーバ装置2から受け取った情報に含まれるタグを解析してもよい。   In step S322, the processor 21 analyzes information for displaying a window or the like displayed at the location specified in the process of step S321. For example, the processor 21 is included in the information received from the server apparatus 2 shown in FIG. 10 as information describing the design of a screen for displaying a website or the like using HTML (Hyper Text Mark-up Language). Tags may be analyzed.

ステップS323において、プロセッサ21は、ステップS322で得られた解析結果に基づいて、利用者が注視している箇所に、メニューやリンク先などの選択可能な選択肢を示す操作対象があるか否かを判定する。   In step S323, based on the analysis result obtained in step S322, the processor 21 determines whether or not there is an operation target indicating a selectable option such as a menu or a link destination in a place where the user is watching. judge.

操作対象があると判定された場合に(ステップS323の肯定判定(YES))、プロセッサ21は、ステップS324〜ステップS331の処理を実行する。一方、操作対象がないと判定された場合に(ステップS323の否定判定(NO))、プロセッサ21は、本件開示の入力装置10による入力制御処理を終了する。   When it is determined that there is an operation target (Yes determination in step S323 (YES)), the processor 21 executes the processes in steps S324 to S331. On the other hand, when it is determined that there is no operation target (No determination in step S323 (NO)), the processor 21 ends the input control process by the input device 10 disclosed herein.

ステップS324において、プロセッサ21は、図9に示したステップS311〜ステップS314と同様にして、タッチパネル11の表面をなぞる操作で描かれた軌跡に基づき、利用者がタッチパネル11を搭載した端末装置20を把持している持ち方を判別する。   In step S324, the processor 21 determines the terminal device 20 on which the touch panel 11 is mounted based on the locus drawn by the operation of tracing the surface of the touch panel 11 in the same manner as in steps S311 to S314 shown in FIG. Determine how to hold it.

端末装置20が、スマートフォンやタブレット型のパーソナルコンピュータである場合に、タッチパネル11は、端末装置20に含まれる構成要素を収めた筐体の一つの側面をなすように搭載され、端末装置20と一体となっている場合が多い。端末装置20とタッチパネル11とが一体となっている場合に、図9を用いて説明したステップS311〜ステップS314の処理によって判別したタッチパネル11の持ち方は、即ち、端末装置20の持ち方に相当する。   When the terminal device 20 is a smartphone or a tablet-type personal computer, the touch panel 11 is mounted so as to form one side surface of a housing that houses components included in the terminal device 20, and is integrated with the terminal device 20. In many cases. When the terminal device 20 and the touch panel 11 are integrated, the way of holding the touch panel 11 determined by the processing in steps S311 to S314 described with reference to FIG. 9 corresponds to the way of holding the terminal device 20. To do.

ステップS325において、プロセッサ21は、ステップS324の処理で得られた判別結果で示される持ち方に対応する並べ方で、ステップS322の処理で得られた解析結果で示される操作対象をタッチパネル11に表示させる。   In step S325, the processor 21 causes the touch panel 11 to display the operation target indicated by the analysis result obtained by the process of step S322 in an arrangement corresponding to the holding method indicated by the determination result obtained by the process of step S324. .

ここで、ステップS322の処理により、利用者が注視している箇所に表示されたウィンドウが、それぞれ複数の操作対象を含む操作対象のグループを含んでいる旨の解析結果が得られる場合がある。また、ステップS324の処理により、利用者が両方の手で端末装置20を把持している旨の判別結果が得られる場合もある。   Here, the processing of step S322 may obtain an analysis result indicating that the window displayed at the place where the user is gazing includes a group of operation targets each including a plurality of operation targets. In addition, the processing in step S324 may obtain a determination result indicating that the user is holding the terminal device 20 with both hands.

複数の操作対象のグループを示す解析結果が得られ、また、左右の手のそれぞれによる持ち方についての判別結果が得られた場合に、プロセッサ21は、操作対象のグループのうち2つを、左右の手のそれぞれによる持ち方に応じて表示させてもよい。   When an analysis result indicating a plurality of operation target groups is obtained and a determination result about how to hold the left and right hands is obtained, the processor 21 determines two of the operation target groups as the left and right groups. You may display according to how each hand holds.

図12は、操作対象の並べ方の別例を示す。なお、図12に示した要素のうち、図4に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 12 shows another example of how the operation targets are arranged. Note that among the elements shown in FIG. 12, elements equivalent to those shown in FIG. 4 are denoted by the same reference numerals and description thereof is omitted.

図12において、符号W1は、タッチパネル11の表示画面111に表示されたウィンドウの例を示す。また、符号G1は、ウィンドウW1に含まれる拡大などの操作が可能な画像の例を示し、また、符号Lgは、ウィンドウW1に含まれるリンク先のリストを示している。なお、図12に示したリンク先のリストは、符号「リンク1」、符号「リンク2」、符号「リンク3」、および符号「リンクk」で示されるリンク先を含むk個のリンク先を含んでいる。   In FIG. 12, a symbol W <b> 1 indicates an example of a window displayed on the display screen 111 of the touch panel 11. Reference numeral G1 indicates an example of an image that can be operated such as enlargement included in the window W1, and reference numeral Lg indicates a list of link destinations included in the window W1. The list of link destinations shown in FIG. 12 includes k link destinations including link destinations indicated by reference signs “link 1”, “link 2”, “link 3”, and “link k”. Contains.

図12に示したウィンドウW1を表示するための情報は、画像G1についての操作を選択するための操作対象のグループを示す情報とともに、リンク先のリストLgに含まれる各リンク先へのジャンプを指示するための操作対象のグループを示す情報を含んでいる。   The information for displaying the window W1 shown in FIG. 12 indicates the jump to each link destination included in the link destination list Lg together with the information indicating the operation target group for selecting the operation for the image G1. It contains information indicating the group to be operated.

したがって、利用者がウィンドウW1を注視している旨の情報が得られた場合に、プロセッサ21は、図11に示したステップS322の処理により、画像G1とリンク先のリストLgとのそれぞれに対応する操作対象のグループを示す情報を取得することができる。   Therefore, when information indicating that the user is gazing at the window W1 is obtained, the processor 21 responds to each of the image G1 and the linked list Lg by the process of step S322 illustrated in FIG. It is possible to acquire information indicating the group to be operated.

また、プロセッサ21は、ステップS325の処理の際に、ステップS322の処理で得られた画像G1とリンク先のリストLgとのそれぞれに対応する操作対象のグループを、左右の手のそれぞれについて判別された持ち方に応じて表示させてもよい。   Further, in the process of step S325, the processor 21 determines the operation target groups corresponding to the image G1 obtained in the process of step S322 and the linked list Lg for each of the left and right hands. You may display according to how you hold.

図12において破線で囲んで示した表示例MLは、符号h1_Lで示した利用者の左手が第1の持ち方でタッチパネル11を把持している場合に、プロセッサ21が、タッチパネル11に操作対象のグループを表示させる際の操作対象の並べ方の例を示す。また、図12において破線で囲んで示した表示例MRは、符号h2_Rで示した利用者の右手が第2の持ち方でタッチパネル11を把持している場合に、プロセッサ21が操作対象のグループをタッチパネル11に表示させる際の操作対象の並べ方の例を示す。   In the display example ML surrounded by a broken line in FIG. 12, when the left hand of the user indicated by the symbol h <b> 1 </ b> _L is holding the touch panel 11 in the first way, the processor 21 displays the operation target on the touch panel 11. The example of how to arrange the operation target when displaying a group is shown. In addition, in the display example MR surrounded by a broken line in FIG. 12, when the right hand of the user indicated by the symbol h <b> 2 </ b> _R is holding the touch panel 11 in the second way, the processor 21 indicates the group to be operated. The example of how to arrange the operation target at the time of making it display on the touch panel 11 is shown.

なお、図12に示した表示例MLは、画像G1について、拡大操作、縮小操作、時計回りの回転操作および反時計回りの回転操作を選択するための操作対象として、符号「拡大」、符号「縮小」、符号「−90」、符号「+90」で示した操作対象を含んでいる。また、図12に示した表示例MRは、リンク先のリストLgについて、各リンク先へのジャンプを指示するための操作対象として、符号「リンク1」、符号「リンク2」、符号「リンク3」および符号「リンクk」で示した操作対象を含むk個の操作対象を含んでいる。   Note that the display example ML illustrated in FIG. 12 includes, as an operation target for selecting an enlargement operation, a reduction operation, a clockwise rotation operation, and a counterclockwise rotation operation for the image G1, reference signs “enlarge”, “ Operation objects indicated by “reduction”, “−90”, and “+90” are included. In addition, the display example MR shown in FIG. 12 has a symbol “link 1”, a symbol “link 2”, a symbol “link 3” as operation targets for instructing a jump to each link destination in the link destination list Lg. ”And k operation objects including the operation object indicated by the symbol“ link k ”.

ここで、左右の手について判別された持ち方が異なっている場合に、プロセッサ21は、図11に示したステップS325の処理で、例えば、操作対象のグループに含まれる操作対象の数に基づいて、各操作対象のグループを表示させる箇所を決定してもよい。例えば、プロセッサ21は、図12に示したリンク先のリストLgのように、多くの選択肢を含む操作対象のグループを、第2の持ち方で把持していることが判別された側の手で操作可能な範囲に第2の持ち方に対応する並べ方で表示させることが望ましい。   Here, when the holding methods determined for the left and right hands are different, the processor 21 performs, for example, based on the number of operation targets included in the operation target group in the process of step S325 illustrated in FIG. The location where each operation target group is displayed may be determined. For example, as shown in the linked list Lg shown in FIG. 12, the processor 21 uses the hand on the side that is determined to hold the operation target group including many options in the second way of holding. It is desirable to display in a range corresponding to the second way of holding in the operable range.

また、図11に示したステップS326〜ステップS331の処理において、プロセッサ21は、持ち方に応じた並べ方で表示させた操作対象による入力操作を受け付けるとともに、当該入力操作を待ち受ける期間を限定するための処理を行ってもよい。   In addition, in the processing of step S326 to step S331 shown in FIG. 11, the processor 21 receives an input operation based on an operation target displayed in an arrangement according to how to hold it, and limits a period of waiting for the input operation. Processing may be performed.

ステップS326において、プロセッサ21は、持ち方に応じた並べ方で表示させた操作対象による入力操作の待ち受けを開始してからの経過時間を計測する処理を開始する。例えば、プロセッサ21は、経過時間を示す変数に初期値として例えば数値「0」を設定し、以降の処理において、経過時間を示す変数に所定の数値を加算する処理を行えばよい。   In step S <b> 326, the processor 21 starts a process of measuring an elapsed time from the start of waiting for an input operation by an operation target displayed in an arrangement according to the way of holding. For example, the processor 21 may set, for example, a numerical value “0” as an initial value for a variable indicating elapsed time, and perform processing for adding a predetermined numerical value to the variable indicating elapsed time in the subsequent processing.

ステップS327において、プロセッサ21は、図10に示したタッチパネル11から取得した情報に基づき、ステップS325の処理によってタッチパネル11に表示された操作対象のいずれかに対する接触が感知されたか否かを判定する。   In step S327, based on the information acquired from the touch panel 11 illustrated in FIG. 10, the processor 21 determines whether or not contact with any of the operation targets displayed on the touch panel 11 is detected by the process in step S325.

図10に示した入出力インタフェース24を介して、タッチパネル11により操作対象のいずれかが表示された箇所への接触が感知された旨の情報を取得した場合に(ステップS327の肯定判定(YES))、プロセッサ21は、ステップS328の処理を実行する。   When information indicating that contact with a location where any of the operation objects is displayed is detected by the touch panel 11 is obtained via the input / output interface 24 illustrated in FIG. 10 (Yes in step S327 (YES)) ), The processor 21 executes the process of step S328.

ステップS328において、プロセッサ21は、接触が感知された箇所に表示された操作対象で示される選択肢を選択する旨の入力操作として受け付ける処理を実行する。   In step S328, the processor 21 executes a process of accepting as an input operation for selecting an option indicated by the operation target displayed at the position where contact is detected.

例えば、図12に示した符号h1_Lで示した利用者の手の指が、操作対象「拡大」が表示された箇所に接触した場合に、プロセッサ21は、入出力インタフェース24を介して取得した情報に基づいて、操作対象「拡大」を選択する旨の入力操作を受け付ける。ここで、図12に示した表示例MLに含まれる操作対象「拡大」は、ステップS322の処理で得られた画像G1に対応する操作対象グループに含まれる操作対象に対応付けられている。したがって、プロセッサ21は、図12に示した表示例MLに含まれる操作対象「拡大」が表示された箇所へのタッチ操作を、ウィンドウW1に含まれる画像G1が表示された箇所を操作した場合と同等の操作として受け付けることができる。   For example, when the finger of the user's hand indicated by the symbol h <b> 1 </ b> _L illustrated in FIG. 12 touches the location where the operation target “enlarged” is displayed, the processor 21 acquires information acquired via the input / output interface 24. Based on the above, an input operation for selecting the operation target “enlarge” is received. Here, the operation target “enlarged” included in the display example ML illustrated in FIG. 12 is associated with the operation target included in the operation target group corresponding to the image G1 obtained in the process of step S322. Accordingly, the processor 21 performs a touch operation on a portion where the operation target “enlarged” included in the display example ML illustrated in FIG. 12 is displayed, and operates a portion where the image G1 included in the window W1 is displayed. It can be accepted as an equivalent operation.

なお、プロセッサ21は、ステップS328の処理の一部として、図9に示したステップS316およびステップS317の処理を実行し、選択された選択肢の下位に位置づけられた選択しに対応する操作対象を表示させる処理を実行してもよい。   Note that the processor 21 executes the processing of step S316 and step S317 shown in FIG. 9 as part of the processing of step S328, and displays the operation target corresponding to the selection positioned below the selected option. You may perform the process to make.

また、ステップS329において、プロセッサ21は、上述した経過時間を示す変数に初期値「0」を設定する処理を行い、待ち受けを開始してからの経過時間をリセットしてもよい。   Further, in step S329, the processor 21 may perform the process of setting the initial value “0” in the variable indicating the elapsed time described above, and reset the elapsed time after starting standby.

一方、タッチパネル11により操作対象のいずれかが表示された箇所への接触が感知された旨の情報が所定の時間内に得られなかった場合に(ステップS327の肯定判定(YES))、プロセッサ21は、ステップS330の処理を実行する。   On the other hand, when the information that the touch to the place where any of the operation targets is displayed on the touch panel 11 is not detected within a predetermined time (Yes in step S327 (YES)), the processor 21 Performs the process of step S330.

ステップS330において、プロセッサ21は、待ち受けを開始してからの経過時間を示す変数に所定値を加算する処理を実行することで、経過時間が所定の時間だけ増大したことを示してもよい。   In step S330, the processor 21 may indicate that the elapsed time has increased by a predetermined time by executing a process of adding a predetermined value to a variable indicating the elapsed time since the start of standby.

その後、ステップS331において、プロセッサ21は、待ち受けを開始してからの経過時間を示す変数の値が、待ち受け時間の上限として予め設定した期間を示す値を超えたか否かを判定する。   Thereafter, in step S331, the processor 21 determines whether or not the value of the variable indicating the elapsed time since the start of standby exceeds the value indicating the period set in advance as the upper limit of the standby time.

経過時間を示す変数の値が、待ち受け時間の上限を示す値を超えている場合に(ステップS331の肯定判定(YES))、プロセッサ21は、入力操作を待ち受ける期間が経過したと判断し、本件開示の入力制御プログラムによる処理を終了する。   When the value of the variable indicating the elapsed time exceeds the value indicating the upper limit of the standby time (Yes in step S331), the processor 21 determines that the period for waiting for the input operation has elapsed, The processing by the disclosed input control program is terminated.

一方、経過時間を示す変数の値が、待ち受け時間の上限を示す値以下である場合に(ステップS331の否定判定(NO))、プロセッサ21は、ステップS327の処理に戻って、新たな入力操作を待ち受ける。   On the other hand, when the value of the variable indicating the elapsed time is equal to or less than the value indicating the upper limit of the standby time (No in step S331 (NO)), the processor 21 returns to the process in step S327 and performs a new input operation. Await.

図10〜図12を用いて説明したように、本件開示の入力制御プログラムを図10に示したプロセッサ21によって実行することで、端末装置20が把持されている持ち方に応じて操作対象を表示させ、操作対象で示される選択肢の入力を受けることができる。   As described with reference to FIGS. 10 to 12, by executing the input control program of the present disclosure by the processor 21 illustrated in FIG. 10, the operation target is displayed according to how the terminal device 20 is held. The user can receive an input of options indicated by the operation target.

つまり、本件開示の入力制御プログラムによれば、端末装置20に搭載されたタッチパネル11において、利用者の指が届く範囲が、端末装置20が把持されている持ち方に依存して制限される場合にも、快適な操作を実現することが可能である。   That is, according to the input control program of the present disclosure, in the touch panel 11 mounted on the terminal device 20, the range that the user's finger can reach is limited depending on how the terminal device 20 is held. In addition, a comfortable operation can be realized.

以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

1…処理装置;2…サーバ装置;10…入力装置;11…タッチパネル;12…判別部;13…制御部;14…受け付け部;111…表示画面;121…抽出部;122…照合部;123…条件テーブル;131…選択部;132…第1提示部;133…第2提示部;20…端末装置;21…プロセッサ;22…メモリ;23…ハードディスク装置;24…入出力インタフェース;25…ネットワークインタフェース;26…センサインタフェース;27…視線検出センサ;28…光学ドライブ装置;29…リムーバブルディスク;NW…ネットワーク DESCRIPTION OF SYMBOLS 1 ... Processing apparatus; 2 ... Server apparatus; 10 ... Input device; 11 ... Touch panel; 12 ... Discriminating part; 13 ... Control part; 14 ... Accepting part; 111 ... Display screen; ... Condition table; 131 ... Selection unit; 132 ... First presentation unit; 133 ... Second presentation unit; 20 ... Terminal device; 21 ... Processor; 22 ... Memory; 23 ... Hard disk device; 26; sensor interface; 27 ... gaze detection sensor; 28 ... optical drive device; 29 ... removable disk; NW ... network

Claims (6)

表示画面を含み、前記表示画面への接触を感知するタッチパネルと、
前記表示画面をなぞる操作が前記タッチパネルによって感知された場合に、前記なぞる操作によって描かれた軌跡の特徴に基づいて、前記表示画面をなぞる操作方向が制限される持ち方である第1の持ち方と、前記表示画面をなぞる操作方向の自由度が前記第1の持ち方の操作方向よりも高い第2の持ち方とのいずれであるかを判別する判別部と、
前記判別部で判別された複数種類の持ち方のそれぞれに対応して前記表示画面において操作可能な領域を設定し、設定した領域に少なくとも一つの操作対象を示す画像を表示させる制御部と、
前記タッチパネルによって接触が感知された箇所に前記制御部によって表示された操作対象で示される情報の入力を受け付ける受け付け部と
を備え
ことを特徴とする入力装置。
A touch panel including a display screen for sensing contact with the display screen;
A first holding method in which, when an operation for tracing the display screen is sensed by the touch panel, the operation direction for tracing the display screen is limited based on a trajectory drawn by the tracing operation. And a determination unit that determines whether the degree of freedom of the operation direction that traces the display screen is a second way of holding that is higher than the operation direction of the first way of holding ,
A control unit configured to set an operable region on the display screen corresponding to each of a plurality of types of holding methods determined by the determination unit, and to display an image indicating at least one operation target in the set region;
Input apparatus characterized by Ru and a reception unit for receiving an input of information indicated by the displayed operation target by the control unit to the location where contact is sensed by the touch panel.
請求項1に記載の入力装置において
記表示画面をなぞる操作が一方向に制限される持ち方を前記第1の持ち方とし、前記表示画面をなぞる操作が複数方向に可能な持ち方を前記第2の持ち方とする場合
前記制御部は、
前記判別部により、前記第1の持ち方が判別された場合に、前記一方向を一辺とする矩形領域を前記操作可能な領域として設定し、
前記判別部により、前記第2の持ち方が判別された場合に、前記表示画面をなぞる操作が可能な範囲を操作可能な領域として設定する
ことを特徴とする入力装置。
The input device according to claim 1 ,
If the operation of tracing the previous SL display screen your grip is limited in one direction by said first holding method, operation of tracing the display screen and the way of holding possible in a plurality of directions the second holding method,
The controller is
When the first holding method is determined by the determination unit, a rectangular region having one side as one side is set as the operable region,
The input device, wherein when the second holding method is determined by the determination unit, a range in which an operation of tracing the display screen can be set as an operable region.
請求項1または請求項2に記載の入力装置において、
前記判別部は、
前記複数種類の持ち方のそれぞれに対応付けされた、前記なぞる操作によって描かれる可能性のある軌跡の特徴を示す情報に基づいて、前記描かれた軌跡から前記タッチパネルの持ち方を判別する
ことを特徴とする入力装置。
The input device according to claim 1 or 2,
The discrimination unit
Determining how to hold the touch panel from the drawn trajectory based on information indicating characteristics of the trajectory that may be drawn by the tracing operation associated with each of the plurality of holding methods. Characteristic input device.
請求項2に記載の入力装置において、
前記制御部は、
前記タッチパネルが前記第1の持ち方で把持されていると判別された場合に、階層構造を持つ選択肢の集合のうち、上位の階層に属する選択肢のいずれかを選択する旨の入力の受付に応じて、選択された選択肢を示す操作対象に代えて、前記選択された選択肢から派生する下位の選択肢を示す操作対象を表示させることで前記下位の選択肢を提示する第1提示部と、
前記タッチパネルが前記第2の持ち方で把持されていると判別された場合に、前記上位の階層に属する選択肢のいずれかを選択する旨の入力の受付に応じて、選択された選択肢を示す操作対象に並べて、前記選択された選択肢から派生する下位の選択肢を示す操作対象を表示させることで前記下位の選択肢を提示する第2提示部とを有する
ことを特徴とする入力装置。
The input device according to claim 2,
The controller is
When it is determined that the touch panel is held in the first way of holding, in response to receiving an input to select one of the options belonging to a higher hierarchy from the set of options having a hierarchical structure In place of the operation target indicating the selected option, a first presentation unit that presents the lower option by displaying the operation target indicating the lower option derived from the selected option;
When it is determined that the touch panel is held in the second way of holding, an operation indicating the selected option in response to receiving an input indicating that one of the options belonging to the higher hierarchy is selected An input device comprising: a second presenting unit that presents the lower option by displaying an operation target indicating a lower option derived from the selected option in a row.
表示画面を有するタッチパネルにより、前記表示画面をなぞる操作が感知された場合に、前記なぞる操作によって描かれた軌跡の特徴に基づいて、前記表示画面をなぞる操作方向が制限される持ち方である第1の持ち方と、前記表示画面をなぞる操作方向の自由度が前記第1の持ち方の操作方向よりも高い第2の持ち方とのいずれであるかを判別し、
判別された複数種類の持ち方のそれぞれに対応して操作可能な領域を前記タッチパネルの前記表示画面において設定し、設定した領域に少なくとも一つの操作対象を示す画像を表示させ、
前記タッチパネルによって接触が感知された箇所に表示された操作対象で示される情報の入力を受け付ける
ことを特徴とする入力制御方法。
When the touch panel having the display screen senses an operation of tracing the display screen, the operation direction of tracing the display screen is limited based on the characteristics of the trajectory drawn by the tracing operation. Determining whether the holding method of 1 and the second holding method in which the degree of freedom of the operation direction tracing the display screen is higher than the operation direction of the first holding method ;
An area that can be operated corresponding to each of the determined types of holding is set on the display screen of the touch panel, and an image showing at least one operation target is displayed in the set area,
An input control method characterized by receiving an input of information indicated by an operation target displayed at a location where contact is detected by the touch panel.
表示画面を有するタッチパネルにより、前記表示画面をなぞる操作が感知された場合に、前記なぞる操作によって描かれた軌跡の特徴に基づいて、前記表示画面をなぞる操作方向が制限される持ち方である第1の持ち方と、前記表示画面をなぞる操作方向の自由度が前記第1の持ち方の操作方向よりも高い第2の持ち方とのいずれであるかを判別し、
判別された複数種類の持ち方のそれぞれに対応して操作可能な領域を前記タッチパネルの前記表示画面において設定し、設定した領域に少なくとも一つの操作対象を示す画像を表示させ、
前記タッチパネルによって接触が感知された箇所に表示された操作対象で示される情報の入力を受け付ける
処理をコンピュータに実行させることを特徴とする入力制御プログラム。
When the touch panel having the display screen senses an operation of tracing the display screen, the operation direction of tracing the display screen is limited based on the characteristics of the trajectory drawn by the tracing operation. Determining whether the holding method of 1 and the second holding method in which the degree of freedom of the operation direction tracing the display screen is higher than the operation direction of the first holding method ;
An area that can be operated corresponding to each of the determined types of holding is set on the display screen of the touch panel, and an image showing at least one operation target is displayed in the set area,
An input control program that causes a computer to execute a process of receiving input of information indicated by an operation target displayed at a location where contact is detected by the touch panel.
JP2013054847A 2013-03-18 2013-03-18 Input device, input control method, and input control program Active JP6079337B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013054847A JP6079337B2 (en) 2013-03-18 2013-03-18 Input device, input control method, and input control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013054847A JP6079337B2 (en) 2013-03-18 2013-03-18 Input device, input control method, and input control program

Publications (2)

Publication Number Publication Date
JP2014182435A JP2014182435A (en) 2014-09-29
JP6079337B2 true JP6079337B2 (en) 2017-02-15

Family

ID=51701131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013054847A Active JP6079337B2 (en) 2013-03-18 2013-03-18 Input device, input control method, and input control program

Country Status (1)

Country Link
JP (1) JP6079337B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104461366A (en) * 2014-12-16 2015-03-25 小米科技有限责任公司 Method and device for activating operation state of mobile terminal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5066055B2 (en) * 2008-10-28 2012-11-07 富士フイルム株式会社 Image display device, image display method, and program
JP2010108081A (en) * 2008-10-28 2010-05-13 Sharp Corp Menu display device, method of controlling the menu display device, and menu display program
JP4853507B2 (en) * 2008-10-30 2012-01-11 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2011093033A1 (en) * 2010-01-26 2011-08-04 パナソニック株式会社 Display control device, display control method, program and integrated circuit
JP2012108674A (en) * 2010-11-16 2012-06-07 Ntt Docomo Inc Display terminal
JP5507494B2 (en) * 2011-05-13 2014-05-28 レノボ・シンガポール・プライベート・リミテッド Portable electronic device with touch screen and control method
JP2012256153A (en) * 2011-06-08 2012-12-27 Panasonic Corp Character input device and portable terminal

Also Published As

Publication number Publication date
JP2014182435A (en) 2014-09-29

Similar Documents

Publication Publication Date Title
US10402088B2 (en) Method of operating a display unit and a terminal supporting the same
EP2715499B1 (en) Invisible control
EP2752744B1 (en) Arc menu index display method and relevant apparatus
Gutwin et al. Faster command selection on tablets with FastTap
US9086741B2 (en) User input device
EP2360563A1 (en) Prominent selection cues for icons
JP2017050020A (en) Wrist watch keyboard
US20100241985A1 (en) Providing Virtual Keyboard
KR20150133688A (en) Input device
US20140354553A1 (en) Automatically switching touch input modes
US10387033B2 (en) Size reduction and utilization of software keyboards
KR20140117469A (en) System for gaze interaction
Uddin et al. HandMark Menus: Rapid command selection and large command sets on multi-touch displays
EP2595047B1 (en) Method and apparatus for inputting character in touch device
JP2010039558A (en) Information processing apparatus and control method thereof
JP2012141868A (en) Information processing apparatus, information processing method, and computer program
Rivu et al. GazeButton: enhancing buttons with eye gaze interactions
US11029824B2 (en) Method and apparatus for moving input field
CN103425430B (en) The method and apparatus for supporting one-hand text input in the terminal
JP6079337B2 (en) Input device, input control method, and input control program
CN107967091B (en) Human-computer interaction method and computing equipment for human-computer interaction
Uddin Improving Multi-Touch Interactions Using Hands as Landmarks
JP6232694B2 (en) Information processing apparatus, control method thereof, and program
JP4659047B2 (en) Character input device and character input method in character input device
JP5152639B2 (en) Character input / function operation device, method, program, and portable terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R150 Certificate of patent or registration of utility model

Ref document number: 6079337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150