JP6291894B2 - Input device, input method, and program - Google Patents

Input device, input method, and program Download PDF

Info

Publication number
JP6291894B2
JP6291894B2 JP2014030501A JP2014030501A JP6291894B2 JP 6291894 B2 JP6291894 B2 JP 6291894B2 JP 2014030501 A JP2014030501 A JP 2014030501A JP 2014030501 A JP2014030501 A JP 2014030501A JP 6291894 B2 JP6291894 B2 JP 6291894B2
Authority
JP
Japan
Prior art keywords
auxiliary icon
priority
extracted
displayed
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014030501A
Other languages
Japanese (ja)
Other versions
JP2015156087A (en
Inventor
明博 寒河江
明博 寒河江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014030501A priority Critical patent/JP6291894B2/en
Publication of JP2015156087A publication Critical patent/JP2015156087A/en
Application granted granted Critical
Publication of JP6291894B2 publication Critical patent/JP6291894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルを使用した端末の入力装置、入力方法及びそのプログラムに関する。   The present invention relates to an input device of a terminal using a touch panel, an input method, and a program thereof.

特許文献1は、タッチパネル入力補助装置を開示している。この装置では、平面形状のタッチパネルに脱着可能なボタン式入力シートを複数具備する。さらに、各ボタン式入力シートは、タッチパネルの感知領域に対応した凸状のボタンをそれぞれ有するため、操作者はタッチ操作時に、良好なクリック感を得ることができ、誤入力を防止することができる。   Patent Document 1 discloses a touch panel input auxiliary device. This apparatus includes a plurality of button type input sheets that can be attached to and detached from a flat touch panel. Furthermore, since each button-type input sheet has a convex button corresponding to the sensing area of the touch panel, the operator can obtain a good click feeling at the time of touch operation, and can prevent erroneous input. .

特開2011−233004号公報JP 2011-233004 A

特許文献1には、タッチパネル上での操作において、タッチパネルに脱着可能なボタン式入力シートを具備することで良好なクリック感を得ることでき、誤入力を防止することができるといった記載はある。ユーザがタッチパネル上でタッチ操作する際には、タッチパネル上でスクロール可能な画面を表示している場合に、画面に表示されたwebサイトのアンカーリンクや、チェックボックス等のオブジェクトが小さい、又は密に隣接している場合に、意図しないオブジェクトをタッチし、誤入力が発生するといった課題がある。しかし、特許文献1記載の技術ではこの課題を解決することはできない。   Patent Document 1 has a description that, in an operation on a touch panel, a good click feeling can be obtained by providing a button type input sheet that can be attached to and detached from the touch panel, and erroneous input can be prevented. When a user performs a touch operation on the touch panel, when a scrollable screen is displayed on the touch panel, objects such as anchor links and check boxes on the website displayed on the screen are small or dense. When adjacent to each other, there is a problem that an unintended object is touched and an erroneous input occurs. However, the technique described in Patent Document 1 cannot solve this problem.

そこで、本発明は上記課題を解決した入力装置、入力方法及びそのプログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide an input device, an input method, and a program for solving the above-described problems.

かかる目的を達成するため、本発明の入力装置は、入力対象となるオブジェクトを含むコンテンツを表示手段に表示するように制御するコンテンツ制御手段と、前記表示手段表示されているコンテンツからオブジェクトを抽出するオブジェクト抽出手段と、オブジェクトと、当該オブジェクトと同じ機能を有する補助アイコンを対応づけて記憶する記憶手段と、前記記憶手段から、前記抽出されたオブジェクトに対応する補助アイコンを読出し、前記オブジェクトとは別に表示する補助アイコン制御手段とを備える。   In order to achieve such an object, an input device according to the present invention extracts content from content displayed on the display means, content control means for controlling the display means to display content including the object to be input, and the display means. Object extraction means, storage means for associating and storing an auxiliary icon having the same function as the object, and reading the auxiliary icon corresponding to the extracted object from the storage means, separately from the object Auxiliary icon control means for displaying.

また、本発明は、入力対象となるオブジェクトを含むコンテンツを表示手段に表示するように制御し、前記表示手段表示されているコンテンツからオブジェクトを抽出するオブジェクト抽出し、オブジェクトと、当該オブジェクトと同じ機能を有する補助アイコンを対応づけて記憶し、前記記憶手段から、前記抽出されたオブジェクトに対応する補助アイコンを読出し、前記オブジェクトとは別に表示する入力方法を提供する。   In addition, the present invention controls the display unit to display content including the object to be input, extracts the object from the content displayed on the display unit, extracts the object, and the same function as the object And an auxiliary icon corresponding to the extracted object is read from the storage means and displayed separately from the object.

さらに、本発明は、入力対象となるオブジェクトを含むコンテンツを表示手段に表示するように制御するコンテンツ制御ステップと、前記表示手段表示されているコンテンツからオブジェクトを抽出するオブジェクト抽出ステップと、オブジェクトと、当該オブジェクトと同じ機能を有する補助アイコンを対応づけて記憶する記憶ステップと、前記記憶ステップから、前記抽出されたオブジェクトに対応する補助アイコンを読出し、前記オブジェクトとは別に表示する補助アイコン制御ステップと、をコンピュータに実行させる入力プログラムを提供する。   Further, the present invention provides a content control step for controlling the content including the object to be input to be displayed on the display means, an object extraction step for extracting the object from the content displayed on the display means, an object, A storage step of storing an auxiliary icon having the same function as the object, and an auxiliary icon control step of reading out an auxiliary icon corresponding to the extracted object from the storage step and displaying the auxiliary icon separately from the object; An input program for causing a computer to execute is executed.

本発明は、ユーザがタッチパネル上で入力操作する際に、誤入力を防止することができる。   The present invention can prevent erroneous input when a user performs an input operation on a touch panel.

第1の実施形態に係る入力装置100の構成を示す図である。It is a figure which shows the structure of the input device 100 which concerns on 1st Embodiment. 第1の実施形態に係る入力装置100の動作手順を示す図である。It is a figure which shows the operation | movement procedure of the input device 100 which concerns on 1st Embodiment. 第1の実施形態に係る記憶部60で記憶している情報を示す図である。It is a figure which shows the information memorize | stored in the memory | storage part 60 which concerns on 1st Embodiment. 第1の実施形態に係る入力装置100の表示画面を示す図である。It is a figure which shows the display screen of the input device 100 which concerns on 1st Embodiment. 第2の実施形態に係る入力装置100の構成を示す図である。It is a figure which shows the structure of the input device 100 which concerns on 2nd Embodiment. 第2の実施形態に係る入力装置100の動作手順を示す図である。It is a figure which shows the operation | movement procedure of the input device 100 which concerns on 2nd Embodiment. 第2の実施形態に係る記憶部60で記憶している情報を示す図である。It is a figure which shows the information memorize | stored in the memory | storage part 60 which concerns on 2nd Embodiment. 第3の実施形態に係る入力装置100の構成を示す図である。It is a figure which shows the structure of the input device 100 which concerns on 3rd Embodiment. 第3の実施形態に係る入力装置100の動作手順を示す図である。It is a figure which shows the operation | movement procedure of the input device 100 which concerns on 3rd Embodiment. 選択された領域の第1の例を示す図である。It is a figure which shows the 1st example of the selected area | region. 選択された領域の第2の例を示す図である。It is a figure which shows the 2nd example of the selected area | region. 選択された領域の第3の例を示す図である。It is a figure which shows the 3rd example of the selected area | region. 第4の実施形態に係る入力装置100の構成を示す図である。It is a figure which shows the structure of the input device 100 which concerns on 4th Embodiment. 第4の実施形態に係る入力装置100の動作手順を示す図である。It is a figure which shows the operation | movement procedure of the input device 100 which concerns on 4th Embodiment. 各点の座標情報を示す図である。It is a figure which shows the coordinate information of each point.

<第1の実施形態>
以下、図面を参照して本発明に係る入力装置100の実施形態を説明する。図1は、本実施形態に係る入力装置100の構成を示す図である。本実施形態に係る入力装置100は、コンテンツ制御部10、オブジェクト抽出部20、補助アイコン制御部30、及び記憶部60を包含する。また、コンテンツ制御部10、及び補助アイコン制御部30は、図示しない表示装置にそれぞれ接続されている。
<First Embodiment>
Hereinafter, an embodiment of an input device 100 according to the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of an input device 100 according to the present embodiment. The input device 100 according to the present embodiment includes a content control unit 10, an object extraction unit 20, an auxiliary icon control unit 30, and a storage unit 60. The content control unit 10 and the auxiliary icon control unit 30 are connected to a display device (not shown).

表示装置は、例えば、タッチパネルである。入力装置100は、携帯電話、スマートフォン、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistant)、タブレット端末、及びPC(Personal Computer)など一般的な端末が有する電話機能、無線LAN(Local Area Network)通信機能などの他の機能を備える。入力装置100には、OS(Operating System)が導入され、webブラウザをOS上で動作するアプリケーションとして実行する。なお、本願発明における入力装置100は、webページを取得する機能、webページのレンダリング情報から、webページ全体に対する、表示画面の位置情報を取得する機能などを備える。   The display device is, for example, a touch panel. The input device 100 includes a mobile phone, a smartphone, a PHS (Personal Handy-phone System), a PDA (Personal Digital Assistant), a tablet terminal, a telephone function that a general terminal such as a PC (Personal Computer) has, a wireless LAN (Local Area Network) Other functions such as communication functions are provided. An OS (Operating System) is installed in the input device 100, and a web browser is executed as an application operating on the OS. The input device 100 according to the present invention has a function of acquiring a web page, a function of acquiring position information of a display screen with respect to the entire web page from web page rendering information, and the like.

図3は、本実施形態に係る記憶部60で記憶している情報を示す図である。本実施形態に係る記憶部60は、予め各々のオブジェクト名、オブジェクト名に対応する処理を実行するためのアドレス情報、オブジェクトの開始位置と終了位置の座標情報と、それに対応する補助アイコンを記憶している。   FIG. 3 is a diagram illustrating information stored in the storage unit 60 according to the present embodiment. The storage unit 60 according to the present embodiment previously stores each object name, address information for executing processing corresponding to the object name, coordinate information of the start position and end position of the object, and auxiliary icons corresponding thereto. ing.

また、本発明に係る入力装置100を構成する各部は、論理回路等のハードウェアで構成される。また、各部は、コンピュータの制御部、記憶部、記憶部のロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット等からなり、ハードウェアとソフトウェアの任意の組合せによって実現されても良い。そして、断りのない限り、その実現方法、装置は限定されない。   Each unit constituting the input device 100 according to the present invention is configured by hardware such as a logic circuit. Each unit includes a control unit of a computer, a storage unit, a program loaded in the storage unit, a storage unit such as a hard disk for storing the program, and the like, and may be realized by any combination of hardware and software. As long as there is no notice, the realization method and apparatus are not limited.

図2は、本実施形態に係る入力装置100の動作手順を示す図である。以下、図2を参照しながら、本実施形態に係る入力装置100の動作手順を具体的に説明する。コンテンツ制御部10は、表示装置にコンテンツを表示するように制御する。具体的には、ユーザが表示装置に表示されているオブジェクトをタッチすると、タッチされたオブジェクトに対応する処理を実行する。ここで、コンテンツとは、動画や静止画を含む画像、及びWebページ、Word文書等の文字等を含む。また、オブジェクトとは、表示装置に表示されたコンテンツに含まれる、webサイトのアンカーリンクや、チェックボックス等を指す。   FIG. 2 is a diagram illustrating an operation procedure of the input device 100 according to the present embodiment. Hereinafter, the operation procedure of the input apparatus 100 according to the present embodiment will be specifically described with reference to FIG. The content control unit 10 controls to display the content on the display device. Specifically, when the user touches an object displayed on the display device, processing corresponding to the touched object is executed. Here, the content includes images including moving images and still images, and characters such as Web pages and Word documents. An object refers to an anchor link, a check box, or the like of a website included in content displayed on a display device.

さらに、コンテンツ制御部10は、ユーザのスクロール操作を認識し、表示装置に表示されているコンテンツの表示画面上での開始位置と終了位置の座標情報を取得し、オブジェクト抽出部20へ座標情報を送信する(ステップS1)。   Further, the content control unit 10 recognizes the user's scroll operation, acquires coordinate information of the start position and end position on the display screen of the content displayed on the display device, and sends the coordinate information to the object extraction unit 20. Transmit (step S1).

図15は、各点の座標情報を示す図である。具体的には、コンテンツ全体の開始位置の座標情報(0,0)、終了位置の座標情報(X1,Y1)と定義すると、表示装置に表示されているコンテンツの開始位置の座標情報は(X2,Y2)、終了位置の座標情報は(X3,Y3)と定義できる。同様に、オブジェクトの開始位置の座標情報は(X4,Y4)、終了位置の座標情報は(X5,X5)と定義できる。各点の座標情報を特定することで、表示装置に表示されているコンテンツ、及びオブジェクトの領域が特定できる。   FIG. 15 is a diagram showing coordinate information of each point. Specifically, if the coordinate information (0, 0) of the start position of the entire content and the coordinate information (X1, Y1) of the end position are defined, the coordinate information of the start position of the content displayed on the display device is (X2 , Y2), and the coordinate information of the end position can be defined as (X3, Y3). Similarly, the coordinate information of the start position of the object can be defined as (X4, Y4), and the coordinate information of the end position can be defined as (X5, X5). By specifying the coordinate information of each point, the content displayed on the display device and the area of the object can be specified.

オブジェクト抽出部20は、コンテンツ制御部10から、表示装置に表示されているコンテンツの座標情報を取得すると、表示装置に表示されているコンテンツの領域内に含まれるオブジェクトを抽出し、さらにその座標情報を抽出する。つまり、オブジェクト抽出部20は、コンテンツの領域内に含まれるwebサイトのアンカーリンクや、チェックボックス等をオブジェクトとして、そのオブジェクトの開始位置と終了位置の座標情報を抽出する。表示されているコンテンツの領域内に含まれるオブジェクト、及びその座標情報の抽出は、既存技術を用いて行うものとする。   When the object extraction unit 20 acquires the coordinate information of the content displayed on the display device from the content control unit 10, the object extraction unit 20 extracts an object included in the content area displayed on the display device, and further, the coordinate information To extract. That is, the object extraction unit 20 extracts the coordinate information of the start position and the end position of the object using the anchor link, check box, etc. of the website included in the content area as the object. It is assumed that the objects included in the displayed content area and the coordinate information thereof are extracted using existing technology.

オブジェクト抽出手段20で抽出されたオブジェクトの座標情報は、補助アイコン制御部30へ送信される(ステップS2)。   The coordinate information of the object extracted by the object extracting means 20 is transmitted to the auxiliary icon control unit 30 (step S2).

補助アイコン制御部30では、オブジェクト抽出部20で抽出されたオブジェクトの座標情報に対応する補助アイコンを特定し、該オブジェクトとは別の領域に表示する(ステップS3)。ここで、補助アイコンとは、各々のオブジェクトに付与され、この補助アイコンをタッチすることで、各々のオブジェクトに対応する処理を実行することができるアイコンである。   The auxiliary icon control unit 30 specifies an auxiliary icon corresponding to the coordinate information of the object extracted by the object extraction unit 20, and displays it in a region different from the object (step S3). Here, the auxiliary icon is an icon that is given to each object and can perform processing corresponding to each object by touching the auxiliary icon.

具体的には、補助アイコン制御部30は、オブジェクト抽出部20から、オブジェクトの座標情報を取得すると、記憶部60から該オブジェクトの座標情報に対応する補助アイコンを特定する。さらに、補助アイコン制御部30は、特定した補助アイコンを、オブジェクトとは別の領域に補助アイコンを表示する(ステップS3)。   Specifically, when the auxiliary icon control unit 30 acquires the coordinate information of the object from the object extraction unit 20, the auxiliary icon control unit 30 specifies the auxiliary icon corresponding to the coordinate information of the object from the storage unit 60. Further, the auxiliary icon control unit 30 displays the specified auxiliary icon in an area different from the object (step S3).

図4は、本実施形態に係る入力装置100の表示画面を示す図である。各々のオブジェクトには、対応する補助アイコンが吹き出し状に表示されている。さらに、この吹き出し状に表示された補助アイコンは1〜5まで、表示画面の下部にも配置されている。吹き出し状の補助アイコンをタッチすると、当該補助アイコンが収容する内容など当該補助アイコンの詳細情報が表示されてもよい。   FIG. 4 is a diagram showing a display screen of the input device 100 according to the present embodiment. Each object has a corresponding auxiliary icon displayed in a balloon shape. Further, auxiliary icons 1 to 5 displayed in a balloon shape are also arranged at the bottom of the display screen. When a balloon-shaped auxiliary icon is touched, detailed information of the auxiliary icon such as contents stored in the auxiliary icon may be displayed.

ユーザが、表示画面に表示された補助アイコンをタッチすると、コンテンツ制御部10は、該補助アイコンに対応したオブジェクトの処理が実行される。さらに、表示画面の下部に横一列に表示されている補助アイコンの大きさ、各々の補助アイコンの配置間隔については、図4に示したものに限定されることはなく、本願発明のスコープ内で当業者が理解しうるような様々な変更をすることができる。   When the user touches an auxiliary icon displayed on the display screen, the content control unit 10 executes processing of an object corresponding to the auxiliary icon. Furthermore, the size of the auxiliary icons displayed in a horizontal row at the bottom of the display screen and the interval between the auxiliary icons are not limited to those shown in FIG. 4, and are within the scope of the present invention. Various changes can be made as will be understood by those skilled in the art.

また、ユーザは、画面右下のアイコン「表示/非表示」アイコンをタッチすることで、補助アイコンの表示/非表示を設定することができる。なお、本実施形態において、表示装置に表示されている画面のタッチは、ユーザの指で行っても良いし、ペンなどを用いて画面のタッチを行ってもよい。   The user can set display / non-display of the auxiliary icon by touching the icon “display / non-display” icon at the lower right of the screen. In the present embodiment, the screen displayed on the display device may be touched with a user's finger, or the screen may be touched with a pen or the like.

以上、実施形態を参照して本願発明を説明してきたが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうるような様々な変更をすることができる。
<第2の実施形態>
図5は、第2の実施形態に係る入力装置100の構成を示す図である。本実施形態に係る入力装置100は、コンテンツ制御部10、オブジェクト抽出部20、補助アイコン制御部30、優先度算出部40、及び記憶部60を包含する。また、コンテンツ制御部10、補助アイコン制御部30、及び優先度算出部40は、記憶部60にそれぞれ接続されている。また、コンテンツ制御部10、及び補助ボタン制御部30は図示しない表示装置に接続されている。
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
<Second Embodiment>
FIG. 5 is a diagram illustrating a configuration of the input device 100 according to the second embodiment. The input device 100 according to the present embodiment includes a content control unit 10, an object extraction unit 20, an auxiliary icon control unit 30, a priority calculation unit 40, and a storage unit 60. In addition, the content control unit 10, the auxiliary icon control unit 30, and the priority calculation unit 40 are connected to the storage unit 60. The content control unit 10 and the auxiliary button control unit 30 are connected to a display device (not shown).

本実施形態における入力装置100、及び表示装置は、前述の実施形態と同様であるため、ここでは説明を省略する。以下に優先度算出部40について詳述する。優先度算出部40は、コンテンツ領域内に含まれる各々のオブジェクトのスコア、及び優先度を算出する。ここで、優先度とは、どのオブジェクトに対応する補助アイコンを優先的に表示させるかの指標となる値である。つまり、オブジェクトの優先度の値が大きいほど、対応する補助アイコンを優先的に表示される。   Since the input device 100 and the display device in the present embodiment are the same as those in the above-described embodiment, description thereof is omitted here. The priority calculation unit 40 will be described in detail below. The priority calculation unit 40 calculates the score and priority of each object included in the content area. Here, the priority is a value that serves as an index for preferentially displaying the auxiliary icon corresponding to which object. That is, as the priority value of the object is larger, the corresponding auxiliary icon is preferentially displayed.

図7は、本実施形態に係る記憶部60で記憶している情報を示す図である。本実施形態に係る記憶部60には、予め各々のオブジェクト名、オブジェクト名に対応する処理を実行するためのアドレス情報、オブジェクトの開始位置と終了位置の座標情報と、オブジェクトの長さ、スコア、優先度、及びオブジェクトに対応する補助アイコンが記憶されている。さらに、記憶装置には、ユーザの指が表示装置にタッチした際に検出されたユーザの指の接触開始位置と終了位置を示す座標情報、及びタッチしている指の長さを記憶している。   FIG. 7 is a diagram illustrating information stored in the storage unit 60 according to the present embodiment. In the storage unit 60 according to the present embodiment, each object name, address information for executing processing corresponding to the object name, coordinate information of the start position and end position of the object, object length, score, A priority and an auxiliary icon corresponding to the object are stored. Further, the storage device stores coordinate information indicating the contact start position and end position of the user's finger detected when the user's finger touches the display device, and the length of the touched finger. .

ここで、ユーザの指の接触開始位置と終了位置を示す座標情報は、投影型静電容量方式や表面型静電容量方式などを用いることで行っても良い。つまり、タッチパネルに備わったタッチセンサが、ユーザの指が近付くと、指とセンサ間の静電容量の変化、または周辺の電極パターンから電流の変化を検出することで、ユーザの指の座標情報を取得する。   Here, the coordinate information indicating the contact start position and the end position of the user's finger may be obtained by using a projection type capacitance method, a surface type capacitance method, or the like. In other words, when the touch sensor provided on the touch panel approaches the finger of the user, the coordinate information of the user's finger is obtained by detecting the change in capacitance between the finger and the sensor or the change in current from the surrounding electrode pattern. get.

オブジェクトの長さは、オブジェクトの開始位置と終了位置の座標情報を用いて算出される。具体的には、オブジェクトの開始位置のX座標と、終了位置のX座標の差分をとることでオブジェクトのX軸方向の長さを算出する。なお、Y軸方向の長さも、同様の方法により算出してもよい。   The length of the object is calculated using coordinate information of the start position and end position of the object. Specifically, the length of the object in the X-axis direction is calculated by taking the difference between the X coordinate of the start position of the object and the X coordinate of the end position. The length in the Y-axis direction may be calculated by a similar method.

図6を用いて本実施形態に係る入力装置100の動作手順を説明する。最初に、コンテンツ制御部10が、表示装置に表示されているコンテンツの座標情報を取得し、オブジェクト抽出部20に送信する(ステップS1)。   The operation procedure of the input device 100 according to this embodiment will be described with reference to FIG. First, the content control unit 10 acquires coordinate information of the content displayed on the display device and transmits it to the object extraction unit 20 (step S1).

オブジェクト抽出部20は、コンテンツ制御部10からコンテンツの座標情報を取得すると、コンテンツの領域内に含まれるオブジェクトを抽出し、抽出したオブジェクトの開始位置と終了位置の座標情報を優先度算出部40へ送信する(ステップS2)。   When the object extraction unit 20 acquires the coordinate information of the content from the content control unit 10, the object extraction unit 20 extracts the object included in the content area and sends the coordinate information of the start position and the end position of the extracted object to the priority calculation unit 40. Transmit (step S2).

優先度算出部40は、記憶部60を参照し、オブジェクトの座標情報に対応するオブジェクトの長さと、ユーザの指の長さを抽出すると、所定の評価式に代入し、オブジェクトのスコアを算出し、記憶装置に記憶する(ステップS3)。   The priority calculation unit 40 refers to the storage unit 60, extracts the length of the object corresponding to the coordinate information of the object and the length of the user's finger, and substitutes them into a predetermined evaluation formula to calculate the score of the object. And stored in the storage device (step S3).

優先度算出部40は、記憶部60からユーザの指のX軸方向、及びY軸方向の長さ(X’,Y’)、及びオブジェクトのX軸方向、及びY軸方向の長さ(X,Y)を取得し、各々の座標情報を下記の評価式(1)を用いてスコアを算出する。

(X’- X)2+(Y’- Y)2 ・・・評価式(1)
The priority calculation unit 40 reads the lengths (X ′, Y ′) of the user's finger from the storage unit 60 in the X-axis direction and the Y-axis direction, and the lengths of the object in the X-axis direction and the Y-axis direction (X , Y), and the score of each coordinate information is calculated using the following evaluation formula (1).

(X'- X) 2 + (Y'- Y) 2 ... Evaluation formula (1)

評価式(1)は、ユーザの指のX軸方向の長さ(X’)からオブジェクトのX軸方向の長さ(X)を減じた値の2乗値と、ユーザの指のY軸方向の長さ(Y’)からオブジェクトのY軸方向の長さ (Y)を減じたものの2乗値とを加えた算出した値をスコアとし、これを評価したものである。   Evaluation formula (1) is the square value of the value obtained by subtracting the length (X) of the object in the X-axis direction from the length (X ′) of the user's finger in the X-axis direction, and the Y-axis direction of the user's finger. The calculated value obtained by adding the square value of the length (Y ′) of the object minus the length (Y) of the object in the Y-axis direction is used as a score, and this is evaluated.

この評価式では、(X’- X)、及び(Y’- Y)が0以下の値となった場合、0として評価する。(X’- X)、及び(Y’- Y) の値が大きいほど、これらを2乗して加えた値も大きくなるため、算出されたスコアも大きくなる。   In this evaluation formula, when (X′−X) and (Y′−Y) are 0 or less, they are evaluated as 0. As the values of (X′−X) and (Y′−Y) are larger, the value obtained by adding them to the square is also larger, so that the calculated score is larger.

スコアが大きいということは、ユーザの指が、オブジェクトに比べ大きく、ユーザにとって、タッチミスの可能性の高いオブジェクトであるといえる。そのため、補助アイコンとして表示するための優先度を高く設定する。オブジェクトの優先度は、スコアの大小で決まる。例えば、オブジェクトが複数ある場合には各々のスコアの大小を比較することで決定された優先度の高いオブジェクトの補助アイコンを優先的に表示させるようにしてもよい。   A high score means that the user's finger is larger than the object, and the user has a high possibility of touch error. Therefore, the priority for displaying as an auxiliary icon is set high. The priority of an object is determined by the magnitude of the score. For example, when there are a plurality of objects, auxiliary icons of objects having a high priority determined by comparing the respective scores may be preferentially displayed.

なお、優先度算出部40で算出した各オブジェクトの優先度は、補助アイコン制御部30に送信される。また、オブジェクトの優先度はオブジェクト名に対応づけて記憶部60に記憶される(ステップS3)。   The priority of each object calculated by the priority calculation unit 40 is transmitted to the auxiliary icon control unit 30. The priority of the object is stored in the storage unit 60 in association with the object name (step S3).

補助アイコン制御部30は、優先度算出部40から、オブジェクト名とその優先度を受信すると、優先度の高い順から該オブジェクト名に対応する補助アイコンを記憶部60から読み出し、表示装置に表示する(ステップS4)。   When the auxiliary icon control unit 30 receives the object name and its priority from the priority calculation unit 40, the auxiliary icon control unit 30 reads the auxiliary icon corresponding to the object name from the storage unit 60 in the descending order of priority and displays it on the display device. (Step S4).

本実施形態において、優先度を決定するスコアの算出には評価式(1)を用いたが、これ限られることなく、例えば、オブジェクトとユーザの指の面積同士の比較を行い優先度を決定しても良い。   In this embodiment, the evaluation formula (1) is used to calculate the score for determining the priority. However, without limitation, for example, the priority is determined by comparing the areas of the object and the user's finger. May be.

なお、本実施形態において、表示装置に表示されている画面のタッチは、ユーザの指で行っても良いし、ペンなどを用いて画面のタッチを行ってもよい。   In the present embodiment, the screen displayed on the display device may be touched with a user's finger, or the screen may be touched with a pen or the like.

以上、実施形態を参照して本願発明を説明してきたが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうるような様々な変更をすることができる。
<第3の実施形態>
図8は、本実施形態に係る入力装置100の構成を示す図である。本実施形態に係る入力装置100は、コンテンツ制御部10、オブジェクト抽出部20、補助アイコン制御部30、受付部50、及び記憶部60を包含する。また、コンテンツ制御部10、補助アイコン制御部30、及び受付部50は、図示しない表示装置に接続されている。
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
<Third Embodiment>
FIG. 8 is a diagram illustrating a configuration of the input device 100 according to the present embodiment. The input device 100 according to the present embodiment includes a content control unit 10, an object extraction unit 20, an auxiliary icon control unit 30, a reception unit 50, and a storage unit 60. The content control unit 10, the auxiliary icon control unit 30, and the reception unit 50 are connected to a display device (not shown).

本実施形態に係る記憶部60は、前述の実施形態1と同様に、予め各々のオブジェクト名、オブジェクト名に対応する処理を実行するためのアドレス情報、オブジェクトの開始位置と終了位置の座標情報と、それに対応する補助アイコンを記憶している。さらに、本実施形態に係る記憶部60には、補助対象を示す領域のテンプレートが予め格納されている。補助対象となる領域とは、補助アイコンを表示したいオブジェクトを含んだ領域のことであり、ユーザによって任意に選択可能である。   Similar to the first embodiment, the storage unit 60 according to the present embodiment previously stores each object name, address information for executing processing corresponding to the object name, coordinate information of the start position and end position of the object, , Corresponding auxiliary icons are stored. Furthermore, the storage unit 60 according to the present embodiment stores in advance a template of an area indicating an auxiliary object. The area to be assisted is an area including an object for which an assist icon is to be displayed, and can be arbitrarily selected by the user.

補助対象のテンプレートを図10乃至図12に示す。図10は、表示画面のwebブラウザの高さを3分割し、上領域、中央領域、下領域の3つの範囲から選択できるようにしたテンプレートである。ユーザは、「上中下」と示された領域選択ボタンをタッチすることで、上中下の領域選択が可能である。また、ユーザは、選択終了ボタンをタッチすることで、領域選択を終了することができる。   A template to be supported is shown in FIGS. FIG. 10 shows a template in which the height of the web browser on the display screen is divided into three parts, and can be selected from three ranges: an upper region, a central region, and a lower region. The user can select the upper, middle, and lower areas by touching the area selection buttons indicated as “upper, middle, and lower”. Further, the user can end the region selection by touching the selection end button.

図11は、HTML(Hyper Text Markup Language)の論理的な領域の区切りである<DIV>で区切られた領域を有するテンプレートである。ユーザは、「123」と示された領域選択ボタンをタッチすることで、上中下の領域選択が可能である。また、ユーザは、選択終了ボタンをタッチすることで、対応する領域選択を終了することができる。   FIG. 11 shows a template having an area delimited by <DIV>, which is a logical area delimiter of HTML (Hyper Text Markup Language). The user can select the upper, lower, and lower areas by touching an area selection button labeled “123”. Further, the user can end the corresponding area selection by touching the selection end button.

図12は、上記2つのテンプレートを合わせたテンプレートである。ユーザは、「上中下」、「123」と示された領域選択ボタンをタッチすることで、上中下の領域選択が可能である。また、ユーザは、選択終了ボタンをタッチすることで、対応する領域選択を終了することができる。   FIG. 12 is a template obtained by combining the above two templates. The user can select the upper, middle, and lower areas by touching the area selection buttons indicated as “upper, middle, lower” and “123”. Further, the user can end the corresponding area selection by touching the selection end button.

図9は、本実施形態の入力装置100の動作手順を示す図である。最初に、コンテンツ制御部10は、表示装置に表示されているコンテンツのタッチパネル上での開始位置と終了位置の座標情報をオブジェクト抽出部20へ送信する(ステップS1)。   FIG. 9 is a diagram illustrating an operation procedure of the input device 100 according to the present embodiment. First, the content control unit 10 transmits the coordinate information of the start position and the end position of the content displayed on the display device on the touch panel to the object extraction unit 20 (step S1).

次に、ユーザは、表示装置に表示されているコンテンツの中から、補助アイコンを表示させたいオブジェクトを含む領域を選択し、当該領域の情報を受付部50に送信する。受付部50は、ユーザから受付けた領域の情報をオブジェクト抽出部20へ送信する(ステップS2)。ユーザが領域を選択する方法としては、入力装置100に実装されている機能である領域選択モードにより、ユーザが記憶部60を参照し、補助対象を示すテンプレートの中から選択しても良い。また、ユーザが補助アイコンを表示させたいオブジェクトの付近をタッチすると、当該オブジェクトを含むようにある一定領域が特定され、ユーザが選択できるようにしても良い。   Next, the user selects an area including an object for which an auxiliary icon is to be displayed from the content displayed on the display device, and transmits information on the area to the reception unit 50. The receiving unit 50 transmits the area information received from the user to the object extracting unit 20 (step S2). As a method for the user to select an area, the user may select from among templates indicating assistance targets by referring to the storage unit 60 according to an area selection mode that is a function implemented in the input device 100. Further, when the user touches the vicinity of the object for which the auxiliary icon is to be displayed, a certain area may be specified so as to include the object, and the user may select it.

オブジェクト抽出部20は、ユーザが選択した領域に含まれるオブジェクトを抽出し、抽出したオブジェクトの座標情報を補助アイコン制御部30へ送信する(ステップS3)。具体的には、オブジェクト抽出部20は、コンテンツの領域内に含まれるwebサイトのアンカーリンクや、チェックボックス等をオブジェクトとしてその座標情報を抽出する。なお、オブジェクト、及びその座標情報の抽出は、既存の技術を用いて行う。   The object extraction unit 20 extracts an object included in the region selected by the user, and transmits coordinate information of the extracted object to the auxiliary icon control unit 30 (step S3). Specifically, the object extraction unit 20 extracts the coordinate information of an anchor link or a check box of a website included in the content area as an object. The extraction of the object and its coordinate information is performed using existing technology.

さらに、オブジェクト抽出手段20で抽出したオブジェクトの座標情報は、補助アイコン制御部30へ送信される。   Further, the coordinate information of the object extracted by the object extracting unit 20 is transmitted to the auxiliary icon control unit 30.

補助アイコン制御部30は、記憶部60を参照し、オブジェクト抽出部20で抽出されたオブジェクトの座標情報に対応する補助アイコンを特定し、当該補助アイコンを当該オブジェクトとは別の領域に表示する(ステップS4)。ユーザが、各々のオブジェクトに対応する補助アイコンをタッチすると、コンテンツ制御部10は、ユーザがタッチした補助アイコンに対応する処理を行う。   The auxiliary icon control unit 30 refers to the storage unit 60, specifies an auxiliary icon corresponding to the coordinate information of the object extracted by the object extraction unit 20, and displays the auxiliary icon in a different area from the object ( Step S4). When the user touches an auxiliary icon corresponding to each object, the content control unit 10 performs processing corresponding to the auxiliary icon touched by the user.

なお、本実施形態において、表示装置に表示されている画面のタッチは、ユーザの指で行っても良いし、ペンなどを用いて画面のタッチを行ってもよい。   In the present embodiment, the screen displayed on the display device may be touched with a user's finger, or the screen may be touched with a pen or the like.

以上、実施形態を参照して本願発明を説明してきたが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうるような様々な変更をすることができる。
<第4の実施形態>
図13は、本実施形態に係る入力装置100の構成を示す図である。本実施形態に係る入力装置100は、コンテンツ制御部10、オブジェクト抽出部20、補助アイコン制御部30、優先度算出部40、受付部50、及び記憶部60を包含する。また、コンテンツ制御部10、補助アイコン制御部30、及び受付部50は、図示しない表示装置に接続されている。また、コンテンツ制御部10、補助アイコン制御部30、及び受付部50は、図示しない表示装置に接続されている。
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
<Fourth Embodiment>
FIG. 13 is a diagram illustrating a configuration of the input device 100 according to the present embodiment. The input device 100 according to the present embodiment includes a content control unit 10, an object extraction unit 20, an auxiliary icon control unit 30, a priority calculation unit 40, a reception unit 50, and a storage unit 60. The content control unit 10, the auxiliary icon control unit 30, and the reception unit 50 are connected to a display device (not shown). The content control unit 10, the auxiliary icon control unit 30, and the reception unit 50 are connected to a display device (not shown).

本実施形態に係る記憶部60には、予め各々のオブジェクト名、オブジェクト名に対応する処理を実行するためのアドレス情報、オブジェクトの開始位置と終了位置の座標情報と、オブジェクトの長さ、スコア、優先度、及びオブジェクトに対応する補助アイコンが記憶されている。さらに、記憶装置には、ユーザの指が表示装置にタッチした際に検出されたユーザの指の接触開始位置と終了位置を示す座標情報、及びタッチしている指の長さを記憶している。さらに、本実施形態に係る記憶部60には、補助対象を示す領域のテンプレートが予め格納されている。補助対象となる領域とは、補助アイコンを表示したいオブジェクトを含んだ領域のことであり、ユーザによって任意に選択可能である。本実施形態に係る入力装置100の各構成の説明は、前述した実施形態と同様のため、ここでは省略する。   In the storage unit 60 according to the present embodiment, each object name, address information for executing processing corresponding to the object name, coordinate information of the start position and end position of the object, object length, score, A priority and an auxiliary icon corresponding to the object are stored. Further, the storage device stores coordinate information indicating the contact start position and end position of the user's finger detected when the user's finger touches the display device, and the length of the touched finger. . Furthermore, the storage unit 60 according to the present embodiment stores in advance a template of an area indicating an auxiliary object. The area to be assisted is an area including an object for which an assist icon is to be displayed, and can be arbitrarily selected by the user. The description of each component of the input device 100 according to the present embodiment is the same as that of the above-described embodiment, and is omitted here.

図14は、本実施形態に係る入力装置100の動作手順を示す図である。コンテンツ制御部10は、表示装置に表示されているコンテンツの座標情報を取得し、オブジェクト抽出部20へ送信する(ステップS1)。   FIG. 14 is a diagram illustrating an operation procedure of the input device 100 according to the present embodiment. The content control unit 10 acquires coordinate information of the content displayed on the display device, and transmits it to the object extraction unit 20 (step S1).

次に、ユーザは、表示装置に表示されているコンテンツの中から、補助アイコンを表示させたいオブジェクトを含む領域を選択し、当該領域の情報を受付部50に送信する。受付部50は、ユーザから受付けた領域の情報をオブジェクト抽出部20へ送信する(ステップS2)。ユーザが領域を選択する方法としては、入力装置100に実装されている機能である領域選択モードにより、ユーザが記憶部60を参照し、補助対象を示すテンプレートの中から選択しても良い。また、ユーザが補助アイコンを表示させたいオブジェクトの付近をタッチすると、当該オブジェクトを含むようにある一定領域が特定され、ユーザが選択できるようにしても良い。   Next, the user selects an area including an object for which an auxiliary icon is to be displayed from the content displayed on the display device, and transmits information on the area to the reception unit 50. The receiving unit 50 transmits the area information received from the user to the object extracting unit 20 (step S2). As a method for the user to select an area, the user may select from among templates indicating assistance targets by referring to the storage unit 60 according to an area selection mode that is a function implemented in the input device 100. Further, when the user touches the vicinity of the object for which the auxiliary icon is to be displayed, a certain area may be specified so as to include the object, and the user may select it.

オブジェクト抽出部20は、ユーザが選択した領域に含まれるオブジェクトを抽出し、抽出したオブジェクトの座標情報を優先度算出部40へ送信する(ステップS3)。   The object extraction unit 20 extracts an object included in the region selected by the user, and transmits coordinate information of the extracted object to the priority calculation unit 40 (step S3).

優先度算出部40は、オブジェクトの座標情報に対応するオブジェクトの長さと、ユーザの指のX軸方向、及びY軸方向の長さを所定の評価式に代入し、オブジェクトのスコアを算出し、当該スコアから当該オブジェクトの優先度を決定する。オブジェクトのスコア算出については、前述した実施形態と同様のため、ここでは説明を省略する。優先度算出部40は、算出したオブジェクト優先度を補助アイコン制御部30へ送信する。さらに、優先度算出部40は、オブジェクトのスコア、及び優先度を記憶部60に記憶する(ステップS4)。   The priority calculation unit 40 substitutes the length of the object corresponding to the coordinate information of the object and the length of the user's finger in the X-axis direction and the Y-axis direction into a predetermined evaluation formula, calculates the score of the object, The priority of the object is determined from the score. The object score calculation is the same as that in the above-described embodiment, and thus the description thereof is omitted here. The priority calculation unit 40 transmits the calculated object priority to the auxiliary icon control unit 30. Furthermore, the priority calculation unit 40 stores the score and priority of the object in the storage unit 60 (step S4).

補助アイコン制御部30は、優先度算出部40から受信したオブジェクトの優先度に対応する補助アイコンを記憶部60から読み出し、当該オブジェクトとは別の領域に表示する(ステップS5)。   The auxiliary icon control unit 30 reads the auxiliary icon corresponding to the priority of the object received from the priority calculation unit 40 from the storage unit 60 and displays it in a different area from the object (step S5).

なお、本実施形態において、表示装置に表示されている画面のタッチは、ユーザの指で行っても良いし、ペンなどを用いて画面のタッチを行ってもよい。   In the present embodiment, the screen displayed on the display device may be touched with a user's finger, or the screen may be touched with a pen or the like.

以上、実施形態を参照して本願発明を説明してきたが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうるような様々な変更をすることができる。   Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

10 コンテンツ制御部
20 オブジェクト抽出部
30 補助アイコン制御部
40 優先度算出部
50 受付部
60 記憶部
100 入力装置
DESCRIPTION OF SYMBOLS 10 Content control part 20 Object extraction part 30 Auxiliary icon control part 40 Priority calculation part 50 Reception part 60 Storage part 100 Input device

Claims (6)

入力対象となるオブジェクトを含むコンテンツを表示手段に表示するように制御するコンテンツ制御手段と、
前記表示手段表示されているコンテンツからオブジェクトを抽出するオブジェクト抽出手段と、
オブジェクトと、当該オブジェクトと同じ機能を有する補助アイコンを対応づけて記憶する記憶手段と、
前記記憶手段から、前記抽出されたオブジェクトに対応する補助アイコンを読出し、前記オブジェクトとは別に表示する補助アイコン制御手段と
前記表示手段の第1の方向及び前記第1の方向と交わる第2の方向の各々についてのタッチされた領域の長さと前記抽出されたオブジェクトの長さとの差に基づいて、前記タッチされた領域に対して相対的に小さい前記抽出されたオブジェクトに対してより高い優先度が設定されるように、前記抽出されたオブジェクトの優先度を算出する優先度算出手段とを備え、
前記補助アイコン制御手段は、前記優先度に基づいて前記抽出されたオブジェクトに対応する補助アイコンを前記オブジェクトとは別に表示する、
入力装置。
Content control means for controlling the content including the object to be input to be displayed on the display means;
And object extracting means for extracting an object from the content being displayed on said display means,
Storage means for associating and storing an object and an auxiliary icon having the same function as the object;
Auxiliary icon control means for reading an auxiliary icon corresponding to the extracted object from the storage means and displaying it separately from the object ;
The touched area based on the difference between the length of the touched area and the length of the extracted object in each of the first direction of the display means and the second direction intersecting the first direction Priority calculating means for calculating the priority of the extracted object so that a higher priority is set for the extracted object that is relatively smaller than
The auxiliary icon control means displays an auxiliary icon corresponding to the extracted object based on the priority separately from the object.
Input device.
前記オブジェクト抽出手段は、ユーザに選択された領域に含まれるオブジェクトを抽出する、
請求項記載の入力装置。
The object extracting means extracts an object included in an area selected by a user;
The input device according to claim 1 .
入力対象となるオブジェクトを含むコンテンツを表示手段に表示するように制御し、
前記表示手段表示されているコンテンツからオブジェクトを抽出するオブジェクト抽出し、
オブジェクトと、当該オブジェクトと同じ機能を有する補助アイコンを対応づけて記憶し、
前記記憶手段から、前記抽出されたオブジェクトに対応する補助アイコンを読出し、前記オブジェクトとは別に表示し
前記表示手段の第1の方向及び前記第1の方向と交わる第2の方向の各々についてのタッチされた領域の長さと前記抽出されたオブジェクトの長さとの差に基づいて、前記タッチされた領域に対して相対的に小さい前記抽出されたオブジェクトに対してより高い優先度が設定されるように、前記抽出されたオブジェクトの優先度を算出し、
前記優先度に基づいて前記抽出されたオブジェクトに対応する補助アイコンを前記オブジェクトとは別に表示する、
入力方法。
Control to display the content including the object to be input on the display means,
Objects from the content being displayed object extraction extracts on the display means,
An object is stored in association with an auxiliary icon having the same function as the object,
Read the auxiliary icon corresponding to the extracted object from the storage means, display separately from the object ,
The touched area based on the difference between the length of the touched area and the length of the extracted object in each of the first direction of the display means and the second direction intersecting the first direction The priority of the extracted object is calculated such that a higher priority is set for the extracted object that is relatively smaller than
An auxiliary icon corresponding to the extracted object based on the priority is displayed separately from the object;
input method.
ユーザに選択された領域に含まれるオブジェクトを抽出する、請求項記載の入力方法。 The input method according to claim 3 , wherein an object included in an area selected by the user is extracted. 入力対象となるオブジェクトを含むコンテンツを表示手段に表示するように制御するコンテンツ制御ステップと、
前記表示手段表示されているコンテンツからオブジェクトを抽出するオブジェクト抽出ステップと、
オブジェクトと、当該オブジェクトと同じ機能を有する補助アイコンを対応づけて記憶する記憶ステップと、
前記記憶ステップから、前記抽出されたオブジェクトに対応する補助アイコンを読出し、前記オブジェクトとは別に表示する補助アイコン制御ステップと
前記表示手段の第1の方向及び前記第1の方向と交わる第2の方向の各々についてのタッチされた領域の長さと前記抽出されたオブジェクトの長さとの差に基づいて、前記タッチされた領域に対して相対的に小さい前記抽出されたオブジェクトに対してより高い優先度が設定されるように、前記抽出されたオブジェクトの優先度を算出する優先度算出ステップと、をコンピュータに実行させ、
前記補助アイコン制御ステップでは、前記優先度に基づいて前記抽出されたオブジェクトに対応する補助アイコンを前記オブジェクトとは別に表示する、
プログラム。
A content control step for controlling the content including the object to be input to be displayed on the display means;
An object extraction step of extracting an object from the content being displayed on said display means,
A storage step of storing an object and an auxiliary icon having the same function as the object in association with each other;
An auxiliary icon control step of reading out an auxiliary icon corresponding to the extracted object from the storing step and displaying the auxiliary icon separately from the object ;
The touched area based on the difference between the length of the touched area and the length of the extracted object in each of the first direction of the display means and the second direction intersecting the first direction A priority calculation step of calculating a priority of the extracted object so that a higher priority is set for the extracted object relatively smaller than
In the auxiliary icon control step, an auxiliary icon corresponding to the extracted object based on the priority is displayed separately from the object.
program.
前記オブジェクト抽出ステップは、ユーザに選択された領域に含まれるオブジェクトを抽出する、請求項5記載の入力プログラム。   The input program according to claim 5, wherein the object extraction step extracts an object included in an area selected by a user.
JP2014030501A 2014-02-20 2014-02-20 Input device, input method, and program Active JP6291894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014030501A JP6291894B2 (en) 2014-02-20 2014-02-20 Input device, input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014030501A JP6291894B2 (en) 2014-02-20 2014-02-20 Input device, input method, and program

Publications (2)

Publication Number Publication Date
JP2015156087A JP2015156087A (en) 2015-08-27
JP6291894B2 true JP6291894B2 (en) 2018-03-14

Family

ID=54775371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014030501A Active JP6291894B2 (en) 2014-02-20 2014-02-20 Input device, input method, and program

Country Status (1)

Country Link
JP (1) JP6291894B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6910410B2 (en) * 2017-03-06 2021-07-28 京セラ株式会社 Electronics, control methods, and control programs
JP6612799B2 (en) * 2017-03-06 2019-11-27 京セラ株式会社 Electronic device, control method, and control program
CN113168279A (en) 2018-11-29 2021-07-23 麦克赛尔株式会社 Image display device and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6643824B1 (en) * 1999-01-15 2003-11-04 International Business Machines Corporation Touch screen region assist for hypertext links
KR20100040844A (en) * 2007-07-11 2010-04-21 가부시키가이샤 아쿠세스 Portable information terminal
JP2010160564A (en) * 2009-01-06 2010-07-22 Toshiba Corp Portable terminal
JP5431911B2 (en) * 2009-12-24 2014-03-05 三星電子株式会社 Content display device

Also Published As

Publication number Publication date
JP2015156087A (en) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6132644B2 (en) Information processing apparatus, display control method, computer program, and storage medium
JP6381032B2 (en) Electronic device, control method thereof, and program
US10048726B2 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
WO2012086133A1 (en) Touch panel device
JP6291894B2 (en) Input device, input method, and program
JP5782420B2 (en) User interface device, user interface method and program
JP6411067B2 (en) Information processing apparatus and input method
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
JP2021182405A (en) Electronic apparatus and content display program
JP6569598B2 (en) Display device and display control program
US10303346B2 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
US20140157118A1 (en) Information processing apparatuses, non-transitory computer readable medium, and information processing method
JP2015001902A (en) Electronic apparatus
JP2014195202A (en) Symbol inputting device and program
US9690464B2 (en) Terminal device and method for selecting object
KR20120081422A (en) Terminal having touch screen and method for inputting letter according to touch event thereof
JP2003280803A (en) Information processor
JP6317809B2 (en) Character input device and character input method
JP2017219588A (en) Display device and display control program
JP2018170048A (en) Information processing apparatus, input method, and program
JP6844699B2 (en) Display device and display method of display device
JP2013033553A (en) Character data input device
JP2013073366A (en) Information processing device
JP2014165884A (en) Character entry unit, character entry method, control program, and recording media
KR101345847B1 (en) Method of providing mobile graphic user interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180129

R150 Certificate of patent or registration of utility model

Ref document number: 6291894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150