JP5523090B2 - 入力装置、入力装置の制御方法、プログラムおよび記憶媒体 - Google Patents

入力装置、入力装置の制御方法、プログラムおよび記憶媒体 Download PDF

Info

Publication number
JP5523090B2
JP5523090B2 JP2009294624A JP2009294624A JP5523090B2 JP 5523090 B2 JP5523090 B2 JP 5523090B2 JP 2009294624 A JP2009294624 A JP 2009294624A JP 2009294624 A JP2009294624 A JP 2009294624A JP 5523090 B2 JP5523090 B2 JP 5523090B2
Authority
JP
Japan
Prior art keywords
touch
move
input operation
variance
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009294624A
Other languages
English (en)
Other versions
JP2011134212A5 (ja
JP2011134212A (ja
Inventor
裕 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009294624A priority Critical patent/JP5523090B2/ja
Priority to US12/974,503 priority patent/US8553000B2/en
Publication of JP2011134212A publication Critical patent/JP2011134212A/ja
Publication of JP2011134212A5 publication Critical patent/JP2011134212A5/ja
Application granted granted Critical
Publication of JP5523090B2 publication Critical patent/JP5523090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ユーザにより入力操作が行われるタッチパネルを有する入力装置、入力装置の制御方法、プログラムおよび記憶媒体に関する。
タッチパネルを有する入力装置は、タッチパネルに対して、ユーザにより指やペンなどを用いて入力操作が行われると、この入力操作を判別する。ここで、タッチパネルに対してユーザが指やペンなどを用いて行う入力操作は、以下のような動作(ジェスチャ)を組み合わせたものである。
(1)タッチパネルを指やペンで触れる動作(以下、タッチダウンという)
(2)指やペンがタッチパネルに触れた状態で指やペンを移動する動作(以下、ムーブという)
(3)タッチパネルから指やペンを離す動作(以下、タッチアップという)
また、タッチパネルを指やペンで触れた状態をタッチオンといい、タッチパネルに指やペンが触れていない状態をタッチオフということにする。
タッチパネルに対して上記動作を組み合わせて行われる入力操作としては、例えばタップ操作、ドラッグ操作、フリック操作などがある。タップ操作は、タッチパネル上の所望の領域を指またはペンなどで軽く叩くような操作、即ちタッチダウンからムーブをせずに、直ぐにタッチアップをする操作である。ドラッグ操作は、タッチダウンから、ゆっくりと物を移動させるようにムーブをした後に、タッチアップをする操作である。フリック操作は、ドラッグ操作に対して、タッチダウンから、タッチパネルに触れた状態の指またはペンをある程度の距離だけ素早く動かしてタッチパネルから離すよう操作である。換言すれば、フリック操作は、タッチパネルを指またはペンで弾くように素早くなぞる操作である。
このようなタッチパネルに対する入力操作が可能な入力装置に対しては、入力操作を誤りなく検出することが要求されている。
例えばドラッグ操作などのようにムーブを含む操作を誤りなく検出する方法として、タッチパネルの感応量の変化量を算出し、この感応量の変化量に基づいて左方向へのムーブか右方向へのムーブかを判定する方法がある(特許文献1参照)。
また、ユーザがタッチダウンをした際に、当該タッチダウンをした位置を中心として所定の大きさの領域(微小の大きさの領域)を設定し、当該設定された領域の外へのムーブがあると、当該ムーブを有効とする判定する方法がある(特許文献2参照)。
特登録04073448号 特開平06-161647号公報
しかしながら、従来の検出方法は、ユーザがタップ操作を行った際のユーザが意図しないタッチオン中の指またはペンの微小な動きを検出し、このタップ操作を、ムーブを含む操作(例えばドラッグ操作、フリック操作など)と誤判別する場合がある。これにより、ユーザの意図とは異なる操作が入力され、ユーザの意図とは異なる処理が実行されることがある。
本発明の目的は、ムーブを含まない操作を、ムーブを含む操作と誤判別することなく、ユーザが意図した入力操作を正確に判別することができる入力装置、入力装置の制御方法、プログラムおよび記憶媒体を提供することにある。
上記目的を達成するため本発明の入力装置は、ユーザにより入力操作が行われるタッチパネルと、前記タッチパネルに対する前記入力操作によるタッチダウンからタッチアップまでの期間中のタッチ位置を時系列に取得する取得手段と、前記タッチダウンの際のタッチ位置を含む、前記取得手段で取得された各タッチ位置に基づいてタッチ位置の分散を算出する算出手段と、前記算出手段により算出された分散に基づいて、前記入力操作がムーブを含まない操作であるかムーブを含む操作であるかを判別する判別手段とを有し、前記判別手段は、前記算出された分散が閾値より小さい場合、前記入力操作が前記ムーブを含まない操作であると判別し、前記算出された分散が前記閾値より小さくない場合、前記入力操作が前記ムーブを含む操作であると判別することを特徴とする。
また、本発明は、入力装置の制御方法、プログラムおよび記憶媒体を提供する。
本発明によれば、ムーブを含まない操作を、ムーブを含む操作と誤判別することなく、ユーザが意図した入力操作を正確に判別することができる。
本発明の第1の実施の形態に係る入力装置が組み込まれている情報処理装置の主要部構成を示すブロック図である。 (a)はユーザインタフェース画面の一例を示す図である。(b)は図2(a)のユーザインタフェース画面上で行われるドラッグ操作を示す図である。(c)は図2(a)のユーザインタフェース画面上で行われるタップ操作を示す図である。 第1の実施の形態における入力操作判別処理の手順を示すフローチャートである。 (a)はタッチダウンからの経過時間に応じたタッチ位置の変化に対して従来の判別方法を適用した場合の例を示す図である。(b)はタッチダウンからの経過時間に応じたタッチ位置の変化に対して第1の実施の形態の判別方法を適用した場合の一例を示す図である。 (a)はユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定するためのタップ操作画面の一例を示す図である。(b)はユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定するためのフリック操作画面の一例を示す図である。 本発明の第2の実施の形態に係る入力装置が表示するユーザインタフェース画面の一例を示す図である。 本発明の第2の実施の形態に係る入力装置の入力操作判別処理の手順を示すフローチャートである。 本発明の第2の実施の形態に係る入力装置の入力操作判別処理の手順を示すフローチャートである。 本発明の第3の実施の形態に係る入力装置の入力操作判別処理の手順を示すフローチャートである。
以下、本発明の実施の形態について図面を参照しながら説明する。
(第1の実施の形態)
図1は本発明の第1の実施の形態に係る入力装置が組み込まれている情報処理装置の主要部構成を示すブロック図である。ここでは、ユーザの入力操作として、ムーブを含まない操作(タップ操作)かムーブを含む操作(ドラッグ操作またはフリック操作)が行われる入力装置について説明する。
図1に示すように、本実施の形態の入力装置は、PC(パーソナルコンピュータ)などの情報処理装置100に組み込まれている。情報処理装置100は、CPU101、プログラム格納部102、メモリ103、タッチパネル104および表示制御部105を有し、これらは、互いに内部バス111を介してデータのやり取りを行うことが可能である。
CPU101は、プログラム格納部102に格納されている各種のプログラムに従い、情報処理装置100の各部を制御するとともに、各種の処理を実行する。また、CPU101は、タイマ(図示せず)を内蔵する。ここで、プログラム格納部102は、例えばROM、FlashROMまたはハードディスクなどからなる。メモリ103は、例えばRAMからなり、CPU101が制御または処理を実行する際の作業領域を提供する。
タッチパネル104は、ユーザによる入力操作が行われる操作面を有し、上記操作面に対するタッチオン状態かタッチオフ状態かを検出するとともに、ユーザが指またはペンでタッチをしているタッチ位置を検出する。そして、タッチパネル104は、タッチオン状態かタッチオフ状態かを示すタッチ状態信号と上記タッチ位置を示す座標情報を、内部バス111を介してCPU101に送信する。ここで、上記操作面には、予め互いに直交するx,y軸が規定されており、上記座標情報は、x軸方向の位置とy軸方向の位置を示す情報である。また、タッチパネル104は、後述するディスプレイ110の表示画面に貼り付けられており、光の透過率がディスプレイ110の表示を妨げないように構成されている。
表示制御部105は、CPU101がプログラムに従い生成した表示制御信号に基づいて、ディスプレイ110の表示を制御する。ディスプレイ110は、例えば液晶表示装置などから構成される。
例えば、表示制御部105は、CPU101が生成する表示制御信号に基づいて、タッチパネル104と共働して、ユーザインタフェース画面を構成するための画面を表示させるように、ディスプレイ110を制御する。ここで、タッチパネル104の操作面上の座標と、ディスプレイ110上の表示画面上の座標とは対応付けられている。これにより、ディスプレイ110とタッチパネル104は、互いに共働して、ユーザが指またはペンで直接的に入力操作を行うユーザインタフェース画面を構成する。
具体的には、タッチパネル104は、タッチパネル104の操作面上において行われる上記入力操作に応じたタッチ状態信号と座標情報をCPU101に送信する。CPU101は、タッチパネル104からのタッチ状態信号と座標情報に基づいて、ユーザの入力操作を判別し、当該入力操作に応じた処理を実行する。
次に、ユーザにより入力操作が行われるユーザインタフェース画面について図2を参照しながら説明する。図2(a)はユーザインタフェース画面の一例を示す図である。図2(b)は図2(a)のユーザインタフェース画面上で行われるドラッグ操作を示す図である。図2(c)は図2(a)のユーザインタフェース画面上で行われるタップ操作を示す図である。
例えば、情報処理装置100が画像データを格納する記録媒体(図示せず)を備えるものとする。そして、上記記録媒体に格納されている画像データに対して処理を行うための入力操作が行われるユーザインタフェース画面として、図2(a)に示す画面201がディスプレイ110に表示されるものとする。このユーザインタフェース画面201の中央部には、上記記録媒体に格納されている画像データに対応するサムネイル画像202の一覧が表示される。また、ユーザインタフェース画面の上部および下部には、それぞれ、「MENU」、「EDIT」などの各操作ボタンが表示される。
ここで、サムネイル画像202の一覧表示をスクロールさせる場合、図2(b)に示すように、ユーザはユーザインタフェース画面のサムネイル画像202の一覧の表示領域上においてドラッグ操作を行う。このドラッグ操作に応じて、CPU101は、サムネイル画像の一覧の表示領域をスクロールさせる処理を行う。即ち、CPU101は、次の画像データを記録媒体からメモリ103に読み込み、サムネイル画像を生成する。そして、CPU101は、ドラッグ操作に応じた移動速度およびスクロール量でサムネイル画像の表示領域をスクロールさせるための表示制御信号を表示制御部105に送信する。表示制御部105は、CPU101からの表示制御信号に基づいて、メモリ103からサムネイル画像を読み出してサムネイル画像の一覧をスクロールさせているように、ディスプレイ110の表示を制御する。
また、一覧表示されているサムネイル画像202のうち、ユーザが所望するサムネイル画像202に対応する画像を全画面表示させる場合、図2(c)に示すように、ユーザは、指で所望のサムネイル画像202が表示されている位置を叩くタップ操作を行う。このタップ操作に応じて、CPU101は、当該タップ操作でタッチされたタッチ位置にあるサムネイル画像202に対応する画像を全画面表示させる処理を行う。即ち、CPU101は、タップ操作のタッチ位置にあるサムネイル画像202に対応する画像データを全画面表示させる表示制御信号を表示制御部104に送信する。表示制御部104は、上記表示制御信号に基づいて、メモリ103から画像データを読み出して全画面表示させるように、ディスプレイ110を制御する。
また、CPU101は、ユーザインタフェース画面の上部または下部にある操作ボタンに対してタップ操作が行われると、当該操作ボタンに割り当てられている処理を実行する。例えば、ユーザにより「EDIT」ボタンに対してタップ操作が行われると、編集モードが実行される。この編集モードにおいては、例えばタップ操作により所望のサムネイル画像202が選択されると、当該選択されたサムネイル画像202に対応する画像データを記録媒体から削除する処理が行われる。
本実施の形態は、ムーブを含まない操作(タップ操作)とムーブを含む(操作ドラッグ操作またはフリック操作)を判別するための入力操作判別処理を行う。この入力操作判別処理においては、まず、タッチパネル104に対してユーザの入力操作によるタッチダウンが行われると、当該タッチダウンからタッチアップされるまでの期間中におけるタッチ位置が時系列にメモリ103に記録される。
ここで、タッチダウンから所定時間Tmaxが経過する前にタッチアップが行われると、メモリ103に記録された各タッチ位置の分散Sが算出される。そして、算出された分散Sに基づいて、上記ユーザの入力操作がムーブを含まない操作(タップ操作)であるか、ムーブを含む操作(ドラッグ操作またはフリック操作)であるかの判別が行われる。
上記入力操作判別処理の詳細について図3を参照しながら説明する。図3は第1の実施の形態における入力操作判別処理の手順を示すフローチャートである。図3のフローチャートに示す手順は、CPU101により、プログラム格納部102に格納されているプログラムに従い実行されるものである。
CPU101は、図3に示すように、タッチパネル104からのタッチ状態信号を監視し、タッチパネル104に対してタッチダウンが行われるのを待つ(ステップS301)。ここでは、タッチパネル104からタッチオン状態を示すタッチ状態信号が出力されると、CPU101は、タッチパネル104に対してタッチダウンが行われたと判定する。そして、タッチパネル104に対してタッチダウンが行われると、CPU101は、内蔵するタイマの時間をクリアする(ステップS302)。
次いで、CPU101は、上記タイマを起動する(ステップS303)。そして、CPU101は、タイマが計時する時間T(タッチダウンから現在までの経過時間)における、タッチパネル104からのタッチ位置を示す座標情報を時間Tと対応付けてメモリ103に記録する(ステップS304)。
次いで、CPU101は、タイマが計時する時間Tが所定時間Tmaxを経過したか否かを判定する(ステップS305)。ここで、タイマが計時する時間Tが所定時間Tmaxを経過していないと判定された場合、CPU101は、タッチパネル104からのタッチ状態信号に基づいて、タッチパネル104に対してタッチアップが行われた否かを判定する(ステップS306)。ここでは、タッチパネル104からタッチオフ状態を示すタッチ状態信号が出力されると、CPU101は、タッチアップが行われたと判定する。ここで、タッチアップが行われていないと判定された場合、CPU101は、上記ステップS304に戻る。
上記ステップS306においてタッチアップが行われたと判定された場合、CPU101は、メモリ103に記録されている各タッチ位置の座標情報に基づいて、タッチ位置の分散Sを算出する(ステップS307)。ここでは、メモリ103に記録されている各タッチ位置の座標情報(タッチダウンからタッチアップまでの各タッチ位置の座標情報)として、n個の座標情報Pi(xi,yi)(i=1〜n)がメモリ103に記録されているとする。
CPU101は、まず、メモリ103に記録されているn個のタッチ位置の座標情報Pi(xi,yi)(i=1〜n)をメモリ103から読み出して、平均値Ax,Ayを次の(1)式により算出する。
Ax=(x1+…+xn)÷n
Ay=(y1+…+yn)÷n …(1)
ここで、座標情報Pi(xi,yi)のxiは、タッチパネル104の操作面に規定されているx軸方向の位置を示し、yiは、x軸方向と直交するy軸方向の位置を示す。
次いで、CPU101は、算出した平均値Ax,Ayを用いて、分散Sx,Syを次の(2)式により算出する。
Sx={(x1−Ax)+…+(xn−Ax)}÷n
Sy={(y1−Ay)+…+(yn−Ay)}÷n …(2)
ここで、分散Sxは、x軸方向の分散であり、分散Syは、y軸方向の分散である。
次いで、CPU101は、算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さいか否かを判定する(ステップS308)。ここで、算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さいと判定された場合、CPU101は、入力操作を、ムーブを含まない操作(タップ操作)であると判別する(ステップS309)。そして、CPU101は、本処理を終了する。
上記ステップS308において算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さくないと判定された場合、CPU101は、入力操作を、ムーブを含む操作(ドラック操作またはフリック操作)であると判別する(ステップS310)。そして、CPU101は、本処理を終了する。
このようにして、タッチダウンから所定時間Tmaxを経過する前にタッチアップが行われると、分散Sに基づいた入力操作の判別が行われ(ステップS308〜S310)、当該判別された入力操作に応じた処理が行われる。ここで、入力操作がムーブを含まない操作即ちタップ操作である場合、上記平均値Ax,Ayがタップ操作のタッチ位置とされ、当該タッチ位置に対応付けられている処理が実行される。また、入力操作がムーブを含む操作即ちドラッグ操作またはフリック操作である場合、メモリ103に記録されている各タッチ位置の座標情報に基づいて、ドラッグ操作またはフリック操作に割り当てられている処理に用いる移動方向、移動速度などが算出される。そして、上記移動方向、移動速度で、ドラッグ操作またはフリック操作に割り当てられている処理が行われる。
上記ステップS305においてタイマが計時する時間Tが所定時間Tmaxを経過したと判定された場合、CPU101は、入力操作を、ムーブを含む操作(ドラッグ操作またはフリック操作)であると判別する(ステップS311)。この判別に応答して、ムーブ含む操作によるタッチ位置の移動に逐次追従して処理が開始されるように、当該処理を行うアプリケーションに対して、現在のタッチ位置の座標情報が逐次渡される。そして、CPU101は、タッチパネル104からのタッチ状態信号に基づいて、タッチアップが行われた否かを判定する(ステップS312)。ここで、タッチアップが行われていないと判定された場合、CPU101は、上記ステップS311に戻る。上記ステップS312においてタッチアップが行われたと判定された場合、CPU101は、上記ムーブを含む操作が終了したと判断して、本処理を終了する。
このように、タッチダウンからタッチアップ前に所定時間Tmaxが経過すると、分散Sに基づいた入力操作の判別を行うことなく、入力操作が、ムーブを含む操作であると判別されることになる。そして、タッチダウンからタッチアップされるまでの各タッチ位置の座標情報に基づいた移動方向、移動速度で、ドラッグ操作またはフリック操作に割り当てられている処理が行われる。
ここで、本実施の形態による分散Sに基づいた入力操作の判別による効果について図4を参照しながら説明する。図4(a)はタッチダウンからの経過時間に応じたタッチ位置の変化に対して従来の判別方法を適用した場合の例を示す図である。図4(b)はタッチダウンからの経過時間に応じたタッチ位置の変化に対して第1の実施の形態の判別方法を適用した場合の一例を示す図である。
上述した従来の方法(特許文献2に記載の方法)は、図4(a)に示すように、最初のタッチ位置即ち始点P1を中心に幅dの領域を設定し、タッチ位置Pが設定された領域から外れた場合は、入力操作をドラッグ操作と判別する。
タップ操作の際には、例えば図4(a)に示すように、最初のタッチ位置P(始点P1)がユーザの意図する位置とずれ、タッチダウンからタッチアップまでの間に時間Tに応じてタッチ位置Pが始点P1から終点Pnまで移動して変化する場合がある。このタッチ位置Pの変化は、例えば曲線C1のように表わされる。また、曲線C2で表わされるように、タッチ位置Pが、ノイズなどの影響により移動して変化したようになる場合がある。
ここで、従来の方法の場合、図4(a)に示すように、最初のタッチ位置即ち始点P1を中心に幅dの領域R1(微小な領域)が設定される。しかしながら、設定された領域R1は微小な領域であるので、タッチ位置P(図4(a)の曲線C1またはC2)の一部が上記設定された領域から外れることがある。このようにタッチ位置Pの一部が上記設定された領域から外れると、タップ操作が、ムーブを含む操作例えばドラッグ操作と誤って判別されることになる。
これに対し、本実施の形態を適用すると、図4(b)に示すように、曲線C1またはC2(図4(a)の曲線C1,C2に同じ)で表わされるタッチ位置Pの平均値Aが算出される。そして、平均値Aに対するタッチ位置Pのばらつきの大きさが、分散Sと閾値Smaxで評価される。本例の場合、平均値Aに対するタッチ位置P(図4(b)の曲線C1またはC2)のばらつきの大きさが大きくなく(分散S<閾値Smax)、タッチ位置Pの多くが領域R2内に存在する。よって、タッチ位置Pの一部が領域R2の外にあっても、タッチ位置Pの多くが領域R2内に存在すれば、タッチ中にタッチ位置Pのばらつきが生じたタップ操作を、ムーブを含む操作例えばドラック操作と誤って判別することはない。
このように、本実施の形態によれば、従来の方法に比して、タッチ中にタッチ位置Pのばらつきが生じたタップ操作を、ムーブを含む操作例えばドラッグ操作であると誤判別することはない。また、タップ操作によるタッチ位置Pを平均値Aの位置とすることにより、最初のタッチ位置P1(始点)がユーザの意図した位置とずれたとしても、ユーザが意図するタッチ位置に非常に近いタッチ位置を示す座標情報を取得することができる。即ち、ユーザが意図した操作を正確に入力することができる。
本実施の形態においては、上記(2)式を用いて、分散Sx,Syのそれぞれが算出されている。これに代えて、平均値Ax,Ayからの距離を計算し、当該距離を用いて分散を算出するようにしてもよい。
また、ドラッグ操作による移動方向(ムーブの方向)が例えば一方の軸方向に限定されている場合、当該一方の軸方向に対する平均値および分散を求めればよいことになる。例えば、図2(a)に示すユーザインタフェース画面の場合、サムネイル画像の一覧表示領域のスクロールが、x軸方向のみに限定されているので、x軸方向に対する平均値および分散が算出されることになる。
また、ムーブを含む操作として、ドラッグ操作とフリック操作があるが、ドラッグ操作とフリック操作の判別は、例えば次のような方法により行うことが可能である。具体的には、まず、タッチ位置の座標情報に基づいて単位時間当たりのタッチ位置の変化量が求められる。そして、当該単位時間当たりのタッチ位置の変化量が予め設定されている閾値より小さい場合は、入力操作がドラッグ操作と、単位時間当たりのタッチ位置の変化量が閾値以上の場合は、入力操作がフリック操作と判別される。
また、分散Sx,Syに対する閾値Sxmax,Symaxは、例えば予め設定されている固定値でもよいが、ユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定するようにしてもよい。
ユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定する方法について図5を参照しながら説明する。図5(a)はユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定するためのタップ操作画面の一例を示す図である。図5(b)はユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定するためのフリック操作画面の一例を示す図である。
ユーザが入力操作を行う際の癖を考慮した閾値Sxmax,Symaxを設定する場合、CPU101の制御により、ディスプレイ110には、例えば図5(a)に示すタップ操作画面と、図5(b)に示すフリック操作画面がそれぞれ表示される。上記タップ操作画面は、タップ操作を行う複数のタップ操作位置(図5(a)の「+」で示す位置)を表示する画面である。上記フリック操作画面は、フリック操作を行う複数のフリック操作位置および操作方向(図5(b)の矢印の始点およびそれが示す方向)を表示する画面である。
ユーザは、上記タップ操作画面に表示されている各タップ操作位置に対してタップ操作を試行的に行う。また、ユーザは、上記フリック操作画面に表示されている各フリック操作位置に対してフリック操作を試行的に行う。CPU101は、ユーザがタップ操作をしたときのタッチダウンをした瞬間のタッチ位置の分散と、フリック操作したときのタッチダウンをした瞬間のタッチ位置の分散とを算出する。そして、CPU101は、算出された各分散に基づいて、タップ操作とフリック操作をそれぞれ判別可能にするような分散を求め、当該分散を閾値Sxmax,Symaxとして設定する。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図6〜図8を参照しながら説明する。図6は本発明の第2の実施の形態に係る入力装置が表示するユーザインタフェース画面の一例を示す図である。図7および図8は本発明の第2の実施の形態に係る入力装置の入力操作判別処理の手順を示すフローチャートである。ここで、本実施の形態は、上記第1の実施の形態と同じ構成を有するので、その説明は省略する。
本実施の形態は、ユーザインタフェース画面に、ムーブを含む操作(ドラッグ操作またはフリック操作)が無効な領域と、ムーブを含まない操作(タップ操作)が無効な領域を設け、領域に応じて入力操作判別処理を行う。この点で、本実施の形態は、上記第1の実施の形態とは異なる。
具体的には、図6に示すように、ユーザインタフェース画面には、ムーブを含む操作(ドラッグ操作またはフリック操作)が無効な領域601と、ムーブを含まない操作(タップ操作)が無効な領域602が設けられている。ムーブを含む操作が無効な領域601は、ユーザインタフェース画面の上部と下部の領域で、ドラッグ操作、フリック操作などを受け付ける必要がない操作ボタン(「MENU」、「EDIT」など)が配置されている領域である。
これに対し、ムーブを含まない操作が無効な領域602は、ユーザインタフェース画面の中央部の画像表示領域に表示されている各サムネイル画像603の間の隙間で、タップ操作を受け付ける必要がない領域である。
ユーザが、ムーブを含む操作が無効な領域601に対してタッチダウンをした場合、CPU101は、上記タッチダウンを、ムーブを含まない操作即ちタップ操作のタッチダウンと判別する。これに対し、ユーザが、ムーブを含まない操作が無効な領域602に対してタッチダウンをした場合、CPU101は、ムーブを含む操作即ちドラッグ操作またはフリック操作のタッチダウンと判別する。
このようなユーザインタフェース画面に対して、CPU101は、図7および図8に示すフローチャートに従って、入力操作判別処理を行う。図7および図8に示すフローチャートに従う入力処理判別処理の手順は、CPU101により、プログラム格納部102に格納されているプログラムに従い実行されるものである。
CPU101は、図7に示すように、タッチパネル104に対してタッチダウンが行われるのを待つ(ステップS701)。ここで、タッチダウンが行われると、CPU101は、タッチ位置が、ムーブを含む操作(ドラッグ操作またはフリック操作)が無効な領域の位置であるか否かを判定する(ステップS702)。
上記ステップS702において、タッチ位置が、ムーブを含む操作が無効な領域の位置でないと判定された場合、CPU101は、タッチ位置が、ムーブを含まない操作(タップ操作)が無効な領域の位置であるか否かを判定する(ステップS703)。ここで、タッチ位置が、ムーブを含まない操作が無効な領域の位置でないと判定された場合、CPU101は、タイマの時間をクリアする(ステップS704)。
次いで、CPU101は、タイマを起動する(ステップS705)。そして、CPU101は、タイマが計時する時間T(タッチダウンから現在までの経過時間)における、タッチパネル104からのタッチ位置を示す座標情報をメモリ103に記録する(ステップS706)。
次いで、CPU101は、タイマが計時する時間Tが所定時間Tmaxを経過したか否かを判定する(ステップS707)。タイマが計時する時間Tが所定時間Tmaxを経過していないと判定された場合、CPU101は、タッチアップが行われた否かを判定する(ステップS708)。タッチアップが行われていないと判定された場合、CPU101は、上記ステップS706に戻る。
上記ステップS708においてタッチアップが行われたと判定された場合、CPU101は、メモリ103に記録されているタッチ位置の座標情報に基づいて、タッチ位置の分散Sx,Syを算出する(ステップS709)。
次いで、CPU101は、算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さいか否かを判定する(ステップS710)。ここで、算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さいと判定された場合、CPU101は、入力操作を、ムーブを含まない操作(タップ操作)であると判別する(ステップS711)。そして、CPU101は、本処理を終了する。
上記ステップS710において算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さくないと判定された場合、CPU101は、入力操作を、ムーブを含む操作(ドラッグ操作またはフリック操作)であると判別する(ステップS712)。そして、CPU101は、本処理を終了する。
上記ステップS707においてタイマが計時する時間Tが所定時間Tmaxを経過したと判定された場合、CPU101は、図8に示すように、入力操作を、ムーブを含む操作(ドラッグ操作またはフリック操作)であると判別する(ステップS713)。この判別に応答して、ムーブ含む操作によるタッチ位置の移動に逐次追従して処理が開始されるように、当該処理を行うアプリケーションに対して、現在のタッチ位置の座標情報が逐次渡される。そして、CPU101は、タッチアップが行われた否かを判定する(ステップS714)。ここで、タッチアップが行われていないと判定された場合、CPU101は、上記ステップS713に戻る。上記ステップS714においてタッチアップが行われたと判定された場合、CPU101は、ムーブを含む操作が終了したと判断して、本処理を終了する。
上記ステップS703においてタッチ位置が、ムーブを含まない操作が無効な領域の位置であると判定された場合、図8に示すように、CPU101は、入力操作を、ムーブを含む操作であると判別する(ステップS713)。そして、CPU101は、タッチアップが行われた否かを判定する(ステップS714)。ここで、タッチアップが行われていないと判定された場合、CPU101は、上記ステップS713に戻る。上記ステップS714においてタッチアップが行われたと判定された場合、CPU101は、ムーブを含む操作が終了したと判断して、本処理を終了する。
上記ステップS702においてタッチ位置が、ムーブを含む操作が無効な領域の位置であると判定された場合、図8に示すように、CPU101は、入力操作を、ムーブを含まない操作(タップ操作)であると判別する(ステップS715)。ここでは、入力操作によるタッチ位置が、ムーブを含まない操作(タップ操作)のタッチ位置であるとされる。そして、CPU101は、タッチアップが行われた否かを判定する(ステップS716)。ここで、タッチアップが行われていないと判定された場合、CPU101は、上記ステップS715に戻る。上記ステップS716においてタッチアップが行われたと判定された場合、CPU101は、ムーブを含まない操作が終了したと判断して、本処理を終了する。
このように、ムーブを含まない操作(タップ操作)が無効な領域と、ムーブを含む操作(ドラッグ操作またはフリック操作)が無効な領域を設けることにより、入力操作の誤判別の発生を防止することができる。また、ムーブを含まない操作とムーブを含む操作が有効な領域に対してのみ、それぞれの操作を判別すればよく、その判別処理(分散Sの算出など)に掛るCPU101の負荷を少なくすることができる。
また、さらに、ドラッグ操作が無効な領域、フリック操作が無効な領域を設けるようにしてもよい。
(第3の実施の形態)
次に、本発明の第3の実施の形態について図9を参照しながら説明する。図9は本発明の第3の実施の形態に係る入力装置の入力操作判別処理の手順を示すフローチャートである。ここで、本実施の形態は、上記第1の実施の形態と同じ構成を有するので、その説明は省略する。
本実施の形態は、ムーブを含む操作(ドラッグ操作またはフリック操作)において、ムーブの方向がタッチパネル104のx軸方向またはy軸方向の一方のみに限定されている場合の入力操作判別処理を行う。この点で、本実施の形態は、上記第1の実施の形態とは異なる。
例えば図2(a)に示すユーザインタフェース画面においては、ムーブを含む操作(ドラッグ操作またはフリック操作)により、サムネイル画像202の一覧表示領域をx軸方向にスクロールさせることはできるが、y軸方向へスクロールはできない。よって、y軸方向へのムーブは無効であり、ユーザがy軸方向へのムーブを行った場合、CPU101は、y軸方向へのムーブを無視する。
このムーブを含む操作において、ムーブの方向がx軸方向のみに限定されている場合の入力操作判別処理について図9を参照しながら説明する。図9はムーブの方向がx軸方向のみに限定されている場合の入力操作判別処理の手順を示すフローチャートである。図9のフローチャートに示す手順は、CPU101により、プログラム格納部102に格納されているプログラムに従い実行される。
CPU101は、図9に示すように、タッチダウンが行われるのを待つ(ステップS901)。ここで、タッチダウンが行われると、CPU101は、タイマの時間をクリアする(ステップS902)。
次いで、CPU101は、タイマを起動する(ステップS903)。そして、CPU101は、タッチ位置の座標情報をメモリ103に記録する(ステップS904)。
次いで、CPU101は、タイマが計時する時間Tが所定時間Tmaxを経過したか否かを判定する(ステップS905)。ここで、タイマが計時する時間Tが所定時間Tmaxを経過していないと判定された場合、CPU101は、タッチアップが行われた否かを判定する(ステップS906)。ここで、タッチアップが行われていないと判定された場合、CPU101は、ステップS904に戻る。
上記ステップS906においてタッチアップが行われたと判定された場合、CPU101は、メモリ103に記録されているタッチ位置の座標情報に基づいて、タッチ位置の分散Sx,Syを算出する(ステップS907)。
次いで、CPU101は、算出した分散Syが閾値Symaxより小さいか否かを判定する(ステップS908)。分散Syが閾値Symaxより小さいと判定された場合、CPU101は、算出した分散Sxが閾値Sxmaxより小さいか否かを判定する(ステップS909)。分散Sxが閾値Sxmaxより小さいと判定された場合、CPU101は、入力操作を、ムーブを含まない操作(タップ操作)であると判別する(ステップS910)。そして、CPU101は、本処理を終了する。
上記ステップS909において分散Sxが閾値Sxmaxより小さくないと判定された場合、CPU101は、入力操作を、ムーブを含む操作(ドラッグ操作またはフリック操作)であると判別する(ステップS911)。そして、CPU101は、本処理を終了する。
上記ステップS908において分散Syが閾値Symaxより小さくない(分散Syが閾値Symax以上)と判定された場合、CPU101は、許容されないy軸方向へのムーブが行われているので、当該入力操作を無効として、本処理を終了する。
上記ステップS905においてタイマが計時する時間Tが所定時間Tmaxを経過したと判定された場合、CPU101は、入力操作を、ムーブを含む操作(ドラッグ操作またはフリック操作)であると判別する(ステップS912)。そして、CPU101は、タッチアップが行われた否かを判定する(ステップS913)。ここで、タッチアップが行われていないと判定された場合、CPU101は、上記ステップS912に戻る。上記ステップS913においてタッチアップが行われたと判定された場合、CPU101は、ムーブを含む操作が終了したと判断して、本処理を終了する。
このように本実施の形態によれば、ユーザがx軸方向へのムーブのみが可能な領域において、分散yが閾値Symax以上になるようなy軸方向へのムーブをした場合に、当該y軸方向へのムーブを含む操作が無視される。その結果、x軸方向へのムーブのみが可能な領域におけるy軸方向へのムーブが行われたことに起因する、入力操作の誤判別の発生をなくすことができ、操作性を改善することができる。
また、所定時間Tmaxを超えてタッチオン状態が継続する場合、入力操作が、ムーブを含む操作と判別されるので、タッチ位置がx,y軸方向のそれぞれにふれるようなムーブが行われたとしても、入力操作に対する判別を正確に行うことができる。
本実施の形態においては、y軸方向へのムーブが無効な場合について説明したが、x軸方向のムーブが無効な場合も、同様の処理で入力操作に対する判別を行うことができる。この場合、ステップS908における分散Syと閾値Symaxの比較を、分散Sxと閾値Sxmaxの比較に代えればよい。
以上、本発明をその好適な実施の形態に基づいて詳述してきたが、本発明はこれら特定の実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。また、上述の実施の形態の一部を適宜組み合わせてもよい。
なお、CPU101の制御は、1つのハードウェアにより行うようにしてもよいし、複数のハードウェアが処理を分担することにより、行うようにしてもよい。また、上述した各実施の形態においては、本発明を情報処理装置(PC)に適用した場合を例にして説明したが、これに限定されることない。即ち、本発明は、タッチパネルを有する入力装置を用いるPDA、デジタルカメラ、デジタルビデオカメラなどの各種機器に適用可能である。さらに、携帯電話端末、携帯型の画像ビューワ、プリンタ装置に設けられた印刷画像選択および確認のためのディスプレイ、デジタルフォトフレームなどの機器にも、本発明は適用可能である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 情報処理装置
101 CPU
102 プログラム格納部
103 メモリ
104 タッチパネル
105 表示制御部
110 ディスプレイ

Claims (9)

  1. ユーザにより入力操作が行われるタッチパネルと、
    前記タッチパネルに対する前記入力操作によるタッチダウンからタッチアップまでの期間中のタッチ位置を時系列に取得する取得手段と、
    前記タッチダウンの際のタッチ位置を含む、前記取得手段で取得された各タッチ位置に基づいてタッチ位置の分散を算出する算出手段と、
    前記算出手段により算出された分散に基づいて、前記入力操作がムーブを含まない操作であるかムーブを含む操作であるかを判別する判別手段とを有し、
    前記判別手段は、前記算出された分散が閾値より小さい場合、前記入力操作が前記ムーブを含まない操作であると判別し、前記算出された分散が前記閾値より小さくない場合、前記入力操作が前記ムーブを含む操作であると判別することを特徴とする入力装置。
  2. 前記タッチダウンから所定時間が経過する前に前記タッチアップが行われると、前記判別手段は、前記算出された分散に基づいた前記判別を行うことを特徴とする請求項1に記載の入力装置。
  3. 前記タッチダウンから前記タッチアップが行われる前に所定時間が経過すると、前記判別手段は、前記算出された分散に基づいた前記判別を行うことなく、前記入力操作が前記ムーブを含む操作であると判別することを特徴とする請求項1又は2に記載の入力装置
  4. ユーザが試行的に異なる入力操作によるタッチダウンをそれぞれした際のタッチ位置の分散に基づいて閾値を算出し、該算出された閾値を前記閾値として設定する手段をさらに有することを特徴とする請求項1乃至3の何れか1項に記載の入力装置。
  5. 前記タッチパネルの無効な入力操作が対応付けられている所定の領域に対して、入力操作が行われると、該入力操作を前記無効な入力操作とは異なる他の入力操作であると判別する第2の判別手段をさらに有することを特徴とする請求項1に記載の入力装置。
  6. 前記算出手段は、前記タッチパネルの入力操作によるムーブが可能な方向が決められている領域に対して前記入力操作によるタッチダウンが行われると、前記取得手段で取得された各タッチ位置に基づいて、前記ムーブが可能な方向とは異なる方向へのタッチ位置の分散を算出し、
    前記判別手段は、前記ムーブが可能な方向とは異なる方向へのタッチ位置の分散が該分散に対して設定されている閾値以上の場合、前記入力操作を無効とすることを特徴とする請求項1乃至3の何れか1項に記載の入力装置。
  7. ユーザにより入力操作が行われるタッチパネルを有する入力装置の制御方法であって、前記タッチパネルに対する前記入力操作によるタッチダウンからタッチアップまでの期間中のタッチ位置を時系列に取得する取得工程と、
    前記タッチダウンの際のタッチ位置を含む、前記取得工程で取得された各タッチ位置に基づいてタッチ位置の分散を算出する算出工程と、
    前記算出された分散が閾値より小さい場合、前記入力操作を、ムーブを含まない操作であると判別し、
    前記算出された分散が前記閾値より小さくない場合、前記入力操作を、前記ムーブを含む操作であると判別する判別工程と
    を有することを特徴とする入力装置の制御方法。
  8. コンピュータを、請求項1乃至6の何れか1項に記載された入力装置の各手段として機能させるためのプログラム。
  9. コンピュータを、請求項1乃至6の何れか1項に記載された入力装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2009294624A 2009-12-25 2009-12-25 入力装置、入力装置の制御方法、プログラムおよび記憶媒体 Active JP5523090B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009294624A JP5523090B2 (ja) 2009-12-25 2009-12-25 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
US12/974,503 US8553000B2 (en) 2009-12-25 2010-12-21 Input apparatus that accurately determines input operation, control method for input apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009294624A JP5523090B2 (ja) 2009-12-25 2009-12-25 入力装置、入力装置の制御方法、プログラムおよび記憶媒体

Publications (3)

Publication Number Publication Date
JP2011134212A JP2011134212A (ja) 2011-07-07
JP2011134212A5 JP2011134212A5 (ja) 2013-02-14
JP5523090B2 true JP5523090B2 (ja) 2014-06-18

Family

ID=44186885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009294624A Active JP5523090B2 (ja) 2009-12-25 2009-12-25 入力装置、入力装置の制御方法、プログラムおよび記憶媒体

Country Status (2)

Country Link
US (1) US8553000B2 (ja)
JP (1) JP5523090B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507454B1 (en) * 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
JP6028320B2 (ja) * 2011-10-12 2016-11-16 富士ゼロックス株式会社 接触検出装置、記録表示装置、及びプログラム
CA2763316C (en) * 2012-01-06 2014-09-30 Microsoft Corporation Enabling performant cascading operations
JP5991509B2 (ja) * 2012-03-02 2016-09-14 コニカミノルタ株式会社 情報処理装置、プログラム
JP5945926B2 (ja) * 2012-03-26 2016-07-05 コニカミノルタ株式会社 操作表示装置
JP5958059B2 (ja) * 2012-05-09 2016-07-27 コニカミノルタ株式会社 フリック操作を受け付ける装置、フリック操作受付方法およびフリック操作受付プログラム
JP5994412B2 (ja) * 2012-06-13 2016-09-21 富士ゼロックス株式会社 画像表示装置、画像制御装置、画像形成装置およびプログラム
JP2014026365A (ja) * 2012-07-25 2014-02-06 Brother Ind Ltd パネル制御装置、パネル制御方法、及びパネル制御プログラム
JP5928245B2 (ja) 2012-08-23 2016-06-01 カシオ計算機株式会社 データ処理装置及びプログラム
JP6024319B2 (ja) * 2012-09-11 2016-11-16 コニカミノルタ株式会社 制御装置、画像形成装置、制御プログラム、およびプログラム
JP6176907B2 (ja) * 2012-09-13 2017-08-09 キヤノン株式会社 情報処理装置およびその制御方法、プログラム
JP5966869B2 (ja) * 2012-11-05 2016-08-10 富士通株式会社 接触状態検出装置、方法及びプログラム
TWI489344B (zh) * 2013-02-25 2015-06-21 Pixart Imaging Inc 觸控方法以及觸控裝置
JP5862587B2 (ja) 2013-03-25 2016-02-16 コニカミノルタ株式会社 ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム
US9805114B2 (en) * 2013-09-30 2017-10-31 Microsoft Technology Licensing, Llc Composable selection model through reusable component
JP6062351B2 (ja) * 2013-11-28 2017-01-18 京セラ株式会社 電子機器
JP5840256B2 (ja) * 2014-04-25 2016-01-06 キヤノン株式会社 電子機器およびその制御方法、プログラム並びに記憶媒体
JP6399834B2 (ja) * 2014-07-10 2018-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6478502B2 (ja) * 2014-07-11 2019-03-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10048862B2 (en) * 2014-09-08 2018-08-14 Lenovo (Singapore) Pte. Ltd. Managing an on-screen keyboard
JP6410537B2 (ja) 2014-09-16 2018-10-24 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
CN106354400B (zh) * 2015-07-17 2019-08-16 华为终端有限公司 一种识别触摸操作的方法及装置
JP6179785B2 (ja) * 2016-01-04 2017-08-16 コニカミノルタ株式会社 操作表示装置 プログラム
JP6323960B2 (ja) * 2016-08-02 2018-05-16 本田技研工業株式会社 入力装置
JP2018092638A (ja) * 2018-01-09 2018-06-14 パイオニア株式会社 タッチ操作位置判定装置
JP7212531B2 (ja) * 2019-01-28 2023-01-25 株式会社東海理化電機製作所 動作判別装置、コンピュータプログラム、および記憶媒体
JP2020074073A (ja) * 2019-10-01 2020-05-14 パイオニア株式会社 タッチ操作位置判定装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0473448A (ja) 1990-07-11 1992-03-09 Ricoh Co Ltd 遊星ローラ式動力伝達装置
US5583543A (en) * 1992-11-05 1996-12-10 Sharp Kabushiki Kaisha Pen input processing apparatus
JP2994888B2 (ja) 1992-11-25 1999-12-27 シャープ株式会社 入力処理装置および入力処理方法
JPH0944308A (ja) * 1995-07-31 1997-02-14 Zanavy Informatics:Kk タッチパネル制御装置
JP3990799B2 (ja) * 1998-03-12 2007-10-17 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータ可読メモリ
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP2004355426A (ja) * 2003-05-30 2004-12-16 Hitachi Ltd タッチパネル操作性向上ソフトウェア及び端末
US7180506B2 (en) * 2004-02-12 2007-02-20 Sentelic Corporation Method for identifying a movement of single tap on a touch device
US7184031B2 (en) * 2004-07-06 2007-02-27 Sentelic Corporation Method and controller for identifying a drag gesture
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
JP2009048245A (ja) * 2007-08-14 2009-03-05 Konami Digital Entertainment:Kk 入力受付装置、領域制御方法、および、プログラム
WO2009119716A1 (ja) * 2008-03-26 2009-10-01 日本電気株式会社 情報処理システム、情報処理装置、方法及びプログラム
TWI366776B (en) * 2008-04-21 2012-06-21 Htc Corp Operating method and system and stroage device using the same

Also Published As

Publication number Publication date
US20110157048A1 (en) 2011-06-30
JP2011134212A (ja) 2011-07-07
US8553000B2 (en) 2013-10-08

Similar Documents

Publication Publication Date Title
JP5523090B2 (ja) 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
US10218861B2 (en) Image forming apparatus, non-transitory storage medium storing program to be executed by the same, method of controlling the same, and terminal device
JP5506375B2 (ja) 情報処理装置及びその制御方法
JP5906097B2 (ja) 電子機器、その制御方法、プログラム、及び記録媒体
JP3977684B2 (ja) デジタルスチルカメラ
JP6132644B2 (ja) 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
JP5962465B2 (ja) 画像処理プログラム、画像処理装置、および画像処理方法
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
JP6647103B2 (ja) 表示制御装置およびその制御方法
JP5893456B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP2015035092A (ja) 表示制御装置及び表示制御装置の制御方法
JP2007172303A (ja) 情報入力システム
JP2012084063A (ja) 表示制御装置、表示制御方法、およびプログラム
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP2746922A2 (en) Touch control method and handheld device utilizing the same
JP5911321B2 (ja) 表示制御装置および表示制御装置の制御方法
JP6961451B2 (ja) 電子機器、その制御方法およびプログラム
JP6034281B2 (ja) オブジェクト選択方法、装置及びコンピュータ・プログラム
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
JP5765364B2 (ja) 画像処理装置、プレビュー画像を表示する方法、およびプログラム
JP6762723B2 (ja) 記録装置、記録装置の制御方法およびプログラム
JP6971573B2 (ja) 電子機器、その制御方法およびプログラム
JP2015102946A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP6210664B2 (ja) 情報処理装置とその制御方法、及びプログラムと記憶媒体

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R151 Written notification of patent or utility model registration

Ref document number: 5523090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151