JP6433621B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP6433621B2
JP6433621B2 JP2018514079A JP2018514079A JP6433621B2 JP 6433621 B2 JP6433621 B2 JP 6433621B2 JP 2018514079 A JP2018514079 A JP 2018514079A JP 2018514079 A JP2018514079 A JP 2018514079A JP 6433621 B2 JP6433621 B2 JP 6433621B2
Authority
JP
Japan
Prior art keywords
movement
pointer
gesture
parameter
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018514079A
Other languages
English (en)
Other versions
JPWO2017187629A1 (ja
Inventor
堀 淳志
淳志 堀
佐々木 雄一
雄一 佐々木
博康 根岸
博康 根岸
森 健太郎
健太郎 森
鳥居 晃
晃 鳥居
前川 拓也
拓也 前川
萩原 利幸
利幸 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017187629A1 publication Critical patent/JPWO2017187629A1/ja
Application granted granted Critical
Publication of JP6433621B2 publication Critical patent/JP6433621B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タッチパネルを備える情処理装置に関する。
特許文献1には、いわゆるブラインド入力が可能な情報入力装置が開示されている。特許文献1の技術によれば、ユーザは、情報入力装置の向きを気にすることなく、情報入力装置の操作領域(タッチパネル)の操作キーの表示を見ないで、例えば情報入力装置をポケットの中に入れたままで入力を行うことができる。
特開2009−140210号公報
特許文献1の技術では、タッチパネル上でユーザが指をスライドさせた方向及び向きに対応させて情報入力装置がタッチパネルに操作キーを配置する。そして、特許文献1の技術では、ユーザが操作キーのレイアウトを覚えている場合に、ユーザが操作キーを見ることなく操作キーを操作して情報入力装置への入力を行う。
特許文献1の技術では、ユーザは、タッチパネルに操作キーを配置するためのスライド操作を行い、スライド操作によりタッチパネルに操作キーが配置された後に操作キーを操作する必要がある。
スマートフォンに代表される情報機器は、無線通信により、テレビの音量の制御、テレビの画面輝度の制御、エアコンディショナーの風量の制御、照明の照度の制御等を行うことができる。
ユーザが特許文献1の技術を用いてこれらの制御を行おうとすると、ユーザは、タッチパネルに操作キーを配置するためのスライド操作を行い、制御対象のパラメータ(例えばテレビの音量)を指定するための操作を行い、当該制御対象のパラメータの制御量(増加量又は減少量)を指定するための操作を行う必要がある。
このように、特許文献1の情報入力装置では、ユーザは、1つの制御を行うまでに複数のタッチパネル操作を行わなければならず煩雑であるという課題がある。
本発明は、このような課題を解決することを主な目的の一つとしており、タッチパネル操作における利便性を向上させることを主な目的とする。
本発明に係る情報処理装置は、
タッチパネルを備える情報処理装置であって、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出部と、
前記抽出部により抽出された前記ポインタの移動軌跡を解析して、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する識別部とを有する。
本発明では、ポインタがタッチパネルに接してからポインタがタッチパネルから離れるまでの間のポインタの移動軌跡を解析して、制御対象のパラメータである制御対象パラメータと制御対象パラメータの制御量とを識別する。このため、本発明によれば、ユーザは1つのタッチパネル操作で制御対象パラメータと制御量とを指定することができ、タッチパネル操作における利便性を向上させることができる。
実施の形態1に係るポータブル機器及び制御対象機器のハードウェア構成例を示す図。 実施の形態1に係るポータブル機器の機能構成例を示す図。 実施の形態1に係るジェスチャ操作の例を示す図。 実施の形態1に係るジェスチャ操作の例を示す図。 実施の形態2に係るジェスチャ操作の例を示す図。 実施の形態3に係る回転ジェスチャ操作と円の中心とを示す図。 実施の形態6に係るジェスチャ操作の例を示す図。 実施の形態6に係るジェスチャ操作の例を示す図。 実施の形態6に係るジェスチャ操作の例を示す図。 実施の形態7に係るジェスチャ操作の例を示す図。 実施の形態7に係るジェスチャ操作の例を示す図。 実施の形態8に係るジェスチャ操作の例を示す図。 実施の形態8に係るジェスチャ操作の例を示す図。 実施の形態8に係るジェスチャ操作の例を示す図。 実施の形態9に係るジェスチャ操作の例を示す図。 実施の形態9に係るジェスチャ操作の例を示す図。 実施の形態10に係るジェスチャ操作の例を示す図。 実施の形態10に係るジェスチャ操作の例を示す図。 実施の形態4に係るいびつな円の例を示す図。 実施の形態11に係る重力センサーの情報を用いて垂直方向を決定する例を示す図。 実施の形態1に係るポータブル機器の動作例を示すフローチャート図。
実施の形態1.
***構成の説明***
図1は、本実施の形態に係るポータブル機器11及び制御対象機器10のハードウェア構成例を示す。
ポータブル機器11は、ユーザからの指示に従って、制御対象機器10を制御する。
ポータブル機器11は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ等である。
ポータブル機器11は、情報処理装置の例である。また、ポータブル機器11により行われる動作は、情報処理方法の例である。
制御対象機器10は、ポータブル機器11により制御される機器である。
制御対象機器10は、テレビ、エアコンディショナー、照明システム等である。
ポータブル機器11は、通信インタフェース110、プロセッサ111、FPD(Flat Panel Display)115、ROM(Read Only Memory)116、RAM(Random Access Memory)117及びセンサー部112を備えるコンピュータである。
ROM116は、図2に示す通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150の機能を実現するプログラムを記憶している。このプログラムは、RAM117にロードされ、プロセッサ111が実行する。図1は、プロセッサ111が通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150の機能を実現するプログラムを実行している状態を模式的に表している。なお、このプログラムは、情報処理プログラムの例である。
また、ROM116は、図2に示す割り当て情報記憶部153及び回転ジェスチャモデル情報記憶部155を実現する。
通信インタフェース110は、制御対象機器10と無線通信を行う回路である。
FPD115は、ユーザに提示する情報を表示する。
センサー部112には、重力センサー113、タッチセンサー114及びタッチパネル118が含まれる。
制御対象機器10は、通信インタフェース101、プロセッサ102及び出力装置103を備える。
通信インタフェース101は、ポータブル機器11と無線通信を行う回路である。
プロセッサ102は、通信インタフェース101及び出力装置103を制御する。
出力装置103は、制御対象機器10ごとに異なる。制御対象機器10がテレビであれば、出力装置103はスピーカー及びFPDである。制御対象機器10がエアコンディショナーであれば、送風機構である。制御対象機器10が照明システムであれば、出力装置103は照明機器である。
図2は、本実施の形態に係るポータブル機器11の機能構成例を示す。
図2に示すように、ポータブル機器11は、通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150、割り当て情報記憶部153及び回転ジェスチャモデル情報記憶部155で構成される。
通信処理部140は、図1に示す通信インタフェース114を用いて制御対象機器11と通信する。より具体的には、後述するジェスチャ判定部143により生成された制御コマンドを制御対象機器10に送信する。
センサー部146には、方向検出部147とタッチ検出部148が含まれる。
方向検出部147は、ポータブル機器11の方向を検出する。方向検出部147の詳細は実施の形態11で説明する。
タッチ検出部148は、ポインタによってタッチされたタッチ座標を取得する。ポインタは、ユーザの指又はユーザが用いるタッチペンである。また、タッチ座標は、ポインタがタッチしたタッチパネル118上の座標である。
ジェスチャ検出部141には、タッチ座標取得部142とジェスチャ判定部143が含まれる。
タッチ座標取得部142は、センサー部146からタッチ座標を取得する。
ジャスチャ判定部143は、タッチ座標取得部142が取得したタッチ座標に基づき、ユーザが行ったジェスチャを識別する。つまり、ジェスチャ判定部143は、タッチ座標を連続して取得することで、ポインタがタッチパネル118に接してからポインタがタッチパネル118から離れるまでの間のポインタの移動軌跡を抽出する。そして、ジェスチャ判定部143は、抽出したポインタの移動軌跡を解析して、ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータと制御対象パラメータの制御量とを識別する。
制御対象パラメータとは、制御対象機器10を制御するためのパラメータである。例えば、制御対象機器10がテレビであれば、制御対象パラメータは、音量、画面輝度、画面のコントラスト、メニュー項目、タイマー設定時刻等である。また、制御対象機器10がエアコンディショナーであれば、制御対象パラメータは、設定温度、設定湿度、風量、風向等である。また、制御対象機器10が照明システムであれば、制御対象パラメータは、照度等である。
後述するように、ポインタがタッチパネル118に接してからポインタがタッチパネル118から離れるまでの間に、ユーザは連続して2つのジェスチャを行う。1つは制御対象パラメータを指定するジェスチャ(以下、パラメータ指定ジェスチャという)であり、もう1つは制御量を指定するジェスチャ(以下、制御量指定ジェスチャという)である。ジェスチャ判定部143は、抽出したポインタの移動軌跡から、制御対象パラメータを指定する移動軌跡(つまり、パラメータ指定ジェスチャに対応する移動軌跡)をパラメータ指定移動軌跡として抽出する。また、ジェスチャ判定部143は、抽出したポインタの移動軌跡から、制御量を指定する移動軌跡(つまり、制御量指定ジェスチャに対応する移動軌跡)を制御量指定移動軌跡として抽出する。そして、ジェスチャ判定部143は、抽出したパラメータ指定移動軌跡を解析して制御対象パラメータを識別し、抽出した制御量指定移動軌跡を解析して制御量を識別する。
また、ジェスチャ判定部143は、識別した制御対象パラメータ及び制御量を制御対象機器10に通知するための制御コマンドを生成する。そして、ジェスチャ判定部143は、生成した制御コマンドを通信処理部140を介して制御対象機器10に送信する。
ジェスチャ判定部143は、抽出部及び識別部の例である。また、ジェスチャ判定部143により行われる動作は、抽出処理及び識別処理の例である。
表示制御部150はGUI(Graphical User Interface)表示等を制御する。
割り当て情報記憶部153は、割り当て情報を記憶する。
割り当て情報には、複数の移動軌跡のパターンが記述され、移動軌跡のパターンごとに、制御対象パラメータ又は制御量が定義されている。
ジェスチャ判定部143は、割り当て情報を参照することで、抽出した移動軌跡に対応する制御対象パラメータ又は制御量を識別する。
回転ジェスチャモデル情報記憶部155は、回転ジェスチャモデル情報を記憶する。回転ジェスチャモデル情報の詳細は実施の形態4で説明する。
***動作の説明***
先ず、本実施の形態に係るポータブル機器11の動作の概要を説明する。
本実施の形態では、ユーザは、制御対象機器10を制御する際に、タッチパネル118に図3及び図4に示すジェスチャを行う。
図3は、パラメータ1の値を増加するためのジェスチャと、パラメータ1の値を減少するためのジェスチャと、パラメータ2の値を増加するためのジェスチャと、パラメータ2の値を減少するためのジェスチャとを示す。
図4は、パラメータ3の値を増加するためのジェスチャと、パラメータ3の値を減少するためのジェスチャと、パラメータ4の値を増加するためのジェスチャと、パラメータ4の値を減少するためのジェスチャとを示す。
図3及び図4に示すジェスチャには、直線移動のジェスチャ(スライドジェスチャともいう)と円移動のジェスチャ(回転ジェスチャともいう)が含まれる。直線移動のジェスチャは、パラメータ指定ジェスチャであり、円移動のジェスチャは制御量指定ジェスチャである。
パラメータ1を指定するパラメータ指定ジェスチャは、「左から右へ移動する」スライドジェスチャである。パラメータ2を指定するパラメータ指定ジェスチャは、「上から下へ移動する」スライドジェスチャである。パラメータ3を指定するパラメータ指定ジェスチャは、「右から左へ移動する」スライドジェスチャである。パラメータ4を指定するパラメータ指定ジェスチャは、「下から上へ移動する」スライドジェスチャである。
また、パラメータの値を増加させる制御量指定ジェスチャは時計回りの回転ジェスチャである。また、パラメータの値を減少させる制御量指定ジェスチャは反時計回りの回転ジェスチャである。増加量又は減少量はポインタの周回数で決定される。ジェスチャ判定部143は、円移動の移動軌跡でのポインタの周回方向と周回数とを解析して制御量を識別する。例えば、ユーザが時計回りの回転ジェスチャを2回行った場合は、ジェスチャ判定部143は、該当するパラメータの値を2段階増加させることを識別する。一方、ユーザが反時計回りの回転ジェスチャを2回行った場合は、ジェスチャ判定部143は、パラメータの値を2段階減少させることを識別する。
ユーザは、パラメータ指定ジェスチャと制御量指定ジェスチャを1つのタッチパネル操作で行う。つまり、ユーザは、ポインタをタッチパネル118にタッチさせてからポインタをタッチパネル118から離すまでの間にパラメータ指定ジェスチャと制御量指定ジェスチャとを1つのジェスチャとして行う。
割り当て情報記憶部153が記憶する割り当て情報には、パラメータごとに、パラメータ指定ジェスチャに対応するパラメータ指定移動軌跡及び制御量指定ジェスチャに対応する制御量指定移動軌跡が定義されている。割り当て情報には、例えば、パラメータ1に対して、パラメータ指定移動軌跡として「左から右へ移動する」移動軌跡が定義され、パラメータの値を増加させる制御量指定軌跡として時計回りの移動軌跡が定義され、パラメータの値を減少させる制御量指定軌跡として反時計回りの移動軌跡が定義されている。
図3及び図4では、パラメータ指定ジェスチャとして、水平方向の直線移動(パラメータ1、パラメータ3)及び垂直方向の直線移動(パラメータ2、パラメータ4)のみを示しているが、他の方向での直線移動でパラメータを指定するようにしてもよい。例えば、パラメータ指定ジェスチャとして、60度方向から120度方向への直線移動、120度方向から60度方向への直線移動、45度方向から135度方向への直線移動、135度方向から45度方向への直線移動を追加してもよい。このようにすることで、より多くの種類のパラメータを指定することができる。なお、ここでは、方向を角度で示しているがおおよその方向でパラメータを指定するようにしてもよい。また、方向は均等に分ける必要は無い。
次に、図21に示すフローチャートを参照して、本実施の形態に係るポータブル機器11の動作例を説明する。
ユーザがタッチパネル118へのタッチを開始した際に(ステップS201)、タッチ検出部148がタッチ座標を認識する(ステップS202)。
そして、タッチ検出部148は、タッチ座標を数値化し(ステップS203)、数値化されたタッチ座標をRAM117に格納する(ステップS204)。
次に、ジェスチャ判定部143は、RAM117に格納されたタッチ座標に基づき、パラメータ指定ジェスチャを認識できたとき(ステップS206でYES)、すなわち、パラメータ指定移動軌跡を抽出したときに、制御対象パラメータを識別する(ステップS208)。つまり、ジェスチャ判定部143は、抽出したパラメータ指定移動軌跡を、割り当て情報と照合して、ユーザにより指定された制御対象パラメータを識別する。そして、識別した制御対象パラメータが示されるパラメータ情報をRAM117に格納する。
一方、パラメータ指定ジェスチャが認識できない場合(ステップS206でNO)に、制御量指定ジェスチャを認識できた(ステップS207でYES)とき、すなわち、制御量指定移動軌跡を抽出したときは、ジェスチャ判定部143は、制御量を識別する(ステップS209)。つまり、ジェスチャ判定部143は、抽出した制御量指定移動軌跡を、割り当て情報と照合して、ユーザにより指定された制御量を識別する。そして、ジェスチャ判定部143は、識別した制御量が示される制御量情報をRAM117に格納する。
ユーザにより制御量指定ジェスチャとして複数回の回転ジェスチャが行われる場合は、1回目の回転ジェスチャを認識した際に、ジェスチャ判定部143は増加量=1(又は減少量=1)の制御量情報を生成し、生成した制御量情報をRAM117に格納する。以降、回転ジェスチャを認識する度に、ジェスチャ判定部143は、制御量情報の増加量(又は減少量)の値を1つずつインクリメントする。
また、ユーザがある方向への回転ジェスチャを行った後に逆方向への回転ジェスチャを行った場合は、ジェスチャ判定部143は、逆方向の回転ジェスチャの周回数に対応させて制御量情報の制御量をデクリメントする。例えば、図3の「パラメータ1−増加」300の時計回りの回転ジェスチャが3回行われ、増加量=3の制御量情報がRAM117に格納されているときに、ユーザが図3の「パラメータ1−減少」301の反時計回りの回転ジェスチャを1回行った場合は、ジェスチャ判定部143は、増加量の値をデクリメントして、制御量情報を増加量=2と更新する。
ここで、ジェスチャ判定部143が、パラメータ指定ジェスチャでの直線移動の移動軌跡を抽出する手法を説明する。
ジェスチャ判定部143は、タッチパネル118から出力され、タッチ座標取得部142によりRAM117に格納された連続したタッチ座標が特定の領域に収まっており、かつ特定の方向に移動している場合に、タッチ始点から当該方向へポインタが移動していると判定する。このように、ジェスチャ判定部143は、直線移動の開始点の位置と終了点の位置とを解析して直線移動の移動軌跡を抽出して制御対象パラメータを識別する。なお、特定の領域は、矩形や楕円弧、三角形などの形状の領域である。ジェスチャ判定部143は、公知のアルゴリズムである最小二乗法を利用して直線移動の移動軌跡を抽出してもよい。
次に、ジェスチャ判定部143が、制御量指定ジェスチャでの円移動の移動軌跡を抽出する手法を説明する。
ジェスチャ判定部143は、連続したタッチ座標が、2重の円の外側と内側の領域の範囲に収まること、かつ、連続した点群が順番に円を描くようにプロットされていることの条件を満たした場合に、円移動の移動軌跡を抽出する。ジェスチャ判定部143は、点群の中の3点を抽出して円の中心を求める公知のアルゴリズムを用いて、円の中心の座標を抽出することができる。また、ジェスチャ判定部143は、当該アルゴリズムを繰り返し実行することで円の中心の座標の抽出精度を高めることもできる。
なお、ジェスチャ判定部143は、例えばノイズ除去装置を用いて外来ノイズを除去するようにしてもよい。
図21のフローに戻り、ユーザによるタッチが終了している場合(ステップS210でYES)は、ジェスチャ判定部143は、制御コマンドを生成する(ステップS211)。
具体的には、タッチ座標取得部142が新たなタッチ座標を取得しなくなったら、ジェスチャ判定部143は、ユーザによるタッチが終了していると判定する。
ジェスチャ判定部143は、RAM117からパラメータ情報と制御量情報とを読み出し、パラメータ情報と制御情報を用いて制御コマンドを生成する。
そして、ジェスチャ判定部143は、通信処理部140を介して制御対象機器10に制御コマンドを送信する。
この結果、制御対象機器10は、制御対象パラメータの値を制御量に従って制御する。
なお、図21のフローでは、ジェスチャ判定部143は、ユーザのタッチが終了した後に、制御コマンドを生成し、生成した制御コマンドを制御対象機器10に送信している。これに代えて、ジェスチャ判定部143は、ユーザのタッチが終了する前に制御コマンドを生成し、生成した制御コマンドを送信するようにしてもよい。ジェスチャ判定部143は、ユーザのタッチにおける区切りごとに、制御コマンドを送信するようにしてもよい。例えば、ジェスチャ判定部143は、図3の直線移動が完了した段階で、パラメータを通知する制御コマンドを送信し、円移動の1周ごとに、制御量を通知する制御コマンドを送信するようにしてもよい。
***実施の形態の効果の説明***
以上のように、本実施の形態によれば、ユーザは1つのタッチパネル操作で制御対象パラメータと制御量とを指定することができ、タッチパネル操作における利便性を向上させることができる。
また、ユーザは、ポータブル機器11の画面を見ることなく、制御対象機器10の制御を行うことができる。
また、表示制御部150が、ユーザがジェスチャで指定した制御対象パラメータ及び制御量をFPD115に表示し、ユーザが制御対象パラメータ及び制御量を確認するようにしてもよい。このようにすることで、操作の精度を高めることができる。
なお、表示制御部150が制御対象パラメータ及び制御量を表示する構成に代えて、モーターの動き、音等により制御対象パラメータ及び制御量をユーザに通知するようにしてもよい。
なお、以上では、パラメータ指定ジェスチャとしてスライドジェスチャを例示し、制御量指定ジェスチャとして回転ジェスチャを例示した。これに代えて、パラメータ指定ジェスチャ及び制御量指定ジェスチャとして、タップ、ダブルタップ、ピンチなどの一般的にタッチパネル操作で使われているジェスチャを用いてもよい。
実施の形態2.
以上の実施の形態1では、ジェスチャ判定部143は、回転ジェスチャでのポインタの周回数により増加量や減少量を決定している。
本実施の形態では、ジェスチャ判定部143が、回転ジェスチャでのポインタの周回角度により増加量や減少量を識別する例を説明する。
つまり、本実施の形態では、ジェスチャ判定部143は、制御量指定移動軌跡の円移動でのポインタの周回方向と周回角度とを解析して制御量を識別する。
本実施の形態では、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以下では、主に実施の形態1との差異を説明する。
本実施の形態では、図5に示すように、ジェスチャ判定部143は、スライドジェスチャにおける左から右へ移動する水平移動の動作に続いて水平移動の移動軌跡を囲うように時計回りの円移動を認識した場合に、ポインタの周回角度に従って制御量を識別する。つまり、ジェスチャ判定部143は、時計回りの円移動が発生した場合に、規定の周回角度を認識したときに増加量=1を判定する。周回角度を求めるための中心位置313は水平移動の始点314と終点315の中心位置である。また、周回角度=0度の座標は、終点315の座標である。ジェスチャ判定部143は、ポインタのタッチ座標316と終点315の間の周回角度311を求める。そして、周回角度311が既定の周回角度以上であれば、ジェスチャ判定部143は、増加量=1を判定する。また、周回角度311が既定の周回角度の2倍以上であれば、ジェスチャ判定部143は、増加量=2を判定する。ジェスチャ判定部143は、減少量も同様の手順で判定することができる。また、ジェスチャ判定部143は、周回角度311が増えるに従い、周回角度311に比例した増加量ではなく、周回角度311の二乗に比例した増加量を指定するようにしてもよい。
実施の形態3.
実施の形態1及び実施の形態2に係る回転ジェスチャにおいて円の中心位置がずれてくることで、ジェスチャ判定部143が、増加量又は減少量を正確に識別できなくなる可能性がある。
そこで、本実施の形態では、ジェスチャ判定部143は、図6に示すように、回転ジェスチャごとに、円の中心位置をタッチ座標より推定する。そして、ジェスチャ判定部143は、推定した円の中心位置に基づいて、回転ジェスチャごとに、移動軌跡を抽出する。このように、ジェスチャ判定部143が、回転ジェスチャごとに円の中心位置を推定し、推定した円の中心位置を各回転ジェスチャにおける移動軌跡の抽出に用いることで、各回転ジェスチャにおける移動軌跡を正確に抽出することができる。この結果、ジェスチャ判定部143は、制御量を識別する精度を高めることができる。
本実施の形態では、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以下では、主に実施の形態1との差異を説明する。
ジェスチャ判定部143は、図6に示す1周目の回転ジェスチャの途中で、円周の座標から3つの点を無作為に選択して、その3つの点より円の方程式を求める演算を繰り返し行うことで1周目の回転ジェスチャの円の中心位置を推定する。例えば、ジェスチャ判定部143は、1周目の回転ジェスチャにおいて、円の四分の一に相当する移動軌跡が得られるまで、円周の座標から3つの点を選択し、前述の演算を行う動作を繰り返して1周目の回転ジェスチャの円の中心位置を推定することが考えられる。そして、ジェスチャ判定部143は、推定した円の中心位置に基づき、1周目の回転ジェスチャの残りの四分の三の円の移動軌跡を抽出する。ジェスチャ判定部143は、2周目の回転ジェスチャ、3周目の回転ジェスチャに対しても同様の動作を行う。
なお、円の中心位置を求めることができるのであれば、ジェスチャ判定部143は、上述の方式以外の方式を用いてもよい。また、ジェスチャ判定部143は、回転ジェスチャごとに中心位置を求める代わりに、特定の間隔ごと(例えば、時間での間隔ごと、タッチ座標での間隔ごと)に円の中心位置を求めるようにしてもよい。
実施の形態4.
実施の形態1及び実施の形態2に係る回転ジェスチャにおいて、ユーザが精度よく正円をポインタで描くことは困難である。
そこで、本実施の形態では、ジェスチャ判定部143が、回転ジェスチャモデル情報を参照して、回転ジェスチャの移動軌跡を抽出する例を説明する。
本実施の形態では、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以下では、主に実施の形態1との差異を説明する。
回転ジェスチャモデル情報記憶部155は、回転ジェスチャモデル情報を記憶している。回転ジェスチャモデル情報は、例えばサンプリングにより得られた回転ジェスチャにおける円移動の移動軌跡のモデルを示す。回転ジェスチャモデル情報は、より具体的には、図19に示すいびつな円500の移動軌跡を示す。図19は、ユーザが親指により回転ジェスチャを行った結果、いびつな円500が描画されたことを表している。
回転ジェスチャモデル情報に示される移動軌跡は、様々なユーザが描画した円の中から選択された平均的な円の移動軌跡でもよいし、ポータブル機器11のユーザが描画した円の移動軌跡でもよい。また、あらかじめ回転ジェスチャモデル情報を準備することなく、ユーザが回転ジェスチャを行う度に、ジェスチャ判定部143が、ユーザが描画した円の移動軌跡を学習して回転ジェスチャモデル情報を生成するようにしてもよい。
図19のいびつな円500の移動軌跡を回転ジェスチャモデル情報として回転ジェスチャモデル情報記憶部155に登録しておけば、ユーザが制御対象機器10を制御するためにタッチパネル118に描画した円がいびつであっても、ジェスチャ判定部143は、パターンマッチングによりタッチパネル118に描画されたいびつな円の移動軌跡を回転ジェスチャにおける円移動の移動軌跡と認識することができる。この結果、ジェスチャ判定部143は、制御量を識別する精度を高めることができる。
また、ポータブル機器11が複数のユーザにより共用される場合は、回転ジェスチャモデル情報記憶部155が、ユーザごとに回転ジェスチャモデル情報を記憶していてもよい。この場合は、ジェスチャ判定部143は、ポータブル機器11を利用中のユーザに対応した回転ジェスチャモデル情報を回転ジェスチャモデル情報記憶部155から読み出し、読み出した回転ジェスチャモデル情報を用いて回転ジェスチャの移動軌跡を抽出する。
実施の形態5.
実施の形態4では、ジェスチャ判定部143が、実施の形態1の回転ジェスチャに対して回転ジェスチャモデル情報を適用する例を説明した。ジェスチャ判定部143は、実施の形態2の回転ジェスチャに対しても回転モデルジェスチャ情報を適用して、円移動の移動軌跡を抽出してもよい。つまり、本実施の形態では、ジェスチャ判定部143は、ユーザが制御対象機器10を制御するためにタッチパネル118に描画したいびつな円に対して回転ジェスチャモデル情報を適用して円移動の移動軌跡を抽出し、図5に示す周回角度311を特定する。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態6.
実施の形態1では、図3及び図4に示すように、パラメータ指定ジェスチャが1つのスライドジェスチャで構成されている例を説明した。
これに代えて、図7及び図8に示すように、パラメータ指定ジェスチャがスライドジェスチャ320とスライドジェスチャ321という2つのスライドジェスチャの組み合わせで構成されていてもよい。図7の例でも、スライドジェスチャ320、スライドジェスチャ321及び回転ジェスチャ322は1つのタッチパネル操作で行われる。
また、図9に示すように、パラメータ指定ジェスチャがスライドジェスチャ330とスライドジェスチャ331という2つのスライドジェスチャの組み合わせで構成されていてもよい。図9の例でも、スライドジェスチャ330、スライドジェスチャ331及び回転ジェスチャ332は1つのタッチパネル操作で行われる。
このように、本実施の形態では、ジェスチャ判定部143は、パラメータ指定移動軌跡として、複数の直線移動の移動軌跡を抽出し、抽出した複数の直線移動の移動軌跡を解析して制御対象パラメータを識別する。
なお、本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態7.
実施の形態1〜6では、制御量指定ジェスチャが回転ジェスチャである。
これに代えて、制御量指定ジェスチャがスライドジェスチャであってもよい。
例えば、図10及び図11に示すように、パラメータ指定ジェスチャがスライドジェスチャ340で構成され、制御量指定ジェスチャがスライドジェスチャ341で構成されるようにしてもよい。
このように、本実施の形態では、ジェスチャ判定部143は、パラメータ指定移動軌跡としてポインタの直線移動の移動軌跡を抽出し、制御量指定移動軌跡としてポインタの別の直線移動の移動軌跡を抽出する。
なお、本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態8.
実施の形態1では、図3及び図4に示すように、スライドジェスチャの水平方向の移動軌跡を囲うような回転ジェスチャを制御量指定ジェスチャとする例を示した。
これに代えて、図12及び図13に示すように、水平移動のスライドジェスチャ350の外側で行われる回転ジェスチャ351を制御量指定ジェスチャとするようにしてもよい。
本実施の形態では、ジェスチャ判定部143は、図14に示す方法で、回転ジェスチャの円の中心を求める。
つまり、ジェスチャ判定部143は、スライドジェスチャの始点360から終点361までの距離を求める。次に、ジェスチャ判定部143は、始点360から終点361までの距離の中心位置362を求める。次に、ジェスチャ判定部143は、中心位置362から終点361までの距離と同じ距離の位置に円の中心363を設定する。
図12及び図13に示すスライドジェスチャ及び回転ジェスチャを用いる場合に、実施の形態2と同様に、ユーザが回転ジェスチャにおけるポインタの周回角度で制御量を指定する場合は、ジェスチャ判定部143は、図14に示す方法で求めた中心位置362を基準にして周回角度を算出する。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態9.
実施の形態1〜8では、ジェスチャ判定部143は、1つのポインタによる回転ジェスチャを解析して制御量を識別している。
これに代えて、ジェスチャ判定部143は、複数のポインタによる回転ジェスチャを解析して制御量を識別してもよい。
つまり、本実施の形態に係るジェスチャ判定部143は、図15及び図16に示すように、2つのポインタが同時にタッチパネル118に接して得られた2系統のジェスチャ370、371における回転ジェスチャを解析して、ユーザにより指定された制御量を識別する。
図15及び図16の例では、1回の回転ジェスチャごとに、ジェスチャ判定部143は、増加量(又は減少量)を2ずつインクリメントする。
つまり、n(n≧2)個のポインタが用いられる場合は、ジェスチャ判定部143は、1回の回転ジェスチャごとに、増加量(又は減少量)をnずつインクリメントする。
また、ジェスチャ判定部143は、2つのポインタにより回転ジェスチャが行われた場合でも、1回の回転ジェスチャごとに、増加量(又は減少量)を1ずつインクリメントするようにしてもよい。
また、ジェスチャ判定部143は、1つのポインタによりスライドジェスチャが行われた後に、2つのポインタにより回転ジェスチャが行われた場合に、1回の回転ジェスチャごとに、ジェスチャ判定部143は、増加量(又は減少量)を2ずつインクリメントするようにしてもよい。
また、本実施の形態では、2つの回転ジェスチャが同時に行われるため、回転ジェスチャで描画される円がいびつになりやすい。このため、ジェスチャ判定部143は、実施の形態4で説明した回転ジェスチャモデル情報を用いて、回転ジェスチャを認識するようにしてもよい。
このように、本実施の形態に係るジェスチャ判定部143は、複数のポインタの移動軌跡を抽出し、複数のポインタの移動軌跡を解析して、制御量を識別する。
なお、本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態10.
実施の形態9では、実施の形態1の回転ジェスチャを2つのポインタにより行う例を説明した。実施の形態2の回転ジェスチャを2つのポインタにより行ってもよい。本実施の形態では、図17及び図18に示すように、ジェスチャ判定部143は、2つのポインタが同時にタッチパネル118にタッチして並行に行われた回転ジェスチャの円移動の移動軌跡を抽出して、制御量を識別する。本実施の形態では、ジェスチャ判定部143は、2つの平行する2つのスライドジェスチャを認識した後に2つの回転ジェスチャ382、383を認識する。ジェスチャ判定部143は、2つの回転ジェスチャ382、383でのポインタの周回角度から制御量を識別する。
本実施の形態では、2つの回転ジェスチャが同時に行われるため、回転ジェスチャで描画される円がいびつになりやすい。このため、ジェスチャ判定部143は、実施の形態4で説明した回転ジェスチャモデル情報を用いて、回転ジェスチャを認識するようにしてもよい。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態11.
実施の形態1では、ジェスチャ判定部143は、回転ジェスチャでのポインタの周回数により制御量を識別する。しかしながら、実施の形態1では、ポータブル機器11の向きが固定的である。
つまり、実施の形態1では、ポータブル機器11が本来の向きとは逆の向きに保持された場合には、ジェスチャ判定部143は、パラメータ指定ジェスチャを正しく認識できない。
本実施の形態では、図1に示す重力センサー113を活用することで、ポータブル機器11が逆に保持された場合でも、ジェスチャ判定部143がパラメータ指定ジェスチャを正しく認識できるようにする。
より具体的には、本実施の形態では、ジェスチャ判定部143は、ポインタの移動軌跡と重力センサーの測定結果により得られたポータブル機器10の方向とに基づき、制御対象パラメータと制御量とを識別する。
本実施の形態では、ユーザによりジェスチャが行われる前に、方向検出部147が、重力センサー113の測定結果を取得し、重力センサー113の測定結果を用いて、ポータブル機器の11の上下方向を判定する。そして、ジェスチャ判定部143は、タッチ座標取得部142を介してタッチパネル118から得られるタッチ座標を方向検出部147により判定されたポータブル機器11の上下方向に応じて計算する。これにより、図20に示すように、ポータブル機器11が本来の向きに保持される場合でも(図20の(a))、ポータブル機器11が逆の向きに保持される場合でも(図20の(b))、ジェスチャ判定部143は、回転ジェスチャを正確に認識して、正しい制御量を識別することができる。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143及び方向検出部147の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
***ハードウェア構成の説明***
最後に、ポータブル機器11のハードウェア構成の補足説明を行う。
図1に示すプロセッサ111は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ111は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
通信インタフェース110は、例えば、通信チップ又はNIC(Network Interface Card)である。
また、ROM116には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がプロセッサ111により実行される。
プロセッサ111はOSの少なくとも一部を実行しながら、通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150(以下、これらをまとめて「部」という)の機能を実現するプログラムを実行する。
プロセッサ111がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
図1では、1つのプロセッサが図示されているが、ポータブル機器11が複数のプロセッサを備えていてもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、RAM117、プロセッサ111内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
また、ポータブル機器11は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
この場合は、「部」は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
10 制御対象機器、11 ポータブル機器、101 通信インタフェース、102 プロセッサ、103 出力装置、110 通信インタフェース、111 プロセッサ、112 センサー部、113 重力センサー、114 タッチセンサー、115 FPD、116 ROM、117 RAM、118 タッチパネル、140 通信処理部、141 ジェスチャ検出部、142 タッチ座標取得部、143 ジェスチャ判定部、146 センサー部、147 方向検出部、148 タッチ検出部、150 表示制御部、153 割り当て情報記憶部、155 回転ジェスチャモデル情報記憶部。

Claims (14)

  1. タッチパネルを備える情報処理装置であって、
    ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出部と、
    前記抽出部により抽出された前記ポインタの移動軌跡を解析して、前記ポインタの移動軌跡から、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータを指定する移動軌跡をパラメータ指定移動軌跡として抽出し、前記制御対象パラメータの制御量を指定する移動軌跡を制御量指定移動軌跡として抽出し、抽出した前記パラメータ指定移動軌跡を解析して前記制御対象パラメータを識別し、抽出した前記制御量指定移動軌跡を解析して前記制御量を識別する識別部とを有する情報処理装置。
  2. 前記識別部は、
    前記抽出部により抽出された前記ポインタの移動軌跡から、前記パラメータ指定移動軌跡として、前記ポインタの直線移動の移動軌跡を抽出し、前記制御量指定移動軌跡として前記ポインタの円移動の移動軌跡を抽出し、
    抽出した前記直線移動の移動軌跡を解析して前記制御対象パラメータを識別し、
    抽出した前記円移動の移動軌跡を解析して前記制御量を識別する請求項に記載の情報処理装置。
  3. 前記識別部は、
    前記直線移動の開始点の位置と終了点の位置とを解析して前記制御対象パラメータを識別する請求項に記載の情報処理装置。
  4. 前記識別部は、
    前記円移動の移動軌跡での前記ポインタの周回方向と周回数とを解析して前記制御量を識別する請求項に記載の情報処理装置。
  5. 前記識別部は、
    前記円移動での円の中心位置を推定し、推定した前記円の中心位置に基づいて前記円移動の移動軌跡を抽出する請求項に記載の情報処理装置。
  6. 前記識別部は、
    前記円移動の移動軌跡のモデルを参照して、前記抽出部により抽出された前記ポインタの移動軌跡から前記円移動の移動軌跡を抽出する請求項に記載の情報処理装置。
  7. 前記識別部は、
    前記パラメータ指定移動軌跡として、複数の直線移動の移動軌跡を抽出し、
    抽出した前記複数の直線移動の移動軌跡を解析して前記制御対象パラメータを識別する請求項に記載の情報処理装置。
  8. 前記識別部は、
    前記パラメータ指定移動軌跡として前記ポインタの直線移動の移動軌跡を抽出し、前記制御量指定移動軌跡として前記ポインタの別の直線移動の移動軌跡を抽出する請求項に記載の情報処理装置。
  9. 前記抽出部は、
    複数のポインタの移動軌跡を抽出し、
    前記識別部は、
    前記抽出部により抽出された前記複数のポインタの移動軌跡を解析して、前記制御量を識別する請求項に記載の情報処理装置。
  10. タッチパネルと重力センサーとを備える情報処理装置であって、
    ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出部と、
    前記抽出部により抽出された前記ポインタの移動軌跡と前記重力センサーの測定結果により得られた前記情報処理装置の方向とに基づき、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する識別部とを有する情報処理装置。
  11. タッチパネルを備えるコンピュータが、
    ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出し、
    抽出した前記ポインタの移動軌跡を解析して、前記ポインタの移動軌跡から、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータを指定する移動軌跡をパラメータ指定移動軌跡として抽出し、前記制御対象パラメータの制御量を指定する移動軌跡を制御量指定移動軌跡として抽出し、抽出した前記パラメータ指定移動軌跡を解析して前記制御対象パラメータを識別し、抽出した前記制御量指定移動軌跡を解析して前記制御量を識別する情報処理方法。
  12. タッチパネルと重力センサーとを備えるコンピュータが、
    ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出し、
    抽出した前記ポインタの移動軌跡と前記重力センサーの測定結果により得られた前記コンピュータの方向とに基づき、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する情報処理方法。
  13. タッチパネルを備えるコンピュータに、
    ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出処理と、
    前記抽出処理により抽出された前記ポインタの移動軌跡を解析して、前記ポインタの移動軌跡から、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータを指定する移動軌跡をパラメータ指定移動軌跡として抽出し、前記制御対象パラメータの制御量を指定する移動軌跡を制御量指定移動軌跡として抽出し、抽出した前記パラメータ指定移動軌跡を解析して前記制御対象パラメータを識別し、抽出した前記制御量指定移動軌跡を解析して前記制御量を識別する識別処理とを実行させる情報処理プログラム。
  14. タッチパネルと重力センサーとを備えるコンピュータに、
    ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出処理と、
    前記抽出処理により抽出された前記ポインタの移動軌跡と前記重力センサーの測定結果により得られた前記コンピュータの方向とに基づき、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する識別処理とを実行させる情報処理プログラム。
JP2018514079A 2016-04-28 2016-04-28 情報処理装置、情報処理方法及び情報処理プログラム Expired - Fee Related JP6433621B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/063470 WO2017187629A1 (ja) 2016-04-28 2016-04-28 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2017187629A1 JPWO2017187629A1 (ja) 2018-09-13
JP6433621B2 true JP6433621B2 (ja) 2018-12-05

Family

ID=60161275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514079A Expired - Fee Related JP6433621B2 (ja) 2016-04-28 2016-04-28 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (6)

Country Link
US (1) US20190095093A1 (ja)
JP (1) JP6433621B2 (ja)
KR (1) KR20180122721A (ja)
CN (1) CN109074210A (ja)
DE (1) DE112016006806T5 (ja)
WO (1) WO2017187629A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10901529B2 (en) * 2018-07-19 2021-01-26 Stmicroelectronics S.R.L. Double-tap event detection device, system and method
CN109947349A (zh) * 2019-03-22 2019-06-28 思特沃克软件技术(北京)有限公司 一种基于车载触摸屏进行参数调节的方法和车载触摸屏

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2008299771A (ja) * 2007-06-04 2008-12-11 Nanao Corp ディスプレイ装置
JP5034912B2 (ja) 2007-12-06 2012-09-26 パナソニック株式会社 情報入力装置、情報入力方法、および情報入力プログラム
JP2012156835A (ja) * 2011-01-27 2012-08-16 Seiko Epson Corp リモコン装置及びプログラム
US20130239063A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Selection of multiple images
JP5944743B2 (ja) * 2012-05-23 2016-07-05 京セラ株式会社 携帯端末、表示制御プログラムおよび表示制御方法
KR101558354B1 (ko) * 2013-11-13 2015-10-20 현대자동차 주식회사 차량용 블라인드 콘트롤 시스템
CN103760982B (zh) * 2014-01-22 2017-09-22 深圳市金立通信设备有限公司 一种控制终端屏幕状态的方法及终端
CN104850329A (zh) * 2015-04-29 2015-08-19 小米科技有限责任公司 参数调节方法及装置
CN105159454A (zh) * 2015-08-26 2015-12-16 广东欧珀移动通信有限公司 一种播放设备控制方法及智能手表

Also Published As

Publication number Publication date
KR20180122721A (ko) 2018-11-13
US20190095093A1 (en) 2019-03-28
DE112016006806T5 (de) 2019-01-24
CN109074210A (zh) 2018-12-21
WO2017187629A1 (ja) 2017-11-02
JPWO2017187629A1 (ja) 2018-09-13

Similar Documents

Publication Publication Date Title
US10318042B2 (en) Controlling method of foldable screen and electronic device
US9477403B2 (en) Drawing on a touchscreen
JP2014501998A (ja) タッチスクリーン上に複数のフレームを提示するためのシステム及び方法
CN105094616B (zh) 触摸屏控制方法及装置
US20140218315A1 (en) Gesture input distinguishing method and apparatus in touch input device
EP3100151A1 (en) Virtual mouse for a touch screen device
EP2829967A2 (en) Method of processing input and electronic device thereof
KR20150083651A (ko) 전자 장치 및 그 데이터 표시 방법
EP2767897B1 (en) Method for generating writing data and an electronic device thereof
JP6433621B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US10248307B2 (en) Virtual reality headset device with front touch screen
KR102389782B1 (ko) 멀티 터치 패턴을 이용한 유저 인터페이스 메뉴 디스플레이 장치 및 방법
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
CN106293446B (zh) 显示方法及显示设备
JP6630164B2 (ja) 電子機器及びその制御方法、プログラム、並びに記憶媒体
US9536126B2 (en) Function execution method based on a user input, and electronic device thereof
KR20150095523A (ko) 전자 장치 및 전자 장치에서 색상 추출 방법
JP6442755B2 (ja) 電子機器、制御プログラム、及び、制御方法
TW201617793A (zh) 穿戴式裝置及其操作方法
JP6682951B2 (ja) プログラムおよび情報処理装置
JP2016066254A (ja) タッチ検出装置を備えた電子装置
JP6252351B2 (ja) 電子機器
KR102122793B1 (ko) 전자 디바이스 및 전자 디바이스에서 이미지 처리 방법
US20150116281A1 (en) Portable electronic device and control method
CN106095317B (zh) 一种触摸屏的响应方法及终端

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180724

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181106

R150 Certificate of patent or registration of utility model

Ref document number: 6433621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees