JP6433621B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP6433621B2 JP6433621B2 JP2018514079A JP2018514079A JP6433621B2 JP 6433621 B2 JP6433621 B2 JP 6433621B2 JP 2018514079 A JP2018514079 A JP 2018514079A JP 2018514079 A JP2018514079 A JP 2018514079A JP 6433621 B2 JP6433621 B2 JP 6433621B2
- Authority
- JP
- Japan
- Prior art keywords
- movement
- pointer
- gesture
- parameter
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
特許文献1の技術では、ユーザは、タッチパネルに操作キーを配置するためのスライド操作を行い、スライド操作によりタッチパネルに操作キーが配置された後に操作キーを操作する必要がある。
スマートフォンに代表される情報機器は、無線通信により、テレビの音量の制御、テレビの画面輝度の制御、エアコンディショナーの風量の制御、照明の照度の制御等を行うことができる。
ユーザが特許文献1の技術を用いてこれらの制御を行おうとすると、ユーザは、タッチパネルに操作キーを配置するためのスライド操作を行い、制御対象のパラメータ(例えばテレビの音量)を指定するための操作を行い、当該制御対象のパラメータの制御量(増加量又は減少量)を指定するための操作を行う必要がある。
このように、特許文献1の情報入力装置では、ユーザは、1つの制御を行うまでに複数のタッチパネル操作を行わなければならず煩雑であるという課題がある。
タッチパネルを備える情報処理装置であって、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出部と、
前記抽出部により抽出された前記ポインタの移動軌跡を解析して、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する識別部とを有する。
***構成の説明***
図1は、本実施の形態に係るポータブル機器11及び制御対象機器10のハードウェア構成例を示す。
ポータブル機器11は、ユーザからの指示に従って、制御対象機器10を制御する。
ポータブル機器11は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ等である。
ポータブル機器11は、情報処理装置の例である。また、ポータブル機器11により行われる動作は、情報処理方法の例である。
制御対象機器10は、ポータブル機器11により制御される機器である。
制御対象機器10は、テレビ、エアコンディショナー、照明システム等である。
ROM116は、図2に示す通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150の機能を実現するプログラムを記憶している。このプログラムは、RAM117にロードされ、プロセッサ111が実行する。図1は、プロセッサ111が通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150の機能を実現するプログラムを実行している状態を模式的に表している。なお、このプログラムは、情報処理プログラムの例である。
また、ROM116は、図2に示す割り当て情報記憶部153及び回転ジェスチャモデル情報記憶部155を実現する。
通信インタフェース110は、制御対象機器10と無線通信を行う回路である。
FPD115は、ユーザに提示する情報を表示する。
センサー部112には、重力センサー113、タッチセンサー114及びタッチパネル118が含まれる。
通信インタフェース101は、ポータブル機器11と無線通信を行う回路である。
プロセッサ102は、通信インタフェース101及び出力装置103を制御する。
出力装置103は、制御対象機器10ごとに異なる。制御対象機器10がテレビであれば、出力装置103はスピーカー及びFPDである。制御対象機器10がエアコンディショナーであれば、送風機構である。制御対象機器10が照明システムであれば、出力装置103は照明機器である。
図2に示すように、ポータブル機器11は、通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150、割り当て情報記憶部153及び回転ジェスチャモデル情報記憶部155で構成される。
方向検出部147は、ポータブル機器11の方向を検出する。方向検出部147の詳細は実施の形態11で説明する。
タッチ検出部148は、ポインタによってタッチされたタッチ座標を取得する。ポインタは、ユーザの指又はユーザが用いるタッチペンである。また、タッチ座標は、ポインタがタッチしたタッチパネル118上の座標である。
タッチ座標取得部142は、センサー部146からタッチ座標を取得する。
制御対象パラメータとは、制御対象機器10を制御するためのパラメータである。例えば、制御対象機器10がテレビであれば、制御対象パラメータは、音量、画面輝度、画面のコントラスト、メニュー項目、タイマー設定時刻等である。また、制御対象機器10がエアコンディショナーであれば、制御対象パラメータは、設定温度、設定湿度、風量、風向等である。また、制御対象機器10が照明システムであれば、制御対象パラメータは、照度等である。
後述するように、ポインタがタッチパネル118に接してからポインタがタッチパネル118から離れるまでの間に、ユーザは連続して2つのジェスチャを行う。1つは制御対象パラメータを指定するジェスチャ(以下、パラメータ指定ジェスチャという)であり、もう1つは制御量を指定するジェスチャ(以下、制御量指定ジェスチャという)である。ジェスチャ判定部143は、抽出したポインタの移動軌跡から、制御対象パラメータを指定する移動軌跡(つまり、パラメータ指定ジェスチャに対応する移動軌跡)をパラメータ指定移動軌跡として抽出する。また、ジェスチャ判定部143は、抽出したポインタの移動軌跡から、制御量を指定する移動軌跡(つまり、制御量指定ジェスチャに対応する移動軌跡)を制御量指定移動軌跡として抽出する。そして、ジェスチャ判定部143は、抽出したパラメータ指定移動軌跡を解析して制御対象パラメータを識別し、抽出した制御量指定移動軌跡を解析して制御量を識別する。
また、ジェスチャ判定部143は、識別した制御対象パラメータ及び制御量を制御対象機器10に通知するための制御コマンドを生成する。そして、ジェスチャ判定部143は、生成した制御コマンドを通信処理部140を介して制御対象機器10に送信する。
ジェスチャ判定部143は、抽出部及び識別部の例である。また、ジェスチャ判定部143により行われる動作は、抽出処理及び識別処理の例である。
割り当て情報には、複数の移動軌跡のパターンが記述され、移動軌跡のパターンごとに、制御対象パラメータ又は制御量が定義されている。
ジェスチャ判定部143は、割り当て情報を参照することで、抽出した移動軌跡に対応する制御対象パラメータ又は制御量を識別する。
先ず、本実施の形態に係るポータブル機器11の動作の概要を説明する。
本実施の形態では、ユーザは、制御対象機器10を制御する際に、タッチパネル118に図3及び図4に示すジェスチャを行う。
図3は、パラメータ1の値を増加するためのジェスチャと、パラメータ1の値を減少するためのジェスチャと、パラメータ2の値を増加するためのジェスチャと、パラメータ2の値を減少するためのジェスチャとを示す。
図4は、パラメータ3の値を増加するためのジェスチャと、パラメータ3の値を減少するためのジェスチャと、パラメータ4の値を増加するためのジェスチャと、パラメータ4の値を減少するためのジェスチャとを示す。
図3及び図4に示すジェスチャには、直線移動のジェスチャ(スライドジェスチャともいう)と円移動のジェスチャ(回転ジェスチャともいう)が含まれる。直線移動のジェスチャは、パラメータ指定ジェスチャであり、円移動のジェスチャは制御量指定ジェスチャである。
パラメータ1を指定するパラメータ指定ジェスチャは、「左から右へ移動する」スライドジェスチャである。パラメータ2を指定するパラメータ指定ジェスチャは、「上から下へ移動する」スライドジェスチャである。パラメータ3を指定するパラメータ指定ジェスチャは、「右から左へ移動する」スライドジェスチャである。パラメータ4を指定するパラメータ指定ジェスチャは、「下から上へ移動する」スライドジェスチャである。
また、パラメータの値を増加させる制御量指定ジェスチャは時計回りの回転ジェスチャである。また、パラメータの値を減少させる制御量指定ジェスチャは反時計回りの回転ジェスチャである。増加量又は減少量はポインタの周回数で決定される。ジェスチャ判定部143は、円移動の移動軌跡でのポインタの周回方向と周回数とを解析して制御量を識別する。例えば、ユーザが時計回りの回転ジェスチャを2回行った場合は、ジェスチャ判定部143は、該当するパラメータの値を2段階増加させることを識別する。一方、ユーザが反時計回りの回転ジェスチャを2回行った場合は、ジェスチャ判定部143は、パラメータの値を2段階減少させることを識別する。
ユーザは、パラメータ指定ジェスチャと制御量指定ジェスチャを1つのタッチパネル操作で行う。つまり、ユーザは、ポインタをタッチパネル118にタッチさせてからポインタをタッチパネル118から離すまでの間にパラメータ指定ジェスチャと制御量指定ジェスチャとを1つのジェスチャとして行う。
図3及び図4では、パラメータ指定ジェスチャとして、水平方向の直線移動(パラメータ1、パラメータ3)及び垂直方向の直線移動(パラメータ2、パラメータ4)のみを示しているが、他の方向での直線移動でパラメータを指定するようにしてもよい。例えば、パラメータ指定ジェスチャとして、60度方向から120度方向への直線移動、120度方向から60度方向への直線移動、45度方向から135度方向への直線移動、135度方向から45度方向への直線移動を追加してもよい。このようにすることで、より多くの種類のパラメータを指定することができる。なお、ここでは、方向を角度で示しているがおおよその方向でパラメータを指定するようにしてもよい。また、方向は均等に分ける必要は無い。
そして、タッチ検出部148は、タッチ座標を数値化し(ステップS203)、数値化されたタッチ座標をRAM117に格納する(ステップS204)。
一方、パラメータ指定ジェスチャが認識できない場合(ステップS206でNO)に、制御量指定ジェスチャを認識できた(ステップS207でYES)とき、すなわち、制御量指定移動軌跡を抽出したときは、ジェスチャ判定部143は、制御量を識別する(ステップS209)。つまり、ジェスチャ判定部143は、抽出した制御量指定移動軌跡を、割り当て情報と照合して、ユーザにより指定された制御量を識別する。そして、ジェスチャ判定部143は、識別した制御量が示される制御量情報をRAM117に格納する。
ユーザにより制御量指定ジェスチャとして複数回の回転ジェスチャが行われる場合は、1回目の回転ジェスチャを認識した際に、ジェスチャ判定部143は増加量=1(又は減少量=1)の制御量情報を生成し、生成した制御量情報をRAM117に格納する。以降、回転ジェスチャを認識する度に、ジェスチャ判定部143は、制御量情報の増加量(又は減少量)の値を1つずつインクリメントする。
また、ユーザがある方向への回転ジェスチャを行った後に逆方向への回転ジェスチャを行った場合は、ジェスチャ判定部143は、逆方向の回転ジェスチャの周回数に対応させて制御量情報の制御量をデクリメントする。例えば、図3の「パラメータ1−増加」300の時計回りの回転ジェスチャが3回行われ、増加量=3の制御量情報がRAM117に格納されているときに、ユーザが図3の「パラメータ1−減少」301の反時計回りの回転ジェスチャを1回行った場合は、ジェスチャ判定部143は、増加量の値をデクリメントして、制御量情報を増加量=2と更新する。
ジェスチャ判定部143は、タッチパネル118から出力され、タッチ座標取得部142によりRAM117に格納された連続したタッチ座標が特定の領域に収まっており、かつ特定の方向に移動している場合に、タッチ始点から当該方向へポインタが移動していると判定する。このように、ジェスチャ判定部143は、直線移動の開始点の位置と終了点の位置とを解析して直線移動の移動軌跡を抽出して制御対象パラメータを識別する。なお、特定の領域は、矩形や楕円弧、三角形などの形状の領域である。ジェスチャ判定部143は、公知のアルゴリズムである最小二乗法を利用して直線移動の移動軌跡を抽出してもよい。
次に、ジェスチャ判定部143が、制御量指定ジェスチャでの円移動の移動軌跡を抽出する手法を説明する。
ジェスチャ判定部143は、連続したタッチ座標が、2重の円の外側と内側の領域の範囲に収まること、かつ、連続した点群が順番に円を描くようにプロットされていることの条件を満たした場合に、円移動の移動軌跡を抽出する。ジェスチャ判定部143は、点群の中の3点を抽出して円の中心を求める公知のアルゴリズムを用いて、円の中心の座標を抽出することができる。また、ジェスチャ判定部143は、当該アルゴリズムを繰り返し実行することで円の中心の座標の抽出精度を高めることもできる。
なお、ジェスチャ判定部143は、例えばノイズ除去装置を用いて外来ノイズを除去するようにしてもよい。
具体的には、タッチ座標取得部142が新たなタッチ座標を取得しなくなったら、ジェスチャ判定部143は、ユーザによるタッチが終了していると判定する。
ジェスチャ判定部143は、RAM117からパラメータ情報と制御量情報とを読み出し、パラメータ情報と制御情報を用いて制御コマンドを生成する。
そして、ジェスチャ判定部143は、通信処理部140を介して制御対象機器10に制御コマンドを送信する。
この結果、制御対象機器10は、制御対象パラメータの値を制御量に従って制御する。
なお、図21のフローでは、ジェスチャ判定部143は、ユーザのタッチが終了した後に、制御コマンドを生成し、生成した制御コマンドを制御対象機器10に送信している。これに代えて、ジェスチャ判定部143は、ユーザのタッチが終了する前に制御コマンドを生成し、生成した制御コマンドを送信するようにしてもよい。ジェスチャ判定部143は、ユーザのタッチにおける区切りごとに、制御コマンドを送信するようにしてもよい。例えば、ジェスチャ判定部143は、図3の直線移動が完了した段階で、パラメータを通知する制御コマンドを送信し、円移動の1周ごとに、制御量を通知する制御コマンドを送信するようにしてもよい。
以上のように、本実施の形態によれば、ユーザは1つのタッチパネル操作で制御対象パラメータと制御量とを指定することができ、タッチパネル操作における利便性を向上させることができる。
また、ユーザは、ポータブル機器11の画面を見ることなく、制御対象機器10の制御を行うことができる。
また、表示制御部150が、ユーザがジェスチャで指定した制御対象パラメータ及び制御量をFPD115に表示し、ユーザが制御対象パラメータ及び制御量を確認するようにしてもよい。このようにすることで、操作の精度を高めることができる。
なお、表示制御部150が制御対象パラメータ及び制御量を表示する構成に代えて、モーターの動き、音等により制御対象パラメータ及び制御量をユーザに通知するようにしてもよい。
なお、以上では、パラメータ指定ジェスチャとしてスライドジェスチャを例示し、制御量指定ジェスチャとして回転ジェスチャを例示した。これに代えて、パラメータ指定ジェスチャ及び制御量指定ジェスチャとして、タップ、ダブルタップ、ピンチなどの一般的にタッチパネル操作で使われているジェスチャを用いてもよい。
以上の実施の形態1では、ジェスチャ判定部143は、回転ジェスチャでのポインタの周回数により増加量や減少量を決定している。
本実施の形態では、ジェスチャ判定部143が、回転ジェスチャでのポインタの周回角度により増加量や減少量を識別する例を説明する。
つまり、本実施の形態では、ジェスチャ判定部143は、制御量指定移動軌跡の円移動でのポインタの周回方向と周回角度とを解析して制御量を識別する。
本実施の形態では、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以下では、主に実施の形態1との差異を説明する。
実施の形態1及び実施の形態2に係る回転ジェスチャにおいて円の中心位置がずれてくることで、ジェスチャ判定部143が、増加量又は減少量を正確に識別できなくなる可能性がある。
そこで、本実施の形態では、ジェスチャ判定部143は、図6に示すように、回転ジェスチャごとに、円の中心位置をタッチ座標より推定する。そして、ジェスチャ判定部143は、推定した円の中心位置に基づいて、回転ジェスチャごとに、移動軌跡を抽出する。このように、ジェスチャ判定部143が、回転ジェスチャごとに円の中心位置を推定し、推定した円の中心位置を各回転ジェスチャにおける移動軌跡の抽出に用いることで、各回転ジェスチャにおける移動軌跡を正確に抽出することができる。この結果、ジェスチャ判定部143は、制御量を識別する精度を高めることができる。
本実施の形態では、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以下では、主に実施の形態1との差異を説明する。
なお、円の中心位置を求めることができるのであれば、ジェスチャ判定部143は、上述の方式以外の方式を用いてもよい。また、ジェスチャ判定部143は、回転ジェスチャごとに中心位置を求める代わりに、特定の間隔ごと(例えば、時間での間隔ごと、タッチ座標での間隔ごと)に円の中心位置を求めるようにしてもよい。
実施の形態1及び実施の形態2に係る回転ジェスチャにおいて、ユーザが精度よく正円をポインタで描くことは困難である。
そこで、本実施の形態では、ジェスチャ判定部143が、回転ジェスチャモデル情報を参照して、回転ジェスチャの移動軌跡を抽出する例を説明する。
本実施の形態では、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
以下では、主に実施の形態1との差異を説明する。
回転ジェスチャモデル情報に示される移動軌跡は、様々なユーザが描画した円の中から選択された平均的な円の移動軌跡でもよいし、ポータブル機器11のユーザが描画した円の移動軌跡でもよい。また、あらかじめ回転ジェスチャモデル情報を準備することなく、ユーザが回転ジェスチャを行う度に、ジェスチャ判定部143が、ユーザが描画した円の移動軌跡を学習して回転ジェスチャモデル情報を生成するようにしてもよい。
図19のいびつな円500の移動軌跡を回転ジェスチャモデル情報として回転ジェスチャモデル情報記憶部155に登録しておけば、ユーザが制御対象機器10を制御するためにタッチパネル118に描画した円がいびつであっても、ジェスチャ判定部143は、パターンマッチングによりタッチパネル118に描画されたいびつな円の移動軌跡を回転ジェスチャにおける円移動の移動軌跡と認識することができる。この結果、ジェスチャ判定部143は、制御量を識別する精度を高めることができる。
また、ポータブル機器11が複数のユーザにより共用される場合は、回転ジェスチャモデル情報記憶部155が、ユーザごとに回転ジェスチャモデル情報を記憶していてもよい。この場合は、ジェスチャ判定部143は、ポータブル機器11を利用中のユーザに対応した回転ジェスチャモデル情報を回転ジェスチャモデル情報記憶部155から読み出し、読み出した回転ジェスチャモデル情報を用いて回転ジェスチャの移動軌跡を抽出する。
実施の形態4では、ジェスチャ判定部143が、実施の形態1の回転ジェスチャに対して回転ジェスチャモデル情報を適用する例を説明した。ジェスチャ判定部143は、実施の形態2の回転ジェスチャに対しても回転モデルジェスチャ情報を適用して、円移動の移動軌跡を抽出してもよい。つまり、本実施の形態では、ジェスチャ判定部143は、ユーザが制御対象機器10を制御するためにタッチパネル118に描画したいびつな円に対して回転ジェスチャモデル情報を適用して円移動の移動軌跡を抽出し、図5に示す周回角度311を特定する。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態1では、図3及び図4に示すように、パラメータ指定ジェスチャが1つのスライドジェスチャで構成されている例を説明した。
これに代えて、図7及び図8に示すように、パラメータ指定ジェスチャがスライドジェスチャ320とスライドジェスチャ321という2つのスライドジェスチャの組み合わせで構成されていてもよい。図7の例でも、スライドジェスチャ320、スライドジェスチャ321及び回転ジェスチャ322は1つのタッチパネル操作で行われる。
また、図9に示すように、パラメータ指定ジェスチャがスライドジェスチャ330とスライドジェスチャ331という2つのスライドジェスチャの組み合わせで構成されていてもよい。図9の例でも、スライドジェスチャ330、スライドジェスチャ331及び回転ジェスチャ332は1つのタッチパネル操作で行われる。
このように、本実施の形態では、ジェスチャ判定部143は、パラメータ指定移動軌跡として、複数の直線移動の移動軌跡を抽出し、抽出した複数の直線移動の移動軌跡を解析して制御対象パラメータを識別する。
なお、本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態1〜6では、制御量指定ジェスチャが回転ジェスチャである。
これに代えて、制御量指定ジェスチャがスライドジェスチャであってもよい。
例えば、図10及び図11に示すように、パラメータ指定ジェスチャがスライドジェスチャ340で構成され、制御量指定ジェスチャがスライドジェスチャ341で構成されるようにしてもよい。
このように、本実施の形態では、ジェスチャ判定部143は、パラメータ指定移動軌跡としてポインタの直線移動の移動軌跡を抽出し、制御量指定移動軌跡としてポインタの別の直線移動の移動軌跡を抽出する。
なお、本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態1では、図3及び図4に示すように、スライドジェスチャの水平方向の移動軌跡を囲うような回転ジェスチャを制御量指定ジェスチャとする例を示した。
これに代えて、図12及び図13に示すように、水平移動のスライドジェスチャ350の外側で行われる回転ジェスチャ351を制御量指定ジェスチャとするようにしてもよい。
本実施の形態では、ジェスチャ判定部143は、図14に示す方法で、回転ジェスチャの円の中心を求める。
つまり、ジェスチャ判定部143は、スライドジェスチャの始点360から終点361までの距離を求める。次に、ジェスチャ判定部143は、始点360から終点361までの距離の中心位置362を求める。次に、ジェスチャ判定部143は、中心位置362から終点361までの距離と同じ距離の位置に円の中心363を設定する。
図12及び図13に示すスライドジェスチャ及び回転ジェスチャを用いる場合に、実施の形態2と同様に、ユーザが回転ジェスチャにおけるポインタの周回角度で制御量を指定する場合は、ジェスチャ判定部143は、図14に示す方法で求めた中心位置362を基準にして周回角度を算出する。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態1〜8では、ジェスチャ判定部143は、1つのポインタによる回転ジェスチャを解析して制御量を識別している。
これに代えて、ジェスチャ判定部143は、複数のポインタによる回転ジェスチャを解析して制御量を識別してもよい。
つまり、本実施の形態に係るジェスチャ判定部143は、図15及び図16に示すように、2つのポインタが同時にタッチパネル118に接して得られた2系統のジェスチャ370、371における回転ジェスチャを解析して、ユーザにより指定された制御量を識別する。
図15及び図16の例では、1回の回転ジェスチャごとに、ジェスチャ判定部143は、増加量(又は減少量)を2ずつインクリメントする。
つまり、n(n≧2)個のポインタが用いられる場合は、ジェスチャ判定部143は、1回の回転ジェスチャごとに、増加量(又は減少量)をnずつインクリメントする。
また、ジェスチャ判定部143は、2つのポインタにより回転ジェスチャが行われた場合でも、1回の回転ジェスチャごとに、増加量(又は減少量)を1ずつインクリメントするようにしてもよい。
また、ジェスチャ判定部143は、1つのポインタによりスライドジェスチャが行われた後に、2つのポインタにより回転ジェスチャが行われた場合に、1回の回転ジェスチャごとに、ジェスチャ判定部143は、増加量(又は減少量)を2ずつインクリメントするようにしてもよい。
また、本実施の形態では、2つの回転ジェスチャが同時に行われるため、回転ジェスチャで描画される円がいびつになりやすい。このため、ジェスチャ判定部143は、実施の形態4で説明した回転ジェスチャモデル情報を用いて、回転ジェスチャを認識するようにしてもよい。
このように、本実施の形態に係るジェスチャ判定部143は、複数のポインタの移動軌跡を抽出し、複数のポインタの移動軌跡を解析して、制御量を識別する。
なお、本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態9では、実施の形態1の回転ジェスチャを2つのポインタにより行う例を説明した。実施の形態2の回転ジェスチャを2つのポインタにより行ってもよい。本実施の形態では、図17及び図18に示すように、ジェスチャ判定部143は、2つのポインタが同時にタッチパネル118にタッチして並行に行われた回転ジェスチャの円移動の移動軌跡を抽出して、制御量を識別する。本実施の形態では、ジェスチャ判定部143は、2つの平行する2つのスライドジェスチャを認識した後に2つの回転ジェスチャ382、383を認識する。ジェスチャ判定部143は、2つの回転ジェスチャ382、383でのポインタの周回角度から制御量を識別する。
本実施の形態では、2つの回転ジェスチャが同時に行われるため、回転ジェスチャで描画される円がいびつになりやすい。このため、ジェスチャ判定部143は、実施の形態4で説明した回転ジェスチャモデル情報を用いて、回転ジェスチャを認識するようにしてもよい。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
実施の形態1では、ジェスチャ判定部143は、回転ジェスチャでのポインタの周回数により制御量を識別する。しかしながら、実施の形態1では、ポータブル機器11の向きが固定的である。
つまり、実施の形態1では、ポータブル機器11が本来の向きとは逆の向きに保持された場合には、ジェスチャ判定部143は、パラメータ指定ジェスチャを正しく認識できない。
本実施の形態では、図1に示す重力センサー113を活用することで、ポータブル機器11が逆に保持された場合でも、ジェスチャ判定部143がパラメータ指定ジェスチャを正しく認識できるようにする。
より具体的には、本実施の形態では、ジェスチャ判定部143は、ポインタの移動軌跡と重力センサーの測定結果により得られたポータブル機器10の方向とに基づき、制御対象パラメータと制御量とを識別する。
本実施の形態でも、実施の形態1と比較して、ジェスチャ判定部143及び方向検出部147の動作が異なるのみであり、制御対象機器10及びポータブル機器11のハードウェア構成例は図1に示した通りであり、ポータブル機器11の機能構成例は図2に示した通りである。また、ポータブル機器11の動作フローは、図21に示した通りである。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
最後に、ポータブル機器11のハードウェア構成の補足説明を行う。
図1に示すプロセッサ111は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ111は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
通信インタフェース110は、例えば、通信チップ又はNIC(Network Interface Card)である。
また、ROM116には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がプロセッサ111により実行される。
プロセッサ111はOSの少なくとも一部を実行しながら、通信処理部140、ジェスチャ検出部141、センサー部146、表示制御部150(以下、これらをまとめて「部」という)の機能を実現するプログラムを実行する。
プロセッサ111がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
図1では、1つのプロセッサが図示されているが、ポータブル機器11が複数のプロセッサを備えていてもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、RAM117、プロセッサ111内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、ポータブル機器11は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
この場合は、「部」は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
Claims (14)
- タッチパネルを備える情報処理装置であって、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出部と、
前記抽出部により抽出された前記ポインタの移動軌跡を解析して、前記ポインタの移動軌跡から、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータを指定する移動軌跡をパラメータ指定移動軌跡として抽出し、前記制御対象パラメータの制御量を指定する移動軌跡を制御量指定移動軌跡として抽出し、抽出した前記パラメータ指定移動軌跡を解析して前記制御対象パラメータを識別し、抽出した前記制御量指定移動軌跡を解析して前記制御量を識別する識別部とを有する情報処理装置。 - 前記識別部は、
前記抽出部により抽出された前記ポインタの移動軌跡から、前記パラメータ指定移動軌跡として、前記ポインタの直線移動の移動軌跡を抽出し、前記制御量指定移動軌跡として前記ポインタの円移動の移動軌跡を抽出し、
抽出した前記直線移動の移動軌跡を解析して前記制御対象パラメータを識別し、
抽出した前記円移動の移動軌跡を解析して前記制御量を識別する請求項1に記載の情報処理装置。 - 前記識別部は、
前記直線移動の開始点の位置と終了点の位置とを解析して前記制御対象パラメータを識別する請求項2に記載の情報処理装置。 - 前記識別部は、
前記円移動の移動軌跡での前記ポインタの周回方向と周回数とを解析して前記制御量を識別する請求項2に記載の情報処理装置。 - 前記識別部は、
前記円移動での円の中心位置を推定し、推定した前記円の中心位置に基づいて前記円移動の移動軌跡を抽出する請求項2に記載の情報処理装置。 - 前記識別部は、
前記円移動の移動軌跡のモデルを参照して、前記抽出部により抽出された前記ポインタの移動軌跡から前記円移動の移動軌跡を抽出する請求項2に記載の情報処理装置。 - 前記識別部は、
前記パラメータ指定移動軌跡として、複数の直線移動の移動軌跡を抽出し、
抽出した前記複数の直線移動の移動軌跡を解析して前記制御対象パラメータを識別する請求項2に記載の情報処理装置。 - 前記識別部は、
前記パラメータ指定移動軌跡として前記ポインタの直線移動の移動軌跡を抽出し、前記制御量指定移動軌跡として前記ポインタの別の直線移動の移動軌跡を抽出する請求項1に記載の情報処理装置。 - 前記抽出部は、
複数のポインタの移動軌跡を抽出し、
前記識別部は、
前記抽出部により抽出された前記複数のポインタの移動軌跡を解析して、前記制御量を識別する請求項1に記載の情報処理装置。 - タッチパネルと重力センサーとを備える情報処理装置であって、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出部と、
前記抽出部により抽出された前記ポインタの移動軌跡と前記重力センサーの測定結果により得られた前記情報処理装置の方向とに基づき、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する識別部とを有する情報処理装置。 - タッチパネルを備えるコンピュータが、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出し、
抽出した前記ポインタの移動軌跡を解析して、前記ポインタの移動軌跡から、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータを指定する移動軌跡をパラメータ指定移動軌跡として抽出し、前記制御対象パラメータの制御量を指定する移動軌跡を制御量指定移動軌跡として抽出し、抽出した前記パラメータ指定移動軌跡を解析して前記制御対象パラメータを識別し、抽出した前記制御量指定移動軌跡を解析して前記制御量を識別する情報処理方法。 - タッチパネルと重力センサーとを備えるコンピュータが、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出し、
抽出した前記ポインタの移動軌跡と前記重力センサーの測定結果により得られた前記コンピュータの方向とに基づき、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する情報処理方法。 - タッチパネルを備えるコンピュータに、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出処理と、
前記抽出処理により抽出された前記ポインタの移動軌跡を解析して、前記ポインタの移動軌跡から、前記ポインタの移動によって指定された、制御対象のパラメータである制御対象パラメータを指定する移動軌跡をパラメータ指定移動軌跡として抽出し、前記制御対象パラメータの制御量を指定する移動軌跡を制御量指定移動軌跡として抽出し、抽出した前記パラメータ指定移動軌跡を解析して前記制御対象パラメータを識別し、抽出した前記制御量指定移動軌跡を解析して前記制御量を識別する識別処理とを実行させる情報処理プログラム。 - タッチパネルと重力センサーとを備えるコンピュータに、
ポインタが前記タッチパネルに接してから前記ポインタが前記タッチパネルから離れるまでの間の前記ポインタの移動軌跡を抽出する抽出処理と、
前記抽出処理により抽出された前記ポインタの移動軌跡と前記重力センサーの測定結果により得られた前記コンピュータの方向とに基づき、制御対象のパラメータである制御対象パラメータと前記制御対象パラメータの制御量とを識別する識別処理とを実行させる情報処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/063470 WO2017187629A1 (ja) | 2016-04-28 | 2016-04-28 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017187629A1 JPWO2017187629A1 (ja) | 2018-09-13 |
JP6433621B2 true JP6433621B2 (ja) | 2018-12-05 |
Family
ID=60161275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018514079A Expired - Fee Related JP6433621B2 (ja) | 2016-04-28 | 2016-04-28 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190095093A1 (ja) |
JP (1) | JP6433621B2 (ja) |
KR (1) | KR20180122721A (ja) |
CN (1) | CN109074210A (ja) |
DE (1) | DE112016006806T5 (ja) |
WO (1) | WO2017187629A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10901529B2 (en) * | 2018-07-19 | 2021-01-26 | Stmicroelectronics S.R.L. | Double-tap event detection device, system and method |
CN109947349A (zh) * | 2019-03-22 | 2019-06-28 | 思特沃克软件技术(北京)有限公司 | 一种基于车载触摸屏进行参数调节的方法和车载触摸屏 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2008299771A (ja) * | 2007-06-04 | 2008-12-11 | Nanao Corp | ディスプレイ装置 |
JP5034912B2 (ja) | 2007-12-06 | 2012-09-26 | パナソニック株式会社 | 情報入力装置、情報入力方法、および情報入力プログラム |
JP2012156835A (ja) * | 2011-01-27 | 2012-08-16 | Seiko Epson Corp | リモコン装置及びプログラム |
US20130239063A1 (en) * | 2012-03-06 | 2013-09-12 | Apple Inc. | Selection of multiple images |
JP5944743B2 (ja) * | 2012-05-23 | 2016-07-05 | 京セラ株式会社 | 携帯端末、表示制御プログラムおよび表示制御方法 |
KR101558354B1 (ko) * | 2013-11-13 | 2015-10-20 | 현대자동차 주식회사 | 차량용 블라인드 콘트롤 시스템 |
CN103760982B (zh) * | 2014-01-22 | 2017-09-22 | 深圳市金立通信设备有限公司 | 一种控制终端屏幕状态的方法及终端 |
CN104850329A (zh) * | 2015-04-29 | 2015-08-19 | 小米科技有限责任公司 | 参数调节方法及装置 |
CN105159454A (zh) * | 2015-08-26 | 2015-12-16 | 广东欧珀移动通信有限公司 | 一种播放设备控制方法及智能手表 |
-
2016
- 2016-04-28 CN CN201680084779.7A patent/CN109074210A/zh active Pending
- 2016-04-28 JP JP2018514079A patent/JP6433621B2/ja not_active Expired - Fee Related
- 2016-04-28 WO PCT/JP2016/063470 patent/WO2017187629A1/ja active Application Filing
- 2016-04-28 US US16/085,958 patent/US20190095093A1/en not_active Abandoned
- 2016-04-28 DE DE112016006806.9T patent/DE112016006806T5/de not_active Withdrawn
- 2016-04-28 KR KR1020187030543A patent/KR20180122721A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
KR20180122721A (ko) | 2018-11-13 |
US20190095093A1 (en) | 2019-03-28 |
DE112016006806T5 (de) | 2019-01-24 |
CN109074210A (zh) | 2018-12-21 |
WO2017187629A1 (ja) | 2017-11-02 |
JPWO2017187629A1 (ja) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10318042B2 (en) | Controlling method of foldable screen and electronic device | |
US9477403B2 (en) | Drawing on a touchscreen | |
JP2014501998A (ja) | タッチスクリーン上に複数のフレームを提示するためのシステム及び方法 | |
CN105094616B (zh) | 触摸屏控制方法及装置 | |
US20140218315A1 (en) | Gesture input distinguishing method and apparatus in touch input device | |
EP3100151A1 (en) | Virtual mouse for a touch screen device | |
EP2829967A2 (en) | Method of processing input and electronic device thereof | |
KR20150083651A (ko) | 전자 장치 및 그 데이터 표시 방법 | |
EP2767897B1 (en) | Method for generating writing data and an electronic device thereof | |
JP6433621B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US10248307B2 (en) | Virtual reality headset device with front touch screen | |
KR102389782B1 (ko) | 멀티 터치 패턴을 이용한 유저 인터페이스 메뉴 디스플레이 장치 및 방법 | |
US10073612B1 (en) | Fixed cursor input interface for a computer aided design application executing on a touch screen device | |
CN106293446B (zh) | 显示方法及显示设备 | |
JP6630164B2 (ja) | 電子機器及びその制御方法、プログラム、並びに記憶媒体 | |
US9536126B2 (en) | Function execution method based on a user input, and electronic device thereof | |
KR20150095523A (ko) | 전자 장치 및 전자 장치에서 색상 추출 방법 | |
JP6442755B2 (ja) | 電子機器、制御プログラム、及び、制御方法 | |
TW201617793A (zh) | 穿戴式裝置及其操作方法 | |
JP6682951B2 (ja) | プログラムおよび情報処理装置 | |
JP2016066254A (ja) | タッチ検出装置を備えた電子装置 | |
JP6252351B2 (ja) | 電子機器 | |
KR102122793B1 (ko) | 전자 디바이스 및 전자 디바이스에서 이미지 처리 방법 | |
US20150116281A1 (en) | Portable electronic device and control method | |
CN106095317B (zh) | 一种触摸屏的响应方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180621 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180724 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6433621 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |