JP6125413B2 - Electronics - Google Patents
Electronics Download PDFInfo
- Publication number
- JP6125413B2 JP6125413B2 JP2013242030A JP2013242030A JP6125413B2 JP 6125413 B2 JP6125413 B2 JP 6125413B2 JP 2013242030 A JP2013242030 A JP 2013242030A JP 2013242030 A JP2013242030 A JP 2013242030A JP 6125413 B2 JP6125413 B2 JP 6125413B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- touch screen
- screen display
- controller
- smartphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、タッチスクリーンディスプレイを備える電子機器に関する。 The present invention relates to an electronic device including a touch screen display.
従来から、タッチスクリーンディスプレイを備える電子機器が存在する。その電子機器は、例えば、スマートフォン及びタブレット型PC等である。そのような電子機器は、タッチスクリーンディスプレイに対してジェスチャ操作を行うようになっている(特許文献1参照)。 Conventionally, there is an electronic device including a touch screen display. The electronic device is, for example, a smartphone or a tablet PC. Such an electronic device is designed to perform a gesture operation on a touch screen display (see Patent Document 1).
ジェスチャ操作には、例えば、タップ、フリック及びピンチ等がある。電子機器を操作するユーザには、ジェスチャ操作に慣れた人及び不慣れな人が存在する。このため、電子機器が複数のジェスチャ操作を受け付ける場合、ジェスチャ操作に不慣れな人は、操作に悩むことになる。 Examples of the gesture operation include a tap, a flick, and a pinch. A user who operates an electronic device includes a person who is accustomed to a gesture operation and a person who is not accustomed to the gesture operation. For this reason, when an electronic device accepts a plurality of gesture operations, a person unfamiliar with the gesture operations suffers from the operation.
本発明は、ユーザのジェスチャ操作に基づいて、ユーザの操作性を向上させることができる電子機器を提供することを目的とする。 An object of the present invention is to provide an electronic device that can improve user operability based on a user's gesture operation.
電子機器は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイに対するジェスチャを受け付けた場合、前記タッチスクリーンディスプレイに対する前記ジェスチャの態様に応じて、以降の処理を変更する制御部と、を備える。 The electronic device includes a touch screen display, and a control unit that changes subsequent processing according to a mode of the gesture with respect to the touch screen display when a gesture with respect to the touch screen display is received.
前記制御部は、変更する処理の内容として、前記タッチスクリーンディスプレイに対する前記ジェスチャの態様に応じて、以降に前記タッチスクリーンディスプレイで受け付ける操作の態様を限定することが好ましい。 It is preferable that the control unit limits a mode of an operation that is subsequently accepted by the touch screen display according to a mode of the gesture with respect to the touch screen display as the content of the process to be changed.
電子機器は、ジェスチャの態様と操作の難易度とを1対1に対応づけた情報を記憶する記憶部を備えることが好ましい。この場合、前記制御部は、前記タッチスクリーンディスプレイに対するジェスチャを受け付けた場合、前記ジェスチャの態様と、前記記憶部に記憶された情報とに基づいて、以降に前記タッチスクリーンディスプレイで受け付けるジェスチャの態様を限定する。 The electronic device preferably includes a storage unit that stores information in which the gesture mode and the difficulty level of the operation are associated with each other on a one-to-one basis. In this case, when the control unit receives a gesture for the touch screen display, based on the gesture mode and the information stored in the storage unit, the control unit subsequently determines a gesture mode to be received on the touch screen display. limit.
本発明によれば、ユーザのジェスチャ操作に基づいて、ユーザの操作性を向上させることができる電子機器を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the electronic device which can improve a user's operativity based on a user's gesture operation can be provided.
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える電子機器の一例として、スマートフォンについて説明する。 Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an electronic device provided with a touch screen display.
図1から図3を参照しながら、実施形態に係るスマートフォン1の外観について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
The external appearance of the
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、外部インターフェイス14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
The
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号又は図形等を表示する。
The
タッチスクリーン2Bは、タッチスクリーンディスプレイ2に対する指、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、又はスタイラスペン等がタッチスクリーンディスプレイ2に接触した位置を検出することができる。
The
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bがタッチスクリーンディスプレイ2に対する接触を検出する指、又はスタイラスペン等を単に「指」ということがある。
The detection method of the
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触位置、接触時間又は接触回数に基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーンディスプレイ2に対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
The
タッチは、一の接触によるジェスチャである。すなわち、タッチは、タッチスクリーンディスプレイ2(例えば、表面)に指が接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が接触するジェスチャをタッチとして判別する。ロングタッチとは、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャをロングタッチとして判別する。
A touch is a gesture by a single contact. That is, the touch is a gesture in which a finger contacts the touch screen display 2 (for example, the surface). The
リリースは、指がタッチスクリーンディスプレイ2から離れるジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2から離れるジェスチャをリリースとして判別する。スワイプは、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャをスワイプとして判別する。
A release is a gesture in which a finger leaves the
タップは、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。ダブルタップは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
A tap is a gesture for releasing following a touch. The
ロングタップは、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。ドラッグは、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
A long tap is a gesture for releasing following a long touch. The
フリックは、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する上フリック、指が画面の下方向へ移動する下フリック、指が画面の右方向へ移動する右フリック、指が画面の左方向へ移動する左フリック等を含む。
The flick is a gesture that is released while the finger moves at high speed in one direction following the touch. The
ピンチインは、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに近付く方向にスワイプするジェスチャをピンチインとして判別する。ピンチアウトは、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
Pinch-in is a gesture that swipes in a direction in which a plurality of fingers approach each other. The
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。したがって、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、タッチスクリーンディスプレイ2に表示されている画面に応じて異なる。
The
図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
An example of a screen displayed on the
スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップを検出すると、メールアプリケーションを実行する。ここで、スマートフォン1は、例えば、タッチスクリーンディスプレイ2に対するアイコン50の表示位置(領域)に対応する位置(領域)へのジェスチャを、アイコン50に対応付けられたアプリケーションの実行命令であると解釈する。
The
アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、所定の規則に従って配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。画像は、例えば、利用者の設定に従って任意の画像が壁紙41として決定される。
The
スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面を表示する場合、ホーム画面の数が複数であっても、それらのうちから選択された1つをディスプレイ2Aに表示する。
The
スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、現在表示されているホーム画面の位置を示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。
The
図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。また、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在表示されていることを示している。
In the example shown in FIG. 4, four
スマートフォン1は、ホーム画面を表示中に特定のジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。また、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。
When the
ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、現在時刻、天気の情報、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40とは別の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限られない。
A
なお、図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
Note that the
図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、カメラ12及び13と、外部インターフェイス14と、加速度センサ15と、方位センサ16と、回転検出センサ17とを有する。
FIG. 5 is a block diagram illustrating the configuration of the
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。
As described above, the
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、及びマルチプッシュである。
The
例えば、ボタン3A〜3Cは、ホームボタン、バックボタン又はメニューボタンである。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。
For example, the
照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
The
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。
The
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格としては、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM、PHS(Personal Handy−phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。 The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. For example, wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, cellular phone communication standards include LTE (Long Term Evolution), W-CDMA, CDMA2000, PDC, GSM, PHS (Personal Handy-phone System), and the like. Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA, NFC (Near Field Communication), and the like. The communication unit 6 may support one or more of the communication standards described above.
レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。なお、スマートフォン1は、レシーバ7に加えて、スピーカをさらに有してもよい。スマートフォン1は、レシーバ7に代えて、スピーカをさらに有してもよい。
The
ストレージ9は、プログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は記憶媒体を介してストレージ9にインストールされてもよい。
The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a predetermined screen on the
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。テーブル9Dは、キーアサインテーブル等の各種テーブルが格納されている。配置パターンデータベース9Eは、ディスプレイ2Aに表示されるアイコン等の配置パターンが格納されている。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。
The storage 9 stores, for example, a
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
The
コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System−on−a−chip)等の集積回路であってもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
The
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A及び通信ユニット6等を制御することによって各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、加速度センサ15等の各種検出部の検出結果に応じて、制御を変更することもある。
Specifically, the
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
For example, by executing the
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
The
外部インターフェイス14は、他の装置が接続される端子である。外部インターフェイス14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト)、イヤホンマイクコネクタのような汎用的な端子であってもよい。外部インターフェイス14は、Dockコネクタのような専用に設計された端子でもよい。外部インターフェイス14に接続される装置には、例えば、外部ストレージ、スピーカ、通信装置が含まれる。
The
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。回転検出センサ17は、スマートフォン1の回転を検出する。加速度センサ15、方位センサ16及び回転検出センサ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
The
このように構成されるスマートフォン1は、ユーザのジェスチャ操作に基づいて、ユーザの操作性を向上させることができる機能を有する。
The
コントローラ10は、タッチスクリーンディスプレイ2によって第1の操作を受け付けた場合、タッチスクリーンディスプレイ2に対する第1の操作の態様に応じて、以降の処理を変更する。コントローラ10は、本発明の「制御部」の一実施形態に対応する。
When the
第1の操作は、例えば、スマートフォン1のロックを解除するときの操作等のことである。また、第1の操作は、例えば、スマートフォン1のロックを解除した後の、所定のタイミングで行われる操作であってもよい。一例として、第1の操作は、タッチスクリーンディスプレイ2に表示されるアイコン50が操作される場合には、そのアイコン50を操作した時のジェスチャ操作であってもよい。
The first operation is, for example, an operation when unlocking the
操作の態様とは、ジェスチャ操作の種類のことである。例えば、操作の態様とは、タップ、スイープ及びフリック等のジェスチャ操作のことである。第1の操作の態様は、スマートフォン1のジェスチャ操作の熟練度に応じて変わる。例えば、ジェスチャ操作に慣れていないユーザであれば、第1の操作の態様はタップになる可能性が高い。このため、コントローラ10は、第1の操作の態様としてタップを検出した場合には、ジェスチャ操作に慣れていないユーザがスマートフォン1を操作していると判断する。
The mode of operation is the type of gesture operation. For example, the mode of operation is a gesture operation such as tap, sweep, and flick. The mode of the first operation varies depending on the skill level of the gesture operation of the
また、例えば、ジェスチャ操作に慣れたユーザであれば、第1の操作の態様はスイープになる可能性が高い。このため、コントローラ10は、第1の操作の態様としてスイープを検出した場合には、ジェスチャ操作に中程度に慣れたユーザがスマートフォン1を操作していると判断する。
For example, if the user is accustomed to the gesture operation, the first operation mode is likely to be a sweep. For this reason, the
また、例えば、ジェスチャ操作によく慣れたユーザであれば、第1の操作の態様はフリックになる可能性が高い。このため、コントローラ10は、第1の操作の態様としてフリックを検出した場合には、ジェスチャ操作によく慣れたユーザがスマートフォン1を操作していると判断する。
For example, if the user is familiar with the gesture operation, the first operation mode is likely to flick. For this reason, the
処理を変更することとは、ユーザのジェスチャ操作の習熟度に応じて、スマートフォン1で実行される処理を変更することである。すなわち、コントローラ10は、ジェスチャ操作に慣れていないユーザがスマートフォン1を操作していると判断した場合には、不慣れなユーザでもスマートフォン1を操作し易くするための処理に移行させる。一方、コントローラ10は、ジェスチャ操作に慣れたユーザがスマートフォン1を操作していると判断した場合には、スマートフォン1に対して高度の操作を可能にするための処理に移行させる。
Changing the process means changing the process executed on the
これにより、スマートフォン1は、ジェスチャ操作に対するユーザの慣れに応じた操作を受け付けることができる。
Thereby, the
コントローラ10は、変更する処理の内容として、タッチスクリーンディスプレイ2に対する第1の操作の態様に応じて、以降にタッチスクリーンディスプレイ2で受け付ける操作の態様を変更することが好ましい。
It is preferable that the
コントローラ10は、例えば、第1の操作の態様としてタップを検出した場合には、これ以降のスマートフォン1に対する操作もタップが行われる可能性が高いとして、タッチスクリーンディスプレイ2で受け付ける操作の態様を、タップを前提とした操作に変更する。この場合、スマートフォン1は、第1の操作の態様として、ジェスチャ操作に慣れていないユーザからの操作を受け付けたと判断して、ジェスチャ操作に慣れていないユーザであっても操作が可能なように操作の態様を変更する。例えば、タップによる操作によって、スマートフォン1を操作が可能なように、以降の表示項目が変更される。
また、コントローラ10は、例えば、第1の操作の態様としてフリックを検出した場合には、これ以降のスマートフォン1に対する操作もフリックが行われる可能性が高いとして、タッチスクリーンディスプレイ2で受け付ける操作の態様を、フリックを含む複数の操作態様を前提とした操作に変更する。この場合、スマートフォン1は、第1の操作の態様として、ジェスチャ操作に慣れたユーザからの操作を受け付けたと判断して、ジェスチャ操作に慣れたユーザを前提とした表示項目を以降に表示する。
このようにスマートフォン1は、ユーザのジェスチャ操作に対する習熟度を考慮して、ユーザに入力を求める操作態様を変更する。スマートフォン1が、入力された第1の操作の態様に合わせて、入力を求める操作態様を変更することで、当該第1の操作を行ったユーザに対して好適な操作画面を提供することができる。
For example, when the
In addition, for example, when the
As described above, the
コントローラ10は、一例として、タッチスクリーンディスプレイ2に表示される、メール機能を起動させるためのアイコン(メールアイコン)がタップ操作された場合には、その後のメール機能に対する操作として、タップを前提とした操作に変更する。また、コントローラ10は、一例として、タッチスクリーンディスプレイ2に表示されるメールアイコンがフリックで操作された場合には、その後のメール機能の操作を、フリックを含む複数の操作の態様を前提とした操作に変更する。
As an example, when an icon (mail icon) for starting the mail function displayed on the
これらの場合、コントローラ10は、それぞれの操作に適したユーザインターフェイスに変更する。すなわち、コントローラ10は、ユーザのジェスチャ操作の習熟度に応じて、ユーザインターフェイスを変更する。具体的には、コントローラ10は、ジェスチャ操作に慣れたユーザであれば、上級者向けのユーザインターフェイスに変更する。またコントローラ10は、ジェスチャ操作に中程度に慣れたユーザであれば、中級者向けのユーザインターフェイスに変更する。また、コントローラ10は、ジェスチャ操作に慣れていないユーザであれば、初級者向けのユーザインターフェイスに変更する。
In these cases, the
この場合の例について説明する。
第1例は、タッチスクリーンディスプレイ2に表示されるソフトキーボードを操作する例である。コントローラ10は、ジェスチャ操作に慣れたユーザであれば、ソフトキーボードに対するスワイプ操作を可能にする。一方、コントローラ10は、ジェスチャ操作に慣れていないユーザであれば、例えば、ソフトキーボードに対するフリック操作及びピンチ操作を無効にし、ソフトキーボードに対するタッチ操作のみを有効にする。
An example of this case will be described.
The first example is an example of operating a soft keyboard displayed on the
第2例は、文字入力機能において文字を変換する例である。コントローラ10は、ジェスチャ操作に慣れたユーザであれば、タッチスクリーンディスプレイ2に表示される文字をスイープして、変換対象となる文字を選択する、いわゆるフリック入力による操作を可能にする。一方、コントローラ10は、ジェスチャ操作に慣れていないユーザであれば、タッチスクリーンディスプレイ2に表示されるソフトキーボードをタッチ操作して、変換対象となる文字を選択することを可能にする。この場合、コントローラ10は、ソフトキーボードに対するフリック操作及びピンチ操作を無効にする。
The second example is an example of converting characters in the character input function. If the user is accustomed to the gesture operation, the
第3例は、タッチスクリーンディスプレイ2に表示される電子書籍のページをめくる例である。コントローラ10は、ジェスチャ操作に慣れたユーザであれば、タッチスクリーンディスプレイ2に表示されているページ上をスイープ操作することで、ページめくりを実行することを可能にする。一方、コントローラ10は、ジェスチャ操作に慣れていないユーザであれば、タッチスクリーンディスプレイ2に表示されるページめくりキーをタッチ操作されると、ページめくりを実行することを可能にする。この場合、コントローラ10は、ページめくりキーに対するフリック操作及びピンチ操作を無効にする。
The third example is an example of turning a page of an electronic book displayed on the
これにより、スマートフォン1は、ユーザのジェスチャ操作の習熟度に応じて操作を行い易くすることができる。
Thereby, the
ストレージ9は、操作の態様と操作の難易度とを1対1に対応づけた情報を記憶することが好ましい。ストレージ9は、本発明の「記憶部」の一実施形態に対応する。この場合、コントローラ10は、タッチスクリーンディスプレイ2によって第1の操作を受け付けた場合、第1の操作の態様と、ストレージ9に記憶された情報とに基づいて、以降にタッチスクリーンディスプレイ2で受け付ける操作の態様を限定する。
The storage 9 preferably stores information in which the mode of operation and the difficulty level of the operation are associated with each other on a one-to-one basis. The storage 9 corresponds to an embodiment of the “storage unit” of the present invention. In this case, when the
操作の態様と操作の難易度との対応付けは、例えば、タップ操作の場合には難易度が低く、フリック操作の場合には難易度が高いという対応づけである。コントローラ10は、第1の操作の態様としてタップ操作を受け付けた場合には、ストレージ9に記憶される情報に基づいて、初級者が操作し易い操作態様に限定する。この場合、例えば、コントローラ10は、初級者向けのユーザインターフェイスに変更する。一方、第1の操作の態様としてフリック操作を受け付けた場合には、ストレージ9に記憶される情報に基づいて、上級者が操作し易い操作態様に変更する。この場合、例えば、コントローラ10は、上級者向けのユーザインターフェイスに変更する。
The association between the operation mode and the operation difficulty level is, for example, an association that the difficulty level is low in the case of a tap operation and the difficulty level is high in the case of a flick operation. When the
また、コントローラ10は、上述したように初級者が操作し易い操作態様に限定した後に、フリック操作等の上級者向けの操作を検出した場合には、ストレージ9に記憶される情報に基づいて、上級者が操作し易い操作態様に変更してもよい。すなわち、コントローラ10は、初級者向けのユーザインターフェイスから上級者向けのユーザインターフェイスに変更する。
Further, the
これにより、スマートフォン1は、ユーザの操作を容易にすることができる。
Thereby, the
なお、コントローラ10は、スマートフォン1に対するジェスチャ操作の全て又は一部をストレージ9に記憶しておき、記憶したジェスチャ操作に基づいて、操作態様を変更してもよい。すなわち、コントローラ10は、記憶したジェスチャ操作に基づいて、初級者向けのユーザインターフェイス及び上級者向けのユーザインターフェイスのいずれかに変更してもよい。例えば、コントローラ10は、記憶した複数のジェスチャ操作のうち最も多いジェスチャ操作に基づいて、ユーザインターフェイスを変更する。具体的な一例として、コントローラ10は、記憶したジェスチャ操作のうち最も多いのがタップ操作である場合には、初級者が操作し易い操作態様に変更する。
Note that the
また、コントローラ10は、機能毎に、操作態様を変更してもよい。ここで、機能とは、例えば、ブラウザ機能、メール機能、音楽再生機能及びカメラ機能等のことである。
また、コントローラ10は、各機能の要素毎に、操作態様を変更してもよい。ここで、要素とは、メール機能を例にすると、宛先選択要素、文字入力要素、送受信操作要素等のことである。
Moreover, the
Moreover, the
次に、スマートフォン1の動作について説明する。図6は、スマートフォン1の動作について説明するためのフォローチャートである。
Next, the operation of the
ステップS1において、コントローラ10は、タッチスクリーンディスプレイ2によって第1の操作を受け付けたか否かを判断する。第1の操作を受け付けた場合(YES)、コントローラ10は、処理をステップS2に進める。第1の操作を受け付けていない場合(NO)、コントローラ10は、ステップS1の判断を再度行う。
In step S <b> 1, the
ステップS2において、コントローラ10は、第1の操作の態様が何かを判断する。すなわち、コントローラ10は、ステップS1で受け付けた第1の操作に基づいて、ジェスチャ操作に慣れていないユーザ(初級者)がスマートフォン1を操作しているか、ジェスチャ操作に中程度に慣れたユーザ(中級者)がスマートフォン1を操作しているか、ジェスチャ操作によく慣れたユーザ(上級者)がスマートフォン1を操作しているか、を判断する。初級者が操作していると判断した場合には、コントローラ10は、処理をステップS3に進める。中級者が操作していると判断した場合には、コントローラ10は、処理をステップS7に進める。上級者が操作していると判断した場合には、コントローラ10は、処理をステップS10に進める。
In step S <b> 2, the
ステップS3において、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、初級者を前提として変更する。一例として、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を変更して、タップを前提とした操作画面を表示する。
In step S <b> 3, the
ステップS4において、コントローラ10は、上級者向けのジェスチャ操作が行われたか否かを判断する。上級者向けのジェスチャ操作とは、例えば、フリック操作である。上級者向けの操作が行われた場合(YES)、コントローラ10は、処理をステップS10に進める。上級者向けの操作が行われていない場合(NO)、コントローラ10は、処理をステップS5に進める。
In step S4, the
ステップS5において、コントローラ10は、中級者向けのジェスチャ操作が行われたか否かを判断する。中級者向けのジェスチャ操作とは、例えば、スイープ操作である。中級者向けの操作が行われた場合(YES)、コントローラ10は、処理をステップS7に進める。中級者向けの操作が行われていない場合(NO)、コントローラ10は、処理をステップS6に進める。
In step S5, the
ステップS6において、コントローラ10は、処理を終了させる操作が行われたか否かを判断する。終了操作が行われていない場合(NO)、コントローラ10は、処理をステップS3に戻す。終了操作が行われた場合(YES)、コントローラ10は、処理を終了させる。
In step S6, the
ステップS7は、ステップS2で「中級者」と判断された場合、及び、ステップS5で「YES」と判断された場合に到達する。ステップS7において、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、中級者を前提として変更する。一例として、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、スイープを含む複数の操作態様を前提として変更する。例えば、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、タップ及びスイープを前提として変更してもよい。
Step S7 is reached when it is determined as “intermediate” in step S2 and when “YES” is determined in step S5. In step S <b> 7, the
ステップS8において、コントローラ10は、上級者向けのジェスチャ操作が行われたか否かを判断する。上級者向けのジェスチャ操作とは、例えば、フリック操作である。上級者向けの操作が行われた場合(YES)、コントローラ10は、処理をステップS10に進める。上級者向けの操作が行われていない場合(NO)、コントローラ10は、処理をステップS9に進める。
In step S8, the
ステップS9において、コントローラ10は、処理を終了させる操作が行われたか否かを判断する。終了操作が行われていない場合(NO)、コントローラ10は、処理をステップS7に戻す。終了操作が行われた場合(YES)、コントローラ10は、処理を終了させる。
In step S9, the
ステップS10は、ステップS2で「上級者」と判断された場合、並びに、ステップS4及びステップS8で「YES」と判断された場合に到達する。ステップS10において、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、上級者を前提として変更する。一例として、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、フリックを含む複数の操作態様を前提として変更する。例えば、コントローラ10は、タッチスクリーンディスプレイ2で受け付ける操作の態様を、タップ、スイープ及びフリックを前提として変更してもよい。
Step S10 is reached when it is determined as “advanced” at step S2 and when “YES” is determined at steps S4 and S8. In step S <b> 10, the
ステップS11において、コントローラ10は、処理を終了させる操作が行われたか否かを判断する。終了操作が行われていない場合(NO)、コントローラ10は、処理をステップS10に戻す。終了操作が行われた場合(YES)、コントローラ10は、処理を終了させる。
In step S11, the
上記の実施形態では、電子機器として、スマートフォン1を挙げて説明した。しかしながら、本発明は、この実施形態に限定されることはない。電子機器は、例えば、タブレット型PC及びゲーム機等の、タッチスクリーンディスプレイ2を備える電子機器であればよい。
In the above embodiment, the
1 スマートフォン(電子機器)
2 タッチスクリーンディスプレイ
9 ストレージ(記憶部)
10 コントローラ(制御部)
1 Smartphone (electronic equipment)
2 Touch screen display 9 Storage (storage unit)
10 Controller (control unit)
Claims (5)
前記タッチスクリーンディスプレイに対するジェスチャを受け付けた場合、前記タッチスクリーンディスプレイに対する当該ジェスチャの態様に応じて、以降に前記タッチスクリーンディスプレイで受け付ける、所定の処理に対応付けられたジェスチャの数を変更する制御部と、
を備える電子機器。 Touch screen display,
When receiving a gesture with respect to the touch screen display, in accordance with aspects of the gesture relative to the touch screen display, accepted by the touch screen display after a control unit for changing the number of gestures associated with the predetermined processing ,
Electronic equipment comprising.
前記制御部は、前記タッチスクリーンディスプレイに対するジェスチャを受け付けた場合、当該ジェスチャの態様と、前記記憶部に記憶された情報とに基づいて、以降に前記タッチスクリーンディスプレイで受け付ける、所定の処理に対応付けられたジェスチャの数を変更する
請求項1に記載の電子機器。 A storage unit for storing information in which a gesture mode and an operation difficulty level are associated with each other in a one-to-one correspondence;
Wherein, when receiving a gesture with respect to the touch screen display, the aspect of the gesture, on the basis of the information stored in the storage unit, it receives in the touch screen display after, correspondence to a predetermined processing the electronic device according to <br/> claim 1 for changing the number of gestures that are.
前記制御部は、前記アイコンに対するジェスチャを受け付けた場合、当該ジェスチャの態様に応じて、以降に前記タッチスクリーンディスプレイで受け付ける、所定の処理に対応付けられたジェスチャの数を変更するWhen the control unit receives a gesture for the icon, the control unit changes the number of gestures associated with a predetermined process, which is subsequently received on the touch screen display, according to the mode of the gesture.
請求項1に記載の電子機器。The electronic device according to claim 1.
前記制御部は、ロックを解除するジェスチャを受け付けた場合、当該ジェスチャの態様に応じて、以降に前記タッチスクリーンディスプレイで受け付ける、所定の処理に対応付けられたジェスチャの数を変更するWhen the control unit receives a gesture for releasing the lock, the control unit changes the number of gestures associated with a predetermined process, which is subsequently received on the touch screen display, according to the mode of the gesture.
請求項1に記載の電子機器。The electronic device according to claim 1.
請求項2に記載の電子機器。The electronic device according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242030A JP6125413B2 (en) | 2013-11-22 | 2013-11-22 | Electronics |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242030A JP6125413B2 (en) | 2013-11-22 | 2013-11-22 | Electronics |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015102956A JP2015102956A (en) | 2015-06-04 |
JP6125413B2 true JP6125413B2 (en) | 2017-05-10 |
Family
ID=53378622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013242030A Expired - Fee Related JP6125413B2 (en) | 2013-11-22 | 2013-11-22 | Electronics |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6125413B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259199A (en) * | 1998-03-13 | 1999-09-24 | Toshiba Corp | Terminal equipment, input picture displaying method and storage medium recording input picture display program |
JP2010015439A (en) * | 2008-07-04 | 2010-01-21 | Sharp Corp | Information input device and information processing method |
JP5155287B2 (en) * | 2009-12-02 | 2013-03-06 | シャープ株式会社 | Operating device, electronic device equipped with the operating device, image processing apparatus, and operating method |
JP2011215878A (en) * | 2010-03-31 | 2011-10-27 | Sharp Corp | Terminal device, controlling method of the same, communication system, control program, and recording medium |
JP2012198626A (en) * | 2011-03-18 | 2012-10-18 | Panasonic Corp | Information terminal, method for switching display screens, and program therefor |
JP5887932B2 (en) * | 2011-12-28 | 2016-03-16 | コニカミノルタ株式会社 | Image processing apparatus, control method for image processing apparatus, and control program |
JP5771554B2 (en) * | 2012-04-16 | 2015-09-02 | 京セラドキュメントソリューションズ株式会社 | Image forming apparatus |
-
2013
- 2013-11-22 JP JP2013242030A patent/JP6125413B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015102956A (en) | 2015-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5715042B2 (en) | Apparatus, method, and program | |
JP5850736B2 (en) | Apparatus, method, and program | |
JP5809963B2 (en) | Apparatus, method, and program | |
JP5840045B2 (en) | Apparatus, method, and program | |
JP5827109B2 (en) | Apparatus, method, and program | |
JP6091829B2 (en) | Apparatus, method, and program | |
JP6058790B2 (en) | Apparatus, method, and program | |
JP2013080345A (en) | Device, method, and program | |
JP2013047919A (en) | Device, method, and program | |
JP2013134694A (en) | Device, method, and program | |
JP2013092988A (en) | Device, method, and program | |
JP5859932B2 (en) | Apparatus, method, and program | |
JP5753475B2 (en) | Apparatus, method, and program | |
JP5959372B2 (en) | Apparatus, method, and program | |
JP2013065290A (en) | Device, method, and program | |
JP6139068B2 (en) | Apparatus and method | |
JP6080355B2 (en) | Apparatus, method, and program | |
JP2013101547A (en) | Device, method, and program | |
JP5848971B2 (en) | Apparatus, method, and program | |
JP6125413B2 (en) | Electronics | |
JP2013092974A (en) | Device, method, and program | |
JP5854796B2 (en) | Apparatus, method, and program | |
JP5740366B2 (en) | Apparatus, method, and program | |
JP5971926B2 (en) | Apparatus, method, and program | |
JP2014215874A (en) | Device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6125413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |