JP6284459B2 - 端末装置 - Google Patents

端末装置 Download PDF

Info

Publication number
JP6284459B2
JP6284459B2 JP2014187682A JP2014187682A JP6284459B2 JP 6284459 B2 JP6284459 B2 JP 6284459B2 JP 2014187682 A JP2014187682 A JP 2014187682A JP 2014187682 A JP2014187682 A JP 2014187682A JP 6284459 B2 JP6284459 B2 JP 6284459B2
Authority
JP
Japan
Prior art keywords
display
smartphone
display position
state
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014187682A
Other languages
English (en)
Other versions
JP2016062156A (ja
Inventor
笹 雅明
雅明 笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014187682A priority Critical patent/JP6284459B2/ja
Publication of JP2016062156A publication Critical patent/JP2016062156A/ja
Application granted granted Critical
Publication of JP6284459B2 publication Critical patent/JP6284459B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、携帯型の端末装置に関する。
従来、スマートフォン等の携帯型の端末装置が知られている。たとえば、特許文献1には、このような端末装置として、表示手段と、操作判別手段と、表示制御手段とを備える表示端末装置が開示されている。
上記表示端末装置の表示手段は、表示画面の大きさに相当するサイズの表示エリアを表示する。操作判別手段は、所定操作が行われたか否かを判別する。詳しくは、操作判別手段は、表示画面内の所定の表示位置(具体的には、表示エリアの端部)へのポイント操作(カーソル移動)が行われたか否かを判別する。表示制御手段は、操作判別手段によって所定操作が行われたと判別された際に、表示エリアの端部が表示画面の中央部分に向かうように表示エリアをシフト表示するとともに当該シフトした表示エリアを縮小する。
また、従来、ベゼル(額縁)の幅が狭い端末装置(いわゆる、狭額縁または超狭額縁の端末装置)が知られている。ベゼルの幅が狭い端末装置は、ベゼルの幅が広い端末装置に比べて、ディスプレイの面積を大きくできる点で優れている。
特開2010−33413号公報
上記のようにベゼルの幅が狭くなると、把持している手の指(たとえば、左手の親指)の近くに位置するオブジェクト(たとえば、アイコン)を他の指(たとえば、右手の人差指)では選択しにくくなる。それゆえ、ベゼルの幅が狭い端末装置は、ベゼルの幅が広い端末装置に比べて、表示画面の端部に表示されたオブジェクトの選択に関して操作性が劣る場合がある。
上記の特許文献1の表示端末装置では、表示エリアのシフトおよび縮小表示が可能である。しかしながら、これらの表示を表示端末装置において実行させるためには、ユーザはカーソルを移動させる操作を行わなければならない。それゆえ、ユーザにとって、シフトおよび縮小表示を表示端末装置に行なわせるには手間を要する。
本願発明は、上記の問題点に鑑みなされたものであって、その目的は、ディスプレイの端部に表示されたオブジェクトを容易に選択することが可能な携帯型の端末装置を提供することにある。
本発明のある局面に従うと、端末装置は、タッチパネルとディスプレイとを有するタッチスクリーンを備えた携帯型の装置である。端末装置は、端末装置がユーザによって把持されたことを検知するための第1の検知手段と、予め定められたオブジェクトをディスプレイの第1の表示位置に表示させるための表示制御手段と、オブジェクトを選択することが可能な物体が、端末装置のベゼルに近接したことを検知するための第2の検知手段とを備える。表示制御手段は、ユーザが端末装置を把持していることが検知されている状態で、物体がベゼルに近接したことが検知されると、オブジェクトの表示位置を、第1の表示位置から、第1の表示位置よりもディスプレイの表示領域の中心に近い第2の表示位置に切り替える。
本発明によれば、ディスプレイの端部に表示されたオブジェクトを容易に選択することが可能となる。
本実施の形態にかかるスマートフォン1の正面図である。 ユーザがスマートフォン1を把持した状態で操作した場合における、スマートフォン1の処理の概要を説明するための図である。 ユーザがスマートフォン1を机の上においた状態で操作した場合における、スマートフォン1の処理の概要を説明するための図である。 スマートフォン1で実行される処理の流れを説明するためのフローチャートである。 スマートフォン1の機能的構成を説明するためのブロック図である。 スマートフォン1のハードウェア構成を表した図である。 縮小モードの変形例を説明するための図である。 本実施の形態にかかるスマートフォン1Aの正面図である。 ユーザによるアイコンの選択操作を無効にする場合の操作例を説明するための図である。 ユーザによるアイコンの選択操作を有効にする場合の操作例を説明するための図である。 スマートフォン1Aで実行される処理の流れを説明するためのフローチャートである。 スマートフォン1Aの機能的構成を説明するためのブロック図である。
以下、図面を参照しつつ、本発明の各実施の形態に係る端末装置について説明する。また、以下の説明では、同一の部材には同一の参照符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。なお、端末装置としては、スマートフォン、ファブレット、タブレット、PDA(Personal Digital Assistant)、デジタル音楽プレーヤ等の携帯可能な各種の機器が挙げられる。以下の各実施形態では、端末装置として、スマートフォンを例に挙げて説明する。
[実施の形態1]
(A.外観および内蔵センサ)
図1は、本実施の形態にかかるスマートフォン1の正面図である。図1を参照して、スマートフォン1は、ベゼルの幅が狭い端末装置(超狭額縁または狭額縁の端末装置)である。スマートフォン1は、ベゼル10と、タッチスクリーン108と、センサ191〜194とを備える。なお、タッチスクリーン108は、ディスプレイ上にタッチパネルが載置された構成を有する入出力デバイスである。また、本実施の形態では、ベゼル10がスマートフォン1の筐体の一部となっているものとして説明する。
センサ191〜194は、ユーザの手(詳しくは指)の接触を検知するために用いられる。センサ191〜194の各々は、典型的には、静電容量型のセンサである。センサ191〜194は、それぞれ、ベゼル10の左端部、上端部、右端部、下端部の近傍に内蔵されている。スマートフォン1は、検出された静電容量の変化に基づき、ユーザがスマートフォン1を把持しているか否かを検知する。なお、センサの数および位置は、上記の数および位置に限定されるものではない。
(B.処理の概要)
(b1.第1の操作例)
図2は、ユーザがスマートフォン1を把持した状態で操作した場合における、スマートフォン1の処理の概要を説明するための図である。
図2を参照して、状態(A)は、ユーザが左手でスマートフォン1を把持した状態を表している。この場合、スマートフォン1のCPU101(図6参照)は、センサ191〜194からの出力に基づき、スマートフォン1が把持されていると判断する。なお、状態(A)においては、スマートフォン1は、アイコン201を含む複数のアイコンを表示しているものとする。
状態(A)の後の状態(B)は、ユーザが表示画面の端部のアイコン201を選択するために、スマートフォン1を左手で把持した状態で、右手の人差指をアイコン201に近づけようとしている状態を表している。
状態(B)の後の状態(C)は、ユーザが、スマートフォン1を左手で把持した状態で、右手の人差指をアイコン201に更に近づけた状態を表している。この場合、CPU101は、センサ191〜194からの出力を利用することにより、静電容量の変化を検出する。換言すれば、スマートフォン1は、センサ191〜194からの出力を利用することにより、指またはスタイラスペン等の静電容量を変化させる物体がベゼル10に近づいてきていることを判断する。なお、状態(C)の場合には、CPU101は、典型的には、センサ191からの出力を利用することにより、物体がベゼル10に近づいていると判断する。
CPU101は、物体がベゼル10に近づいたと判断すると、全画面表示を停止して縮小モードで画面表示を行なうことにより、各アイコンを画面の中央に寄るようにシフトさせる。なお、「全画面表示」とは、ディスプレイの表示可能領域の全てを利用した表示を行なう表示態様である。また、以下では、全画面表示を行なう表示モードを、「全画面モード」とも称する。
状態(C)の後の状態(D)は、ユーザが右手の人差指でアイコン201を選択した状態を表している。状態(D)の後の状態(E)は、ユーザが右手の人差指をタッチスクリーン108から離した状態を表している。この場合、CPU101は、タッチスクリーン108のディスプレイに、アイコン201に対応付けられた処理を実行する。スマートフォン1は、全画面モードで、一例として、ディスプレイに地図を表示する。
なお、状態(C)においていずれのアイコンも選択されなかった場合、スマートフォン1は、表示画面の状態を状態(C)から状態(F)に遷移させる。詳しくは、状態(C)が予め定められた時間(たとえば、5秒)継続した場合、スマートフォン1は、表示画面の状態を、状態(C)から状態(F)に遷移させる。つまり、スマートフォン1は、表示モードを、縮小モードから全画面表示を行なう全画面モード(通常モード)に切り替える。
以上のように、スマートフォン1は、把持された状態で物体のベゼル10への接近を検知すると、状態(C)に示したように、縮小モードで画面表示を行なうことによって、各アイコンを画面の中央に寄るようにシフトさせる。それゆえ、ユーザは、全画面モードの場合に比べ、全画面モードにおいてディスプレイの端部に表示されているアイコン(たとえば、アイコン201)を容易に選択することが可能となる。したがって、ユーザは、スマートフォン1のベゼルの幅が狭くても、ディスプレイの端部に表示されているアイコンを容易に選択することが可能となる。
(b2.第2の操作例)
図3は、ユーザがスマートフォン1を机の上においた状態で操作した場合における、スマートフォン1の処理の概要を説明するための図である。
図3を参照して、状態(A)は、ユーザがスマートフォン1を把持せずに、机の上に載置した状態を表している。この場合、CPU101は、センサ191〜194からの出力に基づき、スマートフォン1が把持されていないと判断する。なお、状態(A)では、スマートフォン1は、図2の状態(A)と同様に、アイコン201を含む複数のアイコンを表示しているものとする。
状態(A)の後の状態(B)は、ユーザが表示画面の端部のアイコン201を選択するために、スマートフォン1を把持せずに、右手の人差指をアイコン201に近づけようとしている状態を表している。
状態(B)の後の状態(C)は、ユーザが、スマートフォン1を把持せずに、右手の人差指をアイコン201に更に近づけた状態を表している。この場合、CPU101は、センサ191〜194からの出力を利用することにより、指またはスタイラスペン等の静電容量を変化させる物体がベゼル10に近づいてきていることを判断する。CPU101は、物体がベゼル10に近づいたと判断しても、スマートフォン1が把持されていないため、全画面表示を続行する。つまり、スマートフォン1は、スマートフォン1が把持されている場合とは異なり(図2の状態(C))、表示モードを縮小モードに移行しない。
状態(C)の後の状態(D)は、ユーザが右手の人差指でアイコン201を選択した状態を表している。状態(D)の後の状態(E)は、ユーザが右手の人差指をタッチスクリーン108から離した状態を表している。この場合、CPU101は、タッチスクリーン108のディスプレイに、アイコン201に対応付けられた処理を実行する。スマートフォン1は、図2の状態(E)と同様、ディスプレイに地図を表示する。
(b3.操作例のまとめ)
上記の操作例におけるスマートフォン1の処理をアイコン201に着目して説明すると、以下のとおりである。
(1)スマートフォン1は、ユーザによって把持されたことを検知する。また、スマートフォン1は、予め定められたアイコン201をディスプレイの予め定められた第1の表示位置に表示させる。さらに、スマートフォン1は、アイコン201を選択することが可能な物体(図2,3の場合には指)が、スマートフォン1のベゼル10に近接したことを検知する。スマートフォン1は、ユーザがスマートフォン1を把持していることが検知されている状態で、上記物体がベゼル10に近接したことが検知されると、アイコン201の表示位置を、第1の表示位置から、当該第1の表示位置よりもディスプレイの表示領域の中心に近い第2の表示位置に切り替える。
上記の構成によれば、スマートフォン1は、把持された状態で物体のベゼル10への接近を検知すると、アイコン201の表示位置を、第1の表示位置から、当該第1の表示位置よりもディスプレイの表示領域の中心に近い第2の表示位置に切り替える(図2の状態(C)参照)。
それゆえ、ユーザは、アイコン201が第1の表示位置に表示されている場合(つまり、全画面モード)の場合に比べ、全画面モードにおいてディスプレイの端部に表示されているアイコン201を容易に選択することが可能となる。したがって、ユーザは、スマートフォン1のベゼル10の幅が狭くても、ディスプレイの端部に表示されているアイコンを容易に選択することが可能となる。
(2)スマートフォン1は、ディスプレイに表示されている画面を縮小表示することにより、アイコン201の表示位置を上記第1の表示位置から上記第2の表示位置に切り替える。上記の構成によれば、画面を縮小する前にディスプレイに表示されているアイコンすべてを、位置関係を維持したまま表示させることができる。
(3)タッチパネルは、上記物体によるアイコン201の選択を検知する。スマートフォン1は、アイコン201の表示位置を上記第1の表示位置から上記第2の表示位置へ切り替えた後、予め定められた時間にわたりアイコン201の選択が検知されなかった場合、アイコン201の表示位置を上記第2の表示位置から上記第1の表示位置へ切り替える。
上記の構成によれば、スマートフォン1は、予め定められた時間にわたりアイコン201が選択されなかった場合、アイコン201を初期の表示位置に自動的に戻す。それゆえ、ユーザは、アイコン201の表示位置を戻す操作を行なう必要がなくなる。
(C.制御構造)
図4は、スマートフォン1で実行される処理の流れを説明するためのフローチャートである。図4を参照して、ステップS2において、CPU101は、全画面モードで画面表示を行なう。ステップS4において、CPU101は、スマートフォン1が把持されたか否かを、センサ191〜194の出力に基づき判断する。
把持されていないと判断された場合(ステップS4においてNO)、CPU101は、処理をステップS2に戻す。把持されたと判断された場合(ステップS4においてYES)、CPU101は、ステップS6において、ベゼル10に対する物体(指またはスタイラスペン)が接近したか否かを判断する。
物体が接近していないと判断された場合(ステップS6においてNO)、CPU101は、処理をステップS2に戻す。物体が接近したと判断された場合(ステップS6においてYES)、CPU101は、ステップS8において、縮小モードで画面表示を行なう。すなわち、CPU101は、表示モードを、全画面モードから縮小モードに切り替える。
ステップS10において、CPU101は、縮小モードに切り替えてから予め定められた時間内に、オブジェクトに対するタッチ操作(選択操作)を受け付けたか否かを判断する。受け付けていない判断された場合(ステップS10においてNO)、CPU101は、処理をステップS2に戻す。受け付けたと判断された場合(ステップS10においてYES)、CPU101は、ステップS12において、タッチ操作におけるタッチ位置の座標値を全画面モード時の座標値に変換する。ステップS14において、CPU101は、変換後の座標値に基づき、選択されたオブジェクトに対応付けられた処理を実行する。なお、この場合、CPU101は、表示モードを、縮小モードから全画面モードに切り替える。
(D.機能的構成)
図5は、スマートフォン1の機能的構成を説明するためのブロック図である。図5を参照して、スマートフォン1は、検知部151と、制御部152と、表示部153と、記憶部154とを備えている。検知部151は、把持検知部1511と、近接検知部1512と、タッチ操作検知部1513とを含む。制御部152は、表示制御部1521と、処理実行部1522とを含む。
表示部153は、タッチスクリーン108のディスプレイに対応する。記憶部154は、フラッシュメモリ104(図6参照)等のメモリである。記憶部154は、オペレーティングシステムおよび各種のアプリケーションプログラムを予め格納している。
検知部151は、センサ191〜194とCPU101(図6参照)とタッチパネル(図6参照)とを組み合わせた構成に対応する。詳しくは、検知部151は、CPU101が記憶部154に記憶されたアプリケーションプログラムを実行することにより実現される。
把持検知部1511は、スマートフォン1がユーザによって把持されたことを検知する。近接検知部1512は、オブジェクトを選択することが可能な物体が、スマートフォン1のベゼル10に近接したことを検知する。
タッチ操作検知部1513は、物体がタッチパネル1082に接触したことを検知する。より詳しくは、タッチ操作検知部1513は、オブジェクトが物体によって選択されたことを検知する。なお、タッチ操作検知部1513は、CPU101とタッチパネルとを組み合わせ構成に対応する。
制御部152は、CPU101に対応する。詳しくは、制御部152は、CPU101が記憶部154に記憶されたアプリケーションプログラムを実行することにより実現される。
表示制御部1521は、把持検知部1511による検知結果と、近接検知部1512による検知結果とに基づいた処理を行なう。詳しくは、表示制御部1521は、物体がベゼル10に近づいたと判断すると、全画面表示を停止して縮小モードで画面表示を行なうことにより、各アイコンを画面の中央に寄るようにシフトさせる。
アイコン201に着目すると、表示制御部1521は、デフォルトの表示モードである全画面モードにおいて、アイコン201をディスプレイの第1の表示位置に表示させる。また、表示制御部1521は、ユーザがスマートフォン1を把持していることが検知されている状態で、物体がベゼル10に近接したことが検知されると、アイコン201の表示位置を、第1の表示位置から、第1の表示位置よりもディスプレイの表示領域の中心に近い第2の表示位置に切り替える。
詳しくは、表示制御部1521は、表示部153に表示されている画面を縮小表示することにより、アイコン201の表示位置を前記第1の表示位置から前記第2の表示位置に切り替える。さらに詳しくは、表示制御部1521は、アイコン201の表示位置を第1の表示位置から第2の表示位置へ切り替えた後、予め定められた時間にわたりアイコン201等アイコンの選択が検知されなかった場合、アイコン201の表示位置を第2の表示位置から第1の表示位置へ切り替える。
処理実行部1522は、タッチ操作検知部1513による検知結果に基づき、検知結果に応じた処理を実行する。詳しくは、処理実行部1522は、表示制御部1521から表示モードの種別(全画面モードまたは縮小モード)の通知受け付ける。処理実行部1522は、縮小モードであるとの通知を受け付けた場合には、上述した座標変換を行なう。
処理実行部1522は、たとえば、縮小モード時にタッチ操作検知部1513によってアイコン201が選択された場合、アイコン201の全画面モードにおける座標値を座標変換により算出する。処理実行部1522は、変換後の座標値を用いて、アイコン201に対付けられている処理を特定し、当該特定された処理を実行する。なお、この場合、表示制御部1521は、処理に基づく表示画面を表示部153に表示させる。
(E.ハードウェア構成)
図6は、スマートフォン1のハードウェア構成を表した図である。図6を参照して、スマートフォン1は、プログラムを実行するCPU101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、フラッシュメモリ104と、操作キー105と、スピーカ106と、カメラ107と、タッチスクリーン108と、加速度センサ111と、無線通信IF(Interface)112と、アンテナ121と、センサ191〜194とを、少なくとも含んで構成されている。タッチスクリーン108は、ディスプレイ1081と、タッチパネル1082とを含む。各構成要素101〜108,111,112,191〜194は、相互にデータバスによって接続されている。
アンテナ121は、無線通信IF112に接続されている。アンテナ121および無線通信IF112は、たとえば、基地局を介した、他の移動体端末、固定電話、およびPC(Personal Computer)との間における無線通信に用いられる。
ROM102は、不揮発性の半導体メモリである。ROM102は、スマートフォン1のブートプログラムが予め格納されている。フラッシュメモリ104は、不揮発性の半導体メモリである。フラッシュメモリ104は、一例としてNAND型で構成してもよい。フラッシュメモリ104は、スマートフォン1のオペレーティングシステム、スマートフォン1を制御するための各種のプログラム、並びに、スマートフォン1が生成したデータ、スマートフォン1の外部装置から取得したデータ等の各種データを揮発的に格納する。
スマートフォン1における処理は、各ハードウェアおよびCPU101により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ104に予め記憶されている場合がある。また、ソフトウェアは、図示しないメモリカードその他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、アンテナ121および無線通信IF112を介してダウンロードされた後、フラッシュメモリ104に一旦格納される。そのソフトウェアは、CPU101によってフラッシュメモリ104から読み出され、さらにフラッシュメモリ104に実行可能なプログラムの形式で格納される。CPU101は、そのプログラムを実行する。
本発明の本質的な部分は、フラッシュメモリ104その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、記録媒体としては、DVD-ROM、CD−ROM、FD、ハードディスク
に限られず、磁気テープ、カセットテープ、光ディスク、光カード、マスクROM、EPROM、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
(F.変形例)
図7は、縮小モードの変形例を説明するための図である。つまり、図7は、図2の状態(C)に示した縮小モードの態様とは異なる態様の縮小モードを説明するための図である。
上述したように、CPU101は、センサ191〜194からの出力を利用することにより、指またはスタイラスペン等の静電容量を変化させる物体がベゼル10に近づいてきていることを判断する。たとえば、図2の状態(C)の場合には、CPU101は、センサ191からの出力を利用することにより、物体がベゼル10に近づいていると判断する。つまり、CPU101は、センサ191の近傍(センサ191の付近のベゼル10の箇所)に物体が近づいていると判断できる。
この場合、CPU101は、物体がセンサ191に近づいたと判断すると、全画面表示を停止して縮小モードで画面表示を行なう。詳しくは、CPU101は、各アイコンを画面の右下に寄るようにシフトさせる。なお、アイコン201は、結果として、画面中央に移動する。このような構成であっても、全画面モード時にディスプレイ1081の端部に表示されたアイコン(たとえば、アイコン201)を容易に選択することが可能となる。なお、CPU101は、各アイコンを画面の右上に寄るようにシフトさせても、同様の効果を得られる。
[実施の形態2]
本実施の形態では、ユーザによるアイコンの誤選択を防止する構成について説明する。詳しくは、ある局面においてユーザによるアイコンの選択操作を無効にする構成について説明する。
(G.外観および内蔵センサ)
図8は、本実施の形態にかかるスマートフォン1Aの正面図である。図8を参照して、スマートフォン1Aは、実施の形態1に係るスマートフォン1と同様、ベゼルの幅が狭い端末装置である。スマートフォン1Aは、スマートフォン1と同様、ベゼル10と、タッチスクリーン108と、センサ191〜194とを備える。
スマートフォン1Aは、スマートフォン1Aに固有のXYZ座標系を有している。スマートフォン1Aは、センサ191〜194からの出力に基づき、スマートフォン1Aを把持している手の位置(たとえば、指が接触しているベゼル10上の位置)を判断する。また、詳細については後述するが、スマートフォン1Aは、センサ191〜194からの出力に基づき、ベゼル10における物体の近接位置を判断する。
なお、スマートフォン1Aは、3次元座標系の代わりに、スマートフォン1Aの厚み方向の座標系がない2次元のXY座標系を有していてもよい。また、本実施の形態においても、ベゼル10がスマートフォン1Aの筐体の一部となっているものとして説明する。
(H.処理の概要)
(h1.第1の操作例)
図9は、ユーザによるアイコンの選択操作を無効にする場合の操作例を説明するための図である。
図9を参照して、状態(A)は、ユーザが左手でスマートフォン1Aを把持した状態を表している。この場合、スマートフォン1AのCPU101は、センサ191〜194からの出力に基づき、スマートフォン1が把持されていると判断する。詳しくは、CPU101は、指が接触している場所を検出する。典型的には、CPU101は、センサ191〜194からの出力に基づき、筐体の側面における接触位置の座標値を算出する。詳しくは、CPU101は、指等の接触領域の中心位置を接触位置とする。
状態(A)の場合には、CPU101は、センサ191からの出力に基づき、指がアイコン201の近傍の部分(筐体の一部分)に接触していることを検知する。また、CPU101は、センサ193からの出力に基づき、3本の指がタッチスクリーン108を挟んで親指とは反対側の筐体の部分に接触していることを検知する。正確には、CPU101は、各指が接触している位置を座標値として算出する。
状態(A)の後の状態(B)は、左手の親指の付け根が筐体に接触した状態で、親指の先をタッチスクリーン108から離れる方向に移動させた状態を表している。すなわち、状態(B)は、親指の先端をアイコン201から遠ざけた状態を表している。
状態(B)の後の状態(C)は、状態(B)と同様に左手の親指の付け根が筐体に接触した状態で、親指を状態(B)よりもアイコン201の方に近づけた状態を表している。詳しくは、状態(C)は、親指を状態(B)よりもベゼル10の方(つまり、センサ191の方)に近づけた状態を表している。
状態(C)の後の状態(D)は、状態(C)と同様に左手の親指の付け根が筐体に接触した状態で、アイコン201が表示されている領域に親指が接触した状態を表している。つまり、状態(D)は、タッチ操作がなされた状態を表している。
スマートフォン1Aは、上記の一連の操作によってアイコン201が選択された場合、当該選択を有効とせずに、無効とする。具体的には、CPU101は、アイコン201をアクティブな状態(選択された状態)にしない。さらには、CPU101は、アイコン201に対応付けられた処理を実行しない。
より詳しく説明すると、以下のとおりである。CPU101は、スマートフォン1が把持されていることが検知されている状態で指等の物体の近接が検知されたことに基づき、把持している手の位置とベゼル10における物体の近接位置との間の距離が、予め定められた閾値よりも短いか否かを判定する。CPU101は、当該距離が閾値よりも短いと判定された場合、物体によるアイコン201の選択を無効とする。
このような構成により、ユーザが意図しないアイコンが選択されてしまうこと、つまり、誤操作を防止することができる。
(h2.第2の操作例)
図10は、ユーザによるアイコンの選択操作を有効にする場合の操作例を説明するための図である。
図10を参照して、状態(A)は、図9の状態(A)と同じ状態を表している。状態(B)は、図9の状態(B)と同じ状態を表している。したがって、ここでは、図10の状態(A),(B)については説明を繰り返さない。なお、スマートフォン1Aは、アイコン201よりも画面の上側(Y軸の正方向側)にアイコン202を表示している。
状態(B)の後の状態(C)は、状態(B)と同様に左手の親指の付け根が筐体に接触した状態で、親指を状態(B)よりもアイコン202の方に近づけた状態を表している。詳しくは、状態(C)は、親指を状態(B)よりもベゼル10の方(つまり、センサ191の方)に近づけた状態を表している。
CPU101は、スマートフォン1が把持されていることが検知されている状態で指等の物体の近接が検知されたことに基づき、把持している手の位置とベゼル10における物体の近接位置との間の距離が、予め定められた閾値よりも短いか否かを判定する。状態(C)の場合には、CPU101は、閾値よりも短くはない(つまり、長い)と判定し、表示モードを全画面モードから縮小モードに切り替える。
状態(C)の後の状態(D)は、ユーザが右手の左手の親指でアイコン202を選択した状態を表している。CPU101は、上記の一連の操作によってアイコン202が選択された場合、当該選択を無効とせずに、有効とする。具体的には、CPU101は、アイコン202をアクティブな状態(選択された状態)にする。
状態(D)の後の状態(E)は、ユーザが右手の親指をタッチスクリーン108から離した状態を表している。この場合、スマートフォン1AのCPU101は、タッチスクリーン108のディスプレイ1081に、アイコン202に対応付けられた処理を実行する。スマートフォン1Aは、全画面モードで、一例として、ディスプレイ1081にカレンダを表示する。
なお、状態(C)においていずれのアイコンも選択されなかった場合、スマートフォン1Aは、表示画面の状態を状態(C)から状態(F)に遷移させる。詳しくは、状態(C)が予め定められた時間(たとえば、5秒)継続した場合、スマートフォン1Aは、表示画面の状態を、状態(C)から状態(F)に遷移させる。つまり、スマートフォン1Aは、表示モードを、縮小モードから全画面表示を行なう全画面モード(通常モード)に切り替える。
(h3.操作例のまとめ)
(1)上記の操作例におけるスマートフォン1Aの処理をアイコン201に着目して説明すると、以下のとおりである。
スマートフォン1Aは、ユーザによって把持されたことを検知する。また、スマートフォン1Aは、予め定められたアイコン201をディスプレイの予め定められた第1の表示位置に表示させる。さらに、スマートフォン1Aは、アイコン201を選択することが可能な物体(典型的には指)が、スマートフォン1Aのベゼル10に近接したことを検知する。
スマートフォン1は、把持されていることが検知されている状態で物体の近接が検知されたことに基づき、把持している手の位置とベゼル10における物体の近接位置との間の距離が、予め定められた閾値よりも短いか否かを判定する。スマートフォン1Aは、距離が閾値よりも短いと判定するため、物体によるアイコン201の選択を無効とする。それゆえ、スマートフォン1Aは、アイコン201に対応付けられた処理を実行しない。
なお、この場合には、スマートフォン1Aは、表示モードを全画面モードから縮小モードへは切り替えない。
(2)上記の操作例におけるスマートフォン1Aの処理をアイコン202に着目して説明すると、以下のとおりである。
スマートフォン1Aは、ユーザによって把持されたことを検知する。また、スマートフォン1Aは、予め定められたアイコン202をディスプレイの予め定められた第1の表示位置に表示させる。さらに、スマートフォン1Aは、アイコン202を選択することが可能な物体(典型的には指)が、スマートフォン1Aのベゼル10に近接したことを検知する。
スマートフォン1Aは、把持されていることが検知されている状態で物体の近接が検知されたことに基づき、把持している手の位置とベゼル10における物体の近接位置との間の距離が、予め定められた閾値よりも短いか否かを判定する。スマートフォン1Aは、距離が閾値よりも長いと判定するため、アイコン202の表示位置を、第1の表示位置から、当該第1の表示位置よりもディスプレイの表示領域の中心に近い第2の表示位置に切り替える。つまり、スマートフォン1Aは、表示モードを全画面モードから縮小モードへ切り替える。
さらに、スマートフォン1Aは、縮小モードにおいて、ユーザによるアイコン202へのタッチ操作を受け付けたことにと付き、物体によるアイコン202の選択を有効とする。つまり、スマートフォン1Aは、アイコン202に対応付けられた処理を実行する。
(I.制御構造)
図11は、スマートフォン1Aで実行される処理の流れを説明するためのフローチャートである。図11を参照して、図11における一連の処理は、実施の形態1に係る図4で示した一連の処理と比べて、ステップS22の処理が追加されている点が異なる。したがって、以下では、ステップS22に関わる内容についてのみ説明し、他のステップS2,S4,S6,S8,S10,S12,S14については、ここでは説明を繰り返さない。
ステップS6で肯定的な判断がなされた場合、スマートフォン1Aは、ステップS22において、把持している指の位置と、ベゼル10における物体の近接位置との間の距離が閾値よりも短いか否かを判断する。
短いと判断された場合(ステップS22においてYES)、CPU101は、処理をステップS2に戻す。つまり、CPU101は、アイコンの選択を無効化する制御を行なう。長いと判断された場合(ステップS22においてNO)、CPU101は、処理をステップS8に進める。つまり、CPU101は、アイコンの選択を無効化する制御を行なわない。
(J.機能的構成)
図12は、スマートフォン1Aの機能的構成を説明するためのブロック図である。図12を参照して、スマートフォン1Aは、検知部151と、制御部152Aと、表示部153と、記憶部154とを備えている。検知部151は、把持検知部1511と、近接検知部1512と、タッチ操作検知部1513とを含む。制御部152Aは、判定部1525と、表示制御部1526と、無効化部1527と、処理実行部1528とを含む。
制御部152Aは、CPU101に対応する。詳しくは、制御部152Aは、CPU101が記憶部154に記憶されたアプリケーションプログラムを実行することにより実現される。
判定部1525は、把持されていることが検知されている状態で物体の近接が検知されたことに基づき、把持している手の位置とベゼル10における物体の近接位置との間の距離が予め定められた閾値よりも短いか否かを判定する。判定部1525は、判定結果を表示制御部1526および無効化部1527に通知する。
表示制御部1526は、把持検知部1511による検知結果と、近接検知部1512による検知結果とに基づいた処理を行なう。詳しくは、表示制御部1526は、把持している手の位置とベゼル10における物体の近接位置との間の距離が予め定められた閾値よりも長いと判定された場合、全画面表示を停止して縮小モードで画面表示を行なうことにより、各アイコンを画面の中央に寄るようにシフトさせる。
アイコン202に着目すると、表示制御部1526は、デフォルトの表示モードである全画面モードにおいて、アイコン202をディスプレイの第1の表示位置に表示させる。また、表示制御部1526は、ユーザがスマートフォン1Aを把持していることが検知されている状態で、物体がベゼル10に近接したことが検知されると、アイコン202の表示位置を、第1の表示位置から、第1の表示位置よりもディスプレイの表示領域の中心に近い第2の表示位置に切り替える。
無効化部1527は、把持している手の位置とベゼル10における物体の近接位置との間の距離が予め定められた閾値よりも短いと判定された場合、タッチ操作検知部1513により検出されたアイコンの選択を無効にする。具体的には、無効化部1527は、処理実行部1528に対して、タッチ操作によって選択されたアイコンに対応付けられた処理の実行を行なわないように指示する。たとえば、図9に示したユーザ操作が行われた場合、無効化部1527は、アイコン201の選択を無効にする。
(K.変形例)
上記の実施の形態1および2においては、物体(指またはスタイラスペン)の接近をセンサ191〜194からの出力を用いて判断する構成を例に挙げて説明した。しかしながら、これに限定されるものではない。たとえば、タッチパネル1082が静電容量方式のものであれば、センサ191〜194の代わりに、タッチパネル1082の静電容量の変化を用いてCPU101が物体の接近を検知するように、スマートフォン1,1Aを構成してもよい。
今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A スマートフォン、10 ベゼル、104 フラッシュメモリ、108 タッチスクリーン、151 検知部、152,152A 制御部、153 表示部、191,192,193,194 センサ、201,202 アイコン、1081 ディスプレイ、1082 タッチパネル、1511 把持検知部、1512 近接検知部、1513 タッチ操作検知部、1521,1526 表示制御部、1522,1528 処理実行部、1525 判定部、1527 無効化部。

Claims (5)

  1. タッチパネルとディスプレイとを有するタッチスクリーンを備えた携帯型の端末装置であって、
    前記端末装置がユーザによって把持されたことを検知するための第1の検知手段と、
    予め定められたオブジェクトを前記ディスプレイの第1の表示位置に表示させるための表示制御手段と、
    前記オブジェクトを選択することが可能な物体が、前記端末装置のベゼルに近接したことを検知するための第2の検知手段とを備え、
    前記表示制御手段は、前記ユーザが前記端末装置を把持していることが検知されている状態で、前記物体が前記ベゼルに近接したことが検知されると、前記オブジェクトの表示位置を、前記第1の表示位置から、前記第1の表示位置よりも前記ディスプレイの表示領域の中心に近い第2の表示位置に切り替える、端末装置。
  2. 前記表示制御手段は、前記ディスプレイに表示されている画面を縮小表示することにより、前記オブジェクトの表示位置を前記第1の表示位置から前記第2の表示位置に切り替える、請求項1に記載の端末装置。
  3. 前記タッチパネルは、前記物体による前記オブジェクトの選択を検知するものであり、
    前記表示制御手段は、前記オブジェクトの表示位置を前記第1の表示位置から前記第2の表示位置へ切り替えた後、予め定められた時間にわたり前記オブジェクトの選択が検知されなかった場合、前記オブジェクトの表示位置を前記第2の表示位置から前記第1の表示位置へ切り替える、請求項1または2に記載の端末装置。
  4. タッチパネルとディスプレイとを有するタッチスクリーンを備えた携帯型の端末装置であって、
    前記端末装置がユーザによって把持されたことを検知するための第1の検知手段と、
    予め定められたオブジェクトを前記ディスプレイの第1の表示位置に表示させるための表示制御手段と、
    前記オブジェクトを選択することが可能な物体が、前記端末装置のベゼルに近接したことを検知するための第2の検知手段と、
    前記オブジェクトが前記物体によって選択されたことに基づき、前記オブジェクトに対応付けられた処理を実行する実行手段とを備え、
    前記把持されていることが検知されている状態で前記近接が検知されたことに基づき、前記把持している手の位置と前記ベゼルにおける前記物体の近接位置との間の距離が、予め定められた閾値よりも短いか否かを判定する判定手段と、
    前記距離が前記閾値よりも短いと判定された場合、前記物体による前記オブジェクトの前記選択を無効とする無効化手段とを備える、端末装置。
  5. 前記表示制御手段は、前記距離が前記閾値よりも長い場合、前記オブジェクトの表示位置を、前記第1の表示位置から、前記第1の表示位置よりも前記ディスプレイの表示領域の中心に近い第2の表示位置に切り替える、請求項4に記載の端末装置。
JP2014187682A 2014-09-16 2014-09-16 端末装置 Expired - Fee Related JP6284459B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014187682A JP6284459B2 (ja) 2014-09-16 2014-09-16 端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014187682A JP6284459B2 (ja) 2014-09-16 2014-09-16 端末装置

Publications (2)

Publication Number Publication Date
JP2016062156A JP2016062156A (ja) 2016-04-25
JP6284459B2 true JP6284459B2 (ja) 2018-02-28

Family

ID=55797845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014187682A Expired - Fee Related JP6284459B2 (ja) 2014-09-16 2014-09-16 端末装置

Country Status (1)

Country Link
JP (1) JP6284459B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110291607B (zh) * 2017-02-06 2021-12-07 夏普株式会社 显示装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014459A (ja) * 2010-06-30 2012-01-19 Brother Ind Ltd 表示装置、画像表示方法、および画像表示プログラム
JP5323010B2 (ja) * 2010-07-05 2013-10-23 レノボ・シンガポール・プライベート・リミテッド 情報入力装置、その画面配置方法、およびコンピュータが実行可能なプログラム
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
JP5876152B2 (ja) * 2012-06-15 2016-03-02 京セラ株式会社 端末装置
JP5798103B2 (ja) * 2012-11-05 2015-10-21 株式会社Nttドコモ 端末装置、画面表示方法、プログラム

Also Published As

Publication number Publication date
JP2016062156A (ja) 2016-04-25

Similar Documents

Publication Publication Date Title
US9952629B2 (en) Electronic device, user interface method in the electronic device, and cover of the electronic device
US9612675B2 (en) Emulating pressure sensitivity on multi-touch devices
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
KR102056316B1 (ko) 터치 스크린 동작 방법 및 그 전자 장치
JP5620440B2 (ja) 表示制御装置、表示制御方法及びプログラム
KR102307215B1 (ko) 데이터 처리 방법 및 전자 디바이스
JPWO2013094371A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
BR102014002492A2 (pt) método e aparelho para multitarefa
JP5837955B2 (ja) 電子装置の機能の実行方法及びその電子装置
KR20140112296A (ko) 다중 터치에 대응하는 기능을 처리하기 위한 방법 및 그 전자 장치
JP2014130450A (ja) 情報処理装置およびその制御方法
KR20150081657A (ko) 휴대 단말 및 그 제어 방법
KR20130082352A (ko) 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법
EP2677413B1 (en) Method for improving touch recognition and electronic device thereof
KR20140019678A (ko) 그래픽 사용자 인터페이스 객체 생성 방법 및 장치
EP2899623A2 (en) Information processing apparatus, information processing method, and program
US10599326B2 (en) Eye motion and touchscreen gestures
JP5820414B2 (ja) 情報処理装置及び情報処理方法
JP6284459B2 (ja) 端末装置
US9886167B2 (en) Display apparatus and control method thereof
KR101404505B1 (ko) 디스플레이를 구비한 전자기기에서 그래픽을 스케일링 또는 회전 조작하는 방법 및 이를 실행하는 전자기기
JP6484859B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10261675B2 (en) Method and apparatus for displaying screen in device having touch screen
JP2015049837A (ja) 携帯端末装置
KR102027548B1 (ko) 전자장치에서 화면표시 제어 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180130

R150 Certificate of patent or registration of utility model

Ref document number: 6284459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees