JP5805685B2 - 電子機器、制御方法、及び制御プログラム - Google Patents

電子機器、制御方法、及び制御プログラム Download PDF

Info

Publication number
JP5805685B2
JP5805685B2 JP2013037919A JP2013037919A JP5805685B2 JP 5805685 B2 JP5805685 B2 JP 5805685B2 JP 2013037919 A JP2013037919 A JP 2013037919A JP 2013037919 A JP2013037919 A JP 2013037919A JP 5805685 B2 JP5805685 B2 JP 5805685B2
Authority
JP
Japan
Prior art keywords
screen
display
touch screen
smartphone
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013037919A
Other languages
English (en)
Other versions
JP2014164719A (ja
Inventor
昌信 野田
昌信 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013037919A priority Critical patent/JP5805685B2/ja
Priority to US14/771,197 priority patent/US20160004420A1/en
Priority to PCT/JP2014/054734 priority patent/WO2014133030A1/ja
Priority to EP14756790.3A priority patent/EP2963533A4/en
Publication of JP2014164719A publication Critical patent/JP2014164719A/ja
Application granted granted Critical
Publication of JP5805685B2 publication Critical patent/JP5805685B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本出願は、電子機器、制御方法、及び制御プログラムに関する。特に、本出願は、タッチスクリーンを有する電子機器、その電子機器を制御する制御方法、及びその電子機器を制御するための制御プログラムに関する。
タッチスクリーンディスプレイを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、スマートフォン及びタブレットを含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。
国際公開第2008/086302号
タッチスクリーンデバイスには、タッチスクリーンディスプレイに対するジェスチャに応じて、タッチスクリーンディスプレイに表示している画面をスクロールさせるものがある。ところが、画面には、スクロール以外のジェスチャに対する処理が割り当てられていることがある。このため、利用者が画面をスクロールさせるためのジェスチャを行おうとしたにも関わらず、タッチスクリーンデバイスが、画面に表示されたオブジェクトに割り当てられた他の処理を実行してしまうことがある。
このような理由から、画面をスクロールさせるためのジェスチャが別の処理のためのジェスチャと誤って判定される可能性を低減することができる電子機器、制御方法及び制御プログラムに対するニーズがある。
1つの態様に係る電子機器は、スクロール可能な第1画面を表示するタッチスクリーンディスプレイと、前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるコントローラとを備える。
1つの態様に係る制御方法は、タッチスクリーンディスプレイを備えた電子機器の制御方法であって、スクロール可能な第1画面を前記タッチスクリーンディスプレイに表示させるステップと、前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップとを含む。
1つの態様に係る制御プログラムは、タッチスクリーンディスプレイを備えた電子機器に、スクロール可能な第1画面を前記タッチスクリーンディスプレイに表示させるステップと、前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップとを実行させる。
図1は、実施形態に係るスマートフォンの斜視図である。 図2は、スマートフォンの正面図である。 図3は、スマートフォンの背面図である。 図4は、スマートフォンのブロック図である。 図5は、第1オブジェクト及び第2オブジェクトの例を示す図である。 図6は、スマートフォンによる表示制御の例を示す図である。 図7は、スマートフォンによる表示制御の処理手順の例を示すフローチャートである。 図8は、第2オブジェクトの第1の変形例を示す図である。 図9は、第2オブジェクトの第2の変形例を示す図である。
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンを備える電子機器の例として、スマートフォンについて説明する。
(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。
「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。
「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。
「ピンチイン」は、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。
以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチインおよびピンチアウトを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォンがXを検出する」、又は「コントローラがXを検出する」と記載することがある。
図4は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
ボタン3A〜3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
図4に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図4の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図4に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
図5及び図6を参照しながら、スマートフォン1による表示制御の例について説明する。スマートフォン1は、画面の表示部分における第1オブジェクトの状態に基づいて、第2オブジェクトの表示を制御する。画面の表示部分とは、ディスプレイ2Aの表示範囲に収まらない画面のうち、ディスプレイ2Aの表示範囲内の部分である。スマートフォン1では、ディスプレイ2Aの表示範囲内に含まれる画面の一部が表示される。ここでは、例えば、いずれかの方向における長さがディスプレイ2Aの表示範囲よりも長い画面であれば、ディスプレイ2Aの表示範囲に収まらない画面として判断する。スマートフォン1では、ディスプレイ2Aの表示範囲に収まらなかった画面を、表示範囲を移動することで表示可能である。第1オブジェクトとは、画面に配置されているオブジェクトのうち、操作によって所定の処理が実行されるイベントが割り当てられているオブジェクトである。以下の説明では、第1オブジェクトには、他の画面を表示するイベントが割り当てられているものとする。ここでは、表示されている画面と異なる画面への遷移する場合、表示されている画面に新たな画面を追加する場合を、他の画面の表示として判断する。第2オブジェクトとは、表示範囲のスクロール機能が割り当てられているオブジェクトである。
図5は、第1オブジェクト及び第2オブジェクトの例を示す図である。図5に示す例では、スクロール可能な画面である画面45が、ディスプレイ2Aに表示されている。スクロール可能な画面とは、ディスプレイ2Aよりも大きな領域をもつ画面である。画面45の表示部分は、スクロール操作に応じて変化する。
画面45は、画像45a、テキスト45b等のオブジェクトを含む。画像45a、テキスト45b等のオブジェクトの全体又は一部は、他の画面を表示するための第1オブジェクトとして機能する。画像45a及びテキスト45bに加えて、ボタン、アイコン等の各種のオブジェクトが、第1オブジェクトとして機能することがある。
画像45a、テキスト45b等のオブジェクトが、第1オブジェクトとして機能する領域46は、スマートフォン1によって決定される。オブジェクトが第1オブジェクトとして機能する領域46は、オブジェクトが表示される領域とほぼ重なるように設定される。利用者の操作を容易にするために、オブジェクトが第1オブジェクトとして機能する領域46は、オブジェクトが表示される領域よりも広く設定されてもよい。スマートフォン1は、第1オブジェクトとして機能する領域46に対する所定のジェスチャを検出すると、第1オブジェクトに対応付けられた他の画面を表示する。
例えば、画面45がHTML(HyperText Markup Language)形式のデータに基づいて表示されるWEBページである場合、スマートフォン1は、HTML形式のデータに含まれるアンカータグに基づいて、第1オブジェクトとして機能する領域46を決定する。さらに、スマートフォン1は、HTML形式のデータに含まれるアンカータグの属性等に基づいて、第1オブジェクトとして機能する領域46に対する入力を受け付けた場合に表示する画面を決定する。スマートフォン1は、第1オブジェクトとして機能する領域46において所定のジェスチャが検出されると、第1オブジェクトとして機能する領域46に対する入力として受け付ける。
画面45の表示部分における第1オブジェクトとして機能する領域46とその他の領域との割合は、ディスプレイ2Aの大きさ及び縦横比、画面45の表示倍率、表示部分が画面45に占める位置及び範囲等に応じて変動する。図5に示す例では、画面45の表示部分のうち、画像45a及びテキスト45bの周囲の破線で囲んだ領域が第1オブジェクトとして機能する領域46である。
図5に示す例では、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高い。このため、利用者が画面45をスクロールさせるためのジェスチャをタッチスクリーン2Bに対して行うと、第1オブジェクトとして機能する領域46を誤ってタッチしてしまい、意図せずに他の画面が表示される可能性がある。
そこで、スマートフォン1は、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高い場合に、画面45をスクロールさせるための第2オブジェクトをディスプレイ2Aに表示する。図5に示す例では、第2オブジェクトは、画面45の右端寄りに表示された縦方向のスクロールバー60である。
スクロールバー60は、スライダ62を含む。スライダ62は、画面45の表示部分の位置、画面45の全体に占める割合等を示す。スマートフォン1は、スライダ62を縦方向に移動させるジェスチャを検出すると、ジェスチャに応じてスライダ62の表示位置を変更する。さらに、スマートフォン1は、スライダ62の表示位置に合わせて画面45を縦方向にスクロールする(画面45の表示部分を変更する)。このようにスクロールバー60を表示することにより、利用者は、第1オブジェクトとして機能する領域46を誤ってタッチすることなく、スクロール操作を行うことができる。
画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高いか否かは、閾値に基づいて判定される。閾値は、表示部分における第1オブジェクトとして機能する領域46の割合に対する値であってもよいし、表示部分における第1オブジェクトとして機能する領域46の面積に対する値であってもよい。閾値は、例えば、スクロール操作時に第1オブジェクトに対する誤操作が生じる確率を様々な画面を用いて調査し、誤操作が生じる確率が所定値よりも多い画面における第1オブジェクトとして機能する領域46の割合を分析することにより予め設定される。閾値は、利用者が調整可能な値であってもよい。
なお、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高くない場合には、スクロールバー60は表示されない。このため、スマートフォン1は、第1オブジェクトが誤ってタッチされる可能性が低い場合には、より広い領域を使って画面45を表示し、利用者により多くの情報を提供することができる。
図6を参照しながら、スマートフォン1による表示制御についてより詳細に説明する。図6は、スマートフォン1による表示制御の例を示す図である。スマートフォン1は、ステップS11では、ホーム画面40をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。ホーム画面40は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。
ホーム画面40には、複数のアイコン50が配置されている。アイコン50は、それぞれ、スマートフォン1にインストールされているアプリケーションと対応付けられている。スマートフォン1は、アイコン50に対するタップを検出すると、対応するアプリケーションを実行し、アプリケーションが提供する画面をディスプレイ2Aに表示する。すなわち、ホーム画面40において、アイコン50は、第1オブジェクトであり、個々のアイコン50が表示される領域の周辺の領域は、第1オブジェクトとして機能する領域46として処理される。
ホーム画面40は、複数のページを含み、ページ単位でスクロール可能である。このため、ホーム画面40において、第1オブジェクトとして機能する領域46の割合が高い場合には、第2オブジェクトとしてスクロールバー60等を表示する。図6に示す例では、第2オブジェクトは表示されていない。
ステップS11では、利用者の指F1が、ブラウザアプリケーション9Cに対応付けられたアイコン50をタップしている。スマートフォン1は、アイコン50に対するタップを検出すると、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面を表示する。例えば、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページの内容を示す画面をディスプレイ2Aに表示する。その結果、ステップS12では、図5と同様の画面45がディスプレイ2Aに表示されている。画面45は、上述したようにスクロール可能な画面である。
スマートフォン1は、画面45の表示部分に含まれる第1オブジェクトを特定する。そして、スマートフォン1は、表示部分における第1オブジェクトとして機能する領域46、すなわち、特定した第1オブジェクトに対する操作を受け付ける領域を、第1オブジェクトの属性に基づいて算出する。第1オブジェクトの属性には、例えば、フォントサイズ、文字の長さ、画像の大きさ、表示拡大率等が含まれる。スマートフォン1は、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高いかを判定する。ステップS12では、スマートフォン1は、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高いと判定し、第2オブジェクトとして、スクロールバー60をディスプレイ2Aに表示している。
ステップS13では、利用者の指F1が、スクロールバー60のスライダ62を下方向に移動させている。スマートフォン1は、タッチスクリーン2Bを介して、スライダ62を下方向に移動させるジェスチャを検出すると、スライダ62の表示位置を変更しつつ、スライダ62の表示位置に合わせて画面45を下方向にスクロールする。
このようにスクロールバー60を表示することにより、スマートフォン1は、利用者がスクロール操作時に、第1オブジェクトとして機能する領域46を誤ってタッチしてしまう可能性を低減することができる。
スマートフォン1は、画面45のスクロール中は、第2オブジェクトを表示している状態、又は第2オブジェクトを表示していない状態を維持する。すなわち、スクロール中に、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が変化しても、スマートフォン1は、第2オブジェクトを途中で表示させたり、途中で消したりはしない。
スクロール中とは、画面45の表示部分が変化している期間、及び画面45の表示部分を変化させるための操作が継続している期間を意味する。例えば、フリック操作に応じて画面45がスクロールされる場合、フリック操作が完了した後であっても、フリック操作の速度等に応じて開始された画面45のスクロールが停止するまでの期間は、「スクロール中」に含まれる。例えば、ドラッグ操作に応じて画面45がスクロールされる場合、ドラッグ操作中の指の移動が停止し、画面45のスクロールが停止していても、指のリリースが検出されるまでの期間は、「スクロール中」に含まれる。以下の説明では、「スクロール中の期間が完了する」ことを、「スクロールが完了する」ということがある。
このように、スクロール中は第2オブジェクトを表示している状態、又は第2オブジェクトを表示していない状態を維持することにより、スクロールの途中で可能なスクロール操作が変化して利用者が戸惑う可能性を低減することができる。
さらに、スマートフォン1は、スクロール中に第2オブジェクトを表示している場合、スクロールが完了した後も、所定の時間、第2オブジェクトを表示している状態を維持する。これにより、スマートフォン1は、利用者がスクロール操作を一時的に中断した場合に、同様のスクロール操作を継続して行う機会を利用者に与えることができる。スマートフォン1は、スクロール中に第2オブジェクトを表示していない場合、スクロールが完了した後に画面の表示部分における第1オブジェクトとして機能する領域46の割合が高くても、所定の時間、第2オブジェクトを表示しない状態を維持してもよい。
ステップS14では、利用者の指F1が、スクロールバー60のスライダ62を下端まで移動させている。このため、スマートフォン1は、画面45の表示部分を、画面45の下端部分に変化させた後、変化を停止させている。この段階では、指F1がまだリリースされていないため、スマートフォン1は、第2オブジェクトを表示している状態を維持している。
その後、指F1のリリースを検出すると、スマートフォン1は、スクロールが完了したと判定する。そして、スマートフォン1は、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高いかを判定する。ステップS15では、スマートフォン1は、画面45の表示部分における第1オブジェクトとして機能する領域46の割合が高くないと判定し、表示している状態を所定の時間維持した後、スクロールバー60をディスプレイ2Aから消去している。
画面45の下端部分では、画像45aが第1オブジェクトとして機能する。ステップS15では、利用者の指F1が、第1オブジェクトとして機能する画像45aの領域46をタップしている。スマートフォン1は、領域46に対するタップを検出すると、ステップS16に示すように、領域46に対応する第1オブジェクトに対応付けられた画面70をディスプレイ2Aに表示する。画面70は、画像71、テキスト72等の情報を表示している。
画面70は、スクロール可能な画面ではない。このため、画面70の表示部分における第1オブジェクトとして機能する領域の割合に関わらず、第2オブジェクトは表示されない。
図7を参照しながら、スマートフォン1による表示制御の処理手順について説明する。図7は、スマートフォン1による表示制御の処理手順の例を示すフローチャートである。図7に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図7に示す処理手順は、コントローラ10がディスプレイ2Aに画面を表示させるときに実行される。
図7に示すように、スマートフォン1のコントローラ10は、ステップS101として、ディスプレイ2Aに画面を表示させる。この段階で、画面はスクロール中ではない。コントローラ10は、ステップS102として、画面がスクロール可能であるかを判定する。画面がスクロール可能な場合(ステップS102,Yes)、コントローラ10は、ステップS103に進む。画面がスクロール可能でない場合(ステップS102,No)、コントローラ10は、ステップS110に進む。
コントローラ10は、ステップS103として、画面の表示部分を特定する。そして、コントローラ10は、ステップS104として、画面の表示部分における第1オブジェクトとして機能する領域46の割合を算出する。
続いて、コントローラ10は、ステップS105として、画面の表示部分における第1オブジェクトとして機能する領域46の割合が閾値よりも大きいかを判定する。割合が閾値よりも大きい場合(ステップS105,Yes)、コントローラ10は、ステップS106に進む。
コントローラ10は、ステップS106として、第2オブジェクトが表示されているかを判定する。第2オブジェクトが表示されていない場合(ステップS106,No)、コントローラ10は、ステップS107に進む。コントローラ10は、ステップS107として、ディスプレイ2Aに第2オブジェクトを表示させ、その後ステップS110に進む。コントローラ10は、所定時間経過後に第2オブジェクトを表示させてもよい。第2オブジェクトが表示されている場合(ステップS106,Yes)、コントローラ10は、第2オブジェクトを表示したままで、ステップS110に進む。
画面の表示部分における第1オブジェクトとして機能する領域46の割合が閾値よりも大きくない場合(ステップS105,No)、コントローラ10は、ステップS108に進む。コントローラ10は、ステップS108として、第2オブジェクトが表示されているかを判定する。第2オブジェクトが表示されている場合(ステップS108,Yes)、コントローラ10は、ステップS109に進む。コントローラ10は、ステップS109として、所定の時間経過後に、第2オブジェクトをディスプレイ2Aから消去し、ステップS110に進む。第2オブジェクトが表示されていない場合(ステップS108,No)、コントローラ10は、第2オブジェクトを表示しないままで、ステップS110に進む。
コントローラ10は、ステップS110として、スクロール操作を検出したかを判定する。例えば、コントローラ10は、画面がスクロール可能な方向へのフリック又はドラッグを、スクロール操作として検出する。さらに、コントローラ10は、第2オブジェクトに対する所定のジェスチャをスクロール操作として検出する。
スクロール操作を検出した場合(ステップS110,Yes)、コントローラ10は、ステップS111に進む。コントローラ10は、ステップS111として、検出したスクロール操作に応じた画面のスクロール処理を実行する。コントローラ10は、画面45のスクロールが完了すると、ステップS114に進む。
スクロール操作を検出していない場合(ステップS110,No)、コントローラ10は、ステップS112に進む。コントローラ10は、ステップS112として、第1オブジェクトに対する所定のジェスチャを検出したかを判定する。
第1オブジェクトに対する所定のジェスチャを検出した場合(ステップS112,Yes)、コントローラ10は、ステップS113に進む。コントローラ10は、ステップS113として、第1オブジェクトに対応付けられた画面をディスプレイ2Aに表示させる。画面を表示させた後、コントローラ10は、図7に示す処理手順を終了する。第1オブジェクトに対する所定のジェスチャを検出していない場合(ステップS112,No)、コントローラ10は、ステップS114に進む。
コントローラ10は、ステップS114として、画面を閉じるかを判定する。例えば、コントローラ10は、画面を閉じるための操作を検出した場合に、画面を閉じると判定する。画面を閉じると判定した場合(ステップS114,Yes)、コントローラ10は、ステップS115に進む。コントローラ10は、ステップS115として、表示している画面を閉じて、図7に示す処理手順を終了する。画面を閉じると判定しない場合(ステップS114,No)、コントローラ10は、ステップS102へ戻る。
本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
例えば、図4に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
上記の実施形態では、タッチスクリーンを備える電子機器の例として、スマートフォンについて説明したが、添付の請求項に係る電子機器は、スマートフォンに限定されない。添付の請求項に係る電子機器は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る電子機器は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、自動預入支払機(ATM)、及びテレビ受像器を含むが、これらに限定されない。
上記の実施形態では、スマートフォン1は、スクロール可能な画面の表示部分における第1オブジェクトとして機能する領域46の割合が閾値よりも高い場合に、第2オブジェクトを表示する場合について説明した。しかし、第2オブジェクトを表示する条件は、これに限定されない。例えば、スマートフォン1は、第1オブジェクトとして機能する領域46の割合に関わらず、スクロール可能な画面の表示部分に第1オブジェクトが含まれている場合に、第2オブジェクトを表示してもよい。あるいは、スマートフォン1は、スクロール可能な画面の表示部分のうち、スクロール操作で利用される可能性が高い領域に第1オブジェクトが含まれる場合に、第2オブジェクトを表示するように構成されてもよい。あるいは、スマートフォン1は、スクロール可能な画面の表示部分のうち、スクロール操作で利用される可能性が高い領域における第1オブジェクトとして機能する領域46の割合が閾値よりも高い場合に、第2オブジェクトを表示するように構成されてもよい。スクロール操作で利用される可能性が高い領域は、例えば、利用者の利き手に近い側の所定の大きさの領域である。
上記の実施形態では、スマートフォン1は、スクロール中に第2オブジェクトを表示している場合、スクロールが完了した後も、所定の時間、第2オブジェクトを表示している状態を維持する。しかしながら、スマートフォン1は、スクロールが完了した場合、表示部分における第1オブジェクトとして機能する領域46の割合が高くない場合、直ちに、第2オブジェクトを消去してもよい。
上記の実施形態では、スマートフォン1は、第2オブジェクトとして、スクロールバー60を画面45の右側に表示する例について説明したが、第2オブジェクトを表示する位置は、これに限定されない。スマートフォン1は、例えば、第2オブジェクトを画面45の中央付近、又は、左側等に表示してもよい。
上記の実施形態では、スマートフォン1は、第2オブジェクトがスクロールバー60である例について説明したが、第2オブジェクトは、スクロールバー60に限定されない。図8は、第2オブジェクトの第1の変形例を示す図である。図8に示す例では、第2オブジェクトは、画面45の右上及び右下に表示されたボタン60A及び60Bである。スマートフォン1は、画面45がスクロール可能であり、その表示部分における第1オブジェクトとして機能する領域46の割合が高い場合に、ボタン60A及び60Bをディスプレイ2Aに表示する。ボタン60Aは、画面45を上方向へスクロールさせるためのボタンである。ボタン60Bは、画面45を下方向へスクロールさせるためのボタンである。
スマートフォン1は、ボタン60A又はボタン60Bに対するタップを検出すると、画面45を上方向又は下方向に所定の移動量だけスクロールする。スマートフォン1は、ボタン60A又はボタン60Bがロングタッチを検出すると、リリースを検出するまで、画面45を上方向又は下方向にスクロールする。
ボタン60A及び60Bが配置される画面45の位置は、図8に示す例に限定されない。ボタン60A及び60Bは、画面45上の任意の位置に配置されてよい。ボタン60A及び60Bは、利用者の操作(例えば、ドラッグ、又はロングタッチ後のドラッグ)に応じて画面45上で移動してもよい。
上記の実施形態では、画面が縦方向にスクロールする例について説明したが、画面のスクロール方向は、これに限定されない。例えば、画面が横方向又は任意の方向にスクロール可能であっても、画面の表示部分における第1オブジェクトとして機能する領域46の割合が高い場合には、スマートフォン1は、第2オブジェクトを表示してよい。
図9は、第2オブジェクトの第2の変形例を示す図である。図9に示す例では、第2オブジェクトは、スクロールバー60及び60Cである。図9に示す例では、画面45は、任意の方向にスクロール可能な画面である。スクロールバー60は、図5と同様の縦方向のスクロールバーである。スクロールバー60Cは、画面45の横方向へのスクロールバーである。スクロールバー60Cは、スライダ62Cを含む。スライダ62Cは、画面45の表示部分の横方向における位置、画面45の横方向全体に占める割合等を示す。スマートフォン1は、スクロールバー60Cのスライダ62Cを横方向に移動させるジェスチャを検出すると、スライダ62Cの表示位置を変更しつつ、スライダ62Cの表示位置に合わせて画面45を横方向にスクロールする。
上記の実施形態では、第2オブジェクトを不透明なオブジェクトとして図示したが、第2オブジェクトの表示態様は、これに限定されない。第2オブジェクトは、一部又は全体が透明であってもよい。第2オブジェクトの一部又は全体を透明にすることにより、画面の視認性を向上させることができる。
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
40 ホーム画面
45 画面
46 領域
50 アイコン
60 スクロールバー
70 画面

Claims (10)

  1. スクロール可能な第1画面を表示するタッチスクリーンディスプレイと、
    前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるコントローラと
    を備え
    前記コントローラは、前記第1画面の表示部分に、前記第1オブジェクトが含まれない場合、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させない電子機器。
  2. 前記コントローラは、前記第1画面の表示部分における前記第1オブジェクトの割合が閾値よりも高い場合に、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させる請求項1に記載の電子機器。
  3. スクロール可能な第1画面を表示するタッチスクリーンディスプレイと、
    前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるコントローラと
    を備え、
    前記コントローラは、前記第1画面の表示部分における前記第1オブジェクトの割合が閾値よりも高い場合に、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させる電子機器。
  4. 前記コントローラは、前記第1画面のスクロール中は、前記第2オブジェクトを表示している状態、又は前記第2オブジェクトを表示していない状態を維持する請求項1または2に記載の電子機器。
  5. 前記コントローラは、前記第1画面のスクロールが完了したときに、前記第1画面の表示部分に応じて、前記第2オブジェクトの表示を制御する請求項4に記載の電子機器。
  6. 前記コントローラは、前記第1画面のスクロールが完了したときに、前記第2オブジェクトを表示している状態、又は前記第2オブジェクトを表示していない状態を所定の時間維持する請求項5に記載の電子機器。
  7. タッチスクリーンディスプレイを備えた電子機器の制御方法であって、
    スクロール可能な第1画面を前記タッチスクリーンディスプレイに表示させるステップと、
    前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップと
    前記第1画面の表示部分に、前記第1オブジェクトが含まれない場合、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させないステップと
    を含む制御方法。
  8. タッチスクリーンディスプレイを備えた電子機器の制御方法であって、
    スクロール可能な第1画面を前記タッチスクリーンディスプレイに表示させるステップと、
    前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップと
    前記第1画面の表示部分における前記第1オブジェクトの割合が閾値よりも高い場合に、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップと
    を含む制御方法。
  9. タッチスクリーンディスプレイを備えた電子機器に、
    スクロール可能な第1画面を前記タッチスクリーンディスプレイに表示させるステップと、
    前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップと
    前記第1画面の表示部分に、前記第1オブジェクトが含まれない場合、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させないステップと
    を実行させる制御プログラム。
  10. タッチスクリーンディスプレイを備えた電子機器に、
    スクロール可能な第1画面を前記タッチスクリーンディスプレイに表示させるステップと、
    前記第1画面の表示部分に、第2画面を表示させるための第1オブジェクトが含まれる場合に、前記第1画面をスクロールするための第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップと
    前記第1画面の表示部分における前記第1オブジェクトの割合が閾値よりも高い場合に、前記第2オブジェクトを前記タッチスクリーンディスプレイに表示させるステップと
    を実行させる制御プログラム。
JP2013037919A 2013-02-27 2013-02-27 電子機器、制御方法、及び制御プログラム Expired - Fee Related JP5805685B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013037919A JP5805685B2 (ja) 2013-02-27 2013-02-27 電子機器、制御方法、及び制御プログラム
US14/771,197 US20160004420A1 (en) 2013-02-27 2014-02-26 Electronic device and computer program product
PCT/JP2014/054734 WO2014133030A1 (ja) 2013-02-27 2014-02-26 電子機器、制御方法、及び制御プログラム
EP14756790.3A EP2963533A4 (en) 2013-02-27 2014-02-26 ELECTRONIC DEVICE, CONTROL METHOD, AND CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013037919A JP5805685B2 (ja) 2013-02-27 2013-02-27 電子機器、制御方法、及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2014164719A JP2014164719A (ja) 2014-09-08
JP5805685B2 true JP5805685B2 (ja) 2015-11-04

Family

ID=51428290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013037919A Expired - Fee Related JP5805685B2 (ja) 2013-02-27 2013-02-27 電子機器、制御方法、及び制御プログラム

Country Status (4)

Country Link
US (1) US20160004420A1 (ja)
EP (1) EP2963533A4 (ja)
JP (1) JP5805685B2 (ja)
WO (1) WO2014133030A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007949A (ja) 2013-06-26 2015-01-15 ソニー株式会社 表示装置、表示制御方法及びコンピュータプログラム
JP2016091924A (ja) * 2014-11-10 2016-05-23 アール・ビー・コントロールズ株式会社 照明装置
USD767628S1 (en) * 2015-02-27 2016-09-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US10372314B2 (en) 2015-05-19 2019-08-06 Kyocera Document Solutions Inc. Display device and display control method
JP6601042B2 (ja) * 2015-07-29 2019-11-06 セイコーエプソン株式会社 電子機器、電子機器の制御プログラム
JP6380331B2 (ja) * 2015-10-26 2018-08-29 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
JP6721049B2 (ja) * 2016-08-01 2020-07-08 富士通株式会社 ページ表示プログラム、ページ表示装置、及びページ表示方法
JP2019036041A (ja) * 2017-08-10 2019-03-07 キヤノン株式会社 表示制御装置及びその制御方法並びにプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6570594B1 (en) * 1998-06-30 2003-05-27 Sun Microsystems, Inc. User interface with non-intrusive display element
US6061063A (en) * 1998-06-30 2000-05-09 Sun Microsystems, Inc. Method and apparatus for providing feedback while scrolling
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
KR100798301B1 (ko) * 2006-09-12 2008-01-28 엘지전자 주식회사 스크롤 방법 및 이를 이용하는 이동통신 단말기
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
KR101496451B1 (ko) * 2007-01-19 2015-03-05 엘지전자 주식회사 단말기 및 이를 이용한 스크롤 바의 표시방법
KR101415296B1 (ko) * 2007-05-29 2014-07-04 삼성전자주식회사 휴대 단말기의 메뉴 실행 장치 및 방법
KR101534789B1 (ko) * 2008-05-28 2015-07-07 구글 인코포레이티드 모바일 컴퓨팅 디바이스에서의 모션-컨트롤 뷰
EP2175344B1 (en) * 2008-10-06 2020-02-12 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR101510738B1 (ko) * 2008-10-20 2015-04-10 삼성전자주식회사 휴대단말의 대기화면 구성 방법 및 장치
KR20100044341A (ko) * 2008-10-22 2010-04-30 엘지전자 주식회사 이동 단말기 및 이를 이용한 스케쥴러 제공 방법
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
WO2010065762A2 (en) * 2008-12-05 2010-06-10 Fisher Controls International Llc User interface for a portable communicator for use in a process control environment
US9367216B2 (en) * 2009-05-21 2016-06-14 Sony Interactive Entertainment Inc. Hand-held device with two-finger touch triggered selection and transformation of active elements
KR20110040352A (ko) * 2009-10-14 2011-04-20 삼성전자주식회사 리스트 스크롤 방법 및 이를 지원하는 디바이스
KR101651926B1 (ko) * 2010-01-07 2016-08-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101724000B1 (ko) * 2010-11-22 2017-04-06 삼성전자주식회사 터치스크린 단말기에서 화면 스크롤 방법 및 장치
JP2012247861A (ja) * 2011-05-25 2012-12-13 Panasonic Corp タッチスクリーン装置、タッチ操作入力方法及びプログラム
TW201308190A (zh) * 2011-08-08 2013-02-16 Acer Inc 手持裝置和資料輸入方法

Also Published As

Publication number Publication date
EP2963533A1 (en) 2016-01-06
JP2014164719A (ja) 2014-09-08
EP2963533A4 (en) 2016-10-05
US20160004420A1 (en) 2016-01-07
WO2014133030A1 (ja) 2014-09-04

Similar Documents

Publication Publication Date Title
JP6368455B2 (ja) 装置、方法、及びプログラム
US9703382B2 (en) Device, method, and storage medium storing program with control for terminating a program
JP6159078B2 (ja) 装置、方法、及びプログラム
JP6110654B2 (ja) 装置、方法、及びプログラム
JP5891083B2 (ja) 装置、方法、及びプログラム
JP5805685B2 (ja) 電子機器、制御方法、及び制御プログラム
US9874994B2 (en) Device, method and program for icon and/or folder management
US20130050119A1 (en) Device, method, and storage medium storing program
US20130162569A1 (en) Device, method, and computer-readable recording medium
JP2013084233A (ja) 装置、方法、及びプログラム
US20130086523A1 (en) Device, method, and storage medium storing program
JP6058790B2 (ja) 装置、方法、及びプログラム
JP2013131185A (ja) 装置、方法、及びプログラム
JP2013131193A (ja) 装置、方法、及びプログラム
JP2013186726A (ja) 装置、方法、及びプログラム
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
JP5858896B2 (ja) 電子機器、制御方法及び制御プログラム
JP2013084237A (ja) 装置、方法、及びプログラム
JP6096100B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP2013065291A (ja) 装置、方法、及びプログラム
JP6099537B2 (ja) 電子機器、方法、及びプログラム
JP6139068B2 (ja) 装置及び方法
JP6080355B2 (ja) 装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees