JP6159078B2 - 装置、方法、及びプログラム - Google Patents

装置、方法、及びプログラム Download PDF

Info

Publication number
JP6159078B2
JP6159078B2 JP2012257573A JP2012257573A JP6159078B2 JP 6159078 B2 JP6159078 B2 JP 6159078B2 JP 2012257573 A JP2012257573 A JP 2012257573A JP 2012257573 A JP2012257573 A JP 2012257573A JP 6159078 B2 JP6159078 B2 JP 6159078B2
Authority
JP
Japan
Prior art keywords
home screen
display
gesture
smartphone
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012257573A
Other languages
English (en)
Other versions
JP2013137750A (ja
Inventor
修平 久野
修平 久野
近藤 義昌
義昌 近藤
雅道 児玉
雅道 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012257573A priority Critical patent/JP6159078B2/ja
Priority to US13/686,075 priority patent/US9086731B2/en
Publication of JP2013137750A publication Critical patent/JP2013137750A/ja
Priority to US14/751,271 priority patent/US9817544B2/en
Application granted granted Critical
Publication of JP6159078B2 publication Critical patent/JP6159078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。
タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスには、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phoneである。
国際公開第2008/086302号
タッチスクリーンデバイスの多くは、ホーム画面と呼ばれる画面をディスプレイに表示する。ホーム画面には、アイコンと呼ばれるオブジェクトが配置される。タッチスクリーンデバイスは、アイコンに対するジェスチャを検出すると、ジェスチャが行われたアイコンに対応するアプリケーションを実行する。
タッチスクリーンデバイスにインストールされるアプリケーションの数が増えるほど、ホーム画面に配置されるアイコンの数が増える。アイコンが増えると、利用者は所望するアイコンを探しにくくなる。
このような理由により、利用者がホーム画面上に配置される所望のアイコンを容易に探すことできる装置、方法、及びプログラムに対するニーズがある。
1つの態様に係る装置は、複数のアイコンが配置されたホーム画面を表示するタッチスクリーンディスプレイと、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対して第1ジェスチャが行われると、前記ホーム画面を拡大または縮小するコントローラと、を備え、前記コントローラは、前記ホーム画面を拡大する場合、前記複数のアイコンのうち端に配置されたアイコンを含む画面を前記タッチスクリーンディスプレイに表示し、前記ホーム画面を拡大または縮小する場合、前記アイコンに含まれる絵および文字のうち一方のみの表示倍率を変化させる。
1つの態様に係る方法は、タッチスクリーンディスプレイを備える装置を制御する方法であって、複数のアイコンが配置されたホーム画面を前記タッチスクリーンディスプレイに表示するステップと、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対して第1ジェスチャが行われると、前記ホーム画面を拡大または縮小するステップと、前記ホーム画面を拡大する場合、前記複数のアイコンのうち端に配置されたアイコンを含む画面を前記タッチスクリーンディスプレイに表示するステップと、前記ホーム画面を拡大または縮小する場合、前記アイコンに含まれる絵および文字のうち一方のみの表示倍率を変化させるステップと、を含む。
1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える装置に、複数のアイコンが配置されたホーム画面を前記タッチスクリーンディスプレイに表示するステップと、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対して第1ジェスチャが行われると、前記ホーム画面を拡大または縮小するステップと、前記ホーム画面を拡大する場合、前記複数のアイコンのうち端に配置されたアイコンを含む画面を前記タッチスクリーンディスプレイに表示するステップと、前記ホーム画面を拡大または縮小する場合、前記アイコンに含まれる絵および文字のうち一方のみの表示倍率を変化させるステップと、を実行させる。
図1は、実施形態に係るスマートフォンの外観を示す斜視図である。 図2は、実施形態に係るスマートフォンの外観を示す正面図である。 図3は、実施形態に係るスマートフォンの外観を示す背面図である。 図4は、ホーム画面の一例を示す図である。 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。 図6は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。 図7は、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。 図8は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。 図9は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。
図面を参照しつつ実施形態を詳細に説明する。以下では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明する。
(実施形態)
図1から図3を参照しながら、本実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号又は図形等を表示する。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bが接触を検出する指、ペン、又はスタイラスペン等は単に「指」ということがある。
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」とは、タッチスクリーン2Bに指が一定時間以上触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間以上接触するジェスチャをロングタッチとして判別する。
「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
「フリック」は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャをフリックとして判別する。フリックの移動速度は、スワイプおよびドラッグの移動速度と比較して高速である。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」、指が画面の斜め左上方向へ移動する「斜め左上フリック」、指が画面の斜め左下方向へ移動する「斜め左下フリック」、指が画面の斜め右上方向へ移動する「斜め右上フリック」、指が画面の斜め右下方向へ移動する「斜め右下フリック」等を含む。
「ピンチイン」は、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なる。以下では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャの操作量を検出する。例えば、スマートフォン1は、一方の指の位置に対する他方の指に位置の変化を検出して、ピンチインまたはピンチアウトの操作量を検出する。具体的には、スマートフォン1は、ピンチインの操作量を検出する場合、まず、両方の指がタッチスクリーン2Bに接触した位置を基準として、両方の指の位置の間を結ぶ第1距離を測定する。次に、スマートフォン1は、一方の指の位置と他方の指の位置とを互いに近づけた位置を基準として、この両方の指の位置の間を結ぶ第2距離を測定する。そして、スマートフォン1は、第1距離と第2距離との差をピンチインの操作量として検出する。第1距離と第2距離との差が大きい場合は、ピンチインの操作量は多く検出される。第1距離と第2距離との差が小さい場合は、ピンチインの操作量は少なく検出される。スマートフォン1は、ピンチアウトの操作量を検出する場合、まず、両方の指がタッチスクリーン2Bに接触した位置を基準として、両方の指の位置の間を結ぶ第1距離を測定する。次に、スマートフォン1は、一方の指の位置と他方の指の位置とを互いに遠ざけた位置を基準として、この両方の指の位置の間を結ぶ第3距離を測定する。そして、スマートフォン1は、第3距離と第1距離との差をピンチアウトの操作量として検出する。第3距離と第1距離との差が大きい場合は、ピンチアウトの操作量は多く検出され、第3距離と第1距離との差が小さい場合は、ピンチアプトの操作量は少なく検出される。
例えば、スマートフォン1は、指の移動距離の変化を検出して、スワイプの操作量を検出する。具体的には、スマートフォン1は、スワイプの操作量を検出する場合、指がタッチスクリーン2Bに接触した位置を始点として、指がタッチスクリーン2Bに接触したままで移動した移動距離を、スワイプの操作量として検出する。移動距離が長い場合は、スワイプの操作量は多く検出され、移動距離が短い場合は、スワイプの操作量は少なく検出される。例えば、スマートフォン1は、指の移動速度の変化を検出して、フリックの操作量を検出する。具体的には、スマートフォン1は、フリックの操作量を検出する場合、指がタッチスクリーン2Bに接触したままで移動させてリリースするまでの指の移動速度を、フリックの操作量として検出する。移動速度が速い場合は、フリックの操作量は多く検出され、移動速度が遅い場合は、フリックの操作量は少なく検出される。
図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。
アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。利用者の設定に従って任意の画像が壁紙41として決定されてもよい。
ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。
ホーム画面40の上下方向は、ディスプレイ2Aに表示される文字または画像の上下方向を基準とした方向である。よって、ホーム画面40は、タッチスクリーンディスプレイ2の長手方向において領域42に近い側がホーム画面40の上側となり、領域42から遠い側がホーム画面40の下側となる。領域42において電波レベルマーク44が表示されている側がホーム画面40の右側であり、領域42において残量マーク43が表示されている側がホーム画面40の左側である。スマートフォン1は、ホーム画面40に表示される文字または画像の上下方向に基づいて、例えば、ホーム画面40の斜め左上方向、斜め右下方向、左方向、および、右方向を決定する。
図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュである。
ボタン3A〜3Cは、例えば、ホームボタン、バックボタン、又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
照度センサ4は、照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(Global System for Mobile Communications)(登録商標)、PHS(Personal Handy−phone System)等がある。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
レシーバ7及びスピーカ11は、コントローラ10から送信される音声信号を音声として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の非一過的(non−transitory)な記憶デバイスを含んでよい。ストレージ9は、複数の種類の記憶デバイスを含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メール機能を提供する。電子メール機能は、例えば、電子メールの作成、送信、受信、及び表示等を可能にする。ブラウザアプリケーション9Cは、WEBブラウジング機能を提供する。WEBブラウジング機能は、例えば、WEBページの表示、及びブックマークの編集等を可能にする。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ジェスチャに応じて表示させるホーム画面40を変化させる機能が含まれる。ジェスチャに応じて表示させるホーム画面40を変化させる機能には、例えば、ジェスチャに応じて表示させるホーム画面40に対する表示領域を拡大、縮小、移動する機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、演算回路である。演算回路は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)である。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じてディスプレイ2A及び通信ユニット6等の機能部を制御し、それによって各種機能を実現する。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。機能部は、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。検出部は、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むがこれらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、ジェスチャに応じて表示させるホーム画面40を変化させる。コントローラ10は、例えば、ジェスチャに応じて表示させるホーム画面40に対する表示領域を拡大、縮小、移動する。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)(登録商標)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置である。
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
図5においてストレージ9が記憶するプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、又はメモリカードである。
図5に示したスマートフォン1の構成は一例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも一つを検出するための他の種類のセンサを備えてもよい。
以下、図6〜図9を参照しながら、スマートフォン1が、利用者のタッチスクリーンディスプレイに対するジェスチャに応じて、表示させるホーム画面40を拡大、縮小、移動することで変化させる制御の例を示す。
本実施形態におけるホーム画面40は、1つのホーム画面として構成される。上述の図4に示すタッチスクリーンディスプレイ2は、ホーム画面40の全体のうち一部の領域である表示領域(すなわち、ホーム画面40のうちタッチスクリーンディスプレイ2に表示される領域)を表示している。つまり、スマートフォン1は、ホーム画面40のうち一部領域である表示領域をタッチスクリーンディスプレイ2に表示させる。ホーム画面40の表示領域(ホーム画面40に対する表示領域とも言える。)とは、ホーム画面40のうちディスプレイ2Aに表示されている一部領域を意味する。スマートフォン1は、ホーム画面40の表示領域を拡大、縮小させることで、ホーム画面40に対する表示領域の大きさを変化させ、ホーム画面40のディスプレイ2Aに表示される割合を変化させる。スマートフォン1は、ディスプレイ2Aの表示面におけるホーム画面40が表示される領域を基本的に一定とする。したがって、ホーム画面40の表示領域が拡大されると、ホーム画面40のうち、ディスプレイ2Aに表示される領域の割合が大きくなるが、ディスプレイ2Aのうちホーム画面40が表示される大きさは変化しない。このため、所定の大きさに対して、表示領域が大きくなるため、表示領域に含まれる各要素の画像は小さくなる。ホーム画面40の表示領域が縮小されると、ホーム画面40のうち、ディスプレイ2Aに表示される領域の割合が小さくなるが、ディスプレイ2Aのうちホーム画面40が表示される大きさは変化しない。このため、所定の大きさに対して、表示領域が小さくなるため、表示領域に含まれる各要素の画像は大きくなる。このように、スマートフォン1は、ホーム画面40の表示領域を拡大または縮小することで、ディスプレイ2Aに表示されるホーム画面40の一部の大きさ、つまりアイコン50の文字の大きさを拡大または縮小し、表示させるアイコン50の数を減少または増加させる。
さらに、スマートフォン1は、ディスプレイ2Aに表示されるアイコン50の数を変更することができる。スマートフォン1は、ホーム画面40の表示領域を移動させることで、ディスプレイ2Aに表示されるホーム画面40の領域を変化させる。スマートフォン1は、ホーム画面40の表示領域を移動させることで、ホーム画面40がディスプレイ2Aよりも大きい場合も、ホーム画面40の全面を順次ディスプレイ2Aに表示させることができる。このように、スマートフォン1は、ホーム画面40の表示領域を拡大、縮小、移動させることで、ホーム画面40の全面を順次ディスプレイ2Aに表示させることができる。
本実施形態では、1つのホーム画面40に実際に配置されたアイコン50が、横8列×縦10行の80個である場合を想定している。つまり、上述した図4に示す例では、スマートフォン1は、実際は80個のアイコン50が配置された1つのホーム画面40の表示領域をホーム画面40の全域よりも縮小させて、ホーム画面40の一部の20個のアイコン50を含む表示領域をディスプレイ2Aに表示させている。
図6は、実施形態に係るスマートフォン1が行う制御の第1の例を示す図である。スマートフォン1は、ステップS11で、上述の図4と同様に横4列×縦5行の20個のアイコン50が配置された状態のホーム画面40をディスプレイ2Aに表示している。以下、説明を簡単にするため、上述の図4で示した“Browser”アイコンから“Stocks”アイコンの20個のアイコンを、それぞれアイコン(1)〜(20)の20個のアイコンとして示す。ステップS11では、利用者の指F1と指F2が遠ざかる方向にピンチアウトしている。スマートフォン1は、利用者により行われたピンチアウトジェスチャの操作量を検出する。
スマートフォン1は、ステップS12として、ステップS11で検出したピンチアウトジェスチャの操作量に応じて、ホーム画面40の表示領域を縮小する。ステップS12では、ホーム画面40の表示領域がステップS11よりも縮小されて、アイコン50の数が、ステップS11の横4列×縦5行の20個から、横3列×縦4行の12個に減少している。同時に、ステップS12では、ステップS11のアイコン50の表示サイズと比べて、ステップS12のアイコン50の表示サイズが拡大されている。
スマートフォン1は、ステップS13で、ステップS12と同様に横3列×縦4行の12個のアイコン50が配置された状態のホーム画面40をディスプレイ2Aに表示している。ステップS13では、利用者の指F1と指F2がステップS11と比べてより遠ざかる方向にピンチアウトしている。スマートフォン1は、利用者により行われたピンチアウトジェスチャの操作量を検出する。スマートフォン1は、ステップS13において、ステップS11で検出したピンチアウトジェスチャの操作量よりも多いピンチアウトジェスチャの操作量を検出する。
スマートフォン1は、ステップS14として、ステップS13で検出したピンチアウトジェスチャの操作量に応じて、ホーム画面40の表示領域をさらに縮小する。ステップS14では、ホーム画面40の表示領域がステップS13よりもさらに縮小されて、アイコン50の数が、ステップS13の横3列×縦4行の12個から、横1列×縦2行の2個に減少している。同時に、ステップS14では、ステップS13のアイコン50の表示サイズと比べてステップS14のアイコン50の表示サイズがさらに拡大されている。
本実施形態に係るスマートフォン1は、ステップS11〜14において、ホーム画面40に対するピンチアウトジェスチャの操作量に応じて、ホーム画面40の表示領域を縮小する。スマートフォン1は、ホーム画面40内におけるアイコン50の配置パターンを維持した状態で、ホーム画面40の表示領域を縮小する。スマートフォン1は、アイコン50の一部が表示されないよう、アイコン50の全体が表示されるよう調整しながらホーム画面40の表示領域を縮小する。これにより、スマートフォン1は、ホーム画面40の表示領域を縮小することで、表示させるアイコン50の数を減少させ、かつ、アイコン50の表示サイズを拡大することできる。よって、利用者は、探しているアイコン50の数を限定して、利用者が見やすいアイコン50の表示サイズにて詳細を確認することができ、その結果、所望するアイコン50を容易に探すことができる。
上述した第1の例では、ステップS13で検出されるピンチアウトジェスチャの操作量がステップS11よりも多い場合を説明したが、スマートフォン1は、ステップS13でステップS11と同程度のピンチアウトジェスチャの操作量を検出してもよい。この場合、ステップS14では、アイコン50の数が、ステップS13の横3列×縦4行の12個から、横2列×縦3行の6個に減少する。
図7は、実施形態に係るスマートフォン1が行う制御の第2の例を示す図である。スマートフォン1は、ステップS21で、上述の図6のステップS14と同様に横1列×縦2行の2個のアイコン50が配置された状態のホーム画面40をディスプレイ2Aに表示している。ステップS21では、利用者の指F1と指F2が近づく方向にピンチインしている。スマートフォン1は、利用者により行われたピンチインジェスチャの操作量を検出する。
スマートフォン1は、ステップS22として、ステップS21で検出したピンチインジェスチャの操作量に応じて、ホーム画面40の表示領域を拡大する。ステップS22では、ホーム画面40の表示領域がステップS21よりも拡大されて、アイコン50の数が、ステップS21の横1列×縦2行の2個から、横4列×縦5行の20個に増加している。同時に、ステップS22では、ステップS21のアイコン50の表示サイズと比べてステップS22のアイコン50の表示サイズが縮小されている。
ステップS22では、利用者の指F1が、ホーム画面40を上フリックしている。スマートフォン1は、ホーム画面40に対する上フリックを検出すると、検出した上方向へのフリックジェスチャの操作量に応じて、ステップS22のホーム画面40の表示領域の大きさに対応するシート単位(図7において、横4列×縦5行の単位で20個のアイコン50を含むよう設定されたシート単位)で、ホーム画面40の表示領域を下方向へ移動する。
スマートフォン1は、ステップS23として、横4列×縦5行の単位でアイコン50を20個含むよう設定されたシート単位で、ホーム画面40の表示領域を下方向へ移動させた状態のホーム画面40を表示する。ステップS23のホーム画面40には、ステップS22のアイコン(1)〜(20)とは異なる20個のアイコン(21)〜(40)が表示されている。
ステップS23では、利用者の指F1と指F2が遠ざかる方向にピンチアウトしている。スマートフォン1は、利用者により行われたピンチアウトジェスチャの操作量を検出する。
スマートフォン1は、ステップS24として、ステップS23で検出したピンチアウトジェスチャの操作量に応じて、ホーム画面40の表示領域を縮小する。ステップS24では、ホーム画面40の表示領域がステップS23よりも縮小されて、アイコン50の数が、ステップS23の横4列×縦5行の20個から、横2列×縦2行の4個に減少している。同時に、ステップS24では、ステップS23のアイコン50の表示サイズと比べて、ステップS24のアイコン50の表示サイズが拡大されている。
本実施形態に係るスマートフォン1は、ステップS21〜S22において、ホーム画面40に対するピンチインジェスチャの操作量に応じて、当該ホーム画面40の表示領域を拡大する。スマートフォン1は、ホーム画面40の表示領域を拡大することで、表示させるアイコン50の数を増加させ、かつ、アイコン50の表示サイズを縮小する。スマートフォン1は、ホーム画面40内におけるアイコン50の配置パターンを維持した状態で、ホーム画面40の表示領域を拡大する。スマートフォン1は、アイコン50の全体が表示されるよう調整しながらホーム画面40の表示領域を拡大する。これにより、スマートフォン1は、ホーム画面40の表示領域を拡大することで、表示させるアイコン50の数を増加させ、かつ、アイコン50の表示サイズを縮小することできる。よって、利用者は、例えば、探しているアイコン50がステップS21のアイコン(1)、(5)でない場合、ステップS22でホーム画面40内における各アイコン(1)〜(20)の配置、色、文字等の概要を確認して、探しているアイコン50がアイコン(1)〜(20)にあるか否かを再度確認することができる。
本実施形態に係るスマートフォン1は、ステップS22〜S23において、ホーム画面40の表示領域が拡大された状態で、当該ホーム画面40に対する上方向のフリックジェスチャが行われると、上方向のフリックジェスチャの操作量に応じて、ステップS22のホーム画面40の表示領域の大きさに対応するシート単位で、当該ホーム画面40の表示領域を下方向へ移動する。これにより、スマートフォン1は、ステップS22のホーム画面40の表示領域をシート単位で迅速に移動させることができる。よって、利用者は、探しているアイコン50がステップS22のアイコン(1)〜(20)でない場合、ステップS23で容易に別のアイコン(21)〜(40)の概要を把握して、探しているアイコン50がアイコン(21)〜(40)にあるか否かを確認することができる。
本実施形態に係るスマートフォン1は、ステップS23〜S24において、ホーム画面40に対するピンチアウトジェスチャの操作量に応じて、ホーム画面40の表示領域を縮小する。これにより、スマートフォン1は、ホーム画面40の表示領域を縮小することで、表示させるアイコン50の数を減少させ、かつ、アイコン50の表示サイズを拡大することできる。よって、利用者は、例えば、探しているアイコン50がステップS23のアイコン(21)〜(40)に含まれると判断した場合、探しているアイコン50の数を限定した上で、利用者が見やすいアイコン50の表示サイズにて詳細を確認することができる。
図8は、実施形態に係るスマートフォン1が行う制御の第3の例を示す図である。スマートフォン1は、ステップS31で、上述の図7のステップS24と同様に横2列×縦2行の4個のアイコン50が配置された状態のホーム画面40をディスプレイ2Aに表示している。ステップS31では、利用者の指F1が、ホーム画面40を左方向へスワイプしている。スマートフォン1は、ホーム画面40に対する左方向のスワイプを検出すると、検出した左方向へのスワイプジェスチャの操作量に応じて、ステップS31のホーム画面40に配置されたアイコン(21)、(22)、(25)、(26)の大きさに対応するブロック単位で、ホーム画面40の表示領域を右方向へ移動する。
スマートフォン1は、ステップS32として、ブロック単位でホーム画面40の表示領域を右方向へ移動させた状態のホーム画面40を表示する。ステップ32のホーム画面40には、ステップ31では表示されていなかったアイコン(23)、(27)が、アイコン(22)、(26)とともに表示されている。
ステップS32では、利用者の指F1が、ホーム画面40を斜め右上方向へスワイプしている。スマートフォン1は、ホーム画面40に対する斜め右上方向のスワイプを検出すると、検出した斜め右上方向へのスワイプジェスチャの操作量に応じて、ステップS32のホーム画面40に配置されたアイコン(22)、(23)、(26)、(27)の大きさに対応するブロック単位で、ホーム画面40の表示領域を斜め左下方向へ移動する。
スマートフォン1は、ステップS33として、ブロック単位でホーム画面40の表示領域を斜め左下方向へ移動させた状態のホーム画面40を表示する。ステップS33のホーム画面40には、ステップS32では表示されていなかったアイコン(25)、(29)、(30)が、アイコン(26)とともに表示されている。
ステップS33では、利用者の指F1が、ホーム画面40を左方向へスワイプしている。スマートフォン1は、ホーム画面40に対する左方向のスワイプを検出すると、検出した左方向へのスワイプジェスチャの操作量に応じて、ステップ33のホーム画面40に配置されたアイコン(25)、(26)、(29)、(30)の大きさに対応するブロック単位で、ホーム画面40の表示領域を右方向へ移動する。
スマートフォン1は、ステップS34として、ブロック単位でホーム画面40の表示領域を右方向へ移動させた状態のホーム画面40を表示する。ステップS34のホーム画面40には、ステップS33では表示されていなかったアイコン(27)、(31)が、アイコン(26)、(30)とともに表示されている。
ステップS34では、利用者の指F1が、アイコン(31)をタップしている。スマートフォン1は、アイコン(31)に対するジェスチャとしてタップジェスチャを検出すると、当該アイコン(31)に対応付けられたアプリケーションを起動する。
本実施形態に係るスマートフォン1は、ステップS31〜S34において、ホーム画面40の表示領域が縮小された状態で、当該ホーム画面40に対する各方向のスワイプジェスチャが行われると、各方向のスワイプジェスチャの操作量に応じて、ホーム画面40に配置されたアイコン50の大きさに対応するブロック単位で、当該ホーム画面40の表示領域をスワイプジェスチャが検出された方向とは逆の方向へ移動する。これにより、スマートフォン1は、各ステップS31〜S34において、ホーム画面40の表示領域をブロック単位で指に追従させながら移動させることができる。よって、利用者は、例えば、上述の図7のステップS23で探しているアイコン50がアイコン(21)〜(40)に含まれていると判断したものの、ステップS24のアイコン(21)、(22)、(25)、(26)でないと判断する場合がある。この場合、利用者は、図8のステップS31〜S34において、ホーム画面40の表示領域を微調整することができるので、探しているアイコン50を確実に探し出すことができる。
本実施形態に係るスマートフォン1は、ステップS34において、ホーム画面40の表示領域が縮小された状態で、ホーム画面40に配置されたアイコン50に対するタップジェスチャが行われると、当該アイコン50に対応付けられたアプリケーションを起動する。これにより、利用者は、探し出したアイコンに対応付けられたアプリケーションを迅速に起動することができ、ホーム画面40の操作性がより向上される。
以下、図9を参照して、スマートフォン1がホーム画面40を変更する処理手順について説明する。図9は、スマートフォン1のコントローラ10が行う制御を示すフローチャートである。コントローラ10は、図9に示す処理手順と並行して、他の処理手順を実行することがある。以下の処理は、繰り返し実行されるものとする。
スマートフォン1のコントローラ10は、ステップS101として、ホーム画面40に対するジェスチャが行われたか否かを判定する。コントローラ10は、ホーム画面40に対するジェスチャが行われていないと判定した場合(ステップS101でNo)、ステップS101に進む。このように、コントローラ10は、ステップS101でホーム画面に対するジェスチャを検出するまで、ステップS101の処理を繰り返す。
コントローラ10は、ホーム画面40に対するジェスチャが行われていると判定した場合(ステップS101でYes)、ステップS102に進む。コントローラ10は、ステップS102として、ホーム画面40に対するジェスチャが第1ジェスチャであるか否かを判定する。第1ジェスチャは、例えば、ピンチインジェスチャまたはピンチアウトジェスチャである。
コントローラ10は、ホーム画面40に対するジェスチャが第1ジェスチャであると判定した場合(ステップS102でYes)、ステップS103に進む。コントローラ10は、ステップS103として、上述した第1の例および第2の例に示すように、検出された第1ジェスチャの操作量に応じて、ホーム画面40の表示領域を拡大または縮小する。そして、コントローラ10は、一連の処理を終了する。
コントローラ10は、ホーム画面40に対するジェスチャが第1ジェスチャではないと判定した場合(ステップS102でNo)、ステップS104に進む。コントローラ10は、ステップS104として、ホーム画面40に対するジェスチャが第2ジェスチャであるか否かを判定する。第2ジェスチャは、例えば、フリックジェスチャまたはスワイプジェスチャである。
コントローラ10は、ホーム画面40に対するジェスチャが第2ジェスチャであると判定した場合(ステップS104でYes)、ステップS105に進む。コントローラ10は、ステップS105として、上述した第2の例および第3の例に示すように、第2ジェスチャの操作量および操作方向に応じてホーム画面40の表示領域を移動する。そして、コントローラ10は、一連の処理を終了する。
コントローラ10は、ホーム画面40に対するジェスチャが第2ジェスチャではないと判定した場合(ステップS104でNo)、ステップS106に進む。コントローラ10は、ステップS106として、ホーム画面40に対して行われたジェスチャがアイコン50に対するジェスチャであるか否かを判定する。アイコン50に対するジェスチャは、例えば、タップジェスチャである。
コントローラ10は、アイコン50に対するジェスチャであると判定した場合(ステップS106でYes)、ステップS107へ進む。コントローラ10は、ステップS107として、上述した第3の例に示すように、対応するアイコン50に対応付けられたアプリケーションを起動する。そして、コントローラ10は、一連の処理を終了する。
コントローラ10は、アイコン50に対するジェスチャではないと判定した場合(ステップS106でNo)、ステップS108へ進む。コントローラ10は、ステップS108として、ホーム画面40に対して行われたジェスチャに応じた所定の動作を行う。例えば、所定の動作は、アイコン50の配置パターンを変更する調整モードへの切り替え動作であってもよい。そして、コントローラ10は、一連の処理を終了する。
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図5に示した各プログラムは、他のプログラムと結合されていてもよい。
上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、又はゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
上述した第1の例〜第3の例は、それぞれが適宜組み合わせられてよい。
上述した第1の例〜第3の例において、スマートフォン1は、ディスプレイ2Aに表示されているホーム画面40の表示領域が拡大または縮小された場合、当該ホーム画面40に配置されたアイコン50に含まれる絵及び文字のうち少なくとも1つの表示倍率を変化させてもよい。例えば、スマートフォン1は、ホーム画面40の表示領域が拡大された場合、アイコン50に含まれる文字の表示倍率のみを拡大し、絵については表示倍率が変化しないように設定してもよい。スマートフォン1は、ホーム画面40の表示領域が縮小された場合、アイコン50に含まれる絵の表示倍率のみを縮小し、文字については表示倍率が変化しないように設定してもよい。これにより、スマートフォン1は、利用者がアイコン50の絵によってアプリケーションを認識しているか、アイコン50の文字によってアプリケーションを認識しているかに応じて、アイコン50の表示倍率を変化させることができる。よって、利用者は、より一層容易に所望のアイコン50を探し出すことができる。
上述した第1の例において、スマートフォン1は、ディスプレイ2Aに表示されているホーム画面40の表示領域が拡大または縮小された場合、アイコン50のサイズの変化に応じて、当該アイコン50内に表示させるアプリケーションに関する情報の量を変化させてもよい。例えば、スマートフォン1は、上述した図6のステップS14のように、アイコン50のサイズが所定の閾値よりも拡大された場合、当該アイコン50を、当該アイコン50に対応付けられたアプリケーションのウィジェットに変更してもよい。一例として、スマートフォン1は、アイコン50に対応付けられたアプリケーションがカレンダーである場合、当該アイコン50が拡大されるにつれて、実際のカレンダーの概要を示す情報を表示するウィジェットに変更してもよい。スマートフォン1は、アイコン50に対応付けられたアプリケーションが短文投稿ソフトまたはメールアプリケーションである場合、当該アイコン50が拡大されるにつれて、新着または未読を示す情報を表示するウィジェットに変更してもよい。スマートフォン1は、ウィジェットに変更されたアイコン50のサイズが所定の閾値よりも縮小された場合、ウィジェットから通常のアイコン50に戻す制御を行ってもよい。実施形態において、アイコン50は、サイズの変化に応じてアイコン画像または所定の処理を実行可能なアイコンオブジェクトに変更されてもよい。これにより、利用者は、アイコン50の拡大または縮小によりアイコン50の用途を変更することができるので、ホーム画面40の利便性が向上される。
上述した第1の例〜第3の例では、ホーム画面40に隙間無く、アプリケーションが対応付けられたアイコン50が配置された状態を例に説明したが、これに限定されない。スマートフォン1は、例えば、アプリケーションに対応付けられておらず、背景とほぼ同色の空白アイコン(ヌルアイコン)を適宜、ホーム画面40に配置してもよい。これにより、利用者は、ホーム画面40に空白アイコンを適宜挿入することで、アイコン50の整理を容易に行うことができるので、ホーム画面40の利便性がより向上される。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング

Claims (8)

  1. 複数のアイコンが配置されたホーム画面を表示するタッチスクリーンディスプレイと、
    前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対して第1ジェスチャが行われると、前記ホーム画面を拡大または縮小するコントローラと、を備え、
    前記コントローラは、
    前記ホーム画面を拡大する場合、前記複数のアイコンのうち端に配置されたアイコンを含む画面を前記タッチスクリーンディスプレイに表示し、
    前記ホーム画面を拡大または縮小する場合、前記アイコンに含まれる絵および文字のうち一方のみの表示倍率を変化させ
    装置。
  2. 前記コントローラは、前記ホーム画面のうち、前記第1ジェスチャに基づいて前記タッチスクリーンディスプレイに表示されている一部領域に対する第2ジェスチャが行われると、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示される領域を変更する
    請求項1に記載の装置。
  3. 前記コントローラは、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対する前記第2ジェスチャが行われると、前記一部領域の大きさに対応するシート単位で、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示される領域を変更する
    請求項2に記載の装置。
  4. 前記コントローラは、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対する前記第2ジェスチャが行われると、前記一部領域に配置された前記アイコンの大きさに対応するブロック単位で、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示される領域を変更する
    請求項2に記載の装置。
  5. 前記コントローラは、
    前記ホーム画面が縮小された状態で、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対する前記第2ジェスチャが行われると、前記一部領域の大きさに対応するシート単位で、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示される領域を変更し、
    前記ホーム画面が拡大された状態で、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対する前記第2ジェスチャが行われると、前記一部領域に配置された前記アイコンの大きさに対応するブロック単位で、前記ホーム画面のうち前記タッチスクリーンディスプレイに表示される領域を変更する
    請求項2に記載の装置。
  6. 前記コントローラは、前記ホーム画面を拡大または縮小する場合、前記アイコンのサイズの変化に応じて、当該アイコンに対応したアプリケーションに関する情報の量を変化させる
    請求項1に記載の装置。
  7. タッチスクリーンディスプレイを備える装置を制御する方法であって、
    複数のアイコンが配置されたホーム画面を前記タッチスクリーンディスプレイに表示するステップと、
    前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対して第1ジェスチャが行われると、前記ホーム画面を拡大または縮小するステップと、 前記ホーム画面を拡大する場合、前記複数のアイコンのうち端に配置されたアイコンを含む画面を前記タッチスクリーンディスプレイに表示するステップと、
    前記ホーム画面を拡大または縮小する場合、前記アイコンに含まれる絵および文字のうち一方のみの表示倍率を変化させるステップと、
    を含む方法。
  8. タッチスクリーンディスプレイを備える装置に、
    複数のアイコンが配置されたホーム画面を前記タッチスクリーンディスプレイに表示するステップと、
    前記ホーム画面のうち前記タッチスクリーンディスプレイに表示されている一部領域に対して第1ジェスチャが行われると、前記ホーム画面を拡大または縮小するステップと、
    前記ホーム画面を拡大する場合、前記複数のアイコンのうち端に配置されたアイコンを含む画面を前記タッチスクリーンディスプレイに表示するステップと、
    前記ホーム画面を拡大または縮小する場合、前記アイコンに含まれる絵および文字のうち一方のみの表示倍率を変化させるステップと、
    を実行させるプログラム。
JP2012257573A 2011-11-28 2012-11-26 装置、方法、及びプログラム Active JP6159078B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012257573A JP6159078B2 (ja) 2011-11-28 2012-11-26 装置、方法、及びプログラム
US13/686,075 US9086731B2 (en) 2011-11-28 2012-11-27 Device, method, and storage medium storing program
US14/751,271 US9817544B2 (en) 2011-11-28 2015-06-26 Device, method, and storage medium storing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011259402 2011-11-28
JP2011259402 2011-11-28
JP2012257573A JP6159078B2 (ja) 2011-11-28 2012-11-26 装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013137750A JP2013137750A (ja) 2013-07-11
JP6159078B2 true JP6159078B2 (ja) 2017-07-05

Family

ID=48466384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012257573A Active JP6159078B2 (ja) 2011-11-28 2012-11-26 装置、方法、及びプログラム

Country Status (2)

Country Link
US (2) US9086731B2 (ja)
JP (1) JP6159078B2 (ja)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130081503A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR101924095B1 (ko) * 2012-04-06 2018-11-30 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9261961B2 (en) 2012-06-07 2016-02-16 Nook Digital, Llc Accessibility aids for users of electronic devices
US20140026101A1 (en) 2012-07-20 2014-01-23 Barnesandnoble.Com Llc Accessible Menu Navigation Techniques For Electronic Devices
JP6025482B2 (ja) * 2012-09-28 2016-11-16 富士ゼロックス株式会社 表示制御装置、画像表示装置、およびプログラム
US8963865B2 (en) 2012-12-14 2015-02-24 Barnesandnoble.Com Llc Touch sensitive device with concentration mode
US9477382B2 (en) 2012-12-14 2016-10-25 Barnes & Noble College Booksellers, Inc. Multi-page content selection technique
US9134893B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Block-based content selecting technique for touch screen UI
US9030430B2 (en) 2012-12-14 2015-05-12 Barnesandnoble.Com Llc Multi-touch navigation mode
US9134903B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Content selecting technique for touch screen UI
US9134892B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Drag-based content selection technique for touch screen UI
US9001064B2 (en) 2012-12-14 2015-04-07 Barnesandnoble.Com Llc Touch sensitive device with pinch-based archive and restore functionality
US9448719B2 (en) 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
US11513675B2 (en) 2012-12-29 2022-11-29 Apple Inc. User interface for manipulating user interface objects
KR20140087731A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 포터블 디바이스 및 사용자 인터페이스 제어 방법
US9836154B2 (en) 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US9971495B2 (en) 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
EP2961185B1 (en) 2013-02-20 2020-03-04 Panasonic Intellectual Property Corporation of America Control method for information apparatus and program
US9760187B2 (en) 2013-03-11 2017-09-12 Barnes & Noble College Booksellers, Llc Stylus with active color display/select for touch sensitive devices
US9367161B2 (en) 2013-03-11 2016-06-14 Barnes & Noble College Booksellers, Llc Touch sensitive device with stylus-based grab and paste functionality
US9766723B2 (en) 2013-03-11 2017-09-19 Barnes & Noble College Booksellers, Llc Stylus sensitive device with hover over stylus control functionality
US9189084B2 (en) 2013-03-11 2015-11-17 Barnes & Noble College Booksellers, Llc Stylus-based user data storage and access
US9946365B2 (en) 2013-03-11 2018-04-17 Barnes & Noble College Booksellers, Llc Stylus-based pressure-sensitive area for UI control of computing device
US9785259B2 (en) 2013-03-11 2017-10-10 Barnes & Noble College Booksellers, Llc Stylus-based slider functionality for UI control of computing device
US9632594B2 (en) 2013-03-11 2017-04-25 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus idle functionality
US9600053B2 (en) 2013-03-11 2017-03-21 Barnes & Noble College Booksellers, Llc Stylus control feature for locking/unlocking touch sensitive devices
US9448643B2 (en) 2013-03-11 2016-09-20 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus angle detection functionality
US9626008B2 (en) 2013-03-11 2017-04-18 Barnes & Noble College Booksellers, Llc Stylus-based remote wipe of lost device
US9891722B2 (en) 2013-03-11 2018-02-13 Barnes & Noble College Booksellers, Llc Stylus-based notification system
US9261985B2 (en) 2013-03-11 2016-02-16 Barnes & Noble College Booksellers, Llc Stylus-based touch-sensitive area for UI control of computing device
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
US8966617B2 (en) 2013-04-23 2015-02-24 Barnesandnoble.Com Llc Image pattern unlocking techniques for touch sensitive devices
US8963869B2 (en) 2013-04-23 2015-02-24 Barnesandnoble.Com Llc Color pattern unlocking techniques for touch sensitive devices
US9152321B2 (en) 2013-05-03 2015-10-06 Barnes & Noble College Booksellers, Llc Touch sensitive UI technique for duplicating content
US9612740B2 (en) 2013-05-06 2017-04-04 Barnes & Noble College Booksellers, Inc. Swipe-based delete confirmation for touch sensitive devices
US20160004339A1 (en) * 2013-05-27 2016-01-07 Mitsubishi Electric Corporation Programmable display device and screen-operation processing program therefor
US10019153B2 (en) 2013-06-07 2018-07-10 Nook Digital, Llc Scrapbooking digital content in computing devices using a swiping gesture
US9244603B2 (en) 2013-06-21 2016-01-26 Nook Digital, Llc Drag and drop techniques for discovering related content
US9423932B2 (en) 2013-06-21 2016-08-23 Nook Digital, Llc Zoom view mode for digital content including multiple regions of interest
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
US9875351B2 (en) * 2013-07-16 2018-01-23 Nokia Technologies Oy Methods, apparatuses, and computer program products for hiding access to information in an image
JP2015022567A (ja) * 2013-07-19 2015-02-02 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2015016210A1 (ja) * 2013-08-01 2015-02-05 株式会社ニコン 電子機器、および電子機器の制御プログラム
US20150062038A1 (en) * 2013-08-28 2015-03-05 Kabushiki Kaisha Toshiba Electronic device, control method, and computer program product
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
CN110262677B (zh) 2013-09-03 2022-08-09 苹果公司 计算机实现的方法、电子设备和计算机可读存储介质
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
KR102045111B1 (ko) * 2013-09-03 2019-11-14 애플 인크. 사용자 인터페이스 객체를 조작하기 위한 사용자 인터페이스
US9575948B2 (en) 2013-10-04 2017-02-21 Nook Digital, Llc Annotation of digital content via selective fixed formatting
JP5865557B2 (ja) * 2013-11-21 2016-02-17 オリンパス株式会社 内視鏡画像表示装置
TWI512593B (zh) * 2013-11-26 2015-12-11 Mstar Semiconductor Inc 畫面繪製方法、畫面更新方法、與相關行動電子裝置
US10620796B2 (en) 2013-12-19 2020-04-14 Barnes & Noble College Booksellers, Llc Visual thumbnail scrubber for digital content
WO2015092489A1 (en) * 2013-12-20 2015-06-25 Sony Corporation Method of controlling a graphical user interface for a mobile electronic device
US9367208B2 (en) 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc Move icon to reveal textual information
US9792272B2 (en) 2013-12-31 2017-10-17 Barnes & Noble College Booksellers, Llc Deleting annotations of paginated digital content
US10534528B2 (en) 2013-12-31 2020-01-14 Barnes & Noble College Booksellers, Llc Digital flash card techniques
US9424241B2 (en) 2013-12-31 2016-08-23 Barnes & Noble College Booksellers, Llc Annotation mode including multiple note types for paginated digital content
US10331777B2 (en) 2013-12-31 2019-06-25 Barnes & Noble College Booksellers, Llc Merging annotations of paginated digital content
US10915698B2 (en) 2013-12-31 2021-02-09 Barnes & Noble College Booksellers, Llc Multi-purpose tool for interacting with paginated digital content
US9367212B2 (en) 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc User interface for navigating paginated digital content
US9588979B2 (en) 2013-12-31 2017-03-07 Barnes & Noble College Booksellers, Llc UI techniques for navigating a file manager of an electronic computing device
USD771088S1 (en) * 2014-01-06 2016-11-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
EP2894557B1 (en) * 2014-01-13 2018-03-07 LG Electronics Inc. Display apparatus
US9665240B2 (en) 2014-01-27 2017-05-30 Groupon, Inc. Learning user interface having dynamic icons with a first and second visual bias
KR102228856B1 (ko) * 2014-03-20 2021-03-17 엘지전자 주식회사 이동단말기 및 그 제어방법
CN104142792B (zh) * 2014-04-18 2016-10-26 腾讯科技(深圳)有限公司 一种应用界面切换方法及装置
CN104965630B (zh) * 2014-04-21 2021-03-16 腾讯科技(深圳)有限公司 桌面应用程序图标布局的方法和***
CN104063125B (zh) * 2014-06-06 2018-03-13 腾讯科技(深圳)有限公司 一种桌面图标管理方法和装置
KR102218041B1 (ko) * 2014-06-17 2021-02-19 엘지전자 주식회사 이동 단말기
EP3161603B1 (en) 2014-06-27 2019-10-16 Apple Inc. Manipulation of calendar application in device with touch screen
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
WO2016036413A1 (en) 2014-09-02 2016-03-10 Apple Inc. Multi-dimensional object rearrangement
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
KR20160037508A (ko) * 2014-09-29 2016-04-06 삼성전자주식회사 디스플레이 장치 및 그의 표시 방법
KR102269598B1 (ko) * 2014-12-08 2021-06-25 삼성전자주식회사 배경화면의 내용에 대응하여 객체를 배열하는 방법 및 장치
KR20160080851A (ko) * 2014-12-29 2016-07-08 엘지전자 주식회사 디스플레이 장치 및 제어 방법
JP6532697B2 (ja) * 2015-02-25 2019-06-19 京セラ株式会社 電子機器、制御方法、及び制御プログラム
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
CN106033315B (zh) * 2015-03-13 2020-01-31 联想(北京)有限公司 一种信息控制方法及电子设备
WO2016160406A1 (en) * 2015-03-27 2016-10-06 Google Inc. Techniques for displaying layouts and transitional layouts of sets of content items in response to user touch inputs
CN106293427B (zh) * 2015-05-14 2019-05-17 富泰华工业(深圳)有限公司 用户界面调整方法及电子装置
CN106293412A (zh) * 2015-05-19 2017-01-04 富泰华工业(深圳)有限公司 图标调整方法、图标调整***与电子装置
CN104991696B (zh) * 2015-06-15 2019-03-29 联想(北京)有限公司 一种信息处理方法及电子设备
US10048829B2 (en) 2015-06-26 2018-08-14 Lenovo (Beijing) Co., Ltd. Method for displaying icons and electronic apparatus
KR20170013064A (ko) 2015-07-27 2017-02-06 삼성전자주식회사 화면 운용 방법 및 이를 지원하는 전자 장치
DE102015012720A1 (de) * 2015-10-01 2017-04-06 Audi Ag Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem
CN105511789B (zh) * 2015-12-08 2019-11-12 魅族科技(中国)有限公司 一种图标处理方法以及终端
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
CN109804342B (zh) * 2016-10-10 2022-08-05 大众汽车有限公司 用于调整图形用户接口的显示和操作的方法
CN106598569B (zh) * 2016-11-11 2019-11-05 努比亚技术有限公司 移动终端的亮屏方法及移动终端
CN106775285A (zh) * 2016-11-18 2017-05-31 惠州Tcl移动通信有限公司 一种显示界面内容调整的方法及***
KR102332483B1 (ko) * 2017-03-06 2021-12-01 삼성전자주식회사 아이콘을 표시하기 위한 방법 및 그 전자 장치
KR102262962B1 (ko) * 2018-02-14 2021-06-10 삼성전자주식회사 어플리케이션과 관련된 기능 또는 콘텐트를 제공하는 방법 및 이를 수행하는 전자 장치
JP7063729B2 (ja) * 2018-06-01 2022-05-09 株式会社シマノ 表示処理装置
JP6485579B2 (ja) * 2018-06-01 2019-03-20 コニカミノルタ株式会社 表示処理装置、画面表示方法およびコンピュータープログラム
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
DK179896B1 (en) 2018-09-11 2019-08-30 Apple Inc. CONTENT-BASED TACTILE OUTPUTS
CN109388307A (zh) * 2018-11-05 2019-02-26 长沙拓扑陆川新材料科技有限公司 一种可对应用程序的图标进行分页的智能移动终端
CN110908555A (zh) * 2019-10-21 2020-03-24 维沃移动通信有限公司 一种图标显示方法及电子设备
CN111641797B (zh) * 2020-05-25 2022-02-18 北京字节跳动网络技术有限公司 视频通话界面显示控制方法、装置、存储介质及设备
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
WO2023079760A1 (ja) * 2021-11-08 2023-05-11 バルミューダ株式会社 メモ簡易表示装置とメモ簡易表示プログラムとメモ簡易表示方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100238139A1 (en) * 2009-02-15 2010-09-23 Neonode Inc. Optical touch screen systems using wide light beams
JP4153398B2 (ja) 2003-09-30 2008-09-24 京セラ株式会社 通信装置
JP4036799B2 (ja) 2003-07-29 2008-01-23 京セラ株式会社 通信装置
CN100477674C (zh) 2003-07-29 2009-04-08 京瓷株式会社 通信设备
US9785329B2 (en) * 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
KR20070059951A (ko) * 2005-12-06 2007-06-12 삼성전자주식회사 휴대단말기의 화면 표시장치 및 방법
KR100798301B1 (ko) * 2006-09-12 2008-01-28 엘지전자 주식회사 스크롤 방법 및 이를 이용하는 이동통신 단말기
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP2008299474A (ja) * 2007-05-30 2008-12-11 Sony Corp 表示制御装置および方法、表示装置、撮像装置、並びに、プログラム
JP4454655B2 (ja) 2007-08-28 2010-04-21 京セラ株式会社 通信装置
JP4454653B2 (ja) 2007-08-28 2010-04-21 京セラ株式会社 通信装置
JP4454654B2 (ja) 2007-08-28 2010-04-21 京セラ株式会社 通信装置
JP4454652B2 (ja) 2007-08-28 2010-04-21 京セラ株式会社 通信装置
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
JP4688898B2 (ja) 2008-03-25 2011-05-25 京セラ株式会社 通信装置
JP2008182761A (ja) 2008-03-25 2008-08-07 Kyocera Corp 通信装置
JP5235781B2 (ja) * 2009-05-18 2013-07-10 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
KR101541811B1 (ko) 2009-12-11 2015-08-04 삼성전자주식회사 통신 단말기에서 북마크 서비스 제공 방법 및 장치
JP2010238249A (ja) 2010-06-02 2010-10-21 Kyocera Corp 通信装置および表示制御方法
US20110316888A1 (en) * 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
JP5832075B2 (ja) 2010-09-17 2015-12-16 京セラ株式会社 無線通信装置、表示制御方法および表示制御プログラム
JP2011034573A (ja) 2010-09-17 2011-02-17 Kyocera Corp 携帯端末装置、表示制御方法および表示制御プログラム
JP2011044157A (ja) 2010-09-17 2011-03-03 Kyocera Corp 携帯端末装置、表示制御方法および表示制御プログラム
JP2011030254A (ja) 2010-09-17 2011-02-10 Kyocera Corp 携帯電話機、表示制御方法および表示制御プログラム
TWI441051B (zh) * 2011-01-25 2014-06-11 Compal Electronics Inc 電子裝置及其資訊呈現方法
JP5620606B1 (ja) 2014-06-11 2014-11-05 京セラ株式会社 無線通信装置、表示制御方法および表示制御プログラム
JP5620605B2 (ja) 2014-06-11 2014-11-05 京セラ株式会社 無線通信装置、表示制御方法および表示制御プログラム

Also Published As

Publication number Publication date
US9086731B2 (en) 2015-07-21
US20130135234A1 (en) 2013-05-30
US9817544B2 (en) 2017-11-14
US20150370448A1 (en) 2015-12-24
JP2013137750A (ja) 2013-07-11

Similar Documents

Publication Publication Date Title
JP6159078B2 (ja) 装置、方法、及びプログラム
JP5850736B2 (ja) 装置、方法及びプログラム
JP5775445B2 (ja) 装置、方法、及びプログラム
JP5805588B2 (ja) 電子機器、制御方法及び制御プログラム
JP5972629B2 (ja) 装置、方法、及びプログラム
JP5891083B2 (ja) 装置、方法、及びプログラム
JP6110654B2 (ja) 装置、方法、及びプログラム
JP2013084233A (ja) 装置、方法、及びプログラム
JP2013131185A (ja) 装置、方法、及びプログラム
JP2013200681A (ja) 装置、方法、及びプログラム
JP2013131193A (ja) 装置、方法、及びプログラム
JP2013084260A (ja) 装置、方法、及びプログラム
JP2013134694A (ja) 装置、方法、及びプログラム
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
JP5858896B2 (ja) 電子機器、制御方法及び制御プログラム
JP2013089131A (ja) 装置、方法及びプログラム
JP2013200680A (ja) 装置、方法、及びプログラム
JP2013084237A (ja) 装置、方法、及びプログラム
JP6096100B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP6080355B2 (ja) 装置、方法及びプログラム
JP2013080353A (ja) 装置、方法、及びプログラム
JP2013101547A (ja) 装置、方法及びプログラム
JP5848970B2 (ja) 装置、方法、及びプログラム
JP6532697B2 (ja) 電子機器、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170609

R150 Certificate of patent or registration of utility model

Ref document number: 6159078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150