JP5228755B2 - 携帯端末装置、表示制御方法および表示制御プログラム - Google Patents

携帯端末装置、表示制御方法および表示制御プログラム Download PDF

Info

Publication number
JP5228755B2
JP5228755B2 JP2008249861A JP2008249861A JP5228755B2 JP 5228755 B2 JP5228755 B2 JP 5228755B2 JP 2008249861 A JP2008249861 A JP 2008249861A JP 2008249861 A JP2008249861 A JP 2008249861A JP 5228755 B2 JP5228755 B2 JP 5228755B2
Authority
JP
Japan
Prior art keywords
display
unit
image
display area
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008249861A
Other languages
English (en)
Other versions
JP2010079802A (ja
Inventor
太郎 菊池
大樹 福嶋
淳也 山口
直 堀口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008249861A priority Critical patent/JP5228755B2/ja
Priority to US12/566,125 priority patent/US8621378B2/en
Publication of JP2010079802A publication Critical patent/JP2010079802A/ja
Application granted granted Critical
Publication of JP5228755B2 publication Critical patent/JP5228755B2/ja
Priority to US14/094,289 priority patent/US20140085240A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本件は携帯端末装置、表示制御方法および表示制御プログラムに関する。
現在、携帯電話機などの携帯端末装置の多機能化が進んでいる。ユーザは、携帯端末装置に搭載された表示装置の画面を見ながら、種々の操作を行うことができる。ユーザが操作を行うための入力装置としては、様々なものが考えられる。例えば、スクロールホイールを搭載し、スクロールホイールに対する回転操作に応じてメニュー表示を行う移動端末機がある(例えば、特許文献1参照)。
また、ユーザが操作を行う手段として、タッチパネルを用いることも考えられる。例えば、タッチパネル付きのモニタにスクロールダイヤルの画像を表示し、スクロールダイヤルの画像の端部がタッチされると、モニタに表示したメニューをスクロールする車両搭載用の情報表示装置がある(例えば、特許文献2参照)。また、タッチパネル付きの表示画面上に地図とトラックボールとを表示し、トラックボールが表示された領域を擦る操作に反応して地図をスクロールするナビゲーション装置がある(例えば、特許文献3参照)。
特開2006−323820号公報 特開2004−12919号公報 特開2007−292834号公報
上記特許文献2,3に記載の技術では、スクロールダイヤルの画像やトラックボールの画像などの操作のための画像が表示された領域をタッチすることで、画面をスクロールさせることができる。しかし、操作のための画像が表示装置の端に小さく表示されるため、タッチ操作の操作性が低いという問題がある。これは、携帯端末装置のように表示領域を大きくすることが容易でない装置では、特に大きな問題となる。
本件はこのような点に鑑みてなされたものであり、タッチ操作の操作性を向上させた携帯端末装置、表示制御方法および表示制御プログラムを提供することを目的とする。
上記課題を解決するために、表示部と検出部と制御部とを有する携帯端末装置が提供される。表示部は、操作部を示す画像を表示する表示領域を備える。検出部は、表示部上に対するタッチ操作を検出する。制御部は、検出部で検出したタッチ操作の軌跡に応じて、表示部に表示する操作部を示す画像を変更する。
また、上記課題を解決するために、表示部を備える携帯端末装置の表示制御方法が提供される。この表示制御方法では、表示部の表示領域に操作部を示す画像を表示する。表示部上に対するタッチ操作を検出する。検出したタッチ操作の軌跡に応じて、表示部に表示した操作部を示す画像を変更する。
また、上記課題を解決するために、表示部を備える携帯端末装置に実行させる表示制御プログラムが提供される。この表示制御プログラムを実行する携帯端末装置は、表示部の表示領域に操作部を示す画像を表示する。表示部上に対するタッチ操作を検出する。検出したタッチ操作の軌跡に応じて、表示部に表示した操作部を示す画像を変更する。
上記携帯端末装置、表示制御方法および表示制御プログラムによれば、タッチ操作の操作性が向上する。
以下、本実施の形態を図面を参照して詳細に説明する。
図1は、本実施の形態に係る携帯端末装置を示す図である。図1に示す携帯端末装置10は、表示部11、検出部12および制御部13を有する。
表示部11は、表示領域11a(第1の表示領域)と表示領域11aの外の領域である表示領域11b(第2の表示領域)とを有する。表示部11としては、例えば、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイを用いることが考えられる。表示部11は、表示領域11aに操作部を示す画像を表示する。操作部を示す画像としては、入力装置の形状を示す画像を用いることができる。例えば、スクロールホイールの画像、十字キーの画像、スライダバーの画像などを用いる。また、表示部11は、表示領域11bに種々の画像を表示することができる。例えば、テキスト・静止画像・動画像などのコンテンツや、各種機能を呼び出すためのメニューを表示する。
検出部12は、表示部11上に対するユーザのタッチ操作を検出する。検出部12としては、例えば、タッチパネルを用いることが考えられる。検出部12は、表示部11のタッチされた位置を制御部13に通知する。位置の通知は、定期的(例えば、50ミリ秒毎)に行うようにしてもよい。また、瞬間的に接触する操作(クリック)と連続的に擦る操作(ドラッグ)とを区別する情報を通知してもよい。なお、検出部12は、表示領域11aおよび表示領域11bの一方または両方に対するタッチ操作も検出することが考えられる。表示領域11aと表示領域11bとを跨るドラッグを検出できるようにしてもよい。
制御部13は、検出部12で検出された表示部11上に対するタッチ操作の軌跡に応じて、表示領域11aに表示された操作部を示す画像を変更する。例えば、スクロールホイールが回転した画像、十字キーの何れかの方向キーが押下された画像、スライダバーがスライドした画像などを表示領域11aに表示させる。このとき、制御部13は、タッチ操作におけるドラッグ方向やドラッグ距離に応じて、操作部を示す画像を変化させることもできる。例えば、ドラッグ方向に応じて、スクロールホイールの画像を右回りまたは左回りに回転させる。
なお、表示部11は、所定の条件に適合する場合のみ、操作部を示す画像を表示領域11aに表示するようにしてもよい。表示領域11aに操作部を示す画像を表示しないときは、表示領域11aを、コンテンツやメニューを表示するなど他の用途に使用することも可能である。また、表示領域11aに何も表示しない場合があってもよい。
このような携帯端末装置10によれば、表示部11の表示領域11aに操作部を示す画像が表示される。検出部12により、表示部11上に対するタッチ操作(例えば、表示領域11aと異なる表示領域11bに対するタッチ操作を含む)が検出される。制御部13により、検出されたタッチ操作の軌跡に応じて、表示領域11aに表示された操作部を示す画像が変更される。
これにより、タッチ操作の操作性が向上する。例えば、操作部を示す画像が表示された領域(表示領域11a)以外の領域(表示領域11b)でタッチ操作が行われても、携帯端末装置10は、メニュー操作のためのタッチ操作と認識することが可能となる。ユーザは、表示領域11aに表示された操作部を示す画像が変化することで、タッチ操作が正常に認識されたことを確認することができる。その結果、ユーザのタッチ操作の負担が軽減されると共に、ユーザの操作ミスを低減できる。
次に、上記の表示制御を携帯電話機に適用した場合について更に詳細に説明する。以下では特に、表示部を備える筐体をテンキーなどの操作部を備える筐体に対してスライド可能なスライド式の携帯電話機を例に挙げる。ただし、上記の表示制御は、折りたたみ式やストレート式など、他の種類の携帯電話機に適用することも可能である。また、携帯電話機以外の情報処理装置に適用することも可能である。
[第1の実施の形態]
図2は、携帯電話機の第1の状態を示す図である。携帯電話機100は、筐体101,102を有する。筐体101は、筐体102に対して上下方向にスライドすることができる。図2に示す状態は、筐体101と筐体102とが重なっており、筐体102の前面が筐体101によって覆い隠されている状態である。筐体101は、スピーカ104、タッチパネル106およびディスプレイ107(図2では図示せず)を有する。
スピーカ104は、電気信号を物理振動に変換することで、音を再生する。例えば、携帯電話機100のユーザが通話を行っているとき、通話相手の声や通話相手側の背景雑音がスピーカ104から出力される。
タッチパネル106は、タッチ操作を検出する。ユーザは、指でタッチパネル106にタッチすることができる。また、ユーザは、タッチペンなどのポインティングデバイスを用いてタッチパネル106にタッチすることもできる。タッチパネル106に対するタッチ操作があると、指やタッチペンなどの物が接触している位置が検出される。
ディスプレイ107は、各種画像を表示する。ディスプレイ107は、タッチパネル106の下層に位置している。ディスプレイ107の表示する画像は、タッチパネル106を透過して、筐体101の前面から視認可能である。ユーザは、ディスプレイ107によって表示された画像を見ながら、タッチパネル106に対するタッチ操作を行える。
図3は、携帯電話機の第2の状態を示す図である。図3に示す状態は、図2に示す状態から、筐体101を筐体102に対して上方向にスライドさせた状態である。この状態では、筐体102の前面の少なくとも一部が露出する。筐体102は、マイロクロフォン(MIC)103およびキーパッド105を有する。
MIC103は、音の物理振動を電気信号に変換することで、音の入力を受け付ける。例えば、携帯電話機100のユーザが通話を行っているとき、ユーザの声やユーザ側の背景雑音がMIC103から入力される。
キーパッド105は、テンキーや機能キーなどの各種キーを備えている。キーパッド105は、何れかのキーが押下されると、押下を検知して電気信号に変換する。ユーザは、キーを押下する操作により、電話の発信、電話着信時の応答、電話番号を含む各種文字列の入力などを行うことができる。
更に、キーパッド105は、スクロールホイール105aを備えている。スクロールホイール105aは、その端部が押下されると、押下された方向を判断する。方向は、例えば、上下左右の4方向で検出する場合や、更に右上・右下・左下・左上を含む8方向で検出する場合などが考えられる。また、スクロールホイール105aは、円弧を描くように擦る操作(回転操作)がなされると、回転角を判断する。ユーザは、スクロールホイール105aの端部を押下する操作や回転操作により、表示画面上での選択中の項目の変更や画面スクロールなどを行うことができる。
図4は、携帯電話機のハードウェアを示すブロック図である。携帯電話機100は、無線部111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、CPU(Central Processing Unit)114、音声処理部115、入力処理部116および表示処理部117を有する。
無線部111は、無線信号処理を行い、基地局など他の通信装置との無線通信を実現する。具体的には、無線部111は、携帯電話機100に搭載されたアンテナを介して受信した信号を復調・復号し、得られた受信データをCPU114に出力する。また、無線部111は、CPU114から取得した送信データを符号化・変調し、得られた送信信号をアンテナを介して出力する。
RAM112は、CPU114が実行するプログラムや処理に用いるデータを一時的に格納するメモリである。RAM112には、CPU114によって各種プログラムやデータの少なくとも一部が一時的に格納される。また、CPU114によってRAM112に格納されたデータが適宜更新される。なお、RAM112に代えて、他の種類の揮発性メモリを用いてもよい。
ROM113は、CPU114が実行するプログラムや処理に用いるデータを格納するメモリである。ROM113には、通信機能や表示制御機能を実現する各種プログラムが予め格納されている。また、ROM113には、これらプログラムと共に用いられる各種データが格納されている。なお、ROM113に代えて、フラッシュメモリなど他の種類の不揮発性メモリを用いてもよい。
CPU114は、携帯電話機100全体の動作を制御する。具体的には、CPU114は、携帯電話機100の起動時およびその後必要に応じて、ROM113からプログラムやデータを読み出し、RAM112を利用してプログラムを実行する。CPU114は、例えば、無線部111から取得する受信データ、音声処理部115から取得する音声データ、入力処理部116から取得する入力信号などに基づいて、各種処理を行う。そして、処理結果として、無線部111へ出力する送信データ、音声処理部115へ出力する音声データ、表示処理部117に出力する画像データなどを生成する。
音声処理部115は、音声信号処理を行う。具体的には、音声処理部115は、MIC103から音声アナログ信号を取得し、必要な信号変換処理を行ってCPU114に音声データを出力する。また、音声処理部115は、CPU114から音声データを取得し、必要な信号変換処理を行ってスピーカ104に音声再生させる。
入力処理部116は、ユーザによる入力操作の処理を行う。具体的には、入力処理部116は、キーパッド105のキーが押下されると、押下されたキーを示す入力信号をCPU114に出力する。また、入力処理部116は、タッチパネル106に対しタッチ操作があると、接触があったこと(DOWNイベント)、接触していた物が離れたこと(UPイベント)、現在のタッチ位置の座標などを示す入力信号を、CPU114に出力する。DOWNイベントからUPイベントまでの間は、ドラッグ中であることを意味する。ドラッグ中は、定期的(例えば、50ミリ秒毎)に現在のタッチ位置の座標を出力する。ただし、タッチ状況に応じて、不定期にタッチ位置の座標を出力するようにしてもよい。
表示処理部117は、画像表示処理を行う。具体的には、表示処理部117は、CPU114から画像データを取得し、ディスプレイ107に表示させる。なお、ディスプレイ107に表示する画像には、例えば、スクロールホイールを示す画像、メニュー、文書・静止画像・動画像などのコンテンツが含まれる。
なお、ディスプレイ107は、図1の表示部11に相当する。タッチパネル106は、図1の検出部12に相当する。RAM112、ROM113およびCPU114は、図1の制御部13に相当する。
図5は、携帯電話機の機能を示すブロック図である。携帯電話機100は、タッチ検出部121、操作画面制御部122、ジェスチャ制御部123、ホイール制御部124およびメニュー制御部125を有する。これらの機能は、CPU114がROM113に格納されているプログラムを実行することにより実現される。ただし、これらの機能の全部または一部をハードウェアで実現することも可能である。なお、表示制御以外の機能(例えば、通信機能など)については、図5では記載を省略している。
タッチ検出部121は、タッチパネル106に対するタッチ操作の情報を、入力処理部116経由で取得する。タッチ検出部121は、入力処理部116から取得したUPイベントやDOWNイベントに基づいて、ドラッグ操作を検出する。そして、タッチ検出部121は、ドラッグが行われている間、継続的に(例えば、50ms毎に定期的に)現在のタッチ位置の座標をジェスチャ制御部123に通知する。
操作画面制御部122は、表示処理部117経由でディスプレイ107に操作に関する画像を表示する。具体的には、操作画面制御部122は、ホイール制御部124からの指示に基づいて、ディスプレイ107の表示領域の一部(第1の表示領域)に、スクロールホイールの形状の画像を表示する。その形状は、筐体102のスクロールホイール105aに対応するものである。また、操作画面制御部122は、メニュー制御部125からの指示に基づいて、ディスプレイ107の第1の表示領域と異なる表示領域(第2の表示領域)に、メニューを表示する。ユーザは、例えば、メニューに含まれる項目を選択することにより、携帯電話機100が備える種々の機能を呼び出すことができる。
ジェスチャ制御部123は、タッチパネル106に対してドラッグが行われている間、タッチ検出部121からタッチ位置の座標を継続的に取得する。ジェスチャ制御部123は、直近の所定数の座標(例えば、直近の2点の座標)を記憶しておく。そして、ジェスチャ制御部123は、タッチ操作の軌跡に基づいて、タッチパネル106を用いた入力をスクロールホイール105aを用いた場合の入力に置き換える。
具体的には、ジェスチャ制御部123は、タッチ検出部121から取得する最新の座標と記憶している過去の座標とに基づき、ドラッグにより描かれる円弧の回転方向(右回りまたは左回り)を判定する。また、ジェスチャ制御部123は、直近の点と最新の点との距離(ドラッグ量)を算出し、ドラッグ量をスクロールホイール105aを用いた場合の回転角に変換する。そして、ジェスチャ制御部123は、回転方向および回転角をホイール制御部124に通知する。
ホイール制御部124は、ディスプレイ107に表示されるスクロールホイールの画像を制御する。ホイール制御部124は、ジェスチャ制御部123から回転方向および回転角の通知を受けると、その方向およびその角度だけ回転したスクロールホイールの画像を表示するよう、操作画面制御部122に指示する。また、ホイール制御部124は、回転方向および回転角をメニュー制御部125に通知する。
メニュー制御部125は、ディスプレイ107に表示されるメニューを制御する。メニュー制御部125は、ホイール制御部124から回転方向および回転角の通知があると、その方向およびその角度に応じて、選択中の項目を変更する。例えば、回転が右回りの場合は昇順に選択位置を移動させ、左回りの場合は降順に選択位置を移動させる。また、回転角に応じた速度で選択位置を移動させる。メニュー制御部125は、メニュー表示の変更を操作画面制御部122に指示する。
ここで、ジェスチャ制御部123は、スクロールホイールの画像が表示された表示領域(第1の表示領域)と異なる表示領域(第2の表示領域)でタッチ操作が行われた場合も、そのタッチ操作をスクロールホイール105aの回転操作に置き換える。この結果、スクロールホイールの画像が回転すると共に、メニューにおける現在の選択位置が移動する。これは、スクロールホイールの画像に対して回転操作が行われた場合と同様の振る舞いとなる。すなわち、ユーザは、スクロールホイールの画像上で小さな円弧を描く代わりに、スクロールホイールの画像が表示された領域の外で大きな円弧を描くことができる。
なお、スクロールホイールの画像上での回転操作とそれ以外の表示領域での回転操作とで、回転角の算出方法を変えてもよい。例えば、所定の角度に対応させるドラッグ量を、スクロールホイールの画像上での回転操作の場合は小さく設定し、それ以外の表示領域での回転操作の場合は大きく設定することが考えられる。また、第1の表示領域と第2の表示領域とを跨るドラッグも検出できるようにしてもよい。例えば、ドラッグの開始点が第1の表示領域内であるときは、第2の表示領域に跨っていても、スクロールホイールの画像に対するタッチ操作であると認識することが考えられる。逆に、ドラッグの開始点が第2の表示領域内であるときは、第1の表示領域に跨っていても、スクロールホイールの画像が表示されていない領域でのタッチ操作であると認識することが考えられる。
また、所定の条件を具備するとき(または、所定の条件を具備しないとき)のみ、スクロールホイールの画像が表示された領域以外の表示領域での回転操作にも反応するようにしてもよい。例えば、ディスプレイ107にメニューが表示されているときのみ回転操作に反応し、メニュー以外の画像が表示されているときは反応しないようにもできる。メニュー以外の画像が表示されているときは、その画像に対するタッチ操作と認識させることが考えられる。
図6は、ドラッグ操作の回転方向の検出方法を示す図である。ここでは、タッチパネル106の左上を原点(0,0)とし、原点から右方向をXの正の方向、原点から下方向をYの正方向と定義している。ただし、原点は任意の点に変更することができる。また、図6では、現在の点およびその直近の2点の3点を用いて、回転方向を判定する例を示している。ただし、4以上の点を用いて回転方向を判定してもよい。
1つの方法として、ジェスチャ制御部123は、3点の位置関係が4つのパターンP1〜P4の何れに該当するかに基づいて、回転方向を判定することができる。具体的には、1点目(2つ前の点)が2点目(直前の点)より右か左か、および、3点目(現在の点)が1点目と2点目とを通る直線より上か下かの基準で判定する。
2点目のX座標が1点目のX座標より小さく、かつ、3点目のY座標が1点目と2点目の延長線上のY座標(延長線上の点であって3点目のX座標に対応する点のY座標)より大きい場合、回転操作が左回りと判定する(パターンP1)。また、2点目のX座標が1点目のX座標より大きく、かつ、3点目のY座標が1点目と2点目の延長線上のY座標より小さい場合も、回転操作が左回りと判定する(パターンP2)。
一方、2点目のX座標が1点目のX座標より大きく、かつ、3点目のY座標が1点目と2点目の延長線上のY座標より大きい場合、回転操作が右回りと判定する。また、2点目のX座標が1点目のX座標より小さく、かつ、3点目のY座標が1点目と2点目の延長線上のY座標より小さい場合も、回転操作が右回りと判定する。
ジェスチャ制御部123は、2点目と3点目との距離に基づいて、回転角を算出することができる。距離は、2点目と3点目のX座標の差(ΔX)およびY座標の差(ΔY)から、三平方の定理により求めることができる。ただし、簡易的に、ΔX+ΔYを距離と定義してもよい。ジェスチャ制御部123は、所定の係数を掛けることで、ドラッグ距離をスクロールホイールの回転角に換算する。なお、ジェスチャ制御部123は、複数の点から回転中心の座標を求め、タッチ操作における回転角を直接算出することもできる。すなわち、タッチ操作の軌跡の1回転とスクロールホイールの1回転とを一致させてもよいし、一致させなくてもよい。例えば、タッチ操作の軌跡の1回転をスクロールホイールの複数回転に対応させてもよい。
図7は、第1の実施の形態の表示制御を示すフローチャートである。このフローチャートの処理は、携帯電話機100において繰り返し実行される。以下、図7に示す処理をステップ番号に沿って説明する。
[ステップS11]タッチ検出部121は、最新のタッチ位置の座標を取得するため、所定時間(例えば、50ms)待つ。
[ステップS12]タッチ検出部121は、連続的にタッチパネル106を擦る操作(ドラッグ)が行われているか判断する。ドラッグ中か否かは、例えば、DOWNイベントを取得した後にUPイベントを取得したか否かによって判断することができる。ドラッグ中の場合、処理をステップS13に進める。ドラッグ中でない場合、処理を終了する。
[ステップS13]タッチ検出部121は、最新のタッチ位置の座標を取得し、ジェスチャ制御部123に通知する。
[ステップS14]ジェスチャ制御部123は、ステップS13でタッチ検出部121から通知された座標が、ドラッグ開始から数えて2点目の座標であるか判断する。2点目の座標である場合、処理をステップS15に進める。2点目の座標でない場合、処理をステップS16に進める。
[ステップS15]ジェスチャ制御部123は、スクロールホイールの回転方向を既定の方向(例えば、右回り)に設定する。これは、2点の座標だけでは、回転方向を適切に判断することが難しいためである。そして、処理をステップS18に進める。
[ステップS16]ジェスチャ制御部123は、ステップS13でタッチ検出部121から通知された座標が、ドラッグ開始から数えて3点目以降の座標であるか判断する。3点目以降の座標である場合、処理をステップS17に進める。3点目以降の座標でない場合(最初の座標である場合)、処理をステップS11に進めて次の座標を待つ。
[ステップS17]ジェスチャ制御部123は、保持している過去の2点の座標とステップS13で通知された最新の座標とに基づいて、回転方向を判定する。回転方向は、例えば、図6に示した方法で判断する。そして、ジェスチャ制御部123は、スクロールホイールの回転方向を設定する。
[ステップS18]ジェスチャ制御部123は、保持している直前の点の座標とステップS13で通知された最新の座標とに基づいて、回転角を算出する。すなわち、ドラッグ距離を回転角に換算する。そして、ジェスチャ制御部123は、算出した回転角とステップS15またはS17で設定した回転方向とを、ホイール制御部124に通知する。
[ステップS19]ホイール制御部124は、ステップS18でジェスチャ制御部123から通知された回転方向と回転角とに応じた画像に、ディスプレイ107に表示されたスクロールホイールの画像を変更する。
[ステップS20]ホイール制御部124は、ステップS18でジェスチャ制御部123から通知された回転方向と回転角とを、メニュー制御部125に通知する。メニュー制御部125により、回転方向と回転角とに応じた項目に、選択中の項目が変更される。
このようにして、ユーザがタッチパネル106に対してドラッグ操作を行っている間、タッチ検出部121は、タッチ位置の座標を継続的に報告する。ジェスチャ制御部123は、タッチ位置の座標の系列に基づいて、回転方向を判定すると共に、スクロールホイール105aの回転操作に置き換えた場合の回転角を算出する。ホイール制御部124は、その方向およびその角度だけ回転したスクロールホイールの画像を、ディスプレイ107に表示させる。また、メニュー制御部125は、そのような回転操作がスクロールホイール105aに対して行われた場合に相当するメニュー制御を行う。
図8は、第1の実施の形態の画面表示例を示す図である。図8に示す画面が、操作画面制御部122の制御のもと、ディスプレイ107に表示される。ここで、表示領域107aは、メニューを表示する領域(第1の表示領域)である。図8の例では、表示領域107aに、9個の項目が格子状に表示されている。ただし、これらの項目をリスト状に表示してもよい。表示領域107bは、スクロールホイールの画像を表示する領域(第2の表示領域)である。なお、表示領域107bに、ボタンの画像など、他の操作のための画像を合わせて表示してもよい。
ここで、メニューの5番目の項目が現在選択されているとする。この状態で、ユーザが表示領域107a上で右回りに円弧を描くタッチ操作を行ったとする。すると、表示領域107bに、右回りに回転されたスクロールホイールが表示される。これにより、ユーザは、表示領域107a上でのタッチ操作がスクロールホイールに対する回転操作と認識されたことを確認することができる。
また、表示領域107aのメニューに、そのような回転操作に応じた選択項目の変更が反映される。例えば、右回りが昇順に対応付けられている場合、選択位置が5番目の項目から6番目の項目に移動する。そして、ドラッグ距離が長い場合、6,7,8,9,1,2,3,4,・・・の順に選択位置が順次移動していく。ただし、選択位置の移動順序は種々の変形が考えられる。例えば、縦方向に選択位置を移動させてもよい。
このように、ユーザは、メニューの選択項目を移動させるために、スクロールホイールの画像に対しタッチ操作してもよいし、他の表示領域に対しタッチ操作してもよい。更に、筐体102のスクロールホイール105aが露出しているとき、ユーザは、スクロールホイール105aを操作してもよい。何れの操作でも、同様の振る舞いを実現できる。この点、スクロールホイール105aが露出しているときのみ、スクロールホイールの画像を表示することも考えられる。
図9は、第1の実施の形態の他の画面表示例を示す図である。図9に示すように、筐体102が筐体101に対しスライドされてスクロールホイール105aが露出しているとき、ディスプレイ107にはスクロールホイールの画像は表示されない。一方、スクロールホイール105aが露出していないとき、ディスプレイ107にスクロールホイールの画像が表示される。
なお、スクロールホイールの画像が表示されていないときは、円弧を描くタッチ操作に反応するようにしてもよいし、反応しないようにしてもよい。また、円弧を描くタッチ操作が行われた場合に、所定時間だけスクロールホイールの画像を表示するようにしてもよい。また、スクロールホイールの画像が表示されていないときは、スクロールホイールの画像を表示すべき領域に、メニュー項目を表示するようにしてもよい。
このような携帯電話機100を用いることで、ユーザは、より快適にタッチ操作を行うことができる。スクロールホイールの画像の外の領域で円弧を描くタッチ操作が行われても、実質的にスクロールホイールに対する操作と認識されるようにできるため、タッチ操作の負担が軽減されると共に、操作ミスが低減される。また、スクロールホイールの画像の外の領域でのタッチ操作によっても、スクロールホイールの画像が回転するため、ユーザは、タッチ操作が正常に認識されたことを直感的に確認することができる。
[第2の実施の形態]
次に、第2の実施の形態を図面を参照して詳細に説明する。前述の第1の実施の形態との相違点を中心に説明し、同様の事項については説明を省略する。第2の実施の形態ではディスプレイに十字キーの画像が表示されると共に、直線を描くタッチ操作に反応する。
第2の実施の形態に係る携帯電話機は、図2〜4に示した第1の実施の形態と同様のハードウェアによって実現できる。なお、スクロールホイール105aを用いて方向検知を行ってもよいし、スクロールホイール105aに代えて十字キーを設けてもよい。また、第2の実施の形態に係る携帯電話機では、所定のプログラムを実行することで、図5に示した第1の実施の形態と同様の機能が実現される。ただし、第2の実施の形態では、ホイール制御部124に代えて、ディスプレイ107に表示される十字キーの画像を制御する方向キー制御部124aを設ける。
以下、第1の実施の形態と同様のモジュールについては、第1の実施の形態と同じ符号を用いて、第2の実施の形態を説明する。
図10は、第2の実施の形態の表示制御を示すフローチャートである。このフローチャートの処理は、携帯電話機100において繰り返し実行される。以下、図10に示す処理をステップ番号に沿って説明する。
[ステップS21]タッチ検出部121は、最新のタッチ位置の座標を取得するため、所定時間(例えば、50ms)待つ。
[ステップS22]タッチ検出部121は、連続的にタッチパネル106を擦る操作(ドラッグ)が行われているか判断する。ドラッグ中の場合、処理をステップS23に進める。ドラッグ中でない場合、処理を終了する。
[ステップS23]タッチ検出部121は、最新のタッチ位置の座標を取得し、ジェスチャ制御部123に通知する。
[ステップS24]ジェスチャ制御部123は、ステップS23でタッチ検出部121から通知された座標が、ドラッグ開始から数えて2点目以降の座標であるか判断する。2点目以降の座標である場合、処理をステップS25に進める。2点目以降の座標でない場合(最初の座標である場合)、処理をステップS21に進めて次の座標を待つ。
[ステップS25]ジェスチャ制御部123は、保持している直前の座標とステップS23で通知された最新の座標とに基づいて、移動方向を判定する。移動方向は、メニューの表示形式に応じて、上下2方向、左右2方向、上下左右4方向などで判定する。項目が縦方向に並んだメニューの場合、例えば、上下2方向で判定する。そして、ジェスチャ制御部123は、判定した方向を方向キー制御部124aに通知する。
なお、上下方向は、2点のY座標同士を比較することで判定することができる。左右方向は、2点のX座標同士を比較することで判定することができる。上下左右4方向で判定する場合は、X座標の差分ΔXとY座標の差分ΔYとを比較し、差分が大きい方を優先することで、上下または左右の何れか一方に絞り込むこともできる。
[ステップS26]方向キー制御部124aは、ジェスチャ制御部123により判定された移動方向に応じた画像に、ディスプレイ107に表示された十字キーの画像を変更する。例えば、4方向のうち判定された方向の部分が押下されている画像に変更する。
[ステップS27]方向キー制御部124aは、ジェスチャ制御部123により判定された移動方向を、メニュー制御部125に通知する。メニュー制御部125により、移動方向に応じて、メニューの選択位置が変更される。例えば、下方向と判定されると、1つ下の項目に選択位置が移動する。
このようにして、ユーザがタッチパネル106に対してドラッグ操作を行っている間、タッチ検出部121は、タッチ位置の座標を継続的に報告する。ジェスチャ制御部123は、タッチ位置の座標の系列に基づいて、移動方向を判定する。方向キー制御部124aは、判定された方向に押下された十字キーの画像を、ディスプレイ107に表示させる。また、メニュー制御部125は、そのようなキー操作が行われた場合に相当するメニュー制御を行う。
図11は、第2の実施の形態の画面表示例を示す図である。図11に示す画面が、操作画面制御部122の制御のもと、ディスプレイ107に表示される。ここで、表示領域107cは、メニューを表示する領域(第1の表示領域)である。図11の例では、表示領域107cに、6個の項目が縦方向にリスト状に表示されている。ただし、これらの項目を横方向または格子状に表示してもよい。表示領域107dは、十字キーの画像を表示する領域(第2の表示領域)である。なお、表示領域107dに、ボタンの画像など、他の操作のための画像を合わせて表示してもよい。
ここで、メニューの3番目の項目が現在選択されているとする。この状態で、ユーザが表示領域107c上で、上から下に直線を描くタッチ操作を行ったとする。すると、表示領域107dに、下方向に押下された十字キーの画像が表示される。これにより、ユーザは、表示領域107c上でのタッチ操作が十字キーの押下操作と認識されたことを確認することができる。また、表示領域107cのメニューに、そのような押下操作に応じた選択項目の変更が反映される。例えば、選択位置が3番目の項目から4番目の項目に移動する。なお、1回のドラッグで1項目分だけ移動するようにしてもよいし、ドラッグ距離に応じて複数項目分移動できるようにしてもよい。
このように、ユーザは、メニューの選択項目を移動させるために、十字キーの画像に対して何れかの方向を押下するタッチ操作してもよいし、他の表示領域に対して直線を描くタッチ操作してもよい。更に、筐体102が備える十字キー(または、スクロールホイールなど他の種類の入力装置)が露出しているとき、ユーザは、その十字キーを操作してもよい。また、筐体102が備える十字キーが露出しているときのみ、十字キーの画像を表示領域107dに表示することもできる。
このような携帯電話機100を用いることで、ユーザは、より快適にタッチ操作を行うことができる。十字キーの画像の外の領域で直線を描くタッチ操作が行われても、実質的に十字キーに対する操作と認識されるようにできるため、タッチ操作の負担が軽減されると共に、操作ミスが低減される。また、十字キーの画像の外の領域でのタッチ操作によっても、十字キーの画像が反応するため、ユーザは、タッチ操作が正常に認識されたことを直感的に確認することができる。
[第3の実施の形態]
次に、第3の実施の形態を図面を参照して詳細に説明する。前述の第1および第2の実施の形態との相違点を中心に説明し、同様の事項については説明を省略する。第3の実施の形態ではディスプレイにスライダバーの画像が表示されると共に、直線を描くタッチ操作に反応する。
第3の実施の形態に係る携帯電話機は、図2〜4に示した第1の実施の形態と同様のハードウェアによって実現できる。なお、スクロールホイールや十字キーを用いてスライド検知を行ってもよいし、ジョグダイヤルなど他の種類の入力装置を設けてもよい。また、第3の実施の形態に係る携帯電話機では、所定のプログラムを実行することで、図5に示した第1の実施の形態と同様の機能が実現される。ただし、第3の実施の形態では、ホイール制御部124に代えて、ディスプレイ107に表示されるスライダバーの画像を制御するスライダバー制御部124bを設ける。
以下、第1の実施の形態と同様のモジュールについては、第1の実施の形態と同じ符号を用いて、第3の実施の形態を説明する。
図12は、第3の実施の形態の表示制御を示すフローチャートである。このフローチャートの処理は、携帯電話機100において繰り返し実行される。以下、図12に示す処理をステップ番号に沿って説明する。
[ステップS31]タッチ検出部121は、最新のタッチ位置の座標を取得するため、所定時間(例えば、50ms)待つ。
[ステップS32]タッチ検出部121は、連続的にタッチパネル106を擦る操作(ドラッグ)が行われているか判断する。ドラッグ中の場合、処理をステップS33に進める。ドラッグ中でない場合、処理を終了する。
[ステップS33]タッチ検出部121は、最新のタッチ位置の座標を取得し、ジェスチャ制御部123に通知する。
[ステップS34]ジェスチャ制御部123は、ステップS33でタッチ検出部121から通知された座標が、ドラッグ開始から数えて2点目以降の座標であるか判断する。2点目以降の座標である場合、処理をステップS35に進める。2点目以降の座標でない場合(最初の座標である場合)、処理をステップS31に進めて次の座標を待つ。
[ステップS35]ジェスチャ制御部123は、保持している直前の座標とステップS33で通知された最新の座標とに基づいて、移動方向を判定する。移動方向は、スライダバーの表示形式に応じて、上下2方向、左右2方向などで判定する。例えば、縦方向にスライド可能なスライダバーの場合、上下2方向で判定する。横方向にスライド可能なスライダバーの場合、左右2方向で判定する。そして、ジェスチャ制御部123は、判定した方向をスライダバー制御部124bに通知する。
なお、上下方向は、2点のY座標同士を比較することで判定することができる。左右方向は、2点のX座標同士を比較することで判定することができる。縦方向のスライダバーと横方向のスライダバーの両方がある場合には、上下方向と左右方向とは独立に判定することができる。
[ステップS36]ジェスチャ制御部123は、保持している直前の座標とステップS33で通知された最新の座標とに基づいて、スライド量を算出する。すなわち、ドラッグ距離をスライダバーのスライド量に換算する。そして、ジェスチャ制御部123は、算出したスライド量とステップS35で判定した移動方向とを、スライダバー制御部124bに通知する。
なお、ドラッグ距離は、最新の点と1つ前の点とのX座標の差(ΔX)およびY座標の差(ΔY)から、三平方の定理により求めることができる。ただし、簡易的に、ΔX+ΔYをドラッグ距離と定義してもよい。ジェスチャ制御部123は、例えば、ドラッグ距離に所定の係数を掛けることで、スライダバーのスライド量に換算することができる。
[ステップS37]スライダバー制御部124bは、ジェスチャ制御部123から通知された移動方向とスライド量とに応じた画像に、ディスプレイ107に表示されたスライダバーの画像を変更する。
[ステップS38]スライダバー制御部124bは、ジェスチャ制御部123から通知された移動方向とスライド量とを、メニュー制御部125に通知する。メニュー制御部125により、移動方向とスライド量とに応じて、メニューがスクロールされる。例えば、下方向と判定されると、下方向にメニューがスクロールする。
このようにして、ユーザがタッチパネル106に対してドラッグ操作を行っている間、タッチ検出部121は、タッチ位置の座標を継続的に報告する。ジェスチャ制御部123は、タッチ位置の座標の系列に基づいて、移動方向を判定すると共に、スライダバーのスライド操作に置き換えた場合のスライド量を算出する。スライダバー制御部124bは、その方向およびその量だけ移動したスライダバーの画像を、ディスプレイ107に表示させる。また、メニュー制御部125は、そのようなスライド操作が行われた場合に相当するメニュー制御を行う。
図13は、第3の実施の形態の画面表示例を示す図である。図13に示す画面が、操作画面制御部122の制御のもと、ディスプレイ107に表示される。ここで、表示領域107eは、メニューを表示する領域(第1の表示領域)である。図13の例では、表示領域107eには、7個の項目を縦方向にリスト状に表示することができる。ただし、項目が7個以上あるため、全ての項目を一度に表示できない。表示領域107fは、スライダバーの画像を表示する領域(第2の表示領域)である。なお、横方向にもスライダバーの画像を設けることもできる。
ここで、メニューの4番目の項目が現在選択されているとする。この状態で、ユーザが表示領域107e上で、下から上に直線を描くタッチ操作を行ったとする。すると、表示領域107fに、下方向にスライドしたスライダバーの画像が表示される。これにより、ユーザは、表示領域107e上でのタッチ操作がスライド操作と認識されたことを確認することができる。また、表示領域107eのメニューでは、そのようなスライド操作に応じて画面スクロールが行われる。例えば、選択位置が4番目の項目のままで、メニュー全体が下方向にスクロールする。なお、図13の例では、下から上へのドラッグ操作で下方向にメニューがスクロールしたが、反応方向を逆にすることも可能である。
このように、ユーザは、メニューをスクロールさせるために、スライダバーの画像に対してドラッグ操作してもよいし、他の表示領域に対して直線を描くタッチ操作してもよい。更に、筐体102が備える十字キーやスクロールホイールなどの入力装置が露出しているとき、ユーザは、その入力装置を操作してもよい。タッチ操作におけるドラッグ量は、入力装置の押下時間に対応すると考えることができる。また、筐体102が備える入力装置が露出しているときのみ、スライダバーの画像を表示領域107fに表示することもできる。
このような携帯電話機100を用いることで、ユーザは、より快適にタッチ操作を行うことができる。スライダバーの画像の外の領域で直線を描くタッチ操作が行われても、実質的にスライダバーに対する操作と認識されるようにできるため、タッチ操作の負担が軽減されると共に、操作ミスが低減される。また、スライダバーの画像の外の領域でのタッチ操作によっても、スライダバーの画像が反応するため、ユーザは、タッチ操作が正常に認識されたことを直感的に確認することができる。
なお、前述の第1〜第3の実施の形態に係る表示制御を組み合わせることもできる。その場合、ディスプレイ107上の画像の表示状況やメニューの表示形式に応じて、検出すべきタッチ操作の種類(円弧や直線など)を切り替えることもできる。
前述の通り、第1〜第3に係る表示制御は、コンピュータに所定のプログラムを実行させることでも実現できる。その場合、実現すべき処理内容を記述したプログラムが提供される。処理内容を記述したプログラムは、コンピュータ読み取り可能な記録媒体に記録しておくことができる。コンピュータ読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc - Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
前述の第1〜第3の実施の形態に関し、更に以下の付記を開示する。
(付記1) 操作部を示す画像を表示する表示領域を備える表示部と、
前記表示部上に対するタッチ操作を検出する検出部と、
前記検出部で検出した前記タッチ操作の軌跡に応じて、前記表示部に表示する前記操作部を示す画像を変更する制御部と、
を有することを特徴とする携帯端末装置。
(付記2) 前記操作部を示す画像は、前記表示部が備える第1の表示領域に表示し、
前記検出部は、前記第1の表示領域と異なる前記表示部が備える第2の表示領域に対するタッチ操作を検出する、
ことを特徴とする付記1記載の携帯端末装置。
(付記3) 前記操作部を示す画像は、スクロールホイールの画像であり、
前記制御部は、前記タッチ操作の軌跡に基づいて回転角を算出し、前記回転角に応じて前記スクロールホイールの画像を変更する、
ことを特徴とする付記1記載の携帯端末装置。
(付記4) 前記操作部を示す画像は、十字キーの画像であり、
前記制御部は、前記タッチ操作の軌跡に基づいて操作方向を判定し、前記操作方向に応じて前記十字キーの画像を変更する、
ことを特徴とする付記1記載の携帯端末装置。
(付記5) 前記操作部を示す画像は、スライダバーの画像であり、
前記制御部は、前記タッチ操作の軌跡に基づいてスライド量を算出し、前記スライド量に応じて前記スライダバーの画像を変更する、
ことを特徴とする付記1記載の携帯端末装置。
(付記6) 前記表示部を備える第1の筐体と、前記第1の筐体に対して移動可能であり当該移動によって露出される操作部を備える第2の筐体とを更に有し、
前記操作部を示す画像は、前記第2の筐体が備える前記操作部に対応する画像である、
ことを特徴とする付記1記載の携帯端末装置。
(付記7) 前記表示部は、前記操作部が露出していないときに前記操作部を示す画像を表示し、前記操作部が露出しているときに前記操作部を示す画像を表示しないことを特徴とする付記6記載の携帯端末装置。
(付記8) 表示部を備える携帯端末装置の表示制御方法であって、
前記表示部の表示領域に操作部を示す画像を表示し、
前記表示部上に対するタッチ操作を検出し、
検出した前記タッチ操作の軌跡に応じて、前記表示部に表示した前記操作部を示す画像を変更する、
ことを特徴とする表示制御方法。
(付記9) 表示部を備えると共にコンピュータの機能を有する携帯端末装置に、
前記表示部の表示領域に操作部を示す画像を表示し、
前記表示部上に対するタッチ操作を検出し、
検出した前記タッチ操作の軌跡に応じて、前記表示部に表示した前記操作部を示す画像を変更する、
処理を実行させることを特徴とする表示制御プログラム。
本実施の形態に係る携帯端末装置を示す図である。 携帯電話機の第1の状態を示す図である。 携帯電話機の第2の状態を示す図である。 携帯電話機のハードウェアを示すブロック図である。 携帯電話機の機能を示すブロック図である。 ドラッグ操作の回転方向の検出方法を示す図である。 第1の実施の形態の表示制御を示すフローチャートである。 第1の実施の形態の画面表示例を示す図である。 第1の実施の形態の他の画面表示例を示す図である。 第2の実施の形態の表示制御を示すフローチャートである。 第2の実施の形態の画面表示例を示す図である。 第3の実施の形態の表示制御を示すフローチャートである。 第3の実施の形態の画面表示例を示す図である。
符号の説明
10 携帯端末装置
11 表示部
11a,11b 表示領域
12 検出部
13 制御部

Claims (5)

  1. スクロール操作用の操作部を示す画像を表示する第1の表示領域と、スクロール操作用の操作部以外の画像を表示する第2の表示領域とを備える表示部と、
    前記第2の表示領域に対するタッチ操作を検出する検出部と、
    前記検出部で検出した前記タッチ操作の軌跡に応じて、前第1の表示領域に表示するスクロール操作用の操作部を示す画像を変更する制御部と、
    を有することを特徴とする携帯端末装置。
  2. 前記表示部は、前記第1の表示領域にスクロールホイールの画像を表示し、
    前記制御部は、前記タッチ操作の軌跡に基づいて回転角を算出し、前記回転角に応じて前記スクロールホイールの画像を変更する、
    ことを特徴とする請求項1記載の携帯端末装置。
  3. 前記表示部を備える第1の筐体と、前記第1の筐体に対して移動可能であり当該移動によって露出される操作部を備える第2の筐体とを更に有し、
    前記第1の表示領域に表示するスクロール操作用の操作部を示す画像は、前記第2の筐体が備える操作部に対応する画像であり、
    前記表示部は、前記第2の筐体が備える操作部が露出していないときに該操作部に対応する画像を前記第1の表示領域に表示し、該操作部が露出しているときに該操作部に対応する画像を表示しないことを特徴とする請求項1または2に記載の携帯端末装置。
  4. 表示部を備える携帯端末装置の表示制御方法であって、
    前記表示部の第1の表示領域に、スクロール操作用の操作部を示す画像を表示すると共に、前記表示部の第2の表示領域に、スクロール操作用の操作部以外の画像を表示し、
    前記第2の表示領域に対するタッチ操作を検出し、
    検出した前記タッチ操作の軌跡に応じて、前第1の表示領域に表示するスクロール操作用の操作部を示す画像を変更する、
    ことを特徴とする表示制御方法。
  5. 表示部を備えると共にコンピュータの機能を有する携帯端末装置に、
    前記表示部の第1の表示領域に、スクロール操作用の操作部を示す画像を表示すると共に、前記表示部の第2の表示領域に、スクロール操作用の操作部以外の画像を表示し、
    前記第2の表示領域に対するタッチ操作を検出し、
    検出した前記タッチ操作の軌跡に応じて、前第1の表示領域に表示するスクロール操作用の操作部を示す画像を変更する、
    処理を実行させることを特徴とする表示制御プログラム。
JP2008249861A 2008-09-29 2008-09-29 携帯端末装置、表示制御方法および表示制御プログラム Expired - Fee Related JP5228755B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008249861A JP5228755B2 (ja) 2008-09-29 2008-09-29 携帯端末装置、表示制御方法および表示制御プログラム
US12/566,125 US8621378B2 (en) 2008-09-29 2009-09-24 Mobile terminal device and display control method
US14/094,289 US20140085240A1 (en) 2008-09-29 2013-12-02 Mobile terminal device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008249861A JP5228755B2 (ja) 2008-09-29 2008-09-29 携帯端末装置、表示制御方法および表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2010079802A JP2010079802A (ja) 2010-04-08
JP5228755B2 true JP5228755B2 (ja) 2013-07-03

Family

ID=42059019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008249861A Expired - Fee Related JP5228755B2 (ja) 2008-09-29 2008-09-29 携帯端末装置、表示制御方法および表示制御プログラム

Country Status (2)

Country Link
US (2) US8621378B2 (ja)
JP (1) JP5228755B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100081577A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 휴대단말에서 오브젝트의 내비게이션 방법 및 장치
KR20100134948A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 터치스크린을 구비하는 장치의 메뉴 표시 방법
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
CN101763217A (zh) * 2009-12-15 2010-06-30 中兴通讯股份有限公司 一种具有活动中文输入候选词框的移动终端及其实现方法
JP5385775B2 (ja) * 2009-12-25 2014-01-08 富士フイルム株式会社 画像通信システムならびに画像サーバ,その動作制御方法およびその動作を制御するコンピュータ・プログラム
KR101739054B1 (ko) * 2010-09-08 2017-05-24 삼성전자주식회사 디바이스상의 움직임 제어 방법 및 장치
JP5381945B2 (ja) 2010-09-21 2014-01-08 アイシン・エィ・ダブリュ株式会社 タッチパネル式操作装置、タッチパネルの操作方法及びコンピュータプログラム
US9304592B2 (en) * 2010-11-12 2016-04-05 At&T Intellectual Property I, L.P. Electronic device control based on gestures
US9727177B2 (en) * 2011-02-23 2017-08-08 Kyocera Corporation Electronic device with a touch sensor
US20130055119A1 (en) * 2011-08-23 2013-02-28 Anh Luong Device, Method, and Graphical User Interface for Variable Speed Navigation
CN102339213B (zh) * 2011-10-10 2016-02-10 宇龙计算机通信科技(深圳)有限公司 一种插件的显示方法和移动终端
CN102799358B (zh) * 2012-06-20 2017-08-08 南京中兴软件有限责任公司 光标显示位置的确定方法及装置
JP6210664B2 (ja) * 2012-09-25 2017-10-11 キヤノン株式会社 情報処理装置とその制御方法、及びプログラムと記憶媒体
JP5738494B2 (ja) * 2012-10-16 2015-06-24 三菱電機株式会社 情報表示装置および表示情報操作方法
US20150234572A1 (en) * 2012-10-16 2015-08-20 Mitsubishi Electric Corporation Information display device and display information operation method
JP6163733B2 (ja) * 2012-11-09 2017-07-19 オムロン株式会社 制御装置および制御プログラム
CN104375740A (zh) * 2013-08-15 2015-02-25 联想(北京)有限公司 一种光标定位方法、装置及终端
CN104063153B (zh) * 2014-05-04 2018-12-11 南京中兴软件有限责任公司 一种实现人机交互的方法和装置
US20160034131A1 (en) * 2014-07-31 2016-02-04 Sony Corporation Methods and systems of a graphical user interface shift
US9992115B2 (en) * 2014-08-22 2018-06-05 Xiaomi Inc. Method and device for controlling traffic of mobile router
EP3309670B1 (en) * 2015-12-15 2021-09-08 Huawei Technologies Co., Ltd. Method for responding to operation track and operation track response apparatus
US11036390B2 (en) * 2018-05-25 2021-06-15 Mpi Corporation Display method of display apparatus
JP6683216B2 (ja) * 2018-07-03 2020-04-15 株式会社リコー プログラム、方法、情報処理装置および映像表示システム
KR20200091522A (ko) 2019-01-22 2020-07-31 삼성전자주식회사 컨텐츠의 표시 방향을 제어하기 위한 방법 및 그 전자 장치
US11628851B2 (en) * 2019-07-11 2023-04-18 Lg Electronics Inc. Method and apparatus for controlling a vehicle in autonomous driving system
CN111880719A (zh) * 2020-07-28 2020-11-03 中国银行股份有限公司 移动端的汇总信息展示控制装置及方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667796A (ja) * 1992-08-20 1994-03-11 Sony Corp 入力装置
JP3280559B2 (ja) * 1996-02-20 2002-05-13 シャープ株式会社 ジョグダイアルの模擬入力装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7319454B2 (en) * 2000-11-10 2008-01-15 Microsoft Corporation Two-button mouse input using a stylus
JP2002222034A (ja) * 2000-11-22 2002-08-09 Shinichi Komatsu 座標位置入力によるコンピュータの制御方法並びにこの方法によりコンピュータを制御するプログラム及びこのプログラムが記録された記録媒体
US6907276B2 (en) * 2001-03-21 2005-06-14 Nec Corporation Mobile communication terminal with external display unit
US7173665B2 (en) * 2001-03-30 2007-02-06 Sanyo Electric Co., Ltd. Folding mobile communication terminal
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP2004012919A (ja) * 2002-06-07 2004-01-15 Clarion Co Ltd 情報表示装置
US7199786B2 (en) * 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20040113956A1 (en) * 2002-12-12 2004-06-17 International Business Machines Corporation Apparatus and method for providing feedback regarding finger placement relative to an input device
JP2006527439A (ja) * 2003-06-13 2006-11-30 ユニヴァーシティ オブ ランカスター ユーザインタフェース
KR100606803B1 (ko) * 2005-05-16 2006-08-01 엘지전자 주식회사 스크롤 휠 장치를 이용한 기능 수행 기능을 갖는 이동통신단말기 및 이를 이용한 기능 수행 방법
US7983723B2 (en) * 2005-06-15 2011-07-19 Sony Ericsson Mobile Communications Ab Closed mode user interface for wireless communication devices
JP2007042029A (ja) * 2005-08-05 2007-02-15 Denso Corp 表示装置およびプログラム
US20070132789A1 (en) * 2005-12-08 2007-06-14 Bas Ording List scrolling in response to moving contact over list of index symbols
US7860536B2 (en) * 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
JP2007292834A (ja) 2006-04-21 2007-11-08 Xanavi Informatics Corp 地図表示装置およびナビゲーション装置
US20070262951A1 (en) * 2006-05-09 2007-11-15 Synaptics Incorporated Proximity sensor device and method with improved indication of adjustment
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
EP1970799B1 (en) * 2007-03-15 2017-08-16 LG Electronics Inc. Electronic device and method of controlling mode thereof and mobile communication terminal
KR100810363B1 (ko) * 2007-05-17 2008-03-04 삼성전자주식회사 양방향 슬라이드형 이동통신 단말기 및 그의 사용자인터페이스 표시방법
US20090017872A1 (en) * 2007-07-11 2009-01-15 Larry David Myers Display system for portable electronic devices with related sub-displays
KR20090008976A (ko) * 2007-07-19 2009-01-22 삼성전자주식회사 네비게이션 단말에서의 지도 스크롤 방법 및 그 네비게이션단말
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
KR101414612B1 (ko) * 2007-10-01 2014-07-03 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US20090156273A1 (en) * 2007-12-14 2009-06-18 Sony Ericsson Mobile Communications Ab Loudspeaker for a Clamshell Wireless Communication Device
TWI410824B (zh) * 2007-12-18 2013-10-01 Htc Corp 具有整合顯示元件與輸入元件之模組的電子裝置
US8352877B2 (en) * 2008-03-06 2013-01-08 Microsoft Corporation Adjustment of range of content displayed on graphical user interface
US20090251422A1 (en) * 2008-04-08 2009-10-08 Honeywell International Inc. Method and system for enhancing interaction of a virtual keyboard provided through a small touch screen

Also Published As

Publication number Publication date
JP2010079802A (ja) 2010-04-08
US20100083167A1 (en) 2010-04-01
US8621378B2 (en) 2013-12-31
US20140085240A1 (en) 2014-03-27

Similar Documents

Publication Publication Date Title
JP5228755B2 (ja) 携帯端末装置、表示制御方法および表示制御プログラム
US10778828B2 (en) Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US20210026532A1 (en) Method of operating a display unit and a terminal supporting the same
KR101523979B1 (ko) 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법
US20180067643A1 (en) Portable electronic device performing similar operations for different gestures
JP5705131B2 (ja) 異種のタッチ領域を利用した電子機器の動作制御方法及び装置
AU2008100010A4 (en) Portable multifunction device, method, and graphical user interface for translating displayed content
US20080297485A1 (en) Device and method for executing a menu in a mobile terminal
EP2159677B1 (en) Display device and method of controlling the display device
US9891805B2 (en) Mobile terminal, and user interface control program and method
JP4801503B2 (ja) 項目選択装置、コンピュータプログラムとその記録媒体、及び情報処理装置
US20100214218A1 (en) Virtual mouse
JP2012141978A (ja) タッチスクリーンを含む装置及びその装置のスクロール方法
US20100281430A1 (en) Mobile applications spin menu
JP2014010777A (ja) 表示プログラム、表示方法、及び情報処理装置
EP2321717A1 (en) User interface, device and method for a physically flexible device
JP2011512584A (ja) タッチパネル上での複数の時間的にオーバラップしたタッチに対する特定及び応答
EP2347327A2 (en) Scrolling for a touch based graphical user interface
EP2334038B1 (en) Portable terminal device, image display method used for same, and recording medium to record program for same
JP6102474B2 (ja) 表示装置、入力制御方法、及び入力制御プログラム
JPWO2011055816A1 (ja) 情報端末及び入力制御プログラム
JP2014164370A (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
JP2008305294A (ja) フルキーボードを搭載した携帯型端末装置及びフルキーボード表示方法
KR20090037061A (ko) 터치기반 휴대용 단말기의 어플리케이션 연동 장치 및 방법
WO2014132882A1 (ja) 端末装置、情報表示方法及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5228755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees