JP5739131B2 - 携帯電子機器、携帯電子機器の制御方法及びプログラム - Google Patents

携帯電子機器、携帯電子機器の制御方法及びプログラム Download PDF

Info

Publication number
JP5739131B2
JP5739131B2 JP2010232955A JP2010232955A JP5739131B2 JP 5739131 B2 JP5739131 B2 JP 5739131B2 JP 2010232955 A JP2010232955 A JP 2010232955A JP 2010232955 A JP2010232955 A JP 2010232955A JP 5739131 B2 JP5739131 B2 JP 5739131B2
Authority
JP
Japan
Prior art keywords
handwritten
character
display unit
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010232955A
Other languages
English (en)
Other versions
JP2012088799A (ja
Inventor
雅嗣 中澤
雅嗣 中澤
あやの 中村
あやの 中村
周治 石川
周治 石川
伸也 石▲崎▼
伸也 石▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010232955A priority Critical patent/JP5739131B2/ja
Priority to PCT/JP2011/073497 priority patent/WO2012050153A1/ja
Priority to US13/879,537 priority patent/US9851867B2/en
Publication of JP2012088799A publication Critical patent/JP2012088799A/ja
Application granted granted Critical
Publication of JP5739131B2 publication Critical patent/JP5739131B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示部を有する携帯電子機器、携帯電子機器の制御方法及びプログラムに関する。
従来、表示部と操作部とを有する携帯電子機器は、表示部に待ち受け画面が表示されている状態で操作部を操作すると、操作部に割り当てられている文字を入力して、表示部に表示する。そして、携帯電子機器は、文字が入力された状態で、ユーザが所望の文字入力アプリケーションを選択すると、選択された文字入力アプリケーションに入力された文字を入力させた状態で起動させていた(例えば、特許文献1参照)。
一方、表示部に接触することにより所望のアプリケーションの起動や文字の入力を行う携帯電子機器が提案されている(例えば、特許文献2参照)。
特開2007−200243号公報 特開平09−018566号公報
しかし、特許文献1及び2に記載の携帯電子機器では、所望の文字入力アプリケーションを、複数の文字入力アプリケーションの中から選択する必要があり、操作が煩わしい場合があった。
本発明は、所望の文字入力アプリケーションをより容易に選択することが可能な携帯電子機器、携帯電子機器の制御方法及びプログラムを提供することを目的とする。
本発明に係る携帯電子機器は、上記課題を解決するために、表示部と、前記表示部の端部領域のいずれかと文字入力アプリケーションとを対応付けて記憶する記憶部と、前記表示部に文字又は画像が表示されている状態において、前記文字又は前記画像のいずれかが選択された後に、前記文字又は前記画像を前記端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される前記文字入力アプリケーションを起動させて、選択された前記文字又は前記画像を入力させる制御部と、を備える携帯電子機器。
本発明に係る携帯電子機器は、上記課題を解決するために、表示部と、前記表示部の所定方向のいずれかと文字入力アプリケーションとを対応付けて記憶する記憶部と、前記表示部に文字又は画像が表示されている状態において、前記文字又は前記画像のいずれかが選択された後に、前記文字又は前記画像を前記所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される前記文字入力アプリケーションを起動させて、選択された前記文字又は前記画像を入力させる制御部と、を備える携帯電子機器。
また、前記制御部は、前記文字又は前記画像を前記端部領域へ移動させる指示が行なわれた後に、前記文字又は前記画像の選択が解除されると、前記端部領域に対応付けて記憶される前記文字入力アプリケーションを起動させることが好ましい。
また、前記制御部は、前記文字又は前記画像を前記所定方向へ移動させる指示が行なわれた後に、前記文字又は前記画像の選択が解除されると、前記所定方向に対応付けて記憶される前記文字入力アプリケーションを起動させることが好ましい。
また、前記制御部は、前記文字又は前記画像を前記端部領域へ移動させる指示が行なわれた後に、前記文字又は前記画像の選択が維持された状態において、前記端部領域に対応付けて記憶される前記文字入力アプリケーションに対応するアイコンを前記表示部に表示させることが好ましい。
また、前記制御部は、前記文字又は前記画像を前記所定方向へ移動させる指示が行なわれた後に、前記文字又は前記画像の選択が維持された状態において、前記所定方向に対応付けて記憶される前記文字入力アプリケーションに対応するアイコンを前記表示部に表示させることが好ましい。
また、前記制御部は、起動した前記文字入力アプリケーションが終了した場合に、前記文字又は前記画像が選択される直前に表示されていた文字又は画像を前記表示部に表示させることが好ましい。
また、前記携帯電子機器は、方向を指定するキーを更に備え、前記制御部は、選択された前記文字又は前記画像を前記キーの操作により移動させる指示を行なわせることが好ましい。
また、前記携帯電子機器は、前記表示部の表面に対応して配され、前記表示部への接触を検出する検出部を更に備え、前記制御部は、前記文字又は前記画像に対する接触が前記検出部により検出されると、当該文字又は当該画像を選択させ、選択された前記文字又は前記画像に対する接触が維持された状態において、当該接触の移動が前記検出部により検出されると、前記文字又は画像を移動させる指示を行なわせることが好ましい。
また、前記携帯電子機器は、前記検出部により前記表示部への接触を検出して手書き文字を入力させる手書き文字入力部を更に備え、前記表示部に表示されている文字又は画像は、前記手書き文字入力部により入力された文字又は画像であることが好ましい。
また、前記携帯電子機器は、前記検出部により前記表示部への接触を検出して前記表示部に前記手書き文字を入力させる領域を指定する領域指定部を更に備え、前記手書き文字入力部は、前記領域指定部により指定された領域内に手書き文字を入力させることが好ましい。
本発明に係る携帯電子機器の制御方法は、上記課題を解決するために、文字又は画像を表示部に表示するステップと、前記表示部に文字又は画像が表示されている状態において、前記文字又は前記画像のいずれかが制御部により選択されるステップと、前記文字又は前記画像が選択された後に、前記文字又は前記画像を前記表示部の端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される文字入力アプリケーションを前記制御部により起動させて、選択された前記文字又は前記画像を入力させるステップと、を備える。
本発明に係る携帯電子機器の制御方法は、上記課題を解決するために、文字又は画像を表示部に表示するステップと、前記表示部に文字又は画像が表示されている状態において、前記文字又は前記画像のいずれかが制御部により選択されるステップと、前記文字又は前記が選択された後に、前記文字又は前記画像を前記表示部の所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される文字入力アプリケーションを前記制御部により起動させて、選択された前記文字又は前記画像を入力させるステップと、を備える。
本発明に係るプログラムは、上記課題を解決するために、表示部を備える携帯電子機器のコンピュータを機能させるための制御プログラムであって、前記コンピュータに、文字又は画像を前記表示部に表示させるステップと、前記表示部に文字又は画像が表示されている状態において、前記文字又は前記画像のいずれかを選択させるステップと、前記文字又は前記画像が選択された後に、前記文字又は前記画像を前記表示部の端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される文字入力アプリケーションを起動させて、選択された前記文字又は前記画像を入力させるステップと、を実行させるための制御プログラム。
本発明に係るプログラムは、上記課題を解決するために、表示部を備える携帯電子機器のコンピュータを機能させるための制御プログラムであって、前記コンピュータに、文字又は画像を前記表示部に表示させるステップと、前記表示部に文字又は画像が表示されている状態において、前記文字又は前記画像のいずれかを選択させるステップと、前記文字又は前記画像が選択された後に、前記文字又は前記画像を前記表示部の所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される文字入力アプリケーションを起動させて、選択された前記文字又は前記画像を入力させるステップと、を実行させるための制御プログラム。
本発明によれば、所望の文字入力アプリケーションをより容易に選択することが可能な携帯電子機器、携帯電子機器の制御方法及びプログラムを提供することができる。
第1実施形態に係る携帯電話機の外観斜視図である。 携帯電話機の機能構成を示すブロック図である。 第1実施形態に係る表示部に表示される画面遷移例を示す図である。 タッチペンによるタッチパネルへの接触を検出部により検出する処理を示すフローチャートである。 アプリケーション制御部による処理を示すフローチャート(1)である。 アプリケーション制御部による処理を示すフローチャート(2)である。 アプリケーション制御部による処理を示すフローチャート(3)である。 アプリケーション制御部による処理を示すフローチャート(4)である。 第2実施形態に係る表示部に表示される画面例を示す図である。 表示部の各端部領域に対応付けられている文字入力アプリケーションのアイコンを示す画面例である。 図10に示す各端部領域に対応付けられている文字入力アプリケーションの設定画面を示す画面例である。
<第1実施形態>
以下、本発明の実施の形態について説明する。まず、本発明の携帯電子機器の第1実施形態に係る携帯電話機1の基本構造について、図1を参照しながら説明する。図1は、第1実施形態に係る携帯電話機1の外観斜視図である。
携帯電話機1は、筺体2を備える。筺体2には、正面部に、タッチパネル10と、マイク13と、スピーカ14とが配置される。
タッチパネル10は、表示部11と、検出部12とを備える(図2参照)。表示部11は、液晶表示パネル又は有機EL(エレクトロルミネッセンス)表示パネル等である。検出部12は、表示部11に対する携帯電話機1のユーザの指やタッチペン等の物体の接触を検出するセンサである。検出部12には、表示部11の表面に対応して配され、例えば、静電容量方式や抵抗膜方式等のセンサが利用可能である。なお、第1実施形態に係るタッチパネル10は、後述するタッチペン18(図3参照)による手書き文字の入力を検出可能な抵抗膜方式や電磁誘導方式、表面型静電容量方式であることが好ましい。
マイク13は、携帯電話機1のユーザが通話時に発した音声を入力するために用いられる。
スピーカ14は、携帯電話機1のユーザの通話相手が発した音声を出力するために用いられる。
続いて、図2を参照しながら、携帯電話機1の機能構成について説明する。図2は、携帯電話機1の機能構成を示すブロック図である。
携帯電話機1は、上述した、タッチパネル10(表示部11及び検出部12)と、マイク13と、スピーカ14とを備える。また、携帯電話機1は、通信部15と、記憶部16と、制御部17とを備える。
通信部15は、メインアンテナ(図示省略)とRF回路部(図示省略)とを備え、所定の連絡先に発信したり、通信したりする。通信部15が発信する連絡先は、例えば、警察や消防といった緊急連絡先である。また、通信部15が通信を行う通信先は、携帯電話機1と電話やメールの送受信を行う外部装置や、携帯電話機1がインターネットの接続を行う外部のwebサーバ等の外部装置等である。
通信部15は、所定の使用周波数帯で外部装置と通信を行う。具体的には、通信部15は、上記のメインアンテナによって受信した信号を復調処理し、処理後の信号を制御部17に供給する。また、通信部15は、制御部17から供給された信号を変調処理し、上記のメインアンテナを介して外部装置(基地局)に送信する。
記憶部16は、例えば、ワーキングメモリを含み、制御部17による演算処理に利用される。また、記憶部16は、携帯電話機1の内部で動作するアプリケーションやデータベースを1又は複数記憶する。なお、記憶部16は、着脱可能な外部メモリを兼ねていてもよい。
制御部17は、携帯電話機1の全体を制御しており、表示部11及び通信部15に対して制御を行う。
本実施形態の記憶部16及び制御部17は、一般的なコンピュータによって構成してもよい。一般的なコンピュータは、例えば、制御部17として、中央処理装置(CPU)を備え、記憶部16として、メモリ(RAM、ROM)や、ハードディスク(HDD)等を備える。このような一般的なコンピュータにおいて、制御部17は、携帯電話機1を統括的に制御し、各種プログラムを記憶部16から適宜読み出して実行することにより、上述した表示部11、検出部12、マイク13、スピーカ14及び通信部15と協働し、本発明に係る各種機能を実現している。
本実施形態に係る携帯電話機1は、表示部11に表示されている文字や画像等を利用してアプリケーションを起動させる機能を有している。以下、当該機能を実行させるための構成について説明する。
図2に示すように、制御部17は、アプリケーション制御部171と、手書き文字入力部172と、領域指定部173と、を備える。
アプリケーション制御部171は、表示部11に文字又は画像が表示されている状態において、文字又は画像のいずれかが選択された後に、文字又は画像を端部領域へ移動させる指示が行なわれると、端部領域に対応付けて記憶される文字入力アプリケーションを起動させて、選択された文字又は画像を入力させる。ここで、本実施形態に係る文字とは、平仮名文字、片仮名文字、漢字だけでなく、数字、英字、記号も含む。また、文字とは、一の文字だけでなく、文字列も含む。
手書き文字入力部172は、表示部11への接触に応じて、手書き文字を表示部11へ入力させる。具体的には、手書き文字入力部172は、タッチペン18によって描かれた軌跡を検出部12により検出する。手書き文字入力部172は、例えば、手書き文字認識用アプリケーションによって、検出された軌跡と手書き文字認識用データベースに記憶される文字とのパターンマッチングを行い、最も認識率の高い文字をテキストデータに変換する。ここで、手書き文字認識用データベースは、記憶部16に記憶されており、手書き文字を認識するための各種情報を有している。また、手書き文字認識用アプリケーションは、記憶部16に記憶されており、手書き文字を認識するためのアルゴリズムを有している。
領域指定部173は、表示部11への接触に応じて、表示部11に手書き文字を入力させる領域を指定する。具体的には、領域指定部173は、タッチペン18によって表示部11に描かれた軌跡を検出部12により検出する。領域指定部173は、検出された軌跡によって囲まれる領域を、手書き文字認識用アプリケーションにより手書き文字を入力可能な領域として指定する。なお、領域指定部173は、タッチペン18によって表示部11に描かれた軌跡が特定の領域を囲んでいない場合には、手書き文字を入力させる領域を指定しない。
また、記憶部16には、表示部11の端部領域のいずれかと文字入力アプリケーションとを対応付けて記憶する。文字入力アプリケーションとしては、例えば、電子メールアプリケーション、メモ帳アプリケーション、テキスト編集用アプリケーション、ブラウザアプリケーション(例えば、検索するために文字入力が可能なブラウザアプリケーション)、Twitter(登録商標)用アプリケーション等が挙げられる。
具体的には、記憶部16には、例えば、表示部11の右側の端部領域とメモ帳アプリケーションとが対応付けられ、表示部11の左側の端部領域と電子メールアプリケーションとが対応付けられ、表示部11の上側の端部領域とテキスト編集用アプリケーションとが対応付けられ、表示部11の下側の端部領域とブラウザアプリケーションとが対応付けられる。ここで、表示部11の端部領域それぞれは、表示部11のいずれかの縁から表示部11の中央へ向かって所定長さを有する領域である。例えば、表示部11の右側の端部領域は、表示部11の右側の縁から表示部11の中央へ向かって所定長さを有する矩形状の領域である。
図3は、第1実施形態に係る表示部11に表示される画面遷移例を示す図である。
図3の画面D1においては、ブラウザアプリケーションが起動しており、画像F1が表示部11に表示されている。
図3の画面D1において、領域指定部173は、タッチペン18によるピクト領域Pへの接触が検出部12により検出された場合(画面D1)、手書き文字認識用アプリケーションを起動させて、タッチペン18によって表示部11に描かれた軌跡を検出部12により検出する(画面D2)。領域指定部173は、検出された軌跡によって囲まれる領域を、手書き文字認識用アプリケーションにより手書き文字を入力可能な領域R1として指定する。このようにタッチペン18による表示部11への接触が検出される基点がピクト領域Pである場合に、領域指定部173による手書き文字を入力可能な領域R1として指定してもよい。
また、タッチペン18による表示部11への接触が検出される基点が表示部11の縁である場合に、領域指定部173による手書き文字を入力可能な領域R1として指定してもよい。これにより、既に画面D1に表示されているブラウザアプリケーションに対応する接触の検出との競合を回避することが可能である。
手書き文字入力部172は、領域指定部173により指定された領域R1内において、タッチペン18によって描かれた軌跡を検出部12により検出する。
そして、手書き文字入力部172は、タッチペン18によって表示部11に描かれた軌跡が特定の範囲を囲むことにより、描かれた軌跡の範囲を確定させる(画面D3)。
画面D3において、アプリケーション制御部171は、手書き文字入力部172により手書き文字「あいうえ」が入力されている領域R1に対する接触が検出部12により検出されることに応じて、認識された文字「あいうえ」を選択する。
画面D3において、アプリケーション制御部171は、領域指定部173により指定された領域R1がタッチペン18の操作によって移動させる指示(いわゆるドラッグ)が行われると、タッチペン18の操作に従って指定された領域R1が移動する(画面D4)。
そして、アプリケーション制御部171は、領域R1への選択が維持された状態において、領域指定部173により指定された領域R1がタッチペン18の操作によって表示部11の右側の端部領域T1へ移動させる指示(いわゆるドラッグ)が行われると、表示部11の右側の端部領域T1対応付けて記憶されているメモ帳アプリケーションのアイコンA1、すなわち、メモ帳アプリケーションを起動させるためのランチャーが動的に表示される(画面D5)。
画面D5において、アプリケーション制御部171は、タッチペン18による表示部1への接触が解除されたことが検出部12により検出されると、すなわち、領域R1への選択が解除されると、右側の端部領域T1に対応付けて記憶される文字入力アプリケーションを起動させて、領域R1において認識された文字「あいうえ」を入力させる(画面D6)。
また、アプリケーション制御部171は、起動したメモ帳アプリケーションが終了した場合に、領域R1が選択される直前に表示されていた文字又は画像を表示部11に表示させる(画面D1)。
また、画面D5において、アプリケーション制御部171は、メモ帳アプリケーションのアイコンA1が表示された状態で、タッチペン18により領域R1を右側の端部領域T1外へ移動させると(画面D7)、画面D4と同様にタッチペン18の操作に従って指定された領域R1が移動する状態に遷移し、かつメモ帳アプリケーションのアイコンA1の表示が解除される(画面D8)。
このように第1実施形態の携帯電話機1によれば、アプリケーション制御部171は、表示部11に文字又は画像が表示されている状態において、文字のうち少なくともいずれかの文字又は画像(例えば、領域R1の文字「あいうえ」)が選択された後に、文字又は画像を端部領域(例えば、右側の端部領域T1)へ移動させる指示が行なわれると、端部領域に対応付けて記憶される文字入力アプリケーション(例えば、メモ帳アプリケーション)を起動させて、選択された文字又は画像を入力させる(画面D6)。これにより、ユーザは選択された文字又は画像を端部領域へ移動させる指示を行うことにより、端部領域に対応付けて記憶される文字入力アプリケーションを起動させて、選択された文字又は画像を入力させることができる。したがって、ユーザは簡易かつ直感的な操作により端部領域に対応付けて記憶される文字入力アプリケーションを選択することができる。
また、アプリケーション制御部171は、領域R1を端部領域T1へ移動させる指示が行なわれた後に、領域R1への選択が解除されると、端部領域T1に対応付けて記憶されるメモ帳アプリケーションを起動させる(画面D6)。したがって、携帯電話機1は、文字又は画像への選択が解除されることにより、端部領域に対応付けて記憶される文字入力アプリケーションを起動させるため、より直感的な操作で文字入力アプリケーションを起動させることができる。
また、アプリケーション制御部171は、領域R1を端部領域T1へ移動させる指示が行なわれた後に、領域R1への選択が維持された状態において、端部領域T1に対応付けて記憶されるメモ帳アプリケーションに対応するアイコンA1を表示させる(画面D5)。これにより、携帯電話機1は、端部領域に対応付けて記憶される文字入力アプリケーションそれぞれに対応するアイコンを表示させるため、ユーザは、表示されたアイコンを視認することにより、どのような文字入力アプリケーションが起動するのかを直感的に認識することができる。
また、アプリケーション制御部171は、起動したメモ帳アプリケーションが終了した場合に、領域R1が選択される直前に表示されていた文字又は画像を表示部11に表示させる(画面D1)。これにより、携帯電話機1は、起動した文字入力アプリケーションが終了した後にも接触が検出される直前に表示されていた文字又は画像が表示されるため、ユーザの利便性を向上させることができる。
また、携帯電話機1は、タッチペン18に替えて、方向を指定する物理的又は仮想的なキーを更に備え、アプリケーション制御部171は、選択された文字又は画像を物理的又は仮想的なキーの操作により移動させる指示を行なわせてもよい。これにより、携帯電話機1は、物理的又は仮想的なキーの操作を用いた場合であっても、簡易な操作により文字入力アプリケーションを選択することができる。
また、アプリケーション制御部171は、文字又は画像に対する接触が検出部12により検出されると、当該文字又は当該画像を選択させ、選択された文字又は画像に対する接触が維持された状態において、当該接触の移動が検出部12により検出されると、文字又は画像を移動させる指示を行なわせる(画面D4)。これにより、ユーザは、より簡易かつ直感的な操作により文字入力アプリケーションを選択することができる。
また、上述したように、表示部11に表示されている文字又は画像は、手書き文字入力部172により入力された文字又は画像である。これにより、携帯電話機1は、表示部11への接触に応じて入力された手書き文字を、起動させた文字入力アプリケーションに入力させるため、より直感的で簡易な操作により文字入力アプリケーションを起動させることができる。また、携帯電話機1は、起動させた文字入力アプリケーションには手書き文字が入力されるため、文字入力アプリケーションを起動させる際におけるユーザの利便性を更に向上させることができる。
また、上述したように、手書き文字入力部172は、領域指定部173により指定された領域R1内に手書き文字を入力させる。これにより、携帯電話機1は、指定された領域R1内の手書き文字を文字入力アプリケーションに入力させるため、より直感的な操作で文字入力アプリケーションに文字を入力させることができる。
次に、第1実施形態において、表示部11に表示されている文字を利用してアプリケーションを起動させる場合の処理について図4から図8を参照しながら説明する。
図4は、タッチペン18によるタッチパネル10への接触を検出部12により検出する処理を示すフローチャートである。
ステップS1において、アプリケーション制御部171は、タッチペン18によるタッチパネル10への接触を検出部12により検出する。
ステップS2において、アプリケーション制御部171は、接触された位置がピクト領域Pを表示している位置であるか否かを判定する。ピクト領域Pを表示している位置である場合(YES)には、ステップS3へ進む。ピクト領域Pを表示している位置でない場合(NO)には、ステップS4へ進む。
ステップS3において、アプリケーション制御部171は、手書き文字を入力するための領域指定を行う。領域指定が行われた後に、当該領域内に手書き文字を入力することが可能となる。
ステップS4において、アプリケーション制御部171は、既に起動しているアプリケーションに対する処理を行う。例えば、既にブラウザアプリケーションが起動していれば、ブラウザアプリケーションにおける項目の選択等を行うことが可能となる。
図5から図8は、アプリケーション制御部171による処理を示すフローチャートである。
ステップS11において、アプリケーション制御部171は、ステップS3において送信されたタッチペン18によるイベントを受信する。
ステップS12において、アプリケーション制御部171は、タッチペン18によるイベントの内容を判定する。具体的には、アプリケーション制御部171は、タッチペン18によるイベントが、タッチペン18の接触が検出された場合、タッチペン18の接触が検出されたままタッチペン18がタッチパネル10上で動かされた場合、又はタッチペン18がタッチパネル10から離れた場合のいずれかであるかを判定する。
そして、アプリケーション制御部171は、タッチペン18の接触が検出された場合には、ステップS13へ進み(図6参照)、タッチペン18の接触が検出されたままタッチペン18がタッチパネル10上で動かされた(スライドが検出された)場合には、ステップS19(図7参照)へ進み、タッチペン18がタッチパネル10から離れた場合には、ステップS25(図8参照)へ進む。
ステップS13において、アプリケーション制御部171は、領域指定部173により領域が指定されていない状態であるか、すなわち、領域指定部173の状態が初期状態であるか否かを判定する。初期状態である場合(YES)には、ステップS14へ進む。初期状態でない場合(NO)には、ステップS15へ進む。
ステップS14において、アプリケーション制御部171は、手書き文字認識用アプリケーションを起動させて、領域指定部173により領域を指定可能な状態に設定する。
ステップS15において、アプリケーション制御部171は、タッチペン18による接触が領域指定部173により指定された領域の枠であるか否かを判定する。領域指定部173により指定された領域の枠である場合(YES)には、ステップS16へ進む。領域指定部173により指定された領域の枠でない場合(NO)には、ステップS17へ進む。
ステップS16において、アプリケーション制御部171は、領域指定部173により指定された領域及び領域内の手書き文字が一体となってタッチペン18のドラッグにより移動可能な状態に設定する。
ステップS17において、アプリケーション制御部171は、指定された領域内であるか否かを判定する。指定された領域内である場合(Yes)には、ステップS18へ進む。指定された領域内でない場合(No)には、処理を終了する。
ステップS18において、アプリケーション制御部171は、領域指定部173により指定された領域を手書き文字入力部172による手書き文字の入力が可能な状態に設定する。
ステップS19において、アプリケーション制御部171は、タッチペン18によるイベントの内容を判定する。具体的には、アプリケーション制御部171は、領域指定部173により領域を指定可能な状態である場合には、ステップS20へ進み、領域及び領域内の手書き文字がタッチペン18のドラッグにより移動可能な状態である場合には、ステップS23へ進み、指定された領域を手書き文字入力部172による手書き文字の入力が可能な状態である場合には、ステップS24へ進む。
ステップS20において、領域指定部173は、手書き文字認識用アプリケーションを起動させて、タッチペン18によって表示部11に描かれた軌跡を検出部12により検出する。そして、領域指定部173は、検出された軌跡によって囲まれる領域を描画処理して、手書き文字を入力可能な領域として指定する。
ステップS21において、アプリケーション制御部171は、領域指定部173により指定された領域の範囲が確定されたか否かを判定する。領域の範囲が確定された場合(YES)には、ステップS22へ進む。領域の範囲が確定されない場合(NO)には、処理を終了する。
ステップS22において、アプリケーション制御部171は、領域指定部173により指定された領域の範囲が確定された状態を維持する。
ステップS23において、アプリケーション制御部171は、領域指定部173により指定された領域及び領域内の手書き文字がタッチペン18のドラッグにより移動する状態を表す画像を、手書き文字認識用アプリケーションにより描画処理させる。
ステップS24において、アプリケーション制御部171は、手書き文字入力部172により入力された手書き文字の画像を手書き文字認識用アプリケーションにより描画処理させる。
ステップS25において、アプリケーション制御部171は、タッチペン18によるイベントの内容を判定する。具体的には、アプリケーション制御部171は、領域指定部173により領域を指定可能な状態である場合には、ステップS26へ進み、領域及び領域内の手書き文字がタッチペン18のドラッグにより移動可能な状態である場合には、ステップS29へ進み、指定された領域を手書き文字入力部172による手書き文字の入力が可能な状態である場合には、ステップS34へ進む。
ステップS26において、アプリケーション制御部171は、領域指定部173により指定された領域の範囲が確定されたか否かを判定する。領域の範囲が確定された場合(YES)には、ステップS27へ進む。領域の範囲が確定されない場合(NO)には、ステップS28へ進む。
ステップS27において、アプリケーション制御部171は、領域指定部173により指定された領域を手書き文字入力部172による手書き文字の入力が可能な状態に設定する。
ステップS28において、アプリケーション制御部171は、領域指定部173により領域が指定されていない状態、すなわち、領域指定部173の状態を初期状態に設定する。
ステップS29において、アプリケーション制御部171は、いずれかの端部領域と対応付けられた文字入力アプリケーションのアイコンが表示部11に表示されているか否かを判定する。アイコンが表示されている場合(YES)には、ステップS30へ進む。アイコンが表示されていない場合(NO)には、再度ステップS25へ戻る。
ステップS30において、アプリケーション制御部171は、領域指定部173により指定された領域がタッチペン18の操作によって、文字入力アプリケーションのアイコンのいずれかにドラッグされ、かつアイコンがいずれかの文字入力アプリケーションと対応付けられているか否かを判定する。アイコンが文字入力アプリケーションと対応付けられている場合(YES)には、ステップS31へ進む。アイコンが文字入力アプリケーションと対応付けられていない場合(NO)には、ステップS34へ進む。
ステップS31において、手書き文字入力部172は、手書き文字認識用アプリケーションによって、検出された軌跡と手書き文字認識用データベースに記憶される文字とのパターンマッチングを行い、最も認識率の高い文字をテキストデータに変換する。
ステップS32において、手書き文字入力部172は、変換後のテキストデータをアイコンと対応付けられている文字入力アプリケーションに送信する。
ステップS33において、アプリケーション制御部171は、領域指定部173により領域が指定されていない状態、すなわち、領域指定部173の状態を初期状態に設定する。
ステップS34において、アプリケーション制御部171は、領域指定部173により指定された領域を手書き文字入力部172による手書き文字の入力が可能な状態に設定する。
ステップS35において、手書き文字入力部172は、タッチペン18により描かれた軌道の入力を確定する。
このように第1実施形態の携帯電話機1によれば、アプリケーション制御部171は、表示部11に表示されている文字又は画像を用いた直感的な操作によって文字入力アプリケーションを起動させて、選択されている文字又は画像を文字入力アプリケーションに入力させることができる。
<第2実施形態>
次に、本発明の携帯電子機器に係る第2実施形態について説明する。第2実施形態については、主として、第1実施形態とは異なる点を説明し、第1実施形態と同様の構成について同一符号を付し、説明を省略する。第2実施形態について特に説明しない点については、第1実施形態についての説明が適宜適用される。
第2実施形態に係る携帯電話機1は、文字又は画像を端部領域へ移動させる指示に替えて、文字又は画像を所定方向へ移動させる指示を行う点が第1実施形態とは異なる。
すなわち、アプリケーション制御部171は、表示部11に文字又は画像が表示されている状態において、文字又は画像のいずれかが選択された後に、文字又は画像を所定方向へ移動させる指示(例えば、右方向への摺動操作)が行なわれると、当該所定方向に対応付けて記憶される文字入力アプリケーションを起動させて、選択された文字又は画像を入力させる。
また、記憶部16には、表示部11の所定方向へのいずれかと文字入力アプリケーションとを対応付けて記憶する。
具体的には、記憶部16には、例えば、表示部11の右方向への摺動操作とメモ帳アプリケーションとが対応付けられ、表示部11の左方向への摺動操作と電子メールアプリケーションとが対応付けられ、表示部11の上方向への摺動操作とテキスト編集用アプリケーションとが対応付けられ、表示部11の下方向への摺動操作とブラウザアプリケーションとが対応付けられる。
このように携帯電話機1において、ユーザは選択された文字又は画像を所定方向へ移動させる指示を行うことにより、端部領域に対応付けて記憶される文字入力アプリケーションを起動させて、選択された文字又は画像を入力させることができる。したがって、ユーザは簡易かつ直感的な操作により所定方向に対応付けて記憶される文字入力アプリケーションを選択することができる。
図9は、第2実施形態に係る表示部11に表示される画面遷移例を示す図である。
図3の画面D11においては、ブラウザアプリケーションが起動しており、画像F1が表示部11に表示されている。
図9の画面D11において、領域指定部173は、タッチペン18によるピクト領域Pへの接触が検出部12により検出された場合(画面D11)、手書き文字認識用アプリケーションを起動させて、タッチペン18によって表示部11に描かれた軌跡を検出部12により検出する(画面D12)。領域指定部173は、検出された軌跡によって囲まれる領域を、手書き文字認識用アプリケーションにより手書き文字を入力可能な領域R1として指定する。
手書き文字入力部172は、領域指定部173により指定された領域R1内において、タッチペン18によって描かれた軌跡を検出部12により検出する。
そして、手書き文字入力部172は、タッチペン18によって表示部11に描かれた軌跡が特定の範囲を囲むことにより、描かれた軌跡の範囲を確定させる(画面D13)。
画面D13において、アプリケーション制御部171は、手書き文字入力部172により手書き文字「あいうえ」が入力されている領域R1に対する接触が検出部12により検出されることに応じて、認識された文字「あいうえ」を選択する。
アプリケーション制御部171は、領域R1への選択が維持された状態において、領域指定部173により指定された領域R1がタッチペン18の操作によって表示部11の右側方向へ摺動させる指示(いわゆるフリック又はスワイプ)が行われると、右側方向への摺動に対応付けて記憶されているメモ帳アプリケーションのアイコンA1、すなわち、メモ帳アプリケーションを起動させるためのランチャーが動的に表示される(画面D14)。
このように携帯電話機1は、所定方向に対応付けて記憶される文字入力アプリケーションそれぞれに対応するアイコンを表示させるため、ユーザは、表示されたアイコンを視認することにより、どのような文字入力アプリケーションが起動するのかを直感的に認識することができる。
画面D14において、アプリケーション制御部171は、タッチペン18による表示部1への接触が解除されたことが検出部12により検出されると、すなわち、領域R1への選択が解除されると、右側方向への摺動に対応付けて記憶される文字入力アプリケーションを起動させて、領域R1において認識された文字「あいうえ」を入力させる(画面D15)。携帯電話機1は、文字又は画像への選択が解除されることにより、所定方向に対応付けて記憶される文字入力アプリケーションを起動させるため、より直感的な操作で文字入力アプリケーションを起動させることができる。
また、アプリケーション制御部171は、起動したメモ帳アプリケーションが終了した場合に、領域R1が選択される直前に表示されていた文字又は画像を表示部11に表示させる(画面D11)。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に制限されるものではなく、適宜変更が可能である。
例えば、端部領域や所定方向に対応付けられるアプリケーションは、ユーザが設定してもよく、予め設定されていてもよい。また、端部領域又は所定方向への摺動操作と電子メールアプリケーションが対応付けられている場合において、選択された文字にアドレス帳の宛先が含まれている場合には、選択された文字に対応するアドレス帳の宛先を、起動された電子メールアプリケーションの宛先欄に、入力させてもよい。
図10は、表示部11の各端部領域(又は各所定方向)に対応付けられている文字入力アプリケーションのアイコンを示す画面例である。図10に示す画面例において、表示部11の右側の端部領域には、メモ帳アプリケーションが対応付けられており、メモ帳アプリケーションのアイコンB1が表示可能となっている。また、表示部11の上側の端部領域には、テキスト編集(テキストエディタ)アプリケーションが対応付けられており、テキスト編集アプリケーションのアイコンB2が表示可能となっている。また、表示部11の左側の端部領域には、電子メールアプリケーションが対応付けられており、電子メールアプリケーションのアイコンB3が表示可能となっている。また、表示部11の下側の端部領域には、ブラウザアプリケーションが対応付けられており、ブラウザアプリケーションのアイコンB4が表示可能となっている。なお、図10は、各アイコンB1〜B4の例について示す図であり、実際には、各アイコンB1〜B4は、同時に表示部11に表示されることはなく、1つずつ表示される。
図11は、図10に示す各端部領域に対応付けられている文字入力アプリケーションの設定画面を示す画面例である。図11に示すように、設定画面において、制御部17は、各端部領域(上側、下側、左側、右側)と、各端部領域に対応付けることが可能な文字入力アプリケーションとを表示部11に表示させる。そして、制御部17は、各端部領域に対応付けることが可能な文字入力アプリケーションを、ユーザによる任意の選択に応じて設定する。例えば、図10において、制御部17は、右側の端部領域に設定されているメモ帳アプリケーションがユーザの選択によりTwitter(登録商標)用アプリケーションに設定(変更)される。そして、制御部17は、メモ帳アプリケーションのアイコンに替えて、右側の端部領域に対応付けられるTwitter(登録商標)用アプリケーションを表示部11に表示可能な状態に設定にする。
また、上述した実施形態では、手書き文字入力部172は、領域指定部173により領域を指定した後に、手書き文字入力部172によりタッチペン18によって描かれた軌跡(文字又は画像)を検出したが、手書き文字入力部172によりタッチペン18によって描かれた軌跡(文字又は画像)を検出した後に、領域指定部173により領域を指定してもよい。
また、上述した実施形態では、ブラウザアプリケーションが起動しており、画像F1が表示部11に表示されている例について説明したが、他のアプリケーションが起動している状態からでも本発明を適用可能であり、また待ち受け画面が表示されている状態からでも本発明を適用可能である。
また、上述した実施形態において、携帯電子機器としての携帯電話機1について説明したが、他の携帯電子機器にも適用可能である。例えば、本発明の携帯電子機器は、デジタルカメラ、PHS(登録商標;Personal Handy phone System)、PDA(Personal Digital Assistant)、ポータブルナビゲーション装置、パソコン、ノートパソコン、携帯ゲーム装置等であってもよい。
1 携帯電話機(携帯電子機器)
10 タッチパネル
11 表示部
12 検出部
17 制御部
171 アプリケーション制御部
172 手書き入力部
173 領域指定部

Claims (16)

  1. 表示部と、
    前記表示部の端部領域の少なくとも1つに文字入力アプリケーションを対応付けて記憶する記憶部と、
    前記文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触が所定軌跡を描くと、当該接触後に手書き文字又は手書き画像の入力を可能とし、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させる制御部と、を備える携帯電子機器。
  2. 表示部と、
    前記表示部の端部領域の少なくとも1つに文字入力アプリケーションを対応付けて記憶する記憶部と、
    前記文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触による手書き文字又は手書き画像の入力を可能とし、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させる制御部と、を備える携帯電子機器。
  3. 前記制御部は、前記手書き文字又は手書き画像を前記端部領域へ移動させる指示が行なわれた後に、前記手書き文字又は手書き画像の選択が解除されると、前記端部領域に対応付けて記憶される前記文字入力アプリケーションへ入力させる請求項1又は2に記載の携帯電子機器。
  4. 前記制御部は、前記手書き文字又は手書き画像を前記端部領域へ移動させる指示が行なわれた後に、前記手書き文字又は手書き画像の選択が維持された状態において、前記端部領域に対応付けて記憶される前記文字入力アプリケーションに対応するアイコンを前記表示部に表示させる請求項1から3のいずれか一項に記載の携帯電子機器。
  5. 表示部と、
    前記表示部の所定方向のいずれかと文字入力アプリケーションとを対応付けて記憶する記憶部と、
    前記文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触が所定軌跡を描くと、当該接触後に手書き文字又は手書き画像の入力を可能とし、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させる制御部と、を備える携帯電子機器。
  6. 表示部と、
    前記表示部の所定方向のいずれかと文字入力アプリケーションとを対応付けて記憶する記憶部と、
    前記文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触による手書き文字又は手書き画像の入力を可能とし、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させる制御部と、を備える携帯電子機器。
  7. 前記制御部は、前記手書き文字又は手書き画像を前記所定方向へ移動させる指示が行なわれた後に、前記手書き文字又は手書き画像の選択が解除されると、前記所定方向に対応付けて記憶される前記文字入力アプリケーションへ入力させる請求項5又は6に記載の携帯電子機器。
  8. 前記制御部は、前記手書き文字又は手書き画像を前記所定方向へ移動させる指示が行なわれた後に、前記手書き文字又は手書き画像の選択が維持された状態において、前記所定方向に対応付けて記憶される前記文字入力アプリケーションに対応するアイコンを前記表示部に表示させる請求項5から7のいずれか一項に記載の携帯電子機器。
  9. 前記制御部は、起動した前記文字入力アプリケーションが終了した場合に、前記手書き文字又は手書き画像が選択される直前に表示されていたアプリケーションを前記表示部に表示させる請求項1からのいずれか一項に記載の携帯電子機器。
  10. 前記表示部の表面に対応して配され、前記表示部への接触を検出する検出部を更に備え、
    前記制御部は、入力された前記手書き文字又は手書き画像に対する接触が維持された状態において、当該接触の移動が前記検出部により検出されると、前記手書き文字又は手書き画像を移動させる指示を行なわせる請求項1からのいずれか一項に記載の携帯電子機器。
  11. 前記検出部により前記表示部への接触を検出して手書き文字を入力させる手書き文字入力部を更に備え、
    前記表示部に表示されている手書き文字又は手書き画像は、前記手書き文字入力部により入力された手書き文字又は手書き画像である請求項10に記載の携帯電子機器。
  12. 前記検出部により前記表示部への接触を検出して前記表示部に前記手書き文字を入力させる領域を指定する領域指定部を更に備え、
    前記手書き文字入力部は、前記領域指定部により指定された領域内に手書き文字を入力させる請求項10に記載の携帯電子機器。
  13. 文字又は画像を表示部に表示するステップと、
    文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触が所定軌跡を描くと、当該接触後に手書き文字又は手書き画像の入力を可能とするステップと、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記表示部の端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させるステップと、を備える携帯電子機器の制御方法。
  14. 文字又は画像を表示部に表示するステップと、
    文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触が所定軌跡を描くと、当該接触後に手書き文字又は手書き画像の入力を可能とするステップと、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記表示部の所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させるステップと、を備える携帯電子機器の制御方法。
  15. 表示部を備える携帯電子機器のコンピュータを機能させるための制御プログラムであって、
    前記コンピュータに、
    文字又は画像を前記表示部に表示させるステップと、
    文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触が所定軌跡を描くと、当該接触後に手書き文字又は手書き画像の入力を可能とするステップと、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記表示部の端部領域へ移動させる指示が行なわれると、当該端部領域に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させるステップと、を実行させるための制御プログラム。
  16. 表示部を備える携帯電子機器のコンピュータを機能させるための制御プログラムであって、
    前記コンピュータに、
    文字又は画像を前記表示部に表示させるステップと、
    文字入力アプリケーションと異なる他のアプリケーションの画面が前記表示部に表示されている状態において、前記表示部の所定領域を起点とする接触が所定軌跡を描くと、当該接触後に手書き文字又は手書き画像の入力を可能とするステップと、
    入力された前記手書き文字又は手書き画像が前記表示部に表示されている状態において、当該手書き文字又は手書き画像を前記表示部の所定方向へ移動させる指示が行なわれると、当該所定方向に対応付けて記憶される前記文字入力アプリケーションへ当該手書き文字又は手書き画像を入力させるステップと、を実行させるための制御プログラム。
JP2010232955A 2010-10-15 2010-10-15 携帯電子機器、携帯電子機器の制御方法及びプログラム Expired - Fee Related JP5739131B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010232955A JP5739131B2 (ja) 2010-10-15 2010-10-15 携帯電子機器、携帯電子機器の制御方法及びプログラム
PCT/JP2011/073497 WO2012050153A1 (ja) 2010-10-15 2011-10-13 携帯電子機器、携帯電子機器の制御方法及びプログラム
US13/879,537 US9851867B2 (en) 2010-10-15 2011-10-13 Portable electronic device, method of controlling same, and program for invoking an application by dragging objects to a screen edge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232955A JP5739131B2 (ja) 2010-10-15 2010-10-15 携帯電子機器、携帯電子機器の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012088799A JP2012088799A (ja) 2012-05-10
JP5739131B2 true JP5739131B2 (ja) 2015-06-24

Family

ID=45938377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232955A Expired - Fee Related JP5739131B2 (ja) 2010-10-15 2010-10-15 携帯電子機器、携帯電子機器の制御方法及びプログラム

Country Status (3)

Country Link
US (1) US9851867B2 (ja)
JP (1) JP5739131B2 (ja)
WO (1) WO2012050153A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5360140B2 (ja) * 2011-06-17 2013-12-04 コニカミノルタ株式会社 情報閲覧装置及び制御プログラム並びに制御方法
CN104380227A (zh) * 2012-06-15 2015-02-25 株式会社尼康 电子设备
KR102129374B1 (ko) * 2012-08-27 2020-07-02 삼성전자주식회사 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102026947B1 (ko) * 2013-01-24 2019-09-30 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP6189607B2 (ja) * 2013-02-28 2017-08-30 京セラ株式会社 携帯電子機器、画像編集方法及び画像編集プログラム
KR102157270B1 (ko) 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10712918B2 (en) 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US10747416B2 (en) 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
JP6359317B2 (ja) * 2014-04-01 2018-07-18 シャープ株式会社 端末、サーバ、サーバのメッセージ処理方法、システム、及び、プログラム。
KR20150144641A (ko) * 2014-06-17 2015-12-28 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US10089001B2 (en) * 2015-08-24 2018-10-02 International Business Machines Corporation Operating system level management of application display

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0342713A (ja) * 1989-07-11 1991-02-22 Meta Corp Japan:Kk ユーザインターフェース方式
JPH0918566A (ja) 1995-06-30 1997-01-17 Hitachi Ltd 電話機
JPH1049289A (ja) * 1996-08-07 1998-02-20 Sharp Corp 文字データ処理装置
US6313853B1 (en) * 1998-04-16 2001-11-06 Nortel Networks Limited Multi-service user interface
WO2004104807A1 (ja) * 2003-05-26 2004-12-02 Fujitsu Limited アイテム選択方法、情報処理装置及びコンピュータ読み取り可能な記憶媒体
US7181695B2 (en) * 2004-01-13 2007-02-20 Nbor Corporation System and method for sending and receiving electronic messages using graphic directional indicators
CN100407223C (zh) * 2004-04-02 2008-07-30 诺基亚公司 一种用于手写识别的设备和方法
US7441202B2 (en) * 2005-02-14 2008-10-21 Mitsubishi Electric Research Laboratories, Inc. Spatial multiplexing to mediate direct-touch input on large displays
US7750893B2 (en) * 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
JP2007200243A (ja) 2006-01-30 2007-08-09 Kyocera Corp 携帯端末装置、携帯端末装置の制御方法及びプログラム
JP4240042B2 (ja) * 2006-03-15 2009-03-18 ブラザー工業株式会社 画像処理プログラム
US8031184B2 (en) * 2007-01-19 2011-10-04 Lg Electronics Inc. Inputting information through touch input device
KR101569427B1 (ko) * 2008-10-02 2015-11-16 삼성전자주식회사 휴대 단말기의 터치 입력 장치 및 그의 운영 방법
US9678659B2 (en) * 2009-12-31 2017-06-13 Verizon Patent And Licensing Inc. Text entry for a touch screen
US20120054657A1 (en) * 2010-08-31 2012-03-01 Nokia Corporation Methods, apparatuses and computer program products for enabling efficent copying and pasting of data via a user interface

Also Published As

Publication number Publication date
US9851867B2 (en) 2017-12-26
US20130298054A1 (en) 2013-11-07
JP2012088799A (ja) 2012-05-10
WO2012050153A1 (ja) 2012-04-19

Similar Documents

Publication Publication Date Title
JP5739131B2 (ja) 携帯電子機器、携帯電子機器の制御方法及びプログラム
US20220221985A1 (en) Portable Touch Screen Device, Method, and Graphical User Interface for Using Emoji Characters
US10928993B2 (en) Device, method, and graphical user interface for manipulating workspace views
JP5204305B2 (ja) 携帯用端末機におけるパターン認識を用いたユーザインターフェース装置及び方法
US20170329511A1 (en) Input device, wearable terminal, mobile terminal, method of controlling input device, and control program for controlling operation of input device
US20140152585A1 (en) Scroll jump interface for touchscreen input/output device
US9740400B2 (en) Electronic device and method for character deletion
EP2523070A2 (en) Input processing for character matching and predicted word matching
US20120032908A1 (en) Method for providing user interface (ui) to detect multipoint stroke and multimedia apparatus using the same
US11379116B2 (en) Electronic apparatus and method for executing application thereof
BRPI0710716A2 (pt) aparelho eletrÈnico dotado de uma interface com o usuário para entrada de sìmbolo; método para entrada de sìmbolo em um aparelho eletrÈnico dotado de um visor; e produto de programa de computador
WO2012020751A1 (ja) 電子機器及びその制御方法
US20140240262A1 (en) Apparatus and method for supporting voice service in a portable terminal for visually disabled people
US8766937B2 (en) Method of facilitating input at an electronic device
JP5667632B2 (ja) 電子機器及びその制御方法
EP2741194A1 (en) Scroll jump interface for touchscreen input/output device
EP2568370B1 (en) Method of facilitating input at an electronic device
JP5641844B2 (ja) 電子機器及びその制御方法
CA2793436C (en) Method of facilitating input at an electronic device
KR20130140361A (ko) 터치스크린을 구비하는 단말에서 데이터 입력 방법 및 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150423

R150 Certificate of patent or registration of utility model

Ref document number: 5739131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees